
Google 與 Microsoft 聊天機器人失準已非新鮮事
近期有報導指出,Google 的 Gemini 聊天機器人與 Microsoft 的 Copilot 聊天機器人甚至在虛構處理 2024 年超級盃的統計資料。這引發了對當今人工智慧(AI)的約束以及過度信任它可能帶來的危險進一步的討論。
Gemini 與 Copilot 的失準
Google 的 Gemini 聊天機器人,前身為 Bard,在 Reddit 主題中試圖回答與 2024 年超級盃 LVIII 有關的問題,結果卻顯示出這款機器人誤認為比賽已經結束。更令人驚訝的是,它甚至提供了(虛構的)統計資料來支援這一說法。而同樣地,Microsoft 的 Copilot 聊天機器人也堅持這場比賽已經結束,並提供了錯誤的引文來支援這一說法。兩者的誤判凸顯出當前各種 GenAI 的主要約束。
GenAI 存在的約束
日益普及的 GenAI(生成式人工智慧)模型並非真正具有智慧,而是基於大量公開網路來源的示例進行學習,模型透過模式識別來推斷資料(例如文字)出現的可能性。盡管這種基於機率的方法在大規模上效果顯著,但其中蘊含的不確保性卻是不可忽視的。
這種機率性方法也意味著 GenAI 模型能夠生成語法正確但毫無意義的文字,或者傳播錯誤的訊息。這些機器人並無惡意,對於機器來說真與假的概念是毫無意義的。它們只是學習了某些詞語或短語與特定概念的聯絡,即使這些聯絡並不準確。因此 Gemini 和 Copilot 對超級盃統計的虛構。
對 GenAI 的警惕
Google 和 Microsoft 等 GenAI 供應商,固然承認其應用並非完美,易於犯錯。然而在它們的小字宣告中,這一點可能會被輕易忽略。超級盃賽事的虛假訊息固然不是 GenAI 失誤中最嚴重的例子,但這卻是一個重要的提醒:需對 GenAI 機器人提供的陳述進行核查,因為它們可能沒有真實性。
在使用 GenAI 時,可能可以匯聚人工智慧專家的意見,利用人工智慧的優點,例如加速問題的解決,並配合上人類的理性思維和情感判斷,進行更加全方位和深入的衡量及運用。
因此我們應當對 GenAI 提出警惕,不應過度信任其提供的訊息,必須謹慎對待其結果,並保持對於科技的批判性思維。
延伸閱讀
- 震撼收購:Google 豪擲重金併購 Wiz,一週回顧
- Google 提議放寬 AI 政策中的版權與出口規則,引發爭議!
- 微軟加速 AI 研發程式,直指 OpenAI 競爭對手
- Google 推出 SpeciesNet:專為識別野生動物而設的人工智慧模型!
- Google 升級 Colab!全新 AI 代理工具助你提升生產力!
- 探索 DeepSeek:你必須理解的 AI 聊天機器人應用全指南!
- 微軟完成歐洲主權雲計劃,數位主權新時代來臨!
- Google 大幅簡化個人資訊刪除流程,搜尋結果隱私守護新上線!
- 「Glance 推出 AI 驅動購物體驗,獲 Google 新一輪資金支援!」
- 微軟刪除 AI 資料中心租賃,背後原因何在?