Google 與 Microsoft 聊天機器人失準已非新鮮事
近期有報導指出,Google 的 Gemini 聊天機器人與 Microsoft 的 Copilot 聊天機器人甚至在虛構處理 2024 年超級盃的統計資料。這引發了對當今人工智慧(AI)的約束以及過度信任它可能帶來的危險進一步的討論。
Gemini 與 Copilot 的失準
Google 的 Gemini 聊天機器人,前身為 Bard,在 Reddit 主題中試圖回答與 2024 年超級盃 LVIII 有關的問題,結果卻顯示出這款機器人誤認為比賽已經結束。更令人驚訝的是,它甚至提供了(虛構的)統計資料來支援這一說法。而同樣地,Microsoft 的 Copilot 聊天機器人也堅持這場比賽已經結束,並提供了錯誤的引文來支援這一說法。兩者的誤判凸顯出當前各種 GenAI 的主要約束。
GenAI 存在的約束
日益普及的 GenAI(生成式人工智慧)模型並非真正具有智慧,而是基於大量公開網路來源的示例進行學習,模型透過模式識別來推斷資料(例如文字)出現的可能性。盡管這種基於機率的方法在大規模上效果顯著,但其中蘊含的不確保性卻是不可忽視的。
這種機率性方法也意味著 GenAI 模型能夠生成語法正確但毫無意義的文字,或者傳播錯誤的訊息。這些機器人並無惡意,對於機器來說真與假的概念是毫無意義的。它們只是學習了某些詞語或短語與特定概念的聯絡,即使這些聯絡並不準確。因此 Gemini 和 Copilot 對超級盃統計的虛構。
對 GenAI 的警惕
Google 和 Microsoft 等 GenAI 供應商,固然承認其應用並非完美,易於犯錯。然而在它們的小字宣告中,這一點可能會被輕易忽略。超級盃賽事的虛假訊息固然不是 GenAI 失誤中最嚴重的例子,但這卻是一個重要的提醒:需對 GenAI 機器人提供的陳述進行核查,因為它們可能沒有真實性。
在使用 GenAI 時,可能可以匯聚人工智慧專家的意見,利用人工智慧的優點,例如加速問題的解決,並配合上人類的理性思維和情感判斷,進行更加全方位和深入的衡量及運用。
因此我們應當對 GenAI 提出警惕,不應過度信任其提供的訊息,必須謹慎對待其結果,並保持對於科技的批判性思維。
延伸閱讀
- 微軟將於七月推出手機遊戲商店
- Google 為 Android 打造了一些最早期的社交應用程式,包括 Twitter 和其他應用
- Google 為 iPhone 使用者帶來「圈選搜尋」新變化
- Google 錢包正式登陸印度市場
- Google 新推出預算款 Pixel 8a,更新硬體配置,售價 499 美元
- 微軟和 OpenAI 啟動 200 萬美元基金以對抗選舉假影片
- Quora CEO Adam D’Angelo 分享人工智慧和聊天機器人平臺 Poe,並解釋為何 OpenAI 並非競爭對手
- Google 稱 Epic 在反壟斷訴訟勝訴後的要求「不必要」和「超出判決範圍」
- 微軟禁止美國警方使用企業 AI 工具進行臉部辨識
- Google 擴大 Passkey 支援,提前爲美國總統大選加固保護計畫