AIGC

Google 和微軟的聊天機器人編造超級盃統計

## Google 和 Microsoft 的聊天機器人虛構超級盃統計 Google 與 Microsoft 聊天機器人失準已非新鮮事近期有報導指出,Google 的 Gemini 聊天機器人與 Microsoft 的 Copilot 聊天機器人甚至在虛構處理 2024 年超級盃的統計資料。這引發了對 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

Google 和微軟的聊天機器人編造超級盃統計
## Google 和 Microsoft 的聊天機器人虛構超級盃統計

Google 與 Microsoft 聊天機器人失準已非新鮮事

近期有報導指出,Google 的 Gemini 聊天機器人與 Microsoft 的 Copilot 聊天機器人甚至在虛構處理 2024 年超級盃統計資料。這引發了對當今人工智慧(AI)的約束以及過度信任它可能帶來的危險進一步的討論。

Gemini 與 Copilot 的失準

Google 的 Gemini 聊天機器人,前身為 Bard,在 Reddit 主題中試圖回答與 2024 年超級盃 LVIII 有關的問題,結果卻顯示出這款機器人誤認為比賽已經結束。更令人驚訝的是,它甚至提供了(虛構的)統計資料來支援這一說法。而同樣地,Microsoft 的 Copilot 聊天機器人也堅持這場比賽已經結束,並提供了錯誤的引文來支援這一說法。兩者的誤判凸顯出當前各種 GenAI 的主要約束。

GenAI 存在的約束

日益普及的 GenAI(生成式人工智慧)模型並非真正具有智慧,而是基於大量公開網路來源的示例進行學習,模型透過模式識別來推斷資料(例如文字)出現的可能性。盡管這種基於機率的方法在大規模上效果顯著,但其中蘊含的不確保性卻是不可忽視的。

這種機率性方法也意味著 GenAI 模型能夠生成語法正確但毫無意義的文字,或者傳播錯誤的訊息。這些機器人並無惡意,對於機器來說真與假的概念是毫無意義的。它們只是學習了某些詞語或短語與特定概念的聯絡,即使這些聯絡並不準確。因此 Gemini 和 Copilot 對超級盃統計的虛構。

對 GenAI 的警惕

Google 和 Microsoft 等 GenAI 供應商,固然承認其應用並非完美,易於犯錯。然而在它們的小字宣告中,這一點可能會被輕易忽略。超級盃賽事的虛假訊息固然不是 GenAI 失誤中最嚴重的例子,但這卻是一個重要的提醒:需對 GenAI 機器人提供的陳述進行核查,因為它們可能沒有真實性。

在使用 GenAI 時,可能可以匯聚人工智慧專家的意見,利用人工智慧的優點,例如加速問題的解決,並配合上人類的理性思維和情感判斷,進行更加全方位和深入的衡量及運用。

因此我們應當對 GenAI 提出警惕,不應過度信任其提供的訊息,必須謹慎對待其結果,並保持對於科技的批判性思維。

ArtificialIntelligence-Google,微軟,聊天機器人,超級盃,統計

延伸閱讀

程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。