
技術新聞
當今在 AI 領域的風波不斷,Google 因最新一次 AI 失控事件向越來越誤抱歉(或者說幾乎道歉)。該事件涉及一個影象生成模型,在插入多元性時對歷史脈絡漫不經心。儘管造成的問題有其根源,Google 卻歸咎於模型"變得"過度敏感。然而值得指出的是,這個 AI 系統並非自己創造的。問題所在的 AI 系統被稱為 Gemini,是該公司旗艦式的對話 AI 平臺,當使用者提出要求時,它會呼叫 Imagen 2 模型的版本來生成影象。然而最近人們發現,當要求生成特定歷史情境或人物的影象時,結果可笑至極。例如,我們知道美國的開國元勳是白人奴隸主,但在生成的影象中卻是一群多元文化的人,包括有色人種。這一令人尷尬且輕易被模仿的問題很快被網路評論家拿來開玩笑。顯然,這也被繫結到關於多樣性、公平和包容的持續辯論中。一些評論者將此視為激進思想滲透至已經自由的科技行業的證據。但正如那些對技術有一定熟悉的人會告訴你,而且正如 Google 在這份相當謙卑的解釋性道歉後所指出的,這個問題其實是對訓練資料中的系統性偏見的一種合理妥協。
系統性偏見的合理妥協
由於訓練資料中的偏見,模型要求顯示各種人物,但卻忽視了歷史情境的重要性。實際上訓練資料中白人的比例較高,因此如果不做出特定要求,模型就可能預設為白人。然而由於 Google 指出“因為我們的使用者來自世界各地,我們希望它能夠適應每個人。如果你要求一張足球運動員的照片,或者是遛狗的人,你可能希望得到各種人物的影象。你可能不希望只收到一種族群的人的影象 (或者其他任何特徵)。”這種情況在各種生成媒體中很常見,而且並沒有簡單的解決辦法。
責任歸屬
而 Google 的模型出錯的原因在於,對於需要注重歷史脈絡的情況,它沒有給予隱性指令。因此對於這些錯誤,責任並不應歸於模型本身,而應歸於造成錯誤的人們。Google 便指責模型“變得”過度謹慎。然而一個模型怎麼可能“變得”?它不過是一個軟體。這次事件的錯誤歸咎於製造它的人們。今天是 Google,明天可能是 OpenAI,後天甚至可能是 X.AI 公司。這些公司都有強烈的利益使你相信 AI 正在犯自己的錯誤。不要被他們所誤導。
延伸閱讀
- 震撼收購:Google 豪擲重金併購 Wiz,一週回顧
- Google 提議放寬 AI 政策中的版權與出口規則,引發爭議!
- Google 推出 SpeciesNet:專為識別野生動物而設的人工智慧模型!
- Google 升級 Colab!全新 AI 代理工具助你提升生產力!
- OpenAI 重磅推出 GPT-4.5:歷史上最大的語言模型來了!
- Google 大幅簡化個人資訊刪除流程,搜尋結果隱私守護新上線!
- 「Glance 推出 AI 驅動購物體驗,獲 Google 新一輪資金支援!」
- Google 推出免費 AI 程式設計助手,使用約束超乎想像!
- 「Chegg 控告 Google!AI 搜尋摘要引發的科技法律戰」
- Google 推出新 AI 影片模型 Veo 2,每秒僅需 50 美分,讓創作成本大幅降低!