AIGC

Google 承認失去了影象生成 AI 的控制:尷尬且錯誤

## Google AI 失控:插入多元性卻失去歷史脈絡 技術新聞 當今在 AI 領域的風波不斷,Google 因最新一次 AI 失控事件向越來越誤抱歉(或者說幾乎道歉)。該事件涉及一個影象生成模型,在插入多元性時對歷史脈絡漫不經心。儘管造成的問題有其根源,Google 卻歸咎於模型"變得"過度敏感 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

Google 承認失去了影象生成 AI 的控制:尷尬且錯誤
## Google AI 失控:插入多元性卻失去歷史脈絡

技術新聞

當今在 AI 領域的風波不斷,Google 因最新一次 AI 失控事件向越來越誤抱歉(或者說幾乎道歉)。該事件涉及一個影象生成模型,在插入多元性時對歷史脈絡漫不經心。儘管造成的問題有其根源,Google 卻歸咎於模型"變得"過度敏感。然而值得指出的是,這個 AI 系統並非自己創造的。問題所在的 AI 系統被稱為 Gemini,是該公司旗艦式的對話 AI 平臺,當使用者提出要求時,它會呼叫 Imagen 2 模型的版本來生成影象。然而最近人們發現,當要求生成特定歷史情境或人物的影象時,結果可笑至極。例如,我們知道美國的開國元勳是白人奴隸主,但在生成的影象中卻是一群多元文化的人,包括有色人種。這一令人尷尬且輕易被模仿的問題很快被網路評論家拿來開玩笑。顯然,這也被繫結到關於多樣性、公平和包容的持續辯論中。一些評論者將此視為激進思想滲透至已經自由的科技行業的證據。但正如那些對技術有一定熟悉的人會告訴你,而且正如 Google 在這份相當謙卑的解釋性道歉後所指出的,這個問題其實是對訓練資料中的系統性偏見的一種合理妥協。

系統性偏見的合理妥協

由於訓練資料中的偏見,模型要求顯示各種人物,但卻忽視了歷史情境的重要性。實際上訓練資料中白人的比例較高,因此如果不做出特定要求,模型就可能預設為白人。然而由於 Google 指出“因為我們的使用者來自世界各地,我們希望它能夠適應每個人。如果你要求一張足球運動員的照片,或者是遛狗的人,你可能希望得到各種人物的影象。你可能不希望只收到一種族群的人的影象 (或者其他任何特徵)。”這種情況在各種生成媒體中很常見,而且並沒有簡單的解決辦法。

責任歸屬

Google 的模型出錯的原因在於,對於需要注重歷史脈絡的情況,它沒有給予隱性指令。因此對於這些錯誤,責任並不應歸於模型本身,而應歸於造成錯誤的人們。Google 便指責模型“變得”過度謹慎。然而一個模型怎麼可能“變得”?它不過是一個軟體。這次事件的錯誤歸咎於製造它的人們。今天是 Google,明天可能是 OpenAI,後天甚至可能是 X.AI 公司。這些公司都有強烈的利益使你相信 AI 正在犯自己的錯誤。不要被他們所誤導。
Artificial_Intelligence-Google,AI 控制,影象生成,失去控制,技術新聞
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。