
研究人員指出,生成性 AI 模型在使用者中編碼了偏見和負面定型觀念
背景
近幾個月來,生成性 AI 模型如 ChatGPT、Google 的 Bard 和 Midjourney 等在各種專業和個人領域中越來越受人們的採用。然而日益增長的研究表明,這些模型在使用者中編碼了偏見和負面定型觀念,同時還大量生成和散布看似準確但無意義的訊息。令人擔憂的是,弱勢群體在這種無意義訊息的創作過程中受到了不成比例的影響。此外大規模的創作有可能影響人類的信仰,因為驅動其執行的模型越來越普及,充斥於網際網路上。不僅人們從網路中獲取訊息,還有 AI 模型的主要訓練材料也來自於網路。換句話說,一個持續的反饋迴圈不斷演變,偏見和胡言亂語一再被重複接受。
問題的嚴重性
一篇發表在《Science》雜誌上的觀點文章以及莫三比克基金會(Mozilla Foundation)的可信 AI 高級研究員 Abeba Birhane 的合著,呼籲心理學家和機器學習專家迅速合作,評估這個問題的程度並提出解決方案。Birhane 教授表示:「人們通常透過詞語,回應的延遲,更正以及言語障礙等方式來表達不確保性。相比之下,生成性模型提供堂而皇之的回答,毫無不確保性的表現能力,也不具備無能力溝通的能力。因此相較於人類的輸入,這可能導致更大的扭曲,並使人們接受回答是事實準確的。這些問題通常因為營利和責任利益激勵的原因,而迫使公司將生成性模型人性化,使其看起來具有智慧、有感知能力、有同理心,甚至像是孩子一樣。"
案例分析:AI 模型將黑人被告定為更高風險
文章中提供了一個案例,闡述了一個模型中的統計規律,將黑人被告定為更高風險。學習到這些模式的法官可能會改變其判決實踐,以使其與算法的預測相符。這種統計學習的基本機制可能導致法官相信黑人更有可能再犯罪,即使像加州最近透過的法規等約束系統的使用。特別令人關注的是,一旦某個想法被個人接受,要消除其中的偏見或虛構訊息並不容易。兒童尤其容易受到影響,因為他們對技術更容易人格化,更容易受到影響。
專家呼籲:迅速進行深入分析以衡量生成性 AI 模型對人們信仰和偏見的影響
Birhane 教授指出:「研究和隨後的幹預措施應該最有效地集中在對弱勢群體的影響上,他們在模型的輸出中不僅受到製作虛構訊息的影響,還受到負面定型觀念的影響。此外還需要為公眾、政策制定者和跨學科科學家提供資源,以便對生成性 AI 模型的工作有實際的理解,並更正現有的對這些新技術的誤解和炒作。"
總之這項研究強調了生成性 AI 模型中存在的偏見和負面定型觀念以及其對人們信仰和偏見的影響。在這個訊息爆炸的時代,我們需要迅速的分析和解決方案來應對這個問題,並確保生成性 AI 模型能夠促進包容和多元化,而不是加劇偏見和負面定型觀念的傳播。
延伸閱讀
- Google 攜手 Anthropic 推出全新 AI 模型存取資料標準,革命性進展即將改變科技界!
- 「Inception 首度曝光!全新 AI 模型顛覆科技界!」
- 《Anthropic 利用寶可夢測試最新 AI 模型,成果驚人!》
- Google 悄然推出下一代旗艦 AI 模型,科技界即將震撼!
- AI2 推出新 AI 模型,成功超越 DeepSeek 最佳技術!
- xAI 新一代 AI 模型遲遲未發,背後隱藏的趨勢曝光!
- Google 執行長宣布:AI 模型 Gemini 將成為 2025 年最大焦點!
- 「DeepSeek 最新 AI 模型為何自認是 ChatGPT?揭祕背後的技術奧妙!」
- DeepSeek 推出新 AI 模型,成為最佳「開放挑戰者」!
- Pictionary 與 Minecraft:測試 AI 模型創意潛力的新戰場!