網路議題

AI 模型正在編碼偏見和負面定型觀念,研究人員指出。

研究人員指出,生成性 AI 模型在使用者中編碼了偏見和負面定型觀念背景近幾個月來,生成性 AI 模型如 ChatGPT、Google 的 Bard 和 Midjourney 等在各種專業和個人領域中越來越受人們的採用。然而日益增長的研究表明,這些模型在使用者中編碼了偏見和負面定型觀念,同時還大量生成 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

AI 模型正在編碼偏見和負面定型觀念,研究人員指出。

研究人員指出,生成性 AI 模型在使用者中編碼了偏見和負面定型觀念

背景

近幾個月來,生成性 AI 模型如 ChatGPT、Google 的 Bard 和 Midjourney 等在各種專業和個人領域中越來越受人們的採用。然而日益增長的研究表明,這些模型在使用者中編碼了偏見和負面定型觀念,同時還大量生成和散布看似準確但無意義的訊息。令人擔憂的是,弱勢群體在這種無意義訊息的創作過程中受到了不成比例的影響。此外大規模的創作有可能影響人類的信仰,因為驅動其執行的模型越來越普及,充斥於網際網路上。不僅人們從網路中獲取訊息,還有 AI 模型的主要訓練材料也來自於網路。換句話說,一個持續的反饋迴圈不斷演變,偏見和胡言亂語一再被重複接受。

問題的嚴重性

一篇發表在《Science》雜誌上的觀點文章以及莫三比克基金會(Mozilla Foundation)的可信 AI 高級研究員 Abeba Birhane 的合著,呼籲心理學家和機器學習專家迅速合作,評估這個問題的程度並提出解決方案。Birhane 教授表示:「人們通常透過詞語,回應的延遲,更正以及言語障礙等方式來表達不確保性。相比之下,生成性模型提供堂而皇之的回答,毫無不確保性的表現能力,也不具備無能力溝通的能力。因此相較於人類的輸入,這可能導致更大的扭曲,並使人們接受回答是事實準確的。這些問題通常因為營利和責任利益激勵的原因,而迫使公司將生成性模型人性化,使其看起來具有智慧、有感知能力、有同理心,甚至像是孩子一樣。"

案例分析:AI 模型將黑人被告定為更高風險

文章中提供了一個案例,闡述了一個模型中的統計規律,將黑人被告定為更高風險。學習到這些模式的法官可能會改變其判決實踐,以使其與算法的預測相符。這種統計學習的基本機制可能導致法官相信黑人更有可能再犯罪,即使像加州最近透過的法規等約束系統的使用。特別令人關注的是,一旦某個想法被個人接受,要消除其中的偏見或虛構訊息並不容易。兒童尤其容易受到影響,因為他們對技術更容易人格化,更容易受到影響。

專家呼籲:迅速進行深入分析以衡量生成性 AI 模型對人們信仰和偏見的影響

Birhane 教授指出:「研究和隨後的幹預措施應該最有效地集中在對弱勢群體的影響上,他們在模型的輸出中不僅受到製作虛構訊息的影響,還受到負面定型觀念的影響。此外還需要為公眾、政策制定者和跨學科科學家提供資源,以便對生成性 AI 模型的工作有實際的理解,並更正現有的對這些新技術的誤解和炒作。"

總之這項研究強調了生成性 AI 模型中存在的偏見和負面定型觀念以及其對人們信仰和偏見的影響。在這個訊息爆炸的時代,我們需要迅速的分析和解決方案來應對這個問題,並確保生成性 AI 模型能夠促進包容和多元化,而不是加劇偏見和負面定型觀念的傳播。

Bias-AI 模型,編碼偏見,負面定型觀念,研究人員
程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。