網路議題

索尼研究聲稱 AI 偏見測試忽略了膚色的重要層面

索尼研究聲稱 AI 偏見測試忽視膚色的重要層面背景近年來人工智慧(AI)行業一直致力於減少基於人們膚色明暗程度而產生的偏見,然而索尼的最新研究指出,應該進一步考慮紅色和黃色的膚色。索尼 AI 倫理研究人員在上個月發表的一篇論文中提出更加 "多方位" 的膚色測量方法,希望這能帶來更多樣化和具代表性的人 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

索尼研究聲稱 AI 偏見測試忽略了膚色的重要層面

索尼研究聲稱 AI 偏見測試忽視膚色重要層面

背景

近年來人工智慧(AI)行業一直致力於減少基於人們膚色明暗程度而產生的偏見,然而索尼的最新研究指出,應該進一步考慮紅色和黃色的膚色索尼 AI 倫理研究人員在上個月發表的一篇論文中提出更加 "多方位" 的膚色測量方法,希望這能帶來更多樣化和具代表性的人工智慧系統。

偏見測試的不足

多年來,研究人員一直在關注 AI 系統中的膚色偏見問題。其中一項重要的研究是 Joy Buolamwini 和 Timnit Gebru 於 2018 年進行的研究,發現 AI 在處理皮膚較深的女性時更容易出現錯誤。作為回應,許多公司已經加大了對系統在不同膚色下的準確性測試力度。例如,Google 去年推出了"Monk 膚色標度",使用 10 級的標度來測量從深到淺的一系列膚色。另一常用的測量方法是 Fitzpatrick 標度,它由六個類別組成。

然而索尼研究指出,這兩種標度主要集中在膚色的明暗程度上,忽略了其他重要的膚色層面。索尼全球 AI 倫理主管 Alice Xiang 在接受 Wired 採訪時表示:"如果產品只是這種單一的方式進行評估,許多偏見將無法被檢測和修正。我們希望我們在這裡的工作能夠取代一些現有的僅僅關注膚色明暗程度的膚色標度。"索尼研究人員在一篇部落格文章中特別指出,現有的標度沒有考慮到針對"東亞人、南亞人、西班牙裔、中東人和其他在明暗程度上無法被輕鬆分類的人"的偏見。

索尼的解決方案

索尼提出了一種基於預設的 CIELAB 彩色標準的自動化方法,以取代 Monk 標度的手動分類方法。索尼研究發現,常用的影象資料集過度代表淺色和紅色的膚色,而低估了較暗、較黃的膚色。這樣會使得 AI 系統的準確性降低。Wired 報導稱,索尼研究發現 Twitter 的影象裁剪器和其他兩個影象生成算法偏好紅色的膚色,而其他的 AI 系統則會錯誤地將具有紅色膚色色調的人分類為"更加笑臉"。

儘管索尼的方法更具多樣性,Monk 膚色標度的一部分之所以受到推崇是因為其簡單性。該系統有意約束為 10 種膚色,以提供多樣性,同時避免過多分類帶來的不一致性。Monk 在去年的一次訪談中表示:"通常來說如果你在這種標度上超過 10 或 12 個點並要求同一個人重複選擇相同的色調,你增加標度的數量越多,人們就越難以準確和可靠地區分。從認知角度來看,準確而可靠地區分變得非常困難。"Monk 還反駁了自己的標度不考慮底色和色調的觀點。他告訴 Wired:"研究是致力於決定在標度上優先考慮哪些底色和在哪些點上優先考慮底色的問題。"

展望與評論

雖然索尼研究提出了一個更全面的方法來評估 AI 算法對膚色的偏見,但這也引發了一些爭議。一些人認為 Monk 膚色標度更簡單易用,不容易引起分類不一致等問題。然而索尼研究提出的問題也不容忽視,膚色偏見應該被徹底研究並解決,以確保 AI 系統的公平性和準確性。

無論是 Monk 膚色標度還是索尼提出的基於 CIELAB 彩色標準的方法,都需要得到行業的廣泛接受和應用。公司應該加大對 AI 算法在不同膚色下的測試力度,確保 AI 系統在各種膚色背景下都能準確工作。此外政府和監管機構也應該密切關注 AI 偏見問題,制定相應的監管政策,確保 AI 的應用是公平和無偏見的。

最關鍵的是,AI 的偏見問題是一個與倫理和社會正義緊密相關的議題。我們應該進一步探討 AI 算法背後的價值觀和偏見,並尋求建立公正、包容的 AI 系統的方法。只有這樣,AI 才能成為一種真正服務於人類的工具,而不是加劇社會不平等和制度偏見的工具。

Biastesting-索尼,研究,AI,偏見測試,膚色,重要層面
程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。