網路議題

觀點:對於少數族群而言,帶有偏見的 AI 演算法能夠破壞生活的方方面面

觀點:對於少數族群,具有偏見的 AI 演算法可能破壞生活的每個方面 作者:Arshin Adib-Moghaddam(翻譯:) 背景 偏誤的資料不僅會導致錯誤的結果,還可能助長對某些社會群體的壓制,例如弱勢婦女和少數族群。這是我在關於種族主義和性別主義與人工 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

觀點:對於少數族群而言,帶有偏見的 AI 演算法能夠破壞生活的方方面面

觀點:對於少數族群,具有偏見的 AI 演算法可能破壞生活的每個方面

作者:Arshin Adib-Moghaddam(翻譯:)

背景

偏誤的資料不僅會導致錯誤的結果,還可能助長對某些社會群體的壓制,例如弱勢婦女和少數族群。這是我在關於種族主義和性別主義與人工智慧(AI)關係的新書中所主張的論點。這個問題非常嚴重。演算法通常需要接觸資料,通常是從網際網路上獲取,以便在特定領域中提高效能,例如篩選職位申請或核保房屋抵押。然而訓練資料往往包含現實世界中存在的許多偏見。例如,演算法可能會學到特定職位中大多數人是男性,因此會傾向於在職位申請中偏袒男性。

我在研究這本書時,記錄了一些著名的例子。例如,面部識別軟體常常會誤識黑人和亞洲少數群體,導致他們在美國和其他地方被誤認而遭到逮捕。在刑事司法系統中使用的軟體預測黑人違法者的再犯率比實際情況高。已經發生過錯誤的醫療決策事件。一項研究發現,使用於美國醫療管理的演算法將黑人和白人患者分配相同的健康風險評分,然而黑人患者通常比同樣患病的白人更嚴重。這導致額外護理物件的黑人患者數量減少了一半以上。由於對比於白人而言,黑人被分配的醫療費用更少,演算法誤認黑人患者比同樣患病的白人更健康。偏見的資料集促成了對少數族群的抵押貸款被拒絕等問題。

AI 演算法和生活的入侵

AI 演算法的介入已經涵蓋了我們生活的幾乎每個領域。融入金權的市場環境中,它被定義為無偏見的。我們被告知機器不會撒謊。因此邏輯推理是,沒有人應該被責怪。假諾客觀性是矽谷科技巨頭們創造的 AI 狂熱的核心。這一點可以從埃隆·馬斯克(Elon Musk)、馬克·扎克伯格(Mark Zuckerberg)和比爾·蓋茨(Bill Gates)等人的演講中清楚看出,即使他們不時向我們警告他們本人負責的專案。

這涉及到了各種未得到解決的法律和道德問題。誰對錯誤承擔責任?一個因演算法基於種族背景而拒絕假釋的人能否像因廚房中一臺烤麵包機爆炸而索賠一樣索賠賠償?AI 技術的不透明性對建立在個人或人類責任基礎上的法律制度構成了嚴重的挑戰。更重要的是,基本的人權受到了威脅,因為法律責任被技術迷宮所模糊,而這種模糊性使得各種方式的歧視可以方便地歸咎於機器。

倫理與法律的真空

在這樣一個很難將真相和現實與虛假區分開來的世界中,我們的隱私需要得到法律保護。保護隱私權和虛擬及現實生活資料的所有權,需要將其明確地定為人權,尤其是為了開採良好 AI 帶來的真實機會。但事實如今是,創新者遠遠領先於我們。技術已超越立法。因此這種倫理和法律真空很容易被罪犯所利用,因為這個勇敢新的 AI 世界在很大程度上屬於無政府狀態。我們出於過去的錯誤而蒙蔽,進入了一個沒有任何治安官來監管我們日常生活中蔓延的數位世界的荒蕪西部。悲劇已經每天發生。必須立即採取行動,以一場有力的社會運動來反對這個新 AI 的倫理、政治和社會代價。第一步是教育自己,理解當下正在發生的事情,因為我們的生活將永遠不再相同。我們有責任為這個全新的 AI 未來計劃行動路線。只有這樣,良好使用 AI 的方式才能在當地、國家和全球機構中成為法定。

Discrimination-AI 演算法,偏見,少數族群,生活破壞
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。