網路議題

自駕車軟體存在偏見?研究人員揭開真相

自駕車軟體中的偏見問題:偵測黑皮膚行人的困境研究發現偏見倫敦國王學院和北京大學的研究人員發現,用於偵測行人的自駕車軟體無法像偵測白皮膚個體那樣正確識別黑皮膚個體。他們測試了八種基於人工智慧的行人偵測器,這些偵測器被自駕車製造商使用。他們發現,在較輕和較暗的環境下,白皮膚與黑皮膚的識別準確性之間存在 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

自駕車軟體存在偏見?研究人員揭開真相

自駕車軟體中的偏見問題:偵測黑皮膚行人的困境

研究發現偏見

倫敦國王學院和北京大學的研究人員發現,用於偵測行人的自駕車軟體無法像偵測白皮膚個體那樣正確識別黑皮膚個體。他們測試了八種基於人工智慧的行人偵測器,這些偵測器被自駕車製造商使用。他們發現,在較輕和較暗的環境下,白皮膚與黑皮膚的識別準確性之間存在 7.5%的差距。更令人擔憂的是,他們發現在道路上的照明條件下,偵測黑皮膚行人的能力進一步降低。

研究人員之一的張傑明表示:"在對比度和亮度較低的情況下,對黑皮膚行人的偏見顯著增加。"白天,對黑皮膚行人的錯誤識別率從 7.14%增加到夜間的 9.86%。研究結果還顯示,相對於兒童,對成人的偵測率更高。與兒童相比,軟體對成人的識別率高出 20%。"在 AI 方面,公平是指 AI 系統對待特權和非特權群體的方式相同,但在自駕車方面,情況並非如此。"張傑明說。她指出,儘管汽車製造商的 AI 訓練資料來源保密,但可以確保它們建立在研究人員使用的相同開源系統之上。"我們可以肯定的是,他們遇到的偏見問題是相同的。"張傑明說。

張傑明指出,無論故意與否,偏見一直是個長期存在的問題。但在自駕車的行人識別中,風險更大。張傑明表示:"雖然非公平的 AI 系統的影響已經被充分記錄,比如 AI 招聘軟體偏袒男性申請者,面部識別軟體對黑人女性的準確性低於白人男性,自駕車所面臨的危險更加深重。"以前,少數族裔個體可能被拒絕重要服務,現在他們可能面臨嚴重的傷害。"這篇名為"Dark-Skin Individuals Are at More Risk on the Street: Unmasking Fairness Issues of Autonomous Driving Systems "的論文於 8 月 5 日在預印本服務 arXiv 上發表。張傑明呼籲制定指導方針和法律,以確保非偏見地實施 AI 資料。她表示:"汽車製造商和政府需要共同努力制定確保這些系統的安全能夠客觀衡量的法規,尤其是在公平性方面。"當前在這些系統中對公平性的規定有限,這不僅可能對未來的系統產生重大影響,還直接影響行人的安全。"張傑明說。張傑明指出,這些研究結果與關於大型語言模型中內在偏見的許多報告相呼應。自去年 ChatGPT 向公眾開放以來,人們觀察到了刻板印象、文化不敏感和錯誤呈現等事件。OpenAI 執行長山姆·阿爾特曼承認了這些問題。他在去年二月的一篇文章中表示:"我們知道 ChatGPT 在偏見方面還存在缺陷,我們正在努力改進。"

自駕車中的公平問題

自駕車軟體中存在偏見問題,這引發了對於 AI 的公平性的擔憂。正確識別行人是自駕車技術中至關重要的一環,而偏見問題可能對行人安全造成嚴重影響。張傑明強調隨著 AI 在日常生活中的更廣泛應用,包括我們所使用的車輛型別以及我們與執法機構的互動方式,公平性問題只會變得更加重要。

這項研究發現的偏見問題並非孤立事件。近年來關於 AI 系統的偏見和不公平性的報導層出不窮。這些報導揭示了許多 AI 技術和應用中存在的公平問題,包括招聘、面部識別和法律執法等領域。張傑明的呼籲是一個開始,需要制定相應的指導方針和法律來監管 AI 系統的開發和應用,確保公平和無偏見

建設公平的 AI 系統

如何解決 AI 系統中的偏見問題是一個複雜的課題。首先 AI 開發者和軟體供應商需要更嚴格地審查和測試其系統,以確保公平性。此外開發者應該更加透明地公開他們的資料集和算法,以便研究人員和監管機構能夠評估其系統的公平性和無偏見性。

此外政府應該起到監管的作用,確保 AI 系統的開發和應用符合公平原則。建立指導方針和法律來保護公平、防止偏見、解決不公平和維護公共安全是至關重要的。政府和汽車製造商應該共同努力,制定相應的法規和標準,以確保自駕車技術的公正性和公平性。

結論與建議

自駕車技術在改變我們的生活方式和交通方式,但其應用也面臨著公平性的挑戰。自駕車軟體中的偏見問題可能對行人的安全產生負面影響,特別是對於黑皮膚個體。研究人員的呼籲是一個警示訊號,我們需要更加關注 AI 系統中的公平性問題。

為了建立公平的 AI 系統,開發者和供應商應該更加注重系統的公平性和無偏見性。透明度是關鍵,開發者應該公開資料集和算法,以便研究人員和監管機構能夠評估系統的公平性。

同時政府應該扮演監管者的角色,確保 AI 系統的開發和應用符合公平原則。建立指導方針和法律來保護公平、防止偏見、解決不公平和維護公共安全是必要的。

在 AI 成為我們日常生活中不可或缺的一部分的同時我們應該意識到公平性問題的重要性。只有透過共同努力,我們才能確保 AI 系統的公正性和公平性,從而為我們的社會和未來帶來更多利益。

Prejudice-自駕車軟體,偏見,研究,真相
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。