網路議題

自動駕駛軟體揭露偏見問題!研究者發現驚人事實

揭露自動駕駛軟體的偏見問題研究指出,自動駕駛車載軟體對於深膚色者的識別能力較淺膚色者為差根據倫敦國王學院和北京大學的研究人員的最新研究,用於識別行人的自動駕駛車載軟體在辨認深膚色的個體時,比辨認淺膚色的個體有較高的錯誤率。該研究對八個 AI 行人檢測器進行了測試,這些檢測器是由自動駕駛汽車製造商使用 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

自動駕駛軟體揭露偏見問題!研究者發現驚人事實

揭露自動駕駛軟體的偏見問題

研究指出,自動駕駛車載軟體對於深膚色者的識別能力較淺膚色者為差

根據倫敦國王學院和北京大學的研究人員的最新研究,用於識別行人的自動駕駛車載軟體在辨認深膚色的個體時,比辨認淺膚色的個體有較高的錯誤率。該研究對八個 AI 行人檢測器進行了測試,這些檢測器是由自動駕駛汽車製造商使用的。研究發現,在較暗的光線條件下,低對比度和低亮度會顯著增加自動駕駛軟體對深膚色行人的錯誤率。錯誤率從日間的 7.14%上升到夜間的 9.86%。此外研究結果還顯示,自動駕駛軟體對於成年人的識別能力比對於兒童要高出 20%。

公正性與自動駕駛車載系統

該研究還指出,公正性在 AI 系統中的意義是,AI 系統應該對待特權和非特權群體一視同仁。然而在自動駕駛車載系統中,這並不是發生的情況。研究人員之一的張潔明表示:“當涉及自動駕駛汽車時,AI 系統的公正性並未得到保障。”她指出,雖然汽車製造商的 AI 訓練資料的來源保密,但可以合理地假設它們是基於研究人員使用的開放原始碼系統建立的。張潔明表示:“我們可以確保他們遇到了同樣的偏見問題。”她還指出,無論是故意還是無意,偏見一直以來都是一個長期存在的問題。然而當涉及到自動駕駛汽車中的行人識別時,風險更大。她表示:“雖然不公平的 AI 系統的影響已經有了充分的記錄,例如 AI 招聘軟體偏袒男性申請人,面部識別軟體對黑人女性的準確性不如白人男性,但自動駕駛車可能帶來的危險更加嚴重。”過去,少數族群可能被剝奪重要的服務,但現在他們可能面臨嚴重的傷害。

引發公正性問題的根源

對自動駕駛車載系統中存在的公正性問題進行根本性的解決,需要關注其根源。該研究中的張潔明呼籲建立準則和法律,確保 AI 資料的實施不帶有偏見。她表示:“汽車製造商和政府需要共同努力建立確保這些系統的安全性可以客觀衡量的法規,尤其是在公正性方面。”她指出,當前對於這些系統的公正性提供的保護是有限的,這不僅會對未來的系統產生重大影響,還會直接影響行人的安全。她還提到:“隨著人工智慧越來越多地融入我們的日常生活,從我們所乘坐的汽車型別到我們與執法機構互動的方式,公正性這個問題只會變得更加重要。”

展望和建議

這一研究結果引發了對自動駕駛車載系統中公正性問題的深刻關注。為了確保未來的自動駕駛車系統的安全性和公正性,我們需要採取一系列的措施。首先需要加固監管和規範,對自動駕駛車載系統進行檢查和取證,並確保其符合公正性標準。其次需要加固對 AI 系統開發者和使用者的培訓,提高他們對公正性議題的認識和理解。第三,需要加固對 AI 訓練資料的監管,確保資料的多樣性和代表性,以減少偏見的產生。最後需要建立多元化的團隊和專家群體,以確保開發和應用 AI 技術的多樣性和公正性。 這項研究結果提醒我們,公正性是 AI 技術發展中不可忽視的問題。我們應該共同努力,確保 AI 系統能夠公正地對待所有使用者,並避免因技術偏見造成的不公平和危害。只有這樣,我們才能在 AI 技術的應用中實現更大的幸福和進步。
Bias-自動駕駛軟體,揭露偏見問題,研究者,驚人事實
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。