網路議題

25 年前我無意中創造了一個有偏見的 AI 演算法 - 科技公司仍在犯相同的錯誤

科技公司仍然重蹈覆轍——25 年前我誤打誤撞創造了一個帶偏見的人工智慧演算法背景 2023 年 5 月 9 日,科技新聞網站「Tech Xplore」刊登了一篇撰稿人 John MacCormick 的文章,該文章介紹了他在 1998 年誤打誤撞創造了一個帶有種族偏見的人工智慧演算法,而這對今天的 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

25 年前我無意中創造了一個有偏見的 AI 演算法 - 科技公司仍在犯相同的錯誤

科技公司仍然重蹈覆轍——25 年前我誤打誤撞創造了一個帶偏見的人工智慧演算法

背景

2023 年 5 月 9 日,科技新聞網站「Tech Xplore」刊登了一篇撰稿人 John MacCormick 的文章,該文章介紹了他在 1998 年誤打誤撞創造了一個帶有種族偏見的人工智慧演算法,而這對今天的科技公司來說仍然是一個值得警惕的問題。這篇文章引起了人們對於人工智慧中偏見和錯誤的關注。

我的故事

John MacCormick 是一位電腦科學家,他在 1998 年開始研發一個頭部追蹤系統,以便人們可以在視訊會議中檢視對方的面孔。在進行頭部追蹤研究時,他發現了皮膚顏色是一個有效的追蹤指標。然而他的資料樣本來自多個白人,沒有考慮到人類的種族多樣性。這樣一來,他的演算法在遇到非白人的人類皮膚時準確度就會下降,甚至產生錯誤的結果。

科技公司現在也犯了同樣的錯誤。例如,最近的 AI 聊天機器人和影象生成器都存在種族偏見問題。這揭示了 AI演算法中的偏見和錯誤可能帶來的危險。然而科學家們為什麼會犯這種錯誤呢?這是一個需要探討的問題。

探討

社會學家使用「特權」概念提供了一個有用的角度來解釋這種現象。很多白人的無意識中帶有一種「身上背著的特權」,這些特權是他們生來就具備的,例如「我在具有挑戰性的情況下做得好,卻不會因為我的種族而被貶低」,「我可以批評政府,談論我對其政策和行為的恐懼,而不會被認為是一個文化局外人」等等。

在 AI 的時代,一個白人的特權應該是「AI 系統不會因為我的種族而給出失敗的結果」。因此白人科學家做的事情是以自己的外貌為基礎開發 AI 系統,並相信這對大多數使用者工作良好。

唯一解決這種特權問題的方法就是積極反種族主義。在 1998 年,MacCormick 在開發頭部追蹤系統時的抗議方式是平等地對待所有種族。確實,我們可以並應該確保該系統的訓練資料平等地代表所有種族的範圍。然而這並不能保證該系統將對所有觀察到的皮膚顏色平等對待。系統必須將每種膚色分類為皮膚或非皮膚。因此存在正好在皮膚和非皮膚之間的邊界上的顏色,這一區域稱為決策邊界。膚色跨越這個決策邊界的人將被分錯類。科學家們還面臨一個讓人不快的潛意識困境:將多樣性納入機器學習模型會導致結果的表現不如特定模型。

發生偏見的另一個原因就是在資料集中缺乏多樣性,但是這是可以透過增加多樣性訓練資料來解決的。

更值得討論的是,偏見的根源可能是深藏不露的,在現代機器學習的系統中尤為嚴重。深度神經網路——當前最流行和最強大的人工智慧模型——通常有數百萬個數位,其中偏見可能被編碼。被《AI, Ain't I a Woman?》批評的有偏見的臉部識別系統就是基於深度神經網路的。 這些系統的偏見是隱藏在數百萬個不易理解的數位引數背後。

結論

現在人工智慧技術發展迅猛,越來越受到重視。然而在這個時代,偏見和錯誤的出現越來越受到關注,如何避免這些問題是一個亟待解決的問題。因此我們需要進一步加固偏見和錯誤的檢測和防止。科學家尤其應該意識到自己的特權和偏見,避免將其帶入人工智慧技術中。

同時需要關注種族多樣性,聚集多元角色,盡可能地考慮 AI 演算法使用者的整體特點,更好的去診斷問題,減少錯誤的發生。公司和學術機構應該鼓勵多元化和包容性,並認識到每個人的行爲都可以對人工智慧系統的偏見產生影響。

我們在設計人工智慧技術時,一定要清楚的認識到這種技術可能會對人的譴責產生深遠的影響,並始終努力確保公平性和透明性成爲每個人參與制定 AI 技術的目標,從而避免過去和現在相同的錯誤發生。

Artificial Intelligence.-AI 偏見,科技公司,演算法,錯誤,技術倫理
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。