
科技公司仍然重蹈覆轍——25 年前我誤打誤撞創造了一個帶偏見的人工智慧演算法
背景
2023 年 5 月 9 日,科技新聞網站「Tech Xplore」刊登了一篇撰稿人 John MacCormick 的文章,該文章介紹了他在 1998 年誤打誤撞創造了一個帶有種族偏見的人工智慧演算法,而這對今天的科技公司來說仍然是一個值得警惕的問題。這篇文章引起了人們對於人工智慧中偏見和錯誤的關注。
我的故事
John MacCormick 是一位電腦科學家,他在 1998 年開始研發一個頭部追蹤系統,以便人們可以在視訊會議中檢視對方的面孔。在進行頭部追蹤研究時,他發現了皮膚顏色是一個有效的追蹤指標。然而他的資料樣本來自多個白人,沒有考慮到人類的種族多樣性。這樣一來,他的演算法在遇到非白人的人類皮膚時準確度就會下降,甚至產生錯誤的結果。
科技公司現在也犯了同樣的錯誤。例如,最近的 AI 聊天機器人和影象生成器都存在種族偏見問題。這揭示了 AI演算法中的偏見和錯誤可能帶來的危險。然而科學家們為什麼會犯這種錯誤呢?這是一個需要探討的問題。
探討
社會學家使用「特權」概念提供了一個有用的角度來解釋這種現象。很多白人的無意識中帶有一種「身上背著的特權」,這些特權是他們生來就具備的,例如「我在具有挑戰性的情況下做得好,卻不會因為我的種族而被貶低」,「我可以批評政府,談論我對其政策和行為的恐懼,而不會被認為是一個文化局外人」等等。
在 AI 的時代,一個白人的特權應該是「AI 系統不會因為我的種族而給出失敗的結果」。因此白人科學家做的事情是以自己的外貌為基礎開發 AI 系統,並相信這對大多數使用者工作良好。
唯一解決這種特權問題的方法就是積極反種族主義。在 1998 年,MacCormick 在開發頭部追蹤系統時的抗議方式是平等地對待所有種族。確實,我們可以並應該確保該系統的訓練資料平等地代表所有種族的範圍。然而這並不能保證該系統將對所有觀察到的皮膚顏色平等對待。系統必須將每種膚色分類為皮膚或非皮膚。因此存在正好在皮膚和非皮膚之間的邊界上的顏色,這一區域稱為決策邊界。膚色跨越這個決策邊界的人將被分錯類。科學家們還面臨一個讓人不快的潛意識困境:將多樣性納入機器學習模型會導致結果的表現不如特定模型。
發生偏見的另一個原因就是在資料集中缺乏多樣性,但是這是可以透過增加多樣性訓練資料來解決的。
更值得討論的是,偏見的根源可能是深藏不露的,在現代機器學習的系統中尤為嚴重。深度神經網路——當前最流行和最強大的人工智慧模型——通常有數百萬個數位,其中偏見可能被編碼。被《AI, Ain't I a Woman?》批評的有偏見的臉部識別系統就是基於深度神經網路的。 這些系統的偏見是隱藏在數百萬個不易理解的數位引數背後。
結論
現在人工智慧技術發展迅猛,越來越受到重視。然而在這個時代,偏見和錯誤的出現越來越受到關注,如何避免這些問題是一個亟待解決的問題。因此我們需要進一步加固偏見和錯誤的檢測和防止。科學家尤其應該意識到自己的特權和偏見,避免將其帶入人工智慧技術中。
同時需要關注種族多樣性,聚集多元角色,盡可能地考慮 AI 演算法使用者的整體特點,更好的去診斷問題,減少錯誤的發生。公司和學術機構應該鼓勵多元化和包容性,並認識到每個人的行爲都可以對人工智慧系統的偏見產生影響。
我們在設計人工智慧技術時,一定要清楚的認識到這種技術可能會對人的譴責產生深遠的影響,並始終努力確保公平性和透明性成爲每個人參與制定 AI 技術的目標,從而避免過去和現在相同的錯誤發生。
延伸閱讀
- 科技公司 DEI 政策大變革:撤回與堅持之間的最新動態!
- 安置未來:Anthropic 將下一輪資金募集提升至 35 億美元!
- 埃隆·馬斯克的 AI 公司 xAI 正洽談籌集 100 億美元資金!
- OpenAI 面臨重大資金籌集:評估價值高達 3400 億美元!
- Stripe 宣布裁員 300 人,卻預告 2025 年將重啟招聘!
- 「Pony AI 登陸納斯達克:估值飆升至 52.5 億美元,未來潛力無限!」
- "AI 安全倡導者呼籲創始人放慢步伐:警惕未來風險!"
- 投資人熱衷進攻:ElevenLabs 有望逼近 30 億美元估值!
- 「Peak XV 自與紅杉分拆以來一年的營收突破 12 億美元!」
- Meta 與德國電信的關係已斷,不再回頭!