網路議題

消除 AI 中的偏見可能是不可能的,電腦科學家解釋如何馴服它

消除 AI 偏見可能是不可能的——一位電腦科學家解釋如何馴服它引言最近,一位電腦科學家在與 ChatGPT 的互動中遭遇了一個令人不快的情況,他向 ChatGPT 請求有關西西裏人的笑話,結果卻得到了一個對西西裏人的侮辱。對於這個笑話,作為一個在西西裏出生和長大的人,他感到極度的厭惡。但與此同時他作 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

消除 AI 中的偏見可能是不可能的,電腦科學家解釋如何馴服它

消除 AI 偏見可能是不可能的——一位電腦科學家解釋如何馴服它

引言

最近,一位電腦科學家在與 ChatGPT 的互動中遭遇了一個令人不快的情況,他向 ChatGPT 請求有關西西裏人的笑話,結果卻得到了一個對西西裏人的侮辱。對於這個笑話,作為一個在西西裏出生和長大的人,他感到極度的厭惡。但與此同時他作為一個電腦科學家開始思考一個貌似簡單的問題:ChatGPT 和其他人工智慧系統是否應該允許存在偏見?為此,他提出了一個相反的觀點:AI 系統應該是有偏見的,但這不是你想象中的那種偏見。消除 AI 中的偏見是一個值得讚揚的目標,但盲目地消除偏見可能會導致無意的後果。相反,可以透過控制 AI 中的偏見來實現更高的目標:公正。

AI 中的偏見

隨著人工智慧越來越多地融入日常技術中,許多人都認為解決 AI 中的偏見是一個重要的問題。但究竟什麼是"AI 偏見"?電腦科學家表示如果一個 AI 模型產生了出乎意料的和偏向的結果,那麼這個模型就是有偏見的。這些結果可能對個人或群體表現出偏見,或者與公平和真實等人類正面價值觀不一致。即使是微小的偏離也可能產生"蝴蝶效應",在這種效應下,看似不重要的偏見可能會被生成式 AI 放大,產生影響深遠的後果。

生成式 AI 系統中的偏見可能來自多種原因。問題訓練資料可以將某些職業與特定性別聯絡起來,或者延續種族偏見。學習算法本身可能存在偏見,然後放大資料中現有的偏見。但系統也可能是設計上具有偏見的。例如,一家公司可能會設計其生成式 AI 系統將正式寫作優先於創意寫作,或者專門為政府行業提供服務,從而無意中加固現有的偏見,排除不同的觀點。其他社會因素,如缺乏規範或激勵機制不一致,也可能導致 AI 偏見的存在。

消除偏見的挑戰

當前還不清楚是否可以完全從 AI 系統中消除偏見,甚至是是否應該這樣做。假設你是一個 AI 工程師,你發現你的模型產生了一個典型的回答,比如西西裏人"臭"的笑話。你可能認為解決方法是從訓練資料中刪除一些與西西裏食物氣味有關的笑話。最近的研究已經找到了如何進行這種"AI 神經外科手術"的方法,以減少某些概念之間的聯絡。但這些善意的改變可能會帶來不可預測的,甚至是負面的影響。訓練資料或 AI 模型配置的微小變化可能導致系統結果顯著不同,這些變化無法事先預測。你不知道你的 AI 系統在解決剛才提到的偏見之後,學會了什麼其他聯絡。其他消除偏見的嘗試也存在類似的風險。訓練成不能涉及某些敏感話題的 AI 系統可能會產生不完整或誤導性的回應。不明智的監管可能會加劇 AI 偏見和安全問題。惡意行為者可以規避防護機制,以獲得惡意 AI 行為,使網頁釣魚更具說服力,或者使用深度偽造來操縱選舉結果。

鑒於這些挑戰,研究人員致力於改進資料取樣技術和算法公正性,尤其是在某些敏感資料不可用的情況下。一些公司,如 OpenAI,選擇讓人類工作者對資料進行註釋。一方面,這些策略可以幫助模型更好地與人類價值觀相一致。然而透過實施這些方法,開發者也面臨著引入新的文化、意識形態或政治偏見的風險。

控制偏見

減少偏見與確保 AI 系統仍然有用和準確之間存在著一個權衡。一些研究人員,包括筆者在內,認為生成式 AI 系統應該允許存在偏見,但應該在一種經過仔細控制的方式下。例如,我與合作者們開發了一種技術,使用者可以透過這種技術指定 AI 系統應該容忍的偏見程度。這種模型可以透過考慮內部群體或文化語言規範來檢測文字中的有毒訊息。傳統方法往往會錯誤地將某些非洲裔美國人英語的帖子或評論標記為冒犯性,將 LGBTQ+社區的內容標記為有毒,而這種"可控"的 AI 模型提供了更公平的分類。可控且安全的生成式 AI 對確保 AI 模型產生符合人類價值觀的輸出非常重要,同時還允許細微差異和靈活性的存在。

追求公正

即使研究人員能夠實現無偏見的生成式 AI,這只是通向更廣泛的公正目標的一個步驟。追求生成式 AI 中的公正需要一個全面的方法,不僅僅是改進資料處理、註釋和去偏算法,還需要開發者、使用者和受影響的社區之間的人類性合作。隨著人工智慧技術的普及,重要的是要記住,消除偏見不是一次性的修復,而是需要持續監測、改進和適應的過程。雖然開發者可能無法輕易地預測或控制蝴蝶效應,但他們可以在處理 AI 偏見時持續保持警惕和深思熟慮的態度。

原文來自 The Conversation,本文轉載自 The Conversation,根據 Creative Commons 協議重新發布。

Bias--AI 偏見-電腦科學家-消除偏見-AI 倫理-馴服 AI-人工智
程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。