網路議題

人和人工智慧都有幻覺——但方式不同

雖然人類和人工智慧都會產生幻覺,但方式不同作者:Sarah Vivienne Bentley 和 Claire Naughtin | 譯者:最近半年,隨著 GPT-3.5 等強大語言模型的問世,人工智慧引起了很大的關注。然而隨著使用者發現這些模型也會犯錯誤,對這些模型的信任逐步減弱。一個輸出不正確資 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

人和人工智慧都有幻覺——但方式不同

雖然人類和人工智慧都會產生幻覺,但方式不同

作者:Sarah Vivienne Bentley 和 Claire Naughtin | 譯者:

最近半年,隨著 GPT-3.5 等強大語言模型的問世,人工智慧引起了很大的關注。然而隨著使用者發現這些模型也會犯錯誤,對這些模型的信任逐步減弱。一個輸出不正確資訊的語言模型被稱為「幻覺」,現在有越來越多的研究致力於減少這種效應。然而當我們努力應對這個問題時,值得我們思考我們自己的偏見和幻覺能力以及這如何影響我們所創造的語言模型的準確性。透過理解人工智慧幻覺潛力與我們自身之間的聯絡,我們可以開始創造更聰明的人工智慧系統,從而最終幫助減少人類的錯誤。

人們如何產生幻覺

人們制造訊息這件事並不是什麼祕密。有時,我們這樣做是故意的,有時是無意的。後者是由於認知偏見或「啟發式」的結果:這些是我們透過過去經驗發展出來的心理快速解決方案。這些快速解決方案通常出於必要,因為在任何特定時刻,我們只能處理有限的訊息,只能記住我們曾經接觸過的所有訊息的一小部分。因此我們的大腦必須利用已學的聯絡來填補空白,並快速回應我們面前的任何問題。換句話說,我們的大腦根據有限的知識猜測正確答案可能是什麼。這被稱為「捏造」,是人類偏見的一個例子。我們的偏見可能導致判斷失誤。例如,自動化偏見是指我們偏向於相信由自動化系統(如 ChatGPT)生成的訊息,而忽視非自動化來源的訊息。這種偏見可能使我們忽略錯誤,甚至根據虛假訊息行事。另一個相關的啟發式是光環效應,即我們對某物的初步印象會影響我們對其後續互動的看法。還有流暢度偏見,描述我們如何更喜歡以易於閱讀的方式呈現的訊息。總之人類的思維經常受到其自身的認知偏見和失真的影響,而這些「幻覺」傾向在我們意識之外發生。

人工智慧如何產生幻覺

在語言模型的背景下,幻覺是不同的。語言模型並不是為了有效地理解世界而努力儲存有限的心理資源。在這個情況下,「幻覺」只是指在預測適當回應輸入時失敗的一種情況。然而人類和語言模型之間還是存在一些相似之處,因為語言模型也會「填補空白」而產生幻覺。語言模型透過預測接下來的字詞最有可能在序列中出現,而預測根據的是之前出現的內容以及系統在訓練過程中學到的聯絡。與人類一樣,語言模型嘗試預測最有可能的回應。不同的是,它們這樣做時並不理解自己在說什麼。這就是它們最終產生荒謬回應的原因。至於為什麼語言模型會產生幻覺,原因有很多。其中一個主要原因是受到有缺陷或不充足的資料訓練。其他因素包括系統程式設計以從這些資料中學習的方式以及此程式設計在接受人類進一步訓練時的強化作用。

如何共同改善

那麼,既然人類和語言模型都容易產生幻覺(雖然原因不同),哪個更容易修復呢?修復語言模型背後的訓練資料和流程似乎比修復我們自己更容易。但這忽略了影響人工智慧系統的人類因素(這是又一個被稱為基本歸因偏見的人類偏見的例子)。事實是我們的缺點和我們技術的缺點是密不可分的,所以修復其中一個將有助於修復另一個。以下是一些方法:

負責任的資料管理

人工智慧的偏見通常源於偏見或有限的訓練資料。解決這個問題的方法包括確保訓練資料多樣化和具有代表性,建立具有偏見意識的算法,並使用資料平衡等技術來消除傾斜或具有歧視性的模式。

透明性和可解釋性的人工智慧

儘管上述措施是必要的,但人工智慧中的偏見仍然可能存在,並且很難檢測出來。透過研究偏見如何進入系統並在其中傳播,我們可以更好地解釋輸出中的偏見存在。這就是「可解釋人工智慧」的基礎,旨在使人工智慧系統的決策過程更加透明。

將公眾利益放在首位

認識、管理和從人工智慧中學習偏見需要人類的責任以及將人類價值融入人工智慧系統。實現這一點意味著確保利益相關者具有來自各種背景、文化和觀點的代表性。透過以這種方式共同努力,我們可以建立更聰明的人工智慧系統,可以幫助控制我們所有的幻覺。例如,在醫療領域中,人工智慧被用於分析人類的決策。這些機器學習系統檢測到人類資料中的不一致性,並提供提示將其帶到臨床人員的注意力。因此可以提高診斷決策的準確性,同時保持人類的責任。

在社交媒體的情境下,人工智慧與衛冕人員合作,用於幫助培訓人類審查員識別虐待行為,例如 Troll Patrol 專案旨在解決對女性線上暴力的問題。在另一個例子中,結合人工智慧和衛星影象可以幫助研究人員分析不同地區的夜間照明差異,並將其作為區域相對貧困的代理(其中更多照明與較少貧困相關)。重要的是,雖然我們必須努力提高語言模型的準確性,但我們不應忽視它們當前的不可靠性,這反映了我們自己的情況。

原文網址:https://techxplore.com/news/2023-06-humans-ai-hallucinatebut.html

Unsplash gallery keyword: Perception-人工智慧,幻覺,方式
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。