網路議題

智慧 AI 助理負責結果?研究發現人們指責智慧 AI 助理

人們普遍將智慧 AI 助理視為負責結果的因素,研究發現背景根據德國慕尼黑大學的一項新研究,即使人們將基於人工智慧的助手純粹視為工具,他們仍然將一部分決策責任歸因於它們身上。預計未來的基於人工智慧的系統可能會在無人幹預的情況下引導自動駕駛車輛透過交通。然而現實中的智慧 AI 助理與這種自主性相去甚遠。 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

智慧 AI 助理負責結果?研究發現人們指責智慧 AI 助理

人們普遍將智慧 AI 助理視為負責結果的因素,研究發現

背景

根據德國慕尼黑大學的一項新研究,即使人們將基於人工智慧的助手純粹視為工具,他們仍然將一部分決策責任歸因於它們身上。預計未來的基於人工智慧的系統可能會在無人幹預的情況下引導自動駕駛車輛透過交通。然而現實中的智慧 AI 助理與這種自主性相去甚遠。它們為人類使用者提供支援性的訊息,如導航和駕駛輔助。那麼,在這些現實案例中,當事情發生正確或錯誤時,誰負責?是人類使用者?還是 AI 助手?

研究結果

這項研究由哲學思想之養主席路易斯·朗昂(Louis Longin)領導的團隊進行,他與他的同事巴哈多爾·巴拉米(Bahador Bahrami)博士和精神哲學知識主席歐菲莉亞·德羅伊(Ophelia Deroy)教授合作。他們調查了 940 名受試者對於使用智慧 AI 助手的人類駕駛員的判斷以及使用非 AI 導航儀器的情況。受試者還指出他們是否認為導航助手有責任,並評估它們在道具方面的程度。研究發現,參與者堅稱智慧助手只是工具,但他們認為智慧助手在駕駛者的成功或失敗中負有部分責任。非 AI 導航儀器則沒有出現這種責任的劃分。對作者來說同樣令人驚訝的是,智慧助手對於積極結果而言,被認為更加有責任。“人們可能對獎勵和指責適用不同的道德標準。當事故被避免且沒有損害發生時,標準會放鬆,人們更容易將功勞歸給非人類系統,而不是指責它們,”是集體責任方面的專家巴哈多巴拉米博士提出的觀點。

語言的角色不相關

在這項研究中,作者發現使用語言的智慧助手和透過輪子的觸覺振動提醒使用者的智慧助手之間沒有區別。“在這種情況下,兩者提供的訊息是相同的,比如‘嘿,小心,前面有東西’。但實際上 ChatGPT 提供了更多訊息,”研究人員德羅伊教授解釋道。她的研究探討了我們對人工智慧的矛盾態度,將其視為一種動物信仰形式。對於像 ChatGPT 這樣的新型語言基礎 AI 系統提供的附加訊息,德羅伊教授補充道:“互動越豐富,越容易具象化。”

結論和建議

研究結果支援一種觀點,即智慧 AI 助手不僅被視為純粹的建議工具,但與人類的標準相比仍然存在差距。作者認為,這項新研究的結果將對 AI 助手的設計和社會討論產生深遠影響。路易斯·朗昂總結道:“開發和發布智慧助手的組織應該考慮社會和道德規範如何受到影響。”

ArtificialIntelligence-智慧 AI 助理,研究,指責,人們

程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。