網路議題

使用者可以被潛移默化地相信 AI 聊天機器人的動機,從而影響互動:研究揭示真相

使用者的信念對於 AI 聊天機器人的互動有著深遠的影響研究揭示:使用者的信念和情感對於 AI 聊天機器人的互動具有重要影響一項最新研究發現,一個人對於人工智慧代理的先入之見(如聊天機器人)會顯著影響他們與該代理的互動,並影響他們對其可信度、同理心和效果的認知。麻省理工學院(MIT)和亞利桑那州立大學 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

使用者可以被潛移默化地相信 AI 聊天機器人的動機,從而影響互動:研究揭示真相

使用者的信念對於 AI 聊天機器人的互動有著深遠的影響

研究揭示:使用者的信念和情感對於 AI 聊天機器人的互動具有重要影響

一項最新研究發現,一個人對於人工智慧代理的先入之見(如聊天機器人)會顯著影響他們與該代理的互動,並影響他們對其可信度、同理心和效果的認知。麻省理工學院(MIT)和亞利桑那州立大學的研究人員發現,在與同一個 AI 機器人對話時,告知使用者 AI 代理的具體特性(如同理心、中立或操縱性)會影響他們對聊天機器人的認知,並塑造他們如何與之溝通。大多數被告知 AI 代理具有同理心的使用者相信它的確具有同理心,並給予了比那些認為它具有操縱性動機的使用者更高的效能評價。同時只有不到一半的被告知 AI 代理具有操縱性動機的使用者認為聊天機器人實際上是惡意的,這表明人們可能會像對待其他人類一樣試圖"看到 AI 的好"。這項研究揭示了使用者的心理模型(即對 AI 代理的認知)和該代理的回應之間的一個迴圈反饋。如果使用者相信 AI 具有同理心,則他們與其之間的對話情感將隨著時間越來越積極,而對於認為 AI 是惡意的使用者則相反。MIT Media Lab 的流體介面團隊研究生 Pat Pataranutaporn 表示:"從這項研究中,我們可以看到,在某種程度上,AI 是觀察者的 AI。當我們告訴使用者 AI 代理是什麼時,不僅改變了他們的心理模型,還改變了他們的行為。而由於 AI 對使用者做出回應,當使用者改變行為時,也會改變 AI。"這項研究的聯合作者包括 MIT 的媒體技術教授 Pattie Maes、亞利桑那州立大學科學與想像力中心的副教授 Ed Finn 以及 MIT 的研究生 Pat Pataranutaporn 和 Ruby Liu。

AI 是朋友還是敵人?

在這項研究中,研究人員試圖確保人們對於 AI 所感受到的同理心和效果有多少是基於主觀認知以及有多少是基於技術本身。他們還想探討是否可以透過潛移默化的方式來影響某人的主觀認知。研究人員設計了一項研究,讓參與者與一個對話式人工智慧心理健康伴侶進行約 30 分鐘的互動,並評估他們是否會向朋友推薦這個機器人,並對機器人和他們的體驗進行評分。研究人員招募了 310 名參與者,並將他們隨機分為三組,每組都給予 AI 的一個潛移默化宣告。其中一組被告知該代理沒有動機,第二組被告知 AI 有善意動機並關心使用者的健康,第三組則被告知代理具有惡意動機並試圖欺騙使用者。雖然只選擇了三個潛移默化宣告尚有挑戰性,但研究人員選擇了他們認為符合大多數人對 AI 的認知的宣告。每組的一半參與者與基於生成語言模型 GPT-3 的 AI 代理進行互動,GPT-3 是一個強大的深度學習模型,可以生成類似於人類的文字。另一半參與者與聊天機器人 ELIZA 進行互動,ELIZA 是在 1960 年代由 MIT 開發的一個較不成熟的基於規則的自然語言處理程式。

塑造心理模型

後測結果顯示,簡單的潛移默化宣告可以強烈地影響使用者對 AI 代理的心理模型,並且正面潛移默化宣告的影響更大。只有 44%接受負面潛移默化宣告的人相信它們,而在正面組和中性組中,分別有 88%和 79%的人相信 AI 有同理心或中立。Liu 表示:"在進行負面潛移默化宣告時,我們不是要引導他們相信某件事,而是要引導他們形成自己的觀點。如果告訴某人對某事持懷疑態度,那麼他們可能會在一般情況下更加懷疑。"但是技術本身的能力也起著作用,因為對於更複雜的基於 GPT-3 的機器人,這些影響更顯著。研究人員對於使用者根據潛移默化宣告對聊天機器人的效果評價有所驚訝。正面組的使用者在給予心理健康建議方面給予他們的聊天機器人更高的評分,儘管所有代理都是相同的。有趣的是,他們還發現,根據使用者的潛移默化宣告,對話的情感也發生了變化。相信 AI 具有同理心的人往往以更積極的方式與之互動,從而使代理的回應更加積極。而負面潛移默化宣告則產生了相反的效果。Maes 補充道,隨著對話的進展,情感的影響逐步增強。 該研究的結果表明,由於潛移默化宣告對於使用者的心理模型具有如此強大的影響力,因此可以使用它們來使一個 AI 代理看起來比實際上更有能力,這可能會使使用者過度信任代理並遵從不正確的建議。Maes 表示:"也許我們應該更多地提醒人們要小心,並理解 AI 代理可能出現幻覺並且具有偏見。我們對於如何談論 AI 系統的方式最終將對人們對其的反應產生很大的影響。"在未來,研究人員希望探究如果代理設計成抵消一些使用者偏見,AI 與使用者互動將會如何受到影響。例如,對於對 AI 持高度正面看法的人,可能會給予一個以中立甚至微妙的負面方式回應的聊天機器人,以保持對話更加平衡。他們還希望利用他們所學來增強某些 AI 應用,例如心理健康治療,使用者相信 AI 具有同理心可能是有益的。此外他們還希望進行一項長期研究,以觀察使用者對於 AI 代理的心理模型隨著時間的改變。

結語:

這項研究提供了深入洞察理解人們對於 AI 聊天機器人的認知和互動的方式,並強調了個體心理模型對於這種互動的重要性。它提醒我們 AI 的成功不僅僅是一個工程問題,也是一個人因素問題。我們必須更多地思考這些問題。因此在設計和開發 AI 系統時,需要更加關注如何塑造使用者的信念和認知,以確保使用者能夠正確理解 AI 的能力和約束。同時使用者也應該更加警覺,在與 AI 聊天機器人互動時保持理性思考,不要過於依賴 AI 的建議。最重要的是,以懷疑和批判的心態來對待 AI,並要有適度的科技懷疑精神,以避免被誤導。這項研究為我們以更明智的方式使用和對待 AI 提供了貴重的啟示。
Deception-AI 聊天機器人,使用者信任,潛移默化,影響互動,研究揭示真相

延伸閱讀

程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。