網路議題

當人工智慧似乎披露個人資訊時,使用者可能會更具同理心

當 AI 透露個人資訊時,使用者更易產生共鳴一項新研究發現,當網上人工智慧(AI)代理與參與者聊天時,若能透露自身的私人訊息,使用者對其產生的同理心更多。這項研究由日本東京高等研究院(SOKENDAI)的津村隆宏和日本國立情報學研究所的山田靖嗣在《公共科學圖書館》上發表,審查日期為 2023 年 5 月 10 日。 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

當人工智慧似乎披露個人資訊時,使用者可能會更具同理心

當 AI 透露個人資訊時,使用者更易產生共鳴

一項新研究發現,當網上人工智慧(AI)代理與參與者聊天時,若能透露自身的私人訊息,使用者對其產生的同理心更多。這項研究由日本東京高等研究院(SOKENDAI)的津村隆宏和日本國立情報學研究所的山田靖嗣在《公共科學圖書館》上發表,審查日期為 2023 年 5 月 10 日。

人工智慧在日常生活中的應用越來越廣泛,引起人們對對人工智慧代理的信任和接受程度的興趣。先前的研究表明,如果人們能夠感同身受被人工物品應用,他們更容易接受這些人工物品。例如,人們可能會對清潔機器人、模仿寵物的機器人以及在網站上提供幫助的裝扮類人型聊天工具產生共鳴。早期的研究還強調在建立人際關係方面,透露個人訊息的重要性。

基於這些發現,津村和山田假設,如果一個類人型 AI 代理進行自我揭示,可能會提高人們對這些代理的同理心。為了測試這個想法,研究人員進行了線上實驗,參與者與一個在視覺上由人形插圖或人形機器人插圖代表的線上 AI 代理進行了基於文字的聊天。聊天的情境是,參與者和代理在代理的工作場所共進午餐。在每次對話中,代理似乎自我揭示高度與工作有關的個人訊息、有關某個愛好的無關緊要訊息或不進行自我揭示。最終分析包括 918 名參與者的資料,他們的對 AI 代理的同理心使用標準的同理心問卷進行評估。研究人員發現,相對於不太相關的自我揭示,AI 代理高度與工作有關的自我揭示與參與者產生了更大的共鳴。沒有自我揭示的代理與抑制共鳴相關。代理的外貌是否為人類或類人機器人與共鳴程度沒有顯著聯動。這些發現表明,AI 代理的自我揭示事實上可能引起人們的同理心,這可以幫助未來 AI 工具的開發。

作者們補充說:“本研究調查了是否類人型代理的自我揭示會影響人類的同理心。我們的研究將改變在社會上使用的人工物品的負面形象,並對人類和類人型代理之間未來的社會關係做出貢獻。”

privacy-隱私保護,人工智慧,同理心,個人資訊,資訊安全

延伸閱讀

江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。