使用人工智慧與朋友通訊可能會降低滿意度並增加不確保性
研究發現
根據俄亥俄州立大學的研究指出,使用人工智慧(AI)幫助朋友撰寫訊息可能不是一個好主意。研究人員發現,在研究中,人們認為那些使用 AI 幫助撰寫訊息的朋友比自己親自撰寫訊息的朋友付出的努力要少。而這種觀感不僅僅侷限在訊息本身,研究的主要作者兼俄亥俄州立大學的傳播助理教授 Bingjie Liu 表示:"在接到了這樣一條訊息以後,人們對他們與朋友的關係感到不滿意,並對他們與朋友的關係感到更多的不確保感。" 雖然對 AI 可以公正一點,但使用其他人的幫助撰寫訊息同樣會帶來負面影響。Liu 說:"人們希望他們的伴侶或朋友能夠自己努力撰寫訊息,而不借助 AI 或其他人的幫忙。" 這項研究最近發表在《社交與個人關係期刊》上。AI 聊天機器人的普及化帶來的問題
隨著諸如 ChatGPT 之類的 AI 聊天機器人變得越來越受歡迎,如何使用它們的問題將變得更加重要和複雜。劉教授表示人們將開始在心中進行圖靈測試,試圖判斷訊息是由人還是由電腦撰寫的。劉教授說:"人們可能會祕密地在心中進行這種圖靈測試,試圖判斷訊息是否帶有某種 AI 成分。這可能會損害關係。" 因此我們應該在人際關係中體現出真誠和真實,不要僅僅因為方便而使用技術。這是該研究的作者之一所提供的建議。朋友之間的努力與關係
根據該研究發現,人們之所以不喜歡 AI 輔助的回覆可能是因為他們認為使用技術在撰寫這樣的私人訊息上是不合適且低劣的。然而研究結果顯示,人們對 Taylor(研究中的虛構朋友)與其他人合作撰寫這條訊息的回覆同樣持否定態度。原因在於,參與研究的人認為 Taylor 在撰寫訊息時的付出較少,無論是借助 AI 還是其他人,他們對與 Taylor 的關係感到不滿意,並對友誼感到更多的不確保感。劉教授說:"努力在一個關係中非常重要。人們希望知道你願意為友誼做出多少努力,如果他們覺得你透過使用 AI 來節省點力氣,那是不好的。"結論
雖然大多數人不會告訴朋友他們使用了 AI 來撰寫訊息,但隨著 ChatGPT 和其他類似服務的普及,人們可能會在大腦中進行一個圖靈測試來判斷訊息的撰寫者是否為 AI。為了維護良好的人際關係,我們應該在與朋友溝通時自己動手,而不是依賴技術。對於那些喜愛使用 AI 聊天機器人的人來說這篇研究提醒我們真誠和真實在人際關係中依然非常重要。ArtificialIntelligence-人工智慧,聊天機器人,滿意度,不確保性,研究
延伸閱讀
- AI 蓬勃發展,馬斯克對抗機械革命
- OpenAI 成立團隊控制「超智慧」AI,卻任憑其枯萎——訊息來源指出
- 開放 AI 與 Reddit 資料簽署合約,訓練人工智慧
- 智慧錢包 Kudos 獲得 1000 萬美元投資,研發 AI 功能挑選最佳信用卡
- 索尼音樂警告科技公司避免未經授權使用其內容訓練人工智慧
- Strava 啟用人工智慧防篡改排行榜,推出「家庭」計畫、深色模式等
- 參議院研究建議:每年至少撥款 320 億美元用於人工智慧計劃
- Google I/O 盛會 AI 領域的重大訊息
- Google 掃描通話的人工智慧或增加預設審查,隱私專家發出警告
- 柏林科技企業 trawa 籌得 1 千萬歐元,運用人工智慧協助中小企業更輕鬆購買可再生能源