人工智慧對於人際互動及信任的影響
最近,瑞典哥德堡大學的研究人員進行了關於人工智慧(AI)如何影響我們與其他人互動的研究。研究結果顯示,當 AI 變得越來越真實時,我們對於與之交流的物件的信任感會受到損害。在其一個場景中,一個詐騙者嘗試撬開一位年邁男子的銀行帳戶,詐騙者認為他透過電話與年邁男子交談,但實際上他連線到的是一個執行預先錄製的語音錄音迴圈的電腦系統。詐騙者耐心地聽著“男子”的有些混亂和重復的故事,嘗試撬開他的銀行帳戶。
研究人員指出,人們往往需要很長的時間才能察覺自己正在與一個技術系統進行互動。該研究作者討論了人們如何解讀和理解其中一個交談物件可能是 AI 的情況。
從人工智慧透明度的角度來看,為什麼 AI 的影響需要受到關注?在電腦支援的合作工作(CSCW)期刊上發表的名為 “Suspicious Minds: The Problem of Trust and Conversational Agents” 的文章中,研究人員的結果表明,人工智慧擁有越來越具人類特徵的外觀和聲音設計。即使是外表和聲音是明顯的機器人設計,研究發現仍然有困難讓使用者識別人類與 AI 的區別。
信任的問題
瑞典哥德堡大學的傳播學教授 Oskar Lindwall 觀察到,要辨識出自己正與一個技術系統進行互動往往需要很長的時間。這讓我們考慮到一個問題,大量的資訊交流在網路上展開,使用者和 AI 之間的信任因素波動還是穩定,是否可以產生對於未來網路安全的負面影響。
當 AI 開始製作具備越來越真人的聲音和外貌外觀時,這會讓人產生親切感和親密感,從而影響人們對 AI 的印象和信任度。就像騙子冒充撥打銀行保險櫃臺的電話騙取個人資料,詐騙者在等待前可能會瞭解受害人的習性,甚至製造些許的共鳴,透過溝通和即時互動,從而獲得引數和您的個資。
在一個態度開放和信任相互的網路環境中,人們需要確信他們說話的物件是誰。在人與人之間的互動中,有時行為顯示出來的序列甚至被解讀為 AI 機器人的特徵。研究人員指出,在兩個人之間的互動期間,其某些行為會被解讀為其中一方實際上是一個機器人,在對比之下,會讓人越來越難以分辨真假。
避免懷疑心理的產生
研究人員發現,甚至在沒有理由的情況下,也會對對方產生過度懷疑。因此當我們和一隻機器人進行對話時,我們總是懷疑他們的意圖和身分,這將對彼此之間的關係進行破壞的影響。在浪漫關係中,信任的問題會導致嫉妒心的產生,進一步導致越來越多的懷疑以及對一方的所作所為的懷疑。
AI 帶來的問題並不只是關於互動的欺騙和身分認知的混淆,而且還涉及到人類彼此之間的信任和關係的建立。無法完全信任談話物件的意圖和身分,這將導致對彼此之間產生過度懷疑,甚至導致關係破裂。
結語
近年來 AI 的崛起和普及引起了越來越多的關注,AI 在與人互動方面所帶來的問題也越來越明顯。如果我們不能認識人工智慧的特性,就無法發現自己正在與一個 AI 進行互動,這可能會導致我們的信任和關係受到破壞。因此讓人工智慧更加透明和能夠區分出語音是否為真人聲音是關鍵。在發展 AI 技術的過程中,必須時刻關注如何確保人工智慧和人類之間所建立的信任和關係,並努力避免過度的懷疑和不信任的產生。
延伸閱讀
- Xaira:AI 藥物發現新創公司以 10 億美元巨額啟動,宣稱已準備好開展藥物開發
- Rabbit 宣布推出一個迷人的小型 AI 裝置:R1
- Perplexity AI 可能價值高達 30 億美元,原因在於…
- 基於人工智慧時代,Anon 正在打造自動化認證層 - 技術新聞
- Snowflake 推出自家旗艦生成式人工智慧模型
- Parloa 完成 6600 萬美元融資,打造客服對話人工智慧平臺
- Perplexity 籌集超過 2.5 億美元,估值達 25-30 億美元,用於其人工智慧搜尋平臺
- 前 Snap 研究人員正在利用人工智慧打造下一代 Bitmoji - 輕鬆創作個人化貼圖
- Adobe 聲稱其最新的影象生成模型是迄今為止最佳的
- 聯合航空如何運用人工智慧讓旅行更輕鬆