聊天機器人能夠在調查和實驗中扮演人類角色
綜述
最近,芬蘭 Centre for Artificial Intelligence 的研究人員利用大型語言模型(LLMs),尤其是 GPT-3,生成開放性問答式的有關玩家遊戲體驗的回答,以快速、廉價地獲取資料,可用於研究設計和資料分析管道的快速迭代和初步測試中。AI 生成的反應通常比真實反應更加令人信服。但是假如有基於 AI 生成的資料所得出的任何發現,都應該有真實資料的確認。研究人員發現,不同版本的 GPT-3 存在微妙的差異,會影響 AI 生成的反應的多樣性。但是其中令人沮喪的含意是,流行的群眾募資平臺上的資料現在可能是可疑的,因為很難區分 AI 生成的反應與真實反應。人造資料在醫學領域等領域中的匿名、隱私和資料保護方面的影響非常明顯。然而在 HCI 領域或更廣泛的科學領域中,人造存取和人造實驗對於透過線上方式收集使用者資料的可信度引發有關群眾募資方法的問題。聊天機器人能夠在調查和實驗中扮演人類角色
透過大型語言模型(LLMs)生成的開放性問答式的有關玩家遊戲體驗的回答,給了人們一個全新的快速、廉價的收集資料的選擇,這有助於研究設計和資料分析管道的快速迭代和初步測試。研究人員發現,AI 生成的反應通常比真實反應更加令人信服。儘管如此基於 AI 生成的資料所得出的任何發現,都應該得到真實資料的確認。 聊天機器人的使用違反了研究倫理。除非研究者有權獲得適當的倫理認可,否則聊天機器人在調查和實驗中的使用甚至可能會被禁止。而對於 AI 生成的資料是否值得信賴,也需要進行更深入的研究和討論。網路資料收集的疑慮
研究人員還發現,不同版本的 GPT-3 存在微妙的差異,會影響 AI 生成的反應的多樣性。但是其中令人沮喪的含意是,流行的群眾募資平臺上的資料現在可能是可疑的,因為很難區分 AI 生成的反應與真實反應。等等,這是否意味著資料收集與研究結果分析的可信度會受到影響? 社交網路訊息也在發生類似的事情。由於生成器的出現,流言和誤報在社交網路上的蔓延可能已經失去了控制。這顯示出,人類需要更加謹慎地使用 AI 和其他技術來分析、處理資料和訊息等。擬議
儘管 AI 在收集資料方面具有一定的優勢,但聊天機器人對於調查和實驗中的使用違反了研究倫理的情況下,或基於 AI 生成的資料是否值得信賴,還需要進行更深入的研究和討論。同時在這個資料浪潮的背景下,人們需要更加謹慎地使用 AI 和其他技術來分析、處理資料和訊息等,避免不斷出現的風險和問題,進一步促進技術社會責任的實現。在此基礎上,研究人員還可以透過相關機構和管道來制定更加嚴格的技術標準和規範。Artificial intelligence.-人工智慧,聊天機器人,調查,研究,人類角色
延伸閱讀
- 元 AI 測試:未能彰顯自身價值,但免費就是免費
- Google 推出新功能“口語練習”,利用人工智慧幫助使用者提高英文能力
- 特斯拉自動駕駛調查終結:美國聯邦政府發現 13 起致命車禍與誤用有關
- 科技巨頭 xAI 競爭開放人工智慧,吸金 60 億美元。推動社交網路 X 成為股東
- Xaira:AI 藥物發現新創公司以 10 億美元巨額啟動,宣稱已準備好開展藥物開發
- Rabbit 宣布推出一個迷人的小型 AI 裝置:R1
- Perplexity AI 可能價值高達 30 億美元,原因在於…
- 基於人工智慧時代,Anon 正在打造自動化認證層 - 技術新聞
- Snowflake 推出自家旗艦生成式人工智慧模型
- 英國調查亞馬遜和微軟與 Mistral、Anthropic 和 Inflection 的 AI 合作關係