聊天機器人能夠在調查和實驗中扮演人類角色
綜述
最近,芬蘭 Centre for Artificial Intelligence 的研究人員利用大型語言模型(LLMs),尤其是 GPT-3,生成開放性問答式的有關玩家遊戲體驗的回答,以快速、廉價地獲取資料,可用於研究設計和資料分析管道的快速迭代和初步測試中。AI 生成的反應通常比真實反應更加令人信服。但是假如有基於 AI 生成的資料所得出的任何發現,都應該有真實資料的確認。研究人員發現,不同版本的 GPT-3 存在微妙的差異,會影響 AI 生成的反應的多樣性。但是其中令人沮喪的含意是,流行的群眾募資平臺上的資料現在可能是可疑的,因為很難區分 AI 生成的反應與真實反應。人造資料在醫學領域等領域中的匿名、隱私和資料保護方面的影響非常明顯。然而在 HCI 領域或更廣泛的科學領域中,人造存取和人造實驗對於透過線上方式收集使用者資料的可信度引發有關群眾募資方法的問題。聊天機器人能夠在調查和實驗中扮演人類角色
透過大型語言模型(LLMs)生成的開放性問答式的有關玩家遊戲體驗的回答,給了人們一個全新的快速、廉價的收集資料的選擇,這有助於研究設計和資料分析管道的快速迭代和初步測試。研究人員發現,AI 生成的反應通常比真實反應更加令人信服。儘管如此基於 AI 生成的資料所得出的任何發現,都應該得到真實資料的確認。 聊天機器人的使用違反了研究倫理。除非研究者有權獲得適當的倫理認可,否則聊天機器人在調查和實驗中的使用甚至可能會被禁止。而對於 AI 生成的資料是否值得信賴,也需要進行更深入的研究和討論。網路資料收集的疑慮
研究人員還發現,不同版本的 GPT-3 存在微妙的差異,會影響 AI 生成的反應的多樣性。但是其中令人沮喪的含意是,流行的群眾募資平臺上的資料現在可能是可疑的,因為很難區分 AI 生成的反應與真實反應。等等,這是否意味著資料收集與研究結果分析的可信度會受到影響? 社交網路訊息也在發生類似的事情。由於生成器的出現,流言和誤報在社交網路上的蔓延可能已經失去了控制。這顯示出,人類需要更加謹慎地使用 AI 和其他技術來分析、處理資料和訊息等。擬議
儘管 AI 在收集資料方面具有一定的優勢,但聊天機器人對於調查和實驗中的使用違反了研究倫理的情況下,或基於 AI 生成的資料是否值得信賴,還需要進行更深入的研究和討論。同時在這個資料浪潮的背景下,人們需要更加謹慎地使用 AI 和其他技術來分析、處理資料和訊息等,避免不斷出現的風險和問題,進一步促進技術社會責任的實現。在此基礎上,研究人員還可以透過相關機構和管道來制定更加嚴格的技術標準和規範。Artificial intelligence.-人工智慧,聊天機器人,調查,研究,人類角色
延伸閱讀
- Web3 投資公司 Borderless Capital 收購 CTF Capital,引進人工智慧和量化專業技術
- 0G Labs 以驚人的 3,500 萬美元預種子輪啟動,致力於打造模組化人工智慧區塊鏈
- Cyera 將籌集最高 3 億美元,估值達到 15 億美元,AI 正是資料問題
- 人工智慧與資料基礎設施推動開源新創公司需求
- Profluent 利用人工智慧發現藥物,得到 Salesforce 研究支援,Jeff Dean 提供後盾
- 大型語言模型可幫助家庭機器人在無需人類幫助的情況下恢復錯誤
- 聽得見嗎?AI 音效技術對抗嘈雜音訊
- 蘋果、Google 和 Meta 面臨歐盟 DMA 的首次正式調查
- 為何無法評論人工智慧以及為何 TechCrunch 還是這樣做?
- 穩定 AI 執行長辭職,因為你無法用更集中的 AI 來擊敗中央集權的 AI