AI GPT-3 以高度準確性(D)和混淆性(D)提供訊息
研究發現
蘇黎世大學的研究人員進行了一項關於人工智慧模型(特別是 OpenAI 的 GPT-3)在生成和傳播(錯誤)訊息方面的潛在風險和益處的研究。該研究包含了 697 名參與者,由研究人員 Giovanni Spitale 和 Federico Germani 博士領導以及蘇黎世大學生物醫學倫理和醫學歷史研究所(IBME)主任 Nikola Biller-Andorno。研究的目標是評估個體能否識別以推文形式呈現的錯誤訊息和準確訊息以及推文是否由真實的 Twitter 使用者編寫或由 GPT-3 生成。研究涵蓋的主題包括氣候變化、疫苗安全性、COVID-19 疫情、平地球理論和用於癌症的順勢療法治療。
結果顯示,GPT-3 體現了生成準確訊息的能力,並且相對於真實 Twitter 使用者的推文,其訊息更容易理解。然而研究人員還發現,這一 AI 語言模型非常善於生產具有高度說服力的錯誤訊息。令人不安的是,參與者無法可靠地區分由 GPT-3 創造的推文和由真實的 Twitter 使用者撰寫的推文。研究人員 Federico Germani 表示:“我們的研究揭示了人工智慧既能提供訊息又能誤導的力量,這引發了有關訊息生態系統未來的重大問題。”
AI 生成大規模訊息干擾活動
這些結果表明,基於良好結構引導並由受過訓練的人員評估的 GPT-3 建立的訊息活動在某些情況下,例如在公共衛生危機中需要向公眾快速明確傳遞訊息的情況下,可能會更加有效。研究結果還讓人們擔心 AI 可能持續傳播錯誤訊息對於快速且廣泛傳播的問題或公共衛生事件而言,AI 語言模型可能會被利用來生成大規模的錯誤訊息活動,這不僅危及公共衛生,也危及為功能常規的民主社會提供相關訊息的訊息生態系統的完整性。
厲行主動監管
AI 對訊息建立和評估的影響
隨著 AI 對訊息建立和評估的影響變得越來越明顯,研究人員呼籲政策制定者以嚴格、以證據為基礎且具有道德指導性的監管回應這些顛覆性技術所帶來的潛在威脅,並確保 AI 在塑造我們的集體知識和福祉方面得到負責任的使用。Nikola Biller-Andorno 表示:“這些研究結果凸顯了主動監管對於緩解人工智慧發動的錯誤訊息行動可能造成的潛在傷害的重要性。” 正確識別 AI 生成的錯誤訊息的風險對於維護公共衛生並在數位時代維護強大而可信賴的訊息生態系統至關重要。
更多訊息:
Giovanni Spitale et al, AI model GPT-3 (dis)informs us better than humans, Science Advances (2023). DOI: 10.1126/sciadv.adh1850
延伸閱讀
- 在 AI 領域的女性:Tara Chklovski 正在教導下一代的 AI 創新者
- 本週人工智慧大事記:生成式人工智慧與創作者補償的問題
- 蘋果 AI 計劃揭祕:從財報中學到的三件事
- 特斯拉 CEO 為人工智慧新創公司籌集 60 億美元,TikTok 是否在逃避蘋果的傭金?
- Allozymes 以加速酶學應用於資料和人工智慧,籌集 1500 萬美元
- 在 TC 的 Techstars 調查內部以及人工智慧如何加速殘障科技
- Microsoft 禁止美國警察局使用企業人工智慧工具
- 你的 AI 原生新創公司並非一般的 SaaS 公司
- 美國 NASA 向私人太空公司訂購研究,探討火星任務支援角色
- Airbnb 釋出團體訂房功能,並整合人工智慧以提升客戶服務