
AI GPT-3 以高度準確性(D)和混淆性(D)提供訊息
研究發現
蘇黎世大學的研究人員進行了一項關於人工智慧模型(特別是 OpenAI 的 GPT-3)在生成和傳播(錯誤)訊息方面的潛在風險和益處的研究。該研究包含了 697 名參與者,由研究人員 Giovanni Spitale 和 Federico Germani 博士領導以及蘇黎世大學生物醫學倫理和醫學歷史研究所(IBME)主任 Nikola Biller-Andorno。研究的目標是評估個體能否識別以推文形式呈現的錯誤訊息和準確訊息以及推文是否由真實的 Twitter 使用者編寫或由 GPT-3 生成。研究涵蓋的主題包括氣候變化、疫苗安全性、COVID-19 疫情、平地球理論和用於癌症的順勢療法治療。
結果顯示,GPT-3 體現了生成準確訊息的能力,並且相對於真實 Twitter 使用者的推文,其訊息更容易理解。然而研究人員還發現,這一 AI 語言模型非常善於生產具有高度說服力的錯誤訊息。令人不安的是,參與者無法可靠地區分由 GPT-3 創造的推文和由真實的 Twitter 使用者撰寫的推文。研究人員 Federico Germani 表示:“我們的研究揭示了人工智慧既能提供訊息又能誤導的力量,這引發了有關訊息生態系統未來的重大問題。”
AI 生成大規模訊息干擾活動
這些結果表明,基於良好結構引導並由受過訓練的人員評估的 GPT-3 建立的訊息活動在某些情況下,例如在公共衛生危機中需要向公眾快速明確傳遞訊息的情況下,可能會更加有效。研究結果還讓人們擔心 AI 可能持續傳播錯誤訊息對於快速且廣泛傳播的問題或公共衛生事件而言,AI 語言模型可能會被利用來生成大規模的錯誤訊息活動,這不僅危及公共衛生,也危及為功能常規的民主社會提供相關訊息的訊息生態系統的完整性。
厲行主動監管
AI 對訊息建立和評估的影響
隨著 AI 對訊息建立和評估的影響變得越來越明顯,研究人員呼籲政策制定者以嚴格、以證據為基礎且具有道德指導性的監管回應這些顛覆性技術所帶來的潛在威脅,並確保 AI 在塑造我們的集體知識和福祉方面得到負責任的使用。Nikola Biller-Andorno 表示:“這些研究結果凸顯了主動監管對於緩解人工智慧發動的錯誤訊息行動可能造成的潛在傷害的重要性。” 正確識別 AI 生成的錯誤訊息的風險對於維護公共衛生並在數位時代維護強大而可信賴的訊息生態系統至關重要。
更多訊息:
Giovanni Spitale et al, AI model GPT-3 (dis)informs us better than humans, Science Advances (2023). DOI: 10.1126/sciadv.adh1850
延伸閱讀
- 加州新 AI 法案出爐,SB 1047 作者再推出改革措施!
- 《超級瑪利歐成為 AI 基準測試的新標準!你絕對想不到的理由》
- Google 推出 SpeciesNet:專為識別野生動物而設的人工智慧模型!
- 安瑟普提克獲得 35 億美元巨額資金 瞄準人工智慧未來!
- OpenAI 重磅推出 GPT-4.5:歷史上最大的語言模型來了!
- 探索 DeepSeek:你必須理解的 AI 聊天機器人應用全指南!
- OpenAI 的創業帝國:揭密其風投基金背後的諸多創新公司
- 揭開 Mistral AI 的神祕面紗:揭示 OpenAI 競爭者的所有祕密!
- 未來科技:研究人員揭示如何打造變形機器人,猶如 T-1000 般神奇!
- ElevenLabs 推出全新語音轉文字模型,引領 AI 語音技術的新潮流!