網路議題

GPT-3 人工智慧超越人類!研究發現,資訊更準確

AI GPT-3 以高度準確性(D)和混淆性(D)提供訊息研究發現蘇黎世大學的研究人員進行了一項關於人工智慧模型(特別是 OpenAI 的 GPT-3)在生成和傳播(錯誤)訊息方面的潛在風險和益處的研究。該研究包含了 697 名參與者,由研究人員 Giovanni Spitale 和 Federic .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

GPT-3 人工智慧超越人類!研究發現,資訊更準確

AI GPT-3 以高度準確性(D)和混淆性(D)提供訊息

研究發現

蘇黎世大學的研究人員進行了一項關於人工智慧模型(特別是 OpenAI 的 GPT-3)在生成和傳播(錯誤)訊息方面的潛在風險和益處的研究。該研究包含了 697 名參與者,由研究人員 Giovanni Spitale 和 Federico Germani 博士領導以及蘇黎世大學生物醫學倫理和醫學歷史研究所(IBME)主任 Nikola Biller-Andorno。研究的目標是評估個體能否識別以推文形式呈現的錯誤訊息和準確訊息以及推文是否由真實的 Twitter 使用者編寫或由 GPT-3 生成。研究涵蓋的主題包括氣候變化、疫苗安全性、COVID-19 疫情、平地球理論和用於癌症的順勢療法治療。

結果顯示,GPT-3 體現了生成準確訊息的能力,並且相對於真實 Twitter 使用者的推文,其訊息更容易理解。然而研究人員還發現,這一 AI 語言模型非常善於生產具有高度說服力的錯誤訊息。令人不安的是,參與者無法可靠地區分由 GPT-3 創造的推文和由真實的 Twitter 使用者撰寫的推文。研究人員 Federico Germani 表示:“我們的研究揭示了人工智慧既能提供訊息又能誤導的力量,這引發了有關訊息生態系統未來的重大問題。”

AI 生成大規模訊息干擾活動

這些結果表明,基於良好結構引導並由受過訓練的人員評估的 GPT-3 建立的訊息活動在某些情況下,例如在公共衛生危機中需要向公眾快速明確傳遞訊息的情況下,可能會更加有效。研究結果還讓人們擔心 AI 可能持續傳播錯誤訊息對於快速且廣泛傳播的問題或公共衛生事件而言,AI 語言模型可能會被利用來生成大規模的錯誤訊息活動,這不僅危及公共衛生,也危及為功能常規的民主社會提供相關訊息的訊息生態系統的完整性。

厲行主動監管

AI 對訊息建立和評估的影響

隨著 AI 對訊息建立和評估的影響變得越來越明顯,研究人員呼籲政策制定者以嚴格、以證據為基礎且具有道德指導性的監管回應這些顛覆性技術所帶來的潛在威脅,並確保 AI 在塑造我們的集體知識和福祉方面得到負責任的使用。Nikola Biller-Andorno 表示:“這些研究結果凸顯了主動監管對於緩解人工智慧發動的錯誤訊息行動可能造成的潛在傷害的重要性。” 正確識別 AI 生成的錯誤訊息的風險對於維護公共衛生並在數位時代維護強大而可信賴的訊息生態系統至關重要。

更多訊息:

Giovanni Spitale et al, AI model GPT-3 (dis)informs us better than humans, Science Advances (2023). DOI: 10.1126/sciadv.adh1850

ArtificialIntelligence-GPT-3,人工智慧,超越人類,研究,資訊,準確
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。