
如何生成 AI 加速假訊息的傳播
背景
根據最近的一項民意調查,人們對假訊息的認識比以往更為深刻。九成的美國成年人會對新聞進行事實核查,96%的人希望約束虛假訊息的傳播。然而由於生成型 AI 工具的出現,遏制假訊息的洪流變得越來越困難。最近在 TC Disrupt 2023 的人工智慧舞臺上舉行的假訊息和人工智慧專題討論會上,專家們提到了 AI 生成假訊息的威脅以及潛在的解決方案,尤其是在選舉年即將到來的時候。
AI 生成假訊息的威脅
專家 Andy Parsons 形容這個問題的意義相當重大。他表示:“沒有一個相對核心的、可以共享的客觀真相,說實話,民主將面臨危機。”“能夠與他人進行關於共同真相的客觀對話將面臨危機。”專家 Sarah Brandt 和 Andy Parsons 都承認,不論有無 AI 輔助,網路上的假訊息實際上並不是一個新問題。他們提到了 2019 年火爆的剪輯影片,其中前眾議院議長南希·佩洛西(D-CA)的演講被做了粗糙的編輯,使她顯得口齒不清、尷尬。
Brandt 同時指出,由於特別是生成型 AI 技術的發展,生成和傳播大規模的假訊息變得更加便宜和簡單。她引用了她在 NewsGuard 的工作統計資料,該公司開發了新聞和資訊網站的評級系統,並提供虛假訊息跟蹤和品牌安全服務。NewsGuard 在五月份識別出了 49 個幾乎完全由 AI 工具撰寫的新聞和資訊網站。自那時以來,他們又發現了數百個不可靠的、由 AI 生成的網站。Parsons 表示:“這純粹是一個量的遊戲。”“他們每天都在生產數百甚至數千篇文章,這是一個廣告收入遊戲。有些情況下,他們只是試圖產生大量內容,進入搜尋引擎並獲得一些程式化廣告收入。在一些情況下,我們觀察到他們傳播虛假訊息和假訊息。”
解決方案
面對這個困境,確切的解決方案尚不明確。Parsons 指出,Adobe 在 Firefly 中實施了一些過濾器等防止濫用的保護措施。此外 Adobe 與紐約時報和推特合作成立的內容真實性倡議(CAI)推動行業標準的制定,以保護資料的真實性。但 CAI 的使用是完全自願的,而且僅有 Adobe 實施這些保護措施並不意味著其他人會效仿,或者這些措施不能或不會被規避。
專家們還提到了數位浮水印作為另一種有用的措施,儘管它不是萬靈丹。一些組織正在探索適用於生成媒體的浮水印技術,包括深度學習(DeepMind)最近提出的 SynthID 標準,用於標識人眼無法察覺但專用檢測器可以輕易發現的 AI 生成影象。法國新創公司 Imatag 在 2020 年推出了一種浮水印工具,宣稱該工具不受調整大小、裁剪、編輯或壓縮影象的影響,與 SynthID 類似;而另一家公司 Steg.AI 則使用 AI 模型對影象應用浮水印,浮水印可在調整大小和其他編輯過程中儲存下來。
Brandt 提到了市場上在當前推行的一些浮水印技術和方案,表示對“經濟激勵”有所樂觀,這將鼓勵生成型 AI 技術的開發公司更加謹慎地使用這些技術並確保其內容的可靠性。“對於生成 AI 公司來說它們的內容必須是值得信賴的 - 否則,人們就不會使用它。”她說:“如果它繼續產生幻覺,繼續傳播虛假訊息,繼續不引用來源 - 那將比那些努力確保內容可靠的生成 AI 公司不可靠。”
還存在的問題
但我對此持保留意見 - 尤其是高度能幹且沒有防護措施的開源生成型 AI 模型普遍流行的情況下。就像所有事情一樣,時間將證實一切。
延伸閱讀
- 「Avataar 全新工具上線!輕鬆打造 AI 生成產品影片!」
- ChatGPT 拒絕 25 萬則深偽影片,告訴 200 萬人選舉訊息另尋他處!
- Google 加速 Gemini 聊天機器人,拓展使用範圍!
- Perplexity 聯合創始人 Aravind Srinivas 在 TechCrunch Disrupt 2024 上加速日常人工智慧
- YouTube Music 正測試 AI 生成的電臺功能,並新增歌曲識別工具
- YouTube 現在允許使用者要求移除模擬您的臉部或聲音的 AI 生成內容
- 總體資本與 Venture Highway 合併,加速在印度市場的推進
- FCC 建議政治廣告中所有 AI 生成的內容均應披露
- CyberArk 以 15.4 億美元收購 Venafi,加速機器對機器安全措施
- Google 電視推出 AI 生成的電影描述