深度偽造:人工生成的影像如何自暴自棄
引言
人工智慧能夠生成與真實照片無法區分的影像,只需一個簡單的文字命令。這種現象雖然令人著迷,但同時也對每張影像的真實性提出了疑問。為了區分人工生成的圖片和真實圖片,博魯姆魯爾大學(Ruhr-Universitaet-Bochum)電腦科學系的約納斯·裏克(Jonas Ricker)在他的博士論文中專門研究了偽造影象的技術識別。
偽造影象的生成與辨識
當前由於 Stable Diffusion 應用程式,影象生成的擴散模型非常受歡迎。該模型的基本原理聽起來可能令人驚訝,裏克說:"真實影象透過逐步新增高斯噪聲(因此被稱為擴散模型)進行擴散。數百次迭代後,影象訊息完全被刪除,影象只剩下噪聲。現在該模型的目的是反向操作,以重建原始影象,這是一個非常棘手的挑戰。關鍵不在於直接預測影象,而是逐步處理影象,就像新增噪聲一樣。透過使用大量的訓練資料,模型可以學會使噪聲影象變得稍微清晰一些。透過反復應用,可以從隨機噪聲中建立全新的影象。
區分真實與偽造影象的重要性
"擴散模型已經能夠生成非常逼真的影象,而且在未來還會繼續改進,"裏克相信。這將使區分真實影象和人工生成影象變得更加困難。裏克當前正在測試各種方法來區分模型生成的影象和真實照片。區分真實與偽造影象不僅對揭露假新聞等有重要意義,還對揭露社交媒體上的偽造個人資料有重要意義。這些個人資料被大規模地用於操縱公眾對於政治議題的觀點,例如,政府或情報機構使用深度偽造來散布宣傳訊息,這正是 CASA 卓越聚集地所關注的內容。
結論與建議
深度偽造技術的快速發展逼迫我們思考如何區分真實和虛假。為了應對這個問題,我們需要更加重視數位媒體的識別能力和資料取證技術。政府和科技公司應該加固合作,研發更強大的偽造影象辨識技術,以保護公眾免受虛假訊息的影響。
此外對於個人使用社交媒體的公眾,我們應該培養更加批判和挑剔的態度。在接收到可能有偽造影象的訊息時,我們應該進行後續的獨立查證,以確保訊息的真實性和可信度。此外我們應該學會識別可能存在的偽造跡象,如影象的不自然之處或矛盾之處。
當然技術本身並非全部解決之策。我們需要建立更加透明和可靠的社交媒體平臺,並提供更好的數位素養教育,以幫助公眾理解和應對深度偽造的挑戰。
總而言之,面對深度偽造技術帶來的挑戰,我們需要結合技術和教育,共同努力保護公眾免受虛假訊息的侵害。
延伸閱讀
- OpenAI 揭開 AI 祕密指令的面紗
- AI 助您創辦者更快、更輕鬆地籌集資金嗎?
- 盧西德機器人獲得 900 萬美元用於無人機清潔任何地方
- 以色列新創公司 Panax 籌集了 1,000 萬美元 A 輪融資,用於其基於人工智慧的現金流管理平臺
- Reddit 測試使用基於 LLM 的人工智慧進行自動整站法語翻譯
- 三星醫聲將以 9270 萬美元收購法國人工智慧超聲波新創公司 Sonio
- 網際網路共同創始人 Robert Kahn 早在幾十年前就已經做到了加密、人工智慧和網際網路嗎?
- 人聲 vs AI:Audible 推出 AI 旁白有機會取代人類旁白嗎?
- 突破獨家訪談:Wayve 共同創辦人 Alex Kendall 談自動駕駛汽車和機器人的未來
- Rad AI 完成由 Khosla Ventures 領投的 5 千萬美元 B 輪融資