網路議題

利用人工智慧防範 AI 影象操控,經驗大公開!

利用人工智慧保護免於人工智慧影象操控引言我們進入了一個由人工智慧技術推動的新時代,這些技術可以製造和操控影象,其精準度已經模糊了現實和虛擬之間的界線,這也帶來了濫用的風險。最近,DALL-E 和 Midjourney 等先進的生成模型因其令人印象深刻的精準度和易用的介面而受到讚譽,使得生成和操控高品 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

利用人工智慧防範 AI 影象操控,經驗大公開!

利用人工智慧保護免於人工智慧影象操控

引言

我們進入了一個由人工智慧技術推動的新時代,這些技術可以製造和操控影象,其精準度已經模糊了現實和虛擬之間的界線,這也帶來了濫用的風險。最近,DALL-E 和 Midjourney 等先進的生成模型因其令人印象深刻的精準度和易用的介面而受到讚譽,使得生成和操控高品質影象變得相對輕鬆。隨著門檻的降低,即使是經驗不足的使用者也可以根據簡單的文字描述生成和操控高質量影象,範圍從無害的影象修改到惡意的更改。雖然徽章技術提供了一種有希望的解決方案,但濫用仍需要採取預防性措施,而不僅僅是事後處理。

研究成果

麻省理工學院電腦科學和人工智慧實驗室的研究人員開發了一種名為"PhotoGuard"的技術,它使用微小的畫素值變動來打擾模型操控影象的能力。PhotoGuard 使用兩種不同的攻擊方法生成這些變動。一種較為簡單的"編碼器"攻擊針對 AI 模型中的影象潛在表徵,使模型將影象視為隨機實體。另一種更複雜的"擴散"攻擊定義了一個目標影象,並最佳化變動以使最終影象盡可能接近目標影象。 該技術的核心思想是,在人類眼中這些微小變動是不可見的,從而保護影象的視覺完整性,同時確保其受到保護。這種方法能夠有效防止 AI 模型對影象進行操控,從而保護影象免受未經授權的修改。

應用與實踐

人工智慧模型對影象的觀察方式與人類不同。它將影象視為一個數學資料點的複雜集合,描述了每個畫素的顏色和位置,這就是影象的潛在表徵。編碼器攻擊在這個數學表示中引入微小的變動,使得 AI 模型將影象視為隨機實體。因此任何試圖使用模型操控影象的嘗試幾乎變得不可能。這些微小的變動對人眼來說是不可見的,從而保持了影象的視覺完整性。 擴散攻擊則更為複雜,它從整個擴散模型端到端進行有目標的攻擊。這涉及確保一個期望的目標影象,然後開始一個最佳化過程,目的是讓生成的影象與這個預先選定的目標盡可能接近。在實施過程中,團隊在原始影象的輸入空間內建立了變動。在推論階段,這些變動被應用到影象上,提供了對未經授權的操控的堅固防禦。

技術的約束與挑戰

然而 PhotoGuard 並非萬能的解決方案。一旦影象上傳到網路,具有惡意意圖的人可能嘗試透過新增噪音、裁剪或旋轉影象來繞過保護措施。然而我們可以利用以前在敵對例子文獻中的工作,來實現能夠抵抗常見影象操控的堅固變動。 這個問題的解決需要模型開發者、社交媒體平臺和政策制定者的綜合應對。政策制定者應考慮實施規定,要求公司保護使用者資料免受此類操控。人工智慧模型的開發者可以設計自動向使用者的影象新增變動的應用程式介面,從而為未經授權的操控提供更多保護。

結語與建議

PhotoGuard 的出現為防範人工智慧影象操控提供了一種新的方法。然而該技術仍然需要更多的工程努力來實現實際應用。開發這些模型的公司需要投資於開發對抗這些人工智慧工具可能帶來的威脅的堅固保護。在進入這個新的生成模型時代時,讓我們同時追求潛力和保護。 總之抵抗影象操控的開發工作需要各方的合作,包括模型開發者、社交媒體平臺和政策制定者。透過這個緊急問題的合作處理,才能建立起對未經授權影象操控的堅固防禦。雖然這是一個具有挑戰性的問題,但這篇論文提出了一個令人信服的理由,表明生成人工智慧公司應該努力解決這個問題。

參考資料

- Salman, H., Madry, A., et al. (2023). Raising the Cost of Malicious AI-Powered Image Editing. arXiv. DOI: 10.48550/arxiv.2302.06588 原文連結: https://techxplore.com/news/2023-07-ai-image.html
AI 安全-人工智慧,AI,影象操控,防範,經驗分享
程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。