網路議題

增強人工智慧的韌性,構建更安全可靠的系統

Enhancing AI Robustness for More Secure and Reliable SystemsBy Introduction 在 EPFL(洛桑聯邦理工學院)工程學院的研究人員們徹底重新思考了大多數人工智慧(AI)系統對抗攻擊的方式。他們開發了一種新的訓練方法,以確保機器學習 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

增強人工智慧的韌性,構建更安全可靠的系統

Enhancing AI Robustness for More Secure and Reliable Systems

By

Introduction

在 EPFL(洛桑聯邦理工學院)工程學院的研究人員們徹底重新思考了大多數人工智慧(AI)系統對抗攻擊的方式。他們開發了一種新的訓練方法,以確保機器學習模型,特別是深度神經網路,能夠持續按照預期效能執行,顯著提升其可靠性。這項開創性的研究是 EPFL 工程學院的資訊和推理系統實驗室(LIONS)與賓夕法尼亞大學的研究人員之間的密切合作結果。他們的研究結果已經在預印本伺服器 arXiv 上公開發布。 在資料量超過人類能力的數位世界中,AI 系統在做出重要決策方面擁有巨大的權力。然而這些系統並不免於微小但強大的攻擊。希望欺騙一個系統的人可以對輸入資料進行微小的更改,狡猾地欺騙 AI 模型。EPFL 的 LIONS 團隊,包括博士生 Fabian Latorre 在內,成功地增強了對這些攻擊的安全防護。

AI 系統的弱點和威脅

以 YouTube 等影片流媒體平臺為例,平臺上的影片太多,人類無法一一審核。AI 被依賴於分析內容來將影片分類,以確保其符合特定標準。這個自動過程被稱為"分類"。但是分類系統是可以被攻擊的,可以被狡猾地破壞。一位惡意的駭客(在博弈論中稱為"對手")可以向一個包含不適當內容的影片新增背景噪音。儘管人眼完全無法察覺這種背景噪音,但它足以使 AI 系統混淆,從而繞過 YouTube 的內容安全機制。這可能導致兒童接觸到暴力或性化內容,即使已啟用了家長控制。這只是許多類似攻擊中的一個例子,並且指向了 AI 分類系統中的一個廣為人知的弱點。這一弱點令人擔憂,因為這些系統在影響我們日常生活的方式越來越多,從確保自動駕駛車的安全,到提升機場的安全性以及改善醫療診斷。

解決方法:超越零和博弈

為理解決這些攻擊的問題,工程師們透過所謂的對抗性訓練來增強系統安全防護,這一機制類似於疫苗對抗病毒。傳統上,對抗性訓練被形式化為一個雙方零和遊戲。防守方試圖最小化分類錯誤,而對手則試圖最大化分類錯誤。如果一方贏了,則另一方輸掉,這就是所謂的零和。然而這種理論方法在從概念過渡到現實應用時會面臨挑戰。 為理解決這個問題,研究人員提出了一個實際改變範式的解決方案:非零和遊戲策略。EPFL 的 LIONS 與賓夕法尼亞大學的研究人員合作,開發了一種新的對抗性訓練方法和算法,不同於傳統的零和方法,需要防守方和對手最佳化不同的目標。這導致了一個獨特的形式,一種連續的雙層最佳化,他們稱之為 BETA,它代表著最好的有針對性攻擊。在技術上,防守方透過最小化分類錯誤的上界,而對手則透過使用一個錯誤邊緣的目標來最大化分類錯誤機率。透過建立一個更接近實際情況的強大對手的對抗模型,AI 分類系統可以得到更有效的訓練。防守方不僅僅是針對直接威脅進行最佳化,而是採用全面策略,涵蓋最壞的可能威脅。

結論和展望

Cevher 教授強調"Fabian 和他的合作者們不僅僅將對抗性機器學習視為孤立存在,而是將其置於機器學習理論、可靠性和韌性的更廣泛的背景下。這種更大的訓練分類的視野使他們能夠察覺到迄今為止在訓練機器學習模型的教科書方式中的一個初始錯誤和缺陷。透過更正這個錯誤,我們改進了機器學習系統韌性。" 這項研究的成果為提高 AI 系統安全性和可靠性提供了一個重要的突破。隨著人工智慧在各個領域的應用越來越廣泛,對於如何防範潛在的對抗攻擊的問題,我們應該更加關注。未來,需要持續投入更多的研究和資源來改進 AI 系統韌性,以確保它們能夠安全地應用於現實世界的各個場景。
ArtificialIntelligence,Robustness,System,Security,Reliability-人工智慧,韌性,安全,可靠,系統
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。