AIGC

為何 GPT-4 容易受到多模態提示嵌入影象攻擊的影響?

AI Unleashed: 多模態提示攻擊使 LLM 面臨風險引言開放人工智慧(OpenAI)最新推出的 GPT-4V 版本支援影象上傳,這開創了全新的攻擊手段,使得大型語言模型(LLMs)容易受到多模態提示注入攻擊的威脅。攻擊者可以在影象中嵌入命令、惡意指令碼和程式碼,而模型會遵從這些指令。多模態 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

為何 GPT-4 容易受到多模態提示嵌入影象攻擊的影響?

AI Unleashed: 多模態提示攻擊使 LLM 面臨風險

引言

開放人工智慧(OpenAI)最新推出的 GPT-4V 版本支援影象上傳,這開創了全新的攻擊手段,使得大型語言模型(LLMs)容易受到多模態提示注入攻擊的威脅。攻擊者可以在影象中嵌入命令、惡意指令碼和程式碼,而模型會遵從這些指令。多模態提示注入攻擊可以從資料中洩露資訊、重定向查詢、創造錯誤訊息以及執行更複雜的指令碼,重新定義 LLM 對資料的解釋方式。攻擊者可以繞過 LLM 的安全防護,執行危害組織的指令,從詐騙到營運破壞等方式進行操作。那些將 LLM 作為工作流程的核心部分,用於分析和分類影象的企業面臨著最大的風險。攻擊者使用各種技術可以迅速改變影象的解釋和分類方式,從而創造更多的混亂結果導致錯誤訊息。一旦 LLM 的提示被覆蓋,它對於惡意指令和執行指令碼的盲點將變得更大。透過將命令嵌入上傳到 LLM 的一系列影象中,攻擊者可以發起詐騙和營運破壞,同時也捲入到社交工程攻擊中。

LLM 對影象的防禦無能

LLMs 在處理過程中缺乏資料淨化步驟,因此它們對每個影象都十分信任。就像在沒有對每個資料集、應用程式或資源設定存取控制的網路中讓身份隨意漫遊一樣危險,對於上傳到 LLM 中的影象也是如此。擁有私有 LLM 的企業必須將最小特權存取視為核心的網路安全策略。LLM 供應商需要考慮如何在影象傳遞之前更好地淨化影象資料。

LLM 的資料來源只有它們的訓練資料和你餵給它們的資訊,這使得它們基本上很容易受到攻擊。Simon Willison 在最近的一篇部落格文章中詳細解釋了為什麼 GPT-4V 是提示注入攻擊的主要傳播途徑,他觀察到 LLMs 基本上是容易上當受騙的。Willison 寫道:"(LLMs)的訊息來源只有他們的訓練資料和你餵給它們的訊息。"Willison 還展示了如何透過提示注入來劫持像 Auto-GPT 這樣的無人 AI 代理系統。他解釋了一個簡單的視覺提示注入程式碼的例子,並展示了一個視覺提示注入洩露攻擊。根據 BDO UK 的資料分析和 AI 高級經理 Paul Ekwere 的說法:"提示注入攻擊對 LLMs 的安全性和可靠性構成了嚴重威脅,特別是對處理影象或影片的視覺模型。這些模型在人臉識別、自動駕駛、醫療診斷和監控等各個領域都得到了廣泛使用。"

OpenAI 尚未提供防止多模態提示注入影象攻擊的解決方案,使用者和企業只能依靠自己。Nvidia Developer 的一篇部落格文章提供了一些建議,包括對所有資料儲存和系統實施最小特權存取控制。

多模態提示注入影象攻擊工作方式

多模態提示注入攻擊利用了 GPT-4V 在處理視覺影象時的漏洞,執行不被檢測到的惡意指令。GPT-4V 依賴於視覺轉換編碼器將影象轉換為潛在空間表示。影象和文字資料被結合起來建立一個回應。該模型在進行編碼之前並沒有方法對視覺輸入進行淨化處理。攻擊者可以嵌入任意多的命令,而 GPT-4V 會將它們視為合法的。對私有 LLMs 自動化進行多模態提示注入攻擊不容易被察覺。影象作為一個未受保護的攻擊向量的令人擔憂之處在於,攻擊者可以降低 LLMs 對訓練資料的可信度,使其隨著時間的推移具有更低的精度。一項最近的研究提供了關於 LLMs 如何更好地保護自己免受提示注入攻擊的指南。一個研究小組旨在確保攻擊有多成功地滲透到整合 LLM 的應用程式中,該研究的方法較為值得注意。該研究發現,有 31 個整合了 LLM 的應用程式存在注入漏洞。以下是該研究對包含注入影象攻擊進行控制的建議:

改善使用者輸入的資料淨化和取證

對於將私有 LLM 作為標準的企業來說身份存取管理(IAM)和最小特權存取是必要的。LLM 供應商需要考慮如何在傳遞影象進行處理之前更好地淨化資料。

改善平臺架構並將使用者輸入與系統邏輯分離

目標應該是消除使用者輸入直接影響 LLM 程式碼和資料的風險。任何圖片提示都應該經過處理,以免影響內部邏輯或工作流程。

採用多階段處理工作流程以識別惡意攻擊

建立一個多階段的流程來早期檢測基於影象的攻擊可以有助於管理這個威脅向量。

定制防禦型提示以針對越獄

越獄是一種常見的提示工程技術,用於使 LLM 執行非法操作。對看似惡意的影象輸入進行提示追加,可以幫助保護 LLMs。研究人員警告,高級攻擊可能仍然可以繞過此方法。

一個迅速增長的威脅

隨著更多的 LLMs 成為多模態,影象成為攻擊者可依賴的最新威脅向量。基於影象的攻擊的嚴重性可以從簡單的指令到更複雜的攻擊場景,包括工業破壞和廣泛錯誤訊息的目標。

總結而言,多模態提示注入攻擊對企業和使用 LLMs 的組織具有重大風險。為了更好地保護自己免受這些攻擊,企業需要採取綜合的安全策略,包括淨化影象資料、改進平臺架構、多階段處理工作流程以及採用防止越獄的定制防禦提示。

Attack-GPT-4,多模態提示,嵌入影象攻擊,影響
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。