市場觀察

不要期望快速修復「紅隊測試」AI 模型的問題,安全問題成為後顧之憂

紅隊測試 AI 模型:別期望快速修復安全問題成為事後思考白宮官員對 AI 聊天機器人的社會危害潛力感到擔憂,而矽谷巨頭也急於將其推向市場,他們在拉斯維加斯的 DefCon 駭客大會上進行為期三天的競賽投入重資。大約有 3,500 名參賽者在筆記型電腦上努力尋找八個代表科技下個重大突破的領先大型語言模 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

不要期望快速修復「紅隊測試」AI 模型的問題,安全問題成為後顧之憂

紅隊測試 AI 模型:別期望快速修復

安全問題成為事後思考

白宮官員對 AI 聊天機器人的社會危害潛力感到擔憂,而矽谷巨頭也急於將其推向市場,他們在拉斯維加斯的 DefCon 駭客大會上進行為期三天的競賽投入重資。大約有 3,500 名參賽者在筆記型電腦上努力尋找八個代表科技下個重大突破的領先大型語言模型的漏洞。但不要指望這次首次進行的多個模型的獨立“紅隊測試”能帶來快速的結果。調查結果直到 2 月左右才會公開。而且修復這些數位構造的缺陷需要時間和數百萬美元,因為學術界和企業研究表明,現有的 AI 模型過於笨重,脆弱且可塑。它們在訓練過程中的安全問題是訓練資料以影象和文字的驚人複雜集合為導向,並沒有充分考慮安全性。它們容易受到種族和文化偏見的影響,並且易於操縱。

數位模型中的安全困境

企業和學術研究顯示建立當前的 AI 模型時很少考慮到安全性,而數位模型則非常難以應用和修改。在他們的新書《不是因為漏洞,而是因為貼紙》中,安德遜和斯瓦康尼這樣描述了基於文字和影象的 AI 模型的安全狀況。他們提到了一個頗具代表性的例子:AI 助手 Alexa 被欺騙,將貝多芬的協奏曲片段解讀為訂購 100 個凍披薩的命令。根據這本書的作者們對 80 多家組織的調查,大部分組織對資料污染攻擊或資料集盜竊沒有應對計劃,他們寫道:“大部分行業甚至不會意識到已經發生了這種攻擊。”結果,AI 安全問題成為一個令人沮喪的現實,並且對於文字和影象模型而言是一個非常棘手的問題。

AI 模型的漏洞和操縱風險

AI 模型的安全困境在於它們內部的邏輯不完全可信,並且即使是它們的建立者也無法完全理解它們的內部執行。對話模型特別容易受到攻擊,因為我們直接用純粹的語言與它們互動,這種互動可以以意想不到的方式改變模型的行為。研究人員發現,在用於訓練 AI 系統的海量資料中,對一小部分影象或文字進行“毒化”,可能會引發混亂,而這往往容易被忽視。由瑞士蘇黎世聯邦理工學院的弗洛裏安·特拉默等人共同撰寫的一項研究確保,損壞模型的 0.01%就足夠破壞它,並且花費只要 60 美元。研究人員等待兩個模型中用於網路探測的一些網站到期後,購買了這些域名並在上面張貼了壞的資料。

未來的挑戰

隨著 AI 模型的不斷發展,人們對其安全性和隱私保護的擔憂不斷增加。儘管一些大型 AI 公司表示安全問題是他們的首要關注,並向白宮做出了自願承諾將其模型提交給外部審查,但人們擔心這些公司不會付出足夠的努力。研究者預計,利用 AI 系統漏洞進行網路搜尋引擎和社交媒體平臺的遊戲化來獲取利益和散布假訊息。稍加熟練的求職者可能會找出如何說服系統只有他們是合適的候選人。人們擔心,當人們與 AI 機器人進行與醫院、銀行和僱主的互動時,他們的隱私將受到侵犯,惡意行為者可能利用它們來取得財務、就業或健康資料。AI 語言模型執行時還可能自我污染,重新培訓自己使用垃圾資料。此外公司的商業祕密可能被 AI 系統吸收並泄漏。在一起關於三星的事件被韓國一家商業新聞機構報導之後,包括 Verizon 和 JPMorgan 在內的企業禁止大多數員工在工作中使用 ChatGPT。預計在未來幾個月中,將有數百家新創公司基於授權的預先訓練模型推出數百個產品,而這些公司很可能無法提供足夠的安全保護,這將意味著不安全的外掛和數位代理將大量增加。

社論評論

AI 技術的迅猛發展為人類帶來了無數的機遇和潛能,但同時也帶來了許多新的挑戰和風險,尤其是在安全和隱私方面。AI 模型的安全困境應該受到嚴重關注,並需要政府、學術界和業界的共同努力來解決這些問題。

首先需要加固 AI 模型的訓練和開發過程中的安全意識和機制。安全應該成為 AI 模型開發的核心考慮因素,而不是事後補救。開發人員和研究人員應該與安全專家密切合作,確保模型在訓練過程中不受到攻擊和操縱。同時需要制定相應的法律法規和標準,規範 AI 模型的安全要求和測試程式。

其次需要加固 AI 模型的測試和漏洞揭示。對於 AI 模型來說紅隊測試是一種重要的手段,可以幫助發現模型的漏洞和脆弱性。然而當前的紅隊測試還不夠完善和廣泛,需要投入更多的資源和專業人才來進行更全面和深入的測試。此外還需要建立一個開放和透明的測試機制,使不同利益相關方都能參與其中。

最後需要加固 AI 模型的監督和責任機制。AI 模型的安全問題不僅僅是一個技術問題,也是一個倫理和社會問題。政府、企業和學術界都應該共同承擔起監督和責任,確保 AI 模型的使用是為了促進人類福祉,而不是對社會造成危害。同時也需要加固對 AI 模型使用風險的警覺和教育,提高人們對 AI 技術的理解和認識。

建議

對於政府、企業和學術界:

  • 將安全視為 AI 模型開發的核心考慮因素,加固安全設計和開發流程。
  • 加固對 AI 模型的測試和漏洞揭示,投入更多資源和專業人才。
  • 建立開放和透明的測試機制,使不同利益相關方都能參與其中。
  • 加固 AI 模型的監督和責任機制,確保其使用符合道德和社會價值。
  • 加固對 AI 技術的教育和宣傳,提高公眾對 AI 模型使用的風險的警覺。

對於開發人員和研究人員:

  • 加固安全意識,確保安全成為開發過程的一部分。
  • 與安全專家密切合作,確保模型在訓練過程中不受到攻擊和操縱。
  • 學習和遵守最新的 AI 安全法律法規和標準。

對於使用者和公眾:

  • 提高對 AI 技術的理解和認識,理解其潛在的風險和影響。
  • 保持警覺,注意保護個人訊息和隱私。
  • 積極參與對 AI 模型的測試和監督。
Cybersecurity--紅隊測試-AI 模型-安全問題-修復問題-後顧之憂
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。