AI 研究人員揭露大型語言模型的致命漏洞
概述
近年來 ChatGPT 和 Bard 等大型語言模型(LLM)在人工智慧界引起了轟動,許多公司投資數百萬美元開發這些人工智慧工具,一些頂尖的 AI 聊天機器人被估值上億。然而英國 Mindgard AI 安全新創公司和英國蘭開斯特大學的電腦科學家揭示了這些 LLM 存在致命漏洞的事實。他們指出,這些漏洞可能會被攻擊者用來揭示私人機密訊息、繞過保護措施、提供錯誤答案或發動更多有針對性的攻擊。模型吸取攻擊
研究團隊將研究重點放在 ChatGPT-3.5-Turbo 上,透過與模型對話,他們能夠引出讓模型透露其工作方式的有見地訊息。然後,研究團隊利用這些訊息建立了自己的模型副本,該模型的大小只有原始模型的 100 分之一,但複製了 LLM 的關鍵特性。這樣一來,研究人員就能夠利用這個副本模型作為測試平臺,在不被檢測到的情況下尋找利用 ChatGPT 中的漏洞的方法。他們利用自己副本模型獲得的知識,成功提高了對原始模型 ChatGPT 的攻擊成功率達到 11%。公開模型與封閉模型之間的漏洞遷移
蘭開斯特大學的 Peter Garraghan 博士是 Mindgard 公司的執行長,也是這項研究的首席調查員。他說:「我們的研究不僅有科學價值,更引起了極大的擔憂。這是極少數實證實驗,證實了安全漏洞可以成功地在封閉原始碼和開放原始碼的機器學習模型之間遷移,這非常令人擔憂,因為業界極大程度上依賴於像 HuggingFace 等公開可用的機器學習模型。」商業應用的風險
研究人員表示他們的研究突出了這些強大的數位人工智慧技術雖然具有明確的用途,但也存在隱藏的弱點,不同模型之間可能存在共同的漏洞。當前各行各業的企業正在投資數十億美元來開發自己的 LLM,執行各種任務,如智慧助理。研究人員提醒說,這些漏洞對於計劃構建或使用第三方 LLM 的所有企業都應該是一個重大關注點。評論和建議
這項研究的結果引起了人們對人工智慧安全性的關注。隨著大型語言模型在商業應用中的普及,保護模型的安全性變得至關重要。企業和科學家在採用和部署 LLM 時,應該深思熟慮地理解和評估與其相關的網路安全風險。 此外科技社區和相關機構應該加固監管,制定更嚴格的安全標準和指導方針,以保護使用者和企業免受潛在的攻擊。同時研究人員也應該在開發大型語言模型時將安全性納入考慮,並盡可能修復這些漏洞。 總之人工智慧技術的快速發展帶來了巨大的潛力和應用,但也引發了安全風險的關切。確保人工智慧系統的安全性和可信度是保護使用者和企業的首要任務,必須得到全球科技社區和相關各方的共同努力。OpenAI-AI 研究人員,大型語言模型,致命漏洞,揭露
延伸閱讀
- 大型語言模型可幫助家庭機器人在無需人類幫助的情況下恢復錯誤
- 機敏行動:Agility 使用大型語言模型與其人形機器人進行溝通
- 好舊式人工智慧依然強大:即使大型語言模型崛起
- 使用大型語言模型實現開放式、互動式和個性化機器人導航
- 遊戲玩家揭露演算法資料中的差異
- 國家支援的駭客正在利用新的“致命”Atlassian 零日漏洞
- 盡責任的首席編輯:揭露 Jony Ive 和 OpenAI 打造「人工智慧之 iPhone」的計劃細節
- Mistral AI 推出首個大型語言模型,免費提供給所有人使用
- Meta Connect 2023: 揭露所有已公開的重大訊息!
- 鼓勵之下,大型語言模型設計出更有效的提示方式