網路議題

AI 研究人員揭露主要大型語言模型中的致命漏洞

AI 研究人員揭露大型語言模型的致命漏洞概述近年來 ChatGPT 和 Bard 等大型語言模型(LLM)在人工智慧界引起了轟動,許多公司投資數百萬美元開發這些人工智慧工具,一些頂尖的 AI 聊天機器人被估值上億。然而英國 Mindgard AI 安全新創公司和英國蘭開斯特大學的電腦科學家揭示了這些 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

AI 研究人員揭露主要大型語言模型中的致命漏洞

AI 研究人員揭露大型語言模型致命漏洞

概述

近年來 ChatGPT 和 Bard 等大型語言模型(LLM)在人工智慧界引起了轟動,許多公司投資數百萬美元開發這些人工智慧工具,一些頂尖的 AI 聊天機器人被估值上億。然而英國 Mindgard AI 安全新創公司和英國蘭開斯特大學的電腦科學家揭示了這些 LLM 存在致命漏洞的事實。他們指出,這些漏洞可能會被攻擊者用來揭示私人機密訊息、繞過保護措施、提供錯誤答案或發動更多有針對性的攻擊。

模型吸取攻擊

研究團隊將研究重點放在 ChatGPT-3.5-Turbo 上,透過與模型對話,他們能夠引出讓模型透露其工作方式的有見地訊息。然後,研究團隊利用這些訊息建立了自己的模型副本,該模型的大小只有原始模型的 100 分之一,但複製了 LLM 的關鍵特性。這樣一來,研究人員就能夠利用這個副本模型作為測試平臺,在不被檢測到的情況下尋找利用 ChatGPT 中的漏洞的方法。他們利用自己副本模型獲得的知識,成功提高了對原始模型 ChatGPT 的攻擊成功率達到 11%。

公開模型與封閉模型之間的漏洞遷移

蘭開斯特大學的 Peter Garraghan 博士是 Mindgard 公司的執行長,也是這項研究的首席調查員。他說:「我們的研究不僅有科學價值,更引起了極大的擔憂。這是極少數實證實驗,證實了安全漏洞可以成功地在封閉原始碼和開放原始碼的機器學習模型之間遷移,這非常令人擔憂,因為業界極大程度上依賴於像 HuggingFace 等公開可用的機器學習模型。」

商業應用的風險

研究人員表示他們的研究突出了這些強大的數位人工智慧技術雖然具有明確的用途,但也存在隱藏的弱點,不同模型之間可能存在共同的漏洞。當前各行各業的企業正在投資數十億美元來開發自己的 LLM,執行各種任務,如智慧助理。研究人員提醒說,這些漏洞對於計劃構建或使用第三方 LLM 的所有企業都應該是一個重大關注點。

評論和建議

這項研究的結果引起了人們對人工智慧安全性的關注。隨著大型語言模型在商業應用中的普及,保護模型的安全性變得至關重要。企業和科學家在採用和部署 LLM 時,應該深思熟慮地理解和評估與其相關的網路安全風險。 此外科技社區和相關機構應該加固監管,制定更嚴格的安全標準和指導方針,以保護使用者和企業免受潛在的攻擊。同時研究人員也應該在開發大型語言模型時將安全性納入考慮,並盡可能修復這些漏洞。 總之人工智慧技術的快速發展帶來了巨大的潛力和應用,但也引發了安全風險的關切。確保人工智慧系統的安全性和可信度是保護使用者和企業的首要任務,必須得到全球科技社區和相關各方的共同努力。
OpenAI-AI 研究人員,大型語言模型,致命漏洞,揭露
程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。