大型活動讓駭客測試人工智慧技術的極限
在 ChatGPT 人工智慧聊天機器人問世後不久,駭客們開始嘗試“越獄”這個人工智慧聊天機器人,試圖覆蓋其安全防護機制,使其能夠講出一些不可理喻或淫穢的話語。現在 ChatGPT 的製造商 OpenAI、Google 和微軟等其他主要人工智慧供應商正在與拜登政府協調,讓成千上萬的駭客嘗試測試其技術的極限。他們將要發現的一些事情是:聊天機器人如何被操縱以造成損害?他們是否會將我們向他們吐露的私人訊息分享給其他使用者?為什麼他們會認為醫生是男性而護士是女性?
擔憂人工智慧技術的安全性
ChatGPT 、Bing 聊天機器人或 Google 的 Bard 是建立在所謂的大型語言模型上的系統,也模擬了它們從被訓練於網際網路上的大量文字中學到的文化偏見。華盛頓郵報稱該項活動有可能會揭示聊天機器人中潛在的機器為什麼有時會帶來災難性的後果,並使我們更加擔憂人工智慧技術的安全性。
該項活動的具體細節仍在商討中,但已同意提供其模型進行測試的公司包括 OpenAI、Google 、晶片製造商 NVIDIA 以及初創企業 Anthropic、Hugging Face 和 Stability AI。構建進行測試的平臺的另一家新創公司為 Scale AI,以其在為 AI 模型進行標記資料而分配人力支援的工作聞名。其他的危險包括會發出“令人難以置信的錯誤醫療建議”或其他可能導致嚴重傷害的錯誤訊息的聊天機器人。
促進發現和修復人工智慧系統中的漏洞
在這年的活動中,不僅僅是發現聊天機器人中的漏洞,還要找到解決問題的方法。該活動的主要協調人 Chowdhury 表示:“這是一條直接的反饋管道給公司的方式。我們不僅僅是進行這次駭客松,就離開了。在活動之後的幾個月中,我們將會編制一份報告,解釋共同存在的漏洞、出現的問題和我們看到的模式。”其主要目的是讓開發人員能夠評估其 AI 系統,並理解它們可能存在的漏洞和風險,讓開發人員更好地改進其 AI 模型。
人工智慧的漏洞和風險檢測需要第三方評估
Anthropic 的共同創始人 Jack Clark 表示 DEF CON 的這次活動將希望開發人員更深入地承諾評估他們正在建立的系統的安全性。“我們的基本觀點是,人工智慧系統建立之前和建立之後都需要進行第三方評估。Red-teaming 是其中一種方法,我們需要實踐出解決方法。這是以前沒有做過的事情。”
隨著底層模型的普及,確保底層模型的安全性更加重要。該項活動是測試大型語言模型的第一個活動,自去年底 ChatGPT 發布以來,引起了公眾注意和商業投資的激增。該項活動得到了幾家公司的支援,並有可能揭示聊天機器人中潛在的機器為什麼有時會帶來災難性的後果,並使我們更加擔憂人工智慧技術的安全性。未來,開發人員需要考慮如何測試人工智慧技術並改進其 AI 模型。
關鍵詞:AI 安全測試,人工智慧,駭客,技術測試,大型活動
延伸閱讀
- 《Apex Legends 駭客稱遊戲開發者修補了直播主使用的漏洞》
- 烏克蘭網路警察如何對抗俄羅斯駭客
- 《Apex Legends 駭客自稱「只是為了好玩」竊取錦標賽遊戲》
- 寶可夢因駭客嘗試後重設一些使用者密碼
- 美國國家安全域性表示正在追蹤 Ivanti 網路攻擊,駭客瞄準美國國防領域
- 英國水務巨擘 Southern Water 稱駭客竊取數十萬客戶個人資料
- 駭客揭露 TheTruthSpy 新型 Stalkerware 受害者:你的 Android 裝置被侵入了嗎?
- Bugcrowd 宣佈獲得 1.02 億美元投資,打造能動用 50 萬名以上駭客的「獎金賞金」安全平臺
- 中國支援的 Volt Typhoon 駭客在美國關鍵基礎設施中潛伏至少五年
- 微軟稱俄羅斯駭客也攻擊其他組織