網路議題

大型活動將讓駭客測試人工智慧技術極限

大型活動讓駭客測試人工智慧技術的極限 在 ChatGPT 人工智慧聊天機器人問世後不久,駭客們開始嘗試“越獄”這個人工智慧聊天機器人,試圖覆蓋其安全防護機制,使其能夠講出一些不可理喻或淫穢的話語。現在 ChatGPT 的製造商 OpenAI、Google 和微軟等其他主要人工智慧供應商正在與拜登政 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

大型活動將讓駭客測試人工智慧技術極限

大型活動駭客測試人工智慧技術的極限

在 ChatGPT 人工智慧聊天機器人問世後不久,駭客們開始嘗試“越獄”這個人工智慧聊天機器人,試圖覆蓋其安全防護機制,使其能夠講出一些不可理喻或淫穢的話語。現在 ChatGPT 的製造商 OpenAI、Google 和微軟等其他主要人工智慧供應商正在與拜登政府協調,讓成千上萬的駭客嘗試測試其技術的極限。他們將要發現的一些事情是:聊天機器人如何被操縱以造成損害?他們是否會將我們向他們吐露的私人訊息分享給其他使用者?為什麼他們會認為醫生是男性而護士是女性?

擔憂人工智慧技術的安全性

ChatGPT 、Bing 聊天機器人或 Google 的 Bard 是建立在所謂的大型語言模型上的系統,也模擬了它們從被訓練於網際網路上的大量文字中學到的文化偏見。華盛頓郵報稱該項活動有可能會揭示聊天機器人中潛在的機器為什麼有時會帶來災難性的後果,並使我們更加擔憂人工智慧技術的安全性。

該項活動的具體細節仍在商討中,但已同意提供其模型進行測試的公司包括 OpenAI、Google 、晶片製造商 NVIDIA 以及初創企業 Anthropic、Hugging Face 和 Stability AI。構建進行測試的平臺的另一家新創公司為 Scale AI,以其在為 AI 模型進行標記資料而分配人力支援的工作聞名。其他的危險包括會發出“令人難以置信的錯誤醫療建議”或其他可能導致嚴重傷害的錯誤訊息的聊天機器人。

促進發現和修復人工智慧系統中的漏洞

在這年的活動中,不僅僅是發現聊天機器人中的漏洞,還要找到解決問題的方法。該活動的主要協調人 Chowdhury 表示:“這是一條直接的反饋管道給公司的方式。我們不僅僅是進行這次駭客松,就離開了。在活動之後的幾個月中,我們將會編制一份報告,解釋共同存在的漏洞、出現的問題和我們看到的模式。”其主要目的是讓開發人員能夠評估其 AI 系統,並理解它們可能存在的漏洞和風險,讓開發人員更好地改進其 AI 模型。

人工智慧的漏洞和風險檢測需要第三方評估

Anthropic 的共同創始人 Jack Clark 表示 DEF CON 的這次活動將希望開發人員更深入地承諾評估他們正在建立的系統的安全性。“我們的基本觀點是,人工智慧系統建立之前和建立之後都需要進行第三方評估。Red-teaming 是其中一種方法,我們需要實踐出解決方法。這是以前沒有做過的事情。”

隨著底層模型的普及,確保底層模型的安全性更加重要。該項活動是測試大型語言模型的第一個活動,自去年底 ChatGPT 發布以來,引起了公眾注意和商業投資的激增。該項活動得到了幾家公司的支援,並有可能揭示聊天機器人中潛在的機器為什麼有時會帶來災難性的後果,並使我們更加擔憂人工智慧技術的安全性。未來,開發人員需要考慮如何測試人工智慧技術並改進其 AI 模型。

關鍵詞:AI 安全測試,人工智慧駭客技術測試大型活動

AI Security Testing-人工智慧,駭客,技術測試,大型活動
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。