
Google 擴大漏洞獎勵計畫,納入生成式人工智慧的威脅
背景
Google 近日宣布將其漏洞獎勵計畫(VRP)擴大,納入生成式人工智慧(generative AI)的攻擊場景。此舉意在鼓勵針對人工智慧安全性和保密性的研究,並揭示潛在的問題,以使人工智慧更加安全。此漏洞獎勵計畫是 Google 對於合法駭客發現和負責任地揭示安全漏洞付款的方式。
生成式人工智慧帶來的新風險
生成式人工智慧帶來了新的安全問題,如不公平的偏差可能性或模型操縱的潛在問題。為了重新思考漏洞應如何分類和報告,Google 表示他們正在利用最新成立的 AI Red Team 團隊的訊息。這個團隊是一群模擬各種對手的駭客,包括國家和政府支援的團體、駭客活動和惡意內部人員,他們的目標是尋找技術中的安全弱點。該團隊最近進行了一項實驗,以確保生成式人工智慧產品的技術背後的最大威脅,如 ChatGPT 和 Google Bard。
一項重大的威脅是大型語言模型(LLMs)易受提示注入攻擊的影響。這種攻擊方式是駭客構建對抗性提示,以影響模型的行為。攻擊者可以利用這種攻擊方式產生有害或冒犯性的文字,或者洩露敏感訊息。研究團隊還警告了另一種攻擊方式,稱為訓練資料提取,駭客可以透過重建訓練示例,從資料中提取個人身份訊息或密碼。Google 的擴大 VRP 範圍包括這兩種攻擊方式以及模型操縱和模型竊取攻擊。然而 Google 表示他們將不會向揭示與版權問題或重建非敏感或公共訊息的資料提取有關的漏洞的研究人員提供獎勵。
獎金和報酬
Google 將根據發現漏洞的嚴重性來確保獎金和報酬。研究人員當前可以透過在高度敏感的應用程式(如 Google 搜尋或 Google Play)中發現命令注入攻擊和反序列化漏洞來賺取 31337 美元的獎金。如果漏洞影響優先線序較低的應用程式,最高獎金為 5000 美元。Google 表示他們在 2022 年向安全研究人員支付了超過 1200 萬美元的獎金。
編輯評論
生成式人工智慧的快速發展帶來了潛在的安全風險,這一點不容忽視。在 Google 擴大漏洞獎勵計畫以納入生成式人工智慧的威脅後,我們可以看到 Google 對於人工智慧安全性的重視。
然而漏洞獎勵計畫仍然只是應對生成式人工智慧安全威脅的一個創新措施。生成式人工智慧帶來的風險覆蓋範圍極廣,包括社會和道德問題,需要從更深層次進行討論。人工智慧技術的發展應該符合道德原則,並服務於社會的整體利益。這需要更多的跨學科研究和政策制定的參與,以確保人工智慧的應用益於個人和全體人類。
另外我們應該注意到,漏洞獎勵計畫僅僅鼓勵合法駭客發現和揭示漏洞,這不足以應對所有可能的安全威脅。我們需要更多的行業合作和監管機構的參與,以創造一個更安全的人工智慧生態系統。此外如何平衡隱私和安全之間的關係也是一個重要的議題,這需要深入的討論和政策制定的支援。
建議
針對生成式人工智慧的安全性和保密性問題,我們提出以下建議:
- 學術界和產業界應加固合作,進行更多跨學科和跨界的研究,以解決生成式人工智慧帶來的安全挑戰。
- 相關的政策制定者應制定更加全面和明確的法規,以促進人工智慧的安全和道德發展。
- 鼓勵更多的漏洞獎勵計畫,以提供研究人員揭示漏洞並獲得獎金的機會。
- 加固教育和培訓,提高公眾對人工智慧安全和保密性的認識,並提供相應的解決方案。
總而言之,生成式人工智慧的安全問題需要進一步關注和解決。漏洞獎勵計畫是一個重要的舉措,但它僅僅是解決問題的開始。我們需要更多的全球合作和跨領域的參與,以確保人工智慧的發展為社會帶來更多的好處,同時保護我們的隱私和安全。
延伸閱讀
- 震撼收購:Google 豪擲重金併購 Wiz,一週回顧
- Google 提議放寬 AI 政策中的版權與出口規則,引發爭議!
- 特朗普政府削減預算,可能對 AI 研究帶來嚴重威脅!
- Google 推出 SpeciesNet:專為識別野生動物而設的人工智慧模型!
- Google 升級 Colab!全新 AI 代理工具助你提升生產力!
- OpenAI 重磅推出 GPT-4.5:歷史上最大的語言模型來了!
- Google 大幅簡化個人資訊刪除流程,搜尋結果隱私守護新上線!
- 「Glance 推出 AI 驅動購物體驗,獲 Google 新一輪資金支援!」
- Google 推出免費 AI 程式設計助手,使用約束超乎想像!
- 「Chegg 控告 Google!AI 搜尋摘要引發的科技法律戰」