網路議題

人工智慧生成技術如何創造新的安全威脅

人工智慧的崛起:技術創新與安全威脅概述近年來人工智慧(AI)的發展取得了突破性進展,並對技術界產生了巨大的影響。然而隨著 AI 越來越普及,也給安全威脅帶來了新的挑戰。攻擊者開始利用 AI 來改進釣魚和詐騙等行為,同時使用 AI 的使用者也往往在不經意間泄露了敏感訊息。在這種情況下,我們需要思考如何 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

人工智慧生成技術如何創造新的安全威脅

人工智慧的崛起:技術創新與安全威脅

概述

近年來人工智慧(AI)的發展取得了突破性進展,並對技術界產生了巨大的影響。然而隨著 AI 越來越普及,也給安全威脅帶來了新的挑戰。攻擊者開始利用 AI 來改進釣魚和詐騙等行為,同時使用 AI 的使用者也往往在不經意間泄露了敏感訊息。在這種情況下,我們需要思考如何在利用 AI 的同時確保安全以及社會的信任。

攻擊者與防守者之間的不對稱

攻擊者很可能比防守者更快地採用和使用 AI 技術,這使得他們具有明顯的優勢。他們將能夠以低成本的方式使用 AI 和機器學習來發動規模龐大且複雜的攻擊。社會工程學攻擊將是首先從合成文字、語音和影象中獲益的領域。許多攻擊需要一定的人工操作,比如冒充國稅局或地產經紀人的釣魚嘗試,但未來這些攻擊將變得自動化。攻擊者將能夠使用這些技術建立更好的惡意程式碼,並以更高效的方式發動新的、更有效的攻擊。舉例來說他們將能夠快速生成多型攻擊程式碼,從而逃避基於簽名的系統的檢測。

安全與人工智慧:社會信任進一步受損

透過社交媒體迅速傳播的假訊息已經讓我們看到社會信任能夠以更快、更廉價的方式受損。當前基於大型語言模型的人工智慧/機器學習系統在知識方面存在局限性,當它們不知道如何回答問題時,它們會胡亂猜測答案。這通常被稱為“幻覺”,這是這種新興技術的一個意外後果。當我們在尋找正確的答案時,精確性的缺乏成為一個巨大問題。這將背離人類的信任,並造成重大的錯誤和後果。例如,澳大利亞的一位市長表示由於 ChatGPT 錯誤地將他誤認為行賄入獄的人,而實際上他是舉報者,因此他可能會起訴 OpenAI 進行誹謗。

新的攻擊方式

未來十年,我們將看到對人工智慧/機器學習系統的新一代攻擊。攻擊者將影響系統使用的分類器以偏向某些模式並控制輸出結果。他們將建立惡意模型,外觀上與真實模型無異,根據使用方式不同,這可能會造成真正的損害。注入攻擊也會變得更加普遍。就在微軟推出 Bing Chat 的一天之後,一名斯坦福大學的學生就成功使該模型透露內部指示。攻擊者將與對抗性機器學習工具展開競爭,以各種方式欺騙 AI 系統,污染其使用的資料,或從模型中提取敏感資料。隨著越來越多的軟體程式碼由 AI 系統生成,攻擊者可能利用這些系統不經意地引入的漏洞來破壞應用程式。

規模效應的外部性

建立和運營大型模型的成本將導致壟斷和進入壁壘,這將產生我們可能無法預測的外部性。最終這將對公民和消費者產生負面影響。假訊息將變得猖獗,規模的社會工程攻擊將影響到沒有保護手段的消費者。聯邦政府宣布即將推出的治理措施是一個好的開始,但在 AI 競爭中,我們還有很多工作要做。

AI 和安全:接下來的發展

非營利組織 Future of Life Institute 發表了一封公開信,呼籲暫停 AI 的創新。這一呼聲獲得了廣泛的媒體報道,包括埃隆·馬斯克(Elon Musk)在內的一些人表示關切,但停止創新顯然是不可行的。即使馬斯克也知道這一點,他似乎改變了立場,自己創辦了一家 AI 公司以進行競爭。提出遏制創新的建議始終是虛偽的。我們需要更多的創新和行動,以確保 AI 的負責和道德使用。好訊息是,這也為使用 AI 的創新安全方法創造了機會。我們將會看到威脅狩獵和行為分析方面的改進,但這些創新需要時間和投資。任何新技術的出現都會引起範式轉換,事情在變好之前總是變得更糟。我們已經對當惡意人士利用 AI 的可能性嚐到了一點苦果,但現在我們必須行動,讓安全專業人員制定策略並在出現大規模問題時做出反應。在這一點上,我們對 AI 的未來毫無準備。 (本文參考了原問題中所提供的資料)
Artificial intelligence (AI)-人工智慧,技術,安全威脅,生成技術
程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。