
總覽
最近,隨著生成式人工智慧模型(如 ChatGPT)的問世,許多騙徒也推出了類似 FraudGPT 的模型,該模型在暗網上遊盪,承諾協助犯罪分子精心製作網路攻擊。企業正在採用基於生成式人工智慧的網路防禦,希望能夠超越攻擊者使用類似工具的能力。然而專家們警告說,這需要更多的努力,包括保護生成式人工智慧模型背後的資料和算法,以免這些模型本身成為網路攻擊的受害者。
IBM 調查
IBM 最近公布了一項調查結果,顯示 84%的企業高管表示他們將「優先考慮生成式人工智慧的安全解決方案,而不是傳統方案」用於網路安全目的。根據調查,到 2025 年,基於人工智慧的安全支出預計將比 2021 年增長 116%。這項調查是基於來自美國企業的 200 位執行長、首席安全官和其他高管的回答。
議會關注
許多高層議會成員已經對人工智慧對網路安全所帶來的危險表達了關切。在九月的參議院諮詢中,主席馬克·華納表示生成模型可以改善網路安全,幫助程式員識別程式設計錯誤,提高程式設計實踐的安全性,但這些模型同樣可以為惡意行為者提供幫助。
Darktrace 的應用
據 Darktrace 的高級副總裁馬庫斯·福勒表示該公司正在部署定制的生成式人工智慧模型進行網路防禦。它使用人工智慧來預測潛在的攻擊,並設計專有的自學習人工智慧模型,觀察和理解在企業或政府環境中部署的電腦網路的常規使用模式。該系統可以檢測出與常規模式不符的活動,為安全專家提供行動方案。
產業困境
Dakota State University 的校長約瑟·格裏菲斯表示生成式人工智慧在改善網路安全方面的應用正逐步增加,但安全專家們必須同樣關注保護生成式人工智慧模型本身,因為攻擊者可能會試圖破解模型和其底層資料。此外 John Dwyer 指出,生成式人工智慧模型在網路安全中的廣泛應用能夠解決安全專家所面臨的一些固有問題,例如警報過載、人才短缺和心理健康問題。使用人工智慧模型來卸下重複性任務可以減輕工作負荷,使安全分析師能夠專注於高價值任務。
結論
隨著生成式人工智慧在網路安全領域的應用不斷增加,網路攻擊者也在追趕這一趨勢。保護生成式人工智慧模型和其底層資料的安全至關重要,以防止攻擊者入侵。同時生成式人工智慧模型能夠為安全專家提供支援,減輕工作負荷,提高網路安全的效能。然而人工智慧在網路安全領域的應用仍然面臨著一些挑戰,包括對生成模型的保護和使用人工智慧分析惡意軟體的能力。
專家建議
為了應對生成式人工智慧在網路安全中的應用挑戰,專家們提出了以下建議:
- 加固生成式人工智慧模型和資料的安全保護,以防止攻擊者入侵。
- 繼續發展生成式人工智慧模型,在網路防禦方面提供更強大的功能。
- 加固對惡意軟體的分析能力,以確保攻擊者的來源。
- 減少安全專家的工作負荷,使用生成式人工智慧模型來卸下重複性任務,使其能夠專注於高價值任務。
隨著生成式人工智慧技術的不斷發展,網路安全領域將面臨著更多的挑戰和機遇。只有透過不斷改進生成式人工智慧模型的安全性和功能以及提高安全專家的工作效能,我們才能在網路安全的戰場上取得勝利。
延伸閱讀
- 加州新 AI 法案出爐,SB 1047 作者再推出改革措施!
- 《超級瑪利歐成為 AI 基準測試的新標準!你絕對想不到的理由》
- Google 推出 SpeciesNet:專為識別野生動物而設的人工智慧模型!
- 安瑟普提克獲得 35 億美元巨額資金 瞄準人工智慧未來!
- OpenAI 重磅推出 GPT-4.5:歷史上最大的語言模型來了!
- 探索 DeepSeek:你必須理解的 AI 聊天機器人應用全指南!
- OpenAI 的創業帝國:揭密其風投基金背後的諸多創新公司
- 揭開 Mistral AI 的神祕面紗:揭示 OpenAI 競爭者的所有祕密!
- 未來科技:研究人員揭示如何打造變形機器人,猶如 T-1000 般神奇!
- ElevenLabs 推出全新語音轉文字模型,引領 AI 語音技術的新潮流!