## 調查報告:為跨技術堆疊確保生成式人工智慧的安全
### 產生成長的 AI 應用
根據 Connie Qian 在 Forgepoint Capital 的報告,研究顯示到 2026 年,超過 80%的企業將利用生成式人工智慧模型、API 或應用程式,而當前這個比例不到 5%。這種快速的採用率引發了新的考量,包括對於資訊安全、道德、隱私和風險管理。然而在當前使用生成式 AI 的公司中,只有 38%的公司能夠減少資訊安全風險,32%的公司致力於解決模型不準確的問題。
### 三個關鍵因素
安全從業者和企業家的對話集中在三個關鍵因素上:企業對生成式 AI 的採用為安全挑戰帶來了額外的複雜性,比如過度特權的存取。市場對於各種生成 AI 安全產品的需求與 ROI 潛力及所使用應用程式的底層安全漏洞密切相關。與傳統軟體一樣,生成式 AI 必須在所有架構層次上進行安全保護,特別是核心介面、應用程式和資料層面。
### 產品類別
在技術堆疊中有各種安全產品類別,突顯了安全領導者認為存在重大 ROI 和風險潛在性的領域。其中介面層面的平衡安全性和可用性尤為重要。
### 生成式 AI 聊天機器人的廣泛採用
生成式 AI 聊天機器人的廣泛採用將優先考慮準確且快速地在規模上攔截、檢視和取證輸入及相應輸出而不降低使用者體驗。現有的資料安全工具通常依賴預設規則,導致誤報。像是 Protect AI 的 Rebuff 和 Harmonic Security 等工具利用 AI 模型動態判斷透過生成式 AI 應用程式的資料是否敏感。
### 安全挑戰和未來前景
面臨生成式 AI 的安全挑戰,企業需要尋找合適的平衡點,同時確保資訊安全和應用程式的可用性。在面對不斷演進的技術和法規環境下,企業應加固風險管理和道德監督,以應對生成式 AI 可能帶來的新挑戰。
我們關注這些議題,並懇請相關機構和企業從事者,重視生成式 AI 安全的重要性,並加固相關的技術投資和道德規範,從而成為數位時代的風險管理者和道德領袖。
[圖片來源:Forgepoint Capital]
*文章來源: 紐約時報,作者:*
Security-生成式人工智慧,跨技術堆疊,安全
延伸閱讀
- 本週人工智慧大事記:生成式人工智慧與創作者補償的問題
- Dropbox、Figma CEO 支援 Lamini:新創公司打造企業專用生成式人工智慧平臺
- 亞馬遜計劃託管企業定製的生成式人工智慧模型
- Google 雲端大會:Google 全力開發生成式人工智慧
- Google 將生成式人工智慧技術注入其雲安全工具
- 歐盟與美國宣布共同合作,致力於人工智慧安全、標準與研發
- Fireworks.ai 開源 API 讓生成式人工智慧適用於任何開發者
- Brain.ai:生成式人工智慧系統統一作業系統
- 聚焦 SambaNova:現在提供一攬子生成式人工智慧模型
- Google DeepMind 成立專注於人工智慧安全的新組織