AIGC

確保跨技術堆疊中的生成式人工智慧安全

## 調查報告:為跨技術堆疊確保生成式人工智慧的安全### 產生成長的 AI 應用根據 Connie Qian 在 Forgepoint Capital 的報告,研究顯示到 2026 年,超過 80%的企業將利用生成式人工智慧模型、API 或應用程式,而當前這個比例不到 5%。這種快速的採用率引發了 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

確保跨技術堆疊中的生成式人工智慧安全
## 調查報告:為跨技術堆疊確保生成式人工智慧的安全 ### 產生成長的 AI 應用 根據 Connie Qian 在 Forgepoint Capital 的報告,研究顯示到 2026 年,超過 80%的企業將利用生成式人工智慧模型、API 或應用程式,而當前這個比例不到 5%。這種快速的採用率引發了新的考量,包括對於資訊安全、道德、隱私和風險管理。然而在當前使用生成式 AI 的公司中,只有 38%的公司能夠減少資訊安全風險,32%的公司致力於解決模型不準確的問題。 ### 三個關鍵因素 安全從業者和企業家的對話集中在三個關鍵因素上:企業對生成式 AI 的採用為安全挑戰帶來了額外的複雜性,比如過度特權的存取。市場對於各種生成 AI 安全產品的需求與 ROI 潛力及所使用應用程式的底層安全漏洞密切相關。與傳統軟體一樣,生成式 AI 必須在所有架構層次上進行安全保護,特別是核心介面、應用程式和資料層面。 ### 產品類別 在技術堆疊中有各種安全產品類別,突顯了安全領導者認為存在重大 ROI 和風險潛在性的領域。其中介面層面的平衡安全性和可用性尤為重要。 ### 生成式 AI 聊天機器人的廣泛採用 生成式 AI 聊天機器人的廣泛採用將優先考慮準確且快速地在規模上攔截、檢視和取證輸入及相應輸出而不降低使用者體驗。現有的資料安全工具通常依賴預設規則,導致誤報。像是 Protect AI 的 Rebuff 和 Harmonic Security 等工具利用 AI 模型動態判斷透過生成式 AI 應用程式的資料是否敏感。 ### 安全挑戰和未來前景 面臨生成式 AI 的安全挑戰,企業需要尋找合適的平衡點,同時確保資訊安全和應用程式的可用性。在面對不斷演進的技術和法規環境下,企業應加固風險管理和道德監督,以應對生成式 AI 可能帶來的新挑戰。 我們關注這些議題,並懇請相關機構和企業從事者,重視生成式 AI 安全的重要性,並加固相關的技術投資和道德規範,從而成為數位時代的風險管理者和道德領袖。 [圖片來源:Forgepoint Capital] *文章來源: 紐約時報,作者:*
Security-生成式人工智慧,跨技術堆疊,安全
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。