網路議題

在機密計算峰會之前,Opaque Systems 揭示了機密人工智慧和分析工具

Opaque Systems 發表機密計算平臺的新創新 AI 和分析公司 Opaque Systems 今日宣布其機密計算平臺的新創新。這些新產品將優先保護組織資料的保密性,同時使用大型語言模型(LLMs)。該公司宣布將在 6 月 29 日在舊金山舉行的首屆機密計算峰會上展示這些創新。其中包括針對 M .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

在機密計算峰會之前,Opaque Systems 揭示了機密人工智慧和分析工具

Opaque Systems 發表機密計算平臺的新創新

AI 和分析公司 Opaque Systems 今日宣布其機密計算平臺的新創新。這些新產品將優先保護組織資料的保密性,同時使用大型語言模型(LLMs)。該公司宣布將在 6 月 29 日在舊金山舉行的首屆機密計算峰會上展示這些創新。其中包括針對 Microsoft Azure 的機密計算雲端提供的保護隱私的生成式 AI 以及零信任分析平臺:Data Clean Room(DCR)。該公司表示其生成式 AI 透過整合安全硬體封印以及獨特的加密強化措施層層保護資料。“Opaque 平臺確保在模型訓練、調整和推理的整個過程中資料始終保持加密,從而保證了資料的隱私性,”Opaque Systems 的產品副總裁 Jay Harel 告訴 VentureBeat。“為了在整個生命周期中減少資料泄露的可能性,我們的平臺在資料靜態、傳遞和使用時均提供保護。”

透過機密計算確保資料安全

像 ChatGPT 這樣的 LLMs 依賴於公開資料進行訓練。Opaque Systems 聲稱,只有在不會暴露風險的情況下,這些模型的真正潛力才能得以實現。該公司建議公司採用機密計算來降低這一風險。機密計算是一種在整個模型訓練和推理過程中保護資料的方法。該公司聲稱,這種方法可以發揮 LLMs 的轉型能力。“我們利用由雲端供應商提供的專用硬體來使用機密計算技術,”Opaque 的 Harel 告訴 VentureBeat。“這種增強隱私的技術確保資料在機器學習的整個生命周期中都得到了端到端的加密。透過 Opaque 的平臺,模型、提示和上下文在訓練和執行推理時都保持加密。”

生成式 AI 和隱私的問題

在生成式 AI 和隱私方面,特別是在 LLMs 方面,存在三個主要問題:查詢:LLMs 提供者可以看到使用者的查詢,這可能會導致對機密訊息(如專有程式碼或可識別個人的訊息)的存取。隨著駭客風險的增加,這種隱私問題變得更加嚴重。訓練模型:為了改進 AI 模型,供應商會存取並分析其內部訓練資料。然而保留訓練資料可能導致機密訊息的累積,從而增加資料泄露的風險。對於擁有專有模型的組織而言,智慧財產權問題:使用公司資料微調模型需要給予專有的 LLM 提供者存取資料,或將專有模型部署在組織內部。隨著外部人員存取私密和敏感資料,駭客和資料泄露的風險增加。該公司已經開發了其生成式 AI 技術,以解決這些問題。它旨在實現組織和資料所有者之間的安全協作,同時確保符合法規。例如,一家公司可以訓練並微調專門的 LLM,而另一家公司可以用於推理。兩家公司的資料都保持私密,不授予對方存取許可權。“透過 Opaque 的平臺,確保資料在其整個生命周期中始終加密,組織將能夠對 LLMs 進行訓練、微調和執行推理,而不用真正獲取原始資料本身,”Harel 表示。該公司強調了在零信任 Data Clean Room(DCR)方案中使用安全硬體封印和加密強化的重要性。它聲稱,這種機密計算方法提供了多重層面的保護,防止了網路攻擊和資料泄露。該系統在雲原生環境中執行,可以在使用者的雲端實例(例如 Azure 或 GCP)中的安全隔離環境中執行。這種設定約束了資料移動,使企業可以保留其現有的資料基礎設施。“我們的使命是確保每個人都可以信任其機密資料的隱私性,無論是客戶 PII 還是專有業務流程資料。對於 AI 工作負載,我們使企業能夠在整個生命周期中保持資料加密和安全,從模型訓練和調整到推理,從而保證隱私得到保護,”Harel 補充道。“資料在靜態、傳輸和使用過程中都保持機密,大大降低了資料丟失的可能性。”

Unsplash gallery keyword: Technology-機密計算,OpaqueSystems,人工智慧,分析工具
程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。