AIGC

如何在企業中減少生成式 AI 和 LLMs 的資料風險

解決生成式 AI 的資料風險與企業需求在現有安全和治理範圍內操作企業應該將生成式 AI (LLMs) 的範圍約束在組織的內部,而不是將敏感和專有資料傳送到外部的 LLMs。這種方法能夠在無需犧牲安全性和隱私的前提下提供創新的可能性。大多數大型企業已經在其資料周圍建立了堅固的安全和治理邊界,因此它們可 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

如何在企業中減少生成式 AI 和 LLMs 的資料風險

解決生成式 AI 的資料風險與企業需求

在現有安全和治理範圍內操作

企業應該將生成式 AI (LLMs) 的範圍約束在組織的內部,而不是將敏感和專有資料傳送到外部的 LLMs。這種方法能夠在無需犧牲安全性和隱私的前提下提供創新的可能性。大多數大型企業已經在其資料周圍建立了堅固的安全和治理邊界,因此它們可以在這個受保護的環境中託管和部署 LLMs。這使資料團隊能夠進一步開發和定制 LLMs,員工可以在組織的現有安全範圍內與其互動。

建立特定領域的 LLMs

基於整個網路資料訓練的 LLMs 不僅存在隱私風險,還容易產生“幻覺”和其他不準確性,並可能產生偏見和引發冒犯的回覆,這進一步增加了企業的風險。為理解決這個問題,企業可以下載、定制和使用在防火牆後面的 LLMs,包括開源模型,如 Hugging Face 的 StarCoder 和 Stability AI 的 StableLM。在整個網路上調整基礎模型需要大量的資料和計算能力,但正如 IDC 指出的那樣,“一旦生成模型訓練完成,它就可以透過更少的資料來‘微調’特定內容領域的模型”。LLM 並不需要是龐大的才能發揮效用。企業應該使用內部資料來定制模型,這樣可以確保資料的可靠性和所需的深入洞察。不同企業和不同行業的問題需要根據組織自身的資料來微調 LLMs,以獲得更高質量的結果和更有效的執行。

提取多模式 AI 的非結構化資料

要在內部系統和資料上調整模型,需要存取除文字之外的所有可能有用的訊息,其中包括公司資料,如電子郵件、影象、合同和培訓影片,這些資料構成了約 80%的非結構化資料。這就需要使用自然語言處理等技術從非結構化源提取訊息,並將其提供給資料科學家,以便構建和訓練能夠識別不同型別資料之間關係並提供相應深入洞察的多模式 AI 模型。

謹慎但積極地前進

生成式 AI 是一個快速發展的領域,企業在採取相應方法時必須謹慎行事。這意味著仔細閱讀模型和服務的細節,並與可信賴的供應商合作,他們可以提供明確的模型保證。然而企業不能在這個領域停滯不前,每個企業都應該探索 AI 如何顛覆其所在的行業。在風險和回報之間必須取得平衡,將生成式 AI 模型與資料靠攏並在現有安全範圍內執行,能夠更有可能利用這一新技術帶來的機會。

(報導人:埃德華·費森塔爾)

AIdatamanagement-生成式 AI,LLMs,資料風險,企業,減少
程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。