解決生成式 AI 的資料風險與企業需求
在現有安全和治理範圍內操作
企業應該將生成式 AI (LLMs) 的範圍約束在組織的內部,而不是將敏感和專有資料傳送到外部的 LLMs。這種方法能夠在無需犧牲安全性和隱私的前提下提供創新的可能性。大多數大型企業已經在其資料周圍建立了堅固的安全和治理邊界,因此它們可以在這個受保護的環境中託管和部署 LLMs。這使資料團隊能夠進一步開發和定制 LLMs,員工可以在組織的現有安全範圍內與其互動。
建立特定領域的 LLMs
基於整個網路資料訓練的 LLMs 不僅存在隱私風險,還容易產生“幻覺”和其他不準確性,並可能產生偏見和引發冒犯的回覆,這進一步增加了企業的風險。為理解決這個問題,企業可以下載、定制和使用在防火牆後面的 LLMs,包括開源模型,如 Hugging Face 的 StarCoder 和 Stability AI 的 StableLM。在整個網路上調整基礎模型需要大量的資料和計算能力,但正如 IDC 指出的那樣,“一旦生成模型訓練完成,它就可以透過更少的資料來‘微調’特定內容領域的模型”。LLM 並不需要是龐大的才能發揮效用。企業應該使用內部資料來定制模型,這樣可以確保資料的可靠性和所需的深入洞察。不同企業和不同行業的問題需要根據組織自身的資料來微調 LLMs,以獲得更高質量的結果和更有效的執行。
提取多模式 AI 的非結構化資料
要在內部系統和資料上調整模型,需要存取除文字之外的所有可能有用的訊息,其中包括公司資料,如電子郵件、影象、合同和培訓影片,這些資料構成了約 80%的非結構化資料。這就需要使用自然語言處理等技術從非結構化源提取訊息,並將其提供給資料科學家,以便構建和訓練能夠識別不同型別資料之間關係並提供相應深入洞察的多模式 AI 模型。
謹慎但積極地前進
生成式 AI 是一個快速發展的領域,企業在採取相應方法時必須謹慎行事。這意味著仔細閱讀模型和服務的細節,並與可信賴的供應商合作,他們可以提供明確的模型保證。然而企業不能在這個領域停滯不前,每個企業都應該探索 AI 如何顛覆其所在的行業。在風險和回報之間必須取得平衡,將生成式 AI 模型與資料靠攏並在現有安全範圍內執行,能夠更有可能利用這一新技術帶來的機會。
(報導人:埃德華·費森塔爾)
延伸閱讀
- 英特爾等公司承諾為企業打造開放生成式人工智慧工具
- Y Combinator Demo Days 中 Fintech 的參與正在明顯減少
- Opera 允許使用者下載並本地使用 LLMs
- 英偉達 CEO 呼籲企業應將注意力轉向「AI 工廠」而非資料中心
- Reddit 推出免費工具,協助企業在上市前擴大在網站上的存在
- Google 推出全新的開放 LLMs, Rivian 裁員,Signal 推出使用者名
- Faddom 籌集 1200 萬美元,幫助企業對 IT 基礎設施進行全面定位
- 奈及利亞太陽能供電公司 Arnergy 籌得 300 萬美元,為家庭和企業提供太陽能系統
- Meesho 透過微型企業家填補印度供應鏈網路的漏洞
- 林科優先進行上市,儘管 SPAC 的儲備逐步減少