市場觀察

生成人工智慧與法律規則的演變:法規與影響帶來哪些新變化?

探索監管 AI:潛在合規風險和隱私問題未受限的生成式 AI 的風險生成式 AI(gen AI)和大型語言模型(LLMs)的吸引力在於它們整合資訊和產生新想法的能力,但這些能力同時也帶來潛在風險。如果不加細心管理,生成式 AI 可能會意外引發以下問題:1. 泄露專有資訊:當公司將敏感專有資料輸入公共 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

生成人工智慧與法律規則的演變:法規與影響帶來哪些新變化?

探索監管 AI:潛在合規風險和隱私問題

未受限的生成式 AI 的風險

生成式 AI(gen AI)和大型語言模型(LLMs)的吸引力在於它們整合資訊和產生新想法的能力,但這些能力同時也帶來潛在風險。如果不加細心管理,生成式 AI 可能會意外引發以下問題: 1. 泄露專有資訊:當公司將敏感專有資料輸入公共 AI 模型時,就有可能面臨暴露敏感專有資料的風險。這些資料可能被第三方或模型擁有者自己在未來的查詢中使用。為降低此風險,一些公司將 AI 模型本地化在自己的系統中並使用自己公司的資料對其進行訓練,但這需要一個良好組織的資料堆疊才能獲得最佳結果。 2. 侵犯智慧財產權保護:公司可能會因為不當使用由 AI 生成的內容而無意中侵犯第三方的智慧財產權,從而引發潛在的法律問題。一些公司(例如 Adobe 的 Adobe Firefly)正在為其 LLM 生成的內容提供賠償,但如果我們繼續看到 AI 系統“重複使用”第三方智慧財產權,版權問題將來需要得到解決。 3. 泄露個人資料:如果 AI 系統處理個人資訊時出現差錯,尤其是涉及敏感或特殊類別的個人資料時,可能會發生資料隱私洩露事件。當公司將更多的市場和客戶資料輸入到 LLM 中時,這增加了資料不慎洩露的風險。 4. 違反客戶合同:在 AI 中使用客戶資料可能違反合同協議,可能導致法律後果。 5. 欺騙客戶的風險:當前和將來的法規往往著重於對 AI 技術進行妥善披露。例如,如果客戶在支援網站上與一個聊天機器人互動,公司需要清楚地表明何時由 AI 驅動互動,何時是實際人員撰寫回覆。

法律環境和現有框架

圍繞 AI 的法律指引正在迅速演變,但速度還不及 AI 供應商推出新功能的速度。如果一家公司試圖將潛在風險降到最低,並等待 AI 領域的灰塵落定,他們可能會失去市場份額和客戶信心,因為行動更快的競爭對手將獲得更多關注。公司有必要儘快推進,但他們應該根據現有的法規和法律先例使用經過時間取證的風險降低策略,以減少潛在問題。 迄今為止,我們已經看到 AI 巨頭成為幾起圍繞其使用版權資料來建立和訓練模型的訴訟的主要目標。在北加州北部地區提起的最近幾起集體訴訟,其中一起以代表作者的名義提起,另一起以代表被損害的公民的名義提起,涉及版權侵權、消費者保護和資料保護法違規等指控。這些訴訟凸顯了負責任地處理資料的重要性,並可能指向未來有必要披露訓練資料來源的需求。 然而像 OpenAI 這樣的 AI 創造者並不是唯一面臨實施生成式 AI 模型所帶來的風險的公司。當應用程式在很大程度上依賴於一個非法訓練過的模型時,整個產品都可能被污染。例如,當聯邦貿易委員會指控 Every 應用程式的所有者使用人臉識別技術欺騙消費者,並保留已停用帳戶的使用者的照片和影片時,其母公司 Everalbum 被要求刪除非法收集的資料以及使用該資料開發的任何 AI 模型/算法。這基本上消除了該公司整個業務,並導致其在 2020 年停業。 與此同時像紐約這樣的州已經或正在制定法律和提案,以規範 AI 在招聘和聊天機器人披露等領域的使用。歐盟的 AI 法案當前正在三方會議中進行協商,並預計在年底前透過,該法案要求公司透明地披露由 AI 生成的內容,確保內容合法,發布訓練所用的版權資料摘要以及對高風險使用情況加固其他要求。

保護資料的最佳實踐方法

顯然,CEO 們感到壓力,要採用生成式 AI 工具來提高組織的生產力。然而許多公司缺乏組織準備度來實施這些工具。在法規制定期間,各種不確保性存在,並且首起訴訟案已準備就緒。但是公司可以使用現行法律和框架作為指南,建立最佳實踐,為未來的法規準備。 現有的資料保護法律有一些適用於 AI 系統的條款,包括透明度要求、通知要求和遵守個人隱私權的要求。然而當前的規範主要圍繞著選擇退出自動化決策、被遺忘的權利或刪除不準確訊息的能力,這在現有的 LLMs 狀態下可能很具挑戰性。但當前企業在負責任地實施生成式 AI 時可以採取的最佳實踐包括: 1. 透明度和檔案化:清晰地傳達在資料處理中使用 AI 的訊息,記錄 AI 的邏輯、預期使用方式和對資料主體的潛在影響。 2. AI 模型本地化:將 AI 模型內部本地化並使用專有資料對其進行訓練,可以大大降低資料安全洩露的風險,相較於使用第三方聊天機器人等工具。這種方法還可以獲得有意義的生產力增益,因為模型是根據組織特定的高度相關資訊進行訓練的。 3. 從小規模開始並進行實驗:在從安全的雲端或本地環境中使用內部 AI 模型進行實驗之前,可以使用內部 AI 模型進行實驗。 4. 專注於尋找並建立聯動:使用生成式 AI 來尋找新的見解,在部門或訊息孤島之間建立意想不到的聯絡。 5. 保留人為元素:生成式 AI 應該是對人類表現的增強,而不是完全取代。人類監督、審查關鍵決策和取證由 AI 生成的內容有助於減輕模型偏見或資料不準確性帶來的風險。 6. 保持透明度和日誌:捕獲資料移動交易並儲存詳細的個人資料處理日誌,可以幫助確保資料如何以及為何用於公司需要展示合規治理和資料安全的場景。 最後當我們使用像 Anthropic 的 Claude、OpenAI 的 ChatGPT、Google 的 BARD 和 Meta 的 Llama 這樣的工具來充分利用企業多年來收集和儲存的資料時,我們將見證到驚人的新方法,並發現可以改變公司運營方式的新想法和聯絡。改變始終伴隨著風險,律師的職責是降低風險。但是 AI 的轉型潛力如此之近,即使是最謹慎的隱私專家也需要為這股浪潮做好準備。透過建立強大的資料治理、清晰的通知和詳細的檔案,隱私和合規團隊可以最佳地應對新的法規,並最大程度地利用 AI 所帶來的巨大商機。
Artificialintelligenceandlaw-人工智慧,法律規則,演變,法規,影響,新變化
程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。