AI 資料爬取成為監管主要關注點
法國的資料保護監管機構 CNIL 近日發布了人工智慧行動計畫,重點針對生成式人工智慧技術,例如 OpenAI 的 ChatGPT,進行監管,尋找發展具「尊重個人資料」的 AI 系統之道。CNIL 在其 AI 服務中心成立了一個專門小組,即尋找範圍並為「隱私友善的 AI 系統」製定建議的專門小組。在「保護公眾資料」和「理解 AI 系統對人的影響」等方面,CNIL 也有著重點關注。此外 CNIL 還將支援當地 AI 生態系統中的創新者應用其最佳實踐,以建立「保護歐洲公民個人資料的明確規則」,並為 AI 作出貢獻。
歐盟 DPAs 的監管能力日益加固
對於 AI 監管,資料保護監管機構 CNIL 表示它今年的監管重點將集中在三個方面:遵守對「增強型」影片監控使用的現有立場;使用人工智慧打擊欺詐(如社會保險欺詐);和調查投訴。除此之外,CNIL 還已收到多宗關於訓練和使用生成式人工智慧的合法框架的投訴,正在研究該問題。這表明,AI 系統制造商如果沒有徵求人們的允許使用其資料,將會受到歐洲各地監管部門的監管和制裁。此外 CNIL 還表示將特別關注那些處理個人資料來開發、訓練或使用 AI 系統的單位,重新使用公開可用資料進行訓練,同時也關注這些 AI 系統所為其使用者提供的內容,以滿足個人資料保護原則,從而確保其決策和運運算元合 GDPR 規定。
AI 發展需要建立明確規則
資料保護監管機構 CNIL 的 AI 行動計畫為法國政府制定了 AI 發展的明確規則。透過建立人工智慧服務中心專門小組和另一個內部單位—CNIL 數位創新實驗室,尋找範圍並為「隱私友善的 AI 系統」製定建議。在資料爬取方面,他們也尤其關注某些 AI 模型制造商爬取網際網路上的資料以建立訓練系統的資料集,例如大型語言模型(LLMs),這些模型可以解析自然語言,並以類似人的方式回應通訊。此外 CNIL 還將支援當地 AI 生態系統中的創新者應用其最佳實踐,以建立「保護歐洲公民個人資料的明確規則」,並為 AI 作出貢獻。AI 技術的發展需要與監管機構合作建立明確的規則,以保護社會的利益。這次 CNIL 的監管行動與歐洲其他國家 DPAs 將共同加固 AI 的監管能力,未來將與 AI 技術的發展密不可分。
延伸閱讀
- 元 AI 測試:未能彰顯自身價值,但免費就是免費
- Google 推出新功能“口語練習”,利用人工智慧幫助使用者提高英文能力
- 科技巨頭 xAI 競爭開放人工智慧,吸金 60 億美元。推動社交網路 X 成為股東
- Xaira:AI 藥物發現新創公司以 10 億美元巨額啟動,宣稱已準備好開展藥物開發
- 安德瑞爾在五角大樓計畫中推進無人駕駛戰鬥機的程式
- Rabbit 宣布推出一個迷人的小型 AI 裝置:R1
- Perplexity AI 可能價值高達 30 億美元,原因在於…
- 基於人工智慧時代,Anon 正在打造自動化認證層 - 技術新聞
- Snowflake 推出自家旗艦生成式人工智慧模型
- Parloa 完成 6600 萬美元融資,打造客服對話人工智慧平臺