
AI 資料爬取成為監管主要關注點
法國的資料保護監管機構 CNIL 近日發布了人工智慧行動計畫,重點針對生成式人工智慧技術,例如 OpenAI 的 ChatGPT,進行監管,尋找發展具「尊重個人資料」的 AI 系統之道。CNIL 在其 AI 服務中心成立了一個專門小組,即尋找範圍並為「隱私友善的 AI 系統」製定建議的專門小組。在「保護公眾資料」和「理解 AI 系統對人的影響」等方面,CNIL 也有著重點關注。此外 CNIL 還將支援當地 AI 生態系統中的創新者應用其最佳實踐,以建立「保護歐洲公民個人資料的明確規則」,並為 AI 作出貢獻。
歐盟 DPAs 的監管能力日益加固
對於 AI 監管,資料保護監管機構 CNIL 表示它今年的監管重點將集中在三個方面:遵守對「增強型」影片監控使用的現有立場;使用人工智慧打擊欺詐(如社會保險欺詐);和調查投訴。除此之外,CNIL 還已收到多宗關於訓練和使用生成式人工智慧的合法框架的投訴,正在研究該問題。這表明,AI 系統制造商如果沒有徵求人們的允許使用其資料,將會受到歐洲各地監管部門的監管和制裁。此外 CNIL 還表示將特別關注那些處理個人資料來開發、訓練或使用 AI 系統的單位,重新使用公開可用資料進行訓練,同時也關注這些 AI 系統所為其使用者提供的內容,以滿足個人資料保護原則,從而確保其決策和運運算元合 GDPR 規定。
AI 發展需要建立明確規則
資料保護監管機構 CNIL 的 AI 行動計畫為法國政府制定了 AI 發展的明確規則。透過建立人工智慧服務中心專門小組和另一個內部單位—CNIL 數位創新實驗室,尋找範圍並為「隱私友善的 AI 系統」製定建議。在資料爬取方面,他們也尤其關注某些 AI 模型制造商爬取網際網路上的資料以建立訓練系統的資料集,例如大型語言模型(LLMs),這些模型可以解析自然語言,並以類似人的方式回應通訊。此外 CNIL 還將支援當地 AI 生態系統中的創新者應用其最佳實踐,以建立「保護歐洲公民個人資料的明確規則」,並為 AI 作出貢獻。AI 技術的發展需要與監管機構合作建立明確的規則,以保護社會的利益。這次 CNIL 的監管行動與歐洲其他國家 DPAs 將共同加固 AI 的監管能力,未來將與 AI 技術的發展密不可分。
延伸閱讀
- 加州新 AI 法案出爐,SB 1047 作者再推出改革措施!
- 《超級瑪利歐成為 AI 基準測試的新標準!你絕對想不到的理由》
- Google 推出 SpeciesNet:專為識別野生動物而設的人工智慧模型!
- 安瑟普提克獲得 35 億美元巨額資金 瞄準人工智慧未來!
- 英國深入調查 TikTok、Reddit 和 Imgur 如何保障兒童隱私!
- OpenAI 重磅推出 GPT-4.5:歷史上最大的語言模型來了!
- 探索 DeepSeek:你必須理解的 AI 聊天機器人應用全指南!
- OpenAI 的創業帝國:揭密其風投基金背後的諸多創新公司
- 揭開 Mistral AI 的神祕面紗:揭示 OpenAI 競爭者的所有祕密!
- 未來科技:研究人員揭示如何打造變形機器人,猶如 T-1000 般神奇!