網路議題

法國隱私監管機構把眼注在人工智慧行動計畫中的資料刮取保護上

法國的資料保護監管機構 CNIL 近日發布了人工智慧行動計畫,重點針對生成式人工智慧技術,例如 OpenAI 的 ChatGPT,進行監管,尋找發展具「尊重個人資料」的 AI 系統之道。CNIL 在其 AI 服務中心成立了一個專門小組,即尋找範圍並為「隱私友善的 AI 系統」製定建議的專門小組。在「 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

法國隱私監管機構把眼注在人工智慧行動計畫中的資料刮取保護上

AI 資料爬取成為監管主要關注點

法國的資料保護監管機構 CNIL 近日發布了人工智慧行動計畫,重點針對生成式人工智慧技術,例如 OpenAI 的 ChatGPT,進行監管,尋找發展具「尊重個人資料」的 AI 系統之道。CNIL 在其 AI 服務中心成立了一個專門小組,即尋找範圍並為「隱私友善的 AI 系統」製定建議的專門小組。在「保護公眾資料」和「理解 AI 系統對人的影響」等方面,CNIL 也有著重點關注。此外 CNIL 還將支援當地 AI 生態系統中的創新者應用其最佳實踐,以建立「保護歐洲公民個人資料的明確規則」,並為 AI 作出貢獻。

歐盟 DPAs 的監管能力日益加固

對於 AI 監管,資料保護監管機構 CNIL 表示它今年的監管重點將集中在三個方面:遵守對「增強型」影片監控使用的現有立場;使用人工智慧打擊欺詐(如社會保險欺詐);和調查投訴。除此之外,CNIL 還已收到多宗關於訓練和使用生成式人工智慧的合法框架的投訴,正在研究該問題。這表明,AI 系統制造商如果沒有徵求人們的允許使用其資料,將會受到歐洲各地監管部門的監管和制裁。此外 CNIL 還表示將特別關注那些處理個人資料來開發、訓練或使用 AI 系統的單位,重新使用公開可用資料進行訓練,同時也關注這些 AI 系統所為其使用者提供的內容,以滿足個人資料保護原則,從而確保其決策和運運算元合 GDPR 規定。

AI 發展需要建立明確規則

資料保護監管機構 CNIL 的 AI 行動計畫為法國政府制定了 AI 發展的明確規則。透過建立人工智慧服務中心專門小組和另一個內部單位—CNIL 數位創新實驗室,尋找範圍並為「隱私友善的 AI 系統」製定建議。在資料爬取方面,他們也尤其關注某些 AI 模型制造商爬取網際網路上的資料以建立訓練系統的資料集,例如大型語言模型(LLMs),這些模型可以解析自然語言,並以類似人的方式回應通訊。此外 CNIL 還將支援當地 AI 生態系統中的創新者應用其最佳實踐,以建立「保護歐洲公民個人資料的明確規則」,並為 AI 作出貢獻。AI 技術的發展需要與監管機構合作建立明確的規則,以保護社會的利益。這次 CNIL 的監管行動與歐洲其他國家 DPAs 將共同加固 AI 的監管能力,未來將與 AI 技術的發展密不可分。

Data privacy-隱私監管、法國、人工智慧、資料保護、計畫

延伸閱讀

江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。