網路議題

歐盟 AI 法案仍然需要協調

歐盟仍需整合 AI 法案歐洲議會剛批準了人工智慧(AI)法規超過兩年之後,歐盟仍然需要克服一些障礙才能啟動 AI 法案。AI 法案是一項國會透過的新法規,旨在約束高風險的 AI 應用,並將於今年生效。 AI 的定義:規範 AI 的開始 AI 法案的制定有兩個主要目的:一是將 AI 技術的規範統一於歐盟 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

歐盟 AI 法案仍然需要協調

歐盟仍需整合 AI 法案

歐洲議會剛批準了人工智慧(AI)法規超過兩年之後,歐盟仍然需要克服一些障礙才能啟動 AI 法案AI 法案是一項國會透過的新法規,旨在約束高風險的 AI 應用,並將於今年生效。

AI 的定義:規範 AI 的開始

AI 法案的制定有兩個主要目的:一是將 AI 技術的規範統一於歐盟成員國之內,二是提供對 AI 的明確保義。AI 法案透過將一系列應用根據風險級別進行分類,包括不可接受的風險、高風險、有限風險和最小風險。不可接受的風險模型,例如社會信用評分和公共空間中的實時生物識別(如面部識別),是完全禁止的。最小風險的應用,例如垃圾郵件過濾和庫存管理系統,將不受任何額外規則的約束。落在兩者之間的服務必須遵守透明度和安全性的約束,才能在歐盟市場上繼續存在。

高風險 AI 的現有法規

AI 法案的現行批準版本涵蓋了多種應用,從自動駕駛車輛中的軟體到執法部門使用的“預測性執法”系統。在禁止了“不可接受”的系統之外,對於“高風險”的技術,AI 法案的規定更加嚴格。如果你提供的是一個“有限的風險”系統,例如可以與使用者互動的客戶服務聊天機器人,你只需通知消費者他們正在使用一個 AI 系統。此類系統還包括使用面部識別技術(但在某些情況下,執法機構不在此約束之內)和可產生“deepfake”的 AI 系統——根據法案的定義,這是基於真實的人物、地點、物件和事件生成的 AI 生成的內容,看起來可能是真實的。而對於被歐盟認為更具風險的系統,約束更為嚴格。在進入歐盟市場之前,這些系統必須進行“符合性評估”,以確保它們是否符合所有必要的 AI 法案要求。這包括記錄公司的活動、防止未經授權的第三方改變或濫用產品,並確保用於訓練這些系統的資料符合相關的資料保護法(例如 GDPR)。訓練資料還應該具有較高的水平——也就是說,它應該是完整的、無偏的,沒有任何虛假訊息。這些被認為更具風險的系統的範圍很大,大致分為兩個子類:實體產品和軟體。前者適用於包含在歐盟產品安全法規範範圍內的產品中的 AI 系統,例如玩具、飛機、汽車、醫療裝置和電梯——提供這些產品的公司必須向歐盟指定的獨立第三方報告它們的符合性評估程式。後者則包括基於軟體的產品,這些產品可能影響執法部門、教育、就業、移民、關鍵基礎設施以及私人和公共服務等,例如可能影響政治競選中選民的 AI 系統。提供這些 AI 服務的公司可以自我評估其產品,以確保符合 AI 法案的要求,無需向第三方監管機構報告。

AI 法案面臨的挑戰

AI Act 的制定面臨著巨大挑戰,而“生成性”的 AI 模型的出現使其變得更加複雜。當歐洲立法者開始制定 AI Act 的初稿時,生成性 AI 模型正在市場上出現。這些 AI 系統的快速發展使得歐洲立法者必須迅速找出如何在他們提出的立法中對其進行規範的方法。然而開放 AI 的 GPT-3.5 和 GPT-4 大語言模型(LLM)在歐盟開始制定新法律條款之後才上市。立法者將它們稱為“基礎”模型:這是斯坦福大學對這類模型的定義,它們是“基於大量的廣泛資料進行訓練,設計用於產生各種各樣的輸出,並且可以適應各種獨特任務的模型。”GPT-4 等模型通常被簡稱為生成性 AI 工具,它們最知名的應用包括生成報告或論文、生成程式碼行,在無盡的主題上回答使用者的問題。但是據 Leufer 強調它們的應用範圍要比這個還要廣泛。“人們可以在 GPT-4 上建立應用,但它們不一定需要是生成性的,”他說道。同樣,微軟可以建立一個面部識別或物體檢測 API,然後讓開發者開發具有不可預測結果的下遊應用。他們可以比歐盟更快地完成覆蓋每個應用的具體規定的工作。而且如果這些基礎模型沒有被涵蓋,即使問題源於基礎模型本身,個別開發者可能也會被追究責任不符合 AI 法案——這是 Leufer 所說的“史蒂芬多爾夫的版權內容”之謎。

許多問題需要解決

AI 法案正式生效前,仍需進行最後的機構間協商。這包括歐盟成員國(由歐盟部長理事會代表)、歐洲議會和歐盟委員會之間的溝通,以將批準的草案發展成正式的法律。Sarah Chander,歐洲數位權利協會的高級政策顧問,告訴 The Verge 說:“理論上,這將在今年結束,並在 2 至 5 年內生效。”如果在這一過程中發現法案中的一些規定特別具爭議,這些規定可能會被修改調整。Leufer 表示雖然法案中的一些規定可能被減弱,但對於生成性 AI 的相關規定可能會被加固。他說:“委員會對於生成性 AI 尚未表態,他們對它在政治虛假訊息中的作用可能存在懸念,因此我們可能會在下一階段談判中看到新出現的措施。”

思考:AI 法規中的挑戰

隨著 AI 技術的發展,AI 法規所面臨的挑戰也變得越來越複雜。就像 AI 技術本身一樣,法規的制定需要持續演化和適應快速變化的技術。AI 的不斷進步和創新使得我們不斷出現新的應用和風險,因此 AI 法規的重要性不斷提升。

然而在制定 AI 法規時,我們必須仔細考慮其基本定義。AI 是一個廣泛且多樣化的領域,它包括了各種不同的技術和應用。因此要對 AI 進行有效的規範,我們首先需要明確保義什麼是 AI。這不僅涉及技術層面,還涉及倫理和社會層面。

除了 AI 的定義,AI 法規還需要解決許多其他問題。例如,如何平衡 AI 的應用和風險,如何保護個人隱私和資料安全以及如何應對 AI 所帶來的社會和經濟影響等。所有這些問題都需要我們進行深入的思考和討論,並根據具體的情況提出相應的解決方案。

社論:如何解決 AI 法規的挑戰

解決 AI 法規的挑戰需要多方的努力和合作。政府、學術界、行業和公眾都需要共同參與其中提供他們的專業知識和觀點。

首先政府應該制定明確的法律和規章,以規範 AI 的應用和發展。這些法律和規章應該明確列出 AI 的應用範圍和相關風險,並提供適當的監管和執法機制。

其次學術界應該加固對 AI 的研究和教育,提供更多的資源和支援。這包括應對 AI 技術的快速發展和創新,開展相關的倫理和社會研究,並提供適應 AI 法規的培訓和教育專案。

行業應該自律,確保他們的 AI 應用符合法律和道德要求。他們應該投入足夠的資源和人力,進行合規檢查和監測,以確保 AI 的使用符合相關法規和標準。

最後公眾應該積極參與 AI 法規的制定和執行。這包括提出意見和建議,參與公眾諮詢和討論以及充分理解 AI 對他們生活的影響和潛在的風險。

僅有政府、學術界、行業和公眾共同合作,才能解決 AI 法規的挑戰,促進 AI 的健康和可持續發展。

專家建議:AI 法案的應對措施

對於 AI 法案的應對措施,專家提出了一些建議。

首先需要更加詳細和具體的規定,以確保 AI 的使用符合法律和道德要求。這包括規定清晰的透明度要求和安全性要求,確保 AI 系統的執行過程和結果對使用者和社會具有可追蹤性和可控性。

其次應該加固監管和執法機制,確保 AI 法案的執行和遵守。這包括建立相應的監管機構和執法機構,加固對 AI 公司的監督和檢查,並對違法行為進行嚴厲的處罰。

最後需要加固對 AI 技術和應用的研究和教育。這包括開展相關的研究專案和教育培訓,提供更多的資源和支援,以提高 AI 的安全性和可靠性。

綜上所述,AI 法案的制定和執行面臨著許多挑戰,但也提供了應對這些挑戰的機會。透過多方的合作和努力,我們可以建立一個安全、透明、負責任的 AI 環境,推動 AI 的健康和可持續發展。

EU-歐盟,AI,法案,協調
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。