歐盟將允許「負責任」的 AI 新創公司在其超級電腦上訓練模型
概述
歐盟計劃擴大對高效能計算(HPC)超級電腦的開放,允許新創公司利用該資源來訓練 AI 模型。然而存在一個約束:想要獲得對歐盟高效能計算資源的存取,新創公司需要遵守歐盟對 AI 治理的要求。歐盟已經制定了一套自願性規則,以擔任起在正式法規制定之前為業界開發和應用 AI 做好準備的角色。此外歐盟還與美國和其他國際合作夥伴共同努力制定 AI 行為準則,以填補不同國家在 AI 治理方面的立法差距。
歐盟的 AI 治理策略
在歐盟總統馮德萊恩(Ursula von der Leyen)的一次演講中,她提到了對人工智慧的滅絕級風險的關注,並警告說技術發展得比開發人員預期的還要快。她呼籲說:「我們對引導這項技術的責任有一個日益縮小的機會視窗。」她還提到了歐盟制定全面的 AI 治理法規的努力,並提出建立與 IPCC 類似的機構以支援全球政策制定者研究和提供有關與 AI 相關的風險的最新科學知識的想法。
這次歐盟提到可能的滅絕級 AI 風險的言論引人注目,因為歐盟到當前為止對 AI 的關注主要集中在考慮如何縮小自動化帶來的風險,例如與物理安全、偏見、歧視和虛假資訊等有關的問題以及責任問題。
觀點與建議
在 AI 治理方面,歐盟提到的 AI 初始計劃將使新創公司能夠訓練其最新的 AI 模型所需的時間從數月或數年縮減到數天或數週。這將有助於他們在遵循歐洲價值觀的前提下負責任地發展和擴大 AI 技術。
然而我們需要警惕將 AI 滅絕風險與實際情況相提並論。AI 技術確實有巨大的潛力在醫療保健、提高生產力和應對氣候變化方面發揮作用,但我們也不能低估其帶來的真實威脅。因此制定全球標準以安全和道德地使用 AI 至關重要。
與其對抗競爭,我們應該將 AI 研究和應用公司聚集在一起,共同努力推動 AI 的全球發展,同時確保技術的負責任使用。建立與 IPCC 類似的機構,讓科學家、技術公司和專家共同參與,將有助於我們更好地理解 AI 在人類社會中的影響,並共同應對可能的風險。
然而在這些努力中,我們還需要平衡技術創新和個人隱私、道德和社會價值觀之間的關係。與 AI 公司合作,使它們在 AI 法規正式生效之前自願遵守 AI 法案的原則,是歐盟的一個關鍵步驟。這將有助於建立一個安全和道德的 AI 環境,並為全球提供最低標準。
結論
歐盟的 AI 新創公司存取高效能計算超級電腦的計劃是該地區推動 AI 創新的一個明確努力。該計劃旨在鼓勵符合歐洲價值觀的技術創新。然而我們還需要進一步觀察該計劃對新創公司帶來的競爭優勢有多大。
同時歐盟對 AI 治理的討論也表明歐盟希望在制定 AI 政策時兼顧各方利益,包括大型科技公司、新創公司、產業界、消費者、非政府組織、學術專家和政策制定者。這種全面參與的治理模式將有助於建立一個公正和負責任的 AI 環境。
延伸閱讀
- 歐盟盤問伊隆·馬斯克有關內容審查和深偽影風險
- 歐盟計畫強迫通訊應用程式掃描兒童色情影象 可能導致數百萬誤報,專家警告
- 蘋果因開發者批評,在歐盟核心科技費用上再加入更多例外規定
- 歐盟監管機構質疑立法者打破加密掃描兒童色情影象的提案的保密性
- Meta 在歐盟調查 Facebook 和 Instagram 的背景下應對選舉安全
- 《全新樂章!Epic Games 宣布將 Fortnite 引進 iPad,歐盟將 iPadOS 列為《數位市場法》下的「守門人」》
- 蘋果的 iPadOS 也將須遵守歐盟的《數位市場法案》
- ChatGPT 在歐盟再次遭遇隱私投訴,「幻覺」問題再起風波
- 歐盟即將對 Shein 實施最嚴格的線上市場規定
- 歐盟對 Meta 監視廣告模式實施更嚴格管制