
美國上議院關注 AI 監管問題
美國國會聆聽了一場有關 AI 監管的公聽會,讓人感到非常特別的是,氣氛友善。主要的企業代表,特別是 OpenAI 的執行長 Sam Altman,很高興同意對新的 AI 技術進行監管,而政治人物似乎也很樂意把制定規則的責任交予公司本身。然而一些專家和行業人士表示聽證會表明我們可能進入了 AI 產業控制的時代,如果允許技術巨頭編寫管理這項技術的法規,可能會產生多種危害,從抑制小型企業到引入軟弱的法規。
潛在傷害
有些批評者主張 AI 技術的監管可能會對競爭構成威脅。AI 公司的創始人和執行長 Emad Mostaque 告訴 The Verge 說:“監管無法避免地偏向現有業者,會抑制創新。”其他批評者則強調管理將削弱小型企業的創新能力。
聽證會上的專家包括 IBM 的 Christina Montgomery 和知名的 AI 批評家 Gary Marcus,他們也提出了產業控制的問題。AI Now Institute 的管理主任 Sarah Myers West 告訴 The Verge,她對許多發言人提出的許可系統持懷疑態度。一些人擔心,強制性許可證制度的危害是,企業將透過表面的核對系統來豎立一個簡單的遮羞布:他們說“是的,我們已經獲得授權,我們知道存在哪些危害,可以照常開展業務”,但當這些系統出問題時,“企業將不承擔任何實際的責任”。
監管的益處和有害影響
儘管存在這些問題,一些專家認為監管的某種形式可能是有效的。被迫與 Timnit Gebru 一起離開 Google,因為她在 AI 語言模型的潛在危害上撰寫了研究論文的 Margaret Mitchell 稱自己是“一些自治和自上而下監管的支援者”。她告訴 The Verge,她可以理解認證的吸引力,但也許應該針對個人而非公司。“你可以想象,要訓練一個模型(高於某些閾值),開發人員需要一個‘商用 ML 開發人員許可證’,”現任 Hugging Face 的首席倫理科學家 Mitchell 說。“這是一種將‘負責任的 AI’帶入法律架構的簡單方式。”但她還指出,良好的監管需要設定企業無法輕易扭曲的標準,這需要對評估的技術進行細緻的理解。
即使監管受到青睞,也可能沒有立即產生效果。在聆聽會上,產業代表通常會吸引人們對潛在未來的傷害進行關注,而不關注 AI 已經備受議論的問題。例如,Joy Buolamwini 等研究人員多次發現臉部識別具有偏見和不準確性,尤其是對黑人的識別不精確,在美國產生了許多錯誤逮捕的案例。儘管如此在聆聽會期間沒有提到 AI 驅動的監視,而臉部識別和其缺陷也僅在一個插曲中提到。
技術監管問題的趨勢與挑戰
對 AI 產業人士來說這種關注未來傷害的焦點,可能成為日常用來逃避當前問題的口頭禪。許多人通常會將責任問題解決在將來的 AGI 系統上。在聆聽會上,OpenAI 的 Sam Altman 輕聲暗示,任何許可證只需要適用於未來的系統。“我認為許可方案的出現不在於這些模型今天能做什麼,”他說。“但當我們朝著人工智慧的普及發展時......那是我個人認為我們需要這樣的計劃的地方。”
盡管亦存在挑戰,一些意見領袖認為,監管有利可圖。歐盟即將出臺的《AI 法案》被人們認為是一個例證。這項立法的當前草案並沒有許可證相似的機制,但它將 AI 系統分類(風險等級)並實施不同的安全防護和資料保護要求,更值得注意的是,其明確禁止已知和現有的 AI 應用場景,例如預測式警務演算法和大規模監控。
AI Now 的 West 表示“如果我們要在這個行業中取得任何有意義的監督統治,那話題的焦點就必須落在這方面。”
總結
總之美國上議院 AI 監管的公聽會呈現出一些跡象表明,AI 產業控制的時代可能已經來臨。監管中既包括 AI 技術監管的益處,也包括其不利影響。從管理集中到潛在的競爭損失,到過度看重將來的潛在傷害而忽略當下已知的問題,從而損害了公眾利益,企業的監管責任十分重大。