網路議題

英國對人工智慧安全的處理方式缺乏可信度,報告警示

英國在人工智慧安全上的做法缺乏可信度,報告警示自主立法為 AI 應用確保規則英國政府近期一直試圖塑造自己作為人工智慧安全領域的國際帶領者形象,上個月宣布將舉辦一場關於人工智慧安全的高峰會,並承諾投入 1 億英鎊用於成立一個「前沿」的人工智慧安全研究小組。然而拜英國首相兼矽谷超級粉絲 Rishi Su .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

英國對人工智慧安全的處理方式缺乏可信度,報告警示

英國人工智慧安全上的做法缺乏可信度報告警示

自主立法為 AI 應用確保規則

英國政府近期一直試圖塑造自己作為人工智慧安全領域的國際帶領者形象,上個月宣布將舉辦一場關於人工智慧安全的高峰會,並承諾投入 1 億英鎊用於成立一個「前沿」的人工智慧安全研究小組。然而拜英國首相兼矽谷超級粉絲 Rishi Sunak 所賜,英國政府並未在規範人工智慧應用的國內立法上採取行動,他們將此態度在其有關該議題的政策檔案中冠以「促進創新」的標籤。同時英國政府正在推行一場對全國資料保護框架進行去規範化改革的過程,這可能對人工智慧安全造成損害。這是獨立研究機構 Ada Lovelace Institute(劍橋大學 Nuffield 基金會的一部分)的一份新報告得出的數個結論之一,此報告以充滿外交措辭但有時令人尷尬的方式,檢驗了英國人工智慧規範方面的方法,這些結論組成了 18 項建議,旨在改善英國政府在這一領域內的政策和可信度,換言之,如果英國希望在這個話題上被人認真對待,就需要改善。

擴大規範的範圍

Ada Lovelace Institute 主張對人工智慧安全進行「昂貴的」定義,「反映了隨著人工智慧系統越來越強大且深入社會的多種傷害出現的情況」。因此這份報告關注的是「人工智慧系統在當今可能引發的傷害」,也就是現實世界的人工智慧傷害(而不是那些被某些技術業界知名人士誇大的、受科幻啟發的理論未來風險,他們似乎是為了引起政策制定者的注意而這樣做)。當前可以說,Sunak 政府在(現實世界的)人工智慧安全規範上的做法是矛盾的:大力宣揚由行業自導自律的公關活動,聲稱其希望支援安全,但在制定具體規則以抵禦各種風險和傷害時卻所缺乏的。

早些時候,英國政府發表了其國內規範人工智慧的首選方法,稱當前不視需要採取新的立法或監管機構。相反,白皮書提供了一套靈活的原則,政府建議現有的、特定行業(和/或橫向)的監管機構「在其範圍內解釋和應用於人工智慧」。但他們沒有任何新的法定權力,也沒有額外的資金來監管新的人工智慧應用領域。白皮書中列出的五項原則是:安全性,透明性與解釋性,公平性,負責制與治理,競爭性和救濟機制。這些原則在紙上看起來都不錯,但單靠紙上的原則在規範人工智慧安全方面顯然是不夠的。

不僅僅是行業監管

英國的計劃是讓現有的監管機構自行決定如何處理人工智慧,只提供一些基本的原則指引,並無新的資源和法律武力來強制執行上述原則,與歐盟的做法形成了鮮明對比。在歐盟,立法者正在忙於推動一個基於風險的框架的協議,該框架是歐盟執行委員會於 2021 年提出的。英國將現有的、工作繁忙的監管機構加上對其領域內人工智慧發展的新負責任,卻無法對不合規者強制執行結果,這在人工智慧安全上看起來並不十分可信。而且如果追求促進創新,這似乎也不是一種相互協調的戰略——因為這將需要人工智慧開發者考慮一整套行業特定的和橫向的法律法規,這些法律法規早在最新的人工智慧繁榮之前就被起草出來了。開發者也可能會發現自己受到多個不同監管機構的監督(不論他們的關注力有多低,因為缺乏資源和法律武力來執行上述原則)。因此事實上這看起來更像是一種不確保性的做法,不確儲存在哪些現有規則可能適用於人工智慧應用(而且很可能是各個行業、用例和監管機構的不同解釋,進一步加重了混亂和成本,而不是提供明確性)。

即使現有的英國監管機構迅速提供了他們在處理人工智慧方面的指南(其中有些已經在進行中或已經開始),仍然存在很多缺口,正如 Ada Lovelace Institute 的報告也指出的那樣——因為覆蓋範圍不足是英國現有監管框架的一個特點。因此只進一步擴大這種方法意味著不一致的監管被設定下來,並且在人工智慧在各個行業的應用大規模擴充套件和爆炸性增長時可能進一步加劇。研究機構在報告中指出:英國經濟的大部分部分當前處於無法規範或僅在某種程度上受規範的狀態。這包括敏感的招聘和就業等慣例,在受規範的部門中,它們甚至在監管者的監管範圍內也不完全受到監管;教育和執法等公共部門服務,它們受到一個不平衡的監管網路的監管和執行;由中央政府部門開展的活動,這些活動通常不受直接監管,例如福利管理或稅務欺詐檢測;零售等私營部門中未受規範的部分。報告還建議:「人工智慧在各個行業中得以部署和使用,但英國現有的法律和監管網路並不足以規範人工智慧。為確保保障措施在整個經濟中延伸,需要更清晰的權利和新機構。」

維護資料保護與人工智慧安全

英國政府所謂的「人工智慧領導地位」的另一個矛盾點是,對於將該國打造成一個全球人工智慧安全樞紐的努力,正在直接削弱保護公民資料的國內規定。比如在「去規範化資料保護與數位訊息法案(第 2 號)」中降低當人們的資料受到具有重大和/或法律影響的自動化決策時的保護水平。雖然政府迄今為止避免了最激進的支援脫歐者建議——比如從英國的《通用資料保護規則》中單純刪除與自動化決策的保護有關的第 22 條(這一條規定了對自動化決策的保護)——然而它依然在推進一項計劃,以多種方式減少公民根據現行資料保護法獲得的保護水平,儘管其新的目標是使英國成為全球人工智慧安全樞紐。「英國現行生效的資料保護法(英國 GDPR)對保護個人和社區免受潛在人工智慧傷害至關重要。2023 年 3 月的《資料保護和數位訊息法案(第 2 號)》在其當前形式中,對這些保護進行了重大修訂。」該研究機構警告道,例如,該法案取消了對許多型別自動決策的禁止,改為要求資料控制者必須「設有保障措施,例如允許個人對該決策提出異議」——這在實踐中是一種更低的保護水平。「英國政府提出的框架依賴現有的法律法規和監管機構,這使得像資料保護這樣的基礎規定更加重要,該機構委託的法律意見…表明,現有的自動處理保障措施在實踐中可能不足以爲那些與每天服務互動(例如申請貸款)的人提供足夠的保護」。報告補充說:“總的來說該法案的變動可能進一步削弱政府對人工智慧的監管建議。” 因此 Ada Lovelace Institute 的第一個建議是重新考慮資料保護改革法案中可能「會破壞安全發展,投入和使用人工智慧的要素」的部分。它還建議政府擴大審查範圍,審視英國現行法律的現有權利和保護,以填補可能存在的法規空白,並在有必要時爲受到人工智慧決策影響的人們引入新的權利和保護。報告中的其他建議包括爲監管機構引入嚴格的透明度和責任義務等法定責任,並向他們提供更多的資金和資源來應對與人工智慧相關的危害。探索爲監管機構引入一套共同的權力,包括面向開發者的監管能力;政府應該研究是否應設立人工智慧事務專員辦公室,以支援受人工智慧不利影響的人們。Ada Lovelace Institute 還建議政府明確人工智慧和責任法律,並提供一個歐盟的智慧合同逐步領先的領域。在基礎模型的安全性方面,由於 OpenAI 的 ChatGPT 等生成性人工智慧工具引起關注,研究機構也認為政府需要更進一步的努力,建議對基於英國的基礎模型的開發者施行強制性的報告要求,以便監管機構更容易掌握快速發展的技術。研究機構甚至建議,領先的基礎模型開發者,例如 OpenAI、Google DeepMind 和 Anthropic,應該在它們(或它們所合作的任何子處理器)開始大規模訓練新模型時向政府提供通知。研究機構建議,報告要求也應包括訓練模型所使用的資料;公司內部稽核的結果;以及供應鏈資料。報告還建議政府投資於小型試點專案,以加固對人工智慧研發趨勢的理解。

該如何看待此報告

Ada Lovelace Institute 的報告英國政府在人工智慧安全規範方面的現行做法提出了有力批評。報告指出,英國政府在此領域的政策存在明顯不足,缺乏足夠的法規和監管機構來應對人工智慧帶來的風險和傷害。報告建議,政府應該立法確保規則,擴大規範的範圍,提供更多資金和資源給監管機構,並改善資料保護法等相關法律,以確保人工智慧英國安全利用。報告還呼籲政府進一步研究 AI 和責任法律,並建立一個支援受影響人工智慧的人們的機構。

參考來源

TechCrunch上關於此報導的詳情

Trust-英國,人工智慧,安全,可信度,報告,警示

延伸閱讀

江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。