網路議題

英國獲得 AI 安全研究基礎模型的早期使用權(OpenAI、DeepMind 和 Anthropic)

英國將獲得早期 AI 安全研究基礎模型英國政府計劃在今年秋季舉辦「全球」人工智慧安全高峰會議,為進一步支援 AI 評估和安全方面的研究,英國財政大臣 Rishi Sunak 宣布,OpenAI、Google DeepMind 和 Anthropic 已承諾提供早期或優先存取其 AI 模型。政府的承諾 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

英國獲得 AI 安全研究基礎模型的早期使用權(OpenAI、DeepMind 和 Anthropic)

英國將獲得早期 AI 安全研究基礎模型

英國政府計劃在今年秋季舉辦「全球」人工智慧安全高峰會議,為進一步支援 AI 評估和安全方面的研究,英國財政大臣 Rishi Sunak 宣布,OpenAI、Google DeepMindAnthropic 已承諾提供早期或優先存取其 AI 模型。

政府的承諾和計劃

Sunak 廣為宣傳安全研究,在近期數週,他加速轉向 AI 安全話題,這是由於 AI 巨頭提醒說,如果不受適當監管,這項技術可能導致生存甚至滅絕級別的風險。

Sunak 在活動中說:「我們將在英國進行前沿 AI 安全研究。我們將為我們的專家工作小組提供 1 億英鎊的資金,這比任何其他政府都投入更多的資金用於 AI 安全。」政府還表示這個 AI 安全工作小組將專注於 AI 基礎模型。

此外他還補充說:「我們正與前沿實驗室——Google DeepMindOpenAIAnthropic 合作。我很高興地宣布,他們已承諾提供早期或優先存取的模型,以支援研究和安全,幫助我們更好地理解這些系統的機會和風險。」

總理重申了他先前宣布即將舉行的 AI 安全高峰會議,希望將這一努力比作 COP 氣候大會,旨在實現全球對應對氣候變化的支援。

此外英國政府計劃在 AI 安全議程方面取得主導地位,希望主導 AI 學習演算法輸出評估方面的研究,以協助人工智慧的透明和安全。最近,生成式 AI 技術的高速發展再加上來自多個科技巨頭和 AI 行業人士的公開宣告,警告這項技術可能失控,這促使唐寧街的策略迅速改變。值得注意的是,AI 巨頭最近幾周已經在向 Sunak 傾訴,與他會面,包括 OpenAIDeepMindAnthropic 的 CEO。

AI 的消極影響潛在風險

然而英國政府此舉在處理 AI 安全方面的消極影響潛在風險時必須留意過度依賴科技巨頭的情況,如進一步預測,科技巨頭將會左右有關於人工智慧安全研究的條件,從而左右英國AI 相關立法。尤其是在科技巨頭與公共專案進行合作,以彌補其他側面資金不足的情況下。

換言之,在正式出臺任何有關 AI 安全的立法監管,人工智慧科技巨頭早已經在祕密研究 AI 的相關規則,且已經在 AI 的規劃階段扮演主導的角色,並未來影響相關 AI 制度的發展和實際落實。更甚的是,在一些學術研究巨頭被科技巨頭支主撐的前提下,學術的研究會因其研究費用政策而伴隨 AI 科技巨頭共同發展。因此在進行 AI 安全研究時,必須確保獨立研究機構、公民社會團體和受自動化傷害風險更高的群體的參與,而不僅僅是宣揚與本地學術界之間的協作。

結論

綜上所述,英國政府聘請科技巨頭的 AI 安全研究模型是一個重要進展,但另一方面必須小心,避免科技巨頭進一步控制 AI 安全研究和相關立法。人工智慧行業的虛擬語音助手和監督機構需要識別規則,以確保現有 AI 技術不會對社會造成危害,而不只是關注未來的滅絕風險。安全研究和法規制定的過程必須透明,以確保所有相關方能夠理解 AI 系統的潛在風險,促進 AI 技術對社會造福的發展步伐。實現一個 AI 安全研究規則的理念需要更多的參與和共同努力,這樣才能確保人工智慧技術能夠在可控的範圍內發展,以促進全球普及 AI 技術的可持續發展。

Artificial Intelligence-OpenAI,DeepMind,Anthropic,AI,安全研究,英國
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。