開放人工智慧(OpenAI)、Google、Microsoft 和 Anthropic 成立機構監督安全的「前沿人工智慧」發展
最近,四家頂尖人工智慧(AI)領域企業宣布共同成立 Frontier Model Forum(前沿模型論壇),以確保所謂的「前沿人工智慧」模型的「安全和負責任發展」。開放人工智慧(OpenAI)、微軟(Microsoft)、Google(Google)和 Anthropic 的這一聯盟將利用成員公司的專業知識來制定技術評估和基準,並推動最佳實踐和標準。
前沿人工智慧的新興領域
該論壇的使命核心是開放人工智慧(OpenAI)先前稱為「前沿人工智慧」的概念,指的是被認為對公共安全構成「嚴重風險」的先進人工智慧和機器學習模型。該聯盟認為,這類模型帶來了獨特的監管挑戰,因為「危險的能力可能出乎意料」,很難防止模型被誤用。
新論壇的自述目標包括:
- 推進 AI 安全研究,促進對前沿模型的負責任發展,減少風險,並實現獨立、標準化的能力和安全評估。
- 確保前沿模型的負責任發展和應用的最佳實踐,幫助公眾理解技術的性質、能力、局限性和影響。
- 與政策制定者、學術界、公民社會和企業合作,分享關於信任和安全風險的知識。
- 支援開發能夠應對社會最大挑戰的應用,例如應對氣候變化、早期癌症檢測和預防以及打擊網路威脅。
儘管 Frontier Model Forum 當前僅有四個成員,但他們表示歡迎新成員加入。申請會員機構應該正在開發和使用前沿人工智慧模型,並展示對前沿模型安全的「堅定承諾」。在短期內,創始成員表示首要步驟將是成立一個顧問委員會來指導其戰略,並確保章程、治理和資金結構。四家公司在一份今天的聯合宣告中寫道:「我們計劃在接下來的幾周與公民社會和政府協商設計論壇模型以及合作的有意義的方式。」
監管挑戰與自主性倡議
雖然 Frontier Model Forum 的成立旨在表明 AI 行業正認真對待安全問題,但它也凸顯了大型科技公司渴望透過自願性倡議來抵制即將到來的監管措施,或許也可一定程度上制定自己的規則。實際上這一訊息正值歐洲推進其預計成為首個具體 AI 法規,旨在將安全、隱私、透明度和反歧視納入公司的 AI 發展中心。在上周,拜登總統與七家 AI 公司在白宮會面,其中包括 Frontier Model Forum 的四家創始成員,以達成對迅速發展的 AI 進行自願保障的協議,儘管批評人士認為這些承諾有些模糊。然而拜登還暗示,未來將有監管機構的監管監督。拜登當時說:「要實現 AI 的承諾需要對風險進行管理,這將需要一些新的法律、法規和監管機構。在接下來的幾週內,我將繼續採取行政行動,幫助美國引領負責任創新的道路。我們將與兩黨共同努力制定適當的立法和規章。」
延伸閱讀
- Anthropic 的 Claude 在 iOS 平臺上的推出獲得微弱反韇,與 ChatGPT 的首次亮相相比
- Google 為 Android 打造了一些最早期的社交應用程式,包括 Twitter 和其他應用
- Google 為 iPhone 使用者帶來「圈選搜尋」新變化
- Google 錢包正式登陸印度市場
- Google 新推出預算款 Pixel 8a,更新硬體配置,售價 499 美元
- Google 稱 Epic 在反壟斷訴訟勝訴後的要求「不必要」和「超出判決範圍」
- Microsoft 禁止美國警察局使用企業人工智慧工具
- Google 擴大 Passkey 支援,提前爲美國總統大選加固保護計畫
- Google 裁員 Flutter、Dart 和 Python 團隊,開發者大會前數週 in traditional Chinese
- Google 裁員 Flutter、Dart 和 Python 工程師,開發者大會前夕訊息爆發