科技巨頭組成 AI 聯盟,專注於確保安全
背景
人工智慧(AI)的發展帶來了對於技術風險超過利益的擔憂。美國四家領先的人工智慧公司於本週三宣布組建了一個行業聯盟,專注於解決該技術的尖端版本可能帶來的風險。Anthropic、Google、Microsoft 和 ChatGPT 的製造商 OpenAI 表示新成立的 Frontier Model Forum 將利用其成員的專業知識來最小化 AI 風險並支援行業標準。這些公司承諾彼此分享最佳實踐,並與立法者和研究人員合作。
安全是首要任務
Microsoft 總裁 Brad Smith 在一份宣告中表示:"建立 AI 技術的公司有責任確保其安全、安全,並保持人類控制。"他認為這一倡議是推進 AI 負責任應用並應對挑戰的關鍵一步,以使其惠及全人類。
美國政府的呼籲
美國總統喬·拜登在上週的白宮會議上,與 Amazon、Anthropic、Google、Inflection、Meta、Microsoft 和 OpenAI 等科技巨頭的高層代表站在一起,喚起了人工智慧的"巨大"風險和承諾。隨著人工智慧在個人和商業生活中的深度應用,這些公司承諾將引導負責任創新。
自律監管的承諾
在會議之前,這七家人工智慧巨頭承諾採取一系列自我監管的安全措施,白宮表示這些措施將"強調人工智慧未來的三個基本原則:安全、安全和信任"。在他們的承諾中,這些公司同意制定"強大的技術機制",例如數位浮水印系統,以確保使用者知道內容是來自 AI 而非人類。
聯盟的核心目標
Frontier Model Forum 的核心目標包括最小化風險並提供獨立的 AI 平臺安全評估,參與其中的公司在其宣告中表示。該聯盟還將支援開發旨在應對氣候變化、癌癥預防和網路威脅等挑戰的應用專案。其他致力於 AI 突破的公司也受邀加入該聯盟。
總結
發展人工智慧技術是當今科技領域的重大趨勢,但我們必須正視其潛在的風險。這種跨企業、跨領域的合作是確保 AI 技術負責任應用的重要一步。只有透過共同努力和合作,我們才能確保人工智慧技術的安全性和可持續發展。