
OpenAI CEO 建議設立類似國際原子能機構的人工智慧國際監督機構
OpenAI CEO Sam Altman 在全球巡迴演講時發出警示,指出人工智慧對人類存在著「生存風險」,建議成立類似國際原子能機構的國際監督機構,在全球監管此具有突破性的技術。Altman 表示:「全球所面臨的挑戰是如何管理這些風險,確保我們仍能享受這些巨大的好處,沒有人希望摧毀世界。」
AI 的好處和風險
OpenAI 所開發的 ChatGPT 是一個熱門的聊天機器人,它可以針對使用者的提示提供像文章一樣的答案。微軟已經投資了 10 億美元在 OpenAI 上。ChatGPT 的成功引起了人們對人工智慧如何改變人們的工作和學習方式的擔憂。5 月份,包括 Altman 在內的數百位產業領袖在一封信中警告說:「控制人工智慧的風險應該成為與全球規模性風險(例如疫情和核戰爭)並列的全球優先事項。」
類比國際原子能機構
Altman 在演講中提到,類似國際原子能機構的監督機構可以是建立人工智慧全球監管的模範。IAEA 是在二戰結束後的幾年成立的,當時美國在日本投下原子彈。Altman 說:「讓我們確保我們全球共同努力——我希望這個地方能夠在其中扮演一個真正的角色。我們談論 IAEA 作為一個模型,全世界都說‘好的,這是一個非常危險的技術,讓我們都來設定一些警戒樁。’我認為,我們可以做到這兩件事情。」
國際監管的必要性
人工智慧的監管已經成為各國的熱門話題。27 個歐盟成員國正在推進 AI 法律,這可能會成為人工智慧的全球標準。Altman 在 5 月份告訴美國國會,政府幹預將對管理 AI 帶來至關重要的影響。而阿聯酋,一個由七個世襲統治的酋長國聯合組成的獨裁聯邦體系,則展示了人工智慧風險的另一面。言論仍然受到嚴格控制,人權團體警告說,阿聯酋和波斯灣地區的其他國家經常使用監控軟體來監視活動人士、記者和其他人員。這些約束影響到準確訊息的流通,而這些訊息是人工智慧程式如 ChatGPT 所依賴的機器學習系統所提供答案的依據。
總結與建議
人工智慧的發展已經成為一個全球性問題,其對人類的生存和發展都有著深刻的影響。因此成立一個類似國際原子能機構的監督機構來監管全球的人工智慧技術,成為未來重大的全球性議題之一。但是如何平衡發展和風險以及在多種國家法律制度之下制定相應的法規,仍然是一個極具挑戰性的問題。因此政府、科學家和企業家都應該共同探討,透過多方面的合作和協商,建立國際監管機構,並定期開展人工智慧技術的風險評估和監測,以期達到在人工智慧技術發展和風險防範之間取得良好的平衡。
延伸閱讀
- OpenAI 的創意寫作 AI 讓人想起高中文學社那個討人厭的孩子
- 微軟加速 AI 研發程式,直指 OpenAI 競爭對手
- 一年過去了,OpenAI 的聲音複製工具仍未問世!
- 加州新 AI 法案出爐,SB 1047 作者再推出改革措施!
- 《超級瑪利歐成為 AI 基準測試的新標準!你絕對想不到的理由》
- Google 推出 SpeciesNet:專為識別野生動物而設的人工智慧模型!
- 安瑟普提克獲得 35 億美元巨額資金 瞄準人工智慧未來!
- OpenAI 重磅推出 GPT-4.5:歷史上最大的語言模型來了!
- 探索 DeepSeek:你必須理解的 AI 聊天機器人應用全指南!
- OpenAI 計劃將 Sora 影片生成器整合至 ChatGPT,開啟創意新視界!