
OpenAI 增強安全團隊,賦予董事會對風險人工智慧的否決權
作者:
引言
OpenAI 擴大了其內部安全程式,以抵禦有害人工智慧的威脅。一個新的“安全諮詢小組”將位於技術團隊之上,向領導層提出建議,並賦予董事會否決權。然而董事會是否會實際行使這一權力,則是另一個問題。
OpenAI 的應對措施
OpenAI 公布了更新後的“準備框架”,重點是提供清晰的途徑來識別、分析和決定對其開發的模型所固有的“災難性”風險做出應對。新的安全程式小組將負責管理執行中的模型,以防範 ChatGPT 等系統濫用。而處於開發階段的模型將由“準備”小組進行風險評估。此外還有一個“超對齊”小組致力於為“超智慧”模型制定理論準則。
風險評估
這兩個類別的模型會根據四項風險類別進行評估:網路安全、“說服力”(例如虛假訊息)、模型自主性和 CBRN(化學、生物、放射性和核威脅)。經過已知的減輕措施後,若一個模型仍被評估為存在“高”風險,則不得部署;若存在“危急”風險,則不會繼續開發。
安全諮詢小組
OpenAI 正在成立一個“跨職能安全諮詢小組”,以充分回顧技術方案並對其進行評估。希望這將揭示一些“未知的未知”風險,然而受其性質影響,這些風險仍然相當難以捕捉。
評論與建議
“一個專家群體提出建議,而 CEO 根據該訊息做出決定,這個友好的董事會真的會有權力反對他們並制止嗎?如果他們這樣做了,我們能聽到訊息嗎?”這提出了一個重要的問題。透明度似乎未受到足夠重視,除了 OpenAI 將向獨立第三方徵詢審計的承諾外。
OpenAI 需要強調透明度和負責任的領導。人工智慧的發展和應用應該是一個開放的過程,供相關利益相關方共同參與。此外 OpenAI 應該考慮成立一個獨立的監管機構,以確保其安全程式和政策能夠受到外部監督和評估。
總而言之,OpenAI 的努力是值得肯定的,但它需要更多的透明度和負責任的領導來確保人工智慧技術的發展和應用能夠得到適當的監管和控制。
延伸閱讀
- OpenAI 的創意寫作 AI 讓人想起高中文學社那個討人厭的孩子
- 微軟加速 AI 研發程式,直指 OpenAI 競爭對手
- 一年過去了,OpenAI 的聲音複製工具仍未問世!
- 加州新 AI 法案出爐,SB 1047 作者再推出改革措施!
- 《超級瑪利歐成為 AI 基準測試的新標準!你絕對想不到的理由》
- Google 推出 SpeciesNet:專為識別野生動物而設的人工智慧模型!
- 安瑟普提克獲得 35 億美元巨額資金 瞄準人工智慧未來!
- OpenAI 重磅推出 GPT-4.5:歷史上最大的語言模型來了!
- 探索 DeepSeek:你必須理解的 AI 聊天機器人應用全指南!
- OpenAI 計劃將 Sora 影片生成器整合至 ChatGPT,開啟創意新視界!