OpenAI 增強安全團隊,賦予董事會對風險人工智慧的否決權
作者:
引言
OpenAI 擴大了其內部安全程式,以抵禦有害人工智慧的威脅。一個新的“安全諮詢小組”將位於技術團隊之上,向領導層提出建議,並賦予董事會否決權。然而董事會是否會實際行使這一權力,則是另一個問題。
OpenAI 的應對措施
OpenAI 公布了更新後的“準備框架”,重點是提供清晰的途徑來識別、分析和決定對其開發的模型所固有的“災難性”風險做出應對。新的安全程式小組將負責管理執行中的模型,以防範 ChatGPT 等系統濫用。而處於開發階段的模型將由“準備”小組進行風險評估。此外還有一個“超對齊”小組致力於為“超智慧”模型制定理論準則。
風險評估
這兩個類別的模型會根據四項風險類別進行評估:網路安全、“說服力”(例如虛假訊息)、模型自主性和 CBRN(化學、生物、放射性和核威脅)。經過已知的減輕措施後,若一個模型仍被評估為存在“高”風險,則不得部署;若存在“危急”風險,則不會繼續開發。
安全諮詢小組
OpenAI 正在成立一個“跨職能安全諮詢小組”,以充分回顧技術方案並對其進行評估。希望這將揭示一些“未知的未知”風險,然而受其性質影響,這些風險仍然相當難以捕捉。
評論與建議
“一個專家群體提出建議,而 CEO 根據該訊息做出決定,這個友好的董事會真的會有權力反對他們並制止嗎?如果他們這樣做了,我們能聽到訊息嗎?”這提出了一個重要的問題。透明度似乎未受到足夠重視,除了 OpenAI 將向獨立第三方徵詢審計的承諾外。
OpenAI 需要強調透明度和負責任的領導。人工智慧的發展和應用應該是一個開放的過程,供相關利益相關方共同參與。此外 OpenAI 應該考慮成立一個獨立的監管機構,以確保其安全程式和政策能夠受到外部監督和評估。
總而言之,OpenAI 的努力是值得肯定的,但它需要更多的透明度和負責任的領導來確保人工智慧技術的發展和應用能夠得到適當的監管和控制。
延伸閱讀
- 參議院研究建議:每年至少撥款 320 億美元用於人工智慧計劃
- Google I/O 盛會 AI 領域的重大訊息
- Google 掃描通話的人工智慧或增加預設審查,隱私專家發出警告
- 柏林科技企業 trawa 籌得 1 千萬歐元,運用人工智慧協助中小企業更輕鬆購買可再生能源
- OpenAI 聯合創始人兼長期首席科學家 Ilya Sutskever 離職
- Google 將在 YouTube 學術影片中推出人工智慧生成的測驗
- Google 在 I/O 主題演講中提到「AI」超過 120 次
- 在人工智慧電影節上,人性戰勝科技
- AI 推動社會變革,女性呈現關鍵力量
- 開放 AI (OpenAI)的 ChatGPT 新聞發布:我們當前所知道的事情