AIGC

OpenAI 增強安全團隊,賦予董事會對風險人工智慧具有否決權

OpenAI 增強安全團隊,賦予董事會對風險人工智慧的否決權作者:引言 OpenAI 擴大了其內部安全程式,以抵禦有害人工智慧的威脅。一個新的“安全諮詢小組”將位於技術團隊之上,向領導層提出建議,並賦予董事會否決權。然而董事會是否會實際行使這一權力,則是另一個問題。OpenAI 的應對措施 OpenAI .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

OpenAI 增強安全團隊,賦予董事會對風險人工智慧具有否決權

OpenAI 增強安全團隊,賦予董事會風險人工智慧否決權

作者:

引言

OpenAI 擴大了其內部安全程式,以抵禦有害人工智慧的威脅。一個新的“安全諮詢小組”將位於技術團隊之上,向領導層提出建議,並賦予董事會否決權。然而董事會是否會實際行使這一權力,則是另一個問題。

OpenAI 的應對措施

OpenAI 公布了更新後的“準備框架”,重點是提供清晰的途徑來識別、分析和決定對其開發的模型所固有的“災難性”風險做出應對。新的安全程式小組將負責管理執行中的模型,以防範 ChatGPT 等系統濫用。而處於開發階段的模型將由“準備”小組進行風險評估。此外還有一個“超對齊”小組致力於為“超智慧”模型制定理論準則。

風險評估

這兩個類別的模型會根據四項風險類別進行評估:網路安全、“說服力”(例如虛假訊息)、模型自主性和 CBRN(化學、生物、放射性和核威脅)。經過已知的減輕措施後,若一個模型仍被評估為存在“高”風險,則不得部署;若存在“危急”風險,則不會繼續開發。

安全諮詢小組

OpenAI 正在成立一個“跨職能安全諮詢小組”,以充分回顧技術方案並對其進行評估。希望這將揭示一些“未知的未知”風險,然而受其性質影響,這些風險仍然相當難以捕捉。

評論與建議

“一個專家群體提出建議,而 CEO 根據該訊息做出決定,這個友好的董事會真的會有權力反對他們並制止嗎?如果他們這樣做了,我們能聽到訊息嗎?”這提出了一個重要的問題。透明度似乎未受到足夠重視,除了 OpenAI 將向獨立第三方徵詢審計的承諾外。

OpenAI 需要強調透明度和負責任的領導。人工智慧的發展和應用應該是一個開放的過程,供相關利益相關方共同參與。此外 OpenAI 應該考慮成立一個獨立的監管機構,以確保其安全程式和政策能夠受到外部監督和評估。

總而言之,OpenAI 的努力是值得肯定的,但它需要更多的透明度和負責任的領導來確保人工智慧技術的發展和應用能夠得到適當的監管和控制。

Technology-OpenAI,增強安全團隊,董事會,風險,人工智慧,否決權
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。