市場觀察

AI 頂尖研究人員和 CEO 發出警告,聲稱存在“滅絕風險”

AI 研究風險:CEO 與專家發出“滅絕風險”的警告一群頂尖的 AI 研究人員、工程師和 CEO 對 AI 對人類的生存威脅發出了新的警告。這份由總部位於舊金山的非營利機構中心發布的 22 個詞的宣告被簡化,以使它能夠廣泛被接受。宣告呼籲全球應該將緩解 AI 的滅絕風險視為與全球公共衛生和核戰爭等社 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

AI 頂尖研究人員和 CEO 發出警告,聲稱存在“滅絕風險”

AI 研究風險:CEO 與專家發出“滅絕風險”的警告

一群頂尖的 AI 研究人員、工程師和 CEOAI 對人類的生存威脅發出了新的警告。這份由總部位於舊金山的非營利機構中心發布的 22 個詞的宣告被簡化,以使它能夠廣泛被接受。宣告呼籲全球應該將緩解 AI滅絕風險視為與全球公共衛生和核戰爭等社會規模風險同等重要的優先事項。宣告的簽署人包括 Google DeepMind CEO Demis Hassabis 和 OpenAI CEO Sam Altman 以及在 2018 年贏得圖靈獎(有時被稱為“計算機界的諾貝爾獎”)的三名 AI 研究人員中的 Geoffrey Hinton 和 Youshua Bengio。

警告分析

這份宣告是 AI 安全複雜和爭議性辯論的最新高調幹預。今年早些時候,一封由部分同樣支援 22 詞警告的人署名的公開信呼籲對 AI 的發展進行六個月的“暫停”。然而這封信被批評在多個層面上。一些專家認為它誇大了 AI 所帶來的風險,而另一些人同意風險,但不贊同公開信提出的處理方式。

AI 安全的風險存在環節:AI 系統的能力迅速提高並出現無法控制的情況。許多專家指出在大型語言模型等系統中,在未來預測中快速提升表現是未來智慧增長的證據,並且它們認為一旦 AI 系統達到一定的成熟度,將無法控制它們的行為。然而有些懷疑者對這些預測提出了質疑,他們指出 AI 系統甚至無法處理駕駛汽車等相對簡單的任務。儘管多年來進行了大量的努力和投資,但完全自動駕駛汽車仍然遠未實現。因此懷疑者認為如果連這一個挑戰都無法應對,那麼在未來,AI 技術有機會匹配其他人類成就嗎?

不論未來的預測,AI 系統在當下甚至也存在一些威脅,例如啟用大規模監視、開發“預測性警務”算法、減輕製造虛假訊息和假訊息的落地等。從 AI 行業內部的角度來看,這份宣告為擔憂 AI 風險的專家團隊發表了“公開警告”。

專家評論

許多人公開表示支援這份宣告,希望推動全球對 AI 研究安全性的關注。然而也有人對警告表示懷疑,他們認為 AI 可能不會對人類構成威脅,甚至可能成為人類的益友。然而對於 AI 技術對人類帶來的風險,無論是懸念還是優越性,我們需要明確保義它的範圍和影響。人工智慧的研究和發展從其一開始就應明確,其設計和使用應該有針對性且審慎,以確保實現人類願景,而不是在未來無意中粗暴創造對人類生存產生風險的系統。

結論

AI 是一個極具發展前景的領域,但潛在的風險不能被忽視。全球 AI 領袖需要確保他們所開發的系統不會危及人類安全和生存。同時非營利機構和政府可以透過支援對 AI 的研究進行更加明確的指導,以確保 AI 技術發展符合公共利益和全球標準。這需要全球 AI 領袖和政策制定者積極參與,確保 AI 技術盡可能實現其應有的潛力,並確保 AI 未來的發展遵循尊重人權和正義的原則。

AI 研究風險-AI,研究人員,CEO,警告,滅絕風險
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。