網路議題

AI 專家挑戰「崩潰論」敘事,包括「滅絕風險」的主張

AI 研究人員對「滅絕風險」和當前風險的討論最近多位人工智慧(AI)領域研究人員和公司 CEO 簽署宣告警告高級 AI 的發展必須得到適當管理,否則有可能導致人類滅絕的風險。然而許多 AI 研究人員表示現階段將注意力放在當前可衡量的 AI 風險(包括偏見、錯誤訊息、高風險應用和網路安全)上更為必要。 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

AI 專家挑戰「崩潰論」敘事,包括「滅絕風險」的主張

AI 研究人員對「滅絕風險」和當前風險的討論

最近多位人工智慧(AI)領域研究人員和公司 CEO 簽署宣告警告高級 AI 的發展必須得到適當管理,否則有可能導致人類滅絕的風險。然而許多 AI 研究人員表示現階段將注意力放在當前可衡量的 AI 風險(包括偏見、錯誤訊息、高風險應用和網路安全)上更為必要。許多 AI 研究者並不重視人類可能面臨滅絕的風險(即「崩潰論」),但是這個話題卻在公眾論述中佔據了主流,可能對 AI 發展造成負面影響。

當前風險被忽略的風險

對於 AI 崩潰風險的關注往往會讓現階段存在的實際風險被忽視。AI 聯邦非盈利組織 Cohere for AI 的負責人 Sara Hooker 表示「在 AI 領域,某些人從事的是長期風險研究是好事,但現階段更應該關注,當前的模型已投入使用並且影響數百萬人的當前風險。因為對許多 AI 研究人員而言,這才是他們每天工作時關注的問題。」

崩潰論帶來的影響

過度關注崩潰風險時,可能無法妥善處理當前存在的風險,更難確保研發和部署 AI 的責任。部分業界領袖和公司甚至希望制定 AI 監管規則,這有機會讓他們達到控制 AI 監管的目的,造成政治風險。

採取的行為

一些 AI 領域的研究人員也開始發聲,反對過度關注滅絕風險,認為當前更需要關注當前可衡量的風險以及 AI 技術發展對人類生活和環境帶來的影響。然而一些機構仍然採取「崩潰論」的立場,從中獲取經費和資源。

如何應對「崩潰論」言論

AI 研究人員和公司應該更加理性和實際地看待問題,平衡好「長期風險」和「當前風險」。部分 AI 專家同時在社交媒體和其他場合反對過度關注「滅絕風險」。而推動 AI 工作進行,去積極解決當前存在的問題,才能對更遠期的未來進行考慮。

Artificial Intelligence-人工智慧,崩潰論,滅絕風險
程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。