AI 研究人員對「滅絕風險」和當前風險的討論
最近多位人工智慧(AI)領域研究人員和公司 CEO 簽署宣告警告高級 AI 的發展必須得到適當管理,否則有可能導致人類滅絕的風險。然而許多 AI 研究人員表示現階段將注意力放在當前可衡量的 AI 風險(包括偏見、錯誤訊息、高風險應用和網路安全)上更為必要。許多 AI 研究者並不重視人類可能面臨滅絕的風險(即「崩潰論」),但是這個話題卻在公眾論述中佔據了主流,可能對 AI 發展造成負面影響。
當前風險被忽略的風險
對於 AI 崩潰風險的關注往往會讓現階段存在的實際風險被忽視。AI 聯邦非盈利組織 Cohere for AI 的負責人 Sara Hooker 表示「在 AI 領域,某些人從事的是長期風險研究是好事,但現階段更應該關注,當前的模型已投入使用並且影響數百萬人的當前風險。因為對許多 AI 研究人員而言,這才是他們每天工作時關注的問題。」
崩潰論帶來的影響
過度關注崩潰風險時,可能無法妥善處理當前存在的風險,更難確保研發和部署 AI 的責任。部分業界領袖和公司甚至希望制定 AI 監管規則,這有機會讓他們達到控制 AI 監管的目的,造成政治風險。
採取的行為
一些 AI 領域的研究人員也開始發聲,反對過度關注滅絕風險,認為當前更需要關注當前可衡量的風險以及 AI 技術發展對人類生活和環境帶來的影響。然而一些機構仍然採取「崩潰論」的立場,從中獲取經費和資源。
如何應對「崩潰論」言論
AI 研究人員和公司應該更加理性和實際地看待問題,平衡好「長期風險」和「當前風險」。部分 AI 專家同時在社交媒體和其他場合反對過度關注「滅絕風險」。而推動 AI 工作進行,去積極解決當前存在的問題,才能對更遠期的未來進行考慮。
延伸閱讀
- 蘋果 AI 計劃揭祕:從財報中學到的三件事
- 特斯拉 CEO 為人工智慧新創公司籌集 60 億美元,TikTok 是否在逃避蘋果的傭金?
- Allozymes 以加速酶學應用於資料和人工智慧,籌集 1500 萬美元
- 在 TC 的 Techstars 調查內部以及人工智慧如何加速殘障科技
- Microsoft 禁止美國警察局使用企業人工智慧工具
- 你的 AI 原生新創公司並非一般的 SaaS 公司
- Airbnb 釋出團體訂房功能,並整合人工智慧以提升客戶服務
- 歐洲殘障科技新創如何利用人工智慧?
- SafeBase 使用人工智慧自動化軟體安全審查
- AI 新創點子解決創辦人個資外洩的痛 - 這位創辦人深受影響後的啟發