AI 毀滅警語過度渲染?還是真的威脅到人類的未來?
最近,AI 技術的許多領域專家都聯名發表了一封警告信,警告人們應該「減輕 AI 對人類的滅絕風險」。然而呼籲最強烈的專家讓人們懷疑 AI 恐懼症到底有多大及其中有多少是自我主義的表演。在這集節目中,我們邀請 Devin Coldewey 討論 AI 毀滅主義是過度渲染以及進行誇大報導的人是如何為自己的利益而吹噓。
扯出警語的專家胡說八道
所謂的 AI 恐慌,實際上在某些預測專家看來是根本不必要的。許多專家選擇在 AI 論壇上表達他們的顧慮,提出可能會威脅人類的高度進化 AI。然而這些專家缺乏足夠的基礎認識,這讓警語充滿虛榮心與扯出胡言的可能性。
實際上迄今為止,人類創造出的 AI 類別可以分為強人工智慧和弱人工智慧兩種。前者通常指能夠自主學習、創造或模擬人類學習模式和操作的 AI。其應用可以廣泛應用於商業、專業科學和健康等不同領域。當前為止,真正的強人工智慧還未開發,甚至還未具備繼續發展的可能性。
相反的,現實生活中 AI 的領域主要是弱人工智慧為主,其能力受到程式設計和算法等因素的制約,只能執行明確和固定的指令。因此迄今為止,AI 對人類的威脅遠未那麼大。
考慮警語的真正目的
那麼,為什麼會出現 AI 恐慌情緒?一部份原因是 AI 領域中的專家使用了讓人們困惑的術語和不良講法為自己尋求關注。他們也許是想獲得更多的研究經費或專業名聲,並推動政策的制定,這是在科技領域中很常見的,在任何領域中也同樣存在著這樣的人。另一個原因是,過多發表不必要的恐慌訊息,通常可以穩定和調整市場,產生如銷售、規則制定等一系列動作,對某些人的利益非常有利。
結論與建議
這些 AI 恐慌的報導中,有些是客觀的報道、有些是誇大其辭。但是最重要的是要有科學家的精神,根據事實與資料識別真假。對於 AI 技術和應用的警惕是必要的。但是在理智的、科學的和明智的方法下,AI 技術有著無限的前景。就像其他領域一樣,AI 發展必須建基於範訂適當的道德框架。警惕的話,也應該是分享相關資訊,而不是造成不必要的恐慌。
此外我們建議政府和有關機構應加固 AI 技術的規範和監管,以確保 AI 技術的良性的發展。然而技術的發展和日常應用仍然是 AI 技術的主要趨勢,受到科技發展的牽引,未來 AI 將有更多的用途與創新,而人類保持警覺和敏銳,有助於更好地應對未知的風險和挑戰。
延伸閱讀
- 在 AI 領域的女性:Tara Chklovski 正在教導下一代的 AI 創新者
- 本週人工智慧大事記:生成式人工智慧與創作者補償的問題
- 蘋果 AI 計劃揭祕:從財報中學到的三件事
- 特斯拉 CEO 為人工智慧新創公司籌集 60 億美元,TikTok 是否在逃避蘋果的傭金?
- Allozymes 以加速酶學應用於資料和人工智慧,籌集 1500 萬美元
- Y Combinator 幫助醫療記錄 AI 新創 Hona 募得 300 萬美元 的故事
- 在 TC 的 Techstars 調查內部以及人工智慧如何加速殘障科技
- Microsoft 禁止美國警察局使用企業人工智慧工具
- 你的 AI 原生新創公司並非一般的 SaaS 公司
- Airbnb 釋出團體訂房功能,並整合人工智慧以提升客戶服務