AI 毀滅警語過度渲染?還是真的威脅到人類的未來?
最近,AI 技術的許多領域專家都聯名發表了一封警告信,警告人們應該「減輕 AI 對人類的滅絕風險」。然而呼籲最強烈的專家讓人們懷疑 AI 恐懼症到底有多大及其中有多少是自我主義的表演。在這集節目中,我們邀請 Devin Coldewey 討論 AI 毀滅主義是過度渲染以及進行誇大報導的人是如何為自己的利益而吹噓。
扯出警語的專家胡說八道
所謂的 AI 恐慌,實際上在某些預測專家看來是根本不必要的。許多專家選擇在 AI 論壇上表達他們的顧慮,提出可能會威脅人類的高度進化 AI。然而這些專家缺乏足夠的基礎認識,這讓警語充滿虛榮心與扯出胡言的可能性。
實際上迄今為止,人類創造出的 AI 類別可以分為強人工智慧和弱人工智慧兩種。前者通常指能夠自主學習、創造或模擬人類學習模式和操作的 AI。其應用可以廣泛應用於商業、專業科學和健康等不同領域。當前為止,真正的強人工智慧還未開發,甚至還未具備繼續發展的可能性。
相反的,現實生活中 AI 的領域主要是弱人工智慧為主,其能力受到程式設計和算法等因素的制約,只能執行明確和固定的指令。因此迄今為止,AI 對人類的威脅遠未那麼大。
考慮警語的真正目的
那麼,為什麼會出現 AI 恐慌情緒?一部份原因是 AI 領域中的專家使用了讓人們困惑的術語和不良講法為自己尋求關注。他們也許是想獲得更多的研究經費或專業名聲,並推動政策的制定,這是在科技領域中很常見的,在任何領域中也同樣存在著這樣的人。另一個原因是,過多發表不必要的恐慌訊息,通常可以穩定和調整市場,產生如銷售、規則制定等一系列動作,對某些人的利益非常有利。
結論與建議
這些 AI 恐慌的報導中,有些是客觀的報道、有些是誇大其辭。但是最重要的是要有科學家的精神,根據事實與資料識別真假。對於 AI 技術和應用的警惕是必要的。但是在理智的、科學的和明智的方法下,AI 技術有著無限的前景。就像其他領域一樣,AI 發展必須建基於範訂適當的道德框架。警惕的話,也應該是分享相關資訊,而不是造成不必要的恐慌。
此外我們建議政府和有關機構應加固 AI 技術的規範和監管,以確保 AI 技術的良性的發展。然而技術的發展和日常應用仍然是 AI 技術的主要趨勢,受到科技發展的牽引,未來 AI 將有更多的用途與創新,而人類保持警覺和敏銳,有助於更好地應對未知的風險和挑戰。
延伸閱讀
- Xaira:AI 藥物發現新創公司以 10 億美元巨額啟動,宣稱已準備好開展藥物開發
- Rabbit 宣布推出一個迷人的小型 AI 裝置:R1
- Perplexity AI 可能價值高達 30 億美元,原因在於…
- 基於人工智慧時代,Anon 正在打造自動化認證層 - 技術新聞
- 英偉達收購 AI 工作負載管理新創公司 Run:ai
- Snowflake 推出自家旗艦生成式人工智慧模型
- 英國調查亞馬遜和微軟與 Mistral、Anthropic 和 Inflection 的 AI 合作關係
- Parloa 完成 6600 萬美元融資,打造客服對話人工智慧平臺
- Perplexity 籌集超過 2.5 億美元,估值達 25-30 億美元,用於其人工智慧搜尋平臺
- 前 Snap 研究人員正在利用人工智慧打造下一代 Bitmoji - 輕鬆創作個人化貼圖