AI 的滅絕風險需要更透徹的澄清
隨著人工智慧(AI)的快速發展,許多 AI 研究人員開始擔心人工智慧可能對人類和社會造成嚴重的後果,甚至導致人類滅絕。然而 AI 的滅絕風險的議論被認為存在著一定的不確保性。本篇文章主要是針對 2023 年 5 月 31 日科技新聞網站 TechXplore 所釋出的 Nello Cristianini 撰寫的文章進行探討,並詳細討論 AI 滅絕風險的相關問題。
AI 滅絕風險尚未具體呈現
最近,一些知名的 AI 研究人員簽署了一份宣告,呼籲把降低 AI 滅絕風險作為全球範圍內的一項優先任務。然而這份宣告並沒有清晰描繪出 AI 滅絕的具體風險情境。因此我們需要進一步澄清什麼是 AI 滅絕風險、可能的影響和如何執行相對應的措施。
AI 滅絕風險的討論並不是第一次出現。在不久前,就曾出現了一個請願書,由不同企業家和研究人員簽署,呼籲暫停 AI 的部署。這些人認為,AI 對人類和社會構成了深刻的風險,應該引發更多的關注。但是這份請願書也沒有具體講述 AI 滅絕的風險可能來自哪些渠道。
釐清 AI 滅絕風險的可能方式
因此明確說明並釐清 AI 滅絕風險的渠道是非常重要的。中央 AI 安全研究中心的網站,列出了 8 個風險類別,包括 AI 武器化、影響新聞系統的使用、人類可能最終無法自我管理、在壓迫政權方面的幫助等等。除了 AI 武器化這個問題是明確具體的風險情境外,其他風險情境還不清楚如何導致人類滅絕。AI 武器化當然是一個現實的風險,但是 AI 武器化的定義仍需進一步說明清晰。中央 AI 安全研究中心的網站認為,AI 系統可用來設計化學武器,這應該被防止,但化學武器已經被禁止。總結來說 AI 滅絕風險是一個具體而明確的事件,必須要有具體的防範方法和實際減緩策略。
AI 風險需要具體講述
在 2023 年 5 月 16 日的美國參議院聽證會上,OpenAI 的 CEO Sam Altman 曾表示 AI 對世界造成巨大的風險,如果發展不當會有很嚴重的後果。到當前為止,我們仍需要慎重思考 AI 的發展,做好各種防範措施。過分擔心可能令人們產生對未來的恐懼,這不符合科學精神。從科學家的角度出發,應該針對 AI 存在的問題進行剖析、研究和提出解決方案。但首先必須明確地表明這些風險的形式,並進一步具體講述它們的影響和如何執行相應的控制措施,從而實現 AI 技術的“良性發展”。
結論
AI 技術的發展不可避免地會面臨各種挑戰和風險,包括一些最危險的風險-滅絕風險。未來的 AI 技術發展需要保持良性和可持續發展的道路。對可能的風險情境,我們應該具體分析研究、採取有效的控制措施,走出抽象、含糊的問題模糊化的陷阱。人類的未來發展仍然有很大的潛力和可能性,但需要科學家和技術人員集思廣益、攜手合作,探索出更適合人類未來的路徑。
延伸閱讀
- 頭條新聞:頂級公司專頁功能即將上線,搭載 AI 及行銷工具助您擴充套件觀眾量
- Amazon Music 跟隨 Spotify 推出自己的 AI 播放清單生成器 Maestro
- 「Facebook 與 Instagram AI 生成的裸照遭調查」
- 新聞標題:Meta 在 Instagram 測試 AI 動力搜尋欄
- Google 計劃透過兩款新的 10 美元 Workspace 附加元件來實現 AI 的盈利化
- Multiverse 視界養成獨角獸收購 Searchlight,以 AI 為重心
- Anthropic 找到了一個讓 AI 提供未知答案的技巧 + TechCrunch 分鐘: Anthropic 如何獲得 AI 提供未知答案
- 資料庫公司 DataStax 收購低程式碼 AI 平臺 Langflow 的新創公司
- Aerospike 籌得 1 億美元,加速 AI 繁榮,打造即時資料庫平臺
- Brave 推出 iPhone 與 iPad 上的 AI 助理