領袖們對於人工智慧風險發出警告
一個由人工智慧領袖、工程師和執行長所組成的團體,針對人工智慧對人類造成的存在威脅發出了嶄新的警告。為了讓盡可能多的人可以接受,這份 22 個單詞的宣告被削減到最簡化的程度,內容如下:「將減緩因人工智慧所帶來的災難性滅絕風險,視為與其他規模社會風險,如全球大流行和核戰爭,同等重要的全球性急先鋒。」
風險之後,行動該如何處置?
這份宣告是由舊金山的非營利組織 Center for AI Safety 發表,其中包括 Google DeepMind CEO Demis Hassabis 和 OpenAI CEO Sam Altman 等人共同簽署。然而該年度的第三個獲獎者、現任 Facebook 母公司 Meta 的首席人工智慧科學家 Yann LeCun 尚未簽署。這份宣告是一場複雜而具爭議性的人工智慧安全辯論中的最新最高調的介入。今年早些時候,由一些支援此 22 個單詞警告的相同人士簽署的公開信則呼籲「停頓」人工智慧發展六個月。該信件在多個層面上受到批評。有些專家認為它高估了人工智慧的風險,而其他人則認可風險,但不支援信函中提出的建議。因此在警告風險之後,接下來的行動該如何處置?
科技進步需要建立在負責任的準則上
要解決人工智慧的風險問題,首先需要建立負責任的研究和發展標準。這將有助於確保技術的安全性、隱私和道德性以及公共、企業和政府對機器學習算法的透明度。政策制定者需要確保這些技術代表人類利益,而科技公司需要負起引領責任,採取行動去促進這種負責任的態度。
教育從根本上提高對於 AI 風險的覺知
由於人工智慧可能會對人類造成極大的災難性影響,因此教育的重要性變得前所未有的關鍵。人們需要從基礎知識中開始學習人工智慧的執行方式以及它對社會和經濟等方面的影響。政府與教育單位必須加固教育與培訓,思辨性地教授人們如何理解、審核和引導人工智慧的使用。這將使人們更能理性地看待人工智慧的好壞,並確保它為我們創造的一切都符合人性化的價值觀。
專家間的意見分歧
在風險問題中,專家們的意見分歧非常大。有些專家認為人工智慧的未來將是令人恐怖的,而其他專家則認為人工智慧好壞並存。因此對於人工智慧的風險評估和相應應對策略,需要有公開透明的討論、探究和分析。這樣才能讓各方能夠建立信任,並確保人工智慧技術的發展可以有益人類。
結論
人工智慧的風險問題涉及多個行業,甚至牽涉到人類未來的走向。因此政策制定者、科技公司、學術界和公眾都需要協同努力,制定健全的法律法規、技術標準和培訓計劃,以確保人工智慧的發展可以為人類帶來福利,而不是風險和滅絕的威脅。
延伸閱讀
- RPA 供應商如何在 AI 代理人世界保持競爭力
- 照片分享社群 EyeEm 將許可使用者的照片以訓練 AI,如果使用者不刪除照片
- 元 AI 測試:未能彰顯自身價值,但免費就是免費
- Google 推出新功能“口語練習”,利用人工智慧幫助使用者提高英文能力
- 科技巨頭 xAI 競爭開放人工智慧,吸金 60 億美元。推動社交網路 X 成為股東
- Xaira:AI 藥物發現新創公司以 10 億美元巨額啟動,宣稱已準備好開展藥物開發
- Rabbit 宣布推出一個迷人的小型 AI 裝置:R1
- Perplexity AI 可能價值高達 30 億美元,原因在於…
- 基於人工智慧時代,Anon 正在打造自動化認證層 - 技術新聞
- 英偉達收購 AI 工作負載管理新創公司 Run:ai