領袖們對於人工智慧風險發出警告
一個由人工智慧領袖、工程師和執行長所組成的團體,針對人工智慧對人類造成的存在威脅發出了嶄新的警告。為了讓盡可能多的人可以接受,這份 22 個單詞的宣告被削減到最簡化的程度,內容如下:「將減緩因人工智慧所帶來的災難性滅絕風險,視為與其他規模社會風險,如全球大流行和核戰爭,同等重要的全球性急先鋒。」
風險之後,行動該如何處置?
這份宣告是由舊金山的非營利組織 Center for AI Safety 發表,其中包括 Google DeepMind CEO Demis Hassabis 和 OpenAI CEO Sam Altman 等人共同簽署。然而該年度的第三個獲獎者、現任 Facebook 母公司 Meta 的首席人工智慧科學家 Yann LeCun 尚未簽署。這份宣告是一場複雜而具爭議性的人工智慧安全辯論中的最新最高調的介入。今年早些時候,由一些支援此 22 個單詞警告的相同人士簽署的公開信則呼籲「停頓」人工智慧發展六個月。該信件在多個層面上受到批評。有些專家認為它高估了人工智慧的風險,而其他人則認可風險,但不支援信函中提出的建議。因此在警告風險之後,接下來的行動該如何處置?
科技進步需要建立在負責任的準則上
要解決人工智慧的風險問題,首先需要建立負責任的研究和發展標準。這將有助於確保技術的安全性、隱私和道德性以及公共、企業和政府對機器學習算法的透明度。政策制定者需要確保這些技術代表人類利益,而科技公司需要負起引領責任,採取行動去促進這種負責任的態度。
教育從根本上提高對於 AI 風險的覺知
由於人工智慧可能會對人類造成極大的災難性影響,因此教育的重要性變得前所未有的關鍵。人們需要從基礎知識中開始學習人工智慧的執行方式以及它對社會和經濟等方面的影響。政府與教育單位必須加固教育與培訓,思辨性地教授人們如何理解、審核和引導人工智慧的使用。這將使人們更能理性地看待人工智慧的好壞,並確保它為我們創造的一切都符合人性化的價值觀。
專家間的意見分歧
在風險問題中,專家們的意見分歧非常大。有些專家認為人工智慧的未來將是令人恐怖的,而其他專家則認為人工智慧好壞並存。因此對於人工智慧的風險評估和相應應對策略,需要有公開透明的討論、探究和分析。這樣才能讓各方能夠建立信任,並確保人工智慧技術的發展可以有益人類。
結論
人工智慧的風險問題涉及多個行業,甚至牽涉到人類未來的走向。因此政策制定者、科技公司、學術界和公眾都需要協同努力,制定健全的法律法規、技術標準和培訓計劃,以確保人工智慧的發展可以為人類帶來福利,而不是風險和滅絕的威脅。
延伸閱讀
- 世界幣在歐洲再次被禁止,稱對兒童存在風險
- Web3 投資公司 Borderless Capital 收購 CTF Capital,引進人工智慧和量化專業技術
- 0G Labs 以驚人的 3,500 萬美元預種子輪啟動,致力於打造模組化人工智慧區塊鏈
- Cyera 將籌集最高 3 億美元,估值達到 15 億美元,AI 正是資料問題
- 人工智慧與資料基礎設施推動開源新創公司需求
- Profluent 利用人工智慧發現藥物,得到 Salesforce 研究支援,Jeff Dean 提供後盾
- 大型語言模型可幫助家庭機器人在無需人類幫助的情況下恢復錯誤
- 聽得見嗎?AI 音效技術對抗嘈雜音訊
- 為何無法評論人工智慧以及為何 TechCrunch 還是這樣做?
- 穩定 AI 執行長辭職,因為你無法用更集中的 AI 來擊敗中央集權的 AI