市場觀察

AI 界領袖發聲警告:「滅絕風險太高」!——22 字宣告引起思考

領袖們對於人工智慧風險發出警告一個由人工智慧領袖、工程師和執行長所組成的團體,針對人工智慧對人類造成的存在威脅發出了嶄新的警告。為了讓盡可能多的人可以接受,這份 22 個單詞的宣告被削減到最簡化的程度,內容如下:「將減緩因人工智慧所帶來的災難性滅絕風險,視為與其他規模社會風險,如全球大流行和核戰爭, .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

AI 界領袖發聲警告:「滅絕風險太高」!——22 字宣告引起思考

領袖們對於人工智慧風險發出警告

一個由人工智慧領袖、工程師和執行長所組成的團體,針對人工智慧對人類造成的存在威脅發出了嶄新的警告。為了讓盡可能多的人可以接受,這份 22 個單詞的宣告被削減到最簡化的程度,內容如下:「將減緩因人工智慧所帶來的災難性滅絕風險,視為與其他規模社會風險,如全球大流行和核戰爭,同等重要的全球性急先鋒。」

風險之後,行動該如何處置?

這份宣告是由舊金山的非營利組織 Center for AI Safety 發表,其中包括 Google DeepMind CEO Demis Hassabis 和 OpenAI CEO Sam Altman 等人共同簽署。然而該年度的第三個獲獎者、現任 Facebook 母公司 Meta 的首席人工智慧科學家 Yann LeCun 尚未簽署。這份宣告是一場複雜而具爭議性的人工智慧安全辯論中的最新最高調的介入。今年早些時候,由一些支援此 22 個單詞警告的相同人士簽署的公開信則呼籲「停頓」人工智慧發展六個月。該信件在多個層面上受到批評。有些專家認為它高估了人工智慧風險,而其他人則認可風險,但不支援信函中提出的建議。因此在警告風險之後,接下來的行動該如何處置?

科技進步需要建立在負責任的準則上

要解決人工智慧風險問題,首先需要建立負責任的研究和發展標準。這將有助於確保技術的安全性、隱私和道德性以及公共、企業和政府對機器學習算法的透明度。政策制定者需要確保這些技術代表人類利益,而科技公司需要負起引領責任,採取行動去促進這種負責任的態度。

教育從根本上提高對於 AI 風險的覺知

由於人工智慧可能會對人類造成極大的災難性影響,因此教育的重要性變得前所未有的關鍵。人們需要從基礎知識中開始學習人工智慧的執行方式以及它對社會和經濟等方面的影響。政府與教育單位必須加固教育與培訓,思辨性地教授人們如何理解、審核和引導人工智慧的使用。這將使人們更能理性地看待人工智慧的好壞,並確保它為我們創造的一切都符合人性化的價值觀。

專家間的意見分歧

風險問題中,專家們的意見分歧非常大。有些專家認為人工智慧的未來將是令人恐怖的,而其他專家則認為人工智慧好壞並存。因此對於人工智慧風險評估和相應應對策略,需要有公開透明的討論、探究和分析。這樣才能讓各方能夠建立信任,並確保人工智慧技術的發展可以有益人類。

結論

人工智慧風險問題涉及多個行業,甚至牽涉到人類未來的走向。因此政策制定者、科技公司、學術界和公眾都需要協同努力,制定健全的法律法規、技術標準和培訓計劃,以確保人工智慧的發展可以為人類帶來福利,而不是風險滅絕的威脅。

AI technology or Artificial Intelligence.-人工智慧,風險,警告,領袖,AI,滅絕

延伸閱讀

程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。