網路議題

Q&A:評估存在主義恐怖主義與人工智慧的風險

評估存在主義恐怖主義與人工智慧的風險引言在最近的一篇文章中,美國紐約州立大學奧爾巴尼分校(University at Albany)的加裏·阿克曼(Gary Ackerman)談到了存在主義恐怖主義。這篇由阿克曼和戰略與國際研究中心(CSIS)的扎卡裏·凱倫朋(Zachary Kallenborn) .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

Q&A:評估存在主義恐怖主義與人工智慧的風險

評估存在主義恐怖主義與人工智慧的風險

引言

在最近的一篇文章中,美國紐約州立大學奧爾巴尼分校(University at Albany)的加裏·阿克曼(Gary Ackerman)談到了存在主義恐怖主義。這篇由阿克曼和戰略與國際研究中心(CSIS)的扎卡裏·凱倫朋(Zachary Kallenborn)共同撰寫的文章探討了恐怖組織利用人工智慧等新興技術來實施滅絕性傷害的可行性。他們認為,雖然這些威脅在當前情況下並不太大,但仍然有必要考慮這些場景,以便為未來出現的威脅做好準備,例如人工智慧。本文將探討什麼是存在主義恐怖主義、新興技術如何加劇威脅以及如何預防人工智慧被當作武器使用的潛在問題。

定義存在主義恐怖主義

阿克曼教授對存在主義恐怖主義的定義是一種將對人類的繼續性造成足夠的傷害的恐怖主義,可能導致人類的滅絕或降低到無法生存的數量。他們還討論了預防人類繁榮的存在主義風險,例如全球壓迫所有人類的全球極權社會中的情況。但對於他們的研究來說他們將存在主義恐怖主義定義為將人類滅絕(或接近滅絕)的恐怖主義行為。阿克曼教授指出,人們在思考可能摧毀人類的因素時,往往想到的是氣候變化、核戰爭或者是流行病,而不是恐怖主義。有人認為,恐怖主義達到那種規模只會在科幻或者詹姆斯·邦德(James Bond)電影中出現。然而阿克曼教授指出,過去沒有人真正認真地對待過這一現象。於是,他們決定更深入地研究恐怖主義是否能夠造成足以威脅人類生存的程度的危害。

新興技術如何加劇存在主義恐怖主義的威脅

阿克曼教授表示對於個人或小團體的恐怖主義分子來說除非他們擁有極強大的槓杆力量,否則很難在大多數情況下從根本上摧毀人類。他們可以透過像人工智慧這樣的促進技術來獲得槓杆力量,因為它可以作為一種乘數,甚至有可能對人類造成毀滅性的傷害。例如,恐怖分子可能入侵一個現有的人工智慧系統,例如控制核武器系統的系統,從而引發核戰爭。另一種選擇是恐怖分子建立一個不善良的人工智慧,並指示其摧毀人類,盡管這種選擇可能非常困難且高度具有推測性。這是因為我們還沒有那種能夠獨立毀滅人類的人工智慧,而且我們真的不知道我們距離達到這一點有多遠——可能是五年、五十年,或者永遠都不可能實現。恐怖分子可能可以自行製造並使用的唯一存在威脅是生物技術。例如,如果恐怖分子製造一種能夠自我複製、極易傳染並具有高死亡率的大規模疫情疾病,但這需要非常高的技術知識和特殊裝置。這就解釋了恐怖分子直接造成人類絕種的可能性非常小。另一方面,恐怖分子可以透過去除防護措施或阻止我們減少其他風險來間接造成傷害。例如,恐怖分子可能破壞我們發射到太空的火箭,以將彗星轉向遠離地球,或者去除防止現有人工智慧失控的保護措施。我們稱這些行為為"壞境",我們認為這些行為比恐怖分子直接造成滅絕性傷害更加可行。幸運的是,這些行為需要滅絕性風險已經自行表現出來,這意味著恐怖分子無法完全獨立造成這種傷害。

刊登這篇文章的必要性

阿克曼教授表示很多人將這些假設情景視為瘋狂或過於牽強。即使我們發現威脅不大,這本身就足以讓人值得考慮,因此我們應該為未來出現的新威脅,例如人工智慧,做好準備。即使從這些初步研究中,我們現在對一些新興威脅有了更好的理解,而且有一些領域存在潛在的滅絕性威脅,例如壞境。我們探索存在主義恐怖主義的另一個原因是,透過探索最極端的情景,我們可以更好地調節較不極端的恐怖主義案例的可能性。總的來說我們發現雖然確實存在希望摧毀人類的人,但這在當前使我無法安睡。但是從理論上講,他們可能會成功,因此理解威脅可能是什麼樣的以及我們可以做些什麼來防止它至關重要。

預防人工智慧作為武器使用的措施

當前並沒有太多專門用於防止人工智慧被用於滅絕性規模武器的措施。然而一些研究機構,如全球災難風險研究所(GCRI),已經發表了大量關於人工智慧風險和風險預防的研究報告。今年三月,超過一千名行業領袖、研究人員和科技公司執行長簽署了一封公開信,呼籲暫停六個月發展先進人工智慧系統,理由是人工智慧對社會和人類有深遠的風險。不過國會的行動主要集中在應對人工智慧的其他風險,如失業問題或被我們的對手用於設計更好的武器。我們國家的幾乎沒有人認真看待人工智慧作為滅絕性問題,盡管人們正慢慢開始意識到這些潛在威脅。人們有合理的擔憂,隨著系統越來越聰明,即使它們還沒有真正具有意識,它們可能會成為一個主要風險。從廣泛的觀點來看,我們必須將人工智慧視為一個全球問題。我們可能與其他國家存在分歧,但俄羅斯、中國或美國的其他對手都沒有興趣摧毀世界。當涉及到滅絕性恐怖主義或氣候變化等威脅時,我們需要全球合作。即使我們相互競爭,如果我們中沒有人存在,我們的競爭也將毫無意義。

結論

加裏·阿克曼教授的研究引起了人們的關注,他們在一篇深思熟慮的文章中探討了存在主義恐怖主義與新興技術如人工智慧之間的聯動性。盡管當前的威脅並不太大,但這種研究還是有其價值,因為它幫助我們更好地理解新興威脅並做出相應的預防措施。不僅如此,這種討論還有助於提高人們對於存在主義恐怖主義問題的警覺性,始終保持警戒並積極預防潛在的危險。

該研究還提出了全球合作的重要性,特別是當涉及到可能對人類生存有著致命威脅的問題時。儘管國家之間存在競爭,但只有透過全球合作,我們才能確保人類能夠共同面對這些挑戰並找到解決方案。對於那些對於滅絕性問題的質疑者來說這項研究還提供了一個重要的參考點,使他們能夠更好地理解可能的風險和後果。

總的來說阿克曼教授的工作提供了一個思考存在主義恐怖主義和人工智慧風險所帶來的重要問題的機會。這也提醒我們,在面對未來的挑戰時,我們應該始終保持警醒,並透過合作和準備來應對可能的危險。

Existentialism,Terrorism,ArtificialIntelligence,Risk-主義恐怖主義、人工智慧、風險評估
程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。