網路議題

不,人工智慧很可能不會殺光我們──這種恐懼宣傳背後的真相更為複雜

AI 不會殺光人類,複雜的真相與恐懼宣傳作者 Michael Timothy Bennett 在 The Conversation 上發表文章,探討 AI 是否會殺光人類。他認為 AI 是一個複雜的主題,並強調人們對不熟悉的東西容易感到害怕。然而他認為在 AI 的議題中存在商業利益來製造恐懼,且將 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

不,人工智慧很可能不會殺光我們──這種恐懼宣傳背後的真相更為複雜

AI 不會殺光人類複雜真相恐懼宣傳

作者 Michael Timothy Bennett 在 The Conversation 上發表文章,探討 AI 是否會殺光人類。他認為 AI 是一個複雜的主題,並強調人們對不熟悉的東西容易感到害怕。然而他認為在 AI 的議題中存在商業利益來製造恐懼,且將 AI 描述成存在超越人類的威脅是與 17 世紀哲學有更多相似之處。

AI 的威脅:真相還是恐慌宣傳?

最近,有一封公開信又再次引起 AI 威脅人類的議論。該信是由非營利組織 AI Safety 中心發布,其中包括 Google DeepMind、OpenAI 和 Anthropic 的執行長等行業領袖的簽名。在這個議題上,我們需要持有懷疑的態度。因為在仔細檢查後,我們會發現在 AI 領域生產恐懼有商業激勵因素,並在 AI 被描述為人類滅絕的威脅時,這更多地表現出 17 世紀哲學的特點,而非現代電腦科學的特點。

當 ChatGPT 於去年底發布時,人們雀躍、娛樂且恐懼。但 ChatGPT 不是研究上的突破,它只是一個產物。ChatGPT 的基礎技術已經幾年前就問世了。它的相同能力早在 2020 年就是在它的核心模型 GPT-3 的早期版本中就已存在。當時我和許多人撰寫了論文,討論 GPT-3 及類似模型的能力和缺點,世界依然與往常一樣。但現在 ChatGPT 對社會產生了巨大的影響。問題出在哪裡?今年 3 月,微軟研究人員發表了一篇研究,聲稱 GPT-4 體現了「人工通用智慧的啟示」。通用智慧是一種多樣化的競爭性定義,但為了簡單起見,可以理解為擁有人類水平智慧的 AI。有些人立即解讀微軟研究結果表示 GPT-4 就是 AGI。以我所熟悉的 AGI 定義來看,這當然是不正確的。然而這增加了炒作和轟動的氛圍,很難不陷入恐慌。科學家和一般人一樣沒有避免盲從的特權。就在該研究提交的那一天,The Future of Life Institute 發表了一封公開信,呼籲暫停訓練比 GPT-4 更強大的 AI 模型,以便讓所有人體會,計畫未來。其中一些簽署人對 AGI 構成存在人類滅絕的威脅表示擔憂,並認為 ChatGPT 與 AGI 太接近了,令人不安。不久之後,著名的 AI 安全研究人員 Eliezer Yudkowsky 更進一步。他聲稱我們正在建立一個「超級智慧 AI」的路途上,「顯而易見的事情」是「地球上的每個人都會死亡」。他甚至建議,各國需要冒著核戰爭的風險,來落實跨國 AI 監管的合規性。

對 AI 威脅的看法

AI 安全研究的一個方面是解決 AGI 可能帶來的潛在危險。這是一個難以研究的主題,因為人們對智慧是什麼以及它如何執行還存在著很少的共識,更不用說對超級智慧可能涉及的任何事都缺少共識。因此研究人員不得不依賴於猜測和哲學論證以及證據和數學證實。但是有兩個原因讓我對 ChatGPT 及其產物並不擔心。首先它甚至接近不了可能對人類構成威脅的人工超級智慧。支撐它的模型是學習緩慢的,需要龐大的資料量才能構建出人類可以從幾個示例中制定的多功能概念。從這個角度來看,它並不「聰明」。其次許多更具災難性的 AGI 場景依賴我認為不太可能發生的前提條件。例如,似乎存在一種普遍的(但無聲)假設,即足夠的智慧等於無限的現實世界權力。如果這是真的,那麼更多的科學家就會成為億萬富翁了。人類理解中的認識是作為物理環境(包括我們的身體)的一部分而發生的,並且這個環境會施加約束。將 AI 描述為與硬體無關的「軟體思維」理所當然地與 17 世紀的二元論思想(即心靈和身體是可分割的)有較多的相似之處,而不是與現代關於思想作為物理世界一部分存在的理論的特點相似。

恐懼宣傳中商業利益的角色

在 AI 的議題中,恐懼宣傳中存在著商業利益,這是作者關注到的另一個問題。在許多呼籲 AI 監管的顯要人物中,許多人在 AI 公司工作或有聯絡。這項技術很有用,涉及到金錢和權力——因此煽動恐慌就是一個機會。ChatGPT 的製造商幾乎分享了所有相關研究,讓其競爭對手可以複製這個產品,並很快會有自由和開源的替代品湧入市場。Google 一份標題為「我們沒有堡壘,OpenAI 也是一樣」的報告中清楚地指出了這一點。Meta 的 AI 研究負責人 Yann LeCun 表示這些模型應該開放,因為它們將成為公共基礎設施。他和許多其他人不相信 AGI 與滅絕人類的末日威脅。值得注意的是,在美國總統喬·拜登近期與 Google DeepMind 和 OpenAI 的領導團隊會面時徵詢 Meta 的意見,但是 Meta 被排除在峰會之外。然而 Meta 幾乎肯定是 AI 研究的領先者,其生產了 OpenAI 用來製作 GPT-3 的機器學習框

AI (人工智慧)-人工智慧,殺光人類,恐懼宣傳,真相,複雜
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。