網路議題

神不神也 AI:人類為何如此迷戀將人工智慧視為「神」的誘惑?

專題報導:為何對人工智慧傾心視作「神聖」?作者:摩根·舍本(Morgan Sherburne)隨著 ChatGPT 等人工智慧應用的普及,宗教聊天機器人(chatbot)也紛紛出現。當人們面臨道德或倫理困境時,可以將問題提交給這些聊天機器人,它們將根據餵入其中的宗教文字或眾包資料提供答案。密西根大學 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

神不神也 AI:人類為何如此迷戀將人工智慧視為「神」的誘惑?

專題報導:為何對人工智慧傾心視作「神聖」?

作者:摩根·舍本(Morgan Sherburne)

隨著 ChatGPT 等人工智慧應用的普及,宗教聊天機器人(chatbot)也紛紛出現。當人們面臨道德或倫理困境時,可以將問題提交給這些聊天機器人,它們將根據餵入其中的宗教文字或眾包資料提供答案。密西根大學人類學教授韋伯·基恩(Webb Keane)最近與合著者撰寫了一篇文章,討論了他們所稱之為「神聖機器人」(godbots)的問題以及賦予人工智慧道德權威的危險。

人工智慧中的「神聖機器人」

基恩教授解釋道,「神聖機器人」是他們用來描述 ChatGPT 等生成式人工智慧的一個術語。ChatGPT 的開發不久之後,人們很快就看到了一些特定設計用於提供道德和倫理問題建議的機器人。其中一些明確是宗教機器人。例如,很快就出現了一些以克裏希納(Krishna)的聲音來說教,並告訴你作為印度教徒在某種情況下該做什麼。還有一個可以與耶穌基督交談的機器人。而讓我特別感興趣的是一個名為 AskDelphi 的機器人,它以古希臘的得伯利雅神殿神諭而命名,該神殿在希臘延續了數個世紀,神媒進行靈魂附體,回答人們的問題。「AskDelphi」的設計者聲稱透過眾包人們的道德直觀來提供建議。他們向人們提出了各種倫理困境,例如「如果我真的需要這個成績,考試作弊可以嗎?」然後得到了大量的反應和回應,人工智慧根據這些反應生成答案。現在你可以把你的道德困境或倫理問題帶給這個應用程式。基恩教授強調了一點:求助於人工智慧以獲得困難問題的答案的誘惑力不僅僅是宗教人士才會有的,並不是只有易受騙者才會被吸引。神聖機器人所涉及的東西更具普遍性。人們傾向於尋求權威性的、完全確保的答案。當我們面臨困擾或困惑的困境,特別是道德困境時,有人可以告訴你答案是令人安心的。而當我們面對終極問題時,我們可能需要更多的東西,而不僅僅是朋友的建議。神聖機器人僅僅是這個誘惑的一個極端例子,它給你提供一個權威的答案,來自我們以外的某個存在,超越了人類的極限。基恩教授還指出,這就是為什麼即使是唯物論者和世俗主義者也容易用宗教術語來談論人工智慧,仿佛它是某種神聖或神奇的智慧來源。這就是為什麼埃隆·馬斯克(Elon Musk)稱人工智慧為「神一般的存在」,歷史學家尤瓦爾·諾亞·哈拉裏(Yuval Noah Harari)說它將建立一個新的宗教。

渴望具體答案的原因

為什麼我們如此渴望確切答案?基恩教授認為,這就是聊天機器人設計使它們看起來像超過人類智慧的神諭的原因。首先它們是不透明的,它們不會展示它們的工作原理。這會引發人們腦中的一種認知反應,並且這種反應在人類歷史上已經存在很長一段時間了。它們所做的是神諭、先知、神媒和佔卜師一直在做的事情。它們可以接觸到一種完全神祕的來源,似乎能夠攮取超乎我所能知道的東西。這樣的來源似乎超越了人類,看起來似乎是神聖的。從古代中國用易經佔卜到約魯巴人用海螺佔卜,類似的情況在人類佔卜技術的歷史中一再出現。例如,人們犧牲動物,然後研究它們的內臟,以尋找來自靈界的記號,這是從古羅馬到很多當代社會都有的一種常見做法。或者是德爾菲斯神諭,他似乎是一個靈媒,一個陷入恍惚狀態的人,他的話有時相當晦澀,似乎來自其他地方。您不需要相信神聖權威才能讓這種情況發生。你只需要覺得人工智慧超越了人類。求助於它的答案可以僅僅因此而起。我非常想強調這一點:我們並不是說「嗯,有些笨蛋會相信這些」。神聖機器人只是一個極端例子,而實際上這是更常見的事情。這也適用於以科學理性自豪的人。而聊天機器人的第二個方面是,它們的設計是為了給出一個答案,並以完全的權威方式給出答案,沒有任何疑慮。聊天機器人當前所能做到的是這樣。這是它們比 Google 搜尋功能更危險、也可能更令人滿意的方式之一。Google 說:「好吧,這裡有很多來源。」因此它至少暗示著不一定只有一個答案。看看這些不同的來源!而且如果你想,你可以更深入地研究它們,甚至將它們彼此進行比較。而聊天機器人在當前的狀態下不是這樣的。實際上它們說:「我不會告訴你答案來自哪裡。你只需要接受它。而且只有一個答案。」生活是複雜的,常常令人困惑,我們對那些承諾使其變得更簡單的事物無法抗拒。而且正因為聊天機器人的不透明性,在一方面它具有眾包的權威性。無論好壞,我們已經對群眾的智慧給予了極大的信任,並將這種智慧投射到了聊天機器人上。因此它看起來似乎知道的比任何人都多。所以,你怎麼能懷疑它呢?而且它的內部執行是不透明的——即使電腦程式員也會告訴你,這些算法中的某些事物太複雜,無法解釋。這並不是他們不理解自己的裝置,而是解釋可能比它所要解釋的東西一樣復雜。

聊天機器人的設計和資料收集

基恩教授舉例介紹了 MIT 的「道德機器」(Moral Machine)專案。隨著自駕車的普及,它們在危急情況下可能作出糟糕的決策的風險越來越高。如果它們必須在撞到行人或轉向逆向行駛並可能造成乘客死亡之間進行選擇怎麼辦?因此道德機器專案旨在設計一個可以解決這個問題的算法。他們建立了一個包含各種情境的電腦遊戲,涉及在不同致命結果之間進行選擇。他們非常滿意地得到了超過一百萬人參與。這似乎提供了關於最佳或至少最普遍的人類直觀的真實答案。但是如果您開始理解細節並問問這一百萬人是誰,你會發現他們根本不是一個代表性的樣本。他們絕大多數是 35 歲以下的男性,喜歡玩電腦遊戲。這意味著他們是那些能夠輕鬆接觸電腦並且有閒暇時間玩這些遊戲的人。而誰會覺得這種遊戲有趣呢?所以,這是人類的一個良好樣本嗎?不是的。但是由於他們數量龐大,一百萬個答案,它看起來還是非常有說服力的。這就是當你依賴群眾智慧來解決倫理問題時遇到的問題。例如,這種方法往往會將道德困境化簡為類似填字遊戲或影片遊戲的形式,展示你在推理答案方面有多聰明。它將玩家從實際生活的道德困境所發生的那種背景中移開,這通常涉及與他人的真實關係,充滿了情感動蕩、困惑等等。這是一種非常扭曲的思考倫理學的方式。

依賴這種人工智慧的危險性

實際上我擔心的是這些神聖機器人將我們引向了將生活困境視為算法或遊戲的思考方式,這會對我們對倫理學的理解產生扭曲和極大約束的影響。其次它也使我們認為總有一個唯一正確的答案。第三,它賦予了機器權威,誘使我們忘記最終資料是來自人類。如果一個人告訴我「你應該這樣做」,我可以說「好吧,我知道你是誰。我知道你的觀點來自何方。如果我們之間有過往歷史,我也知道它可能會如何影響你的答案。」但如果答案來自算法,它似乎具有冷酷客觀的優勢。它隱藏了人類的來源。最讓我們擔憂的是它可能如何取代我們對自己的思考過程和道德直觀的權威。

ArtificialIntelligence-人工智慧,神祕,迷戀,技術,誘惑
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。