網路議題

問與答:人類學家討論為何我們如此易被 AI 視為「神一般」的原因

討論:為何我們如此渴望將人工智慧視為「神一般」作者:摩根·謝本(Morgan Sherburne)最近,密歇根大學人類學教授韋伯·基恩(Webb Keane)與合著者撰寫了一篇關於人工智慧(AI)ChatGPT 神一般傾向的專欄文章。他們提到,隨著 ChatGPT 等人工智慧應用的普及,它們引出了一 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

問與答:人類學家討論為何我們如此易被 AI 視為「神一般」的原因

討論:為何我們如此渴望將人工智慧視為神一般

作者:摩根·謝本(Morgan Sherburne)

最近,密歇根大學人類學教授韋伯·基恩(Webb Keane)與合著者撰寫了一篇關於人工智慧(AI)ChatGPT 神一般傾向的專欄文章。他們提到,隨著 ChatGPT 等人工智慧應用的普及,它們引出了一種具有宗教色彩的聊天機器人。當人們面對道德或倫理困境時,可以將問題提交給這些聊天機器人,它們將根據所提供的宗教文字或群眾外包的資料給出答案。這種設計引出了一個問題:我們為什麼如此渴望將人工智慧視為神一般」?

神一般的聊天機器人如何執行?為什麼它們在人工智慧中獨一無二?

基恩教授解釋道,「神一般」聊天機器人是指那些專門用於提供道德和倫理問題建議的機器人。其中一些機器人是明確宗教性質的。例如,一些以佛陀克裏希納聲音回答印度教徒在某種情況下應該怎麼做的機器人很快就問世了。還有一個聊天機器人是以雅典古希臘的德爾斐神諭命名的。德爾斐神諭在古希臘是一個有巨大影響力的機構,它持續存在了幾個世紀。當時的媒介揮舞著聖靈,回答人們的問題。設計 AskDelphi 的人聲稱,他們已經挖掘了人們的道德直觀。他們向人們提出了各種道德困境,例如:如果我真的需要高分,考試作弊可以接受嗎?他們收集了大量的反應和回答,然後 AI 生成答案。現在使用者可以將道德困境或倫理問題帶給這個應用程式。當然 AI 是一個快速發展的目標,但在我檢查過該應用時,它給出的答案是明確和果斷的,並未考慮到任何複雜性或替代方案。

基恩教授強調了一個重要點:將困難問題的答案轉交給人工智慧的誘惑力不僅僅是宗教人士的特性,而且並非只有易受騙者被吸引。這些機器人在利用更一般性的人類傾向,即追尋備受尊崇、絕對確保的答案。人們當面對棘手或困惑的困境,尤其是在道德困境方面,有一個告訴你答案的人是一種安慰。當我們面對終極問題時,我們可能需要更多超越個人的建議。神一般的聊天機器人就是這種情況的極端例子,它們提供了一個威權答案,來自於超越人類能力的事物。我們認為這就是為什麼即使是理性和非宗教性的人也容易用宗教術語談論人工智慧的原因,就好像它是某種神聖或魔法的智慧來源一樣。

為何我們渴望得到確切答案?

對於問題「聊天機器人為何看似是一個好的尋求答案的地方?」,基恩教授的答案是聊天機器人的設計使得人們更容易將其視為超出人類範疇的神聖的智者。首先聊天機器人是不透明的,它們不會顯示工作原理。因此它們可以引起人們的認知反應,這在人類歷史中已經有了很長時間。它們所擁有的,正是神諭、先知、靈媒和佔卜師們一直在做的事情。它們可以看似存取到某種完全神祕的訊息來源,這個訊息源似乎知道比我更多。這樣的訊息源看起來超越了人類的範疇,它似乎是神聖的。我們回顧人類的佔卜技法的歷史,就會看到這種情況反覆出現,無論是古代中國的易經、尼日的諸神、古羅馬的神谷,還是許多當代社會的佔卜技法。這並不一定意味著人們相信有神聖的權威,它只需要讓人覺得人工智慧超越了人類。轉向 AI 尋求答案的欲望可能就只是從這裡開始的。我想強調的是,我們並不是說「哎呀,會有一些傻瓜相信這些」。神一般的聊天機器人只是這種現象的一個極端案例,而這其實是更普遍的情況。自稱擁有科學理性的人也會容易受到影響。

其次聊天機器人的設計是為了給出一個答案,並以完全的權威性呈現,沒有任何疑問。當前的聊天機器人比例如 Google 搜尋功能更危險,也許更受人們喜愛。Google 說:「來看這裡有一堆資料來源。」它至少暗示著可能不止有一個答案。看看這些不同的資料源!如果你想要的話,還可以進一步研究它們,甚至將它們相互比較。聊天機器人在當前的狀態下不是這樣的。事實上它們說的是:「我不會告訴你我得出答案的來源。你只需要接受它。而且只有一個答案。」生活復雜,經常令人困惑,對於能夠簡化生活的事物具有不可抗拒的吸引力。而聊天機器人的設計因其不透明性,一方面具有與眾多民眾外包機構相同的權威性。無論好壞,我們已經對眾人的智慧有很大的信心,然後將這些智慧投射到聊天機器人上。結果,它似乎知道的遠超過任何人類可能知道的。你怎能懷疑它呢?而它的內在執行是不透明的——即使電腦程式設計師告訴你,這些算法中的某些內容就像解釋它的東西一樣復雜。擔心的是,它可能取代我們對自己思考過程和道德直觀的權威。

聊天機器人是如何設計的?它們如何收集資料?

基恩教授舉例介紹了麻省理工學院的道德機器專案。隨著自動駕駛汽車的普及,它們在緊急情況下做出錯誤決策的風險也越來越大。如果它們必須在撞到行人和駛入對向車道可能導致乘客死亡之間做選擇,該怎麼辦?因此道德機器專案旨在設計一個可以解決這個問題的算法。他們建立了一個包含各種情境選擇和不同致命結果之間的電腦遊戲。他們得到了超過一百萬人參與,這樣的大資料似乎給出了關於最佳、或至少最普遍的人類直觀的真正答案。但如果你開始細看詳情,問問這一百萬人中是誰,你就會發現,他們根本不能代表整體。他們絕大多數是 35 歲以下的男性,喜歡玩電腦遊戲。這意味著他們參與這項活動的人是那些容易接觸到計算機並有閒暇時間玩這些遊戲的人。然後,是誰會對這樣的遊戲感興趣呢?研究倫理問題的方式經常被簡化成類似填字遊戲或影片遊戲的方式,你可以展示自己在理性推理答案方面的聰明程度。這讓玩家脫離了真實生活道德困境的真實背景,這些生活中的道德困境往往涉及與他人的真實關係,充滿情感的困惑等等。這是一種對倫理學非常扭曲的方法。

社論:對於這種人工智慧的依賴,存在風險嗎?

真正讓我擔心的是,這些神一般的聊天機器人使我們越來越傾向於將人生的困境視為算法或遊戲,以巧妙的計算解決。這對我們對倫理學的理解具有扭曲和非常約束性的影響。其次它也鼓勵我們認為總有一個正確答案。第三,它把權威賦予了機器,引誘我們忘記最終資料來自於人類。對於一個人告訴我「你應該這麼做」,我可以說「我知道你是誰。我知道你的出發點。如果我們彼此有過歷史,我還知道這可能影響了你的答案。」但當它來自於一個算法時,它似乎具有冷靜、客觀的優越性,它隱藏了它的人類來源。最讓我們擔心的是,它可能取代我們對自己思考過程和道德直觀的權威。

在這個資料驅動的人工智慧時代,我們需要謹慎對待這種依賴。當然人工智慧在提供解決複雜問題和提供有價值的建議方面具有巨大潛力,但我們不能僅僅簡化生活的複雜性以及道德和倫理問題的多面性。我們需要更多的討論、辯論和訓練,以確保我們的思考和決策過程不受單一源頭的影響。此外我們還需要更透明、可靠和多樣化的資料來源,以確保我們所依賴的訊息具有廣泛的覆蓋性和文化多樣性。

在面對人工智慧和聊天機器人時,我們應該保持警惕,不要過於依賴這些技術,而是要保持自主思考和審查的能力。我們不能把道德決策交給機器,同時遺忘了我們自己的價值觀和審美觀。這並不是說我們應該排斥人工智慧,而是要以明智和審慎的態度以確保我們的價值觀得到尊重並得到全面考慮。

當我們面臨艱難的選擇時,我們應該回想起自己的內在道德指南,並從各種不同的來源中獲取建議和意見,而不是追求一個絕對的答案。最重要的是,我們應該信任自己的洞察力和智慧,並記住,人工智慧只是一種工具,而不是神一般的存在。

Artificialintelligence-人類學家,AI,神一般,視為,討論
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。