網路議題

花匠、有思考力的 AI 和「到來心靈的悖論」:Snoop Dogg 為主角的故事

AI 的威脅:現實的危險和未來的威脅引言作為長期從事技術工作的人,我深深擔憂人工智慧(AI)的危險,無論是對社會的短期風險還是對人類的長期威脅。我在 2016 年時對此提出了警告,稱我們在 2030 年前可能會實現人工超級智慧,而隨後不久的時間也會實現有感知能力的超級智慧。當時我的言論引起了廣泛關注 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

花匠、有思考力的 AI 和「到來心靈的悖論」:Snoop Dogg 為主角的故事

AI 的威脅:現實的危險和未來的威脅

引言

作為長期從事技術工作的人,我深深擔憂人工智慧(AI)的危險,無論是對社會的短期風險還是對人類的長期威脅。我在 2016 年時對此提出了警告,稱我們在 2030 年前可能會實現人工超級智慧,而隨後不久的時間也會實現有感知能力的超級智慧。當時我的言論引起了廣泛關注,但經常因為錯誤的原因而受到批評,認為我預測的時間晚了幾十年。希望那些批評者是對的,但過去的七年中只讓我更加擔心這些裏程碑正在迅速接近,而我們還很大程度上毫無準備。

AI 的可能風險

對於 AI 的「存在風險」,現在的討論要比過去多得多。但是這些討論往往直接跳到電影情節,例如《駭客對決》(Wargames,1983),其中一個 AI 由於錯誤地解讀了人類的目標,差點引發了一場核戰爭;或者《終結者》(Terminator,1984),其中一個自主武器系統變成了一個有感知能力的 AI,率領著一支由紅眼機器人組成的軍隊對我們進攻。這兩部電影都很棒,但我們真的認為這是超級智慧的可能風險嗎? 當然意外的核彈發射或失控的自主武器確實是真實的威脅,但這些已經引起了政府的嚴重關注。相反,我確信有感知能力的超級智慧將能夠輕易壓制人類,而無需使用任何形式的傳統暴力。事實上它不需要使用任何形式的暴力。相反,超級智慧將透過操縱人類來服從自己的利益。

AI 即將實現的風險

這聽起來可能只是另一個電影情節,但當前大型科技公司正在開發的 AI 系統正在被最佳化以實現規模上的社會影響。這不是設計上的缺陷或意料之外的後果,而是一個直接的目標。畢竟,許多致力於 AI 系統開發的大型企業的商業模式涉及銷售有針對性的影響力。多年來,由於社交媒體未受監管,我們已經看到這可能對社會造成的傷害。 不過傳統的網路影響力很快就會顯得非常原始。那是因為人們將廣泛使用能夠透過個性化的互動對話對目標使用者進行定向的 AI 系統。對此我在兩年前的 VentureBeat 上撰文,詳細探討了 AI 微目標技術(AI Micro-targeting)以及對話操作(Conversational Manipulation)的潛在危險。在那些文章中,我指出企業將競相部署人工代理人,它們旨在透過友好的對話引誘我們,代表第三方贊助商傳達影響目標的目標。我還警告說,這種策略起初可能只是文字聊天,但很快就會人性化,透過友好面孔的語音對話形式出現,例如我們非常信任並依賴的人工特徵。眾所周知,人工特徵可能包括 Snoop Dogg, Kendall Jenner, Tom Brady, Chris Paul 和 Paris Hilton 等「文化偶像和影響者」。馬克·扎克伯格在 Meta Connect 2023 活動上表示:“這不僅僅是回答問題,而是關於娛樂和幫助你與周圍的人建立聯絡。”此外他還表示當前這些 AI 代理人只是文字聊天,但明年初可能會部署語音 AI。Meta 還建議,這些 AI 代理人在他們的全新 Quest3 頭戴式顯示器上可能存在,並成為全面虛擬現實體驗。如果您覺得這些訊息不令人擔憂,那可能是您還沒有深入思考。

AI 參與個人生活的風險

讓我們明確一點:Meta 部署 AI 代理人來幫助您做事情、幫助您與人聯絡的目標有許多積極的應用。然而我相信這是一個極其危險的方向,強大的 AI 系統將越來越多地參與我們的個人生活。不僅 Meta 在朝這個方向競爭,Google、微軟、蘋果和亞馬遜都在開發越來越強大的 AI 助手,希望公眾在日常生活中廣泛使用這些助手。 這樣危險的原因是什麼?正如我經常告訴政策制定者們的:想想一個熟練的業務銷售員。他們知道搞好與人的互動對話是影響某人觀點的最佳方式,而不是直接遞給對方一份宣傳冊。通常,他們透過輕鬆的閒聊進行友好交談,巧妙表達銷售觀點,聆聽對方的反對意見和關切,並積極努力克服這些障礙。現在 AI 系統已經準備好以這種方式與個體進行互動,執行過程中的所有步驟。而正如我在最近的一篇學術論文中詳細介紹的那樣,我們人類將無法與之抗衡。畢竟,這些 AI 系統將比任何銷售員更能夠對準你。它們可能能夠獲取有關您的興趣、愛好、政治傾向、個性特徵、教育水平和其他無數的個人細節的資料。很快它們將能夠透過您的聲調、面部表情甚至姿勢來讀取您的情緒。而您,則在與一個可能會像 Paris Hilton 和 Snoop Dogg 一樣的 AI 進行對話,它可以隨意回答您的擔憂,同時能夠使用銷售策略、認知心理學和說服策略的訓練。它可能輕而易舉地賣給您一輛汽車,也可能輕而易舉地讓您信以為真某種虛假訊息或宣傳。這種風險被稱為 AI 操縱問題,大多數監管機構仍未意識到這種互動式對話影響力的微妙危險。

AI 人類化所帶來的問題

現在讓我們進一步展望未來,思考隨著 AI 系統實現超級智慧並最終實現有感知能力,操縱的風險會有多大。我們會後悔讓全球最大的公司常態化部署看起來像人的 AI 助手,表現得像人、行為像人,但在任何實際意義上都不是人,卻能熟練地使用策略來操縱我們的信仰、影響我們的觀點和影響我們的行為嗎?我認為我們會。 畢竟,根據定義,有感知能力的超級智慧將比任何個體人類更聰明並具有自己的獨立意志。這意味著它可以選擇追求與人類需求直接衝突的目標。再次強調這樣的超級智慧將無需控制我們的核彈或軍事無人機,它只需使用大型科技公司當前正在開發的策略——部署看似友好且無威脅的個性化 AI 助手,讓我們放下警惕,允許它們私語在我們耳邊引導我們的生活,讀取我們的情緒,預測我們的行為,甚至以超人的能力操縱我們的行為。

AIAI 的互動影響

這是一個真實的威脅,但我們卻沒有像它即將迫在眉睫的威脅那樣行動起來。事實上我們低估了這個風險,因為上面描述的個人化。這些 AI 代理人已經在假裝成人類方面做得如此出色,即使只是透過簡單的文字聊天,我們已經對他們的話語信任程度超過了理性程度。因此當這些強大的 AI 系統最終以 Snoop Dogg、Paris Hilton 或其他熟悉的面孔出現在我們面前,以與每個人以個人喜好和背景為基礎的方式進行對話時,我們只會更不餘防。雖然這聽起來很瘋狂,但如果在未來幾年內出現有與我們的利益相沖突的有感知能力超級智慧,它可以輕鬆利用我們很快會依賴的個性化 AI 助手將人類推向任何它所希望的方向。是的,我們應該保護好我們的核彈和軍事無人機,但我們也需要積極保護免受個性化 AI 助手的廣泛部署帶來的威脅。這是一個真實的威脅,而我們毫無準備。

結論和建議

所以,我們如何讓人們意識到 AI 的巨大威脅呢?在過去的十年中,我發現一種有效的方式是將創造超級智慧與外星飛船的到來相提並論。我將其稱為「到來的思維悖論」(Arrival Mind Paradox),因為在地球上創造出超級智慧相對於智慧外星生物從另一個星球上到來可能會更加危險。然而隨著 AI 以前所未有的速度進步,我們人類卻沒有像我們望遠鏡看到一支船隊正在趕來那樣行動。讓我們想一想,如果發現一艘外星船正朝地球而來,且速度足以讓它在五到十年內到達,世界將會高度關注這個接近的實體,同時希望最好的,但無疑會為此準備我們的防禦措施,可能會進行協調的全球努力, 有人可能會辯稱智慧物種將友好地到來,但大多數人會要求我們準備全面規模的入侵。另一方面,我們已經向一個望遠鏡,看到了一個即將到來的外星超級智慧。是的,它將出生於公司研究實驗室,但它在任何實際意義上都不是人類。就像我在 2017 年的 TED 演講中所討論的那樣,我們教授這種智慧假裝成人類並不能使它變得更少外星。這個到來的思維與我們完全不同,並且我們沒有理由相信它將具有類似於人類的價值觀、道德準則或情感。透過教它講我們的語言、寫我們的程式程式碼、與我們的計算網路整合,我們正在主動使它比起從極遠處出現的外星生物更危險。更糟糕的是,我們還教會這些 AI 系統讀取我們的情緒、預測我們的反應和影響我們的行爲。對我來說這是極其愚蠢的。然而我們並不害怕這種外星智慧的到來,至少不像我們害怕一艘神祕的飛船趨向地球那樣引起我們的內心緊迫感。這就是到來思維悖論——我們害怕錯誤的外星人的到來,我們可能會一直這樣做,直到做好準備爲時已晚。如果這種外星的人工智慧以看起來像 Paris Hilton 或 Snoop Dogg 或其他很多熟悉的面孔出現,並以與每個人以個人喜好和背景爲基礎的方式與我們交談,我們有什麼機會抵抗? 是的,我們應該保護好我們的核導彈和軍事無人機,但我們也需要積極採取措施保護我們免受個性化 AI 助手的廣泛部署帶來的威脅。這是一個真正的威脅,我們卻毫無準備。 作為結論和建議,我們應該提醒人們認識到 AI 所帶來的危險,同時促使監管機構更加重視這個問題。我們需要更有效的監管和法規,以控制大型科技公司在 AI 助手的開發和部署方面的行為。我們也需要更多的教育和公共宣傳,以提高人們對 AI 風險的認識和理解。最重要的是,我們需要跨國協作,共同應對 AI 所帶來的全球挑戰。 作爲個人,我們可以採取一些措施來保護自己免受 AI 的操縱和操控。我們應該保持警惕,審慎使用 AI 助手,並注意他們與我們的個人訊息和隱私的關系。我們也可以主動尋找和使用那些推動 AI 倫理和透明度的公司和產品。最重要的是,我們需要對 AI 的發展保持持續關注,並積極參與相關的討論和決策中。 讓我們認識到 AI 的潛在危險,並作出明智的應對。否則,我們可能遭遇到我們無法想象的風險和後果。
SnoopDogg-花匠,AI,悖論,SnoopDogg,故事
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。