網路議題

人工智慧如何扭曲並挑戰我們的現實:碎片化真相

人工智慧挑戰真相和信任人工智慧技術的弱點當 OpenAI 首次發布 ChatGPT 時,它給我一種「神諭」的感知。這個基於廣泛的資料訓練出的統計預測機器看起來能成為真相的唯一來源,類似華特·克朗凱特晚間告訴美國公眾「這就是事實」時的角色。在當今極度極化、虛假訊息泛濫、真相和社會信任逐步侵蝕的時代,這 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

人工智慧如何扭曲並挑戰我們的現實:碎片化真相

人工智慧挑戰真相和信任

人工智慧技術的弱點

當 OpenAI 首次發布 ChatGPT 時,它給我一種「神諭」的感知。這個基於廣泛的資料訓練出的統計預測機器看起來能成為真相的唯一來源,類似華特·克朗凱特晚間告訴美國公眾「這就是事實」時的角色。在當今極度極化、虛假訊息泛濫、真相和社會信任逐步侵蝕的時代,這樣一個可靠的真相來源將是一大助益。然而這種前景很快被擊碎,因為這項技術的弱點迅速浮出水面,首當其衝的是它容易出現虛構答案。很快就清楚了,儘管生成的輸出結果令人印象深刻,但它們僅僅基於已被訓練的資料中的模式,而非客觀真相。

不同 AI chatbot 的結果差異

不僅如此,隨着 ChatGPT 之後有越來越多來自微軟、Google、騰訊、百度、Snap、SK Telecom、阿裏巴巴、Databricks、Anthropic、Stability Labs 和 Meta 等公司的聊天機器人問世,更多問題浮現出來。這些不同的聊天機器人對於同一個提示提供了截然不同的結果。這取決於模型、訓練資料以及給予模型的防護。這些防護旨在防止這些系統傳播訓練資料中的偏見,生成虛假訊息、仇恨言論和其他有毒素材。然而 ChatGPT 一推出後,很快就有人對 OpenAI 提供的防護不滿意。例如,保守派抱怨這個機器人的答案暴露出明顯的自由派偏見。這促使埃隆·馬斯克宣布他將建立一個比 ChatGPT 更寬鬆、更不政治正確的聊天機器人。據他最近的「xAI」的宣布,他可能確實會這樣做。Anthropic 採取了一種有所不同的方法。他們為他們的 Claude(現在是 Claude 2)聊天機器人制定了一份「憲法」。根據 VentureBeat 報導,這份憲法概述了 Claude 在與使用者互動時必須遵循的一套價值觀和原則,包括有益、無害和誠實。根據該公司的一篇部落格文章,Claude 的憲法包括聯合國人權宣言的思想以及其他納入非西方觀點的原則。或許每個人都可以同意這些原則。

真相和社會的分裂

然而 LLMs 的碎片化可能有些努力是徒勞的。紐約時報報導的一項最新研究揭示了一種有效地突破了這些模型的防護的提示技術,無論是封閉源還是開源。Fortune 報導稱,這種方法幾乎以 100%的成功率對抗了一個名為 Vicuna 的基於 Meta 原始 LlaMA 的開源聊天機器人。這意味著任何想要獲取有關如何製造生物武器或欺詐消費者的詳細說明的人都可以從各種 LLMs 中獲取。雖然開發者可以對抗一些這樣的企圖,但研究人員表示當前沒有任何已知的方法可以防止這類攻擊的發生。除了這項研究明顯的安全問題之外,還存在著無數模型對於同一提示的回答產生截然不同的結果。AI 世界的碎片化,就像我們分裂的社交媒體和新聞世界一樣,對於真相來說是不利的,對於信任來說是具有破壞性的。我們正面臨著一個聊天機器人充斥的未來,這將增加噪音和混亂。真相和社會的分裂對文字訊息不僅有深遠的影響,也適用於快速發展的數位人類表徵的世界。

AI:數位人類的崛起

多模態聊天機器人的應用

隨著 ChatGPT 等模型越來越多地變得多模態,也就是說它們可以生成影象、影片和音訊,它們的應用和效果將會不斷增強。其中一個可能的應用案例可以在「數位人類」中看到,這些完全合成的創作物。哈佛商業評論最近報導了使數位人類成為可能的技術:「計算機圖形學的迅速進步,加上人工智慧(AI)的進展,使得聊天機器人和其他基於計算機的介面戴上了人類的面孔。」這些數位人類具備精細的特徵,可以準確複制真實人類的外觀。根據新創企業 ZEGOCLOUD 的聯合創始人 Kuk Jiang 的說法,這些數位人類是「高度詳細和逼真的人類模型,能夠克服真實感和複雜性的約束。」他補充說,這些數位人類可以以自然和直觀的方式與真實人類互動,「可以高效地協助和支援虛擬客戶服務、醫療保健和遠端教育等場景。」

數位人類新聞主播

一個新興的應用案例是新聞主播。早期的應用已經開始進行。科威特新聞已經開始使用一位名叫「Fedha」的數位人類新聞主播(這是科威特一個流行的名字)。她自我介紹道:“我是 Fedha。你喜歡哪種新聞?讓我聽聽你的意見。”透過提問,Fedha 引出了定制給個人興趣的新聞摘要的可能性。中國人民日報也在對 AI 驅動的新聞主播進行實驗。當前新創公司 Channel 1 計劃使用 gen AI 來建立一種新型的影片新聞頻道,被《好萊塢報道》形容為由 AI 生成的 CNN。據報道,Channel 1 將在今年推出一個每週 30 分鐘的節目,劇本是使用 LLMs 開發的。他們的目標是為每個使用者量身定制新聞廣播。文章指出:“甚至還有自由派和保守派的主持人可以透過更具特定觀點的過濾器傳遞新聞。” Channel 1 的聯合創始人斯科特·扎貝爾斯基承認,當前數位人類新聞主播的外觀不像真實的人類那樣。他補充說,這需要一段時間,可能需要長達 3 年的時間,才能實現技術的無縫性。他說:“到那時候,你絕對無法分辨 AI 和真實人類的區別。”

對真實性的擔憂

科學美國人報去年報導的一項研究發現,“合成的面孔不僅非常逼真,而且被認為比真實的面孔更值得信賴,”這是該研究的聯合作者、加州大學伯克利分校的教授哈尼·法裏德說的。他表示:“這一結果引發了對‘這些面孔可能在惡意用途中極其有效’的擔憂。”並沒有任何跡象表明 Channel 1 將利用個性化新聞影片和合成面孔的說服力從事不擇手段的活動。不過技術正不斷進步,到了一些可能不那麼道德的人可能開始這樣做的地步。作為社會,我們已經擔心我們閱讀的內容可能是虛假訊息,我們在電話中聽到的可能是仿冒的聲音,而我們看到的照片可能是假的。很快甚至連聲稱是晚間新聞的影片內容都可能包含旨在更有效地影響觀眾意見的訊息。真相和信任已經受到長時間的攻擊,而這一發展表明這種趨勢將繼續下去。我們還遠遠離得到華特·克朗凱特的晚間新聞的時代。

ArtificialIntelligence-人工智慧,扭曲現實,挑戰真相,碎片化

程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。