網路議題

可以信任人工智慧嗎?這就是為什麼你不該信任的原因

專題報導:你能相信人工智慧嗎?為何你不應該完全信任作者:布魯斯·斯奈爾(Bruce Schneier)和內森·桑德斯(Nathan Sanders)編者註:本文經過科學網(Science X)的編輯流程和政策審查。編輯們強調以下的特點,確保內容的可信度:經事實核實、由研究者撰寫、經校對。如果你問亞馬 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

可以信任人工智慧嗎?這就是為什麼你不該信任的原因

專題報導:你能相信人工智慧嗎?為何你不應該完全信任

作者:布魯斯·斯奈爾(Bruce Schneier)和內森·桑德斯(Nathan Sanders)

編者註:本文經過科學網(Science X)的編輯流程和政策審查。編輯們強調以下的特點,確保內容的可信度:經事實核實、由研究者撰寫、經校對。

如果你問亞馬遜的語音助手 AI 系統 Alexa,亞馬遜是否壟斷市場,它會回答說自己不知道。它不需要花太多力氣就會抨擊其他科技巨頭,但對於自己的母公司不當行為,它卻保持沉默。當 Alexa 以這種方式回應時,很明顯它把開發者的利益置於你的利益之上。然而通常情況下,人們無法明確知道一個 AI 系統為誰服務。

為了避免被這些系統利用,人們需要學會懷疑地接觸人工智慧。這意味著故意構造你給予它的輸入,並對它的輸出進行批判性思考。隨著新一代的人工智慧模型的出現,它們更為複雜和不拘一格的回應讓人難以分辨誰在進行時獲益。

網際網路公司為了自身利益而操縱你所看到的內容已經不算是什麼新鮮事。Google 的搜尋結果和你的 Facebook 動態訊息都充滿了付費廣告。Facebook、TikTok 和其他平臺透過操縱你的動態訊息來增加你在平臺上花費的時間,這也意味著更多的廣告曝光次數,但卻忽略了你的福祉。

人工智慧系統與其他網際網路服務的區別在於它們的互動性以及這些互動將越來越像人類之間的關係。我們不需要對現有的生成式人工智慧(如 ChatGPT)進行太多推斷,就能想像到未來的 AI 會為你規劃旅行、代表你進行談判,甚至作為你的心理治療師和生活指導。它們有可能每時每刻陪伴在你身邊,熟悉你的一切,並能預測你的需求。透過與網路上的各種服務和資源進行對話的方式,已經對現有的生成式人工智慧模型而言是完全可行的,它們正朝著個人化數位助手的方向發展。

作為一位安全專家和資料科學家,我們認為那些依賴這些人工智慧系統的人們將不得不絕對信任它們以應對日常生活。這意味著他們需要確信在這些 AI 背後沒有祕密的勢力在操作。在網路上,已經有許多裝置和服務在表面上看似能幫助你,但實際上卻在暗中對你進行操控。智慧電視會監視你,手機應用程式會收集和出售你的資料。許多應用程式和網站透過“黑暗模式”操縱你,即故意透過設計元素欺騙、脅迫或誤導網站訪客。這種情況是監控資本主義的表現,而人工智慧正在演變成其中的一部分。

人工智慧在監控資本主義中扮演了一個角色,這意味著透過對你進行監視來賺取金錢。現在很可能 AI 會帶來更加悲慘的結果。為了使那些 AI 數位助手真正有用,它們就必須真正認識你,比你的手機、Google 搜尋甚至你的親密朋友、伴侶和心理治療師更理解你。然而你沒有理由相信當前領先的生成式人工智慧工具。撇開 GPT 和其他大型語言模型製造的幻覺和捏造的“事實”不談,我們預計在未來幾年,隨著技術的進步,這些問題將大大減少。但你不知道 AI 被配置為如何工作:它們經過了怎樣的訓練,給它們了什麼訊息以及它們被指示遵從什麼指令。例如,研究人員揭示了掌控微軟必應(Microsoft Bing)聊天機器人行為的祕密規則。它們大致上是無害的,但隨時可能改變。

這些 AI 中的許多都是由一些最大的科技壟斷企業以巨大的成本建立和訓練的。它們被免費或者以非常低廉的價格提供給使用者使用。這些公司將需要用某種方式來獲取利潤。就像網際網路的其他部分一樣,監視和操控很可能會成為其中的一部分。歐洲聯盟正在推進 AI 監管。想像一下向你的聊天機器人請求計劃你的下一次假期。它選擇了某家航空公司、酒店連鎖店或餐廳,是因為它對你最好還是因為它的製造商從這些企業中獲得了返利?就像 Google 搜尋中的付費結果、Facebook 的新聞動態廣告和亞馬遜搜尋中的付費推薦一樣,這些付費影響很可能會變得更加隱蔽。如果你向聊天機器人尋求政治訊息,搜尋結果會不會受到擁有該聊天機器人的企業的政治觀點的影響?又或者是支付給它最多錢的候選人的觀點?甚至是那些在訓練模型中使用的人口統計訊息的觀點?你的 AI 助手是否暗中代表著其他勢力?當前你無從得知。

信任法律對 AI 的要求

我們認為人們應該對這項技術有更高的期望,科技公司和人工智慧可以變得更加可信賴。歐洲聯盟提出的《人工智慧法》採取了一些重要步驟,要求對用於訓練 AI 模型的資料進行透明化,減輕可能存在的偏見,披露可預見的風險並報告業界標準測試。當前大多數現有的 AI 都未能遵守這一新興的歐洲規定,而在監管方面,美國的進展遠遠落後。

未來的 AI 應該是可信賴的。除非政府對 AI 產品提供堅實的消費者保護措施,否則人們將只能猜測 AI 的潛在風險和偏見以及減輕其對人們體驗的最壞影響。因此當你從 AI 工具獲得旅行建議或政治訊息時,請以與對待廣告牌廣告或競選志願者一樣懷疑的眼光對待它。儘管具備了高度的技術驚奇,但 AI 工具可能只是虛有其表。

本文轉載自 The Conversation,根據創作共用許可重新釋出。 感謝 Pixabay 在公眾領域提供的圖片素材。

AITrust-人工智慧,信任,原因
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。