
評論:為何人類無法相信人工智慧——我們不知道它如何執行,也不確保它是否符合我們的利益
作者:馬克·貝利(Mark Bailey)
人工智慧的不可預測性
信任建立在可預測性之上,它依賴你能夠預測他人行為的能力。如果你相信某人,但他們的行為與你的期望不符,那麼你對他們的信任度就會下降。很多人工智慧系統是建立在深度學習神經網路上的,它在某些方面模擬了人類大腦。這些網路包含了相互存取的「神經元」,這些神經元之間的存取強度由一些引數決定。當一個無知的網路被提供訓練資料時,它會透過調整這些引數來學習如何對資料進行分類。透過這種方式,人工智慧系統學會了對之前沒有見過的資料進行分類。它不會記住每個資料點的內容,而是預測一個資料點可能是什麼。很多最強大的人工智慧系統包含數萬億個引數。正因為如此,人工智慧系統做出決策的原因往往是不透明的。這就是「可解釋性問題」,即人工智慧決策裡無法被理解的黑盒子。
人工智慧不符合人類期望
信任不僅依賴於預測性,還依賴於規範性或倫理上的動機。你通常期望人們不僅按照你的假設行事,而且根據他們應該的行為來行事。人類的價值觀受到共同經驗的影響,道德推理是一個動態的過程,受到倫理標準和他人的觀點的影響。與人類不同,人工智慧不會根據它被他人感知的方式或遵守倫理規範來調整自己的行為。人工智慧對世界的內部表示很大程度上是靜態的,由其訓練資料創立。它的決策過程建立在一個不變的世界模型上,不受不斷影響人類行為的動態、細膩的社會互動的影響。研究人員正在設法將倫理納入人工智慧的程式設計中,但這是一個具有挑戰性的任務。自動駕駛汽車的場景就說明了這個問題。你如何確保汽車的人工智慧做出與人類期望一致的決策?例如,汽車可能會決定撞倒小孩是最佳行動方案,而這是大多數人類駕駛員本能地避免的。這個問題就是「人工智慧對齊問題」,它是另一個構建起對人工智慧懷有信任的不確保性源泉。
關於關鍵系統和對人工智慧的信任
減少不確保性並增加信任的一種方式是確保人們參與到人工智慧決策中。這是美國國防部所採取的方法,他們要求在所有人工智慧決策中,必須有人類身處其中或者對決策過程進行監控。其中「在其中」意味著人工智慧系統提出建議,但必須由人類發起行動。而「對決策過程進行監控」則意味著儘管人工智慧系統可以自主發起行動,但人類監控者可以中斷或改變它的行動。儘管讓人類參與其中是一個很好的第一步,但我並不認為這在長期上具有可持續性。隨著公司和政府繼續採用人工智慧,未來很可能包括巢狀式人工智慧系統,在這種情況下,快速的決策-making 約束了人類介入的機會。在達到人類幹預不可能的臨界點之前解決可解釋性和對齊問題至關重要。到那時,信任人工智慧將成為唯一選擇。避免達到這個臨界點對於人工智慧日益融入關鍵系統,例如電網、網際網路和軍事系統來說格外重要。在人工智慧整合變得越來越複雜的情況下,解決約束可信度的問題變得更加重要。
評論與建議
人工智慧是一個與人類相比具有不透明性的智慧系統。人們在很大程度上能夠預測其他人的行為,因為我們分享相同的人類經驗,但這對人工智慧並不適用,即使是由人類創造的。如果信任的基礎是可預測性和規範性,那麼人工智慧從根本上缺乏使他值得信任的品質。更多的研究有望在這個問題上提供更多的見解,確保未來的人工智慧系統是值得我們信任的。
要解決人們對於人工智慧的信任問題,可解釋性和對齊問題是必須解決的核心問題。科學家和工程師需要努力開發更加透明和可解釋的人工智慧系統,以便人們能夠理解和信任這些系統的執行方式。在設計人工智慧系統時,倫理和價值觀也應該成為重要的考慮因素,使人工智慧能夠符合人類的期望和道德標準。此外政策制定者和監管機構需要對人工智慧的發展進行監督和規範,確保它們的使用符合公眾的期望和利益。
儘管人工智慧可能從根本上缺乏使人們感到信任的能力,但這並不意味著我們應該避免使用它。人工智慧擁有無限的潛力,可以為社會帶來許多好處。然而我們必須謹慎使用它,並確保我們在使用人工智慧時能夠保護人類的利益和價值觀。
延伸閱讀
- 加州新 AI 法案出爐,SB 1047 作者再推出改革措施!
- 《超級瑪利歐成為 AI 基準測試的新標準!你絕對想不到的理由》
- Google 推出 SpeciesNet:專為識別野生動物而設的人工智慧模型!
- 安瑟普提克獲得 35 億美元巨額資金 瞄準人工智慧未來!
- OpenAI 重磅推出 GPT-4.5:歷史上最大的語言模型來了!
- 探索 DeepSeek:你必須理解的 AI 聊天機器人應用全指南!
- OpenAI 的創業帝國:揭密其風投基金背後的諸多創新公司
- 揭開 Mistral AI 的神祕面紗:揭示 OpenAI 競爭者的所有祕密!
- 未來科技:研究人員揭示如何打造變形機器人,猶如 T-1000 般神奇!
- ElevenLabs 推出全新語音轉文字模型,引領 AI 語音技術的新潮流!