網路議題

如何讓機器人探索月球?簡單問題顯示了當前人工智慧系統的極限

探索月球的機器人應如何行動?一個簡單問題揭示了現有人工智慧系統的約束引言自從人工智慧(AI)的快速發展以來,一些頂尖 AI 專家開始呼籲暫停研究,並引發了對於 AI 引發人類滅絕的討論,甚至要求政府進行規範。他們的關切核心在於 AI 可能變得如此強大,以至於我們無法掌控它。然而我們是否忽略了一個更基 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

如何讓機器人探索月球?簡單問題顯示了當前人工智慧系統的極限

探索月球機器人應如何行動?一個簡單問題揭示了現有人工智慧系統的約束

引言

自從人工智慧(AI)的快速發展以來,一些頂尖 AI 專家開始呼籲暫停研究,並引發了對於 AI 引發人類滅絕的討論,甚至要求政府進行規範。他們的關切核心在於 AI 可能變得如此強大,以至於我們無法掌控它。然而我們是否忽略了一個更基本的問題呢?終究,AI 系統應該幫助人們做出更好、更準確的決策。然而即使是最令人印象深刻和靈活的 AI 工具,例如 ChatGPT 背後的大型語言模型,也可能產生相反的效果。為什麼呢?原因是它們存在兩個關鍵的弱點。首先它們無法幫助決策者理解因果關係或不確保性。其次它們可能鼓勵收集大量資料,並可能對隱私、法律、倫理問題和風險採取不慎重的態度。

因果、效果和信心

ChatGPT 和其他"基礎模型"使用深度學習方法來遍歷龐大的資料集,並識別這些資料中包含的因素之間的聯動,例如語言的模式或影象與描述之間的聯絡。因此它們擅長內插,即預測或填補已知資料之間的空白。但內插並不等於創造。它不能產生知識,也不能為在複雜環境中操作的決策者提供必要的洞察力。然而這些方法需要大量的資料。結果,它們鼓勵組織收集龐大的資料庫,或搜尋已經為其他目的收集的現有資料集。處理"大資料"帶來了相當大的風險,包括安全性、隱私性、合法性和倫理性方面的風險。在低風險的情況下,基於"資料所提示的結果"的預測可能非常有用。但是當風險更高時,還有兩個問題需要回答。首先我們需要回答這樣的問題:"是什麼因素推動了這個結果?"第二個問題是關於我們對世界的理解:"我們對此有多大的信心?"

從大資料到有用的訊息

令人驚訝的是,用於推斷因果關係的 AI 系統並不需要"大資料",而需要的是有用的訊息。訊息的有用性取決於問題本身、我們所面臨的決策以及我們對這些決策結果的價值。引用美國統計學家和作家內特·銀的話,不管我們收集了多少資料,真實性的量級大致相同。那麼,解決方案是什麼呢?這個過程始於開發能夠告訴我們我們真正不知道的 AI 技術,而不是生成現有知識的變化體。為什麼呢?因為這有助於我們識別並獲取最少量的有價值訊息,以一個能夠使我們理解因果關係的線序進行。例如,考慮一個被派往月球上回答"月球表面是什麼樣子?"這個問題的機器人機器人的設計者可能會給予它對它將會發現的事物的一個"先前信念"以及該信念應該具有的"信心"程度。信心的程度和信念一樣重要,因為它是衡量機器人所不知道的東西。死機器人著陸並面臨決策時,它應該走哪一個方向?因為機器人的目標是在最短時間內盡快理解月球表面,所以它應該選擇最大化其學習的方向。這可以透過衡量哪種新知識會減少機器人對地形的不確保性,或者會增加機器人對自己知識的信心來衡量。機器人前往新的位置,使用其感測器記錄觀察結果,並更新其信念和相應的信心。透過這樣做,它以最有效的方式理解了月球的表面。像這樣的機器人系統已經存在,被稱為"主動 SLAM"(主動同時定位和對映),在 20 多年前首次提出,當前仍然是一個活躍的研究領域。這種不斷收集知識並更新理解的方法是基於一種稱為貝葉斯最佳化的統計技術。

繪製未知地理

政府或工業界的決策者面臨的複雜程度比月球上的機器人更高,但思考方式是相同的。他們的工作涉及探索和繪製未知的社會或經濟地理。假設我們希望制定政策,以鼓勵所有孩子在學校中茁壯成長並完成高中學業。我們需要具有行動、時間和條件的概念地圖,以幫助實現這些目標。根據機器人的原則,我們制定出一個最初的問題:"哪些幹預措施對孩子最有幫助?"接下來,我們使用現有知識構建一個初步的概念地圖。我們還需要對這個知識的信心進行衡量。然後,我們開發一個模型,該模型結合了不同的訊息來源。這些訊息不會來自機器人的感測器,而是來自社區、實踐經驗以及記錄資料中的有用訊息。在此之後,根據對社區和利益相關者偏好的分析,我們做出一個決策:"應該實施哪些行動,在什麼條件下進行?"最後我們進行討論、學習、更新信念並重複這個過程。這是一種"學習中前行"的方法。隨著新訊息的出現,我們選擇新的行動來最大化某些預先指定的標準。AI 系統可以在確保我們所不知道的訊息方面發揮作用,透過算法量化其價值。自動化系統還可以以人類可能難以做到的速度和地點收集和儲存訊息。像這樣的 AI 系統適用於所謂的貝葉斯決策理論框架。它們的模型是可解釋和透明的,建立在明確的假設基礎上。它們是數學嚴謹的,可以提供保證。它們被設計用於估計因果關係,幫助在最佳時間進行最佳幹預。它們透過由受影響的社區共同設計和實施,將人類價值納入其中。

結論

我們確實需要修改法律並建立新的規則來指導潛在危險的 AI 系統的使用。但同樣重要的是,在首次選擇合適的工具時作出選擇。我們需要將焦點放在發展具有因果關係推斷能力的 AI 技術上,並體現在我們的決策中。這種技術可以幫助我們在複雜的社會和經濟環境中做出更好的決策,逐步地探索和繪製未知的地理。這是一個需要不斷學習和更新的過程,並與受影響的社區共同設計和實施。透過這種結合人類智慧和 AI 技術的方法,我們可以更好地應對 AI 系統所面臨的局限,並實現更好的決策和機器人探索能力。

參考資料

Cripps, S., & et al. (2023, June 28). How should a robot explore the moon? A simple question shows the limits of current AI systems. The Conversation. Retrieved June 28, 2023, from https://techxplore.com/news/2023-06-robot-explore-moon-simple-limits.html
ArtificialIntelligence-人工智慧,機器人,探索,月球
程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。