網路議題

讓人工智慧更值得信賴:我們能否克服黑盒幻象?

使人工智慧值得信賴:我們能克服黑盒幻象嗎?邁克·卡普斯(Mike Capps),2021 年 7 月(見識者)邁克·卡普斯博士是道德人工智慧初創企業 Diveplane 的執行長兼共同創始人,也曾擔任 Epic Games 的總裁。在我的童年時代,就像大多數工程師一樣,我可以透過填寫答案來解答小 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

讓人工智慧更值得信賴:我們能否克服黑盒幻象?

使人工智慧值得信賴:我們能克服黑盒幻象嗎?

邁克·卡普斯(Mike Capps),2021 年 7 月(見識者)

邁克·卡普斯博士是道德人工智慧初創企業 Diveplane 的執行長兼共同創始人,也曾擔任 Epic Games 的總裁。在我的童年時代,就像大多數工程師一樣,我可以透過填寫答案來解答小學數學問題。但是當我沒有“展示我的解題過程”時,我的老師會扣分;只有答案而沒有解釋並不值得太多。然而即使是做出重要的、影響生活的決策的 AI 系統,對可解釋性的要求似乎與這些高標準在長除法中的應用不同。

那些填滿今天的頭條新聞並引發股市狂熱的主要人工智慧參與者——OpenAI、Google、微軟——都是基於黑盒模型運營其平臺。一個查詢進入一側,答案從另一側輸出,但我們不知道 AI 爲提供該答案所使用的資料或推理。大多數這些黑盒 AI 平臺都建立在一個被稱爲“神經網路”的數十年老技術框架上。這些 AI 模型是對它們所訓練的大量資料的抽象表示;它們與訓練資料沒有直接聯系。因此黑盒 AI 是基於它們認爲最有可能的答案進行的推斷和推廣,而不是直接基於真實資料。有時,這個復雜的預測過程失控,AI 會“產生幻覺”。黑盒 AI 本質上是不可信任的,因爲它無法對其行爲負責。如果你不知道 AI 爲什麼或者如何做出預測,你就無法知道它是不是使用了虛假、受損或有偏見的訊息或算法來得出結論。

雖然神經網路具有極大的能力,並且它們已經扎根在這個領域並將長久存在,但還有另一個悄然興起的人工智慧框架備受重視:基於實例的學習(IBL)。而且 IBL 與神經網路截然不同。IBL 是可以被使用者信任、審計和解釋的人工智慧。IBL 將每一個決策都追溯到用於得出結論的訓練資料。黑盒 AI 是無法被信任的,因爲它無法對其行爲負責。基於 IBL 構建的 AI 可以解釋每一個決策,因爲它不生成資料的抽象模型,而是根據資料本身進行決策。使用者可以審計基於 IBL 構建的 AI,詢問它爲什麼以及如何做出決策,然後進行幹預以糾正錯誤或偏見。這些都成立的原因在於 IBL 將訓練資料(“實例”)儲存在記憶體中,並根據“最近鄰”的原理對新實例的物理關系進行預測。IBL 是以資料爲中心,因此可以直接將個別資料點與其他資料點進行比較,以獲得對資料集和預測的洞察。換句話說,IBL“展示了它的解題過程”。這種能夠理解的 AI 的潛力是顯而易見的。那些希望以值得信賴、可解釋和可審計的方式部署人工智慧的公司、政府和其他受監管實體可以使用基於 IBL 的人工智慧來滿足監管和合規標準。基於 IBL 的人工智慧對於那些普遍存在偏見指控的應用程式尤其有用,如招聘、大學錄取、法律案件等。

Transparency-人工智慧,值得信賴,黑盒幻象,克服

延伸閱讀

江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。