使人工智慧值得信賴:我們能克服黑盒幻象嗎?
邁克·卡普斯(Mike Capps),2021 年 7 月(見識者)
邁克·卡普斯博士是道德人工智慧初創企業 Diveplane 的執行長兼共同創始人,也曾擔任 Epic Games 的總裁。在我的童年時代,就像大多數工程師一樣,我可以透過填寫答案來解答小學數學問題。但是當我沒有“展示我的解題過程”時,我的老師會扣分;只有答案而沒有解釋並不值得太多。然而即使是做出重要的、影響生活的決策的 AI 系統,對可解釋性的要求似乎與這些高標準在長除法中的應用不同。
那些填滿今天的頭條新聞並引發股市狂熱的主要人工智慧參與者——OpenAI、Google、微軟——都是基於黑盒模型運營其平臺。一個查詢進入一側,答案從另一側輸出,但我們不知道 AI 爲提供該答案所使用的資料或推理。大多數這些黑盒 AI 平臺都建立在一個被稱爲“神經網路”的數十年老技術框架上。這些 AI 模型是對它們所訓練的大量資料的抽象表示;它們與訓練資料沒有直接聯系。因此黑盒 AI 是基於它們認爲最有可能的答案進行的推斷和推廣,而不是直接基於真實資料。有時,這個復雜的預測過程失控,AI 會“產生幻覺”。黑盒 AI 本質上是不可信任的,因爲它無法對其行爲負責。如果你不知道 AI 爲什麼或者如何做出預測,你就無法知道它是不是使用了虛假、受損或有偏見的訊息或算法來得出結論。
雖然神經網路具有極大的能力,並且它們已經扎根在這個領域並將長久存在,但還有另一個悄然興起的人工智慧框架備受重視:基於實例的學習(IBL)。而且 IBL 與神經網路截然不同。IBL 是可以被使用者信任、審計和解釋的人工智慧。IBL 將每一個決策都追溯到用於得出結論的訓練資料。黑盒 AI 是無法被信任的,因爲它無法對其行爲負責。基於 IBL 構建的 AI 可以解釋每一個決策,因爲它不生成資料的抽象模型,而是根據資料本身進行決策。使用者可以審計基於 IBL 構建的 AI,詢問它爲什麼以及如何做出決策,然後進行幹預以糾正錯誤或偏見。這些都成立的原因在於 IBL 將訓練資料(“實例”)儲存在記憶體中,並根據“最近鄰”的原理對新實例的物理關系進行預測。IBL 是以資料爲中心,因此可以直接將個別資料點與其他資料點進行比較,以獲得對資料集和預測的洞察。換句話說,IBL“展示了它的解題過程”。這種能夠理解的 AI 的潛力是顯而易見的。那些希望以值得信賴、可解釋和可審計的方式部署人工智慧的公司、政府和其他受監管實體可以使用基於 IBL 的人工智慧來滿足監管和合規標準。基於 IBL 的人工智慧對於那些普遍存在偏見指控的應用程式尤其有用,如招聘、大學錄取、法律案件等。
延伸閱讀
- OpenAI 揭開 AI 祕密指令的面紗
- AI 助您創辦者更快、更輕鬆地籌集資金嗎?
- 盧西德機器人獲得 900 萬美元用於無人機清潔任何地方
- 以色列新創公司 Panax 籌集了 1,000 萬美元 A 輪融資,用於其基於人工智慧的現金流管理平臺
- Reddit 測試使用基於 LLM 的人工智慧進行自動整站法語翻譯
- 三星醫聲將以 9270 萬美元收購法國人工智慧超聲波新創公司 Sonio
- 網際網路共同創始人 Robert Kahn 早在幾十年前就已經做到了加密、人工智慧和網際網路嗎?
- 人聲 vs AI:Audible 推出 AI 旁白有機會取代人類旁白嗎?
- 突破獨家訪談:Wayve 共同創辦人 Alex Kendall 談自動駕駛汽車和機器人的未來
- Rad AI 完成由 Khosla Ventures 領投的 5 千萬美元 B 輪融資