新框架 XAIR:設計增強現實 AI 可解釋性
隨著人工智慧和機器學習工具越來越常用於技術應用,許多工具的基礎很難被解讀。這是因為其中大部分是基於“黑盒子”模型,這些模型分析資料並學習對其進行預測,但不與人類使用者分享這些預測背後的過程。最近,Meta Reality Labs 的研究人員建立了 XAIR 框架,該框架可以幫助開發人員使 AI 預測背後的過程更容易理解,從而設計出可解釋的 AI 系統,適用於各種增強現實(AR)應用。
AR 技術允許使用者檢視經過修改的周圍環境版本,並將數位元素、聲音和/或視覺增強融入其中。這些虛擬現實版本可以透過頭戴式顯示器、護目鏡、其他可穿戴裝置甚至只需透過智慧手機螢幕檢視。一些研究人員最近一直在探索使用 AI 增強 AR 應用,例如使其對使用者環境中的變化更具反應性或允許其分析並對特定物件進行預測。Meta Reality Labs 的研究人員希望建立一個框架,可以增加 AR 應用中 AI 工具的解釋性,從而增加使用者對其的信任。
建立增強現實 AI 可解釋性的框架
XAIR 框架包括三個方面:何時、何物、如何?為這些問題提供答案可以用於提供 AR 情境中更有效的 AI 預測解釋。XAIR 還概述了一系列關鍵指南,以支援研究人員和開發人員開發 AR 應用中的 XAI。研究人員首先需要解決五種基本因素,並進一步派生出"何時、何物、如何"的設計。這五種因素包括兩個 AR 特定因素 - 使用者狀態和上下文訊息以及三個非 AR 特定因素 - 系統目標、使用者目標和使用者配置檔案。解決這些因素後,在開發 AR 應用的 AI 系統時,只需參考 XAIR 框架進行調整和精煉。
在該研究中,Meta Reality Labs 的研究人員總結了 100 多個來自不同領域的研究,以確保開發 AR XAI 時應該考慮的重要方面,並回答何時、何物和如何的問題。其次研究人員進行了一項大規模的調查,涉及 500 多名使用者,並與該領域的 12 名專家進行了一次研討會。這些研究為開發 XAIR 提供了有價值的見解。
增強現實 AI 的可解釋性系統測試
為了評估他們的框架的價值,研究人員使用它建立了一個真實的 XAI 系統,在一系列 AR 情景中進行了實時測試。他們發現,使用者認為這個系統既透明又可信,這表明他們的框架成功地指導了其開發。未來,XAIR 框架可以用於建立各種 AI 系統,以增強 AR 應用,並解釋其預測,從而獲得使用者的信任。
展望
XAIR 為我們探索未來 AR 系統中 XAI 互動提供了基礎和指南。由於生成式 AI 的迅猛發展,研究人員將探索這一趨勢如何影響未來 AR XAI 設計的可能性。我們期待透過自動化的設計框架,建立個性化 AR XAI 體驗,並讓使用者提供反饋來進一步改進系統,實現支援使用者更好地理解 AI 應用的目標。
編者的話
XAIR 框架的建立標誌著基於"黑盒子"模型的 AI 攀升到了一個新的階段,人們不再只關注 AI 的技術層面,而是更關注如何讓原本複雜而晦澀無比的 AI 更具可解釋性。除了 AR 應用,XAI 還有大量應用場景,例如自駕車、金融等。設計透明、可信的 AI,有助於促進技術發展和進步的同時讓人類能夠在 AI 的預測分析中掌握主導權和自主選擇。盡管 AI 作為一種具有人類特徵的技術,也同樣存在著缺點和約束,如盲目自信、僵化思維等,但在這樣的探索過程中人類將更好地認識自己。我們期待更多基於人性化關懷和道德考量的創新出現,讓 AI 技術為人類創造更大的價值。
延伸閱讀
- Web3 投資公司 Borderless Capital 收購 CTF Capital,引進人工智慧和量化專業技術
- 0G Labs 以驚人的 3,500 萬美元預種子輪啟動,致力於打造模組化人工智慧區塊鏈
- Cyera 將籌集最高 3 億美元,估值達到 15 億美元,AI 正是資料問題
- 人工智慧與資料基礎設施推動開源新創公司需求
- Profluent 利用人工智慧發現藥物,得到 Salesforce 研究支援,Jeff Dean 提供後盾
- 大型語言模型可幫助家庭機器人在無需人類幫助的情況下恢復錯誤
- 聽得見嗎?AI 音效技術對抗嘈雜音訊
- 為何無法評論人工智慧以及為何 TechCrunch 還是這樣做?
- 穩定 AI 執行長辭職,因為你無法用更集中的 AI 來擊敗中央集權的 AI
- 為什麼人工智慧在拼字上如此不靈光?