
AI 中的黑箱
AI 黑箱是指 AI 系統的內部執行對使用者是看不見的。在這樣的系統中,你可以輸入任何資料並獲取輸出,但你卻無法檢查系統的程式碼或輸出產生的邏輯。
機器學習
機器學習是人工智慧的主要子集之一。它支援像 ChatGPT 和 DALL-E 2 這樣的生成 AI 系統。機器學習有三個組成部分:演算法或一組演算法,訓練資料和模型。演算法是一組程式,而在機器學習中,演算法透過訓練大量的範例資料來學習識別模式。訓練完機器學習演算法後,就可以得到機器學習模型。例如,可以設計一個機器學習演算法來識別影象中的模式,且訓練資料是狗的影象。其產生的機器學習模型就是一種“狗查詢器”,可以在輸入影象後得出那些畫素代表狗。
黑箱中的機器學習
機器學習系統中的任何一個元素都可以被放在黑箱中。由於演算法通常是公開的,所以將其放在黑箱中並不那麼有效。因此為了保護其智慧財產權,AI 開發人員經常將模型放在黑箱中。另一個軟體開發人員會使用的方法是將用於訓練模型的資料模糊化,也就是將訓練資料放在黑箱中。相反地,全元素皆公開的 AI 系統被稱為玻璃箱。但研究人員有時仍會將其某些方面描述為黑箱。
為何 AI 黑箱很重要?
在許多情況下,黑箱機器學習演算法和模型有很好的理由讓人擔憂。假設機器學習模型對你的健康進行了診斷,你希望模型是黑箱還是玻璃箱?那麼,治療您的醫師呢?也許她想知道模型是如何得出其決策的。如果一個判定你是否有資格從銀行獲得商業貸款的機器學習模型拒絕你,你不想知道為什麼嗎?如果你知道了拒絕原因,你可以有效地上訴決策,或改變情況以增加下次貸款的成功機會。
黑箱對軟體系統安全也有重要的影響。多年來,許多人在計算領域認為,將軟體放在黑箱中可以防止駭客檢查它,從而確保其安全。但這種假設大多被證實是錯誤的,因為駭客可以反向工程軟體,並發現可利用的漏洞。如果軟體是公開的,則軟體測試人員和有良好意圖的駭客可以檢查它,並通知創作者其漏洞,從而將網路攻擊風險降至最低點。
解釋式人工智慧
儘管機器學習演算法尤其是深度學習演算法的執行令研究人員難以理解,但情況並非那麼黑白分明。這是因為研究人員還沒有完全理解機器學習演算法的執行。因此可解釋的人工智慧領域正努力開發演算法,使其可以被人理解得更好,雖然不一定能做到完全玻璃箱。
編輯、建議及探討與建議
AI 的黑箱讓人們難以理解 AI 的執行方式,從而影響使用者的信任問題。這揭示出了 AI 開發需要進一步強調透明度方面的挑戰。開發 AI 時,我們必須重視其間的可解釋性以促進透明度。長期而言,透明度和解釋性將有助於機器現代化。正如本文所述,黑箱對於診斷或任何涉及人類重要決策的應用具有很多風險。以黑箱的方式工作的 AI 模型將比其玻璃箱對應品對整體社會的信任度具有更多的威脅。透明度的提高有助於確保 AI 的不斷進步,並增加對 AI 的信任。
在 AI 領域中,最終的目標是建立一個對人類更友好,更透明且更公平的全球社會。這需要建立道德智慧,監督 AI 系統的使用並最大程度地保護使用者的利益。為此,AI 開發人員和研究人員必須努力發展透明度並確保 AI 工具的可解釋性。
延伸閱讀
- DeepMind 重新利用遊戲 AI 來最佳化程式碼和基礎設施
- AI 生成的科學論文能以 99%的準確率識別
- Instabase 釋出「AI Hub」:一個用於理解內容的生成式人工智慧平臺
- Instabase 釋出 AI Hub — 一款生成式 AI 平臺,用於內容理解
- WordPress 新機器人工具:讓 AI 幫你撰寫部落格文章
- Google Cloud 擴充套件 AI 產品線,推出新工具、計畫和合作夥伴關係
- Google 雲和 Salesforce 攜手加固 AI 產品
- 字型擴充套件 Google Cloud 合作,加固客製化 AI 方案
- WordPress 發布 AI 寫作助手,自動化內容生產時代來臨?
- Instagram 測試 AI Chatbot,讓你從 30 種人格中選擇