網路議題

擁抱責任與可解釋人工智慧

回應:可解釋人工智慧的重要性人工智慧的迅速發展近年來人工智慧(Artificial Intelligence, AI)在各個領域持續迅速發展,為企業和組織帶來了許多機遇和挑戰。然而隨著人工智慧模型變得越來越複雜,如何理解和解釋 AI 的決策過程變得越來越重要。這樣做有助於提高透明度,減少偏見,並確保 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

擁抱責任與可解釋人工智慧

回應:可解釋人工智慧的重要性

人工智慧的迅速發展

近年來人工智慧(Artificial Intelligence, AI)在各個領域持續迅速發展,為企業和組織帶來了許多機遇和挑戰。然而隨著人工智慧模型變得越來越複雜,如何理解和解釋 AI 的決策過程變得越來越重要。這樣做有助於提高透明度,減少偏見,並確保人們能夠信任和適當使用這些模型。

解釋 AI 的挑戰

可解釋性 AI(Explainable AI)正在成為許多組織的關注焦點。但是解釋 AI 並不是一個僅僅依賴技術的問題,更是一個人類問題。人們需要能夠理解和解釋 AI 模型是如何進行推論的。Wells Fargo 銀行副總裁兼創新、策略、數位化和創新負責人 Madhu Narasimhan 在 VentureBeat Transform 2023 活動中指出,這是解釋 AI 變得重要的關鍵原因之一。

Narasimhan 指出,Wells Fargo 銀行對其虛擬助手 Fargo 進行大量後測試,以理解為什麼模型以特定方式解釋語言。該公司同時建立模型和解釋性,並擁有一個獨立的資料科學家團隊來取證模型。他們將可解釋性作為測試的一部分,以確保客戶使用虛擬助手時的體驗是否符合預期。

解決偏見和不完善性

人類存在著各種偏見,因此確保 AI 模型不受偏見的影響非常重要。Wells Fargo 銀行在模型開發過程中,對所有資料元素進行偏見檢測,無論是在屬性層面還是資料集層面。同樣的,Nara Logics 擁有的合作夥伴 Jana Eggers 也強調了這一點,她認為重要的是調整和調節模型,而不是清理資料。Eggers 指出,如果機器能夠告訴人們它在資料中看到的東西,人們可以去告訴它停止看到某些偏見。認識到偏見存在是重要的,而不是要完全清除資料。

共同努力實現解釋性

對於解釋 AI 的需求,Narasimhan 指出,我們需要理解生成型人工智慧(Generative AI)的能力以及約束。未來,建立更加複雜的模型將成為推動經濟發展的主要力量,因此解釋性將繼續受到重視。為了支援這一目標,Wells Fargo 銀行的資料科學家們開發了一個 Python 可解讀的開放存取工具包,並與其他金融機構分享。這項工具的目的是提高模型的解釋性,使更多人可以理解模型的工作原理。

最終共同努力實現可解釋 AI 是非常重要的。解釋性的增強有助於增加透明度、減少偏見並建立人們對 AI 的信任。透過在模型開發過程中嵌入解釋性,許多組織可以確保他們的 AI 模型可以以人類類似的方式執行。同時他們還應該共享解釋 AI 工具和方法,以促進更廣泛的行業應用和發展。

ArtificialIntelligence-擁抱責任、可解釋人工智慧、倫理、透明度、人工智慧發展、人工智慧倫理、人
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。