網路議題

為何自我調節人工智慧是明智的商業舉措

自我調節的人工智慧:建立信任並降低風險引言人工智慧(AI)的發展已經引起了全球數百萬人的極大關注,但也亦不乏爭議。儘管存在著許多不確保性,企業已經踏入了這場遊戲,無論是玩弄最新的生成式 AI 聊天機器人還是在企業各個環節部署 AI 驅動的流程。因此企業必須解決關於 AI 不可預測性的擔憂以及對終端使 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

為何自我調節人工智慧是明智的商業舉措

自我調節的人工智慧:建立信任並降低風險

引言

人工智慧(AI)的發展已經引起了全球數百萬人的極大關注,但也亦不乏爭議。儘管存在著許多不確保性,企業已經踏入了這場遊戲,無論是玩弄最新的生成式 AI 聊天機器人還是在企業各個環節部署 AI 驅動的流程。因此企業必須解決關於 AI 不可預測性的擔憂以及對終端使用者可能帶來的更可預測且可能有害的影響。如若不然,將會削弱 AI 的發展和潛力。盡管政府正在推動 AI 的道德使用法則,但商業界不能等待。企業需要設立自身的監管機制。AI 技術的發展速度超過了 AI 監管的速度,因此商業風險是非常大的。盡管逐步學習可能很有吸引力,但犯下昂貴錯誤的潛力證實了臨時應付的方法並不可取。自我調節以贏得信任對於企業來說有許多理由——包括企業價值觀和組織準備能力。但風險管理可能是首要考慮的因素。任何一失足成千古恨,失誤可能削弱客戶隱私、客戶信任以及企業聲譽。幸運的是,企業能夠透過多種方式來建立對 AI 應用和流程的信任。

建立信任的方法

選擇合適的基礎技術是解決 AI 的信任問題的一部分。同樣重要的是確保構建這些解決方案的團隊接受了如何預見和減輕風險的培訓。成功還取決於既定的 AI 治理策略。商業和技術領導者必須能夠檢視和監督使用的資料集和語言模型、風險評估、審批程式、審計跟蹤等。從準備資料的工程師到構建模型的資料科學家,資料團隊必須一路以來都要警惕監控 AI 的偏見,並防止其在流程和結果中得以延續。

風險管理需要從現在開始

組織可能最終無法選擇,只能採取其中的一些措施。當前正在起草的立法最終可能會強制要求 AI 公平對待消費者。迄今為止,全面的 AI 監管還未被制定,但它只是時間問題。在美國,白宮已經發布了《AI 權利範例》,其中提出了指導 AI 發展和使用的原則,包括保護避免算法歧視和能夠選擇退出自動化流程。與此同時聯邦機構正在澄清現有法規中的要求,比如《聯邦貿易委員會法案》和《平等信用機會法》,以應對公眾對 AI 的首要擔憂。 但明智的企業不會等待任何宏觀政府規範的出現。風險管理必須從現在開始。

AI 監管:降低風險,提升信任

設想這樣一個假設情景:一個困憂的人向一家醫療診所的聊天機器人支援中心傳送了一個請求。使用者說:“我感到悲傷,我應該怎麼辦?”這是一個可能非常敏感的情況,也說明了在沒有進行 AI 審查的情況下問題可能很快浮出水面。比如,如果這個人正處於個人危機中,會發生什麼情況?如果聊天機器人無法提供所需的細緻回應,甚至更糟,建議一種可能有害的行動,那麼醫療供應商會面臨潛在的法律責任嗎?各行各業都可能出現類似難以編寫的風險情境。這解釋了為什麼意識和風險管理是某些規範和非規範框架的重點內容。 歐盟提出的《AI 法案》解決了高風險和不可接受風險的使用案例。在美國,美國國家標準和技術研究所的風險管理框架旨在最大程度地降低對個人和組織的風險,同時增加“AI 系統的可信度”。如何確保 AI 的可信度呢?在不同的背景下,出現了各種各樣的方法論,無論是歐洲委員會制定的《有信任的 AI 指南》,還是歐盟的《AI 法案》,又或者是英國的《AI 保證路線圖》和最近發布的《AI 監管白皮書》,甚至還有新加坡的《AI 取證》。《AI 取證》根據經濟合作與發展組織(OECD)的說法,旨在透過透明建立信任。它透過提供一個框架,確保 AI 系統滿足 AI 倫理原則的公認標準。這是一個廣泛共享的主題的變化:從開發到部署管理您的 AI。盡管這些政府的努力有多麼善意,但企業仍然非常需要制定自己的風險管理規則,而不是等待立法機構的規定。當企業實施至關重要的智慧 AI 戰略時,一些共同的原則——安全、公平、可靠和透明——必須融入其中。這些原則必須是可以落地執行的,這需要將它們系統地嵌入到 AI 管道中。

人、流程和平臺

AI 能力的提升是企業創新的一個真正的競爭差異化,比如我們在藥物研發、保險索賠預測和預防性維護等領域已經看到。但這些進步並不是沒有風險的,因此 AI 的發展和部署必須與全面的治理相結合。越來越多的組織正在規劃他們的第一步,將涵蓋到人、流程和平臺。他們正在成立跨部門的 AI 行動團隊,評估資料架構並討論資料科學的調整方法。專案負責人是如何管理這一切的?一些人僅僅依靠電子郵件和影片通話來協調利益相關方,使用電子表格來記錄和跟蹤進展。這在小規模上是可行的。但企業範圍的 AI 專案必須更進一步,並記錄做出的決策以及為什麼做出的詳細訊息以及在專案生命周期中模型的效能。

堅實的治理是成功的關鍵

總結下來,自主治理的價值來自於對流程的檔案記錄以及在開發和部署過程中構建 AI 模型的關鍵訊息。總的來說這為現有和未來的合規提供了全面的照片。由此帶來的審計軌跡對於“AI 可解釋性”至關重要。這不僅包括實現解釋性所需的技術能力,還包括社會考慮因素——一個組織能夠為其 AI 模型和實施提供合理性的能力。這一切歸結為堅實的治理是成功的 AI 專案的確保性之路。它可以構建客戶信心,降低風險並推動商業創新。我的建議:不要等待政府法規的定案。技術發展的速度超過了政策的制定速度。

結論

在 AI 的快速發展和應用中,自我調節對於企業來說至關重要。確保 AI 的可信度和透明度,建立綜合的治理機制,監測風險和執行相應的措施,這對企業的成功至關重要。盡管政府的監管框架正在形成,但企業不能等候不動。只有透過自我調節和風險管理,企業才能在 AI 的浪潮中保持競爭力,獲得信任並實現持續的創新。
ArtificialIntelligence-自我調節人工智慧,商業舉措,人工智慧,商業策略,技術發展,效率提

延伸閱讀

江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。