網路議題

人工智慧如何重新塑造商業規則

人工智慧的社會影響和規範需求引言近幾周,在全球關於人工智慧風險和規範的討論中,湧現了一系列重要的發展。無論是美國國會關於 OpenAI 的聽證會,還是歐盟宣布修改的 AI 法案,都呼籲加固監管。然而令一些人驚訝的是,政府、研究人員和人工智慧開發者在監管需求上達成了共識。在國會作證時,OpenAI 的 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

人工智慧如何重新塑造商業規則

人工智慧的社會影響和規範需求

引言

近幾周,在全球關於人工智慧風險和規範的討論中,湧現了一系列重要的發展。無論是美國國會關於 OpenAI 的聽證會,還是歐盟宣布修改的 AI 法案,都呼籲加固監管。然而令一些人驚訝的是,政府、研究人員和人工智慧開發者在監管需求上達成了共識。在國會作證時,OpenAI 的執行長山姆·阿特曼提議建立一個負責核發大型人工智慧模型開發許可證的政府機構。他對這個機構如何監管行業提出了幾個建議,其中包括「結合許可和測試要求」,並表示 OpenAI 等公司應獨立接受審計。然而雖然人們在風險方面越來越有共識,包括潛在的對人們就業和隱私的影響,但對這類規範應該是什麼樣子,或者潛在審計應該關注什麼,仍然缺乏共識。

負責和可審計的人工智慧審計的需求

首先我們需要更新開發和部署人工智慧模型的企業的要求。這在我們質疑「負責創新」到底意味著什麼時尤為重要。英國一直在領導這方面的討論,其政府最近透過五項核心原則提供了對人工智慧的指導,包括安全、透明度和公平性。牛津大學最近的研究也強調了「ChatGPT 等 LLM 引發了對責任概念的迫切需求」。推動這種新責任的核心動力是理解和審計新一代人工智慧模型的日益困難。為了考慮到這種演變,我們可以從「傳統」人工智慧和 LLM 人工智慧(即大型語言模型人工智慧)的區別入手,以求職候選人的推薦為例。如果傳統人工智慧是基於識別某種種族或性別的員工在較高職位上的資料訓練的,那麼它可能在推薦人員時產生偏見,傾向於推薦同種族或性別的人。幸運的是,這是可以透過檢查用於訓練這些人工智慧模型的資料以及輸出的推薦來檢測或審計的事情。而對於新的 LLM 驅動的人工智慧來說這種偏見審計變得越來越困難,甚至有時幾乎不可能測試偏見和質量。我們不僅不知道「封閉」LLM 是在哪些資料上訓練的,而且一個對話式推薦可能會引入更為主觀的偏見或「幻像」。例如,如果您讓 ChatGPT 總結一位總統候選人的演講,誰能判斷這是否是有偏見的總結呢?因此產品中包含人工智慧推薦的公司更需要考慮新的責任,例如推薦的可追溯性,以確保推薦中使用的模型實際上可以進行偏見審計,而不僅僅使用 LLM。在人力資源領域,這種將推薦或決策定義為何種行為的界限對於新的 AI 規範非常重要。例如,紐約市最新的「AEDT 法案」要求針對涉及就業決策的技術進行偏見審計,例如可以自動決定聘用誰的技術。然而監管環境正在迅速發展,超越了 AI 如何做出決策,並涉及到 AI 的建立和使用方式。

對 AI 技術規範的透明度

這帶我們進入第二個關鍵主題:政府需要制定更清晰和更廣泛的標準,明確規定 AI 技術的建立方式以及如何向消費者和員工傳達這些標準。在最近的 OpenAI 聽證會上,IBM 的首席隱私和信任官克裏斯蒂娜·蒙哥馬利強調我們需要標準,以確保消費者每次與聊天機器人互動時都能意識到這一點。這種透明度,包括 AI 如何開發以及壞人使用開源模型的風險,是最近歐盟 AI 法案中考慮禁止 LLM API 和開源模型的重要因素。如何控制新模型和技術的擴散將需要進一步的辯論,才能在風險和利益之間取得平衡。但越來越清楚的是,隨著人工智慧的影響加劇,標準和規範的迫切性以及對風險和機會的認識也在增加。

人工智慧規範對人力資源團隊和商業領導者的影響

對於人力資源團隊來說人工智慧的影響可能是最迅速的,他們被要求應對新的壓力,為員工提供提升技能的機會,並為執行團隊提供根據新技能調整的預測和人力資源計劃,以適應他們的業務戰略。在最近的兩次世界經濟論壇關於生成式人工智慧和未來工作的峰會上,我與人工智慧和人力資源領域的領導者以及政策制定者和學者進行了交流,形成了一個新的共識:所有企業都需要推動負責任的人工智慧採納和意識。世界經濟論壇剛剛發布了其「未來就業報告」,報告指出,在未來的五年裡,23%的工作預計會發生變化,創造出 6900 萬個新工作崗位,同時淘汰 8300 萬個工作崗位。這意味著至少有 1400 萬人的就業岌岌可危。報告還指出,不僅將有 6 成 10 的工人需要改變他們的技能,以執行他們的工作 - 他們需要進行技能提升和再培訓 - 在 2027 年之前,而且僅有一半的員工當前被認為能夠獲得足夠的培訓機會。那麼團隊應該如何使員工在人工智慧加速轉型中保持參與呢?他們要推動內部變革,專注於員工,仔細考慮如何建立合規且相互存取的人和技術體驗,讓員工更加透明地理解自己的職業生涯,並提供發展自己的工具。新一波的規範對於人類相關決策中的偏見如何考慮非常重要,例如在人才方面的偏見。然而隨著這些技術被人們在工作內外廣泛應用,企業和人力資源領導者負責任地理解技術和規範環境的責任比以往更重要,並致力於在團隊和企業中推動負責任的人工智慧策略。 此文摘自《New York Times》的評論專欄,由記者筆下。
Technology-人工智慧,商業規則,重新塑造
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。