
什麼是“倫理人工智慧”,公司如何實現?
疑慮與挑戰
人工智慧技術的發展如 ChatGPT 等生成型 AI 技術的快速發展引起的憂慮,對可能的損害與濫用的警報升級。法律對此反應緩慢,促使要求開發此類技術的公司實現“倫理人工智慧”。但究竟是什麼意思?答案很簡單,就是要將公司的運營與政府、多利益攸關方和學者制定的數十種 AI 倫理原則之一或者多個保持一致。但實現並不容易。我們和同事近兩年來受訪和調查了各個領域的 AI 倫理專業人士,旨在理解他們如何追求倫理人工智慧以及他們可能錯過了什麼。我們發現,實現倫理人工智慧在現實中並非將倫理原則對映到企業行動上那麼簡單。而是要實施管理結構和流程,使組織能夠發現並減輕威脅。
探索倫理不確保性
我們的研究為即將出版的書“Pushing the Limits: How to Navigate the Risks of AI Adoption”,旨在研究在使用 AI 的主要公司中處理 AI 倫理問題的負責人。從 2017 年底到 2019 年初,我們存取了 23 位這樣的經理人。他們的職稱涉及隱私專員、隱私律師,還有當時還很新,現在卻越來越透過的資料倫理官員。在這些 AI 倫理經理人的訪談中,我們得出了四條主要觀點。
第一,除了許多好處之外,商業使用 AI 還存在重大風險,這些公司也知道。AI 倫理經理人對隱私、操縱、偏見、不透明、不平等和勞動力替換等問題表示擔憂。Amazon 開發了一個 AI 工具來整理簡歷,並訓練它找到與過去招聘的人才相似的候選人。在科技產業中男性佔主導地位,因此大多數 Amazon 員工都是男性,這個工具學到了拒絕女性候選人的特徵。無法解決這個問題,最終 Amazon 不得不放棄這個專案。生成型 AI 還引發了更多對大規模的錯誤訊息、仇恨言論和智慧財產權的擔憂。
第二,追求倫理 AI 的公司很大程度上出於戰略原因。他們希望維持顧客、商業夥伴和員工之間的信任。他們還希望預防或為新興法規做好準備。Facebook-Cambridge Analytica 醜聞中,劍橋分析公司使用未經同意共享的 Facebook 使用者資料,推斷出使用者的心理型別,並用欺騙性政治廣告對他們進行定向銷售,這表明高級分析的不道德使用會破壞一家公司的聲譽甚至,如劍橋分析公司本身那樣,讓其垮臺。我們存取的公司希望作為人們資料的負責管理方得到認可和信任。
從 AI 倫理原則到決策過程
挑戰 AI 倫理經理人所面臨的是,如何實現“倫理人工智慧”。他們首先尋找 AI 倫理原則,特別是那些基於生物倫理學或人權原則的,但發現它們是不夠的。這不僅是因為有很多競爭性的原則,而且是因為正義、公平、善行、自主權等原則是有爭議的,並受到解釋和衝突的影響。這帶到了我們的第三個觀點:經理人需要超出高層次的 AI 原則,以便於具體情況下決定要做什麼。一位 AI 倫理經理人描述了嘗試將人權原則轉化為一組問題,讓開發人員可以問自己,以便生產更具有倫理性的 AI 軟體系統。“我們停在 34 頁問題上,”該經理表示。
第四個觀點是,專業人士探索倫理上的不確保性,並需要盡可能多地從組織結構和流程中得到意見。有些結構明顯不夠好。但是其他還在發展中的產品更有幫助,例如:
- 聘請一位 AI 倫理官員來構建和監督計劃。
- 建立內部 AI 倫理委員會,以權衡和決定艱難的問題。
- 製作資料倫理檢查表,並要求前線資料科學家填寫。
- 與學者、前監管機構人員和提倡代替觀點的人士聯絡。
- 進行演算法影響評估,這種評估型別在環境和隱私治理中已經得到使用。
以負責任的決策為重心
我們研究的主要思想是,追求倫理人工智慧的公司不應該期望發現一套簡單的原則,從全知全能的角度提供正確答案。相反,他們應該專注於在有限的理解和變化的情況下,在世界上嘗試做出負責任的決策,即使某些決策最終是不完美的。在沒有明確的法律要求的情況下,像個人一樣,公司只能盡力讓自己理解 AI 如何影響人和環境,並跟上大眾關注和最新的研究和專家的想法。他們還可以從廣泛和多樣的利益攸關方那裡獲取訊息,並認真參與高層次的倫理原則。這個簡單的思想從重要的方面改變了對話。它鼓勵 AI 倫理專業人士將精力集中在採取決策結構和程式,以確保考慮到應該指導其業務決策的影響、觀點和公眾期望,而不是僅僅是確保和應用 AI 原則。
最終,我們相信,法律和法規將需要提供公司