人工智慧倫理:生成式人工智慧的風險和挑戰
概述
在最近舉行的 Transform 2023 活動上,與會專家對生成式人工智慧(Generative AI)的倫理進行了討論。這種人工智慧技術基於 Transformer 架構,讓大型語言模型如 ChatGPT 能夠以更廣泛、更具深度的方式回應使用者查詢。雖然這些技術發展已有數年時間,但近八到十個月以來,它們受到了廣泛關注。
技術發展的潛力與風險
人們對生成式人工智慧的迅速發展提出了風險警示。這些風險不僅僅是理論性的問題,而且由於生成式人工智慧應用的廣泛性和快速發展,這些風險是真實存在的。這些風險涉及到隱私、所有權和版權爭議、缺乏透明度、安全性甚至國家安全等領域。
倫理應對的觀點
對於這些風險,成員們一致認為需要進行全面的跨界討論,並呼籲各利益相關方參與其中。風險應該由各個公司和政府共同承擔,需要一個開放透明的對話平臺,讓受影響的社會各個方面都能參與其中。
Google.org 對生成式人工智慧的看法
Google.org 是 Google 的慈善機構,Jen Carter 是其全球技術主管。她認為生成式人工智慧對非營利組織有很大的潛力,但同時也帶來了嚴重的風險。其中最重要的風險是以下兩點:
- 偏見和公平性:生成式人工智慧有潛力減少偏見,但同時也可能反映或強化現有的偏見。這對於 Google.org 來說是一個非常重要的問題,因為他們的工作通常是為那些被忽視的群體提供服務。如果只是反映現有的偏見,就可能對這些脆弱的社區造成傷害。
- 數位鴻溝擴大:生成式人工智慧不僅有助於所有人,還有可能加劇數位鴻溝,使富裕的企業或公司得到發展,而非營利組織和脆弱的社區被拋在後頭。Google.org 希望採取措施確保新技術對所有人都是可用和有益的。
從全面角度看技術影響
ACM(Association for Computing Machinery)作為一個專業的電腦科學組織,對風險抱有擔憂。他們呼籲研究人員不僅僅關注準確性和技術效能,還要從全面的角度來看待技術的影響。ACM 最近發表了一份原則宣告,幫助指導社會各界思考這些問題,例如確保技術的適當約束以及技術對透明度的影響。
政府的角色
專家們認為政府的角色是建立一個監管框架,以平衡各方利益的採納速度和負責任的方式。此外我們還需要像 Advanced Research Projects Agency for AI 這樣的機構,承擔私人部門在處理國家安全和安全研究等風險方面的局限性。
結論
無論是技術公司、非營利組織還是企業,他們在採用生成式人工智慧技術時都必須認識到相關的風險。他們需要充分討論這些技術的目標和價值觀,並考慮技術應用可能帶來的意外後果。此外政府和社會各方需要共同努力,制定相應的監管措施,既保護公眾利益,又鼓勵創新發展。
延伸閱讀
- AI 蓬勃發展,馬斯克對抗機械革命
- OpenAI 成立團隊控制「超智慧」AI,卻任憑其枯萎——訊息來源指出
- 開放 AI 與 Reddit 資料簽署合約,訓練人工智慧
- 智慧錢包 Kudos 獲得 1000 萬美元投資,研發 AI 功能挑選最佳信用卡
- 索尼音樂警告科技公司避免未經授權使用其內容訓練人工智慧
- Strava 啟用人工智慧防篡改排行榜,推出「家庭」計畫、深色模式等
- 參議院研究建議:每年至少撥款 320 億美元用於人工智慧計劃
- Google I/O 盛會 AI 領域的重大訊息
- Google 掃描通話的人工智慧或增加預設審查,隱私專家發出警告
- 柏林科技企業 trawa 籌得 1 千萬歐元,運用人工智慧協助中小企業更輕鬆購買可再生能源