
回答 AI 最重要的問題需要跨學科的方法
作者:湯姆·查維茲(Tom Chavez)
當埃隆·馬斯克(Elon Musk)上個月宣佈他新成立的人工智慧公司 xAI 的團隊時,其中紀錄著公司的任務報告是「理解宇宙的真實本質」。這突顯了回答人工智慧的承諾與風險所帶來的根本性問題的重要性。這家新成立的公司是否真的能夠調整自己的行為以減少技術所帶來潛在風險,或者它單純是為了在 OpenAI 面前佔得便宜?不論如何,這個公司的成立都提出了一個重要問題,那就是公司究竟應該如何回應有關人工智慧的關切。
內部問題
特別是在那些最大的基礎模型公司內部,誰確切地在問有關他們正在建造的技術的短期和長期影響的問題?他們是否以適當的視角和專業知識來面對這些問題?他們是否在技術考量和社會、道德和認識論的問題之間取得了適當的平衡?
大學時,我主修電腦科學和哲學,這在當時似乎是一個不協調的組合。在一堂課堂上,我被那些對倫理學深思熟慮的人圍繞著(「什麼是對的,什麼是錯的?」),他本體論(「到底有什麼東西?」)和認識論(「我們到底知道什麼?」)。而在另一堂課堂上,我被那些算法、程式碼和數學的人包圍著。二十年後,幸運的是,這種組合對於公司在思考人工智慧時並不那麼不相協調。
人工智慧的影響是根本性的,公司需要做出一個真正值得這種根本性的承諾。在倫理上,人工智慧需要深入瞭解那裡有什麼、我們想要什麼、我們認為自己瞭解什麼以及智慧是如何展開的。這意味著公司需要將領導團隊配備成員,他們具備適當的技能,可以深入探討他們正在建造的技術所帶來的後果,而這超出了只寫程式碼和最佳化應用程式程式設計工程師的自然專業範疇之外。
AI 是人類的挑戰
人工智慧不是一個僅僅涉及電腦科學、神經科學或最佳化方面的挑戰,而是一個人類挑戰。為理解決這個挑戰,我們需要接受持久版本的「AI 思想集會」,就像奧本海默(Oppenheimer)在 20 世紀 40 年代早期在新墨西哥州沙漠中進行的跨學科會議一樣。人類的欲望與人工智慧的意外後果的衝突,導致了研究人員所稱之為「對齊問題」,這在布賴恩·克裏斯汀(Brian Christian)的書籍《對齊問題》中被很好地描述了出來。
基本上,機器有一種將我們最全面的指令解釋錯誤的方式,而作為它們所謂的主人,我們對於如何讓它們充分理解我們認為我們想讓它們做的事情的能力非常有限。結果是,算法可能會推動偏見和假訊息,從而侵蝕我們社會的基礎。在更長期、更悲觀的情況下,它們可能會走向「背叛的轉變」,那些我們已經將控制我們文明執行的算法,取而代之,主宰著我們所有人的命運。與奧本海默的挑戰不同的是,這是一個對倫理學的挑戰,它需要對那裡有什麼、我們想要什麼、我們認為自己瞭解什麼以及智慧是如何展開的有著深入的理解,這是一個分析性的事務,但並不完全是科學的本質。這需要以人文和科學的批判性思維為基礎的綜合方法。
現在比以往任何時候都更需要來自不同領域的思想家們密切合作。對於一家真正希望把事情做對的公司來說他們的夢幻團隊應該是這樣的:
首席人工智慧和資料倫理學家:
這個職位的人將處理與資料和人工智慧的短期和長期問題有關的問題,包括但不限於闡述和採用倫理資料原則,為倫理資料使用的參考架構的開發,公民的權利(特別是他們的資料如何被人工智慧消耗和使用)、塑造和適當控制人工智慧行為的協議。這個職位應該是獨立於技術長的,後者的角色主要是執行一個技術計劃,而不是處理其後果的。這個職位是在 CEO 的團隊中的一個高級職位,它可以彌補內部決策者和監管者之間的溝通差距。
首席哲學建築師:
這個職位將專注於更長期的、與存在性有關的問題,主要關注「對齊問題」:如何定義保障措施、政策、後臺通道和安全開關以最大程度地將人工智慧與人類需求和目標相吻合。
首席神經科學家:
這個職位將解決有關感知和智慧在人工智慧模型內的關鍵問題,哪些人類認知模型對於人工智慧的發展最為相關和有用以及人工智慧能教我們什麼關於人類認知。對於將夢想團隊的成果轉化為負責任、有效的技術,我們需要能夠將「這三位」所提出的抽象概念和問題轉化為工作軟體的技術人員。就像所有工作技術團隊一樣,這取決於看到整個畫面的產品負責人/設計師。在「AI 時代」,一個新型的創新型產品負責人必須在涵蓋人工智慧模型基礎架構以及用於微調和專有模型開發等新服務的技術堆疊的新層面之間輕鬆穿梭。他們需要富有想像力地設計「人在迴圈中」的工作流程,以實現首席哲學建築師所規定的保障、後門和安全開關。他們需要具備文藝復興工程師的能力,可以將首席人工智慧和資料倫理學家的政策和協議轉化為工作系統。他們需要看到首席神經科學家努力的成果,能夠在機器和思想之間進行移動,並適當地識別具有潛在能力的發現,可以產生更聰明、更負責任的人工智慧。
實例分析:OpenAI
OpenAI 是一個早期的例子,是一家非常有影響力的基礎模型公司,但它在面臨這個人才招聘挑戰時卻遇到了一些困難。他們擁有一位首席科學家(同時也是共同創始人)、一位全球政策經理和一位總法律顧問。然而如果沒有我在前面提到的三個高管職位,關於他們技術後果的最重大問題仍然無法得到解決。如果山姆·阿爾特曼(Sam Altman)關心以一種全面、慎重的方式處理超級智慧的治理和協調問題,建立一支完整的團隊是一個很好的開始。
我們必須建立一個更加負責任的未來,在這個未來中,公司被信任為人們資料的監護人,而以人工智慧為驅動的創新等同於善良。過去,法律團隊負責像隱私這樣的問題,但其中最聰明的人意識到在人工智慧時代,他們無法獨自解決有關合理資料使用的問題。只有在做出決策的地方,將開放並結合多樣化的觀點,我們才能實現人類繁榮所需的道德資料和人工智慧 — 同時確保機器在它們應該處的地方。
延伸閱讀
- OpenAI 的創意寫作 AI 讓人想起高中文學社那個討人厭的孩子
- 亞馬遜成立新型代理 AI 團隊,將如何改變科技未來?
- 「搶先報名!TechCrunch Sessions: AI 演講者申請截止日期迫在眉睫!」
- MWC 最新報導:AI 影響力的兩極化觀點首次曝光!
- 亞馬遜新推出 Alexa+:為孩子們帶來 AI 驅動的「探索」與「故事」新功能!
- Bridgetown Research 載著 AI 助力,成功募資 1900 萬美元加速盡職調查!
- Nomagic 獲得 4400 萬美元資金,AI 驅動的機器手臂技術將改變未來!
- 全方位理解 Anthropic 的 AI:揭開 Claude 的神祕面紗!
- 微軟刪除 AI 資料中心租賃,背後原因何在?
- Perfect 獲得 2300 萬美元資金,運用 AI 革新招聘流程!