網路議題

「什麼是『AI 對齊』?矽谷最喜愛的思考 AI 安全方式忽略了真正的問題」

什麼是"AI 對齊"?矽谷對 AI 安全的思考方式忽略了真正的問題作者:艾倫·J·斯諾斯韋爾(Aaron J. Snoswell)隨著日益強大的人工智慧(AI)系統的普及,有關其可能帶來的風險的問題變得更加緊迫。政府、研究人員和開發者們已經提出了 AI 安全的重要性。歐盟正在推動 AI 監管,英國正 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

「什麼是『AI 對齊』?矽谷最喜愛的思考 AI 安全方式忽略了真正的問題」

什麼是"AI 對齊"?矽谷對 AI 安全的思考方式忽略了真正的問題

作者:艾倫·J·斯諾斯韋爾(Aaron J. Snoswell)

隨著日益強大的人工智慧(AI)系統的普及,有關其可能帶來的風險的問題變得更加緊迫。政府、研究人員和開發者們已經提出了 AI 安全的重要性。歐盟正在推動 AI 監管,英國正在召開 AI 安全峰會,澳洲則正在徵求關於支援安全和負責任 AI 的意見。當前的興趣潮是解決具體的 AI 安全問題,如偏見、誤用和勞工剝削的好機會。但是許多矽谷人士透過"AI 對齊"這個推測性的鏡頭來看待安全問題,忽視了現有 AI 系統對社會可能帶來的非常真實的傷害以及我們可以解決這些問題的實際方法。

什麼是"AI 對齊"?

"AI 對齊"旨在確保 AI 系統的行為與我們想要的和預期的一致。對齊研究往往專注於比今天的技術更先進的假設未來 AI 系統,這是一個具有挑戰性的問題,因為很難預測技術的發展,而且人類並不擅於知道我們想要的是什麼,或者對此是否存在共識。然而對齊研究並不缺乏。有許多有著奇怪名字的技術和哲學性的提議,例如"合作逆向強化學習"和"迭代放大"。在"自上而下"的對齊方法中,設計者明確地指定 AI 應遵循的價值觀和倫理原則(請想一想阿西莫夫的三法則),而"自下而上"的方法則嘗試從資料中逆向工程人類的價值觀,然後構建與這些價值觀一致的 AI 系統。當然在定義"人類價值觀"、決定由誰選擇哪些價值觀重要以及人們在價值觀上存在分歧時都存在困難。OpenAI 是 ChatGPT 聊天機器人和 DALL-E 影象生成器等產品背後的公司,最近概述了其"超對齊"計劃。這一計劃的目標是避開棘手的問題,透過首先建立一個僅僅是人類水平的 AI 來進行對齊研究。但要做到這一點,首先必須對齊進行對齊研究的 AI……

為什麼對齊被認為如此重要?

支援對齊方法的 AI 安全倡議者表示未能"解決"AI 對齊可能會帶來巨大的風險,甚至可能導致人類滅絕。對這些風險的信念主要源於"人工通用智慧"(AGI)的概念(粗略地說,一種能夠像人類一樣做任何事情的 AI 系統)可能在不久的將來開發出來,然後在沒有人類幹預的情況下不斷改進自身。根據這個敘事,超智慧 AI 可能會從意圖中消滅人類,或者作為其他某個專案的副作用。就像僅僅是天堂和地獄的可能性足以說服哲學家帕斯卡去相信上帝一樣,未來超 AGI 的可能性足以說服一些團體將所有努力投入到"解決"AI 對齊中。這種推理方式存在許多哲學上的陷阱。技術預測也非常困難。即使忽略這些問題,對齊(更不用說"超對齊")是一種有限且不足以解決安全和 AI 系統的方式。

三個 AI 對齊的問題

首先"對齊"的概念並沒有很好地被界定。對齊研究通常旨在實現模糊目標,如構建"可證實有益"的系統或"防止人類滅絕"。但這些目標非常狹隘,一個超智慧 AI 可以達到這些目標,但仍然可能造成巨大的危害。更重要的是,AI 安全不僅僅涉及機器和軟體。像所有技術一樣,AI 既是技術性的也是社會性的。實現安全的 AI 將涉及解決一系列問題,包括 AI 發展的政治經濟、剝削性勞動慣例、濫用資料的問題以及生態影響。我們還需要對高級 AI 的可能用途(例如普遍的權威監控和社會操縱)說真心話以及誰將在這過程中受益(技術公司的壟斷地位)。最後將 AI 對齊視為技術問題將權力放錯了地方。技術人員不應該是決定哪些風險和價值觀重要的人。規範管理 AI 系統的規則應該由公開辯論和民主機構確保。OpenAI 正在這方面做出一些努力,例如在設計 ChatGPT 時與不同工作領域的使用者進行諮詢。然而我們對於僅僅從更廣泛的人群中獲取反饋而不提供解決更大問題的空間的努力應該保持警惕。

另一個問題是,在對齊研究者中缺乏多樣性,包括意識形態和人口統計上的多樣性。許多研究者與矽谷的有效利他主義者和合理主義者等群體有聯動,而沒有來自歷史上推動了對科技可能造成的傷害的女性和其他被邊緣化人群的代表。如果不是對齊,那麼又該如何思考 AI 的安全問題呢?不能僅僅依靠技術本身解決技術對社會的影響。將"AI 對齊"的概念定位為 AI 公司作為保護使用者免受惡意 AI 的守護者,而不是可能造成傷害的 AI 系統的開發者,這種方式太狹隘了。儘管確保 AI 的安全無疑是一個好的目標,但僅僅透過狹窄地專注於"對齊"來解決這個問題忽視了太多迫切的和潛在的傷害。那麼,怎麼更好地思考 AI 安全問題呢?首先我們要承認並解決已有的傷害。這不是說對齊研究沒有用處,但它的框架並不有益。而 OpenAI 的"超對齊"這樣的蠢計劃僅僅是將元倫理的問題藏起來,希望以後不會被這些問題絆倒。

AI 對齊-AI 對齊,AI 安全,矽谷,思考,問題
程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。