
如何讓基於 AI 的機器人具備同理心,使其不會想要殺害我們
社會科學家和神經科學家的新方法
南加州大學腦與創意研究所的社會科學家、神經科學家和精神病學家,與高級意識研究所、中佛羅裏達大學和加洲大學洛杉磯分校的同事們合作,在《Science Robotics》期刊上發表了一篇觀點文章,概述了給機器人賦予同理心的新方法。他們認為,傳統方法可能無法奏效。
任何衡量方式,ChatGPT 和其他類似應用程式的引進都對現代社會產生了影響。它們被用於各種目的,但也引起了有關約束其發展的討論,因為人們擔心它們可能對人類構成威脅。為了反駁這種觀點,一些人在 AI 領域提出的建議是:給這些應用程式賦予同理心。在這篇新的論文中,作者對此方法表示認同,但在如何在機器中模擬這種神祕的人類品質方面有所不同。
同理心的模仿與自保的聯動
當前賦予 AI 模型同理心的方法主要集中在教它們如何觀察人們在道德上含糊不清的情境下的行為,並根據這種行為來模仿。同時還在機器中加入一些硬編碼的規則。但作者們主張,這種方法忽視了自保在人類同理心中的作用。舉例來說如果一個機器人觀看到一個人因摔倒而感到痛苦,它可以被教導模仿這種痛苦以與受傷的人產生共鳴,但實際上這只是表演,機器人並不真的感受到同理心。要想做到這一點,機器人必須體驗到摔倒所引發的痛苦。研究人員建議,這就是使機器人明白傷害他人為何不好的方法,而不是將規則編碼到它們的邏輯電路中。他們並不是建議將機器人設定為真正感受到痛苦,儘管這可能有一天成為一個選項,而是讓它們意識到自己的行為可能會產生負面後果。例如,如果它們殺死了它們的人類伴侶,它們可能不再有人伴。或者,它們自己可能會因為自己的行為而被"殺死"。研究人員認為,這樣做將需要賦予機器人受苦的能力,這是一種自律的有效手段。
機器人具備同理心的潛在風險
然而給機器人賦予同理心並不是沒有潛在的風險。AI 基礎的機器人具備同理心可能會產生一些不可預測的後果。死機器人無法真實感受到痛苦,卻因此而培養出自我保護的本能,它們的反應可能會偏離人類的同理心。這可能導致機器人對人類的需求產生無法預測的回應,甚至反過來威脅人類的安全。
同理心的界限和倫理問題
此外論文中提出的賦予機器人同理心的方法仍然存在一些倫理問題。例如,讓機器人體驗痛苦可能引起道德爭議,因為這涉及利用機器人作為實驗物件。同時刻意結合痛苦和及其負面後果的概念也可能引起倫理上的問題。因此我們在探索給機器人賦予同理心的道路時,必須非常謹慎並重視倫理。我們需要尋找合適的方法來解決這些倫理挑戰,並確保不會對機器人和人類社會產生負面影響。
結論和建議
給 AI 基於的機器人同理心的概念具有重大潛力,將使機器人更能與人類建立情感聯絡。然而在追求這一目標時,我們必須保持謹慎和明智。我們應該投入更多的研究和努力來探索如何以一種真實、倫理和負責任的方式給機器人賦予同理心。同時我們也應該開展廣泛的討論,聆聽各方的聲音,包括科學家、倫理學家、法律專家和公眾。只有透過集思廣益,我們才能夠充分理解和處理這個變革性技術所帶來的問題和挑戰。
延伸閱讀
- 加州新 AI 法案出爐,SB 1047 作者再推出改革措施!
- 《超級瑪利歐成為 AI 基準測試的新標準!你絕對想不到的理由》
- Google 推出 SpeciesNet:專為識別野生動物而設的人工智慧模型!
- 安瑟普提克獲得 35 億美元巨額資金 瞄準人工智慧未來!
- Cloudsmith 籌集 2300 萬美元 強化軟體供應鏈安全!
- OpenAI 重磅推出 GPT-4.5:歷史上最大的語言模型來了!
- 探索 DeepSeek:你必須理解的 AI 聊天機器人應用全指南!
- OpenAI 的創業帝國:揭密其風投基金背後的諸多創新公司
- 揭開 Mistral AI 的神祕面紗:揭示 OpenAI 競爭者的所有祕密!
- 未來科技:研究人員揭示如何打造變形機器人,猶如 T-1000 般神奇!