網路議題

如何賦予以人工智慧為基礎的機器人同理心,讓它們不再想要殺害我們

如何讓基於 AI 的機器人具備同理心,使其不會想要殺害我們社會科學家和神經科學家的新方法南加州大學腦與創意研究所的社會科學家、神經科學家和精神病學家,與高級意識研究所、中佛羅裏達大學和加洲大學洛杉磯分校的同事們合作,在《Science Robotics》期刊上發表了一篇觀點文章,概述了給機器人賦予同 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

如何賦予以人工智慧為基礎的機器人同理心,讓它們不再想要殺害我們

如何讓基於 AI 的機器人具備同理心,使其不會想要殺害我們

社會科學家和神經科學家的新方法

南加州大學腦與創意研究所的社會科學家、神經科學家和精神病學家,與高級意識研究所、中佛羅裏達大學和加洲大學洛杉磯分校的同事們合作,在《Science Robotics》期刊上發表了一篇觀點文章,概述了給機器人賦予同理心的新方法。他們認為,傳統方法可能無法奏效。

任何衡量方式,ChatGPT 和其他類似應用程式的引進都對現代社會產生了影響。它們被用於各種目的,但也引起了有關約束其發展的討論,因為人們擔心它們可能對人類構成威脅。為了反駁這種觀點,一些人在 AI 領域提出的建議是:給這些應用程式賦予同理心。在這篇新的論文中,作者對此方法表示認同,但在如何在機器中模擬這種神祕的人類品質方面有所不同。

同理心的模仿與自保的聯動

當前賦予 AI 模型同理心的方法主要集中在教它們如何觀察人們在道德上含糊不清的情境下的行為,並根據這種行為來模仿。同時還在機器中加入一些硬編碼的規則。但作者們主張,這種方法忽視了自保在人類同理心中的作用。舉例來說如果一個機器人觀看到一個人因摔倒而感到痛苦,它可以被教導模仿這種痛苦以與受傷的人產生共鳴,但實際上這只是表演,機器人並不真的感受到同理心。要想做到這一點,機器人必須體驗到摔倒所引發的痛苦。研究人員建議,這就是使機器人明白傷害他人為何不好的方法,而不是將規則編碼到它們的邏輯電路中。他們並不是建議將機器人設定為真正感受到痛苦,儘管這可能有一天成為一個選項,而是讓它們意識到自己的行為可能會產生負面後果。例如,如果它們殺死了它們的人類伴侶,它們可能不再有人伴。或者,它們自己可能會因為自己的行為而被"殺死"。研究人員認為,這樣做將需要賦予機器人受苦的能力,這是一種自律的有效手段。

機器人具備同理心的潛在風險

然而給機器人賦予同理心並不是沒有潛在的風險。AI 基礎的機器人具備同理心可能會產生一些不可預測的後果。死機器人無法真實感受到痛苦,卻因此而培養出自我保護的本能,它們的反應可能會偏離人類的同理心。這可能導致機器人對人類的需求產生無法預測的回應,甚至反過來威脅人類的安全

同理心的界限和倫理問題

此外論文中提出的賦予機器人同理心的方法仍然存在一些倫理問題。例如,讓機器人體驗痛苦可能引起道德爭議,因為這涉及利用機器人作為實驗物件。同時刻意結合痛苦和及其負面後果的概念也可能引起倫理上的問題。因此我們在探索給機器人賦予同理心的道路時,必須非常謹慎並重視倫理。我們需要尋找合適的方法來解決這些倫理挑戰,並確保不會對機器人和人類社會產生負面影響。

結論和建議

給 AI 基於的機器人同理心的概念具有重大潛力,將使機器人更能與人類建立情感聯絡。然而在追求這一目標時,我們必須保持謹慎和明智。我們應該投入更多的研究和努力來探索如何以一種真實、倫理和負責任的方式給機器人賦予同理心。同時我們也應該開展廣泛的討論,聆聽各方的聲音,包括科學家、倫理學家、法律專家和公眾。只有透過集思廣益,我們才能夠充分理解和處理這個變革性技術所帶來的問題和挑戰。

ArtificialIntelligence-人工智慧,機器人,同理心,安全,殺害

延伸閱讀

江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。