網路議題

遭受爭議的「危險」思想引發 AI 辯論之戰

專欄報導: AI 辯論之戰—危險思想塑造論述簡介自動駕駛汽車製造商特斯拉的埃隆·馬斯克(Elon Musk)等人主張人工智慧(AI)可能導致人類滅亡,同時主張他們的產品是唯一能拯救我們的方式。而這種將長程主義(longtermism)作為框架的理念主導了有關人工智慧的辯論,該理念認為人類滅亡的可能性 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

遭受爭議的「危險」思想引發 AI 辯論之戰

專欄報導: AI 辯論之戰—危險思想塑造論述

簡介

自動駕駛汽車製造商特斯拉的埃隆·馬斯克(Elon Musk)等人主張人工智慧(AI)可能導致人類滅亡,同時主張他們的產品是唯一能拯救我們的方式。而這種將長程主義(longtermism)作為框架的理念主導了有關人工智慧的辯論,該理念認為人類滅亡的可能性極高。然而越來越多的批評者警告說,這種哲學觀點是危險的,並且過度關注滅絕問題,忽略了 AI 所帶來的真正問題,例如資料盜竊和有偏見的演算法。儘管如此長程主義、變形人道主義(transhumanism)和有效利他主義(effective altruism)等相關思想在牛津大學、史丹佛大學以及整個科技行業中仍然具有巨大影響力。

危險的長程主義

長程主義的信徒信奉為最多數人創造最好結果的道義義務。這與 19 世紀自由主義者並無分別,但長程主義更關注長遠的時間線。他們展望未來,看到數以兆計的人類在太空中漂浮、開拓新世界。他們主張我們對每一個未來的人類應該承擔與對當今人類相同的義務。由於未來人類的數量如此龐大,他們的觀點比今天的人類更重要。然而這種思維方式讓這種意識形態變得「非常危險」,《人類滅亡:滅絕的科學和倫理歷史》一書的作者艾米爾·託雷斯(Emile Torres)說道。他說:「當你對未來充滿無限價值的烏託邦展望,並將其與以導致手段辦好末端來進行道德思考的功利主義模式結合在一起時,這將是危險的」。如果一臺超智慧機器即將出現,具有摧毀人類的潛力,長程主義者無論後果如何都會反對。在 X 平臺上,一位名為 Eliezer Yudkowsky 的長程主義者被問及多少人會死亡以阻止這種情況發生時,他回答只需要足夠的人口「形成可行的人口再生群體」。他後來刪除了這條訊息。

長程主義的起源與爭議

長程主義起源於瑞典哲學家尼克·博斯特朗(Nick Bostrom)在 20 世紀 90 年代和 21 世紀初就存在風險和變形人道主義—即利用技術來增強人類的思想進行的研究。學者 Timnit Gebru 指出,變形人道主義從一開始就與優生學有關。英國生物學家朱利安·赫胥黎(Julian Huxley)創造了「變形人道主義」一詞,同時也是 20 世紀 50 年代和 60 年代英國優生學會的主席。「長程主義就是以不同的名義進行的優生學」,Gebru 在去年抨擊道。在列出了「不良生殖壓力」作為存在風險之一後,博斯特朗一直面臨著支援優生學的指控,即意味著較不聰明的人繁殖得比他們更聰明的人快。作為牛津大學未來生命研究中心的主任,他在 1 月份承認他在 1990 年代的一個網路論壇上曾發表種族主義言論後道歉。在他的道歉中,他寫道:“我支援優生學嗎?不,不符合一般理解的那種意義”。他指出,優生學已被用來為“上世紀最恐怖的暴行”提供理由。

財富集中和議題誤導

儘管存在上述爭議,長程主義的信徒如上述提到的 Yudkowsky 一樣,依然受到褒揚。Altman 曾稱讚他使 OpenAI 獲得資金,並在今年 2 月建議他應該獲得諾貝爾和平獎。但 Gebru、Torres 和許多其他人正試圖重新關注關於偷竊藝術家作品、偏見和少數企業集中財富等問題的影響。Torres 在談到滅絕時表示:“談論人類滅絕、真正意義上的大災難,這比談論肯亞工人每小時只得到 1.32 美元,或者藝術家和作家受到剝削等問題更為聳人聽聞和引人入勝。”

評論與建議

人工智慧倫理面臨挑戰

這篇報導提出了幾個關於人工智慧辯論和長程主義的議題。首先長程主義者的觀點受到了批評,稱其觀點過於危險和理想化,可能導致對人類的不當行為。長程主義者的著眼點在於無數的未來人類,並對他們具有道義義務,但這種觀點很容易引發過度而極端的行動。然而值得注意的是,危險和理想化的觀點不一定意味著它們是錯誤的,而是需要更加謹慎地考慮和平衡。

重新關注 AI 的現實問題

報導還指出,由於長程主義等思想的影響,關於人工智慧的公眾辯論過於偏向災難性的結果,而忽略了一些現實問題,例如資料盜竊、有偏見的演算法以及財富集中等問題。這種偏置可能導致對於 AI 的發展和應用缺乏全面的理解和討論。因此對於 AI 的討論應該更加平衡,關注實際的倫理、社會和經濟問題。

社會責任和影響投資

報導提到,許多長程主義者的觀點與投資和創業界有關。一些風險投資家已經投資到與長程主義相關的生命延長公司和其他專案中。這引發了有關企業社會責任的問題以及投資者和企業家對於他們投資和創業活動的影響的應對。投資者和企業家應該意識到他們的行為對社會和技術發展產生的影響,並採取負責和可持續的做法。

結論

長程主義等思想對於塑造人工智慧辯論和技術倫理方面具有重大影響。這些觀點引發了對於未來命運和道德責任的深刻思考。然而我們需要慎重對待這些觀點,以確保兼顧全面的社會、經濟和倫理問題。同時我們應該重新關注 AI 的實際問題,並思考如何以社會責任的方式進行投資和創業活動。

AI 辯論之戰-危險思想,AI 辯論,爭議,人工智慧,技術倫理

延伸閱讀

江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。