網路議題

AI 辯論中爭論不休的「危險」意識形態之鬥爭

危險的意識形態正在塑造人工智慧辯論作者: Joseph BOYLE 背景自從特斯拉的埃隆·馬斯克(Elon Musk)等人聲稱人工智慧可能導致人類滅絕並主張只有他們的產品能拯救我們以來,人工智慧的辯論一直圍繞著一種被稱為長期主義(longtermism)的哲學觀念展開。然而越來越多的批評者警告說這種哲 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

AI 辯論中爭論不休的「危險」意識形態之鬥爭

危險意識形態正在塑造人工智慧辯論

作者: Joseph BOYLE

背景

自從特斯拉的埃隆·馬斯克(Elon Musk)等人聲稱人工智慧可能導致人類滅絕並主張只有他們的產品能拯救我們以來,人工智慧的辯論一直圍繞著一種被稱為長期主義(longtermism)的哲學觀念展開。然而越來越多的批評者警告說這種哲學觀點是危險的,對滅絕的執著使人們忽略了與人工智慧相關的真正問題,如資料盜竊和有偏見的算法。

危險的理念

長期主義者認為我們有責任為最大數量的人類努力創造最好的結果。這與 19 世紀的自由主義者沒有什麼不同,但長期主義者的思維更為長遠。他們展望遠未來,看到數以兆計的人類在太空中漂流,殖民新的世界。他們認為對這些未來人類,我們有與對今天活著的任何人一樣的責任。由於他們的數量如此龐大,他們的重要性也比今天的“標本”更重要。這種思維方式,讓這種意識形態變得“極其危險”,如《人類滅絕:消滅的科學和倫理史》一書作者埃米爾·託雷斯(Emile Torres)所說。他認為:“每當你對未來有一個被無限價值所標記的烏託邦視覺,結合一種結果可以辯護手段的功利主義道德思維方式,都會變得危險。”如果一部超智慧機器可能即將誕生,並具有摧毀人類的潛力,長期主義者將毫不猶豫地反對它,不管後果如何。當 Twitter 的一個使用者在 3 月問及,為了阻止這種情況發生,需要犧牲多少人時,長期主義者理念家埃利耶澤·尤德科夫斯基(Eliezer Yudkowsky)回答說,只需要足夠多的人口“形成一個可行的生育群體”。他寫道:“只要這一點成立,就有一天能夠到達星星”,後來他刪除了這條訊息。

與優生學相關

長期主義源於瑞典哲學家尼克·博斯特羅姆(Nick Bostrom)在 90 年代和 2000 年代關於存在風險和超人類主義(transhumanism)的工作。學者 Timnit Gebru 指出,超人類主義從一開始就與優生學有關。英國生物學家朱利安·赫胥黎(Julian Huxley)在 1950 年代和 1960 年代曾是英國優生學會的主席。“長期主義只是以不同的名義進行的優生學”,去年 Gebru 在 X 上寫道。博斯特羅姆長期以來一直面臨優生學的指責,因為他將“無益的壓力”列為存在風險,這基本上是指較不聰明的人以比他們較聰明的同伴更快速繁殖。這位哲學家當前在牛津大學的 Future of Life Institute 任職,他曾在 1 月承認自己在 20 世紀 90 年代在一個網際網路論壇上寫過種族主義言論,之後向公眾道歉。他在致歉信中寫道:“我支援優生學嗎?不,不是如我們通常理解的那樣。”他指出,優生學已被用來為“上個世紀的一些最恐怖的暴行”辯護。

影響力的問題

盡管如此,長期主義者如高中輟學生、以寫哈利波特同人小說而聞名、推崇多元戀愛的尤德科夫斯基等人仍然受到推崇。Altman 稱贊尤德科夫斯基促成了 OpenAI 的獲資,並於 2 月份暗示他應該得到諾貝爾和平獎。然而 Gebru、託雷斯和許多其他人試圖重新關注盜竊藝術家作品、偏見和財富在少數公司手中集中等問題。託雷斯自述其代名詞為他們,他們說,儘管尤德科夫斯基等人都是忠實的信奉者,但圍繞滅絕的辯論大多出於營利的動機。“談論人類滅絕,談論真正的世界末日事件,每個人都死亡,這比肯亞工人每小時支付 1.32 美元工資,或者藝術家和作家被剝削的話題更具聳動性和吸引力。

社論評論

長期主義帶來的倫理困境

這個報導揭示了長期主義這一思想派系在人工智慧辯論中的危險影響力。長期主義者追求超越當今目標,為遠未來的無數人類謀求最大利益。然而這種極端的利益追求可能導致無視當前重大問題,如資料隱私、偏見算法和財富不平等。

對人工智慧未來的關注應該多元化

報導中批評者的觀點提醒我們,對於人工智慧的未來,我們不能只關注滅絕的潛在危險,而忽視了影響當前社會問題的問題。我們應該更關注資料安全、算法公正性和技術所帶來的潛在傷害,而不僅僅是對遙遠未來的想像。

達成平衡的道路

人工智慧是一個既有潛力帶來巨大利益又令人擔憂的領域。我們應該追求平衡,既要關注科技的發展潛力,也要重視科技在社會中的負面影響。長期主義者為超越當今設立的目標值得探討,但我們也應該關注當下的倫理和社會問題,以確保人工智慧的發展符合人類整體福祉。

建議

多元的意見和觀點

在人工智慧辯論中,我們需要多元的意見和觀點。長期主義者提出了一個遙遠的目標,但我們也應該聆聽其他對於人工智慧發展可能帶來的重大問題關注的聲音。只有透過多元的對話和討論,我們才能找到建立一個符合人類共同利益的人工智慧世界的最佳途徑。

倫理框架的建立

人工智慧的發展需要倫理框架的指導。像資料隱私、算法公正性和財富不平等等議題應該受到重視,我們需要討論和制定相應的規範和法律,以確保科技的發展符合社會的價值觀和道德標準。

科技企業的責任

科技企業在人工智慧的發展和應用中扮演著重要角色。這些企業需要意識到自己的社會責任,不僅僅追求利益最大化,還要考慮科技可能對社會的影響。他們應該積極參與對人工智慧發展相關議題的討論,並投入資源解決科技帶來的問題。

結論

長期主義在人工智慧辯論中所帶來的危險影響力值得關注。我們應該追求多元的意見和觀點,關注當前社會的倫理和社會問題,並制定相應的倫理框架。科技企業也應該承擔起自身的社會責任,追求科技發展與人類整體福祉的平衡。只有這樣,我們才能在人工智慧的發展中找到最佳途徑,並確保科技的力量為人類帶來真正的利益。
Conflict-AI 辯論,危險,意識形態,鬥爭
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。