是否應以 AI 的看法為依據建立政策?
上週在紐約附近的天空呈現末日般的畫面,但是在矽谷的某些人看來,我們東岸的人受到波及的黑褐色天空和各種異味,並不足為慮。事實上這些人對於未來的超級智慧是否會毀滅人類、拯救人類,或者是預言 AI 動力的烏託邦,都有著同樣的固定想法。他們似乎擁有很強的信仰,並容易陷入聖經先知的地位。為了應對 AI 的未來,這些人往往發表帶有宣教書式的宣告,讓人有如回到舊約的時代。但是對於推動像使用 ChatGPT 或 Microsoft 的 Bing 的工具,在搜尋結果或作文寫作等使用情境中最大化地發揮人類潛力的觀點,這些宣告似乎與其產品的公關宣傳有些脫節。
AI 可能創造理想的世界大觀嗎?
最近,風險投資家 Marc Andreessen 發表了一篇新的論文,名為“ Why AI Will Save the World ”。在這篇文章中,他自稱為預言家,預言了一個與伊甸園一樣理想的 AI 烏託邦。他表示:“幸運的是,我來帶來好訊息:AI 不會毀滅世界,事實上 AI 可能拯救世界。”接著,他解釋了如何達成這一目標,包括每個孩子都有一個無限耐心、無限同情、無限有知識和無限有幫助精神的 AI 師傅。這個 AI 師傅,明顯不像人類老師,沒有無限足夠的東西,卻會一直陪伴每個孩子的成長,幫助他們發揮潛力,並像機器版本的無限愛一樣,愛護他們,AI 能夠把地球變成一個完美、滋養人心的子宮,他說:“AI 不會令世界變得更加嚴苛、機械化,反而會使世界變得更溫暖、更友善。”
AI 的未來與規範
這些自信滿滿的預測裡面最大的問題是沒有人知道 AI 的未來,更不要說人工通用智慧何時出現。這與氣候變化不同,氣候變化有“確鑿的證據”和速率變化的硬性資料,遠遠超出了觀察曼哈頓橙色天空的範圍。這成為 Societies 制定合適的 AI 風險規範的問題,如果科技先知是影響 AI 決策者的力量,我們是否會制定出專注於口胡天文數位或裝飾虛幻的烏託邦規定,而非解決關於偏見、錯誤訊息、勞工轉變和社會動蕩等近期風險的規範?那些公開談論努力打造人工通用智慧(BIG)的大型科技公司的 CEO 是否是與世界領袖交談,以應對 AI 風險的合適人選?那些在 Web3 和加密貨幣方面帶頭的風險投資者如 Marc Andreessen,是否是帶領公眾應對 AI 未來的正確引領者?
應該讓防災專家來引領 AI 的未來嗎?
研究人員該如何處理當前 AI 風險的工作?{" "}深入理解 AI 對人類的巨大影響?就像 David Sheffield 在紐約時報的文章中指出的那樣,末日言論對於矽谷並不新奇,許多科技高管都擁有儲備的地下掩體。他在 2016 年的一篇文章中指出,Alman 正在儲備“槍支、黃金、碘化鉀、抗生素、電池、來自以色列國防軍的毒氣面罩以及在大瑟爾的一大塊土地,可以飛到那裡”。現在他們正在為 AI 的融合做準備,這些人可能是在為未來的 AI 風險和安全性應對做好準備。Sara Hooker 最近告訴我,這是令人擔憂的,因為這可能會為研究當前 AI 的風險而奮鬥的研究人員帶來傾覆。她說:“雖然某些領域的人從事長期風險研究是好的,但是當前研究這些天數的人數跟不上風險的快速變化,所以我希望更多的關注當前的風險和已經部署、每天都可以幫助數百萬人的 AI 模型。因為對我來說這是許多研究人員每天都在從事的專案工作。”
延伸閱讀
- 參議院研究建議:每年至少撥款 320 億美元用於人工智慧計劃
- Google I/O 盛會 AI 領域的重大訊息
- Google 掃描通話的人工智慧或增加預設審查,隱私專家發出警告
- Google I/O 2024:Google 剛宣布的所有重大訊息
- 柏林科技企業 trawa 籌得 1 千萬歐元,運用人工智慧協助中小企業更輕鬆購買可再生能源
- Google I/O 2024:AI 與 Android 大揭祕
- Google 將在 YouTube 學術影片中推出人工智慧生成的測驗
- Google 在 I/O 主題演講中提到「AI」超過 120 次
- 在人工智慧電影節上,人性戰勝科技
- AI 推動社會變革,女性呈現關鍵力量