網路議題

「普林斯頓大學專家指出:AI 生成技術的炒作已經失控」

AI Snake Oil: Debunking Hype and Exploring Responsible TechThe Changing Landscape of AI 回顧 2019 年,普林斯頓大學電腦科學教授兼算法公正、人工智慧和隱私專家阿文德·納拉亞南在 Twitter 上分享了一組名為 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

「普林斯頓大學專家指出:AI 生成技術的炒作已經失控」

AI Snake Oil: Debunking Hype and Exploring Responsible Tech

The Changing Landscape of AI

回顧 2019 年,普林斯頓大學電腦科學教授兼算法公正、人工智慧和隱私專家阿文德·納拉亞南在 Twitter 上分享了一組名為「AI 蛇油」的投影片,該投影片聲稱「如今被稱為‘AI’的許多東西都是蛇油。它不能且不可能奏效」,很快就轟動起來。最近,納拉亞南被任命為普林斯頓大學訊息技術政策中心主任,他與博士生 Sayash Kapoor 創辦了一個「AI 蛇油」的 Substack,並獲得了一本書的合約,以「探索 AI 是如何執行的,哪些問題對 AI 具有抵抗力以及如何區分它們」。

挑戰 AI 生成技術的炒作

現在隨著 AI 生成技術的瘋狂,納拉亞南和 Kapoor 即將交出一份超越他們最初論點的書稿,以應對當今的生成技術炒作,他們認為其中的一些炒作已經「失控」。

納拉亞南和 Kapoor 的觀點變化

在幾周前,我開車從新澤西州的 Turnpike 大道前往普林斯頓大學,親自與納拉亞南和 Kapoor 進行了一次訪談。以下是經過編輯和簡化的訪談內容。

問:您開始發表關於 AI 蛇油的觀點時,主要集中在預測性 AI 上。AI 領域自那時以來發生了很大變化,您對「AI 蛇油」的觀點是否有所改變?

納拉亞南(答):起初,我對 AI 蛇油的論述幾乎完全集中在預測性 AI 上。事實上我們在寫作中一直很清楚地區分生成和預測等不同型別的 AI 以及為什麼一種型別的快速發展可能對其他型別沒有任何意義。當我們開始寫作時,我們確實認為生成 AI 的進展是真實的。但就像幾乎所有其他人一樣,這一進展程度出乎我們的意料,尤其是它如何成為一種消費者技術。這是我無法預測的。當某樣東西成為消費者技術時,在人們的心中就有了一種巨大的不同意義。因此我們不得不重新聚焦我們書中的很多內容。當然我們沒有改變任何論點或立場,但現在在預測性和生成性 AI 之間的重心更加平衡。

問:當我們提到「蛇油」時,我們會想起推銷員。從某種程度上說,這是一個面向消費者的概念。所以,現在當您使用這個詞時,對於消費者或企業來說您的最重要訊息是什麼?

納拉亞南(答):我們仍然希望人們能夠對不同型別的 AI 有不同看法——這是我們的核心訊息。如果有人試圖告訴您如何全面看待所有型別的 AI,我們認為他們明顯過度簡化了事情。對於生成 AI,我們在書中明確並多次承認這是一種強大的技術,已經對很多人產生了有用的影響。但與此同時它也被過度吹噓。儘管它非常有能力,但其中一些炒作已經失控。存在著許多風險。已經發生了許多有害的事情。有許多不道德的開發實踐。因此我們希望人們對此有所警覺並利用他們的集體力量,在他們工作場所做出關於採用哪種技術的決策,或在他們的個人生活中,利用這種力量來產生變革。

問:對來自更廣泛社區的回應和反饋,不僅僅是在 Twitter 上,而是在學術界的其他研究人員中,您們獲得什麼樣的推動或反饋?

Kapoor(答):我們去年八月開始寫部落格時,並沒有預料到它會變得如此受歡迎。更重要的是,我們沒有預料到會收到如此多的良好反饋,這些反饋幫助我們改進了書中的許多論點。仍然有一些學者、企業家,或者在某些情況下,大公司與我們接觸,討論他們應該如何制定政策。此外也有一些批評,這也讓我們反思了我們如何呈現我們的論點,無論是在部落格還是在書中。例如,當我們開始寫關於大型語言模型(LLM)和安全性的文章時,剛好那時原始 LLaMA 模型問世,人們對我們對 AI 不具有在虛假訊息方面造成更大傷害的立場感到驚訝。基於這樣的反饋,我們進行了更多的研究和對現有和過去文獻的參考,並與一些人進行了交流,這確實幫助我們改進了我們的思考。

問:在《AI 蛇油》中,您希望看到在生成 AI 方面採取哪些行動步驟?

Kapoor(答):對我來說我希望首先理解關於生成 AI 的使用透明度,人們實際上如何使用這些平臺。相比之下,Facebook 每季度都會發布一份透明報告,報告說「有這麼多人用它來發表仇恨言論,這是我們正在做的事情」。而對於生成 AI,我們沒有任何類似的報告——完全沒有。我認為生成 AI 公司也可以做類似的報告,尤其是如果它們的產品最終面向消費者市場。

納拉亞南(答):從具體的幹預措施提升到在政策制定方面可能需要發生的結構性變化。政府需要有更多的技術專家。更好地資助我們的執法機構將有所幫助。人們經常將 AI 政策視為一個問題,我們必須從頭開始找到一個靈丹妙藥。但實際上不是這樣的。大約 80%的事情只是執行我們已經擁有的法律並避免漏洞。

問:作為 AI 炒作的倡導者,您最討厭哪些事情?或者您希望人們、個人和企業使用 AI 技術時牢記什麼?

Kapoor(答):好的,這可能會有點爭議,我們拭目以待。在過去幾個月中,所謂的 AI 倫理學和 AI 安全性社區之間的所謂裂痕越來越大。有很多談論這是一個需要解決的學術裂痕,這些社區基本上追求的是同一目標。我對這種論述最煩惱的是人們沒有認識到這是一場權力爭奪戰。這實際上不是關於這些觀點的學術價值的問題。當然兩邊都提出了許多不好的學術和理論主張。但這並不是真正的問題所在。這是關於誰得到資金,哪些問題受到優先考慮。因此將其看作是個體之間的衝突或個性之間的衝突,實在低估了整件事情的重要性,讓人覺得像是人們在爭吵,而實際上它涉及的問題更深層次。

納拉亞南(答):當人們閱讀關於人工智慧的新聞報道時,我希望他們不要對數位過於驚歎。我們看到各種關於人工智慧的數位和聲稱,例如 ChatGPT 在法律考試中的準確率達到了 70%,或者可能有一種地震檢測人工智慧的準確率達到了 80%,或其他類似的數位。我們在書中的觀點是,這些數位幾乎毫無意義。因為真正的關鍵在於某人在實驗室進行的評估有多好地對應了人工智慧在現實世界中執行的條件。而這些條件可能千差萬別。例如,對於自動駕駛的前景,我們已經有很多令人期待的宣言。但當你把車真正投入到現實世界中時,你就會開始注意到這些問題。

對「AI 蛇油」的樂觀態度

納拉亞南(答):就我個人而言,我對所有這些都持樂觀態度。我批評技術之所以是因為我相信事情可以變得更好。如果我們回顧各種過去的危機,最終問題都得到理解決,但這是因為人們在關鍵時刻對它們表示了關注。

AItechnology-普林斯頓大學,AI 生成技術,炒作,失控

延伸閱讀

程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。