網路議題

Q&A:大型語言模型是現代的魔法 8 球嗎?

大型語言模型:現代版本的魔法 8 球嗎?著:Megan Mastrola,約翰霍普金斯大學改編:,紐約時報時事評論員約翰霍普金斯大學的資安與人工智慧專家安東·達布拉表示大型語言模型(LLM)如 ChatGPT 受到媒體和消費者的過分簡單對待。他指出,這些模型的不可靠性以及它們生成的捏造和偏見內容,對 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

Q&A:大型語言模型是現代的魔法 8 球嗎?

大型語言模型:現代版本的魔法 8 球嗎?

著:Megan Mastrola,約翰霍普金斯大學

改編:,紐約時報時事評論員

約翰霍普金斯大學的資安與人工智慧專家安東·達布拉表示大型語言模型(LLM)如 ChatGPT 受到媒體和消費者的過分簡單對待。他指出,這些模型的不可靠性以及它們生成的捏造和偏見內容,對社會構成了真實且日益增長的威脅。「產業正在從它們知道被大規模地投入錯誤用途的產品中獲取大量利潤」,達布拉表示。作為約翰霍普金斯資訊安全研究所所長和確保性自治研究所聯合主任,他還補充道:「如果我汽車的加速踏板產生『幻覺』而撞向磚牆,這就被稱為『故障』。」他認為,優質的資料、企業的責任以及對使用者教育 AI 的意義和約束的理解,能夠幫助減輕風險。然而除非問題本身非常簡單以至於不需要使用 AI 來解決,否則這些措施永遠無法完全解決問題。

達布拉指出,當今的大型語言模型可以視為現代版本的魔法 8 球。他解釋道,人工智慧是解決沒有簡單或「基於規則」解決方案的困難問題的一類方法。恆溫器是解決簡單問題的一種答案:當溫度上升到一定閾值時,它開啟空調;當溫度下降到閾值以下時,它開啟暖氣。但有時候問題沒有明確答案,僅靠單純的規則無法解決。例如,在訓練 AI 區分狗和貓的影象時,AI 系統用於分類的因素非常複雜,並且很少被很好地理解。因此很難保證系統對未經訓練的狗或貓影象甚至橙子影象有何反應,甚至對已經訓練過的影象也可能無法預測其反應!達布拉將 AI 系統這種內在而不可分割的特性稱為「AI 不確保性原理」,因為 AI 問題的復雜性意味著,除非解決方案非常簡單以至於不需要 AI,否則確保性和 AI 無法共存,或者需要建立旨在緩解 AI 系統不可預測性的基於規則的防護設施。

達布拉表示:「也就是說,在每種情況下都無法對這些技術進行全面的訓練,因此無法準確預測使用它時的結果。這就像使用魔法 8 球一樣,你可能得到的答案並不是你期望的答案。」

此外達布拉還對企業無視大型語言模型的「幻覺」潛力不作警告表示不負責任。他舉例說,「幻覺」是指回答包含不正確或想像的訊息。這些幻覺可能會對技術產生不同程度的影響,其中一些相對無害,例如 LLM 告訴一群小學生太陽系中有 13 顆行星。這樣的訊息可以透過快速搜尋得到取證。然而由 ChatGPT 生成的其他更加模糊的細節或陳述可能會產生更嚴重的影響。舉個例子,使用 AI 識別基於 X 射線或掃描的癌症。幻覺可能會偵測到不存在的癌症,或者可能根本無法偵測到掃描中實際上存在的癌症。這些情況都可能帶來明顯的危害。不管你是在問 LLM 一個問題,還是用它來解釋一張圖片,或者在其中一輛以每小時 65 英裏的速度在高速公路上行駛的汽車內,都是在提供輸入並生成輸出。有時這可能沒有問題,有時則會有問題。在玩魔法 8 球時,答案並不重要。但在現實生活中的某些情況下,答案非常重要。

對於建議企業和聯邦政府應使使用者和消費者理解大型語言模型的所謂「魔法 8 球」元件的觀點,達布拉認為消費者應全面理解 ChatGPT 和其他 LLM 的能力和風險。他關注到,自動駕駛汽車公司正在將公共道路作為實驗場。駕駛人應意識到這些車輛與他們共享道路。他認為人們可能會期待,這些問題將會發生故障,但它們將被修復,之後所有這些問題就會消失。但問題將總是存在的,幻覺不會很快成為過去。然而 ChatGPT 和其他類似模型的問題將會改善,因為開發這些技術的公司和組織正在迅速建立防護設施。儘管如此使用者仍應保持懷疑。利用 AI 將是一項困難的任務,我們不希望情況變得更糟,反而希望它們變得更好。

Magic-大型語言模型,現代魔法,8 球
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。