網路議題

AI chatbots frequently fabricate information, and opinions on whether this hallucination problem can be resolved vary

人工智慧對話機器人的幻覺問題:尚無解決之道?背景隨著科技的快速發展,人工智慧(AI)對話機器人在商業、組織以及學生的工作中扮演著越來越重要的角色。然而這些對話機器人有時會說出錯誤的訊息,這被稱為幻覺(hallucination)或杜撰(confabulation)。這對那些從事具有高風險後果的任務, .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

AI chatbots frequently fabricate information, and opinions on whether this hallucination problem can be resolved vary

人工智慧對話機器人的幻覺問題:尚無解決之道?

背景

隨著科技的快速發展,人工智慧(AI)對話機器人在商業、組織以及學生的工作中扮演著越來越重要的角色。然而這些對話機器人有時會說出錯誤的訊息,這被稱為幻覺(hallucination)或杜撰(confabulation)。這對那些從事具有高風險後果的任務,如心理治療、法律研究和撰寫檔案的人來說已成為一個問題。

當前,許多開發大型語言模型的主要開發商,包括 Anthropic、ChatGPT 的開發商 OpenAI 等,聲稱他們正在努力使這些模型更加真實可信。然而教授 Daniela Amodei(Anthropic 的聯合創始人和總裁)表示沒有任何一款模型可以完全避免幻覺,因為這些模型只是設計用來預測下一個詞而已。

問題依然存在

學者 Emily Bender(華盛頓大學語言學教授和計算語言學實驗室主任)認為,這個問題無法解決,因為這涉及到技術與預期使用場景之間的不匹配。無論這些模型是否改進,還是會存在失效情況,尤其是在人們很難察覺的情況下。因此仍有專家認為這個問題並不能輕易解決。

利益與困境

人們對生成式 AI 技術的可靠性有著很高的期望,而麥肯錫全球研究所預計,這將為全球經濟帶來相當大的增長。報道中提到,此領域的熱潮包括能夠生成新影象、影片、音樂和程式碼的技術,而幾乎所有的工具都包含某種程度的語言組成部分。

Google 已經向新聞機構推銷一款新聞撰寫 AI 產品,其中準確性至關重要。美聯社也與 OpenAI 合作,探索利用 AI 技術來提升其新聞系統,並使用美聯社的文字資料庫來改善其 AI 模型。

當然這些問題不僅僅是關於新聞寫作,還涉及到更多領域,例如食譜創新和市場行銷。一家名為 Jasper AI 的德克薩斯新創公司與 OpenAI、Anthropic、Google 和 Facebook 等公司合作,為客戶提供定制化的 AI 語言模型,以應對不同的需求。對於像市場行銷公司這樣的公司來說幻覺實際上是一個附加價值,因為這些 AI 能夠提供客戶從未想過的創意和觀點。

展望與挑戰

儘管一些人對 AI 模型能夠區分事實和虛構表達樂觀,認為未來可以將這個問題解決,但仍有一些懷疑者。即使 OpenAI CEO Sam Altman 本人也不完全相信 ChatGPT 生成的答案。他在一次存取中表示他可能是在地球上最不相信 ChatGPT 生成答案的人。

微軟聯合創始人比爾·蓋茨等技術樂觀主義者對 AI 的前景持樂觀態度,並希望 AI 模型能夠學會區分事實和虛構。然而連 Altman 本人也表示現在還不能依賴這些模型的說法。

結論

AI 對話機器人的幻覺問題是一個令人困惑的問題,並且當前尚無找到解決這個問題的方法。儘管一些高科技公司承諾努力解決這個問題,但這是否真的可行尚未可知。我們需要謹慎對待這些 AI 模型生成的訊息,並對於其結果保持一定的懷疑。畢竟,單純從技術角度來看,AI 模型只是一個機器,無法真正理解人類的意圖和語境。

當然這並不意味著我們應該對 AI 技術失去信心。不斷努力改進這方面的技術是必要的,但同時也要警惕技術的局限性。我們應該明白 AI 模型的約束,並在使用它們的同時保持謹慎和批判的態度。

ArtificialIntelligence-wordpress,AIchatbots,fabricateinformation,opinions,hallucinationproblem,resolved
程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。