AIGC

研究發現來源取證問題影響了 ChatGPT 的可靠性

研究發現來源取證問題傷害了 ChatGPT 的可靠性 2023 年 5 月 9 日報導 編輯附註:本文已按照 Science X 的編輯流程和政策進行了審查。編輯們在確保內容可信度的同時突出了以下特點:經過事實檢查、經過取證的來源、校對的論文。 ChatGPT 似乎無所不在。摩根士丹利、Duoling .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

研究發現來源取證問題影響了 ChatGPT 的可靠性

研究發現來源取證問題傷害了ChatGPT可靠性

2023 年 5 月 9 日報導 編輯附註:本文已按照 Science X 的編輯流程和政策進行了審查。編輯們在確保內容可信度的同時突出了以下特點:經過事實檢查、經過取證的來源、校對的論文。 ChatGPT似乎無所不在。摩根士丹利、Duolingo、Snapchat、可口可樂和 Instacart 已經簽約,程式設計人員、網頁設計師、製藥公司、作家、音樂家、翻譯人員和各種業務也加入進來。ChatGPT已經上線半年,被全球超過 1 億使用者使用,每天處理超過 1000 萬個查詢。幾乎每天都有文章寫到它可能顛覆從商業模式到個人習慣的一切。每個人都想分一杯羹。但是一些人對ChatGPT的缺點提出了警告,它是歷史上增長最快的應用程式。最為顯著的是,三月份有超過 1000 名專家簽署的一封信呼籲暫停擴大 AI 技術的應用,直到更好地理解其風險和危險。儘管懷疑論者在很大程度上關注惡意操作人員利用 AI 進行有害行為的潛力,或者幻想可能有一個場景,其中 AI 模型自行決定採取惡意行為,但其他人則更關注一個更為直接的問題:精度。華爾街日報最近警告,“AI 聊天機器人和其他生成性 AI 程式是它們消耗的資料的鏡子。它們會反胃和混合他們所被餵養的內容,既表現出很大的效果,也面臨很大的失敗。” 斯坦福大學人類中心 AI研究小組上個月在 arXiv 預印本伺服器上發表了一篇論文,質疑大型語言模型檢索中檢索的資料的可靠性。 斯坦福的納爾遜·劉(Nelson Liu)博士生是報告的作者之一,他說,“一個值得信賴的生成性搜尋引擎的必要特徵是可取證性。”在對四個流行的搜尋引擎的輸出進行研究之後,Liu 和他的兩名同事 Tianyi Zhang 和 Percy Jiang 報告說,結果“流暢,看起來通情達理,但經常包含不支援的語句和不準確的引用。”他們研究的生成性搜尋引擎包括 Bing Chat、NeevaAI、perplexity.ai 和 YouChat。主題涉及歌手艾莉西亞·凱斯(Alicia Keys)的傳記資料到社交媒體審查問題。研究人員研究了四個功能:流暢、感知效用(答案有多大幫助)、引用回憶(多少產生的語句完全得到了支援)、引用精度(生成的引用支援相關語句的比例)。一個值得信賴的生成性搜尋引擎是指達到高引用回憶和精度的搜尋引擎。結果令人沮喪。該團隊發現,回應“往往具有很高的流暢度和感知效用,但經常包含不支援的語句或不準確的引用。”只有大約一半的生成語句得到了完全的引用支援,四分之一的引用未能支援相關語句。此外團隊發現,引用回憶和精度與流暢和感知效用成反比。他們觀察到,“那些似乎更有幫助的回應往往是那些有更多不支援的語句或不準確的引用。”因此他們得出結論,“這種值得信賴性的假象增加了現有生成性搜尋引擎誤導使用者的可能性。” 本週的一篇文章討論了來源取證的問題:“像ChatGPT和 Bing Chat 這樣的聊天機器人在使虛假訊息看起來真實方面做得很出色。沒有引用-大多數聊天機器人結果都缺乏引用-很難區分精度和虛假,特別是在使用者在搜尋引擎結果頁面上花費的幾秒鐘內。” 斯坦福研究人員表示他們的研究結果“對於可能作為訊息搜尋使用者的主要工具的系統來說是令人擔憂的-特別是考慮到它們的可靠性假象。”研究人員表示希望他們的研究將“進一步推動可信賴的生成性搜尋引擎的開發,並幫助研究人員和使用者更好地理解現有商業系統的缺陷。”

ChatGPT來源取證的問題

ChatGPT是一個 AI 聊天機器人,簡單易用,越來越流行。然而ChatGPT所依賴的海量資料往往沒有得到嚴格的來源取證,這導致了它可靠性的問題。斯坦福大學的研究ChatGPT進行了詳細分析,與其他 3 個常用的 AI 搜尋引擎進行了比較,發現它們的回答“流暢,通情達理,但經常包含不支援的語句或不準確的引用。”只有約一半的生成語句具有完全的引用支援,並且四分之一的引用不能支援相關語句,這意味著其生成內容仍有很大的隨意性和不確保性。

AI 技術的風險評估

高速發展的人工智慧技術為經濟增長和社會發展帶來了巨大潛力,但與此同時 AI 技術所遇到的風險和挑戰也越來越多。一些專家呼籲暫停擴大 AI 技術的應用,直到更好地理解它的風險和危險。因此開發可靠的 AI 系統和技術,解決其面臨的挑戰,包括來源取證問題、緊急情況的應對和管理、機器學習演算法的透明性等問題,變得越來越重要。

開發可靠的生成性搜尋引擎

斯坦福大學的研究結果表明,現有的搜尋引擎存在不少問題。因此研究人員呼籲開發可靠的生成性搜尋引擎,提高其可取證性、引用回憶和精度,從而提高其可靠性。在此過程中,需要保證海量資料的來源取證和對其可靠性進行嚴格的檢查。AI 技術的發展需要緊密關注其風險和挑戰,透過持續不斷的研究和科學管理,促進其可持續、健康和可靠的發展。

結論

AI 技術的快速發展為人類帶來了前所未有的機會和挑戰。在 AI 技術的應用中,開發可靠、可取證的 AI 系統和技術是至關重要的,因為它們不僅能提高 AI 技術的可信度和可靠性,還可以確保建立一個社會信任度高的 AI 系統的基礎。因此在 AI 技術的發展過程中,需要加固對 AI 技術的風險評估和管理,推動開發可靠的生成性搜尋引擎,確保海量資料的來源和可靠性,以此推動 AI 技術的健康、可持續、可靠和可信任的發展。

Reliability-可靠性,ChatGPT,來源取證,研究
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。