
虛假事實與現實的對抗:一種將大型語言模型答案與現實連結的新技術
引言
近日紐約一名律師因使用大型語言模型(LLMs)ChatGPT 在法庭上提供的虛假資訊而遭遇尷尬。儘管這些模型在訓練過程中使用了大量事實資料,但它們還是會產生虛假資訊,俗稱「幻覺」。這種幻覺可能發生在 LLMs 對於少接觸的主題生成文字時,或者當它們將來自多個來源的資訊混合在一起時。為解決這個問題,約翰霍普金斯大學的一個研究小組開發了一種方法,以減少 LLMs 幻覺的可能性。
根據之前觀察到的文字引用語
該研究小組受到新聞界常用的一句話啟發,進行了一項關於綜合使用「according to」這幾個字詞對 LLMs 生成答案的影響的研究。他們發現,當使用「according to」作為提示時,語言模型更有可能直接引用之前觀察到的文字,而不是產生虛假答案。這就像一位記者引用訊息來源一樣。
對於這項研究,該研究小組成員發表了以下評論:「語言模型非常擅長遵循句法和語義提示」,小組成員 Weller 解釋道。「由於『according to』在新聞文章引用來源時更有可能出現線上上,LLMs 可能會將這個提示視為從訓練資料中搜尋引用的線索。」
評估引用訊息的可信度
研究小組利用之前由該小組的 Marone 和 Van Durme 開發的名為「Data Portraits」的工具,可以快速確保特定內容是否存在於訓練資料集中,而無需下載大量文字。小組利用這個工具來取證 LLMs 的回答是否能夠在原始訓練資料中找到。換句話說,他們能夠確保模型是在胡亂捏造資訊還是根據已經學到的資料生成答案。小組稱這種度量指標為「QUIP-Score」,它代表引用訊息的準確性。當使用引文提示(例如「根據維基百科...」)時,QUIP-Score 提高了 5%至 15%。事實上增加一個鼓勵模型從高質量來源中提取訊息的引文提示,不僅提高了模型引用文字的能力,還提高了其回答的詳細程度和準確性。
促進知識根基的提升
該研究小組的成員 Khashabi 表示:「我們希望透過讓 LLMs 從訓練中直接引用可靠資源,改善知識根基。我們的目標是讓模型可以存取有用的內容,例如從高質量或可信賴的檔案中記憶的字元串。」需要注意的是,雖然模型生成的文字可能存在於維基百科或指定的其他資訊來源中,但這並不能自動使其輸出的答案與問題相關並正確。
方法的局限性
該方法並不能完全解決問題,但它是向幫助 LLMs 生成更多真實和準確資訊邁出的一步。最終模型的回答準確性仍取決於其訓練資料的質量。研究小組已經考慮了過濾不可靠網站訊息的能力。Weir 表示:「我們證實在你的查詢中可以寫上『不引用 XYZ.com』,ChatGPT 將予以遵從,這更顯示出它對於根基指示的理解。」該方法不需要人工調整即可在各種 LLMs 上執行良好,但該小組聲稱,在使用較大型模型並與指導調整搭配使用時,效果最好。
綜上所述,利用「according to」這幾個字詞作為提示,可以改善 LLMs 生成答案的可信度,並幫助它們直接引用已訓練的資料。這項研究可能是解決語言模型生成虛假資訊的一個重要步驟,同時也提供了防止模型根據不可靠訊息做出回答的方法。
該研究於 arXiv 預印版上發表。
(翻譯:API.ai)
延伸閱讀
- OpenAI 重磅推出 GPT-4.5:歷史上最大的語言模型來了!
- 「Cellebrite 中止塞爾維亞客戶關係,警方疑似利用其技術安裝間諜軟體!」
- Nomagic 獲得 4400 萬美元資金,AI 驅動的機器手臂技術將改變未來!
- 「深入解析!ChatGPT 收費全攻略:你需要知道的一切」
- 「Amazon Alexa 大會即將揭幕:將帶來哪些驚人新功能?」
- 「FAA 開始測試 Starlink 終端,馬斯克批評 Verizon 技術‘無法執行’!」
- 「Meta 技術長:若不滿新政策,員工應該考慮辭職!」
- 蘋果緊急修補 iPhone 與 iPad 漏洞!解密「極端精巧攻擊」背後的真相
- 深入探索 DeepSeek:您需要理解的 AI 聊天機器人應用程式的全部資訊!
- XOi 募資 2.3 億美元,收購 Specifx 擴大現場服務技術版圖!