探索給予大型語言模型情感刺激的效果
引言
隨著 OpenAI 的 ChatGPT 的出現,大型語言模型(LLM)已變得非常受歡迎。這些模型透過大量的資料訓練,能夠以驚人地類人方式回答使用者的書面查詢,迅速生成特定領域的定義、文字摘要、上下文特定建議、飲食計劃等等。儘管這些模型在許多領域表現出色,但它們對情感刺激的反應仍然未受到深入研究。 近期微軟和中科院軟體所的研究人員提出了一種方法,可以改善 LLM 與人類使用者之間的互動,讓它們能夠對人類使用者所提供的情感化、基於心理學的提示作出反應。心理學與情感刺激
李成、王進東等人提出的這種方法名為 EmotionPrompt,靈感來自心理學和社會科學領域中的成熟知識。例如,過去的心理學研究發現,鼓勵的話語和其他情感刺激可以對個人生活的不同領域產生積極影響,比如能夠提高學生的成績、促進更健康的生活方式等等。為了觀察情感刺激是否也能影響 LLM 的表現,研究人員提出了 11 個情感句子,這些句子可以新增到模型接收到的提示中。這些句子來自於現有的心理學文獻,如 Henri Tajfel 和 John Turner 在 20 世紀 70 年代提出的社會身份理論、社會認知理論和認知情感調節理論。 研究人員將這些句子新增到傳送給不同 LLM 的提示中,要求模型完成不同的語言任務。到當前為止,他們在四個不同的模型上測試了這種方法:ChatGPT、Vicuna-13b、Bloom 和 Flan-T5-Large。結果顯示,在八個不同的任務上,模型的效能得到了改善,其回答的準確性提高了超過 10%。提升 LLMs 效能的 EmotionPrompt 方法
李成、王進東等人在論文中寫道,EmotionPrompt 的原理非常簡單:將情感刺激融入提示中。實驗結果表明,他們的 EmotionPrompt 在相同的單一提示模板上顯著優於原始的零-shot 提示和 Zero-shot-CoT,並在 ChatGPT、Vicuna-13b、Bloom 和 T5 等多個模型上進行的八個任務中提高了回答的真實性和訊息量。潛在影響和未來展望
這個研究團隊提出的新方法可能會啟發其他研究,旨在透過引入情感/心理學提示來改善人類與 LLM 的互動。儘管迄今為止收集的結果令人鼓舞,但還需要進一步的研究來取證其有效性和普適性。 研究人員在論文中總結道,這項工作還存在一些約束。首先他們僅在四個 LLM 模型上進行了實驗,而且在幾個任務中只有少數測試示例,數量有限。因此關於情感刺激的結論只適用於他們的實驗,而超出本文範圍的 LLMs 和資料集可能無法與情感刺激配合使用。其次本文提出的情感刺激可能對其他任務不具有普適性,研究人員可以提出其他有用的替代方法。結論
隨著對情感刺激的研究以及進一步改進人類與 LLM 之間的互動,在未來將能夠更好地利用 LLM 的潛力。然而這項研究還需要更多取證和擴充套件,以確保 EmotionPrompt 方法在不同 LLMs 和任務上的效果。 這一研究為我們對人工智慧發展的理解和應用提供了新的視角,並為語言模型的發展提供了新的研究方向。參考文獻
Li, C., Wang, J., et al. (2023). EmotionPrompt: Leveraging Psychology for Large Language Models Enhancement via Emotional Stimulus. arXiv. DOI: 10.48550/arxiv.2307.11760. [連結到原文](https://techxplore.com/news/2023-08-exploring-effects-emotional-stimuli-large.html)Emotion-大型語言模型、情感刺激、探索、影響
延伸閱讀
- 抖音禁令對創作者經濟新創公司是否會產生影響?創辦人們表示影響並不大
- 人工智慧與文化:Ewa Luger 探索 AI 如何影響文化,反之亦然
- 美國投資臺積電受中美緊張關係影響
- 敬請期待:與 Sand Technologies 一同探索未來員工與科技進化的策略
- 2024 年 TechCrunch 早期階段女性早餐:AI 對創始人的影響探討
- 大型語言模型可幫助家庭機器人在無需人類幫助的情況下恢復錯誤
- 美國司法部對蘋果提起訴訟 標題搶眼 但對近期影響有限
- 星巴克放棄 Odyssey NFT 計畫:背後的故事與影響
- Google Gemini: 探索新世代生成式人工智慧平臺
- 微軟裁員 1900 名員工,影響到動視暴雪及 Xbox 部門