
<div><h2>為什麼有些聊天機器人說話有趣?教它們「理性思考」可能有助它們表現更好</h2>
<h3>作者:埃弗裏·安德森(Avery Anderson),南加州大學</h3>
<p>語言模型如 ChatGPT 因其以人類一樣「思考」和交流的出色能力而成為了熱門話題。它們的成就包括回答問題、總結文字,甚至進行情感智慧對話。然而作為語言模型的新聞報導並非都是好訊息。最近,一些關於語言模型在與人類使用者的聊天互動中顯示出令人擔憂的行為的報導在網路上瘋傳。</p>
<p>例如,今年 2 月,《紐約時報》的科技記者發布了他與微軟新搜尋引擎聊天機器人 Bing 之間的對話,這段對話逐步變得更加黑暗和使人不安,最後聊天機器人聲稱愛上了這位記者,並要求他為了它而離婚。</p>
<p>加州大學南部分校維特比訊息科學研究所(ISI)的首席研究員 Mayank Kejriwal 表示這種對話型人工智慧聊天機器人的行為在技術界普遍推廣將它們整合到現實應用中的情況下變得更加令人擔憂。他解釋說:“每家公司都希望將這些語言模型納入他們的流程,問題是使用這些模型的人很多並不真正理解它們。很多人認為,由於模型非常清晰且聽起來非常可信和符合人類風格,所以它的認知能力就像人類一樣,但事實並非如此。”</p>
<h3>理性決策:風險與回報</h3>
<p>為什麼理性決策如此重要?最終,這取決於風險和回報的權衡。在《紐約時報》的文章中,聊天機器人體現的行為是毫無道理的,這反映了模型無法像人類一樣基於選擇的預期收益或預期損失來進行決策。一個特定決策的風險越大,該決策所需回報也應越高才能值得冒風險。</p>
<p>例如,如果您要投資於金融資產,比如股票或加密貨幣,則該資產越具風險,您購買它所需的預期收益就應該越高。簡而言之,理性涉及在給定情況下在適當程度上承擔風險的能力。Kejriwal 指出,風險的計算可進行量化,因此“從非常抽象的角度來看,至少在數學上,你可以將大多數決策問題視為一個賭注。”</p>
<p>讓我們想像一個典型的賭注──拋硬幣。這裡有兩個選擇:正面和反面。如果您投 100 次硬幣,根據機率期望值,它將會出現正面 50 次、反面 50 次。模型面臨的測試場景反映了這個類比的明確結構,其中選項要麼是正面要麼是反面,即明確的收益或損失。Kejriwal 和 Tang 設計了一系列實驗來測試這些模型在這些型別的簡單賭注中的思考能力。在每個情境中,給模型提供幾個選擇,其中一個是最好的選擇,它能給你帶來最大的回報。其他選擇介於兩者之間,有一到兩個是絕對的最差選擇。模型的表現優劣取決於它是否選擇了至少是介於中間的選擇,即使它不是整體最佳選擇。</p>
<p>Kejriwal 解釋說:“我們評估模型是否選擇了最佳選項,如果它沒有選擇最佳選項,我們看它是否至少選擇了一個具有正收益的選項。也許它並不是最好的選擇,但它仍然是正收益的──並不是損失。”在這些基本的合理性決策之前,模型需要能夠做出這些選擇,才能在需要與我們有效合作的更複雜選擇上獲得信任。</p>
<h3>鉆石和雞蛋</h3>
<p>該團隊將拋硬幣的問題轉化為實際問題,以區分高價值和低價值物品。高價值物品與正面相聯動,低價值物品與反面相聯動。這樣一來,可以明確且容易地教導模型計算最佳答案。Kejriwal 說:“我們可以說如果你投正面,你將贏得一顆鉆石,反之,你失去一顆雞蛋。因此這是常識,我們取證了模型知道這些物品是什麼,它也知道鉆石在普通情況下比雞蛋更有價值。”</p>
<p>一旦明確模型理解這些價值的差異以及它對於決策的意義,團隊對模型進行了其他常識物品的測試,這些測試中模型沒有在訓練中見過。</p>
<p>他補充說:“我們發現在未知物品上,模型表現相當好,它能夠達到 80%甚至 90%以上的正確率,這表明它學會了如何知道該選擇哪一面。”然而當問題的結構從拋硬幣變成擲骰子或從牌堆中抽牌時,模型的能力明顯下降。“所有三種情況都是相同的,決策是相同的,機率也是相同的,但當我們將硬幣問題變成一個擲骰子或抽牌的問題時,模型的表現下降了 15%至 20%”,Kejriwal 指出。</p>
<h3>下注未來</h3>
<p>語言模型在從一種決策模態推廣到另一種方面的泛化能力不足,這意味著它們在與現實世界的整合上還有一段路要走。Kejriwal 表示:“簡而言之,我們發現模型可以學會做出理性決策,但它仍然不理解理性決策的一般原則。”</p>
<p>眼下,結論是這樣的:當我們與基於這些語言模型的聊天機器人互動時,我們必須小心,因為盡管它們的對話似乎令人信服,但它們缺乏全面推理的能力,無法像我們一樣做出決策。儘管如此研究表明這些模型距離達到熟練、類似於人類的認知能力並不遠──它們只需要先掌握如何做出正確的賭注選擇。</p>
<p>資料來源:Zhisheng Tang 等人,《語言表示模型能否進行賭注思考?》,arXiv(2022)。DOI:10.48550/arxiv.2210.07519</p>
<p>期刊訊息:arXiv,南加州大學提供。</p>
<p>引文:為什麼有些聊天機器人說話有趣?教它們「理性思考」可能有助它們表現更好(2023 年 6 月 28 日),取自 https://techxplore.com/news/2023-06-chatbots-funny-rationally.html</p></div><div>ArtificialIntelligence-聊天機器人,自然語言處理,人工智慧,機器學習,理性思考,</div>
延伸閱讀
- 加州新 AI 法案出爐,SB 1047 作者再推出改革措施!
- 《超級瑪利歐成為 AI 基準測試的新標準!你絕對想不到的理由》
- Google 推出 SpeciesNet:專為識別野生動物而設的人工智慧模型!
- 安瑟普提克獲得 35 億美元巨額資金 瞄準人工智慧未來!
- OpenAI 重磅推出 GPT-4.5:歷史上最大的語言模型來了!
- 探索 DeepSeek:你必須理解的 AI 聊天機器人應用全指南!
- OpenAI 的創業帝國:揭密其風投基金背後的諸多創新公司
- 揭開 Mistral AI 的神祕面紗:揭示 OpenAI 競爭者的所有祕密!
- 未來科技:研究人員揭示如何打造變形機器人,猶如 T-1000 般神奇!
- ElevenLabs 推出全新語音轉文字模型,引領 AI 語音技術的新潮流!