#大型語言模型

9 篇文章

MLPerf 3.1 引入大型語言模型基準測試,挑戰推理能力
989

MLPerf 3.1 引入大型語言模型基準測試,挑戰推理能力

MLCommons 近日宣布,他們將 MLPerf AI 基準測試套件擴充套件至大型語言模型(LLMs)的推理能力測試,並新增了用於機器學習工作負載的儲存系統效能基準測試。MLCommons 是一個中立、多利益相關者組織,旨在透過 MLPerf 基準測試提供公平的報告平臺,讓廠商能夠報告人工智慧效能

大型語言模型具有高毒性機率並洩露私人資訊—最新研究揭示了令人震驚的真相
788

大型語言模型具有高毒性機率並洩露私人資訊—最新研究揭示了令人震驚的真相

最新研究顯示大型語言模型存在高毒性機率並洩露私人資訊引言最近一項全球性的研究表明,雖然生成式人工智慧(AI)可能存在幻覺、錯誤訊息和偏見,但這並未阻止超過一半的受訪者表示他們將在金融規劃和醫療建議等敏感領域使用這種新興技術。這種興趣引出了一個問題:這些大型語言模型到底有多可信?史丹佛大學電腦科學助理

大型語言模型依賴人類來維持效能,專家解釋
723

大型語言模型依賴人類來維持效能,專家解釋

大型語言模型的人類依賴撰文:約翰·P·納爾森(John P. Nelson)來源:科技研究所的 The Conversation(轉載自 TechXplore)近來圍繞著 ChatGPT 和其他大型語言模型人工智慧系統的媒體炒作涵蓋了多個主題,從平凡的-大型語言模型可能取代傳統的網路搜尋-到令人擔憂

5 大方式,企業領袖如何運用大型語言模型開啟全新可能性
1534

5 大方式,企業領袖如何運用大型語言模型開啟全新可能性

探索企業領袖:如何運用大型語言模型改進企業創新引言近來,生成式人工智慧(generative AI)和大型語言模型(LLMs)如 ChatGPT 已成為熱門話題,從社交媒體到新聞到日常對話,無處不在。這些技術顯示出了研究領域和商業應用的巨大潛力,可以重塑各個行業,改進人機互動的質量。透過探索這些應用

探索向大型語言模型灌注情感刺激的影響
932

探索向大型語言模型灌注情感刺激的影響

探索給予大型語言模型情感刺激的效果引言隨著 OpenAI 的 ChatGPT 的出現,大型語言模型(LLM)已變得非常受歡迎。這些模型透過大量的資料訓練,能夠以驚人地類人方式回答使用者的書面查詢,迅速生成特定領域的定義、文字摘要、上下文特定建議、飲食計劃等等。儘管這些模型在許多領域表現出色,但它們對

探索給大型語言模型提供情感刺激的影響
631

探索給大型語言模型提供情感刺激的影響

探索將情感刺激注入大型語言模型的影響概述自從 OpenAI 的 ChatGPT 推出以來,大型語言模型(LLM)變得非常受歡迎。這些模型透過大量資料的訓練,能夠以近乎人類的方式回答使用者的書面查詢,迅速生成特定術語的定義、文字摘要、特定背景下的建議、飲食計劃等等。儘管這些模型在許多領域中表現出色,但

揭示給大型語言模型提供情感刺激的效果
690

揭示給大型語言模型提供情感刺激的效果

探索將情感刺激餵入大型語言模型的效果引言自從 OpenAI 的 ChatGPT 問世以來,大型語言模型(LLMs)已變得非常受歡迎。這些模型在龐大的資料集上訓練,可以以驚人地類似人的方式回答使用者的書面查詢,快速生成特定術語的定義、文字摘要、特定情境下的建議、飲食計劃等等。雖然這些模型在許多領域表現

如何善用大型語言模型,不讓銀彈人盡皆墜
1075

如何善用大型語言模型,不讓銀彈人盡皆墜

大型語言模型在商業領域的影響近年來大型語言模型(LLM)已成為人工智慧領域的焦點。微軟、亞馬遜和 Google 等巨頭公司正在為 AI 的主導地位展開全面的「AI 軍備競賽」,企業也在為了不被落後或錯失巨大機會而匆忙轉型。受風險投資商的支援,以 LLM 為動力的新公司如雨後春筍般湧現。然而每種新技術

用兩個小字面對假「事實」:一種將大型語言模型的答案奠基於現實的新技術
610

用兩個小字面對假「事實」:一種將大型語言模型的答案奠基於現實的新技術

對抗虛假「事實」的兩個小詞:用於大型語言模型的新技術將答案縮實現實背景大型語言模型(LLM)是一種透過訓練使用龐大資料量的事實資料的語言模型,但它們非常容易產生虛假訊息,稱為幻覺。當 LLM 被要求根據他們所理解的某一主題生成文字時,可能會發生這種情況,或者當他們錯誤地混合來自不同來源的訊息時也可能