#LLM

9 篇文章

Stardog 推出 Voicebox,一個使用 LLM 機能的層級以查詢企業資料
639

Stardog 推出 Voicebox,一個使用 LLM 機能的層級以查詢企業資料

Stardog 推出「Voicebox」層級的 LMM 技術,簡化企業資料查詢概覽近日華盛頓特區新創公司 Stardog 宣布推出基於 LMM 技術的「Voicebox」,這一軟體解決方案可作為 Stardog 旗艦平臺的一部分,讓使用者能夠以日常用語提問並從企業資料中獲得答案,而不需要任何技術技能

Tidalflow 助力任何軟體與 ChatGPT 及其他 LLM 生態系統融洽合作
1245

Tidalflow 助力任何軟體與 ChatGPT 及其他 LLM 生態系統融洽合作

Tidalflow 幫助軟體與 ChatGPT 和其他 LLM 生態系統協作概述隨著大型語言模型(LLM)的興起,企業需要將他們的軟體配置為與快速發展的人工智慧(AI)革命協作。然而確保更廣泛的 LLM 生態系統能夠正確使用這些軟體實例並且理解其在實際應用中的執行情況卻是一個問題。Tidalflow

改變策略:嘗試使用提示設計而不是首選微調 LLM
976

改變策略:嘗試使用提示設計而不是首選微調 LLM

提示設計:改變策略的首選,優於 LLM 的微調導言在生成式人工智慧(AI)的湧現中,創新總監們透過強化企業的 IT 部門,追求定制的聊天機器人或 LLMs(語言模型)。他們希望擁有像 ChatGPT 一樣的功能強大,同時具備特定領域知識、資料安全合規以及更高的準確性和相關性。他們經常面臨的問題是:是

以 1.4 億美元投資,EY 推出 AI 平臺和 LLM
927

以 1.4 億美元投資,EY 推出 AI 平臺和 LLM

EY 推出全面 AI 平臺「EY.ai」,協助客戶提升 AI 採用能力 EY 推出 AI 生態系統合作平臺世界領先的專業服務機構安永(EY)宣布推出全面的 AI 平臺「EY.ai」,旨在協助客戶加速 AI 的採用。該平臺匯集了一個包含多種功能的 AI 生態系統,並與包括微軟、戴爾科技、IBM、SAP、

如何從數十年的象徵性人工智慧專案中獲益的 LLM 們
2497

如何從數十年的象徵性人工智慧專案中獲益的 LLM 們

新聞報導:大型語言模型面臨的問題與尋求解決方案挑戰:大型語言模型的不確保性和缺乏推理能力近日認知科學家 Gary Marcus 和 AI 先驅 Douglas Lenat 發表了一篇論文,探討將大型語言模型(LLMs)應用於實際應用中所面臨的挑戰。他們認為,要使 LLMs 成為可信賴的工具,需要解決

亞瑟釋出開源工具,助公司找到最佳職位的 LLM
868

亞瑟釋出開源工具,助公司找到最佳職位的 LLM

亞瑟推出開源工具助公司尋找最佳 LLM 工作概述亞瑟(Arthur)是一家機器學習監控新創公司,今年受到創新 AI 的興趣的推動,一直在開發工具,以幫助公司更有效地運用 LLM(語言模型)工作。今天他們釋出了一個名為 Arthur Bench 的開源工具,旨在幫助使用者找到最適合特定資料集的 LL

人工智慧新創公司 Anthropic 獲得 1 億美元資金,為電信業打造度身訂造的 LLM(電信、法律和管理)解決方案
1131

人工智慧新創公司 Anthropic 獲得 1 億美元資金,為電信業打造度身訂造的 LLM(電信、法律和管理)解決方案

Anthropic 與 SK Telecom 達成戰略合作:共同打造行業特定、多語種的大型語言模型簡介 Anthropic 是一家人工智慧新創公司,以其 ChatGPT 對手 Claude 而聞名。今年 5 月,該公司獲得了一筆巨額的 C 輪融資,並得到了 SAP 的支援。現在 Anthropic 計

人科推出升級版入門級 LLM
869

人科推出升級版入門級 LLM

Anthropic 推出改進版的入門級 AI 模型 Claude Instant 概述 Anthropic 是一家由前 OpenAI 高管共同創立的 AI 新創公司,他們最近推出了更新版本的文字生成模型,並提供 API,名為 Claude Instant 1.2。根據 Anthropic 的說法,Cla

科技新聞網站主編:MosaicML 推出 7B 引數、8K 內文長度的開源 LLM MPT-7B-8K
736

科技新聞網站主編:MosaicML 推出 7B 引數、8K 內文長度的開源 LLM MPT-7B-8K

MosaicML 推出擁有 70 億引數和 8k 內文長度的開源大型語言模型(LLM)概述 MosaicML 最近推出了一個名為 MPT-7B-8K 的開源大型語言模型,它擁有 70 億個引數和一個 8k 的內文長度。據該公司稱,該模型在 MosaicML 平臺上進行了預訓練,並透過從 MPT-7B