#基準測試

8 篇文章

用高效 AI 測試健康任務!Hugging Face 釋出基準測試
430

用高效 AI 測試健康任務!Hugging Face 釋出基準測試

Hugging Face 推出醫療任務生成式 AI 基準測試作者: | 日期:2024 年 4 月 19 日挑戰與評估醫療生成式 AI 的必要性生成式 AI 模型正日益進入醫療領域,一些早期採用者相信它們將提高效率,並發現否則可能被忽略的見解。但批評者指出,這些模型存在缺陷和偏見,可能導致較差的健康

為什麼大多數人工智慧基準測試結果如此不足見解
867

為什麼大多數人工智慧基準測試結果如此不足見解

人工智慧基準測試的不足之處 當前局勢分析 在週二,初創企業 Anthropic 推出了一系列的生成式人工智慧模型,聲稱達到了業內最佳表現。僅僅幾天後,競爭對手 Inflection AI 也推出了一個模型,聲稱幾乎能夠與包括 OpenAI 的 GPT-4 在內的一些最強大模型媲美。Anthrop

研究人員開發了用於超級計算機的開源混合精度基準測試工具
864

研究人員開發了用於超級計算機的開源混合精度基準測試工具

研究人員為超級計算機開發開源混合精度基準測試工具 2023 年 9 月 25 日,《科學熱訊》(Science X)報導,美國奧克崗國家實驗室(Oak Ridge National Laboratory)的 Analytics and AI Methods at Scale 團隊開發了混合精度效能測試

研究人員為超級電腦開源開發混合精度基準測試工具
1026

研究人員為超級電腦開源開發混合精度基準測試工具

研究人員開發開源混合精度基準測試工具,用於超級電腦背景介紹在 2021 年,當世界上第一臺 Exascale 超級電腦 Frontier 在奧克嶺國家實驗室的領導計算設施進行組裝時,對於它在混合精度計算上的效能理解仍然是一個困難的問題。這種理解上的空白不是因為疏忽,而是反映了在計算科學領域中,以雙精

MLPerf 3.1 引入大型語言模型基準測試,挑戰推理能力
964

MLPerf 3.1 引入大型語言模型基準測試,挑戰推理能力

MLCommons 近日宣布,他們將 MLPerf AI 基準測試套件擴充套件至大型語言模型(LLMs)的推理能力測試,並新增了用於機器學習工作負載的儲存系統效能基準測試。MLCommons 是一個中立、多利益相關者組織,旨在透過 MLPerf 基準測試提供公平的報告平臺,讓廠商能夠報告人工智慧效能

如何開始使用 Cinebench 2024
849

如何開始使用 Cinebench 2024

如何開始使用 Cinebench 2024 基準測試最近,Maxon 宣布推出了其 Cinebench 基準測試的重大更新,Cinebench 2024。這次的大改變是新版本的 Cinebench 不僅可以測試 CPU 的效能,還可以測試 GPU 的效能。如果你想知道你的電腦在這個新版本的測試中的表

機器學習基準測試 MLPerf 3.0 新增 LLMs,體現人工智慧訓練效能驚人提升
818

機器學習基準測試 MLPerf 3.0 新增 LLMs,體現人工智慧訓練效能驚人提升

MLPerf 3.0 基準測試揭示人工智慧訓練效能超越摩爾定律背景在人工智慧(AI)領域,以生成式人工智慧(generative AI)為代表的應用正受到越來越多人的關注,相應的,支援機器學習(ML)訓練的底層系統的效能也在不斷提高。MLCommons 最近公佈了其 MLPerf 訓練 3.0 基準

「Barkour 基準測試評估四足機械人的靈活性」
1056

「Barkour 基準測試評估四足機械人的靈活性」

四足機械人的靈活性測試新基準:Barkour 近年來機器人技術的發展速度驚人,許多機器人的外表和行為已經可與真實動物媲美。當中,四足機械人的發展尤其值得關注,因為它們為開發各種應用程式提供了研究運動學、穩定性和韌性的寶貴機會,例如災難應急、醫療治療、環境監測和監視。然而這種四足機械人的不斷增多也給研究

«1»