
NVIDIA 宣布新版 GH200 Grace Hopper 平臺:搭載 HBM3e 記憶體技術
硬體的巨大突破
NVIDIA 日前在 SIGGRAPH 年度會議上宣布了一系列新發展,其中一項最重要的是發布了更新版本的 GH200 Grace Hopper 平臺,並搭載下一代 HBM3e 記憶體技術。這款 GH200 平臺是今年五月在臺灣的 Computex 展會上公開發布的 GH200 晶片的升級版。在 SIGGRAPH 的主題演講中,NVIDIA 創始人兼執行長 Jensen Huang 表示:“我們在幾個月前宣布了 Grace Hopper,今天我們將宣布一下對它的升級。”
新版 GH200 的內部結構
自 2021 年以來,Grace Hopper 超級晶片一直是 NVIDIA 執行長的重要話題,當時該公司透露了一些初始細節。這款超級晶片基於 Arm 架構,該架構在移動裝置中被廣泛使用,並且與英特爾和 AMD 的基於 x86 的矽芯競爭。NVIDIA 將其稱為“超級晶片”,因為它將 Arm-based NVIDIA Grace CPU 與 Hopper GPU 架構結合在一起。在新版 GH200 中,Grace Hopper 超級晶片得到了來自世界上速度最快的記憶體 HBM3e 的提升。據 NVIDIA 稱,與當前 GH200 中的 HBM3 技術相比,HBM3e 記憶體的速度提升了 50%。NVIDIA 還聲稱,HBM3e 記憶體將使下一代 GH200 在執行人工智慧模型時提速 3.5 倍。
更快的硬體意味著更快、更大的 AI 應用推斷和訓練
NVIDIA 不僅製造更快的矽芯,還在推出一款新的伺服器設計。Buck 表示 NVIDIA 正在開發一款新型基於兩個 GH200 Grace Hopper 超級晶片的 NVIDIA MGX 伺服器系統。他解釋說,新版 GH200 將透過 NVIDIA 的存取技術 NVLink 存取。在新的雙 GH200 伺服器中,系統內的 CPU 和 GPU 將透過一個完全一致的記憶體互連存取在一起。Buck 說:“CPU 可以存取其他 CPU 的記憶體,GPU 可以存取其他 GPU 的記憶體,當然 GPU 也可以存取 CPU 的記憶體。”作為結果,結合起來的超大型超級 GPU 可以作為一個整體執行,提供 144 個 Grace CPU 核心、8 千億次的運算效能和 282GB 的 HBM3e 記憶體。
時間是取得產品化使用案例的關鍵
儘管新一代 NVIDIA Grace Hopper 超級晶片速度很快但要等待一段時間才能實際用於生產使用案例。預計下一代 GH200 將於 2024 年第二季度面市。
延伸閱讀
- 加州新 AI 法案出爐,SB 1047 作者再推出改革措施!
- 《超級瑪利歐成為 AI 基準測試的新標準!你絕對想不到的理由》
- 新加坡逮捕涉嫌走私 Nvidia 晶片的犯罪集團!背後真相大揭露!
- Google 推出 SpeciesNet:專為識別野生動物而設的人工智慧模型!
- 安瑟普提克獲得 35 億美元巨額資金 瞄準人工智慧未來!
- OpenAI 重磅推出 GPT-4.5:歷史上最大的語言模型來了!
- 探索 DeepSeek:你必須理解的 AI 聊天機器人應用全指南!
- OpenAI 的創業帝國:揭密其風投基金背後的諸多創新公司
- 揭開 Mistral AI 的神祕面紗:揭示 OpenAI 競爭者的所有祕密!
- 未來科技:研究人員揭示如何打造變形機器人,猶如 T-1000 般神奇!