市場觀察

英偉達推出一系列微服務,最佳化推論應用

英偉達釋出 Nvidia NIM 微服務平臺新軟體平臺加速 AI 模型部署至生產環境 Nvidia 在其 GTC 大會上宣布推出 Nvidia NIM,這是一個旨在加速自定義和預訓練 AI 模型部署至生產環境的新軟體平臺。NIM 將 Nvidia 已經完成的推論和模型最佳化工作結合在一起,使其易於存取 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

英偉達推出一系列微服務,最佳化推論應用

英偉達釋出 Nvidia NIM 微服務平臺

新軟體平臺加速 AI 模型部署至生產環境

Nvidia 在其 GTC 大會上宣布推出 Nvidia NIM,這是一個旨在加速自定義和預訓練 AI 模型部署至生產環境的新軟體平臺。NIM 將 Nvidia 已經完成的推論和模型最佳化工作結合在一起,使其易於存取,並將給定的模型與最佳化的推論引擎相結合,並將其打包成一個容器,使其作為微服務可供使用。Nvidia 表示通常開發人員需要數週,甚至數月的時間才能釋出類似的容器,如果公司甚至擁有內部 AI 人才的話。Nvidia 明顯地旨在建立一個 AI-ready 容器生態系統,並將這些精心策劃的微服務作為核心軟體層,以加快企業的 AI 發展。

對 Nvidia NIM 的重要性

Nvidia NIM 的推出對於 AI 應用的推動有著重要的意義。這將大大簡化 AI 模型的部署過程,同時使公司無需擁有大量的 AI 專業人才即可快速部署自定義和預訓練的模型。這對於許多企業來說是一個重大的好訊息,因為他們能夠更快地實現 AI 應用,提升產品和服務的競爭力。

NIM 當前的功能與支援

當前 NIM 包括來自 NVIDIA、A121、Adept、Cohere、Getty Images 和 Shutterstock 的模型支援以及來自 Google、Hugging Face、Meta、Microsoft、Mistral AI 和 Stability AI 的開源模型支援。此外 Nvidia 正在與亞馬遜、Google 和微軟合作,將這些 NIM 微服務進行整合,並且將它們可在 SageMaker、Kubernetes Engine 和 Azure AI 上使用。它們還將被整合到 Deepset、LangChain 和 LlamaIndex 等框架中。 更為重要的是,NIM 的微服務將包括 Riva(用於定制語音和翻譯模型)、cuOpt(用於路由最佳化)以及 Earth-2 模型(用於天氣和氣候模擬)。公司計劃隨著時間的推移新增額外的功能,例如使 Nvidia RAG LLM operator 作為 NIM 可用,這有望使構建引入自定義資料的生成式 AI 聊天機器人變得更加容易。

面向未來的思考

Nvidia NIM 的推出標誌著最佳化 AI 推論應用的一個重要裏程碑,同時也凸顯出 AI 技術不斷演進的特點。AI 模型的最佳化和部署過程將會更為高效且普及,這將為各行各業帶來更具競爭力的 AI 應用,也將有助於促進 AI 技術的推廣和應用。

合作夥伴和客戶的見證

NIM 當前的使用者包括 Box、Cloudera、Cohesity、Datastax、Dropbox 和 NetApp 等知名企業,這顯示了 NIM 對於跨行業的吸引力和價值。Jensen Huang,英偉達的創始人兼 CEO 表示:「已建立的企業平臺擁有大量可轉化為生成式 AI 助手的資料。這些經由合作夥伴生產的集容器化 AI 微服務,將成為各行業企業成為 AI 公司的基本構建塊。」

結語

Nvidia NIM 的推出將推動 AI 應用的快速發展和部署,對於企業和開發人員來說是一個重要的進步。這也呼籲著 AI 技術的發展過程中,如何更好地整合軟硬體資源以及如何加速 AI 應用的部署,以滿足不斷增長的市場需求。
ArtificialIntelligence-英偉達,微服務,最佳化,推論應用
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。