網路議題

Nvidia 推出 AI 工作站,助力模型微調

Nvidia 的 AI 工作站為工作站帶來模型微調的功能背景 Nvidia 於 SIGGRAPH 這一年一度的人工智慧學術大會上宣布,他們推出了一個新平臺,讓使用者能夠在個人電腦或工作站上建立、測試和自定義生成性人工智慧模型,然後再將其擴充套件到資料中心和公共雲端。Nvidia 創始人兼執行長 Jen .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

Nvidia 推出 AI 工作站,助力模型微調

Nvidia 的 AI 工作站為工作站帶來模型微調的功能

背景

Nvidia 於 SIGGRAPH 這一年一度的人工智慧學術大會上宣布,他們推出了一個新平臺,讓使用者能夠在個人電腦或工作站上建立、測試和自定義生成性人工智慧模型,然後再將其擴充套件到資料中心和公共雲端。Nvidia 創始人兼執行長 Jensen Huang 在活動中的主題演講中表示:“為了使這種能力與眾不同,我們必須使它能在幾乎任何地方執行。”這項名為 AI 工作站的服務可以透過在本地工作站上執行的基本介面來存取。開發人員可以使用它來微調和測試來自 Hugging Face 和 GitHub 等熱門儲存庫的模型,並在需要擴充套件時存取雲端計算資源。

AI 工作站的動機

Nvidia 企業計算副總裁 Manuvir Das 表示 AI 工作站的動機是因為定制大型人工智慧模型的挑戰性和耗時性。企業規模的 AI 專案可能需要在多個儲存庫中搜尋合適的框架和工具,而當專案需要從一個基礎架構移動到另一個基礎架構時,這一過程會變得更加複雜。根據資料科學和商業分析平臺 KDnuggets 的一項調查,大多數參與調查的資料科學家表示在部署機器學習模型之前,他們 80%或更多的專案都會停滯不前。Gartner 的估計顯示,接近 85%的大資料專案失敗,部分原因是基礎設施上的障礙。

AI 工作站的優勢

AI 工作站允許開發人員從開源資源中統一地整合模型、框架、SDK 和庫,其中包括資料準備和資料視覺化的庫。隨著對人工智慧(尤其是生成性人工智慧)的需求增加,出現了許多工具專注於將大型通用模型微調為特定用例。像 Fixie、Reka 和 Together 這樣的新創公司旨在使企業和個人開發人員更容易地根據需求自定義模型,而無需花費昂貴的雲端運算成本。透過 AI 工作站,Nvidia 正在推動一種更去中心化的微調方法,即在本地計算機上進行微調,而不是使用雲服務。這是有道理的,因為對於 Nvidia 來說他們的產品組合中的 AI 加速 GPU 將從中受益;Nvidia 在介紹中不諱言地提到了他們的 RTX 系列。儘管 Nvidia 在商業動機上有所考慮,但這個提議可能會吸引那些不希望受制於單一雲端服務或平臺進行模型實驗的開發人員。

思考與建議

隨著人工智慧技術的不斷發展,對於模型微調的需求也在不斷增加。企業和開發人員面臨著將大型通用模型定制為特定用例的挑戰。AI 工作站的推出填補了這一需求,提供了一個在本地計算機上進行微調和測試的平臺,同時當須要擴充套件到雲端時也能獲得雲端計算資源的便利。 然而據我們所知,當前還沒有關於 AI 工作站的詳細訊息,因此無法確保它是否能夠真正實現開發人員所期望的簡化管道。但是這個平臺的概念非常吸引人,它使開發人員能夠自由地定制模型,並透過開源資源和雲端計算資源來擴充套件和部署,同時不受制於單一平臺。 對於開發人員和企業而言,建議使用 AI 工作站來減輕部署和模型微調的複雜性。該平臺可以幫助開發人員更加高效地將人工智慧應用到現代業務中,並且可以擴大生成性人工智慧的應用範圍。

結論

Nvidia 的 AI 工作站為工作站帶來了在本地進行模型微調的功能,使開發人員能夠更加靈活和高效地定制模型。這個平臺的推出填補了定制大型通用模型的空白,並為開發人員提供了更去中心化的解決方案。然而雖然 AI 工作站概念引人注目,但我們需要更多的訊息來評估其實際效果和易用性。對於開發人員和企業來說使用 AI 工作站可能是減輕模型微調和部署的複雜性的一個好方法,同時它也提供了更大的靈活性和自由度。
AI 工作站-Nvidia,AI 工作站,模型微調
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。