AIGC

以生成式人工智慧時代重新設計資料中心

重新設計資料中心:應對發展迅猛的生成式人工智慧生成式人工智慧技術的崛起在討論人工智慧時,現在很難不提到基於 OpenAI 的 GPT 系列大型語言模型(LLM)所建立的無所不在的聊天機器人 ChatGPT。這個聊天機器人去年末推出後,以其內容生成能力而引起了軒然大波。人們正在使用 ChatGPT 和 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

以生成式人工智慧時代重新設計資料中心

重新設計資料中心:應對發展迅猛的生成式人工智慧

生成式人工智慧技術的崛起

在討論人工智慧時,現在很難不提到基於 OpenAI 的 GPT 系列大型語言模型(LLM)所建立的無所不在的聊天機器人 ChatGPT。這個聊天機器人去年末推出後,以其內容生成能力而引起了軒然大波。人們正在使用 ChatGPT 和其他供應商的競爭專用機器人來回答復雜的問題,並自動化諸如編寫軟體程式碼和製作市場銷售文案等任務。然而儘管這種生成式人工智慧技術具有巨大的潛力,但要充分發揮基礎模型的作用卻很困難。大多數現有的模型都是在公開可用的資料上進行訓練的,這使得它們對於像是查詢敏感內部檔案等特定企業應用來說並不理想。

建立大型語言模型的高成本

建立一個像 GPT-3 或 GPT-4 這樣的 LLM 任務需要多個步驟,從需要數週甚至幾個月的計算密集型訓練開始,這要求在資料中心的伺服器中將數百甚至數千個昂貴的 GPU 叢集在一起。“最初的訓練需要非常大量的計算能力。例如,1760 億引數的 BLOOM 模型是 GPT-3 的一個替代品,其訓練過程需要使用 384 個 GPU 叢集進行 117 天。這大致相當於 120 個 GPU 年。” Hugging Face 的首席傳道者 Julien Simon 告訴 VentureBeat。隨著模型的大小增加,需要用於訓練和重訓練的 GPU 數量也增加。例如,Google 需要存取 6144 塊晶片來訓練其 5400 億引數的 PaLM 模型。這個過程還需要對高級訓練技術和工具(如 Microsoft DeepSpeed 和 Nvidia MegaTron-LM)的專業知識,而這些知識可能在組織中無法輕易獲得。一旦訓練完成,這些晶片還需要用於繼續執行模型的推理,進一步增加成本。僅使用 500 臺 Nvidia DGX A100 多 GPU 伺服器(這些伺服器通常用於 LLM 的訓練和推理),每臺售價 19.9 萬美元,將意味著在專案上花費約 1 億美元。此外伺服器產生的額外電源需求和熱量輸出都會增加總的擁有成本。對於那些不專門從事人工智慧的公司,並且只希望透過 LLM 來加速某些業務用例的公司來說這是一個巨大的資料中心基礎設施投資。

適用於人工智慧時代的資料中心的理想方法

除非一家公司擁有獨特的高質量資料集,可以建立出具有堅實競爭優勢的模型,使其值得投資,否則最好的方法是根據組織的資料(企業檔案、客戶郵件等)對現有的開源 LLM 進行微調以適應特定的用例。“一個好的反例是 BloombergGPT 模型,它是由彭博社從頭開始訓練的 500 億引數[模型]……有多少組織能自信地聲稱他們擁有同樣數量且質量高的獨特資料?並不多。” Hugging Face 的 Simon 表示。“相比之下,微調是一個更輕量級的過程,只需要一小部分的時間、預算和努力。Hugging Face 的模型庫當前提供了超過 25 萬個針對各種自然語言處理、計算機視覺和音訊任務的開源模型。您很有可能會找到一個對您的專案來說是一個很好的起點。”如果企業確實認為從頭開始建立一個 LLM 有價值,它應該從小規模開始,使用託管的雲基礎設施和機器學習(ML)服務,而不是立即購買昂貴的 GPU 進行現場部署。“我們最初使用的是託管在雲端的 MLOps 基礎設施,這使我們能夠將更多時間用於技術開發,而不是擔心硬體。隨著我們的發展和解決方案架構從早期的快速研究和開發階段穩定下來,我們現在已經覺得應該轉向本地部署模型。”內容生成器 Undetectable AI 的技術長兼聯合創始人 Bars Juhasz 告訴 VentureBeat。雲端還提供了更多的訓練選擇,不僅限於 Nvidia 的 GPU,還包括 AMD 和 Intel 等廠商的 GPU 以及 Google TPU 和 AWS Trainium 等客制化加速器。另一方面,如果當地的法律法規要求遠離雲端,則在場部署並使用像 GPU 這樣的加速硬體將成為首選。計劃是關鍵在迅速投資於 GPU、技能或雲端合作夥伴以開發特定領域的 LLM 和基於其的應用之前,重要的是技術決策者與企業的其他領導者和主題專家合作,制定明確的策略。專注於這個決策的業務案例,對當前和未來這樣的工作需求有大致的理解是有幫助的。有了這樣的計劃,企業可以做出明智的決策,包括選擇什麼樣的硬體、在哪些領域可以使用他人開發的現有模型以及誰可能是他們人工智慧之旅上合適的合作夥伴。“人工智慧/機器學習領域發展非常迅速……如果將這些新技術納入未來的思維中,那麼解決方案很可能相對快速地過時。這些技術和硬體的專業性質意味著更好的選擇可能是首先制定解決方案展望,然後根據解決方案升級您的資料中心。”Juhasz 表示。“買入炒作和採用新技術的趨勢可能很容易,但這無疑可能導致失望,並否認了企業未來可能從中獲益的真實用例。”他說。“更好的方法可能是保持冷靜,投入時間去理解相關技術,與利益相關者合作評估整合點可能獲益的地方。”

結論

生成式人工智慧技術的崛起帶來了資料中心重新設計的需求。對於企業來說劃清一個明確的策略,在確保當前和未來對此類工作負載的需求時很重要。現有的開源模型可以透過微調來適應企業內部的資料,從而節省了昂貴的訓練成本。對於希望從頭開始建立模型的企業,可以從小規模開始,使用託管的雲基礎設施和機器學習服務,以降低成本和風險。然而在投資昂貴的硬體之前,企業應該在技術決策者、領導者和領域專家的協作下進行清晰的規劃和討論。這樣的計劃可以幫助企業做出明智的決策,選擇適合他們的訓練硬體、使用他人開發的模型或合作夥伴。在追求技術的時尚潮流之前,企業應該保持冷靜,深入瞭解相關技術,並與利益相關者合作,評估整合這些技術可能帶來的好處。這樣的過程可以幫助企業避免投資無效和錯誤的決策,並為未來的發展打下堅實基礎。
Artificialintelligence-人工智慧,資料中心,重新設計,生成式,技術趨勢
程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。