AIGC

Rackspace 採用 FAIR 方法探討生成式人工智慧

新服務幫助企業理解、建立和部署人工智慧工作負載美國資訊科技公司 Rackspace 推出了一系列新服務,旨在幫助企業更好地理解、建立和部署公共及私有雲中的人工智慧(AI)工作負載。背景近年來 Rackspace 經歷了巨大變革。該公司最初的業務是租借機架伺服器,並發展成開源雲設施 OpenStack .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

Rackspace 採用 FAIR 方法探討生成式人工智慧

新服務幫助企業理解、建立和部署人工智慧工作負載

美國資訊科技公司 Rackspace 推出了一系列新服務,旨在幫助企業更好地理解、建立和部署公共及私有雲中的人工智慧(AI)工作負載。

背景

近年來 Rackspace 經歷了巨大變革。該公司最初的業務是租借機架伺服器,並發展成開源雲設施 OpenStack 的創始成員。該公司原本有成為可與亞馬遜匹敵的大型公共雲平臺的抱負,但未能成功實現。今天Rackspace 提供服務,幫助企業在公共雲供應商上執行工作負載。Rackspace 還擁有一個使用 OpenStack 的大型私有雲業務。

人工智慧的優先事項

人工智慧是一個跨越公共和私有雲的用例,是 Rackspace 的一個重要優先事項。因此該公司推出了 Foundry for Generative AI by Rackspace (FAIR)服務。該平臺提供能力,幫助企業理解 GenAI 用例並匯入開發,然後透過管理和分析建立工業級部署。

Rackspace 自身如何使用生成式人工智慧增強自身能力

Rackspace 提供生成式人工智慧服務的旅程始於公司試圖弄清楚如何利用該技術。今年 2 月,該公司開始為內部用例開發自己的 GenAI 服務。Rackspace 資訊技術高級副總裁兼技術長 Srini Koushik 指出,Rackspace 擁有幾十年的訊息,關於不同客戶、配置和技術的所有工作。與許多組織一樣,Rackspace 關於自身運營和客戶的資料分散於不同的應用程式中。為了有助於以易於搜尋和查詢的方式統一這些資料,該公司開發了 Rackspace Intelligent Co-pilot for the Enterprise (Rackspace ICE)。此平臺使用大型語言模型(LLM)培訓並理解一個資料語料庫。所有資料都可透過基於自然語言處理(NLP)的介面存取。現在其客戶也可以利用這種內部用例來幫助他們更好地掌握企業資料。

誰需要生成式人工智慧

在圍繞生成式人工智慧熱情和興趣的所有炒作中,許多組織正在探索使用該技術的選擇。FAIR 的第一個步驟是理解什麼是 GenAI 用例以及它們如何適應特定的企業環境。其中一部分包括分析組織採用生成式人工智慧策略的準備情況。"其中有很大一部分是'你的資料在哪裡,有哪些資料可用於培訓?'" 他說。FAIR 模型的第二階段是孵化,Rackspace 在其中審查技術及其在企業內的可行性。第三個階段是“產業化”,Rackspace 尋求帶來具有適當安全性、治理和分析的 AI 模型生產。

AI 部署

當涉及到 AI 部署時,Rackspace 將依靠公共雲和其自身的私有雲。Koushik 指出,在私有雲方面,Rackspace 能夠在全球提供高效能運算、低延遲儲存和高速網路。這正在發展成為一個下一代私有雲,可以幫助最佳化 AI 和機器學習工作負載。下一代私有雲是在 OpenStack 基礎架構上執行包含虛擬 CPU 和 GPU 容量的 Kubernetes 容器環境的能力。所以,Rackspace 可以為客戶建立這些高效能計算環境。

結論/建議

使企業更輕鬆地構建和部署 AI 是一個重要的挑戰。許多組織正在探索使用人工智慧的選擇。謹慎考慮利用 RackspaceFAIR 服務,能夠增強企業的資料策略和安全。我們應該理性地看待人工智慧的發展及其帶來的利弊,儘可能地減少弊端。

AI Research-Rackspace,FAIR,生成式人工智慧,探討
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。