Snowflake-Nvidia 合作使得建立生成式人工智慧應用更容易
作者:Ron Miller
日期:8 小時前
一直以來,Snowflake 專注於在雲端中儲存大量的非結構化資料。透過最近收購的 Neeva 和 Streamlit 兩家公司,Snowflake 讓在資料之上進行搜尋和構建應用更加容易。今天該公司宣布與 Nvidia 達成合作,推出新的容器服務,以便更輕鬆地建立使用所有資料並在 Nvidia GPU 上執行的生成式人工智慧應用程式。Snowflake 產品高級副總裁 Christian Kleinerman 表示目標是讓人們能夠利用資料,而不需要將其複製並移至外部應用程式。他告訴 TechCrunch:"我們希望讓客戶能夠將計算帶到他們的企業資料中,而無需將企業資料傳送到各種外部系統中"。
無需將資料移出 Snowflake,輕鬆建立生成式人工智慧應用程式
該公司引入了 Snowpark 容器服務,並提供在 Nvidia GPU 上執行容器應用程式的能力,而無需將任何資料移出 Snowflake。Kleinerman 表示:"我們為客戶和合作夥伴提供在 Snowflake 的安全範圍內執行 Docker 容器的能力,從而控制存取 Snowflake 中的企業資料"。他還表示:"我們透過傳統提供的更廣泛實例彈性以及客戶對 GPU 存取的最大需求,為容器服務提供了方式"。這就是 Nvidia 合作的意義所在。
Nvidia 企業計算副總裁 Manuvir Das 表示他將 Snowflake 視為公司儲存關鍵資料的地方。當您可以在該資料上構建應用程式,並在 Nvidia GPU 上執行這些應用程式時,它將成為一個非常強大的組合,特別是當您將生成式人工智慧納入其中。他表示當您結合 Nvidia 的 GPU 功能以及其 NeMo 框架時,公司可以在 Snowflake 中使用資料並開始構建基於自己獨特資料的精煉機器學習模型。他說:"這就是為什麼此次合作美妙,因為 Snowflake 擁有所有這些資料,現在第一次擁有可以使用這些資料進行模型構建的執行引擎。我們具有 Nvidia 為培訓、微調、強化學習等構建的那個執行代理。我們正在將該代理帶到 Snowflake 平臺中,並將其整合在一起,以便所有的 Snowflake 客戶都能夠在該平臺上使用資料進行模型構建,為他們生成定制模型"。
他表示將客戶資料、使用該資料建立的模型以及執行並存取這些模型的應用程式整合在同一個地方,將使資料的安全和管理更加容易,而 Nvidia 的技術則使整個過程更快速。從今天開始,Snowflake 的 Snowpark 容器服務將進入私人測試階段。
延伸閱讀
- Google 為 Android 打造了一些最早期的社交應用程式,包括 Twitter 和其他應用
- 亞馬遜推出 Bedrock Studio:簡化生成式人工智慧應用開發
- Alphabet 旗下 Intrinsic 將 Nvidia 技術融入機器人平臺
- Stack Overflow 與 OpenAI 簽約,提供資料支援其模型
- 本週人工智慧大事記:生成式人工智慧與創作者補償的問題
- Dropbox、Figma CEO 支援 Lamini:新創公司打造企業專用生成式人工智慧平臺
- 微軟選擇與 Sanctuary AI 合作進行通用機器人研究
- OpenAI 與英國《金融時報》達成戰略合作,包括內容使用
- IBM-HashiCorp 聯手可能比想像中更複雜
- 拜登簽署法案,如果位元組跳動未能出售 TikTok 將禁用該應用