AIGC

Google 的 Gemini Pro 1.5 進入 Vertex AI 的公開預覽

Google 的 Gemini Pro 1.5 進入 Vertex AI 的公開預覽作者:凱爾·威格斯(Kyle Wiggers) 發表時間:8 小時前概述 Google 的最新生成式 AI 模型 Gemini 1.5 Pro 現已在 Vertex AI 上進入公開預覽階段。這款模型亮相於 Googl .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

Google 的 Gemini Pro 1.5 進入 Vertex AI 的公開預覽

Google 的 Gemini Pro 1.5 進入 Vertex AI 的公開預覽

作者:凱爾·威格斯(Kyle Wiggers) 發表時間:8 小時前

概述

Google 的最新生成式 AI 模型 Gemini 1.5 Pro 現已在 Vertex AI 上進入公開預覽階段。這款模型亮相於 Google 每年一度的 Cloud Next 大會上,該活動本週在拉斯維加斯舉行。Gemini 1.5 Pro 於 2 月份推出,加入了 Google 的 Gemini 系列生成式 AI 模型。它最引人注目的特點無疑是其處理上下文的能力:能處理從 128,000 個 token 到最高達 1 百萬個 token,其中“token”指的是原始資料的細分位(例如單詞“fantastic”中的音節“fan”、“tas”和“tic”)。一百萬個 token 相當於約 70 萬個單詞或約 3 萬行程式碼,約為 Anthropic 公司旗艦模型 Claude 3 可以處理的資料量的 4 倍以及 OpenAI 的 GPT-4 Turbo max context 的 8 倍。

上下文視窗意義

模型的上下文視窗指的是模型在生成輸出(例如額外的文字)之前考慮的初始資料(例如文字)集。簡單的問題——“誰贏得了 2020 年美國總統大選?”——可以作為上下文,電影指令碼、電子郵件、文章或電子書也可以作為上下文。具有較小上下文視窗的模型往往“遺忘”即使是非常近期的對話內容,導致它們偏離話題。但大上下文模型則不然。此外有大上下文視窗,模型可以更好地把握輸入資料的敘事流,生成有上下文的更豐富的回應,並減少對細微調整和事實基礎的需求。

Gemini 1.5 Pro 的應用

那麼,具有 100 萬 token 上下文視窗的模型具體可以做些什麼?Google 承諾,Gemini 1.5 Pro 可以進行許多事情,如分析程式碼庫、跨長檔案進行推理以及與聊天機器人進行長時間對話。由於 Gemini 1.5 Pro 支援多語言—並且在某種程度上是多模式的,能夠理解影象和影片以及週二開始還能理解音訊流—該模型還可以分析和比較不同語言的電視節目、電影、廣播錄音、會議通話錄音等媒體內容。100 萬 token 相當於約 1 小時的影片或大約 11 小時的音訊。

應用案例

根據 Google 的說法,Gemini 1.5 Pro 的早期使用者——包括 United Wholesale Mortgage、TBS 和 Replit——正在利用大上下文視窗進行農業貸款核貸、在媒體存檔自動化後設資料標記以及生成、解釋、轉換程式碼。需要注意的是,Gemini 1.5 Pro 不會在瞬間處理百萬 token。在上述示範中,每次搜尋花費 20 秒至 1 分鐘不等—遠遠長於平均 ChatGPT 查詢的時間。Google 曾表示延遲是一個關注的範疇,並且正在努力“最佳化”Gemini 1.5 Pro。

結語

值得注意的是,Gemini 1.5 Pro 正在逐步應用於 Google 企業產品生態系統的其他部分,該公司週二宣布,該模型(處於私人預覽階段)將為 Code Assist 提供新功能,該模型是 Google 的生成式 AI 程式碼輔助工具。Google 表示開發人員現在可以在程式碼庫之間進行“大規模”更改,例如更新跨檔案依賴關係和審查大塊程式碼。

Technology-Google,GeminiPro1.5,VertexAI,公開預覽
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。