OpenAI 將 Fine-tuning 引入 GPT-3.5 Turbo
OpenAI 公司現在允許其客戶將自定義資料應用於輕量版本的 GPT-3.5,稱為 GPT-3.5 Turbo,這樣可以更容易地提高文字生成 AI 模型的可靠性,並同時構建特定的行為。OpenAI 聲稱,經過 Fine-tuning 的 GPT-3.5 版本在“某些狹窄任務”上可以與甚至優於 GPT-4 的基本功能。
自定義模型以應對不同需求
OpenAI 在本文釋出的部落格中寫道:“自從 GPT-3.5 Turbo 發布以來,開發者和企業一直在要求能夠定制模型,以為使用者建立獨特差異化的體驗。”這一更新提供了開發者定制模型的能力,使其在使用情景中表現更好,並且可以大規模執行這些自定義模型。
透過 Fine-tuning,使用 OpenAI API 的企業可以使模型更好地遵從指示,例如始終使用特定語言進行回應。或者他們可以改進模型的一致性,例如在完成程式碼片段時改進模型的格式。如果調整模型的輸出感知,如調整語調,使其更適應特定品牌或風格,也是 Fine-tuning 的一個選項。
此外 Fine-tuning 還可以讓 OpenAI 的客戶縮短文字提示的長度,這樣可以加快 API 呼叫的速度並節省成本。OpenAI 在部落格中聲稱:“早期測試者透過將指示 Fine-tuning 到模型本身中,將提示大小減小了多達 90%。”
Fine-tuning 需求和成本
Fine-tuning 當前需要準備資料並透過 OpenAI 的 API 上傳必要的檔案,然後建立 Fine-tuning 任務。所有 Fine-tuning 資料都必須透過“審查”API 和由 GPT-4 提供支援的審核系統進行審查,以確保其與 OpenAI 的安全標準不衝突。
然而 OpenAI 計劃在未來推出 Fine-tuning 的使用者介面,其中將包括一個儀表板,用於檢查正在進行的 Fine-tuning 工作的狀態。Fine-tuning 的成本如下:
- 訓練:每 1k 個符號 0.008 美元
- 輸入使用:每 1k 個符號 0.012 美元
- 輸出使用:每 1k 個符號 0.016 美元
“符號”表示原始文字,例如詞語“fantastic”的符號可以是“fan”、“tas”和“tic”。OpenAI 表示一個具有 10 萬個符號(約 7.5 萬個字)訓練檔案的 GPT-3.5 Turbo Fine-tuning 任務的成本約為 2.40 美元。
其他相關訊息
OpenAI 今天還可用了兩個更新的 GPT-3 基礎模型(babbage-002 和 davinci-002),這些模型也可以進行 Fine-tuning,並支援分頁和“更強的可擴充套件性”。正如之前宣布的那樣,OpenAI 計劃在 2024 年 1 月 4 日之前停用 GPT-3 的原始基礎模型。此外 OpenAI 表示對於 GPT-4 的 Fine-tuning 支援(與 GPT-3.5 不同,GPT-4 還可以理解圖片,而不僅僅是文字)將在今年秋季某個時候推出,但沒有具體時間安排。
結語與建議
OpenAI 將 Fine-tuning 的功能引入 GPT-3.5 Turbo,為客戶提供了更多自定義模型的選擇,可以改進模型在特定場景下的效能。Fine-tuning 的成本相對較低,使得企業可以更好地控制成本開支。
然而儘管 Fine-tuning 為模型提供了更大的靈活性,但仍然需要嚴格的審查機制確保資料的安全性和一致性。企業在進行 Fine-tuning 之前應該加入適當的監管機制,以確保模型的輸出符合安全標準和品牌價值觀。
儘管如此 OpenAI 仍然是開發自然語言處理和機器學習技術的領先者,並且不斷取得重要的進展。我們期待著後續的 Fine-tuning 功能和更強大的 GPT-4 模型的推出,這將為企業和開發者帶來更多創新的機會。
延伸閱讀
- AI 蓬勃發展,馬斯克對抗機械革命
- OpenAI 成立團隊控制「超智慧」AI,卻任憑其枯萎——訊息來源指出
- 開放 AI 與 Reddit 資料簽署合約,訓練人工智慧
- 智慧錢包 Kudos 獲得 1000 萬美元投資,研發 AI 功能挑選最佳信用卡
- 索尼音樂警告科技公司避免未經授權使用其內容訓練人工智慧
- Strava 啟用人工智慧防篡改排行榜,推出「家庭」計畫、深色模式等
- 參議院研究建議:每年至少撥款 320 億美元用於人工智慧計劃
- Google I/O 盛會 AI 領域的重大訊息
- Google 掃描通話的人工智慧或增加預設審查,隱私專家發出警告
- 柏林科技企業 trawa 籌得 1 千萬歐元,運用人工智慧協助中小企業更輕鬆購買可再生能源