AI 模型在壓縮方面擊敗了 PNG 和 FLAC
背景
壓縮技術是現代數位化世界的重要組成部分,它允許我們在有限的儲存空間中儲存更多的資料,同時提高資料傳輸的效率。近期,DeepMind 的研究人員宣布他們的大型語言模型能夠在壓縮影象和音訊資料方面取得令人驚艷的成果。在不同於專為影象和音訊而設計的 PNG 和 FLAC 算法的情況下,DeepMind 的語言模型 Chinchilla 70B 將影象壓縮到了原始大小的 43.4%,並將音訊資料壓縮到了原始大小的 16.4%。相比之下,標準的影象壓縮算法 PNG 將影象壓縮到原始大小的 58.5%,FLAC 壓縮器將音訊檔案壓縮到原始大小的 30.3%。但是值得注意的是,大型語言模型在壓縮效能方面的優勢受到其資料集大小的約束。壓縮的意義
壓縮技術在當今數位化世界中具有重要的意義。它使我們能夠儲存大量的資料,同時節省成本,提高效率。除了在電腦領域的應用外,壓縮還在許多其他領域發揮著重要作用,例如數點陣圖書館、資料庫、通訊和娛樂等。壓縮的優勢
壓縮技術的優勢不僅體現在資料儲存和傳輸方面,還體現在提高數位安全性、資料分析速度、數位娛樂體驗等方面。壓縮讓我們能夠快速從網際網路上提取大量資料,並且在手機通話中避免中斷和煩人的延遲。此外壓縮還可以節省儲存成本,提高資料效能和效率。對於那些喜歡抽象思考的人來說壓縮也被視為一種美學,一種將混亂的資料壓縮成簡明、清晰訊息的能力。大型語言模型的突破
DeepMind 的研究者們透過使用大型語言模型 Chinchilla 70B,在壓縮影象和音訊資料方面取得了令人矚目的成果。相比於特定於影象和音訊媒體的 PNG 和 FLAC 算法,這個語言模型能夠更高效地壓縮不同型別的資料。具體來說它將影象壓縮到原始大小的 43.4%,將音訊資料壓縮到原始大小的 16.4%。這一成果的重要之處在於,這個語言模型的訓練目標是文字資料,而非影象和音訊資料。此外研究人員還發現了一個關於壓縮質量如何隨著壓縮資料大小改變的新觀點,說明了大型語言模型在壓縮效能方面的局限性。壓縮技術的未來
儘管大型語言模型在壓縮方面取得了一些突破,傳統的壓縮器例如 gzip 在速度和大小的折衷方面仍然更具優勢。因此在短期內,我們不太可能看到傳統壓縮器被大型語言模型完全取代。然而大型語言模型在壓縮方面的發展仍然具有潛力,且其應用領域不斷擴充套件。在未來,我們可以期待看到更多關於語言模型在壓縮方面的研究成果以及更先進的壓縮技術的出現。 總之壓縮技術在數位化時代扮演著重要的角色,而大型語言模型的出現為壓縮帶來了新的可能性。儘管現有的壓縮器仍然具有較好的壓縮速度和大小的折衷,但在特定應用場景下,大型語言模型的壓縮能力無疑具有潛力。隨著科學技術的不斷進步,未來我們可以期待更先進的壓縮技術的出現,給我們的數位世界帶來更多便利和效率的提升。Technology-AI 模型,壓縮,PNG,FLAC
延伸閱讀
- Google 推出新一代 AI 模型 LearnLM,助力教育業界革新
- NFT 平臺 Zora 提供了一種新的賺錢方式,適合 AI 模型製作者
- 史上最大的文字轉語音 AI 模型體現「新興能力」
- 研究發現:人類學家發現 AI 模型可以被訓練成欺騙者
- Google 首款搭載全新 AI 模型 Gemini 的智慧手機--Pixel 8 Pro
- Google 的 AI 聊天機器人 Bard 進行大幅升級,搭載 Google 的下一代 AI 模型 Gemini
- Google 布局生成式 AI 模型,但「Gemini」並非我們期待的模型
- 亞馬遜推出新晶片,用於訓練和執行 AI 模型
- Giskard 開源框架在將 AI 模型推向生產前進行評估
- 聚焦於 ChatGPT-like AI 模型開發的 Hugging Face 有兩人團隊