
AI 硬體執行壓縮演算法,模擬自然最複雜的系統
由沙烏地阿拉伯國王科學技術大學(KAUST)電腦科學家領導的團隊開發了一種減少資料移動的方法,節省了記憶體佔用、資料傳輸和演算法複雜度。他們利用人工智慧(AI)硬體上執行的壓縮演算法來加快複雜系統的模擬,報告顯示在氣候建模、天文學、地震成像和無線通訊等不同領域模擬速度最高可達 150 倍。
問題與解決方案
大型資料集的處理和模擬自然最複雜的系統已經成為高效能計算(HPC)的重要工具。然而由於摩爾定律,即計算能力每兩年翻倍,正在放緩,而記憶體頻寬仍無法跟上它的腳步,因此研究人員在開發更強大的模型時會遇到困難。
然而科學家們可以運用執行在 AI 硬體上的壓縮演算法來加速複雜系統的模擬。KAUST 團隊透過使用 AI 硬體挑戰了這個問題,幫助科學家們使他們的程式碼更加高效。
五年前,Ltaief 及其同事們開始減少資料移動的探索。他們的方法涉及將 HPC 工作負載結構重建,以便其執行在由 Graphcore 制造的人工智慧處理單元(IPU)上,Graphcore 提供寶貴的技術支援。關鍵是,團隊將程式碼組織成矩陣。矩陣是單個用於數值庫的數學物件,能夠有效地與最佳化為 IPU 的數值庫配合執行。
“我們可以對描述問題物理的矩陣算符進行壓縮,同時保持滿足精度要求,就像沒有進行壓縮時一樣,”Ltaief 說。“透過執行線性代數矩陣操作,我們仍然可以操作結果壓縮的資料結構,並利用 IPU 的高頻寬。”這種方法節省了記憶體佔用、資料傳輸和演算法複雜度,已經正在提高科學家們解決問題的速度。
影響
Ltaief 表示:“我很幸運能夠與樂於接受硬體技術且理解跨學科工作的科學家們一起工作。”他的同事 David Keyes 表示:“線性代數運算是許多應用程式的瓶頸。您可以期望看到更多有關壓縮技術的頭條新聞,因為它滲透到新的應用程式和硬體中。”
思考與建議
這種基於 AI 硬體的壓縮演算法究竟對科學領域帶來了什麼意義?這種方式能否推動資料處理和複雜系統的模擬發展?,事實上每個領域都需要有效的資料處理方式來應對大資料的挑戰。Ltaief 的團隊展示了他們如何將 AI 硬體應用到複雜的科學模型中,節省了大量時間和成本,並取得了巨大的成果。此外這種方法也加快了科學家們解決問題的速度,提高了他們的工作效率和準確性。
因此我們認為,這種方式不僅能夠對科學領域帶來實質性的貢獻,還有望在其他領域推廣和應用。我們期待看到更多科學家,企業家和技術人員的跨界合作,推動 AI 技術的發展,實現更多顛覆性的創新。
延伸閱讀
- OpenAI 的創意寫作 AI 讓人想起高中文學社那個討人厭的孩子
- 亞馬遜成立新型代理 AI 團隊,將如何改變科技未來?
- 「搶先報名!TechCrunch Sessions: AI 演講者申請截止日期迫在眉睫!」
- MWC 最新報導:AI 影響力的兩極化觀點首次曝光!
- 亞馬遜新推出 Alexa+:為孩子們帶來 AI 驅動的「探索」與「故事」新功能!
- Bridgetown Research 載著 AI 助力,成功募資 1900 萬美元加速盡職調查!
- Nomagic 獲得 4400 萬美元資金,AI 驅動的機器手臂技術將改變未來!
- 全方位理解 Anthropic 的 AI:揭開 Claude 的神祕面紗!
- 微軟刪除 AI 資料中心租賃,背後原因何在?
- Perfect 獲得 2300 萬美元資金,運用 AI 革新招聘流程!