newsencenewsence
探索
歡迎

你的個人知識庫

從開放網路上發現值得讀的內容,收藏真正重要的。AI 為你摘要、串連、整理你所知道的一切。

了解更多
研究:縮減AI記憶體可提升準確度

研究:縮減AI記憶體可提升準確度

Hacker News·4 個月前

愛丁堡大學與NVIDIA的研究人員發現,壓縮大型語言模型(LLMs)所使用的記憶體(KV cache)可以顯著提升其處理複雜任務的準確度,同時節省能源。

暫無內容

— Hacker News

相關文章

  1. 高效AI:KV快取與KV共享

    9 個月前

  2. 從每 Token 300KB 到 69KB:大型語言模型架構如何解決 KV 快取問題

    25 天前

  3. 在PyTorch中優化訓練大型語言模型與視覺變換器的記憶體使用

    Sebastian Raschka'S Blog · 將近 3 年前

  4. 透過注意力匹配實現快速 KV 快取壓縮

    2 個月前

  5. 運用混合精度技術加速大型語言模型

    Sebastian Raschka'S Blog · 將近 3 年前

相關文章

  1. 高效AI:KV快取與KV共享

    9 個月前

  2. 從每 Token 300KB 到 69KB:大型語言模型架構如何解決 KV 快取問題

    25 天前

  3. 在PyTorch中優化訓練大型語言模型與視覺變換器的記憶體使用

    Sebastian Raschka'S Blog · 將近 3 年前

  4. 透過注意力匹配實現快速 KV 快取壓縮

    2 個月前

  5. 運用混合精度技術加速大型語言模型

    Sebastian Raschka'S Blog · 將近 3 年前