10萬倍規模,記憶體相同——O(1) AI記憶體的密碼學證明

Hacker News·

一位獨立開發者聲稱透過基於Merkle樹的密碼學證明,實現了AI系統的O(1)記憶體複雜度,讓大型語言模型能以極低的記憶體消耗(約3GB)回憶1億次互動。

以 O(n) 的記憶體,規模擴展 100,000 倍應該需要 100,000 倍的 RAM。

我從 1,000 個任務擴展到 100,000,000 個任務。記憶體始終保持在約 3GB。

這是加密證明。

基準測試:

  • 1K 任務:約 3GB 記憶體
  • 100K 任務:約 3GB 記憶體
  • 1M 任務:約 3GB 記憶體
  • 10M 任務:約 3GB 記憶體
  • 100M 任務:約 3GB 記憶體

相同的記憶體。規模擴展 100,000 倍。經過 Merkle 驗證。

硬體:Intel i7-4930K (2013),32GB RAM

證明:每個任務都透過 SHA-256 雜湊到 Merkle 樹中。根雜湊承諾所有 1 億個任務。您可以針對根雜湊驗證個別樣本。數學要麼正確,要麼不正確。

根雜湊:e6caca3307365518d8ce5fb42dc6ec6118716c391df16bb14dc2c0fb3fc7968b

這是什麼:適用於 AI 系統的 O(1) 記憶體架構。結構化壓縮,保留訊號,捨棄雜訊。用於回憶的語義檢索。內建審計軌跡。

這不是什麼:一個推理引擎。這是一個記憶體層。您仍然需要在其上使用 LLM。但現在 LLM 可以記住 1 億次互動,而成本不會增加 100,000 倍。

背景:獨立開發者。挪威。2013 年的硬體。

尋求:回饋、質疑、驗證。也歡迎收購洽談。

儲存庫:https://github.com/Lexi-Co/Lexi-Proofs

Hacker News

相關文章

  1. 強化學習的擴展性表現如何?

    Lesswrong · 6 個月前

  2. 打造千萬節點AI記憶體系:架構、失敗與寶貴經驗

    4 個月前

  3. MSA:記憶體稀疏注意力機制——支援一億標記上下文的可擴展潛在記憶體框架

    大約 1 個月前

  4. 從原始交互到可重用知識:重新思考 AI 代理的記憶機制

    Microsoft Research · 大約 2 個月前

  5. 思考 AI 程式碼代理的記憶機制

    3 個月前

其他收藏 · 0