newsencenewsence
探索
歡迎

你的個人知識庫

從開放網路上發現值得讀的內容,收藏真正重要的。AI 為你摘要、串連、整理你所知道的一切。

了解更多

SelfHostLLM:計算您進行 LLM 推理所需的 GPU 記憶體

Product Hunt - AI·9 個月前

SelfHostLLM 是一款旨在簡化 AI 部署規劃的新工具,讓使用者能精確估計各種大型語言模型 (LLM) 的 GPU 需求與並發能力。該工具目前支援 Llama、Qwen、DeepSeek 和 Mistral 等模型,並有使用者要求加入 Apple silicon 的支援。

暫無內容

— Product Hunt - AI

相關文章

  1. 新型AI基礎設施產品為自行託管的企業大型語言模型GPU成本減半

    Hacker News · 5 個月前

  2. llmfit:根據系統的記憶體、處理器與顯示卡自動適配最佳大型語言模型

    Hacker News · 大約 2 個月前

  3. Parallax by Gradient:跨裝置託管 LLM 並共享 GPU,讓您的 AI 飛速運行

    6 個月前

  4. Ollama 預覽版現已支援 Apple Silicon 上的 MLX 框架

    Hacker News · 23 天前

  5. 適用於AI與深度學習的簡易GPU選擇工具(2025)

    Hacker News · 6 個月前

相關文章

  1. 新型AI基礎設施產品為自行託管的企業大型語言模型GPU成本減半

    Hacker News · 5 個月前

  2. llmfit:根據系統的記憶體、處理器與顯示卡自動適配最佳大型語言模型

    Hacker News · 大約 2 個月前

  3. Parallax by Gradient:跨裝置託管 LLM 並共享 GPU,讓您的 AI 飛速運行

    6 個月前

  4. Ollama 預覽版現已支援 Apple Silicon 上的 MLX 框架

    Hacker News · 23 天前

  5. 適用於AI與深度學習的簡易GPU選擇工具(2025)

    Hacker News · 6 個月前