SelfHostLLM:計算您進行 LLM 推理所需的 GPU 記憶體
Product Hunt - AI·
SelfHostLLM 是一款旨在簡化 AI 部署規劃的新工具,讓使用者能精確估計各種大型語言模型 (LLM) 的 GPU 需求與並發能力。該工具目前支援 Llama、Qwen、DeepSeek 和 Mistral 等模型,並有使用者要求加入 Apple silicon 的支援。
暫無內容
相關文章
SelfHostLLM 是一款旨在簡化 AI 部署規劃的新工具,讓使用者能精確估計各種大型語言模型 (LLM) 的 GPU 需求與並發能力。該工具目前支援 Llama、Qwen、DeepSeek 和 Mistral 等模型,並有使用者要求加入 Apple silicon 的支援。
暫無內容
相關文章