DeepSeek-V4 首日發佈:從 SGLang 與 Miles 的快速推論到驗證強化學習

Hacker News·

我們很高興宣布 SGLang 和 Miles 在 DeepSeek-V4 發佈首日即提供全面支援,這套開源堆疊專為其混合稀疏注意力架構與 FP4 專家權重打造,實現了極速推論與強化學習訓練。

背景

隨著 DeepSeek-V4 的正式發布,LMSYS 團隊宣布其開源推理引擎 SGLang 與訓練框架 Miles 已達成首日支援。DeepSeek-V4 採用了複雜的混合稀疏注意力機制、流形約束超連接以及 FP4 專家權重,SGLang 透過 ShadowRadix 快取技術與 HiSparse 記憶體優化,顯著提升了長文本處理的吞吐量。

社群觀點

在 Hacker News 的討論中,社群成員對於開源引擎在模型發布首日即達成支援感到興奮,但討論焦點很快轉向了效能基準測試透明度的問題。有觀點指出,雖然 SGLang 在官方部落格中提供了效能對比圖表,但卻將競爭對手標註為模糊的「其他開源引擎」,這種做法在當前的技術社群中似乎變成了一種常態。評論者認為,過去 SGLang、vLLM 與 TensorRT-LLM 之間會進行直接的效能對比,但現在這種公開競爭的氛圍似乎有所收斂,取而代之的是一種不透明的避戰心理。

針對這種基準測試缺乏透明度的質疑,部分社群成員持保留意見,認為這些開源專案之間屬於友好的競爭關係,共同目標是為了對抗閉源巨頭,因此不應過度苛責。然而,反對者則強調,模型開發者通常會公開與其他模型的對比數據,如果推理引擎不提供明確的基準測試對象,使用者很難判斷所謂的效能提升是否只是針對效能較差的基準(如 Hugging Face Transformers)所做的數字遊戲。

另一種較為中肯的解釋則認為,這並非刻意隱瞞,而是技術上的限制。由於 DeepSeek-V4 是在發布首日即獲得支援,各個開發團隊(如 SGLang 與 vLLM)可能是在保密協議下各自取得模型權重與架構資訊進行開發。在程式碼尚未公開且開發進度重疊的情況下,開發者根本無法取得對方的最新程式碼來進行公平的對比測試。因此,首日發布的數據更多是為了展示自家引擎的優化成果,而非進行跨平台的綜合評測。

延伸閱讀

  • vLLM 官方部落格:同樣針對 DeepSeek-V4 提供首日支援的技術細節說明。
  • InferenceX 基準測試:由 SemiAnalysis 提供的推理效能對比工具,涵蓋不同硬體配置與模型架構的數據分析。

Hacker News

相關文章

  1. DeepSeek v4:您的首次 API 調用

    2 天前

  2. DeepSeek V4 預覽版發佈:具備 100 萬上下文長度的高性能開源模型

    2 天前

  3. DeepSeek 發布全新 V4 系列模型預覽版:百萬上下文成標配並同步開源

    宝玉 · 2 天前

  4. DeepSeek 預覽新款 AI 模型,縮小與頂尖前沿模型的差距

    Techcrunch · 2 天前

  5. DeepSeek 模型技術巡禮:從 V3 到 V3.2 的架構、稀疏注意力與強化學習更新

    Sebastian Raschka'S Blog · 5 個月前

其他收藏 · 0