newsencenewsence
探索
歡迎

你的個人知識庫

從開放網路上發現值得讀的內容,收藏真正重要的。AI 為你摘要、串連、整理你所知道的一切。

了解更多

(LoRA) 在消費級硬體上微調 FLUX.1-dev

Huggingface·10 個月前

本文探討如何利用LoRA技術在消費級硬體上高效微調FLUX.1-dev擴散模型,以實現模型的個人化客製化。此文延續了先前關於模型量化以提升可及性的討論。

暫無內容

— Huggingface

相關文章

  1. 使用 Diffusers 和 PEFT 加速 Flux 的 LoRA 推理

    9 個月前

  2. 透過 LoRA 與 Adapters 更有效率地微調 Falcon 大型語言模型

    Sebastian Raschka'S Blog · 將近 3 年前

  3. Show HN:使用 Flux Lora AI 以您自己的方式創作藝術

    Hacker News · 9 個月前

  4. 改進LoRA:從零開始實作權重分解低秩適應 (DoRA)

    Sebastian Raschka'S Blog · 大約 2 年前

  5. 使用與微調預訓練 Transformer 模型

    Sebastian Raschka'S Blog · 大約 2 年前

其他收藏 · 0

其他收藏 · 0

相關文章

  1. 使用 Diffusers 和 PEFT 加速 Flux 的 LoRA 推理

    9 個月前

  2. 透過 LoRA 與 Adapters 更有效率地微調 Falcon 大型語言模型

    Sebastian Raschka'S Blog · 將近 3 年前

  3. Show HN:使用 Flux Lora AI 以您自己的方式創作藝術

    Hacker News · 9 個月前

  4. 改進LoRA:從零開始實作權重分解低秩適應 (DoRA)

    Sebastian Raschka'S Blog · 大約 2 年前

  5. 使用與微調預訓練 Transformer 模型

    Sebastian Raschka'S Blog · 大約 2 年前