1 技术选型
关于AI视频生成这事,我最近深踩了一波 MagicAnimate 这类动作驱动工具,最早是从 Animate Anyone 开始入的坑,后来发现 MagicAnimate 的效果更稳、支持骨架驱动合成真人舞蹈,适合搞定“数字人跳舞”这种需求。
其实我最早接触 Stable Diffusion 是因为被 Midjourney 的订阅劝退了,想着干脆自己搞一套本地出图的环境,也顺带折腾一下显卡。没想到这一折腾,配置+优化+修 bug,一套流程直接拉满。下面这篇就当是我整个部署 + 制作流程的一个复盘,也方便你们避坑。
核心价值
适合人群
LoRA + LLaMA-Factory 是现在微调经典配套,如果你想用一张 3090 或者单卡环境做一个实用性很强的自己模型,那实在没法避免这套技术组合。
我将体系地分 10 步,手把手教你如何实现 LoRA 微调、合并权重、数据转换和数据包装,并将运行后的模型部署到 Ollama 进行本地推理。
需满足以下任一条件(依据国家职业技能标准):