Wan2GP:低配置GPU用户的开源AI视频生成工具

Wan2GP是由deepbeepmeep开发的开源AI视频生成工具,核心定位为面向低配置GPU用户的高速AI视频生成器,从Wan-Video/Wan2.1复刻而来,是一款轻量化且功能丰富的生成式AI工具。

核心特性

  1. 低门槛硬件适配:最低6GB显存即可运行部分模型,支持老旧Nvidia GPU(RTX 10XX/20XX等)、AMD GPU(RDNA 2/3/3.5/4),最新GPU上运行速度极快。
  2. 多模型支持:兼容Wan 2.1/2.2、混元视频、Flux、Qwen图像、LTX Video/Z-Image/LongCat等多款主流生成式AI模型,同时支持Qwen3 TTS、Chatterbox等音频/交互模型。
  3. 丰富的量化与适配:支持int8、fp8、gguf、NV FP4、Nunchaku等多种量化格式,可根据硬件架构自动下载适配模型。
  4. 全功能交互与工具:提供网页可视化界面,集成遮罩编辑器、提示词增强器、姿态/深度/流提取器、运动设计器等视频生成辅助工具;支持Loras模型定制、任务排队系统,还可通过命令行无头模式批量处理任务。
  5. 丰富插件生态:内置画廊浏览器、超分器、模型管理器、CivitAI浏览器/下载器等即用型插件。
  6. 跨平台与部署:支持Windows、Linux系统,提供Docker自动化部署脚本,可自动检测GPU并配置最优CUDA架构。
  7. 推出离线智能助手Deepy,仅需8GB显存即可运行,100%免费,基于Qwen3VL Abliterated模型,支持GGUF内核加速。
  8. Deepy可完成视频裁剪、帧提取、音频修剪等基础操作,还能执行图像生成-编辑-视频过渡的全流程工作流,支持音频转写、指定尺寸/帧数生成视频/图像。
  9. 修复Gradio队列后台运行问题,新增“保留中间滑动窗口”配置项,支持Linux系统,安装flash attention 2和triton可实现2-3倍速度提升、更低显存占用。
  10. 新增Qwen3.5 VL Abliterated无审查提示词增强器,提供4B/9B模型及GGUF Q4/Int8量化版本,vllm加速后速度提升5倍。
  11. 新增GGUF CUDA内核,扩散视频模型速度提升15%、LLM模型速度提升3倍(暂仅支持Windows)。
  12. LTX2.3模型优化:支持无起始帧的结束帧生成、多帧注入、结束帧/注入帧的图像强度调节,显存优化后24GB显存理论可生成4K/15s视频,速度提升8%,还新增NVFP4开发版检查点。
  13. 推出WanGP内部API,支持作为第三方应用后端;发布基于该API的LTX Desktop WanGP视频编辑应用,大幅降低显存需求。
  14. 新增mp4高音质音频输出格式(AAC192/AAC320/ALAC无损)。
  15. 首发LTX-2.3模型(22B),优化音频、图生视频效果和细节,支持Ic lora Union Control实现人体动作/边缘迁移,提供专家级可配置参数。
  16. 新增Kiwi Edit视频编辑模型、SVI PRO2结束帧功能(支持超长视频生成)。
  17. 升级模型选择器/管理器,新增彩色状态标识(蓝色=完全下载、黄色=部分下载、黑色=未下载),支持按量化格式筛选、查看缺失文件。
  18. 优化Matanyone 2遮罩提取器,精度大幅提升。

安装与运行

快速安装

推荐使用Pinokio App的wan2gp/wan2gp-amd社区脚本,一键部署。[Pinokio + 社区脚本 安装](#Pinokio + 社区脚本 安装)

手动安装

提供Python 3.10(即将弃用)和3.11两个版本,基于conda创建虚拟环境,安装指定版本PyTorch和依赖包,核心命令:

1
2
3
4
5
git clone https://github.com/deepbeepmeep/Wan2GP.git
cd Wan2GP
conda create -n wangp python=3.11.14 && conda activate wangp
pip install torch==2.10.0 torchvision torchaudio --index-url https://download.pytorch.org/whl/cu130
pip install -r requirements.txt

运行与更新

  1. 常规运行:python wgp.py
  2. 无头模式批量处理:python wgp.py --process my_queue.zip
  3. 更新:git pull && pip install -r requirements.txt

Docker部署

Debian系系统执行./run-docker-cuda-deb.sh,脚本自动检测GPU、配置CUDA、构建镜像并运行,镜像包含CUDA 12.4.1、PyTorch 2.6.0等优化环境。

配套资源与社区

https://github.com/deepbeepmeep/Wan2GP

Pinokio + 社区脚本 安装

  • Pinokio:一个「AI 应用一键安装器」,相当于 AI 界的「应用商店」,用可视化界面帮你自动跑命令、装依赖、建环境、启动程序,全程点点鼠标就行,不用懂代码。
  • 社区脚本(Community Script)
    • 是用户/开发者写好的 自动化脚本(用 Pinokio 专属脚本语言写),上传到 GitHub 并打上 pinokio 标签,就会自动出现在 Pinokio 的「Community」页。
    • 官方不审核,属于「用户分享、自己负责」的脚本;和官方「Verified(认证)」脚本不同。

wan2gp / wan2gp-amd 具体是什么

它们是同一个作者(GitHub:6Morpheus6)发布的两套脚本,核心功能一样,唯一区别:显卡适配

脚本名适用显卡核心作用
wan2gpNVIDIA 显卡(RTX 10xx/20xx/30xx/40xx/50xx 等)一键安装、配置、启动 WanGP(原 Wan2GP)
wan2gp-amdAMD 显卡(RDNA 2/3/3.5/4,如 7900XT、7800XT、7600XT、Phoenix、9070XT 等)同上,但全程适配 AMD 的驱动/ROCm/依赖

GitHub 地址(同时包含 NVIDIA + AMD 两套配置)

脚本里到底帮你干了啥(全自动)

你在 Pinokio 里点「Install」,它后台自动做所有事,不用你管

  1. 自动检测系统(Windows/Linux)、显卡型号、显存大小;
  2. 自动安装/配置:
    • Python 3.11(官方推荐的新版本);
    • Conda 虚拟环境(隔离依赖,不搞乱系统);
    • 对应显卡的 PyTorch + CUDA(NVIDIA)/ ROCm(AMD);
    • 所有依赖:requirements.txt、SageAttention、Triton、FlashAttention、GGUF 内核、vLLM 等加速组件;
  3. 自动克隆官方仓库:https://github.com/deepbeepmeep/Wan2GP;
  4. 自动下载适配你显卡的模型(Wan 2.1/2.2、Hunyuan、LTX、Flux 等);
  5. 全部装完后 自动启动 WanGP,浏览器打开 http://localhost:7860 直接用;
  6. 以后想重启:在 Pinokio 里点「Start」就行,不用再走一遍安装。

和「手动安装」比,好在哪?

  • 零命令:不用敲 git clone / conda create / pip install
  • 零报错:自动处理版本兼容、依赖冲突、显卡适配;
  • 一键更新:Pinokio 里点「Update」自动拉最新代码、更依赖;
  • 隔离环境:所有东西装在 Pinokio 专属目录,不污染电脑全局;
  • 小白友好:全程可视化,适合完全不懂命令行的人。

怎么在 Pinokio 里用?(极简步骤)

  1. 下载安装 Pinokio
  2. 打开 Pinokio → 进入「Community」标签;
  3. 搜索:wan2gp(NVIDIA)或 wan2gp-amd(AMD);
  4. 找到 6Morpheus6 发布的脚本 → 点「Install」;
  5. 等几分钟(自动装完)→ 自动弹出浏览器,直接用 WanGP。
  6. 这是社区脚本,非 WanGP 官方;但作者 Morpheusus 在 WanGP 社区很活跃,口碑稳定、用的人多
  7. 想折腾/改配置:装完后可在 Pinokio 里点「Open Folder」,进入 WanGP 目录自己改文件。
原文链接: https://www.17you.com/tool/wan2gp-ai-video-generator-open-source/ 已复制!
脚本编程和自动化工具

寻找技术支持帮助和技术合伙人一起搞事。

请点击联系我


相关内容