2. 进入应用目录并执行安装脚本

May 8, 2026 · View on GitHub

AIGC-Claw: AI 创意视频生成员工

Version License Stars Forks Python OpenClaw Compatible

直接与 OpenClaw 对话:"生成 X 的视频" → 搞定。

🌐 English README 📺 Bilibili ▶️ YouTube 📖 集成指南 🦀 ClawHub

HITsz-TMG%2FAIGC-Claw | Trendshift

💥 News

  • 2026/3/27: 🎬 AIGC-Claw 正式发布,支持从想法到视频生成全流程自动化,用户可随时介入调整。
  • 2026/4/6: 🎭 AIGC-Claw 推出第二版,针对短剧进行优化。
  • 2026/4/9: ♾️ AIGC-Claw 推出第三版,新增无限续写,剧情可自定义。
  • 2026/4/29: 🧩 新增文艺短视频、动作迁移、数字人口播三个 Pipeline,并支持一键安装。
  • 2026/5/8: ⚙️ 支持通过 WebUI 配置 API 与默认模型,支持一键安装。

📖 项目介绍

AIGC-Claw 是一个面向创意视频生产的 AI 导演系统。你只需要给出一句想法、一个故事梗概,甚至一个模糊概念,系统就会把它拆解为可执行的影视工作流,持续产出可查看、可确认、可修改、可交付的中间资产,最终生成完整成片

它不是单点式的文生视频工具,而是一条覆盖 剧本策划 → 角色/场景设计 → 分镜规划 → 参考图生成 → 视频生成 → 后期剪辑 的全流程生产线。相比只给你一个黑盒结果的闭源视频生成框架,AIGC-Claw是一个真正可协作的 AI 导演团队:前一阶段决定后一阶段,所有关键节点都能可视化、可编辑、可继续生成。

除主流程外,AIGC-Claw 也提供三个一次性 Pipeline,用于更轻量、更直接的视频生成任务:文艺短视频、动作迁移和数字人口播。Pipeline 任务会实时推送进度与产物,生成结果和历史记录会在本地保留,便于继续查看、删除和复用。

🧩 新增 Pipeline

Pipeline前端入口说明
文艺短视频侧边栏「文艺短视频」支持「图片拼接 / 动态视频」和「创作灵感 / 完整文案」两组模式。系统按句号切分旁白,为每个片段生成配图与语音;图片拼接模式合成图文短视频,动态视频模式继续调用图生视频模型生成片段;可选添加标题和字幕。
动作迁移侧边栏「动作迁移」输入参考图片、动作视频和提示词,调用支持动作迁移能力的视频模型生成结果视频。
数字人口播侧边栏「数字人口播」输入人物图和口播文案,生成分句语音与数字人视频片段;多片段生成时会使用上一段尾帧衔接下一段,并用生成语音替换最终视频音轨。

Pipeline 任务元数据保存在 aigc-director/aigc-claw/backend/code/data/tasks/<task_id>.json,图片、音频、视频等产物保存在 aigc-director/aigc-claw/backend/code/result/task/<task_id>/

📺 AIGC-Claw 示例(全流程自动化)

📱 系列一:程序员被裁后利用 openclaw 收购原公司 (写实 短剧)

共 8 集,跌宕起伏的逆袭之路(首次生成 6 集 + 续写 2 集)

点击播放 第 1 集
▶️ 第 1 集
被优化
点击播放 第 2 集
▶️ 第 2 集
深夜启程 首单突破
点击播放 第 3 集
▶️ 第 3 集
AI获投 旧主危机
点击播放 第 4 集
▶️ 第 4 集
收购星耀
点击播放 第 5 集
▶️ 第 5 集
收购清算 新生
点击播放 第 6 集
▶️ 第 6 集
新生 回望
点击播放 第 7 集
▶️ 第 7 集
技术反噬
点击播放 第 8 集
▶️ 第 8 集
坚守伦理 共渡难关

🖥️ 系列二:乡村教师 (科幻 漫剧)

共 5 集,致敬伟大的文明传承

点击播放 第 1 集
▶️ 第 1 集
最后一课
点击播放 第 2 集
▶️ 第 2 集
清扫计划
点击播放 第 3 集
▶️ 第 3 集
临终托付
点击播放 第 4 集
▶️ 第 4 集
生死问答
点击播放 第 5 集
▶️ 第 5 集
文明之光

🎞️ 更多演示

独立微短剧片段

伦敦疑云

一条狗的使命

无人机系荔枝来

Web 前端界面
Stage 1Stage 2
Stage 3Stage 4
Stage 5Stage 6

微信交互
WeChat 1WeChat 2WeChat 3WeChat 4

飞书交互
Feishu 1Feishu 2Feishu 3Feishu 4

✨ 功能特性

能力说明
🎬 从创意到成片的全流程生成一条链路打通剧本、角色、分镜、参考图、视频片段与后期剪辑,把零散生成能力升级为完整视频生产工作流。
🖼️ 分镜驱动的可控创作通过结构化剧本、分镜规划与参考图生成,让角色一致性、镜头表达和画面风格更稳定、更可控。
✍️ 可修改、可续写、可继续生成支持剧情 / 分镜智能续写,也支持角色、参考图、视频阶段修改后重新生成,避免每次都从头开始。
🧩 轻量 Pipeline 任务支持文艺短视频、动作迁移、数字人口播三类一次性任务,适合快速生成图文/动态短视频、动作迁移视频和口播视频。
🏷️ 模型能力标签筛选后端统一在 models/config_model.py 登记模型信息,并按文本、图像、视频、TTS、动作迁移等能力标签筛选可用模型。
📡 实时任务状态和产物管理Pipeline 前端通过事件订阅获取进度和产物,历史记录按功能分区展示,并支持同步删除任务元数据和产物文件夹。
📲 本地部署、多端协作、产物留存支持 Web 界面、微信 / 飞书协作、OpenClaw Skill 集成,并对剧本、图片、视频片段和最终成片进行全链路留存。

🚀 快速开始

方式一:一键安装(推荐)

# 1. 克隆项目
git clone https://github.com/HITsz-TMG/AIGC-Claw.git
cd AIGC-Claw

# 2. 进入应用目录并执行安装脚本
cd aigc-director/aigc-claw
chmod +x install.sh
./install.sh

Windows 用户可在 PowerShell 或 CMD 中执行:

cd AIGC-Claw\aigc-director\aigc-claw
install.bat

安装脚本会检查 Python、Node.js、npm 和 ffmpeg,安装后端与前端依赖,复制 backend/config.yaml.examplebackend/config.yaml,并执行前端构建。安装完成后,先在 backend/config.yaml 中填入模型服务 API Key,并确认 models 中的主流程默认模型;也可以启动前端后通过侧边栏底部「设置」页面修改这些配置。配置完成后启动服务:

# 启动后端
cd aigc-director/aigc-claw/backend
uv run python api_server.py

# 新终端启动前端
cd aigc-director/aigc-claw/frontend
npm start

后端默认运行在 http://localhost:8000,前端默认运行在 http://localhost:3000

如果只想安装依赖、暂时跳过前端构建,可以执行:

AIGC_DIRECTOR_SKIP_FRONTEND_BUILD=1 ./install.sh

方式二:手动安装

# 1. 克隆项目
git clone https://github.com/HITsz-TMG/AIGC-Claw.git
cd AIGC-Claw

# 2. 配置并启动后端
cd aigc-director/aigc-claw/backend

# 安装后端依赖
uv sync

# 配置后端 YAML
cp config.yaml.example config.yaml
# 编辑 config.yaml 填入 API Key,并确认主流程默认模型
# 也可以启动前端后在「设置」页面修改

# 启动后端
uv run python api_server.py
# 服务运行在 http://localhost:8000
# 3. 配置并启动前端(新终端)
cd aigc-director/aigc-claw/frontend
npm install
npm run build
npm start
# 访问 http://localhost:3000

如果没有安装 uv,也可以使用 python -m venv venvpip install -r requirements.txt 安装后端依赖。

方式三:OpenClaw 自动配置

向 OpenClaw 发送消息:

帮我克隆git仓库:https://github.com/HITsz-TMG/AIGC-Claw.git
然后把AIGC-Claw中的aigc-director文件夹递归复制到.openclaw/workspace/skills目录下,用作AIGC相关的skill

使用时建议指明 "使用 aigc-director":

用aigc-director来生成一个视频,内容是"一条狗的使命"

方式四:通过 ClawHub 安装

请确保本地安装了clawhub-cli

打开终端,输入命令,所有询问均选择yes

clawhub install aigc-director

安装完成后,ClawHub 会将 aigc-director 复制到 workspace/skills(或指定的 skills 目录)。

之后可以参考方式一一键安装或方式二手动安装自行构建项目并运行,也可以使用OpenClaw完成后续项目构建。

在第一次使用 aigc-director 时,如果没有手动构建项目,OpenClaw会自动构建前后端并运行,无需手动初始化(构建项目需要配置环境和编译,请耐心等待)。


🔧 配置说明

点击展开完整环境要求和变量

环境要求

  • Python: 3.9+
  • Node.js: 18+
  • npm: 9+

后端配置

后端配置统一保存在 aigc-claw/backend/config.yaml,采用小写、层级化 YAML 结构。可直接编辑该文件,也可以在前端侧边栏底部进入「设置」页面修改。

  • api_providers 保存各模型服务平台的密钥、接口地址和代理开关。
  • models 保存主流程首页使用的默认模型。前端创建项目时会先读取这些默认值,再把具体模型参数传给后端;后端不会再为主流程自动兜底选择模型,缺少模型参数会直接报错。
  • Pipeline(文艺短视频、动作迁移、数字人口播)不使用这里的主流程默认模型,需要在对应 Pipeline 页面单独选择模型。

前端设置页面

启动前后端后,可以在 Web 前端左侧边栏底部进入「设置」页面,无需手动编辑 YAML,也可以完成常用配置:

  • 填写或更新 OpenAI、Gemini、DeepSeek、DashScope、火山方舟 ARK、Kling 等平台的 API Key / Access Key / Secret Key。
  • 修改各 provider 的 base_urlenable_proxy,以及公共代理地址 api_providers.common.proxy
  • 选择主流程默认模型,包括 llmvlmimage_t2iimage_it2ivideovideo_ratioeval
  • 保存后会写回 backend/config.yaml。API Key、代理和默认模型会被后续新建项目读取;server.hostserver.port 等服务启动参数需要重启后端后完全生效。
project_name: AIGC-Claw

server:
  host: 127.0.0.1
  port: 8000
  debug: false

api_providers:
  common:
    print_model_input: false
    proxy: ''
  openai:
    api_key: your_openai_key
    base_url: https://api.openai.com/v1
    enable_proxy: false
  gemini:
    api_key: your_gemini_key
    base_url: https://generativelanguage.googleapis.com/v1beta
    enable_proxy: false
  deepseek:
    api_key: your_deepseek_key
    base_url: https://api.deepseek.com/v1
    enable_proxy: false
  dashscope:
    api_key: your_dashscope_key
    base_url: https://dashscope.aliyuncs.com/api/v1
    enable_proxy: false
  ark:
    api_key: your_ark_key
    base_url: https://ark.cn-beijing.volces.com/api/v3
    enable_proxy: false
  kling:
    access_key: your_kling_access_key
    secret_key: your_kling_secret_key
    enable_proxy: false

models:
  llm: qwen3.5-plus
  vlm: qwen3.5-plus
  image_t2i: doubao-seedream-5-0-260128
  image_it2i: doubao-seedream-5-0-260128
  video: wan2.7-i2v
  video_ratio: '16:9'
  eval: qwen3.5-plus

api_providers.common.proxy 是唯一的代理地址。每个 provider 通过 enable_proxy 决定是否启用该代理,默认关闭,避免同一进程内不同模型调用互相污染。server.host / server.port 等服务启动参数保存后需要重启后端才会完全生效;API Key、代理配置和 models 中的主流程默认模型会被新的项目创建和模型调用读取。

密钥与模型对应关系

平台配置字段常用用途
OpenAIapi_providers.openai.api_key / base_urlGPT 文本、视觉模型和 OpenAI 图像模型
Geminiapi_providers.gemini.api_key / base_urlGemini 文本、视觉模型
DeepSeekapi_providers.deepseek.api_key / base_urlDeepSeek 文本模型
DashScopeapi_providers.dashscope.api_key / base_url通义千问、通义万相、Wan 图像/视频等
火山方舟 ARKapi_providers.ark.api_key / base_urlSeedream 图像、Seedance 视频等
Klingapi_providers.kling.access_key / secret_key / base_url可灵视频生成

只需要填写你实际选择模型所需的平台密钥。例如主流程默认图像模型是 doubao-seedream-* 时,需要配置 ark.api_key;默认视频模型是 wan* 时,需要配置 dashscope.api_key。如果在 Pipeline 页面选择了不同模型,也要确保对应平台的密钥已经填写。

可用模型

类型模型
LLMqwen3.6-max-preview, qwen3-max, deepseek-chat, deepseek-reasoner, deepseek-v4-flash, deepseek-v4-pro, gpt-4o, gpt-5, gpt-5.4, gemini-2.5-flash, gemini-2.0-flash, kimi-k2.6
VLMqwen3.6-plus, qwen3.6-flash, kimi-k2.6, gpt-5.4, gemini-2.5-flash-image, gemini-2.0-flash
文生图wan2.7-image, wan2.7-image-pro, wan2.6-t2i, doubao-seedream-5.0/4.5/4.0, gpt-image-2
图生图wan2.7-image, wan2.7-image-pro, doubao-seedream-5.0/4.5/4.0, gpt-image-2
视频生成wan2.7-i2v, wan2.6-i2v-flash, doubao-seedance-2.0 (Normal/Fast), kling-v3/v2.6/v2.5

模型信息以 aigc-director/aigc-claw/backend/models/config_model.py 为准。前端和 Pipeline API 会根据模型能力标签筛选模型,例如文本生成、图像生成、图生视频、动作迁移、TTS 等。

🙏 致谢

AIGC-Claw 的想法和设计受到了 AutoResearchClawhuobao-dramaLibTVlibtv-skills 的启发。

📚 系列工作

框架图论文信息
FilmAgent framework[SIGGRAPH Asia 2024] FilmAgent: Automating Virtual Film Production Through a Multi-Agent Collaborative Framework
Zhenran Xu, Jifang Wang, Longyue Wang, Zhouyi Li, Senbao Shi, Baotian Hu, Min Zhang
[Paper] [GitHub]
Anim-Director result[SIGGRAPH Asia 2024] Anim-Director: A Large Multimodal Model Powered Agent for Controllable Animation Video Generation
Yunxin Li, Haoyuan Shi, Baotian Hu, Longyue Wang, Jiashun Zhu, Jinyi Xu, Zhen Zhao, Min Zhang
[Paper] [GitHub]
AniMaker pipeline[SIGGRAPH Asia 2025] AniMaker: Multi-Agent Animated Storytelling with MCTS-Driven Clip Generation
Haoyuan Shi, Yunxin Li, Xinyu Chen, Longyue Wang, Baotian Hu, Min Zhang
[Paper] [GitHub]

Built with 🦞 by the Lychee Agent team