Seedance 助手:精通即梦 AI 视频生成 - Openclaw 技能

作者:互联网

2026-04-17

AI教程

什么是 Seedance 视频助手?

Seedance 助手是专为即梦平台设计的专业级工具,针对 Seedance 2.0 多模态视频生成模型进行了特别优化。它作为抽象创意构思与高质量 AI 视频制作所需技术精度之间的桥梁。通过利用 Openclaw 技能,该助手提供两种独特的工作流:用于快速提示词输出的“快速生成”模式,以及通过交互式对话帮助用户细化叙事、视觉风格和相机运动的“分步引导”模式。

该工具擅长规划复杂镜头、管理多模态资产,并确保生成的内容符合 Seedance 引擎的技术约束。它将用户需求转化为 AI 能够高保真解释的结构化语法,涵盖从电影级灯光到特定角色动作的所有内容。

下载入口:https://github.com/openclaw/skills/tree/main/skills/machitao/seedance-assistant

安装与下载

1. ClawHub CLI

从源直接安装技能的最快方式。

npx clawhub@latest install seedance-assistant

2. 手动安装

将技能文件夹复制到以下位置之一

全局模式 ~/.openclaw/skills/ 工作区 /skills/

优先级:工作区 > 本地 > 内置

3. 提示词安装

将此提示词复制到 OpenClaw 即可自动安装。

请帮我使用 Clawhub 安装 seedance-assistant。如果尚未安装 Clawhub,请先安装(npm i -g clawhub)。

Seedance 视频助手 应用场景

  • 创作具有精确时长和镜头转换的电影级 AI 视频分镜脚本。
  • 开发多模态提示词,引用特定的图像、视频和音频剪辑以实现一致性生成。
  • 将模糊的创意构思细化为即梦 Seedance 2.0 的详细技术规范。
  • 规划具有特定品牌一致风格和情感弧线的商业广告。
Seedance 视频助手 工作原理
  1. 用户在“快速生成”或“分步引导”模式之间进行选择以启动创作过程。
  2. 在引导模式下,助手收集核心叙述细节、视频时长和风格偏好。
  3. 助手规划出逐镜头的时刻表,识别视频每一秒的关键动作和视觉触发点。
  4. 将专业相机语言(如推拉变焦或摇移)和灯光规范应用于叙事结构。
  5. 助手使用特定的 @ 语法组织多达 12 个多模态资产,以便在生成过程中进行精确引用。
  6. 生成最终的可直接使用的提示词,并附带优化核查表和资产管理摘要。

Seedance 视频助手 配置指南

要将此工具部署为 Openclaw 技能库的一部分,请遵循以下标准配置步骤。确保您在即梦平台拥有活跃账号以利用生成的输出。

# 通过您的智能体管理器安装技能
openclaw install seedance-assistant

# 配置技能以优先使用 Seedance 2.0 模型
openclaw configure seedance-assistant --model seedance-2.0

Seedance 视频助手 数据架构与分类体系

该技能将输入组织成结构化的多模态映射。它执行严格的限制以确保与 Seedance 2.0 引擎的兼容性。

资产类型 最大数量 大小限制 时长限制
图像 9 个文件 < 30MB 不适用
视频 3 个文件 < 50MB 2-15 秒
音频 3 个文件 < 15MB <= 15 秒
总计限制 12 个文件 不适用 不适用

输出使用专门的 @ 语法(例如 @image1, @video1)将外部资产链接到提示词内的特定时间戳或生成指令。

name: seedance-assistant
description: 即梦 Seedance 2.0 视频生成助手。支持两种模式:(1)快速生成 - 直接输出完整提示词方案;(2)分步引导 - 通过5步交互式问答逐步完善创意。在用户使用即梦/Seedance进行AI视频创作时触发,包括:撰写专业提示词、规划图片/视频/音频素材组合、查询格式限制、学习参考案例、视频分镜策划等场景。

Seedance Assistant - 即梦视频生成助手

即梦 Seedance 2.0 多模态视频生成模型的专业助手,帮你把创意转化为高质量 AI 视频。

使用模式选择

每次触发技能时,先询问用户偏好:

?? 请选择使用模式:

  1. 快速生成 - 直接给出完整提示词方案(适合思路清晰)
  2. 分步引导 - 通过问答一步步完善创意(适合需要灵感)

模式一:快速生成(默认)

用户思路清晰时,直接按原流程输出:

  1. 理解创意 → 2. 素材规划 → 3. 生成提示词 → 4. 格式检查 → 5. 输出结果

详见下方【快速生成流程】部分。


模式二:分步引导(推荐新手)

通过 5 步交互式问答,把模糊想法打磨成专业提示词。

第一步:理解核心想法

用友好的方式询问:

  1. 你想讲什么故事?(一句话概括核心内容)
  2. 视频时长?(4-15秒,默认15秒)
  3. 有参考素材吗?(图片/视频/音频)

第二步:深入挖掘细节

根据初步回答,逐步引导完善:

2.1 内容叙事

  • 故事的起承转合是什么?
  • 关键情节有哪些?需要哪些角色/主体?
  • 有对白/旁白吗?内容是什么?

2.2 视觉风格

  • 整体风格:写实/动画/水墨/科幻/复古/电影感/新海诚/宫崎骏?
  • 色调氛围:明亮/昏暗/暖色/冷色/黑白/赛博朋克?
  • 画面比例:竖屏(9:16)/横屏(16:9)/电影宽屏(2.35:1)?

2.3 镜头语言

  • 景别变化:远景→全景→中景→近景→特写?
  • 运镜方式:推/拉/摇/移/跟/环绕/升降/希区柯克变焦?
  • 转场方式:硬切/渐变/匹配剪辑/特效转场?

2.4 动作与节奏

  • 主体动作:行走/奔跑/打斗/舞蹈/表情变化?
  • 动作节奏:舒缓/急促/有张有弛?
  • 是否需要音乐卡点?

2.5 声音设计

  • 配乐风格:激昂/温馨/悬疑/欢快/史诗/国风?
  • 音效需求:环境音/动作音效/特殊音效?
  • 对白/旁白:有台词吗?什么语气?方言?

第三步:构建分镜结构

将故事拆解为时间轴镜头序列:

示例结构(15秒视频):
0-3秒:开场镜头,建立场景
3-6秒:发展,引入主体/冲突
6-10秒:高潮,核心动作/情感爆发
10-13秒:转折/过渡
13-15秒:结尾/落版

与用户确认每段的画面内容:

  • 这一秒画面里有什么?
  • 主体在做什么动作?
  • 镜头怎么运动?

第四步:生成专业提示词

根据收集的信息,生成 Seedance 2.0 格式提示词:

提示词结构模板

【整体描述】风格 + 时长 + 画面比例 + 整体氛围

【分镜描述】
0-X秒:[镜头运动],[画面内容],[主体动作],[光影/特效]
X-Y秒:[镜头运动],[画面内容],[主体动作],[光影/特效]
...

【声音说明】配乐风格/音效/对白

【参考素材说明】(如有)
@图片1 作为首帧/角色参考
@视频1 参考运镜/动作
@音频1 用于配乐/对白参考

提示词书写原则

  1. 时间轴清晰,标注每段的秒数范围
  2. 镜头语言明确(推/拉/摇/移/跟/环绕等)
  3. 动作描述具体,避免模糊词汇
  4. 多模态引用时使用 @素材名 格式
  5. 需要延长视频时说明"延长Xs"并选择对应生成长度

第五步:优化与建议

输出完成后,提供:

  • ? 检查是否违反平台规则(写实人脸限制)
  • ?? 多模态输入建议(什么素材最有参考价值)
  • ?? 替代方案(如无法实现时的调整建议)

快速生成流程(模式一)

1. 理解创意

分析用户核心需求:

  • 视频主题/风格
  • 时长要求 (4-15s)
  • 是否有参考素材
  • 关键画面描述

2. 素材规划

根据参数限制规划:

  • 需要几张图片?什么用途?
  • 是否需要参考视频?参考什么?
  • 是否需要音频?
  • 文本提示词要点

3. 生成专业提示词

使用 @素材名 语法,参考模板:

@图片1 作为首帧,@图片2 作为尾帧,参考 @视频1 的运镜方式,
镜头从 @图片1 的场景缓慢推进到 @图片2,过程中...

4. 格式检查

对照参数表检查:

  • 图片 ≤9张,<30MB
  • 视频 ≤3个,2-15s,<50MB
  • 音频 ≤3个,≤15s,<15MB
  • 总文件 ≤12个

5. 输出

提供:

  • 完整提示词(可直接复制到即梦)
  • 素材清单(带格式要求)
  • 参考案例链接

Seedance 2.0 核心参数

支持的输入格式

类型 格式 数量 大小 时长
图片 jpeg/png/webp/bmp/tiff/gif ≤9张 <30MB -
视频 mp4/mov ≤3个 <50MB 2-15s
音频 mp3/wav ≤3个 <15MB ≤15s
总计 - ≤12个文件 - -

生成参数

  • 生成时长:≤ 15s,可自由选择 4-15s
  • 声音输出:自带音效/配乐
  • 交互限制:混合输入总上限 12 个文件

核心能力

  1. 参考图像 - 精准还原画面构图、角色细节
  2. 参考视频 - 支持镜头语言、复杂动作节奏、创意特效复刻
  3. 视频延长 - 平滑延长与衔接,可"接着拍"
  4. 视频编辑 - 角色更替、剧情颠覆、片段调整

@语法指南

通过"@素材名"指定用途:

语法 用途
@图片1 引用第1张图片
@视频1 引用第1个视频
@音频1 引用第1个音频
参考 @视频1 的运镜 指定参考关系
@图片1 作为首帧 指定素材用途
延长 X 秒 视频延长指令

特殊场景用法

场景 提示词写法
首帧+视频动作 "@图片1 为首帧,参考@视频1 的打斗动作"
视频延长 "将@视频1 延长 5s"(生成长度选新增部分时长)
多视频融合 "在@视频1 和@视频2 之间加场景,内容为 xxx"
参考视频声音 "使用@视频1 的背景音乐和节奏"
角色替换 "将@视频1 中的女生换成@图片1 的形象"
完整运镜复刻 "完全参考@视频1 的所有运镜效果"

参考文档

references/seedance-guide.md

完整参数手册 + 10+ 类型官方案例:

  • 运镜技巧(希区柯克变焦、环绕、推拉)
  • 风格复刻(水墨、赛博朋克、复古)
  • 商业广告模板
  • 情绪演绎手法

assets/prompt-templates/

提示词模板库:

  • character-consistent.txt - 角色一致性模板
  • camera-movement.txt - 运镜复刻模板
  • style-transfer.txt - 风格迁移模板
  • commercial-ad.txt - 商业广告模板
  • emotional-story.txt - 情绪叙事模板

运镜描述词汇表

术语 解释
推/拉 镜头向前/向后移动,主体变大/小
镜头左右/上下转动
镜头平移(横向/纵向)
跟随主体移动
环绕 360度围绕主体旋转
希区柯克变焦 镜头推拉+变焦,主体大小不变,背景变化
一镜到底 整个片段无切镜,连续拍摄

?? 重要限制

暂不支持写实人脸素材

  • 图片和视频素材均不支持写实真人脸部
  • 系统会自动拦截,上传后无法生成
  • ? 动漫/插画/抽象风格人脸可用
  • ? 真人照片/视频不可用

输出格式示例

分步引导模式最终输出:

## ? 故事确认
[总结用户描述的故事]

## ?? Seedance 2.0 提示词

[完整提示词]


## ?? 素材清单

| 素材 | 用途 | 格式要求 |
|------|------|----------|
| 图片1 | 首帧 - XXX | <30MB |
| 图片2 | 尾帧 - XXX | <30MB |
| 视频1 | 参考运镜 | mp4, <50MB, 2-15s |

## ?? 优化建议
- [素材/格式/替代方案建议]

## ?? 类似案例
- [官方案例参考]

官网信息

  • 即梦官网:https://jimeng.jianying.com/
  • 备用模型:Seedance 2.0 Fast(服务器压力大时用)