Seedance 助手:精通即梦 AI 视频生成 - Openclaw 技能
作者:互联网
2026-04-17
什么是 Seedance 视频助手?
Seedance 助手是专为即梦平台设计的专业级工具,针对 Seedance 2.0 多模态视频生成模型进行了特别优化。它作为抽象创意构思与高质量 AI 视频制作所需技术精度之间的桥梁。通过利用 Openclaw 技能,该助手提供两种独特的工作流:用于快速提示词输出的“快速生成”模式,以及通过交互式对话帮助用户细化叙事、视觉风格和相机运动的“分步引导”模式。
该工具擅长规划复杂镜头、管理多模态资产,并确保生成的内容符合 Seedance 引擎的技术约束。它将用户需求转化为 AI 能够高保真解释的结构化语法,涵盖从电影级灯光到特定角色动作的所有内容。
下载入口:https://github.com/openclaw/skills/tree/main/skills/machitao/seedance-assistant
安装与下载
1. ClawHub CLI
从源直接安装技能的最快方式。
npx clawhub@latest install seedance-assistant
2. 手动安装
将技能文件夹复制到以下位置之一
全局模式~/.openclaw/skills/
工作区
/skills/
优先级:工作区 > 本地 > 内置
3. 提示词安装
将此提示词复制到 OpenClaw 即可自动安装。
请帮我使用 Clawhub 安装 seedance-assistant。如果尚未安装 Clawhub,请先安装(npm i -g clawhub)。
Seedance 视频助手 应用场景
- 创作具有精确时长和镜头转换的电影级 AI 视频分镜脚本。
- 开发多模态提示词,引用特定的图像、视频和音频剪辑以实现一致性生成。
- 将模糊的创意构思细化为即梦 Seedance 2.0 的详细技术规范。
- 规划具有特定品牌一致风格和情感弧线的商业广告。
- 用户在“快速生成”或“分步引导”模式之间进行选择以启动创作过程。
- 在引导模式下,助手收集核心叙述细节、视频时长和风格偏好。
- 助手规划出逐镜头的时刻表,识别视频每一秒的关键动作和视觉触发点。
- 将专业相机语言(如推拉变焦或摇移)和灯光规范应用于叙事结构。
- 助手使用特定的 @ 语法组织多达 12 个多模态资产,以便在生成过程中进行精确引用。
- 生成最终的可直接使用的提示词,并附带优化核查表和资产管理摘要。
Seedance 视频助手 配置指南
要将此工具部署为 Openclaw 技能库的一部分,请遵循以下标准配置步骤。确保您在即梦平台拥有活跃账号以利用生成的输出。
# 通过您的智能体管理器安装技能
openclaw install seedance-assistant
# 配置技能以优先使用 Seedance 2.0 模型
openclaw configure seedance-assistant --model seedance-2.0
Seedance 视频助手 数据架构与分类体系
该技能将输入组织成结构化的多模态映射。它执行严格的限制以确保与 Seedance 2.0 引擎的兼容性。
| 资产类型 | 最大数量 | 大小限制 | 时长限制 |
|---|---|---|---|
| 图像 | 9 个文件 | < 30MB | 不适用 |
| 视频 | 3 个文件 | < 50MB | 2-15 秒 |
| 音频 | 3 个文件 | < 15MB | <= 15 秒 |
| 总计限制 | 12 个文件 | 不适用 | 不适用 |
输出使用专门的 @ 语法(例如 @image1, @video1)将外部资产链接到提示词内的特定时间戳或生成指令。
name: seedance-assistant
description: 即梦 Seedance 2.0 视频生成助手。支持两种模式:(1)快速生成 - 直接输出完整提示词方案;(2)分步引导 - 通过5步交互式问答逐步完善创意。在用户使用即梦/Seedance进行AI视频创作时触发,包括:撰写专业提示词、规划图片/视频/音频素材组合、查询格式限制、学习参考案例、视频分镜策划等场景。
Seedance Assistant - 即梦视频生成助手
即梦 Seedance 2.0 多模态视频生成模型的专业助手,帮你把创意转化为高质量 AI 视频。
使用模式选择
每次触发技能时,先询问用户偏好:
?? 请选择使用模式:
- 快速生成 - 直接给出完整提示词方案(适合思路清晰)
- 分步引导 - 通过问答一步步完善创意(适合需要灵感)
模式一:快速生成(默认)
用户思路清晰时,直接按原流程输出:
- 理解创意 → 2. 素材规划 → 3. 生成提示词 → 4. 格式检查 → 5. 输出结果
详见下方【快速生成流程】部分。
模式二:分步引导(推荐新手)
通过 5 步交互式问答,把模糊想法打磨成专业提示词。
第一步:理解核心想法
用友好的方式询问:
- 你想讲什么故事?(一句话概括核心内容)
- 视频时长?(4-15秒,默认15秒)
- 有参考素材吗?(图片/视频/音频)
第二步:深入挖掘细节
根据初步回答,逐步引导完善:
2.1 内容叙事
- 故事的起承转合是什么?
- 关键情节有哪些?需要哪些角色/主体?
- 有对白/旁白吗?内容是什么?
2.2 视觉风格
- 整体风格:写实/动画/水墨/科幻/复古/电影感/新海诚/宫崎骏?
- 色调氛围:明亮/昏暗/暖色/冷色/黑白/赛博朋克?
- 画面比例:竖屏(9:16)/横屏(16:9)/电影宽屏(2.35:1)?
2.3 镜头语言
- 景别变化:远景→全景→中景→近景→特写?
- 运镜方式:推/拉/摇/移/跟/环绕/升降/希区柯克变焦?
- 转场方式:硬切/渐变/匹配剪辑/特效转场?
2.4 动作与节奏
- 主体动作:行走/奔跑/打斗/舞蹈/表情变化?
- 动作节奏:舒缓/急促/有张有弛?
- 是否需要音乐卡点?
2.5 声音设计
- 配乐风格:激昂/温馨/悬疑/欢快/史诗/国风?
- 音效需求:环境音/动作音效/特殊音效?
- 对白/旁白:有台词吗?什么语气?方言?
第三步:构建分镜结构
将故事拆解为时间轴镜头序列:
示例结构(15秒视频):
0-3秒:开场镜头,建立场景
3-6秒:发展,引入主体/冲突
6-10秒:高潮,核心动作/情感爆发
10-13秒:转折/过渡
13-15秒:结尾/落版
与用户确认每段的画面内容:
- 这一秒画面里有什么?
- 主体在做什么动作?
- 镜头怎么运动?
第四步:生成专业提示词
根据收集的信息,生成 Seedance 2.0 格式提示词:
提示词结构模板:
【整体描述】风格 + 时长 + 画面比例 + 整体氛围
【分镜描述】
0-X秒:[镜头运动],[画面内容],[主体动作],[光影/特效]
X-Y秒:[镜头运动],[画面内容],[主体动作],[光影/特效]
...
【声音说明】配乐风格/音效/对白
【参考素材说明】(如有)
@图片1 作为首帧/角色参考
@视频1 参考运镜/动作
@音频1 用于配乐/对白参考
提示词书写原则:
- 时间轴清晰,标注每段的秒数范围
- 镜头语言明确(推/拉/摇/移/跟/环绕等)
- 动作描述具体,避免模糊词汇
- 多模态引用时使用 @素材名 格式
- 需要延长视频时说明"延长Xs"并选择对应生成长度
第五步:优化与建议
输出完成后,提供:
- ? 检查是否违反平台规则(写实人脸限制)
- ?? 多模态输入建议(什么素材最有参考价值)
- ?? 替代方案(如无法实现时的调整建议)
快速生成流程(模式一)
1. 理解创意
分析用户核心需求:
- 视频主题/风格
- 时长要求 (4-15s)
- 是否有参考素材
- 关键画面描述
2. 素材规划
根据参数限制规划:
- 需要几张图片?什么用途?
- 是否需要参考视频?参考什么?
- 是否需要音频?
- 文本提示词要点
3. 生成专业提示词
使用 @素材名 语法,参考模板:
@图片1 作为首帧,@图片2 作为尾帧,参考 @视频1 的运镜方式,
镜头从 @图片1 的场景缓慢推进到 @图片2,过程中...
4. 格式检查
对照参数表检查:
- 图片 ≤9张,<30MB
- 视频 ≤3个,2-15s,<50MB
- 音频 ≤3个,≤15s,<15MB
- 总文件 ≤12个
5. 输出
提供:
- 完整提示词(可直接复制到即梦)
- 素材清单(带格式要求)
- 参考案例链接
Seedance 2.0 核心参数
支持的输入格式
| 类型 | 格式 | 数量 | 大小 | 时长 |
|---|---|---|---|---|
| 图片 | jpeg/png/webp/bmp/tiff/gif | ≤9张 | <30MB | - |
| 视频 | mp4/mov | ≤3个 | <50MB | 2-15s |
| 音频 | mp3/wav | ≤3个 | <15MB | ≤15s |
| 总计 | - | ≤12个文件 | - | - |
生成参数
- 生成时长:≤ 15s,可自由选择 4-15s
- 声音输出:自带音效/配乐
- 交互限制:混合输入总上限 12 个文件
核心能力
- 参考图像 - 精准还原画面构图、角色细节
- 参考视频 - 支持镜头语言、复杂动作节奏、创意特效复刻
- 视频延长 - 平滑延长与衔接,可"接着拍"
- 视频编辑 - 角色更替、剧情颠覆、片段调整
@语法指南
通过"@素材名"指定用途:
| 语法 | 用途 |
|---|---|
@图片1 |
引用第1张图片 |
@视频1 |
引用第1个视频 |
@音频1 |
引用第1个音频 |
参考 @视频1 的运镜 |
指定参考关系 |
@图片1 作为首帧 |
指定素材用途 |
延长 X 秒 |
视频延长指令 |
特殊场景用法
| 场景 | 提示词写法 |
|---|---|
| 首帧+视频动作 | "@图片1 为首帧,参考@视频1 的打斗动作" |
| 视频延长 | "将@视频1 延长 5s"(生成长度选新增部分时长) |
| 多视频融合 | "在@视频1 和@视频2 之间加场景,内容为 xxx" |
| 参考视频声音 | "使用@视频1 的背景音乐和节奏" |
| 角色替换 | "将@视频1 中的女生换成@图片1 的形象" |
| 完整运镜复刻 | "完全参考@视频1 的所有运镜效果" |
参考文档
references/seedance-guide.md
完整参数手册 + 10+ 类型官方案例:
- 运镜技巧(希区柯克变焦、环绕、推拉)
- 风格复刻(水墨、赛博朋克、复古)
- 商业广告模板
- 情绪演绎手法
assets/prompt-templates/
提示词模板库:
character-consistent.txt- 角色一致性模板camera-movement.txt- 运镜复刻模板style-transfer.txt- 风格迁移模板commercial-ad.txt- 商业广告模板emotional-story.txt- 情绪叙事模板
运镜描述词汇表
| 术语 | 解释 |
|---|---|
| 推/拉 | 镜头向前/向后移动,主体变大/小 |
| 摇 | 镜头左右/上下转动 |
| 移 | 镜头平移(横向/纵向) |
| 跟 | 跟随主体移动 |
| 环绕 | 360度围绕主体旋转 |
| 希区柯克变焦 | 镜头推拉+变焦,主体大小不变,背景变化 |
| 一镜到底 | 整个片段无切镜,连续拍摄 |
?? 重要限制
暂不支持写实人脸素材
- 图片和视频素材均不支持写实真人脸部
- 系统会自动拦截,上传后无法生成
- ? 动漫/插画/抽象风格人脸可用
- ? 真人照片/视频不可用
输出格式示例
分步引导模式最终输出:
## ? 故事确认
[总结用户描述的故事]
## ?? Seedance 2.0 提示词
[完整提示词]
## ?? 素材清单
| 素材 | 用途 | 格式要求 |
|------|------|----------|
| 图片1 | 首帧 - XXX | <30MB |
| 图片2 | 尾帧 - XXX | <30MB |
| 视频1 | 参考运镜 | mp4, <50MB, 2-15s |
## ?? 优化建议
- [素材/格式/替代方案建议]
## ?? 类似案例
- [官方案例参考]
官网信息
- 即梦官网:https://jimeng.jianying.com/
- 备用模型:Seedance 2.0 Fast(服务器压力大时用)
相关推荐
专题
+ 收藏
+ 收藏
+ 收藏
+ 收藏
+ 收藏
+ 收藏
最新数据
相关文章
Rey Developer:自主编程最佳实践 - Openclaw Skills
MetaMask 钱包:AI 驱动的加密支付与 DeFi - Openclaw Skills
LinkedIn 海报生成器:专业算法优化 - Openclaw 技能
Human Security:高级交互保护 - Openclaw Skills
GitHub 个人主页 README 生成器:自定义开发者主页 - Openclaw Skills
Fiverr 卖家:自动化自由职业服务与销售 - Openclaw Skills
邮件营销文案撰写专家:高转化序列 - Openclaw Skills
数字产品创作助手:构建并扩展数字资产 - Openclaw Skills
DeepSeek Trader:混合 AI 加密货币信号引擎 - Openclaw Skills
加密货币模拟器:回测交易策略 - Openclaw Skills
AI精选
