seedance 提示词

发布时间: 2026-03-20 11:32:06

SEEDance2.0到底是个什么玩意儿

说起来,这东西的字节官方定义是"多模态音视频联合生成模型",听着挺玄乎的。用大白话讲:以前AI生成视频就像抽盲盒——你写一堆描述词,然后祈祷出来的东西别太离谱。现在SEEDance2.0变了,它能同时参考图片、视频、音频、文本四种素材,而且能理解物理规律,动作不再飘得像个幽灵。
最重要的是,它支持"全能参考"模式——你可以同时上传最多9张图片、3段视频、3段音频,然后用@符号精准调用。这啥意思呢?举个很直观的例子:你上传一张人物图,再上传一段舞蹈视频,然后告诉它"用图里的人,跳视频里这段舞",它就能精准复刻。
这玩意儿已经不是工具了,这就是个虚拟剧组。

四大核心应用场景,直接上手

场景一:短视频爆品复制——搞流量的神器

说回来,这可能是最多人会用的场景。
抖音、小红书上的爆款舞蹈,你想复刻但不会跳?现在简单了:
找到原版舞蹈视频(建议找高赞的,动作更标准)
上传你的自拍图或人物图
在提示词里写:@图片1 作为主角,复刻 @视频1 中的舞蹈动作,镜头风格参考原视频,节奏卡点精准
生成出来后,直接用剪映抠像把人抠出来,换到你自己的背景上。说真的,这事儿以前得请专业演员+摄影师,现在一个人半小时搞定。
提示词模板:
plaintext
@图片1 作为主角,动作复刻 @视频1,
镜头环绕拍摄,音乐卡点精准,
动作流畅自然,无伪影,
1080p高清,10秒,9:16竖屏

场景二:电商产品展示——店群商家的福音

这事儿我看过案例,真的有点意思。
假设你有一款T恤,有10种颜色,但只拍了白色的实拍视频。以前你得每种颜色都找模特重拍,现在不用了:
上传原视频,提示词写:
plaintext
@视频1 中模特身上的服装颜色更换为藏蓝色,
其他完全保持不变,
光线、阴影、面料质感一致
生成10次,你就有了10个颜色的完整展示视频。店群商家看到这个天都亮了——不用拍、不用模特,一键搞定全SKU展示。
更狠的是多款式换装视频:上传人物图+5张衣服图,提示词:
plaintext
@图片1 中的女孩,
分别换上 @图片2、@图片3、@图片4、@图片5 中的衣服,
整体动作逻辑正常,
镜头快速切换,展示不同款式
30秒内生成一个"换装博主"级别的视频,直接炸场。

场景三:AI漫剧/短剧——内容创作者的新赛道

这个场景真的挺让人意外的。
上传一张九宫格漫画分镜,提示词:
plaintext
@图片1(九宫格),按顺序制作成美式漫画风格动画,
文字转配音,竖版阅读,
快节奏转场,动作夸张有力,
10秒,9:16竖屏
SEEDance2.0能自动识别分镜逻辑,生成分镜动画。更牛的是它支持视频延长:生成一段后,提示词写"延长10秒,角色继续做动作",它会无缝续拍,保持风格一致。
这意味啥?小说作者、漫画创作者,现在可以直接把故事转成连续剧情视频,更新快成本低。追更型账号、矩阵号,这东西是刚需。

场景四:广告大片复刻——低成本做电影感内容

说回来,这个场景可能最颠覆。
你看到一段好莱坞级别的广告短片,想模仿但拍不出来?现在简单了:
上传你的产品图或人物图
上传参考广告视频
提示词:
plaintext
@图片1 作为主体,
运镜风格参考 @视频1,
光线、色调、节奏完全复刻,
电影质感,丝滑过渡
SEEDance2.0能精准复刻镜头语言——推拉摇移、慢镜头、快速剪辑,它都能学。而且自带音效,连音画同步都搞定了。
品牌贺岁片、产品宣传片、情绪短片,以前得外包给专业团队,花个几万几十万。现在自己半天出片,成本几乎为零。

提示词优化指南:从"能用"到"好用"

技巧一:掌握@语法——这是灵魂

SEEDance2.0的核心就是用@精准控制素材:
@图片1
→ 第1张图
@视频1
→ 第1个视频
@音频1
→ 第1段音频
提示词示例:
plaintext
@图片1 作为首帧,镜头缓慢推进,
@视频1 参考舞蹈动作,
@音频1 作为BGM,动作卡点精准
记住:上传素材后,一定要在提示词里用@调用,不然AI不知道你上传的素材是干嘛的。

技巧二:分层提示词——优先级很重要

很多人写提示词一堆东西堆在一起,AI看懵了。得按优先级排序:
plaintext
核心需求 → 次要需求 → 细节需求 → 约束条件
示例:
plaintext
@图片1 作为主角,复刻 @视频1 的舞蹈动作(核心),
古风场景,竹林背景(次要),
镜头环绕拍摄,光影自然(细节),
面部稳定不变形,无伪影,动作流畅(约束)
这样AI能优先理解核心需求,细节再慢慢补。

技巧三:镜头语言提示——拒绝"镜头乱跑"

说回来,这是很多人踩的坑。
写提示词时避免"镜头移动"这种模糊表达,要用专业术语:
Slow dolly-in
→ 缓慢推近
Smooth panning
→ 平滑摇镜
Close-up
→ 特写
Low angle shot
→ 低角度仰拍
Single continuous shot
→ 一镜到底
示例:
plaintext
镜头缓慢推进,聚焦人物面部,
随后平滑摇镜展示周围环境,
最后定格在手部特写

技巧四:注入光影质感——摆脱"廉价感"

AI生成的视频有时候看着"假",问题出在光影上。提示词里加这些词:
Tyndall effect
→ 丁达尔效应(阳光穿透)
Soft backlighting
→ 柔和逆光
Golden hour
→ 黄金时刻
Film grain
→ 胶片颗粒感
Silk texture
→ 丝绸质感
示例:
plaintext
古风场景,竹林背景,
丁达尔效应,阳光穿透竹叶,
柔和逆光勾勒人物轮廓,
电影感色调

技巧五:首尾帧控制——解决长视频一致性

这事儿挺关键的。
如果你要做长视频(超过15秒),得用首尾帧控制:
上传第1张图作为首帧
上传第2张图作为尾帧
提示词:
plaintext
@图片1 作为首帧,@图片2 作为尾帧,
人物从A点走到B点,
动作连贯流畅,场景自然过渡
生成后,用视频延长功能继续拍下一段,确保风格一致。

参数设置建议——别纠结,照选就行

新手默认配置:
时长
:5-10秒(太长容易崩)
比例
:短视频选9:16,横屏选16:9
画质
:1080p(省积分),2K需VIP
参考素材
:3个以内(太多容易混乱)
进阶配置:
时长
:10-15秒(延长功能可继续拍)
比例
:根据发布平台定
画质
:2K(专业需求)
参考素材
:最多9图+3视频+3音频
积分消耗参考:
720p/15秒:5积分
1080p/15秒:10积分
2K/30秒:30积分
双人舞:+5积分
自定义服装:+10积分

常见问题排查——别踩这些坑

问题1:人物变形
原因:提示词没加约束
解决:提示词里加面部稳定不变形、无伪影
问题2:动作僵硬
原因:没参考动作视频
解决:上传参考视频,提示词动作参考 @视频1
问题3:画面抖动
原因:镜头语言写得太动态
解决:把dynamic改成smooth,加single continuous shot
问题4:音画不同步
原因:没明确卡点要求
解决:提示词写动作与 @音频1 节拍精准同步
问题5:生成失败
原因:提示词太复杂或时长太长
解决:缩短时长、简化提示词、换高清素材

最后说两句

说实话,SEEDance2.0这次更新真的踩到了一个很关键的点——它把AI视频创作从"抽盲盒"变成了"当导演"。
以前你得懂摄影、懂运镜、懂剪辑,现在你只需要有想法。上传几张图,找段参考视频,用@语法把它们串起来,剩下的事儿AI帮你搞定。
这阵风已经刮起来了。工具已经备好,甚至变现的摊位都给你支棱起来了。
你要不要去即梦上,生成你的第一个AI舞蹈视频?