seedance 2.0已上线,支持多模态混合输入、原声音画同步生成、多镜头长叙事、app端真人数字分身创建及视频编辑延长功能。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您尝试使用豆包视频生成功能,发现可选模型与以往不同,可能是由于Seedance 2.0已正式上线并启用全新能力。以下是该模型当前已确认启用的具体新功能:
一、多模态混合输入支持
Seedance 2.0不再仅依赖文字提示词,而是允许用户同时输入文本、图片、音频、视频四种模态素材,模型可综合解析其中的构图、动作、运镜、光影、节奏与氛围等要素,实现更精准的意图传达。
1、在豆包App“Seedance 2.0”入口中,点击“添加参考”按钮。
2、从本地相册选择一张风格图,用于定义画面色调与美术倾向。
立即进入“豆包AI人工智官网入口”;
立即学习“豆包AI人工智能在线问答入口”;
3、再上传一段3秒内的短视频片段,用以指定角色运动轨迹或镜头推移方式。
4、同步录入一段语音或背景音效,系统将自动匹配口型与画面节奏。
二、原声音画同步生成
该模型内置双声道立体声合成模块,可在生成视频的同时输出高保真原生音轨,支持人物解说、环境音效与背景音乐三轨并行,并严格对齐画面时间轴。
1、在提示词框下方勾选“启用原声同步”选项。
2、输入描述性文字如“一位女声轻快讲解咖啡冲泡步骤,背景有手冲水流声与轻柔钢琴音”。
3、提交后,生成的5秒或10秒视频将自带与画面动作精确匹配的音频输出。
三、多镜头长叙事能力
Seedance 2.0具备自动分镜设计能力,能根据提示词逻辑拆解为多个连贯镜头,保持角色、光影、风格与氛围的高度统一,突破单镜头静态表达局限。
1、输入提示词时使用分号分隔场景,例如:“清晨街道;主角推开玻璃门;特写咖啡杯升起热气”。
2、模型识别分号结构后,自动生成三个镜头序列,每个镜头持续约1.5—2秒。
3、运镜方式(如推镜、摇镜、跟拍)由上下文语义触发,无需手动指定。
四、真人数字分身创建(仅限App端)
在豆包App中,用户可通过真人校验流程生成专属数字人分身,该分身可用于后续所有Seedance 2.0视频生成任务,确保主体一致性。
1、进入“我的”页面,点击“AI分身”模块。
2、按指引完成30秒正面朗读+15秒侧脸转动录像。
3、系统完成建模后,分身图标出现在创作界面左下角,点击即可调用。
4、注意:该功能仅在豆包App内开放,电脑端与网页版暂不支持真人校验与分身调用。
五、视频编辑与延长能力
Seedance 2.0提供基础视频编辑接口,允许用户对已生成视频进行局部重绘、镜头替换或延长至最长60秒,无需从头生成。
1、在历史生成列表中找到目标视频,点击右下角“编辑”图标。
2、选择“延长结尾”,输入新提示词如“镜头缓缓拉升,展现整座城市夜景”。
3、系统基于原视频末帧特征延续生成10秒内容,并无缝拼接。
4、当前编辑功能仅支持单次延长,且延长部分不得超过原视频时长的两倍。











