要体验豆包seedance 2.0,需更新至v7.8.0+,在app“对话”页点击“seedance 2.0”按钮进入;支持文生视频(5秒/10秒)、分身视频(需真人校验,仅限app)、多模态组合输入(图/音/视/文协同)。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您希望体验豆包最新发布的视频生成模型Seedance 2.0,但尚未成功进入功能入口或无法生成预期视频内容,则可能是由于未正确选择模型版本、未完成真人校验(如需分身视频)、或未在支持平台使用所致。以下是体验Seedance 2.0新玩法的具体操作路径:
一、确认并进入Seedance 2.0专属入口
Seedance 2.0已全面接入豆包App、电脑端、网页版及即梦全平台,但各端入口位置与功能权限存在差异,需准确识别官方新增入口以启用最新模型能力。
1、打开豆包App,确保已更新至最新正式版本(v7.8.0及以上)。
2、点击底部导航栏“对话”页,进入主聊天界面。
立即进入“豆包AI人工智官网入口”;
立即学习“豆包AI人工智能在线问答入口”;
3、在输入框上方找到新增的“Seedance 2.0”标签按钮,点击进入专属生成界面。
4、若未看到该按钮,请检查是否处于“探索模式”或“AI实验室”子页面,部分测试用户需手动开启“视频生成实验功能”开关。
二、使用文字提示词快速生成5秒/10秒视频
Seedance 2.0支持纯文本驱动生成,无需图像或音频素材,系统将自动解析语义并构建多镜头叙事结构,适用于创意构思与快速原型验证。
1、在Seedance 2.0输入框中键入清晰、具象的中文提示词,例如“一只橘猫戴着墨镜在夏威夷海滩冲浪,阳光强烈,慢动作水花飞溅”。
2、点击右下角“生成”按钮,等待约15–30秒(取决于网络与服务器负载)。
3、生成完成后,界面将显示5秒标准版与10秒增强版两个可选结果,点击对应缩略图即可预览或下载。
4、生成视频默认包含原生音轨,无需额外配乐——该音轨由模型根据提示词语义自动生成,不可编辑但可静音。
三、创建并使用个人视频分身(仅限豆包App与即梦App)
分身视频功能依赖真人身份核验,通过录音+录像双因子验证建立数字人基模,确保生成内容中人物形象、口型、微表情与用户本人高度一致。
1、在Seedance 2.0界面点击“分身视频”选项卡,系统将跳转至真人校验流程。
2、按提示朗读随机生成的4位数字(用于声纹绑定),全程录音时长不少于3秒。
3、面向手机前置摄像头完成10秒正面凝视录像,保持光照均匀、无遮挡、无大幅晃动。
4、提交后等待审核,通常在2小时内完成建模,成功后可在“我的分身”中查看并选择该形象参与后续视频生成。
5、注意:该功能暂不开放于电脑端与网页版,且当前版本不支持上传真人图片替代实拍校验。
四、组合多模态输入实现导演级控制
Seedance 2.0支持图像、视频、音频、文本四模态协同输入,用户可通过参考图锁定风格、用音频设定节奏、借短视频定义运镜逻辑,大幅提升生成可控性与专业度。
1、在Seedance 2.0界面点击输入框旁的“+”号图标,展开多模态附件面板。
2、选择“上传图片”,可添加一张风格参考图(如油画风建筑、赛博朋克街景),模型将自动提取色彩、笔触与构图特征。
3、选择“上传音频”,导入一段10秒内的人声或环境音,模型将据此生成匹配情绪与节拍的画面切换节奏。
4、选择“上传视频”,限定为3秒以内短视频片段,用于指定角色动作轨迹或镜头运动路径(如推镜、环绕、俯拍)。
5、所有附件上传完毕后,在提示词框中补充简要文字说明(如“延续参考图的蒸汽波色调,按音频鼓点切换镜头”),再点击生成。











