需主动启用r1模型的思维链可视化功能,方法包括:一、网页端点击“深度思考(r1)”按钮;二、app端开启圆形r1开关;三、命令行添加--think参数;四、第三方客户端配置{"think": true, "verbose": true};五、问题前加#debug等符号前缀。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您在使用DeepSeek时希望看到模型内部的完整推理链条,而非仅获得最终结论,则需主动启用R1模型的思维链(Chain-of-Thought)可视化输出功能。该功能默认不开启,必须通过特定路径激活,才能使模型逐层展示假设、验证、修正与收敛过程。以下是实现此目标的操作方法:
一、网页端点击R1按钮强制启用思维链输出
DeepSeek官网对话界面将思维链能力与R1模型深度绑定,仅当R1模式被显式选中时,系统才启动多步推演并显示中间过程。该机制为硬性开关,不可通过提示词绕过。
1、访问 https://chat.deepseek.com/ 并完成登录或保持游客会话;
2、在输入框正下方找到两个并列按钮,确认左侧按钮明确标注为“深度思考(R1)”;
3、单击该按钮,使其状态变为高亮蓝色并显示对勾图标;
4、输入问题后,点击输入框右侧的蓝色上箭头↑发送,此时响应将包含分步骤编号的推理链,如“第一步:识别问题类型……第二步:排除矛盾假设……”。
二、APP端通过圆形R1开关触发思维链渲染
DeepSeek官方移动应用将思维链输出能力封装于独立物理开关,该开关直接控制底层推理引擎是否启用多阶段自我解释流程,视觉反馈即时可见。
1、启动已安装的DeepSeek iOS或Android客户端,进入任意聊天窗口;
2、在键盘上方输入框底部中央区域,定位到一个带白色R1标识的圆形按钮;
3、轻触该按钮,直至其整体变为深蓝色且R1字样清晰可见;
4、键入问题并点击右下角蓝色发送箭头,响应内容将自动以“【思考过程】”为前缀展开至少三层嵌套推演。
三、命令行调用时添加--think参数显式声明
对于本地部署用户,Ollama等运行时环境默认禁用思维链输出以节省资源,必须通过CLI参数向推理引擎发出明确指令,否则模型将退化为单次响应模式。
1、打开终端(macOS/Linux)或命令提示符(Windows);
2、执行命令:ollama run deepseek-r1:latest --think;
3、若使用定制版本,需将镜像名替换为实际标签,例如:ollama run deepseek-r1:1.5 --think;
4、终端返回“R1 thinking mode activated”提示后,所有后续输入均以带缩进层级的文本形式输出完整思维链。
四、第三方客户端中配置模型参数启用推理流
Cherry Studio、Chatbox等通用客户端不自动识别R1特性,需在模型设置页手动注入行为指令,否则即使加载R1权重,系统仍将按V3协议解析请求。
1、进入客户端的“模型设置”或“高级配置”页面;
2、在“模型参数”字段中填入:{"think": true, "verbose": true};
3、保存配置并重启会话,确保模型加载日志中出现“CoT enabled”字样;
4、提问时无需额外前缀,响应即以“→ 推理起点”“→ 假设检验”“→ 结论锚定”三级结构展开。
五、使用#debug等符号前缀触发自动思维链注入
DeepSeek服务端预置了若干前缀识别规则,当检测到特定符号组合时,将跳过界面开关判断,直接调用R1的全栈推理模块,并强制启用中间步骤回显。
1、在问题开头输入#debug,适用于技术类问题,输出含错误定位、根因分析、修复验证三段链;
2、在问题开头输入!analyze,触发不少于八轮视角切换的自我反驳,每轮以“【技术侧】”“【用户侧】”等标签分隔;
3、在问题开头输入@web,启用联网搜索+本地推理双通道,思维链中将明确标注“数据来源:xxx”及“推演依据:xxx”;
4、发送后等待响应,首行将固定显示“正在展开思维链(R1)…”,随后逐段输出带时间戳的推理轨迹。











