启用思维链推理需设置enable_thinking=true,可通过api调用、return_reasoning参数、langchain extra_body、jupyter调试或csdn星图镜像五种方式实现,均以reasoning字段返回分步推导过程。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您向千问AI提出一道数学题,但只得到最终答案而看不到中间推导过程,则说明模型当前未启用思维链推理模式。以下是查看完整解题步骤的多种实现方式:
一、通过API调用启用enable_thinking参数
该方法直接在请求体中激活模型内部的分步思考机制,使模型在生成答案前先构建清晰的推理链条,再将推理过程与最终结论分离输出。
1、确认服务地址与认证信息:访问Jupyter Lab后,在终端执行curl命令验证服务可用性,确保返回含"reasoning"字段的JSON响应;
2、构造POST请求:在Python Notebook中编写代码,设置headers包含"Authorization: Bearer EMPTY",并在data字典中明确写入"enable_thinking": true;
3、发送请求并解析响应:使用requests库提交请求,从返回JSON中提取"reasoning"键对应的内容,该字段即为完整的数学解题步骤。
二、配合return_reasoning参数独立获取推理过程
此方式确保推理链不混杂于主回答中,而是以结构化字段形式单独返回,便于程序解析或人工校验每一步逻辑是否正确。
1、检查模型服务兼容性:运行GET请求至/v1/models端点,确认服务支持OpenAI兼容接口且版本不低于Qwen3-0.6B;
2、在请求data中同时设置两个布尔参数:{"enable_thinking": true, "return_reasoning": true};
3、接收响应后定位reasoning字段:该字段值为纯文本格式的多步推演内容,例如“第一步:设未知数x;第二步:根据题干列出方程2x+5=13……”。
三、使用LangChain框架通过extra_body注入配置
当集成Qwen3系列模型到LangChain应用中时,extra_body是唯一可传入底层请求体的参数入口,用于精确控制思维链行为而不影响其他链路逻辑。
1、初始化ChatOpenAI实例:指定model_name为"Qwen3-1.7B"或"Qwen3-0.6B",base_url指向本地8000端口服务地址;
2、构建extra_body字典:在调用invoke()或stream()方法前,将{"enable_thinking": True, "return_reasoning": True}作为extra_body参数传入;
3、捕获并展示reasoning输出:从LangChain返回的AIMessage对象中读取response_metadata内的reasoning字段内容。
四、Jupyter内原生调试验证思维链效果
该方法适用于快速验证模型是否真正按步骤展开数学推理,无需工程化部署,适合教学演示或提示词优化场景。
1、新建Python Notebook并在首个cell中粘贴精简调用代码;
2、将messages列表中的content替换为具体数学题,如“小明有5个苹果,吃掉2个后又买了3个,请问现在有几个?”;
3、运行后检查输出JSON:若出现reasoning字段且其内容包含“原有5个”“吃掉2个剩3个”“再买3个得6个”等分步陈述,则思维链已生效。
五、通过CSDN星图平台镜像预置环境一键启用
该路径利用平台封装好的运行时环境,规避本地依赖冲突与配置错误,特别适合无GPU资源或缺乏运维经验的用户。
1、登录CSDN星图平台并选择Qwen3系列镜像模板;
2、启动实例后点击“Open Jupyter”进入Lab界面;
3、在Notebook中运行平台提供的示例代码,其中已预置enable_thinking=True及return_reasoning=True参数组合。










