需在Dify中配置DeepSeek API端点与密钥:先在DeepSeek开发者平台获取API Key和/v1/chat/completions端点,再于Dify模型提供商中添加Custom LLM并填入对应参数,最后绑定至知识库应用并测试连通性与OpenAI兼容格式。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您希望在Dify平台中集成DeepSeek大模型以构建私有知识库,则需在模型配置环节正确填写DeepSeek提供的API端点与身份验证密钥。以下是完成该配置的具体操作路径与注意事项:
一、获取DeepSeek API访问凭证
DeepSeek官方提供面向开发者的API服务,需通过其开发者控制台申请并管理访问权限。凭证包含唯一API密钥及对应的服务端点地址,二者缺一不可。
1、访问DeepSeek开发者平台官网,使用已注册账号登录。
2、进入“API Keys”管理页面,点击“Create New Key”按钮生成新密钥。
3、复制生成的API Key字符串,该密钥仅显示一次,请立即保存至安全位置。
4、在相同页面查找默认API端点URL,典型格式为https://api.deepseek.com/v1/chat/completions,确认其支持chat completion接口。
二、在Dify中添加DeepSeek作为自定义模型
Dify支持通过“自定义模型”方式接入第三方大模型,需在后台模型设置中手动录入参数。此步骤将使知识库检索后的提示词能被DeepSeek模型解析并生成响应。
1、登录Dify管理后台,进入“Settings” > “Model Providers” > “Custom”标签页。
2、点击“Add Model Provider”,选择“LLM”类型,Provider Name填写DeepSeek。
3、在Endpoint URL字段中粘贴已获取的API端点地址,确保末尾包含/v1/chat/completions路径。
4、在API Key字段中填入此前复制的密钥字符串,注意不要额外添加空格或换行符。
三、配置知识库所用的推理模型实例
完成模型提供方注册后,需将DeepSeek绑定至具体的知识库应用中,确保RAG流程调用的是该模型而非默认内置模型。
1、返回Dify工作区,打开目标知识库所属的应用编辑界面。
2、进入“Model Configuration”区域,点击“Edit”按钮修改当前LLM设置。
3、在模型下拉菜单中选择已注册的DeepSeek(Custom)条目。
4、检查Temperature、Max Tokens等参数是否符合知识库问答场景需求,建议初始值设为0.3与2048。
四、验证API连通性与响应格式兼容性
Dify要求第三方模型返回结构必须符合OpenAI兼容格式,DeepSeek API虽原生支持该格式,但仍需确认响应体中存在message.content字段且无额外封装层级。
1、在Dify模型配置页点击“Test Connection”按钮发起探测请求。
2、若返回状态码为200且响应体含有效JSON,则说明端点与密钥可用。
3、若出现401错误,需核查API Key是否过期或权限不足;若出现404错误,需确认端点URL是否拼写正确或版本路径是否匹配。
4、手动构造curl请求发送至端点,验证原始响应是否包含choices[0].message.content字段。











