应使用官方deepseek pypi包(pip install deepseek),api地址为https://api.deepseek.com/chat/completions,请求头含authorization: bearer和application/json,模型名用deepseek-chat;密钥通过pydantic_settings.basesettings安全加载;流式响应需手动aiohttp发请求并逐行yield data: {json}\n\n;部署时调高gunicorn timeout至120、keep-alive至75,禁用preload,避免worker共享客户端。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

FastAPI里怎么调用DeepSeek模型(不是OpenAI兼容模式)
DeepSeek官方没提供OpenAI-style API服务,直接套用openai.AsyncClient会报404 Not Found或invalid_request_error。必须走它自家的deepseek-coder或deepseek-chat SDK,或者手动发HTTP请求。
实操建议:
立即学习“Python免费学习笔记(深入)”;
- 优先用官方
deepseekPyPI包(pip install deepseek),它封装了鉴权、重试和流式响应解析 - 别自己拼
https://api.deepseek.com/v1/chat/completions——这个地址是假的,真实API入口是https://api.deepseek.com/chat/completions(少一个v1) - 请求头必须带
Authorization: Bearer <your_api_key></your_api_key>,且Content-Type得是application/json - 模型名写
deepseek-chat(不是deepseek-coder,除非你真要代码生成)
FastAPI异步接口里怎么安全传DeepSeek API Key
把DEEPSEEK_API_KEY硬编码在代码里或写进env文件再用os.getenv()读,线上容易泄露。FastAPI本身不负责密钥管理,得靠外部约束。
实操建议:
立即学习“Python免费学习笔记(深入)”;
- 用
pydantic_settings.BaseSettings加载环境变量,加env_file = ".env"并设env_file_encoding = "utf-8" -
.env文件绝不能提交到Git,加进.gitignore;CI/CD环境用Secrets注入,而不是文件挂载 - 在FastAPI依赖里校验key是否为空:
if not settings.deepseek_api_key:就raiseHTTPException(status_code=500, detail="Missing DEEPSEEK_API_KEY") - 别用
global变量存key,每个请求都该通过依赖注入获取,避免并发污染
流式返回(stream=True)在FastAPI里怎么正确yield
DeepSeek支持stream=True,但FastAPI的StreamingResponse不认SDK返回的Iterator[ChatCompletionChunk],直接yield会报TypeError: object of type 'Iterator' is not subscriptable。
实操建议:
立即学习“Python免费学习笔记(深入)”;
- 不用SDK的
stream参数,改用手动aiohttp.ClientSession发POST,设置headers={"Accept": "text/event-stream"} - 逐行读取response.content.iter_lines(),过滤掉
data:前缀,json.loads()后取chunk["choices"][0]["delta"]["content"] - yield时每条数据必须以
data: {json}开头,结尾加双换行\n\n,否则前端EventSource收不到 - 别忘了处理
[DONE]标记,遇到就break,不然连接会卡住
为什么本地跑得通,部署到Uvicorn+Gunicorn就超时或502
DeepSeek API平均响应在800ms~2s,而Gunicorn默认timeout=30,Uvicorn默认keep-alive=5,两者叠加容易触发网关超时或连接复用失败。
实操建议:
立即学习“Python免费学习笔记(深入)”;
- Gunicorn启动加
--timeout 120 --keep-alive 75,匹配DeepSeek实际延迟 - Uvicorn不要单独跑,只作为Gunicorn worker_class:
--worker-class uvicorn.workers.UvicornWorker - 禁用Gunicorn的preload(
--preload),否则deepseek.Client实例可能被多个worker共享,引发token复用冲突 - 加个简单健康检查路由
/health,只返回{"status": "ok"},别在里面调DeepSeek
流式响应的buffer大小、反向代理(Nginx)的proxy_buffering off、以及客户端断连后的清理逻辑——这些点一旦漏掉,前端就会卡在loading不动。不是模型慢,是链路某处堵住了。









