可在Jupyter Notebook中通过四种方式集成DeepSeek大模型:一、调用官方API;二、本地加载开源权重;三、配置专用Python内核;四、安装jupyterlab-deepseek插件实现对话交互。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您希望在Jupyter Notebook环境中调用DeepSeek大模型进行代码生成、数据分析解释或自然语言交互,则需将DeepSeek的推理能力嵌入本地或远程Notebook运行时。以下是实现该集成的具体路径:
一、通过API接口调用DeepSeek模型
此方法利用DeepSeek官方提供的HTTP API,在Notebook中构造请求并解析响应,适用于已获取API密钥且网络可访问DeepSeek服务端点的场景。
1、在Notebook单元格中安装requests库(如未安装):!pip install requests。
2、导入requests并设置API基础地址与密钥:import requests; API_URL = "https://api.deepseek.com/v1/chat/completions"; headers = {"Authorization": "Bearer your_api_key_here", "Content-Type": "application/json"}。
3、构建包含system和user角色的消息体,并发送POST请求:data = {"model": "deepseek-chat", "messages": [{"role": "system", "content": "你是一名数据科学助手"}, {"role": "user", "content": "解释pandas DataFrame的groupby操作"}]}。
4、执行response = requests.post(API_URL, headers=headers, json=data),随后用response.json()["choices"][0]["message"]["content"]提取返回文本。
二、使用transformers库加载DeepSeek开源权重
此方法适用于本地部署DeepSeek-R1等开源版本,需满足GPU资源充足、显存≥24GB且已安装支持FlashAttention的torch环境。
1、安装必要依赖:!pip install transformers accelerate bitsandbytes。
2、从Hugging Face Hub加载模型与分词器:from transformers import AutoModelForCausalLM, AutoTokenizer; model_name = "deepseek-ai/deepseek-coder-33b-instruct"; tokenizer = AutoTokenizer.from_pretrained(model_name); model = AutoModelForCausalLM.from_pretrained(model_name, device_map="auto", load_in_4bit=True)。
3、在Notebook中定义推理函数,对输入prompt编码后生成响应:inputs = tokenizer("请为以下数据生成Python绘图代码:x=[1,2,3], y=[4,5,6]", return_tensors="pt").to("cuda"); outputs = model.generate(**inputs, max_new_tokens=256); print(tokenizer.decode(outputs[0], skip_special_tokens=True))。
三、配置Jupyter内核为DeepSeek专用Python环境
该方式确保所有Notebook单元均在隔离环境中运行,避免依赖冲突,并支持模型权重缓存复用。
1、创建新conda环境:conda create -n deepseek-env python=3.11。
2、激活环境并安装核心包:conda activate deepseek-env; pip install jupyter torch transformers accelerate。
3、将该环境注册为Jupyter内核:python -m ipykernel install --user --name deepseek-env --display-name "Python (deepseek)"。
4、重启Jupyter Notebook,在右上角Kernel菜单中选择Python (deepseek)内核。
四、利用jupyterlab-deepseek插件实现对话式交互
该插件在JupyterLab侧边栏提供类ChatGPT界面,允许用户以自然语言指令驱动代码补全与结果解释,无需手动编写API调用逻辑。
1、安装插件前端与后端扩展:jupyter labextension install jupyterlab-deepseek; pip install jupyterlab-deepseek-server。
2、启动JupyterLab前启用服务器扩展:jupyter server extension enable jupyterlab_deepseek_server。
3、启动服务:jupyter lab --ServerApp.token='' --ServerApp.password='' --no-browser。
4、在JupyterLab界面左侧点击DeepSeek Chat图标,输入问题如“对当前DataFrame执行缺失值统计”,插件自动识别上下文变量并返回可执行代码块。











