0

0

LangChain怎么入门 LangChain开发大模型应用基础搭建流程【教程】

月夜之吻

月夜之吻

发布时间:2025-12-16 23:59:03

|

518人浏览过

|

来源于php中文网

原创

langchain基础搭建需五步:一、创建虚拟环境并安装langchain、llm sdk(如openai)及向量库(如chromadb);二、配置api密钥与llm参数;三、用prompttemplate和llm构建链式调用;四、通过langchain_ollama接入本地ollama模型;五、用documentloader、textsplitter和chroma实现rag。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

langchain怎么入门 langchain开发大模型应用基础搭建流程【教程】

如果您希望快速开始使用LangChain构建大模型应用,但尚未配置基础开发环境或理解核心组件关系,则可能是由于缺少对初始化流程和关键依赖的系统性认知。以下是完成LangChain基础搭建的步骤:

一、安装LangChain及必要依赖

LangChain本身不包含大语言模型运行时,需配合LLM提供商SDK(如OpenAI、Ollama)与向量数据库(如Chroma)协同工作。安装时需确保Python环境满足最低版本要求,并分离生产与开发依赖。

1、创建独立虚拟环境并激活:
python -m venv langchain_env && source langchain_env/bin/activate(Linux/macOS)或 langchain_env\Scripts\activate(Windows)。

2、安装LangChain核心包:
pip install langchain

3、按选用模型后端安装对应SDK:
pip install openai 或 pip install ollama 或 pip install huggingface-hub

4、安装常用工具链与向量存储支持:
pip install langchain-community chromadb tiktoken

二、配置模型访问凭证与连接参数

LangChain通过统一接口调用不同LLM,但需提前注入认证信息与服务地址。凭证未正确加载将导致初始化失败或返回空响应,且部分参数(如temperature、max_tokens)需在构造LLM实例时显式声明。

1、设置环境变量(推荐):
export OPENAI_API_KEY="sk-..."(Linux/macOS)或 set OPENAI_API_KEY=sk-...(Windows)。

2、在代码中加载API密钥:
import os
os.environ["OPENAI_API_KEY"] = "您的实际OpenAI密钥"

3、初始化LLM对象并验证连接:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(model="gpt-3.5-turbo", temperature=0.2)
llm.invoke("你好")

三、构建首个链式调用(Chain)

Chain是LangChain的核心抽象,用于串联提示模板、模型调用与输出解析。最简链由PromptTemplate与LLM组合而成,无需额外工具或记忆模块即可完成基础问答流程。

考拉新媒体导航
考拉新媒体导航

考拉新媒体导航——新媒体人的专属门户网站

下载

1、定义结构化提示模板:
from langchain_core.prompts import PromptTemplate
template = "你是一个助手,请用中文回答以下问题:{question}"
prompt = PromptTemplate.from_template(template)

2、组合提示与模型形成链:
from langchain import LLMChain
chain = LLMChain(llm=llm, prompt=prompt)

3、执行链式调用并获取结果:
result = chain.invoke({"question": "LangChain是什么"})
print(result["text"])

四、接入本地大模型(Ollama)

若不依赖云端API,可使用Ollama在本地运行Llama 3、Qwen等开源模型。LangChain通过langchain_ollama模块提供原生支持,但需提前启动Ollama服务并拉取指定模型。

1、下载并运行Ollama服务:
访问https://ollama.com/download,安装后执行 ollama serve(后台常驻)。

2、拉取轻量级模型:
ollama pull llama3:8b 或 ollama pull qwen2:7b

3、在LangChain中调用本地模型:
from langchain_ollama import ChatOllama
ollama_llm = ChatOllama(model="llama3:8b", temperature=0.3)

五、初始化向量存储与文档加载器

实现RAG(检索增强生成)需将外部文档转为嵌入向量并存入向量数据库。Chroma作为默认嵌入存储方案,配合DocumentLoader可自动完成PDF、TXT等格式解析与切分。

1、加载本地文本文件:
from langchain_community.document_loaders import TextLoader
loader = TextLoader("./data/intro.txt")
docs = loader.load()

2、分割文档为语义块:
from langchain_text_splitters import RecursiveCharacterTextSplitter
splitter = RecursiveCharacterTextSplitter(chunk_size=500, chunk_overlap=50)
chunks = splitter.split_documents(docs)

3、生成嵌入并持久化到Chroma:
from langchain_community.embeddings import OllamaEmbeddings
from langchain_community.vectorstores import Chroma
embeddings = OllamaEmbeddings(model="nomic-embed-text")
vectorstore = Chroma.from_documents(chunks, embeddings, persist_directory="./chroma_db")

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
PHP高性能API设计与Laravel服务架构实践
PHP高性能API设计与Laravel服务架构实践

本专题围绕 PHP 在现代 Web 后端开发中的高性能实践展开,重点讲解基于 Laravel 框架构建可扩展 API 服务的核心方法。内容涵盖路由与中间件机制、服务容器与依赖注入、接口版本管理、缓存策略设计以及队列异步处理方案。同时结合高并发场景,深入分析性能瓶颈定位与优化思路,帮助开发者构建稳定、高效、易维护的 PHP 后端服务体系。

32

2026.03.04

AI安装教程大全
AI安装教程大全

2026最全AI工具安装教程专题:包含各版本AI绘图、AI视频、智能办公软件的本地化部署手册。全篇零基础友好,附带最新模型下载地址、一键安装脚本及常见报错修复方案。每日更新,收藏这一篇就够了,让AI安装不再报错!

23

2026.03.04

Swift iOS架构设计与MVVM模式实战
Swift iOS架构设计与MVVM模式实战

本专题聚焦 Swift 在 iOS 应用架构设计中的实践,系统讲解 MVVM 模式的核心思想、数据绑定机制、模块拆分策略以及组件化开发方法。内容涵盖网络层封装、状态管理、依赖注入与性能优化技巧。通过完整项目案例,帮助开发者构建结构清晰、可维护性强的 iOS 应用架构体系。

58

2026.03.03

C++高性能网络编程与Reactor模型实践
C++高性能网络编程与Reactor模型实践

本专题围绕 C++ 在高性能网络服务开发中的应用展开,深入讲解 Socket 编程、多路复用机制、Reactor 模型设计原理以及线程池协作策略。内容涵盖 epoll 实现机制、内存管理优化、连接管理策略与高并发场景下的性能调优方法。通过构建高并发网络服务器实战案例,帮助开发者掌握 C++ 在底层系统与网络通信领域的核心技术。

25

2026.03.03

Golang 测试体系与代码质量保障:工程级可靠性建设
Golang 测试体系与代码质量保障:工程级可靠性建设

Go语言测试体系与代码质量保障聚焦于构建工程级可靠性系统。本专题深入解析Go的测试工具链(如go test)、单元测试、集成测试及端到端测试实践,结合代码覆盖率分析、静态代码扫描(如go vet)和动态分析工具,建立全链路质量监控机制。通过自动化测试框架、持续集成(CI)流水线配置及代码审查规范,实现测试用例管理、缺陷追踪与质量门禁控制,确保代码健壮性与可维护性,为高可靠性工程系统提供质量保障。

77

2026.02.28

Golang 工程化架构设计:可维护与可演进系统构建
Golang 工程化架构设计:可维护与可演进系统构建

Go语言工程化架构设计专注于构建高可维护性、可演进的企业级系统。本专题深入探讨Go项目的目录结构设计、模块划分、依赖管理等核心架构原则,涵盖微服务架构、领域驱动设计(DDD)在Go中的实践应用。通过实战案例解析接口抽象、错误处理、配置管理、日志监控等关键工程化技术,帮助开发者掌握构建稳定、可扩展Go应用的最佳实践方法。

60

2026.02.28

Golang 性能分析与运行时机制:构建高性能程序
Golang 性能分析与运行时机制:构建高性能程序

Go语言以其高效的并发模型和优异的性能表现广泛应用于高并发、高性能场景。其运行时机制包括 Goroutine 调度、内存管理、垃圾回收等方面,深入理解这些机制有助于编写更高效稳定的程序。本专题将系统讲解 Golang 的性能分析工具使用、常见性能瓶颈定位及优化策略,并结合实际案例剖析 Go 程序的运行时行为,帮助开发者掌握构建高性能应用的关键技能。

50

2026.02.28

Golang 并发编程模型与工程实践:从语言特性到系统性能
Golang 并发编程模型与工程实践:从语言特性到系统性能

本专题系统讲解 Golang 并发编程模型,从语言级特性出发,深入理解 goroutine、channel 与调度机制。结合工程实践,分析并发设计模式、性能瓶颈与资源控制策略,帮助将并发能力有效转化为稳定、可扩展的系统性能优势。

47

2026.02.27

Golang 高级特性与最佳实践:提升代码艺术
Golang 高级特性与最佳实践:提升代码艺术

本专题深入剖析 Golang 的高级特性与工程级最佳实践,涵盖并发模型、内存管理、接口设计与错误处理策略。通过真实场景与代码对比,引导从“可运行”走向“高质量”,帮助构建高性能、可扩展、易维护的优雅 Go 代码体系。

40

2026.02.27

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
PostgreSQL 教程
PostgreSQL 教程

共48课时 | 10.1万人学习

Git 教程
Git 教程

共21课时 | 4万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号