LangChain开发智能问答(RAG)系统实战教程:从零构建知识驱动型AI助手

发布于:2025-06-15 ⋅ 阅读:(21) ⋅ 点赞:(0)

LangChain开发智能问答(RAG)系统实战教程:从零构建知识驱动型AI助手

一、RAG技术解析与LangChain简介

1.1 RAG架构核心原理

Retrieval-Augmented Generation(检索增强生成)通过结合信息检索与文本生成的优势:

[用户问题] → [向量检索] → [相关文档] → [上下文增强] → [LLM生成] → [精准回答]

与传统问答系统相比,RAG具有:

  • 知识可更新:只需更新文档库,无需重新训练模型
  • 来源可追溯:每个回答都能关联参考文档
  • 成本更低:相比微调大模型,资源消耗大幅降低

1.2 LangChain核心组件

from langchain_community.document_loaders import WebBaseLoader
from langchain_text_splitters import RecursiveCharacterTextSplitter
from langchain_community.vectorstores import FAISS
from langchain_core.prompts import ChatPromptTemplate
from langchain.chains import RetrievalQA

二、环境配置与数据准备

2.1 快速安装指南

# 创建conda环境
conda create -n rag python=3.10
conda activate rag

# 安装核心依赖
pip install langchain langchain-community langchain-openai faiss-cpu tiktoken

2.2 知识库构建实战

# 从网页加载数据
loader = WebBaseLoader(["https://example.com/doc1", "https://example.com/doc2"])
documents = loader.load()

# 文档分块处理
text_splitter = RecursiveCharacterTextSplitter(
    chunk_size=500,
    chunk_overlap=50,
    length_function=len
)
docs = text_splitter.split_documents(documents)

三、向量检索系统搭建

3.1 向量库构建与持久化

from langchain_openai import OpenAIEmbeddings

# 使用OpenAI嵌入模型
embeddings = OpenAIEmbeddings(model="text-embedding-3-small")

# 创建FAISS向量库
vectorstore = FAISS.from_documents(docs, embeddings)
vectorstore.save_local("faiss_index")  # 保存到本地

# 加载已有索引
loaded_vectorstore = FAISS.load_local("faiss_index", embeddings)

3.2 检索优化技巧

# 混合检索策略
retriever = vectorstore.as_retriever(
    search_type="mmr",  # 最大边际相关性
    search_kwargs={"k": 5, "lambda_mult": 0.25}
)

# 分数阈值过滤
retriever = vectorstore.as_retriever(
    search_kwargs={"score_threshold": 0.7}
)

四、问答链集成与优化

4.1 基础问答链实现

from langchain_openai import ChatOpenAI

llm = ChatOpenAI(model="gpt-3.5-turbo", temperature=0)

qa_chain = RetrievalQA.from_chain_type(
    llm=llm,
    retriever=retriever,
    chain_type="stuff"  # 简单文档拼接
)

response = qa_chain.invoke({"query": "如何申请休假?"})
print(response["result"])

4.2 高级Prompt工程

from langchain_core.prompts import PromptTemplate

custom_prompt = PromptTemplate(
    input_variables=["context", "question"],
    template="""
    你是一个专业客服助手,请根据以下上下文回答问题:
    {context}
    
    问题:{question}
    回答要求:
    1. 如果信息不完整,明确告知用户
    2. 引用文档中的具体条款
    3. 使用中文简洁回答
    """
)

qa_chain = RetrievalQA.from_chain_type(
    llm=llm,
    retriever=retriever,
    chain_type_kwargs={"prompt": custom_prompt}
)

五、生产级优化方案

5.1 性能提升技巧

# 异步处理提升吞吐量
async def async_query(question):
    return await qa_chain.ainvoke({"query": question})

# 缓存机制
from langchain.cache import SQLiteCache
import langchain
langchain.llm_cache = SQLiteCache(database_path=".langchain.db")

5.2 监控与评估

# 记录问答历史
from langchain.callbacks import FileCallbackHandler
handler = FileCallbackHandler('logs.json')

qa_chain.invoke(
    {"query": "年度奖金如何计算?"}, 
    config={"callbacks": [handler]}
)

# 评估检索质量
from langchain.evaluation import load_evaluator
evaluator = load_evaluator("context_qa")
eval_result = evaluator.evaluate(
    examples=[...],
    predictions=[...]
)

六、完整项目示例:企业知识问答系统

6.1 项目结构

/project
  /data
    policies.pdf
    handbook.docx
  /vector_store
    faiss_index
  app.py
  config.py

6.2 可部署的FastAPI服务

from fastapi import FastAPI
from pydantic import BaseModel

app = FastAPI()

class Query(BaseModel):
    question: str

@app.post("/ask")
async def ask_question(query: Query):
    result = qa_chain.invoke({"query": query.question})
    return {
        "answer": result["result"],
        "sources": [doc.metadata["source"] for doc in result["source_documents"]]
    }

七、常见问题解决方案

7.1 高频问题排查

  1. 检索结果不相关

    • 调整chunk_size(300-1000之间)
    • 尝试不同的embedding模型
    • 添加元数据过滤
  2. 回答质量差

    • 优化prompt模板
    • 限制回答长度 max_tokens=500
    • 添加few-shot示例
  3. 处理长文档

    • 使用chain_type="map_reduce"
    • 实现分级检索(先检索章节,再检索内容)

7.2 扩展方向

  • 多模态RAG:支持图片/表格检索
  • 实时知识更新:自动同步最新文档
  • 多轮对话:结合对话历史优化检索
  • 权限控制:基于用户角色的知识过滤

最佳实践建议

  1. 从少量高质量文档开始验证流程
  2. 构建评估集量化系统表现
  3. 实现自动化知识库更新机制
  4. 添加用户反馈收集环节

完整代码示例可参考:[GitHub仓库链接](此处替换为实际仓库地址)


网站公告

今日签到

点亮在社区的每一天
去签到