文章目录
参考资料
说明
- 本文仅供学习和交流使用,感谢赋范社区相关老师的辛苦付出!
Gemini Fullstack LangGraph Quickstart
- Gemini Fullstack LangGraph Quickstart(深度研究增强型对话式 AI 系统)是 Google 在 2025 年6月开源的一个全栈 AI Agent 模板项目。结合 Google 的大语言模型 Gemini 2.5 系列和开源的 LangGraph 框架,提供了一个端到端的示例应用,展示如何构建一个研究增强型的对话式 AI 系统。
- 这个项目的后端借助 LangGraph 编排的智能 Agent,能够对用户查询执行深度资料检索:自动生成搜索关键词、使用 Google 搜索获取资料、分析结果找出知识空白,并不断迭代检索,直到形成有依据的答案并给出引用来源。前端则提供了一个 React 网页界面,允许用户方便地与 Agent 进行对话交互。
- Gemini Fullstack LangGraph Quickstart的核心是一套自动化深度搜索与问答功能,旨在解决“如何让对话式AI给出有依据的深入回答”这一问题。它主要体现为一个多步骤的“研究型 Agent”,可以将用户的提问转化为搜索行动,并经过一系列推理最终返回答案。项目的主要功能和特点包括:动态查询生成、网络资料检索、反思与知识空白分析、迭代搜索完善、基于证据的回答生成。
- 架构上,采用前后端解耦的全栈架构:前端是基于 React+Vite 构建的单页应用,提供用户友好的聊天界面,配以 Tailwind CSS 和 Shadcn UI 组件库美化界面。后端是基于 FastAPI 的服务,承载 LangGraph 智能体逻辑和 API 接口。这种架构清晰划分了界面展示和AI推理两个层面,便于分别开发和调试。
- Gemini Fullstack LangGraph Quickstart 可以看作是 LangGraph 框架的一个示范性应用(template 项目)。
- LangGraph 是 LangChain 团队推出的一个开源库,专门用于构建可控的多步骤 LLM 工作流。与传统顺序链式调用相比,LangGraph 引入“有状态图(stateful graph)”的概念,将复杂任务拆解为节点、并用图结构管理执行流程。开发者可以在 LangGraph 中定义节点(例如一次 LLM 推理或一个工具操作),以及状态在节点之间的传递方式,从而打造出具有决策分支和循环能力的智能体。
- 在本项目中,后端 Agent 就是基于 LangGraph 实现的。项目的 backend/ 目录下包含了 LangGraph Agent 的定义(主要逻辑在 backend/src/agent/graph.py)。LangGraph 提供了整个多步骤推理过程的“骨架”和运行时支持,而 Gemini 等 LLM 则是完成每个节点任务的“大脑”。 具体而言,LangGraph 在该项目中扮演了以下角色:流程编排、状态管理、异步与执行控制。
DeepSeek Fullstack LangGraph Quickstart
Gemini Fullstack LangGraph Quickstart本质上是 Google 自家的模型调用自家的搜索能力。所以,对国内的用户来说并不是很友好。
九天等老师对项目做了二次开发,将底层的基座模型替换成了DeepSeek模型,并且将联网检索功能替换为LangGraph可以支持的Tavily联网检索。同时,也修改了提示词为中文,使得在执行任务时能够以中文的形式进行输出和总结。
项目部署
完整源码地址
后端部署
- 进入
deepseek-fullstack-langgraph-quickstart\backend
目录cd D:\Code\deepseek-fullstack-langgraph-quickstart\backend uv venv # source venv/bin/activate # linux command .venv\Scripts\activate # windows command
- 在虚拟python环境中,安装第三方依赖和langgraph-cli
pip install . pip install -U "langgraph-cli[inmem]"
- 以管理员身份启动终端,启动后端服务
langgraph dev
前端部署
- 打开终端,进入
frontend
目录,执行以下命令,:cd frontend npm install
- 然后访问
http://localhost:5173/app
,进行测试。