Model 组件的基本组成

发布于:2025-07-28 ⋅ 阅读:(20) ⋅ 点赞:(0)

01. Model 组件的基本组成

Model 是 LangChain 的核心组件,但是 LangChain 本身不提供自己的 LLM,而是提供了一个标准接口,用于封装不同类型的 LLM 进行交互,其中 LangChain 为两种类型的模型提供接口和集成:

  • LLM:使用纯文本作为输入和输出的大语言模型。
  • Chat Model:使用聊天消息列表作为输入并返回聊天消息的聊天模型。

在 LangChain 中,无论是 LLM 亦或者 Chat Model 都可以接受 PromptValue/字符串/消息列表 作为参数,内部会根据模型的类型自动转换成字符串亦或者消息列表,屏蔽了不同模型的差异。

对于 Model 组件,LangChain 有一个模型总基类,并对基类进行了划分

调用大模型最常用的方法为:

  1. invoke:传递对应的文本提示/消息提示,大语言模型生成对应的内容。
  2. batch:invoke 的批量版本,可以一次性生成多个内容。
  3. stream:invoke 的流式输出版本,大语言模型每生成一个字符就返回一个字符。

基础聊天应用的运行流程更改成如下

02. Message 组件

在 LangChain 中,Message 是消息组件,并且所有消息都具有type(类型)、content(内容)、response_metadata(响应元数据),LangChain 封装的 Message 涵盖了 5 种类型的消息:SystemMessage、HumanMessage、AIMessage、FunctionMessage、ToolMessage,基类及子类如下

03. Model 组件示例

3.1 LLM与ChatModel使用技巧

代码

from datetime import datetime

import dotenv

from langchain_core.prompts import ChatPromptTemplate

from langchain_openai import ChatOpenAI

dotenv.load_dotenv()

# 1.编排Prompt

prompt = ChatPromptTemplate.from_messages([

    ("system", "你是OpenAI开发的聊天机器人,请回答用户的问题,现在的时间是{now}"),

    ("human", "{query}"),

]).partial(now=datetime.now())

# 2.创建大语言模型

llm = ChatOpenAI(model="gpt-3.5-turbo-16k")

# 3.生成内容

prompt_value = prompt.invoke({"query": "现在是几点,请讲一个关于程序员的冷笑话"})

ai_message = llm.invoke(prompt_value)

# 4.提取内容

print("type:", ai_message.type)

print("content:", ai_message.content)

print("response_metadata:", ai_message.response_metadata)

输出:

type: ai

content: 现在是18:12。好的,这是一个关于程序员的冷笑话:

为什么程序员总是觉得寂寞?

因为他们总是在和bug独处!

response_metadata: {'token_usage': {'completion_tokens': 53, 'prompt_tokens': 71, 'total_tokens': 124}, 'model_name': 'gpt-3.5-turbo-16k', 'system_fingerprint': 'fp_b28b39ffa8', 'finish_reason': 'stop', 'logprobs': None}

3.2 Model批处理

代码

import dotenv

from langchain_core.prompts import ChatPromptTemplate

from langchain_openai import ChatOpenAI

dotenv.load_dotenv()

# 1.构建提示模板

prompt = ChatPromptTemplate.from_template("请讲一个关于{subject}的冷笑话")

# 2.构建大语言模型

llm = ChatOpenAI(model="gpt-3.5-turbo-16k")

# 3.批处理获取响应

ai_messages = llm.batch([

    prompt.invoke({"subject": "程序员"}),

    prompt.invoke({"subject": "Python"}),

])

for ai_message in ai_messages:

print(ai_message.content)

输出:

当程序员去海滩度假时,他们把沙子编成了二进制。为了放松,他们打算写一个程序,把整个海洋分割成像素并给每个像素着色。

为什么Python喜欢处理字符串?

因为它不喜欢弄得太复杂,总是喜欢把问题拆成小块来处理!

3.3 Model流式输出

代码

import dotenv

from langchain_core.prompts import ChatPromptTemplate

from langchain_openai import ChatOpenAI

dotenv.load_dotenv()

# 1.编排Prompt

prompt = ChatPromptTemplate.from_template("你能简单介绍下{subject}么?")

# 2.构建大语言模型

llm = ChatOpenAI(model="gpt-3.5-turbo-16k")

# 3.流式输出

response = llm.stream(prompt.invoke({"subject": "LLM和LLMOps"}))

for chunk in response:

    print(chunk.content, flush=True, end="")

输出:

LLM 和 LLMOps 都是开发者社区中的术语。LLM 是指"Language Model",而 LLMOps 则是指与操作相关的语言模型。简单来说,LLM 是一种语言模型,通常用于生成文本、理解语言等任务。而 LLMOps 则是指对语言模型进行操作和管理的实践,包括部署、监控、优化等工作。LLMOps 的目标是确保语言模型在生产环境中的稳定性、性能和安全性。


网站公告

今日签到

点亮在社区的每一天
去签到