目录
1.1 AI(Artificial Intelligence,人工智能)
1.2 AIGC(AI-Generated Content,人工智能生成内容)
1.3 LLM(Large Language Model,大语言模型)
1.4 GPT(Generative Pre-trained Transformer,生成式预训练模型)
1.7 MCP(Model Control Plane,模型控制平面)
1.8 RAG(Retrieval-Augmented Generation,检索增强生成)
引言:AI、大语言模型(LLM)、Agent、MCP、RAG等各种概念层出不穷,若不深入了解,记忆混淆,本文会详细讲解这些概念和它们之间的关系
1. 大模型基本概念
1.1 AI(Artificial Intelligence,人工智能)
人工智能(Artificial Intelligence,AI)是一门研究如何使计算机具备智能的科学与工程领域。它涵盖了许多不同的技术和方法,旨在使计算机能够模拟和执行人类智能活动,如学习、推理、理解语言等。
1.2 AIGC(AI-Generated Content,人工智能生成内容)
它指的是利用人工智能技术(尤其是大模型,如GPT、Stable Diffusion等)自动生成文本、图片、音频、视频等多种内容。
1.3 LLM(Large Language Model,大语言模型)
LLM代表“大型语言模型”(Large Language Model),是一个广义的术语,它指的是能够理解和生成自然语言的模型。LLM模型利用深度学习技术,通过对大规模文本数据进行预训练和微调,获得语言理解和生成的能力。专注于处理和理解自然语言文本。
1.4 GPT(Generative Pre-trained Transformer,生成式预训练模型)
一种使用深度学习技术训练的自然语言处理模型。GPT模型的核心是Transformer架构。
1.5 Agent(智能代理)
能自主感知环境、决策并执行任务的AI程序,通常基于LLM驱动。规划(Planning):拆解目标为子任务(如AutoGPT)。工具调用(Tool Use):使用API、数据库、搜索引擎等(如ChatGPT Plugins)。记忆(Memory):短期(对话上下文)和长期(向量数据库)。
1.6 WorkFlow(工作流)
将复杂任务分解为有序步骤的自动化流程,可能跨多个模型或工具。
1.7 MCP(Model Context Protocol,模型上下文协议)
管理和调度AI模型的中间件系统,关注资源分配和模型生命周期
1.8 RAG(Retrieval-Augmented Generation,检索增强生成)
结合外部知识检索和LLM生成的混合方法,解决LLM知识静态问题(如回答最新新闻)。
流程:检索:从数据库/文档中查找相关片段(如Elasticsearch)。增强:将检索结果作为上下文输入LLM。生成:LLM输出最终答案。
2 关系
2.1 AI/LLM/GPT关系:
人工智能(AI)是一个大的领域,LLM(大语言模型)是其中的一个子领域,而GPT(生成式预训练模型)是LLM的一种具体实现,DeepSeek模型也是LLM的一种实现。LLM的目标是处理自然语言,而人工智能涵盖了机器视觉、机器学习等。
2.2 Agent/workFlow/MCP/RAG关系:
- Agent是“执行者”:自主调用工具完成任务,依赖MCP提供的模型和WorkFlow定义的步骤。
- MCP是“资源管家”:确保模型高效运行,支撑Agent和WorkFlow的需求。
- WorkFlow是“流程设计师”:编排Agent、RAG等组件的协作顺序。
- RAG是“知识扩展包”:为Agent或WorkFlow中的LLM提供实时知识支持。
技术 | 角色 | 依赖项 | 输出目标 |
---|---|---|---|
LLM | 基础推理与生成 | 算力、训练数据 | 文本/代码 |
RAG | 知识实时扩展 | 检索系统+LLM | 可信答案 |
Agent | 任务执行者 | LLM+工具库 | 动作决策 |
WorkFlow | 流程编排 | 多个Agent/模型 | 端到端结果 |
MCP | 资源调度中枢 | 分布式系统 | 高可用服务 |
AIGC | 应用层输出 | 以上所有 | 多媒体内容 |
关系:
扩展:Token:令牌(Token)是指文本数据的基本处理单元。比如一个句子可以被分割成若干个单词,每个单词就是一个token。
单模态:只处理一种类型的数据,例如只处理文本(GPT3.5),只处理图像(图像识别模型)。
多模态:能否处理两种以上类型数据。既能理解图像内容,又能理解文本描述。