| Agent | 智能体 | 依托大模型搭建,具备自主感知、规划决策、工具调用、闭环执行能力的智能单元,可独立完成复杂多步骤任务,区别于单纯静态模型推理。 |
| LLM, Large Language Model. | 大语言模型 | 基于Transformer架构的大规模预训练语言模型,是AI文本理解、生成、推理的底层技术基座,为智能体提供核心认知与语言能力。 |
| Skill | 技能/能力单元 | 智能体可调用的模块化单一功能,是完成细分专项任务的最小执行单元,比如数据计算、文档总结、接口调用等专属能力。 |
| MCP, Multi-Agent Collaboration Planning. | 多智能体协作规划 | 统筹多个智能体分工协作的框架范式,通过角色拆分、任务调度,解决单个智能体无法完成的跨领域、高复杂度协同任务。 |
| GPT, Generative Pre-trained Transformer. | 生成式预训练Transformer | OpenAI研发的经典大语言模型系列,属于LLM的典型商用落地产品,主打生成式文本创作与交互推理。 |
| Context | 上下文/语境 | 模型或智能体执行任务时依赖的背景信息,包含对话历史、前置数据、环境参数等,直接决定任务理解准确性和执行连贯性。 |
| Workflow | 工作流 | 预先定义的标准化任务执行流程,将多步骤、多技能、多环节按逻辑编排,实现任务自动化结构化执行,降低人工干预成本。 |
| Prompt | 提示词 | 向大模型或智能体下达指令的输入文本,通过规范措辞引导模型精准理解需求、输出符合预期的结果,是人机交互核心载体。 |
| Tool | 工具 | 智能体突破自身模型局限的外部调用载体,比如搜索引擎、代码解释器、数据库接口,帮助智能体完成实时查询、精准计算等原生模型难实现的任务。 |
| RAG, Retrieval Augmented Generation. | 检索增强生成 | 大模型主流优化技术,先从外部知识库检索相关精准信息,再结合检索内容生成回答,解决模型幻觉、知识滞后、信息不准确的核心问题。 |
| Fine-tuning | 微调 | 基于预训练大模型,用专属领域数据集进一步训练优化,让模型适配特定行业场景,提升领域内任务的专业性和准确率。 |
| Token | 令牌/词元 | 大模型处理文本的最小计量单位,文本会被拆分为若干Token进行编码、计算和生成,直接关联模型算力消耗和上下文长度限制。 |
| Embedding | 词嵌入/向量表征 | 将文本、图像等非结构化数据转化为低维向量的技术,让机器能量化理解内容语义,是RAG、语义检索的核心底层技术。 |
| Hallucination | 幻觉 | 大模型常见缺陷,指模型生成看似合理、实则虚假、无事实依据的内容,是RAG、精准微调重点优化的问题。 |