OpenClaw 和 其他Agent 有什么区别?人工智能发展编年史

从 Chat 到 Agent 的转变

在 2026年3月份的当下,正在经历一个从“对话”(Chat)范式向“智能体”(Agent)范式的转变期

大部分中国人之前总是会认为 AI 就是基于 Deepseek、抖音豆包、腾讯元宝的对话。

少部分中国人知道 Manus 智能体,然后这一少部分人里面的一部分人认为 Manus 只是大模型套壳,不具备真正价值。2025年 12月 30 美国科技巨头 Meta 宣布以 20 亿美元收购 Manus,随后引发商务部调查。

真正让人们认识到智能体(Agent)范式的东西是 OpenClaw,我明显能感觉到从政府到大公司,都在极力推动 OpenClaw。央企和政策越来越聚焦于算力产业链,中大型科技公司都在基于 OpenClaw 推出自己的XClaw,像腾讯 QClaw、字节ArkClaw、小米MiClaw、百度DuClaw,一时间颇有百家争鸣、千舟竞发的局面。

然后很多人体验完 OpenClaw 之后,一部分人认为它是万能的,另一部分则认为它只是个玩具。

我完全理解这两种看法或者心态,从主观方面,OpenClaw 的能力非常依赖于大模型和使用方法,甚至即使你使用了第一梯队的大模型API,但是在某个时间段仍然会出现因为算力拥挤而导致OpenClaw “降智”的现象。从客观方面,大模型本质上是概率,而不具备像人类那样的“记忆力”和“逻辑推理能力”,只是当概率模型的规模足够大时,涌现出了推理、泛化能力,这也就是意味着 OpenClaw 这类智能体的确定性不够强

维度人类计算 1+1=2大模型 “计算” 1+1=2
本质逻辑推理 + 规则执行条件概率预测下一词
是否懂加法懂抽象数学概念不懂,只懂文本搭配
出错原因粗心、算错概率采样偏差、幻觉
泛化能力强,新算式也能算复杂算式容易崩
内部过程有明确计算步骤逐词生成,无步骤感知
逻辑剖析1. 知道 1 代表一个物体。
2. 知道 + 代表合并。
3. 知道 = 代表结果相等。
1. 训练语料里有海量 1+1=2一加一等于二 文本。
2. 模型把这种文本序列模式记在了参数里。
3. 输入「1+1=」,它匹配到最高概率的续接就是「2」。
4. 它并没有执行加法运算,只是在完成 “补全句子”。

究竟要怎么看待“智能体”(Agent)范式?

宏观角度

从宏观来看,尤其是中国和美国,人工智能就是他们钦定的发展方向,从国家顶层设计、资本流向、半导体产业链、商业公司研发、学术研究、算力产业链、能源产业链,这些东西的最终流向都是AI相关。

在中国高考中胜出的那些最聪明的孩子绝大多数都会去清华姚班,北大智班等等计算机专业。

从这个角度,AI 人工智能就当前地球人类文明发展的最核心方向。

微观角度

从微观来看,普通人已经通过 ChatGPT、Deepseek、AI生图、AI制作视频体验到了AI带来的创造力和生产力。

  1. OpenAI在2022年11月30日发布了 ChatGPT-3.5,2023过年后我在深圳就开始使用ChatGPT写代码。
  2. stable diffusion webui 首个版本是2022年 8 月发布的,在2023和2024年迅速流行起来,我在2023年升级显卡,第一次让大模型根据指令生成图片的时候,忘不了当时的兴奋和惊叹。
  3. 而到了2024和2025年,stable diffusion webui 略显颓势,comfyui 凭借高度的灵活性后来居上,直到今天国内外AIGC社区网站、微信群都在高强度讨论。

时间来到2026年2月份,OpenClaw 横空出世,我第一次使用它的时候,并没有我带给我第一使用ChatGPT生成代码、第一次使用stable diffusion webui 生成图片的那种震撼和惊叹。可能是阈值提高,可能是因为自己已经使用过基于Python代码的RPA,也可能是在claude code等编程工具里已体验过类似的智能能力,但是理智上隐隐约约意识到“这是一个重点的从“对话”(Chat)范式向“智能体”(Agent)范式的转变。”

Chat范式只是一个工具,而Agent范式则可以无限接近于一个人。

从 OpenClaw 在 2月份爆火到这篇文章,时间不过三四十天,我已经从微信群、论坛、程序员朋友看到了一些应用,也得知了一些公司通过“OpenClaw + 自定义 Skills + Python 代码逻辑” 来实现很多具体的业务需求。

从这个角度,至少可以得出一个最基本的结论,至少 AI 不是房地产泡沫,不是荷兰郁金香庞氏骗局。

OpenClaw 和 其他Agent 有什么区别?

这里我想探讨下技术选型问题,或者说 OpenClaw 这个Agent 和 其他Agent有什么区别。

不熟悉技术的人可能很容易将OpenClaw当作是一个新的物种、新的技术,但是对人工智能稍微有些了解的人会知道在OpenClaw 之前,市面上已经有了非常多的Agent 和 Agent框架。

所以我非常好奇,为什么 2024, 2025年 各个公司在开发 AI Agent的时候, 都在尝试  LangGraph、LlamaIndex、AutoGen、LangGraph 这些 Agent 框架, 而到了2026年几乎都转到了 OpenClaw ?

OpenClaw 之前的Agent时代,就像持续了600年、百家争鸣的春秋战国,而OpenClaw 有些像从公元前230年秦灭韩开始,到最后221年灭齐,只用9年就一统天下的秦始皇。尽管这个描述有些夸张,但某种情况下确实如此。

进一步对比 OpenClaw 和第二名的 AutoGPT 的其他指标,可以看到明显有更多的人参与到 OpenClaw 项目,有更多的反馈和修改。

  1. OpenClaw, Issues 5k+, Pull requests 5k+.
  2. AutoGPT, Issues 232, Pull requests 133.

那么是什么东西促成了这种转变?OpenClaw 有什么特别之处?还是说OpenClaw 只是一颗流星?是不可持续的风口?对此,我进行很多的观测和讨论,包括问了一些深圳南山的朋友怎么使用OpenClaw,他们的回答如下:

目前至少业务知识尽力在skill化,大部分人的kpi也都是提供skill,然后套个agent串联几个 skill。

就是以前的工作任务主要使用代码去直接实现某些功能,而现在通过写 skills,再让OpenClaw调用skills的能力去实现。

最近也感觉是不要过于复杂,其实一个skill已经基本能完成一个复杂业务流程了,一个产品甚至也可以是一组skill组合,我之前看open spec的源码就是一组skill的产品,感叹真是脑洞大开。

这个则是在分享skill的技巧,似乎在说有时候一个skill即可,不必要引入过多的skill?

OpenClaw 其他 Agent 对比

框架 / 项目GitHub Star (2026.03)核心定位技术栈核心优势典型场景
OpenClaw32.6 万 + 🚀本地优先、端侧执行中枢TypeScript零代码、本地可控、模拟鼠标 / 键盘操作、端侧 AI 自动化个人数字员工、本地 RPA、桌面自动化、离线 AI 助手
AutoGPT18.2 万 +自主智能体鼻祖Python最早的全自动 Agent,自主规划、反思、联网搜索全自动任务、自动化探索、Demo 演示
LangChain8.5 万 +LLM 应用开发底座Python/JS生态最完整,RAG / 工具调用 / 链编排,社区插件最多通用 LLM 应用、RAG、快速搭建 Agent 原型
n8n4.2 万 +工作流自动化 (RPA)TypeScript可视化流程,连接 1000+ 系统 API,非 LLM 原生系统集成、数据同步、API 自动化、企业工作流
LangGraph1.4 万 +状态化多 Agent 编排Python基于状态机,支持循环、中断、持久化、复杂工作流企业级可靠 Agent、多轮复杂决策、多智能体协作
CrewAI4.0 万 +角色化多 Agent 团队Python角色分工明确,Agent 之间协作完成复杂目标多智能体团队、任务拆解、内容 / 研究自动化
MetaGPT6.2 万 +多 Agent 软件公司Python模拟产品 / 设计 / 开发 / 测试全角色,自动写项目自动软件开发、代码工程、需求落地
Dify6.0 万 +低代码 Agent 平台Python/React可视化编排、RAG、插件系统、一键发布企业快速落地 Agent、客服、知识库助手
LlamaIndex3.0 万 +数据增强与 RAG 专家Python/JS文档索引、结构化数据接入、复杂知识检索深度 RAG、企业知识库、文档问答
AutoGen3.0 万 +多 Agent 对话框架Python支持人类参与、多智能体对话、代码执行科研、代码生成、人机协同 Agent
Qwen-Agent1.5 万 +阿里轻量级 Agent 框架Python轻量化、工具调用、网页浏览、兼容通义系列国内模型生态、轻量 Agent、快速落地
Langflow5.0 万 +可视化 LangChain 编辑器Python/React拖拽式构建 LLM 应用,基于 LangChain低代码 Agent、快速原型、非开发人员使用

人工智能发展编年史

2026

2026年是 AI Agent 规模化落地元年,行业重心从大模型比拼转向智能体协同、本地自动化、企业安全部署与生态协议标准化

  1. OpenClaw(小龙虾):最火开源 AI Agent 框架,主打本地部署、自动化办公、数字员工。
  2. NVIDIA NemoClaw: 企业级安全增强版 OpenClaw, GTC 2026 重磅发布.
  3. Google Gemini: 月活 7.5 亿 +, 全球最大 AI 服务, MCP 协议生态核心.
  4. Claude Code: 原生代理式编程, 深度集成 Xcode, 开发者首选.
  5. MiniMax:全球首个 Agent 原生设计的生产级大模型。
  6. CrewAI: 最易上手的多智能体协作框架, GitHub 星标 18.2K+.

2025

2025年进入多模态全面成熟 + 低代码应用平台爆发阶段,RAG+Agent 成为企业标配,视频生成与实时交互普及。

  1. GPT-4o: OpenAI 实时多模态交互标杆.
  2. Sora: OpenAI 文生视频工业级模型.
  3. Claude 4.5:超长上下文,企业级推理主力。
  4. Dify: 低代码 LLM 应用开发平台, 快速搭建 Agent/知识库.
  5. Qwen-Agent: 阿里开源轻量级 Agent 框架, 中文生态友好.
  6. LangGraph: LangChain 推出的 Agent 工作流编排框架.

2024

2024年以开源大模型生态爆发、多模态理解成熟、AIGC 工作流工程化、多 Agent 框架兴起为核心特征。

  1. Llama 3: Meta 开源大模型, 推动开源生态爆发.
  2. GPT-4V: 多模态理解里程碑.
  3. ComfyUI: Stable Diffusion 可视化工作流神器, AIGC 必备.
  4. AutoGen: 微软多 Agent 协作框架.
  5. LlamaIndex: RAG 检索增强生成标杆框架.
  6. SD WebUI (Automatic1111): 最流行 Stable Diffusion 本地部署 UI.

2023

2023年是对话式 AI 全民破圈、国产大模型集中亮相、开源大模型正式崛起的一年。

  1. ChatGPT (GPT-3.5): 全民 AI 爆发起点.
  2. GPT-4: 逻辑推理与多模态能力质变.
  3. Llama 2: Meta 开源大模型, 开启开源时代.
  4. Midjourney V6: 图像生成主流工具.
  5. 文心一言、通义千问、讯飞星火:国产大模型集中发布。
  6. Claude 2: 超长上下文文档处理利器.

2022

2022年是AIGC 全民化启动、生成式 AI 从实验室走向大众的关键一年。

  1. ChatGPT (GPT-3.5):11月发布, 两个月破亿用户.
  2. Stable Diffusion: 开源文生图模型, AIGC 普及开端.
  3. DALL·E 2: OpenAI 商业级图像生成.
  4. GitHub Copilot: AI 编程助手规模化应用.

2021

2021年进入大模型涌现能力验证、多模态预训练起步阶段。

  1. GPT-3: 零样本/少样本学习能力正式显现.
  2. CLIP、DALL·E: OpenAI 多模态基础模型.
  3. Stable Diffusion 早期研究:隐式扩散模型奠基。

2020

2020年标志超大规模预训练语言模型时代正式开启

  1. GPT-3:1750 亿参数大模型发布.
  2. T5 BERT-large: NLP 预训练主流模型.

2019

2019年确立NLP 预训练–微调主流范式,生成模型能力显著提升。

  1. GPT-2: 文本生成与少样本能力初显.
  2. BERT: Google 预训练模型, 全面刷新 NLP 基准.

2018

2018年是Transformer 落地爆发、预训练语言模型路线确立的一年。

  1. GPT-1: OpenAI 生成式预训练起点.
  2. BERT: 开启 NLP 预训练新时代.

2017

2017年是AI 底层架构革新元年,Transformer 横空出世,彻底颠覆序列建模方式,成为后续大模型核心基石。

  1. Transformer: Google 发表《Attention Is All You Need》提出, 替代 RNN/LSTM, 大模型底层架构奠基.
  2. AlphaGo Zero: DeepMind 强化学习里程碑, 无人类数据自学完胜前代版本.
  3. GAN 系列优化:WGAN、CycleGAN 推出,生成对抗网络稳定性大幅提升。

2016

2016年是强化学习全民破圈、深度学习全面落地的一年,AI 在复杂博弈领域首次战胜人类顶尖选手。

  1. AlphaGo: DeepMind 研发, 击败围棋世界冠军李世石, 强化学习轰动全球.
  2. ResNet: 微软提出, 解决深度神经网络退化问题, 模型层数大幅突破.
  3. YOLO: 首创单阶段实时目标检测, 计算机视觉工程化提速.
  4. SpaCy: 开源工业级 NLP 库, 推动自然语言处理落地应用.

2015

2015年进入深度学习技术全面成熟、视觉与语音能力突破阶段,模型架构与训练效率大幅优化。

  1. Faster R-CNN: 计算机视觉两阶段检测标杆, 精度大幅提升.
  2. 深度学习语音识别:首次超越人类水平,语音交互技术奠基。
  3. Batch Normalization: 批量归一化技术, 解决深度模型训练难题.
  4. TensorFlow: Google 开源深度学习框架, 普及深度学习开发.

2014

2014年是生成式 AI 起步、深度学习框架普及的一年,生成模型与 NLP 表示学习迎来关键突破。

  1. GAN(生成对抗网络):Ian Goodfellow 提出,开启生成式AI新篇章。
  2. Word2Vec: Google 发布, 词向量技术突破, 推动 NLP 表示学习.
  3. PyTorch 早期版本:Facebook 推出,灵活易用的深度学习框架。
  4. Seq2Seq: 序列到序列模型, 奠定机器翻译、对话系统基础.

2013

2013年是深度学习在 NLP 领域初步崛起的一年,词向量与视觉检测技术持续优化,应用场景逐步拓宽。

  1. Word2Vec 雏形:分布式词向量研究落地,NLP 特征工程革新。
  2. OverFeat: 首个结合深度学习的目标检测与定位模型.
  3. Caffe: 开源高效深度学习框架, 适合计算机视觉快速开发.

2012

2012年是深度学习革命爆发元年,AlexNet 登顶 ImageNet,彻底颠覆传统计算机视觉方法。

  1. AlexNet: Hinton 团队研发, ImageNet 竞赛夺冠, 深度学习正式引爆.
  2. ReLU 激活函数:普及应用,解决深度学习训练梯度消失问题。
  3. GPU 加速训练:大规模应用 GPU,大幅缩短深度学习训练周期。

2011

2011年是深度学习商业化试点、语音助手起步的一年,AI 开始向消费级产品渗透。

  1. IBM Watson: 参加《危险边缘》战胜人类冠军, AI 认知计算破圈.
  2. Siri: 苹果正式推出, 首款消费级 AI 语音助手规模化落地.
  3. 深度学习语音识别:Google 研发,大幅提升语音识别准确率。

2009-2010

2009-2010年是大数据与标注数据集奠基、深度学习蓄力的阶段,为后续视觉革命储备核心数据。

  1. ImageNet 数据集:大规模标注图像数据集成熟,计算机视觉数据基石。
  2. 传统机器学习巅峰:SVM、随机森林、Boosting 成为工业界主流算法。
  3. 稀疏编码与自编码器:无监督学习研究突破,深度学习预热。

2006

2006年被公认为深度学习元年,深层神经网络训练瓶颈突破,AI 走出第二次寒冬。

  1. 深度信念网络(DBN):Hinton 提出,解决多层神经网络训练难题。
  2. 逐层预训练技术:开启深度学习研究热潮,打破感知机局限。

1997

1997年是传统 AI 博弈突破、序列模型奠基的一年,AI 首次在复杂棋类战胜人类顶尖选手。

  1. IBM 深蓝(Deep Blue):击败国际象棋冠军卡斯帕罗夫,AI里程碑事件。
  2. LSTM 模型:提出长短期记忆网络,解决 RNN 梯度消失问题,序列建模核心。

1986

1986年是神经网络技术复兴的一年,反向传播算法重新普及,突破早期神经网络训练局限。

  1. 反向传播(BP)算法:Hinton 团队复兴推广,多层神经网络训练可行。
  2. 多层感知机(MLP):普及应用,神经网络研究重回主流。

1959

1959年正式确立机器学习概念,AI 从纯理论推理转向数据学习方向。

  1. 机器学习概念提出:亚瑟·塞缪尔定义术语,开发跳棋 AI 程序自学优化。

1957

1957年是神经网络硬件化起步的一年,首个可学习神经网络模型诞生。

  1. 感知机(Perceptron):罗森布拉特发明,首个可学习人工神经网络模型。

1956

1956年是AI 学科正式诞生元年,人工智能术语确立,学科研究正式启动。

  1. 达特茅斯会议:约翰·麦卡锡首次提出“人工智能”术语,学科正式创立。

1950

1950年奠定AI 理论基础,提出机器智能核心评判标准,开启 AI 理论探索。

  1. 图灵测试:图灵发表《计算机器与智能》,提出机器智能评判标准。

1943

1943年是AI 神经科学理论奠基的一年,构建人工神经元数学模型,为神经网络埋下伏笔。

  1. 人工神经元数学模型:麦卡洛克-皮茨提出,神经网络最早理论基石。
What do you think?
0 Reactions
Pick a reaction