人工智能发展编年史。

从 Chat 到 Agent 的转变

在2026年3月份的当下,正在经历一个从“对话”(Chat)范式向“智能体”(Agent)范式的转变期。大部分中国人之前总是会认为AI就是基于Deepseek、抖音豆包、腾讯元宝的对话。少部分人知道 Manus 智能体,然后这一少部分人里面的很大一部分人认为 Manus 只是大模型套壳,不具备真正价值。真正让人们认识到智能体(Agent)范式的东西是 OpenClaw,但是对于OpenClaw,一部分人认为它是万能的,另一部分则认为它只是个玩具。

我完全理解这两种看法或者心态,OpenClaw 的能力非常依赖于大模型和使用方法,甚至即使你使用了第一梯队的大模型API,但是在某个时间段仍然会出现因为算力拥挤而导致OpenClaw “降智”的现象。另一方面,大模型本质上是概率,而并不是具备像人类那样的“记忆力”和“逻辑推理能力”,只是当概率模型的规模足够大时,涌现出了推理、泛化能力,这也就是意味着 OpenClaw 这类智能体的确定性不够强

维度人类计算 1+1=2大模型 “计算” 1+1=2
本质逻辑推理 + 规则执行条件概率预测下一词
是否懂加法懂抽象数学概念不懂,只懂文本搭配
出错原因粗心、算错概率采样偏差、幻觉
泛化能力强,新算式也能算复杂算式容易崩
内部过程有明确计算步骤逐词生成,无步骤感知
逻辑剖析1. 知道 1 代表一个物体。
2. 知道 + 代表合并。
3. 知道 = 代表结果相等。
1. 训练语料里有海量 1+1=2一加一等于二 文本。
2. 模型把这种文本序列模式记在了参数里。
3. 输入「1+1=」,它匹配到最高概率的续接就是「2」。
4. 它并没有执行加法运算,只是在完成 “补全句子”。

对于加法运算逻辑而言,大模型像是一个背过无数加法题的超级复读机,靠统计规律猜对答案。

2026

2026年是 AI Agent 规模化落地元年,行业重心从大模型比拼转向智能体协同、本地自动化、企业安全部署与生态协议标准化

  1. OpenClaw(小龙虾):最火开源 AI Agent 框架,主打本地部署、自动化办公、数字员工。
  2. NVIDIA NemoClaw: 企业级安全增强版 OpenClaw, GTC 2026 重磅发布.
  3. Google Gemini: 月活 7.5 亿 +, 全球最大 AI 服务, MCP 协议生态核心.
  4. Claude Code: 原生代理式编程, 深度集成 Xcode, 开发者首选.
  5. MiniMax:全球首个 Agent 原生设计的生产级大模型。
  6. CrewAI: 最易上手的多智能体协作框架, GitHub 星标 18.2K+.

2025

2025年进入多模态全面成熟 + 低代码应用平台爆发阶段,RAG+Agent 成为企业标配,视频生成与实时交互普及。

  1. GPT-4o: OpenAI 实时多模态交互标杆.
  2. Sora: OpenAI 文生视频工业级模型.
  3. Claude 4.5:超长上下文,企业级推理主力。
  4. Dify: 低代码 LLM 应用开发平台, 快速搭建 Agent/知识库.
  5. Qwen-Agent: 阿里开源轻量级 Agent 框架, 中文生态友好.
  6. LangGraph: LangChain 推出的 Agent 工作流编排框架.

2024

2024年以开源大模型生态爆发、多模态理解成熟、AIGC 工作流工程化、多 Agent 框架兴起为核心特征。

  1. Llama 3: Meta 开源大模型, 推动开源生态爆发.
  2. GPT-4V: 多模态理解里程碑.
  3. ComfyUI: Stable Diffusion 可视化工作流神器, AIGC 必备.
  4. AutoGen: 微软多 Agent 协作框架.
  5. LlamaIndex: RAG 检索增强生成标杆框架.
  6. SD WebUI (Automatic1111): 最流行 Stable Diffusion 本地部署 UI.

2023

2023年是对话式 AI 全民破圈、国产大模型集中亮相、开源大模型正式崛起的一年。

  1. ChatGPT (GPT-3.5): 全民 AI 爆发起点.
  2. GPT-4: 逻辑推理与多模态能力质变.
  3. Llama 2: Meta 开源大模型, 开启开源时代.
  4. Midjourney V6: 图像生成主流工具.
  5. 文心一言、通义千问、讯飞星火:国产大模型集中发布。
  6. Claude 2: 超长上下文文档处理利器.

2022

2022年是AIGC 全民化启动、生成式 AI 从实验室走向大众的关键一年。

  1. ChatGPT (GPT-3.5):11月发布, 两个月破亿用户.
  2. Stable Diffusion: 开源文生图模型, AIGC 普及开端.
  3. DALL·E 2: OpenAI 商业级图像生成.
  4. GitHub Copilot: AI 编程助手规模化应用.

2021

2021年进入大模型涌现能力验证、多模态预训练起步阶段。

  1. GPT-3: 零样本/少样本学习能力正式显现.
  2. CLIP、DALL·E: OpenAI 多模态基础模型.
  3. Stable Diffusion 早期研究:隐式扩散模型奠基。

2020

2020年标志超大规模预训练语言模型时代正式开启

  1. GPT-3:1750 亿参数大模型发布.
  2. T5 BERT-large: NLP 预训练主流模型.

2019

2019年确立NLP 预训练–微调主流范式,生成模型能力显著提升。

  1. GPT-2: 文本生成与少样本能力初显.
  2. BERT: Google 预训练模型, 全面刷新 NLP 基准.

2018

2018年是Transformer 落地爆发、预训练语言模型路线确立的一年。

  1. GPT-1: OpenAI 生成式预训练起点.
  2. BERT: 开启 NLP 预训练新时代.

2017

2017年是AI 底层架构革新元年,Transformer 横空出世,彻底颠覆序列建模方式,成为后续大模型核心基石。

  1. Transformer: Google 发表《Attention Is All You Need》提出, 替代 RNN/LSTM, 大模型底层架构奠基.
  2. AlphaGo Zero: DeepMind 强化学习里程碑, 无人类数据自学完胜前代版本.
  3. GAN 系列优化:WGAN、CycleGAN 推出,生成对抗网络稳定性大幅提升。

2016

2016年是强化学习全民破圈、深度学习全面落地的一年,AI 在复杂博弈领域首次战胜人类顶尖选手。

  1. AlphaGo: DeepMind 研发, 击败围棋世界冠军李世石, 强化学习轰动全球.
  2. ResNet: 微软提出, 解决深度神经网络退化问题, 模型层数大幅突破.
  3. YOLO: 首创单阶段实时目标检测, 计算机视觉工程化提速.
  4. SpaCy: 开源工业级 NLP 库, 推动自然语言处理落地应用.

2015

2015年进入深度学习技术全面成熟、视觉与语音能力突破阶段,模型架构与训练效率大幅优化。

  1. Faster R-CNN: 计算机视觉两阶段检测标杆, 精度大幅提升.
  2. 深度学习语音识别:首次超越人类水平,语音交互技术奠基。
  3. Batch Normalization: 批量归一化技术, 解决深度模型训练难题.
  4. TensorFlow: Google 开源深度学习框架, 普及深度学习开发.

2014

2014年是生成式 AI 起步、深度学习框架普及的一年,生成模型与 NLP 表示学习迎来关键突破。

  1. GAN(生成对抗网络):Ian Goodfellow 提出,开启生成式AI新篇章。
  2. Word2Vec: Google 发布, 词向量技术突破, 推动 NLP 表示学习.
  3. PyTorch 早期版本:Facebook 推出,灵活易用的深度学习框架。
  4. Seq2Seq: 序列到序列模型, 奠定机器翻译、对话系统基础.

2013

2013年是深度学习在 NLP 领域初步崛起的一年,词向量与视觉检测技术持续优化,应用场景逐步拓宽。

  1. Word2Vec 雏形:分布式词向量研究落地,NLP 特征工程革新。
  2. OverFeat: 首个结合深度学习的目标检测与定位模型.
  3. Caffe: 开源高效深度学习框架, 适合计算机视觉快速开发.

2012

2012年是深度学习革命爆发元年,AlexNet 登顶 ImageNet,彻底颠覆传统计算机视觉方法。

  1. AlexNet: Hinton 团队研发, ImageNet 竞赛夺冠, 深度学习正式引爆.
  2. ReLU 激活函数:普及应用,解决深度学习训练梯度消失问题。
  3. GPU 加速训练:大规模应用 GPU,大幅缩短深度学习训练周期。

2011

2011年是深度学习商业化试点、语音助手起步的一年,AI 开始向消费级产品渗透。

  1. IBM Watson: 参加《危险边缘》战胜人类冠军, AI 认知计算破圈.
  2. Siri: 苹果正式推出, 首款消费级 AI 语音助手规模化落地.
  3. 深度学习语音识别:Google 研发,大幅提升语音识别准确率。

2009-2010

2009-2010年是大数据与标注数据集奠基、深度学习蓄力的阶段,为后续视觉革命储备核心数据。

  1. ImageNet 数据集:大规模标注图像数据集成熟,计算机视觉数据基石。
  2. 传统机器学习巅峰:SVM、随机森林、Boosting 成为工业界主流算法。
  3. 稀疏编码与自编码器:无监督学习研究突破,深度学习预热。

2006

2006年被公认为深度学习元年,深层神经网络训练瓶颈突破,AI 走出第二次寒冬。

  1. 深度信念网络(DBN):Hinton 提出,解决多层神经网络训练难题。
  2. 逐层预训练技术:开启深度学习研究热潮,打破感知机局限。

1997

1997年是传统 AI 博弈突破、序列模型奠基的一年,AI 首次在复杂棋类战胜人类顶尖选手。

  1. IBM 深蓝(Deep Blue):击败国际象棋冠军卡斯帕罗夫,AI里程碑事件。
  2. LSTM 模型:提出长短期记忆网络,解决 RNN 梯度消失问题,序列建模核心。

1986

1986年是神经网络技术复兴的一年,反向传播算法重新普及,突破早期神经网络训练局限。

  1. 反向传播(BP)算法:Hinton 团队复兴推广,多层神经网络训练可行。
  2. 多层感知机(MLP):普及应用,神经网络研究重回主流。

1959

1959年正式确立机器学习概念,AI 从纯理论推理转向数据学习方向。

  1. 机器学习概念提出:亚瑟·塞缪尔定义术语,开发跳棋 AI 程序自学优化。

1957

1957年是神经网络硬件化起步的一年,首个可学习神经网络模型诞生。

  1. 感知机(Perceptron):罗森布拉特发明,首个可学习人工神经网络模型。

1956

1956年是AI 学科正式诞生元年,人工智能术语确立,学科研究正式启动。

  1. 达特茅斯会议:约翰·麦卡锡首次提出“人工智能”术语,学科正式创立。

1950

1950年奠定AI 理论基础,提出机器智能核心评判标准,开启 AI 理论探索。

  1. 图灵测试:图灵发表《计算机器与智能》,提出机器智能评判标准。

1943

1943年是AI 神经科学理论奠基的一年,构建人工神经元数学模型,为神经网络埋下伏笔。

  1. 人工神经元数学模型:麦卡洛克-皮茨提出,神经网络最早理论基石。
What do you think?
0 Reactions
Pick a reaction