跳到主要内容

AI 发展历程与行业全景

问题

人工智能经历了怎样的发展历程?从符号主义到深度学习到大模型,各阶段的标志性事件和技术突破是什么?AI 当前的行业应用全景如何?

答案

一、AI 发展时间线

二、三大技术范式

范式时期核心思想代表
符号主义1950s-1980s用逻辑规则表示知识专家系统、知识图谱
连接主义1980s-2010s模拟神经元连接学习神经网络、CNN、RNN
大模型时代2020s-大数据 + 大模型 + RLHFGPT-4、Claude、LLaMA

三、关键技术突破

2012:深度学习爆发

AlexNet 在 ImageNet 图像分类挑战中以碾压优势夺冠(错误率从 26% 降到 16%),证明了深度 CNN + GPU 训练的威力。此后,深度学习迅速在计算机视觉、语音识别、自然语言处理等领域取代了传统方法。

2017:Transformer 架构

Google 的论文 "Attention Is All You Need" 提出了 Transformer 架构,用自注意力机制(Self-Attention) 完全替代了 RNN 的循环结构。核心优势:

  • 并行计算:不像 RNN 需要串行处理序列
  • 长距离依赖:注意力机制可以直接关注远处的 Token
  • 可扩展性:参数量和计算可以高效扩展

Transformer 成为后续几乎所有 LLM 的基础架构。

2020-2022:大模型涌现

GPT-3(1750 亿参数)展现了惊人的 In-Context Learning 能力——无需微调,只要在 Prompt 中给几个示例就能完成新任务。这种能力被称为"涌现能力(Emergent Abilities)"——只有模型足够大才会出现。

ChatGPT(2022.11)将 LLM 包装成对话产品,引爆全球 AI 热潮。

四、当前 AI 行业应用全景

五、AI 技术栈全景

层级内容
基础层算力(GPU/TPU)、数据(标注/清洗)
模型层预训练模型(GPT/Claude/LLaMA)、微调
框架层PyTorch、TensorFlow、Hugging Face
中间层向量数据库、Embedding、推理引擎
应用层RAG、Agent、Prompt 工程、AI SDK
产品层ChatBot、知识库、代码助手、内容平台

常见面试问题

Q1: 为什么 Transformer 能取代 RNN?

答案

维度RNN/LSTMTransformer
序列处理串行,需逐步处理并行,所有位置同时计算
长距离依赖信息衰减,难以捕捉远距离关系注意力机制直接连接远距离 Token
训练速度慢(无法并行)(GPU 高效并行)
可扩展性参数量难以大规模扩展参数量可轻松扩展到万亿级

Q2: 什么是 Scaling Law?

答案: OpenAI 发现,LLM 的性能(Loss)与三个因素呈幂律关系

  1. 模型参数量 N
  2. 训练数据量 D
  3. 计算量 C

即增大任意一个因素,模型性能都会平滑提升。这意味着更大的模型 + 更多的数据 = 更好的效果,且目前还没有看到收益递减的拐点。Chinchilla 论文进一步指出,参数量和数据量应等比例增长才最高效。

Q3: AI 当前最大的挑战是什么?

答案

挑战说明
幻觉(Hallucination)LLM 会生成看似正确但实际错误的内容
可解释性深度学习是黑箱,难以解释决策过程
安全与对齐如何确保 AI 行为符合人类价值观
成本训练和推理的算力成本极高
数据质量互联网数据中有大量偏见和错误信息
隐私合规训练数据可能包含个人信息,GDPR 等法规约束

相关链接