Skip to content

AI/深度学习必读论文清单

阶段一:基础必读(面试能聊)

#论文年份重要性核心贡献
1Attention Is All You Need2017★★★★★Transformer架构
2Deep Residual Learning (ResNet)2015★★★★★残差连接
3Batch Normalization2015★★★★★训练稳定性
4Adam: A Method for Stochastic Optimization2014★★★★☆优化器基础
5Dropout: A Simple Way to Prevent Overfitting2014★★★★☆正则化

阶段二:LLM核心

#论文年份说明
6Language Models are Few-Shot Learners (GPT-3)2020In-context Learning
7Training Language Models to Follow Instructions (InstructGPT)2022RLHF
8LLaMA: Open and Efficient Foundation Models2023开源LLM
9LoRA: Low-Rank Adaptation2021高效微调
10FlashAttention2022注意力优化

阶段三:对齐与训练

#论文说明
11Direct Preference Optimization (DPO)直接偏好优化
12QLoRA: Efficient Finetuning4-bit量化微调
13Scaling Laws for Neural Language Models扩展法则
14Switch Transformers (MoE)稀疏激活
15Chinchilla训练数据量法则

阶段四:前沿技术

#论文说明
16RoPE (Rotary Position Embedding)旋转位置编码
17PagedAttention (vLLM)KV Cache管理
18GPTQ / AWQ权重量化
19ReAct: Synergizing Reasoning and ActingAgent范式
20ViT (Vision Transformer)视觉Transformer

阶段五:进阶选读

论文方向
DDPMDiffusion生成模型
CLIP图文多模态
LLaVA多模态VLM
Speculative Decoding推理加速
DeepSpeed ZeRO分布式训练

阅读方法论

1. 先读摘要和结论(5分钟)→ 判断是否值得读
2. 读引言和图表(10分钟)→ 了解核心想法
3. 读方法(20分钟)→ 理解算法
4. 读实验(15分钟)→ 了解效果和tricks
5. 复现代码(2-4小时)→ 真正理解