3个月速通版(每天6小时)
适用于:急于转行、短期内需要就业、在职脱产学习 前提:有一定Python和深度学习基础 目标:达到LLM应用工程师就业水平
总览
| 阶段 | 时长 | 核心目标 |
|---|---|---|
| Month 1 | 4周 | 基础重建 + 深度学习核心 |
| Month 2 | 4周 | LLM应用 + RAG开发 |
| Month 3 | 4周 | Agent开发 + 项目 + 简历 |
Month 1: 基础重建
Week 1-2: 数学基础速过
目标:用最少时间过一遍必备数学
每日任务:
- Day 1-2: 线性代数核心(向量/矩阵乘法/范数/特征值)
- Day 3-4: 概率统计(分布/期望/最大似然/KL散度)
- Day 5-6: 优化基础(梯度下降/Adam/链式法则)
- Day 7: 矩阵微分 + 面试高频公式推导
验收标准:
- [ ] 能手推softmax梯度
- [ ] 能解释KL散度
- [ ] 能解释Adam为何有效
资源:
- 视频:3Blue1Brown 线性代数本质(快速过)
- 文档:D2L 第2-3章
Week 3: PyTorch高级操作
目标:熟练使用PyTorch进行模型开发
每日任务:
- Day 1-2: 张量操作/自动微分/神经网络基础
- Day 3-4: 数据加载/Dataset/DataLoader
- Day 5-6: GPU训练/混合精度/训练技巧
- Day 7: 用PyTorch实现一个MLP
验收标准:
- [ ] 能实现自定义Dataset
- [ ] 能使用torch.cuda进行GPU训练
- [ ] 能实现梯度裁剪和学习率调度
Week 4: 深度学习核心(CNN + Attention)
目标:掌握CNN和Transformer核心原理
每日任务:
- Day 1-2: CNN基础(卷积/池化/ResNet)
- Day 3-4: Attention机制(自注意力/Multi-Head)
- Day 5-6: Transformer架构(位置编码/Layer Norm)
- Day 7: 手写Multi-Head Attention
验收标准:
- [ ] 能从零实现Self-Attention
- [ ] 能解释残差连接的作用
- [ ] 能解释Layer Norm vs Batch Norm
必须手写代码:
python
class MultiHeadAttention(nn.Module):
def __init__(self, d_model, num_heads):
super().__init__()
assert d_model % num_heads == 0
self.d_k = d_model // num_heads
self.W_q = nn.Linear(d_model, d_model)
self.W_k = nn.Linear(d_model, d_model)
self.W_v = nn.Linear(d_model, d_model)
self.W_o = nn.Linear(d_model, d_model)
self.num_heads = num_heads
def forward(self, x):
B, T, C = x.shape
q = self.W_q(x).view(B, T, self.num_heads, self.d_k).transpose(1, 2)
k = self.W_k(x).view(B, T, self.num_heads, self.d_k).transpose(1, 2)
v = self.W_v(x).view(B, T, self.num_heads, self.d_k).transpose(1, 2)
scores = torch.matmul(q, k.transpose(-2, -1)) / math.sqrt(self.d_k)
attn = F.softmax(scores, dim=-1)
out = torch.matmul(attn, v)
return self.W_o(out.transpose(1, 2).contiguous().view(B, T, C))Month 2: LLM应用开发
Week 5-6: HuggingFace + PEFT
目标:熟练使用HuggingFace生态
每日任务:
- Day 1-2: Transformers库使用(Bert/GPT/Llama)
- Day 3-4: tokenizer/模型调用/生成策略
- Day 5-6: PEFT(LoRA/QLoRA)微调
- Day 7: 用LoRA微调一个7B模型
验收标准:
- [ ] 能使用transformers加载和推理
- [ ] 能实现LoRA微调
- [ ] 能使用HuggingFace训练回调
Week 7-8: RAG系统开发
目标:独立开发RAG系统
每日任务:
- Day 1-2: RAG流程讲解 + 文档加载/切分
- Day 3-4: 向量数据库(Milvus/FAISS)+ 检索
- Day 5-6: 检索优化(混合检索/重排序)
- Day 7-8: 完整RAG系统 + 评估
技术栈:
python
# 核心RAG架构
LangChain + Milvus + Qwen2.5/DeepSeek + FastAPI验收标准:
- [ ] 能实现文档加载和语义切分
- [ ] 能实现向量检索和重排序
- [ ] 能构建完整RAG pipeline
Month 3: Agent + 项目
Week 9-10: Agent开发
目标:掌握Agent开发范式
每日任务:
- Day 1-2: ReAct/CoT 原理 + LangGraph
- Day 3-4: MCP协议 + Function Calling
- Day 5-6: 多Agent协作 + 记忆管理
- Day 7-8: 完整Agent项目开发
验收标准:
- [ ] 能实现ReAct Agent
- [ ] 能使用LangGraph编排Agent
- [ ] 能实现MCP工具调用
Week 11-12: 项目 + 简历
目标:完成2-3个可面试项目 + 简历
项目要求(选一个完成):
- 智能客服RAG系统
- MCP订单处理Agent
- 多模态文档问答
简历准备:
- 写清楚技术栈和职责
- 量化成果(如:准确率提升35%)
- 准备项目口述(5分钟版本)
每日时间分配(参考)
6小时/天 = 2小时视频/文档 + 3小时代码 + 1小时总结
09:00-11:00 学习新知识(视频/文档)
11:00-12:00 整理笔记/画知识图
14:00-17:00 代码实践/项目开发
17:00-18:00 复习/刷面经速通版常见问题
Q: 时间太紧,数学部分能跳过吗?
A: 不能跳过核心部分,但可以压缩到最小范围:
必须会:矩阵乘法/梯度推导/KL散度/MLE
可以略:特征值分解推导/拉格朗日乘子
Q: 论文需要读吗?
A: 3个月速通版不需要精读论文
但需要知道核心论文讲了什么(读摘要/看解读)
Q: 项目数量要求?
A: 至少2个完整可演示项目
最好包括:RAG系统 + Agent系统