Skip to content

3个月速通版(每天6小时)

适用于:急于转行、短期内需要就业、在职脱产学习 前提:有一定Python和深度学习基础 目标:达到LLM应用工程师就业水平


总览

阶段时长核心目标
Month 14周基础重建 + 深度学习核心
Month 24周LLM应用 + RAG开发
Month 34周Agent开发 + 项目 + 简历

Month 1: 基础重建

Week 1-2: 数学基础速过

目标:用最少时间过一遍必备数学

每日任务

  • Day 1-2: 线性代数核心(向量/矩阵乘法/范数/特征值)
  • Day 3-4: 概率统计(分布/期望/最大似然/KL散度)
  • Day 5-6: 优化基础(梯度下降/Adam/链式法则)
  • Day 7: 矩阵微分 + 面试高频公式推导

验收标准

  • [ ] 能手推softmax梯度
  • [ ] 能解释KL散度
  • [ ] 能解释Adam为何有效

资源

  • 视频:3Blue1Brown 线性代数本质(快速过)
  • 文档:D2L 第2-3章

Week 3: PyTorch高级操作

目标:熟练使用PyTorch进行模型开发

每日任务

  • Day 1-2: 张量操作/自动微分/神经网络基础
  • Day 3-4: 数据加载/Dataset/DataLoader
  • Day 5-6: GPU训练/混合精度/训练技巧
  • Day 7: 用PyTorch实现一个MLP

验收标准

  • [ ] 能实现自定义Dataset
  • [ ] 能使用torch.cuda进行GPU训练
  • [ ] 能实现梯度裁剪和学习率调度

Week 4: 深度学习核心(CNN + Attention)

目标:掌握CNN和Transformer核心原理

每日任务

  • Day 1-2: CNN基础(卷积/池化/ResNet)
  • Day 3-4: Attention机制(自注意力/Multi-Head)
  • Day 5-6: Transformer架构(位置编码/Layer Norm)
  • Day 7: 手写Multi-Head Attention

验收标准

  • [ ] 能从零实现Self-Attention
  • [ ] 能解释残差连接的作用
  • [ ] 能解释Layer Norm vs Batch Norm

必须手写代码

python
class MultiHeadAttention(nn.Module):
    def __init__(self, d_model, num_heads):
        super().__init__()
        assert d_model % num_heads == 0
        self.d_k = d_model // num_heads
        self.W_q = nn.Linear(d_model, d_model)
        self.W_k = nn.Linear(d_model, d_model)
        self.W_v = nn.Linear(d_model, d_model)
        self.W_o = nn.Linear(d_model, d_model)
        self.num_heads = num_heads

    def forward(self, x):
        B, T, C = x.shape
        q = self.W_q(x).view(B, T, self.num_heads, self.d_k).transpose(1, 2)
        k = self.W_k(x).view(B, T, self.num_heads, self.d_k).transpose(1, 2)
        v = self.W_v(x).view(B, T, self.num_heads, self.d_k).transpose(1, 2)

        scores = torch.matmul(q, k.transpose(-2, -1)) / math.sqrt(self.d_k)
        attn = F.softmax(scores, dim=-1)
        out = torch.matmul(attn, v)

        return self.W_o(out.transpose(1, 2).contiguous().view(B, T, C))

Month 2: LLM应用开发

Week 5-6: HuggingFace + PEFT

目标:熟练使用HuggingFace生态

每日任务

  • Day 1-2: Transformers库使用(Bert/GPT/Llama)
  • Day 3-4: tokenizer/模型调用/生成策略
  • Day 5-6: PEFT(LoRA/QLoRA)微调
  • Day 7: 用LoRA微调一个7B模型

验收标准

  • [ ] 能使用transformers加载和推理
  • [ ] 能实现LoRA微调
  • [ ] 能使用HuggingFace训练回调

Week 7-8: RAG系统开发

目标:独立开发RAG系统

每日任务

  • Day 1-2: RAG流程讲解 + 文档加载/切分
  • Day 3-4: 向量数据库(Milvus/FAISS)+ 检索
  • Day 5-6: 检索优化(混合检索/重排序)
  • Day 7-8: 完整RAG系统 + 评估

技术栈

python
# 核心RAG架构
LangChain + Milvus + Qwen2.5/DeepSeek + FastAPI

验收标准

  • [ ] 能实现文档加载和语义切分
  • [ ] 能实现向量检索和重排序
  • [ ] 能构建完整RAG pipeline

Month 3: Agent + 项目

Week 9-10: Agent开发

目标:掌握Agent开发范式

每日任务

  • Day 1-2: ReAct/CoT 原理 + LangGraph
  • Day 3-4: MCP协议 + Function Calling
  • Day 5-6: 多Agent协作 + 记忆管理
  • Day 7-8: 完整Agent项目开发

验收标准

  • [ ] 能实现ReAct Agent
  • [ ] 能使用LangGraph编排Agent
  • [ ] 能实现MCP工具调用

Week 11-12: 项目 + 简历

目标:完成2-3个可面试项目 + 简历

项目要求(选一个完成):

  1. 智能客服RAG系统
  2. MCP订单处理Agent
  3. 多模态文档问答

简历准备

  • 写清楚技术栈和职责
  • 量化成果(如:准确率提升35%)
  • 准备项目口述(5分钟版本)

每日时间分配(参考)

6小时/天 = 2小时视频/文档 + 3小时代码 + 1小时总结

09:00-11:00  学习新知识(视频/文档)
11:00-12:00  整理笔记/画知识图
14:00-17:00  代码实践/项目开发
17:00-18:00  复习/刷面经

速通版常见问题

Q: 时间太紧,数学部分能跳过吗?
A: 不能跳过核心部分,但可以压缩到最小范围:
   必须会:矩阵乘法/梯度推导/KL散度/MLE
   可以略:特征值分解推导/拉格朗日乘子

Q: 论文需要读吗?
A: 3个月速通版不需要精读论文
   但需要知道核心论文讲了什么(读摘要/看解读)

Q: 项目数量要求?
A: 至少2个完整可演示项目
   最好包括:RAG系统 + Agent系统