6个月就业版(每天4小时)
适用于:稳妥准备、兼顾工作/学业、目标进入AI行业 前提:有一定的编程基础 目标:达到AI算法/LLM应用工程师就业水平
总览
| 阶段 | 时长 | 核心目标 |
|---|---|---|
| Month 1-2 | 8周 | 数学基础 + 机器学习 |
| Month 3-4 | 8周 | 深度学习核心 + 论文 |
| Month 5-6 | 8周 | LLM + 项目 + 面试 |
Month 1-2: 数学基础 + 机器学习
Week 1-2: 线性代数
目标:掌握DL所需的核心数学工具
每日任务:
- Day 1-3: 向量空间、矩阵运算、线性变换
- Day 4-5: 特征值、特征向量、SVD
- Day 6-7: 范数、矩阵微分、矩阵分解
验收标准:
- [ ] 能手推PCA完整流程
- [ ] 能解释SVD的几何意义
- [ ] 能进行矩阵微分运算
必做练习:
python
# 1. 用NumPy实现矩阵运算
# 2. 实现SVD并应用于图像压缩
# 3. 手推softmax梯度Week 3-4: 概率统计 + 信息论
目标:理解概率视角下的机器学习
每日任务:
- Day 1-2: 概率分布、期望、方差
- Day 3-4: 条件概率、贝叶斯公式、最大似然估计
- Day 5-6: KL散度、交叉熵、信息熵
- Day 7: 整合学习 + 小测
验收标准:
- [ ] 能从伯努利分布推导sigmoid
- [ ] 能解释MLE与交叉熵的关系
- [ ] 能计算KL散度
面试高频:
- MLE vs MAP对比
- 常见分布及其共轭
- 交叉熵与KL散度的关系
Week 5-6: 优化方法
目标:掌握训练背后的优化理论
每日任务:
- Day 1-2: 梯度下降、SGD、Momentum
- Day 3-4: Adam、RMSprop、Adagrad
- Day 5-6: 学习率调度、梯度裁剪
- Day 7: 从零实现优化器
验收标准:
- [ ] 能解释Momentum的物理意义
- [ ] 能解释Adam的bias correction
- [ ] 能对比各种优化器的优劣
Week 7-8: 机器学习核心
目标:掌握经典ML算法原理和实现
每日任务:
- Day 1-2: 线性回归、逻辑回归(手推+sklearn)
- Day 3-4: 决策树、随机森林、XGBoost
- Day 5-6: SVM、KMeans、PCA
- Day 7-8: 整合 + sklearn实战
验收标准:
- [ ] 能从零实现逻辑回归
- [ ] 能解释XGBoost的 boosting 原理
- [ ] 能手推KMeans和PCA
必须掌握的sklearn API:
python
from sklearn.linear_model import LogisticRegression
from sklearn.tree import DecisionTreeClassifier
from sklearn.ensemble import RandomForestClassifier, GradientBoostingClassifier
from sklearn.svm import SVC
from sklearn.cluster import KMeans
from sklearn.decomposition import PCA
from sklearn.model_selection import train_test_split, cross_val_scoreMonth 3-4: 深度学习核心 + 论文
Week 9-10: 神经网络基础
目标:理解BP反向传播和训练流程
每日任务:
- Day 1-2: 神经网络结构、激活函数
- Day 3-4: BP反向传播(手推)
- Day 5-6: 初始化策略(Xavier/He/Kaiming)
- Day 7-8: 正则化(Dropout/L1/L2/BatchNorm)
验收标准:
- [ ] 能从零手推BP算法
- [ ] 能解释BatchNorm的训练/推理差异
- [ ] 能解释Dropout为什么能防止过拟合
必读论文:
- Batch Normalization (Ioffe & Szegedy, 2015)
- Dropout (Srivastava et al., 2014)
Week 11-12: CNN + RNN
目标:掌握两大经典架构
CNN部分:
- Day 1-2: 卷积、池化、LeNet/AlexNet/VGG
- Day 3-4: ResNet(残差连接)、DenseNet
- Day 5: EfficientNet、MobileNet
RNN部分:
- Day 6: Vanilla RNN、梯度消失/爆炸
- Day 7-8: LSTM、GRU、seq2seq
验收标准:
- [ ] 能解释卷积操作原理
- [ ] 能解释ResNet残差连接的作用
- [ ] 能解释LSTM门机制的设计
Week 13-14: Transformer
目标:掌握Transformer核心
每日任务:
- Day 1-2: Self-Attention、Multi-Head Attention
- Day 3-4: 位置编码(Sinusoidal/RoPE/ALiBi)
- Day 5-6: Encoder-Decoder、Layer Norm
- Day 7-8: Flash Attention、GPT-2/T5架构
验收标准:
- [ ] 能从零实现Multi-Head Attention
- [ ] 能解释Pre-LN vs Post-LN
- [ ] 能解释RoPE的设计动机
必读论文:
- Attention Is All You Need (Vaswani et al., 2017) ⭐⭐⭐
- Layer Normalization (Ba et al., 2016)
- RoPE (Su et al., 2022)
Week 15-16: 进阶主题
目标:了解前沿技术方向
每日任务:
- Day 1-2: ViT、DeiT、Swin Transformer
- Day 3-4: Diffusion Model(DDPM/DDIM)
- Day 5-6: MoE、EVA-CLIP、CLIP
- Day 7-8: LoRA、RLHF、DPO
验收标准:
- [ ] 能解释ViT与CNN的差异
- [ ] 能解释Diffusion的forward/backward过程
- [ ] 能解释LoRA的高效微调原理
Month 5-6: LLM + 项目 + 面试
Week 17-18: HuggingFace生态
目标:掌握LLM开发工具链
每日任务:
- Day 1-2: Transformers库、模型加载、生成策略
- Day 3-4: PEFT(LoRA/QLoRA/Alpaca)
- Day 5-6: DeepSpeed、Accelerate
- Day 7-8: 分布式训练实战
Week 19-20: RAG系统
目标:独立开发RAG系统
每日任务:
- Day 1-2: 文档加载、文本切分
- Day 3-4: 向量数据库、混合检索
- Day 5-6: 重排序、RAG评估
- Day 7-8: 完整RAG项目
Week 21-22: Agent开发
目标:掌握Agent开发范式
每日任务:
- Day 1-2: ReAct/CoT、LangChain
- Day 3-4: LangGraph、状态机
- Day 5-6: MCP协议、Function Calling
- Day 7-8: 多Agent协作
Week 23-24: 项目 + 简历 + 面试
项目开发(选2个):
- RAG知识库问答系统
- MCP智能Agent助手
- 多模态文档理解
- LLM微调实践
简历准备:
- STAR法则描述项目
- 量化成果
- 准备高频面试题
面试冲刺:
- 每天刷3道算法题
- 每天复习2道系统设计
- 模拟面试
6个月 vs 3个月对比
| 方面 | 3个月速通 | 6个月就业 |
|---|---|---|
| 数学基础 | 压缩过 | 系统学 |
| 机器学习 | 跳过 | 完整学 |
| 论文深度 | 读摘要 | 读全文+复现 |
| 项目数量 | 2个 | 3-4个 |
| 竞赛/开源 | 无 | 有加分 |
| 薪资起点 | 20-30K | 25-40K |
| 目标公司 | 中小厂 | 大厂/明星Startup |
每日时间分配(参考)
4小时/天 = 1.5小时学习 + 2小时代码 + 0.5小时复习
工作日:
20:00-21:30 学习新知识
21:30-23:00 代码实践
23:00-23:30 整理笔记
周末:
09:00-12:00 深度学习(论文/项目)
14:00-17:00 代码实践
19:00-21:00 复习+做题