Skip to content

6个月就业版(每天4小时)

适用于:稳妥准备、兼顾工作/学业、目标进入AI行业 前提:有一定的编程基础 目标:达到AI算法/LLM应用工程师就业水平


总览

阶段时长核心目标
Month 1-28周数学基础 + 机器学习
Month 3-48周深度学习核心 + 论文
Month 5-68周LLM + 项目 + 面试

Month 1-2: 数学基础 + 机器学习

Week 1-2: 线性代数

目标:掌握DL所需的核心数学工具

每日任务

  • Day 1-3: 向量空间、矩阵运算、线性变换
  • Day 4-5: 特征值、特征向量、SVD
  • Day 6-7: 范数、矩阵微分、矩阵分解

验收标准

  • [ ] 能手推PCA完整流程
  • [ ] 能解释SVD的几何意义
  • [ ] 能进行矩阵微分运算

必做练习

python
# 1. 用NumPy实现矩阵运算
# 2. 实现SVD并应用于图像压缩
# 3. 手推softmax梯度

Week 3-4: 概率统计 + 信息论

目标:理解概率视角下的机器学习

每日任务

  • Day 1-2: 概率分布、期望、方差
  • Day 3-4: 条件概率、贝叶斯公式、最大似然估计
  • Day 5-6: KL散度、交叉熵、信息熵
  • Day 7: 整合学习 + 小测

验收标准

  • [ ] 能从伯努利分布推导sigmoid
  • [ ] 能解释MLE与交叉熵的关系
  • [ ] 能计算KL散度

面试高频

  • MLE vs MAP对比
  • 常见分布及其共轭
  • 交叉熵与KL散度的关系

Week 5-6: 优化方法

目标:掌握训练背后的优化理论

每日任务

  • Day 1-2: 梯度下降、SGD、Momentum
  • Day 3-4: Adam、RMSprop、Adagrad
  • Day 5-6: 学习率调度、梯度裁剪
  • Day 7: 从零实现优化器

验收标准

  • [ ] 能解释Momentum的物理意义
  • [ ] 能解释Adam的bias correction
  • [ ] 能对比各种优化器的优劣

Week 7-8: 机器学习核心

目标:掌握经典ML算法原理和实现

每日任务

  • Day 1-2: 线性回归、逻辑回归(手推+sklearn)
  • Day 3-4: 决策树、随机森林、XGBoost
  • Day 5-6: SVM、KMeans、PCA
  • Day 7-8: 整合 + sklearn实战

验收标准

  • [ ] 能从零实现逻辑回归
  • [ ] 能解释XGBoost的 boosting 原理
  • [ ] 能手推KMeans和PCA

必须掌握的sklearn API

python
from sklearn.linear_model import LogisticRegression
from sklearn.tree import DecisionTreeClassifier
from sklearn.ensemble import RandomForestClassifier, GradientBoostingClassifier
from sklearn.svm import SVC
from sklearn.cluster import KMeans
from sklearn.decomposition import PCA
from sklearn.model_selection import train_test_split, cross_val_score

Month 3-4: 深度学习核心 + 论文

Week 9-10: 神经网络基础

目标:理解BP反向传播和训练流程

每日任务

  • Day 1-2: 神经网络结构、激活函数
  • Day 3-4: BP反向传播(手推)
  • Day 5-6: 初始化策略(Xavier/He/Kaiming)
  • Day 7-8: 正则化(Dropout/L1/L2/BatchNorm)

验收标准

  • [ ] 能从零手推BP算法
  • [ ] 能解释BatchNorm的训练/推理差异
  • [ ] 能解释Dropout为什么能防止过拟合

必读论文

  • Batch Normalization (Ioffe & Szegedy, 2015)
  • Dropout (Srivastava et al., 2014)

Week 11-12: CNN + RNN

目标:掌握两大经典架构

CNN部分

  • Day 1-2: 卷积、池化、LeNet/AlexNet/VGG
  • Day 3-4: ResNet(残差连接)、DenseNet
  • Day 5: EfficientNet、MobileNet

RNN部分

  • Day 6: Vanilla RNN、梯度消失/爆炸
  • Day 7-8: LSTM、GRU、seq2seq

验收标准

  • [ ] 能解释卷积操作原理
  • [ ] 能解释ResNet残差连接的作用
  • [ ] 能解释LSTM门机制的设计

Week 13-14: Transformer

目标:掌握Transformer核心

每日任务

  • Day 1-2: Self-Attention、Multi-Head Attention
  • Day 3-4: 位置编码(Sinusoidal/RoPE/ALiBi)
  • Day 5-6: Encoder-Decoder、Layer Norm
  • Day 7-8: Flash Attention、GPT-2/T5架构

验收标准

  • [ ] 能从零实现Multi-Head Attention
  • [ ] 能解释Pre-LN vs Post-LN
  • [ ] 能解释RoPE的设计动机

必读论文

  • Attention Is All You Need (Vaswani et al., 2017) ⭐⭐⭐
  • Layer Normalization (Ba et al., 2016)
  • RoPE (Su et al., 2022)

Week 15-16: 进阶主题

目标:了解前沿技术方向

每日任务

  • Day 1-2: ViT、DeiT、Swin Transformer
  • Day 3-4: Diffusion Model(DDPM/DDIM)
  • Day 5-6: MoE、EVA-CLIP、CLIP
  • Day 7-8: LoRA、RLHF、DPO

验收标准

  • [ ] 能解释ViT与CNN的差异
  • [ ] 能解释Diffusion的forward/backward过程
  • [ ] 能解释LoRA的高效微调原理

Month 5-6: LLM + 项目 + 面试

Week 17-18: HuggingFace生态

目标:掌握LLM开发工具链

每日任务

  • Day 1-2: Transformers库、模型加载、生成策略
  • Day 3-4: PEFT(LoRA/QLoRA/Alpaca)
  • Day 5-6: DeepSpeed、Accelerate
  • Day 7-8: 分布式训练实战

Week 19-20: RAG系统

目标:独立开发RAG系统

每日任务

  • Day 1-2: 文档加载、文本切分
  • Day 3-4: 向量数据库、混合检索
  • Day 5-6: 重排序、RAG评估
  • Day 7-8: 完整RAG项目

Week 21-22: Agent开发

目标:掌握Agent开发范式

每日任务

  • Day 1-2: ReAct/CoT、LangChain
  • Day 3-4: LangGraph、状态机
  • Day 5-6: MCP协议、Function Calling
  • Day 7-8: 多Agent协作

Week 23-24: 项目 + 简历 + 面试

项目开发(选2个)

  1. RAG知识库问答系统
  2. MCP智能Agent助手
  3. 多模态文档理解
  4. LLM微调实践

简历准备

  • STAR法则描述项目
  • 量化成果
  • 准备高频面试题

面试冲刺

  • 每天刷3道算法题
  • 每天复习2道系统设计
  • 模拟面试

6个月 vs 3个月对比

方面3个月速通6个月就业
数学基础压缩过系统学
机器学习跳过完整学
论文深度读摘要读全文+复现
项目数量2个3-4个
竞赛/开源有加分
薪资起点20-30K25-40K
目标公司中小厂大厂/明星Startup

每日时间分配(参考)

4小时/天 = 1.5小时学习 + 2小时代码 + 0.5小时复习

工作日:
  20:00-21:30  学习新知识
  21:30-23:00  代码实践
  23:00-23:30  整理笔记

周末:
  09:00-12:00  深度学习(论文/项目)
  14:00-17:00  代码实践
  19:00-21:00  复习+做题