您现在的位置是:首页 >其他 >机器学习 /深度学习 学习路线总结网站首页其他
机器学习 /深度学习 学习路线总结
阶段一:基础铺垫(1-2个月)
1. 机器学习基础
学习内容:
监督学习/无监督学习基础概念
神经网络基本原理(前向传播、反向传播)
PyTorch/TensorFlow框架基础
推荐资源:
书籍:《机器学习实战》(Peter Harrington)第1-5章
视频:吴恩达《机器学习》课程
实践:PyTorch官方教程
2. 深度学习进阶
学习内容:
RNN/LSTM/CNN结构
注意力机制(Attention Mechanism)
自然语言处理(NLP)基础任务(如文本分类、序列标注)
推荐资源:
书籍:《深度学习入门》(斋藤康毅)第4-6章
视频:李沐《动手学深度学习》
阶段二:大模型核心原理(2-3个月)
1. Transformer架构
学习内容:
Self-Attention机制与位置编码
Encoder-Decoder结构
预训练任务(MLM、NSP)
推荐资源:
论文:《Attention is All You Need》
代码实践:Transformer代码逐行解读
视频:李宏毅Transformer详解
2. 大模型关键技术
学习内容:
模型并行与数据并行
混合精度训练(FP16/FP32)
参数高效微调(LoRA、Adapter)
推荐资源:
论文:《BERT: Pre-training of Deep Bidirectional Transformers》
工具库:Hugging Face Transformers文档
阶段三:大模型部署与应用(1-2个月)
1. 模型推理与优化
学习内容:
模型量化(Quantization)
模型剪枝(Pruning)
ONNX/TensorRT部署
推荐资源:
实践:Hugging Face模型导出指南
工具:NVIDIA TensorRT官方文档
2. 分布式训练框架
学习内容:
DeepSpeed/Megatron-LM框架
ZeRO优化技术
推荐资源:
教程:DeepSpeed官方教程
案例:GPT-3训练优化实践
阶段四:大模型精调与领域适配(1-2个月)
1. 指令精调(Instruction Tuning)
学习内容:
指令数据构造(如Alpaca格式)
全参数微调 vs 部分参数微调
推荐资源:
代码库:Alpaca-LoRA
论文:《FLAN-T5: Scaling Instruction-Finetuned Language Models》
2. 领域适配实践
学习内容:
领域数据收集与清洗
领域知识注入(如医学/法律垂直领域)
推荐资源:
工具:LangChain框架
案例:ChatDoctor医疗领域微调
持续学习与实践
跟进前沿技术
订阅论文平台:arXiv、Papers With Code
关注开源社区:Hugging Face、GitHub Trending
项目实战
入门级:复现经典模型(如BERT/GPT-2)
进阶级:训练垂直领域小模型(如法律问答机器人)
关键学习原则
理论+代码结合:每学完一个概念,用代码实现(如手写Self-Attention)。
从小规模开始:先用T5-small/BERT-base等小模型练手,再过渡到LLaMA-7B等大模型。
善用开源工具:Hugging Face生态(Transformers+Datasets+Accelerate)可覆盖90%需求。