您现在的位置是:首页 >其他 >机器学习 /深度学习 学习路线总结网站首页其他

机器学习 /深度学习 学习路线总结

树成奥特曼 2025-04-03 00:01:01
简介机器学习 /深度学习 学习路线总结

阶段一:基础铺垫(1-2个月)
1. 机器学习基础
学习内容:

监督学习/无监督学习基础概念

神经网络基本原理(前向传播、反向传播)

PyTorch/TensorFlow框架基础

推荐资源:

书籍:《机器学习实战》(Peter Harrington)第1-5章

视频:吴恩达《机器学习》课程

实践:PyTorch官方教程

2. 深度学习进阶
学习内容:

RNN/LSTM/CNN结构

注意力机制(Attention Mechanism)

自然语言处理(NLP)基础任务(如文本分类、序列标注)

推荐资源:

书籍:《深度学习入门》(斋藤康毅)第4-6章

视频:李沐《动手学深度学习》

阶段二:大模型核心原理(2-3个月)
1. Transformer架构
学习内容:

Self-Attention机制与位置编码

Encoder-Decoder结构

预训练任务(MLM、NSP)

推荐资源:

论文:《Attention is All You Need》

代码实践:Transformer代码逐行解读

视频:李宏毅Transformer详解

2. 大模型关键技术
学习内容:

模型并行与数据并行

混合精度训练(FP16/FP32)

参数高效微调(LoRA、Adapter)

推荐资源:

论文:《BERT: Pre-training of Deep Bidirectional Transformers》

工具库:Hugging Face Transformers文档

阶段三:大模型部署与应用(1-2个月)
1. 模型推理与优化
学习内容:

模型量化(Quantization)

模型剪枝(Pruning)

ONNX/TensorRT部署

推荐资源:

实践:Hugging Face模型导出指南

工具:NVIDIA TensorRT官方文档

2. 分布式训练框架
学习内容:

DeepSpeed/Megatron-LM框架

ZeRO优化技术

推荐资源:

教程:DeepSpeed官方教程

案例:GPT-3训练优化实践

阶段四:大模型精调与领域适配(1-2个月)
1. 指令精调(Instruction Tuning)
学习内容:

指令数据构造(如Alpaca格式)

全参数微调 vs 部分参数微调

推荐资源:

代码库:Alpaca-LoRA

论文:《FLAN-T5: Scaling Instruction-Finetuned Language Models》

2. 领域适配实践
学习内容:

领域数据收集与清洗

领域知识注入(如医学/法律垂直领域)

推荐资源:

工具:LangChain框架

案例:ChatDoctor医疗领域微调

持续学习与实践
跟进前沿技术

订阅论文平台:arXiv、Papers With Code

关注开源社区:Hugging Face、GitHub Trending

项目实战

入门级:复现经典模型(如BERT/GPT-2)

进阶级:训练垂直领域小模型(如法律问答机器人)

关键学习原则
理论+代码结合:每学完一个概念,用代码实现(如手写Self-Attention)。

从小规模开始:先用T5-small/BERT-base等小模型练手,再过渡到LLaMA-7B等大模型。

善用开源工具:Hugging Face生态(Transformers+Datasets+Accelerate)可覆盖90%需求。

风语者!平时喜欢研究各种技术,目前在从事后端开发工作,热爱生活、热爱工作。