type
Post
status
Published
date
Nov 2, 2025
slug
LLM-knowledge
summary
保研结束开始系统学习大模型的知识
tags
推荐
技术
category
技术分享
icon
password
comment
Show
2025.11.2
由于在大学期间压根没想过做AI相关的内容,结果就是一毛都没学,东一块西一块地学,一点都不系统,所以今天开个教程,系统学习一下,我将会从最基础开始进行记录。经历了保研期间被老师拷打的知识以及面试多家大厂和中厂算法岗,大概知道要学什么东西,如果缺少什么内容欢迎补充
AI Agent 算法工程师学习路线图(研究型)一、你能获得什么二、算法岗核心要求你需要具备的能力算法岗简历必备三、推荐学习资源与工具📚 核心课程与书籍📝 必读论文🛠️ 研究工具与框架🌐 学习社区与资源🎨 可视化学习资源(强烈推荐!)四、详细学习计划第 1 周:大模型必备基础 + 手撕Transformer第 2 周:Agent 核心理论 + ReAct 框架第 3 周:高级 Agent 架构:规划、反思与搜索
AI Agent 算法工程师学习路线图(研究型)
目标岗位:AI Agent 算法工程师(研究/创新型)学习时长:9 周(全职投入)最终产出:1-2 个算法创新型项目 + 1 篇高质量论文/高星开源项目
一、你能获得什么
✅ 系统学习:从经典论文到前沿算法,构建坚实的理论体系
✅ 每周代码实战:手撕核心算法,将理论转化为代码
✅ 2个创新项目:完成从问题定义、算法设计到实验分析、论文撰写的完整科研流程
✅ 独享学习路径:专为算法研究岗定制,区别于应用开发岗
✅ 顶级面试能力:掌握算法岗面试核心,从容应对深度追问
✅ 科研产出能力:完成具备顶会投稿/高星开源水平的创新项目
二、算法岗核心要求
你需要具备的能力
理论深度
- 能徒手推导核心算法
- 精通背后数学原理
- 掌握领域前沿论文
- 能设计创新性算法 | 实验能力
- 设计严谨的对比实验
- 设计全面的消融实验
- 选择有说服力的 Baseline
- 科学分析与验证指标提升 | 产出能力
- 撰写高质量学术论文
- 开源高影响力代码
- 撰写专业技术报告
- 为顶级算法库贡献代码 |
算法岗简历必备
✅ 至少1篇高质量论文:顶会/顶刊在投或已发表
✅ 至少1个高星开源项目:300+ Stars 且有持续维护
✅ 2-3个算法深度优化项目:有严谨的实验数据支撑
✅ 扎实的理论基础:能从第一性原理层面回答深度问题
三、推荐学习资源与工具
📚 核心课程与书籍
- 课程: 《动手学深度学习》 - 深度学习基础的最佳入门
- 课程: 清华大模型公开课第二季 - 系统了解大模型历史与前沿
- 课程: Stanford CS224N: NLP with Deep Learning - NLP经典课程
- 书籍: 《大语言模型》 - 大模型最佳中文书籍
- 书籍: 《Build a Large Language Model (From Scratch)》 - 从零构建大模型
- 教程: 《动手学大模型Dive into LLMs》 - 上海交大编程实践教程(含PPT、视频)
- 教程: 《面向开发者的 LLM 入门教程》 - 吴恩达课程中文版
- 教程: 《从零开始的大语言模型原理与实践》 - Datawhale系统教程
📝 必读论文
- 基础: “Attention Is All You Need” - Transformer开山之作
- Agent: ReAct, Reflexion, Tree of Thoughts
- RL: DPO, GRPO, DeepSeek-R1
🛠️ 研究工具与框架
- 训练框架: LLaMA-Factory, TRL, OpenRLHF
- 微调教程: 大模型微调系列 - 从基础到实战的完整指南
- 评估工具: lm-evaluation-harness, OpenCompass, RAGAs
- Agent框架: LangChain, AutoGen, AgentScope
🌐 学习社区与资源
🎨 可视化学习资源(强烈推荐!)
- 100+ LLM/RL 算法原理图 ⭐ 算法岗必看!
- 作者:《大模型算法:强化学习、微调与对齐》作者余昌叶
- 内容:100+张原创算法原理图,涵盖Transformer、注意力机制、SFT、LoRA/QLoRA、DPO/PPO/GRPO、RLHF、推理优化等
- 价值:通过可视化图解深入理解算法的数学推导和实现细节,让复杂算法一目了然
- 书籍:《大模型算法:强化学习、微调与对齐》
四、详细学习计划
第 1 周:大模型必备基础 + 手撕Transformer
基础速通:
- Python 核心语法、NumPy/Pandas 基础
- 神经网络核心概念:前向传播、反向传播、损失函数
- PyTorch 框架速通:Tensor 操作、自动求导、模型搭建
Transformer架构:
- Transformer 架构详解:Encoder、Decoder 结构、Self-Attention 机制、Multi-Head Attention
- 核心组件剖析:Attention、Positional Encoding、Layer Normalization、残差连接、FFN
- MOE架构初探:专家网络、门控网络、Top-K激活
手撕系列:
- PyTorch 手撕神经网络训练
- EXCEL实现Transformer矩阵计算
- 手撕 Multi-Head Attention
- 手撕 Transformer 关键模块
解锁技能:
- 熟练运用 Python 和 PyTorch 进行开发
- 精通 Transformer 模型的核心架构与组件
- 具备手撕关键模块的能力
- 完全理解Bert、T5、GPT架构的工作原理
🌟 每日学习计划
天数 | 学习主题 | 资源链接 | 目标 |
1 | Python & PyTorch 基础 | 掌握 Python 基础语法、PyTorch 张量操作与训练循环 | |
2 | 手撕神经网络训练 | 从零实现一个简单的前馈神经网络,理解反向传播 | |
3 | Transformer 宏观理解 | 掌握 Encoder/Decoder 结构、Multi-Head Attention | |
4 | Transformer 矩阵计算 | 逐个公式推导 Q/K/V 计算流程 | |
5 | 手撕 Multi-Head Attention | 纯 PyTorch 实现 Multi-Head Attention 和 FFN | |
6 | 手撕 Transformer 关键模块 | 组合已实现模块,完成一个完整的 Transformer Block | |
7 | MOE 架构与模型家族 | 理解 MOE 架构,并梳理 Bert、T5、GPT 架构的差异 |
第 2 周:Agent 核心理论 + ReAct 框架
Agent 核心概念:
- 什么是 AI Agent?
- Agent 的核心组件:Planning、Memory、Tool Use
- Agent vs. LLM vs. RAG 的本质区别
ReAct 框架:
- ReAct 核心思想:Reasoning + Acting 交替进行
必读论文:
- ReAct (必读!): Agent 的 “Hello World” 论文:
arXiv.orgReAct: Synergizing Reasoning and Acting in Language Models
ReAct: Synergizing Reasoning and Acting in Language Models
While large language models (LLMs) have demonstrated impressive capabilities across tasks in language understanding and interactive decision making, their abilities for reasoning (e.g....
手撕与学习任务:
- 阅读 ReAct 论文,手绘算法流程图
- 基于 LangChain 或 LlamaIndex 复现一个基础的 ReAct Agent
面试准备:
- Q: 请解释 ReAct 框架的工作原理。
- Q: ReAct 和传统的 Chain-of-Thought 有什么区别?
解锁技能:
- 深刻理解 Agent 的基本工作范式
- 掌握 ReAct 框架的算法原理
🌟 每日学习计划
第 3 周:高级 Agent 架构:规划、反思与搜索
高级 Agent 架构:
- Reflexion:自我反思机制
- Tree of Thoughts:树状思维搜索
- Self-Consistency:一致性采样
- 作者:Samuel Hu
- 链接:http://hjw-aihub.cn/article/LLM-knowledge
- 声明:本文采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。








