type
Post
status
Published
date
Nov 2, 2025
slug
LLM-knowledge
summary
保研结束开始系统学习大模型的知识
tags
推荐
技术
category
技术分享
icon
password
comment
Show
💡
2025.11.2
由于在大学期间压根没想过做AI相关的内容,结果就是一毛都没学,东一块西一块地学,一点都不系统,所以今天开个教程,系统学习一下,我将会从最基础开始进行记录。经历了保研期间被老师拷打的知识以及面试多家大厂和中厂算法岗,大概知道要学什么东西,如果缺少什么内容欢迎补充
 

AI Agent 算法工程师学习路线图(研究型)

目标岗位:AI Agent 算法工程师(研究/创新型)
学习时长:9 周(全职投入)
最终产出:1-2 个算法创新型项目 + 1 篇高质量论文/高星开源项目

一、你能获得什么

系统学习:从经典论文到前沿算法,构建坚实的理论体系
每周代码实战:手撕核心算法,将理论转化为代码
2个创新项目:完成从问题定义、算法设计到实验分析、论文撰写的完整科研流程
独享学习路径:专为算法研究岗定制,区别于应用开发岗
顶级面试能力:掌握算法岗面试核心,从容应对深度追问
科研产出能力:完成具备顶会投稿/高星开源水平的创新项目

二、算法岗核心要求

你需要具备的能力

理论深度 - 能徒手推导核心算法 - 精通背后数学原理 - 掌握领域前沿论文 - 能设计创新性算法
实验能力 - 设计严谨的对比实验 - 设计全面的消融实验 - 选择有说服力的 Baseline - 科学分析与验证指标提升
产出能力 - 撰写高质量学术论文 - 开源高影响力代码 - 撰写专业技术报告 - 为顶级算法库贡献代码

算法岗简历必备

至少1篇高质量论文:顶会/顶刊在投或已发表
至少1个高星开源项目:300+ Stars 且有持续维护
2-3个算法深度优化项目:有严谨的实验数据支撑
扎实的理论基础:能从第一性原理层面回答深度问题

三、推荐学习资源与工具

📚 核心课程与书籍

📝 必读论文

🛠️ 研究工具与框架

🌐 学习社区与资源

🎨 可视化学习资源(强烈推荐!)

  • 100+ LLM/RL 算法原理图 ⭐ 算法岗必看!
    • 作者:《大模型算法:强化学习、微调与对齐》作者余昌叶
    • 内容:100+张原创算法原理图,涵盖Transformer、注意力机制、SFT、LoRA/QLoRA、DPO/PPO/GRPO、RLHF、推理优化等
    • 价值:通过可视化图解深入理解算法的数学推导和实现细节,让复杂算法一目了然
    • 书籍:《大模型算法:强化学习、微调与对齐》

四、详细学习计划

第 1 周:大模型必备基础 + 手撕Transformer

基础速通:
  • Python 核心语法、NumPy/Pandas 基础
  • 神经网络核心概念:前向传播、反向传播、损失函数
  • PyTorch 框架速通:Tensor 操作、自动求导、模型搭建
Transformer架构:
  • Transformer 架构详解:Encoder、Decoder 结构、Self-Attention 机制、Multi-Head Attention
  • 核心组件剖析:Attention、Positional Encoding、Layer Normalization、残差连接、FFN
  • MOE架构初探:专家网络、门控网络、Top-K激活
手撕系列:
  • PyTorch 手撕神经网络训练
  • EXCEL实现Transformer矩阵计算
  • 手撕 Multi-Head Attention
  • 手撕 Transformer 关键模块
解锁技能:
  • 熟练运用 Python 和 PyTorch 进行开发
  • 精通 Transformer 模型的核心架构与组件
  • 具备手撕关键模块的能力
  • 完全理解Bert、T5、GPT架构的工作原理
🌟 每日学习计划
天数
学习主题
资源链接
目标
1
Python & PyTorch 基础
掌握 Python 基础语法、PyTorch 张量操作与训练循环
2
手撕神经网络训练
从零实现一个简单的前馈神经网络,理解反向传播
3
Transformer 宏观理解
掌握 Encoder/Decoder 结构、Multi-Head Attention
4
Transformer 矩阵计算
逐个公式推导 Q/K/V 计算流程
5
手撕 Multi-Head Attention
纯 PyTorch 实现 Multi-Head Attention 和 FFN
6
手撕 Transformer 关键模块
组合已实现模块,完成一个完整的 Transformer Block
7
MOE 架构与模型家族
理解 MOE 架构,并梳理 Bert、T5、GPT 架构的差异

第 2 周:Agent 核心理论 + ReAct 框架

Agent 核心概念:
  • 什么是 AI Agent?
  • Agent 的核心组件:Planning、Memory、Tool Use
  • Agent vs. LLM vs. RAG 的本质区别
ReAct 框架:
  • ReAct 核心思想:Reasoning + Acting 交替进行
必读论文:
  • ReAct (必读!): Agent 的 “Hello World” 论文: arXiv.orgarXiv.orgReAct: Synergizing Reasoning and Acting in Language Models
手撕与学习任务:
  • 阅读 ReAct 论文,手绘算法流程图
  • 基于 LangChain 或 LlamaIndex 复现一个基础的 ReAct Agent
面试准备:
  • Q: 请解释 ReAct 框架的工作原理。
  • Q: ReAct 和传统的 Chain-of-Thought 有什么区别?
解锁技能:
  • 深刻理解 Agent 的基本工作范式
  • 掌握 ReAct 框架的算法原理
🌟 每日学习计划

第 3 周:高级 Agent 架构:规划、反思与搜索

高级 Agent 架构:
  • Reflexion:自我反思机制
  • Tree of Thoughts:树状思维搜索
  • Self-Consistency:一致性采样
妙笔生花:AI赋能汉字意象化教学KFC全家桶
Loading...
Samuel Hu
Samuel Hu
沪上985软工在读 喜欢写代码 爱折腾的混子
小红书
统计
文章数:
24
公告

你好呀!👋

🎓 同济大四 + 浙大研0
🔍 我的研究聚焦在 AISE(AI for Software Engineering) 领域✨
🤖 具体方向有两个特别让我着迷的:
  • Code Reasoning 🧠💻
  • Code Generation ✨📝
💡 我相信AI与软件工程的结合会改变未来的开发方式,很开心能在这个交叉领域学习成长~
👥 欢迎大家多多交流!💬