从零到改进 AI 开源模型

基于你当前起点设计的渐进式学习路径

起点:终端 + VS Code + Git 基础 总周期:18-24 个月 每日投入:2-3 小时

核心设计原则

这个计划的底层逻辑是「用项目驱动学习,而不是学完再做」。每个阶段都有一个必须交付的项目,所有知识点围绕这个项目展开。你的优势是商业判断力和分析框架能力,这决定了你不需要成为一个全栈工程师——你需要成为一个能看懂代码、能改代码、能指挥 AI 写代码的技术决策者

路径分两条主线:App 开发线(阶段 1→2→3)训练你的工程能力,AI 线(阶段 2→4→5)训练你的模型理解力。两条线在阶段 2 交汇——Python 是共同的基础。

阶段 1 编程思维建立 月 1-3

目标不是学语法,而是建立「分解问题 → 用代码表达解决方案」的思维方式。选 Python 作为第一语言,因为它同时通往 App 开发和 AI 两条路。

1.1 Python 基础 + 编程思维
核心内容
  • 变量、数据类型、条件判断、循环 — 不要死记语法,理解「数据 + 逻辑 = 程序」
  • 函数 — 理解封装和复用,这是编程最核心的抽象能力
  • 数据结构:列表、字典、集合 — 对应你分析投资时的「表格思维」
  • 文件读写 — 能用 Python 处理 CSV、JSON 数据
学习资源
  • CS50P(哈佛 Python 入门课,免费,YouTube 有全套)— 最推荐
  • 《Automate the Boring Stuff with Python》— 免费在线,实用导向
  • 每天用 Claude 做 pair programming,写一个小脚本解决实际问题
实践项目
  • 写一个自动抓取股票数据并生成分析报告的脚本
  • 把你 Obsidian 里的 Markdown 文章批量处理(重命名、提取标签、统计字数)
1.2 Git 深入 + 命令行进阶
核心内容
  • Git 分支、合并、冲突解决 — 你已经会 add/commit/push,现在理解分支工作流
  • 终端进阶:管道、重定向、环境变量、PATH 配置
  • SSH 基础 — 以后连接服务器、配置部署都要用
1.3 Web 基础三件套
核心内容
  • HTML — 结构层,你已经通过 Hugo 间接接触了,现在直接学
  • CSS — 样式层,学 Flexbox 和 Grid 布局,够用就行
  • JavaScript 基础 — 交互层,变量、函数、DOM 操作、事件监听
  • 不需要精通,目标是能看懂前端代码,知道改哪里
学习资源
  • freeCodeCamp 的 Responsive Web Design 课程(免费)
  • The Odin Project — 项目驱动,质量极高
阶段交付物

一个 Python 脚本工具(自动化处理你的投资数据)+ 一个纯手写的个人简介页面(HTML/CSS/JS)发布到 charles001.com

阶段 2 全栈应用开发 月 4-8

这个阶段是两条主线的交汇点。你要学会「前端展示 + 后端逻辑 + 数据库存储」这个完整链路,同时开始接触 AI/ML 的数学基础。

2.1 后端开发:Python FastAPI
核心内容
  • HTTP 协议 — 请求/响应模型,GET/POST/PUT/DELETE,状态码
  • FastAPI 框架 — 写 RESTful API,比 Flask 更现代,自带类型检查
  • 数据库 — PostgreSQL 基础,SQL 查询,ORM(SQLAlchemy)
  • 认证 — JWT token,用户登录注册流程
为什么选 FastAPI 而不是 Django/Flask
  • FastAPI 的设计理念更现代,类型提示让代码更清晰
  • 自动生成 API 文档,方便调试
  • 性能好,异步支持原生,对未来做 AI 服务很有利
2.2 前端框架:React
核心内容
  • React 核心概念 — 组件、Props、State、Hooks
  • 路由(React Router)— 多页面应用
  • 状态管理 — 先用 Context,复杂了再学 Zustand
  • UI 框架 — Tailwind CSS + shadcn/ui,快速出好看的界面
  • Next.js 入门 — React 的全栈框架,SSR/SSG,部署到 Vercel(你已经熟悉了)
学习资源
  • React 官方文档(react.dev)— 2023 年重写的新版非常好
  • Next.js Learn 官方教程 — 边做项目边学
2.3 数学基础(为 AI 阶段铺路)
核心内容
  • 线性代数 — 向量、矩阵运算、矩阵乘法(Transformer 的核心运算)
  • 微积分 — 导数、链式法则、梯度(理解反向传播)
  • 概率统计 — 概率分布、贝叶斯思维、信息论基础
  • 不需要严格证明,需要直觉理解 + 能用 NumPy 验证
学习资源
  • 3Blue1Brown 的《线性代数本质》和《微积分本质》系列(YouTube,有中文字幕)
  • 用 Python + NumPy 手动实现每个概念,比纯看公式有效 10 倍
阶段交付物

一个完整的全栈 Web 应用:投资组合追踪器(React 前端 + FastAPI 后端 + PostgreSQL),部署上线,能用手机访问

阶段 3 移动端 + 大型应用架构 月 9-13

从 Web 应用扩展到移动端,同时学习大型应用需要的工程实践。这个阶段完成后你就具备独立开发一个上架 App 的能力。

3.1 React Native / Flutter(二选一)
选择建议
  • React Native — 如果你阶段 2 的 React 学得顺,直接复用知识,学习成本低
  • Flutter — 如果你想要更好的性能和统一的 UI 表现,但需要学 Dart 新语言
  • 推荐 React Native + Expo,因为你的 React 基础可以直接迁移
核心内容
  • 移动端导航(Stack、Tab、Drawer)
  • 原生功能调用(相机、定位、推送通知)
  • 离线存储 + 数据同步
  • App Store / Google Play 上架流程
3.2 大型应用工程实践
核心内容
  • Docker 容器化 — 把应用打包成可移植的环境
  • CI/CD — GitHub Actions 自动测试和部署(你已经有 Vercel 自动部署的基础)
  • 云服务 — AWS / Vercel / Railway,学会选择和配置
  • 监控和日志 — 应用上线后如何发现和定位问题
  • 性能优化 — 缓存策略、CDN、数据库索引、代码拆分
3.3 系统设计思维
核心内容
  • 微服务 vs 单体 — 什么规模用什么架构
  • 消息队列(Redis/RabbitMQ)— 异步处理,削峰填谷
  • 数据库设计 — 关系型 vs NoSQL,读写分离,分表策略
  • API 设计原则 — RESTful、GraphQL、WebSocket 各自适用场景
学习方式
  • 《System Design Interview》Alex Xu — 用案例讲系统设计
  • 拆解你日常使用的 App(微信、雪球、Obsidian)的技术架构
阶段交付物

一个上架 App Store 的移动应用(建议方向:投资分析工具或内容管理工具),后端 Docker 化部署,有完整的 CI/CD 流程

阶段 4 AI / 深度学习核心 月 10-16(与阶段 3 并行)

从阶段 2 的数学基础出发,进入深度学习领域。目标不是从零写模型,而是深入理解 Transformer 架构,为改进开源模型打基础。

4.1 机器学习基础
核心内容
  • 监督学习 vs 无监督学习 vs 强化学习 — 三大范式的直觉理解
  • 损失函数、梯度下降、过拟合/欠拟合 — 训练的本质
  • 用 scikit-learn 跑经典模型:线性回归、决策树、随机森林
  • 用你的投资数据做实验 — 预测股价走势(体会模型的局限性)
学习资源
  • Andrew Ng 的 Machine Learning Specialization(Coursera)
  • fast.ai Practical Deep Learning — 自顶向下,先跑通再理解
4.2 深度学习 + PyTorch
核心内容
  • 神经网络本质 — 层层嵌套的函数组合 + 自动微分
  • PyTorch 框架 — Tensor 操作、自动求导、Dataset/DataLoader、训练循环
  • CNN 基础 — 理解卷积操作即可,不需要深入
  • RNN → LSTM → Attention → Transformer 的演进逻辑
  • GPU 训练 — Google Colab(免费)或 Lambda Labs
为什么选 PyTorch 而不是 TensorFlow
  • PyTorch 是当前 AI 研究和开源社区的事实标准
  • 几乎所有最新的开源 LLM 都基于 PyTorch
  • 动态图更直觉,调试更方便
4.3 Transformer 架构深度拆解
核心内容
  • Self-Attention 机制 — Q/K/V 矩阵的物理含义,为什么它能捕捉长距离依赖
  • Multi-Head Attention — 为什么多个头比一个头好
  • 位置编码 — 为什么 Transformer 需要它
  • Layer Norm、残差连接 — 训练稳定性的关键
  • 手动用 PyTorch 从零实现一个 mini-Transformer(Andrej Karpathy 的 nanoGPT)
关键资源
  • Andrej Karpathy — "Let's build GPT from scratch"(YouTube,3 小时)
  • nanoGPT 代码仓库 — 逐行阅读和修改
  • 论文 "Attention Is All You Need" — 读原文,对照代码理解
阶段交付物

用 PyTorch 从零实现一个小型 GPT 模型,在你的博客文章数据上训练,能生成类似风格的文本。在 charles001.com 上写一篇深度技术文章拆解 Transformer

阶段 5 开源 LLM 实战与改进 月 17-24

进入最终目标。你不需要从零预训练一个大模型(那需要数百万美元),你的切入点是在开源模型基础上做微调、优化和应用创新。

5.1 开源 LLM 生态
核心内容
  • Hugging Face 生态 — Transformers 库、模型下载、tokenizer、pipeline
  • 主流开源模型架构对比 — LLaMA、Mistral、Qwen、DeepSeek 系列
  • 模型推理优化 — 量化(GPTQ/AWQ/GGUF)、vLLM、TensorRT-LLM
  • 本地部署 — 在你的 Mac mini 上跑开源模型(llama.cpp / Ollama)
5.2 微调技术
核心内容
  • Full Fine-tuning vs Parameter-Efficient(PEFT)— 成本和效果的权衡
  • LoRA / QLoRA — 当前最实用的微调方法,低成本高效果
  • 数据准备 — 高质量训练数据的构造方法(这是你的信息处理能力的用武之地)
  • RLHF / DPO — 对齐技术,让模型输出符合人类偏好
  • 评估方法 — 怎么量化地衡量微调效果
实践方向
  • 用你的投资研究文章微调一个「投资分析助手」
  • 构造高质量的指令数据集(instruction tuning)
  • 在 Lambda Labs 或 RunPod 租 GPU 训练
5.3 改进方向与前沿
你可以贡献的方向
  • RAG(检索增强生成)— 让模型接入外部知识库,减少幻觉
  • Agent 框架改进 — 让模型能调用工具、搜索、执行代码
  • 中文能力优化 — 很多开源模型的中文能力有提升空间
  • 垂直领域微调 — 金融/投资领域的专业模型
  • 推理优化 — 模型压缩、加速推理、降低部署成本
参与开源社区
  • 从小 PR 开始:修复文档、添加测试、修复小 bug
  • 关注 GitHub Issues 中的 "good first issue" 标签
  • 在你的博客上记录每次改进的思路和过程 — 这本身就是贡献
阶段交付物

一个公开的微调模型(发布到 Hugging Face)+ 至少一个被合并的开源项目 PR + 一个结合 AI 能力的完整应用产品