1ce719ffb3
新增文章: - CBTI 程序员人格测试项目实战(Cursor) - AI 开源项目学习网站项目实战(Codex + GPT-5.5) - AI 提肛助手项目实战(Claude Code + DeepSeek V4) - GitHub Copilot Coding Agent 云端自动开发实战 内容更新: - 概念大全:扩充 RAG 进阶方案和 Harness Engineering 核心模块 - AI 编程技术:补充 16 种 RAG 实现方案分层概览和选型建议 - 命令行工具:新增 CC Switch 切换第三方模型章节 - 工具大全:支线新增 Copilot Coding Agent 引用 - 项目实战导读:新增 3 个原创项目提及 - 五大核心心法:引用 Harness Engineering 概念 - 模型选择指南/成本控制:补充小米 MiMo 选项 - 程序员成长大法、作者页面更新 Made-with: Cursor
407 lines
19 KiB
Markdown
407 lines
19 KiB
Markdown
# Codex - AI 开源项目学习网站项目实战
|
||
|
||
本项目是一个 AI 驱动的开源项目学习助手,用户输入 GitHub 仓库地址,系统自动分析源码并生成通俗易懂的分析报告,还支持针对源码的交互式问答。全程使用 Codex + GPT-5.5 开发,后端对接 DeepSeek V4 API。
|
||
|
||
大家好,我是程序员鱼皮。
|
||
|
||
最近 AI 圈儿也太闹腾了,4 月 23 号 OpenAI 发布了 GPT-5.5,紧接着第二天 DeepSeek 就放出了 V4,两个重磅模型前后脚上线。
|
||
|
||

|
||
|
||
光看跑分没什么意思,模型好不好用,还得拿真实项目来检验。
|
||
|
||
正好 OpenAI 的 Codex 桌面端这段时间更新很猛,已经从一个纯 AI 编程工具进化成了支持 Computer Use、插件市场、内置浏览器的「超级 App」。
|
||
|
||
所以这篇文章,我全程用 Codex + GPT-5.5 来开发一个完整的全栈项目,后端对接 DeepSeek V4 的 API 实现 AI 能力。
|
||
|
||
看完这期,你能学会 Codex 的使用方法、感受新模型的实际能力、掌握 AI 编程的实用技巧,可谓一举三得。
|
||
|
||
点个收藏,咱们开始~
|
||
|
||
|
||
|
||
## 需求分析
|
||
|
||
这次要做的项目叫「项目学习助手」(project-helper),核心需求很简单:
|
||
|
||
用户输入一个 GitHub 仓库地址,系统自动克隆项目并分析源码,生成一份通俗易懂的完整分析报告。报告涵盖项目概述、技术栈、目录结构、核心模块、数据流、设计模式、阅读建议等,真正做到「傻子也能懂」。分析过程实时推送进度,已经分析过的项目自动缓存,不用重复分析。
|
||
|
||

|
||
|
||
另外,用户还可以针对源码进行交互式问答,AI 会自主搜索代码、读取文件来回答问题,支持流式输出。
|
||
|
||
这样一来,你可以快速学会任何开源项目,哪怕面对几万行代码的仓库,也完全不虚。
|
||
|
||
|
||
|
||
## 方案设计
|
||
|
||
如果你完全没有任何技术基础,可以让 AI 帮你完成方案设计。
|
||
|
||
但这里为了节省时间和 tokens,我直接告诉 AI 怎么做。
|
||
|
||
项目采用前后端分离架构:
|
||
|
||
- 后端用 Python FastAPI + LangChain + SQLite
|
||
- 前端用 Vue 框架
|
||
- AI 能力对接 DeepSeek V4 的 API
|
||
|
||
AI 分析和 AI 问答能力的实现还是有点小技巧的,如果一个代码仓库有几万行,难道要全部扔给 AI 自己去分析么?
|
||
|
||
我的思路是, 采用 AI 工具调用(Tool Use)的方式,给 AI 提供读取文件、搜索代码、获取仓库结构等工具,剩下的交给 AI 自己判断该看哪些文件、该怎么组织答案。这也是 DeepSeek V4 专门优化过的 Agentic 场景。
|
||
|
||

|
||
|
||
|
||
|
||
## 环境准备
|
||
|
||
### Codex 配置
|
||
|
||
打开 Codex,首先确认模型列表里有 GPT-5.5。如果看不到,大概率是账号的问题,可能需要开通更高级的会员,我这里用的是 Plus 会员。
|
||
|
||

|
||
|
||
可以看到界面上已经有了 GPT-5.5 模型选项,还支持调节智能程度(低 / 中 / 高 / 超高),我选择「高」。
|
||
|
||
左下角进入设置,把工作模式切换为「用于编程」,这样 AI 的回复会更专业、更适合开发场景:
|
||
|
||

|
||
|
||
|
||
|
||
### 安装 AI 扩展
|
||
|
||
Codex 的 AI 扩展主要包括三类:
|
||
|
||
- MCP 服务,用于连接外部工具连接
|
||
- Agent Skills 技能包,让 AI 学会特定的专业技能
|
||
- Plugins 插件,给 AI 增加更多能力
|
||
|
||
官方自带了一些内置的插件和技能,比如 Computer Use、Browser Use、PDF 处理、演示文稿编辑等:
|
||
|
||

|
||
|
||

|
||
|
||
不过这次项目需要的几个扩展,Codex 默认没有,得自己安装。
|
||
|
||
我们需要下面 3 个扩展:
|
||
|
||
1. Firecrawl:联网搜索和网页抓取,让 AI 能获取最新的技术信息
|
||
2. Context7:查询最新的技术文档和 API 用法,减少 AI 瞎编的情况
|
||
3. UI UX Pro Max:前端美化技能,让生成的页面更有设计感
|
||
|
||
你可以在 Codex 设置里手动添加 MCP 服务:
|
||
|
||

|
||
|
||
但是,要手动填写一堆参数,真特么麻烦啊!
|
||
|
||

|
||
|
||
虽然也可以直接编辑 `~/.codex/config.toml` 配置文件来添加 MCP 服务,但还是很麻烦。
|
||
|
||
这点上 Codex 的体验不如 Copilot 和 Cursor 的可视化安装,Copilot 甚至直接把 MCP 集成到了 VSCode 扩展市场里,一键搜索安装就行。
|
||
|
||
好在我们可以换一种方式,用每个 AI 服务提供的命令来快速安装。
|
||
|
||
#### 1、安装 Firecrawl
|
||
|
||
Firecrawl 是一个联网搜索和网页抓取工具,能让 AI 在开发前先搜索最新的技术信息和文档。我们的项目需要它来查询 DeepSeek V4 的最新 API 用法。
|
||
|
||
打开终端,输入下列命令:
|
||
|
||
```bash
|
||
npx -y firecrawl-cli@latest init --all --browser
|
||
```
|
||
|
||

|
||
|
||
执行后,会自动打开浏览器,要在弹出的页面中点击授权:
|
||
|
||

|
||
|
||
安装完成后,会自动注册 12 个相关技能:
|
||
|
||

|
||
|
||
在 Codex 的技能管理中,就能看到新添加的 Firecrawl 相关技能了:
|
||
|
||

|
||
|
||
|
||
|
||
#### 2、安装 Context7
|
||
|
||
Context7 是一个技术文档查询工具,让 AI 能获取到各种框架和库的最新官方文档,避免用过时的 API 写代码。
|
||
|
||
先在终端输入一行命令来安装:
|
||
|
||
```bash
|
||
npx ctx7@latest setup
|
||
```
|
||
|
||
它会问是安装 MCP 服务还是 CLI + Skills,这里我选择 CLI + Skills。你会发现,现在越来越多工具已经从 MCP 转向 CLI + Skills 的方式了:
|
||
|
||

|
||
|
||
同样在弹出的网页中授权,不用自己获取和输入 API Key,太方便了!
|
||
|
||

|
||
|
||
然后选择要给哪个 AI 编程工具安装,我选择为 Codex 安装:
|
||
|
||

|
||
|
||
安装成功:
|
||
|
||

|
||
|
||
在 Codex 中确认已安装的技能:
|
||
|
||

|
||
|
||
当然,你也可以选择安装 MCP Server 的方式:
|
||
|
||

|
||
|
||
安装后,在 Codex 的 MCP 服务器设置里,就能看到 Context7 MCP 了,这不比自己手动填参数方便多了?
|
||
|
||

|
||
|
||
|
||
|
||
#### 3、安装 UI UX Pro Max
|
||
|
||
这是一个前端美化技能包,能让 AI 生成的页面更有设计感,不会有一大堆的 Emoji。
|
||
|
||
输入一行命令:
|
||
|
||
```bash
|
||
uipro init
|
||
```
|
||
|
||
选择为 Codex 安装技能:
|
||
|
||

|
||
|
||
安装成功:
|
||
|
||

|
||
|
||
在 Codex 的技能管理中,能看到新技能:
|
||
|
||

|
||
|
||
至此,环境准备完成!下次开发项目时,就不用再重复准备了~
|
||
|
||
|
||
|
||
## 开发
|
||
|
||
新建一个 `project-helper` 项目文件夹,在 Codex 中打开:
|
||
|
||

|
||
|
||
然后输入提示词。这里分享一下我实际用的提示词,给大家参考:
|
||
|
||
```markdown
|
||
## 角色
|
||
|
||
你是一个全栈工程师,擅长 Python + FastAPI + LangChain 开发。
|
||
|
||
## 任务
|
||
|
||
开发一个叫 project-helper(项目学习助手)的 Web 应用,帮助用户快速读懂任意开源项目的源码,傻子也能懂。
|
||
|
||
用户输入一个 GitHub 仓库地址,系统自动克隆项目并分析源码,生成一份通俗易懂的完整分析报告,涵盖项目概述、技术栈、目录结构、核心模块、数据流、设计模式、阅读建议等。分析过程实时推送进度,已分析过的项目自动缓存,无需重复分析。
|
||
|
||
用户还可以针对源码进行交互式问答,给 Agent 提供读取文件、搜索代码等工具,让 AI 自主查找代码来回答问题,支持流式输出。
|
||
|
||
## 技术栈
|
||
|
||
- 后端:Python FastAPI + LangChain + SQLite + 对接 DeepSeek V4 模型
|
||
- 前端:Vue,前后端分离
|
||
|
||
## 要求
|
||
|
||
1. 页面需要阅读舒适,具有科技感,代码块有语法高亮,使用 UI UX Pro Max 技能美化页面
|
||
2. 开发前,先通过 Firecrawl 联网搜索信息,通过 Context7 查询最新技术文档和用法
|
||
3. 必须生成完整可运行的代码,每步完成后必须自主测试验证
|
||
```
|
||
|
||
简单解读一下这段提示词的几个要点:
|
||
|
||
- **角色定义** 放在最前面,让 AI 进入全栈工程师的状态
|
||
- **任务描述** 用自然语言把需求讲清楚
|
||
- **技术栈** 只列关键选型,让 AI 自己决定具体实现方案
|
||
- 最后两条要求是关键,让 AI 先查文档再写代码,避免瞎编写法;让 AI 开发完后自主测试,减少翻车
|
||
|
||
模型我选择 GPT-5.5,智能程度选「高」,权限给完全访问(主要图个省事儿):
|
||
|
||

|
||
|
||
注意,如果你想让 AI 测试得更完整,可以先获取好 DeepSeek 的 API Key 并直接写在提示词里。否则没有 API Key,AI 是没法完成大模型调用测试的。
|
||
|
||
把上述提示词发送给 AI,接下来就是漫长的等待了。
|
||
|
||
我这次等了 9 分钟,这期间一直在做提肛,有了 AI 编程后运动量也拉上来了~
|
||
|
||
AI 生成了完整的前端和后端项目代码,还自动写好了项目文档:
|
||
|
||

|
||
|
||
点击右上角可以查看生成的所有代码文件,总共 19 个文件、1644 行代码:
|
||
|
||

|
||
|
||
点击右上角查看项目概览,可以看到进度、生成结果、信息来源等。
|
||
|
||
注意看「来源」那栏,我们提供的 3 个技能 AI 都用上了。Firecrawl 用来搜索信息,UI UX Pro Max 用来美化页面,Context7 用来查文档:
|
||
|
||

|
||
|
||
感兴趣的同学可以看下 AI 生成的核心代码。比如问答模块利用 LangChain 实现了一个能调用 `read_file`(读取文件)、`grep_code`(搜索代码)、`repo_map`(获取仓库结构)这 3 个工具的 Agent,AI 会自主决定调用哪些工具来回答用户的问题。
|
||
|
||

|
||
|
||
|
||
|
||
## 测试验证
|
||
|
||
接下来需要获取 DeepSeek 的 API Key,进入 [DeepSeek 开放平台](https://platform.deepseek.com),创建 API Key,记得不要泄露哦!
|
||
|
||

|
||
|
||
大家在使用某个 AI 大模型时,记得要关注一下价格。比如目前 DeepSeek 的 V4-Flash 百万 tokens 输入只要 1 元、输出 2 元;V4-Pro 输入 3 元、输出 6 元(限时 2.5 折优惠到 5 月 5 号)。缓存命中的话更便宜,V4-Flash 输入低至 0.02 元/百万 tokens。
|
||
|
||

|
||
|
||
但是 DeepSeek 目前还没有 Coding Plan,不太建议拿它来 AI 编程,估计消耗的 tokens 会让很多同学吃不消。但是用它来做 AI 应用的大脑非常合适,性价比很高。
|
||
|
||
根据 AI 给出的指引,在 Codex 中打开终端,设置环境变量,把 API Key 改为你自己的:
|
||
|
||
```bash
|
||
export DEEPSEEK_API_KEY=你的_key
|
||
export DEEPSEEK_MODEL=deepseek-v4-pro
|
||
```
|
||
|
||

|
||
|
||
不过这种 `export` 方式是临时的,终端一关就没了。
|
||
|
||
更好的做法是让 AI 搞一个环境变量配置文件,我们手动填写就行。
|
||
|
||
AI 很快完成了任务,新增了 `.env` 和 `.env.example` 环境变量文件:
|
||
|
||

|
||
|
||
注意,如果你的项目要开源,一定记得在 `.gitignore` 中忽略 `.env` 文件,防止 API Key 泄露到 GitHub 上。
|
||
|
||
然后直接在编辑器中打开 `.env` 文件,把 API Key 填进去:
|
||
|
||

|
||
|
||
配置完环境变量后,让 AI 重启项目:
|
||
|
||

|
||
|
||
接下来人工测试一下。打开网页,输入一个 GitHub 仓库地址,比如我之前带大家开发的 [AI 零代码应用生成平台](https://github.com/liyupi/yu-ai-code-mother):
|
||
|
||

|
||
|
||
虽然页面的布局和风格中规中矩,但功能是完全正常的。DeepSeek V4 生成的分析结果还挺靠谱的,包含了项目概述、技术栈分析:
|
||
|
||

|
||
|
||
还有核心模块详解、数据流分析、新手阅读建议等等,内容是准确的,生成速度也比较快:
|
||
|
||

|
||
|
||
再来测试下源码问答功能,问它:项目用了哪些设计模式?
|
||
|
||
AI 调用了工具自己去翻代码,很快就列举出来了,包括门面模式、策略模式等,每个模式都标注了对应的源码文件路径:
|
||
|
||

|
||
|
||
核心功能测试没问题。但如果项目要正式上线,还要测试一堆边界条件,比如仓库不存在怎么办?网络断了会不会崩?缓存命中的逻辑对不对?
|
||
|
||
一个个手动测太麻烦了,干脆直接让 AI 帮忙。
|
||
|
||
Codex 内置了 Browser Use 插件,输入 `@Browser Use` 使用插件,让 AI 自主测试:
|
||
|
||
```markdown
|
||
自主测试所有功能,出了问题自动修复,确保所有功能正常可用
|
||
```
|
||
|
||

|
||
|
||
可以看到 AI 在 Codex 内部打开了一个浏览器,它会自己点击页面、输入仓库地址、查看分析结果、测试问答功能,全程自主操作。这期间我又做了一会儿提肛,提麻了。
|
||
|
||

|
||
|
||
等了大概 9 分钟,AI 完成了端到端的自主测试,还修复了好几个它自己发现的 Bug:
|
||
|
||

|
||
|
||
至此项目就开发完了,是不是很简单?
|
||
|
||
你还可以继续让 AI 优化前端布局、给报告中增加 Mermaid 流程图、支持导出报告文件等等,发挥想象力自由扩展吧~
|
||
|
||
|
||
|
||
## 我的感受
|
||
|
||
最后聊聊我用 Codex、GPT-5.5 和 DeepSeek V4 的真实感受。
|
||
|
||
先说 Codex,Codex 的界面主打一个简洁,第一眼看上去甚至不像 AI 编程工具,更像个 AI 聊天助手。但功能其实比较完整,比如 MCP 和 Skills 扩展、插件市场、自动化、Git 集成、Browser Use、Computer Use,AI 编程所需的工程能力基本都具备了。
|
||
|
||
不过缺点也很明显。默认可用的模型有限,不像 Cursor 和 Copilot 原生就整合了 Claude、GPT、Gemini 各种模型随便切。易用性也差了一些,从 MCP 配置那里大家应该已经感受到了。Copilot 可以直接在扩展市场一键搜索安装 MCP,Cursor 也支持可视化编辑 JSON 配置,Codex 这边还得自己折腾命令行或者手写 TOML。
|
||
|
||

|
||
|
||
再说说 GPT-5.5 模型。有一说一,我测了几个全栈项目,并没有明显感受到 GPT-5.5 和 Claude Opus 模型的差距。只要提示词到位,基本都能一把梭全栈项目的前端和后端,而且核心业务流程大概率一次性跑通。前端表现嘛,中规中矩,虽然实现了响应式,但 UI 没有特别惊艳的地方。。。
|
||
|
||

|
||
|
||
再看看 GPT-5.5 的成本。以开发前面这个项目为例,共消耗了 13 万 tokens,上下文用了 50%。Codex 桌面端目前上下文容量是 258K,开发简单的全栈项目没问题,但复杂工程项目可能会有压力。
|
||
|
||

|
||
|
||
我目前开的是 GPT Plus 会员,一个月 20 刀(150 元左右),每 5 小时和每周有限额。做完这个项目,5 小时的额度基本就用完了,不算扩展功能的话,1 周差不多能做 5 个完整项目。
|
||
|
||

|
||
|
||
最后说说 DeepSeek V4。
|
||
|
||
我们团队之前的业务有接入 DeepSeek V3,也在带大家做的项目中用过 V3。这次把 V4 接到业务里,生成速度还是挺快的,效果比 V3 提升明显,尤其是对代码的理解和分析能力。而且有了 100 万 tokens 的超长上下文支持,让我们可以做更重的 AI 应用,比如深度研究、复杂项目源码的全局分析等等。
|
||
|
||
看一下实际的 API 消耗,测试过程中用了 27 次请求,消耗了 5 万多 tokens,花费 0.15 元。按正常用户使用量算,一天 1000 次请求大约消耗 5.5 元,性价比很高。
|
||
|
||

|
||
|
||
总的来说,后续我不太会继续用 Codex 来做日常 AI 编程,做复杂项目时会选择 GPT-5.5 或 Claude Opus 模型,但开发 AI 应用时会优先对接 DeepSeek V4 的 API,便宜好用。
|
||
|
||
|
||
|
||
## 写在最后
|
||
|
||
这个项目从需求到上线,全程用 Codex + GPT-5.5 完成开发,后端对接 DeepSeek V4 的 API,整个过程不到 20 分钟。
|
||
|
||
虽然 Codex 在 MCP 配置体验上还不如 Cursor 和 Copilot 方便,但功能完整度已经很不错了。更重要的是,这个项目让我们看到了用不同 AI 编程工具开发全栈项目的可能性。如果你想了解更多 AI 编程工具的使用方法和对比,可以阅读本教程编程工具板块的相关文章。
|
||
|
||
|
||
|
||
## 推荐资源
|
||
|
||
1)鱼皮 AI 导航网站:[AI 资源大全、最新 AI 资讯、免费 AI 教程](https://ai.codefather.cn)
|
||
|
||
2)编程导航学习圈:[学习路线、编程教程、实战项目、求职宝典、交流答疑](https://www.codefather.cn)
|
||
|
||
3)程序员面试八股文:[实习/校招/社招高频考点、企业真题解析](https://www.mianshiya.com)
|
||
|
||
4)程序员写简历神器:[专业模板、丰富例句、直通面试](https://www.laoyujianli.com)
|
||
|
||
5)1 对 1 模拟面试:[实习/校招/社招面试拿 Offer 必备](https://ai.mianshiya.com)
|