💡 Summary
A comprehensive methodology guide for AI-pair programming, focusing on planning, modularity, and recursive self-optimization of prompts and skills.
🎯 Target Audience
🤖 AI Roast: “It's a philosophical manifesto for coding with AI that forgot to include any actual code.”
The guide recommends tools (CLIs, models) that may execute shell commands or process sensitive project data. Risk: Indirect supply-chain and data leakage via recommended third-party services. Mitigation: Audit and sandbox any CLI tool before use, and avoid sending sensitive code to untrusted external AI endpoints.
Vibe Coding 指南
一个通过与 AI 结对编程,将想法变为现实的终极工作站
📚 相关文档 🚀 入门指南 ⚙️ 完整设置流程 📞 联系方式 ✨ 支持项目 🤝 参与贡献
本仓库的 AI 解读链接:zread.ai/tukuaiai/vibe-coding-cn
🖼️ 概览
Vibe Coding 是一个与 AI 结对编程的终极工作流程,旨在帮助开发者丝滑地将想法变为现实。本指南详细介绍了从项目构思、技术选型、实施规划到具体开发、调试和扩展的全过程,强调以规划驱动和模块化为核心,避免让 AI 失控导致项目混乱。
核心理念: 规划就是一切。 谨慎让 AI 自主规划,否则你的代码库会变成一团无法管理的乱麻。
注意:以下经验分享并非普遍适用,请在具体实践中结合场景,辩证采纳。
🔑 元方法论 (Meta-Methodology)
该思想的核心是构建一个能够自我优化的 AI 系统。其递归本质可分解为以下步骤:
延伸阅读:A Formalization of Recursive Self-Optimizing Generative Systems
1. 定义核心角色:
- α-提示词 (生成器): 一个“母体”提示词,其唯一职责是生成其他提示词或技能。
- Ω-提示词 (优化器): 另一个“母体”提示词,其唯一职责是优化其他提示词或技能。
2. 描述递归的生命周期:
-
创生 (Bootstrap):
- 使用 AI 生成
α-提示词和Ω-提示词的初始版本 (v1)。
- 使用 AI 生成
-
自省与进化 (Self-Correction & Evolution):
- 使用
Ω-提示词 (v1)优化α-提示词 (v1),从而得到一个更强大的α-提示词 (v2)。
- 使用
-
创造 (Generation):
- 使用进化后的
α-提示词 (v2)生成所有需要的目标提示词和技能。
- 使用进化后的
-
循环与飞跃 (Recursive Loop):
- 将新生成的、更强大的产物(甚至包括新版本的
Ω-提示词)反馈给系统,再次用于优化α-提示词,从而启动持续进化。
- 将新生成的、更强大的产物(甚至包括新版本的
3. 终极目标:
通过此持续的递归优化循环,系统在每次迭代中实现自我超越,无限逼近预设的预期状态。
🧭 道
- 凡是 ai 能做的,就不要人工做
- 一切问题问 ai
- 目的主导:开发过程中的一切动作围绕"目的"展开
- 上下文是 vibe coding 的第一性要素,垃圾进,垃圾出
- 系统性思考,实体,链接,功能/目的,三个维度
- 数据与函数即是编程的一切
- 输入,处理,输出刻画整个过程
- 多问 ai 是什么?,为什么?,怎么做?
- 先结构,后代码,一定要规划好框架,不然后面技术债还不完
- 奥卡姆剃刀定理,如无必要,勿增代码
- 帕累托法则,关注重要的那20%
- 逆向思考,先明确你的需求,从需求逆向构建代码
- 重复,多试几次,实在不行重新开个窗口,
- 专注,极致的专注可以击穿代码,一次只做一件事(神人除外)
🧩 法
- 一句话目标 + 非目标
- 正交性,功能不要太重复了,(这个分场景)
- 能抄不写,不重复造轮子,先问 ai 有没有合适的仓库,下载下来改
- 一定要看官方文档,先把官方文档爬下来喂给 ai
- 按职责拆模块
- 接口先行,实现后补
- 一次只改一个模块
- 文档即上下文,不是事后补
🛠️ 术
- 明确写清:能改什么,不能改什么
- Debug 只给:预期 vs 实际 + 最小复现
- 测试可交给 AI,断言人审
- 代码一多就切会话
📋 器
集成开发环境 (IDE) & 终端
- Visual Studio Code: 一款功能强大的集成开发环境,适合代码阅读与手动修改。其
Local History插件对项目版本管理尤为便捷。 - 虚拟环境 (.venv): 强烈推荐使用,可实现项目环境的一键配置与隔离,特别适用于 Python 开发。
- Cursor: 已经占领用户心智高地,人尽皆知。
- Warp: 集成 AI 功能的现代化终端,能有效提升命令行操作和错误排查的效率。
- Neovim (nvim): 一款高性能的现代化 Vim 编辑器,拥有丰富的插件生态,是键盘流开发者的首选。
- LazyVim: 基于 Neovim 的配置框架,预置了 LSP、代码补全、调试等全套功能,实现了开箱即用与深度定制的平衡。
AI 模型 & 服务
- Claude Opus 4.5: 性能强大的 AI 模型,通过 Claude Code 等平台提供服务,并支持 CLI 和 IDE 插件。
- gpt-5.1-codex.1-codex (xhigh): 适用于处理大型项目和复杂逻辑的 AI 模型,可通过 Codex CLI 等平台使用。
- Droid: 提供对 Claude Opus 4.5 等多种模型的 CLI 访问。
- Kiro: 目前提供免费的 Claude Opus 4.5 模型访问,并提供客户端及 CLI 工具。
- Gemini CLI: 提供对 Gemini 模型的免费访问,适合执行脚本、整理文档和探索思路。
- antigravity: 目前由 Google 提供的免费 AI 服务,支持使用 Claude Opus 4.5 和 Gemini 3.0 Pro。
- AI Studio: Google 提供的免费服务,支持使用 Gemini 3.0 Pro 和 Nano Banana。
- Gemini Enterprise: 面向企业用户的 Google AI 服务,目前可以免费使用。
- GitHub Copilot: 由 GitHub 和 OpenAI 联合开发的 AI 代码补全工具。
- Kimi K2: 一款国产 AI 模型,适用于多种常规任务。
- GLM: 由智谱 AI 开发的国产大语言模型。
- Qwen: 由阿里巴巴开发的 AI 模型,其 CLI 工具提供免费使用额度。
开发与辅助工具
Pros
- Promotes disciplined, plan-driven development with AI.
- Offers a novel recursive framework for prompt/skill optimization.
- Curates a valuable list of tools and models for AI coding.
Cons
- README is purely conceptual; no executable code or skill is provided.
- Lacks concrete, step-by-step implementation examples.
- Structure is dense and philosophical, which may hinder practical adoption.
Related Skills
pytorch
S“It's the Swiss Army knife of deep learning, but good luck figuring out which of the 47 installation methods is the one that won't break your system.”
agno
S“It promises to be the Kubernetes for agents, but let's see if developers have the patience to learn yet another orchestration layer.”
nuxt-skills
S“It's essentially a well-organized cheat sheet that turns your AI assistant into a Nuxt framework parrot.”
Disclaimer: This content is sourced from GitHub open source projects for display and rating purposes only.
Copyright belongs to the original author 2025Emma.
