Vibe Coding写崩3个项目后,终于做出了这个救命工具
2026/5/14 13:59:05 网站建设 项目流程

Harness Dev Standards:给你的AI代码上一道"安全锁"

大家好,我是阿程。

过去2个月,我是AI辅助开发的"重度受害者"。

自从用上了OpenClaw/Claude,我写代码的速度直接翻了5倍。一个原本要写一周的功能,现在AI半天就能生成完整代码。我一度以为自己要提前退休了。

直到我连续把3个项目写崩。我去小红书搜了一下,发现全世界的AI开发者都在经历同样的痛苦:

  • “AI写的代码能跑,但没人敢上线”
  • “改AI的bug比自己写还累”
  • “一天写1000行,改bug改了3天”
  • “AI生成的项目结构千奇百怪,每个都不一样”

我突然意识到一个核心问题:我们只教会了AI怎么写代码,却没教会它怎么写"好代码"。

人开发需要编码规范、项目规范、测试规范、交付流程。AI开发凭什么不需要?

没有约束的AI,就是一个bug制造机。没有质量的产能,全都是负债。


我在寻物小程序上做的一个实验

就在我被这些bug折磨得快要放弃的时候,我正在vibe coding开发一个个人项目:一个帮大家找东西的寻物小工具。

这个项目的开发过程简直是一场灾难:

  • AI写的代码总是出现奇奇怪怪的bug,说一次能改,第二次换个功能又出现同样的问题
  • 依赖问题层出不穷,"我本地好好的,线上怎么挂了"成了我的口头禅
  • 项目结构越写越乱,从"搭积木"变成"改屎山",到后来我自己都找不到文件在哪
  • 每次交付前都要花好几个小时手动检查,还是会漏东西

Vibe coding带来的bug总是让我眼前一晕又一晕,后来我做了一个决定:先停掉功能开发,先给这个项目建立一套完整的开发规范体系。

我花了三四天时间,从以前的个人知识资产入手,查找汇总了经手过的各种项目中的规范文档,然后搭建了四层约束系统:

┌─────────────────────────────────────────┐ │ 第 4 层 质量门禁 CI/CD │ │ 合并阻断条件 + 代码质量评分体系 │ ├─────────────────────────────────────────┤ │ 第 3 层 Git 规范 │ │ 分支管理 + 提交格式 + PR Review 清单 │ ├─────────────────────────────────────────┤ │ 第 2 层 测试策略 TDD │ │ AAA 模式 + 覆盖率 80% 目标 + E2E 流程 │ ├─────────────────────────────────────────┤ │ 第 1 层 编码规范 │ │ 目录结构 + 命名规范 + 类型注解 │ └─────────────────────────────────────────┘

我还设置了零容忍的质量硬约束:测试不通过禁止合并、代码覆盖率低于80%禁止合并、类型检查有错误禁止合并…任何一项不达标,代码根本进不了主分支。

📊 效果好到我自己都惊讶

规范加完的那一刻,整个世界都清净了。

质量门禁加入前(现状)加入后(规范)核心价值
需求门禁❌ 只有功能列表,无验收标准✅ 明确验收标准+边缘场景清单上线前就知道"什么叫做好了"
架构门禁⚠️ 目录不标准,无依赖检查✅ 标准化目录+依赖冗余检查新人5分钟看懂项目结构
编码门禁⚠️ TypeScript无强制检查✅ tsc+ESLint强制通过杜绝类型错误上线
依赖门禁❌ 无检查,依赖混乱✅ 一键扫描+安全漏洞检查解决"本地好线上挂"问题
环境门禁✅ 有.env.example,无检查✅ 环境变量完整性+敏感信息检查避免密钥泄露
交付门禁❌ 无清单,全靠记性✅ 20+项检查+一键扫描交付前1分钟排查所有问题

🎯 8个实实在在的好处,只有用过才知道

  1. 交付前1分钟拦截90%低级问题:一个命令跑完所有检查,不用再靠记性
  2. 新人接手成本从2小时→10分钟:标准化结构+完整文档,照着做就能启动
  3. 从流程上保证类型安全:强制类型检查,杜绝any类型上线
  4. 自动清理垃圾依赖:扫描未使用依赖,避免包体积膨胀和安全漏洞
  5. 根源上避免敏感信息泄露:标准化.gitignore+交付前自动检查
  6. 所有项目"长得一样":跨项目开发零适应成本
  7. 出问题有标准排查流程:10+常见问题解决方案,新人也能独立解决
  8. 交付质量有底线:6道门禁卡死下限,最差也有80分

我这个uni-app+Python的全栈项目,现在已经可以稳定运行,再也没有出现过那些莫名其妙的bug。我终于可以把精力放在做功能上,而不是无休止的修bug。


于是我做了Harness Dev Standards

既然手动加规范这么好用,为什么不把它做成一个自动化工具呢?

我把自己在这个小程序上打磨出来的这套规范体系,加上之前10多个项目踩过的坑,做成了一个开箱即用的OpenClaw Skill。

今天正式发布:Harness Dev Standards— 你的AI代码交付质检官,30秒给代码做一次全面体检,把所有烂问题拦在交付前。


🛡️ 6道质量门禁,一道都不能少

就像机场安检一样,每一行AI写的代码都必须通过这6道关卡才能放行:

门禁类型核心检查内容
📋需求门禁需求完整无模糊,任务已追踪,技术可行性已验证
🏗️架构门禁文件结构标准化,依赖最小化,无冗余包
💻编码门禁语法类型正确,命名规范统一,无any滥用
📦依赖门禁依赖完整无冗余,版本稳定,lockfile已提交
🌍环境门禁.env.example完整,敏感信息不提交
交付门禁项目可正常构建,所有需求已实现,README完整

🤖 10+常见问题自动修复,不用再查Stack Overflow

最香的不是检查,是自动修复!基于50+实际项目踩坑总结的修复策略库,遇到这些问题直接帮你搞定:

  • ✅ 依赖版本冲突 → 自动分析并推荐3种解决方案
  • ✅ TypeScript类型错误 → 套用标准修复模板
  • ✅ Import路径错误 → 自动查找正确路径并修正
  • ✅ 启动/构建失败 → 读取错误日志,定位根因并修复
  • ✅ 语法错误 → 一键修正JavaScript/TypeScript语法问题

能自动修的,绝不麻烦你。


🛠️ 2个一键脚本,30秒出结果

零配置,开箱即用,复制粘贴就能跑:

# 1. 依赖检查 — 发现未使用依赖 + 安全漏洞./scripts/depcheck.sh# 2. 完整质量扫描 — 5大项一键跑完./scripts/quality-scan.sh

喝口水的功夫,一份详细的质量报告就出来了,哪里有问题、怎么改,清清楚楚。


📚 3份配套手册,新手也能写出标准代码

不止是工具,更是一套完整的AI时代开发规范体系:

  • standards.md:Next.js等3种主流项目标准结构 + 完整命名规范
  • checklist.md:交付前逐项检查清单,打印出来对着勾就行
  • remediation.md:常见问题自动修复策略库,遇到问题直接查

🎯 触发规则:什么时候它会自动帮你干活?

最贴心的是,这个Skill完全不用你手动调用

我把触发规则写在了Skill的配置文件里,OpenClaw会自动识别以下5个场景,只要你说对应的话,它就会悄悄激活:

✅ 自动触发的5个核心场景

Use when:

  1. 启动新项目开发前
  2. 代码交付前做质量检查
  3. 需要标准化开发流程
  4. 执行架构评审、代码评审
  5. 排查依赖/环境问题

📌 触发关键词对照表

你说的话是否触发原因
“我要新建一个项目”✅ 触发匹配场景1
“这个项目能交付吗”✅ 触发匹配场景2
“帮我做架构评审”✅ 触发匹配场景4
“依赖装不上”✅ 触发匹配场景5
“帮我写一个登录功能”❌ 不触发这是Superpowers的范畴
“今天天气怎么样”❌ 不触发完全无关

📖 使用规则:激活后怎么一步步帮你检查?

Skill激活后,会按照三层渐进式加载的逻辑工作,既保证功能完整,又不浪费宝贵的对话上下文:

第一层:默认加载核心规范(自动)

首先会加载SKILL.md的主体内容,也就是我们前面说的6道质量门禁快速参考
需求门禁 → 架构门禁 → 编码门禁 → 依赖门禁 → 环境门禁 → 交付门禁

每个门禁都有明确的检查清单,AI会照着清单一项一项帮你核对。

第二层:按需加载详细文档(仅在需要时)

只有当你遇到具体问题,需要更详细的信息时,才会加载对应的参考文档,避免上下文膨胀:

触发场景自动加载的文档
需要详细命名规范、目录结构references/standards.md
需要逐项交付检查references/checklist.md
遇到具体问题不会修references/remediation.md

第三层:直接执行检查脚本(不占用上下文)

当需要验证结果时,AI会直接在你的项目中运行脚本,执行结果会直接返回给你:

# 一键完整质量扫描./scripts/quality-scan.sh# 单独跑依赖检查./scripts/depcheck.sh

🔄 完整使用流程示例(真实对话还原)

你说:“我要交付 lost-item-finder 这个项目了”

↓ Step 1: OpenClaw 检测到关键词 "交付",自动匹配场景2 ↓ Step 2: 自动加载 Harness Dev Standards 核心规范 ↓ Step 3: AI 对照 6 道门禁逐项检查你的项目 ↓ (发现依赖有冗余问题) Step 4: 自动加载 references/remediation.md 查找修复方案 ↓ (需要验证修复结果) Step 5: 自动运行 ./scripts/quality-scan.sh ↓ Step 6: 给你输出一份完整的质量报告 + 修复建议

💡 触发规则的设计原则

我在设计这套规则时,特意遵循了3个原则,保证用起来顺手不打扰:

  1. 明确场景:用具体的动作列举触发时机,而不是模糊的描述
  2. 关键词丰富:涵盖"启动/交付/评审/排查"等开发者最常用的动词
  3. 边界清晰:严格不和Superpowers重叠,Superpowers管"怎么开发",Harness管"质量检查"

🚀 谁应该立刻用上?

个人开发者— 不想交付的代码被吐槽,更不想半夜起来改bug
小型团队— 想要统一开发规范,不用再开"代码风格讨论会"
AI辅助开发重度用户— AI写的代码必须经过质量把关
开源项目维护者— 想要标准化PR提交质量,减少review负担

谁不适合用?

  • 大型企业核心系统(请用我开发的另一套Skill:QCSD Development Swarm)
  • 需要正式合规审计报告
  • 需要缺陷预测/突变测试等高级功能

🎯 完整AI开发流水线,三个工具就够了

这是我自己每天都在用的开发流程,亲测效率提升10倍:

工具定位使用时机
Superpowers开发工作流框架开发前 + 开发中
Harness Dev Standards质量标准体系开发后 + 交付前
QCSD Swarm企业级深度审计上线前最终检查

Superpowers给你踩油门的能力,让你写得快;
Harness Dev Standards给你踩刹车的底气,让你跑得远。


💡 设计哲学:质量不是检查出来的,是构建出来的

传统开发流程是"写完再测",问题都堆在最后;
Harness Engineering是"每一步都测",把质量左移到开发的每个环节。

The best code is the code you don’t have to think about.

当所有项目都遵循同一套标准,当所有常见问题都能自动修复,你才能真正把精力放在创造价值上,而不是无休止的修bug。


📦 3步安装,立即使用

  1. 安装Skill到你的OpenClaw:
openclaw skillsinstallharness-dev-standards
  1. 正常和AI对话,遇到上述5个场景时,它会自动激活
  2. 按照AI的指引完成检查和修复,放心交付

就这么简单。


🦆 最后说两句

AI 让写代码变得越来越容易。

但写出"能用的代码"和"好代码",永远不是一回事。

一个工具能让你一天写1000行代码,但如果其中有100个bug,那这1000行代码就是负债。
Harness Dev Standards不能帮你写代码,但能帮你确保每一行交付的代码都是高质量的。

就像我在小程序开发里体会到的:

没加规范:开发的时候爽,交付的时候慌,维护的时候骂
加了规范:开发的时候多花1分钟,交付的时候踏实,维护的时候省心

规范不是限制你,是帮你把下限拉高。

在这个AI狂飙的时代,跑得快很重要,但跑得稳、跑得远更重要。

GitHub:https://github.com/AI-aCheng/harness-dev-standards
ClawHub:https://clawhub.ai/ai-acheng/harness-dev-standards

关注我,获取更多AI开发实战工具,让AI真正成为你的生产力。


需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询