Harness Dev Standards:给你的AI代码上一道"安全锁"
大家好,我是阿程。
过去2个月,我是AI辅助开发的"重度受害者"。
自从用上了OpenClaw/Claude,我写代码的速度直接翻了5倍。一个原本要写一周的功能,现在AI半天就能生成完整代码。我一度以为自己要提前退休了。
直到我连续把3个项目写崩。我去小红书搜了一下,发现全世界的AI开发者都在经历同样的痛苦:
- “AI写的代码能跑,但没人敢上线”
- “改AI的bug比自己写还累”
- “一天写1000行,改bug改了3天”
- “AI生成的项目结构千奇百怪,每个都不一样”
我突然意识到一个核心问题:我们只教会了AI怎么写代码,却没教会它怎么写"好代码"。
人开发需要编码规范、项目规范、测试规范、交付流程。AI开发凭什么不需要?
没有约束的AI,就是一个bug制造机。没有质量的产能,全都是负债。
我在寻物小程序上做的一个实验
就在我被这些bug折磨得快要放弃的时候,我正在vibe coding开发一个个人项目:一个帮大家找东西的寻物小工具。
这个项目的开发过程简直是一场灾难:
- AI写的代码总是出现奇奇怪怪的bug,说一次能改,第二次换个功能又出现同样的问题
- 依赖问题层出不穷,"我本地好好的,线上怎么挂了"成了我的口头禅
- 项目结构越写越乱,从"搭积木"变成"改屎山",到后来我自己都找不到文件在哪
- 每次交付前都要花好几个小时手动检查,还是会漏东西
Vibe coding带来的bug总是让我眼前一晕又一晕,后来我做了一个决定:先停掉功能开发,先给这个项目建立一套完整的开发规范体系。
我花了三四天时间,从以前的个人知识资产入手,查找汇总了经手过的各种项目中的规范文档,然后搭建了四层约束系统:
┌─────────────────────────────────────────┐ │ 第 4 层 质量门禁 CI/CD │ │ 合并阻断条件 + 代码质量评分体系 │ ├─────────────────────────────────────────┤ │ 第 3 层 Git 规范 │ │ 分支管理 + 提交格式 + PR Review 清单 │ ├─────────────────────────────────────────┤ │ 第 2 层 测试策略 TDD │ │ AAA 模式 + 覆盖率 80% 目标 + E2E 流程 │ ├─────────────────────────────────────────┤ │ 第 1 层 编码规范 │ │ 目录结构 + 命名规范 + 类型注解 │ └─────────────────────────────────────────┘我还设置了零容忍的质量硬约束:测试不通过禁止合并、代码覆盖率低于80%禁止合并、类型检查有错误禁止合并…任何一项不达标,代码根本进不了主分支。
📊 效果好到我自己都惊讶
规范加完的那一刻,整个世界都清净了。
| 质量门禁 | 加入前(现状) | 加入后(规范) | 核心价值 |
|---|---|---|---|
| 需求门禁 | ❌ 只有功能列表,无验收标准 | ✅ 明确验收标准+边缘场景清单 | 上线前就知道"什么叫做好了" |
| 架构门禁 | ⚠️ 目录不标准,无依赖检查 | ✅ 标准化目录+依赖冗余检查 | 新人5分钟看懂项目结构 |
| 编码门禁 | ⚠️ TypeScript无强制检查 | ✅ tsc+ESLint强制通过 | 杜绝类型错误上线 |
| 依赖门禁 | ❌ 无检查,依赖混乱 | ✅ 一键扫描+安全漏洞检查 | 解决"本地好线上挂"问题 |
| 环境门禁 | ✅ 有.env.example,无检查 | ✅ 环境变量完整性+敏感信息检查 | 避免密钥泄露 |
| 交付门禁 | ❌ 无清单,全靠记性 | ✅ 20+项检查+一键扫描 | 交付前1分钟排查所有问题 |
🎯 8个实实在在的好处,只有用过才知道
- 交付前1分钟拦截90%低级问题:一个命令跑完所有检查,不用再靠记性
- 新人接手成本从2小时→10分钟:标准化结构+完整文档,照着做就能启动
- 从流程上保证类型安全:强制类型检查,杜绝any类型上线
- 自动清理垃圾依赖:扫描未使用依赖,避免包体积膨胀和安全漏洞
- 根源上避免敏感信息泄露:标准化.gitignore+交付前自动检查
- 所有项目"长得一样":跨项目开发零适应成本
- 出问题有标准排查流程:10+常见问题解决方案,新人也能独立解决
- 交付质量有底线:6道门禁卡死下限,最差也有80分
我这个uni-app+Python的全栈项目,现在已经可以稳定运行,再也没有出现过那些莫名其妙的bug。我终于可以把精力放在做功能上,而不是无休止的修bug。
于是我做了Harness Dev Standards
既然手动加规范这么好用,为什么不把它做成一个自动化工具呢?
我把自己在这个小程序上打磨出来的这套规范体系,加上之前10多个项目踩过的坑,做成了一个开箱即用的OpenClaw Skill。
今天正式发布:Harness Dev Standards— 你的AI代码交付质检官,30秒给代码做一次全面体检,把所有烂问题拦在交付前。
🛡️ 6道质量门禁,一道都不能少
就像机场安检一样,每一行AI写的代码都必须通过这6道关卡才能放行:
| 门禁类型 | 核心检查内容 |
|---|---|
| 📋需求门禁 | 需求完整无模糊,任务已追踪,技术可行性已验证 |
| 🏗️架构门禁 | 文件结构标准化,依赖最小化,无冗余包 |
| 💻编码门禁 | 语法类型正确,命名规范统一,无any滥用 |
| 📦依赖门禁 | 依赖完整无冗余,版本稳定,lockfile已提交 |
| 🌍环境门禁 | .env.example完整,敏感信息不提交 |
| ✅交付门禁 | 项目可正常构建,所有需求已实现,README完整 |
🤖 10+常见问题自动修复,不用再查Stack Overflow
最香的不是检查,是自动修复!基于50+实际项目踩坑总结的修复策略库,遇到这些问题直接帮你搞定:
- ✅ 依赖版本冲突 → 自动分析并推荐3种解决方案
- ✅ TypeScript类型错误 → 套用标准修复模板
- ✅ Import路径错误 → 自动查找正确路径并修正
- ✅ 启动/构建失败 → 读取错误日志,定位根因并修复
- ✅ 语法错误 → 一键修正JavaScript/TypeScript语法问题
能自动修的,绝不麻烦你。
🛠️ 2个一键脚本,30秒出结果
零配置,开箱即用,复制粘贴就能跑:
# 1. 依赖检查 — 发现未使用依赖 + 安全漏洞./scripts/depcheck.sh# 2. 完整质量扫描 — 5大项一键跑完./scripts/quality-scan.sh喝口水的功夫,一份详细的质量报告就出来了,哪里有问题、怎么改,清清楚楚。
📚 3份配套手册,新手也能写出标准代码
不止是工具,更是一套完整的AI时代开发规范体系:
- standards.md:Next.js等3种主流项目标准结构 + 完整命名规范
- checklist.md:交付前逐项检查清单,打印出来对着勾就行
- remediation.md:常见问题自动修复策略库,遇到问题直接查
🎯 触发规则:什么时候它会自动帮你干活?
最贴心的是,这个Skill完全不用你手动调用!
我把触发规则写在了Skill的配置文件里,OpenClaw会自动识别以下5个场景,只要你说对应的话,它就会悄悄激活:
✅ 自动触发的5个核心场景
Use when:
- 启动新项目开发前
- 代码交付前做质量检查
- 需要标准化开发流程
- 执行架构评审、代码评审
- 排查依赖/环境问题
📌 触发关键词对照表
| 你说的话 | 是否触发 | 原因 |
|---|---|---|
| “我要新建一个项目” | ✅ 触发 | 匹配场景1 |
| “这个项目能交付吗” | ✅ 触发 | 匹配场景2 |
| “帮我做架构评审” | ✅ 触发 | 匹配场景4 |
| “依赖装不上” | ✅ 触发 | 匹配场景5 |
| “帮我写一个登录功能” | ❌ 不触发 | 这是Superpowers的范畴 |
| “今天天气怎么样” | ❌ 不触发 | 完全无关 |
📖 使用规则:激活后怎么一步步帮你检查?
Skill激活后,会按照三层渐进式加载的逻辑工作,既保证功能完整,又不浪费宝贵的对话上下文:
第一层:默认加载核心规范(自动)
首先会加载SKILL.md的主体内容,也就是我们前面说的6道质量门禁快速参考:
需求门禁 → 架构门禁 → 编码门禁 → 依赖门禁 → 环境门禁 → 交付门禁
每个门禁都有明确的检查清单,AI会照着清单一项一项帮你核对。
第二层:按需加载详细文档(仅在需要时)
只有当你遇到具体问题,需要更详细的信息时,才会加载对应的参考文档,避免上下文膨胀:
| 触发场景 | 自动加载的文档 |
|---|---|
| 需要详细命名规范、目录结构 | references/standards.md |
| 需要逐项交付检查 | references/checklist.md |
| 遇到具体问题不会修 | references/remediation.md |
第三层:直接执行检查脚本(不占用上下文)
当需要验证结果时,AI会直接在你的项目中运行脚本,执行结果会直接返回给你:
# 一键完整质量扫描./scripts/quality-scan.sh# 单独跑依赖检查./scripts/depcheck.sh🔄 完整使用流程示例(真实对话还原)
你说:“我要交付 lost-item-finder 这个项目了”
↓ Step 1: OpenClaw 检测到关键词 "交付",自动匹配场景2 ↓ Step 2: 自动加载 Harness Dev Standards 核心规范 ↓ Step 3: AI 对照 6 道门禁逐项检查你的项目 ↓ (发现依赖有冗余问题) Step 4: 自动加载 references/remediation.md 查找修复方案 ↓ (需要验证修复结果) Step 5: 自动运行 ./scripts/quality-scan.sh ↓ Step 6: 给你输出一份完整的质量报告 + 修复建议💡 触发规则的设计原则
我在设计这套规则时,特意遵循了3个原则,保证用起来顺手不打扰:
- 明确场景:用具体的动作列举触发时机,而不是模糊的描述
- 关键词丰富:涵盖"启动/交付/评审/排查"等开发者最常用的动词
- 边界清晰:严格不和Superpowers重叠,Superpowers管"怎么开发",Harness管"质量检查"
🚀 谁应该立刻用上?
✅个人开发者— 不想交付的代码被吐槽,更不想半夜起来改bug
✅小型团队— 想要统一开发规范,不用再开"代码风格讨论会"
✅AI辅助开发重度用户— AI写的代码必须经过质量把关
✅开源项目维护者— 想要标准化PR提交质量,减少review负担
❌谁不适合用?
- 大型企业核心系统(请用我开发的另一套Skill:QCSD Development Swarm)
- 需要正式合规审计报告
- 需要缺陷预测/突变测试等高级功能
🎯 完整AI开发流水线,三个工具就够了
这是我自己每天都在用的开发流程,亲测效率提升10倍:
| 工具 | 定位 | 使用时机 |
|---|---|---|
| Superpowers | 开发工作流框架 | 开发前 + 开发中 |
| Harness Dev Standards | 质量标准体系 | 开发后 + 交付前 |
| QCSD Swarm | 企业级深度审计 | 上线前最终检查 |
Superpowers给你踩油门的能力,让你写得快;
Harness Dev Standards给你踩刹车的底气,让你跑得远。
💡 设计哲学:质量不是检查出来的,是构建出来的
传统开发流程是"写完再测",问题都堆在最后;
Harness Engineering是"每一步都测",把质量左移到开发的每个环节。
“The best code is the code you don’t have to think about.”
当所有项目都遵循同一套标准,当所有常见问题都能自动修复,你才能真正把精力放在创造价值上,而不是无休止的修bug。
📦 3步安装,立即使用
- 安装Skill到你的OpenClaw:
openclaw skillsinstallharness-dev-standards- 正常和AI对话,遇到上述5个场景时,它会自动激活
- 按照AI的指引完成检查和修复,放心交付
就这么简单。
🦆 最后说两句
AI 让写代码变得越来越容易。
但写出"能用的代码"和"好代码",永远不是一回事。
一个工具能让你一天写1000行代码,但如果其中有100个bug,那这1000行代码就是负债。
Harness Dev Standards不能帮你写代码,但能帮你确保每一行交付的代码都是高质量的。
就像我在小程序开发里体会到的:
没加规范:开发的时候爽,交付的时候慌,维护的时候骂
加了规范:开发的时候多花1分钟,交付的时候踏实,维护的时候省心
规范不是限制你,是帮你把下限拉高。
在这个AI狂飙的时代,跑得快很重要,但跑得稳、跑得远更重要。
GitHub:https://github.com/AI-aCheng/harness-dev-standards
ClawHub:https://clawhub.ai/ai-acheng/harness-dev-standards
关注我,获取更多AI开发实战工具,让AI真正成为你的生产力。