把研发重写成 AI 可以稳定参与、可编排、可验证、可观测的生产系统。
为什么从氛围编程、Spec 到 Harness 仍然没有带来企业级质变
为什么要引入编译、运行时、契约、治理和 GitOps 闭环
用企业邮件智能回复案例,走完 PRD 到上线的完整链路
“生产系统决定 AI 研发的最终上限。”
从基础设施、游戏业务到企业 AI 平台,我长期处理的都是复杂系统如何稳定落地。
AI Agent 工程化实践验证
团队内容榜单第一
内容影响力覆盖率
今天真正卡住团队的,是复杂系统里的正确性、边界、依赖、状态、回归和长期可维护性。
局部代码、脚本、页面、测试都能快速生成,单点体验很爽。
PRD、设计、研发、测试、部署、观测仍然被拆成多条断裂的工具链。
多数团队只是把 AI 叠加到原流程上,流程本身还没有完成结构化重写。
AI 会写代码,不等于 AI 已经能接住企业研发系统。
会话式生成很强,胜在快,但上下文一大就容易失控。
规约更清楚,输入更稳定,但系统后段仍然是散的。
开始复用经验和能力包,但大多数还停留在增强个人效率。
自动执行单任务越来越强,但长期治理、状态和资产化仍是短板。
今天很多路线是在增强 AI 写代码的能力,但企业真正缺的是一套能接住 AI 的研发结构。
结果能否持续验证,决定它能不能进入生产环境。
超过一定规模后,AI 和人都会丢失对整体依赖的把握。
服务、模型、SaaS、配置、团队协作边界经常被调用链冲穿。
异步、长流程、消息、回调、流式交互很难讲清,也很难稳定跑。
生成之后谁来兜底、谁来回放、谁来复盘,这是生产级问题。
团队需要可复用、可审计、可迁移的长期资产。
把重复劳动沉淀成 CLI、unit、模板、规则和运行时,持续复用。
用契约、蓝图、step 边界,把 AI 的工作颗粒度压缩到能稳定完成的范围。
人负责顶层结构与决策,AI 负责小规模高价值复杂度,两者都做最擅长的事。
真正的生产力来自软件、运行时、资产和流程的持续固化。
每个模块、每个文件、每个 step 只解决一个问题。
输入 → 处理 → 输出,禁止反向依赖和循环调用。
先定义契约、接口和 Schema,再写实现。
配置外置、日志标准化、同一份能力能跑在本地和云端。
模型、数据源、前端、推送渠道都应该可替换。
像搭乐高一样构造系统:职责单一、接口标准、方向明确、环境无关、随时可换。
`entry` 把入口请求挂到 `customer_reply_flow`,`flow` 负责声明这条主链按顺序推进,并把 `parallel_execution = false` 固定下来。
每个 step 都把 `inputs / outputs` 摊平写进蓝图:线程正文、文件摘要、审阅标记和最终回复沿依赖链逐段传递。
// 智能 unit:无状态、可复用的处理单元 type Unit interface { Run(ctx context.Context, inputs map[string]any) (map[string]any, error) }
// ComposeReplyUnit:把线程正文与文件摘要汇聚成回复草稿 type ComposeReplyUnit struct{} func (u ComposeReplyUnit) Run(ctx, inputs) (...) { draft := composeReply(thread_body, file_digest) return {"reply_draft": draft, "review_marks": inspect(draft)}, nil }
`Run()` 只处理当前 step 这一次输入输出,不承接全局调度。
open_thread:req::thread_ref → thread_body、file_handles
digest_files:cached_files → file_digest
compose_reply:thread_body、file_digest、review_rules → reply_draft、review_marks
调度器依据依赖关系计算 ready step;unit 只看 `inputs`,单测、集成测试和替换都更直接。
承接请求入口、参数校验和路由。
串联业务流程、依赖顺序和分支策略。
访问数据库、文件、RPC 和外部网关。
承接状态、日志、策略、可观测与通用能力。
承接入口、参数与路由,把请求送进结构主线。
承接业务编排、依赖关系、分支与执行顺序。
承接局部领域动作,内部调用 Repo / Gateway / RPC。
承接状态、回放、策略与运行时治理。
更偏增强 AI 的技能与表达能力,重点在局部任务组织。
自动执行越来越强,但长期治理和团队资产沉淀仍然是难点。
真正开始碰系统级结构、全流程联动和企业级治理闭环。
它证明了结构层正在成为开源世界的新焦点,单体 prompt 和单体 coding agent 已经不够覆盖整条研发系统。
Archon 是一个面向 AI coding agents 的工作流引擎,用结构化流程承接计划、实现、审批与反复迭代。
steps:
- id: plan
prompt: "先分析代码并输出计划"
- id: implement
depends_on: [plan]
loop:
prompt: "实现下一步并运行校验"
until: ALL_TASKS_COMPLETE
- id: approve
depends_on: [implement]
loop:
prompt: "展示结果并等待人工审批"
until: APPROVED
它证明了结构层已经成为开源社区从工具走向系统的关键一步。
研发流程的结构组织,本身就是一个独立问题。
两者指向同一方向,但关注层次和承接范围不同。
PRD 到部署的全流程范式、编译控制层、运行治理与 GitOps 一体化。
Archon 是一个重要的开源路标,而 Zmagine 想走的是更完整的 AI 原生研发系统路线。
边界说得越清楚,系统就越接近真实生产环境。
Parser、Planner、flow 数据结构、QoS 校验,负责把蓝图编译成可执行计划。
Scheduler、Executor、Binding、State、ControlRoute,把依赖关系推进成真实执行路径。
Retry、Timeout、Policy、QoS、Branch Control,保证 step 失败、分支和服务质量可治理。
Plan 缓存、StructBind、并发执行、Trace / Observability,让引擎既能跑得快,也能回放和排障。
高难抽象阶段用最强模型,稳定 unit 逐步切向高性价比模型。
底座、unit 资产、业务模板和平台能力可分层开放。
引擎、平台、企业定制与托管运行仍在持续验证。
开放引擎核心,降低结构化编排和运行时治理的接入门槛。
平台继续承接 PRD、测试、发布、回放和多环境运行治理。
前沿模型承担高难抽象,稳定 unit 逐步迁向更高性价比模型。
AI 手替会越来越强,生产系统决定最终上限。
真正的壁垒来自约束、编排、验证和资产化。
Zmagine 代表从 PRD 到部署的 AI 原生研发范式。
这条路线还会继续延伸到更长异步流程、更多行业场景和组织级资产化路径。
异步 / 流式 / 灰度迁移 / 开闭源模型 / 商业模式
代码仓和部署仓分层协同,项目组围绕 Git 证据链自维护研发、发布、回滚与环境变更。
代码仓与部署仓分层协同,项目组可以围绕 Git 证据链自维护研发、发布、回滚与环境变更。
基于 AppSet、模板和 values,ArgoCD 可以把多环境、多应用、多集群的发布关系收进统一控制面。
基于 AppSet、模板和 values,ArgoCD 可以把多环境、多应用、多集群的发布关系收进统一控制面。
AIGC 欢迎技术交流