原文地址:https://linux.do/t/topic/1031049
这篇文章最值得拿走的一点是:别把 AI 当“自动产出器”,而要当“可控协作者”。
文章要点
- 别的帖子喜欢先解释/讲道理, 但我这里直接说结论/结果/怎么用, 如果你觉得有用/说得对, 后面才是我的解释
- augment code的上下文引擎 augment context engine提供了一个工具codebase-retrieval
- 这个工具能根据冷启动指令(就是第一条用户消息)去搜索代码库, 打个比方说人话
- 把页面中的请求方法改为统一封装的Axios工具
我的观点
如果没有明确验收标准,AI 产出的“看起来能跑”会很快变成维护负担。
把上下文边界、接口契约、回归检查前置,采纳率会比单纯调 prompt 更稳定。
团队层面最该沉淀的是失败样本和复盘模板,而不是个人技巧。
实践建议
- 先写验收条件(测试、输出格式、边界场景),再让模型生成实现。
- 每轮只优化一个维度(正确性/可读性/性能),避免目标漂移。
- 把评审驳回原因沉淀为 checklist,下一轮直接复用。
收尾
别追求“看完很多”,要追求“本周能改一件事”。把这篇文章转成一个具体动作,效果会比收藏链接更大。