AI-Coding

AI编码开发

初接触

从插件辅助开发,提示代码,到现在用AI完全编码,这条路,我走了好久。之前 TabNine 刚出现的时候,我就是其第一波使用用户。其收费时,对老用户也很友好,直接提供了长期使用权。2023年,ChatGPT 发布,我主要是旁观。直到 DeepSeek 出现,才开始大面积使用,但主要是对话,不是编码。

尝试

后面陆陆续续使用了 Lingma/CodeBuddy ,这些,都无法完全编码。编码的时候,AI会提供代码片段,但代码片段,往往不能满足需求,需要人工修改。上下文也短,无法识别整体意图。

后面推出了 CLI 模式,尝鲜使用了 CodeBuddy/Qoder。老实说,也还是弱。编码能力,执行能力,执行速度都弱。但是,这个模式下,走一个完整流程,已经是很轻松的。能看到AI显著的进步:输入详细详尽的需求,AI能给出相对完整的代码,能执行。但复杂的业务需求,复杂的技术需求,AI无法处理。

另一种尝试

我反思网上各种声音说好,而我自己说不好。那是不是工具不好?我换用了 opencode,付费了 DeepSeek。这套组合拳,效果确实好。

这个模式下,AI的能力,达到了我可以接受可以满意的标准。甚至,让我恐惧,真的很棒!但是,我浅尝辄止的情况下,两天就20元的消耗,让我不得不考虑性价比。

大举使用

正好这时,年初各大平台为了扩大用户量/增加客户粘度,大量面向程序员放出 Coding-plan 套餐。这个模式下,我抢了一个百炼的套餐。

我考虑到我的消耗,我直接选择了 200Pro 套餐。但是一个月下来,实际重度使用情况下,我其实 40Lite 套餐就够了。我最终也就用掉了 16%Pro 套餐。按调用次数而不是按 Token,还是非常方便的,也非常省的。可惜现在所有套餐都售罄,没法换了。

从我的尝试看,GLM-5 是一个非常适合AI开发的模型。我用这个模型做了很多尝试:

  • 我用其基于我自行编制的 skill 描述,识别代码,解构结构,走查代码,非常给力。
  • 我用其对我自己的代码进行调优,宽泛地要求优化代码,其能自行定位可优化点,并给出优化代码,实践优化,完成优化,落地成功。
  • 我用其根据我提供的思路,从零开始构建技术组件。我得说,这个模式下,我非常享受。我的想法,完全能快速落地,快速迭代,快速变现。只要我有一个思路,AI 就能做出来,而不要考虑这个领域熟不熟,技术行不行。
  • 我用其根据我的要求,完成试卷编写,完整地出具几份面向程序员的试卷。这个活不难,但很繁琐。目前有AI,这个活相当轻松。
  • 我提供部分信息,要求AI扩写设计,形成设计文档。这个模式下,AI 也很给力。文档的内容翔实程度,清晰程度,都是远超需要的。

对比 MiniMax M2.5/Kimi K2.5/Qwen 3/Qwen 3.5GLM-5 模型是我最喜欢的。MiniMax M2.5 的模型,对复杂的业务需求,无法处理。Qwen 系列,能处理,但不如 GLM-5 模型优雅,或者说,符合/贴合我个人的代码风格。

AI项目开发反思

  1. 需求分析:需要有明确的需求,并确定需求范围。对业务的描述,需要详细,清晰,准确。
  2. 架构设计:架构不能由 AI 直接给出,AI 给出的架构,并不能满足需求。需要架构师/高级程序员进行架构约束,明确架构主题思路,让 AI 在架构约束下,给出架构。
  3. 代码实现:AI 能快速出具代码,但大规模的代码交付过程中,AI 受 Token 使用量的限制,会倾向于简化代码或用空实现代替。简而言之就是 AI 偷懒。这个是必须通过严格的人工走查来避免的。
  4. 单元测试:AI 自己的代码,需要要求其自行实现单元测试。通过单元测试,其自身会去回检代码质量,完成回归。但需要人工核检测试代码质量及正确性,确保测试真的能覆盖场景。必要时,可自行执行所有代码,提供测试覆盖率报告,让 AI 提升测试覆盖率。
  5. 性能测试:部分代码需要高性能的,可要求 AI 完成代码的性能测试。通过数据收集,AI会不断迭代进行性能优化。但性能优化过程中,AI 自己思路可能会错误,需要人工纠偏并提供扩大化思路。

结论

AI 开发的效率极其高,但需要安排 AI 工作的人员本身也具有足够经验足够技能。推进要以人为主,不能 AI 牵头,走到哪滑到哪。