这次分享的内容来自作者在实际项目中落地 AI 编码的一些实践和思考。希望能给正在尝试或想要尝试 AI 编码的同学一些参考。
OpenClaw 官方提供了 ClawHub,提供了全球最全、最优质的 Claw Skills。但由于存在 Rate limit exceeded 的安装难题,在国内通过构建镜像站来解决,是一个技术上可行的方案。但是也面临着争议。
过去一年,团队内部有过一段时间关于未来是低代码平台还是高代码框架的讨论:低代码平台:典型代表 Dify,门槛低、流程确定性高,但灵活性受限。高代码框架:核心是 ReAct结构,LLM+Prompt+Tool,由模型自主决策,特点是灵活度强、能充分利用 AI 泛化推理能力,但幻觉问题更突出,Prompt 调试成本很高。不久之后,Anthropic 推出 Skill,成为这两者之间的关键平衡点:在保留灵活度的同时,通过能力封装与边界约束,提升 Agent 在特定任务上的确定性与可复用性,收到用户企业广泛应用,而年前 OpenClaw 快速出圈,ClawHub、SkillHub 等公开 Skill 市场的推出也如雨后春笋般,Skill 规模数万+,生态仍在高速扩张。
本文介绍了淘宝营销会场智能测试平台的AI落地实践:基于LLM与多模态Agent,实现“所见即所得”渲染校验、价格/内容/交互一致性比对、定投与多端适配自动检测;覆盖需求提测、测试执行、线上回归全流程。达成问题发现率↑、线上风险↓、测试人效提升100%、整体提效40%,推动测试从“人工驱动”迈向“AI智能判定+闭环自治”。后续聚焦需求意图识别、AI造数、智能用例选择等深度智能化方向。
本文介绍了从“Vibe Coding”向“范式编程”演进的技术路径,核心是通过结构化规范(Spec)驱动AI生成符合企业级标准的代码。文章以淘系交易系统为背景,指出当前AI编程工具因缺乏领域知识、上下文缺失和规范约束,导致生成代码不可靠、难维护;为此提出“范式编程”——将规范置于开发中心,结合知识库、知识点、疑问点机制与AI Agent,构建可沉淀、可复用、可演进的AI领域专家体系,实现从“人写代码”到“人机协同”的范式升级。
假期花了3天深度体验OpenClaw,尝试构建可自我迭代的银行客户经理助手的场景,验证通用智能体框架的可用性。重点只验证这个新形态带来的变化,暂未仔细核实每个测试场景的准确性。体验感触:通用智能体的迭代优化,本质是在模型能力基础上,针对Context能力的强优化。
本文分享了天猫团队在“胶水编程”场景下的最佳实践,即利用AI高效连接现有业务模块以快速响应需求,实现了高达97.9%的代码采纳率。文章指出,针对业务逻辑组装、接口对接及样板代码填充等“胶水”型任务,通过构建精准的上下文提示策略和标准化的开发流程,能极大发挥AI在理解业务意图和组合代码片段上的优势,显著缩短从需求到上线的周期;该实践证明了在特定高匹配度场景下,AI不仅能大幅减少人工编码工作量,还能保持极高的代码可用性与一致性,是业务需求快速交付的高效路径。