我们拆了2026年3月24日的一份Clawhub公开数据快照,样本共33,760个skills。这个市场的问题,不是供给不足,而是大部分供给没有穿过安装这道门。 下一阶段真正会赢的,不是功能最多的,也不是概念最大的,而是那些能让用户迅速完成一个动作、迅速看到结果、迅速形成依赖的 skill。这意味着Clawhub已经不缺供给,缺的是能真正形成安装的供给。很多skill完成了曝光,没有完成安装,而安装,已经明显向头部集中。
本文介绍了淘宝营销会场智能测试平台的AI落地实践:基于LLM与多模态Agent,实现“所见即所得”渲染校验、价格/内容/交互一致性比对、定投与多端适配自动检测;覆盖需求提测、测试执行、线上回归全流程。达成问题发现率↑、线上风险↓、测试人效提升100%、整体提效40%,推动测试从“人工驱动”迈向“AI智能判定+闭环自治”。后续聚焦需求意图识别、AI造数、智能用例选择等深度智能化方向。
本文介绍了一个名为 IMClaw 的开源项目,它是一个支持 ACP 协议的 AI Agent 网关,核心价值是让你通过微信、飞书等 IM 工具,远程操控 ClaudeCode、Codex、Gemini CLI 等十余种 AI Agent 在服务器上工作。
裸模型有四大硬伤:无记忆、不能执行代码、知识过时、无工作环境。Harness 六大组件逐一补救——文件系统管存储与版本;沙箱赋予代码自验证;AGENTS.md 无需训练即可注入知识;Web Search+MCP 打破知识截止;上下文工程对抗信息腐烂;编排+Hooks 保障多 Agent 协同质量。System Prompt 贯穿始终,是整套系统的神经中枢。 一句话摘要: 模型提供智能,Harness 让智能变得有用。如果你不是模型本身,那你就是 Harness 的一部分。
做后端开发,调 BUG 有一个让人头疼的固定流程:打开日志平台,输入 traceId 或关键词,搜日志;从几十上百条日志里,找到关键的那几条;把日志里的类名、方法名复制出来,去 IDE 里找对应代码;结合代码逻辑,判断哪里出了问题;如果一次找不准,回去再搜日志,再翻代码…… 这个过程相对固定,但非常耗时间。每次 BUG 定位,光在日志平台和 IDE 之间来回切换,就能消耗掉大半的时间。 最开始在去年 Q3 想到这个问题的时候,脑子里浮现的第一个方案是:用 Cursor + MCP,把日志平台接进来,再挂一个代码知识库,让 AI 帮我查日志。但这个方案有缺陷 —— 日志查询是「动态的」,它依赖环境、应用、时间范围,没办法静态预置。此外,这样处理没有办法做到比较丝滑地读代码、改代码。 后来开始用 Claude Code,接触到了 Skill 的概念:可以在项目里定义一套自定义命令,描述 AI 应该怎么执行这个命令的每个步骤,于是整个思路变得清晰了。
多媒体中台在 B 站主要负责剪辑、拍摄、直播等业务场景的动效渲染,开发维护的 SDK 在后文统一称为特效 SDK。
最近,「Harness Engineering」这个概念在 AI 工程圈里热了起来——Mitchell Hashimoto(HashiCorp 联合创始人、Terraform 缔造者)和 OpenAI 工程团队相继发文,描述了一套「让 Agent 可靠工作」的工程方法论。与此同时,笔者也在实践一套规范驱动(SDD)的 AI Coding 工作流,核心投入在于构建一套完整的 Spec 体系——把系统的意图、契约、行为规范结构化地写进仓库,让 Agent 有据可查。