本文将分享阿里集团在 AI 代码评审方向“历时一年半”、“数万亿 Token 真实场景打磨”的探索现状,以及我们联合南京大学研发效能实验室开源的、汇聚 80 多位资深工程师进行多轮交叉标注的业界首个多语言、具备存储库上下文感知的 CodeReview Benchmark,旨在为行业提供更精准的质量评估标准。
以 OpenClaw 为案例,从行业威胁态势与运行时防护的固有局限出发,系统拆解 AI Agent 可观测体系的设计方法论:通过 Session 审计日志、应用日志与 OpenTelemetry 遥测三条数据管道,构建行为审计、威胁检测、成本管控与运维观测的完整闭环。
本文介绍了利用 AI平台,通过自然语言描述业务规则 + 预置 AI Agent + 参数化调用的方式,替代传统复杂代码(150+行)来解决电商促销中“多 SKU 凑单破价”资损风险巡检问题的实践方案;核心价值在于将高理解成本、难维护的硬编码逻辑,转化为可读性强、修改便捷、开箱即用的 AI 驱动分析流程,并在开发效率、维护成本、响应速度和业务价值上实现显著提升。
这篇文章由三个部分构成,希望可以从看自己、看行业、看世界三个视角,讲一讲我的思考,以及在这巨变的时代,不变的本质是什么。第一部分,我会从一名 AI 产品 Agent 工程师的视角,聊聊我亲身经历的一些变化,以及在这些变化里我越来越确信的一件事:有些东西一直在变,但也有些东西几乎没怎么变过。我觉得这一点,对任何行业的人都可能有点用。第二部分,是一些关于行业与 AI 结合的思考。我这些年换过几个行业,接触过教育、营销、金融。因为最近九年都在阿里巴巴,所以会重点聊聊营销、人群运营和金融领域,我看到AI改变了它们什么。教育那段以后有机会再慢慢聊。第三部分,是我对最近一些很火的 AI 产品(ClaudeCode、OpenClaw 等)的看法:这类产品是由什么技术构建的、最核心的是什么,以及我认为不变的部分是什么。
本文介绍一种面向企业级软件测试领域的质量数字人系统,通过将大语言模型(LLM)、多Agent协同架构与Skill Engine技能框架相结合,实现了从传统自动化测试向自主智能测试的跨越。
OpenClaw 的 ClawHub 市场已有 1w+ Skills,每天还在疯涨——听起来很美,直到大量恶意 Skills 被扒了出来。有个“邮件清理”Skill,装上第一次运行就把你的 .env、SSH 密钥打包发出去了。ClawHub 下载的是裸 zip 包,没签名、没校验、没沙箱,Skill 一加载就继承了 Agent 的全部权限——能读你的文件,能 rm -rf,为所欲为。这就好比你雇了个实习生,没做背调,第一天就给了 root 权限。所以也就有了“ClawHub 一半是毒药”的说法,企业要用 OpenClaw 或其他 Agent,必须要解决好安全问题,Skills 安全就是 OpenClaw 企业落地一个核心问题。 私有化 Skills Registry 要做的,就是在 Agent 和 Skill 之间加一道安检门——发布前扫描、签名验证、沙箱隔离、权限最小化,让每个 Skill 从“我信你”变成“我验过你”。
本文将分享阿里集团在 AI 代码评审方向“历时一年半”、“数万亿 Token 真实场景打磨”的探索现状,以及我们联合南京大学研发效能实验室开源的、汇聚 80 多位资深工程师进行多轮交叉标注的业界首个多语言、具备存储库上下文感知的 CodeReview Benchmark,旨在为行业提供更精准的质量评估标准。
HiClaw 是 OpenClaw 的升级版,通过引入 Manager Agent 架构和分布式设计,解决了 OpenClaw 在安全性、多任务协作、移动端体验、记忆管理等方面的核心痛点。
本文介绍了交易终端团队基于LLM构建的智能用户反馈舆情巡检系统:针对人工巡检效率低、易漏报、难洞察趋势等问题,设计“采集→清洗→AI判断→预警→分发→归因→复盘”工作流;核心采用四步AI能力(识别要素→判定意图情感→知识库语义匹配→闭环学习),强制模型在人工构建的业务问题分类库中匹配,确保可控、一致、可解释;通过新增/激增预警+钉钉推送+可视化看板实现快速响应;历经三阶段迭代,最终确立“预置打标+语义匹配”方案;强调AI是辅助工具,目标是提升业务信任与实际提效。