本文基于天猫团队的真实实践,提出一套三层AI Coding度量体系: 质量指标(离线评测)——用垂直化业务用例+复杂度矩阵(业务复杂度×组件成熟度)+结果分/行为分双评分,定位模型能力短板; 链路指标(在线埋点)——追踪上下文“调用→命中→采纳”漏斗,通过四象限分析识别高频低效知识,驱动知识库、SPEC、Skills等优化; 结果指标(真实交付)——以需求为单位,计算AI参与覆盖率、代码上线采纳率(Diff级比对)、Token成本,验证实际价值。 核心目标:将“感觉有效”转化为可诊断、可调优、可共识的数据闭环,推动AI从工具升级为团队知识治理基础设施。
本文基于营销自动化数据驱动场景,分析介绍了Presto+大宽表方案、Bitmap方案、StarRocks方案的架构演进。
流式计算是实时数据驱动型企业的核心基础设施。 然而,随着业务发展,Flink 任务规模由最初的数十个跃升至成百上千,运维复杂度也随之呈指数级上升:深夜告警响应滞后、Checkpoint 失败根因难寻、OOM 问题反复出现、新人上手动辄数月…… 这些痛点不仅让 SRE 团队深陷‘救火’泥潭,更成为了业务团队拥抱流式计算的巨大阻碍。 我们始终在思考:是否有一种更自然、更高效的方式与实时计算系统交互? 为了打破这一困局,我们带来了全新的解决方案。通过将火山引擎流式计算 Flink 版的核心能力封装为一系列的 Flink Skills,并将其与智能助手 ArkClaw (OpenClaw) 深度融合。 致力于打造一种全新的实时计算协作范式:用自然语言驱动复杂运维,用 AI 实现故障诊断闭环。基于此,无论是资深 SRE 还是业务开发人员,都可以像和同事对话一样,轻松完成以往需要登录控制台、翻阅日志数小时才能完成的专业操作。
OpenClaw 火了。Mac mini 断货了,「上门装虾」成了新职业,GitHub 30 万颗星超过了 React 十年的积累。 但我身边一个很典型的现象是:很多人装完龙虾之后不知道拿它干什么。Mac mini 买了,Agent 跑起来了,然后呢? 这个问题不只属于龙虾热。AI 编程工具也面临同样的拷问。我自己每天都在用 Claude Code、Cursor、Codebuddy,最近留意了推特和内部群里的讨论,结合自己的体感聊聊。
作者通过亲手编写代码、研究底层原理和对比传统架构,系统地梳理了从“怀疑 AI”到“理解并驾驭 AI”的心路历程。
在 上一篇文章[1] 中,我们深入探讨了 Google ADK 的 Context 机制——UserContext、SessionContext、AgentContext 解决了智能体 " 记住什么 " 的问题。但一个完整的 Agent 系统还需要回答另一个核心问题:**" 如何行动 "**。如果说 Context 是 Agent 的 " 记忆 ",那么 Agent 就是 " 大脑 "。ADK 通过代码优先的设计哲学,让开发者用 Python 直接定义 Agent 的身份、使命、工具和协作关系——并通过 sub_agents 将多个 Agent 组合成层次化团队。本文将从单一 Agent 的核心要素出发,逐步解析 Multi-Agent 协作模式,帮你掌握构建可组合、可生产部署的多智能体系统的思维框架。
当每个业务场景都需要一个AI助手时,我们是在埋头苦干、重复造轮子,还是选择打造一条“AI助手生产线”?本文深入探讨智空间团队如何将执行、答疑、排查、极简场景四大高频需求抽象为可复用的技术方案,最终实现让业务方“配”助手而不是“开发”一个助手。
本文分享了构建“AI全栈研发知识基座”的团队实践经验,旨在解决通用大模型不懂特定业务逻辑的痛点。文章提出通过系统化梳理业务文档、代码规范、架构决策及历史案例,构建高质量的企业专属知识库,并结合RAG技术将其嵌入研发全流程。该基座不仅让AI在代码生成、Bug修复和需求分析中能精准理解业务上下文,减少幻觉,还通过持续反馈机制实现知识的动态迭代,使AI随着团队使用不断“进化”,最终成为真正懂业务、能落地的智能研发伙伴,显著提升团队整体效能。
在数字化运营中,用户行为分析是洞察业务痛点、驱动增长的核心手段。 火山引擎用户研究Agent是新一代用户精准洞察与决策助手。基于对行为、画像、业务领域知识等深度理解,挖掘群体特征,有效识别用户真实意图与偏好,辅助业务归因分析、输出有效建议策略。 本次分享整理自火山引擎数据应用资深工程师蒋煜在AIcon全球人工智能开发与应用大会上的演讲,将聚焦大语言模型(LLM)与行为分析的结合,从背景、产品价值、技术挑战及解决方案、回顾总结四个维度展开。