随着 AI,尤其是 Generative AI(后文简称 GenAI)的快速发展,AI Agent 系统中涌现出大量新的核心概念,例如 Model、Prompt、Token、Tool Calling、Agent、Memory、Session 等。这些概念已成为算法工程师、运维人员和可观测平台用户最关心的观测对象。它们需要像传统系统中的 HTTP 请求、数据库调用一样,被标准化地采集、展示和消费,以便系统维护者清晰了解调用过程、高效排查问题。基于此,OpenTelemetry(后文简称 OTel)早在 2024 年初就开始推动 Gen AI 语义规范建设,希望为这些新对象建立统一的数据采集规范——Semantic Conventions(后文简称 SemConv),以解决相关领域可观测数据采集标准缺失、口径不统一等问题。
两个月 5.2 万 Star,Hermes Agent 用一个"LLM 审判官"机制实现了 Agent 的自我进化——不改模型权重,只改"怎么用模型"的策略。我逐行读完源码后发现:所谓的"自动学习",本质是 Prompt Engineering + 文件持久化的一次精妙工程化实践。本文从源码层面拆解它的三大核心机制,并与 OpenClaw 做一次硬核对比。
文章从 Skill 的规范格式、三层渐进式加载机制、模型驱动触发逻辑出发,深入解析 Skill-Creator 的工程化开发范式。(文章内容基于作者个人技术实践与独立思考,旨在分享经验,仅代表个人观点。)
本文系统阐述了构建App稳定性分析Agent的必要性、核心设计与实现路径。传统的手动排查流程效率低下、严重依赖专家,而本方案通过将工具链自动化与AI智能分析相结合,构建了一个统一的Agent框架。该框架以可扩展的Tool(原子能力)和Workflow(场景策略)为核心,当前已成功落地闪退(Crash)自动分析场景,能够实现从崩溃日志解析、地址符号化、代码上下文提取到AI推理和修复建议的一站式处理。更重要的是,通过引入向量数据库驱动的RAG知识库,系统能将处理经验沉淀下来,实现越用越智能的“数据飞轮”效应。
当 Harness Engineering 成为 2026 年最热门的 AI 工程话题,业界争论焦点集中在"该用多大的模型"还是"该搭多复杂的工作流"时,我们团队在落地实践中发现了一个被低估的事实——构建 Harness 工作流不是最终目的,私域和团队知识的沉淀才是真正的技术护城河。本文分享我们在 AI Team 工程交付编排系统中,如何设计知识分层架构、如何让团队知识库共建共享、如何让工作流成为知识沉淀的载体、如何突破人机交互瓶颈实现随时随地的工作流流转,以及我们的落地经验和思考。
本文系统总结了汇金平台在缓存使用中的技术实践,涵盖缓存理论(适用条件、分类维度与选型方法)、落地实践(五类典型场景——配置/实体数据缓存、分布式锁、汇总计数等的选型依据与实现细节)以及缓存安全(穿透、击穿、雪崩、一致性、序列化、本地缓存并发等风险的成因与治理方案)。
AI coding agent 默认以最快速度到达「完成」,跳过写 spec、先写测试、上线检查这些在 diff 里看不见的工作。Addy Osmani 把 Google 二十年的工程实践蒸馏成 agent-skills——20 个结构化 Skill,加上一个负责任务路由的 Meta Skill,把高级工程师的判断力编码成 agent 无法绕过的工作流。值得注意的是,这套工程实践本身并不只属于 AI——写 spec、显式化假设、验收标准可量化、反合理化,对人类工程师同样适用,放进团队 wiki 照样有效。而 Addy 设计 Skill 的方式——触发条件、阶段检查点、边界三分法、反合理化内置——也是一套可以直接借鉴的方法论,无论你是在为 AI agent 还是为团队编写自己的 Skill。