文章首先拆解了上下文工程的五大最佳实践模式(状态管理、渐进式上下文、结构化输出、模版程序、多步处理),并深入对比了 Skill 与 Subagent 在上下文管理机制上的本质差异。
本系列文章基于 Lynxe 作者沈询的实战经验,深入浅出解析 ReAct Agent 的核心原理与工程价值,帮助开发者快速掌握从“写流程”到“造智能体”的关键跃迁。
本系列文章基于 Lynxe 作者沈询的实战经验,深入浅出解析 ReAct Agent 的核心原理与工程价值,帮助开发者快速掌握从“写流程”到“造智能体”的关键跃迁。
本系列文章基于 Lynxe 作者沈询的实战经验,深入浅出解析 ReAct Agent 的核心原理与工程价值,帮助开发者快速掌握从“写流程”到“造智能体”的关键跃迁。
本文总结了为解决 AI 数字人导购对话中的回答延迟感而进行的性能优化实践。初始的对话链路因 ASR、LLM 和 TTS 的串行叠加,导致平均端到端延迟高达 5.64 秒。为实现数据驱动的优化,首先搭建了一套覆盖全链路的高精度性能监控体系作为基础。核心解决方案是集成 Qwen Omni 一体化模型,旨在通过流式传输音频和文本来减少中间环节,同时在客户端设计了音频窗口缓冲机制以确保嘴型同步。最终,通过采用 ASR 后的文本输入 Omni 的优化方案,系统的平均端到端延迟从 5644 毫秒成功降至 1323 毫秒,取得了 76.6% 的显著提升,并大幅改善了系统的稳定性。
在互联网流量竞争白热化的时代,A/B实验已成为产品迭代的标准决策工具。当实验数量从数十增长到数百甚至数千数万时,传统的人工巡检模式遭遇瓶颈:需要专业的同学每日投入4-6小时逐个检视实验数据,判断其上线或下线;即使如此,由于时间压力和注意力限制,误判率依然居高不下。
2025年10月,淘天集团自营技术运营算法团队的研究成果《DeepStock: Reinforcement Learning with Policy Regularizations for Inventory Management》荣获运筹学与管理科学领域极具声望的 “Daniel H. Wagner 杰出实践奖”(Daniel H. Wagner Prize for Excellence in the Practice of Advanced Analytics and Operations Research)决选荣誉。值得一提的是,这是该团队继 2022 年首次入选该奖项决选名单后,第二次获此殊荣,彰显其在工业级智能决策系统领域的持续领先能力。
随着 AI Agent 应用的快速发展,智能体需要处理越来越复杂的任务和更长的对话历史。然而,LLM 的上下文窗口限制、不断增长的 token 成本,以及如何让 AI“记住”用户偏好和历史交互,都成为了构建实用 AI Agent 系统面临的核心挑战。记忆系统(Memory System)正是为了解决这些问题而诞生的关键技术。记忆系统使 AI Agent 能够像人类一样,在单次对话中保持上下文连贯性(短期记忆),同时能够跨会话记住用户偏好、历史交互和领域知识(长期记忆)。这不仅提升了用户体验的连续性和个性化程度,也为构建更智能、更实用的 AI 应用奠定了基础。