本系列文章基于 Lynxe 作者沈询的实战经验,深入浅出解析 ReAct Agent 的核心原理与工程价值,帮助开发者快速掌握从“写流程”到“造智能体”的关键跃迁。
本文总结了为解决 AI 数字人导购对话中的回答延迟感而进行的性能优化实践。初始的对话链路因 ASR、LLM 和 TTS 的串行叠加,导致平均端到端延迟高达 5.64 秒。为实现数据驱动的优化,首先搭建了一套覆盖全链路的高精度性能监控体系作为基础。核心解决方案是集成 Qwen Omni 一体化模型,旨在通过流式传输音频和文本来减少中间环节,同时在客户端设计了音频窗口缓冲机制以确保嘴型同步。最终,通过采用 ASR 后的文本输入 Omni 的优化方案,系统的平均端到端延迟从 5644 毫秒成功降至 1323 毫秒,取得了 76.6% 的显著提升,并大幅改善了系统的稳定性。
在一个生产环境中,服务节点通常暴露了成百上千个 HTTP 接口对外提供服务。为了保证系统的稳定性,核心 HTTP 接口往往需要配置限流规则。给 HTTP 接口配置限流,可以防止突发或恶意的高并发请求耗尽服务器资源(如 CPU、内存、数据库连接等),从而避免服务崩溃或引发雪崩效应。
推开AI的门,你是站在门外怕迟到的人。很多人害怕迟到,害怕在众目睽睽之下,被视作一个犯错的学生。就如同,AI“呼的一下”就来了,并且发展迅猛,很多人也怕被它甩在后面,而我就是其中之一。 神经网络是了解AI大模型无法绕过的话题,是现代大模型的基石。但是别看它现在风光,在过去的半个多世纪,却是无人问津,甚至备受争议,以至于等到它再次复出时,不得不被迫改名换姓,叫作深度学习。我在第一个部分将围绕神经网络基本概念,并将自己学习过程中的疑问,融入到文章内容,希望有着同样疑问人也能有所收获。 第二部分,我会利用前文的神经网络的知识,为大家勾勒大模型的大致轮廓,先是大模型的推理,而后是大模型训练。由于GPU与大模型相生相伴,我也将在其后,分享一些AI浪潮下,它对基础设施有哪些新要求。大多数人其实很少会直接接触到大模型,而更多是通过Agent来使用它,因此在文章的最后,会简单分享一下人们是如何使用大模型的。
在人工智能技术快速演进的时代,大型语言模型和AI智能体已成为各类应用的核心组件,引发AI相关API流量的指数级增长。而大模型网关,正是这场变革中应运而生的智能交通枢纽。 随着DeepSeek、Qwen等开源模型及各类商用大模型的普及,企业AI应用场景日益丰富,从智能客服自动化到代码生成与软件开发,从金融法律分析到内容生成引擎,AI正深度融入企业核心业务流程。 这种深度融合使得企业不仅使用SaaS化的LLM服务,更在私有化环境中微调、部署LLM模型,形成混合云架构,随之带来了多LLM适配管理、成本失控、数据安全和可靠性保障等系列挑战。
在互联网流量竞争白热化的时代,A/B实验已成为产品迭代的标准决策工具。当实验数量从数十增长到数百甚至数千数万时,传统的人工巡检模式遭遇瓶颈:需要专业的同学每日投入4-6小时逐个检视实验数据,判断其上线或下线;即使如此,由于时间压力和注意力限制,误判率依然居高不下。
2025年10月,淘天集团自营技术运营算法团队的研究成果《DeepStock: Reinforcement Learning with Policy Regularizations for Inventory Management》荣获运筹学与管理科学领域极具声望的 “Daniel H. Wagner 杰出实践奖”(Daniel H. Wagner Prize for Excellence in the Practice of Advanced Analytics and Operations Research)决选荣誉。值得一提的是,这是该团队继 2022 年首次入选该奖项决选名单后,第二次获此殊荣,彰显其在工业级智能决策系统领域的持续领先能力。
OpenClaw(原名clawdbot)突然就火了,了解后发现多终端协同的人机协同方式的jarvis正是自己的日常工作方式!在此之前,为了方便自己用 AI ,我基于 claude agent sdk 手搓了一整套工具链,打造自己的 Jarvis,IM接入功能算是基操了。 本文带大家快速体验一下 Agent Studio 在企业微信快速接入过程。