本文系统性地阐述了如何从工程实践角度设计、实现和落地一个可控且可用的 AI Agent 系统。全文以大模型(LLM)为认知核心,围绕“让 LLM 从被动响应走向主动规划与执行”这一主线,构建了一个面向工业级应用的 AI Agent 全栈知识与设计框架。作者强调在定义清晰的领域内,AI Agent 不仅是工具,更是具备持续进化能力的可靠协作者。
LoongFlow 是百度百舸团队发布的一个开源的、旨在让 AI 学会「专家级思考」的智能体开发框架。我们相信,设计一个能解决复杂问题的专家级 Agent,关键在于其思考模式——它决定了 Agent 能解决问题的复杂度和效果上限。
AI编程工具正在重塑开发流程,但真正的价值不在于替代开发者,而在于构建人机协作的新型开发范式。Claude Code通过精准对话流设计、模块化任务分解和专业化子代理协作,在提升开发效率的同时,也面临着上下文管理、协作边界和质量控制等实际挑战。 作为一线开发者,我们每天都在与复杂的业务逻辑和不断迭代的技术栈打交道。不知道你是否也遇到过这些场景:刚理清一个复杂业务流程,被打断后又得重新梳理思路;接手一个老项目,花了半天还没搞懂其中某个模块的设计思路;或者在不同项目间切换时,总要重新适应不同的编码规范和架构风格。
大模型推理性能优化比较复杂,千头万绪,涉及推理框架、模型特性、GPU硬件特性、算子优化、网络基础设施、通信协议、SLO等很多方面因素,优化的时候主要用工具分析Timeline,借力开源成果进展以及参考业界的各种论文和做法展开,总有一些东一榔头西一棒子的感觉。当涉及到灵魂拷问的时候,其实挺难回答,比如问:在某某芯片上的推理成本,还能降低到多少? 但大模型推理加速也有一些内在规律:大模型推理性能的核心挑战源于算力、显存、显存带宽、通信带宽等资源不匹配或短缺。该挑战在宏观分布式架构、中观框架设计、微观算子实现、更细粒度的计算优化等不同层级上均存在。 本文提出分形思考框架,借鉴分形几何的自相似性原理,在全层级遵循 “看清楚 - 避免浪费 - 提升利用率 - 节约资源” 的统一优化逻辑,尝试系统性地应对各种大模型在不同硬件上的推理优化的复杂局面,当普遍认为优化空间不大的时候, 实践看还是能分析和找到优化方向和机会点,不容易遗漏和丢失重点。
腾讯混元AI Infra团队开源生产级高性能LLM推理核心算子库 HPC-Ops,该算子库基于生产环境痛点,采用 CUDA 和 CuTe 从零构建,通过抽象化工程架构、微架构深度适配及指令级极致优化等,降低底层算子开发门槛,将核心算子性能逼近硬件峰值,实现了显著性能突破。在真实场景下,基于HPC-Ops,混元模型推理 QPM 提升30%,DeepSeek模型 QPM 提升17%。同时,在单算子性能方面,HPC-Ops实现Attention相比 FlashInfer/FlashAttention 最高提升2.22倍;GroupGEMM 相比 DeepGEMM 最高提升1.88倍;FusedMoE 相比 TensorRT-LLM 最高提升1.49倍。
淘天音视频技术团队与上海交大合作论文《 FPEM: Face Prior Enhanced Facial Attractiveness Prediction for Live Videos with Face Retouching 》,被计算机视觉领域顶级会议ICCV 2025(CCF A类顶会,录用率24.2%)成功收录。
通过引入合适的 MCP Server,智能体可以深度参与到日常开发流程中,协助完成项目文件读取、官方文档获取、浏览器自动化、代码仓库管理,以及跨会话的上下文维护等任务。 本文将基于真实开发场景,介绍 TRAE IDE 中常用的 10 个 MCP Server,并梳理了它们的核心能力、使用场景与可用工具,帮助你在不同开发阶段选择合适的 MCP Server,从而提升你的日常开发效率。
在 AI 时代,若你还在紧盯代码量、执着于全栈工程师的招聘,或者仅凭技术贡献率来评判价值,执着于业务提效的比例而忽略产研价值,你很可能已经被所谓的“常识”困住了脚步。
2025年初,DeepSeek的走红让更多人明白,不仅仅是模型本身,训练和推理过程中工程上的优化同样重要。元旦假期看了朱亦博老师的一篇帖子,很受启发,2025年过去了,我想应该尝试来把亦博老师总结的25年AI Infra六个重点方向尽可能以一些简单易懂的方式向大家介绍一下,也希望让更多的同学可以对这一年里AI Infra的发展有一些简要的了解。