Ray Data是构建于Ray之上的分布式数据处理库,提供了高性能且可扩展的API,可被有效结合到AI相关场景,例如批量推理、数据预处理等。Ray Data内部通过流式执行机制来有效处理大规模数据集,并可有效的利用异构架构,不让CPU或GPU成为数据处理的瓶颈。虽然Ray Data提供了简单易用的API,但其内部实现与执行原理较难理解,二次开发与问题排查有一定的难度,因此本文从Ray Data源码入手,重点分析了Ray Data流式执行的实现原理。
人人都在聊MCP,但人们口中的MCP往往只是一个拼凑而成的幻影。如今,各大厂商纷纷为它镀金包装,就像硅谷创投圈每隔几年就热炒一次的那个“改变世界”的万能工具。然而,当最初的狂热稍退,我们不得不面对更复杂的问题:MCP真的适用于所有场景吗?它是否被赋予了过高的期待?技术史上从不缺少“神话”,而真正的进步,往往始于祛魅之后的清醒认知。
在得物技术团队双周迭代模式下,前端自动化测试体系的建设已成为提升研发效能的关键突破口。当前技术部门推行研发自测的核心诉求,其核心诉求在于通过建立可信的质量保障机制释放测试资源,以此承接更多的业务需求,提升需求吞吐率。双周迭代的机制对研发流程提出了双重挑战:既要保障两周内完成需求开发、测试验证到交付上线的完整闭环,又需保障研发交付的代码质量稳定可靠且经过充分的测试验证。服务端已通过流量回放、代码覆盖率检测等成熟方案构建质量护城河。我们统计了各个前端业务域在2025 年Q1中的自测率,服务端实际自测率为:24.45%,而前端的实际自测率仅有:15.35% 。因此,在完成技术部研发自测率25% 的目标的情况下,前端是一个较大的短板。而制约前端实际自测率提升的一个重要的因素就是缺乏像服务端流量回放和代码覆盖率检测技术这样的自动化代码质量保障技术,导致测试同学对于前端自测质量的置信度存疑,无法检测和衡量负责该需求的前端是否已经完成了足够详尽的自测。因此,如果需要提升前端的研发自测率,我们首先需要从这些质量保障技术出发,夯实地基,构建属于前端的质量保障护城河。
今年是微信读书上线10周年,后台架构也伴随着微信读书的成长经历了多次迭代与升级。每一次的组件升级与架构突破,在一个运行了10年的系统上落地都不是一件容易的事情,需要破釜沉舟的决心与胆大心细的业务联动。本文简要概述微信读书后台团队近几年的一些架构迭代以及背后的思考。
本文探讨了在大模型(LLM)时代下,如何重新定义业务核心资产以及Agent的演进与协作机制。文章从技术分层、Agent定义、协作模式、任务分配、冲突解决到工具调用标准(如MCP协议)等多个维度展开分析,并结合工程实践视角,提出了对Agent平台能力建设的思考,旨在为构建高效、灵活、可扩展的Agent系统提供参考。
最近刷了几篇cursor的文章,看到其中一篇文章介绍了几个cursor项目开发案例,突然有种睁眼看世界的感觉。之前对AI Coding的认知还停留在tab补全、自动生成单元测试上,没想到现在已经发展到直接能开发项目了,某种意义上做到了“有嘴就行”。于是试玩了下cursor,并结合了MCP、Rules、Docs等新功能,帮助对cursor不熟的同学快速入门。 Model Context Protocol,模型上下文协议。 官网:https://modelcontextprotocol.io/introduction功能:MCP provides a standardized way to connect AI models to different data sources and tools.(类比电子设备现在通用的USB-C口,MCP提供了一种开放标准,能让AI应用安全地访问和操作本地及远程数据,为AI应用提供了连接万物的接口)
OpenAI Agents SDK是一个轻量级且易于使用的工具包,用于构建基于代理的AI应用程序。 提供了一些基本构建块,包括具备指令和工具的代理(Agents)、用于代理间任务委托的交接(Handoffs)以及用于输入验证的护栏(Guardrails)。 在官网上OpenAI给出了两个理由使用它,而且也介绍了 Agent Loop、Python-first、Handoffs、Guardrails 、Function tools 和 Tracing 6个特性,对于现阶段的我们对Pyhon-first 和 Function tools 就不做过多的阐述了,但是其他的四个特性还需要进一步详细阐述。