刚刚,Qwen3正式发布并全部开源8款「混合推理模型」。 此次开源包括两款MoE模型:Qwen3-235B-A22B(2350多亿总参数、 220多亿激活参),以及Qwen3-30B-A3B(300亿总参数、30亿激活参数);以及六个Dense模型:Qwen3-32B、Qwen3-14B、Qwen3-8B、Qwen3-4B、Qwen3-1.7B和Qwen3-0.6B。
MCP(Model Context Protocol)协议是一个用于 AI 模型和工具之间通信的标准协议。随着 AI 应用变得越来越复杂并被广泛部署,原有的通信机制面临着一系列挑战。近期 MCP 仓库的 PR #206 [1]引入了一个全新的 Streamable HTTP 传输层替代原有的 HTTP+SSE 传输层。两个协议简单对比如下:HTTP+SSE:客户端通过HTTP POST发送请求,服务器通过单独的SSE(Server-Sent Events)端点推送响应,需要维护两个独立连接。Streamable HTTP:统一使用单一HTTP端点处理请求和响应,服务器可根据需要选择返回标准HTTP响应或启用SSE流式传输。本文将详细分析该Streamable HTTP的技术细节和实际优势。
本文主要分享在过去的春节主互动中前端的一些实践,主要涵盖在复杂项目中的前端项目架构设计、数据管理、动画渲染、性能优化、高并发优化、异常容灾、研发流程协同等各个方面。
Nacos 3.0 正式版本发布啦!升级 MCP Registry,围绕着 MCP 服务管理,MCP 多种类型注册,包含 MCP Server 注册、编排、动态调试和管理,并且提供 Nacos-MCP-Router 可以进行 MCP 动态发现,可以自动安装、代理 MCP Server,全生态面向 AI Registry 进行升级;升级安全架构,默认开启鉴权,基础架构一系列升级,作为云原生时代的基础设施级产品,Nacos 3.0 不仅是技术能力的跃升,更是以更高效、安全的方式帮助用户构建云原生 AI 应用架构!
MCP使得 AI 发展的更迅猛,让 AI 不仅能说,还长出手来,可以自己做事。 Manus到如今已小有名气,被自媒体誉为"下一个国产之光"。随后OpenManus 光速进场,阿里QwQ(这个表情真可爱 XD )也积极与 Manus 和 OpenManus 合作,强强联合。同时当前 AI 编码工具 Cursor,Cline 也都有自己的 MCP Server Marketplace,AI x 工具 的生态正在蓬勃发展,其中离不开的核心就是 MCP。对于个人来说,AI 以及 AI Agent 让我们从「我只能做什么」,转变成「我还能做什么」,但是 AI 也如一面镜子,照映的是我们自己。
在进行Agent能力落地、推广的过程中,我经常被问到一个问题:为什么一定要做Agent智能体?提出这个问题的人也挺多的,其实逻辑也并不复杂:同样的业务场景,使用Agent无非就是构建了一个基于大模型按多步骤执行的流程,如果通过传统的开发方法,如硬编码(Hard Code)或者低代码的配置化平台(如一些SOP配置平台、流程编排平台等),其实也同样能实现类似Agent的流程功能。
只需输入一段语音和一张照片,即可自动生成一个形象生动、口型与语音高度同步的视频人物。支付宝多模态应用实验室在 2024 年先后研发并开源了 EchoMimicV1 和 EchoMimicV2 两个生成式数字人项目。相关技术论文分别被 CVPR 2025 和 AAAI 2025 国际顶会接收。
本文深入解析了2025年春晚互动小游戏的技术实现,重点探讨了如何通过前端技术应对高并发和跨端协同的挑战。文章从背景出发,详细介绍了为确保用户流畅体验所采取的关键技术措施,包括渲染性能优化、Eva.js框架升级至2.0版本、WebGL 2的应用以及伪3D场景的实现等。此外,还分享了开发过程中遇到的挑战及解决方案,并展望了未来互动引擎的发展方向。