在DeepSeek R1服务器不稳定令人困扰的背景下,MNN LLM应运而生。这是一款开源工具,支持本地部署、移动端运行以及多模态处理(如文生图、语音输入等)。通过模型量化与硬件优化,MNN LLM显著提升了推理速度与稳定性,同时解决了下载困难的问题。无论是Android、iOS还是桌面端用户,都可以轻松体验大模型的强大功能,真正实现“自己动手,丰衣足食”。
在大型语言模型(LLM)生态快速演进的今天,Model Context Protocol(MCP)作为连接 AI 能力与真实世界的标准化协议,正逐步成为智能体开发的事实标准。该协议通过定义 Resources(静态资源)、Prompts(提示词模板)和 Tools(可执行工具)三大核心能力,让开发者能够以模块化方式为 LLM 扩展文件系统访问、API 集成甚至物联网控制等交互能力。 然而当前 MCP Server 的开发部署仍存在显著痛点:开发者需要手动配置 Python/TypeScript SDK、处理依赖冲突,最终还需自行解决云端的 IaC 部署难题。这种碎片化体验使得从零构建 MCP Server 的成本过高。而通过 Serverless Devs CLI 工具,开发者能够一键拉起 MCP Server 项目,并在开发完成后一键部署到云端,显著缩短开发链路,提升 MCP Server 的开发效率。 本文将带你通过 Serverless Devs CLI 工具,开发并一键部署一个原生 SSE 的示例 MCP Server 到阿里云函数计算(FC),提供自带 LLM 的 Clien
我于 2023 年 12 月负责前端构建持久化缓存服务的设计与开发工作,并先后于 2024 年 3 月,12 月上线编译缓存和依赖缓存服务,如今距离服务上线已 1 年有余,我觉得现在是一个很好的时机和各位读者分享我在复盘这个项目时的一些经验和反思,希望对大家有所帮助,也欢迎各位的反馈和建议。
随着AI技术的飞速发展,2024年至2025年间,AI研发工具已成为软件开发领域的重要组成部分。本文从个人视角出发,从产品功能、使用体验、优劣势、收费模式及开源情况等多个维度,对当前主流的AI研发工具进行了全面对比分析。文章主要分为四大类:云端开发工具(如v0.dev、bolt.new、Lovable)、AI原生代码编辑器(如Cursor、Windsurf、Trae)、IDE插件(如GitHub Copilot、Cline、通义灵码)以及底层编码大模型(如Claude Sonet、Deepseek V3/R1)。通过横向对比,帮助开发者快速了解各类工具的特点与适用场景,为选择合适的研发工具提供参考。 此外,文章还探讨了AI研发工具未来的发展趋势,包括云端协同、全链路覆盖、多模态能力等方向,并指出当前AI出码的主要瓶颈在于长文本理解、图像识别及模型调用成本。尽管目前部分工具仍存在不足,但正如工业革命中蒸汽机取代手工锻打一样,AI研发工具正逐步改变传统开发流程,推动行业迈向更高效率的时代。
本文介绍了企业如何利用MCP(Model Context Protocol)实现AI应用架构的新范式转型。
作为一种新的商品表现形态,内容几乎存在于手淘用户动线全流程,例如信息流种草内容、搜索消费决策内容、详情页种草内容等。过去一年,我们通过在视频生成、图文联合生成等核心技术上的持续攻关,AIGC内容生成在手淘多个场景取得了规模化落地价值。本专题《淘宝的AIGC内容生成技术总结》是我们摸索出的一部分实践经验,我们将开启一段时间的内容AI专题连载,欢迎大家一起交流进步。
本文作者主要阐述为什么大家认为 Agent 模式会在 2025 年开始爆发,我们有了哪些进步,我们又面临了哪些挑战。
RTP-LLM是阿里巴巴智能引擎团队自研的大模型推理加速引擎,作为一个高性能的大模型推理解决方案,已在阿里内部众多LLM场景中得到实际应用与检验。本文探讨与分析了大模型推理引擎中P-D分离技术的意义与优势,并提出了项目自己的方案。
随着 AI 技术的飞速发展,MCP(模型上下文协议) 逐渐崭露头角。这项由 Anthropic 公司(Claude 的创造者)于 2024 年 11 月推出的开放协议,正在重新定义 AI 与数字世界的交互方式。这项开放协议不仅让 AI 突破传统对话边界,更赋予其执行现实任务的能力,堪称人工智能向"行动智能体"进化的里程碑。然而从火热概念到落地业务,MCP 还需要找到云端“好搭档”。