本文以阿里云百炼上的工作流为例,将其封装成MCP服务并部署到阿里云百炼,随后引入智能体中,从而可以在智能体内使用自定义的MCP服务。今天我们先介绍其中一种方式。1. 编写代码封装MCP服务。2. 将封装后的服务发布到npm官方平台。3. 在阿里云百炼平台中创建自定义的MCP服务。4. 在智能体中引用自定义的MCP服务。
业界推测 2025 年是 AI Agent 的元年,从目前的技术发展速度看确实是有这个趋势。从年初 DeepSeek 的爆火开始,目前开源大模型的能力基本与商业大模型拉齐甚至是超越,完全开放的开源策略让大模型的使用彻底平权。这个可以说在某种程度上改变了 AI 应用的商业模式,基于自训练的闭源模型的优势被显著削弱,商业竞争从模型性能转向对应用场景的创新。 AI 应用的形态不断演进,从早期的 Chat 到 RAG,再到现在的 Agent。参考 Web 2.0 和移动互联网时代的技术发展,当某种新形态的应用开发需求爆发式增长,会催生新的开发框架和新的标准的建立,AI 应用正在经历这个过程。 目前开发框架还处于百花齐放的状态,Python 是否会成为主流开发语言,哪个开发框架会成为主流,这些都还未知,有待观望。但是近期比较火热的 MCP(Model Context Protocol)看起来已成事实标准,特别是近期 OpenAI 也官宣了对 MCP 的支持。 关于 MCP 的介绍不在本文赘述,本着学习的目的,动手做了一个实践,主要为了体验如何基于 MCP 开发一个 Agent 应用。本次实践会实
本文是对《淘宝十年产品事》与《淘宝技术这十年》两本书的阅读笔记总结。通过回顾淘宝过去十年在产品、技术、架构、中间件及开放平台等方面的发展历程,展现了其从初期到成熟阶段所经历的关键决策、问题解决策略以及创新设计。文章不仅梳理了淘宝在电商生态中的角色演变,还深入探讨了业务与技术之间的相互驱动关系。通过对历史的探究,我们得以了解前人的智慧与经验,为未来的发展提供启示与借鉴。
本文介绍了如何通过alibaba-cloud-ops-mcp-server和MCP(Model Context Protocol)实现AI助手对阿里云资源的复杂任务操作。内容涵盖背景、准备步骤(如使用VS Code与Cline配置MCP Server)、示例场景(包括创建实例、监控实例、运行命令、启停实例等),以及支持的工具列表和参考文档。借助这些工具,用户可通过自然语言与AI助手交互,完成ECS实例管理、VPC查询、云监控数据获取等运维任务,实现高效“掌上运维”。
在DeepSeek R1服务器不稳定令人困扰的背景下,MNN LLM应运而生。这是一款开源工具,支持本地部署、移动端运行以及多模态处理(如文生图、语音输入等)。通过模型量化与硬件优化,MNN LLM显著提升了推理速度与稳定性,同时解决了下载困难的问题。无论是Android、iOS还是桌面端用户,都可以轻松体验大模型的强大功能,真正实现“自己动手,丰衣足食”。
在大型语言模型(LLM)生态快速演进的今天,Model Context Protocol(MCP)作为连接 AI 能力与真实世界的标准化协议,正逐步成为智能体开发的事实标准。该协议通过定义 Resources(静态资源)、Prompts(提示词模板)和 Tools(可执行工具)三大核心能力,让开发者能够以模块化方式为 LLM 扩展文件系统访问、API 集成甚至物联网控制等交互能力。 然而当前 MCP Server 的开发部署仍存在显著痛点:开发者需要手动配置 Python/TypeScript SDK、处理依赖冲突,最终还需自行解决云端的 IaC 部署难题。这种碎片化体验使得从零构建 MCP Server 的成本过高。而通过 Serverless Devs CLI 工具,开发者能够一键拉起 MCP Server 项目,并在开发完成后一键部署到云端,显著缩短开发链路,提升 MCP Server 的开发效率。 本文将带你通过 Serverless Devs CLI 工具,开发并一键部署一个原生 SSE 的示例 MCP Server 到阿里云函数计算(FC),提供自带 LLM 的 Clien
我于 2023 年 12 月负责前端构建持久化缓存服务的设计与开发工作,并先后于 2024 年 3 月,12 月上线编译缓存和依赖缓存服务,如今距离服务上线已 1 年有余,我觉得现在是一个很好的时机和各位读者分享我在复盘这个项目时的一些经验和反思,希望对大家有所帮助,也欢迎各位的反馈和建议。
随着AI技术的飞速发展,2024年至2025年间,AI研发工具已成为软件开发领域的重要组成部分。本文从个人视角出发,从产品功能、使用体验、优劣势、收费模式及开源情况等多个维度,对当前主流的AI研发工具进行了全面对比分析。文章主要分为四大类:云端开发工具(如v0.dev、bolt.new、Lovable)、AI原生代码编辑器(如Cursor、Windsurf、Trae)、IDE插件(如GitHub Copilot、Cline、通义灵码)以及底层编码大模型(如Claude Sonet、Deepseek V3/R1)。通过横向对比,帮助开发者快速了解各类工具的特点与适用场景,为选择合适的研发工具提供参考。 此外,文章还探讨了AI研发工具未来的发展趋势,包括云端协同、全链路覆盖、多模态能力等方向,并指出当前AI出码的主要瓶颈在于长文本理解、图像识别及模型调用成本。尽管目前部分工具仍存在不足,但正如工业革命中蒸汽机取代手工锻打一样,AI研发工具正逐步改变传统开发流程,推动行业迈向更高效率的时代。