OpenAI的O1及其后续竞争者(如DeepSeek R1)的发布显著推动了大语言模型(Large Language Models,LLMs)在复杂推理方面的研究,引发学术界与工业界的双重关注。此项进展激发了相关技术成果的复现和在此基础上的创新。为系统构建该领域的研究框架,本文从自我进化(self-evolution)的角度系统地分类了现有技术。我们的调查发现分为三个相互关联的部分:数据进化(data evolution)、模型进化(model evolution)和自我进化(self-evolution)。
在移动应用开发中,滚动效果是提升用户体验的重要手段之一。然而,设计师的酷炫效果往往给开发者带来不小的挑战。本文将通过一个广告效果的实现,深入探讨ViewPager2的滚动机制,并结合源码分析如何优化自定义滚动效果。
在DeepSeek R1服务器不稳定令人困扰的背景下,MNN LLM应运而生。这是一款开源工具,支持本地部署、移动端运行以及多模态处理(如文生图、语音输入等)。通过模型量化与硬件优化,MNN LLM显著提升了推理速度与稳定性,同时解决了下载困难的问题。无论是Android、iOS还是桌面端用户,都可以轻松体验大模型的强大功能,真正实现“自己动手,丰衣足食”。
在大型语言模型(LLM)生态快速演进的今天,Model Context Protocol(MCP)作为连接 AI 能力与真实世界的标准化协议,正逐步成为智能体开发的事实标准。该协议通过定义 Resources(静态资源)、Prompts(提示词模板)和 Tools(可执行工具)三大核心能力,让开发者能够以模块化方式为 LLM 扩展文件系统访问、API 集成甚至物联网控制等交互能力。 然而当前 MCP Server 的开发部署仍存在显著痛点:开发者需要手动配置 Python/TypeScript SDK、处理依赖冲突,最终还需自行解决云端的 IaC 部署难题。这种碎片化体验使得从零构建 MCP Server 的成本过高。而通过 Serverless Devs CLI 工具,开发者能够一键拉起 MCP Server 项目,并在开发完成后一键部署到云端,显著缩短开发链路,提升 MCP Server 的开发效率。 本文将带你通过 Serverless Devs CLI 工具,开发并一键部署一个原生 SSE 的示例 MCP Server 到阿里云函数计算(FC),提供自带 LLM 的 Clien