近年来,搜索/推荐/广告系统在粗排(Pre-ranking)与精排(Ranking)阶段的模型训练中,呈现出一个明确的趋势:从单目标优化转向多目标建模 + 多目标融合。模型目标多、融合公式复杂,给工程维护、算法迭代效率都带来了挑战。 为了明文化直白展示公式全景、方便决策调参方向,直接配公式、线上自动算(既支持精排预估目标融合、也支持业务条件boost)。我们设计并落地了加乘树调参框架。从1.0优化至3.0,我们提供了:一个调参框架(Java版、同时引擎基建同学落地了C++版)能支持不同算法环节“公式即配即用”,一个打通AB实验的一站式产品化平台,支持一站式“辅助配置->调试->开实验->变更管控”。 带来收益:无论是粗排还是精排,“训多目标、融公式” 已成为工业界标准范式。在得物社区搜索、推荐的模型迭代实践中,我们也确实走“模型多目标训练 + 融合公式调参”范式,2025在社区推荐、社区搜索落地了几十次LR(社区推荐内外流精排、粗排,社区搜索精排)、近百次加乘树推全。
众所周知,OpenClaw的强大在于其灵活的Skills生态和高效的大模型决策能力,作为个人智能助手,它可以在轻松在个人电脑上部署,并且接入飞书等常用聊天工具,实现方便的智能体验。 不过,OpenClaw内置的默认记忆插件仅基于文件记录操作,虽然能快速接入记忆能力,但会无差别的、事无巨细地保存所有的操作记录,不仅造成token消耗过多,增加开发成本,还存记忆不筛选、没有重点等多个问题,实则“反向拖后腿”,因此原生记忆系统也成了OpenClaw的一大“硬伤”。 与其在原生记忆插件的坑里反复调试、不如直接重构OpenClaw的记忆体系,openclaw-mem0-plugin插件应运而生,该插件将记忆接入mem0,实现记忆的精确检索,减少token的消耗;同时,在会话中自动捕捉关键的记忆信息;基于mem0云服务平台实现记忆跨会话,跨agent的管理。插件安装过程简单快捷,只需获取API Key和接入地址,并安装配置插件即可使用。 本文将介绍OpenClaw原生记忆系统的实现原理,手把手带你安装、体验openclaw-mem0-plugin插件.
很早就开始尝试用AI辅助写代码,当时的感受是:对于一些不需要太多上下文的小需求(最终的产物是代码片段,直接复制粘贴改改输入一般就能用)还是非常好用的;但当用于完整项目中时就一言难尽了,早期我用cursor最常遇到的是AI"小题大作",直接往项目里各种新增脚本,新增大量的代码,有被无语到,以至于使用频率降低到最后退订(当然这里还存在我自己的问题,对于让AI Coding的需求不够具体)
由于扩散模型在图像生成任务取得质的突破,越来越多的底层视觉任务受益于其强大的生成式先验——从图像超分辨率、去噪,到图像修复、扩散模型正以细节生成和语义理解的双重优势,重构底层视觉任务的技术范式。然而由于扩散模型由于其推理步数多,处理分辨率有限使得其在实际业务中难以真正落地。
本文围绕AI Coding在企业级软件研发场景中的应用展开深度思考,核心观点是:当前AI Coding虽工具繁多、执行能力快速提升,但在真实业务生产中尚未实现“质变式提效”,根本瓶颈不在于AI能否写好代码(执行复杂度),而在于人类如何准确、高效、规模化地将复杂任务目标准确传达给AI(目标传达复杂度)。文章指出,这一鸿沟的本质是专家知识未被体系化、结构化、自动化地沉淀与复用,导致信息熵过高、上下文工程依赖“人肉手艺”、知识重复建设、难以降本增效。因此,业务研发团队的AI Coding重点不应是自研Agent或追逐IDE新工具,而应转向构建分层、统一、可自治更新的专家知识库(覆盖基础技术、业务架构、团队规范、代码仓库等维度),推动从“工具提效”迈向“知识驱动的智能研发范式变革”。最终,程序员角色将从前端编码者升级为“产品工程师”与“业务架构师”,研发流程也将向需求—设计—编码—验收全链路AI协同演进。
如何把 8 年云端经验装进你的 AI 开发工具,让AI从"实习生"变成"持证上岗的专家"。分享如何用 Agent Skill 解决 AI Coding 领域的痛点问题,也分享如何解决 AI 不调用 Skill 等实践技巧。
在企业的技术运营中,一条被广泛验证的降本增效路径早已形成共识:采购时通过规模优势压低硬件单价,使用时借助调度、混部和潮汐算力提升资源利用率,业务侧则持续优化应用代码和架构。这条路径清晰、务实,也确实帮助众多企业有效控制了 IT 成本。然而,一个经常被忽略的事实是:即使那些拥有成熟技术团队、系统经过多年优化的业务,其计算成本中仍然普遍存在 10%-20% 的隐藏优化空间。对于一个年投入千万算力的客户来说,这意味着近百万的成本可以在不增加任何硬件投入的情况下被释放。问题是:当我们已经在前端、架构、资源调度上做了大量工作,这 20% 的空间究竟藏在哪里?
文章首先拆解了上下文工程的五大最佳实践模式(状态管理、渐进式上下文、结构化输出、模版程序、多步处理),并深入对比了 Skill 与 Subagent 在上下文管理机制上的本质差异。
Spark UI是Apache Spark内置的Web监控界面,为开发者和运维人员提供对Spark应用程序执行过程的实时、可视化洞察。它以直观的方式展示作业(Jobs)、阶段(Stages)、任务(Tasks)、SQL执行计划、Executor资源使用、存储状态及运行时环境等关键信息。通过Spark UI,用户可以快速定位性能瓶颈(如数据倾斜、Shuffle 开销、调度延迟)、分析执行计划、监控资源利用率,并进行有效的调优与故障排查。无论是开发调试还是生产运维,Spark UI都是理解和优化Spark应用不可或缺的核心工具。