这几年,因为开源协议“倒大霉”的开源项目不在少数,典型的案例例如因GPL协议的“传染性”而被索赔9亿等等(只要产品中用了GPL代码,所有关联代码必须开源)。那是不是说,GPL传染性极高,用docker隔离GPL代码也无法规避传染性,那就不用GPL协议就好了?MIT宽松又友好,选MIT是不是就没啥风险?
美团外卖推荐算法团队基于HSTU提出了MTGR框架以探索推荐系统中Scaling Law。MTGR对齐传统模型特征体系,并对多条序列利用Transformer架构进行统一建模。通过极致的性能优化,样本前向推理FLOPs提升65倍,推理成本降低12%,训练成本持平。MTGR离在线均取得近2年迭代最大收益,且于2025年4月底在外卖推荐场景全量。本文系相关工作的实践与经验总结,希望能给从事相关方向研究的同学带来一些帮助。
DeepSeek-V3 在多个评测中展现出强大性能,成为当前最受关注的开源大模型之一。由于采用了大规模 MoE 架构,如何优化推理性能,是工程落地上的关键难点。DeepSeek 团队于 2 月相继开源了 DeepEP、DeepGEMM、FlashMLA、EPLB 等关键组件。在开源社区工作的基础上,我们在RTP-LLM上完成了优化工作,对齐了 DeepSeek 推理系统的性能。 RTP-LLM 是阿里巴巴爱橙科技研发的 LLM 推理加速引擎,主要服务阿里集团内部业务。本文将分享实现过程中的一些关键技术点、不足和思考,以此感谢开源社区对我们的帮助。相关代码正在整理和重构中,不久之后会更新完整的代码和复现方法。
本文探讨了团队在代码风格与结构一致性上的长期实践与思考,分享了如何通过统一的代码规范和框架设计,提升代码可读性、可维护性,并降低团队协作与新人上手的成本。文章从问题起源、解决方案、实际收益到具体落地工具进行了全面阐述。
本文介绍了vivo互联网研发效能平台建设与最佳实践的话题,将分为4个部分与大家分享,分别是研发效能提升的背景与挑战、关键场景技术,以及在项目案例中的实践与效果,最后也将和大家探讨未来在研发效能提升上的一些规划与思考。
2022年11月30日,ChatGPT的发布正式敲响了大语言模型(LLM,Large Language Models)时代的大门。而后的2023年,自然语言处理(NLP,Netural Language Process)技术飞速发展,LLM领域取得了诸多重大突破,这一年也被称为LLM元年。同年6月13日,OpenAI在gpt-4-turbo模型中首次引入函数调用(Function Calling)能力,为LLM突破纯文本交互边界迈出关键一步。而后的2024年11 月 25 日,Claude AI的开发商Anthropic开源的模型上下文协议(MCP,Model Context Protocol)通过建立规范化的模型间通信标准,进一步扩展了LLM应用的上限。2025年3月27日,OpenAI 宣布正式支持MCP,再次将MCP送上热搜... 在人工智能技术日新月异的今天,如何让模型更加智能、灵活地与现实系统或其他模型进行交互,已成为推动AI应用落地的关键课题。在接下来的内容中,本文将着重介绍函数调用与MCP出现的历史缘由以及必要性,并在文末结合腾讯广告API简单演示了MCP与业务结合的实践
随着直播行业蓬勃发展,行业规模持续扩大,平台正在积极构建更加规范、健康的直播环境。在这一进程中,通过完善内容审核机制、提升主播职业素养、完善直播规范等举措,不断净化网络空间,推动行业向更高品质方向前进,助力长期可持续的健康发展。