ByteKMP 是字节内部基于 KMP(Kotlin Multiplatform) 建设的客户端跨平台方案,希望通过 KMP 技术实现 Android、鸿蒙、iOS 三端的代码复用,以此降低开发成本、提高逻辑与 UI 的多端一致性。 由于抖音鸿蒙版已经基于 ArkTS 完成了大部分基础能力和部分业务开发,接入 KMP 后需要在充分复用现有 ArkTS 能力的同时,支持业务侧在 ArkTS 场景下调用 KMP 代码。因此,我们需要建设 Kotlin 与 ArkTS 之间的跨语言交互能力,为开发者提供便捷、高效的跨语言交互体验,助力 ByteKMP 在业务顺利落地。
随着人工智能技术的迅猛发展,AIGC(AI-Generated Content,人工智能生成内容)正逐步重塑内容创作行业的格局。尤其在视频内容领域,传统制作流程周期长、成本高、依赖人工创作,已难以满足日益增长的内容消费需求。AIGC技术的引入,为视频创作带来了前所未有的效率与可能性。AIGC工具在短视频应用率从22 年不足5%跃升到25年35%。电商场景下,越来越多的平台帮助商家进行AIGC商品视频的创作,帮助其提高商品转化率。基于上述两点,电商搜索在今年开始探索AIGC视频自动化生产方案,尝试基于视频自动化混剪,来满足搜索场景下日益增长的内容需求。
在微服务架构占据信息系统应用架构主流的当下,Java语言体系凭借Spring Cloud等成熟生态占据主导地位,而Python开发者却常常面临一个尴尬局面:要么接受繁重的侵入式编码,要么放弃微服务的诸多优势。作为一名Python开发者,Java生态中那种优雅的无侵入式服务注册与发现往往令人生羡,只需几个注解,Spring Cloud便能轻松完成服务注册、配置刷新和服务发现。为了将这样的体验带到Python的世界,我们开发并开源了基于 nacos 的 nacos-serving-python 项目。本文将介绍一种全新的Python微服务解决方案,让Python应用能够以真正Pythonic的方式迈向微服务架构。
本文系统解析了面向对象思想在软件工程中的核心价值与应用体系。作者从发展史切入,厘清面向对象与UML、软件工程、DDD等概念的关系,重点阐述用例建模方法、面向对象分析(OOA)的建模过程(含静态/动态建模及深层模型)、面向对象设计(OOD)的职责驱动模式(GRASP),最终构建出从理论到实践的完整知识框架。 对每个研发人员都有非常强的阅读价值,建议点赞收藏,国庆期间细细品味
在大模型驱动的智能应用时代,AI 生成内容的规模与复杂度持续攀升。无论是对话助手、智能体服务,还是客服系统与知识问答,Markdown 已成为连接 AI 与用户界面的关键桥梁,让信息表达更清晰、更结构化。然而,在移动端原生开发中,想要实现高效、流畅的实时 Markdown 渲染并同时兼顾流式增量输出与灵活样式定制,仍是一项棘手的技术挑战。为此,支付宝终端技术团队推出并开源了 FluidMarkdown —— 一款专为智能化业务场景打造的移动端原生 Markdown 渲染引擎,它能够轻松应对大模型的逐字输出,并为开发者提供高度可定制的交互与视觉表现,助力构建新一代智能应用体验。
随着大模型在Coding领域的表现越来越好,AI Agent技术从提示词+ Rag 迈向上下文工程,使得AI Coding高度自治成为了可能。本文将结合技术流程方案和项目实践落地案例,介绍携程机票在代码转译/迁移场景上的AI Coding助手 - Transpiler。
不同于传统软件开发通过编程与算法构建的确定性逻辑,AI 时代的应用构建以面对自然语言编程、上下文工程为核心特征,将复杂业务逻辑与决策过程下沉至模型推理环节,从而实现业务的智能化自适应。然而,AI 应用开发过程中仍面临诸多挑战,例如开发阶段强依赖模型黑盒特性,导致结果可控性不足、幻觉问题频发,从原型验证(PoC)到生产部署往往需要数月调优,核心痛点集中在调试效率与业务适配;上线后则面临推理延迟、稳定性波动、问题排查困难、安全风险凸显、输出不可靠及成本过高等问题,折射出企业级 AI 应用在稳定性、性能、安全与成本控制上的系统性挑战。
在过去几年里,我更换AI编程工具的频率,几乎赶上了前端框架的迭代速度。 一开始,我像许多人一样,让GPT帮我写一个孤立的函数,感觉很神奇。后来,GitHub Copilot成了我的标配,它总能猜到我接下来要写的几行代码,尤其是在写那些重复的样板文件时。再之后,Cursor出现了,它将对话和编码更紧密地集成在编辑器里,我开始尝试让它帮我完成更复杂的任务。
支付宝体验技术部正式对外开源智能编程助手 Neovate Code,能够深度理解你的代码库,遵循既有编码习惯,并在上下文感知的基础上,精准地完成功能实现、Bug 修复和代码重构。它集成了 Code Agent 所需的核心能力。
本文主要介绍了大模型时代下,如何通过 LoRA(Low-Rank Adaptation)这一参数高效微调技术,实现对大模型的轻量级定制。文章从微调的基本概念出发,详细阐述了 LoRA 的原理、优势与局限性,并结合本地原生实现(Transformers + PEFT)和百炼平台两种方式,展示了在小样本、低资源场景下的实战流程。结果表明,LoRA 能以极低的计算成本让通用大模型有效学习业务知识,显著提升其在特定任务中的表现,真正实现“让大模型懂业务”,推动 AI 从“可用”走向“好用”。