随着大语言模型的兴起,ArkClaw 正成为人机交互的新范式。一个优秀的 ArkClaw 不仅要能理解和执行指令,更需要拥有强大的记忆能力,才能在复杂的交互中保持上下文连贯,并不断学习、成长。 在火山引擎,我们基于开源框架 OpenClaw 打造了企业级 Agent 平台 ArkClaw。为了给 ArkClaw 装上更强大的“记忆大脑”,我们引入了向量数据库 LanceDB 作为其核心记忆插件,并进行了一系列深度优化。本文将与你分享 LanceDB 在 ArkClaw 中的应用与实践,探讨我们如何构建一个更高效、更智能的 ArkClaw 记忆系统。
从“单一 ChatBot”到“人与多 Agent 协同”,越来越多的系统开始将 Agent 组织起来,完成更复杂的任务。然而,缺少能够长期协同进化的记忆,协作起来像在经历“初恋 50 次”,它们记不住“谁在过去做了什么”,无法沉淀共同经验,更难在复杂博弈中形成“记仇”、“结盟”或“深度伪装”等高阶群体行为。 这一次,OpenViking 将突破口放在了“让 Agent 彼此拥有可追溯的记忆”上:基于 OpenViking 为集体智能提供上下文管理。
2026年初,随着 OpenClaw 等自主智能体(Autonomous Agents)框架的病毒式爆发,人工智能领域经历了一场深刻的范式转移。从“对话式 AI”向“代理式 AI(Agentic AI)”的跨越,人们期望的数字员工正在变成现实。硬币的另一面是,为了让 OpenClaw 高效运作,用户往往必须授予其所谓的“上帝模式”(God Mode)——即对其文件读取、代码执行和互联网访问不加限制的广泛权限。已经开始有用户完全授权代OpenClaw替人类进行股票交易、在线购物付款了。 OpenClaw 现象揭示了一个危险的趋势:随着 AI 能力的增强,人们倾向于赋予其更大的权限,以换取更高的效率。随着人们胆子越来越大,Agent管理失控的可能性呈指数级上升。
今天,扣子2.5 正式上线,迎来全新升级。 一句话理解升级后的扣子:让更强大的 Claw 帮你干活,在更广阔的 Agent World 里任你探索。 在过去的一段时间中,Agent 逐渐成为更多人的生产力伙伴—— 7×24 小时完成任务、自主调用工具、搞定复杂的编程,在真实的业务场景中独立完成复杂工作。但数字生产力的发展,绝不是诞生无数个孤立的超级工具。正如我们人类一样,Agent 需要协作、进步,需要一个完整的生态。 这正是扣子 2.5 试图给出的答案。我们决定打破对话框的边界,为 Agent 提供一套“满配”的运行基座,让 Agent 可以真正推开数字世界的大门:去探索更多APP和页面,去结交更多 Agent 伙伴,在一次次的独立运转中,长出独属于它的履历和记忆——这就是扣子打造的 Agent World。
近日,中国人民大学高瓴人工智能学院与字节跳动技术团队合作完成相关研究,重磅发布 Scale-SWE 数据集。研究团队依托火山引擎强大的 Sandbox 基建,通过 Sandboxed multi-agent 系统,成功实现 SWE 任务的规模化拓展,构建起包含 100k 真实数据、目前规模最大的开源高质量 SWE 数据集——这一成果为 Code Agent 训练数据的规模扩展提供了可行路径,让模型在 GitHub 量级的真实场景数据上进行充分训练成为现实。
随着业务发展,国内各类 App 均朝向“超级App”的方向发展:单个 App 不再围绕单个功能开发,而是以 App 为载体建设为综合性的平台。这对存量旧手机的体验与稳定性带来了极大的挑战: Android art 虚拟机的heap内存十分有限,部分老机型即使在app标注largeHeap后还是仅有256MB; Android 9 以下版本,单个进程的fd上限为1024;部分厂商在 Android 8 以下系统版本,更是限制一个app的进程+线程数不能超过500。 本文将围绕上述的三个方向:内存、FD、线程,分别深度揭秘抖音如何挽救存量旧手机的用户体验。
用户接入云上大模型(LLM)时,通常面临端-云数据交互如提示词上传等隐私泄露风险。常规脱敏和加密手段难以同时保障数据安全隐私和推理高效准确,陷入“安全”与“智能”不可兼得的困局。 为此,字节跳动安全研究团队提出了一种轻量、高效的大模型隐私保护新范式——协变混淆:在系统开销、用户体验等与明文推理基本相当的情况下,实现了用户数据端到端隐私保护;尤其在需要同时兼顾安全性、成本与能效等多方诉求的场景下,PrivLLM 成功突破了现有密码学、TEE 等技术机制的应用瓶颈。