最近,「Harness Engineering」这个概念在 AI 工程圈里热了起来——Mitchell Hashimoto(HashiCorp 联合创始人、Terraform 缔造者)和 OpenAI 工程团队相继发文,描述了一套「让 Agent 可靠工作」的工程方法论。与此同时,笔者也在实践一套规范驱动(SDD)的 AI Coding 工作流,核心投入在于构建一套完整的 Spec 体系——把系统的意图、契约、行为规范结构化地写进仓库,让 Agent 有据可查。
用户接入云上大模型(LLM)时,通常面临端-云数据交互如提示词上传等隐私泄露风险。常规脱敏和加密手段难以同时保障数据安全隐私和推理高效准确,陷入“安全”与“智能”不可兼得的困局。 为此,字节跳动安全研究团队提出了一种轻量、高效的大模型隐私保护新范式——协变混淆:在系统开销、用户体验等与明文推理基本相当的情况下,实现了用户数据端到端隐私保护;尤其在需要同时兼顾安全性、成本与能效等多方诉求的场景下,PrivLLM 成功突破了现有密码学、TEE 等技术机制的应用瓶颈。
GoClaw 是一个用 Go 语言编写的个人 AI 助手,灵感来自 OpenClaw(原 Clawdbot/Moltbot)。它运行在本地服务器上,通过 WebSocket/HTTP 暴露服务,支持多种消息channel(Telegram、WhatsApp、飞书、QQ、Slack 等)接入。
从 speckit 踩坑到认知重建,从推翻精密架构到一个 AGENTS.md 文件重新出发。这篇讲的是"我做了什么,以及它为什么有效"。一个 AGENTS.md 文件,两个月后长成了拥有 22 个 Agent、27 个 Skill、28 个命令的工程体系。它不是设计出来的,而是被真实需求一步步逼出来的——中间经历了场景路由的建设与推翻、方法论的沉淀、多 Agent 协同代码审查的实战、运营活动配置的端到端落地,以及从一个人用到一个团队用的完整过程。如果你正在思考"AI 辅助开发到底能走多远",这篇文章给出的不是理论答案,而是一份带着所有弯路和修正的实践记录。
随着业务规模与流量的持续高速增长,自建 Redis 集群面临着更高地性能与稳定性要求,对平台化、自动化运维能力也提出了新的挑战。为进一步提升资源利用效率、保障服务稳定运行,并更好地支撑业务快速发展,我们对 Redis 平台进行了自动化能力的建设与升级,通过系统化的平台能力优化,降低人工运维费力度,提升整体运维效率与服务质量。
本文介绍了从“Vibe Coding”向“范式编程”演进的技术路径,核心是通过结构化规范(Spec)驱动AI生成符合企业级标准的代码。文章以淘系交易系统为背景,指出当前AI编程工具因缺乏领域知识、上下文缺失和规范约束,导致生成代码不可靠、难维护;为此提出“范式编程”——将规范置于开发中心,结合知识库、知识点、疑问点机制与AI Agent,构建可沉淀、可复用、可演进的AI领域专家体系,实现从“人写代码”到“人机协同”的范式升级。