写在前面,由于现在LLM生成内容千篇一律,作者尽量自行撰写核心内容,LLM仅限于润色优化,争取把整个开发迭代历程完整呈现出来供学习交流。
HiClaw 是 OpenClaw 的升级版,通过引入 Manager Agent 架构和分布式设计,解决了 OpenClaw 在安全性、多任务协作、移动端体验、记忆管理等方面的核心痛点。
本文介绍了交易终端团队基于LLM构建的智能用户反馈舆情巡检系统:针对人工巡检效率低、易漏报、难洞察趋势等问题,设计“采集→清洗→AI判断→预警→分发→归因→复盘”工作流;核心采用四步AI能力(识别要素→判定意图情感→知识库语义匹配→闭环学习),强制模型在人工构建的业务问题分类库中匹配,确保可控、一致、可解释;通过新增/激增预警+钉钉推送+可视化看板实现快速响应;历经三阶段迭代,最终确立“预置打标+语义匹配”方案;强调AI是辅助工具,目标是提升业务信任与实际提效。
作为 Android 和 Kotlin 开发者,我们每天都在与逻辑分支打交道。if-else 作为最基础的控制流语句,是我们编码生涯的起点。它简单、直接,能快速解决问题。然而,随着项目变得越来越复杂,无处不在的 if-else 嵌套往往会演变成难以维护、难以测试、难以扩展的“代码泥潭”。初级开发者习惯于用 if-else 堆砌功能,而资深开发者则懂得在恰当的时机,引入设计模式来重构和优化。这并非要全盘否定 if-else,而是要学会识别那些预示着“坏味道”的场景,并用更优雅、更具扩展性的方式去解决它们。本文将从 Android/Kotlin 开发的实际场景出发,探讨如何将常见的 if-else 逻辑,逐步重构为更强大的设计模式。我们将覆盖策略模式、密封类、工厂模式、构建器、单例、高阶函数以及观察者模式,并深入讨论它们在 Kotlin 中的现代化应用、潜在的坑点以及如何在团队中推广这些实践。
用 Cursor 写代码的时候,明明团队有自己的组件规范,但 AI 生成出来的代码风格完全对不上号,每次都要手动改半天——这不是 AI 不够聪明,而是你没"教"过它。从 Cursor、Claude Code 到 GitHub Copilot,AI 编码工具正在从"对话助手"进化成能「自主执行任务」的 Agent。在这个趋势下,「Agent Skills」 悄然成为标配——简单说,它就是你写给 AI 的"操作手册",教会它一项技能,它就能在合适的场景自动调用。这篇文章,我会讲清楚 Skills 是什么、怎么写好、以及有哪些值得参考的案例。「无论你用的是 Cursor、Claude 还是 GitHub Copilot,都适用。」
OpenClaw 在开发者社区迅速获得 23万+ Stars,因其作为开源、本地优先的个人 AI Agent,能够将大语言模型的推理能力转化为对计算机的实际操作,为构建个人 AI 助手提供了系统级权限与自动化基础。然而,近期部分平台开始收紧对非官方入口的访问。谷歌以“恶意使用”为由,大规模封禁通过 OpenClaw 路由 Gemini token 的用户账号,Anthropic 随后也更新使用条款,明确禁止通过第三方工具调用 Claude 的 OAuth token。这些事件表明,依赖第三方订阅进行非官方调用存在账号安全风险与服务不稳定性。为规避此类问题,LongCat 团队提供稳定合规的官方免费 API,开发者可通过官方渠道直接接入,在确保账号安全的前提下构建自动化工作流。
本文系统性地梳理了 RAG(Retrieval-Augmented Generation,检索增强生成)系统从基础到高级的 20 种优化方法,涵盖分块策略、检索增强、查询优化、生成质量控制等多个维度。每种方法均附带核心代码实现(含简要注释),便于读者按需选型与落地实践。