OpenClaw是一款开源AI智能体框架,项目核心聚焦工程落地层面的开发,未开展全新大模型的训练工作,核心能力依托对不同类型模型与检索工具的整合、调度实现。
框架核心定位
OpenClaw的设计以实际可用性为核心导向,兼容本地部署与云端调用两种模式,支持多类模型的插拔式接入。框架整合传统信息检索算法、轻量语义模型、Transformer架构大模型的能力,搭建为可直接执行复杂任务的智能体系统,开发工作的重点集中在调度逻辑搭建、多环境兼容性适配、系统降级机制设计,而非基础模型的算法创新。
检索架构的核心组件与默认配置
OpenClaw的记忆与召回模块采用混合检索架构,核心由两路并行的检索通道组成。
第一路为BM25(Okapi BM25)检索通道,该算法是信息检索领域的经典关键词匹配算法,通过对词频、逆文档频率、文档长度归一化进行加权计算,完成文档与查询语句的匹配排序。在2026.3版本的OpenClaw中,BM25检索为默认开启状态,与另一路检索通道同步执行。
第二路为向量检索通道,该通道通过嵌入模型将文本转化为高维向量,基于向量空间的距离计算,完成语义层面的内容匹配。
向量检索的默认模型配置
OpenClaw的向量检索通道,会根据实际部署环境匹配不同的默认模型。
云端部署场景下,默认接入OpenAI的模型服务,配套的默认嵌入模型为text-embedding-3-small,向量维度为1536维。
本地部署场景下,默认嵌入模型为embeddinggemma-300M-Q8_0.gguf,模型文件大小约0.6GB,支持离线运行模式,模型文件可从Hugging Face对应仓库自动下载。
混合检索架构的设计逻辑
双路并行检索的架构设计,核心目的是实现两类算法的能力互补。BM25检索在精确符号匹配场景中表现出优势,可高效完成函数名、变量名、文件路径、命令语句、ID标识等内容的召回,匹配过程为确定性逻辑,不存在生成式模型的幻觉风险。向量检索则在语义匹配场景中更具优势,可完成同义词关联、上下文匹配、用户意图对齐类的内容召回。
两路检索的结果会通过加权融合的方式完成合并,默认权重配置为向量检索0.7、BM25检索0.3,融合后的结果经过排序处理后,会输入至后续大模型模块进行进一步分析处理。
该架构同时设置了降级机制,当向量检索服务无法正常使用时,系统可自动切换至纯BM25检索模式,保障核心的检索与召回功能可用。框架也支持手动调整检索模式,可关闭其中一路检索通道,单独使用单路检索完成任务。
OpenClaw的检索架构设计,以工程落地为核心目标,通过整合经典检索算法与现代语义模型,在检索召回的有效性、系统整体的可用性、多环境的部署兼容性之间形成平衡。该设计降低了智能体系统的部署与使用门槛,也为不同业务场景的适配调整提供了灵活的操作空间。
参考文献
OpenClaw Contributors. (2026). OpenClaw: Open-source AI agent framework. GitHub. https://github.com/openclaw-dev/openclaw