适用于 OpenClaw 的记忆插件

让 AI 拥有
类脑记忆

Memok 为 OpenClaw 提供持久记忆:自动保存、智能召回、夜间梦境优化,让智能体越用越强,真正记得你们聊过什么。

记忆与模型无关——任意大模型或小本地模型共享同一套强韧、可联想的长期记忆。轻量模型也能凭持久上下文与召回,表现出接近更大模型的判断力与「高智商」连贯推理

100K+
记忆句子
1000万+
词-句关联
24h
梦境周期

为什么做 Memok

智能体默认是「失忆」的:每次新会话都会丢掉好不容易积累的上下文。向量库有帮助,但往往意味着新厂商、难解释的相似度分数,以及沉重的 embedding 流水线——对必须本地部署或要在小模型上快速交付的团队尤其痛苦。

Memok 的起点很简单:可解释、可持久、可随时间变好的记忆层,与智能体一起安装、尊重隐私,并在夜间继续整理——让产品从「好看演示」走向「能上线的副驾驶」,而不先交一笔「记忆平台税」。

问题 → 在你方栈上可持久记忆 → 智能体连贯性可衡量。无需另购记忆 SaaS。

我们不单独维护 Release 发行页;迭代以仓库默认分支提交为准。缺陷请走 Issues;设计类交流可用 Discussions。

Memok 的故事

我们如何赋予 AI 类脑记忆——五章简单说明。

第一章:人类如何记忆

想象一下你的大脑在开会的场景。老板说了三件事:

  • 「下周五要交季度报告」
  • 「新客户对接人是 Elena Rossi,电话 +44 20 7946 0958」
  • 「下午三点团队聚餐」

你的大脑不会录下整段会议。 它会拆成小块——「报告-周五-截止」、「Elena-客户-电话」、「聚餐-三点-团队」——然后贴上标签。 红标签给重要的,灰标签给随便的。一周后,红标签还在;灰标签掉了,忘了。用得着就记住,用不着就忘掉。

第二章:AI 原来是条金鱼

现在的 AI(ChatGPT、Claude 等)就像一个超级聪明但记性极差的人

你:「我喜欢去科莫湖钓鱼,用蚯蚓效果最好。」

AI:「科莫湖那种世界级景点,水清鱼多,蚯蚓确实好使。」

第二天:

你:「我昨天说的钓鱼地点在哪?」

AI:「您昨天说了什么?」

每次对话结束,记忆就被清空。

第三章:Memok 给 AI 造了一个大脑

Memok 只做一件简单的事:给 AI 建一个跟人类大脑差不多的记忆系统

步骤1:拆解

当你跟 AI 聊天,Memok 不会存整段对话。它会请 LLM 帮忙:

「这段话讲了哪几件事?每件事的核心词是什么?」

你的钓鱼故事变成:

句子核心词
「去科莫湖钓鱼」科莫湖、钓鱼
「用蚯蚓作饵」蚯蚓、饵料
「钓到五条鲈鱼」鲈鱼、收获
「感到开心」开心、体验

然后存进数据库,句子和词连上线

第四章:贴标签与信念系统

每个句子有两个标签:

Weight(权重)

这句话有多重要?默认是 1。

Duration(新鲜度)

这句话有多新?默认 7 天。

刚存的记忆都是短期记忆,就像你昨天刚知道的事,记得清楚,但过一周可能就忘了。

第二天,你又聊起钓鱼,Memok 从库里随机抽一些记忆给 AI 看。但不是完全随机——Weight 高、Duration 新的记忆,被抽中的概率更大。AI 觉得有用,Memok 就给这条记忆 +1 Weight,+1 Duration。 你越聊钓鱼,「科莫湖」和「钓鱼」相关的记忆就越红、越新鲜。

第五章:AI 也会睡觉

人为什么要睡觉?科学发现,睡觉时大脑在做重要的事:

  • 整理白天记的东西
  • 忘掉不重要的
  • 强化重要的

Memok 也给 AI 设计了「睡觉」——每天晚上 03:00,自动「发梦」

做梦第一步:筛选记忆

  • Weight ≥ 7? → 升为长期记忆,不会被删
  • Duration 减 1(7→6→5→4→3→2→1→0)
  • Duration=0 且 Weight<7? → 删除(忘了它)

简单说:常被提到的记忆晋级,没人提的就慢慢遗忘。

结语:Memok 的使命

Memok 想让 AI 真正记住你

不是存个文件那种记住,而是像老朋友一样:

  • 你说过喜欢钓鱼,他下次主动提
  • 你提过周五要交报告,他周三提醒你
  • 你聊过担心的事,他后来还记得关心

有记忆的 AI,不只是更聪明。
是更懂你。

社区声音

我们鼓励在 GitHub Discussions 中分享公开的部署笔记、前后对比与教学实践。以下为基于早期 OpenClaw + Memok 用法的简短、匿名示意摘要(合成场景,非付费背书)。

跑了一周夜间整理后,助手不再反复追问发布清单——模型没换,少了很多「上下文断层」。

合成场景 · 内部运维试点(示意)

SQLite 留在 VPC 里,法务不必再为新的向量厂商过一遍 DPIA;召回结果在表里一行行可查。

合成场景 · 强合规行业草图(示意)

上周实验课里的概念会在新练习里被温和带出——不是魔法,但助教少重复讲定义的时间。

合成场景 · 教学场景(示意)

以上为匿名、合成示意,不代表所有负载下的效果。欢迎在 Discussions 写下可复现的真实案例。

到 Discussions 分享 →

开源共建

Memok 与 memok-ai(核心)与 memok-ai-openclaw(插件)仓库贡献者一起演进——此处不设「厂商团队墙」。读代码、提 Issue、提交小而美的 PR 皆可参与。

查看贡献者图 →

核心功能

不只是存储,而是类人脑的选择性记忆、联想式召回与睡眠巩固。任意模型共用同一套强大记忆层;小参数智能体也能靠长期记忆以小博大,表现远超「只会当下这一句话」的裸模型。

自动保存

每轮对话结束后自动提取核心内容,存入 SQLite 本地数据库。无需手动操作,对话即记忆。

智能召回

基于随机词采样 + 权重关联,每轮自动注入相关记忆候选。AI 自己判断哪些该用。

梦境优化

夜间自动运行 dreaming-pipeline:权重衰减、孤儿清理、记忆合并,让记忆越用越精。

类脑记忆的科学基础与技术壁垒

Memok 不是「换个名字的向量库」。管线刻意对齐认知科学中的要点——选择性编码、联想式提取、离线巩固与受控遗忘——让行为可解释、可审计,从而形成工程与产品上的差异化:比堆 embedding 更少的黑箱环节,却有一条从理论到落地代码的清晰路径。

科学锚点(启发式类比,非医疗声明)

  • 编码与显著性——每轮提炼核心句与关键词,更接近「要义记忆」而非原始日志堆砌。
  • 联想式召回——加权词–句图类似激活扩散:召回是可解释路径,而非难以说明的相似度分数。
  • 巩固(「梦境」)——夜间剪枝、合并与衰减,与文献中睡眠依赖的记忆重组形成类比。
  • 遗忘即能力——主动削弱低价值关联,避免智能体被陈旧上下文淹没。

技术白皮书

我们发布 Memok 算法原理的详细阐述:图构建、基于采样的召回、权重更新、梦境流水线,以及与稠密向量索引的复杂度取舍。可用于安全评审、论文引用、企业内架构评审与技术尽调。

目标用户与场景

不仅是个人 AI 开发者:面向企业内 AI 应用、教育科研、以及对数据极度敏感的行业团队。

🛠️

AI 开发者与集成方

插件作者、平台工程与 OpenClaw 运维:需要持久记忆,又不想单独维护一套向量云服务。

🏢

企业内 AI 与业务智能体

客服、销售、运营、知识库等场景——对话要跨周沉淀,而不是每张工单从零开始。

🎓

教育与研究

可复现的本地记忆层,适合实验课、人机交互研究与助教场景——图结构可审查,而非黑盒检索。

🔒

强监管与知识产权场景

法务、金融、医疗相关流程与研发资料:默认不把对话全文送往第三方 embedding 服务。

小模型也能有大智慧

顶级大模型不是「聪明」的唯一路径。Memok 为算力与预算有限的团队提供同一套持久、可联想的记忆层:7B 或更小的本地模型,也能在用户偏好、机构上下文与长期任务上保持连贯,把预算更多留给合规、产品与体验,而不只堆参数量。

隐私安全与本地部署

记忆默认落在本机或 VPC 内的 SQLite,无需把对话全文强制上传到向量云——这对数据敏感行业是结构性优势:更易做数据出境与驻留评估、更易做离线/专有云部署,并可对接现有 KMS、备份与访问审计策略,减少再引入一家向量厂商的子处理方谈判成本。

  • 默认路径不依赖云端 embedding,攻击面通常小于完整 RAG 栈。
  • 安装后可离线运行,适合实验室、边缘节点与高隔离环境(仍需您自行完成合规评估)。

典型应用场景

以下为合成旅程,用于说明记忆行为方式,不代表付费客户背书。

落地时请替换为您自己的试点数据与合规流程。

🎧

客服与售后副驾驶

每张工单可继承历史症状、SKU 特例与已执行过的政策例外。模型在回复前看到候选记忆——更少重复提问、更快首解。

📚

教学与辅导助手

学生上周卡壳的概念,在相关主题再次出现时被联想召回。进度以「句子 + 关联」编码,而非整段聊天记录,便于教师审计。

🏛️

企业知识从对话中沉淀

复盘、Runbook、销售对话以结构化记忆累积,而不是死在 Slack 线程里。召回默认在 VPC 内 SQLite,适合敏感行业。

性能数据

真实生产环境的运行数据

<50ms
召回延迟
SQLite 本地查询
~200ms
保存速度
每轮对话
~15MB
存储占用
1000+ 句子 + 关联

与传统向量数据库对比

一眼对比:Memok 把记忆图放在智能体旁边的本机 SQLite;常见托管向量库多一次网络跳转与单独计费。

特性MemokPinecone/Weaviate
部署成本
免费 (SQLite)$25-200/月
召回方式
词关联 + 权重纯向量相似度
可解释性
知道为什么召回黑盒
冷启动
立即工作需要大量数据
隐私安全
数据本地存储上传云端
🧠

真·联想式召回

不像向量库只找「相似」的,memok 能跨主题联想。提到「React」可能召回「hooks」「打包」「SSR」—语境相关但语义不必完全相同。

自我优化

梦境函数每晚自动清理 20-30% 低价值记忆。用过的记忆权重+1,越用越准。3天后有效记忆比例从 60% 提升到 85%+。

🎯

零配置上手

无需调 embedding 模型、无需设维度、无需建索引。安装即用,一条命令即可完成安装,记忆立即开始积累。

如何验证(以及尚缺什么)

本页数字来自长期内部自用实例,用于数量级判断,不能替代您在自有硬件、隐私模型与提示词分布上的压测。我们正在准备可复现实验包(数据集 + 脚本),方便第三方自行对比 Memok 与向量基线,而不必仅凭文案采信。

参考硬件(示意)

场景配置召回 p50(本地 SQLite)
开发笔记本8–16GB 内存、SSD、单用户典型候选拉取 <50ms
小型 VPC2 vCPU,与 OpenClaw 同区部署同量级,主要受磁盘与图规模影响
工作站32GB、NVMe、多插件宿主更大图仍有 headroom;仍无远程向量一跳

任务向对比(向量库 vs Memok)

  • 客服交接——向量检索擅长找「语义相近工单」;Memok 还能串起同一客户故事里的决策链(例如「退款 + 店铺积分」),即便措辞差异大。
  • Runbook 问答——纯余弦容易漏掉流程胶水句(「第 3 步后回滚特性开关 X」)。Memok 把这些步骤存成可加权联想的句子,复用时权重上升。
  • 小模型配对——自用实例中,经数晚梦境整理后,人工评估的有用召回比例约从 60% 提升到 85%+,且未更换底层 LLM。实际效果因任务而异,建议待公开 harness 发布后自行复现。
「不是最完美的向量搜索,但是最像人脑的记忆系统——有遗忘、有联想、有强化,而且零成本、零运维。」

工作原理

模仿人脑的记忆机制:编码 → 存储 → 召回 → 巩固

编码 → 存储 → 召回 → 巩固
1

对话编码

OpenClaw 每轮对话结束后,自动调用 memok 提取核心句子(core_idea)和关键词(core_words)。

// 自动触发,无需干预
对话 → 提取核心 → 存入 SQLite
2

记忆存储

数据分层存储:words(原始词)、normal_words(归一化概念)、sentences(句子)、links(关联)。

sentences: 1,176 条
normal_words: 1,548 个概念  
sentence_to_normal_link: 110,956 条关联
3

智能召回

每轮对话前,随机采样 20% 词汇 + 查询词汇,召回关联句子,注入系统上下文。

// 自动注入的候选记忆
(memok)以下为每轮自动附带的候选记忆...
- [id=123] memok v2 Pipeline 比 v1 快 8 分钟
- [id=456] 梦境函数设计:句子+词语两层清理
4

使用反馈

AI 若使用了某条记忆,调用 memok_report_used_memory_ids 上报,该记忆权重 +1,更容易被召回。

// AI 自动上报
memok_report_used_memory_ids([123, 456])
→ 句子 123、456 的 weight + 1
5

梦境整理

每日凌晨自动运行:duration 衰减、低权重句子清理、孤儿词删除、记忆合并。

# 每日 03:00 自动执行
predream-decay: 全表 duration -1
dreaming-pipeline: 抽词 → 故事 → 合并 → 清理

技术架构

轻量、本地、可扩展

SQLite
本地存储

单文件数据库,无需部署。支持 1000+ 用户规模。

OpenClaw
插件集成

原生插件 API,无缝集成对话流程。

LLM API
模型无关

支持 DeepSeek、Moonshot、OpenAI 等任何兼容 API。

Croner
定时调度

进程内定时器,无需系统 crontab。

社区与生态

以 GitHub 为枢纽:memok-ai 承载记忆管线;memok-ai-openclaw 承载 OpenClaw 插件。Issues 修缺陷、Discussions(memok-ai)聊设计、Star 传递需求信号。模板与集成指南优先在仓库内迭代。

安装 OpenClaw 插件

将 memok 安装为 OpenClaw 插件:境内推荐从 Gitee 插件镜像拉取一键脚本或手动克隆;亦可使用 GitHub 源(memok-ai-openclaw)安装即马上体验,无需漫长配置。记忆管线核心代码仍在 memok-ai

首次安装可能耗时较长。安装过程会拉取并安装 OpenClaw 及其依赖(npm 包等),在一般网络下可能需要数分钟——并非卡死,请耐心等待依赖安装完成。

安装命令、openclaw memok setup与模型建议见 站内 OpenClaw 插件文档

方式一一键脚本(推荐)

bash
# Linux / macOS(Gitee 镜像)
bash <(curl -fsSL https://gitee.com/wik20/memok-ai-openclaw/raw/main/scripts/install-cn-linux-macos.sh)

# Windows PowerShell(Gitee 镜像)
irm https://gitee.com/wik20/memok-ai-openclaw/raw/main/scripts/install-windows.ps1 | iex

方式二手动:从仓库安装 OpenClaw 插件

bash
git clone https://gitee.com/wik20/memok-ai-openclaw.git
openclaw plugins install ./memok-ai-openclaw
openclaw memok setup    # 交互式配置 LLM 和梦境时间
openclaw gateway restart

学习、排障与常见问题

视频教程与在线沙箱在路线图中——当前最快路径仍是安装 + GitHub 文档。正式指南扩展前,可先查阅下方 FAQ。

视频教程

安装与召回的录屏教程在规划中,请关注仓库与 Discussions 的首发通知。

即将推出

在线试玩

只读沙箱以便在生产安装前先体验召回——尚无公开 URL,已列入路线图。

路线图

商业合作咨询——请在 GitHub Discussions 说明部署与合规诉求。在明确提供企业 SLA 之前,此处不构成对商业条款的承诺。

安装成功但没有记忆写入,该查什么?

确认 OpenClaw 是否调用了插件钩子、SQLite 路径权限是否正确,并在一轮对话中打开日志。已知网关边界情况见 GitHub Issues。

能否完全不调用云端 embedding?

可以,这是默认路径。Memok 从抽取词与图权重构建关联,仅需您已为 OpenClaw 配置的 LLM 端点。

如何备份或迁移记忆?

对 SQLite 文件与配置目录做快照,与任何有状态服务一样:大版本升级前先备份。

在哪里提集成需求(Slack、Teams、自研 CRM)?

在 Discussions 附上流程草图;我们优先支持能自然映射到「句子 + 关联」模型的集成。

路线图与透明度

开源、本地优先;优先级随维护精力与用户反馈变化——请关注仓库提交与 Issues,并在 Discussions 用具体场景参与讨论。

功能请求与缺陷跟踪 →

已完成
社区版 v1.0
OpenClaw 插件、自动保存、智能召回、梦境优化 ✓
进行中
社区版完善
README、插件安装脚本(memok-ai-openclaw)、示例配置、常见技术栈集成说明
规划中
可复现基准包
公开脚本与数据集,便于在自有硬件上复跑 Memok 与向量基线对比
规划中
入门视频与托管试玩
录屏安装走读;可选只读沙箱,在生产安装前先感受召回
规划中
企业向安全资料包
威胁模型摘要、数据流图、便于 DPA 起草的表述(不能替代您的法律顾问)

安全与合规姿态

Memok 不能替代您的法务评估。我们提供的是更小、可审计的面:本地 SQLite、显式候选召回、无强制第三方向量上传。静态加密随磁盘/卷策略;传输安全沿用您已为 OpenClaw 与 LLM 配置的 TLS。

  • 访问控制由操作系统/容器 IAM 与 OpenClaw 配置共同承担——凭证轮换沿用现有流程。
  • 不为插件本身宣称 SOC2/HIPAA 等认证;强监管团队请与既有控制措施及文书配套使用。
  • 隐私政策与数据处理说明将随上游仓库版本化发布。

安全公告请关注仓库 →

让 AI 真正记得你

告别冷启动与失忆循环。为 OpenClaw 装上持久、可联想的记忆——任意模型、尤其是小模型,也能凭借连续上下文与召回,做出更大模型才有的连贯与高水准判断。