OpenClaw 向けメモリプラグイン

AI に
脳に近い記憶

Memok は OpenClaw 向けの永続記憶です。会話を自動保存し、関連する記憶を賢く注入し、夜間の「ドリーム」で整理します。エージェントは使うほど強くなる—何を話したか、本当に覚えている状態を目指します。

記憶はモデル非依存です。フロンティア LLM からローカルの小さなモデルまで、同じ耐久性と連想性を備えた長期文脈を共有できます。コンパクトなモデルでも、長期の判断力と連続性を少ないパラメータで「大きな脳」に近いふるまいへ近づけられます。

100K+
記憶センテンス
1000万+
語—文リンク
24h
ドリーム周期

なぜ Memok か

エージェントは既定で記憶を失います。新しいセッションのたびに、苦労して積み上げた文脈が捨てられてしまう。ベクター検索は助けになる一方で、新しいベンダー、説明しづらいスコア、重い embedding パイプラインを意味することが多く、ローカル運用や小さなモデルでの迅速な提供が求められるチームには負担になりがちです。

Memok の出発点は単純です。壊れにくく、説明でき、時間とともに良くなる記憶を、エージェントと一緒にインストールし、プライバシーを尊重しながら夜間にも整理する——「デモが映える」から「本番の副操縦士」へ、別のメモリ SaaS 税を払わずに進めるためのレイヤーです。

課題 → 自前スタック上の耐久記憶 → エージェントの連続性を測れる。別立てのメモリ SaaS は不要。

タグ付きリリースは公開していません。変更は デフォルトブランチに反映されます。不具合は Issues、設計の議論は Discussions へ。

Memok の物語

AI に脳に近い記憶を持たせるまで——五章の平易な説明です。

第一章:人はどう記憶するか

脳が会議中であると想像してください。上司が三つ言いました:

  • 「四半期レポートは金曜が締切」
  • 「新規クライアント担当は Elena Rossi、電話は +44 20 7946 0958」
  • 「午後三時にチームランチ」

脳は会議の録音全文を保存しません。 「レポート—金曜—締切」「Elena—顧客—電話」「ランチ—15時—チーム」のように塊に分け、タグを貼ります。 大事なものは赤いタグ、どうでもいいものは灰色。一週間後、赤は残り、灰は薄れて忘れ去られます。使うか、失うか。

第二章:AI は金魚だった

今の AI(ChatGPT、Claude など)は、とても賢いのに記憶喪失の人のようなものです。

あなた:「コモ湖で釣りするのが好きで、ミミズが一番効くんです。」

AI:「コモ湖は世界的な名所ですね。水が澄んで魚も多い。ミミズは本当に効きますね。」

翌日:

あなた:「昨日話した釣り場、どこでしたっけ?」

AI:「昨日、何をおっしゃいましたか?」

会話が終わるたびに、記憶は消えます。

第三章:Memok は AI に脳をつくる

Memok がすることは一つだけです。人間の脳に近い記憶システムを AI に用意することです。

ステップ1:分解

会話するとき、Memok は全文をそのまま保存しません。LLM に次のように頼みます。

「この発言の要点は?それぞれの核となる語は?」

釣りのエピソードはたとえばこうなります:

核となる語
「コモ湖で釣りをした」コモ湖、釣り
「ミミズをエサにした」ミミズ、エサ
「ペルチを5匹釣った」ペルチ、漁獲
「とても嬉しかった」嬉しい、体験

データベースに保存し、文と語をリンクします。

第四章:タグと信念システム

各文には二つのタグがあります。

Weight(重み)

どれだけ重要か。既定は 1。

Duration(鮮度)

どれだけ新しいか。既定は 7 日。

いま保存した記憶は短期記憶のようなものです。昨日聞いたことははっきり覚えていても、一週間後には薄れるかもしれません。

翌日、また釣りの話をすると、Memok はストアからいくつかの記憶をランダムに取り出して AI に見せます。完全なランダムではありません。Weight が高く、Duration が新しいほど選ばれやすい。AI がその記憶を使うと、Memok はその文に Weight +1、Duration +1 します。 釣りの話をすればするほど、「コモ湖」と「釣り」の記憶は強く、新鮮に見えていきます。

第五章:AI も夜に眠る

人はなぜ眠るのか。科学では、睡眠中に脳が次のようなことをしていると分かっています。

  • 昼間に得た情報を整理する
  • 重要でないものを忘れる
  • 大事なものを強化する

Memok も AI に「眠り」を用意しています。毎日深夜 3 時ごろ、自動で「夢見(ドリーム)」が走ります。

夢のステップ1:記憶のふるい分け

  • Weight ≥ 7? → 長期記憶に格上げ(削除されない)
  • Duration を 1 減らす(7→6→5→4→3→2→1→0)
  • Duration=0 かつ Weight<7? → 削除(忘れる)

要するに:よく話題に出る記憶は残り、誰も触れないものは薄れていく。

結び:Memok の使命

Memok は、AI に本当にあなたを覚えてほしいと考えています。

ファイルを置くだけの「記憶」ではなく、古い友人のように。

  • 釣りが好きだと言ったら、次に自分から話題にする
  • 金曜がレポート締切だと言ったら、水曜に思い出させる
  • 不安だったことを話したら、あとからも気にかけてくれる

記憶を持つ AI は、賢いだけではありません。
あなたを理解しているのです。

コミュニティの声

GitHub Discussions では、公開の導入メモやビフォー/アフター、教育向けのアイデアを歓迎します。以下は早期の OpenClaw + Memok 利用を想定した短い匿名シナリオ(合成・非広告)です。

夜間の整理ジョブを一週間回したら、同じ小さなモデルのままリリース手順を何度も聞き返されなくなった。

合成シナリオ · 社内運用パイロット(例示)

SQLite を VPC に置けたので、新しいベクトル SaaS の DPIA を増やさずに済み、行単位で監査しやすかった。

合成シナリオ · 規制寄り業界の例(例示)

先週の演習の概念が次の課題で自然に再登場し、TA が同じ定義を繰り返す時間が減った。

合成シナリオ · 教育利用(例示)

これらは匿名の合成例であり、すべてのワークロードを保証するものではありません。実際の構成は Discussions で共有してください。

Discussions で共有 →

オープンに開発

Memok は memok-ai(コア)と memok-ai-openclaw(プラグイン)のコントリビューターとともに前進します。別の「ベンダー名簿」はここにはありません。コードを読む、Issue を開く、小さく焦点を絞った PR を送る、すべて歓迎です。

コントリビューターグラフを見る →

コア機能

単なる保存ではなく、脳に近い選択的エンコード、連想的想起、睡眠時の統合。どのモデルでも同じ強力な記憶レイヤーを。軽量エージェントでも、パラメータ数以上の判断力と連続性を発揮しやすくなります。

自動保存

各ラウンドのあとに中核文とキーワードを抽出し、ローカル SQLite に保存。手作業は不要で、会話そのものが記憶になります。

スマート想起

語彙のランダムサンプリングと重み付き連想で、ラウンド前に関連候補を注入。どの記憶を使うかは AI が判断します。

ドリーム最適化

夜間に dreaming パイプラインを自動実行:重みの減衰、低価値メモリの整理、孤立語の削除、マージ。時間とともに精度が上がります。

脳に近いメモリの科学と設計

Memok は名前だけのベクターストアではありません。選択的エンコード、連想的取得、オフラインでの統合、制御された忘却——認知メカニズムに意図的に沿ったパイプラインで、挙動を説明しやすくします。embedding スタックより部品は少なくても、理論から実装までの筋が通りやすいのが強みです。

科学との対応(インスパイアであり医療主張ではありません)

  • エンコードと顕著性— 各ラウンドで中核文とキーワードを蒸留。生ログの垂れ流しではなく、要旨ベースの記憶に近い形です。
  • 連想的想起— 重み付き語—文グラフは活性化の拡がりに似ており、想起は説明可能なパスであり、不透明なコサイン類似度だけではありません。
  • 統合(「ドリーム」)— 夜間の剪定・マージ・減衰は、文献にある睡眠依存の記憶再編成に倣った設計です。
  • 忘却も機能— 低価値リンクを刈り込み、陳腐な文脈にエージェントが溺れないようにします。

技術ホワイトペーパー

グラフ構築、サンプルベースの想起、重み更新、ドリームパイプライン、密ベクトル索引との複雑さのトレードオフなど、アルゴリズムの詳細を GitHub 上で公開しています。セキュリティレビューや論文引用、社内アーキレビューにご利用ください。

想定ユーザー

個人の開発者にとどまらず、実組織のエージェント、教育・研究、データに敏感な業界向けです。

🛠️

ビルダー・インテグレーター

プラグイン作者、プラットフォームエンジニア、OpenClaw 運用者。別ベクター SaaS なしで耐久記憶が欲しい方向け。

🏢

エンタープライズ内製 AI

CRM、サポート、オペレーション、ナレッジベース——週をまたいで会話が積み上がるコパイロット。チケットごとにリセットしたくないチームへ。

🎓

教育・研究

再現可能なローカル記憶。ラボや授業、人間—AI 相互作用の研究で、ブラックボックス検索ではなくグラフを検査できます。

🔒

規制・知的財産が重いチーム

法務、金融、医療に近いワークフロー、R&D。会話全文をデフォルトで第三者 embedding API に送りたくないケース向け。

小さなモデル、大きな判断力

フロンティア一択ではありません。Memok はリソースが限られたチームにも同じ持久・連想レイヤーを。7B やそれ以下のローカルモデルでも、ユーザー嗜好や組織文脈で連続的に推論できます。予算をガバナンスと体験にも回せます。

プライバシー優先、自前の金属の上で

記憶はマシン上または VPC 内の SQLiteが既定。会話全文をベクタークラウドへ必須アップロードしません。データセンシティブな業界では構造的な利点になり得ます。既存の KMS・バックアップ・アクセス方針に載せやすく、サブプロセッサ交渉を増やしにくいです。

  • デフォルト経路はクラウド embedding に依存しにくく、フル RAG より攻撃面が小さくなりがちです。
  • インストール後はオフラインでも動作。ラボ、エッジ、高隔離環境向け(コンプライアンスは各自でレビュー)。

想定シナリオ(構成例)

複合的なジャーニー例です。記憶の振る舞いを示すためのイラストであり、有料顧客の推薦ではありません。

名前や数値は自社パイロットに置き換えてください。メカニクスは同じです。

🎧

カスタマーサポート副操縦士

チケットごとに過去の症状、SKU の癖、適用済みのポリシー例外を引き継ぎ。返信前に候補記憶を見せ、重複質問を減らし FCR を改善。

📚

教育・チュータリング

先週つまずいた概念が、関連トピックで再び浮上。進捗は巨大チャットログではなく文+リンクとして符号化され、教員の監査もしやすいです。

🏛️

対話からの企業ナレッジ

ポストモーテム、Runbook、商談が Slack スレで消えず構造化。想起は VPC ローカル SQLite を既定にしやすいセクター向け。

ベンチマーク

実運用に近い環境からの目安値です。

<50ms
想起レイテンシ
ローカル SQLite クエリ
~200ms
保存速度
会話 1 ラウンドあたり
~15MB
ストレージ
1000+ 文+リンク規模

従来のベクトル DB との比較

ざっくり比較: Memok はエージェント横の SQLite にグラフを置きます。ホスト型ベクトルは多くの場合ネットワーク経由と別料金です。

項目MemokPinecone / Weaviate 等
導入コスト
無料(SQLite)月 $25–200 程度
想起の仕組み
語連想+重みベクトル類似のみ
説明可能性
理由を辿れるブラックボックスになりがち
コールドスタート
すぐ動く大量データが要ることが多い
プライバシー
データはローカルクラウドへアップロード
🧠

真の連想想起

「似ている」だけでなく話題をまたいで結びつきます。React と言えば hooks・bundler・SSR のように、意味は完全一致しなくても文脈で関連し得ます。

自己最適化

ドリームで夜間に低価値記憶を整理。使われた記憶は重み +1。数日で有効比率が改善する例があります(環境依存)。

🎯

ゼロコンフィグ

embedding の次元設定や索引構築に悩まず、インストール後すぐ記憶が流れ始めます。

検証のしかた(まだ足りないもの)

本ページの数値は長期ドッグフードからのオーダー感です。自社ハード・プライバシー方針・プロンプト分布での計測の代替にはなりません。第三者が再実行できるハーネス(データセット+スクリプト)を用意予定です。

参考ハードウェア(目安)

プロファイル構成想起 p50(ローカル SQLite)
開発用ノート PCRAM 8–16GB、SSD、単一ユーザー候補取得が典型的に <50ms
小規模 VPC2 vCPU、OpenClaw と同居同程度。ディスクとグラフ規模が支配的
ワークステーション32GB、NVMe、マルチプラグイン大きなグラフでも余裕。リモートベクトル hop は不要

タスク視点の比較(ベクトル DB vs Memok)

  • サポートの引き継ぎ— ベクトル検索は「似たチケット」に強い一方、Memok はアカウントストーリーに沿った判断の連鎖も拾いやすいです。
  • Runbook Q&A— 手順の「糊」となる一文はコサインだけでは落ちやすい。Memok は再利用で重みが上がるリンクされた文として保持します。
  • 小モデルとの組み合わせ— 夜間ドリーム後、人間評価の有用想起率が数日で大きく改善した内部例があります。再現は公開ハーネスでご確認ください。
「完璧なベクトル検索ではないが、最も脳らしい記憶——忘却・連想・強化があり、コストゼロ・運用ゼロに近い。」

仕組み

人間の記憶に倣う流れ:エンコード → 保存 → 想起 → 統合

エンコード → 保存 → 想起 → 整理(ドリーム)
1

対話のエンコード

各 OpenClaw ラウンドの後、memok が中核文(core_idea)とキーワード(core_words)を自動抽出します。

// 自動トリガー、手介入なし
Conversation → Extract Core → Store in SQLite
2

記憶の保存

階層ストレージ:words(生)、normal_words(正規化概念)、sentences、links(連想)。

sentences: 1,176 entries
normal_words: 1,548 concepts  
sentence_to_normal_link: 110,956 associations
3

スマート想起

各ラウンド前に語彙の約 20% をランダムサンプリングし、クエリ語と合わせて関連文を取得しシステム文脈へ注入します。

// 自動注入される候補
(memok) Below are candidate memories attached to each round...
- [id=123] memok v2 Pipeline 8 min faster than v1
- [id=456] Dream function design: sentence + word cleanup
4

利用フィードバック

AI が記憶を使ったら memok_report_used_memory_ids で報告。該当文の重みが +1 され、次回以降出やすくなります。

// AI が自動報告
memok_report_used_memory_ids([123, 456])
→ Sentences 123, 456 weight + 1
5

ドリーム整理

毎日早朝に自動実行:duration 減衰、低重み文の整理、孤立語の削除、マージ。

# 毎日 03:00 付近で自動
predream-decay: duration -1 for all records
dreaming-pipeline: sample words → story → merge → cleanup

アーキテクチャ

軽量・ローカル・スケールしやすい構成

SQLite
ローカル保存

単一ファイル DB。別途 DB サーバ不要。1000+ ユーザー規模を想定した設計。

OpenClaw
プラグイン統合

ネイティブ API で会話フローに自然に組み込み。

LLM API
モデル非依存

DeepSeek、Moonshot、OpenAI など互換 API なら利用可能。

Croner
スケジュール

プロセス内スケジューラ。OS crontab は不要。

コミュニティとエコシステム

上流は memok-ai(記憶パイプライン)と memok-ai-openclaw(OpenClaw プラグイン)。不具合は Issues、設計は memok-ai の Discussions。テンプレートや統合ガイドもまずはコードの隣で更新します。

OpenClaw プラグインのインストール

memok を OpenClaw プラグインとして導入。ワンクリックスクリプトか手動クローン。入れたその日から記憶が動き始めます——長い初期設定を終えてからでなくて構いません。

初回インストールは時間がかかることがあります。OpenClaw 本体とその依存ライブラリ(npm パッケージなど)の取得・インストールが含まれるため、回線状況によっては数分かかります。固まったのではなく依存関係の処理中です。

方法 1ワンクリックスクリプト(推奨)

bash
# Linux / macOS
bash <(curl -fsSL https://raw.githubusercontent.com/galaxy8691/memok-ai-openclaw/main/scripts/install-linux-macos.sh)

# Windows PowerShell
irm https://raw.githubusercontent.com/galaxy8691/memok-ai-openclaw/main/scripts/install-windows.ps1 | iex

方法 2手動:リポジトリから OpenClaw プラグイン

bash
git clone https://github.com/galaxy8691/memok-ai-openclaw.git
openclaw plugins install ./memok-ai-openclaw
openclaw memok setup    # LLM とドリーム時刻を対話的に設定
openclaw gateway restart

学習・トラブルシュート・FAQ

動画ウォークスルーとホスト型サンドボックスはロードマップ上です。当面はインストールと GitHub ドキュメントが最短です。

動画チュートリアル

インストールと想起の録画は計画中です。リポジトリと Discussions で告知します。

Coming soon

ホスト型プレイグラウンド

本番導入前に想起だけ試せる読み取り専用サンドボックスを検討中。公開 URL はまだありません。

Roadmap

商用の相談—— GitHub Discussionsにデプロイとコンプライアンス要件を書いてください。企業向け SLA を明示的に提示するまでは約束にはなりません。

インストールできたが記憶が増えないときは?

OpenClaw がプラグインフックを呼んでいるか、SQLite パスの権限、ログ付きで 1 ラウンド会話を試すことを確認してください。既知のゲートウェイ境界事例は GitHub Issues を参照。

外向きの embedding API なしで動かせる?

はい、それがデフォルトの経路です。抽出語とグラフ重みで連想を構築し、OpenClaw に設定済みの LLM エンドポイント以外は不要です。

バックアップや移行は?

SQLite ファイルと設定ディレクトリをスナップショットしてください。他のステートフルサービスと同様、アップグレード前にバックアップを。

連携要望(Slack、Teams、自社 CRM)はどこへ?

Discussions にワークフロー草案を。「文+リンク」モデルに素直に写せる統合を優先します。

ロードマップと透明性

オープンソースかつローカル優先。優先度はメンテナンス帯域とユーザーの声で変わります——リポジトリを追い、具体ユースケースで Discussions に参加してください。

機能要望とバグトラッカー →

完了
コミュニティ v1.0
OpenClaw プラグイン、自動保存、スマート想起、ドリーム最適化 ✓
進行中
コミュニティ改善
README、プラグイン用インストールスクリプト(memok-ai-openclaw)、サンプル設定、よくあるスタック向け統合ガイド
予定
再現可能なベンチマークハーネス
公開スクリプトとデータセットで、自社ハード上で Memok とベクトル基線を再実行可能に
予定
オンボーディング動画とホスト型プレイグラウンド
セットアップ録画、本番前に想起を試せる読み取り専用サンドボックス(任意)
予定
エンタープライズ向けセキュリティパック
脅威モデル要約、データフロー図、DPA 向けの言い回し(顧問の代替にはなりません)

セキュリティとコンプライアンスの姿勢

Memok は法務レビューの代替にはなりません。提供するのは小さく検査可能な面:ローカル SQLite、明示的な想起候補、強制の第三方向量アップロードなし。保存時の暗号化はディスク/ボリューム方針に従い、通信は OpenClaw と LLM プロバイダへの TLS 設定に従います。

  • アクセス制御は OS/コンテナ IAM と OpenClaw 設定に依存します。資格情報のローテーションは既存フローで。
  • プラグイン本体に SOC2 や HIPAA の認証取得を謳うつもりはありません。規制業界では既存統制と文書に載せてください。
  • プライバシーポリシーとデータ取り扱いは上流リポジトリでコードと一緒にバージョン管理する予定です。

セキュリティアドバイザリはリポジトリで →

AI に本当に覚えてもらう

コールドスタートや記憶喪失ループにさよならを。OpenClaw に持久で連想的なエージェント級の記憶を——特に小さなモデルでも、はるかに大きな脳のような連続性と文脈で推論できます。