AIエージェントコンテキストは決して失われなかった:LCMプラグインのためのDAGメモリアーキテクチャ ネイティブのOpenClaw(およびほぼすべてのAIエージェント)は、会話がモデルのコンテキストウィンドウを超えたときに古いメッセージを単純に切り落とし、情報が失われてしまいます。 Lossless Clawの核心的な主張は、圧縮は忘れることとは異なるということです。 元のスライディングウィンドウ切断機構をDAG(有向非巡回グラフ)階層的要約システムに置き換え、各メッセージを永続的に保存し、理論的にはエージェントが無限履歴を「記憶」しつつ、要約再帰の再帰的強化によってトークン予算を維持することができます。 ・GitHubは2,000星、147のフォークを獲得し、ローンチ直後にOpenClawエコシステムの代表的なプロジェクトとしてヒットしました • コンテキストトリガー圧縮の閾値は75%(contextThreshold=0.75)であり、ウィンドウバーストを避けるためにヘッドルームが25%残っている時点で圧縮が始まります • 最新の32件のメッセージを圧縮から保護する(freshTailCount=32)ことで、最近の一貫性を確保します ・基盤層はすべての元のメッセージをSQLiteで永続化し、ノードチェーンを元のメッセージにまとめ、いつでも元のテキストの復元を拡張できます • 3つのエージェントツールが利用可能です:lcm_grep(検索)、lcm_describe(ノードの記述)、lcm_expand(詳細展開) • リーフノードは、ソースコンテンツのブロックあたり最大20,000トークンを持て、圧縮目標は1,200トークンです。 この高レベルのエンリッチメントノードは2000トークンを目指しています 1. インストール:One-lineコマンドのopenclawプラグインは@martian-engineering/lossless-clawをインストールし、JSONを手動で変更する必要はありません 2. 設定:OpenClaw設定でcontextEngineの「lossless-claw」を指定し、環境変数を通じてパラメータを微調整します 3. コアデザインパターン: • 各ラウンドの会話終了後に自動圧縮(オフ可能) • 古いメッセージ→葉のサマリー→凝縮されたノード(層ごとに凝縮されてDAGを形成) • エージェントがlcm_expandを呼び出すと、DAGから後方に展開して元の詳細を復元します 4. セッションの永続性:session.reset.idleMinutes: 10080(7日間)を使用すると、同じセッションは1週間存続でき、LCMメモリはセッション間で蓄積されます...