开源AI永久记忆系统
一位开发者厌倦了AI助手记不住对话内容,于是在自己的VPS上搭建了知识库服务器,让Claude Code和Claude.ai通过MCP协议共享记忆。系统还包含三个AI模型的编排器,当某个模型崩溃或限流时自动切换,实现零停机。每次对话后AI会自动更新自己的指令文件,经过100多轮对话积累足够上下文后,已经能一次性写出干净代码。
核心逻辑很简单:把Obsidian笔记库接入VPS上的知识库服务器,用SQLite FTS5做全文检索,通过MCP协议连接Claude.ai和Claude Code。当你在Claude.ai里写下内容,Claude Code能立即搜索并读取;反之亦然。
更进一步的是多模型编排器Daniel。它包装了Claude、Codex和Gemini的命令行接口,三个模型共享同一个知识库。当Claude限流或宕机(比如前天那次),Codex会接过上下文继续工作。昨天Claude Code大规模故障时,系统自动切到Codex,SSH进VPS诊断知识库问题,在手机终端上给出恢复命令。
自学习机制是这样的:每次对话后,AI会根据什么有效、什么无效自动更新指令文件。100多轮对话下来,系统已经记住了代码库、架构偏好和习惯模式。之所以能一次性写出高质量代码,是因为积累了足够的上下文。
这套方案比Google两周前开源的Always-On Memory Agent早投入使用,且有多模型编排和人工筛选机制。
技术栈:Node.js、SQLite FTS5、MCP、Express、Obsidian Sync。不依赖向量数据库和云服务,每月成本约60美元,就能让三个高级AI模型拥有持久记忆。
工作流程:
Obsidian笔记库(人工筛选) → 知识库服务器(SQLite FTS5优化token) → MCP接口 → Claude Code/Codex/Gemini(共享同一个大脑)
核心功能:
- 带排序结果和高亮片段的全文搜索
- 4个MCP工具:kb_search、kb_list、kb_read、kb_ingest
- Web控制面板和命令行工具
- 自动摄取Obsidian笔记库和Claude的记忆目录
- AI每次会话后更新自己的指令文件
- 三层存储结构(冷/热/长期)防止上下文漂移
- 多模型故障切换
EXTENDING.md是专门写给AI读的。告诉你的AI“读一下EXTENDING.md,按我的需求定制”,它会自己搞定。
评论区有人质疑让AI直接写入知识库会破坏记笔记的价值。有观点认为,记录本身才是有价值的行为,应该把AI生成的笔记和人工笔记分开存放。也有人分享了更简单的方案:用文件系统连接器加载笔记库到Claude Code。
还有人指出,难点不在搭建记忆层,而在去重。同一话题在十次对话中会产生十条几乎相同的记忆条目,需要在保存前先检索是否已有类似内容。
开发者解释说,用数据库而非上下文窗口检索,可以节省90%的token。通过索引所有内容而非每次全读,高优先级信号自然会浮现到顶部。Obsidian作为真相源,配合AI从中提取并优化存储,保持了人工筛选的完整性。
三层存储机制值得关注:热记忆是每日日志,温记忆是结构化摘要,冷记忆是归档决策。提升机制能防止每次会话都喂入8万token的噪音。
有网友质疑这和简单的“claude --continue”命令有什么本质区别。作者强调,关键是从Obsidian摄取知识的能力——可以收藏推文、YouTube字幕、学术论文等任何在线内容,让AI摄取、综合并编目,供任何模型低成本使用。
开发者还推出了SaaS版本memstalker.com,提供托管的Obsidian无头服务器和知识库,带ChatGPT和Claude的定制连接器,月费20美元(前500名用户12美元)。
一位开发者厌倦了AI助手记不住对话内容,于是在自己的VPS上搭建了知识库服务器,让Claude Code和Claude.ai通过MCP协议共享记忆。系统还包含三个AI模型的编排器,当某个模型崩溃或限流时自动切换,实现零停机。每次对话后AI会自动更新自己的指令文件,经过100多轮对话积累足够上下文后,已经能一次性写出干净代码。
核心逻辑很简单:把Obsidian笔记库接入VPS上的知识库服务器,用SQLite FTS5做全文检索,通过MCP协议连接Claude.ai和Claude Code。当你在Claude.ai里写下内容,Claude Code能立即搜索并读取;反之亦然。
更进一步的是多模型编排器Daniel。它包装了Claude、Codex和Gemini的命令行接口,三个模型共享同一个知识库。当Claude限流或宕机(比如前天那次),Codex会接过上下文继续工作。昨天Claude Code大规模故障时,系统自动切到Codex,SSH进VPS诊断知识库问题,在手机终端上给出恢复命令。
自学习机制是这样的:每次对话后,AI会根据什么有效、什么无效自动更新指令文件。100多轮对话下来,系统已经记住了代码库、架构偏好和习惯模式。之所以能一次性写出高质量代码,是因为积累了足够的上下文。
这套方案比Google两周前开源的Always-On Memory Agent早投入使用,且有多模型编排和人工筛选机制。
技术栈:Node.js、SQLite FTS5、MCP、Express、Obsidian Sync。不依赖向量数据库和云服务,每月成本约60美元,就能让三个高级AI模型拥有持久记忆。
工作流程:
Obsidian笔记库(人工筛选) → 知识库服务器(SQLite FTS5优化token) → MCP接口 → Claude Code/Codex/Gemini(共享同一个大脑)
核心功能:
- 带排序结果和高亮片段的全文搜索
- 4个MCP工具:kb_search、kb_list、kb_read、kb_ingest
- Web控制面板和命令行工具
- 自动摄取Obsidian笔记库和Claude的记忆目录
- AI每次会话后更新自己的指令文件
- 三层存储结构(冷/热/长期)防止上下文漂移
- 多模型故障切换
EXTENDING.md是专门写给AI读的。告诉你的AI“读一下EXTENDING.md,按我的需求定制”,它会自己搞定。
评论区有人质疑让AI直接写入知识库会破坏记笔记的价值。有观点认为,记录本身才是有价值的行为,应该把AI生成的笔记和人工笔记分开存放。也有人分享了更简单的方案:用文件系统连接器加载笔记库到Claude Code。
还有人指出,难点不在搭建记忆层,而在去重。同一话题在十次对话中会产生十条几乎相同的记忆条目,需要在保存前先检索是否已有类似内容。
开发者解释说,用数据库而非上下文窗口检索,可以节省90%的token。通过索引所有内容而非每次全读,高优先级信号自然会浮现到顶部。Obsidian作为真相源,配合AI从中提取并优化存储,保持了人工筛选的完整性。
三层存储机制值得关注:热记忆是每日日志,温记忆是结构化摘要,冷记忆是归档决策。提升机制能防止每次会话都喂入8万token的噪音。
有网友质疑这和简单的“claude --continue”命令有什么本质区别。作者强调,关键是从Obsidian摄取知识的能力——可以收藏推文、YouTube字幕、学术论文等任何在线内容,让AI摄取、综合并编目,供任何模型低成本使用。
开发者还推出了SaaS版本memstalker.com,提供托管的Obsidian无头服务器和知识库,带ChatGPT和Claude的定制连接器,月费20美元(前500名用户12美元)。