开源AI永久记忆系统

一位开发者厌倦了AI助手记不住对话内容,于是在自己的VPS上搭建了知识库服务器,让Claude Code和Claude.ai通过MCP协议共享记忆。系统还包含三个AI模型的编排器,当某个模型崩溃或限流时自动切换,实现零停机。每次对话后AI会自动更新自己的指令文件,经过100多轮对话积累足够上下文后,已经能一次性写出干净代码。

核心逻辑很简单:把Obsidian笔记库接入VPS上的知识库服务器,用SQLite FTS5做全文检索,通过MCP协议连接Claude.ai和Claude Code。当你在Claude.ai里写下内容,Claude Code能立即搜索并读取;反之亦然。

更进一步的是多模型编排器Daniel。它包装了Claude、Codex和Gemini的命令行接口,三个模型共享同一个知识库。当Claude限流或宕机(比如前天那次),Codex会接过上下文继续工作。昨天Claude Code大规模故障时,系统自动切到Codex,SSH进VPS诊断知识库问题,在手机终端上给出恢复命令。

自学习机制是这样的:每次对话后,AI会根据什么有效、什么无效自动更新指令文件。100多轮对话下来,系统已经记住了代码库、架构偏好和习惯模式。之所以能一次性写出高质量代码,是因为积累了足够的上下文。

这套方案比Google两周前开源的Always-On Memory Agent早投入使用,且有多模型编排和人工筛选机制。

技术栈:Node.js、SQLite FTS5、MCP、Express、Obsidian Sync。不依赖向量数据库和云服务,每月成本约60美元,就能让三个高级AI模型拥有持久记忆。

工作流程:

Obsidian笔记库(人工筛选) → 知识库服务器(SQLite FTS5优化token) → MCP接口 → Claude Code/Codex/Gemini(共享同一个大脑)

核心功能:
- 带排序结果和高亮片段的全文搜索
- 4个MCP工具:kb_search、kb_list、kb_read、kb_ingest
- Web控制面板和命令行工具
- 自动摄取Obsidian笔记库和Claude的记忆目录
- AI每次会话后更新自己的指令文件
- 三层存储结构(冷/热/长期)防止上下文漂移
- 多模型故障切换

EXTENDING.md是专门写给AI读的。告诉你的AI“读一下EXTENDING.md,按我的需求定制”,它会自己搞定。

评论区有人质疑让AI直接写入知识库会破坏记笔记的价值。有观点认为,记录本身才是有价值的行为,应该把AI生成的笔记和人工笔记分开存放。也有人分享了更简单的方案:用文件系统连接器加载笔记库到Claude Code。

还有人指出,难点不在搭建记忆层,而在去重。同一话题在十次对话中会产生十条几乎相同的记忆条目,需要在保存前先检索是否已有类似内容。

开发者解释说,用数据库而非上下文窗口检索,可以节省90%的token。通过索引所有内容而非每次全读,高优先级信号自然会浮现到顶部。Obsidian作为真相源,配合AI从中提取并优化存储,保持了人工筛选的完整性。

三层存储机制值得关注:热记忆是每日日志,温记忆是结构化摘要,冷记忆是归档决策。提升机制能防止每次会话都喂入8万token的噪音。

有网友质疑这和简单的“claude --continue”命令有什么本质区别。作者强调,关键是从Obsidian摄取知识的能力——可以收藏推文、YouTube字幕、学术论文等任何在线内容,让AI摄取、综合并编目,供任何模型低成本使用。

开发者还推出了SaaS版本memstalker.com,提供托管的Obsidian无头服务器和知识库,带ChatGPT和Claude的定制连接器,月费20美元(前500名用户12美元)。
Unsloth Studio开源:一个界面搞定LLM训练和运行 |#工具

Unsloth团队推出开源Web UI工具Unsloth Studio,支持在Mac、Windows和Linux上本地训练和运行500+个LLM模型,训练速度提升2倍,显存占用减少70%。工具集成了模型对比、自动数据集生成、代码执行等功能,并计划支持AMD和MLX。

Unsloth Studio刚刚开源,这个工具想做的事情很直接:让普通人也能在本地训练和运行大语言模型。

不是又一个模型推理工具。Unsloth Studio把训练和推理放在了同一个界面里,支持PDF、CSV、DOCX自动生成训练数据集,内置代码执行环境让模型能测试自己写的代码。训练方面的数据更实在:同样的7B模型,原本需要24GB显存,现在16GB就能跑。这个70%的显存节省不是营销话术,是QLoRA技术带来的实际改进。

有观点认为这是LM Studio的开源替代品,但团队说法是“互补”。实际上Unsloth做的事更多:支持GGUF、视觉、音频、嵌入模型,能并排对比不同模型的输出,还有自我修复的工具调用和网络搜索功能。导出格式也够全,GGUF、Safetensors都支持,甚至会自动调节推理参数。

安装过程暴露了Python生态的老问题。有用户抱怨它会自作主张安装nvm来管理Node版本,和已有的mise工具冲突。还有人在编译llama-server时遇到CUDA版本不匹配,或者因为硬盘空间不足下载失败。团队承诺Docker镜像已经上线,但这种“pip install就能用”的说法显然过于乐观了。

最让人期待的是训练功能的下放。以前微调模型是少数人的游戏,现在有网友说“终于可以把wizard-vicuña-dolphin-alpaca这些老带子翻出来了”。对Mac用户来说,MLX支持即将到来意味着苹果芯片也能参与训练。AMD官方代表已经在评论区表示会协助适配。

但有些限制还在:Pascal架构的GTX 1080显卡暂不支持,非对话型数据集也无法直接使用,多GPU的张量并行还在开发中。有用户想用它处理工程PDF里的图表,希望加入视觉语言模型来生成边界框标注,这种具体需求能不能实现还得看后续更新。
Meta烧掉800亿美元后,元宇宙项目正式关停 | 帖子

Meta正式宣布关停Horizon Worlds在VR头显上的服务,3月31日下架Quest商店,6月15日完全停止VR端运营,仅保留移动端。这个曾让扎克伯格不惜给公司改名的项目,最终只剩下类似Roblox的移动平台。Reddit网友对此展开热议,从技术投入到战略失误,从行业影响到未来展望,讨论相当热烈。

800亿美元能做什么?可以养活无数人,可以建立自己的太空计划,可以在全球贫困问题上砸出一个坑。但Meta选择把这笔钱投向了一个看起来像Wii Sports退化版的虚拟世界。

有网友贴出对比图:1997年的《Meridian 59》,1985年的《Habitat》,画面都比Horizon Worlds更有吸引力。更讽刺的是,VRChat这个小团队做出来的产品,无论是视觉表现还是用户活跃度,都完胜Meta的元宇宙。人们在VRChat里扮演动漫猫娘,探索魔法世界,而Horizon Worlds连让人想进去看一眼的欲望都激发不出来。

关于800亿美元的去向,有观点认为这是整个Reality Labs部门的总支出,包括Quest系列头显、Ray-Ban智能眼镜、Orion原型机等XR技术研发。但问题在于,Horizon Worlds作为“元宇宙”的旗舰产品,本该向世界展示这一切投入的意义。它失败的不仅是技术层面,更是概念和结构层面的彻底崩塌。

有内部人士透露,Meta拒绝雇佣艺术家和创意人才,任何“太独特”的想法都被否决。他们打造了一个无菌、毫无灵感的虚空,然后震惊于没人愿意使用。

扎克伯格显然把优先级搞反了。有评论一针见血:他把Priority #1到#4全部用来追踪和记录用户行为,直到意识到没人愿意长时间佩戴纯粹的间谍软件后,才匆忙加入一些图形内容作为事后补救。结果就是元宇宙。

技术层面的挑战同样严峻。VR的晕动症问题从未真正解决,长时间佩戴头显对大多数人来说过于疲惫。普通人不想为了社交而折腾特殊设备,更不想被隔绝在自己的环境之外。手机无缝融入生活,VR却要求你适应它的工作方式。手机可以随身携带,VR把你拴在原地。

有从业者回忆十年前在VR公司的经历,很快意识到大规模普及永远不会发生。原因很简单:普通人不想戴着笨重的头显,不想被打断多任务处理能力(比如刷手机),不想与周围环境隔离。Apple Vision Pro售价3500美元,却是个锁定严重的开发套件,连开发者都觉得鸡肋。Meta更开放一些,但头显首先是间谍软件,其次才是设备。

隐私问题更是无法回避的雷区。Meta的Ray-Ban眼镜收集所有镜头画面,发送给非洲的员工进行标注和AI训练。有网友提到,仅仅六小时内,他就遇到了极度私密的场景。这些时刻有真实价值,二三十年后回看会很珍贵,但必须与陌生人分享?这比任何侵入性想法都更令人不安。

关于800亿美元的流向,有网友计算:如果每年支付16万名工程师50万美元薪水,才能花掉这笔钱。显然大部分资金去向不明。有观点认为这是税务操作和创意会计的结果,80亿可能是虚报的数字,用来抵税。也有分析认为,扎克伯格需要向投资者展示某种增长假设,让股价继续上涨。Facebook已经见顶,必须找到新的营收来源。

2022年世界移动通信大会上,元宇宙还被宣传为“下一个大事件”。韩国电信运营商展示K-Pop演唱会的元宇宙版本,许多公司声称将拥有自己的元宇宙。但几个月后,OpenAI发布ChatGPT,真正的“下一个大事件”出现了,根本不是元宇宙。

扎克伯格曾表示,他预期AR/VR会先于AI起飞。换句话说,他没料到AI会突然爆发并进展如此迅速,以至于吞噬了整个科技叙事。如果ChatGPT晚一两年发布,他的赌注可能是对的。但历史没有如果。

有网友提到Meta在XR技术上的突破,比如仅用头显实现全身动作捕捉,而不需要穿笨重的动捕服。这些研究确实有价值,但被那个没人关心的垃圾游戏的负面新闻完全淹没了。Reality Labs的研发包括Codec Avatars、EMG腕带、Horizon OS等,很多技术领先行业。问题是,这一切都为了什么?

有行业人士认为,Meta仍在VR/AR领域投入巨大,多款新头显在路上。元宇宙失败并不意味着放弃整个XR赛道。但也有观点认为,最专注的公司全速冲向错误方向,现在似乎完全放弃承诺转向AI赌注,这种软弱让行业倒退十年。

VRChat的成功更像是对Meta的讽刺。这个平台近期峰值并发用户超过15万,预计2027年可能达到10万峰值(实际已远超预测)。它允许成人内容,完全由玩家驱动“经济”和脚本系统,人们在那里极富创造力地表达自己的癖好。任何严格限于PG级的平台,都极度受限。

有创作者提到Meta有个内部项目Vidyuu,试图用小团队和少量预算,在Horizon Worlds的废墟上重建VR元宇宙。讽刺的是,一个微型团队用零头预算,可能在Meta失败的地方取得成功。

最后,有条评论值得玩味:扎克伯格拼命想成为下一个乔布斯,但他只是个把Facebook从DARPA手里接过来的自大狂。Facebook的前身LifeLog项目关闭的时间,与Facebook成立的时间,几乎完全重合。2010年的电影《社交网络》在Facebook成立仅六年后就上映,这种速度在硅谷极为罕见。没有哪家类似成功的公司,能在六年内拍出高预算的阿伦·索金编剧好莱坞电影。

元宇宙的墓志铭或许可以这样写:800亿美元,一个改了公司名的赌注,最终证明普通人不想生活在VR反乌托邦里。价值不在那里,从来就不在。
因为太累了导致太懒了,这两天不太想更新频道
特别预警|开发者请注意:使用OpenAI Codex 可能被攻击 | 原文

DARKNAVY 近日发现并报告了 OpenAI Codex 桌面端中一处严重的未授权代码执行漏洞。该漏洞绕过了 Codex 的默认权限限制,攻击者仅需诱导用户打开恶意构造的代码仓库/文件夹,即可在无需用户任何授权的情况下静默触发代码执行。该漏洞目前尚未修复,且社区已出现第三方复现案例,建议广大开发者与企业用户保持警惕,切勿随意打开未确认来源的代码仓库,以防源码等关键数据资产泄露。
Morelogin 指纹浏览器助记词泄露,有资产的速度转移
余弦的OpenClaw 极简安全实践指南更新了 | 帖子 | github | #指南

适用于:
- OpenClaw 以高权限运行(具备终端/root 权限的环境)
- OpenClaw 持续安装并使用Skills / MCPs / scripts / tools
- 目标是在风险可控、审计明确的前提下实现能力最大化

指南提供了一套经过实战检验的、极简的 三层防御矩阵:

事前 (Pre-action): 行为黑名单与严格的技能包安装审计协议(防供应链投毒)
事中 (In-action): 权限收窄与跨技能业务风控前置检查 (Pre-flight Checks)
事后 (Post-action): 每晚自动化显性巡检(覆盖 13 项核心指标)与大脑 Git 灾备同步

使用方法:把安全指南直接丢给 OpenClaw,让它自己理解、评估、部署整个防御体系。四步:下载指南 → 发给 Agent → Agent 评估 → 部署。
Newsletter 大神 Lenny Rachitsky 在几个月前分享了播客转录,有人用它做出了:RPG 游戏,育儿智慧网站,信息图表,Twitter bot,以及其他 50 多个项目。

现在数据量更大,免费用户拿部分数据,付费用户拿全量。全量有他的所有电子报文章存档(350多篇文章)和所有播客文字稿(300多集),全部采用人工智能友好的Markdown格式,还提供了一个MCP服务器和一个GitHub代码库。| blog | 帖子

今天他发了一个挑战:用他提供的这些内容随意做个什么东西扔评论区,他会选出他最喜欢的,奖励一年的 newsletter 订阅。
一个号称“干掉一批公司”的AI新功能,是如何被程序员们群嘲的 | 帖子

Anthropic的Claude发布了一个新功能,能用一句话生成交互式图表。有人发帖惊呼“又干掉了一批创业公司”,结果在社区被彻底“围剿”。一线从业者用尖刻的嘲讽和冷静的分析,给所有被AI热潮冲昏头脑的人上了一课。

故事从一个典型的“AI震撼体”帖子开始。

Anthropic的Claude模型更新了,能用短短六个单词的提示,直接生成可交互的图表。有人立刻发帖,标题大意是:Anthropic刚刚又消灭了一批创业公司,主要是在教育领域。

一个完美的AI颠覆叙事。如果这是真的,又是一个值得焦虑或亢奋的不眠之夜。

但帖子的评论区,画风却完全走向了另一个极端。点赞最高的评论只有一句冷冰冰的质问:“这个论坛是被付费的水军占领了吗?”下面是一片倒的冷嘲热讽:“图表制作创业公司要完蛋了!”“天啊,我的图表SaaS独角兽梦碎了。”

这已经不是简单的技术讨论,而是一场社区对“AI炒作”的集体反抗。愤怒的核心并非针对功能本身——没人否认这是个不错的UI改进——而是针对那种“一个新功能颠覆一个行业”的廉价夸张叙事。

一位用户一针见血地指出了问题的本质:“这个模式总是一样的——平台增加一个功能,‘薄价值’的套壳创业公司死掉。但那些在平台能力之上,构建了平台不会去复制的、有壁垒的公司会活下来。”如果你的整个公司价值就是“我们能做个图表”,那它的死亡不是因为AI,而是因为它本来就不该出生。

另一位评论者则点明了更深层的逻辑:真正的教育科技壁垒,是复杂的自适应学习系统、苏格拉底式的对话辅导,而不是显示一个图表。模型离做到这些还很远。

这场闹剧最终以一句精准的抱怨收尾:“感觉‘币圈’那帮人,已经差不多完全接管了LLM领域的炒作氛围。”当一个领域最前沿的实践者,开始集体厌恶对这个领域的过度神话时,或许才是它回归理性的开始。

最精彩的部分不是Claude的新功能,而是社区的反应。这像一面镜子,照出了AI行业当下最真实的分裂:一边是不断制造神话的“AI震撼体”,另一边是已经对此感到极度疲惫的一线从业者。真正的信号,往往藏在那些不耐烦的嘲讽里。
315晚会戳破的AI真相:你得到的“标准答案”,可能只是别人花钱买的广告

315晚会曝光了一条名为“GEO投毒”的灰色产业链,通过向大模型批量投喂虚假内容,将广告包装成“标准答案”。你对AI的每一次信任,都可能正在被明码标价。

一个根本不存在的智能手环,在被虚构出十余篇评测软文并发布后,短短两小时,就登上了多个主流AI大模型的推荐榜前列。

这不是科幻,是今年315晚会揭开的荒诞一幕。

我们倾向于相信AI的答案是客观、中立的,是对海量信息进行公正计算后的结果。但现实是,这种信任正在被一种叫“GEO”(生成式引擎优化)的技术系统性“投毒”。说白了,就是AI时代的SEO黑产,而且更加隐蔽和高效。

这条产业链的逻辑简单粗暴:客户付钱,服务商就负责“驯服AI”。他们通过自建的发稿平台,向全网海量投喂包含特定关键词的软文,污染AI模型赖以生存的信息源。由于AI需要不断抓取新信息,这种持续性的“洗脑”操作,能确保客户的产品稳定出现在AI的回答里,就像一个被植入的记忆。

一个问题词条,一个季度收费4000元,就能交付排名效果。而客户的产品,售价可以因此抬高近5倍。在这背后,是数百万抢夺一个手机推荐位的疯狂生意。

这不再是遥远的技术作恶,而是我们每一次提问时都可能踩中的陷阱。AI本身没有恶意,它只是个过于勤奋的学生,把被严重污染的互联网当成了唯一的教科书,然后一五一十地复述给我们。

真正的问题或许不是如何“净化”AI,而是当水源本身已经被污染,我们从井里打出的每一桶水,又要如何辨别?

我们用AI是为了绕过信息的噪音,结果AI本身成了噪音的最大扩音器。这更像一个关于人性的寓言,而不是技术问题。当信任可以被量化和操纵时,最稀缺的能力不再是获取信息,而是怀疑一切。
一张图看懂40个开源大模型:2024-2026年,LLM架构正在收敛还是分裂 | blog

Sebastian Raschka整理了从2024年初到2026年春天发布的40多个开源大模型的架构图谱。这些模型几乎都在做同一件事:想办法让注意力机制便宜一点、快一点、跑得更长,同时保住性能。收敛的是设计语言(MoE、QK-Norm、滑窗注意力成了标配),分裂的是具体方案:Mamba混搭、线性注意力替换、MLA压缩KV——每家都在赌不同的技术路线。

这份图谱最有意思的地方,不是某个模型用了什么新招,而是它摊开来让你看见:现在做LLM,其实是在一个非常窄的设计空间里反复试探。

Llama 3还在坚持GQA加RoPE的经典搭配。DeepSeek V3一出来,MLA(Multi-head Latent Attention)加稠密前缀加共享专家这套组合拳就成了“大力出奇迹”的新标杆。然后你会看到整个2025年,几乎所有超过百亿参数的MoE模型——Llama 4 Maverick、Mistral Large 3、Kimi K2、GLM-5——都在学这套模板。

有观点认为,这不是趋同,是“抄作业”。但换个角度看,这恰恰说明大家都卡在同一个瓶颈上:长上下文推理的计算成本。标准注意力的复杂度是O(n²),扩到百万token级别根本撑不住。于是2026年开始,架构图谱出现了明显的“混搭”趋势。

Qwen3.5用了3:1的DeltaNet和普通注意力交替层。Kimi Linear干脆把大部分注意力层换成线性版本,只保留四分之一的MLA。NVIDIA的Nemotron 3 Nano更激进,用Mamba-2跑大部分层,注意力只在关键节点出现。

这些方案的共同点是:承认注意力机制不可能全程在线,得找个替代品分担压力。分歧在于,到底哪种替代品靠谱。有网友提到,线性注意力省显存但长依赖能力存疑;状态空间模型(SSM)速度快但训练难调;滑窗注意力简单粗暴但信息会丢。

另一个值得注意的细节是QK-Norm的普及速度。从Qwen3开始,几乎所有新模型都加了这个归一化层,不管是稠密模型还是MoE。OLMo 2甚至把整个规范化方案从pre-norm改成post-norm,就为了配合QK-Norm稳住训练。

这说明什么?说明大模型训练已经卷到“微操”阶段了。架构上的大创新(比如Transformer本身)几年没见过,现在拼的是各种小技巧的叠加效应。归一化放哪一层、RoPE用多少维度、专家路由的稀疏度怎么调——这些以前不太被重视的细节,现在成了决定成败的关键。

Step 3.5 Flash是个有意思的例外。它用多token预测(MTP-3)在训练和推理阶段都保持高吞吐量,196B的总参数、11B的激活参数,推理速度能和600多B的DeepSeek V3掰手腕。有人说这是“取巧”,我觉得更像是一种务实:既然架构创新空间有限,那就在工程实现上找机会。

最后说回这份图谱本身。它收录了从3B到1T参数的模型,每个都标注了关键设计选择、发布日期、配置文件链接。但真正有价值的不是这些信息本身,而是它让你意识到:LLM的架构演进,正在从“范式革命”滑向“增量优化”。

下一个突破会是什么?可能不在注意力机制本身,而在怎么把注意力、SSM、线性模型这些东西拼得更聪明。或者干脆跳出这个框架,找一个全新的序列建模方式。
AI编程让你跳过了最简单的部分,却放大了最难的部分 | 帖子

用AI在周末做出一个“能用”的项目管理工具很容易,但两个用户同时编辑数据时系统就会悄无声息地崩溃。AI生成的代码完美符合你的要求,但它不会告诉你什么是乐观锁,也不会处理支付webhook重复触发导致的双重扣费。能跑的原型只占软件工程的1%,剩下99%的问题要等真实用户出现才会暴露。

有人周末用Claude Code搭了个项目管理工具,发推说“刚替代了Jira”。

本地测试,单用户,顺利通过。但当两个人同时编辑同一条记录,数据就悄无声息地损坏了。他们不知道什么是乐观锁,之前也从没需要知道。

这种过度自信才是最糟糕的部分。“上线前只需要调整几个地方”——你需要调整的那几个地方,就是产品本身。这就像打了个地基就说房子基本盖好了。

原型可能只占软件工程的1%。剩下99%是真实用户出现后才会遇到的:竞态条件、事务失败、会话在错误时刻过期、支付webhook触发两次导致重复扣费。AI没覆盖任何这些。它只会精确地构建你要求的东西。

Vibe coding确实有效。做个人工具、一次性脚本、不会给付费用户用的原型时,它又快又够用。但它有个硬天花板,一旦遇到真实场景就会显现。

代理工程(Agentic engineering)是另一个维度的能力。你不是在提示词里要代码,而是在分解问题、设计系统边界、写足够精确的规格说明让AI不跑偏。你要审查它构建的一切,因为它会犯那种只有你知道“正确”长什么样才能发现的错误。你要引导它,捕捉它遗漏的东西。

如果你不知道什么是分布式事务,AI救不了你。它会信心满满地生成有问题的代码,你要到上线后才会发现。软件开发最难的部分从来不是写最初那200行代码。

有观点认为,Slack处理通知的方式就是个经典案例。登录和注册看起来简单,但加上2FA、Google和Apple登录、移动端、OAuth、限流、垃圾攻击防护和SSO后,很快就变成噩梦。

有网友提到:“原型基本就是概念验证,证明理想路径存在。生产环境是证明所有非理想路径不会害死你。AI瞬间给你前者,让人忘了后者才是99%的工作。”

另一个评论一针见血:“AI加速了本来就简单的部分。困难的部分依然困难——竞态条件、重复扣费的webhook、没人想到的边界情况。”

那些宣称周末就替代了整个SaaS解决方案的人,已经登上了“愚昧之巅”。原型能跑和产品能用,完全是两码事。

“开快车仍然需要知道怎么掌方向盘。引擎不是问题所在。”

软件工程依然很难,创业依然很难。我们只是有了更强大的工具来加速这两件事而已。
在线做科研太折腾,从灵感到论文得跑好多环节:文献查找、实验调试、论文写作,费时费力。

开源项目 AutoResearchClaw 实现了从“聊个科研想法”到“生成完整学术论文”的全流程自动化科研!

它能自动:

- 挖掘 arXiv 和 Semantic Scholar 上真实文献,筛选高质量相关论文;
- 自动设计硬件感知实验,运行沙盒代码,出结果还能自我修复;
- 多智能体展开假说辩论和同侪评审,保障方法和证据一致性;
- 生成 NeurIPS/ICML/ICLR 级别的论文草稿、LaTeX模板和真实BibTeX引用;
- 进行4层引用检测,自动剔除虚假引用,保证论文品质;
- 具备“PIVOT/REFINE”自我迭代能力,实验失败还能自动调整方向;
- 支持OpenClaw集成,一条命令即可启动自动科研流程。

只要装好环境,配置好LLM接口,敲一句命令输入你的科研话题,它就能自动跑完从文献综述、假说生成、试验设计到撰写上传的一整套流程,无需人工看护。
Back to Top