Warning: sprintf(): Too few arguments in C:\wwwroot\www.xizhenhl.com\wp-content\themes\covernews\lib\breadcrumb-trail\inc\breadcrumbs.php on line 254

一个新的AI 记忆层概念:哈勃半径

本文来自微信公众号: 虹线 ,作者:评论尸,原文标题:《一个新的 AI 记忆层概念:哈勃半径》

最近几个月,我给自己的AI Agent配了三层上下文记忆。

第一层是「我知道的」。第二层是「我应该知道的」。第三层是「我可能知道的」。这个第三层,我叫它「哈勃半径」。

AI不应该只知道我已经写下来的东西,也不应该一遇到问题就冲进公共搜索引擎。它应该先知道一件事:在我的世界里,哪些东西本来就有可能被我看见。

很多人在谈AI记忆时,只谈两个问题。一个是AI能不能记住我,另一个是AI能不能查资料。前者是个性化,后者是搜索。但这两个东西中间缺了一块。

AI还需要知道:我平时从哪里感受世界。

这就是哈勃半径。

我们先从前两层记忆开始讲起。

一、RAG与LLM Wiki:先让AI知道我是谁、我如何思考

先说第一层:我知道的。

我给Notion AI接了一套切片式RAG系统。它只存事实。每条记忆都很短,通常不超过200字。每个片段有关键词、向量、关系和时效性,存放在一个Notion数据库里。它会从我的文章、日记、Dayflow、Looki、方案、聊天记录里提取东西。

Dayflow是分钟级的Mac使用记录。Looki是一个可穿戴设备,会隔几分钟记录一小段视频,再通过API抽取文字总结。日记是我每天对自己状态的复盘。

我每天凌晨5点会跑一个自动化流程,调用Notion AI的技能,把这些原始数据切成一条条记忆碎片。它们共同构成一个事实记忆层:我最近做了什么,想了什么,困在什么问题里,哪些项目正在推进,哪些判断已经发生过。

这层记忆的效果非常明显。

我和Notion AI聊天时,它通过一次Function Call,基本就能知道我最近在做什么。它知道我这几天在调Hermes Agent,知道我在做中美AI叙事研究,知道我搭了兴趣晨报和晚报,也知道我一边依赖Notion的平台优势,一边对这种依赖保持警惕。

这很像一个熟悉你个人助理。

它不一定懂你完整的知识结构,但它知道你最近说过什么、做过什么、立过什么flag、刚刚踩过什么坑。AI从一个通用模型,变成了一个「在你身边待过一阵子的人」。

但这还不够。

事实层的问题也很明显:它只记录已经发生过的事情。它知道我真正知道什么,却不知道那些还没有被我整理成事实、没有写进日记、没有主动问过的问题。

它是我的影子,但不具备我的思考。

所以有了第二层:我应该知道的。

这一层是LLM Wiki。LLM Wiki是OpenAI联合创始人Andrej Karpathy提出的概念,可以简单理解成一个由AI维护的Wiki。它不是让内容以原始形态散落在知识库里,而是按Wiki的规则,把材料整理成可以继续生长的条目。

我的LLM Wiki由Hermes Agent驱动,最早从OpenClaw一路折腾过来,后来逐渐变成一个带有FTS5 lexical、向量搜索和图结构的内网知识系统。它不会简单地把材料切碎后塞进数据库,而是试图把散落的材料编织成结构。

它读的东西也比第一层更宽。

除了「我知道的」那些关于「我」的事实,它还会读我收藏的文章、抖音、播客、个性化日报,甚至是我没有认真读完但已经被系统捕捉到的内容。Hermes Agent每天凌晨到我的Notion里读取当日新增内容,再做联想、归纳、合并和结构化。最后形成一张可以浏览、可以检索、也可以继续修改的知识网。

切片式RAG对AI很好用,但对人很难读。打开以后全是碎片,没有结构,也没有涌现。AI可以从里面召回细节,但人很难从里面看见知识的形状。

我给我的LLM Wiki部署了一个Quartz前端,让它能不止在AI里被调用,还可以直接看。

LLM Wiki的意义就在这里。它不是回答「某条事实在哪」,而是回答「这些事实之间有什么关系」。

比如我长期关注AI、平台权力、消费文化、非人行动者、工作流、知识管理和个人数据主权。单条记忆只能告诉AI:「用户最近在搭FreshRSS」或「用户关注AI记忆层」。但Wiki可以把它们放到一条更长的线上:从早年对Rewind的兴趣,到想要自动维护「我知道的东西」的Wiki,再到Notion as Me、Hermes、LLM Wiki、兴趣日报、NotionSearch。其实这一直是同一个问题在变形。

这个问题是:我能不能让AI使用我的上下文,而不是把我的上下文继续交给平台公司?

第二层解决的是「我应该知道」。它不只是记住过去,也开始整理过去。它把材料变成结构,把结构变成立场,把立场变成下一次对话的背景。

顺便说一句,这并不意味着第一层的切片式RAG就不重要了。我在X和小红书上刷到不少帖子,说RAG已经过时了,应该用LLM Wiki取代它。我觉得这是一种很典型的非此即彼。

切片式RAG在关键词搜索、速度和短事实召回上,仍然非常好用。比如我每天和谁开了什么会,这类来自Looki或Dayflow的记录,就不应该被郑重其事地写进LLM Wiki。它只适合待在第一层。需要的时候被找回来,不需要的时候安静躺着。

第一层是记忆卡片,第二层是Wiki,前两层是网上已经比较多见的实践了,我不必太多啰嗦。但用了一段时间之后,我发现这两层记忆依然有它的边界——它只能处理已经进入我系统的东西。

那些我没有收藏、没有读、没有转录、没有整理,只是刚好出现在我关注源里的东西,它仍然不知道。

这恰恰是今天要讲的最大的一块。

二、哈勃半径:我可能知道的世界

第三层,就是「我可能知道」。我叫它哈勃半径。

我把所有关注源,包括抖音、播客、网站、公众号、即刻、X,都通过工作流(OpenClaw或n8n)尽量先处理成文字,再汇总到FreshRSS。然后把FreshRSS的全量数据定时导入一个私有Meilisearch搜索引擎。最后把这个Meilisearch接到Notion AI和Hermes Agent上,作为一个独立搜索源。

Meilisearch是一个开源的私有搜索引擎,在建立之后,你可以通过API向其中加入任何文档,并且像搜索引擎一样搜索整个库。更重要的是,它的性能很好,能在海量数据下以十几毫秒的速度返回搜索结果。

这件事听起来很工程化。实际也确实很工程化。

我是在一个周日下午把它搭起来的。先在群晖上部署Meilisearch,配置端口、卷挂载和环境变量;再给它配UI,处理CORS,检查索引;然后给Hermes Agent装Meilisearch技能,调整FreshRSS的订阅分类,把来源分成公众号、博客、学术期刊、视频和其他信息流。

后来我又给它接了Cloudflare Worker,做了一个中转服务,配反向代理、API Key、过滤字段、排序参数和全文读取。这样Notion AI就可以远程调用这个私有搜索引擎。

那天晚上,我在Meilisearch UI里看到索引里已经有接近一万条文档。这个数字对Google来说小到没意义,但它还会以每周大约2000条的速度增长。对一私有的信息库来说,这已经是一个不小的宇宙了。

更重要的是,这些文档不是互联网上随机抓来的几万条网页。

它们来自我手动关注过的源。

公众号是我关注的,播客是我订阅的,网站是我放进RSS的,即刻和X也是我自己选择的社交场。它们当然不等于我已经读过,更不等于我同意。但它们至少说明,在过去某个时刻,我允许这些源进入我的视野。

这就是哈勃半径和公开搜索引擎的区别。

公开搜索引擎回答的是:全网有什么。

哈勃半径回答的是:在我的信息宇宙里,有什么。

为什么叫哈勃半径?

在宇宙学里,哈勃半径可以粗略理解为一个观测边界。以观察者为中心,边界以内的东西在原则上可以被观测,边界之外的东西越来越远,也越来越不可达。我不是在严格使用物理概念,只是借它说一个信息生活里的事实:每个人都有一个以自己为中心的信息半径。

你每天刷到什么,订阅了什么,关注了哪些人,信任哪些媒体,反复打开哪些网站,收藏哪些文章,听哪些播客,甚至在哪些平台上浪费时间。这些东西共同构成了你的信息宇宙。

过去,这个宇宙主要对平台有用。

平台知道你看了什么、停留多久、划走了什么、又回头看了什么。它用这些数据推荐下一条内容,卖广告,优化留存,让你继续待在它的宇宙里。但你自己很难使用它。

你没法问抖音:「我过去半年关注的所有创作者里,有没有人谈过某个问题?」

你也没法问公众号:「在我关注的这些媒体里,最近两周关于AI教育的讨论发生了什么变化?」

更不用说把播客、短视频、社交平台、RSS和日记放在一起比较。

平台拥有你的信息半径,但你没有。

哈勃半径的意义,就是把这个半径拿回来,放进自己的AI里。

它不是为了对抗Google,也不是为了替代小红书、抖音或公众号搜索。它要做的事更小,也更私密:让AI在回答我的问题之前,先进入我的可观测宇宙。

当我问一个事实类问题,公开搜索当然重要。但当我问一个非事实类问题,比如「最近中文互联网对AI Agent的态度是不是变了」「为什么我觉得某类内容越来越像工作泔水」「年轻人对信息流的疲劳是不是正在出现」,Google的第一条结果未必有用。

我更想知道的是:在我的可观测宇宙里,这些情况有没有发生变化。

因为这类问题不是在找一个标准答案,而是在找一种气候。

气候不在百科里。气候在我长期接触的那些源里。

三、它不是搜索引擎,而是记忆层

我认为哈勃半径是一个记忆层,不是一个搜索引擎。

搜索引擎的核心动作是检索。记忆层的核心动作是限定上下文。

同一个关键词,在不同人的哈勃半径里,意思会完全不同。搜索「AI陪伴」,投资人、心理咨询师、乙女游戏玩家、产品经理、未成年人研究者、同人作者,看到的世界不会一样。公开搜索会把这些语义场压平,再按流行度、权威性或广告逻辑排序。

私人哈勃半径会先问另一组问题:

这个词对你来说通常出现在哪里?你通常从哪些人那里接触它?你过去对它有什么反应?你关注的源最近怎么谈它?

这不是覆盖率问题,而是权重问题。

AI接入公开搜索以后,最大的问题往往不是查不到资料,而是不知道该信谁。它能打开Google,能搜小红书,能查抖音,能读网页,但它不知道这些源在我的世界里是什么位置。

有些来源对我只是噪音。有些来源我长期信任。有些来源我不同意,但我会用它观察某种立场。有些来源质量一般,却很接近一线语感。有些来源不权威,但能比论文更早捕捉到文化变化。

这些权重,公开搜索不知道。AI也不知道。

哈勃半径知道。

不是因为它更聪明,而是因为它的信源已经被我过去的关注动作筛过一遍。关注本身就是一种缓慢的标注。它不是点赞那么短,也不是收藏那么重。它更像一种持续授权:这个源可以进入我的世界。

所以AI在哈勃半径内搜索时,不是在「查全网」,而是在调用我的长期注意力沉淀。

这就是记忆。

这层记忆还有一个很微妙的地方:它记录的不是「我知道」,而是「我可能知道」。

第一层记忆里的东西,我大概率真的知道。因为我写过、说过、做过、记录过。第二层知识里的东西,我应该知道。因为它已经被系统整理成结构,等着我在合适的时候调用。

第三层不一样。它包含大量我根本没看过的内容。

我估计在我的哈勃半径中,至少99%以上的内容我都没看过。毕竟我关注了至少2000个不同类型的订阅源:网站、公众号、短视频、播客,都有。

按传统知识管理的标准,这很奇怪。没看过,怎么能算我的知识?没有消化,怎么能算我的记忆?

但AI时代会改变这件事。

过去,知识管理的瓶颈是人的阅读时间。你订阅100个源,真正能读完的可能只有5个。剩下95个只是焦虑来源,是未读数字,是信息债务。

但如果AI可以在需要时帮你回到这些材料里,未读内容就不再只是债务。它变成一种可调用的可能性。

我不需要每天读完所有公众号、播客和视频。我只需要在某个问题出现时,让AI先到我的哈勃半径里看一眼:在我本来可能接触到的信息宇宙里,有没有人已经说过类似的话?有没有一个我错过的案例?有没有一场小众讨论,比公开搜索更贴近我的问题?

这是一种将「阅读」从前置消费,改成后置召回的信息管理方式。

过去我们必须先读,未来才有资格想起。现在我们可以先建立半径,再在问题出现时让AI回到半径内部找线索。人的角色不再是吞下全部信息,而是维护自己的可观测宇宙。

我觉得这会是AI时代知识管理的一个大变化。

四、半径的价值来自边界

当然,哈勃半径不是越大越好。

这是它和公开搜索最根本的差别。公开搜索追求覆盖率,私人半径追求相关性。你不需要把全网都装进来,甚至不应该这么做。如果一个私人搜索库最后变成小号Google,它就失去了意义。

哈勃半径的价值来自边界。

边界越清楚,AI越知道你在什么语境里提问。边界越混乱,AI就越容易重新滑回公共平均值。

所以它的维护重点不是「多抓」,而是「选择」。哪些公众号值得保留,哪些RSS已经失效,哪些播客只是阶段性兴趣,哪些社交账号虽然经常胡说但有现场感,哪些来源应该降权,哪些来源适合做事实判断,哪些来源只适合做情绪采样。

这些都不是模型能自动决定的。

AI可以帮你清理、分类、去重、打标签、转文字、做索引,但半径本身必须由人来画。因为这条边界表达的是你的注意力史、信任结构和审美偏好。

这也是我为什么越来越不满足于「给AI接一个搜索引擎」。

接搜索引擎只是扩展能力。设置哈勃半径,才是在扩展主体。

前者让AI更会查。后者让AI更像你。

把三层记忆放在一起,关系就清楚了。

第一层,「我知道的」,是事实记忆。它让AI记得我的近况、偏好、项目和判断。

第二层,「我应该知道的」,是结构记忆。它把事实和材料织成Wiki,让AI理解我的长期问题和知识网络。

第三层,「我可能知道的」,是半径记忆。它把我长期关注但未必阅读的一切变成可召回的信息宇宙,让AI在进入公共互联网之前,先进入我的信息边界。

最内层是我留下的痕迹,中间层是这些痕迹被整理后的结构,最外层是我可能接触到的世界。

如果用一个人来类比,第一层像记忆,第二层像知识,第三层像视野。一个真正个人化的AI,不能只有记忆和知识。它还必须有视野。否则它知道你昨天做了什么,也能背出某个概念的定义,却不知道你平时从哪里感受世界。

这就是很多AI个性化产品让我不满意的地方。

它们把「记住用户」理解成记住偏好:喜欢什么语气,在哪里工作,正在做什么项目。它们把「连接外部世界」理解成搜索网页。但用户不是一个偏好表,外部世界也不是一张无差别网页列表。用户和世界之间,还有一层长期形成的媒介关系。

哈勃半径记录的就是这层关系。

五、每个人都需要自己的哈勃半径

我比较相信,未来每个重度使用AI的人都需要自己的哈勃半径。

它可以很简单,不一定要像我这样折腾FreshRSS、Meilisearch、群晖、Cloudflare Worker、Hermes Agent和Notion AI。对大多数人来说,它可能只是一个持续维护的RSS列表,一个高质量收藏夹,一个跨平台稍后读,一个能被AI调用的信息源仓库。

关键不在技术栈,而在观念:你需要给AI一个你不读,但你给出权重很高的,可不依赖你的内在系统也持续更新的内容池,

AI的上下文不应该只来自公开互联网,也不应该只来自你已经整理好的笔记。真正属于你的上下文,还包括那些你长期允许进入生活、但尚未被你消化的信源。

那是你的信息暗物质。

它平时不可见,却影响你的判断、写作、情绪和问题意识。你以为自己是在独立思考,其实你一直在某个半径内思考。过去,这个半径只被平台拿来塑造你;现在,你可以把它交还给自己的AI,让它帮你看见这半径内部到底发生了什么。

这也是为什么我叫它「哈勃半径」。

AI时代的问题,不是信息不够,而是默认的世界太大。世界越大,平均值越强。平均值越强,个人经验越容易被淹没。

给AI设置哈勃半径,就是告诉它:先别急着替我抵达全世界。先回到我的宇宙里。

看看我关注过什么,错过了什么,可能知道什么。看看哪些信号已经在我身边出现,只是我还没来得及读。看看哪些问题早就在我的信息半径里反复回响,只是还没有被命名。

当AI能做到这一点,它就不再只是一个更快的搜索框,也不只是一个更长记性的助手。

它开始像一个能替我巡视视野的人。

而这可能才是个人AI真正开始成立的时刻。

#一个新的AI #记忆层概念哈勃半径

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注