YC CEO 开源个人第二大脑系统:全息记忆打造会成长的 AI Agent

2026年4月11日

79

937

YC CEO 开源个人第二大脑系统:全息记忆打造会成长的 AI Agent

在 AI 时代,我们早已习惯让大模型帮助处理信息,但几乎所有 AI 助手都面临同一个根本性问题:每次对话都是「从零开始」。无论是 ChatGPT 还是 Claude,关闭对话窗口后,它们不会记得我们之前说过什么、讨论过什么、或是做出了什么决定。这种「金鱼记忆」严重制约了 AI 作为个人助手的实用价值。

知识复利:越用越聪明的循环机制

YC 总裁 Garry Tan 近期开源的 GBrain 系统,正是为了解决这一痛点。简单来说,GBrain 是一个为 AI Agent 打造的个人知识底座,它能够将你的会议记录、邮件、推文、日历事件、语音通话、乃至于你的原始思考,全部汇入一个可检索的知识库。Agent 在每次回答前会先读取这个知识库,对话结束后再写入新信息——每一轮对话都让 Agent 变得更聪明一些。

知识模型:已整理事实 + 时间线的双层结构

GBrain 的核心逻辑是一个精妙的「信号-识别-读取-回答-写入-同步」循环:当新信号到来(会议、邮件、推文或链接)时,Agent 会自动识别其中的实体(人物、公司、想法),先读取知识库带着完整上下文回答,然后把新信息写回知识库并同步索引,供下次检索使用。这个循环每运转一圈,知识库就积累一层。 举一个具体例子:本周你与某位投资人开过一次会,Agent 会自动为他建立一个档案页,关联到他的公司,打上相关标签。下周另一个人在完全不同的话题里提到这家公司时,Agent 已经掌握了完整背景——你跟谁谈过、谈了什么、还有哪些待处理的线索。整个过程用户无需任何操作,完全自动化。 这正是 GBrain 最核心的价值:没有这个循环,Agent 每次都从零开始;有了它,每次对话都在已有基础上累积。差距每天都在拉大——这就是知识复利的威力。

没有这个循环,Agent 每次都从零开始。有了它,每次对话都在已有基础上累积。差距每天都在拉大。

“Garry Tan”

搜索机制:混合检索与多查询扩展

GBrain 的知识库采用独特的双层结构:每一页都分为分隔线上方和下方。分隔线上方是「已整理事实」,即你对某件事物的当前最佳理解,当新证据出现时会整体重写;分隔线下方是完全只追加不修改的「时间线」,记录所有变化的证据。这种设计确保了答案的时效性,同时保留了完整的思考轨迹。 在搜索层面,GBrain 采用了相当硬核的技术方案:查询一个问题时,系统先用 Claude Haiku 做多查询扩展,把这个问题改写成多种表达方式,然后同时跑向量搜索(HNSW余弦相似度)和关键词搜索(tsvector),再用 RRF 融合排名,最后经过四层去重。这种混合搜索策略解决了纯关键词搜索容易漏掉概念性匹配、纯向量搜索在精确短语上表现变差的各自局限性。

部署与使用:零服务器起步

GBrain 在部署上做了极致的简化。默认使用 PGLite,这是通过 WASM 运行的嵌入式 Postgres 17.5,无需 Supabase 账号,无需 Docker,无需连接字符串,一条命令就能获得完整的 Postgres 知识库,含 pgvector、混合搜索和全部 37 个操作。初始安装到完整运行约需 30 分钟,数据库初始化只需 2 秒。 从支持的模型来看,目前仅支持 Claude Opus 4.6 和 GPT-5.4 Thinking,不适合在小模型上运行——这也好理解,毕竟要在每次对话中完成「读取-写入」循环,需要足够强的上下文理解能力和推理能力。 使用路径上,GBrain 支持三种接入方式:独立命令行(全局安装后直接在终端使用)、MCP 服务器(对接 Claude Code、Cursor、Windsurf 等 IDE)、以及远程 MCP 服务器(部署到云端后可以从任何设备访问)。

如有侵权,请联系删除。

Related Articles

联系我们 获取方案
小墨 AI