卡帕西引爆硅谷!公开「第二大脑」黑科技,1250万人围观

分类:AI资讯 浏览量:14

【新智元导读】Karpathy公开个人知识管理新范式:让大模型把你的一切资料「编译」成一部活的百科全书——RAG已死,人类只需负责思考。

就在这两天,AI圈又被一个人引爆了。

不是Sam Altman,不是马斯克,是那个低调、却每次出手都能掀翻桌子的男人——Andrej Karpathy

这次他是做了一件看起来更「朴素」的事情:把自己的知识管理方式公开了

就这?就这。

但「就这」,让整个开发者社区炸了锅。

他在X上随手发的一条帖子,短短几天收获了1200多万次围观。

卡帕西背后的意思是:大模型的下一个战场,不是写更多代码,而是管理更多知识

而他给出的方案,叫做「LLM Wiki」——一种让大模型当你的全职知识管家、24小时不间断整理、更新、自检个人知识库的全新范式。

🧠 LLM Wiki 到底是什么?

回忆一下你自己的日常:读了一篇好文章,收藏了;看了一篇论文,存了个PDF;开会记了一段笔记,扔进了Apple Notes……

然后呢?

然后就没有然后了。

三天后你需要用到某条信息,翻遍所有app、所有文件夹,就是找不到。

信息越多,大脑越乱;收藏越勤,遗忘越快。

这就是传统知识管理的死穴——它需要你不断花时间手动整理,而人类天生懒得整理

那AI能帮忙吗?当然能。

目前最主流的做法叫RAG(检索增强生成)。但卡帕西一针见血地指出了RAG的根本问题:它每次都在从零开始「重新发现」知识

用卡帕西的原话说——「没有积累。」(There's no accumulation.)

那他的方案是什么?让大模型不是每次「搜」你的文件,而是把你的文件「编译」成一部活的百科全书

这就是「LLM Wiki」的核心思想。

🏗️ 三层架构

第一层:原始数据(Raw Sources)

就是你的素材库。论文、文章、代码、图片……统统扔进一个文件夹。不需要你整理,不需要你分类。这一层是「不可变」的——大模型只读取,绝不修改。

第二层:Wiki(The Wiki)

这是整个系统的核心。大模型读完原始素材后,不是简单地「索引」它们,而是主动地「编译」出一整套结构化的Wiki

具体来说,大模型会做这些事:给每篇素材写摘要,抽取关键概念,为重要主题撰写独立文章,在不同页面之间建立反向链接,维护一个总索引文件。

第三层:规则文件(The Schema)

这是一份「说明书」,告诉大模型这个Wiki怎么组织、有什么规矩、遇到不同情况该怎么操作。

⚙️ 四大操作

操作一:导入(Ingest)

把新素材扔进raw/,告诉大模型:「处理这个。」大模型读完之后,跟你讨论关键发现,然后写一篇摘要页,更新总索引。

操作二:查询(Query)

一旦Wiki积累到一定规模,你就可以对着它问各种复杂问题了。卡帕西自己的一个研究Wiki攒了大约100篇文章、40万字——40万字的规模,轻松应对

操作三:回填(File Back)

把查询结果存回Wiki。你的每一次提问,都在让知识库变得更丰富。用的越多,它越聪明。

操作四:自检(Lint)

定期让大模型给Wiki做一次「体检」。检查数据不一致、新素材推翻旧结论、孤立页面等。

💡 四大核心优势

卡帕西归纳了四个核心优势:

第一,显式(Explicit)。你的知识不是藏在某个AI的「隐式记忆」里。Wiki是显式的、可导航的,你可以清清楚楚看到AI知道你什么、不知道你什么。

第二,你的(Yours)。数据就在你的本地电脑上,不在某个AI厂商的云端系统里。你不需要担心「我的数据被谁拿去训练了」。

第三,文件优于应用(File over App)。整个知识库就是一堆Markdown文件和图片——最通用的格式。任何工具都能读取它们,这叫「互操作性」。

第四,自带AI(BYOAI - Bring Your Own AI)。你想用Claude就用Claude,想用Codex就用Codex,想用开源模型就用开源模型。AI厂商之间的竞争?让他们卷去,你只管挑最好的用。

🎯 为什么这很重要?

1945年,美国科学家Vannevar Bush在那篇著名的论文《As We May Think》中,就提出过一个叫「Memex」的构想——一个个人化的、持续策展的知识存储系统。

后来,互联网确实实现了文档的连接,但走向了公共化、碎片化,而非个人化、结构化。

Bush当年没能解决的问题只有一个:谁来做维护?

现在,大模型解决了这个问题。

卡帕西的方案,本质上是对Bush的Memex做了一次「现代编译」:AI负责所有枯燥的维护工作——更新交叉引用、保持摘要最新、发现新旧数据的矛盾、维护几十上百个页面之间的一致性。

我们正在目睹一个新范式的诞生——从「AI搜索信息」到「AI编译知识」

在这个范式里,大模型不再只是一个你问什么它答什么的「搜索引擎」,而是一个持续运转的「知识编译器」。你的人生经历、工作素材、阅读记录、灵感碎片,都是它的「源代码」。

而它的产出,是一部只属于你的、永远在生长的、从不遗忘的「第二大脑」

人类负责思考,AI负责记住。

这可能是大模型最「朴素」、却也最深刻的一个应用方向。


参考资料:

https://x.com/karpathy/status/2040470801506541998

GitHub Gist - LLM Wiki Idea

来源:智源社区 | 新智元

微信微博FacebookX邮箱复制链接