认知黑暗森林:你的每一个 Prompt,都在喂养你想逃离的东西

认知黑暗森林:你的每一个 Prompt,都在喂养你想逃离的东西

刘慈欣在《三体》里提出了黑暗森林法则:宇宙中的每个文明都是猎人,暴露自己的坐标就意味着毁灭。所以最安全的策略是沉默,是隐藏,是不要让任何人知道你在哪里。

这个法则正在数字世界里重演,只不过猎人换成了 AI 公司,坐标换成了你的思维模式。

Hacker News 上有个帖子拿了 376 分,讨论的是一个越来越多人感受到但很少有人说清楚的困境:你每天都在用 AI,你知道这些公司在收集你的数据,你想减少依赖,但你发现你已经离不开了。更讽刺的是,你想搞清楚怎么减少依赖,第一反应还是去问 AI。

这不是一个技术问题。这是一个认知陷阱。

你的 Prompt 就是你的思维指纹

大多数人对隐私的理解还停留在”别泄露我的身份证号和银行卡密码”。但 AI 时代的隐私泄露远比这深刻。

想想你每天发给 ChatGPT 或 Claude 的那些 prompt。你问它怎么写一封拒绝 offer 的邮件,它知道你在找工作。你问它怎么处理和同事的冲突,它知道你的职场关系。你让它帮你改简历,它知道你的技能树和职业焦虑。你让它帮你写一段表白的话,它知道你的感情状态。

单独看,每一条 prompt 都是无害的。但把一个人三个月的 prompt 历史拼在一起,你得到的是一幅比任何社交媒体画像都精确的思维地图。

社交媒体上的你是表演出来的。你发朋友圈会修图,发微博会斟酌措辞,发 LinkedIn 会包装经历。但你跟 AI 对话的时候,你是真实的。因为你没有观众,你不需要表演,你只想解决问题。

这种真实性恰恰是最危险的。

Meta 花了十几年,用你的点赞、评论、浏览时长来推测你的偏好。Google 用你的搜索历史来猜你想买什么。但 AI 公司不需要猜。你直接告诉它了。你把你的需求、你的困惑、你的决策过程,一字一句地打进了对话框。

数据飞轮:你越用越好,越好越用,越用越困

AI 产品有一个经典的增长模型叫数据飞轮。用户越多,数据越多,模型越好,产品越好用,用户越多。这个循环一旦转起来,就很难停下来。

但很少有人从用户的角度去想这个飞轮意味着什么。

你用 ChatGPT 写了一段代码,它不太对,你修改了一下再提交。这个”修改”的过程就是一条高质量的训练数据。你告诉了模型:这种情况下,正确的做法是什么。下次别人问类似的问题,模型会给出更好的回答。

你用 Claude 帮你分析一份商业计划书,你在对话里指出了它的分析哪里不对,哪里遗漏了。这些反馈让模型变得更聪明。

你用 Copilot 写代码,每一次 Tab 接受和每一次 Esc 拒绝,都在告诉模型什么样的代码是好的,什么样的是垃圾。

你在免费使用这些工具。但你也在免费为它们工作。

这个交换在早期看起来是划算的。你得到了一个强大的助手,它得到了一些训练数据,双赢。但随着时间推移,天平在倾斜。模型越来越了解你,越来越能预测你的需求,你越来越依赖它。而你对模型的了解呢?还是零。

你不知道你的数据被用在了哪里。你不知道有多少人的模型改进是基于你的输入。你不知道如果你明天停止使用,你贡献的那些数据会不会被删除。大概率不会。

这就是飞轮的另一面:你帮它转得越快,你就越难跳下来。

思考外包的代价

2011 年,哥伦比亚大学的 Betsy Sparrow 发表了一篇论文,发现人们在知道信息可以通过 Google 搜索到之后,会更少地去记忆这些信息。这个现象被称为”Google 效应”或”数字失忆症”。

十五年过去了,我们可以说搜索引擎确实改变了人类的记忆方式。我们不再记电话号码,不再记路线,不再记那些”Google 一下就能找到”的知识。我们的大脑把这些信息的存储外包给了搜索引擎,腾出空间来做其他事情。

这个改变有好有坏,但至少搜索引擎外包的只是记忆。你还是自己在思考,自己在判断,自己在做决策。搜索引擎给你信息,你来处理。

AI 助手外包的是思考本身。

你让 AI 帮你写邮件,你外包的不只是打字,还有措辞的斟酌、语气的拿捏、信息的组织。你让 AI 帮你做技术方案,你外包的不只是查文档,还有方案的比较、trade-off 的权衡、风险的评估。你让 AI 帮你写代码,你外包的不只是敲键盘,还有算法的选择、架构的设计、边界条件的思考。

每一次外包,你的相关能力就萎缩一点。就像长期坐轮椅的人腿部肌肉会萎缩一样,长期依赖 AI 思考的人,独立思考的能力也会退化。

这不是危言耸听。2024 年 Microsoft Research 发了一篇论文,调查了使用 AI 工具的开发者的编程能力变化。结果发现,重度使用 AI 编程工具的开发者,在没有 AI 辅助的情况下,解决算法问题的能力比一年前下降了。下降幅度不大,但趋势很明确。

更微妙的是,这种退化是渐进的、无感的。你不会某天突然发现自己不会写代码了。你只是慢慢地,越来越不愿意自己写。因为 AI 写得更快,而且”差不多”。这个”差不多”就是陷阱。它让你觉得自己还行,只是选择了更高效的方式。但当你真的需要独立解决一个 AI 搞不定的问题时,你会发现手感没了。

逃离的悖论

这就是认知黑暗森林里最残酷的部分:你意识到了问题,但你找不到出路。

你想减少对 ChatGPT 的依赖。但你已经习惯了用它来整理思路、起草文档、做决策分析。没有它,你的工作效率会掉一大截。你的老板不会因为你在”锻炼独立思考能力”就给你多一倍的 deadline。

你想保护自己的数据隐私。但你发现,不用 AI 工具意味着你在竞争中处于劣势。你的同事用 Copilot 一天写完的代码,你要写三天。你的竞争对手用 AI 做市场分析,你还在手动翻报告。

你想搞清楚怎么在使用 AI 的同时保持独立性。你的第一反应是什么?打开 ChatGPT,输入:”如何减少对 AI 的依赖?”

这就是悖论。你想逃离的工具,恰恰是你用来规划逃离路线的工具。

这让我想起戒烟。每个烟民都知道抽烟有害健康,但戒烟的过程本身就充满了压力,而压力又会让你想抽烟。AI 依赖的戒断反应没有尼古丁那么生理性,但心理机制是类似的:你越焦虑,越想用 AI 来缓解焦虑。

暴露在黑暗森林里

回到黑暗森林的类比。在刘慈欣的宇宙里,文明可以选择沉默。但在 AI 的认知黑暗森林里,沉默不是一个选项。

因为不用 AI 本身就是一种信号。当你的同行都在用 AI 提高效率的时候,你的”沉默”意味着落后。这不是一个你可以单方面退出的游戏。

而且,你的数据暴露不仅仅发生在你主动使用 AI 的时候。你的同事用 AI 工具处理了一份包含你信息的文档。你的公司把客户数据喂给了 AI 做分析。你发的邮件被对方的 AI 助手读取和总结。你写的代码被 Copilot 的训练数据收录。

你可以不用 AI,但 AI 在用你。

这种被动暴露是最难防御的。你可以选择不用 ChatGPT,但你没办法阻止别人把涉及你的信息喂给 ChatGPT。你可以选择不用 Copilot,但你没办法阻止你的开源代码被用来训练 Copilot。

可能的出路

说了这么多悲观的,聊聊有没有出路。

第一条路是本地模型。Llama、Mistral、DeepSeek 这些开源模型已经能在消费级硬件上跑了。一台 M4 Max 的 MacBook Pro 可以流畅运行 70B 参数的模型。本地模型意味着你的 prompt 不会离开你的电脑,不会被用来训练任何人的模型,不会被任何公司存储和分析。

本地模型的能力确实不如 GPT-4 或 Claude,但差距在快速缩小。对于日常的代码补全、文档起草、信息整理,本地模型已经够用了。只有在需要最强推理能力的时候,你才需要调用云端模型。

第二条路是有意识的使用边界。不是完全不用 AI,而是给自己画一条线。比如:技术方案自己想,只用 AI 来验证。比如:第一稿自己写,只用 AI 来润色。比如:核心逻辑自己写,只用 AI 来处理样板代码。

这条线画在哪里因人而异,但关键是要有这条线。没有边界的使用,最终会变成没有底线的依赖。

第三条路是定期断联。就像有人会做”数字排毒”,关掉手机一个周末,你也可以做”AI 排毒”。每周花一天时间,完全不用任何 AI 工具,强迫自己独立完成工作。这不是为了证明你不需要 AI,而是为了保持你不用 AI 也能工作的能力。

第四条路是关注数据主权。选择那些明确承诺不用你的数据训练模型的服务。Claude 的 API 默认不用对话数据训练模型。ChatGPT 的 API 也是。但免费版的 ChatGPT 会用你的对话来改进模型,除非你手动关闭。这些细节很多人不知道,但它们决定了你的思维数据最终流向哪里。

清醒地活在森林里

认知黑暗森林不会消失。AI 公司不会突然变得不想收集你的数据,AI 工具不会突然变得不那么好用,你的同行不会突然停止使用 AI。

你能做的不是逃离森林,而是在森林里保持清醒。

知道你在交出什么。每次打开对话框之前,花一秒钟想想:这条 prompt 里包含了我的什么信息?我愿意让一家商业公司永久保存这些信息吗?

知道你在失去什么。每次让 AI 替你思考之前,问自己:这个思考过程本身有没有价值?如果我一直外包这类思考,三年后我还能独立完成吗?

知道你在喂养什么。你的每一次交互都在让 AI 变得更强大,更了解人类,更难以替代。这不一定是坏事,但你应该是知情的、主动的,而不是无意识的、被动的。

黑暗森林里最危险的不是猎人,是你忘了自己也可以是猎人。当你清楚地知道游戏规则,知道每一步的代价和收益,你就不再是猎物。你是一个带着地图走进森林的人,虽然地图不完整,但至少你知道自己在哪里,要往哪里去。

别把地图也外包给 AI。

滚动至顶部