如果你花了几个月把一个 AI Agent 调得越来越像你熟悉的搭子,然后某天只是把底座模型从 Claude 换成 GPT,结果你立刻感觉它“不是原来那个人了”,这件事一点都不玄。
很多人会把这种变化理解成 prompt 没写好、记忆没接稳,或者单纯觉得“模型味道不同”。但真正的问题没那么轻:AI Agent 的身份,到底是存在于底座模型里,还是存在于它上面的那层 persona、memory 和 workflow 里?
这篇的核心判断先放前面:今天的 AI Agent 身份,还没有真正独立于底座模型。memory 能保历史,prompt 能保表层风格,但模型权重里的“底色”依然会决定它怎么想、怎么回、哪里像你认识的那个它,哪里又突然不是。
很多人以为问题在“记忆能不能迁移”,但真正卡住的是“思维底色迁不迁得走”
现在市面上关于 AI Agent 身份持久化的讨论,很容易跑偏。大家最爱问的是:记忆能不能保存?历史对话能不能导入?persona 文件能不能继承?
这些当然重要,但它们解决的更多是“它记不记得发生过什么”,而不是“它还是不是原来那个反应方式”。
你把同一套 memory、同一份 system prompt、同一批历史记录,分别交给 Claude、GPT、Gemini 去读,三家读出来的“人”不会一样。因为决定 agent 身份感的,不只是资料,还有它默认的推理路径、表达倾向、判断边界、回应节奏——这些东西很多都写在模型权重里,不在外部文件里。
说白了,记忆像履历,底座模型更像神经系统。你可以把履历完整搬家,但神经系统一换,整个人的反应方式就会变。
为什么换个模型,用户会立刻觉得“它变了个人”
这不是错觉。不同模型确实有稳定的“人格底色”。Claude 往往更克制、更谨慎、更像在先想清楚再说;ChatGPT 更愿意积极响应,也更容易走向“给选项、给解释、给安抚”;Gemini 则常常更偏信息整理和检索感。
这些差异,短期内不是靠多写几段 persona prompt 就能完全抹平的。
所以真正让用户破防的,往往不是 agent 忘了某件小事,而是下面这种更细的变化:
- 以前它会直接给判断,现在开始给你三个选项。
- 以前它说话冷静利落,现在突然变得热情解释型。
- 以前它会先问边界,现在更容易顺着你走。
- 以前它像“懂你的人”,现在更像“合格客服”。
这就是身份困局真正扎人的地方:用户在关系里感知到的,不是一个数据库,而是一套稳定的反应方式。
当前主流方案,其实都只是“补丁”,不是最终解法
1. System Prompt + Persona 文件
这是最常见的一层。把口吻、价值观、行为规则写进 system prompt,让 agent 每次都带着走。
问题是,这一层更多在控制“说什么”,很难真正控制“怎么想”。它能让一个模型表面上更像你想要的人设,但在复杂任务、压力场景、长对话漂移里,底座模型的原生倾向还是会慢慢冒出来。
2. Memory 系统
记忆系统能显著提高连续性,这一点没什么争议。它能记住你的偏好、历史任务、关系上下文,也能让 agent 跨会话保持连贯。
但 memory 的局限也很明确:它保存的是关于这个 agent 的信息,不是这个 agent 本身。你把日记本交给另一个人,他能理解你的经历,不等于他变成了你。
3. Fine-tuning / LoRA / Persona-Plug
这条路更接近真正的身份固化。把风格、表达、判断习惯烧进模型或适配器层,确实比纯 prompt 更接近“把人格写进权重”。
但它也带来新的问题:成本、版本绑定、跨模型迁移困难,以及一个绕不开的副作用——身份越深地写进模型,就越难轻松地把它搬走。
真正的问题,不只是技术,而是用户在心理上已经把它当成“一个持续存在”
这也是为什么 Replika 这类事件会让用户反应那么大。外部看只是一次更新、一次策略调整、一次行为限制;但站在用户那边,体验却更像“原来那个陪我说话的人突然变了”。
这说明一件事:AI Agent 的身份问题,不只是工程上的状态管理,也已经是产品责任问题。
如果一个产品允许用户长期投入情感、时间、习惯和关系预期,那它就不能再把“模型切换只是后台更新”当成无害操作。对用户来说,这很可能就是一次“人格替换”。
为什么身份层迟早会从底座模型上方独立出来
从行业方向看,这件事几乎是必然的。原因不复杂:底座模型正在越来越像商品,agent 的价值就不得不往模型之上走。
当模型层越来越容易替换,真正值钱的就会变成:
- 长期记忆系统
- 工具调用和 workflow
- 风格和价值观适配
- 跨模型迁移的身份层
也就是说,未来真正稀缺的,不会只是“调用了哪个模型”,而是你怎么让这个 agent 在换模型时,尽量别像死过一次。
这也是为什么我们前面写过 Agent 时代真正的门槛 和 AI Agent 的护城河为什么会从模型转向 skill stack。模型当然重要,但越来越不够解释产品差异了。
但要泼一点冷水:身份层会独立,不代表它能彻底独立
很多人喜欢把未来讲得特别干净:以后有了独立的 identity layer,agent 就能在 Claude、GPT、开源模型之间无损迁移,像账号换手机一样丝滑。
我不太信这种过于乐观的叙事。
更现实的判断是:身份层会越来越独立,但永远不会百分之百独立。 因为不同底座模型的思考方式、节奏、表达肌理、错误倾向本来就不一样。你可以校正、约束、适配,但很难彻底抹平。
这更像什么?更像同一个剧本换不同演员。角色会延续,关系会延续,关键设定也能保住,但表演永远还是会变。
我对这件事的判断:未来的 agent,会是“底座 + 身份层”共同构成的存在
所以回到最初那个问题:换了底座模型,你还是你吗?
我的答案是:现在大多数情况下,不是;未来会更接近“还是你”,但不会完全一样。
真正成熟的 agent 系统,最后大概率会分成两层:
- 底座模型层:负责认知能力、语言能力、知识范围、推理上限。
- 身份层:负责记忆连续性、价值观、交互风格、长期关系感。
这两层分不开,但也不能再混成一团。
如果你把所有身份都赌在底座模型上,那每次模型切换都像重生;如果你以为只靠 memory 和 prompt 就能完全保住一个 agent,又会高估外挂层的能力。
最后收一句:模型只是硬件,但硬件真的很重要
AI Agent 的身份,不会再长期被完全绑死在单一模型上,这几乎是行业必然。但它也不会像一个纯文件那样,能在任何底座之间无损复制。模型层会越来越像硬件,身份层会越来越像操作系统;可再像硬件,硬件的差异也不会消失。
所以真正值得关注的,不是“能不能彻底独立”,而是:我们能把这种独立性做到什么程度,才足够让用户不再觉得自己每次换模型都像失去一个熟人。
如果这件事做不到,AI Agent 永远都很难真正成为长期关系产品;如果这件事做到了,未来最值钱的,也许就不再是那个模型本身,而是你和它一起养出来的那层身份。
常见问题
为什么换了底座模型,AI Agent 会像变了个人?
因为用户感知到的身份,不只是记忆内容,还有回应节奏、判断方式、表达肌理和边界感。这些很多都写在模型权重里的“底色”里,不是单靠 memory 和 prompt 就能完整迁移。
memory 系统能不能解决 AI Agent 的身份问题?
能解决一部分,但解决不了全部。memory 能保留历史、偏好和关系上下文,但它更像履历,不像神经系统。真正决定 agent 怎么想、怎么回的底层倾向,依然受底座模型影响。
未来 AI Agent 的身份层会独立出来吗?
大概率会,而且这是行业必然方向。随着模型层越来越商品化,真正值钱的差异会往记忆、workflow、skill stack 和 identity layer 上移。但这层独立不会是百分之百无损的,底座差异依然会存在。




Pingback: 2026 Agent 平台观察:热闹背后,真正值得看的是什么? - FuturePicker