2026 年 3 月 26 日,Bloomberg 的 Mark Gurman 报道:Apple 将在 iOS 27 中推出 Siri Extensions 系统,允许 Claude、Gemini、Grok 等第三方 AI 直接接入 Siri。ChatGPT 不再独占,用户可以在设置里自由选择 AI 助手。
表面上看,Siri 终于不只能把问题丢给 ChatGPT 了。但往深了想,这可能是 Apple 在 AI 时代走的最关键一步棋。
它的本质不是”Siri 变强了”。Apple 正在把 Siri 变成 AI 世界的 App Store。
App Store 逻辑的 AI 翻版
回想 2008 年。iPhone 刚推出时,所有应用都是 Apple 自己做的。然后 App Store 出现了——我不需要做最好的应用,我只需要做最好的平台。开发者来做应用,我来做分发、审核、支付。
十八年后,同样的剧本在 AI 领域上演。
iOS 27 的 Extensions 系统就是一个 AI 版的 App Store。Apple 提供统一入口(Siri)、统一界面(新的独立 Siri App,代号 Campos)、统一分发渠道(App Store)和统一支付体系(Apple 抽成 AI 订阅)。第三方 AI 公司负责提供智能,Apple 负责提供体验。
这个策略精明在哪?Apple 承认了自己在 AI 模型能力上的短板,但把短板变成了平台机会。
根据 Elephas.app 的整理,Apple 曾试图让 Anthropic 的 Claude 成为 Siri 的核心引擎,但价格谈崩了。最终 Google 的 Gemini 拿下了这个位置,合同价值约每年 10 亿美元。但 Apple 显然不想把鸡蛋放在一个篮子里——Extensions 系统确保了即使 Gemini 是默认引擎,用户仍然可以选择其他 AI。
典型的 Apple 式操作:用平台控制力对冲技术依赖风险。
但有一个关键区别。App Store 时代,Apple 自己的应用(Safari、Mail、Maps)虽然不是最好的,但至少能用。在 AI 时代,Siri 的自有能力长期被诟病。从 2011 年到 2024 年,Siri 基本上是一个基于规则的语音命令系统,和真正的 AI 助手差了一个时代。Apple Intelligence 在 WWDC 2024 承诺的核心功能——Personal Context(个人数据理解)、屏幕感知、跨应用操作——到 2026 年 3 月仍未完全交付。
换句话说,Apple 不是从强势位置开放平台,而是从追赶者的位置被迫开放。这和 2008 年的 App Store 有本质不同——那时候 iPhone 本身就是最好的智能手机。
模型即性格:一个被忽视的问题
Siri Extensions 带来的不只是功能选择,还有一个更深层的问题:当你选择一个 AI 模型时,你实际上在选择一种”性格”。
这不是比喻。学术研究已经证实,不同的大语言模型展现出可测量的、统计显著的人格差异。
2023 年,Serapio-García 等人用标准化的 IPIP-NEO 人格评估(Big Five 模型,120 道题)测试了 18 个大语言模型。结果:LLM 的人格测量是可靠且有效的——同一个模型多次测试,结果一致;不同模型之间,差异显著。
2024 年,Jiang 等人在 NAACL 会议上发表的 PersonaLLM 研究更进一步:他们不仅让模型做问卷,还让模型写创意故事,然后分析故事的语言特征是否与人格一致。结果是肯定的——高尽责性的模型写出更谨慎、有计划的文字;高外向性的模型写出更社交化、互动性强的内容。
具体到主流模型:
Claude 表现出更高的尽责性(conscientiousness)——更谨慎、更有条理、更倾向于深思熟虑。ChatGPT 更外向(extraversion)——更热情、更乐于助人、更善于社交互动。Gemini 更开放(openness)——更有创造力、更愿意探索新方向。
这意味着什么?当 Apple 让 Gemini 成为 Siri 的默认引擎时,它实际上在为数十亿用户选择了一种默认的 AI “性格”——一个更开放、更有创造力、但可能不如 Claude 谨慎的助手。当用户通过 Extensions 切换到 Claude 时,他们得到的不只是不同的回答,而是一个做事方式完全不同的助手。
这引出了一个平台设计的核心问题:AI 助手应该有统一的行为标准,还是应该允许多样性?
Apple 的历史答案一直是标准化。从 Human Interface Guidelines 到 App Store 审核规则,Apple 追求的是一致的用户体验。但在 AI agent 领域,标准化意味着抹杀模型的个性差异——而这些差异恰恰是不同模型的核心竞争力。
想象一下:如果 Apple 要求所有接入 Siri 的 AI 都必须遵循统一的”Apple 语气”——礼貌、简洁、不带态度——那 Claude 的深思熟虑和 Grok 的犀利幽默就都没了。用户得到的是一堆穿着不同衣服但说着同样话的 AI。
反过来,如果 Apple 完全放手,让每个 AI 保持自己的风格,用户在 Siri 界面里切换 AI 时会感受到巨大的体验割裂——上一秒还是温和的 Gemini,下一秒变成了直言不讳的 Grok。
这个两难,是 Apple 做 AI 平台必须面对的独特挑战。App Store 时代不存在这个问题,因为每个 app 有自己的界面。但 Siri Extensions 把所有 AI 塞进了同一个界面,性格冲突就变得不可避免。
围墙花园里的”开放”
Apple 把 Siri Extensions 包装成”开放”,但这个开放需要打引号。
对比一下真正的开放 AI agent 平台。以 OpenClaw 为例,这是一个开源的 AI agent 框架,用户可以自由选择任何模型(GPT、Claude、Gemini、开源模型、本地模型),自由定义 agent 的人格和行为方式,自由安装任何插件不需要审核,在任何设备上运行,完全控制数据流向。
再看 Apple 的 Extensions:只能选择通过 App Store 审核的 AI 服务,AI 公司必须按 Apple 的规范开发集成,Apple 控制界面和交互方式,需要特定硬件(12GB RAM 以上的设备),Apple 从 AI 订阅中抽成。
这不是开放,这是受控的多元化。Apple 从”只有一个 AI”变成了”你可以从我批准的几个 AI 里选”。和 App Store 的逻辑完全一致——你有选择的自由,但只能在 Apple 划定的范围内选择。
对于普通用户来说,这可能已经够了。大多数人不需要也不想自己配置 AI agent,他们只想在 Siri 里问个问题能得到好答案。Apple 的方案降低了门槛,提供了足够的选择,同时保持了体验的一致性。
但对于 power user 和开发者来说,这远远不够。真正的 AI agent 不只是回答问题——它需要执行复杂的多步骤任务、访问各种工具和 API、根据用户偏好自主决策。这些能力需要深度的系统集成和自由的工具链,而 Apple 的沙盒模型天然限制了这些可能性。
更关键的是,Apple 的审核机制在 AI 时代可能成为创新的瓶颈。AI 领域的迭代速度是以周计算的——新模型、新能力、新用法层出不穷。App Store 的审核周期和规则限制,可能让 iOS 上的 AI 体验永远慢半拍。
微软和 Google 走的是另一条路。Copilot 深度绑定 Office 365,Gemini 深度绑定 Google Workspace——它们不做平台,而是把 AI 能力直接嵌入自己的生产力工具。这种方式牺牲了选择自由,但换来了更深度的集成和更流畅的体验。
三种路线各有取舍。Apple 做平台,多模型选择,但受限于围墙花园。微软和 Google 做深度集成,单一模型,但体验更流畅。开源框架完全自由,但技术门槛高。
AI agent 的未来很可能不是”一个助手回答所有问题”,而是”多个专业 agent 协作完成复杂任务”。在这个方向上,Apple 的 Extensions 系统只迈出了很小的一步——它解决了”选择哪个 AI 回答问题”的问题,但还没有触及”多个 AI 如何协作”的问题。
Apple 能做得更好吗?
坦率地说,Apple 在 AI 领域的历史记录不太好看。
Siri 在 2011 年发布时是革命性的——它是第一个被主流消费者使用的语音助手。但此后的十年,Apple 几乎没有对 Siri 做过根本性的升级。当 Google Assistant 和 Alexa 在 2016-2020 年间快速进化时,Siri 还在用基于规则的系统处理语音命令。
Apple Intelligence 在 WWDC 2024 的发布本应是转折点。Apple 承诺了个人数据理解、屏幕感知、跨应用操作、更智能的 Siri。但到了 2026 年 3 月——距离发布快两年——这些核心功能仍未完全交付。iOS 18.1 和 18.2 带来的主要是 Writing Tools、通知摘要和 ChatGPT 集成,而通知摘要还因为准确性问题被广泛批评。
这种”承诺多、交付慢”的模式让人对 iOS 27 的 Siri 大改持谨慎态度。WWDC 2026 在 6 月 8 日,但根据 Elephas.app 的整理,完整的个性化 Siri 功能预计要到 2026 年秋季才能上线。考虑到 Apple 的历史延期记录,实际时间可能更晚。
但也不能完全悲观。Apple 有几个其他公司难以复制的优势。
隐私方面,Apple 的 on-device processing 和 Private Cloud Compute 架构,让它在隐私保护上有天然优势。当用户通过 Siri 向第三方 AI 发送请求时,Apple 可以作为中间层控制数据流向——这是 Google 和 Microsoft 做不到的,因为它们自己就是 AI 提供商。
用户基数方面,全球超过 20 亿活跃 Apple 设备。任何 AI 公司想要触达消费级用户,都很难绕过 iOS。Extensions 系统给了 AI 公司一个前所未有的分发渠道——通过 Siri 直接触达用户,而不是让用户去下载一个独立 app。
支付体系方面,App Store 的支付基础设施已经非常成熟。AI 订阅通过 App Store 购买,Apple 抽成,用户用已有的 Apple ID 付款——整个流程无缝衔接。
硬件集成方面,Apple 控制从芯片到操作系统的整个栈。Neural Engine、on-device 模型推理、系统级 API 访问——这些是任何第三方平台都无法提供的。当 Siri 需要访问你的照片、邮件、日历来回答问题时,系统级集成的优势是碾压性的。
问题在于,这些优势能否转化为实际的产品体验。Apple 有最好的硬件、最大的用户基数、最成熟的支付体系——但它在 AI 软件层面的执行力一直让人失望。
如果 Apple 能做到以下几点,它确实有机会在 AI agent 领域建立独特的竞争位置:真正交付 Personal Context,让 Siri 理解用户的个人数据;给 Extensions 足够的系统权限,让第三方 AI 能执行操作而不只是回答问题;平衡审核速度和安全性,别让 App Store 审核成为瓶颈;允许模型保持个性,别用统一的 Apple 语气抹杀不同 AI 的特色。
平台之争才刚开始
Apple 把 Siri 变成 AI 平台,方向是对的。在 AI 模型快速迭代、没有明确赢家的当下,做平台比做模型更聪明。控制入口和分发,让别人去卷模型能力——这是 Apple 最擅长的事情。
但方向对不等于能做好。Apple Intelligence 两年的延期已经消耗了大量信任。iOS 27 的 Siri 大改如果再次”承诺多、交付少”,市场的耐心可能就到头了。
更深层的问题是:AI agent 的未来到底是平台化的还是去中心化的?Apple 赌的是前者——所有 AI 都通过 Siri 这个统一入口触达用户。开源社区赌的是后者——用户应该完全控制自己的 AI agent,不受任何平台限制。
这两种路线不一定互斥。普通用户可能更适合 Apple 的方案——简单、安全、开箱即用。Power user 和开发者可能更倾向开源方案——自由、灵活、可能性无限。
但有一点是确定的:当你选择一个 AI 平台时,你不只是在选择功能,你也在选择你的 AI 助手会以什么样的”性格”和你相处。这个选择,在 Apple 的围墙花园里是有限的,在开放平台上是无限的。
参考来源:
– Bloomberg, Mark Gurman, “Apple Plans to Open Up Siri to Rival AI Assistants in iOS 27 Update”, 2026-03-26
– MacRumors, Juli Clover, “Apple Plans to Let Rival AI Chatbots Integrate With Siri in iOS 27”, 2026-03-26
– Elephas.app, “Apple’s Siri AI Overhaul: Standalone App, Third-Party AI, and the iOS 27 Reboot”, 2026-03-27
– Digital Trends, “Siri could soon support third-party AI tools in major iOS update”, 2026-03-26
– The Meridiem, “Apple Pivots to AI Platform Neutrality as Siri Opens to Multi-Model”, 2026-03-26
– Serapio-García et al., “Personality Traits in Large Language Models”, 2023
– Jiang et al., “PersonaLLM: Investigating the Ability of Large Language Models to Express Personality Traits”, NAACL 2024



