iOS 27终结ChatGPT独家:苹果让你换Claude或Gemini,连Siri声音都跟着模型变

ChatGPT 在 iPhone 上的独家位置,撑了一年半就到头了。

5 月 5 日 Bloomberg 的 Mark Gurman 放了一份独家:苹果在 iOS 27 / iPadOS 27 / macOS 27 里要加一套叫 Extensions 的系统,让用户在系统设置里直接选默认 AI 模型——Claude、Gemini、ChatGPT 排排坐,谁当 Siri 的脑子,用户说了算。

WWDC 6 月 8 号正式公布,距离现在还有一个月。

Extensions 到底是怎么设计的

Gurman 的原文这样描述:“Extensions allow you to access generative AI capabilities from installed apps on demand, through Apple Intelligence features such as Siri, Writing Tools, Image Playground and more.”

翻译过来:你 App Store 装的 AI 客户端,可以变成 Apple Intelligence 的能力来源。在系统设置里有一栏 “Apple Intelligence & Siri”,进去能选用哪个模型当默认。一旦选了,Siri、Writing Tools、Image Playground 全部都会用这个模型——不是按功能逐个配,是系统级一键切换。

支持替换的能力清单看下来挺完整:

  • Siri 的对话和指令理解
  • Writing Tools 的文本生成、改写、总结
  • Image Playground 的图片生成和编辑
  • 系统级的文本和图像处理任务

苹果自家那套 on-device 模型仍然在跑,作为 fallback 兜底。但只要你在设置里选了 Claude,问 Siri 邮件摘要、用 Writing Tools 重写段落、在 Image Playground 生成图——干活的都是 Claude。

一个被忽略的细节:声音也跟着换

这是整套设计里最有意思的部分。

苹果会给不同的 AI provider 配不同的 Siri 声音——也就是说,Claude 回答你的时候,跟 Apple 自家模型回答你的时候,听起来是不一样的。Gemini 是 Gemini 的声音,Anthropic 是 Anthropic 的声音。

为什么这么搞?答案藏在监管和品牌心理里。

监管这边:欧洲、美国都在推动 AI 内容的可识别性。苹果让用户能听出”这是第三方在回答”,提前把合规问题挡了。

品牌心理这边:用户能感知到自己在用谁的 AI,AI 厂商付的”分成钱”或者”流量曝光”才有价值。否则 Anthropic 把模型嵌进去结果用户根本不知道是 Claude 在干活,对 Anthropic 来说就是白送。

这个细节透露的信号是:苹果不只是被动开放,而是认真在设计一个能让多家 AI 厂商都赚到品牌资产的入口生态。

谁亏了,谁赚了

亏最多的是 OpenAI。

Apple Intelligence 从 2024 年开始把 ChatGPT 当成默认外挂模型,OpenAI 拿到了上亿台 iPhone 的潜在用户曝光——虽然苹果一分钱没付,但这种 distribution 价值对一家估值万亿的 AI 公司来说仍然巨大。

iOS 27 之后,ChatGPT 跟 Claude、Gemini 进同一个选择列表。从”默认外挂”变成”备选项之一”,曝光量大概率被砍掉一大块。

Anthropic 是这事最大的受益者。Claude 之前在消费端的 distribution 一直是短板——Anthropic 自己也承认 ChatGPT 在 C 端用户基础上甩开他们好几条街。现在直接进 iOS 系统级入口,跟 ChatGPT 平起平坐,相当于免费白送了一条最贵的获客通道。

Google 的 Gemini 算半个赢家。之前已经跟苹果谈了 Gemini-Siri 整合的合作(用 Gemini 当 Siri 默认大脑,但用户不知道),现在改成用户可见的选项,Gemini 品牌曝光从隐性变显性。

这事还有几个没回答的问题

第一,苹果自家的模型默认到底是谁。Gurman 文里说苹果跟 Google 续了 Gemini 的合作当默认。如果默认是 Gemini,对 OpenAI 是双重打击;如果默认是苹果自己,对 Google 又是变相降级。这个细节 6 月 8 号才会揭晓。

第二,数据怎么传。用户的邮件、文档、Image Playground 的输入图——这些数据要不要发给第三方 AI 厂商?苹果一向把隐私当 selling point,但开放第三方意味着至少部分数据要出 Apple 的服务器。MacRumors 那篇报道里没说清楚,估计 WWDC 上会有一套新的 privacy framework。

第三,Claude 和 Gemini 怎么收费。是按 API 调用付钱给 Apple,还是 Apple 倒过来收 Anthropic 的入驻费?前一种更像 App Store 的分成逻辑(30% 拿走),后一种更像央视黄金广告位(位置费一年几个亿)。两种模式对 AI 厂商的成本结构完全不一样。

苹果在这事上其实是被推着走的

iPhone 用户对 Apple Intelligence 的吐槽已经积累了一年半。Siri 不行、Writing Tools 不好用、Image Playground 出图质量一般——苹果自家的 on-device 模型在 3B 参数级别,跟云端的 Opus、Gemini 2.5 Pro 比根本不是一个段位。

强行让用户用一个差几代的模型,体验是个灾难。开放第三方对苹果是承认自己短期内追不上——但同时也是从硬件分销变成 AI 流量入口的转身。

苹果不靠 AI 模型赚钱,靠 iPhone 卖钱。AI 体验差导致用户换安卓,对苹果损失更大。让 Claude 来给 Siri 当大脑,iPhone 的体验拉起来了,硬件销量保住了,这笔账算得过来。

至于 OpenAI 怎么应对——大概只能加快推自己的 ChatGPT 设备和操作系统了。Sam Altman 投资的 Jony Ive 那个 io 项目,至少在战略上没看错方向。

参考来源:iOS 27 will let you choose between Gemini, Claude, and more for AI features: report(9to5Mac);iOS 27 Will Let You Pick Claude or Gemini Instead of ChatGPT for Apple Intelligence(MacRumors)