苹果终于承认了一件事:靠自己做出来的 Siri,竞争不过其他 AI 助手。
1月12日,苹果和谷歌发布联合声明,宣布多年期合作——谷歌的 Gemini 模型将为苹果下一代 Siri 和 Apple Intelligence 功能提供动力。据估算约10亿美元/年的版权费,换来的是一个”白标”协议:用户看不到 Google 的任何品牌,那还是叫 Siri,只是换了个核心。
苹果做不到的,谷歌来补
这件事的背景很重要。苹果在 iOS 18 推出 Apple Intelligence 时,Siri 的升级幅度让很多人失望——写作工具还行,但真正的多步骤推理和个人上下文理解离 ChatGPT 差了一截。
内部消息显示,苹果的自研大模型团队在追赶这个差距上遇到了困难。不是资源问题,是时间问题。iOS 的年度发版节奏不允许”等等再说”。
所以苹果选择了最直接的路:买。和当年把谷歌搜索引擎嵌进 Safari 的逻辑完全一样,只不过这次嵌进去的是一个生成式 AI 系统。
苹果和谷歌联合声明:”这些模型将推动未来的 Apple Intelligence 功能,包括今年即将上线的更个性化的 Siri。”
非排他,保留 ChatGPT
合作协议是非排他性的。苹果和 OpenAI 的 ChatGPT 集成继续有效,苹果方面表示不会改变现有安排。
这是苹果在 AI 供应商上的一贯策略:多源并行,避免单点依赖。Gemini 做什么,ChatGPT 做什么,自家模型做什么,三者各有分工,苹果本身作为系统集成层。
从隐私角度看,协议要求所有推理都在苹果设备上或苹果的 Private Cloud Compute 服务器上执行,谷歌的云不直接接触用户数据。这个架构设计对苹果的隐私品牌来说是必要的,否则”谷歌接管 iPhone 数据”的叙事会非常麻烦。
功能长什么样
按照目前的计划,Gemini 加持的新 Siri 会在 iOS 26.5 首次亮相(原定 iOS 26.4,工程原因推迟),完整的对话体验要等到今年9月的 iOS 27。
核心能力的升级方向是:
- 个人上下文:能看懂 Mail 和 Messages 里的具体内容,你问”张三的航班几点到”,Siri 可以翻你邮件给答案
- 屏幕感知:更深入的 on-screen awareness,能理解当前打开的 app 在干什么
- per-app 精细控制:开发者可以定义 Siri 在自己 app 内的权限边界
这些能力本质上是”AI 读懂你手机里的信息”,这也是为什么隐私架构要做成 on-device 优先的形态。
苹果用这个换了什么
很多人会说苹果认输了,但换个角度:苹果从来不打无把握的仗。把 Gemini 买进来,短期解决了 Siri 和竞品之间的能力差距;长期来看,苹果的自研团队还在跑,等训练出来的下一代模型准备好了,可以无缝替换。这是用时间换策略。
对谷歌来说,这是一笔稳定的 B2B 收入,也是 Gemini 嵌入十亿台设备的渠道。两家各取所需,争议在于苹果是否真的会在几年内重拾主导权,还是最终变成对 Gemini 的长期依赖。
苹果历史上有一个先例:2017年宣布要自研搜索引擎替换谷歌,到今天还在用谷歌搜索,还在每年收取数百亿美元的授权费。
iOS 27的秋季发布会很可能是这个故事的第一个真正测试节点。
参考来源:Google's Gemini to power Apple's AI features like Siri(TechCrunch,2026-01-12);Apple Explains How Gemini-Powered Siri Will Work(MacRumors,2026-01-30);Apple picks Google's Gemini to run AI-powered Siri coming this year(CNBC,2026-01-12)