iOS 27的Siri要彻底变了:WWDC 2026预告海报里,Mark Gurman读出了新界面的关键细节

Apple在4月19日发布了WWDC 2026的官方宣传图。大多数人看到的就是一张写着WWDC26的海报。但Bloomberg的Mark Gurman从那个发光的26里,读出了iOS 27要带来的全新Siri界面的关键信息。

WWDC 2026将于6月8日至12日举行。这张预告图,基本上提前说了一件事:Siri要重做了,这次是认真的那种重做

发光的26里藏的设计语言

Gurman的解读是这样的:海报上26的发光高亮效果,在视觉上精确对应了新Siri在Dynamic Island里的呈现方式。

当你唤醒新Siri时,Dynamic Island里会出现:

  • 一个写着Search or Ask的输入提示(不是以前那个正在聆听的波纹了)
  • 一个发光的文字光标(就是海报里那个高亮效果的原型)
  • Dynamic Island四周的细边发光效果

这是一个完全不同的交互逻辑。从我在听变成了你来搜或者来问——主动权交回给用户,Siri从被动响应变成了一个可以随时查询的入口。

独立的Siri App:终于有对话历史了

除了Dynamic Island的界面变化,iOS 27还会带来一个独立的Siri App,预装在iPhone上。

这个App的功能包括:

  • 真正的来回对话,而不是一问一答就断了
  • 对话历史记录——你可以翻看以前问过什么
  • iMessage风格的聊天气泡界面
  • 固定和搜索对话记录的功能

这基本上就是Apple版的ChatGPT App。

从功能清单上看,和目前市面上大多数AI聊天产品没有太大区别。但Apple做这件事有自己的优势:它预装、它跟整个iOS生态打通、它知道你的日历、联系人和照片。这些系统级的数据访问权,是第三方App拿不到的。

苹果为什么现在才认真做这件事

Siri在过去几年里活成了一个反面教材。每次横评总结里都有类似的话:Siri是垫底的那个。2024年ChatGPT横空出世,2025年Gemini Ultra、Claude跟上,Siri的差距没有缩小,反而越来越明显。

然后是今年初的那笔大交易:据报道苹果用近十亿美元和Google谈成了一个合作,下一代Apple Intelligence的基础模型层选择了Gemini。用户端看不到Google的品牌,但底层跑的是Gemini的推理能力。

苹果在下的棋是:不去跟OpenAI和Anthropic正面比拼基础模型能力,而是用Google的推理 + 苹果自己的端侧隐私架构 + 系统级深度整合,做出最像原生功能的AI体验。

这个逻辑是清晰的:苹果的护城河从来不在模型能力上,而在设备整合和用户信任上。

哪些设备能用,哪些不能

有些功能——特别是深度AI推理部分——会要求iPhone 15 Pro及以上机型,因为Apple Intelligence对设备算力有明确门槛。

Dynamic Island虽然从iPhone 14 Pro开始就有了,但新Siri的部分AI特性可能只在更新的机器上才能完整体验。

对于用iPhone 14和14 Pro的用户:基础的UI变化大概率能用,深度AI功能不一定。这是Apple Intelligence的一贯策略——通过硬件门槛推动换机,不算意外。

距离WWDC还有七周

正式发布是6月8日。目前已经基本确定的方向:

  • Siri UI全面重设计(Dynamic Island集成 + 独立App)
  • 对话式交互替代原来的命令式单问单答
  • 基于Gemini的Apple Intelligence作为AI能力底座

还不确定的:

  • 能不能操作第三方App(这是大家期待最多的能力)
  • 中文Siri的体验改善幅度(历史上每次都是重灾区)
  • macOS 27上的Siri会不会同步跟上

按Gurman过去的准确率,这次透露出来的信息可信度比较高。七周后见分晓。

参考来源:WWDC 2026 Graphic Teases iOS 27 Feature(MacRumors)