近期,苹果召开了2026财年第一季度财报电话会议。在此次会议上,公司首次面向公众全面披露了集成gemini模型后,全新siri系统的工作原理与技术路径。苹果首席执行官蒂姆·库克明确表示,与谷歌达成的这一合作,并非简单引入第三方ai能力,而是将gemini作为“苹果基础模型”的底层支撑,旨在为用户打造更富创造力的交互体验,同时助力苹果聚焦于构建深度定制化、高度差异化的上层功能。

库克强调,双方的合作本质是一种分层协同:谷歌提供的底层大模型主要承担逻辑推理、通用任务执行及大规模网络信息检索等基础性工作;而苹果自主研发的“个性化Siri”模块则位于其上,专注于融合用户的日常行为模式、设备内多应用数据流以及长期使用偏好,从而确保每一次响应都延续苹果一贯的人本设计语言与交互直觉。
值得一提的是,升级后的Siri将首次具备“实时屏幕理解”能力——可动态识别当前界面所呈现的内容,并据此触发精准操作。例如,在浏览即时通讯消息时自动提取并保存联系人地址,或在查阅电子邮件过程中一键生成日历提醒。
尽管引入了外部AI模型,苹果仍严守隐私底线。全部AI处理流程均严格限定于设备本地完成,辅以苹果专属的“私有云计算”架构,杜绝原始数据外泄风险,保障用户信息全程隔离、全程可控。该融合方案将无缝延伸至iOS、iPadOS与macOS三大平台,以兼顾个性化与安全性的统一方式,强化苹果生态的整体协同价值。
据内部消息透露,搭载Gemini技术的Siri功能预计将于iOS 26.4版本中率先上线;而基于全新架构重构的完整版Siri,则计划于2026年6月举行的WWDC全球开发者大会上随iOS 27正式发布,届时其综合表现有望对标谷歌最新发布的Gemini 3模型。











