IT之家 1 月 25 日消息,本月早些时候,苹果与谷歌正式宣布达成合作。长期以来,苹果在自研模型开发方面一直步履维艰,因此未来的 Apple Intelligence 功能将由谷歌的 Gemini 模型提供技术支持,并依托苹果的私有云计算服务器运行。
今天彭博社记者马克・古尔曼报道,这项合作成果最快将于下月在 iOS 26.4 测试版中亮相,苹果还计划通过某种形式向公众演示相关功能。他同时披露了这一合作达成背后的若干新细节。长久以来,“全新 Siri 即将推出”的消息似乎总在反复提及,但随着苹果弃用自研模型,这项功能终于有望在近期落地。彭博社记者马克・古尔曼的报道指出:iOS 26.4 版本中的全新 Siri 功能将实现更强的屏幕内容感知能力,更深入地了解用户需求,还能直接在各类应用中为用户执行操作。为这些功能提供支持的 Gemini 模型,在苹果内部被命名为“苹果基础模型 v10”,其参数规模达到 1.2 万亿。不过这仅仅是个开端,在 iOS 27 系统中,Siri 的能力还将实现进一步跃升。IT之家注意到,古尔曼上周还透露,苹果计划在 iOS 27 和 macOS 27 系统中全面植入聊天机器人风格的功能。这些功能将由“苹果基础模型 v11”驱动,其性能预计与 Gemini 3 不相上下。古尔曼形容,该模型的能力“将显著超越支撑 iOS 26.4 版 Siri 的初代模型”。不过,由于功能复杂度大幅提升,这些新功能或许需要依托谷歌的基础设施运行。目前,针对 iOS 27 相关功能的合作谈判仍在进行中。在本月初宣布与谷歌 Gemini 达成合作之前,苹果也曾探索过其他技术路径。去年 6 月,当彭博社报道苹果考虑弃用自研模型、转而采用第三方模型供应商的技术时,苹果管理层曾在内部予以反驳。据称,时任 Siri 业务主管迈克・洛克威尔在一场紧急会议中直言,这一报道纯属“无稽之谈”。尽管如此,苹果当时其实已在与 Anthropic 和 OpenAI 两家公司洽谈合作,计划由它们为 Apple Intelligence 版 Siri 提供模型支持。然而,与 Anthropic 的谈判在去年 8 月陷入停滞,原因是该公司要求苹果“在未来数年里,每年支付数十亿美元的合作费用”。而与 OpenAI 达成合作的可能性同样渺茫,彼时 OpenAI 正积极挖角苹果的硬件人才,并与乔尼・艾夫联手布局硬件业务。后来,法院裁定苹果与谷歌关于“谷歌搜索作为 iPhone 默认搜索引擎”的合作协议并不违法,这也让苹果与谷歌围绕 Gemini 模型的合作变得愈发顺理成章。总而言之,距离首款搭载 Apple Intelligence 功能的 Siri 正式亮相已为期不远。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,蓝鸢梦想所有文章均包含本声明。
