蘋果與谷歌近期達成了一項引人矚目的合作協議,雙方將攜手為蘋果產品中的智能語音助手Siri提供先進的人工智能技術支持。這一合作成果有望在下個月的iOS 26.4測試版中率先亮相,蘋果方面還計劃以某種形式向公眾展示這些新功能。
根據相關消息,新一代Siri將依托谷歌的Gemini模型及其強大的云技術進行升級。為了獲得定制化的Gemini模型使用權,蘋果每年將向谷歌支付約10億美元的費用,核心版本為擁有1.2萬億參數的Gemini 2.5 Pro。這一模型將全面負責Siri的信息摘要、任務規劃以及復雜多步指令的執行等核心功能。與當前Siri所使用的1500億參數云端模型相比,新模型在處理能力和上下文理解深度上實現了質的飛躍,不僅支持多模態交互,還能處理長達128K token的超長文本。
在蘋果做出最終選擇之前,曾對谷歌Gemini、OpenAI ChatGPT以及Anthropic Claude這三大主流人工智能模型進行了全面測試。最終,蘋果選擇谷歌的原因主要包括:財務成本更為合理、雙方長期以來的合作基礎,以及Gemini 2.5 Pro在大型語言模型排行榜上的領先表現。Gemini模型采用了混合專家架構,雖然總參數超過萬億,但每次查詢僅激活部分參數,從而在保證高性能的同時,有效降低了計算成本和能耗,非常適合在iPhone、Mac等多設備場景中應用。
值得一提的是,谷歌為蘋果開發的AI模型將運行在蘋果的私有云計算服務器上,這意味著谷歌無法獲取蘋果用戶的任何數據,從而有效消除了用戶對數據泄露的擔憂。升級后的Siri預計將于2026年春季隨iOS 26.4系統正式推送,隨后還將在2026年6月WWDC大會上預覽的iOS 27、macOS 27等系統中進一步整合,為用戶帶來更加智能、便捷的使用體驗。






