科技媒體MacRumors近日發布深度分析文章,聚焦蘋果公司即將推出的iOS 26.4系統升級。此次更新最引人注目的變化在于Siri的全面重構,蘋果將通過引入大語言模型(LLM)技術,使這款語音助手實現從指令響應到智能交互的跨越式進化。
據披露,新版Siri將徹底摒棄傳統的關鍵詞匹配架構,轉而采用基于深度神經網絡的智能核心。這種技術革新使其具備初步的邏輯推理能力,能夠解析用戶模糊表述背后的真實需求。例如當用戶詢問"幫我找上周Eric發的滑冰建議"時,系統可自動分析郵件、短信等數據源,精準定位目標信息。盡管暫不支持ChatGPT式的自由對話,但其任務執行效率與場景理解力將獲得顯著提升。
在功能創新方面,蘋果重點強化了三大應用場景。首先是個人情境感知系統,通過深度索引用戶設備中的各類文檔,實現復雜指令的自動化處理。其次是屏幕內容識別技術,當用戶瀏覽包含地址的聊天界面時,只需發出"存入聯系人"的指令,Siri即可自動完成跨應用數據抓取。系統還支持更復雜的工作流指令,如"編輯照片并發送給Eric"等跨應用操作。
技術實現層面,蘋果采取"自研+合作"的混合模式。雖然核心算法由蘋果自主研發,但后端模型構建得到谷歌Gemini團隊的技術支持。這種務實策略既彌補了自研模型的技術短板,又保持了系統的獨立性。蘋果軟件工程主管Craig Federighi強調,此次重構使Siri的進化幅度超出iOS 18發布時的預期,特別是在隱私保護方面,通過私有云計算技術確保用戶數據在云端處理時的安全性,同時將敏感操作保留在設備端執行。
根據開發路線圖,iOS 26.4的測試版本將于2月底至3月初向開發者開放,正式版本計劃在4月面向公眾推送。盡管此次更新未將Siri升級為完全形態的AI助手,但其奠定的技術基礎被視為邁向iOS 27"全場景AI"的重要跳板。分析人士指出,蘋果正通過分階段升級策略,逐步構建具有自主知識產權的AI生態系統。








