谷歌近日宣布,其創(chuàng)新的Search Live實(shí)時(shí)搜索功能已面向全球用戶開放,覆蓋所有支持AI Mode的語(yǔ)言和地區(qū)。這一功能讓全球超過200個(gè)國(guó)家和地區(qū)的用戶能夠通過語(yǔ)音指令和攝像頭輸入,與Google搜索展開實(shí)時(shí)、多模態(tài)的互動(dòng)對(duì)話。
Search Live的核心優(yōu)勢(shì)在于其交互方式的革新。用戶不再局限于傳統(tǒng)的文字輸入,而是可以直接用語(yǔ)音提問,同時(shí)結(jié)合攝像頭捕捉的現(xiàn)實(shí)場(chǎng)景,讓搜索系統(tǒng)理解視覺信息并給出精準(zhǔn)回應(yīng)。例如,當(dāng)用戶需要安裝新家具時(shí),只需開啟攝像頭對(duì)準(zhǔn)物品,系統(tǒng)便會(huì)根據(jù)畫面提供詳細(xì)的操作指南,并附上相關(guān)網(wǎng)頁(yè)鏈接供進(jìn)一步參考。
技術(shù)層面,這一功能的實(shí)現(xiàn)依賴于谷歌最新推出的音頻與語(yǔ)音模型Gemini 3.1 Flash Live。該模型通過優(yōu)化對(duì)話流程,使交互體驗(yàn)更加自然流暢,同時(shí)支持多語(yǔ)言原生處理,確保用戶能用母語(yǔ)與搜索系統(tǒng)無障礙溝通。無論是提問還是追問,系統(tǒng)都能快速理解意圖并給出音頻形式的回答。
操作方式上,用戶只需在Android或iOS設(shè)備的Google應(yīng)用中點(diǎn)擊搜索欄下方的“Live”圖標(biāo),即可啟動(dòng)語(yǔ)音交互模式。若需結(jié)合視覺信息,則可同時(shí)開啟攝像頭功能,系統(tǒng)會(huì)實(shí)時(shí)分析畫面內(nèi)容并提供建議。當(dāng)用戶使用Google Lens識(shí)別物體時(shí),也可通過界面底部的“Live”選項(xiàng)進(jìn)入實(shí)時(shí)對(duì)話模式,進(jìn)一步探索物體相關(guān)信息。
谷歌表示,Search Live的全球推廣旨在打破傳統(tǒng)搜索的局限性,讓用戶在學(xué)習(xí)、探索和完成實(shí)際任務(wù)時(shí)獲得更高效的輔助。通過整合語(yǔ)音、視覺和文本輸入,這一功能正重新定義人機(jī)交互的方式,為信息獲取帶來更多可能性。












