DC娱乐网

谷歌上线Search Live功能:支持摄像头实时AI对话

谷歌近日宣布,在全球超过200个国家和地区正式推出"Search Live"功能,这一举措标志着移动搜索从传统的文本和图

谷歌近日宣布,在全球超过200个国家和地区正式推出"Search Live"功能,这一举措标志着移动搜索从传统的文本和图像检索,全面转向实时多模态交互的新阶段。用户现在可以通过手机摄像头与语音指令,在Android及iOS端的Google应用或Google Lens中,与现实环境进行实时AI对话。

核心技术:Gemini 3.1 Flash Live模型赋能

Search Live的核心动力源自全新的Gemini 3.1 Flash Live模型。作为一种原生多语言音频与语音大模型,该模型在对话自然度和响应速度上实现了显著提升。

用户只需将摄像头对准物体并提问,无论是复杂的家具组装指导,还是动植物的即时识别,系统都能同步提供语音解答及相关网页链接,真正实现了物理世界与数字信息流的无缝对接。

战略意义:筑牢移动端入口防御壁垒

这一功能的全球化部署,被视为谷歌应对AI搜索竞争压力的关键战略动作。当前,Luma AI推出的Uni-1模型正在挑战谷歌在图像处理领域的地位,而OpenAI也计划通过整合ChatGPT与浏览器功能打造超级应用。

谷歌通过Search Live的全面上线,充分利用Gemini 3.1 Flash Live的轻量化与高响应特性,有效筑牢了其在移动端入口的竞争壁垒。

行业发展:从被动检索到主动感知

Search Live的全面普及预示着AI助手正在经历一场深刻进化——从"被动检索工具"转变为"主动感知伙伴"。通过将计算机视觉与实时语音处理深度融合,谷歌正在重新定义信息获取的边界,推动整个搜索行业迈向空间智能与多模态交互的新阶段。

文章来源:AITOP100