1. 首页>>分享

Google I/O 2025 倒计时!5月20日开启,多项重磅内容值得关注

时间很快就要到5月了。Google I/O 2025已悄然进入倒计时。这是科技圈最具影响力的开发者大会之一。它将于5月20日在加州山景城线下举办。还会同步开启全球直播。不管你是Android开发者。还是AI爱好者。亦或是XR行业观察者。今年这场大会都值得关注。

今年这届I/O无疑会延续去年的转变方向。从“移动优先”转变为“AI原生”。之后再朝着“设备融合”迈进。不再是单一平台的功能进行升级。而是多平台、多终端之间展开生态联动。Android 16将正式登场亮相。会更大规模地融入Gemini大模型的能力。

与此同时,去年底发布的全新独立操作系统Android XR会首次在Google I/O这个舞台亮相。雷科技曾报道过Google AI眼镜。与三星联合打造的Project Moohan MR设备也会登场。

过去Google I/O多以Android为主。但如今AI和多设备协同成了主旋律。Google要讲的不只是下一个Android是什么。更是下一个“操作系统”该如何发展。而这场大会就是它展示关键内容的时候。

Android 16 将拥有更「原生」的 AI

要是说 Android 15 是 Google 把 Gemini 引入系统的首个举措。那么 Android 16 才是让 AI 成为 Android 原生能力的一次重大进步。

图片

图/ Google

依据当前已知信息,Android 16最关键的词仍是「Gemini」。它并非仅内置一个可对话的助手。而是让Gemini大模型成为Android的核心基础建设。从通知栏的建议回复。到应用间的内容理解。再到设置界面的主动推荐。AI正渗入每一个交互节点。无论你是否能看见。

更关键的是,此次Gemini会开放更多系统级API,供开发者调用。这表明你所使用的并非某一个“接入大模型”的App,而是每一款应用,都能够自然具备“懂你”的能力。比如,订票应用能够识别你当下的行程安排,进而直接推荐最适宜的航班;健康类App能依据你近期的步数与睡眠状况,提醒你调整作息。

这次Android 16持续打磨系统体验。除了AI外。在两个方向上进行。

一个是视觉语言的革新。全新的Material 3 Expressive设计语言即将正式亮相。Google不再满足于“统一好看”。而是倡导“更具情绪”。动画更丰富。颜色更柔和。感知细节更多。使UI不只是外观设计。

图片

图/ Google

另一个是多设备融合。Android 16显然是为一个“更分布式”的未来做准备。它进一步强化了适配能力。针对平板、可穿戴设备甚至XR设备。XR方面尤其值得关注。毕竟Google的Android XR正在蓄势待发。而Android 16很可能是连接现实和虚拟的桥梁

当然 还有一些细节方面的小升级值得一提 比如更强的HEIC图像编码 更精准的相机白平衡调节 更灵活的音频共享机制 以及更智能的权限弹窗设计 这些或许不够耀眼 但每一个都能提高Android的稳定性和用户体验

简单来说,Android 16并非只是表层UI的更新。它也不是单点功能的增强。而是围绕「AI原生」全面开展的系统性进化。它尝试回答一个问题。即如果操作系统天生就能理解用户。那么手机的使用方式会变成怎样。在今年的Google I/O上。我们或许能提前看到。

Android XR ,正在重新定义「现实」

倘若说 Android 16 是 Google 把 AI 深入植入移动系统的一次升级。那么 Android XR 就是它投向未来计算平台的一枚深水炸弹。

这并非 Android 的又一“扩展版本”。它是一套独立操作系统。专为 XR(扩展现实)设备打造。其构建逻辑从技术栈到交互逻辑。与传统手机系统全然不同。去年年底 Google 首次公开 Android XR 的存在。今年 I/O 它将真正走入大众视野进行首秀

Android XR 的基础仍是 Gemini。Gemini 是一个具备多模态、上下文理解以及推理能力的大模型。它不再仅仅是系统中的“外挂助手”。它已成为 XR 系统的核心交互引擎。从语音控制到视觉识别。从环境感知到实时翻译。Gemini 使设备不仅能回应你“说什么”。更能理解你“看到什么”“想干什么”

图片

进行演示的 Google AI 眼镜,图/ TED

最能代表这一愿景的是Google稍早前展示的AI眼镜。它外观像普通眼镜。眼镜里内嵌了摄像头。还内嵌了扬声器和麦克风。也内嵌了微型显示器。并且有Gemini系统支持。举个例子。你只需看一眼菜单。眼镜就能帮你识别菜名。还能推荐更健康的选择。又或者你走在陌生城市街头。轻声问一句「这是什么建筑」。就能实时获取语音解说。

这款眼镜并非意在炫技。它代表着Google对「AI眼镜」这种设备形态的真切押注。它不需要沉浸体验。也不侧重娱乐功能。而是想要成为你生活中随时在旁的AI助手。这个助手能听。能看。还能回应。

当然,XR的主力设备不会仅为眼镜。Google与三星合作的Project Moohan也会在此次I/O上亮相。它是首款搭载Android XR的MR设备。其硬件规格堪称旗舰。更重要的是,它注重生态兼容性。用户能够通过Android XR系统运行Play商店里的App。

图片

Android XR 下的应用界面,图/ Google

与Apple Vision Pro的封闭策略不同 Google显然想走另一条路 Android XR是开放的 是模块化的 且与原有Android开发体系深度融合 你能用Jetpack Compose编写XR App 也能用Unity接入ARCore 无需重新搭建工具链

Google 要打造的,不只是一个 XR 系统。更是一个延续 Android 精神的新平台。它并非给头显“再造一个手机系统”。而是要让未来所有终端都具备原生 AI 能力与跨平台协同能力。这些终端包括眼镜、头显,甚至混合设备。

2025年 或许是Android真正开启「脱离屏幕」的关键节点 Google I/O是这个故事的开篇之幕

Gemini 是大模型,更是 Google 的灵魂

过去一年里 若说有技术能真正贯穿Google全线产品 重塑用户交互逻辑 那Gemini便是 它既不是一个App 也不是一项服务 而是Google自上而下的AI战略支点

从安卓到搜索,从工作区到谷歌浏览器,再到即将推出的XR操作系统,Gemini已不再是一项可选配置,而是正成为谷歌操作系统的新内核。在今年的谷歌I/O大会上,Gemini将迎来其最重要的一次公开演进。

首先是模型本身的进化。Gemini 2.5会成为本次大会的主角之一。其主打关键词是「速度」与「灵活性」。特别是Gemini 2.5 Flash,它是一个针对实际应用场景优化过的轻量模型。用户甚至能为它设置「推理预算」(thinking budget),可按需使用算力。

图片

图/ Google

其次是系统级集成实现全面打通。要是说Android 16的Gemini更像是“嵌入式智能”。那么在XR领域的Android XR上。Gemini成了整个系统的主交互方式。它不仅能听你说话。还能知道你视线落在哪。并且能理解你下一步想做什么。Google期望的是一种计算环境。这种计算环境要「零学习成本」。还要「全感知响应」。而Gemini是达成这一切的关键。

第三,Gemini的开发接口愈发开放。Google在此次I/O上会正式推出新版Gemini API。还会推出Gemini Nano(边缘端侧模型)工具链。这是一个面向AI原生应用开发者的全套体系。真正迈入「AI as a platform」时代

图片

图/ Google

特别是对于手机、眼镜、可穿戴设备这类边缘终端而言 这表明AI不再仅是云端的特权 而是能够进入本地 长期存在于用户日常生活中

总之 对普通用户来说 Gemini本身变化或许没那么明显 但影响却无所不在 而作为Google的AI策略核心 Gemini无疑是Google面向下一代平台的首张王牌 这个平台是AI原生 多设备协同 空间计算的

Google I/O 2025将是它全面爆发的舞台

写在最后

在过去的两年当中 整个科技领域发生了重大改变 Google I/O 也同样如此 AI 毫无疑问是造成这种变化的关键推动因素 今年这种趋势愈发显著 在Google I/O 2025中 主角显然并非某一款手机或者某一项功能 而是一个更为重要的问题

AI 到底该怎么融入操作系统,甚至融入我们的现实世界?

Android 16 能让我们知晓,AI 操作系统究竟能有多「原生」。Android XR 会向我们表明,操作系统能够摆脱屏幕的限制。而 Gemini 会给出一个有关未来人机交互的答案。这所有的一切,或许将于 Google I/O 2025 上正式公布。

本文采摘于网络,不代表本站立场,转载联系作者并注明出处:http://mjgaz.cn/fenxiang/275698.html

联系我们

在线咨询:点击这里给我发消息

微信号:13588888888

工作日:9:30-18:30,节假日休息