(VRPinea 5月13日讯)昨天凌晨,谷歌2022年度全球开发者大会如约而至。虽然往届I/O大会的焦点主要集中在软件上,但自从谷歌在2019年的大会上推出Pixel3a智能手机以来,硬件的“存在感”就开始逐渐增强,甚至在今年超越了软件。
下面小P就先带大家盘点一下,本次Google I/O大会上有关AR软硬件方面的消息。
用于实时翻译的AR眼镜
在本届开发者大会上,谷歌谈论了许多关于智能手机、平板电脑和手表的话题。但是,最让小P感到意犹未尽的是,谷歌在大会的最后展示的一款AR眼镜原型机。
在这段时长不足2分钟的概念视频中,谷歌集中展示了这幅AR眼镜的实时翻译功能。对于语言不通的移民家庭来说,沟通上存在一道难以跨越的鸿沟。但当他们带上这款AR眼镜原型机,视野中就会出现显示实时翻译的文字,就像是一块放大版的字幕。
谷歌之前也推出过一些搭载实时翻译功能的产品,比如Pixel Buds耳机,但相较这次展示的AR眼镜,后者是具有明显优势的。一方面,这款智能眼镜的形态和传统眼镜几乎没什么差别,这也就意味着在看向字幕时,用户也可以保持正常的交流,避免了寻找按键和等待转录的尴尬。另一方面,除了佩戴者本人,几乎没有旁人能听到语音,因此不会感到不自然。
实际上,谷歌在I/O大会展示AR眼镜并不是一件稀奇事。早在2020年,谷歌就收购了加拿大智能眼镜初创公司North,随后各种泄密和专利也表明其正在开发新的AR眼镜。但目前尚不清楚这款眼镜的具体发布时间,以及是否支持除实时翻译以外的其他功能。但小P认为可能性很大,因为North原先推出的AR眼镜就已具备天气预报、导航、语音助手等功能。
沉浸式3D地图
在I/O 2022大会期间,谷歌宣布为Google地图推出沉浸式视图模式和Geospatial API,这两个新功能也被看作是谷歌试图打造世界级AR体验的证明。
据了解,谷歌使用神经渲染技术将2D卫星和街景图像组合成高质量的3D场景。正如视频所展示的那样,新的沉浸式视图巧妙地将来自Google地图、Google地球和街景的实时交通、天气与动画数字模型相结合,甚至可以看到鸟儿飞过建筑物、动画地标,以及波光粼粼的湖面。
对用户而言,借助沉浸式视图模式,就能以3D视角探索各个街道,并进一步导航到室内。谷歌表示,该功能将适用于“几乎任何手机和设备”,并将于今年晚些时候开始在洛杉矶、伦敦、纽约、旧金山和东京推出,其他城市也在计划中。
全新的ARCore Geospatial API
在将AR眼镜推向世界之前,谷歌首先要解决的是视觉定位系统(VPS)的问题。近日,Meta、Niantic等公司也在试图创建一个底层的3D世界地图。
而谷歌利用Google Maps的现有数据,创建了新的ARCore Geospatial API,以用于在特定位置创建AR锚点。据谷歌称,ARCore平台的开发人员可以在超过87个国家和地区放置锚点,而无需前往该位置或扫描额外的物理空间。通过这种方式,开发者可以将AR游戏或展览固定这些特定位置,且任何拥有智能手机的人都可以看到这些作品。
其他值得关注的技术或服务
LaMDA 2:谷歌AI对话系统LaMDA的第二代,可以把任务或主题拆分成要点,从而为用户提供建议。
谷歌翻译新增24种语言:其中包括一些美洲土著使用的语言,且超过3亿人使用这些语言。
更加精确的搜索功能:周边多重搜索功能帮助用户在附近搜索到可以获取同种类物品的渠道,未来该功能将发展为场景探索功能,即在接受图像的基础上,还能提供问题的答案,比如在一众植物中快速识别到稀有植物。
其中,场景探索功能未来如能应用在AR眼镜上,那将成为谷歌强有力的竞争优势。从本次开发者大会中,我们也能发现谷歌的各项有关语言的技术变得越来越成熟,大型语言模型可能会在其日后推出的产品中扮演更加核心的角色。
本文属VRPinea原创稿件,转载请洽:brand@vrpinea.com