谷歌Io大会首秀AR眼镜!最贫的搞笑AI机器人现身
发布时间:2022-05-13 13:50 所属栏目:45 来源:互联网
导读:谷歌2022年度全球开发者大会正式开幕! 首先我们有请谷歌CEO,桑达尔皮查伊。 言归正传,本次大会谷歌可谓是「批发式」更新。 硬件方面,从对拼Meta的AR眼镜、到对打苹果的首款智能手表,从高端耳机Pixel Buds Pro,到平价版的新款Pixel手机,还有造型一言难
谷歌2022年度全球开发者大会正式开幕! 首先我们有请谷歌CEO,桑达尔·皮查伊。 言归正传,本次大会谷歌可谓是「批发式」更新。 硬件方面,从对拼Meta的AR眼镜、到对打苹果的首款智能手表,从高端耳机Pixel Buds Pro,到平价版的新款Pixel手机,还有造型一言难尽的首款平板电脑Pixel Tablet,都在大会上亮相。 硬件「批发式」发布:眼镜手机智能表,一个都没少 十年之后,谷歌再做AR眼镜 此次大会最为重磅的消息可能就是——一个对谷歌未来AR眼镜产品的展示短片了。 这款AR眼镜的功能,是能够让使用者看到在他眼前的会话翻译文本。 不过,谷歌I/O大会没有分享任何关于下代AR眼镜何时上市、具体操作步骤、软硬件技术参数等细节。只在一个录制的短视频中展示了产品效果片段,非常有动画片广告的嫌疑。 而且,部分画面底部有文字,说明它所展示的是一个「模拟的视角效果」。 这表明,最终的用户体验可能与谷歌I/O大会的展示短片有很大的不同。 在谷歌下代AR眼镜成为消费者可以尝试的真实产品之前,公众不会知道它们在实践中的效果如何。 但视频中所展示的内容为潜在的AR未来描绘了一幅非常酷炫的画面。 短片显示了用户戴上眼镜后可能看到的情况:说话者在你面前,翻译后的各种语言的话语文本实时出现在你的视线中。 如果用户是如短片开头人物中患有听力障碍,那效果就更好、更有针对性了。 谷歌本次I/O大会说谷歌翻译现在多涵盖了24个小语种,相较而言,实时将英语、汉语、西班牙语等大语种的文本呈现在虚拟视觉中简直不算事。 在短片之后的部分中,一位谷歌产品经理告诉戴着眼镜的用户:「你应该能看到我说的话,文本是为你实时转录的,这有点像真实世界加了字幕。」这段话是以西班牙文呈现的。 所以在下代AR眼镜准备就绪之前,谷歌对分享太多细节的谨慎态度是可以理解的。 业界内行人认为,现实对话实时叠加字幕是AR眼镜的一个非常实用的应用。 谷歌下代AR眼镜要是真能做到实时口语会话转译,这绝对是一个杀手锏。 是真的?第一款智能手表要来了 还有一个重磅消息。谷歌在大会上终于确认了Pixel Watch的真实性。 然而,今天的公告与其说是全面介绍,不如说是一种「挑逗」。 看看上市时间就知道了:这款手表将于今年秋季和Pixel 7手机一起上市,而且将会是一款高价的产品。 Pixel Watch采用圆形+圆顶的设计,具有触屏表冠和侧身按钮。表身由回收的不锈钢制成,并具有可更换的专用表带。 在软件方面,谷歌表示Pixel Watch将拥有用户所期望的原生谷歌应用程序以及全新的Fitbit集成。 Wear OS的另一个亮点功能是紧急 SOS。用户可以使用手表联系朋友或家人,以及呼叫紧急服务电话。 同时,利用Fitbit集成,用户能够随时查看有关心率、睡眠跟踪和活动区域分钟数的数据和分析。 此外,Pixel Watch需要用户有一台Android 8.0或更高版本的手机,并且需要一个Google帐户。也就是说,不会像以前的Wear OS手表那样与iPhone兼容。 显然,谷歌正致力于推动其独有的Pixel生态系统。 硬刚AirPods:定制音频芯片+最强主动降噪 在几次尝试生产无线耳机之后,今天,谷歌终于宣布了其最高端的耳机产品:Pixel Buds Pro,定价199美元。 珊瑚色、柠檬草色、雾色和木炭色,外表看起来,这款耳机着实灵动可爱。 然而,「在温柔的外衣下,其内心却十分强大。」采用谷歌自定义的6核音频芯片,运行谷歌自行开发的算法,由音频工程师团队自定义扬声器,构建了独树一帜的ANC功能。 所谓ANC,即Active Noise Cancellation,主动降噪功能。 长期以来,降噪采取的办法都是耳内密封,但由此会造成耳部不适感。 谷歌的关键在于打造了内置的传感器。它可以测量耳道中的压力,主动缓解耳部压力,让人感到更加舒适。 显然,与Pixel手机「奢华的金属和玻璃」不同,这款平板电脑打造的却是一种「哑光的塑料美学」。 当然,决定平板电脑成败的不只是硬件,软件也是。 谷歌承诺,在未来几周内将更新20多个第一方应用程序,以更好地支持平板电脑显示。 与此同时,主要第三方应用程序也支持平板电脑的Android应用程序。 在AI方面,谷歌公布了最新的LaMDA2对话式AI模型,此外还展示了名为AI Test Ktchen的新应用。 为了演示LaMDA 2的功能,谷歌展示了三个小实验。 第一个演示实验是一次简单的头脑风暴,要求AI帮助用户想象在各种场景中的情况。比如输入「我在海洋的最深处」,AI就以描述性语言回应了一段文字,描述了用户在马里亚纳海沟的潜水艇中的场景。 第二个实验是关于主题讨论的,AI可以与用户就某个话题进行对话,并理解对话的背景。 (编辑:ASP站长网) |
相关内容
网友评论
推荐文章
热点阅读