Google I/O 2021开发者大会(后文简称
谷歌 I/O)近期已落下帷幕,去年因新冠疫情而被取消之后,今天我们看到的是谷歌积攒了2年创新技术轮番轰炸:3D全息视频聊天Starline,第四代定制AI
芯片 拥有十倍性能的TPU V4,两项先进的深度学技术:聊天不设限的语言模型LaMDA和MUM,同时每年一更的Android 12重磅登场。大会采用全程线上的形式,对所有人免费开放。
在众多成果中,令人最惊叹的莫属于Project Starline项目。
据悉,Project Starline这项计划已经研发5年时间,研究的主题是3D视频通话。在疫情期间,很多人无法和亲人、朋友相聚,而谷歌推出的「聊天室」可以让你和远在天边的他们近距离碰面,互相问候、眼神交流,就像真的互相见到一样。这个名为Starline的3D视频通话技术,让屏幕另一边的人看起来有体积、有深度和阴影,就像坐在你的面前一般真实,更令人诧异的是视频期间裸眼3D,不需要佩戴任何眼镜或者
头盔。这背后的原理是什么?
实际上,这是由高分辨率
传感器、数十个景深扫描传感器以及 65 英寸「光场显示器」重新生成的实时 3D 模型。谷歌表示这一项目已开发了数年之久,其背后是大量
计算机 视觉、机器学、空间音频和数据压缩技术。可以看到,屏幕中不再是二维画面,而是与真人一比一的三维立体原显示,对方每一个表情、身上的动作,甚至阴影都能“真实”展现,就像真的坐在眼前一样。谷歌还为此开发出了一套突破性的光场系统,让人无需佩戴眼镜或耳机即可感受到逼真的体积和深度感。就连谷歌AI掌门人Jeff Dean都表示大受震撼,可以称作“魔镜”。
当然,一般的摄像头肯定不行,必须能拍出立体影像,而且拍摄角度也不能单一。据谷歌的介绍,Starline用到的设备是一个65英寸的光场显示屏,以及在现场布置的十多个摄像头和传感器,从多个角度捕捉使用者的外形和外观,形成3D模型;其实就是模拟人眼去感知对方,在“脑中”形成立体画面。这些传感器从不同角度捕捉人的形象,使用深度学进行实时压缩,传输到另一边再重建成3D影像播放出来,这期间每秒产生的数据可多达几千兆比特,当前的网络肯定传输不了,更别说还是实时的。所以,为了可以通过现有的网络发送如此大尺寸的图像,谷歌开发了新的压缩和流媒体算法,使数据体量减少超过100倍。这样下来,一般的办公网络才可以流畅使用。说到这,你是否注意到,使用者并没有佩戴任何3DAR眼镜或者头盔之类的设备,那为何屏幕上还能出现3D立体效果呢,这其实就是在使用者面前的那块65英寸的显示器-光场显示器。这块光场显示器也是谷歌特别研发,可以展现对方的真实面貌。
「我们的目标是让谷歌为每一个人提供更多帮助」谷歌首席执行官桑达尔 · 皮查伊说道。
在新技术应用层,谷歌计划将Project Starline引入给医院和媒体机构在内的商业部门洽谈合作。虽然Starline项目还在研发中,但希望它能尽早被安装和使用,早日被应用在生活中。
而不管技术怎样发展,我们普通人对于未来便捷生活都离不开“3D视频”新技术的概念。随着新的算法不断的升级,AI技术深度计算让信息处理更加高效,3D的效果会更加逼真、更加极致。不仅仅是谷歌,
苹果 等科技巨头在深入研究,
微美全息 作为深耕全息3D行业也在不断的优化现有的逼真体验,也不断的扩大新的场景化落地。值得肯定的是,微美的
5G全息通讯视频聊天,真实感就像是在现场拍摄的而不是电脑渲染出剪辑画面,这项发现是整合了计算机视觉、
AI智能 学、空间音频、先进的压缩、深度传感摄像头和一个巨大的拥有“光场技术”的显示器来实现。该屏幕允许在不需要特殊眼镜的情况下查看高分辨率3D图像,深度摄像头确保能够看到参与者的多个角度。就好比上述提到的Goodgle的“墨镜”,大家在开视频会议时,屏幕对面仿佛是裸眼3D,在全息3D视频聊天中大家的人脸都能够完美成像显示。这项有趣技术的发现能够让交谈者们确认真实的自己与其他人是确实在同一个场景中,相隔甚远也在面对面开会议,真实坐在面前互动、交流,就像平时开会那样。后续,微美期望能够进一步完善对线上会议音频降噪、视频优化效果等的操作。
在高科技的今天,我们更期待的远距离见面方式是这样的:虽然相隔万里,也能立刻全息投影出现在对方身边。虽然目前还不能不靠任何设备实现这样的全息投影,但是动态3D重建技术已经发展起来,利用AR全息设备来呈现。人类对于未来科技的探索,就如同对海底世界的研究,未来谁能在这方面做得更优异,就能有更好的竞争力。