安家电视剧在线观看(安家电视剧在线观看面包)
- 掌上影院
- 2025-06-04 21:50:21
- 3
16年初时安家电视剧在线观看,6自由度绝对是个生僻概念,为了解释Nozon在GIC展示安家电视剧在线观看的6自由度视频,我费了不少心思,最后找到了哈利波特这张图,用鬼魂游荡解释了这个问题。最近几个月,StarBreeze收购Nozon,Intel合作HypeVR,Adobe发布6自由度视频开始,6自由度视频已经成了新一代热门词汇。
如今6自由度视频是什么概念,已经不需要我来解释。但是6自由度视频安家电视剧在线观看的实现方式和问题,说的还不太多,我大概讲讲我的理解。
生成6自由度的几种技术路线
基于CG预渲染
Nozon的PrezenZ
目前的VR CG影片,要么在游戏引擎中实时渲染,如乔恩费儒导演的《Gnomes and Goblins》,可以自由交互,但无法达到极其逼真的视觉效果,尤其是着色计算比较复杂的材质,如皮毛;要么在Maya等设计软件中离线渲染,如《再见,表情》,可以达到非常好的视觉效果,但摄像机视角渲染时已经设置好,观看时无法改变。
游戏引擎为了解决复杂光照问题,引入了光照烘焙技术,预先对复杂光照进行计算并存储下来,运行时动态显示出来,兼顾了实时性和渲染效果。PrezenZ预渲染技术的基本原理思路类似,在设计软件或引擎中,先把能看到的画面预先渲染出来,在运行时动态播放对应位置的预渲染的画面,就实现了视觉效果超越实时渲染效果的6自由度视频。
PrezenZ的技术细节不得而知。目前UE4等游戏引擎在实时渲染方面的效果越来越好,在一些场景渲染效果甚至已经接近照片,但在模型量大,细节多,材质和光照极其复杂的条件下,还难以媲美离线渲染。预渲染生成6自由度视频技术,可以解决这个问题,理论上,也可以解决移动端图像渲染性能问题。但是预渲染可能也和其它6自由度技术一样,存在着数据量巨大等问题。
基于实拍图像和深度
CG渲染的图像,终究也不如实际拍摄的图像来的真实。由实拍图像形成的6自由度视频,带给观众的感受,可能要比目前的所有VR视频都来的真实。但是实拍视频摄像机位置都是确定的,在观看时如果移动视角,对应的新位置并没有数据。要是在每个可能视点都采集一张图片,数据量又过于庞大,因此目前主流6自由度视频技术,都引入了深度来解决这个问题。
深度一方面可以为实拍的物体,找到对应的空间关系,另一方面,可以结合RGB,在摄像机没有拍摄的位置,用morphing算法计算出相应点的RGB信息,如此一来,可以大大减少需要实拍的点位数量。
大概是基于这个基本原理,多家公司研发了6自由度视频方案,但是,他们获取深度的方式不大一样。
HypeVR:激光雷达
Intel合作的HypeVR,使用RED阵列获取全景图,使用激光雷达获取深度图。在室外获得深度,激光雷达是个精度高,也比较稳定的方式,无人汽车已经大量采用。整套方案效果看起来还是很不错的。
不过整套系统成本太高,光RED和激光雷达就已经不只几百万了,拍摄的视频每30秒能达到惊人的5.4TB,存储和计算的成本也非常高。最终播放端的数据已经压缩到2G每30秒,已经是比较小了。
Facebook:图像计算深度
Facebook在F8会议上推出的全景相机x24和x6,也提到了6自由度视频功能。OTOY和Facebook采用的技术基本原理类似,都是基于全景相机的多张图像,计算视差得到深度图,再用于生成6自由度视频。
基于视差得到深度图,是非常经典的计算机图形学算法,是很多机器视觉技术的基础。不过,这条技术路线要得到非常稳定且精度高的深度,是非常困难的,也有很多局限,例如没有任何纹理的白墙,就难以算出深度数据。
不过这条路线的好处也是很明显的,成本非常低,且深度数据的应用范围很广,不限于6自由度视频。Nuke的CAVA VR就可以根据全景图像生成场景三维深度,再进行全景视频后期处理,可以实现远比2D图像复杂的特效处理。国内的看到科技用深度来解决全景视频近处的拼接穿缝问题,Deepano也在研究基于视频生成深度图。
室内生成深度图,则有很多深度摄像头可以选择,经典如Kinect。Matterport就是利用深度摄像头和相机,同时捕捉了场景的深度和RGB信息。不过Matterport没有选择在拍摄点间Morphing插值,而是在拍摄点的全景图间跳转,达成了类似自由漫游的效果。理论上,Matterport也能够用于6自由度视频制作。
基于光场
Lytro主打光场的概念很多年,产品也从小型消费机,逐渐过渡到无比巨大的影视级阵列。不过Lytro的光场技术路线之前我大概分析过,见这里。大概的结论是:
Lytro生成深度的算法,可能和其它人生成深度的算法,并没有什么区别,只不过Lytro在同一点放了很多相机。Lytro的光场算法主要优势在可以改变焦距,扩展景深,在之前,Lytro的路线可能都跑偏了,类似技术的Raytrix走的工业检测可能是更适合其技术的应用场景。
如今Lytro的光场的可变焦,对于6自由度视频,倒是有一定的实际意义,未来配合可变焦的头显,可以实现更逼真的视觉效果。不过,Lytro设备体积这么大,成本这么高,拍全景也是个问题,应用起来实在困难。
还有两种技术路线,虽然也号称6自由度视频,但并不完全符合我们对6自由度视频的理解。
Adobe:2D视频转换
Adobe的方法看起来是目前各种方案中,成本最低,最容易应用的。但是,Deepano CTO徐抗的分析表示,Adobe的warp算法是直接采用当前帧进行,用户从物体正面移动到侧面时,看到的仅仅是正面图像的扭曲/拉伸到侧面,而不是像Lytro等公司发布的六自由度视频一样可以真正看到物体侧面乃至背面的图像,因此,这只能算一种视觉上的Trick,不具备扩展性。
8i:三维重建
8i达成的,是类似6自由度视频的,自由切换视角观影的效果。但是8i的技术本身,和视频没有太大关系,属于三维重建技术,观众看到的是三维模型动画,而不是视频。三维重建出的模型在逼真度方面,比起实拍甚至是CG预渲染的画面,都要差不少。这个技术往前走一步,做到实时,就是微软的 Holoprotation了。
国内的叠境数字,做的和8i类似,但应用场景主要还是在商品展示方面。owlii也在做与8i类似的事情,提出的应用场景更接近8i。
面临的主要问题
G/s,T/s的巨大数据量是所有以上方式面临的共同问题。也因此,目前的6自由度视频demo,基本展示的都是单点,最大1立方米范围内的视角运动,而非自由空间的“随便走”。多点拍摄带来的海量数据的存储和管理,还需要等待技术的进一步发展。微软的Flashback提出的三级存储和目录缓存技术,值得参考。
总结
从现有实拍全景视频,到6自由度视频,用户体验差别不算很大,但对技术提升的要求,却是巨大的。基于深度和全景图的方案,或许是最合理的技术路线,不过要获得完美的室外深度图,还有很多的路要走,几年内,可能不能指望这方面有太明显的突破,不过,总归是值得期待的。
关于6自由度视频,有什么说的不对要指正的,或者想交流的,欢迎加我微信t15011560163~
上一篇:暴君第二季(韩剧暴君第二季)