然后他顿时就惊呆了。
这画质,
这沉浸感,
简直绝了!
作为一支专门测试新型装备的部队,袁锦标接触过的装备数量非常多,这种头戴式的vr装备他用过不少,但还从来没有哪个,画面能做到这么细腻清晰的。
屏幕一点颗粒感都没有。
这像素密度得是有多高?
光是头盔上的这块屏幕,都是妥妥的黑科技吧?
而且屏幕好还不够,如果摄像头拍得就不清楚,那再好的屏幕也是白搭。
其实看过军用装备实战画面就知道了,一般军用武器的摄像头和屏幕,像素都很低,
这不但可以降低成本,提高设备稳定性,
还能大幅度降低数据传输效率,提高通讯的可靠性。
但在这套设备上,却似乎完全没有这个顾忌,
它直接帮操控员,进行了最逼真的场景还原!
其实刚刚康驰在戴上这个头盔的时候,心里对此也感到奇怪。
这屏幕不但画质细腻逼真,刷新率看起来还非常高,扭头的时候一点残影的感觉都没有,
如果按照传统图像传输模式和算法,流量绝对高得离谱。
哪怕4tb的量子通讯芯片,寿命也根本就不禁用啊。
但当他调出系统的流量监控后发现,数据的传输速度,竟然只有8s左右,
然后他进一步调出了数据,发现其实两台设备传输的,大部分都是各种摄像头和传感器的原始矢量数据。
所以很显然,是这个控制台利用这些原始数据,通过了一些非常牛逼的算法,进行了真实场景的重建和渲染。
其实道理很简单,
搞三维动画的肯定都知道,
三维模型的文件体积一般都不大,因为它只需要记录模型点线面的三维空间数据。
二维其实也是一样的,fsh动画的矢量图文件,体积也非常小,
但如果用这些数据,渲染成视频画面,等于就是从矢量画面转换成了位图画面,图片上的每个像素都有数据后,体积顿时就会暴增几百上千倍。
放在这台无畏战车上,则是机器人通过各种传感器采集数据,然后简化处理成一个三维场景的数据,传回控制台,由控制台进行场景的智能重建和实时渲染。
等于多了两个步骤,但却能大大降低两台设备需要传输的数据量。
由此康驰也很肯定,这个控制台设备里面的图形处理器和算法,肯定非常牛逼和智能!
……
在康驰的指导下,袁锦标简单地适应了一下后,就尝试操控无畏战车在空地上运动了起来。
不过他和康驰一样,除了横冲直撞这类简单的动作因为有辅助系统,看起来比较流畅之外,
稍微复杂点的动作,就显得非常迟钝,
还需要通过大量的练习来适应……