
一、上帝的画笔
你有没有想过创造一个世界?
或者,如果让你当创世神的话,你知道该怎么构造这个世界吗?
媒介限制了我们对世界的描摹。
有没有一种方式,能够让我们真正地拿起上帝的画笔?
有一群人,试图用VR给出答案。

图一,图片来自THEVRSHOP
作为人类历史上的第一款量产头戴式显示器,PhilcoHeadsight的视场角仅有40°,刷新率也仅有10Hz,而重量则是…未知。
60余年过去了,早PhilcoHeadsight五年的达特茅斯会议,经历过潮起潮落,终于在上一年迎来了它们最重磅的主角:ChatGPT。
而头戴式设备也并非吴下阿蒙,空间定位、眼动追踪、手势识别、MicroLED、Pancake光学模组,硬件、算法与工程学的结合,让上帝的画笔呼之欲出。
接下来,就让我们进一步走进VR的世界。
二、我们应该如何呈现世界?正如把大象塞进冰箱需要三步,制造一台VR设备也是如此:
让世界在我们的眼前呈现。
让世界与我们进行实时地交互。
把一切都塞到一台头戴式设备上,让其独立运行。
我们先来谈第一步。
让世界在我们的眼前呈现,这件事我们并不陌生,已然创造了一个赛博世界的我们,透过手机的屏幕,另一个世界的光映入眼中。把手机换成VR设备,道理也是一样的:我们需要一块屏幕,然后我们把屏幕的光映入眼中。
1.一块屏幕我们需要一块屏幕,以显示另一个世界的丰富。古早的时候,因为看重AMOLED的色彩饱和度,VR显示屏用的都是AMOLED,但AMOLED的像素密度低且难以提升,并且存在纱窗效应(像素低导致的,人眼可以看到像素点),所以便更换成了LCD。
LCD是液晶显示屏,对比度、色域、亮度都不够,同时刷新率低。为了改善LCD,Fast-LCD又被引入,顾名思义,Fast-LCD采用了超速驱动技术,刷新率可以提升到75-90Hz,同时用了新的液晶材料,呈像效果上也有所改善。
但Fast-LCD仍然存在问题,由于是背光技术,不能自发光,需要有背光光源,所以面板上容易出现漏光现象。为了解决这个问题,业内通常采用Fast-LCD+MiniLED背光光源的方案,将MiniLED作为Fast-LCD的背光光源。MiniLED实际上就是在背板上集成了尺寸更小的LED灯珠,所以亮度、对比度都会有所增强。
目前,Fast-LCD+MiniLED背光光源已成为XR设备的主流方案,但MicroOLED和MicroLED将是未来的探索方向。两者都是自发光技术,无需背光,无论从色域、亮度、对比度,还是功耗、分辨率等方面都领先其他方案。随着Applevisionpro采用MicroOLED,MicroOLED的发展将进一步加速。

图二,表格由MicroDisplay整理
2.把光映入眼中如果说把手机的光映入眼帘,是一件再自然不过的事。VR设备的光就有所讲究了,从业者至少需要解决三个问题:
近眼成像:视力正常者的最小物距(物体距离眼睛的距离)是14cm,而VR设备的屏幕物距仅3-4cm。
深度感知:VR设备的屏幕呈现的是2D画面,而沉浸式体验需要3D呈现。
视觉放大:VR设备的屏幕仅为普通眼镜大小,而VR画面渲染需要与现实世界同等尺寸乃至更大。
乍听起来,三个问题都如天方夜谭。然而受惠于神经科学和认知科学的发展,也得益于自托勒密时便兴起的视错觉研究,看似无能为力的问题亦都有了解法。
这都要从人的视觉机制说起。
1)人眼的视觉机制
人眼是如何看到事物的?不妨以照相机作喻:人眼是凸透镜成像,晶状体是照相机镜头,视网膜是照相机胶片。

图三,图片来自网络
物体光线从瞳孔进入眼睛,经由晶状体(凸透镜)折射,最终形成在视网膜上的倒立实像,经由人脑的算法自行复为正位。
凸透镜的成像原理,初中时都学过,透镜把平行光线汇聚于一点,形成实像/虚像。近大远小实际上也是因为凸透镜的作用(经过轴心的光线入射角减小,所以高度增加)。

图四,表格来自均一教育
如图所示,焦距固定,物距不同时,成像的距离也有所不同。当物距小于焦距时,物体成虚像,也就是放大镜的功效。

图五,图像来自百度百科
2)凸透镜的作用
运用凸透镜成像的规律,把光映入眼中的其中两个难题就可以解了。根据上图可得,当物体放置到透镜的一倍焦距内,便会在一倍焦距到二倍焦距之间形成一道正立放大的虚像。
什么是虚像呢?即物体的光经过反射而映入眼中的,光与光之间不能形成交汇,但人眼下意识觉得光是直线传播的,所以会自动反向延长光线,使其交汇于一点,从而形成虚像。

图六,图片来自光学影像与镜头
VR的原理和人眼一样,利用了凸透镜的作用。通过在人眼和屏幕间放置一块凸透镜,屏幕放置于透镜的一倍焦距内,使其在2倍焦距出形成了屏幕内容的虚像,根据B站Up主消失的模因推算,大概是280英寸的巨幕大屏。

由于凸透镜的作用,屏幕的成像距离也被调整,如Quest2的像距在1.3m,已经能够满足人眼的观看范围了。
不过,由图六可知,人眼与透镜、透镜与屏幕间,都需要保持合适的距离。如果透镜离人眼过近,像距也会被拉近,从而不能满足人眼的观看范围。如果透镜过远(仍要小于焦点),那整个设备的体积又会增大。
FOV越大,人在屏幕中所看到的虚拟视野就越大。但问题在于,想要增加FOV,要么把透镜后移,让其更靠近人眼,或者增加镜片的厚度。透镜后移,会导致像距被拉近,不能满足人眼的观看需求;增加镜片厚度,又会导致设备整体过重,并且同样的,像距依然会有问题。
实际上,FOV并不是越大越好。现实世界中,人正常聚焦的视野范围一般在110°,如果物体出现在110°外,人一般要转头去看,增加疲劳度。所以,只要保证FOV在110°左右,其实也就够了。
另一方面,透镜所呈现的放大版屏幕,实际上是原来屏幕的投射,屏幕分辨率是没有变的,FOV越大,对屏幕分辨率要求就越高,差的屏幕甚至能看到像素点。从工程学而言,找到FOV同屏幕、透镜厚度、设备整体尺寸的平衡关系,才是实际的难点。
3)透镜的演变
在实际工程中,透镜的演变,或者说VR中光学方案的演变,大体可以从非球面镜片到菲涅尔镜片,再到pancake折叠光路。

图八,图片来自网络
一般的球面镜片,镜面各处曲率相同,所以光从镜片折射出来,会聚焦在不同的位置,也因此导致模糊和外围失真的情况,这种现象被称为球面像差;非球面镜片就是在球面镜片的基础上,改变表面的曲率,使得折射出来的光能够汇聚在一点上。这样,球面像差的问题就能得到缓解或消除;但非球面镜片有个问题,它太重了。
于是菲涅尔镜片被搬到了VR中,简单来说,透镜的主要作用是为了折射光线,而透镜中存在一部分区域不折射光线,既然如此,直接把这部分拿掉,也完全不影响透镜的功能。菲涅尔凭着这样的方式,减了一波重量。
但菲涅尔镜头各处曲率不变,焦距无法进一步被压缩,整体仍然较重,VR眼睛也无法做得轻薄;同时由于曲面不连续,成像精度受限。非球面和菲涅尔镜头,都是采用平行光路的方案(光从透镜中透出,进入人眼)。想要再轻薄,目前最佳的实践是采用折叠光路(拉近焦距,通过多重反射进入人眼,既缩小焦距又保证成像)。
pancake的名字也反映出了它的结构,就是像饼干一样的四层镜片(各家有不同,如果用microled会有五层),它的光学原理不必深究(反正也搞不懂),只需记住它的解决方案是通过折叠光路使得焦距近一步被压缩。
焦距被压缩,其实不单改变厚度,也改变了视场角,近大远小,焦距变短,那视场角就会变大。当然这只是理论上的(理论上限pancake可达200°),现实中由于工艺的问题,pancake方案的视场角还没有菲涅尔广,在60–90°之间,而菲涅尔可以达到100°左右,当然,离人眼的120°还有一段距离。
当然,pancake也有自己的问题,因为有两次反射的原因,理论上pancake的入射光线亮度只有一开始的25%,这就要求光源本身得很亮。
同时由于多路反射,容易出现鬼影的情况,对工艺要求很高。但这些都是可解决的问题,平行光路有它的上限,如果要塑造沉浸感+便携的设备,折叠光路还是更好的方案。
由于pancake「损光」的特性,屏幕亮度就显得尤为重要,目前主流的搭配仍然是FastLCD+MiniLED背光+Pancake,但更理想的方式是MicroOLED+Pancake,相比于传统LCD的500尼特亮度,MicroOLED的亮度可达1000-6000尼特。
另外值得一提的是,既然是折射,画面一定会失真。现行的光学方案都是先让屏幕中显示的画面先失真(桶形畸变),再通过透镜折射恢复正常(透镜会通过枕形畸变将桶形畸变的图像恢复正常)。

图九,图片来自POMEAS
4)沉浸感的实现
如果说凸透镜解决了近眼成像和视觉放大的问题,那么还留存着一个尚待解决的问题:深度感知。这也是实现VR沉浸感的关键。
解决方案其实再简单不过,只需在透镜前放置两块屏幕(或一块屏幕隔成两块),分别呈现同一图像的不同成像角度即可。

图十,图片来自网络
人眼是个非常神奇的存在,本质上当我们看向三维物体时,左右眼看到的其实是同一物体的不同角度的平面成像图像。当两种不同角度的图片到达人脑后,人脑内置的视觉算法可以自动将两张平面图片合成一张立体图片。
VR成像,由于所有的内容都只呈现在屏幕上,而屏幕是平面的,所以无法像真实的三维物体一样,由于视差(两眼看到的角度差异)的存在而感受到立体感。所以,一不做二不休,干脆在两块屏幕上呈现同一物体的不同成像画面,利用大脑的自动合成功能,模拟立体感知。
虽然,双目视差的机制让VR眼镜能够模拟三维影像的立体感。但沉浸感除了立体,还有对于深度信息的感知。简言之,怎么区分物体离我们的距离。
5)远近感知
人眼感知世界的方式,主要依靠四种机制:
双目汇聚(vergence)
双目视差
单眼调节(Accommodation)
大脑补充
大脑补充,简言之即人脑根据经验的总结,通过一些画面线索进行的距离判断,比如近大远小(学名仿射)、遮挡关系(近处遮挡远处)、光照阴影、纹理差异、先验知识(比如飞机和风筝同样大,但飞机比风筝远)。这些知识学过画画的同学不会陌生。
双目汇聚(vergence),简单理解,是指两只眼睛看向同一物体,这个过程需要转动眼球肌肉,使得双眼聚焦同一物体。当物体靠近或远离眼睛时,汇聚角(图中所示的夹角)也会变大缩小,同时眼部肌肉会收缩或放松。也即,通过感知汇聚角的范围和睫状肌的紧张程度,人眼可以分辨物体的远近。

图十一,图片来自Relativecontributionstovergenceeyemovementsoftwobinocularcuesformotion-in-depth
单眼调节(Accommodation):眼睛依靠睫状肌进行聚焦控制,越靠近人眼的物体,成像会越模糊,通过模糊程度判断物体的远近。当眼睛聚焦在近处物体时,远处物体会模糊;相反,当聚焦在远处物体时,近处物体会模糊。
单眼汇聚只依靠单眼即可判断,一个典型的实验是:闭上一只眼睛,左右手分别竖起一只手指,与眼睛呈一条直线。当眼睛聚焦于近处手指时,远处手指模糊;反之亦然。本质上,单眼汇聚和双目汇聚是一体两面的存在,前者告诉大脑物体离人眼的绝对距离,后者告诉大脑双眼视线形成的绝对角度,两者都是在物理上可测量的。
VR中的远近信息传递,主要运用了大脑补充,但因为屏幕的距离是固定的,透镜的距离也是固定的(pancake之前),所以双目汇聚和单眼汇聚的信息是缺失的,而这也直接导致了所谓的VAC问题。
在真实世界中,人眼的汇聚距离和调节距离应该是一致的(观看远处物体时,眼睛聚焦到远处;观看近处物体时,眼睛聚焦到近处),反映在物理层面则是控制眼球转动的眼部肌肉和控制聚焦的睫状肌同步运动。但VR中,由于像距是固定的,因此无论观看画面中的远处或近处物体,眼睛都只能聚焦到屏幕上,这时,双眼肌肉与睫状肌便不再同步了。

图十二,来自维基百科
一般而言,有两种方式解决VAC问题。一种是光场技术,VAC的本质是由于屏幕不含深度信息,而采用脑补的方式进行模拟,从而导致了眼部肌肉与睫状肌的不协调。
那如果让屏幕发出的光,一开始就不相同(比如画面中的远景发A光,近景发B光),人眼就可以获得深度信息,问题就得以解决了。另一种方式是通过可变焦距+眼动追踪解决(第三部分会详述)。
眼动追踪确定用户的注意焦点,通过可变焦距实时改变焦点处的焦距,进而改变成像距离,使得会聚距离与调节距离保持一致。
目前光场技术还不成熟,而业内已采用的pancake方案可以实现多重变焦,有望在第二种方案上实现突破。
三、世界应该如何与我们交互?以上我们所讨论的仅仅是静态的呈现,而真实世界是动态的,我们每时每刻都在与世界本身交互。因此,尽管静态的VR世界已经如此庞大,我们仍然不能停下来,驻足欣赏此刻的成果,更艰难的事情在于从照片到影像的跃升。请继续保持耐心。
1.空间定位试想,当我们观察现实世界上,我们会移动,转头,于是我们看到事物的不同角度和大小。当我们靠近,声音变强,画面变大;当我们远离,声音减弱,画面变小;当我们围绕物体,则看到它的侧面。正是诗中所言:横看成岭侧成峰,远近高低各不同。
有一个专业术语,DOF(degreesoffreedom),用于衡量人活动的尺度。如果把空间分为X,Y,Z轴,则一共可以包括六种移动方式:沿X、Y、Z平移;沿X、Y、Z旋转。
所谓的6DOF,其实便是指包含这六种情况的活动类型。

图十三,图片来自网络
VR空间中,本质上所有的信息都只是投射在眼前两块屏幕上的平面信息,远近、侧面并不存在。所以它其实是模拟用户发生相应活动后的视觉呈现效果,直接投射如人眼。
比如当人靠近某个物体,屏幕画面会放大;转头就能观察整个空间的全景,不是用户真的来到另一片空间,而是算法根据用户的当前活动判断,并进行实时渲染。
目前的算法,主要是以头盔的活动情况为标准,通过IMU和追踪摄像头进行空间定位。空间定位是VR的核心之一,因此有必要具体阐述。
1)IMU
IMU,全称为InertialMeasurementUnit,翻译为惯性测量单元,一般指测量物体角速率和加速度的装置。我们经常看到,一个名词MEMS与IMU伴随出现。
MEMS全称MicroelectromechanicalSystems,翻译为微机电系统传感器,指内部结构在微米级别的传感器。
MEMS有很多种,比如MEMS加速度计、MEMS陀螺仪。
MEMS和IMU是两个独立的概念,并不存在包含关系,不过两者存在交集。比如上面提到的MEMS加速度计和MEMS陀螺仪,既属于MEMS,也属于IMU。
一般而言,IMU又包含三种传感器:加速度计、陀螺仪和磁力计。
加速度计:一般为三轴加速度计,检测物体在X、Y、Z三轴上的加速度,经过积分换算,从而确定位移距离(实际上这样确定位移不太准,加速度计算位移是靠积分换算,本身就有误差,多次积分会导致误差累计,最终的位移距离会出现漂移)。
陀螺仪:一般为三轴陀螺仪,检测物体在X、Y、Z三轴上的角速度,根据角速度推算物体当前的角度。
磁力计:又称电子罗盘,一般为三轴磁力计,检测物体在X、Y、Z上的磁分量,计算得到最终的磁向量,经过算法纠偏,最终得到地磁北的方向,从而确定物体的所在方向。
市面上的一些叫法,如六轴陀螺仪,其实是三轴加速度计+三轴陀螺仪;九轴陀螺仪,则是三轴加速度+三轴陀螺仪+三轴磁力计;十轴陀螺仪,是在九轴陀螺仪的基础上再加一个气压传感器,获得海拔高度,从而获得物体的高度。
在VR的应用场景中,一般采用九轴陀螺仪,实现3DOF的检测(Roll、Picth、Yaw三种动作,见图十二)。
但光靠IMU无法检测到平移的动作(沿三轴平移),一般还需要辅助摄像头等其他设备。
2)追踪摄像头
这里要谈到技术路径的演变,最早的平移定位,采用的是外部定位方式,直到一体机的风潮愈烈和SLAM(空间定位算法)的发展,才渐渐转为内部定位。不过在一些要求超高精度的环境下(比如虚拟场馆或动捕),都还是采用外部定位的方法。
技术路径的演变,从Outside-in到Inside-out。
本质的区别,Outside-in是在外界空间中有一套锚定的装置,构建一个相对坐标系。通过装置与VR设备的互动,检测头盔和手柄的当前位置。在由外而内的系统中,多个固定的外部摄像头用于跟踪头戴显示设备的姿势(3D位置和3D方向)。外部摄像头跟踪位于头戴显示设备和控制器(如果有)上的一组参考点。
Inside-out,是依靠光学追踪,在VR头盔上安置摄像头,让设备自己检测当前外部环境的变化,再经过SLAM算法(Simultaneouslocalizationandmapping)计算出当前的空间位置。
Outside-in
Outside-in路径中,最有名的有两种技术方向:-Cculus的Constellation红外摄像头定位系统;-HTC的Lighthouse定位;先说Constellation,Oculus的头盔和手柄上都布满了红外传感,以固定模式闪烁。
房间中布置了红外摄像机,摄像机以特定频率拍摄头盔和手柄,由此得到一组图片,并得到这些红外的点的特定坐标,由于头盔和手柄的三维模型是已知的,通过Pnp求解(可以理解为一种复杂的数学计算)能够得到点的6DoF(加上IMU后)。

图十四,图片来自GamesBeat
至于用红外,则因红外波可以规避大部分颜色的影响,不会出现误判。但红外容易被遮挡,所以在空间中要布置多台红外摄像机,才能准确判断三维信息。实际上,Optitrack和ZeroLatency用的都是同样的方案,只不过ZeroLatency用的是可见光,更容易受到颜色等噪声干扰。
主动式红外光(Constellation)主要受到摄像头精度(因为根据图像判断)和光学算法的影响,同时价格昂贵,布置也比较麻烦,在移动浪潮下不太适用了。
另一种则是Lighthouse定位,室内安置了两台激光发射器,安放在房间对角,而在头显和手柄上有70多个光敏传感器。激光发射器从水平和垂直方向扫射空间,发射器为0度时,开始计时,激光到光敏传感器时,光敏传感器记录到达时间。由于发射器的旋转速度是已知的,所以根据时间和转速能够计算光敏传感器相对发射器的角度,一次扫描完成后,就可以进行空间定位。

另外,Lighthouse在安装和成本上仍然要比inside-out高,但延时性低,精度高,在需要特别拟真的环境仍然需要这种技术。
Inside-out
Inside-out,主要通过摄像头拍摄周围的画面,通过图像识别判断房间景物的一些特征点,通过与上一次拍摄时的特征点位置进行对比,从而得到特征点的位移。与此同时借助IMU得到辅助数据,通过算法得到头显的位移情况。同样,在手柄上存在一些小白点,摄像头也通过捕捉小白点的位移判断手柄的变化情况。
因为是可见光识别,所以房间内得保持一定的亮度,不能关灯。
此外,因为依靠摄像头识别外部的标记点,如果角度识别精读差异1度,整个距离可能偏移几厘米,Inside-out对精度要求十分之高。又由于需要计算图像显示,所以它的延时没有办法像Lighthouse一样低。
Inside-out主要依靠VGA摄像头和深度识别摄像头进行3D空间定位。VGA摄像头,配合深度识别摄像头,主要用来做头部空间定位和手势识别。VGA是指的VGA格式的分辨率,640X480,黑白。深度识别摄像头,主要用来识别物体的距离(实际上也可以识别骨骼点,但不需要),主要有三种技术:
TOF:原理是传感器发出经调制的近红外光,遇物体后反射,通过计算光线发射和反射时间差或相位差来换算被拍摄物体的距离。
单目结构光:该技术将编码的光栅或线光源等投射到被测物上,根据它们产生的畸变来解调出被测物的三维信息。
双目结构光:和人眼一样用两个普通摄像头以视差的方式来计算被测物距离。
2.面部、眼动和手势追踪有了空间定位,VR可以实时渲染出对应的画面结果。然而人不止和世界交互,也要和人交互。试想,如果我们想要在虚拟空间中同家人,亲朋好友交流,那么我们势必需要看到他们的神情,这其中最重要的便是面部表情和眼神。

1)面部识别
面部识别主要靠摄像头,放在头显内部,追踪如额头、下巴、脸颊的变化情况,追踪原理和空间定位差别不大。一般可以用在如下的场景下:
面部识别存在的问题是,当戴上头显时,人脸60%的地方是被遮住的。MagicLeap的想法是,虽然有的地方被遮住,但可以根据周围未被遮住的肌肉变化来推测。当然,越多的摄像头还是更有助于捕捉真实表情。
Oculus在训练面部识别时,用了9颗摄像头,只是到了消费级,才用3颗摄像头并配合9颗摄像头训练出来的算法进行面部追踪。
2)眼动追踪
眼部追踪主要靠眼动追踪摄像头。眼动追踪的原理是利用光摄入瞳孔反射到角膜的原理,测算角膜和瞳孔的距离来判断眼动的情况。VR的眼部周围有一圈红外光LED灯,向眼睛发射红外光,光从瞳孔反射到角膜上,摄像头拍摄图像,判断瞳孔和角膜的位置,从而判断眼动的情况。
眼动追踪带来的益处很多,除了眼神与渲染的人物同步,最熟知的是眼动交互,和手势交互一起可以带来自然的交互体验。另一个重要的好处在于,人类的视力在整个视野中并不均匀。中央凹是视网膜的中心区域,视力最好。
还有一个隐藏的好处,主要是体验层面。VR中的3D成像效果,是通过向每只眼睛显示一个独特的2D图像来创造3D感觉,其中每个图像的渲染略有不同,以产生双眼视差,从而带来3D效果。
但是,用户眼睛和图像之间的距离(也即显示屏与人眼的距离)是固定的,所以实际上会导致眩晕问题,也就是所谓的视觉汇聚调节冲突(VAC)。通过眼动追踪+变焦显示器,VAC可以得到缓解。
变焦显示器使用眼动追踪来主动跟踪眼睛的会聚,并使用具有可变焦距的聚焦元件来匹配眼睛的会聚。至于变焦技术,主要是机械式变焦(电动齿轮,改变镜头和物体、视线焦点的距离)。
3)手势识别
手势识别主要的难点在于:一般摄像头的视场角都讲究水平,垂直视场角的高度不够,所以手跑到摄像头的视线范围之外就很难办。而在人类大部分的自然任务中,手都是处于下视野的范围,手势追踪的实际难度会很大。
此外,它还配了六颗摄像头(一般是4颗),其中两颗专门垂直向下以捕捉下视野的手。
4)全彩透视
如果说空间定位和面部、眼动追踪是与虚拟世界交互。那么VR很快有了一个更大的野心:升级成XR,捕捉现实世界的动态。全彩透视,使用VSTRGB摄像头,用于捕捉带着VR头盔的用户所看到的真实景象。VST指vedioseethrough,RGB是图片颜色格式。
VST原先都是黑白的,用来看周围空间,现在成了MR的入门券。无心插柳柳成荫,原先是为了让用户能够看到周围的真实空间,以确定活动范围的透视,却悄然一变,变成了与AR类似的功能。
不过囿于成本,VST也没有全部采用全彩。如Questpro用VST,两颗黑白镜头建场景,一颗RGB摄像头用来补色,不过现在也出现了双目的RGB,体验越来越好。
VST要注意三点:
清晰度:简言之就是看到的画面要和现实中一模一样。
延时性:要低,不然画面和动作不一致,用户会晕。
视角偏差:摄像头的位置和人眼的位置不一致,所以画面容易产生视角偏差,长时间使用可能出现视觉伪影,有点像水里折射的情况;所以要提前设置算法矫正。
其实,虽然VR推出了全彩透视的功能,但并不意味着VST一定要放在一体机上,那样相比于AR并没有太大的优势。如果拿PC和手机类比VR和AR,VR是PC的延伸,承载的是重活,而AR更擅长可移动的小场景。VR在肉眼可见的未来,很难达到出街的可能,VST的作用仅仅是家庭活动,例如游戏、音乐、绘画。

图十七,HauntifyMixedReality让鬼出现在家中真实房间
VR的VST中,真实世界的元素更多成为一种背景,增加活动本身的乐趣,但却不是主体。试想,如果VST和VR主机分离,VST作为VR的配件,可以配置到工厂、医院,通过无线传输实时渲染,那是否能够真正实现数字孪生?而VR也将真正闯入工业级的应用。
四、把大象塞进冰箱的最后一步旅程到这里,其实已经结束了。VR的核心就是光学方案和空间定位,以及基于此的渲染和定位算法。不过,为了方便读者后续阅读某些拆解报告时,对上述内容外的一些概念不太了解,特在最后一章附上相关的名词解释。
1.头盔、手柄接近传感器:VR头盔的接近传感器一般用红外,由一个红外发射管和一个红外接收管组成。红外发射管会发射一调制红外光信号,该信号在遇到障碍物后被反射回来,接收管通过接收该反射信号并根据反射信号的强度来判断障碍物的远近。
玻纤:头盔所用材料,耐热、绝缘、超轻。
霍尔芯片:霍尔IC是将霍尔元件与运算放大器组为一体的产品。霍尔元件一般用在手柄上,用于检测扳机、侧键是否按下;霍尔元件从元件本身获得的电压非常小,因此一般情况下需要配置运算放大器等的放大电路。
马达驱动芯片:马达即电机,控制马达的正转、反转、刹车等,用于控制震动马达。
X轴线性马达:动子沿X轴方向移动的马达,可以带来前、后、左、右四个方向的震动感觉(X、Y轴)。
Z轴线性马达:动子沿Z轴方向移动(x,y,z轴),带来上、下的震感。
手机上一般配X轴,因为手机薄,Z轴行程短,效果不好;手柄上就不是了,双关齐下;早期还有一种转子马达,利用电磁感应,用电流导致的磁场驱动转子旋转而产生振动。这种方法的问题是延时,缺乏方向性,震动的手感不好。
2.计算、通信、存储IC:IntegratedCircuit集成电路芯片的简称。集成电路芯片是一种电子元件,是将多个电子元件(如晶体管、电容、电阻等)集成在一起,通过半导体制造工艺制成的电路。集成电路芯片有很多类型,比如存储器芯片、处理器芯片等。
CPU:CentralProcessingUnit,中央处理单元,主要用于计算机指令的逻辑计算和输入、输出控制。
DRAM:DynamicRandomAccessMemory,动态随机存取存储器,RAM的一种,用于数据的临时存储,主要用于存储运行中的程序和数据。
LPDDR5:DRAM的一种,全称LowPowerDoubleDataRateSDRAM,其中SDRAM是SynchronousDynamicRandomAccessMemory的缩写,表示同步动态随机存取存储器。LPDDR5的读取速度可以达到6400MHz,表示内存每秒钟可以进行6400万次数据读写。
ROM:ReadOnlyMemory,只读存储器,用于永久保存数据,也即我们一般意义上的内存。
闪存:UniversalFlashStorage,读写速度可以达到几百MB/s或甚至上千MB/s,一般插U盘在电脑上,数据从U盘上的读取、写入就看闪存的能力。
MCU:MicrocontrollerUnit,微控制器单元,集成了处理器核心(CPU)、存储器(RAM)和输入/输出接口等功能。
SoC:SystemonChip,系统级芯片,将系统的大部分或全部组件集成在一块芯片上,通常包括处理器、内存、输入/输出接口、模拟电路、数字电路和其他外围设备等。SoC可以简单理解为MCU+特定功能的外设集成。
FEM:Front-Modules,前端模块,主要用于射频信号的发送放大、接收放大、滤波等,用在手柄、头盔(2.4G、5G射频)的通信。
FPGA:FieldProgrammableGateArray,可编程的集成电路,优势是高速、实时处理大量数据,用于对视觉画面、传感器数据等的并行处理。
3.电源管理钽电容:电容器,主要用来存储电荷。
电压电平芯片:解决不同电压电平之间兼容性问题的集成电路芯片,电压电平芯片可以将输入信号的电压范围转换为输出信号的电压范围。电平电压芯片将VR头显与计算机或游戏主机之间的信号进行转换,以确保它们能够正常地进行数据传输和通信。
稳压芯片:将输入电压转换为稳定输出电压的集成电路芯片。
升压芯片:将输入电压升高到更高电压的集成电路芯片,升压芯片也有使用运放的方案。
运算放大器:OperationalAmplifier,简称Op-Amp,可以将微弱的模拟信号放大到适合后续处理的范围,也放大输入之间的电压差;VR中作为LED驱动或者其他驱动的放大器;运放也有用在升压芯片的方案。
OTG扩展供:On-The-Go,规范的补充,供电是指在使用OTG功能时,主机设备(比如电脑)为连接的外设(比如VR头显)提供电源供应。
电源管理芯片:顾名思义,对电源起到管理作用,具体包括。
电源变换:将输入电源的电压和电流转换为适合系统需求的电压和电流。
电源分配:将电能分配给不同的系统组件,以满足其功耗需求。
电源检测:监测电池电量、充电状态和系统负载等信息,以提供电源管理的智能化控制。
其他电能管理功能:如电池保护、温度监测和功率管理等。
五、后记这应该是我自《张小龙22年》后写的最长的文章了,无论是字数还是时间。写长文不容易,记得当时写张小龙的时候,大概花了一个星期,虽然在微信上没发出多久就被腾讯封了,但在pmcaff上还有留存(链接放在了参考中),并得到了池建强老师的推荐,也算满意了。
写这篇文章,比写人物要困难多了,太多的专业术语,以及技术理解。原先我以为自己懂了的概念,其实真正串起来,又延伸出许多枝蔓,又一点点去查。
好在有perplexity的帮助,简化了我的一些工作量。不过写作的乐趣正在于此,它是一座迷宫,有时只想理解一个概念,又牵扯到另一个概念,概念与概念之间的关系又引发了新的着迷。
当然,最惊喜的是终于发现了一本介绍VR全貌的书籍,《TheVRBook》,虽然成书于2016年,但作者功力深厚,仍然不失为理解VR的最佳材料之一。
这篇文章,大概可以2个月以来,对VR的研究结果,是给自己一个交代。里面一定有诸多问题,受限于自己当前的见识,有所偏颇,但第一步既已踏出,便可以在后续的学习道路上增删改查,可谓是写完后最大的收获了。我想,在消费电子业无聊的状态下,有一件有意思的事物可以研究,便很快慰了。
参考:
人类的视觉增强探索史:
XR设备发展史:
PhilcoHeadSight介绍:
凸透镜成像原理:
了解AR/VR的光学原理:
VR视场角真的是越大越好吗?-大朋工程师的文章–知乎
重新认识鱼眼镜头:;vd_source=7cf1f568229c6f5b4a7c23f5a2e85cbc
VR沉浸感的奥秘,人眼如何通过双目视差硬解深度信:;vd_source=c7e29439c97151c3755a46ccd4c8160a
如何充分利用视觉系统对深度的感知从而营造更强的立体感与深度感?:
光场与人眼立体成像机理:
维基百科–Vergence-accommodationconflict:
MEMS传感器1:3轴加速度计工作原理揭秘,与这些有关:;vd_source=c7e29439c97151c3755a46ccd4c8160a
深度解析HTCVive的Lighthouse室内定位技术–虎嗅网:
Lighthouse激光定位技术开源了,但不是Valve做的|雷峰网:
HTCViveLighthouseChaperonetrackingsystemExplained–YouTube:
HowtheViveLighthouseWorks–YouTube:
Hypereal突然开源?背后所涉的重磅信息都在这里了|爱范儿:
目前最强的VR定位技术,HTC和OptiTrack是如何做到的?:
深度干货:详解基于视觉+惯性传感器的空间定位方法:
VR的空间定位技术是如何实现的?-知乎:
VR空间定位全解:如何在虚拟世界中行走?:
「面部动作捕捉」是一项什么技术?主要应用于哪些场景?-渲云渲染的回答–知乎:
【VR速递】OculusQuest面部识别;眼球追踪的研发之路–载入圈VR的文章–知乎:
面部表情追踪技术在VR设备中的发展研究:
EyeTrackinginVirtualReality:aBroadReviewofApplicationsandChallenges:
WhatisVREyeTracking?[AndHowDoesitWork?]:
HandTrackingforImmersiveVirtualReality:OpportunitiesandChallenges:
Quest手势识别功能评测:
MetaRGB透视VR研究:摄像头距离可调、分辨率720p:
从典型案例看VSTMR游戏的设计技巧:
红外ToF技术将大幅提升接近感应传感器的性能及可靠性:
何谓霍尔IC?:
转子马达、X轴和Z轴线性马达有啥差别?这篇文章总算说明白了!:
MEMSmic之Amic(一)_麦克风thdpn是什么不良代码?:
EPOS波束成形麦克风阵列技术优化您的会议体验.pdf
常用的音频功放芯片-电子工程世界:
瑞苏盈科为VR行业提供FPGA核心板解决方案:
同创国芯窦祥峰演讲实录:VR的FPGA应用分析:
Perplexity:
张小龙的22年和微信的8年:
专栏作家
本文原创发布于人人都是产品经理。未经许可,禁止转载
题图来自Unsplash,基于CC0协议
该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。