如何评价正式发售的 Magic Leap one?

声明 声明 声明 重要的事情说三遍 ,观点仅仅是个人观点,仅为AR爱好者讨论,不代表任何官方观点。

我们Lab同事在湾区第一时间预定了magic leap one, 基本上是一分钟之内(平时经常做锻炼就是干嘛嘛快 尤其是点鼠标的右手),同时我们勾选了liftoff的服务,理解是包括送货上门,安装等,当时的顺序号是36,37, 一共两台机器,结果是上周六8月11号当天一个芝加哥的小哥飞过来直接送到家里,安装调试大概花了一个小时的时间,大概晚上7点的时候第一次体验。

简单的东西就过,大家都知道的三件套,手柄,眼镜,和nvidia的腰间小电脑,同时有一个适配器用来充电。

Onboard的过程比较繁琐,个人认为比Hololens繁杂的多,系统一直提示我去各个地面,墙和屋顶去扫描,有趣的是由于我们是湾区典型的车库创业公司,有一个很高的屋顶,然后他就提醒我再离近一点,非常无语,我戴着你还能牛逼到上天啊,看图片自己体会下绝望的心情。(觉得我们环境凌乱美的处女座们欢迎投简历 哈哈)

接下来我们就每个同学都体验了一把,普遍的反应是显示效果不错,声音效果奇好,奇怪的交互和略显笨拙的设计是槽点最多的地方,听到最多的一句就是:我靠 我TMD怎么退出啊 ,可以理解因为是新的系统,需要一段时间去适应,还好Bill几十年谆谆教导咱们不行就硬重启,所以我们整个使用过程中在不停的硬重启,几乎换一个人就重启,倒也是管用。还有就是开机大概十分钟左右,眼镜两边就会变得很烫,要注意不要接触到皮肤的地方。

原生提供的app都比较简单,功能不表,这个可以理解,想想iphone最开始的时候,毕竟这个只是个开始,随着时间app的需求肯定都会解决掉。

下面说个人熟悉的光学的部分,眼睛看外界东西的远近有两个因素,一个是vergence cue(双眼视差), 一个是accommodation cue(眼睛晶状体调节), 现在无论是AR和VR,头晕其中最大的一个问题是只能满足vergence cue,而虚像只能处在某一个深度位置,ML声称就是能够完美解决这么些问题去拿了各种融资。

从读过的专利,现在到手的产品,以及ML过去的新闻,历史大概推了一下,从产品的角度,应该是几个阶段,原型机阶段,多层波导阶段,最后收敛到最终可产品化阶段。 原型机应该是给VC们看过的版本,应该是真正的multi engine, multi waveguide etc, 现在离产品最近的专利,应该是US2017/0276948A1,有空的可以去再读一下,有的地方写的比较清楚,有的地方不清楚,没有空的就看我这个缩略版本就好了,实现的原理基本上应该讲清楚了。下面也会用图片做验证为什么ML 发了很多专利,我们可以大致定下来最后他们选用的这个方法。

做为AR光学几个Core components,波导,光机,照明, eye tracker(非必需)。下面剥离开讲:

1 光波导方面

毋庸置疑,他们用了光波导,而且很可能是基于衍射的光波导,波导就是耦合,传播,出光的器件,下面左边的照片是从镜片的外面拍出来,可以看到有大概5条绿色的leak的条纹,这些匹配专利里面的grating的分布,基本上可以推断是diffractive grating,而且效率并不是很好,从外面可以看出比较严重的漏光,颜色色差比较严重,不均匀,同时也可看到有蓝色,红色类似的条纹,所以光波导方面应该是衍射光栅,5层光栅,用来去模拟深度不同的5个面的内容。 然后再分三个颜色这样,下面是对比图。真的可以看出有5层。

2

光机的部分,应该是左边右边各1台 lcos,判断的主要原因因为黑色的背景还是有很显著的灰色,对比度不是太好,在吸光方面,普通的小型lcos做的不如dlp好,ML最后采用和Hololens类似的lcos panel做为display,这个可能性是比较大的。应该是从侧面上方直接打出来expand再出射。另外分色严重也是分时lcos的一个特征。

耦合到waveguide内部是传统的棱镜耦合,因为可以从边角的镜片看到很强的反射面。也就是眼角可以看到后面镜面反射的物体。这种是最高的耦合效率,而且耦合到内部没有必要用低效率的衍射元件。

3

光源

光源的部分,应该是三个窄带RGB颜色,LED照明的可能性比较大,应该不是VCSEL激光,如果是的话可能就不是class1了,下面激光应该只是eyetracker上面。

4 eyetracker

类似激光加detecter 激光如下 class 1

这4个很丑的pins应该是做eye tracking,一般来说eye tracker有这么几个作用,a 局部渲染降低渲染需求 b 做为input device做交互

在今天其实这个eye tracker对于传统的AR或者VR没有太多作用,a 分辨率不够高 有点鸡肋 b 反人性,太累,但是注意他们用的办法是离不开这些eye tracker的,因为关联到某个深度的渲染,就是a 状况,只是局部渲染不是为了降低需求,而是界定不同的深度层。所以即便是这么丑,也不能不放上面。

工作原理,

光学渲染计算原理

最开始需要用信用卡大致测瞳孔的相对的距离,然后eyetracking探测瞳孔的相对位置,调整图像,实时完成的vergence accommodation的图像软件渲染处理,同时由瞳孔之间的距离变化测出双眼看外部环境的距离,用这个距离反馈深度,实时提供不同深度的光学渲染,这时候两者就统一了,用户感受到的深度包含有单眼和双眼的两者匹配的深度信息。

硬件实现部分

一个lcos光机去illuminate全部的波导层,然后每个波导层有自己的开关,这样每个波导层根据系统需求的响应来做出开关的动作,即可实现不同景深的效果,由于LCOS panel同时只能有一个图像,那么系统里应该同时只有一个深度层是打开的,或者相邻的两个可以一起打开,例如去simulate 3米的效果,可以打开1,3米的波导层。别的全部关闭。下面是一层开启的效果,每一层去实现不同的深度信息。

那接下来的问题是 如何让每层的信息不干扰。

重点来了,如何去选择不同的波导层去响应不同层的渲染,这个和光栅一起应该是ML最核心的部件,下面给一个思路,如果在光机inject到波导的时候,光机覆盖所有的波导,但是输入到每一层做一个可以实现ON/OFF的开关,那么就可以实时的去控制和光机sync的问题,决定哪个层开,哪个层关,例如去模拟一只喵从近到远,可以分时去打开每个波导的通道。 什么样的器件适合做这样的事情呢,我可以想到的马上或许可以用的有液晶shutter,响应速度足够快,加上偏振后效率足够高,结合cross用起来应该是不错的candidate,另外ML也可以leverage通讯领域,发展了很多年,也有不同类型的光开关,例如电光,热光,声光驱动的各种光开关,相信以ML有钱任性有时间,肯定是已经全部研究了一遍,最后找了个最恰当的来做开关吧。

综上,光学方案上,magic leap在光学上做了不少工作,产品确实非常Impress,是beyond my expectations,例如多个波导的align,如何实现分时等等,给行业上了很好的一课:

讲主要的几点和承诺的不一致的东西:

1

没有给出来原来承诺的实时光场,就是眼睛可以任意主观的聚焦,同时在不同深度上成像的光学系统,做了工程化的很多妥协,即在同一时间,根据瞳孔距离,分开时间只渲染一个深度的内容(或者两个近似深度相同内容),加上eye tracking,来实时的调整深度的距离,这样的软件负载会小很多,实际体验也会比只有一个深度层的ar设备体验好不少。

2

还有一个我认为是ML以前承诺但是没有解的东西,就是如何去用虚像遮挡实像,广告中是讲能够达到以假乱真的光场效果,这个是主要的虚像和实像的区别,例如一个机器人放置在桌子前面,应该把桌子完全遮挡住,这样的效果目前应该是基本没有的,这个也是业界基本上很难去解决的问题。 (实物的遮挡,因为AR设备只能发出光,不能做遮挡,如果不发光即为透明态,所以这个如何解决也是一个行业难题)

3

当然不是用光纤扫描了,不能说不可行,但至少用起来没有lcos那么方便。

价格方面,2000多的价格,bom来说应该是一定赔钱的,光波导,DOE这些都是cost driver, 不过现在能够出货对于ML比什么都重要. 个人认为做为AR的标杆产品,magicleap one跟hololens相比,进步了非常多,佩戴舒服了很多,图像质量,深度感等等都是其他AR产品现在很难达到的水准,但是slam根据同事反馈,不如hololens稳定,很多画面有跳跃感,不平滑, 还需要做继续优化, 不过这些应该都可以随着时间去逐渐改善。

大环境的影响,我一直赞成大生态,对于AR产业,对大多数玩家肯定是好事,AR重新进入主流视野,或许可以让人们从区块链的热度中发现还有其他更多的科技美,AR系统继而继续细化市场,应用,直到普及,也许还需要很长的时间,在这个阶段一个产品或者一个公司的产品完全覆盖全部的生态是几乎没有可能性的,接下来应该是AR的触角会伸到更深多的地方,但是对于一些已经在市场上的同质化严重的产品,会造成一定的压力,例如有些大视场原来 target取代显示器的AR产品,在$1500的价格还是不是足够有吸引力等等,这部分压力也许可以转化为新的动力,给这个市场带来更多的一些思考。

另外,

我个人也是AI+AR的True Believer. 欢迎投条讨论任何有关AI或者AR的话题。

来源:知乎 www.zhihu.com

作者:管不亮

【知乎日报】千万用户的选择,做朋友圈里的新鲜事分享大牛。
点击下载

此问题还有 6 个回答,查看全部。