尽管传闻不断,但苹果的*MR(混合现实)头戴显示器仍未让外界窥及真容。
北京时间6月7日凌晨,苹果WWDC2022如约而至。在长达两个小时的主题演讲中,苹果先后介绍了iOS 16、WatchOS 9、macOS 13、iPadOS 16四大系统的功能更新,并亮相了搭载全新M2芯片的MacBook Air和Macbook Pro,而近期呼声甚高的MR头显,苹果并没有在本届大会上泄露任何信息。
不过,MR产品的缺席也并没有让人深感意外。此前彭博社的报道中就指出苹果的*MR产品目前的散热问题尚未解决,可能要在2023年才会问世。况且,作为一场属于开发者的盛会,苹果过去也鲜有在WWDC上发布革命性硬件产品的先例。
但还是那个问题,都已经2022年了,苹果真的对“元宇宙”概念无动于衷吗?自Meta扯起这面大旗后,上至圣何塞,下至华强北,不插足元宇宙领域,根本不好意思说自己是科技企业,过去几年有关苹果关于行业的消息,也大多都是未经证实的传闻。
苹果当然不会坐以待毙,证据就是本次iOS系统上的多项功能及组件升级,处处展现着元宇宙的影子。
这种描述可能并不准确,因为库克曾不止一次在公开场合表示,“不要讲什么元宇宙,各方显然有不同的叫法,但我会远离流行词语”,而从苹果近期的动作来看,库克的野心也显然不是“元宇宙”能够满足的。
“iOS舞剑,意在MR?”
事实表明,想要对苹果发布会做出预判真的不易。
此前业内普遍猜测iOS 16上会搭载息屏显示功能并没有发布,取而代之的是全新的锁屏自定义功能,现在用户可以在iPhone上给锁屏界面的照片像添加滤镜一样改变锁屏界面的颜色风格,同时也可以通过添加小组件的来丰富锁屏界面的信息。
实事求是地说,这是一项被安卓阵营玩透的功能,但从实际效果来看,iOS 16锁屏界面上展现出字体更像是背景图像的一部分,而非简单的叠加。这项功能可能与此前iOS相机更新的一项技术有关——它可以在人像模式下借助AI勾勒出身体轮廓,并在模糊背景的同时让人像保持对焦。
那么这个锁屏功能和元宇宙有什么关系呢?在回答这一问题之前,我们需要厘清苹果一直强调的“混合现实”的概念。
不同于VR的完全虚拟的概念,也不同于AR为现实场景添加虚拟信息的概念,MR强调的是将使用者所处的物理环境部分或全部数字化,这就要求系统能够让真实世界与虚拟信息混合在一起且不失真,而iOS 16上锁屏界面就像是这一功能的“平面演示版本”。
除此之外,iOS 16上还推出了一项“一键抠图”功能,使用者只要长按图像信息中的主体,系统就会自动提取出主体的轮廓并生成图片,并通过拖放在各个APP间转发。
当然,这项“傻瓜抠图”功能并不能作为MR的关联技术来使用,但苹果曾在去年5月申请过一项专利,该专利用于渲染不同细节的模拟现实图像,其中就涵盖了提取畸变空间中的图像处理方法。
在混合现实的应用场景下,这些技术可以实时提取当前环境下的人像或物体信息,并融合在其他现实场景中。
而另一项相对实用的功能则更好地展现出了混合现实的应用。在iOS 15上,用户可以通过相机识别、提取图片中的文字,到了本代系统,用户可以直接在视频暂停的任何一帧画面中进行文本操作,比如翻译,或是实时的汇率换算,这十分符合混合现实最基本的设计理念——在现实世界、虚拟世界和用户之间搭起一个交互反馈的信息回路。
如果说以上功能升级,都不能直接说明苹果是在为AR/MR产品做出准备,那么针对AirPods的技术升级,则完全无法解释的通了,因为这项技术几乎就是为AR/MR头戴显示器量身定制的。
在iOS 16 中,AirPods 的使用者可以利用 iPhone 的深感摄像头来创建个性化的“空间音频档案”,从而实现更准确和具有沉浸式的听觉体验,简单地说就是基于算法来实现三维动态头部追踪,让声音环绕在使用者的周围,为音乐和视频营造三维空间效果。
但在大多数应用场景下,人们在听音乐时根本不会进行频繁的头部运动(除了蹦迪),那么这项技术显然不适用于手机,或者说是目前苹果所有的硬件终端产品线。
最合理的解释,这项技术是为AR/MR产品的前期技术储备。
苹果的野心有多大?
在今年5月的最后一天,有开发者在苹果APP store上传日志和开源代码中,意外发现了对“realityOS”的引用,虽然苹果在消息曝出后的*时间删除了这个提交,但苹果的*XR(VR、AR、MR的合称)操作系统算是正式坐实了。
现在的问题是,苹果的*XR产品会以什么样的形式出现?
首先排除的就是行业内现阶段最普及的VR头显,因为这类产品高度依赖于元宇宙概念,而不符合库克对XR产品的规划。
早在今年1月初,彭博社的Mark Gurman就曾表示过,“如果苹果在发布*款头显时说出‘元宇宙’一词,我会非常震惊。”这位苹果知名爆料人士称,在苹果内部“元宇宙”基本属于禁词。
这倒不是库克有多么鄙视Meta提出的概念,而是苹果的基本盘决定了这家公司不可能去依附现有的行业生态。长久以来,苹果在消费电子领域中都坚持两项准则,其一是对硬件产业链的掌控,其二是通过多端口构建闭源生态。
而且目前XR最受人诟病的一点就是贫瘠的内容生态,而由于APP store能为开发者提供持续且稳定的高收入,苹果数以千万计的开发者甚至都不会允许苹果在XR赛道中开发委身于Meta的“元宇宙”。
那如果不去做VR和“元宇宙”,苹果只能投身于AR或是MR赛道,某种程度上,两者的技术路径是相通的,而且苹果已经积攒了足够多的开发工具和技术储备。早在2017年的WWDC上,苹果就已发布了支持Unity、Unreal引擎的AR软件开发工具ARKit。而在去年的WWDC上,苹果已经将这一工具更新到了ARKit 5,同时还发布了AR Maps、Object Capture、RealityKit 2等新功能。
在今年3月美国专利商标局公布的专利名单中,苹果申请的一项授权专利更是表明苹果可能绕过AR,直接推出MR产品。
根据专利场景设想描述。在系统的支持下,医生可以直接在头显中实时接收到另一家医院病人的脑部扫描图像,并可以改变图像的视角和信息,这与混合现实的定义已十分接近。
值得一提的是,苹果的监管机构PatentlyApple已经报告了苹果为MR设计申请的超过349项专利。其中关键专利包括实时 3D (RT3D)空间音频系统、面部生物识别技术、3D飞行时间(ToF) 模块、独特的 MR用户界面以及适用于恶劣照明条件的精确增强现实 (AR)显示器等。
资深苹果分析师郭明錤此前公布的苹果研发报告为我们展示出了这款产品更多的细节:根据郭明錤的描述,苹果*MR头显将采用一体式设计,但并没有为其开发游戏手柄,交互方式是使用手势追踪,硬件方面则是依托指环,或夹在手指间的轻量化设备。
《The Information》发布的另一份报告称,苹果*MR设备内置了14个摄像头,这些传感器将能够完成捕捉外部环境,面部表情,身体动作等,同时完成VST透视,定位等等一系列工作。
这14枚摄像头组成的环境捕捉系统也展现了MR产品相较于VR产品做大的优势:能够让用户之间形成情感纽带。
我们不妨回顾一下斯皮尔伯格导演的大作《头号玩家》,这部电影对虚拟现实世界进行了深入的刻画描写,但影片中有一个很大的Bug:VR头显是无法及时反映出用户面目表情和身体动作的,而MR头显则可以很好地解决这一问题。
当然,因为在这一过程中会涉及到大量图像信息,苹果不得不额外定制一颗芯片来处理图像信息,据悉该芯片代号Bora,将与代号Staten的主处理器协同工作。但新的问题也接踵而至,Bora芯片和主芯片通讯配合会增加延迟,这进一步加大导致视觉不适的可能性。
为此,苹果*的方法就是再做一套流媒体的编解码方案解决这一问题,但这无疑会进一步增加成本,根据彭博社的测算,苹果的*MR产品售价可能高达2000-3000美元,这显然不是普通消费者能负担得起的。
尽管成本高昂,而且发布时间屡次延后,但这反而符合苹果的一贯常态,毕竟从音乐播放器,再到智能手机,苹果似乎很少以行业开创者的形象示人,但却能一次又一次地引爆新的产业革命。