Meta的Quest SDK现在可以实现在不进行场景扫描的情况下将虚拟物体放置在表面上,在VR模式下抠图跟踪外接键盘,通过蓝牙发现附近的头显以进行协作。
Meta的混合现实工具包(MRUK)的v71版本中提供了即时定位和键盘跟踪功能,而Meta XR核心SDK的v71版本中则提供了共定位发现功能。
即时放置
很多MR应用通过利用Quest 3和Quest 3S可以通过可选的混合现实房间设置过程生成的场景网格,将虚拟对象放置在真实表面上,例如桌子或墙壁。
如果一个应用程序试图在一个用户还没有扫描过的房间里利用场景网格,用户会被强制进行这个设置过程,这可能需要花一分钟的时间戴上头显扫描房间。
对于一个可能只需要知道桌子或墙壁在哪里的应用程序来说,这是一个很大的问题,这就是MRUK新的即时放置功能旨在解决的问题。
即时放置不使用场景网格,而是利用深度 API 提供从手柄或手到 3D 空间中被遮挡位置的光线投射,从而允许在表面上生成虚拟对象或界面。
但这仅适用于生成简单的固定物体和界面。如果需要在桌子上移动或与房间的其余部分交互,那么依旧需要场景网格。
跟踪键盘
Meta 的 SDK多年来一直包含一项功能,允许渲染所选受支持的跟踪键盘的虚拟版本。
但尝试模拟所有可能的蓝牙键盘或许并不现实,并且在 Quest 的 Horizon OS Meta 的 v71 中增加了跟踪任何键盘并通过透视将其剪切掉的功能,而不是渲染它的模型。
现在,作为 MRUK 的一部分,该功能也可供应用开发者使用。这意味着任何想要的 VR 应用都可以通过直通切口显示你的键盘,这对于生产力软件特别有用。
几个月来, Virtual Desktop 一直通过跟踪所选支持的键盘来手动执行此操作。现在,理论上,其开发人员可以将此支持扩展到任何键盘。
蓝牙协作
一年多以来,Quest 头戴式耳已经通过共享空间锚点 API 支持同一空间本地多人游戏(称为共置)。
但是,实现共置体验的一个主要摩擦点是需要使用与在线多人游戏相同类型的用户体验 (UX)、联系人邀请或房间代码流,这通常涉及一系列菜单。
借助 Meta XR Core SDK v71,Meta 现在拥有了 Colocation Discovery API。在底层,它利用头显的蓝牙连接,允许其向附近的头显发送少量数据(1024 字节),以传达加入会话所需的参数。
理论上,这意味着开发人员应该能够构建一个简化的本地多人游戏用户体验,其中一个头显主持一个会话,附近的设备就自动加入。
来源:uploadvr