开发人员现在可以构建跨越家中多个房间的 Quest 3 混合现实体验。
本月早些时候,Meta XR Core SDK v66 允许开发人员在混合现实中禁用烦人的以 VR 为中心的安全边界。之前的 v65 版本提高了空间锚点的准确性和范围,并允许开发人员从多个房间访问扫描的场景网格。
结合这些 v65 和 v66 SDK 改进,开发人员现在能够构建环境感知型混合现实应用,让你能够遍历整个家,而不仅仅是一个房间。
空间定位点使开发人员能够将虚拟内容锁定到精确的真实位置,该位置与安全边界或房间网格无关,甚至可以在会话之间被头显记住。空间定位点已经推出多年,但在 v65 之前,该功能是为在单个房间中使用而设计的。使用 SDK 空间锚点 v65 的 Meta 声明现在将在最远 200 米的空间中保持准确2,例如 20×10 米(66×33 英尺)的房屋。
不过,与旧款 Meta 头戴式设备相比,Quest 3 上的混合现实之所以具有独特吸引力,是因为它能够捕获环境的 3D 网格,称为场景网格。场景网格使虚拟对象能够放置在墙壁、天花板、地板和家具上、反弹或以其他方式进行交互。
在发布时,Quest 3 一次只能存储一个场景网格体,但自 2 月份的 v62 更新以来,它已经能够存储多达 15 个场景网格体。在 v65 SDK 之前,开发人员只能获得当前加载的 Scene Mesh,即您当前所在的房间,但现在有了新的发现 API,系统也将为开发人员提供其他捕获房间的场景网格。
开发人员在 v66 中禁用安全边界的能力是使这些空间锚点和场景网格改进真正有用的关键推动因素,因为用户现在可以自由地在家中走动,不再局限于该边界内。
然而,在Quest上使用多房间混合现实的一个主要限制是,首先需要为每个房间捕获一个场景网格。相比之下,Apple Vision Pro 会持续扫描您的周围环境以不断更新其场景网格,无需设置过程,这也具有支持移动家具并避免将移动物体(如人和宠物)烘焙到网格中的优点。
来源:uploadvr