
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
找到玩家物体身上的 CenterEyeAnchor 物体,确保相机的 Background Type 设为 Solid Color,背景色为黑色,透明度为 0。当 Placement 设置成 Underlay 的时候,相当于透视的现实图层置于应用图层的最底端,这时候。,这个时候现实场景会把整个虚拟场景覆盖掉,我们只能看到现实场景,看不到虚拟物体。因为我们想要在透视下的现实场景中看到虚拟物体,所以我

在 VR 交互中,手指触控也是一种常见的交互方式,比如直接用手指去戳按钮、用手指滑动 UI 等。这种交互方式用英文表示就是 Poke Interaction。XR Interaction Toolkit 从 2.3.0 版本开始增加了对 Poke 功能的支持。这篇教程,我将介绍一下如何实现 Poke Interaction。
因为配置抓取的步骤本身是比较简单的,但重点在于相关的脚本上有非常多的参数,通过调整这些参数,我们可以实现个性化的抓取效果。作为 VR/MR 开发的初学者,最大的难点就是不理解这些参数有什么作用,怎么调整才能实现符合自己需求的效果,而官方文档中的某些描述也比较抽象。那么我会在完整的课程当中对这一部分进行详细的介绍,并且汇总了大家在开发过程中常见的需求和问题,把解决方法也加入了完整课时当中。注:抓取交

2)能够决定进入到程序后的追踪参考系(追踪原点),视觉上的效果是能决定虚拟世界中相机的高度,主要是通过 XROrigin 脚本上的 TrackingOriginMode 参数决定的。XROrigin 作为玩家物体,能够获取到硬件设备提供的追踪数据,作用于虚拟世界中的玩家物体,实现虚拟与现实的同步,比如现实中头显的位置和旋转能够同步虚拟世界中用户的视野,现实中手柄的运动同步虚拟世界中手部的运动。1)

在 Unity Hub 中安装一个 Unity 编辑器(推荐 LTS 长期支持的稳定版),并且安装硬件设备对应平台的打包模块(目前市面上大部分 XR 头显都是安卓系统,如 Quest、Pico,需要安装 Android Build Support,只有苹果的头显是 visionOS 系统,需要安装 visionOS Build Support)本教程中使用的 Unity 版本是 2022.3.20

用 Unity 开发 Meta Quest 一体机应用的基础环境配置教程

本教程将介绍如何把 Unity 的 PolySpatial 和 Play To Device 版本从 1.2.3 升级为 1.3.1。
这期教程我将介绍使用 visionOS 的应用形态,以及 Unity 是如何适配 visionOS 的。掌握了相关的知识点后,我们就能明白能在苹果头显中开发什么类型的应用,每一种类型在开发的时候有哪些限制,能够利用上什么特性。

这期教程我将介绍使用 PolySpatial 开发包中的体积相机(Volume Camera)。体积相机是开发 Apple Vision Pro MR 应用的必备组件,可用于区分 Shared Space 共享空间和 Full Space 独占空间。
