【Quest开发】全身跟踪

发布于:2025-02-20 ⋅ 阅读:(108) ⋅ 点赞:(0)

软件:Unity 2022.3.51f1c1、vscode、Meta XR All in One SDK V72

硬件:Meta Quest3

最终效果:能像meta的操作室沉浸场景一样根据头盔移动来推断用户姿势,实现走路、蹲下、手势匹配等功能

需要借助UnityMovement这个包

GitHub - oculus-samples/Unity-Movement: Body, Eye and Face Tracking code sample.

一、导入包

这里官方给了三种方式

Then, bring this package into the project.
然后,将此软件包带入项目。

The sample scenes are located under the Samples/Scenes folder.
示例场景位于样本/场景文件夹下方。

  • 通过gitURL来导入安装(国内好像不行...)
  • 在release下tar.gz格式然后用add package from tarball(依旧不行)

       Release v72.0.0 · oculus-samples/Unity-Movement · GitHub

  • 在release下zip格式,然后找到里面的Package.json文件导入(成功)

后面两种都属于本地导入安装的形式,就是unity直接读取的你自己下载在本地的一些资源,最好把文件和工程存一个目录里,不然版本管理或者以后迁移工程时,忘记把本地包一起迁移就会出麻烦。

把示例文件也导进来

二、 找到ArmatureSkinningUpdateRetarget这个预制体

拖到场景中使它成为场景中OVRCameraRig的子物体,位置reset为0 

这时候Project Setup Tool会提示你哪里哪里要修复,无脑apply all就行了。

重点检查OVRManager里这四个设置

三、运行场景

点击运行后就会发现能全身追踪啦,是不是很简单?手势追踪和手柄都可以用哦

当然我们不可能一直用默认模型,因此下面要讲怎么替换成自己的模型,以及怎么关掉原本的模型显示。


我的项目暂时用不着,等到我要用的时候再更~


网站公告

今日签到

点亮在社区的每一天
去签到