VR開発編 #2 -Oculus Questでハンドトラッキングを使ってみる-
どうも、蒼水です。
さて、来ましたよ来ましたよ!QuestのハンドトラッキングのSDKが来ましたよ!
先日Oculus Integrationがv12にアップデートさて、このアップデートにはQuestにテスト機能として追加されていたハンドトラッキングを開発者も使えるようになりました!
さっそく触ってみたのでその感触やら使用方法など書いていきたいなと思います。
そもそもQuestのハンドトラッキングとは?
VRは一部デバイスを除き指などを自由に動かすことができませんでした。動かせたとしてもコントローラーを使用することには変わりありませんでした。
今回のこのQuestのハンドトラッキングは触ってみた方ならご存知の通りコントローラーが不要!つまり何を持つでもなく己の手がコントローラーになるわけです。
クリックは親指と人差し指をつまむ、ポインタは手の向き、といった感じです。
詳細は公式の動画とかを観ましょう。すごいです。
下記映像はOculus Connect6で発表されたoculus公式による紹介映像です。
www.youtube.com
今回の目的
今回はアップデートにより利用可能になったハンドトラッキング機能を使って自作のビルドで動かすまでを順を追って解説していきます。
セットアップ方法は公式から出されていますので是非こちらよりご覧ください。
developer.oculus.com
実際に使ってみる
前回の記事にてQuestにおけるVRアプリのビルド方法までは解説していますのでここは割愛します。
そこの過程が必要な場合はこちらの記事をご覧いただければと思います。
atelier-aomi.hatenablog.com
UnityでQuestにビルドできるように諸々の設定をする。
ここは上記の記事にて解説しておりますのでそちらを参照。
アセットストアよりOculus IntegrationをDL、インポートする。
こちらより無料でDLできます。ありがたく使わせていただきましょう。
assetstore.unity.com
あとは自分のプロジェクトにインポートするだけです。
OVRCameraRigをシーンに配置する
OVRCameraRigは自分の視点、コントローラーのトラッキングなど視界や操作周りの機能が一通り入っているPrefabです。
Assets/Oculus/VR/Prefabs
にもろもろPrefabが入っているのでその中にあるOVRCameraRigをシーンに配置します。
デフォルトシーンにあるMainCameraは不要なので削除しましょう。
OVRCameraRigについているOVR ManagerのTarget DevicesをQuestに変更
InputをHands Onlyに変更(Controller And Handsでもできるそうですが未検証です)
OVRHandPrefabをOVRCameraRigの中のHnadAnchorの子に左右それぞれ配置する
OVRCameraRigを展開すると中に何やらいろいろ入っていますが画像の様に配置します。
左手、右手と両方それぞれの配置が必要です。また以下の画像の通り左右それぞれの設定が必要です。
OVRHand/OVR Skelton/OVR Meshの三種類のTypeを左手ならHand Leftに。右手ならHand Rightにそれぞれ設定します。
以上です、あとはビルドしましょう。ね?簡単でしょう?
陥りそうなミス
まとめ
手を出すだけならめっちゃ簡単です。トラッキングめちゃくちゃ精度良くてすこです。
さて、私はうちの子と双方向性のあるコミュニケーション的なものを作るんだ....うちの子カワイイ....撫でたい.....