インタラクティブな XR 体験を作成する

Unreal Engine の AR / VR プロジェクトにユーザー入力を追加する

入力には、ハンド トラッキング、モーション コントローラー、アイトラッキングなど、数多くのさまざまな種類があります。このページでは、XR プロジェクトに入力を追加する方法に関するドキュメントへのリンクが含まれています。

ヘッドマウント体験のための Open XR の入力

OpenXR ランタイムでは、インタラクション プロファイルを使用してさまざまなハードウェア コントローラーをサポートし、接続されているコントローラーにアクション バインディングを提供します。このページでは、Unreal Engine で OpenXR を使用した入力およびコントローラ マッピング エミュレーションの概念について説明します。

モーション コントローラー

モーション コントローラーとは、XR デバイスでの入力に使用されるコントローラーまたはハンドのことを表します。モーション コントローラーには、通常はプロジェクトのポーンにアタッチされた Motion Controller コンポーネントを介してアクセスすることができます。Motion Controller コンポーネントは、Scene コンポーネントを継承しており、ロケーションに基づいた動作をサポートし、ハードウェアからの追跡データに基づいてポーンを移動させます。このコンポーネントでは、モーション コントローラーをレンダリングする機能、およびポーンで定義されているユーザー インタラクション用にコントローラーを公開する機能が提供されています。

これらのページは、プロジェクトでモーション コントローラーを設定する方法について説明します。

ハンド トラッキング

現在、Unreal Engine でハンド トラッキングがサポートされているのは、HoloLens 2 と Oculus Quest の 2 つのプラットフォームです。これらのプラットフォームで入力のハンド トラッキングの使用を開始する方法について、次のセクションで説明します。

Oculus Quest

Oculus Quest でのハンド トラッキングは、Oculus VR プラグインを介して利用できます。現在、OpenXR プロジェクトを使ってハンド トラッキングを使用することはできません。Oculus Quest でのハンド トラッキングの API は Oculus のカスタム コンポーネントで提供されています。ユーザーの手の視覚化および入力としての使用の詳細については、Oculus の『Unrealエンジンのジェスチャーコントロール』を参照してください。

Oculus Quest hand tracking

トレーニング ストリーム

XR プロジェクトに入力を追加する方法については、これらのトレーニング ストリームをご覧ください。

次のステップ

XR プロジェクトで入力を設定した後に、プロジェクトに機能を追加しパフォーマンスを向上させるには、以下のガイドに従ってください。

Unreal Engine のドキュメントを改善するために協力をお願いします!どのような改善を望んでいるかご意見をお聞かせください。
調査に参加する
キャンセル