インカメラ VFX のクイック スタート ガイド

LED ボリュームを使用してインカメラ VFX による撮影を行うためのファースト ステップ ガイドです。

Choose your operating system:

Windows

macOS

Linux

このクイック スタート ページでは、インカメラ VFX を使用して撮影するための Unreal Engine でのプロジェクトのセットアップ プロセスについて説明します。このガイドを終了すると、次について理解できるようになっています。

  • nDisplay ノードの同期化されたクラスタをセットアップする。

  • インカメラ VFX 用のインナー フラスタムとアウター フラスタムをセットアップする。

  • Live Link を介して統合されたリアルタイム カメラ トラッキング システムをセットアップする。

  • 切り替え可能なクロマキー マーカーを含むグリーン スクリーンをセットアップする。

  • 実際のセットに一致するライティングとカラーを調整する色補正ボリュームをセットアップする。

  • クラスタ化されたすべてのノードを起動して、セット上でテストする。

ステップ 1 - インカメラ VFX のプロジェクトをセットアップする

インカメラ VFX プロジェクトの最も簡単なセットアップ方法は、 In-Camera VFX テンプレート を使用することです。

  1. Unreal Engine を起動し、 [Create Project (プロジェクトを作成)] をクリックします。

  2. Film, Television, and Live Events (映画、テレビ、ライブ イベント) テンプレート カテゴリを選択し、 [Next] をクリックします。

    Film, Television and Live Events template category

  3. [InCamera VFX] をクリックし、 [Next] をクリックします。

    InCamera VFX template selection

  4. スターター コンテンツを含むかどうか、リトレースを有効にするかどうかを選択し、プロジェクトのパスと名前を選択します。

  5. [Create Project (プロジェクトを作成する)] をクリックします。

テンプレートから新規プロジェクトが作成されます。 Content > InCamVFXBP > Maps の中に 3 つのサンプルマップ LED_CornerStage LED_CornerStage2 LED_CurvedStage があります。それぞれ関連するツールとアセットが付いています。テンプレートの詳細については、リンクされた上記のドキュメントを参照してください。

使用している UE のバージョンに InCamera VFX テンプレートがない場合、 In-Camera VFX Exmaple プロジェクトを使ってプロジェクトを作成することができます。

  1. Epic Games Launcher を起動します。

  2. [Learn (ラーニング)] タブで、 [In-Camera VFX Example] プロジェクトを特定します。

  3. このプロジェクトのページで、 [Free (無料)] をクリックします。

  4. [Create Project (プロジェクトを作成する)] をクリックします。

  5. プロジェクトの保存先のコンピュータ上の場所を指定して、 [Create (クリエイト)] を選択します

  6. Unreal Engine を起動して、 [In-Camera VFX Example] プロジェクトを開きます。

このサンプル プロジェクトの [Content (コンテンツ)] > 「Maps」 の下に Main および EmptyStage の 2 つのレベルがあります。Unreal Engine でのインカメラ VFX について学習する場合は、 Main レベルを開きます。最初に空白のセットアップを行う場合は、 EmptyStage をプロジェクトのベースとして使用します。このサンプル プロジェクトおよびレベルでは、必要なプラグインが自動的に有効化されており、役立つブループリントが提供されています。また、追加設定が構成されており、サンプルのコンフィギュレーション ファイルも含まれています。

プラグイン

  • nDisplay: マルチ ディスプレイでレンダリングするための Unreal Engine のテクノロジーです。

  • Live Link: モーション キャプチャ、カメラ トラッキングなどのライブ データを取り込むための Unreal Engine の API です。

  • Live Link Over nDisplay: プライマリ ノードが Live Link データを受信し、トラッキング データを効率的かつ同期された方法で再配布します。

  • Multi-User Editing: 複数の編集者を共有セッションに参加させることができます。

  • Virtual Production Utilities: バーチャル プロダクションで役立つユーティリティ プラグインです。

  • Media Framework Utilities: SDI キャプチャ カード上のライブ ビデオ、タイムコード、ゲンロックに関連するユーティリティ プラグインです。

  • Aja or Blackmagic Media Player: SDI キャプチャ カードのサポートを提供します。

ブループリント

In-Camera VFX Example プロジェクトでは、固有の階層でレベルがセットアップされていることがわかります。この階層は、ステージのポジショニングを制御するために使用され、実際のステージと仮想ステージの両方が表現されていることを保証します。

Blueprints included in the in-camera VFX example project

ブループリント オブジェクト

説明

BP_StageOrigin

Stage Origin は、子アクタとしてステージに装備されているすべてのトラッキング カメラ、キャラクター、小道具を移動させるためのトップレベルのコントロールです。

BP_InCameraStageSettings

このアセットには、ステージをカスタマイズするための設定が格納されています。このプロジェクトではデフォルトのクロマキー マーカーが提供されています。ただし、[Details (詳細)] パネルの [Chromakey (クロマキー)] セクションでこのアセットのテクスチャを変更することができます。[Rendering (レンダリング)] セクションでは、オブジェクトをレベル内には配置する必要があるものの、LED ウォールには表示しない場合は、[Hidden Layers (非表示レイヤー)] 配列にオブジェクトを追加することができます。[Light Cards (ライト カード)] セクションでは、ライト カード レイヤーを指定できます。これらのライトは、LED ステージにライトを提供するために、アウター フラスタムでのみ表示されます。

BP_SamplePawn

このオブジェクトは、仮想ワールドでトラッキングされたカメラの開始位置を作成し、そのカメラの全体的な動きを制御します。ポーンを正しく機能させるためには、カメラ コンポーネントを含む必要があり、[Auto Possess Player (自動所有プレイヤー)] を [Player 0 (プレイヤー 0)] に設定する必要があります。

BP_IncameraSettings

このブループリントでは、インナー フラスタムに使用されるカメラを割り当てます。このカメラの割り当ては、[Details (詳細)] パネルの [Default (デフォルト)] セクションにある Reprojected Cine Camera プロパティで指定されます。また、このブループリントでは、インナー フラスタムのブレンディング領域と、[Incamera Frame (インカメラ フレーム)] セクションにある FOV 倍率も決定します。

BP_WarpMonitor

このブループリントは、スクリーンのジオメトリを記述し、ビューポートをワープするために使用されるスタティック メッシュを割り当てます。メッシュは、LED スクリーンの cm 単位で、およびトラッキング原点を基準としたオフセットでスケーリングする必要があります。

InnerFrustumCamera

仮想ワールドでカメラのトラッキングを制御するシネ カメラ アセットです。

GreenScreenPlane

クロマキー マテリアルが適用されるシネ カメラに取り付けられているプレーンです。このアセットの可視性を切り替えることで、グリーン スクリーンのオン/オフを切り替えます。

DisplayClusterRootActor

DisplayClusterRootActor の位置は、アウター フラスタムが投影される視点を定義します。

nDisplay コンフィギュレーション ファイル

nDisplay コンフィギュレーション ファイルは、コンピュータとディスプレイの関係と詳細を記述したものです。このサンプル プロジェクトには、nDisplay コンフィギュレーション ファイルのサンプルが含まれています。これらのファイルは、お使いのコンピュータのファイル マネージャを使用して、「 /Content/ExampleConfigs 」の下にあるプロジェクトのフォルダにあります。nDisplay コンフィギューション ファイルの詳細については、 「nDisplay コンフィギュレーション ファイルのリファレンス」 を参照してください。

ステップ 2 - LED パネルのジオメトリを作成する

このセクションでは、カーブした LED ウォールの表現を作成する方法の例を紹介します。LED ボリュームはそれぞれ異なる可能性があります。そのため、ディスプレイの寸法やレイアウトに沿ってこの手順を修正してください。

この手順では、実際の LED パネルを表すジオメトリを作成する方法を示します。この例では、2 つのメッシュを使用してカーブしたウォールが作成されます。メッシュは 2 つあります。これは、個別のコンピュータでレンダリングされるためです。メッシュの各正方形は、500mm × 500mm で、2.6mm ピクセル ピッチのキャビネットを表現しています。

カーブした LED ウォールのメッシュ表現。クリックしてフルサイズ表示。

メッシュは、実際の LED パネルと一致する位置と向きでモデル化する必要があります。このサンプルでは、直立した状態でモデル化されています。ジオメトリは cm 単位でスケーリングできるようにモデル化する必要があります。

各メッシュは、特定の順序で 2 つの UV セットを備える必要があります。1 つ目の UV セットは、nDisplay の PICP_Mesh 投影ポリシーの投影を計算するために使用します。2 つ目の UV セットは、クロマキー トラッキング マーカーが 2 つのビューポートの間でシームを越えて適切に移動できるようにするために使用します。

次の仕様で UV セットを作成します。

  • 1 つ目の UV セットは、0 ~ 1 の範囲で UV 空間全体をカバーするようにスケーリングします。この UV セットは、伸びないようにできるだけ均等に展開してください。スケーリングは均一でなくても構いません。UV のエッジの周りにパディングがないこと、UV が 0 ~ 1 の範囲を超えないことを確認します。

    First UV set for the mesh

  • 2 つ目の UV セットは、実際のハードウェア構成と同じシームで一致するように UV が整列している必要があります。また、メッシュと同じアスペクト比でなければなりません。

    Second UV set for the mesh

メッシュが作成されたら、3D モデリング ソフトウェアからジオメトリをエクスポートして、Unreal プロジェクトにインポートします。

ステップ 3 - プロジェクトで LED スクリーンを定義する

プロジェクト内のスクリーンのレイアウトとジオメトリをカスタマイズして、セットに配置されているものを反映させる必要があります。これらのメッシュは、トラッキング システムとの関係において、実世界の LED ウォールと同じ物理的な位置と寸法である必要があります。セットで使用されているトラッキング システムにはゼロ ポイントがあります。これらのメッシュは、トラッキング システムに関連しているため、同じワールド座標に配置されている必要があります。トラッキング プロバイダーと協力して、ゼロ ポイントがどこにあるかを見つけ、このゼロ ポイントを基準として測定して、オフセットを特定します。

エンジン内のスクリーンのレイアウトとジオメトリを変更して、カスタマイズするには、次の手順を実行します。

  1. プロジェクトの [World Outliner (アウトライナ)] で、 Edit BP_WarpMonitor. をクリックします。

    Edit BP_WarpMonitor highlighted in World Outliner

  2. BP_WarpMonitor の ブループリント エディタ [Viewport (ビューポート)] タブに切り替えます。

  3. デフォルトでは、Example の BP_WarpMonitor には 4 つのスタティック メッシュがあります。これら 4 つのスタティック メッシュを選択して削除します。

    Default mesh quad in BP_WarpMonitor

  4. インポートされた 2 つのメッシュを見つけて、 [Components (コンポーネント)] パネルの root オブジェクトの下にドロップします。

    Imported meshes into BP_WarpMonitor

  5. 実世界のトラッキング原点を基準としてパネルの位置と向きを一致させるために、メッシュを回転させて、移動させます。このサンプルでは、パネルは前 135cm、右 50cm、トラッキング原点から 13cm 上の位置にあります。

    Positioned and rotated the walls in BP_WarpMonitor to match physical layout of LED wall relative to tracking origin

  6. ブループリント エディタ で、 イベント グラフ に切り替えます。

  7. Assign Warp Mesh to Viewport 関数は、ランタイム時にメッシュをワープします。現在メッシュは 2 つしかないので、4 つの Assign Warp Mesh to Viewport ノードのうち、最後の 2 つを削除します。

    クリックしてフルサイズ表示。

  8. [Components (コンポーネント)] タブから左のウォールのメッシュを イベント グラフ にドラッグします。このメッシュを、 Assign Warp Mesh to Viewport 関数の入力の 1 つである Mesh Component に接続します。名前を Viewport_Id から vp_1 に変更します。この手順を右のウォールのメッシュともう 1 つの Assign Warp Mesh to Viewport 関数で繰り返します。2 つ目の名前を Viewport_Id から vp_2 に変更します。

    クリックしてフルサイズ表示。

  9. ブループリント エディタ で、 [Components (コンポーネント)] タブのメッシュを選択します。メッシュの [Details (詳細)] パネルの [Rendering (レンダリング)] セクションで、ジオメトリがレンダリングされないように Visible パラメータを false に設定します。

  10. ブループリントを コンパイル して、 保存 します。

ステップ 4 - nDisplay コンフィギュレーション ファイルを設定する

これらのコンフィグ ファイルを一から作成することもできますが、提供されているサンプルのコンフィグから始めて、特定のセットアップを記述するように変更することを強くお勧めします。これらのサンプル コンフィグ ファイルには、簡単なセットアップと各セクションの詳細なドキュメントが含まれています。

前のセクションのスクリーン設定に合わせて、サンプル コンフィギュレーション ファイルを修正するには、次の手順を実行します。

  1. コンピュータのファイル マネージャを使用してプロジェクトのフォルダに移動します。

  2. テキスト エディタ で「 Content/ExampleConfigs/Simple_InCameraFrustum.cfg 」を開きます。

  3. ファイルの Cluster nodes セクションを次のように編集します。

    1. master="true" sound="true" を追加して、クラスタ ノードの 1 つをプライマリ ノードに設定します。

    2. ノードの IP アドレスをお使いのコンピュータに合わせて変更します。

    3. クラスタ ノードに 2 つのウィンドウを割り当てます。

      [cluster_node] id="node_1" addr="192.168.1.100" window="wnd_1" master="true" sound="true"
      [cluster_node] id="node_2" addr="192.1.68.1.38" window="wnd_2"
  4. ファイルの [window (アプリケーション ウィンドウ) ] セクションで次のように編集します。

    1. お使いのコンピュータのモニタの解像度を window ノードに追加します。このサンプルでは、モニタの解像度は 2560x1440 です。

    2. インカメラのウィンドウには、インナー フラスタムを担う rtt_inner ビューポートを含める必要があります。

    3. BP_WarpMonitor ブループリントの名前 vp_1 および vp_2 に一致するビューポートを 2 つのウィンドウに割り当てます。

      [window] id="wnd_1" viewports="rtt_inner, vp_1" fullscreen="true" WinX="0" WinY="0" ResX="2560" ResY="1440"
      [window] id="wnd_2" viewports="rtt_inner, vp_2" fullscreen="true" WinX="0" WinY="0" ResX="2560" ResY="1440"
  5. ファイルの [Viewports] セクションで次のように編集します。

    1. 該当するビューポートに LED パネルの解像度を追加します。このサンプルでは、各キャビネットは2.6mm ピクセル ピッチで 500mmx500mm であるため、各キャビネットは 192x192 ピクセルになります。したがって、4x4 グリッドのキャビネットで構成された左のウォールの解像度は 768x768、3x4 グリッドのパネルで構成された右のウォールの解像度は 768x576 となります。

    2. Rt_inner ビューポートをサンプル コンフィグと同じにします。

      [viewport] id="vp_1"  x="0" y="0" width="768" height="768" projection="proj_warp" buffer_ratio="1"
      [viewport] id="vp_2" x="0" y="0" width="768" height="576" projection="proj_warp" buffer_ratio="1"
      [viewport] id="rtt_inner"   x="0" y="1440" width="1920" height="1080" projection="proj_incamera" rtt=true
  6. [projection (投影ポリシー)] セクションで、 PICP_Mesh カメラ の投影ポリシーを追加し、提供されたメッシュとビューポートの投影がカメラに基づいていることを nDisplay が認識できるようにします。

    [projection] id="proj_warp"      type="picp_mesh"
    [projection] id="proj_incamera"     type="camera"
  7. ファイルのその他の部分はそのままにしておきます。 [File (ファイル)] > [Save as (名前を付けて保存)] を選択して、コンフィグ ファイルの名前を変更します。このサンプルでは、最終的なコンフィグ ファイルは次のようになります。

    [info] version="23"
    
    [cluster_node] id="node_1" addr="192.168.1.100" window="wnd_1" master="true" sound="true"
    [cluster_node] id="node_2" addr="192.1.68.1.38" window="wnd_2"
    
    [window] id="wnd_1" viewports="rtt_inner, vp_1" fullscreen="true" WinX="0" WinY="0" ResX="2560" ResY="1440"
    [window] id="wnd_2" viewports="rtt_inner, vp_2" fullscreen="true" WinX="0" WinY="0" ResX="2560" ResY="1440"
    
    [viewport] id="vp_1"  x="0" y="0" width="768" height="768" projection="proj_warp" buffer_ratio="1"
    [viewport] id="vp_2" x="0" y="0" width="768" height="576" projection="proj_warp" buffer_ratio="1"
    [viewport] id="rtt_inner"   x="0" y="1440" width="1920" height="1080" projection="proj_incamera" rtt=true
    
    [projection] id="proj_warp"      type="picp_mesh"
    [projection] id="proj_incamera"     type="camera"
    
    [camera] id="camera_static" loc="X=0,Y=0,Z=0"
    
    [general] swap_sync_policy="1"
    
    [network] cln_conn_tries_amount="10" cln_conn_retry_delay="1000" game_start_timeout="30000" barrier_wait_timeout="5000"

nDisplay コンフィギューション ファイルの詳細については、「 nDisplay コンフィギュレーション ファイルのリファレンス 」を参照してください。Mesh Based および PICP_Mesh の投影ポリシーについては、「 nDisplay のプロジェクション ポリシー 」を参照してください。

何かしら間違った方法でファイルが設定されていると、レンダリング ノードは起動できません。各ノードは、他のノードがすべて起動されていることを確認するために、他のノードを検索しています。1 つのノードが誤って設定されていると、ノードはすべて終了します。この問題が発生した場合、各ノードは、その問題に関する詳細な情報を含むログ ファイルを「 Project/Saved/Logs 」に追加します。

ステップ 5 - nDisplay を使用してプロジェクトを起動する

この図は、nDisplay が、どのようにインカメラ VFX 用のネットワーク デバイスおよびディスプレイ デバイスと連携しているか示しています。クリックしてフルサイズ表示。

nDisplay のセットアップでは、 プライマリ コンピュータとその他のコンピュータの クラスタ で構成されています。プライマリ コンピュータは、入力情報を一元的に管理および配信する場所です。また、プライマリ コンピュータは、クラスタ内のすべての PC が同期され、入力とデータを同時に受信できるようにします。nDisplay セットアップの詳細については、「 nDisplay の概要 」を参照してください。

nDisplayListener

nDisplayListener は、プライマリ コンピュータとクラスタ内の各 PC に常駐するミニマリスト アプリケーションです。Listener は、パスと引数リストを使用して既存のプロジェクトを起動したり、既存プロジェクトを終了するといった各種リモート コマンドを受け取ることができます。Listener は、ランチャーが実行される前に実行されている必要があります。

すべてのコンピュータで nDisplayListener を起動するには、次の手順を実行します。

  1. Unreal Engine がインストールされているフォルダを開き、「 UE_4.25/Engine/Binaries/DotNET/ 」フォルダに移動します。

    Location of nDisplayListener and nDisplayLauncher on a user's computer

  2. そのフォルダで、 nDisplayListener.exe を実行します。

    A screenshot of nDisplayListener running

ランチャー

ランチャーは、リスナーをバックグラウンドで実行する使用可能なコンピュータのリスト上の複数プロジェクトを同時に起動します。ランチャーは、ローカル ネットワーク上の任意のコンピュータから実行できます。

1 台のコンピュータで nDisplayListener を起動するには、次の手順を実行します。

  1. Unreal Engine がインストールされているフォルダを開き、「 UE_4.25/Engine/Binaries/DotNET/ 」フォルダに移動します。

    Location of nDisplayListener and nDisplayLauncher on a user's computer

  2. nDisplayLauncher.exe を実行して [nDisplay Launcher] ウィンドウを開きます。

  3. [Launcher (ランチャー)] タブの [nDisplay Launcher nDisplay Launcher (nDisplay ランチャー)] ウィンドウで、 [Add Project in Editor -game (エディタにプロジェクトを追加 -game)] を選択します。

    nDisplay Launcher Window with Add Project in Editor -game highlighted

  4. Engine\Binaries\Win64 」にある UE4 の実行ファイルに移動します。「 UE4Editor.exe 」を選択して、 [Open (開く)] をクリックします。

  5. 新しい [Select UE4 Project (UE4 プロジェクトの選択)] ウィンドウで、起動したい UE プロジェクト ファイルに移動します。プロジェクトを選択して、 [Open (開く)] をクリックします。これにより、エンジンのパスとプロジェクトのパスが [Applications (アプリケーション)] リストに追加されます。

  6. [Config Files (コンフィグ ファイル)] フィールドの右側の、 [Add (追加)] を選択します。プロジェクトの nDisplay コンフィグ ファイルに移動して、選択します。

  7. [Applications (アプリケーション)] リストでプロジェクトを選択して、 [Run (実行)] をクリックします。

  8. nDisplay が開いて、プロジェクトが実行されます。

注意: プロジェクトのパッケージ化された実行可能ファイルをすべてのコンピュータにデプロイすることもできます。ただし、この方法では、別の実行可能ファイルをパッケージ化しない限り、すべてのコンピュータに更新を送信することはできません。エディタで -game を指定してプロジェクトを実行すると、マルチユーザー セッションでプロジェクトの変更を他のコンピュータに送信することができます。

Live Link は、カメラ、ライト、トランスフォーム、基本的なプロパティなどのライブ データを取り込むための Unreal Engine のフレームワークです。インカメラ VFX では、Live Link はトラッキングされたカメラ情報の配信で重要な役割を果たし、nDisplay と連携してトラッキング情報を各クラスタ ノードに送信することができます。Unreal Engine では、Vicon、Stype、Mo-Sys、Ncam などの多くのカメラトラッキング パートナーや、その他のプロフェッショナルなトラッキング ソリューションを Live Link によってサポートしています。

Note: この手順では、Live Link ソースを利用できるようにしておくことが重要です。

nDisplay を使用して Live Link 経由でカメラのインナー フラスタムをトラッキングするには、次の手順を実行します。

  1. Unreal Editor のメインメニュから [Window] を選択します。ドロップダウンで、 [Live Link] を選択して、[Live Link] パネルを開きます。

    The editor with Live Link highlighted in the Window dropdown

  2. [Live Link] パネルで、 [Add Source (ソースを追加)] ボタンを選択します。ドロップダウンで、使用する Live Link ソースを選択します。

    Screenshot of Mobu Live Link available when adding Live Link source

    このサンプルでは、Motion Builder が Live Link ソースです。

  3. [Presets (プリセット)] をクリックして、 [Save As Preset (プリセットとして保存)] を選択します。

  4. メイン メニューから [Edit (編集)] > [Project Settings (プロジェクト設定)] を選択します。

  5. [Project Settings (プロジェクト設定)] [Plugins (プラグイン)] で、 [Live Link] を選択します。

  6. プロジェクトが実行されると自動的にプリセットが適用されるように、 [Default Live Link Preset (デフォルトの Live Link プリセット)] に [Live Link] プリセットを追加します。

    Live Link Plugins preset changed to the Mobu Live Link Preset

  7. [World Outliner (アウトライナ)] で、 InnerFrustumCamera を選択します。

  8. [Details (詳細)] パネルの [Components (コンポーネント)] セクションで、 LiveLinkComponentController を選択します。

  9. [Live Link] セクションで、 [Subject Representation (サブジェクト表現)] フィールドを Live Link ソースに変更します。

    Screenshot of the Subject Representation field changed in the InnerFrustumCamera's LiveLinkComponentController

  10. プロジェクトを保存します。

  11. nDisplay ランチャーで、カスタム コマンド ラインの引数に -messaging を追加します。

  12. nDisplay を実行します。

  13. これで、インナー フラスタム カメラを Live Link ソースでトラッキングできるようになりました。

ステップ 7 - グリーン スクリーンとクロマキー

LED パネル上のインナー フラスタムで表示されている内容を、仮想ワールドからクロマキー マーカーを含むグリーン スクリーンに変更することができます。

Screenshot of green screen toggled on in the engine

グリーン スクリーンを表示して、クロマキー マーカーを変更するには、次の手順を実行します。

  1. [World Outliner (アウトライナ)] で、 GreenScreenPlane を選択します。

  2. [Details (詳細)] パネルの [Rendering (レンダリング)] セクションで、 [Visible (表示)] フィールドを有効にします。

  3. [World Outliner (アウトライナ)] で、 BP_IncameraStageSettings を選択します。

  4. [Details (詳細)] パネルの [Chromakey (クロマキー)] セクションに、エッジ ブラーとクロマキー マーカーを変更するオプションがあります。

ステップ 8 - 色補正ボリューム

色補正ボリューム (Color Correction Volume) を使用すると、環境やシーンのオブジェクトの色を調整および補正することができます。色補正ボリュームを調整することで、実世界のセットと LED ウォールに表示されている環境との間のライティングやシャドウを一致させることができます。色補正ボリュームを調整することで、実世界のセットと LED ウォールに表示されている環境との間のライティングやシャドウを一致させることができます。

Screenshot of Color Correction Volumes adding pink to the environment

このサンプル プロジェクトでは、色補正ボリュームを使用して、ピンクを加えて、環境の色を調整しました。

シーンに色補正ボリュームを追加するには、次の手順を実行します。

  1. エディタの コンテンツ ブラウザ で、 [View Options (表示オプション)] パネルを開いて、 [Show Engine Content (エンジンのコンテンツを表示)] [Show Plugin Content (プラグイン コンテンツを表示)] をオンにします。

  2. [Content (コンテンツ)] の横にあるフォルダ アイコンを選択します。表示されるリストで、 VirtualProductionUtilities Content を展開して、 [CCV] を選択します。

  3. シーンにブループリント BP_ColorCorrectVolume を追加します。

  4. BP_ColorCorrectVolume [World Outliner (ワールド アウトライナー)] で選択します。

  5. [Details (詳細)] パネルの [Default (デフォルト)] セクションで、 Color Correct パラメータを展開します。

  6. Global パラメータを展開して、 [Gamma (ガンマ)] カラーを修正してボリュームの色を変更します。

ステップ 9 - 応用編

このガイドでは、LED スクリーンでのディスプレイのセットアップ、複数のコンピュータでのプロジェクトの起動、プロジェクトへのカメラ トラッキングの組み込みについて説明しました。

マルチディスプレイ構成では、ソフトウェア レベルとハードウェア レベルの両方で同期機能が必要になります。生成されたコンテンツは、シミュレーションのための同一のタイミング情報を使用してすべての PC で同時に生成される必要があるだけでなく、ディスプレイ スワップ (ビデオ カード バッファ中での次の映像のための現在の映像の置換) を正しいタイミングで実行して、ディスプレイで「ティアリング」アーティファクトが発生しないようにする必要もあります。複数台のディスプレイにわたるシームレスな表示を作成するためのディスプレイの同期とマシンでゲンロックを設定する方法については、「 nDisplay での同期 」を参照してください。

ディスプレイの同期に加えて、エンジンのタイムコードとフレーム生成は、カメラからの入力と一致させる必要があります。すべての機器間でタイムコードを同期し、エンジンをゲンロックする手順については、「 タイムコードとゲンロック 」を参照してください。

撮影中にシーンやディスプレイをコントロールするには、次のインカメラ VFX のハウツー ガイドもご利用いただけます。

Unreal Engine のドキュメントを改善するために協力をお願いします!どのような改善を望んでいるかご意見をお聞かせください。
調査に参加する
閉じる