핸드헬드 증강현실 경험 개발

언리얼 엔진을 사용하여 핸드헬드 증강현실 디바이스용 프로젝트 개발

Choose your operating system:

Windows

macOS

Linux

언리얼 엔진은 통합 프레임워크를 사용한 핸드헬드 AR 개발을 지원하므로 최소한의 플랫폼 체크만으로 애플리케이션이 최대한 많은 모바일 플랫폼을 목표할 수 있도록 해 줍니다. 핸드헬드 AR 플랫폼은 언리얼 엔진 프로젝트에서 사용할 수 있는 페이셜 트래킹(facial tracking), 환경 프로브(environment probe) 및 오브젝트 오클루전(object occlusion) 등 다양한 기능을 제공합니다.

현재 OpenXR을 사용한 핸드헬드 AR 디바이스용 개발은 지원되지 않습니다. OpenXR을 사용하여 XR 프로젝트를 개발하려면 OpenXR을 사용한 헤드 마운트 경험 개발을 참고하세요.

이 페이지에는 언리얼 엔진에서 핸드헬드 AR 디바이스용 프로젝트를 개발하는 방법에 대한 문서 링크가 포함되어 있습니다.

핸드헬드 AR 시작하기

언리얼 엔진에는 핸드헬드 AR용 템플릿 프로젝트가 포함되어 있습니다. 이 템플릿은 핸드헬드 AR 프로젝트를 위한 간단한 토대를 제공하며 프로젝트의 필요에 맞게 수정할 수 있습니다. 다음 페이지에서는 이 템플릿을 사용하여 언리얼 엔진에서 핸드헬드 AR 개발을 시작하는 방법에 대해 설명합니다.

지원되는 플랫폼

다음 페이지에서는 언리얼 엔진의 핸드헬드 AR을 지원하는 플랫폼 및 모바일 디바이스에 애플리케이션을 디플로이하는 방법과 관련된 정보를 살펴봅니다.

핸드헬드 AR 기능

아래에는 프로젝트에 추가할 수 있는 핸드헬드 AR 기능과 플랫폼의 기능 지원 여부가 정리되어 있습니다.

기능

설명

ARCore 지원

ARKit 지원

평면 탐지(Plane Detection)

현실 세계의 가로 또는 세로 평면을 탐지할 수 있습니다. 평면이 탐지되면 해당 위치에 가상 오브젝트를 배치하여 테이블 위 등 현실 세계의 오브젝트에 어태치된 것처럼 보이게 할 수 있습니다.

오브젝트 오클루전

현실 세계의 오브젝트가 가상 오브젝트를 가릴 수 있습니다. 즉, 가상 오브젝트가 현실 세계의 오브젝트 뒤에 렌더링된 것처럼 표시됩니다.

사람 오클루전(People Occlusion)

오브젝트 오클루전과 유사하게 사람이 가상 오브젝트를 가릴 수 있습니다.

아니요

환경 프로브

현실 세계의 라이팅 강도 및 방향을 예측할 수 있습니다. 이 라이트 예측을 가상 오브젝트에 적용하여 오브젝트를 현실 세계와 블렌드할 수 있습니다.

ARPin

ARPin을 사용하여 가상 오브젝트를 현실 세계의 특정 위치에 어태치할 수 있습니다. 또한 이 ARPin을 클라우드에 저장하여 다른 디바이스와 공유할 수 있으므로 여러 사용자가 같은 위치에서 동일한 콘텐츠를 볼 수 있습니다.

예, 로컬 및 클라우드(Cloud Anchors, Azure Spatial Anchors)에서 지원됩니다.

예, 로컬 및 클라우드(Geo Anchors, Cloud Anchors, Azure Spatial Anchors)에서 지원됩니다.

증강 이미지(Augmented Images)

앱이 탐지 및 증강할 수 있는 레퍼런스 이미지를 제공할 수 있습니다.

페이셜 트래킹

트래킹 또는 증강을 위해 사용자 얼굴의 피처 포인트를 탐지할 수 있습니다.

예, ARKit API 또는 라이브 링크 페이스 앱을 통해 지원됩니다.

지오트래킹(Geotracking)

다운로드된 이미지를 기반으로 디바이스의 GPS 및 월드 트래킹을 사용하여 특정 지리적 위치를 트래킹할 수 있습니다. 이 기능은 이미지가 해당 영역에 대해 수집되었는지 여부에 의존합니다.

아니요

예, 자세한 내용은 Apple 문서를 참고하세요.

카메라 내부 수치(Camera intrinsics)

초점 길이, 이미지 해상도 등 디바이스의 물리적 카메라에 대한 정보를 가져올 수 있습니다.