ARFoundation Occlusion - ARFoundation 가림현상 구현하기

Published: Aug 4, 2021 by BeatChoi

선수포스팅 :: Pre-requisite

1. ARFoundation 환경설정
2. ARFoundation iOS Build

가림현상 :: Occlusion

통상적으로 증강현실 콘텐츠에서 카메라가 켜져있고 그 위에 3D 모델링 오브젝트가 생성되었을 때 해당 오브젝트는 현실에 존재하는 물체보다 항상 앞쪽에 존재하게됩니다.
그도 그럴것이 아무리 카메라로 가상과 현실이 연결되어있다고 하더라도 콘텐츠에서 실행되는 3D 오브젝트는 여전히 콘텐츠 내에서만 존재하는 물체이고 이는 카메라의 맨 앞쪽에 존재할 수 밖에 없기 때문입니다.
포켓몬고를 할때도 카메라가 켜진 상태로 포켓몬을 바라보았을 때, 내가 아무리 포켓몬보다 앞에 서있으려 해도 포켓몬은 항상 나의 앞에서 나를 가리고 있을 것입니다.
이를 해결하기 위한 기술이 카메라가 현실의 depth를 계산하여 현실의 물체와 카메라의 거리정보를 콘텐츠 내에서 활용하는 Occlusion입니다.
이번 포스팅에서는 Apple IOS 기기의 프로 라인업에 있는 Lidar센서를 활용하여 Occlusion을 구현해 보도록 하겠습니다.

유니티3D 에디터에서

IOS 플랫폼의 ARFoudation 환경설정과 동일하게 다음과 같이 플랫폼을 변경하고 패키지를 다운로드 받습니다.


<01. 기본 ARFoundation 환경설정>

그리고 AR Session OriginAR Session 오브젝트를 계층구조창에 생성합니다.


<02. 기본 ARFoundation 환경설정>

AR Session Origin오브젝트를 선택하고 AR Plane ManagerAR Raycast Manager 컴포넌트를 추가합니다.


<03. 컴포넌트 추가>

AR Session Origin의 자식오브젝트로 있는 AR Camera오브젝트를 선택하고 AR Occlusion Manager컴포넌트를 추가합니다.
해당 컴포넌트의 항목들 중 Human Segmentation항목을 모두 Best로 변경합니다.


<04. AR Occlusion Manager 컴포넌트 추가>

이제 기본적인 가림현상 설정은 되었습니다.
계층구조창에 테스트를 진행할 Cube오브젝트를 하나 생성합니다.
카메라의 앞쪽으로 조금 이동시킵니다.


<05. 테스팅 오브젝트>

빌드

Project Settings창에서 Player탭의 Configuration항목의 Camera Usage Description 항목을 채워줍니다.


<06. Camera Usage Description>

Project Settings창에서 XR Plug-Manager탭에서 ARKit항목에 체크합니다.


<07. XR Plug-in Manager>

IOS 빌드를 진행합니다.
아이폰이나 패드에서 콘텐츠를 실행시키고 정면에 Cube오브젝트가 생성되는지 확인합니다.
Cube앞에 손을 놓아보고 손이 Cube를 가릴 수 있는지 확인합니다.


<08. 테스팅 오브젝트>

Latest Posts

콘텐츠 개발 기법 - URP 환경에서 Bloom 및 Volume 포함한 화면 캡처
콘텐츠 개발 기법 - URP 환경에서 Bloom 및 Volume 포함한 화면 캡처

화면 캡처 :: Screen Capture

일반적으로 URP환경에서 Bloom 등의 Volume 이펙트들이 함께 캡처되지 않는 현상이 일어납니다.
두가지 원인이 있는데 첫번째는 저장할 Texture 및 Texture2D의 크기가 작아 모든 텍스쳐를 저장할 수 없는 경우와
두번째는 Linear color space의 픽셀을 텍스쳐에 저장 할 수 없는 경우가 있습니다.
이번 포스팅에서는 URP 환경에서 해당 이펙트들을 함께 캡쳐하는 방법을 알아봅니다.

콘텐츠 개발 기법 - UI 안나오게 화면 캡처(Screen Capture without UI)
콘텐츠 개발 기법 - UI 안나오게 화면 캡처(Screen Capture without UI)

화면 캡처 :: Screen Capture

UI 없이 화면을 캡쳐하는 방법을 알아봅니다.
해당 방법을 통해 사진 앱에서 사진을 찍거나 게임 내에서 UI를 제거한 스크린샷을 구현할 수 있습니다.

유니티3D 에디터에서

스크립트 작성

LightshipAR SDK 활용하기 - LightshipAR VPS의 활용
LightshipAR SDK 활용하기 - LightshipAR VPS의 활용

LightshipAR SDK

이번 강좌에서는 Visual Positioning System (VPS) 기능을 활용하여 콘텐츠를 개발해 봅니다.
VPS는 GPS정보와 타겟 매핑 정보를 정합하여 해당 타겟을 인식하는 기능입니다.
따라서 객체나 환경의 변화 및 이동이 잦지 않은 타겟이 스캔 대상이 됩니다.
주로 동상, 건물 입구, 가로등 등 위치의 변경이 없는 타겟들이 좋은 타겟입니다.

해당 타겟들을 인식시키고 주변에 가상의 오브젝트들을 배치하고 해당 위치를 저장하는 방법을 알아봅니다.

공간 매핑

Niantic Wayfarer

공간을 인식시키기 위해서 먼저 공간을 매핑해야 합니다.
이 과정은 IOS 어플리케이션으로 진행을 할 수 있는데 아래 링크에서

  1. Testflight
  2. Wayfarer

어플리케이션을 다운로드 및 설치합니다.

링크 : https://testflight.apple.com/join/VXu1F2jf