모션캡쳐 트래킹 시스템
모션캡쳐 기반의 가상 프로덕션 기술과 솔루션을 개발하고, 사실적이고 사용이 쉬운 콘텐츠 제작 환경을 위한 완전한 솔루션을 제공 합니다.
게임, 동작분석, 영화, 애니메이션, 메타버스등 많은 분야에 사용되고 있습니다.
가상 프로덕션과 모션캡쳐
Virtual Production 이란? 영상 제작을 위한 촬영 환경 공간(배경)과 요소(캐릭터, 소품 등)들을 가상으로 만들어 촬영 하는 시스템 및 공간을 의미 합니다. 이런 가상 공간을 구성하는 다양한 요소들중 카메라의 움직임(트래킹)과 가상 캐릭터 등의 생성 등에 모션캡쳐 장비들이 사용되고 있습니다. 가상 공간의 다양한 요소들의 움직임을 가상의 공간에서 표현해 주기 위해 모션캡쳐는 필수적으로 필요한 장비 입니다.
가상 프로덕션 요소
카메라
(Camera)
렌즈
(Lens)
합성
(Composite)
가상 캐릭터
(Virtual Character)
매칭
(Matching)
가상 프로덕션에는 다양한 요소들이 결합이 됩니다. 촬영 현장의 요소들을 가상 공간에 구현하는게 기본적인 기능과 요소라고 생각 할 수 있는데, 가장 중요한 요소인 가상 카메라와 현실의 카메라를 일치 시키기 위한 카메라 트래킹 시스템과 카메라 렌즈의 화각 및 왜곡 그리고 포커스와 줌 등의 변화를 측정하기 위한 렌즈 시스템 등이 가장 최소의 기본적인 구성 요소 입니다.
또 다른 요소로는 실 공간의 사람이나 다양한 실사 요소등과 가상의 요소인 배경등을 합성하기 위한 크로마 키잉(Chroma keying) 이 있습니다. 최근에는 크로마 키잉 부분을 LED 비디오월을 통해 배경을 생성해 동시에 촬영하는 시스템으로 발전해 가고 있습니다.
이 외에도 가상의 캐릭터인 로봇이나 괴물등과 같은 가상의 캐릭터와 또는 현실에 없는 가상의 물체와 사물을 일치 시키기 위한 매칭 등도 가상 프로덕션에서 중요한 한 요소 입니다.
카메라 트래킹 시스템의 종류
가상 공간의 카메라 생성을 통해 실 공간의 카메라 트래킹을 위한 카메라 트래킹 시스템 입니다.
카메라의 다양한 모든 움직임을 트래킹 하기 위해서 카메라에 센서를 부착해 카메라의 움직임을 트래킹 합니다.
트래킹 방식은 대부분 광학식 카메라를 사용하는 방식이지는 이를 이용한 트래킹 방식은 차이가 있습니다. 이 차이에 의해서 장단점이 발생 합니다.
광학식 방식의 카메라는 기존의 모션캡쳐에 많이 사용하는 카메라를 이용 합니다. 이 방식은 카메라에 마커를 부착해 카메라를 트래킹 합니다. 이 방식은 카메라만을 위한 방식이 아닌 다양한 용도로 사용이 가능해 다른 방식에 비해 활용이 다양하고 거의 모든 기능(가상 캐릭터, 영상 매칭, 오브젝트 트래킹,...)을 구현 할 수 있습니다.
<디즈니 드라마 "만달로리안"에 사용된 모션캡쳐 카메라 트래킹 시스템>
<광학식 모션캡쳐 카메라 시스템 : OptiTrack>
mo-sys에서 사용하는 방식의 트래킹 시스템 역시 광학식 방식의 카메라를 이용하는 방식이지만, 앞서 얘기한 광학식 방식에서는 카메라에 부착된 마커를 트래킹 한다면, 이 방식의 경우 트래킹용 광학식 카메라를 촬영용 카메라에 부착해서 주변의 마커(천장 혹은 바닥)를 트래킹하여 자신의 움직임을 측정하는 방식 입니다.
이 방식의 경우 사용이 간편한게 장점인데, 단점으로는 카메라만 트래킹이 가능한게 단점 입니다.
<카메라 트래커 방식 : Mo-Sys>
<Mo-sys 카메라 트래킹 시스템>
SLAM이라고 불리는 이방식의 경우 인텔에서 제작한 리얼센스를 사용하는 방식입니다. 이 방식은 주변의 사물을 양안 카메라를 통해 거리를 계산하고 내장된 IMU 센서를 통해 회전값을 얻어서 카메라를 트래킹 합니다.
이 방식은 앞서 두 방식에 비해서 가격적으로 매우 저렴한 장점이 있습니다.
하지만, 주변 환경에 따른 데이터의 신뢰가 낮은 단점이 있습니다.
<인텔 리얼센서 : ncam>
<SLAM 트래킹>
렌즈 칼리브레이션 및 트래킹
카메라와 같이 운용이 되는 렌즈는 카메라와 하나로 묶어서 동작하지만, 가상 프로덕션에서 사용을 하기 위해서는 또다른 설정과 과정이 필요합니다. 카메라 트래킹의 경우 단지 카메라의 움직임만을 얻으면 됐다면 렌즈의 경우 렌즈의 화각(FoV), 왜곡(Distortion), 센서(CMOS Sensor) 등 훨씬 다양한 요소에 대한 설정이 필요 합니다.
렌즈 종류는 크게 단렌즈(프라임 렌즈)와
줌렌즈로 구분이 됩니다.
<단렌즈 :Prime Lens>
<줌렌즈 : Zoom Lens>
렌즈에서 데이터(Focus, Zoom)를 얻는 방법은 3가지 정도가 있습니다. 우선은 기존에 많이 사용하던 서보 모터를 사용하는 렌즈 컨트롤러(일명 Follow Focus)에서 데이터를 얻는 방법, 그리고 렌즈 옆에 엔코더를 부착해 데이터를 얻는 렌즈 엔코더가 있고, 최근에는 렌즈 자체에서 데이터를 얻을 수 있는 렌즈등이 있습니다.
<서보모터 : cmotion>
<Lens Encoder>
<Lens Data>
합성 (LED Wall, Chroma Key)
가상 프로덕션에서 또하나 중요한 하드웨어 요소로 기존에는 사용하던 크로마키 (일명 그린 스크린) 방식을 이용한 영상 합성 방식을 사용해 오던 방식이 있습니다. 하지만 최근에는 LED 기술의 발전과 품질 향상으로 배경 영상을 LED에 직접 영사해서 합성이 아닌 같이 촬영하는 방식을 사용 합니다.
LED 비디오월의 경우 합성 방식보다는 영상의 품질이 뛰어나고 합성으로 인한 조명의 설정등이 복잡하지 않아 사용이 쉽운 장점이 있습니다.
<Chroma Key 스튜디오>
<LED 비디오월>
가상 캐릭터 및 매칭
영상내에 들어가는 모든 요소를 실시간으로 처리해야하는 가상 프로덕션의 특징상 모든 요소중 하나인
가상의 캐릭터 역시 중요한 요소입니다. 이를 위해서 기존의 모션캡쳐 기술을 접목해
가상의 캐릭터 애니메이션을 제작 합니다. 가상의 공간에는 많은 요소들이 CG로 존재 합니다.
이 공간의 정확한 위치를 일치시키는 작업역시 필요한 요소 입니다.
버추얼 프로덕션은 이미 게임, 동작분석 영화, 애니메이션, 메타버스등 많은 분야에 사용되고 있습니다.
<스위트홈에 사용된 Xsens MVN>
<스위트홈의 실시간 가상 캐릭터 애니메이션>
모션테크놀로지는 가상 프로덕션을 위한 다양한 하드웨어 제작 및 기술 개발을 진행하고 있습니다.
저희와 함께 가상 프로덕션에 대한 솔루션 구축에 관심이 있으시면 영업팀으로 연락 부탁 드립니다.