아바타가 춤추면 옷 주름까지 바뀐다

가상피팅 기술 화제…옷-몸 나눠 3D 데이터 생성해 현실감↑

과학입력 :2017/08/09 09:51

아바타의 체형과 움직임에 맞춰 가상 옷의 주름까지 바뀌는 혁신적인 피팅 기술이 개발돼 온라인 패션 시장에 뜨거운 관심이 예상된다.

독일 연구 기관인 맥스 플랑크 인스티튜트 포 인텔리전트 시스템(Max Planck Institute for Intelligent systems, MPI IS)은 아바타의 움직임에 따라 옷의 주름을 재현하거나 체형에 따라 옷의 변화를 확인할 수 있는 기술 ‘클로스캡’(ClothCap)을 개발했다.

사람의 3차원 스캔 결과를 기반으로 가상 피팅이 가능한 시뮬레이션 기술은 이전부터 존재해 왔다. 하지만 움직임에 제약이 있는 등 재현성이 낮거나 불충분한 여러 한계를 지녔다. 특히 상의와 하의에 여러 옷을 입는 경우가 많기 때문에 시뮬레이션하기 힘든 점이 많았다.

MPI IS가 개발한 클로스캡은 옷을 입은 상태의 사람을 3D 스캔한 옷과 그 속에 숨어 있는 몸을 나눠 처리한다. 이를 위해 먼저 옷을 입은 채로 움직이는 대상자의 모습을 60fps 속도로 3D 스캔하는 이른바 4차원(4D) 스캔을 수행한다.

주름의 재현이나 체형 변경이 가능한 가상 피팅 기술(이미지=MPI IS)

이렇게 얻은 정보에서 여러 옷과 옷을 입지 않은 상태의 몸을 나누고, 움직이는 3D 데이터를 생성함으로써 시뮬레이션을 더 현실감 있게 만든다.

관련기사

이 같은 기법을 통해 외모를 바꾸거나 자세를 바꿔도 옷 입은 상태를 현실적으로 재현하는 가상 피팅이 가능하다. 3D 인체 모델의 살을 찌울 경우 옷 주름 몰리는 모양이 바뀌는 등 대상자에 맞춘 가상 피팅을 실행할 수 있다.

또 사람을 찍은 한 장의 사진만으로 3D 인체 모델을 생성하는 기술과 함께 사용하면 사진 속 인물 포즈를 그대로 유지한 상태로 가상 피팅하는 것도 가능하다.(▶관련동영상 보기)

4D 스캔 결과를 기반으로 옷과 몸을 분리
아바타를 살찌게 해도 시뮬레이션은 자연스럽다.
사진과 같은 포즈로 가상 피팅이 가능하다.