KR20150068895A - 삼차원 출력 데이터 생성 장치 및 방법 - Google Patents

삼차원 출력 데이터 생성 장치 및 방법 Download PDF

Info

Publication number
KR20150068895A
KR20150068895A KR1020140144759A KR20140144759A KR20150068895A KR 20150068895 A KR20150068895 A KR 20150068895A KR 1020140144759 A KR1020140144759 A KR 1020140144759A KR 20140144759 A KR20140144759 A KR 20140144759A KR 20150068895 A KR20150068895 A KR 20150068895A
Authority
KR
South Korea
Prior art keywords
dimensional
acquiring
camera
model
unit
Prior art date
Application number
KR1020140144759A
Other languages
English (en)
Inventor
윤승욱
황본우
임성재
김갑기
전혜령
최진성
구본기
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US14/569,258 priority Critical patent/US20150172637A1/en
Publication of KR20150068895A publication Critical patent/KR20150068895A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)

Abstract

깊이 센서를 포함하는 한 대 혹은 여러 대의 카메라를 이용해 사용자의 외형 또는 얼굴을 손쉽게 삼차원으로 복원 후 삼차원 모델 전이를 통해 개인용 삼차원 아바타를 만들고, 이를 기반으로 삼차원으로 출력이 가능한 데이터를 생성하는 삼차원 출력 데이터 생성 장치 및 방법이 개시된다. 본 발명에 따른 삼차원 출력 데이터 생성 장치는, 적어도 하나의 시점의 사용자에 대한 깊이 정보 및 컬러 영상을 기반으로 삼차원 모델을 획득하는 획득부, 상기 삼차원 모델의 활용에 따른 출력과 응용의 형태를 기반으로 복수개의 삼차원 템플릿 모델 중 적어도 하나를 선택하는 선택부 및 상기 획득부에서 획득된 삼차원 모델을 기반으로 선택부에 의하여 선택된 적어도 하나의 삼차원 템플릿 모델을 변형하여 삼차원 출력 데이터를 생성하는 생성부를 포함한다.

Description

삼차원 출력 데이터 생성 장치 및 방법{APPARATUS AND METHOD FOR GENERATING THREE DIMENSIONAL OUTPUT DATA}
본 발명은, 삼차원 출력 데이터 생성 장치 및 방법에 관한 것이다. 더욱 상세하게는 본 발명은, 깊이 센서를 포함하는 한 대 혹은 여러 대의 카메라를 이용해 사용자의 외형 또는 얼굴을 손쉽게 삼차원으로 복원 후 삼차원 모델 전이를 통해 개인용 삼차원 아바타를 만들고, 이를 기반으로 삼차원으로 출력이 가능한 데이터를 생성하는 삼차원 출력 데이터 생성 장치 및 방법에 관한 것이다.
스테레오 카메라를 사용하는 종래의 삼차원 외형 또는 얼굴 복원 방법은 카메라의 특성과 해상도에 따라 계산 시간과 복원 결과가 달라지며, 촬영 시 조명환경에 복원 결과가 많은 영향을 받고, 정확한 동기화가 필수적이므로 피촬영자가 움직일 경우 복원이 제대로 수행되지 않는 문제가 있다.
또한, 촬영 대상과 배경 영역 분리를 위한 별도의 하드웨어 또는 소프트웨어적 처리가 필요하다. 제어된 조명 환경 설정, 응용에 맞는 다수의 카메라 대수 선정, 전배경 분리를 위한 특수한 장치(예: 크로마키) 등을 검증된 위치에 배치하고 사용자가 촬영 시 최대한 움직이지 않은 상태로 촬영하면 고정밀 복원 데이터를 얻을 수는 있으나, 손쉽고 간단하게 일반 사용자가 종래의 시스템을 사용해 자신의 삼차원 아바타를 만드는 일은 매우 어렵다.
한편, 일반 사용자용으로 개발된 하나의 카메라가 장착된 핸드폰으로 사진을 여러 장 촬영해 삼차원 외형 또는 얼굴을 복원하는 기술은 복원 정확도가 매우 낮아 한두 번 재미를 위해 사용해 보는 정도의 응용에만 사용되고 있다.
깊이 센서 또는 깊이 카메라 (여기서 깊이 센서 또는 깊이 카메라는 구조광 방식과 TOF 방식을 모두 포함)를 이용하는 종래의 삼차원 외형 또는 얼굴 복원 방법은 주로 실내 조명 환경에서만 복원이 가능하지만, 전배경 분리를 위한 별도의 처리가 필요 없다.
스테레오 카메라 방식처럼 조명의 영향을 크게 받지 않으며, 대부분 깊이 해상도가 640x480 이하로 고정돼 있어 복원 결과의 편차가 적다. 화소 단위로 깊이 정보를 추출하기에 복원 결과에 잡음이 많은 편이지만, 실시간으로 깊이 정보 추출이 가능하다.
최근에는 이런 실시간 깊이 정보 추출 특성을 이용해 KinectTM와 같은 깊이 카메라를 직접 손에 들고 핸드 헬드 스캐너를 사용하듯 대상 주위를 스캔해 매 프레임 결과를 정렬 및 정합해 복원 정확도를 향상시키면서 전체적인 삼차원 외형을 복원하는 방식도 개발됐다.
하지만 매 프레임 추출되는 수많은 삼차원 정점 데이터(point cloud)를 누적하는 방식은 복원 데이터가 매우 크고 잡음이 많아 결과를 다양한 응용에 바로 사용하기는 어려우며, 컬러 정보 부족으로(KinectTM의 컬러 해상도: 1024x768, 컬러 정보 저장 기능이 없는 TOF 카메라도 많음) 텍스처 품질이 낮기 때문에, 잡음이 많은 외형 복원 데이터에 저해상도 텍스처를 적용해도 자신과 닮은 삼차원 아바타를 생성하기는 어렵다.
한편, 최근에는 삼차원 프린팅이 각광을 받으면서 다양한 삼차원 물체를 삼차원 프린터로 출력하려는 시도가 많아지고 있다.
하지만 인터넷 상에 존재하는 수많은 삼차원 모델 데이터나 저작도구를 사용해 사용자가 직접 제작한 삼차원 모델 데이터는 기본적으로 삼차원 프린팅을 목적으로 제작되지 않았기 때문에 곧바로 삼차원 프린터로 출력하기에는 부적합하다.
예를 들어 현존하는 삼차원 모델은 내부가 모두 차있어 삼차원 프린터로 출력하게 되면 재료가 많이 소모되는 문제가 있다.
따라서, 삼차원 프린터용 모델은 두께가 있고 속이 빈 형태로 새로 제작하거나 기존 모델을 새롭게 편집해야 하는 경우가 많다. 또한, 최근 몇 가지 소프트웨어에서 제공하기 시작한 물리 시뮬레이션 기능을 사용해야 부러지거나 쓰러지지 않는 형태로 출력이 가능하다.
따라서 일반 사용자가 손쉽게 자신의 삼차원 아바타를 만들어 삼차원으로 출력하기 위해서는 첫 단계인 잡음 많고 무거운 외형 복원 데이터 획득까지는 가능하지만 이후 단계가 모두 개별적으로 떨어져 있고, 전문적인 지식이 필요해 어려움이 많다.
결과적으로, 상기한 문제점을 해결하기 위하여, 깊이 센서를 포함하는 한 대 혹은 여러 대의 카메라를 이용해 사용자의 외형 또는 얼굴을 손쉽게 삼차원으로 복원 후 삼차원 모델 전이를 통해 개인용 삼차원 아바타를 만들고, 이를 기반으로 삼차원으로 출력이 가능한 데이터를 생성하는 삼차원 출력 데이터 생성 장치 및 방법이 필요한 실정이다. 관련 기술로는 한국공개특허 제2006-0045798호가 존재한다.
본 발명의 목적은, 상기 문제점을 해결하기 위한 것으로, 깊이 센서를 포함하는 한 대 혹은 여러 대의 카메라를 이용해 사용자의 전신 또는 얼굴의 삼차원 외형을 손쉽게 복원하고, 삼차원 모델 전이 기술을 사용해 잡음이 없고 가벼운 삼차원 참조 모델을 복원한 모델과 최대한 유사하게 변형시켜 개인용 삼차원 아바타를 생성하는 것을 가능케 하는 것이다.
또한, 본 발명의 목적은, 다양한 삼차원 출력(삼차원 프린팅, 렌티큘러 프린팅, 삼차원 애니메이션 등)을 고려해 출력 형태에 맞는 참조 모델의 종류를 미리 설정해 놓음으로써, 일반 사용자가 자신의 삼차원 아바타 복원에서 출력까지를 직접 처리할 수 있는 것을 가능케 하는 것이다.
상기한 목적을 달성하기 위한 본 발명에 따른 삼차원 출력 데이터 생성 장치는, 적어도 하나의 시점의 사용자에 대한 깊이 정보 및 컬러 영상을 기반으로 삼차원 모델을 획득하는 획득부, 상기 삼차원 모델의 활용에 따른 출력과 응용의 형태를 기반으로 복수개의 삼차원 템플릿 모델 중 적어도 하나를 선택하는 선택부 및 상기 획득부에서 획득된 삼차원 모델을 기반으로 상기 선택부에 의하여 선택된 적어도 하나의 삼차원 템플릿 모델을 변형하여 삼차원 출력 데이터를 생성하는 생성부를 포함한다.
이 때, 상기 획득부는, 깊이 카메라를 통하여 상기 깊이 정보 및 컬러 영상을 획득할 수 있다.
이 때, 상기 획득부는, 깊이 카메라를 통하여 상기 깊이 정보를 획득하고, 컬러 카메라를 통하여 상기 컬러 영상을 획득할 수 있다.
이 때, 상기 획득부는, 상기 깊이 카메라의 깊이 센서의 위치와, 상기 컬러 카메라의 렌즈 중심의 위치를 삼차원 좌표계의 X축 및 Z축 상의 동일 위치에 고정하여 획득된 상기 깊이 정보 및 컬러 영상을 기반으로 상기 삼차원 모델을 획득할 수 있다.
이 때, 상기 획득부는, 상기 사용자의 실시간 움직임에 대응하여 누적되는 삼차원의 포인트 클라우드의 좌표계 변환을 수행하는 변환부를 포함할 수 있다.
이 때, 상기 획득부는, 상기 깊이 카메라 및 상기 컬러 카메라의 보정을 수행함으로써 상기 깊이 정보 및 상기 컬러 영상 상호 간의 매핑을 수행하는 보정부를 더 포함할 수 있다.
이 때, 상기 획득부는, 상기 보정부에 의하여 보정된 깊이 카메라 및 컬러 카메라에 의하여 획득된 컬러 텍스처 및 삼차원 외형을 정렬함으로써 삼차원 모델을 생성하는 정렬부를 더 포함할 수 있다.
이 때, 상기 선택부는, 삼차원 프린팅에 대응되는 삼차원 템플릿 모델 및 삼차원 애니매이션 응용에 대응되는 삼차원 템플릿 모델 중 적어도 하나를 선택할 수 있다.
이 때, 상기 삼차원 프린팅에 대응되는 삼차원 템플릿 모델은, 출력물의 인쇄를 위한 효율적인 재료 및 출력물 자체의 안정성을 기반으로 내부가 비어있고 일정 두께를 가진 것일 수 있다.
이 때, 상기 삼차원 애니매이션 응용에 대응되는 삼차원 템플릿 모델은, 상기 삼차원 템플릿 모델의 정점 개수를 기정해진 개수 이하로 제한한 것이거나, 상기 삼차원 템플릿 모델에서 움직임이 기정해진 정도 이하의 값을 갖는 부분에 대한 정점 개수를 기정해진 개수만큼 줄인 것일 수 있다.
또한, 상기한 목적을 달성하기 위한 본 발명에 따른 삼차원 출력 데이터 생성 방법은, 획득부에 의하여, 적어도 하나의 시점의 사용자에 대한 깊이 정보 및 컬러 영상을 기반으로 삼차원 모델을 획득하는 단계, 선택부에 의하여, 상기 삼차원 모델의 활용에 따른 출력과 응용의 형태를 기반으로 복수개의 삼차원 템플릿 모델 중 적어도 하나를 선택하는 단계 및 생성부에 의하여, 상기 획득부에 의하여 획득된 삼차원 모델을 기반으로 상기 선택하는 단계에서 선택된 적어도 하나의 삼차원 템플릿 모델을 변형하여 삼차원 출력 데이터를 생성하는 단계를 포함한다.
이 때, 상기 획득하는 단계는, 깊이 카메라를 통하여 상기 깊이 정보 및 컬러 영상을 획득할 수 있다.
이 때, 상기 획득하는 단계는, 깊이 카메라를 통하여 상기 깊이 정보를 획득하고, 컬러 카메라를 통하여 상기 컬러 영상을 획득할 수 있다.
이 때, 상기 획득하는 단계는, 상기 깊이 카메라의 깊이 센서의 위치와, 상기 컬러 카메라의 렌즈 중심의 위치를 삼차원 좌표계의 X축 및 Z축 상의 동일 위치에 고정하여 획득된 상기 깊이 정보 및 컬러 영상을 기반으로 상기 삼차원 모델을 획득할 수 있다.
이 때, 상기 획득하는 단계는, 변환부에 의하여, 상기 사용자의 실시간 움직임에 대응하여 누적되는 삼차원의 포인트 클라우드의 좌표계 변환을 수행하는 단계를 포함할 수 있다.
이 때, 상기 획득하는 단계는, 상기 삼차원의 포인트 클라우드의 좌표계 변환을 수행하는 단계 이후에, 보정부에 의하여, 상기 깊이 카메라 및 상기 컬러 카메라의 보정을 수행함으로써 상기 깊이 정보 및 상기 컬러 영상 상호 간의 매핑을 수행하는 단계를 더 포함할 수 있다.
이 때, 상기 획득하는 단계는, 상기 깊이 정보 및 상기 컬러 영상 상호 간의 매핑을 수행하는 단계 이후에, 정렬부에 의하여, 상기 깊이 정보 및 상기 컬러 영상 상호 간의 매핑을 수행하는 단계에서 보정된 깊이 카메라 및 컬러 카메라에 의하여 획득된 컬러 텍스처 및 삼차원 외형을 정렬함으로써 삼차원 모델을 생성하는 단계를 더 포함할 수 있다.
이 때, 상기 선택하는 단계는, 삼차원 프린팅에 대응되는 삼차원 템플릿 모델 및 삼차원 애니매이션 응용에 대응되는 삼차원 템플릿 모델 중 적어도 하나를 선택할 수 있다.
이 때, 상기 삼차원 프린팅에 대응되는 삼차원 템플릿 모델은, 출력물의 인쇄를 위한 효율적인 재료 및 출력물 자체의 안정성을 기반으로 내부가 비어있고 일정 두께를 갖는 것일 수 있다.
이 때, 상기 삼차원 애니매이션 응용에 대응되는 삼차원 템플릿 모델은, 상기 삼차원 템플릿 모델의 정점 개수를 기정해진 개수 이하로 제한한 것이거나, 상기 삼차원 템플릿 모델에서 움직임이 기정해진 정도 이하의 값을 갖는 부분에 대한 정점 개수를 기정해진 개수만큼 줄인 것일 수 있다.
본 발명에 의하면, 깊이 센서를 포함하는 한 대 혹은 여러 대의 카메라를 이용해 사용자의 전신 또는 얼굴의 삼차원 외형을 손쉽게 복원하고, 삼차원 모델 전이 기술을 사용해 잡음이 없고 가벼운 삼차원 참조 모델을 복원한 모델과 최대한 유사하게 변형시켜 개인용 삼차원 아바타를 생성할 수 있는 효과가 있다.
또한, 본 발명에 의하면, 다양한 삼차원 출력(삼차원 프린팅, 렌티큘러 프린팅, 삼차원 애니메이션 등)을 고려해 출력 형태에 맞는 참조 모델의 종류를 미리 설정해 놓음으로써, 일반 사용자가 자신의 삼차원 아바타 복원에서 출력까지를 직접 처리할 수 있는 효과가 있다.
도 1은 본 발명에 따른 삼차원 출력 데이터 생성 장치의 블록도이다.
도 2는 본 발명에 따른 삼차원 출력 데이터 생성 장치의 획득부에서 삼차원 모델을 획득하는 모습을 설명하기 위한 도면이다.
도 3은 본 발명에 따른 삼차원 출력 데이터 생성 장치의 획득부를 설명하기 위한 도면이다.
도 4는 본 발명에 따른 삼차원 출력 데이터 생성 방법의 흐름도이다.
도 5는 본 발명에 따른 삼차원 출력 데이터 생성 방법에서 삼차원 모델을 획득하는 단계를 설명하기 위한 도면이다.
본 발명을 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다.
본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.
또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다.
이하, 상기한 목적을 달성하기 위한 본 발명에 따른 삼차원 출력 데이터 생성 장치에 대하여 도면을 참조하여 설명하도록 한다.
도 1은 본 발명에 따른 삼차원 출력 데이터 생성 장치의 블록도이다.
도 1을 참조하여 설명하면, 본 발명에 따른 삼차원 출력 데이터 생성 장치(100)는, 획득부(110), 선택부(120) 및 생성부(130)를 포함하여 구성된다.
보다 상세하게, 본 발명에 따른 삼차원 출력 데이터 생성 장치(100)는, 적어도 하나의 시점의 사용자에 대한 깊이 정보 및 컬러 영상을 기반으로 삼차원 모델을 획득하는 획득부(110), 상기 삼차원 모델의 활용에 따른 출력과 응용의 형태를 기반으로 복수개의 삼차원 템플릿 모델 중 적어도 하나를 선택하는 선택부(120) 및 상기 획득부(110)에서 획득된 삼차원 모델을 기반으로 상기 선택부(120)에 의하여 선택된 적어도 하나의 삼차원 템플릿 모델을변형하여 삼차원 출력 데이터를 생성하는 생성부(130)를 포함한다.
상기 획득부(110)는, 적어도 하나의 시점의 사용자에 대한 깊이 정보 및 컬러 영상을 기반으로 삼차원 모델을 획득하는 기능을 수행한다.
이 때, 상기 획득부(110)는 깊이 카메라(depth camera)를 통하여 상기 깊이 정보 및 컬러 영상을 획득할 수 있다.
또한, 상기 깊이 카메라가 컬러 영상을 획득하기 어려운 경우에는 컬러 영상을 획득하기 위하여 별도의 컬러 카메라를 이용할 수 있다.
삼차원 모델 획득에는 다양한 입력 장치 및 이미징 센서가 사용될 수 있다. 본 발명에서는 일 실시예로 적어도 한 시점의 깊이 정보 및 컬러 영상을 획득할 수 있는 장치로부터 입력 데이터를 획득하는 경우에 대해 설명한다.
다시점 정보를 획득할 수 있는 깊이 센서를 포함한 입력 장치도 사용이 가능하다. 즉, 데이터 획득 센서 및 장치 자체는 본 발명의 주요 기술적 특징에 해당되지 않으며, 삼차원 모델 획득 방법이 본 발명의 주요 특징 중 하나이다.
기존의 깊이 센서 기반 삼차원 얼굴 모델 생성 방법은 깊이 카메라를 움직여 얼굴 주위를 스캔하고 스캔 데이터를 저장 후 포인트 클라우드 데이터를 정합한다.
또는, 깊이 카메라가 여러 대인 경우는 사용자가 정지한 상태에서 데이터를 획득하고 다수 깊이 카메라의 데이터를 정합해 삼차원 얼굴 모델을 생성한다.
깊이 카메라만 사용하는 경우는 컬러 영상의 해상도가 낮거나 없어 생성한 삼차원 얼굴의 텍스처 품질이 낮다.
본 발명에서 제안하는 획득부(110)의 일 실시예로 삼차원 얼굴모델을 획득하는 경우 깊이 카메라는 고정된 상태에서 사용자가 깊이 카메라 앞에서 얼굴을 상하 또는 좌우로 움직인다.
삼차원 전신 모델인 경우는 사용자가 깊이 카메라 앞에서 몸을 좌우로 돌리는 등 간단한 동작을 취한다.
이는 현재 보급된 깊이 카메라가 대부분 가정용 게임기와 함께 사용되거나 TV 주위에 거치형으로 장착되어 있는 경우가 많아, 일반 사용자가 손쉽게 깊이 카메라를 활용할 수 있도록 하는 입력 영상 획득 방식이다.
앞으로 출시될 깊이 카메라도 주로 TV 주위나 특정 위치에 고정식으로 거치해 두고 사용할 확률이 높다. 혹은 TV에 깊이 카메라가 장착되어 개발되는 경우도 고려할 때 깊이 카메라를 직접 움직여 입력 데이터를 획득하는 방식은 일반 개인이 사용하기는 불편한 점이 많기 때문이다.
깊이 카메라에 컬러 센서가 없는 경우 컬러 카메라를 별도로 사용해 텍스처를 획득하고, 깊이 카메라에 컬러 센서가 함께 부착된 경우는 한 대만 사용도 가능하다.
하지만 두 경우 모두 컬러 및 깊이 센서간 보정이 필요하며, 정확한 보정을 통해 복원한 얼굴 외형과 얼굴 텍스처가 어색함 없이 정합될 수 있다.
도 2는 본 발명에 따른 삼차원 출력 데이터 생성 장치의 획득부에서 삼차원 모델을 획득하는 모습을 설명하기 위한 도면이다.
도 2를 참조하여 설명하면, 별도의 컬러 카메라(10)를 사용하는 경우 보정 오차 최소화를 위해 도 2와 같이 깊이 카메라(20)의 깊이 센서의 위치와, 컬러 카메라(10)의 렌즈 중심의 위치를 삼차원 좌표계의 X축 및 Z축 상의 동일 위치에 고정할 수 있다.
이렇게 사용자가 움직일 때 실시간으로 깊이 정보를 추출해 누적하면 실시간으로 데이터가 부족한 부분을 확인하고 그 부분을 집중적으로 촬영하는 방식으로 삼차원 얼굴 외형의 복원 품질을 높일 수 있다.
컬러 텍스처 영상은 움직이는 상태에서는 획득이 어려우므로 처음 움직임을 시작하거나 움직임을 멈춘 후 카메라를 바라본 정지 상태에서 획득한다. 본 발명은 깊이 카메라(20)를 움직여 실내 공간을 촬영하면 실시간으로 스캔한 장면을 삼차원으로 복원하는 기존 연구(R.A. Newcombe, S. Izadi, O. Hilliges, D. Molyneaux, D. Kim, A.J. Davison, P. Kohli, J. Shotton, S. Hodges, and A. Fitzgibbon, "KinectFusion: Real-Time Dense Surface Mapping and Tracking," IEEE International Symposium on Mixed and Augmented Reality, pp. 127-136, 2011.)의 장점을 그대로 활용할 수 있으며, 카메라의 움직임을 사용자의 움직임으로 변환하는 좌표계 변환 과정만 거치면 된다.
상기의 기존 연구는 깊이 카메라(20)로부터 실시간으로 추출되는 깊이 값을 시간에 따라 누적(버퍼크기에 따라 1--프레임에서 수 프레임)해 정지한 물체에 대한 비교적 정확한 삼차원 정보를 유추한다.
또한, 같은 위치를 여러 번 스캔하면 정보의 양이 늘어나므로 정확도를 더욱 높일 수 있다.
이 연구의 원리를 본 발명에서 구체적으로 실현하기 위하여 도면을 참조하여 상기 획득부(110)의 구성에 대하여 설명하도록 한다.
도 3은 본 발명에 따른 삼차원 출력 데이터 생성 장치의 획득부를 설명하기 위한 도면이다.
도 3을 참조하여 설명하면, 상기 획득부(110)는, 변환부(111), 보정부(112) 및 정렬부(113)을 포함하여 구성될 수 있다.
이 때, 상기 변환부(111)는, 상기 사용자의 실시간 움직임에 대응하여 누적되는 삼차원의 포인트 클라우드의 좌표계 변환을 수행한다.
또한, 상기 보정부(112)는, 상기 깊이 카메라 및 상기 컬러 카메라의 보정을 수행함으로써 상기 깊이 정보 및 상기 컬러 영상 상호 간의 매핑을 수행한다.
또한, 상기 정렬부(113)는, 상기 보정부(112)에 의하여 보정된 깊이 카메라 및 컬러 카메라에 의하여 획득된 컬러 텍스처 및 삼차원 외형을 정렬함으로써 삼차원 모델을 생성하는 기능을 수행한다.
이하, 본 발명에 따른 삼차원 출력 데이터 생성 장치의 선택부(120) 및 생성부(130)에 대하여 설명하도록 한다.
상기 선택부(120)는, 상기 삼차원 모델의 활용에 따른 출력과 응용의 형태를 기반으로 복수개의 삼차원 템플릿 모델 중 적어도 하나를 선택하는 기능을 수행한다.
구체적으로, 상기 선택부(120)는, 삼차원 프린팅에 대응되는 삼차원 템플릿 모델 및 삼차원 애니매이션 응용에 대응되는 삼차원 템플릿 모델 중 적어도 하나를 선택할 수 있다. 본 발명의 실시예에 따르면 삼차원 템플릿 모델은 미리 지정되어 있을 수 있다.
이 때, 상기 삼차원 프린팅에 대응되는 삼차원 템플릿 모델은, 출력물의 인쇄를 위한 효율적인 재료 및 출력물 자체의 안정성을 기반으로 내부가 비어있고 일정 두께를 갖는 것일 수 있다.
또한, 상기 삼차원 애니매이션 응용에 대응되는 삼차원 템플릿 모델은, 상기 삼차원 템플릿 모델의 정점 개수를 기정해진 개수 이하로 제한한 것일 수 있다.
바람직하게는 상기 삼차원 템플릿 모델의 정점 개수를 만개 이하로 제한할 수 있다.
또한, 상기 삼차원 애니매이션 응용에 대응되는 삼차원 템플릿 모델은, 상기 삼차원 템플릿 모델에서 움직임이 기정해진 정도 이하의 값을 갖는 부분에 대한 정점 개수를 기정해진 개수만큼 줄인 것일 수 있다.
상기 생성부(130)는, 상기 획득부(110)에서 획득한 삼차원 모델을 기반으로상기 선택부(120)에 의하여 선택된 적어도 하나의 삼차원 템플릿 모델을변형하여 삼차원 출력 데이터를 생성하는 기능을 수행한다.
구체적으로, 상기 선택부(120)에서 선택된 삼차원 템플릿 모델을 직접 변형해 상기 획득부(110)에서 획득한 삼차원 모델과 최대한 유사하게 만드는 기능을 지원하는 것이다.
이처럼 본 발명에 따른 삼차원 출력 데이터 생성 장치(100)를 이용하면, 획득된 삼차원 모델의 정밀도에 크게 의존하지 않고도 다양한 응용에 맞게 삼차원 출력 데이터를 생성할 수 있으며, 상기 생성부(130)에서 가변적으로 전이의 정도를 조절함으로써 처리 시간과 복원 품질에 대한 요구 사항을 레벨에 맞게 충족시킬 수 있는 장점이 있다.
본 발명의 일 실시예로 일반 사용자는 컬러 영상 획득이 가능한 비디오 게임기용 깊이 카메라만 구비하고 있다면, 본 발명에서 제안하는 삼차원 출력 데이터 생성 장치(100)를 이용해 자신과 닮은 삼차원 아바타를 손쉽게 생성할 수 있고, 이를 삼차원 프린터나 렌티큘러 프린터로 출력할 수 있는 데이터 형태로 만들 수도 있다.
이하, 본 발명에 따른 삼차원 출력 데이터 생성 방법에 대하여 설명하도록 한다. 상기 살펴본 바와 같이, 본 발명에 따른 삼차원 출력 데이터 생성 장치(100)와 중복되는 기술 내용에 대한 설명은 생략하도록 한다.
도 4는 본 발명에 따른 삼차원 출력 데이터 생성 방법의 흐름도이다.
도 4를 참조하여 설명하면, 본 발명에 따른 삼차원 출력 데이터 생성 방법은, 획득부에 의하여, 적어도 하나의 시점의 사용자에 대한 깊이 정보 및 컬러 영상을 기반으로 삼차원 모델을 획득하는 단계(S100)가 진행된다.
이 후, 선택부에 의하여, 상기 삼차원 모델의 활용에 따른 출력과 응용의 형태를 기반으로 복수개의 삼차원 템플릿 모델 중 적어도 하나를 선택하는 단계(S110)가 진행되며, 상기 S110 단계 이후에는, 생성부에 의하여, 상기 획득하는 단계(S100)에서 획득한 삼차원 모델을 기반으로, 상기 선택하는 단계(S110)에서 선택된 적어도 하나의 삼차원 템플릿 모델을 기반을 변형하여 삼차원 출력 데이터를 생성하는 단계(S120)가 진행된다.
본 발명의 실시예에 따르면 획득하는 단계(S100)에서 획득된 삼차원 모델의정점이 선택하는 단계(S110)에서 선택된 삼차원 템플릿 모델의 정점보다 많을 수 있다. 본 발명의 실시예에 따르면, 생성부는 상기 출력 데이터를 생성하는 단계(S120)에서 보다 적은 수의 정점을 갖는 삼차원 템플릿 모델을 보다 많은 수의 정점을 갖는 삼차원 모델을 기반으로 입력 모델의 외형과 유사하게 변형 변형시킨다.
획득된 삼차원 모델은 노이즈도 많고 무거워 변형이 어렵다. 따라서 본 발명의 실시예에 따른 생성부는 삼차원 템플릿 모델을 변형시킨다.
본 발명의 실시예에 따르면,상기 선택하는 단계(S110)는, 삼차원 프린팅에 대응되는 삼차원 템플릿 모델 및 삼차원 애니매이션 응용에 대응되는 삼차원 템플릿 모델 중 적어도 하나를 선택할 수 있다.
보다 구체적으로, 상기 삼차원 프린팅에 대응되는 삼차원 템플릿 모델은, 출력물의 인쇄를 위한 효율적인 재료 및 출력물 자체의 안정성을 기반으로 내부가 비어있고 일정 두께를 갖는 것일 수 있다.
또한, 상기 삼차원 애니매이션 응용에 대응되는 삼차원 템플릿 모델은, 상기 삼차원 템플릿 모델의 정점 개수를 기정해진 개수 이하로 제한한 것일 수 있다.
바람직하게는 상기 삼차원 템플릿 모델의 정점 개수를 만개 이하로 제한할 수 있다.
또한, 상기 삼차원 애니매이션 응용에 대응되는 삼차원 템플릿 모델은, 상기 삼차원 템플릿 모델에서 움직임이 기정해진 정도 이하의 값을 갖는 부분에 대한 정점 개수를 기정해진 개수만큼 줄인 것일 수 있다.
이하, 도면을 참조하여 상기 획득하는 단계(S100)에 대하여 구체적으로 설명하도록 한다.
도 5는 본 발명에 따른 삼차원 출력 데이터 생성 방법에서 삼차원 모델을 획득하는 단계를 설명하기 위한 도면이다.
도 5를 참조하여 설명하면, 상기 획득하는 단계(S100)는, 변환부에 의하여, 상기 사용자의 실시간 움직임에 대응하여 누적되는 삼차원의 포인트 클라우드의 좌표계 변환을 수행하는 단계(S200)가 진행된다.
상기 S200 단계 이후에는, 보정부에 의하여, 상기 깊이 카메라 및 상기 컬러 카메라의 보정을 수행함으로써 상기 깊이 정보 및 상기 컬러 영상 상호 간의 매핑을 수행하는 단계(S210)가 더 포함될 수 있다.
또한, 상기 S210 단계 이후에는, 상기 깊이 정보 및 상기 컬러 영상 상호 간의 매핑을 수행하는 단계(S210)에서 보정된 깊이 카메라 및 컬러 카메라에 의하여 획득된 컬러 텍스처 및 삼차원 외형을 정렬함으로써 삼차원 모델을 생성하는 단계 (S220)를 더 포함할 수 있다.
상기 살펴본 바와 같이, 본 발명에 따른 삼차원 출력 데이터 생성 장치(100) 및 방법에 의하면, 깊이 센서를 포함하는 한 대 혹은 여러 대의 카메라를 이용해 사용자의 전신 또는 얼굴의 삼차원 외형을 손쉽게 복원하고, 삼차원 모델 전이 기술을 사용해 잡음이 없고 가벼운 삼차원 참조 모델을 복원한 모델과 최대한 유사하게 변형시켜 개인용 삼차원 아바타를 생성할 수 있는 장점이 있다.
또한, 다양한 삼차원 출력(삼차원 프린팅, 렌티큘러 프린팅, 삼차원 애니메이션 등)을 고려해 출력 형태에 맞는 참조 모델의 종류를 미리 설정해 놓음으로써, 일반 사용자가 자신의 삼차원 아바타 복원에서 출력까지를 직접 처리할 수 있는 장점이 있다.
이상에서와 같이 본 발명에 따른 삼차원 출력 데이터 생성 장치(100) 및 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
100: 삼차원 출력 데이터 생성 장치
110: 획득부 120: 선택부
130: 생성부 10: 컬러 카메라
20: 깊이 카메라 111: 변환부
112: 보정부 113: 정렬부

Claims (20)

  1. 적어도 하나의 시점의 사용자에 대한 깊이 정보 및 컬러 영상을 기반으로 삼차원 모델을 획득하는 획득부;
    상기 삼차원 모델의 활용에 따른 출력과 응용의 형태를 기반으로 복수개의 삼차원 템플릿 모델 중 적어도 하나를 선택하는 선택부; 및
    상기 획득부에서 획득된 삼차원 모델을 기반으로 상기 선택부에 의하여 선택된 적어도 하나의 삼차원 템플릿 모델을 변형하여 변형하여 삼차원 출력 데이터를 생성하는 생성부를 포함하는 것을 특징으로 하는 삼차원 출력 데이터 생성 장치.
  2. 청구항 1에 있어서,
    상기 획득부는,
    깊이 카메라를 통하여 상기 깊이 정보 및 컬러 영상을 획득하는 것을 특징으로 하는 삼차원 출력 데이터 생성 장치.
  3. 청구항 1에 있어서,
    상기 획득부는,
    깊이 카메라를 통하여 상기 깊이 정보를 획득하고,
    컬러 카메라를 통하여 상기 컬러 영상을 획득하는 것을 특징으로 하는 삼차원 출력 데이터 생성 장치.
  4. 청구항 3에 있어서,
    상기 획득부는,
    상기 깊이 카메라의 깊이 센서의 위치와, 상기 컬러 카메라의 렌즈 중심의 위치를 삼차원 좌표계의 X축 및 Z축 상의 동일 위치에 고정하여 획득된 상기 깊이 정보 및 컬러 영상을 기반으로 상기 삼차원 모델을 획득하는 것을 특징으로 하는 삼차원 출력 데이터 생성 장치.
  5. 청구항 4에 있어서,
    상기 획득부는,
    상기 사용자의 실시간 움직임에 대응하여 누적되는 삼차원의 포인트 클라우드의 좌표계 변환을 수행하는 변환부를 포함하는 것을 특징으로 하는 삼차원 출력 데이터 생성 장치.
  6. 청구항 5에 있어서,
    상기 획득부는,
    상기 깊이 카메라 및 상기 컬러 카메라의 보정을 수행함으로써 상기 깊이 정보 및 상기 컬러 영상 상호 간의 매핑을 수행하는 보정부를 더 포함하는 것을 특징으로 하는 삼차원 출력 데이터 생성 장치.
  7. 청구항 6에 있어서,
    상기 획득부는,
    상기 보정부에 의하여 보정된 깊이 카메라 및 컬러 카메라에 의하여 획득된 컬러 텍스처 및 삼차원 외형을 정렬함으로써 삼차원 모델을 생성하는 정렬부를 더 포함하는 것을 특징으로 하는 삼차원 출력 데이터 생성 장치.
  8. 청구항 1에 있어서,
    상기 선택부는,
    삼차원 프린팅에 대응되는 삼차원 템플릿 모델; 및
    삼차원 애니매이션 응용에 대응되는 삼차원 템플릿 모델 중 적어도 하나를 선택하는 것을 특징으로 하는 삼차원 출력 데이터 생성 장치.
  9. 청구항 8에 있어서,
    상기 삼차원 프린팅에 대응되는 삼차원 템플릿 모델은,
    출력물의 인쇄를 위한 효율적인 재료 및 출력물 자체의 안정성을 기반으로 내부가 비어있고 일정 두께를 갖는 것을 특징으로 하는 삼차원 출력 데이터 생성 장치.
  10. 청구항 8에 있어서,
    상기 삼차원 애니매이션 응용에 대응되는 삼차원 템플릿 모델은,
    상기 삼차원 템플릿 모델의 정점 개수를 기정해진 개수 이하로 제한한 것이거나,
    상기 삼차원 템플릿 모델에서 움직임이 기정해진 정도 이하의 값을 갖는 부분에 대한 정점 개수를 기정해진 개수만큼 줄인 것을 특징으로 하는 삼차원 출력 데이터 생성 장치.
  11. 획득부에 의하여, 적어도 하나의 시점의 사용자에 대한 깊이 정보 및 컬러 영상을 기반으로 삼차원 모델을 획득하는 단계;
    선택부에 의하여, 상기 삼차원 모델의 활용에 따른 출력과 응용의 형태를 기반으로 복수개의 삼차원 템플릿 모델 중 적어도 하나를 선택하는 단계; 및
    생성부에 의하여, 상기 획득부에 의하여 획득된 삼차원 모델을 기반으로 상기 선택하는 단계에서 선택된 적어도 하나의 삼차원 템플릿 모델을 변형하여 삼차원 출력 데이터를 생성하는 단계를 포함하는 것을 특징으로 하는 삼차원 출력 데이터 생성 방법.
  12. 청구항 11에 있어서,
    상기 획득하는 단계는,
    깊이 카메라를 통하여 상기 깊이 정보 및 컬러 영상을 획득하는 것을 특징으로 하는 삼차원 출력 데이터 생성 방법.
  13. 청구항 11에 있어서,
    상기 획득하는 단계는,
    깊이 카메라를 통하여 상기 깊이 정보를 획득하고,
    컬러 카메라를 통하여 상기 컬러 영상을 획득하는 것을 특징으로 하는 삼차원 출력 데이터 생성 방법.
  14. 청구항 13에 있어서,
    상기 획득하는 단계는,
    상기 깊이 카메라의 깊이 센서의 위치와, 상기 컬러 카메라의 렌즈 중심의 위치를 삼차원 좌표계의 X축 및 Z축 상의 동일 위치에 고정하여 획득된 상기 깊이 정보 및 컬러 영상을 기반으로 상기 삼차원 모델을 획득하는 것을 특징으로 하는 삼차원 출력 데이터 생성 방법.
  15. 청구항 14에 있어서,
    상기 획득하는 단계는,
    변환부에 의하여, 상기 사용자의 실시간 움직임에 대응하여 누적되는 삼차원의 포인트 클라우드의 좌표계 변환을 수행하는 단계를 포함하는 것을 특징으로 하는 삼차원 출력 데이터 생성 방법.
  16. 청구항 15에 있어서,
    상기 획득하는 단계는,
    상기 삼차원의 포인트 클라우드의 좌표계 변환을 수행하는 단계 이후에,
    보정부에 의하여, 상기 깊이 카메라 및 상기 컬러 카메라의 보정을 수행함으로써 상기 깊이 정보 및 상기 컬러 영상 상호 간의 매핑을 수행하는 단계를 더 포함하는 것을 특징으로 하는 삼차원 출력 데이터 생성 방법.
  17. 청구항 16에 있어서,
    상기 획득하는 단계는,
    상기 깊이 정보 및 상기 컬러 영상 상호 간의 매핑을 수행하는 단계 이후에,
    정렬부에 의하여, 상기 깊이 정보 및 상기 컬러 영상 상호 간의 매핑을 수행하는 단계에서 보정된 깊이 카메라 및 컬러 카메라에 의하여 획득된 컬러 텍스처 및 삼차원 외형을 정렬함으로써 삼차원 모델을 생성하는 단계를 더 포함하는 것을 특징으로 하는 삼차원 출력 데이터 생성 방법.
  18. 청구항 11에 있어서,
    상기 선택하는 단계는,
    삼차원 프린팅에 대응되는 삼차원 템플릿 모델; 및
    삼차원 애니매이션 응용에 대응되는 삼차원 템플릿 모델 중 적어도 하나를 선택하는 것을 특징으로 하는 삼차원 출력 데이터 생성 방법.
  19. 청구항 18에 있어서,
    상기 삼차원 프린팅에 대응되는 삼차원 템플릿 모델은,
    출력물의 인쇄를 위한 효율적인 재료 및 출력물 자체의 안정성을 기반으로 내부가 비어있고 일정 두께를 갖는 것을 특징으로 하는 삼차원 출력 데이터 생성 방법.
  20. 청구항 18에 있어서,
    상기 삼차원 애니매이션 응용에 대응되는 삼차원 템플릿 모델은,
    상기 삼차원 템플릿 모델의 정점 개수를 기정해진 개수 이하로 제한한 것이거나,
    상기 삼차원 템플릿 모델에서 움직임이 기정해진 정도 이하의 값을 갖는 부분에 대한 정점 개수를 기정해진 개수만큼 줄인 것을 특징으로 하는 삼차원 출력 데이터 생성 방법.
KR1020140144759A 2013-12-12 2014-10-24 삼차원 출력 데이터 생성 장치 및 방법 KR20150068895A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/569,258 US20150172637A1 (en) 2013-12-12 2014-12-12 Apparatus and method for generating three-dimensional output data

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20130154598 2013-12-12
KR1020130154598 2013-12-12

Publications (1)

Publication Number Publication Date
KR20150068895A true KR20150068895A (ko) 2015-06-22

Family

ID=53516225

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140144759A KR20150068895A (ko) 2013-12-12 2014-10-24 삼차원 출력 데이터 생성 장치 및 방법

Country Status (1)

Country Link
KR (1) KR20150068895A (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017099500A1 (ko) * 2015-12-08 2017-06-15 스타십벤딩머신 주식회사 애니메이션 생성 방법 및 애니메이션 생성 장치
KR20170090739A (ko) * 2016-01-29 2017-08-08 삼성전자주식회사 경도 검출이 가능한 센싱장치, 이를 구비한 모바일 기기, 및 이를 이용한 3차원 인쇄장치
KR20170103253A (ko) * 2016-03-03 2017-09-13 한국전자통신연구원 다중 텍스처를 이용한 3d 프린팅 모델 생성 장치 및 방법
CN108759665A (zh) * 2018-05-25 2018-11-06 哈尔滨工业大学 一种基于坐标转换的空间目标三维重建精度分析方法
CN109166409A (zh) * 2018-10-10 2019-01-08 长沙千博信息技术有限公司 一种手语转换方法及装置
KR20210025266A (ko) * 2019-08-27 2021-03-09 문명일 얼굴 피부 진단기
US11775132B1 (en) 2022-05-18 2023-10-03 Environments by LE, Inc. System and method for the management and use of building systems, facilities, and amenities using internet of things devices and a metaverse representation

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017099500A1 (ko) * 2015-12-08 2017-06-15 스타십벤딩머신 주식회사 애니메이션 생성 방법 및 애니메이션 생성 장치
KR20170090739A (ko) * 2016-01-29 2017-08-08 삼성전자주식회사 경도 검출이 가능한 센싱장치, 이를 구비한 모바일 기기, 및 이를 이용한 3차원 인쇄장치
KR20170103253A (ko) * 2016-03-03 2017-09-13 한국전자통신연구원 다중 텍스처를 이용한 3d 프린팅 모델 생성 장치 및 방법
US10360313B2 (en) 2016-03-03 2019-07-23 Electronics And Telecommunications Research Institute Apparatus and method for generating 3D printing model using multiple textures
CN108759665A (zh) * 2018-05-25 2018-11-06 哈尔滨工业大学 一种基于坐标转换的空间目标三维重建精度分析方法
CN108759665B (zh) * 2018-05-25 2021-04-27 哈尔滨工业大学 一种基于坐标转换的空间目标三维重建精度分析方法
CN109166409A (zh) * 2018-10-10 2019-01-08 长沙千博信息技术有限公司 一种手语转换方法及装置
KR20210025266A (ko) * 2019-08-27 2021-03-09 문명일 얼굴 피부 진단기
US11775132B1 (en) 2022-05-18 2023-10-03 Environments by LE, Inc. System and method for the management and use of building systems, facilities, and amenities using internet of things devices and a metaverse representation

Similar Documents

Publication Publication Date Title
US10652522B2 (en) Varying display content based on viewpoint
KR20150068895A (ko) 삼차원 출력 데이터 생성 장치 및 방법
US10816331B2 (en) Super-resolving depth map by moving pattern projector
US20150172637A1 (en) Apparatus and method for generating three-dimensional output data
CN108573527B (zh) 一种表情图片生成方法及其设备、存储介质
CN108734776B (zh) 一种基于散斑的三维人脸重建方法及设备
US20210134049A1 (en) Image processing apparatus and method
WO2019219012A1 (zh) 联合刚性运动和非刚性形变的三维重建方法及装置
KR101827046B1 (ko) 모션 센서 데이터에 기초한 3d 모델들을 계산하도록 구성된 이동 디바이스
Kolb et al. ToF-sensors: New dimensions for realism and interactivity
KR101711684B1 (ko) 3d 아바타 출력 장치 및 방법
US10484599B2 (en) Simulating depth of field
KR102455468B1 (ko) 객체의 3차원 모델을 복원하는 방법 및 장치
US11138743B2 (en) Method and apparatus for a synchronous motion of a human body model
CN107707899B (zh) 包含运动目标的多视角图像处理方法、装置及电子设备
US11640687B2 (en) Volumetric capture and mesh-tracking based machine learning 4D face/body deformation training
JP2008217593A (ja) 被写体領域抽出装置及び被写体領域抽出プログラム
JP2016048467A (ja) 運動視差再現方法、装置およびプログラム
Cui et al. 3D body scanning with one Kinect
US20140192045A1 (en) Method and apparatus for generating three-dimensional caricature using shape and texture of face
WO2022009607A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP6704700B2 (ja) 画像処理装置およびその制御方法ならびにプログラム
CN114581608B (zh) 基于云平台的三维模型智能构建***及方法
KR20220071935A (ko) 광학 흐름을 이용한 고해상도 깊이 영상 추정 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application