KR20170081544A - 체험 아이템 3d 복원 장치 및 방법 - Google Patents

체험 아이템 3d 복원 장치 및 방법 Download PDF

Info

Publication number
KR20170081544A
KR20170081544A KR1020160000702A KR20160000702A KR20170081544A KR 20170081544 A KR20170081544 A KR 20170081544A KR 1020160000702 A KR1020160000702 A KR 1020160000702A KR 20160000702 A KR20160000702 A KR 20160000702A KR 20170081544 A KR20170081544 A KR 20170081544A
Authority
KR
South Korea
Prior art keywords
data
restoration
experience
item
generating
Prior art date
Application number
KR1020160000702A
Other languages
English (en)
Inventor
김태준
김호원
손성열
김기남
박혜선
조규성
박창준
최진성
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020160000702A priority Critical patent/KR20170081544A/ko
Priority to US15/226,317 priority patent/US20170193677A1/en
Publication of KR20170081544A publication Critical patent/KR20170081544A/ko

Links

Images

Classifications

    • B29C67/0085
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • B29C67/0088
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y30/00Apparatus for additive manufacturing; Details thereof or accessories therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y50/00Data acquisition or data processing for additive manufacturing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/16Cloth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/021Flattening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Architecture (AREA)
  • Chemical & Material Sciences (AREA)
  • Manufacturing & Machinery (AREA)
  • Materials Engineering (AREA)
  • Processing Or Creating Images (AREA)

Abstract

체험 아이템 3D 복원 장치 및 방법이 개시된다. 본 발명에 따른 체험 아이템 3D 복원 장치는, 3D 복원 대상 객체의 3D 외형을 복원하여 3D 데이터를 생성하는 3D 데이터 생성부, 상기 3D 데이터를 2D 파라미터화하여 2D 데이터를 생성하는 2D 데이터 생성부, 상기 3D 복원 대상 객체에 상응하는 속성 정보를 상기 3D 데이터에 부여하는 속성 설정부, 사용자로부터 상기 2D 데이터의 편집을 입력받는 편집부, 그리고 편집된 상기 2D 데이터에 상응하는 상기 3D 데이터와 상기 속성 정보를 이용하여 상기 3D 복원 대상 객체에 상응하는 체험 아이템을 생성하는 체험 아이템 생성부를 포함한다.

Description

체험 아이템 3D 복원 장치 및 방법{APPARATUS AND METHOD FOR RESTORING EXPERIENCE ITEMS}
본 발명은 체험 아이템 3D 복원에 관한 것으로, 특히 영상정보를 이용하여 3D 복원 대상 객체의 3D 외형을 복원하고, 2D 저작환경에서 편집 및 속성 부여를 입력받아 3D 복원 대상 객체에 상응하는 체험 아이템을 생성하는 기술에 관한 것이다.
최근 깊이를 계측할 수 있는 센서의 발달 및 보급화로 다양한 형태의 사물이 복원되어 디지털화 되고 있으며, 가시화, 시뮬레이션 등 많은 분야에서 사용되고 있다. 특히 키넥트의 보급으로 깊이 정보를 저비용으로 획득할 수 있게 되어 사물 복원의 활용성은 더욱 커질 전망이다. 마이크로소프트의 KinectFusion은 방 한 칸 크기 정도의 공간을 비교적 쉽게 3차원으로 복원하는 방법을 제공한다. 그러나 수작업으로 공간을 스캔해야 하는 불편함과, 불필요한 부분까지 복원된 부분을 수작업으로 제거해야 하는 불편함은 여전히 존재한다.
한편으로, 의류의 가상화와 온라인 피팅 등 기술의 등장으로 사용자는 직접 입어보지 않고도 의류의 착용 모습을 쉽게 예측할 수 있는 체험 서비스가 늘어나고 있다. 그러나 이러한 서비스의 가장 큰 문제점은 의류와 같은 가상 아이템을 지속적으로 공급하기 어렵다는 점이다.
가상 아이템은 오토데스트 마야와 같은 컴퓨터그래픽스 저작툴을 이용하여 제작되거나, 실제 의상의 옷본을 이용하여 3차원 모델이 구성될 수 있으며, 다각도에서 촬영된 영상 정보를 이용하여 3차원 모델이 복원 될 수도 있다.
이때, 저작툴을 이용한 창작 방법이나 실제 의상의 옷본을 이용하는 방법은 고도로 훈련된 디자이너가 많은 시간을 들여야 하는 방법으로 제작 비용이 높고, 제작 과정을 자동화하기가 매우 어렵다는 문제가 있다.
그리고 영상정보를 이용하는 방법은 아이템의 자연스러운 외형 정보를 저비용으로 신속하게 추출할 수 있으나 아이템을 거치하고 있는 마네킹과 같은 거치대도 동시에 추출되기 때문에 거치대를 제거하기 위한 후작업을 필요로 한다. 거치대를 제거하는 방법으로는 3D 저작툴을 이용한 수작업과 영상 합성에서 사용되는 기술인 크로마키(chroma-key) 방법, 마네킹의 3D 기하 정보를 이용한 자동화된 제거 방법 등이 있으나, 3D 편집 환경에 훈련된 디자이너가 아닌 경우 아이템 편집시 매우 많은 시간을 필요로 하는 문제가 있다.
이러한 문제점을 해결하기 위하여 종래의 2D 파라미터화 기술을 사용해 사용자가 2D 편집 환경에서 3D 데이터를 편집하도록 함으로써 편의성을 높일 수 있다.
도 1은 종래의 메쉬 파라미터화를 이용하여 3D 데이터를 2D 공간에 표현하는 방법을 설명하기 위한 도면이다.
2D 파라미터화(parameterization)는 도 1과 같이 3D 데이터를 2D 공간에 표현하는 기술이다. 그러나 종래의 기술은 공간의 낭비를 줄이고 왜곡을 최소화 하는 방향으로 발전되어 왔기 때문에 2D 편집 환경을 이용한 3D 데이터 편집의 목적과는 차이가 있다.
도 1에 도시된 바와 같이, 최근에는 각 부분의 늘어남을 최소화하기 위하여 2D 파라미터화를 이용한다. 이때, 각 요소의 3D 공간에서 넓이와 2D 공간에서 넓이 차이를 최소화 하는 방법, 각 요소의 꼭지점이 이루는 각을 유지하는 방법 등 왜곡을 줄이는 기준은 다양하게 적용할 수 있다. 그러나 이러한 종래의 방법은 2D 공간에서의 표현과 사용자가 시각적으로 인지하는 형태간 차이가 있어, 사용자가 2D 공간 데이터를 이용하여 직관적으로 원하는 부분을 편집하기 어려운 문제가 있다.
그리고 크로마키 방법은 관심 대상이 아닌 물체 또는 영역을 특정한 색으로 만들고 영상 처리시 지정한 색을 인식하여 처리 대상에서 제외하는 방법이다. 이러한 크로마키 방법은 마네킹을 특성 색으로 제작해야 하고, 마네킹의 색상과 유사한 색을 복원 아이템의 색상으로서 사용할 수 없다는 문제가 존재하며, 마네킹의 색이 아이템의 색감에 영향을 끼칠 수도 있다.
다음으로 마네킹의 3D 기하 정보를 이용한 방법은 기하 정보의 정밀도가 기준 이하로 낮을 경우, 자동화 과정에서 아이템 정보도 함께 제거되거나 또는 마네킹의 일부가 제거되지 않고 남아 결국 다른 제거 방법을 사용해야 하는 문제가 있다. 또한 관절이 있는 마네킹과 같이 변형이 가능한 마네킹의 경우 아이템을 장착하는 과정에서 마네킹이 변형이 되어 3D 기하 정보를 상실하게 된다.
그리고 종래의 기술은 복원된 아이템의 사실적인 가상 피팅을 위해서 아이템이 사용자 움직임을 따라가도록 적절한 뼈구조에 스키닝하는 방법과 물리 시뮬레이션을 적용하여 사실감을 높이는 방법을 사용한다. 여기서, 스키닝은 아이템의 각 정점을 1개 이상의 특정 뼈에 대응시켜 뼈를 움직이면 아이템의 각 정점도 같이 움직여 결국 아이템이 애니메이션 되도록 하는 기술이다. 그리고 물리 시뮬레이션은 아이템이 운동 법칙에 따라 위치가 이동하거나 형태가 변형되어 현실에서의 아이템의 움직임이나 형태를 모사하는 방법이다.
스키닝 또는 시뮬레이션 기반 가상 피팅을 위해서는 아이템 3D 데이터의 각 부분마다 다양한 속성(스키닝 뼈 및 가중치, 물리 시뮬레이션 속성 등)을 부여해야 하는데 종래의 기술은 3D 저작툴에서 페인팅 방식으로 정점마다 속성을 부여하는 방식을 주로 사용하므로 불편함이 크고, 시간이 많이 소모된다.
따라서 3D 저작환경에 익숙하지 않은 사용자가 3D 아이템의 편집을 용이하게 수행하여 체험 아이템을 생성할 수 있는 기술의 필요성이 절실하게 대두된다.
한국 등록 특허 제10-1376880호, 2007년 03월 15일 공개(명칭: 3D 그래픽을 위한 2D 편집 메타포어)
본 발명의 목적은 영상 정보를 이용한 자동화된 3D 아이템 복원 기술을 이용하여 저비용으로 신속하게 3D 외형을 복원할 수 있도록 하는 것이다.
또한, 본 발명의 목적은 3D 저작환경에 익숙하지 않은 사용자가 2D 저작환경에서 3D 데이터를 용이하게 편집할 수 있도록 하는 것이다.
또한, 본 발명의 목적은 가상 체험을 위한 디지털 체험 아이템을 빠르고 간편하게 생성하여, 체험 아이템을 용이하게 공급할 수 있도록 하는 것이다.
상기한 목적을 달성하기 위한 본 발명에 따른 체험 아이템 3D 복원 장치는, 3D 복원 대상 객체의 3D 외형을 복원하여 3D 데이터를 생성하는 3D 데이터 생성부, 상기 3D 데이터를 2D 파라미터화하여 2D 데이터를 생성하는 2D 데이터 생성부, 상기 3D 복원 대상 객체에 상응하는 속성 정보를 상기 3D 데이터에 부여하는 속성 설정부, 사용자로부터 상기 2D 데이터의 편집을 입력받는 편집부, 그리고 편집된 상기 2D 데이터에 상응하는 상기 3D 데이터와 상기 속성 정보를 이용하여 상기 3D 복원 대상 객체에 상응하는 체험 아이템을 생성하는 체험 아이템 생성부를 포함한다.
이 때, 상기 2D 데이터 생성부는, 투사 기반 파라미터화를 수행하여 상기 2D 데이터를 생성할 수 있다.
이 때, 설정된 하나 이상의 투사 방향에 대응되는 하나 이상의 상기 2D 데이터를 생성할 수 있다.
이 때, 상기 2D 데이터 생성부는, 상기 3D 데이터를 2D 메쉬의 집합으로 파라미터화 할 수 있다.
이 때, 상기 속성 설정부는, 상기 3D 데이터의 위상과 상기 속성 정보가 기 정의된 기존 데이터의 위상을 분석하고, 상기 3D 데이터의 위상 및 상기 기존 데이터의 위상을 이용하여 3D 대응점을 탐색하며, 상기 3D 대응점이 탐색되면, 속성 데이터 전사를 수행하여 상기 기존 데이터의 상기 속성 정보를 상기 3D 데이터로 전사시킬 수 있다.
이 때, 상기 3D 데이터와 상기 기존 데이터 각 정점의 연결 정보를 계산하고, 상기 3D 데이터 및 상기 기존 데이터의 의미상 부분을 분석하여 상기 위상을 분석할 수 있다.
이 때, 상기 3D 데이터 생성부는, 상기 3D 복원 대상 객체의 영상 정보를 수신하고, 센서 파라미터를 이용하여 상기 영상 정보를 3차원 좌표로 변환하며, 상기 3차원 좌표를 이용하여 상기 3D 데이터를 생성할 수 있다.
이 때, 상기 3차원 좌표에 메쉬 복원 기술 또는 복셀 기반 복원 기술을 적용하여 상기 3D 데이터를 생성할 수 있다.
이 때, 상기 2D 데이터 생성부는, 상기 3D 데이터의 각 점이 상기 2D 데이터와 일대일 대응을 이루도록 상기 3D 데이터의 한 점을 상기 2D 데이터 중에서 가장 면적이 넓은 점에 대응시킬 수 있다.
이 때, 상기 편집부는, 복원된 상기 3D 데이터에 포함된 복원 비대상 객체에 대한 편집 또는 상기 체험 아이템의 가상 체험을 위하여 부가되는 속성에 대한 편집을 입력받을 수 있다.
또한, 본 발명의 일실시예에 따른 체험 아이템 3D 복원 장치에 의한 체험 아이템 3D 복원 방법은, 3D 복원 대상 객체의 3D 외형을 복원하여 3D 데이터를 생성하는 단계, 상기 3D 데이터를 2D 파라미터화하여 2D 데이터를 생성하는 단계, 상기 3D 복원 대상 객체에 상응하는 속성 정보를 상기 3D 데이터에 부여하는 단계, 사용자로부터 상기 2D 데이터의 편집을 입력받는 단계, 그리고 편집된 상기 2D 데이터에 상응하는 상기 3D 데이터와 상기 속성 정보를 이용하여 상기 3D 복원 대상 객체에 상응하는 체험 아이템을 생성하는 단계를 포함한다.
본 발명에 따르면, 영상 정보를 이용한 자동화된 3D 아이템 복원 기술을 이용하여 저비용으로 신속하게 3D 외형을 복원할 수 있다.
또한, 본 발명은 3D 저작환경에 익숙하지 않은 사용자가 2D 저작환경에서 3D 데이터를 용이하게 편집할 수 있도록 할 수 있다.
또한, 본 발명은 가상 체험을 위한 디지털 체험 아이템을 빠르고 간편하게 생성하여, 체험 아이템을 용이하게 공급할 수 있다.
도 1은 종래의 메쉬 파라미터화를 이용하여 3D 데이터를 2D 공간에 표현하는 방법을 설명하기 위한 도면이다.
도 2는 본 발명의 일실시예에 따른 체험 아이템 3D 복원 시스템을 나타낸 도면이다.
도 3은 본 발명의 실시예에 따른 체험 아이템 3D 복원 장치를 나타낸 도면이다.
도 4는 본 발명의 일실시예에 따른 체험 아이템 3D 복원 방법을 나타낸 동작 흐름도이다.
도 5는 본 발명의 실시예에 따른 2D 파라미터화를 수행한 예를 나타낸 예시도이다.
도 6은 본 발명의 일실시예에 따른 체험 아이템 3D 복원 과정을 나타낸 도면이다.
도 7은 본 발명의 실시예에 따른 기존 데이터와 3D 데이터의 대응 관계를 설명하기 위한 도면이다.
도 8은 본 발명의 실시예에 따른 2D 공간에서의 메쉬 편집 과정을 설명하기 위한 도면이다.
도 9는 본 발명의 실시예에 따른 다층구조 모델링 자동화 과정을 설명하기 위한 도면이다.
본 발명을 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.
이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 2는 본 발명의 일실시예에 따른 체험 아이템 3D 복원 시스템을 나타낸 도면이다
도 2에 도시한 바와 같이, 체험 아이템 3D 복원 시스템은 3D 복원 대상 객체(100), 하드웨어 제어 장치(200) 및 체험 아이템 3D 복원 장치(300)를 포함한다.
먼저, 3D 복원 대상 객체(100)는 가상 체험을 위하여 복원하고자 하는 아이템이다. 여기서, 3D 복원 대상 객체(100)는 점퍼, 재킷, 코트, 니트, 셔츠 또는 티셔츠 등을 포함하는 상의류, 치마 또는 바지 등을 포함하는 하의류, 원피스 또는 투피스 등을 포함하는 드레스류, 스키복 등 상하의 일체형 의류, 모자, 넥타이, 머플러, 가방 또는 신발 등을 포함하는 악세서리류 중에서 어느 하나일 수 있다.
3D 복원 대상 객체(100)는 마네킹과 같은 거치대에 거치될 수 있으며, 거치대는 높이가 조절되거나, 회전이 가능한 형태일 수 있다. 이 때, 마네킹은 상반신형, 하반신형, 전신형, 머리 전용형, 손 전용형 또는 발 전용형 일 수 있다. 그리고 마네킹은 일반적으로 사용하는 고정형 마네킹이거나 주요 신체 부위의 사이즈를 프로그램으로 조정 가능한 가변형 마네킹일 수 있다. 여기서, 거치대가 가변형 마네킹인 경우, 가변형 마네킹의 머리 둘레, 목 둘레, 가슴 둘레, 배 둘레, 팔 둘레, 손목 둘레, 허벅지 둘레, 종아리 둘레, 발 둘레 등은 조정 가능한 물리적 크기를 가진다.
다음으로 하드웨어 제어 장치(200)는 3D 복원 대상 객체(100)를 촬영하여 영상 정보를 수집하는 영상 센서를 제어한다. 하드웨어 제어 장치(200)는 영상 센서의 위치, 방향 등을 제어하거나, 3D 복원 대상 객체(100)를 거치한 거치대의 회전을 제어할 수 있으며, 촬영된 3D 복원 대상 객체(100)에 상응하는 영상 정보를 체험 아이템 3D 복원 장치(300)로 전송한다.
종래 기술에 따르면, 다수의 영상 센서를 통하여 영상 정보를 촬영하거나, 하나 이상의 영상 센서의 위치 및 방향을 제어하여 영상 정보를 촬영하였으며, 3D 복원 대상 객체(100)를 회전시켜 영상 정보를 촬영하였다.
여기서, 다수의 영상 센서를 이용하여 촬영한 영상 정보들을 이용하는 방법은 짧은 시간 내에 영상 정보를 획득할 수 있다는 장점이 있으나, 비용이 많이 들고, 공간을 크게 차지하며, 영상 센서의 차이에 의한 영상을 보정하는 문제가 있다.
그리고, 하나 이상의 영상 센서를 제어하여 촬영한 영상 정보들을 이용하는 방법은 센서의 개수가 적어 비용이 적게 들고, 연속적으로 움직일 수 있으므로 보다 많은 데이터를 획득할 수 있다. 그러나 이 방법은 물리적인 움직임으로 인하여 영상 정보를 획득하는데 많은 시간이 소요되고, 넓은 공간을 필요로 한다.
또한, 3D 복원 대상 객체(100)를 회전시켜 영상 정보를 획득하는 방법은 공간을 적게 차지하고, 비용이 적게 든다는 장점이 있다. 반면, 이 방법은 영상 센서가 포괄하는 범위가 제한적이고, 방향성을 가지는 조명 환경에서는 3D 복원 대상 객체(100)의 회전에 따른 조명의 영향 정도가 달라지므로 후보정을 필요로 한다.
따라서, 본 발명의 실시예에 따른 하드웨어 제어 장치(200)는 종래 기술들의 장점을 수용하기 위하여 도 2와 같이 3D 복원 대상 객체(100)를 회전시키면서, 하나 이상의 영상 센서를 상하로 이동하도록 제어하여 영상 정보를 촬영한다. 또한, 하드웨어 제어 장치(200)는 하나 이상의 영상 센서를 기울이도록 제어하여 포괄 범위를 더욱 확대시킬 수 있다.
마지막으로, 체험 아이템 3D 복원 장치(300)는 영상 정보를 이용하여 3D 복원 대상 객체(100)에 상응하는 체험 아이템을 생성한다.
체험 아이템 3D 복원 장치(300)는 3D 복원 대상 객체(100)의 3D 외형을 복원하고, 2D 저작환경에 익숙한 사용자를 위하여 복원된 3D 데이터를 2D 메쉬의 집합으로 파라미터화한다. 또한, 체험 아이템 3D 복원 장치(300)는 가상 체험에 필요한 속성을 복원된 3D 데이터에 전사한다.
그리고 체험 아이템 3D 복원 장치(300)는 2D 저작환경 상에서 사용자로부터 편집을 입력받으며, 입력받은 편집을 반영하여 3D 복원 대상 객체(100)에 상응하는 체험 아이템을 생성한다.
설명의 편의상, 하드웨어 제어 장치(200)와 체험 아이템 3D 복원 장치(300)를 구분하여 설명하였으나 이에 한정하지 않고, 체험 아이템 3D 복원 장치(300)가 하드웨어 제어 장치(200)의 역할까지 수행할 수도 있다.
도 3은 본 발명의 실시예에 따른 체험 아이템 3D 복원 장치를 나타낸 도면이다.
도 3에 도시된 바와 같이, 체험 아이템 3D 복원 장치(300)는 3D 데이터 생성부(310), 2D 데이터 생성부(320), 속성 설정부(330), 편집부(340) 및 체험 아이템 생성부(350)를 포함한다.
먼저, 3D 데이터 생성부(310)는 3D 복원 대상 객체(100)의 3D 외형을 복원하여 3D 데이터를 생성한다.
3D 데이터 생성부(310)는 3D 복원 대상 객체(100)의 영상 정보를 수신하고, 센서 파라미터를 이용하여 영상 정보를 3차원 좌표로 변환하며, 3차원 좌표에 메쉬 복원 기술 또는 복셀 기반 복원 기술을 적용하여 3D 데이터를 생성한다.
다음으로 2D 데이터 생성부(320)는 생성된 3D 데이터를 2D 파라미터화하여 2D 데이터를 생성한다. 여기서, 2D 파라미터화(Parameterization)란 도 1과 같이 3D 데이터를 2D 공간에 표현하는 기술을 의미한다.
2D 데이터 생성부(320)는 투사 기반 파라미터화를 수행하여 2D 데이터를 생성할 수 있으며, 이때 설정된 하나 이상의 투사 방향에 대응되는 하나 이상의 2D 데이터를 생성할 수 있다. 또한 2D 데이터 생성부(320)는 3D 데이터를 2D 메쉬의 집합으로 파라미터화 할 수 있다.
그리고 2D 데이터 생성부(320)는 3D 데이터의 한 점이 2D 공간에서 여러 점으로 대응되지 않도록 하기 위하여 3D 데이터의 각 점이 2D 데이터와 일대일 대응을 이루도록 3D 데이터의 한 점을 2D 데이터 중에서 가장 면적이 넓은 점에 대응시킬 수 있다.
다음으로 속성 설정부(330)는 3D 복원 대상 객체(100)에 상응하는 속성 정보를 3D 데이터에 부여한다.
또한, 속성 설정부(330)는 3D 데이터의 위상과 속성 정보가 기 정의된 기존 데이터의 위상을 분석하고, 3D 데이터의 위상 및 기존 데이터의 위상을 이용하여 3D 대응점을 탐색한다. 그리고 속성 설정부(330)는 3D 대응점이 탐색되면, 속성 데이터 전사를 수행하여 기존 데이터의 속성 정보를 3D 데이터로 전사시킨다.
이때, 속성 설정부(330)는 3D 데이터와 기존 데이터 각 정점의 연결 정보를 계산하고, 3D 데이터 및 기존 데이터의 의미상 부분을 분석하여 위상을 분석할 수 있다.
그리고 편집부(340)는 사용자로부터 2D 데이터의 편집을 입력받는다. 여기서 2D 데이터의 편집은 복원된 상기 3D 데이터에 포함된 복원 비대상 객체에 대한 편집 또는 상기 체험 아이템의 가상 체험을 위하여 부가되는 속성에 대한 편집을 의미한다.
마지막으로, 체험 아이템 생성부(350)는 편집된 2D 데이터에 상응하는 3D 데이터와 속성 정보를 이용하여 3D 복원 대상 객체(100)에 상응하는 체험 아이템을 생성한다.
이하에서는 도 4 내지 도 8을 통하여 본 발명의 일실시예에 따른 체험 아이템 3D 복원 방법에 대하여 더욱 상세하게 설명한다.
도 4는 본 발명의 일실시예에 따른 체험 아이템 3D 복원 방법을 나타낸 동작 흐름도이다.
먼저, 체험 아이템 3D 복원 장치(300)는 3D 복원 대상 객체(100)의 3D 외형을 복원하여 3D 데이터를 생성한다(S410).
이때, 체험 아이템 3D 복원 장치(300)는 센서 파라미터를 이용하여 3D 복원 대상 객체(100)의 영상 정보를 3차원 좌표로 변환한다. 그리고 체험 아이템 3D 복원 장치(300)는 생성된 3차원 좌표를 이용하여 3D 기하인 3D 데이터를 생성한다.
체험 아이템 3D 복원 장치(300)가 3D 데이터를 생성하는 과정을 더욱 자세하게 설명하면, 체험 아이템 3D 복원 장치(300)는 3D 복원 대상 객체(100)의 하나 이상의 영상 정보를 영상 센서 또는 외부의 하드웨어 제어 장치로부터 수신한다. 그리고 센서 파라미터를 이용하여 수신된 영상 정보를 보정하여 3차원 좌표로 변환한다.
영상 정보를 이용하여 3D 외형을 복원할 때, 체험 아이템 3D 복원 장치(300)는 하나 이상에서 촬영된 색상 영상 정보를 이용하거나, 깊이 영상 정보를 추가하여 정밀도를 높일 수 있다. 깊이 영상 정보를 획득하기 위한 대부분의 액티브 방식 스캐너는 패턴이나 레이저를 물체 표면에 조사하고, 물체에 비친 패턴이나 레이저를 카메라를 이용하여 촬영함으로써 삼각측량 방식으로 3D 복원 대상 객체(100)의 3D 위치를 획득할 수 있다. 또한, 체험 아이템 3D 복원 장치(300)는 정밀한 복원을 위하여 도 2에 도시된 바와 같이 다양한 각도에 상응하는 색상 및 깊이 영상 정보를 이용하여 3D 외형 복원을 수행할 수 있다.
그리고 체험 아이템 3D 복원 장치(300)는 센서 파라미터를 이용하여 획득한 색상 영상 정보 및 깊이 정보를 3차원 좌표로 변환한다. 여기서, 센서 파라미터는 영상 센서의 위치, 방향 등의 외부 파라미터와 영상 센서의 렌즈 정보 등의 내부 파라미터를 포함할 수 있다.
체험 아이템 3D 복원 장치(300)는 변환된 3차원 좌표를 이용하여 3D 데이터를 생성할 때, 일반적인 메쉬 복원(Mesh Reconstruction) 기술 등을 적용하거나, 복원 속도를 높이고, 동시에 3차원 좌표를 추가할 수 있는 복셀(Voxel) 기반 복원 방법을 적용할 수 있다. 여기서, 복셀(Voxel) 기반 복원 방법은 마칭 큐브(Marching Cube) 방식과 거리 영역(Distance field)을 이용하는 방식 등이 있다.
특히, 복셀 기반 복원 방법은 3D 복원 대상 객체(100)를 포함하는 3차원 공간을 정의하고, 정의된 공간을 특정 크기(복셀)로 균등 분할하여 3차원 공간을 표현한다. 그리고 획득된 각 3차원 좌표를 기준으로 일정 영역 내에 존재하는 복셀들에 대해 3차원 좌표가 획득된 영상 센서의 3차원 위치에서의 상대적인 거리 값을 복셀에 누적하여 증분한다.
또한, 체험 아이템 3D 복원 장치(300)는 거리 영역(Distance field)을 생성하기 위하여, 영상 센서 원점을 기준으로 획득된 3차원 좌표보다 복셀의 거리가 가까울 경우 양수 값을, 3차원 좌표보다 복셀의 거리가 멀 경우 음수 값을 누적한다. 그리고 수집된 복셀의 정보를 마칭 큐브 방식 등을 이용하여 하나의 통합된 3D 기하 정보인 3D 데이터를 생성한다.
그리고 체험 아이템 3D 복원 장치(300)는 생성된 3D 데이터를 2D 파라미터화하여 2D 데이터를 생성한다(S420). 여기서, 2D 파라미터화(Parameterization)란 도 1과 같이 3D 데이터를 2D 공간에 표현하는 기술을 의미한다.
체험 아이템 3D 복원 장치(300)는 사용자가 용이하게 3D 데이터를 편집할 수 있도록 하기 위하여 3D 데이터를 2D 파라미터화하여 2D 데이터를 생성하고, 생성된 2D 데이터 상에서 사용자 편집을 입력받는다. 또한, 체험 아이템 3D 복원 장치(300)는 3D 데이터와 2D 데이터간 상호 변환이 가능하도록 사용자에 의해 편집된 2D 데이터를 다시 3D 데이터로 변환할 수 있다.
체험 아이템 3D 복원 장치(300)는 사용자가 인지적으로 편집하기 용이하다고 판단하는 어떠한 형태로든 파라미터화를 수행할 수 있으며, 특히 투사 기반 파라미터화를 수행하여 2D 데이터를 생성할 수 있다. 또한, 체험 아이템 3D 복원 장치(300)는 설정된 하나 이상의 투사 방향에 대응되는 하나 이상의 2D 데이터를 생성할 수 있다.
투사 기반 파라미터화를 수행하기 위하여 2D 데이터 생성부(320)는 3D 데이터를 포함하는 하나 이상의 투사 방향을 분석한다. 이때, 3D 데이터가 투사 방향에 포함되지 못하는 경우가 발생하면, 사용자로부터 임의의 투사 방향을 설정 받을 수도 있다.
도 5는 본 발명의 실시예에 따른 2D 파라미터화를 수행한 예를 나타낸 예시도이다.
도 5에 도시된 바와 같이, 체험 아이템 3D 복원 장치(300)는 3D 복원 대상 객체(100)의 전, 후, 좌, 우, 상, 하 방향에서 3D 복원 대상 객체(100)을 바라본 형태로 파라미터화 할 수 있다. 2D 파라미터화 통하여 3D 복원 대상 객체(100)는 사용자가 3D 공간에서 3D 데이터를 편집하는 것보다 용이하게 3D 복원 대상 객체(100)를 편집할 수 있도록 한다.
이때, 2D 데이터와 3D 데이터의 상호 변환을 위해서는 공간 상의 각 점이 일대일 대응을 이루어야 하므로, 3D 공간에서의 한 점이 2D 공간에서의 여러 점으로 대응되지 않도록 해야 한다. 따라서 체험 아이템 3D 복원 장치(300)는 3D 공간에서의 한 점을 그 점과 대응되는 2D 공간 중에서 가장 면적이 넓은 공간으로 대응시킬 수 있다. 또한, 체험 아이템 3D 복원 장치(300)는 사용자의 편의를 위하여 3D 데이터의 한 점과 2D 데이터의 한 점이 1 대 1 대응 또는 1 대 N 대응되는 결과를 모두 가시화하여 사용자에게 제공할 수 있다.
3D 복원 대상 객체(100)의 형태에 따라 2D 파라미터화 할 경우 2D 공간 중에서 어느 점에도 대응이 되지 않는 부분이 발생할 수 있다. 이 경우에는 종래의 다양한 파라미터화 방법을 사용하여 2D 데이터를 생성할 수 있다.
다음으로, 체험 아이템 3D 복원 장치(300)는 속성 정보를 3D 데이터에 부여한다(S430).
도 6은 본 발명의 일실시예에 따른 체험 아이템 3D 복원 과정을 나타낸 도면이다.
도 6에 도시된 바와 같이, 체험 아이템 3D 복원 장치(300)는 3D 외형을 복원하여 3D 데이터를 생성하는 S410 단계를 수행하고 난 후, 2D 파라미터화를 수행하여 2D 데이터를 생성하는 S420 단계와 자동으로 속성을 부여하는 S430 단계를 독립적으로 수행할 수 있다. 그리고 설명의 편의상, S430 단계보다 S420 단계를 먼저 수행하는 것으로 설명하였으나, 단계의 수행 순서가 이에 한정되지는 않는다.
S430 단계에서, 체험 아이템 3D 복원 장치(300)는 3D 데이터를 분석하여 각 속성을 시스템이 자동으로 계산하고, 속성 정보를 3D 데이터에 부여할 수 있다.
도 7은 본 발명의 실시예에 따른 기존 데이터와 3D 데이터의 대응 관계를 설명하기 위한 도면이다.
도 7에 도시된 바와 같이, 속성을 자동으로 부여하기 위하여 체험 아이템 3D 복원 장치(300)는 기존 데이터의 위상(710)과 3D 복원 대상 객체(100)에 상응하는 3D 데이터의 위상(720)을 분석한다. 체험 아이템 3D 복원 장치(300)는 기존 데이터 및 3D 데이터의 위상을 분석하고, 분석된 3D 데이터 및 기존 데이터의 위상을 이용하여 3D 대응점 및 대응점간 대응관계(730)를 탐색한다.
이때, 3D 데이터의 위상(720)과 기존 데이터(710)의 위상은 서로 같거나 다를 수 있다. 도 7과 같이, 3D 복원 대상 객체(100)가 의상인 경우, 체험 아이템 3D 복원 장치(300)는 동일한 형태의 크기만 다른 의상을 이용하여 속성을 계산하거나, 위상이 다른 바지를 기준으로 치마의 속성을 계산할 수 있다. 또한, 체험 아이템 3D 복원 장치(300)는 잘 정의된 인체 아바타를 기준으로 3D 복원 대상 객체(100)의 속성을 계산할 수도 있다.
그리고 체험 아이템 3D 복원 장치(300)는 대응점이 탐색되면, 속성 데이터 전사를 통하여 기존 데이터의 속성을 3D 데이터에 전사시킨다. 속성 데이터 전사는 값을 복사하거나, 대응점의 거리, 법선 등을 이용하여 변환할 수 있으며, 체험 아이템 3D 복원 장치(300)는 다수의 대응점에 상응하는 속성값을 이용하여 속성 데이터 전사를 수행할 수 있다.
여기서, 속성 계산은 속성의 종류에 따라 달라질 수 있으며, 속성이 물리 시뮬레이션을 위한 탄성인 경우, 정점과 정점 사이의 거리를 이용하여 탄성의 속성을 계산할 수 있다. 그리고 계산된 속성은 사용자의 편집 과정 없이 직접 부여되거나, 사용자가 속성을 부여하기 위한 초기값으로 사용될 수 있다.
또한, 체험 아이템 3D 복원 장치(300)는 사용자로부터 2D 데이터의 편집을 입력받는다(S440).
영상 정보를 이용하여 3D 복원 대상 객체(100)의 3D 외형의 복원할 경우, 3D 복원 대상 객체(100)가 아닌 부분도 복원될 수 있다. 예를 들어, 3D 복원 대상 객체(100)가 의상인 경우, 의상을 거치하기 위한 마네킹이 3D 외형 복원 시 함께 복원될 수 있다.
또한, 가상 체험을 위해서는 3D 복원 대상 객체(100)에 상응하는 체험 아이템에 기하 정보 외에 부가적인 속성을 부여할 필요가 있다. 예컨대 의상 가상 피팅 시스템인 경우, 자연스러운 의상의 피팅을 위해서는 체험 아이템인 의상이 체험자의 동작에 대응되도록 움직이게 할 수 있다. 이 경우, 의상을 인체의 뼈 구조에 스키닝(Skinning)한 다음, 체험자의 모션에 따라서 뼈와 스키닝 가중치를 부여해야 한다.
예를 들어, 뼈 기반 애니메이션을 수행하고자 하는 경우, 체험 아이템 3D 복원 장치(300)는 3D 복원 대상 객체(100)의 각 정점마다 영향을 주는 하나 이상의 뼈를 정의하고, 영향을 받는 가중치를 설정한다.
종래에는 사용자가 3D 저작 환경에서 각 정점마다 수작업으로 수행하여 많은 시간이 소요되었고, 각 정점과 뼈 사이의 관계만을 이용하여 자동으로 가중치를 설정하여 품질이 떨어지는 문제점이 있었다.
그러나, 체험 아이템 3D 복원 장치(300)는 뼈를 정의하고 가중치를 설정하는 과정을 자동화한다. 체험 아이템 3D 복원 장치(300)는 복원된 3D 데이터와 기존에 속성이 기 부여된 아이템 또는 인체 아바타와 같은 데이터를 이용하여, 기존 데이터와 복원된 3D 데이터의 부분별 대응점을 찾는다. 이때, 대응점은 하나 이상이거나 없을 수 있다.
대응점이 하나 이상인 경우, 기존 데이터에서 영향을 주는 뼈와 가중치 등을 포함하는 대응점의 스키닝 정보를 이용하여 3D 데이터의 스키닝 정보를 계산할 수 있다. 반면, 대응점이 없을 경우, 대응점이 있는 주위 부분을 이용하여 스키닝 정보를 계산할 수 있다.
또한, 체험 아이템 3D 복원 장치(300)는 가상체험의 사실감을 높이기 위하여 체험 아이템에 물리 시뮬레이션을 적용할 수도 있으며, 이 경우에도 각 정점마다 무게, 탄성, 최대 이동 거리 등과 같은 물리 속성을 부여할 수 있다.
이와 같이, 비복원 대상인 부분을 편집하거나, 체험 아이템에 부가적인 속성을 부여하거나, 또는 체험 아이템에 물리 시뮬레이션을 적용함으로써 복원된 3D 데이터를 체험 가능한 체험 아이템으로 변환하기 위하여 S440 단계를 통하여 체험 아이템 3D 복원 장치(300)는 S440 단계를 통하여 사용자로부터 2D 데이터의 편집을 입력받는다.
이때, 체험 아이템 3D 복원 장치(300)는 3D 저작 및 편집 환경에 익숙하지 않은 사용자들도 용이하게 3D 데이터를 편집할 수 있도록, 2D 파라미터화의 결과로 생성된 2D 데이터를 2D 공간상에서 제공한다. 또한, 체험 아이템 3D 복원 장치(300)는 속성을 자동으로 부여하는 과정의 품질을 높이기 위하여, 가이드라인 형태를 제공할 수 있으며, 다양한 상황의 편집을 위하여, 자세한 3D 기하 정보 편집 방법, 속성 부여, 가이드라인 제시 등을 제공할 수 있다.
이때, 2D 데이터의 편집을 입력받는 S440 단계는, 도 6과 같이 사용자로부터 편집을 입력받는 과정과 속성을 자동으로 부여하는 과정을 반복함으로써 가상 아이템 체험에 적합한 형태의 디지털 체험 아이템을 생성할 수 있다.
예를 들어, 체험 아이템 3D 복원 장치(300)는 2D 공간 상에서 사용자로부터 메쉬를 선택받거나, 선택받은 메쉬의 삭제 명령을 입력받은 경우, 2D 공간을 3D 공간으로 역변환하여, 선택 또는 삭제된 메쉬에 상응하는 3D 데이터를 편집한다.
도 8은 본 발명의 실시예에 따른 2D 공간에서의 메쉬 편집 과정을 설명하기 위한 도면이다.
도 8에 도시한 바와 같이, 사용자가 2D 공간 상에서 곡선을 지정한 경우, 체험 아이템 3D 복원 장치(300)는 메쉬를 공간을 기준으로 분할한다. 이때, 체험 아이템 3D 복원 장치(300)는 도 8과 같이 기존의 정점을 곡선 위로 이동하도록 편집하거나, 정점의 위치를 이동하지 않고, 삼각형을 곡선을 기준으로 자를 수도 있다. 그리고 이와 같이 불필요한 부분이 삭제된 3D 데이터는 후술할 S450 단계에서 체험 아이템의 외형을 가시화하는데 사용될 수 있다.
마지막으로, 체험 아이템 3D 복원 장치(300)는 체험 아이템을 생성한다(S450).
체험 아이템 3D 복원 장치(300)는 3D 기하 정보를 분석하고, 3D 데이터 분석에 의한 속성 또는 사용자로부터 입력받은 물리 속성을 반영한다. 예를 들어, 스프링 기반 시뮬레이션을 적용하는 경우, 각 정점 사이의 거리를 이용하여 스프링의 평형 상태의 길이, 탄성 등을 설정할 수 있다. 또한 중력 방향에 가까운 스프링의 경우, 중력의 영향을 고려하기 위하여 다른 스프링과 다르게 처리할 수도 있다. 그리고 물리 속성을 반영하는 과정에서는 3D 복원 대상 객체(100)의 3D 기하 분석에 의한 속성인 평형 상태, 길이 탄성 등의 정보뿐만 아니라, 최대 이동 거리, 질량 등과 같이 사용자로부터 입력받은 물리 속성도 반영할 수 있다.
또한 체험 아이템 3D 복원 장치(300)는 3D 기하 정보와 물리 속성을 기반으로 물리적인 제약(Constraint)을 설정하여 물리 시뮬레이션 시 자연스러운 형태를 형성할 수 있도록 한다. 이때, 체험 아이템 3D 복원 장치(300)는 각 정점 사이의 최소 또는 최대 거리에 제약을 두어 복원된 형태를 유지하도록 하거나, 관통(Penetration) 제약을 두어 다른 사물과의 접촉이 있을 경우 관통되지 못하도록 제약을 둘 수도 있다. 그리고 체험 아이템 3D 복원 장치(300)는 3D 데이터, 물리 속성 및 물리 제약을 포함하는 체험 아이템을 생성한다.
도 9는 본 발명의 실시예에 따른 다층구조 모델링 자동화 과정을 설명하기 위한 도면이다.
체험 아이템 3D 복원 장치(300)는 물리 시뮬레이션을 고려하는 체험 서비스에서 사실감을 높이기 위하여 다층 구조 모델링을 수행할 수 있다. 도 9와 같은 체험 아이템을 생성하고자 하는 경우, 영상 정보를 이용하여 복원된 3D 데이터는 경우에 따라 치마와 고름의 층이 나누어지지 않고 일체형으로 복원될 수 있다.
이러한 경우, 체험 아이템 3D 복원 장치(300)는 사용자로부터 편집을 입력받는 단계에서, 다층 구조로 모델링 하고자 하는 부분을 입력받을 수 있다. 그리고 체험 아이템 3D 복원 장치(300)는 속성을 자동으로 부여하는 단계에서 입력받은 다층 구조 모델링 부분에 따라 3D 메쉬를 자르고, 잘려나간 부분(치마 부분)은 구멍 메움 방법(hole filling)을 이용하여 메운다. 또한, 잘려진 부분(고름 부분)은 두 면을 가진 메쉬(two sided mesh)로 만들 수 있다.
그리고 체험 아이템 3D 복원 장치(300)는 사용하는 마네킹의 종류에 무관하도록 체험 아이템을 복원할 수 있다. 인체 아바타를 사용하는 종래의 기술은 가상의 아바타와 마네킹의 3D 기하 정보가 일치해야 하므로, 컴퓨터 수치 제어(Computerized Numerical Control) 공작 기계, 3D 프린터 등을 이용하여 가상의 아바타의 외형을 따르도록 마네킹을 제작하였다. 또는 마네킹을 3D 디지털로 복원하고, 아바타에 필요한 스키닝 정보 등의 속성을 수작업으로 부여하였다.
가상의 아바타의 외형을 따르도록 마네킹을 제작하는 종래의 기술은 마네킹을 따로 제작하는 비용이 발생하고, 마네킹의 형태 및 종류에 제약이 있으며, 마네킹을 3D 디지털로 복원하는 기술은 가상의 아바타를 수작업으로 생성하므로 시간 및 비용이 많이 들며, 관절을 가지고 있는 대부분의 마네킹들은 아이템 착장시 마네킹의 관절에 의하여 발생한 변형을 반영할 수 없었다.
그러나, 체험 아이템 3D 복원 장치(300)는 마네킹만 복원한 후, 기존의 가상 아바타를 이용하여 복원된 마네킹을 가상 아바타로 생성한다. 그리고 생성된 가상 아바타는 가상 아바타에 상응하는 마네킹에 착장되어 복원된 임의의 아이템에 대하여 사용된다. 체험 아이템 3D 복원 장치(300)는 2D 데이터로 변환된 아이템에 동일한 마네킹으로 생성된 가상 아바타를 오버레이(overlay)시킨다.
이때, 3D 외형을 복원하여 3D 데이터를 생성하는 과정에서 마네킹의 변형이 발생한 경우, 체험 아이템 3D 복원 장치(300)는 사용자로부터 가상 아바타와 아이템을 복원하는 과정에서 같이 복원된 마네킹의 대응점을 입력받는다. 같이 복원된 마네킹과의 대응점이 없을 경우, 아이템의 형태로 유추된 대응점을 입력받을 수 있다.
그리고 체험 아이템 3D 복원 장치(300)는 입력받은 대응점을 기반으로 역운동학(inverse kinematics)을 이용하여 관절에 의한 마네킹의 변형 정보를 계산한다. 여기서, 역운동학은 운동학(kinematics)의 반대 개념으로, 운동학이 관절의 길이, 방향 등의 관절 정보에 의한 정점의 최종 위치를 계산하는 것이라면, 역운동학은 정점의 최종 위치를 결정하는 관절 정보를 계산하는 과정을 의미한다. 또한, 체험 아이템 3D 복원 장치(300)는 계산된 변형 정보를 이용하여 가상 아바타를 변형하고, 임시의 아이템 맞춤 아바타를 생성한다. 이때 생성된 아이템 맞춤 아바타는 이후의 과정에서 기준 아바타로 사용될 수 있다.
이상에서와 같이 본 발명에 따른 체험 아이템 3D 복원 장치 및 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
100: 3D 복원 대상 객체
200: 하드웨어 제어 장치
300: 체험 아이템 3D 복원 장치
310: 3D 데이터 생성부
320: 2D 데이터 생성부
330: 속성 설정부
340: 편집부
350: 체험 아이템 생성부
710: 기존 데이터
720: 3D 데이터
730: 3D 대응 관계

Claims (20)

  1. 3D 복원 대상 객체의 3D 외형을 복원하여 3D 데이터를 생성하는 3D 데이터 생성부,
    상기 3D 데이터를 2D 파라미터화하여 2D 데이터를 생성하는 2D 데이터 생성부,
    상기 3D 복원 대상 객체에 상응하는 속성 정보를 상기 3D 데이터에 부여하는 속성 설정부,
    사용자로부터 상기 2D 데이터의 편집을 입력받는 편집부, 그리고
    편집된 상기 2D 데이터에 상응하는 상기 3D 데이터와 상기 속성 정보를 이용하여 상기 3D 복원 대상 객체에 상응하는 체험 아이템을 생성하는 체험 아이템 생성부
    를 포함하는 체험 아이템 3D 복원 장치.
  2. 제1항에 있어서,
    상기 2D 데이터 생성부는,
    투사 기반 파라미터화를 수행하여 상기 2D 데이터를 생성하는 것을 특징으로 하는 체험 아이템 3D 복원 장치.
  3. 제2항에 있어서,
    설정된 하나 이상의 투사 방향에 대응되는 하나 이상의 상기 2D 데이터를 생성하는 체험 아이템 3D 복원 장치.
  4. 제1항에 있어서,
    상기 2D 데이터 생성부는,
    상기 3D 데이터를 2D 메쉬의 집합으로 파라미터화하는 것을 특징으로 하는 체험 아이템 3D 복원 장치.
  5. 제1항에 있어서,
    상기 속성 설정부는,
    상기 3D 데이터의 위상과 상기 속성 정보가 기 정의된 기존 데이터의 위상을 분석하고, 상기 3D 데이터의 위상 및 상기 기존 데이터의 위상을 이용하여 3D 대응점을 탐색하며, 상기 3D 대응점이 탐색되면, 속성 데이터 전사를 수행하여 상기 기존 데이터의 상기 속성 정보를 상기 3D 데이터로 전사시키는 체험 아이템 3D 복원 장치.
  6. 제5항에 있어서,
    상기 3D 데이터와 상기 기존 데이터 각 정점의 연결 정보를 계산하고, 상기 3D 데이터 및 상기 기존 데이터의 의미상 부분을 분석하여 상기 위상을 분석하는 체험 아이템 3D 복원 장치.
  7. 제1항에 있어서,
    상기 3D 데이터 생성부는,
    상기 3D 복원 대상 객체의 영상 정보를 수신하고, 센서 파라미터를 이용하여 상기 영상 정보를 3차원 좌표로 변환하며, 상기 3차원 좌표를 이용하여 상기 3D 데이터를 생성하는 체험 아이템 3D 복원 장치.
  8. 제7항에 있어서,
    상기 3차원 좌표에 메쉬 복원 기술 또는 복셀 기반 복원 기술을 적용하여 상기 3D 데이터를 생성하는 것을 특징으로 하는 체험 아이템 3D 복원 장치.
  9. 제1항에 있어서,
    상기 2D 데이터 생성부는,
    상기 3D 데이터의 각 점이 상기 2D 데이터와 일대일 대응을 이루도록 상기 3D 데이터의 한 점을 상기 2D 데이터 중에서 가장 면적이 넓은 점에 대응시키는 것을 특징으로 하는 체험 아이템 3D 복원 장치.
  10. 제1항에 있어서,
    상기 편집부는,
    복원된 상기 3D 데이터에 포함된 복원 비대상 객체에 대한 편집 또는 상기 체험 아이템의 가상 체험을 위하여 부가되는 속성에 대한 편집을 입력받는 체험 아이템 3D 복원 장치.
  11. 체험 아이템 3D 복원 장치에 의한 체험 아이템 3D 복원 방법에 있어서,
    3D 복원 대상 객체의 3D 외형을 복원하여 3D 데이터를 생성하는 단계,
    상기 3D 데이터를 2D 파라미터화하여 2D 데이터를 생성하는 단계,
    상기 3D 복원 대상 객체에 상응하는 속성 정보를 상기 3D 데이터에 부여하는 단계,
    사용자로부터 상기 2D 데이터의 편집을 입력받는 단계, 그리고
    편집된 상기 2D 데이터에 상응하는 상기 3D 데이터와 상기 속성 정보를 이용하여 상기 3D 복원 대상 객체에 상응하는 체험 아이템을 생성하는 단계
    를 포함하는 체험 아이템 3D 복원 방법.
  12. 제11항에 있어서,
    상기 3D 데이터를 2D 파라미터화하여 2D 데이터를 생성하는 단계는,
    투사 기반 파라미터화를 수행하여 상기 2D 데이터를 생성하는 것을 특징으로 하는 체험 아이템 3D 복원 방법.
  13. 제12항에 있어서,
    설정된 하나 이상의 투사 방향에 대응되는 하나 이상의 상기 2D 데이터를 생성하는 체험 아이템 3D 복원 방법.
  14. 제11항에 있어서,
    상기 3D 데이터를 2D 파라미터화하여 2D 데이터를 생성하는 단계는,
    상기 3D 데이터를 2D 메쉬의 집합으로 파라미터화하는 것을 특징으로 하는 체험 아이템 3D 복원 방법.
  15. 제11항에 있어서,
    상기 3D 복원 대상 객체에 상응하는 속성 정보를 상기 3D 데이터에 부여하는 단계는,
    상기 3D 데이터의 위상과 상기 속성 정보가 기 정의된 기존 데이터의 위상을 분석하는 단계,
    상기 3D 데이터의 위상 및 상기 기존 데이터의 위상을 이용하여 3D 대응점을 탐색하는 단계, 그리고
    상기 3D 대응점이 탐색되면, 속성 데이터 전사를 수행하여 상기 기존 데이터의 상기 속성 정보를 상기 3D 데이터로 전사시키는 단계를 포함하는 체험 아이템 3D 복원 방법.
  16. 제15항에 있어서,
    상기 3D 데이터의 위상과 상기 속성 정보가 기 정의된 기존 데이터의 위상을 분석하는 단계는,
    상기 3D 데이터와 상기 기존 데이터 각 정점의 연결 정보를 계산하고, 상기 3D 데이터 및 상기 기존 데이터의 의미상 부분을 분석하여 상기 위상을 분석하는 체험 아이템 3D 복원 방법.
  17. 제11항에 있어서,
    상기 3D 복원 대상 객체의 3D 외형을 복원하여 3D 데이터를 생성하는 단계는,
    상기 3D 복원 대상 객체의 영상 정보를 수신하는 단계,
    센서 파라미터를 이용하여 상기 영상 정보를 3차원 좌표로 변환하는 단계, 그리고
    상기 3차원 좌표를 이용하여 상기 3D 데이터를 생성하는 단계를 포함하는 체험 아이템 3D 복원 방법.
  18. 제17항에 있어서,
    상기 3차원 좌표를 이용하여 상기 3D 데이터를 생성하는 단계는,
    상기 3차원 좌표에 메쉬 복원 기술 또는 복셀 기반 복원 기술을 적용하여 상기 3D 데이터를 생성하는 것을 특징으로 하는 체험 아이템 3D 복원 방법.
  19. 제11항에 있어서,
    상기 3D 데이터를 2D 파라미터화하여 2D 데이터를 생성하는 단계는,
    상기 3D 데이터의 각 점이 상기 2D 데이터와 일대일 대응을 이루도록 상기 3D 데이터의 한 점을 상기 2D 데이터 중에서 가장 면적이 넓은 점에 대응시키는 것을 특징으로 하는 체험 아이템 3D 복원 방법.
  20. 제11항에 있어서,
    상기 사용자로부터 상기 2D 데이터의 편집을 입력받는 단계는,
    복원된 상기 3D 데이터에 포함된 복원 비대상 객체에 대한 편집 또는 상기 체험 아이템의 가상 체험을 위하여 부가되는 속성에 대한 편집을 입력받는 체험 아이템 3D 복원 방법.
KR1020160000702A 2016-01-04 2016-01-04 체험 아이템 3d 복원 장치 및 방법 KR20170081544A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160000702A KR20170081544A (ko) 2016-01-04 2016-01-04 체험 아이템 3d 복원 장치 및 방법
US15/226,317 US20170193677A1 (en) 2016-01-04 2016-08-02 Apparatus and method for reconstructing experience items

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160000702A KR20170081544A (ko) 2016-01-04 2016-01-04 체험 아이템 3d 복원 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20170081544A true KR20170081544A (ko) 2017-07-12

Family

ID=59226602

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160000702A KR20170081544A (ko) 2016-01-04 2016-01-04 체험 아이템 3d 복원 장치 및 방법

Country Status (2)

Country Link
US (1) US20170193677A1 (ko)
KR (1) KR20170081544A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200055209A (ko) * 2018-11-12 2020-05-21 주식회사 로뎀마이크로시스템 체험형 콘텐츠 생성 방법, 장치 및 시스템

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6798826B2 (ja) * 2016-08-31 2020-12-09 株式会社ミマキエンジニアリング 三次元造形物製造方法
CN107993111A (zh) * 2016-10-26 2018-05-04 深圳市衣锦未来科技有限公司 一种在线人体尺寸测量***
US10957118B2 (en) * 2019-03-18 2021-03-23 International Business Machines Corporation Terahertz sensors and photogrammetry applications

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT1315446B1 (it) * 1998-10-02 2003-02-11 Cselt Centro Studi Lab Telecom Procedimento per la creazione di modelli facciali tridimensionali apartire da immagini di volti.
KR100512760B1 (ko) * 2003-12-23 2005-09-07 한국전자통신연구원 경계셀 축소 방식을 이용하여 3차원 측정점들로부터 3차원메쉬를 생성하는 방법
US9177371B2 (en) * 2008-06-09 2015-11-03 Siemens Energy, Inc. Non-destructive examination data visualization and analysis
US20130124148A1 (en) * 2009-08-21 2013-05-16 Hailin Jin System and Method for Generating Editable Constraints for Image-based Models
US9886791B2 (en) * 2013-03-12 2018-02-06 Mitsubishi Electric Corporation Three-dimensional information processing device
US10574974B2 (en) * 2014-06-27 2020-02-25 A9.Com, Inc. 3-D model generation using multiple cameras
US9600892B2 (en) * 2014-11-06 2017-03-21 Symbol Technologies, Llc Non-parametric method of and system for estimating dimensions of objects of arbitrary shape

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200055209A (ko) * 2018-11-12 2020-05-21 주식회사 로뎀마이크로시스템 체험형 콘텐츠 생성 방법, 장치 및 시스템

Also Published As

Publication number Publication date
US20170193677A1 (en) 2017-07-06

Similar Documents

Publication Publication Date Title
KR101778833B1 (ko) 3d 의류 모델 복원 방법 및 장치
KR100722229B1 (ko) 사용자 중심형 인터페이스를 위한 가상현실 상호작용 인체모델 즉석 생성/제어 장치 및 방법
Magnenat-Thalmann Modeling and simulating bodies and garments
US11961200B2 (en) Method and computer program product for producing 3 dimensional model data of a garment
KR101707707B1 (ko) 인체 모델을 이용한 가상 아이템 피팅 방법 및 가상 아이템의 피팅 서비스 제공 시스템
Sayem et al. 3D CAD systems for the clothing industry
US20130107003A1 (en) Apparatus and method for reconstructing outward appearance of dynamic object and automatically skinning dynamic object
KR20180069786A (ko) 3d 신체 모델에 대한 3d 의복 모델의 이미지 파일을 생성하기 위한 방법 및 시스템
CN107590708B (zh) 一种生成用户特定体形模型的方法和装置
WO2012123346A2 (en) Improved virtual try on simulation service
KR20170081544A (ko) 체험 아이템 3d 복원 장치 및 방법
EP2558974A1 (en) Garment digitization system and method
JP5476471B2 (ja) 複雑なおよび/または変形可能なオブジェクトの表現および着用できるオブジェクトの仮想フィッティング
WO2014107520A1 (en) Footwear digitization system and method
Hu et al. Scanning and animating characters dressed in multiple-layer garments
CN112308955A (zh) 基于图像的纹理填充方法、装置、设备及存储介质
Fondevilla et al. Fashion transfer: Dressing 3d characters from stylized fashion sketches
JP2001222568A (ja) 服飾デザインのための三次元検証と衣服試作可能なシステム
KR20140093836A (ko) 3d 몽타주 생성 장치 및 방법
Keckeisen et al. Tailor tools for interactive design of clothing in virtual environments
EP3980975B1 (en) Method of inferring microdetail on skin animation
KR101803064B1 (ko) 3차원 모델 복원 장치 및 방법
Zhang et al. Cloth simulation and virtual try-on with kinect based on human body adaptation
WO2024009721A1 (ja) 画像処理装置及び画像処理方法
Yu et al. Data-driven animation technology (D2AT)