KR20190071341A - Device and method for making body model - Google Patents
Device and method for making body model Download PDFInfo
- Publication number
- KR20190071341A KR20190071341A KR1020170172313A KR20170172313A KR20190071341A KR 20190071341 A KR20190071341 A KR 20190071341A KR 1020170172313 A KR1020170172313 A KR 1020170172313A KR 20170172313 A KR20170172313 A KR 20170172313A KR 20190071341 A KR20190071341 A KR 20190071341A
- Authority
- KR
- South Korea
- Prior art keywords
- model
- unit
- extracted
- extracting
- body part
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 239000000284 extract Substances 0.000 claims description 23
- 238000000354 decomposition reaction Methods 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 9
- 230000005477 standard model Effects 0.000 claims description 7
- 210000000746 body region Anatomy 0.000 abstract description 6
- 230000008878 coupling Effects 0.000 abstract 1
- 238000010168 coupling process Methods 0.000 abstract 1
- 238000005859 coupling reaction Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G06T5/001—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2211/00—Image generation
- G06T2211/40—Computed tomography
- G06T2211/416—Exact reconstruction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 신체 모델 생성 장치 및 방법에 관한 것으로서, 보다 상세하게는, 내츄럴 영상으로부터 3차원의 신체 모델을 생성하기 위한 신체 모델 생성 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for generating a body model, and more particularly, to an apparatus and method for generating a body model from a natural image.
게임이나 영화와 같은 디지털 컨텐츠에는 사람의 몸 동작을 입체적으로 표현하는 3D 모션 캡쳐 기술이 널리 사용되고 있다. 게임의 경우에는 사용자가 움직임 감지센서가 부착된 리모콘을 조작하여 디스플레이상에 나타나는 캐릭터의 움직임을 제어할 수 있다. 또한, 영화의 경우에는 인체 부착 센서 정보를 이용하여 캐릭터가 실제 사람이 움직이는 것과 같은 입체적인 효과를 만들어 내고 있다.BACKGROUND ART [0002] 3D motion capture technology is widely used in digital contents such as games and movies to three-dimensionally represent human body motion. In the case of a game, a user can control a movement of a character displayed on the display by operating a remote controller having a motion detection sensor. In addition, in the case of a movie, the human body sensor information is used to create a stereoscopic effect such as a character moving a real person.
이러한 사람의 동작을 3D 모션으로 구현하기 위해서는 실제 사람의 몸에 마커(marker)를 부착하거나 센서가 부착된 옷을 입고 연기를 하여 생성되는 움직임 데이터를 컴퓨터에 전달하여야 한다.In order to realize such a person's motion in 3D motion, it is necessary to attach a marker to an actual human body or to transmit motion data generated by putting on clothes with sensors attached to the computer.
이러한 방법은 실제 사람이 마커나 센서가 부착된 옷을 입고 연기를 하여야하는 불편함이 있고, 다중 카메라를 사용하여 제한된 공간에서만 촬영을 해야한다는 공간상의 제약이 따른다.This method has a disadvantage that an actual person has to smoke by putting clothes with markers or sensors attached thereto, and there is a space limitation that the photographing should be performed only in a limited space using multiple cameras.
또한, UCC(User-Create Content)라 불리는 사용자 제작 콘텐츠가 활성화되고 있다. UCC는 인터넷 공간에서 게시되고 공유되는 것이므로, UCC 제작자들은 자신의 UCC가 다른 사람의 UCC와 차별화되기를 원하기 때문에, 새로운 시도를 많이 하는데, 이러한 시도 중 하나가 3D 기술을 이용한 UCC이다.In addition, user-created content called UCC (User-Create Content) is being activated. Because UCC is published and shared in the Internet space, UCC producers want to differentiate their UCC from others' UCC, so there are many new attempts. One of these attempts is UCC using 3D technology.
3D 기술을 이용한 UCC에는 필연적으로 3D 캐릭터가 사용되는데, 이 3D 캐릭터들은 인터넷 공간에서 제작자나 사용자를 대신할 뿐, 제작자나 사용자를 실제로 닮아 있지는 않다. 이러한 3D 캐릭터는 UCC 제작자나 사용자의 자신이 사용하는 3D 캐릭터가 자신을 닮아 있기를 바라는 욕구를 충족해주지는 못한다.3D characters are inevitably used in UCC using 3D technology, and these 3D characters substitute creators and users in the Internet space, and do not actually resemble producers or users. These 3D characters do not satisfy the desire of the UCC creator or the user of the 3D character himself / herself to resemble himself / herself.
이러한 실제 사람을 닮은 3D 캐릭터는 게임과 영화, 그리고 UCC 컨텐츠 이외에도 다양한 분야에 적용될 수 있다. 하지만, 실제 사람을 닮은 3D 캐릭터를 생성하기 위해서는 고가의 많은 장비가 필요하고, 신체 전체를 촬영하여 데이터를 생성하기 때문에 상당한 로드가 발생하여 보편화되기에는 상당한 어려움이 있다.3D characters resembling real people can be applied to various fields besides games, movies, and UCC contents. However, in order to create a 3D character resembling a real person, a lot of expensive equipment is required, and since the whole body is photographed and data is generated, a considerable load is generated and it is considerably difficult to be universalized.
전술한 문제점을 해결하기 위하여 본 발명이 이루고자 하는 기술적 과제는, 사람의 자연스러운 동작이 담긴 동영상으로부터 추출되는 신체를 각 신체부위별로 분해하여 신체에 대한 3D 모델을 생성하는 신체 모델 생성 장치 및 방법을 제시하는 데 있다.The present invention has been made to solve the above problems and it is an object of the present invention to provide a body model generating apparatus and method for generating a 3D model for a body by disassembling a body extracted from a moving image containing a natural motion of a human by each body part I have to.
본 발명의 해결과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The solution of the present invention is not limited to those mentioned above, and other solutions not mentioned can be clearly understood by those skilled in the art from the following description.
전술한 기술적 과제를 해결하기 위한 수단으로서, 본 발명의 실시 예에 따른 신체 모델 생성 방법은, 동영상으로부터 대상을 추출하는 단계, 추출된 대상을 신체부위별로 분해하는 단계, 분해된 신체부위를 3D 모델로 재구성하는 단계, 및 재구성된 3D 모델들을 결합하여 3D 전신모델을 생성하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method of generating a body model, the method comprising: extracting an object from a moving image; decomposing the extracted object into body parts; , And combining the reconstructed 3D models to generate a 3D full-body model.
바람직하게, 대상의 동작이 포함된 동영상을 입력받는 단계를 더 포함하며, 추출하는 단계는, 입력받은 동영상으로부터 대상을 추출할 수 있다.Preferably, the method further includes receiving a moving image including an operation of the object, and the extracting step may extract the object from the input moving image.
또한 바람직하게, 대상의 동작을 동영상으로 촬영하는 단계를 더 포함하며,추출하는 단계는, 촬영된 동영상으로부터 대상을 추출할 수 있다.Preferably, the method further includes the step of photographing the motion of the object as a moving image, and the extracting step may extract the object from the photographed moving image.
또한 바람직하게, 추출하는 단계는, 동영상에서 추출된 특정 프레임에서 배경을 제거하여 대상의 전경을 추출하는 단계, 및 추출된 대상의 전경에 대하여 윤곽선을 보정하는 단계를 포함할 수 있다.Preferably, the extracting step may include extracting a foreground of the object by removing the background from the specific frame extracted from the moving image, and correcting the outline for the foreground of the extracted object.
또한 바람직하게, 분해하는 단계는, 추출된 대상에 대한 정면이 촬영된 프레임을 이용할 수 있다.Also preferably, the decomposing step may use a frame in which the front face of the extracted object is photographed.
또한 바람직하게, 분해하는 단계는, 추출된 대상으로부터 전체 특징점을 추출하는 단계, 및 추출된 전체 특징점을 이용하여 신체부위를 분리하는 단계를 포함할 수 있다. Also preferably, the decomposing step may include extracting all the feature points from the extracted object, and separating the body parts using the extracted whole feature points.
또한 바람직하게, 분리하는 단계는, 추출된 전체 특징점들의 위치에 따라 머리, 몸통, 팔, 다리 부위별 전체 특징점들을 포함하는 사각 프레임을 구성하는 단계, 및 구성된 사각 프레임을 분리하는 단계를 포함할 수 있다.Also preferably, the step of separating may comprise the step of constructing a rectangular frame comprising all the minutiae of the head, trunk, arm and leg according to the position of the extracted whole feature points, and separating the formed rectangular frame have.
또한 바람직하게, 재구성하는 단계는, 분해된 신체부위별로 각각의 부분 특징점을 추출하는 단계, 및 추출된 부분 특징점을 이용하여 3D 모델을 구성하는 단계를 포함할 수 있다.Also, preferably, the reconstructing step may include extracting partial feature points for each of the decomposed body parts, and constructing the 3D model using the extracted partial feature points.
또한 바람직하게, 구성된 3D 모델별로 사이즈를 측정하는 단계, 측정된 3D 모델별 사이즈를 표준 모델 사이즈와 비교하여 보정하는 단계를 더 포함할 수 있다.Preferably, the method may further include measuring a size of each of the configured 3D models, and comparing the measured sizes of the 3D models with a standard model size.
한편, 본 발명의 다른 실시 예에 따른 신체 모델 생성 장치는, 동영상으로부터 대상을 추출하는 대상 추출부, 추출된 대상을 신체부위별로 분해하는 신체부위 분해부, 분해된 신체부위를 3D 모델로 재구성하는 3D 구성부, 및 재구성된 3D 모델들을 결합하여 3D 전신모델을 생성하는 전신모델 생성부를 포함한다.Meanwhile, the body model generation apparatus according to another embodiment of the present invention includes a target extraction unit for extracting an object from a moving image, a body region decomposition unit for decomposing the extracted object into body regions, a reconstructed body model A 3D configuration unit, and a whole body model generation unit that combines the reconstructed 3D models to generate a 3D whole model.
바람직하게, 대상의 동작이 포함된 동영상을 입력받는 입력부를 더 포함할 수 있며, 대상 추출부는 입력부를 통해 입력받은 동영상으로부터 대상을 추출할 수 있다.Preferably, the input unit may further include an input unit for inputting a moving image including an operation of the object, and the object extraction unit may extract the object from the moving image input through the input unit.
또한 바람직하게, 대상의 동작을 동영상으로 촬영하는 촬영부를 더 포함할 수 있으며, 대상 추출부는 촬영부에 의해 촬영된 동영상으로부터 대상을 추출할 수 있다.Preferably, the imaging apparatus may further include a photographing unit that photographs the motion of the object by moving images, and the object extracting unit may extract the object from the moving images photographed by the photographing unit.
또한 바람직하게, 대상 추출부는 동영상에서 추출된 특정 프레임에서 배경을 제거하여 대상의 전경을 추출하고, 추출된 대상의 전경에 대하여 윤곽선을 보정할 있다.Also, preferably, the object extracting unit extracts the foreground of the object by removing the background from the specific frame extracted from the moving image, and corrects the outline with respect to the foreground of the extracted object.
또한 바람직하게, 신체부위 분해부는 추출된 대상에 대한 정면이 촬영된 프레임을 이용할 수 있다.Also preferably, the body part decomposing unit can use a frame in which the front face of the extracted object is photographed.
또한 바람직하게, 신체부위 분해부는 추출된 대상으로부터 전체 특징점을 추출하고, 추출된 전체 특징점을 이용하여 신체부위를 분리할 수 있다.Also, preferably, the body part decomposition unit may extract all the feature points from the extracted object, and may separate the body parts using the extracted whole feature points.
또한 바람직하게, 신체부위 분해부는, 추출된 전체 특징점들의 위치에 따라 머리, 몸통, 팔, 다리 부위별 전체 특징점들을 포함하는 사각 프레임을 구성한 후, 구성된 사각 프레임을 분리하여 신체부위를 분리할 수 있다.Also, preferably, the body part decomposition unit may constitute a rectangular frame including all the minutiae of the head, body, arm, and leg according to the positions of the extracted minutiae points, and then separate the body part by separating the configured rectangular frame .
또한 바람직하게, 3D 구성부는 분해된 신체부위별로 각각의 부분 특징점을 추출하고, 추출된 부분 특징점을 이용하여 3D 모델을 구성할 수 있다.Also, preferably, the 3D component extracts partial feature points for each of the decomposed body parts, and constructs a 3D model using the extracted partial feature points.
또한 바람직하게, 3D 구성부는 3D 모델을 구성한 후, 구성된 3D 모델별로 사이즈를 측정하고, 측정된 3D 모델별 사이즈를 표준 모델 사이즈와 비교하여 보정할 수 있다.Also, preferably, the 3D configuration unit may configure the 3D model, measure the size of the 3D model, and compare the size of the measured 3D model with the standard model size.
본 발명에 따르면, 사람의 신체에 어떠한 장비를 착용할 필요 없이 움직임이 담긴 동영상을 이용하여 3D 전신모델을 생성함으로써, 고가의 장비를 구비하지 않고 번거로움을 최소화 한 신체 모델 생성 장치 및 방법을 제공하는 효과가 있다.According to the present invention, there is provided a body model generating apparatus and method that minimizes hassle without providing expensive equipment by generating a 3D whole body model by using a motion-containing moving picture without wearing any equipment on a person's body .
또한, 사람의 신체 전체를 3D 모델화하는 경우 상당한 로드가 발생하는데, 사람의 신체를 각 부위별로 분해하여 각각을 3D 모델화함으로써, 3D 모델화에 소요되는 로드를 절감하고, 각 부위별 3D 모델화에 따라 보다 정밀한 3D 모델화가 가능한 효과가 있다.In addition, when a whole body of a human body is 3D-modeled, a considerable load occurs. By decomposing the human body into individual parts and making each of them a 3D model, the load required for 3D modeling is reduced, It is possible to make a precise 3D model.
본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the following description.
도 1은 본 발명의 바람직한 실시예에 따른 신체 모델 생성 장치의 블럭도,
도 2a 및 도 2b는 도 1에 도시한 대상 추출부의 동작을 설명하기 위한 도면,
도 3a 및 도 3b는 도 1에 도시한 신체부위 분해부의 동작을 설명하기 위한 도면,
도 4 및 도 5는 도 1에 도시한 3D 구성부의 동작을 설명하기 위한 도면,
도 6은 도 1에 도시한 전신모델 생성부의 동작을 설명하기 위한 도면, 그리고,
도 7은 본 발명의 바람직한 실시예에 따른 신체 모델 생성 방법을 설명하기 위한 흐름도이다.1 is a block diagram of a body model generating apparatus according to a preferred embodiment of the present invention;
FIGS. 2A and 2B are diagrams for explaining the operation of the object extracting unit shown in FIG. 1,
FIGS. 3A and 3B are views for explaining the operation of the body part decomposing unit shown in FIG. 1,
FIGS. 4 and 5 are views for explaining the operation of the 3D configuration unit shown in FIG. 1,
FIG. 6 is a diagram for explaining the operation of the whole body model generating unit shown in FIG. 1,
7 is a flowchart illustrating a method of generating a body model according to a preferred embodiment of the present invention.
이상의 본 발명의 목적들, 다른 목적들, 특징들 및 이점들은 첨부된 도면과 관련된 이하의 바람직한 실시 예들을 통해서 쉽게 이해될 것이다. 그러나 본 발명은 여기서 설명되는 실시 예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시 예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features, and advantages of the present invention will become more readily apparent from the following description of preferred embodiments with reference to the accompanying drawings. However, the present invention is not limited to the embodiments described herein but may be embodied in other forms. Rather, the embodiments disclosed herein are provided so that the disclosure can be thorough and complete, and will fully convey the scope of the invention to those skilled in the art.
본 명세서에서, 어떤 구성요소가 다른 구성요소 상에 있다고 언급되는 경우에 그것은 다른 구성요소 상에 직접 형성될 수 있거나 또는 그들 사이에 제 3의 구성요소가 개재될 수도 있다는 것을 의미한다. 또한, 도면들에 있어서, 구성요소들의 두께는 기술적 내용의 효과적인 설명을 위해 과장된 것이다.In this specification, when an element is referred to as being on another element, it may be directly formed on another element, or a third element may be interposed therebetween. Further, in the drawings, the thickness of the components is exaggerated for an effective description of the technical content.
어떤 엘리먼트, 구성요소, 장치, 또는 시스템이 프로그램 또는 소프트웨어로 이루어진 구성요소를 포함한다고 언급되는 경우, 명시적인 언급이 없더라도, 그 엘리먼트, 구성요소, 장치, 또는 시스템은 그 프로그램 또는 소프트웨어가 실행 또는 동작하는데 필요한 하드웨어(예를 들면, 메모리, CPU 등)나 다른 프로그램 또는 소프트웨어(예를 들면 운영체제나 하드웨어를 구동하는데 필요한 드라이버 등)를 포함하는 것으로 이해되어야 할 것이다.It is to be understood that when an element, component, apparatus, or system is referred to as comprising a program or a component made up of software, it is not explicitly stated that the element, component, (E.g., memory, CPU, etc.) or other programs or software (e.g., drivers necessary to run an operating system or hardware, etc.)
또한, 어떤 엘리먼트(또는 구성요소)가 구현됨에 있어서 특별한 언급이 없다면, 그 엘리먼트(또는 구성요소)는 소프트웨어, 하드웨어, 또는 소프트웨어 및 하드웨어 어떤 형태로도 구현될 수 있는 것으로 이해되어야 할 것이다.It is also to be understood that the elements (or elements) may be implemented in software, hardware, or any form of software and hardware, unless the context requires otherwise.
또한, 본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprises)' 및/또는 '포함하는(comprising)'은 언급된 구성요소는 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.Also, terms used herein are for the purpose of illustrating embodiments and are not intended to limit the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. The terms "comprises" and / or "comprising" used in the specification do not exclude the presence or addition of one or more other elements.
도 1은 본 발명의 바람직한 실시예에 따른 신체 모델 생성 장치의 블럭도이다.1 is a block diagram of an apparatus for generating a body model according to a preferred embodiment of the present invention.
도 1을 참조하면, 본 발명의 바람직한 실시예에 따른 신체 모델 생성 장치(100)는 입력부(110), 촬영부(120), 대상 추출부(130), 신체부위 분해부(140), 3D 구성부(150), 전신모델 생성부(160), 저장부(170), 및 제어부(180)를 포함한다.1, an
입력부(110)는 대상의 동작이 포함된 동영상을 입력받는다. 보다 구체적으로, 입력부(110)는 인터넷과 같은 네트워크를 통해 외부로부터 동영상을 입력받거나 혹은 유선 커넥터를 통해 외부로부터 동영상을 입력받을 수 있다.The
촬영부(120)는 대상의 동작을 동영상으로 촬영한다. 촬영부(120)는 본 신체 모델 생성 장치(100)에 구비된 통상의 내장 카메라일 수 있다.The photographing
대상 추출부(130)는 입력부(110)를 통해 입력된 동영상 혹은 촬영부(120)를 통해 촬영된 동영상으로부터 대상을 추출한다. 본 실시예에서, 대상은 신체 모델을 추출하고자 하는 사람을 의미한다.The
대상 추출부(130)는 동영상에서 추출된 특정 프레임으로부터 배경을 제거하여 대상의 전경을 추출한 후, 추출된 대상의 전경에 대하여 윤곽선을 보정하는 동작을 수행한다.The
신체부위 분해부(140)는 대상 추출부(130)에 의해 추출된 대상을 신체부위별로 분해한다. 즉, 신체부위 분해부(140)는 대상을 머리, 몸체, 팔, 다리로 각각 분해할 수 있다.The body
보다 구체적으로, 신체부위 분해부(140)는 대상으로부터 전체 특징점을 추출한 후, 이 전체 특징점을 이용하여 신체부위를 분리한다. 이때, 신체부위 분해부(140)는 대상에 대한 정면이 촬영된 프레임을 활용할 수 있다.More specifically, the body
또한, 신체부위 분해부(140)는 전체 특징점들의 위치에 따라 머리, 몸통, 팔, 다리 부위별로 전체 특징점들을 포함하는 사각 프레임을 구성한 후, 이 사각 프레임을 분리하는 것에 의해 신체부위를 분리할 수 있다.In addition, the body
3D 구성부(150)는 신체부위 분해부(140)에 의해 분해된 신체부위를 3D 모델로 재구성한다. 보다 구체적으로, 3D 구성부(150)는 신체부위별로 각각의 부분 특징점을 추출한 후, 추출된 부분 특징점을 이용하여 3D 모델을 구성한다.The
또한, 3D 구성부(150)는 3D 모델을 구성한 이후, 신체부위별 3D 모델에 대하여 각각의 사이즈를 측정하고, 이를 표준 모델 사이즈와 비교하여 보정할 수 있다.In addition, after the
전신모델 생성부(160)는 3D 구성부(150)에 의해 생성된 신체부위별 3D 모델을 결합하여 3D 전신모델을 생성한다. The whole body
저장부(170)는 본 신체 모델 생성 장치(100)의 동작에 필요한 모든 정보를 저장한다. The
제어부(180)는 본 신체 모델 생성 장치(100)의 전반적인 동작을 제어한다. 즉, 제어부(180)는 입력부(110), 촬영부(120), 대상 추출부(130), 신체부위 분해부(140), 3D 구성부(150), 전신모델 생성부(160), 및 저장부(170)들 간의 신호 입출력을 제어한다. The
도 2a 및 도 2b는 도 1에 도시한 대상 추출부의 동작을 설명하기 위한 도면이다.2A and 2B are diagrams for explaining the operation of the object extracting unit shown in FIG.
도 2a를 참조하여, 신체구조를 갖는 모형을 이용하여 대상 추출부(130)의 동작을 살펴본다. 대상의 움직임이 포함된 내츄럴 영상에는 (a)와 같이 동작에서 차이가 나는 여러 프레임이 존재하게 된다. 여기에서는 설명의 편의를 위하여, 1st 및 2nd의 두 프레임을 도시하였다.Referring to FIG. 2A, the operation of the
(a)의 여러 프레임이 겹쳐지면 (b)와 같은 형태가 될 수 있고, 대상 추출부(130)는 (b)의 형태에서 특정 프레임 예를 들면, 최신 프레임에서 배경을 제거하여 전경을 추출할 수 있다.(b), the
대상 추출부(130)는 (b)에서 전경을 추출하면, (c)와 같은 결과를 얻을 수 있다. 이후, 대상 추출부(130)는 (c)로부터 윤곽선을 보정하는 작업을 통해 매끄럽지 않는 부분을 보완한다. 이 결과로, (d)의 결과물을 얻을 수 있다.When the
도 2b에서는 실제 대상을 촬영한 영상에 의해 대상 추출부(130)의 동작을 살펴본다. (a)는 실제 대상이 촬영된 영상이고, (a)의 실제 대상 촬영 영상을 이용하여 대상 추출부(130)에서 특정 프레임의 배경을 제거하여 전경을 추출한 결과를 (b)에 나타내었다. In FIG. 2B, the operation of the
도 3a 및 도 3b는 도 1에 도시한 신체부위 분해부의 동작을 설명하기 위한 도면이다.FIGS. 3A and 3B are views for explaining the operation of the body part decomposing unit shown in FIG. 1. FIG.
도 3a를 참조하여, 신체구조를 갖는 모형을 이용하여 신체부위 분해부(140)의 동작을 살펴본다. 신체부위 분해부(140)는 동영상에서 추출되는 여러 프레임 중 정면이 촬영된 프레임을 이용하여 신체부위를 분해함으로써, 각 신체부위별 이미지를 얻을 수 있다.Referring to FIG. 3A, the operation of the body
(a)에 도시한 바와 같이 정면 샷에서 추출된 대상으로부터 전체 특징점을 추출한다. 도면에서, 점으로 표시된 부분이 신체부위 분해부(140)에서 추출한 전체 특징점을 의미한다.all feature points are extracted from the object extracted from the front shot as shown in Fig. In the drawing, the dotted portions indicate all the minutiae points extracted from the body
신체부위 분해부(140)는 전체 특징점을 추출한 후, 이 전체 특징점들의 위치에 따라 머리, 몸통, 팔, 다리 부위별로 전체 특징점들을 포함하는 사각 프레임을 구성한다. 이렇게 구성된 사각 프레임을 (b)에 도시하였으며, (b)에 도시한 사각 프레임들을 각각 분리하여 떼어놓으면 신체부위별 이미지를 얻을 수 있다.The body
도 3b를 참조하면, 실제 대상을 촬영한 영상의 정면 샷으로부터 대상 추출부(130)에서 전경을 추출하면 (a)와 같은 결과를 얻을 수 있다. (a)를 이용하여 신체부위 분해부(140)에서 전체 특징점을 추출한 후, 전체 특징점을 이용하여 신체부위를 분리하면, (b)에서와 같이 각 신체부위별 절단선(A)이 생성될 수 있다. Referring to FIG. 3B, when the foreground is extracted from the frontal shot of the image of the actual object in the
도시한 바와 같이, 신체부위 분해부(140)는 (b)의 전경에 표시된 절단선(A)에 의해 각 신체부위를 분리할 수 있으며, 이에 의해 각 신체부위별 이미지를 얻을 수 있다.As shown in the figure, the body
도 4 및 도 5는 도 1에 도시한 3D 구성부의 동작을 설명하기 위한 도면이다.4 and 5 are views for explaining the operation of the 3D configuration unit shown in FIG.
도 4를 참조하면, (a)는 신체부위 분해부(140)에 의해 각 신체부위별 이미지가 얻어진 결과 중 일부이다. 3D 구성부(150)에서 신체부위별로 얻어진 이미지 즉, (a)를 이용하여 각각의 부분 특징점을 생성하면 (b)와 같은 결과를 얻을 수 있다.Referring to FIG. 4, (a) is a part of the results obtained by the body
3D 구성부(150)에서는 (b)와 같은 신체부위별 이미지에서 부분 특징점을 생성한 후, 이 부분 특징점을 이용하여 3D 모델을 구성할 수 있다. 3D 구성부(150)의 동작에 의해 (a)의 신체부위별 이미지로부터 (c)의 신체부위별 3D 모델이 구성된다.In the
본 실시예에서는, 3D 구성부(150)에서 팔에 해당하는 이미지에 대하여 3D 모델을 생성하는 과정을 도시하였으며, 3D 구성부(150)에서 머리, 몸통, 팔, 다리 부위에 대하여 모두 부분 특징점을 생성하고, 부분 특징점을 이용하여 3D 모델을 구성함으로써, 모든 신체부위별로 3D 모델을 구성한다.In this embodiment, a process of generating a 3D model for an image corresponding to an arm in the
3D 구성부(150)는 신체부위별로 구성된 3D 모델별로 각 사이즈를 측정하고, 측정된 3D 모델별 사이즈를 표준 모델 사이즈와 비교하여 보정한다. 이를 도 5에 도시하였다.The
(a)에 도시한 바와 같이, 3D 구성부(150)는 각 신체부위별 부분 특징점의 위치에 따라 각 특징점을 연결하여 사이즈를 측정할 수 있다. 3D 구성부(150)는 신체부위에 따른 사이즈를 측정한 후, (b)와 같이 보정할 수 있다.(a), the
도 6은 도 1에 도시한 전신모델 생성부의 동작을 설명하기 위한 도면이다.6 is a diagram for explaining the operation of the whole body model generation unit shown in FIG.
(a)는 3D 구성부(150)에서 신체부위별 이미지를 3D 모델로 구성한 결과이고, (a)의 결과를 3D 구성부(150)에서 보정하여 (b)와 같은 신체부위별 3D 모델이 생성된다.(a) is a result of constructing an image of a body part in the
전신모델 생성부(160)에서는 (b)와 같은 신체부위별 3D 모델들을 모두 모아 각 신체부위별로 적정 위치에 접합하여 결합함으로써, 3D 전신모델을 생성한다. 이때, 전신모델 생성부(160)는 표준 모델을 기준으로 각 신체부위별 접합 위치를 선정할 수 있다. 이러한 동작에 의해, (d)의 3D 전신모델이 생성된다.The whole body
도 7은 본 발명의 바람직한 실시예에 따른 신체 모델 생성 방법을 설명하기 위한 흐름도이다.7 is a flowchart illustrating a method of generating a body model according to a preferred embodiment of the present invention.
여기에서는 도 1 내지 도 7을 참조하여 본 발명의 바람직한 실시예에 따른 신체 모델 생성 방법을 설명한다.Hereinafter, a method of generating a body model according to a preferred embodiment of the present invention will be described with reference to FIGS.
입력부(110) 혹은 촬영부(120)를 통해 대상의 움직임이 포함된 동영상이 입력되면(S200), 대상 추출부(130)에서는 대상의 전경을 추출하고(S210), 추출된 대상의 전경에 대하여 윤곽선을 보정한다(S220). 대상 추출부(130)의 전경 추출 및 윤곽선 보정은 도 2a 및 도 2b에서 도시한 바와 동일하다.When a moving image including the motion of the object is inputted through the
신체부위 분해부(140)에서 전경이 추출되고 윤곽선이 보정된 대상으로부터 전체 특징점을 추출하고(S230), 전체 특징점을 이용하여 신체부위를 분리한다(S240). 신체부위 분해부의 동작은 도 3a 및 도 3b에서 도시한 바와 동일하다.In step S240, all the feature points are extracted from the object whose foreground is extracted in the body
3D 구성부(150)에서 신체부위별로 부분 특징점을 추출하고(S250), 부분 특징점을 이용하여 3D 모델을 구성한다(S260). 3D 구성부(150)의 동작은 도 4 및 도 5에서 도시한 바와 동일하다.The
이후, 전신모델 생성부(160)에서 신체부위별 3D 모델을 모두 모아 결합하여 3D 전신모델을 생성한다(S270). 전신모델 생성부(160)의 동작은 도 6에서 도시한 바와 동일하다.Thereafter, the whole body
이러한 절차에 의해, 본 발명에 따른 신체 모델 생성 방법에 따르면, 대상의 전체를 한번에 3D 모델로 생성하는 것이 아니라, 대상을 신체부위별로 분해한 후, 신체부위별로 3D 모델을 생성한 후 결합하여 3D 전신모델을 생성한다. 그러므로, 3D 모델 생성에 소요되는 로드를 줄일 수 있고, 보다 정밀한 3D 모델을 생성할 수 있다.According to the above-described procedure, according to the method of generating a body model according to the present invention, instead of generating the entire object at once as a 3D model, the object is decomposed into body parts and then a 3D model is generated for each body part, Generate a whole body model. Therefore, the load required to create a 3D model can be reduced, and a more accurate 3D model can be generated.
본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.It will be understood by those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. Therefore, it should be understood that the above-described embodiments are illustrative in all aspects and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.
100 : 신체 모델 생성 장치
110 : 입력부
120 : 촬영부
130 : 대상 추출부
140 : 신체부위 분해부
150 : 3D 구성부
160 : 전신모델 생성부
170 : 저장부
180 : 제어부100: Body model generating apparatus 110: Input unit
120: photographing unit 130: object extracting unit
140: body part decomposition part 150: 3D construction part
160: Whole body model generation unit 170:
180:
Claims (18)
상기 추출된 대상을 신체부위별로 분해하는 단계;
상기 분해된 신체부위를 3D 모델로 재구성하는 단계; 및
상기 재구성된 3D 모델들을 결합하여 3D 전신모델을 생성하는 단계;를 포함하는 것을 특징으로 하는 신체 모델 생성 방법.Extracting a target from a moving image;
Decomposing the extracted object by body parts;
Reconstructing the decomposed body part into a 3D model; And
And combining the reconstructed 3D models to generate a 3D whole body model.
상기 대상의 동작이 포함된 동영상을 입력받는 단계;를 더 포함하며,
상기 추출하는 단계는, 상기 입력받은 동영상으로부터 상기 대상을 추출하는 것을 특징으로 하는 신체 모델 생성 방법.The method according to claim 1,
And receiving a moving picture including the motion of the object,
Wherein the extracting step extracts the object from the input moving image.
상기 대상의 동작을 동영상으로 촬영하는 단계;를 더 포함하며,
상기 추출하는 단계는, 상기 촬영된 동영상으로부터 상기 대상을 추출하는 것을 특징으로 하는 신체 모델 생성 방법.The method according to claim 1,
And photographing the motion of the object as a moving picture,
Wherein the extracting step extracts the object from the photographed moving image.
상기 추출하는 단계는,
상기 동영상에서 추출된 특정 프레임에서 배경을 제거하여 상기 대상의 전경을 추출하는 단계; 및
상기 추출된 대상의 전경에 대하여 윤곽선을 보정하는 단계;를 포함하는 것을 특징으로 하는 신체 모델 생성 방법.The method according to claim 1,
Wherein the extracting comprises:
Extracting a foreground of the object by removing a background from a specific frame extracted from the moving image; And
And correcting a contour of the extracted foreground with respect to the foreground.
상기 분해하는 단계는, 상기 추출된 대상에 대한 정면이 촬영된 프레임을 이용하는 것을 특징으로 하는 신체 모델 생성 방법.The method according to claim 1,
Wherein the decomposing step uses a frame in which a front face of the extracted object is photographed.
상기 분해하는 단계는,
상기 추출된 대상으로부터 전체 특징점을 추출하는 단계; 및
상기 추출된 전체 특징점을 이용하여 상기 신체부위를 분리하는 단계;를 포함하는 것을 특징으로 하는 신체 모델 생성 방법.The method according to claim 1,
Wherein said disassembling comprises:
Extracting all feature points from the extracted object; And
And separating the body part using all the extracted feature points.
상기 분리하는 단계는,
상기 추출된 전체 특징점들의 위치에 따라 머리, 몸통, 팔, 다리 부위별 전체 특징점들을 포함하는 사각 프레임을 구성하는 단계; 및
상기 구성된 사각 프레임을 분리하는 단계;를 포함하는 것을 특징으로 하는 신체 모델 생성 방법.The method according to claim 6,
Wherein said separating comprises:
Constructing a rectangular frame including all the minutiae of the head, trunk, arm, and leg according to the positions of the extracted minutiae; And
And separating the configured rectangular frame. ≪ Desc / Clms Page number 19 >
상기 재구성하는 단계는,
상기 분해된 신체부위별로 각각의 부분 특징점을 추출하는 단계; 및
상기 추출된 부분 특징점을 이용하여 3D 모델을 구성하는 단계;를 포함하는 것을 특징으로 하는 신체 모델 생성 방법.The method according to claim 1,
Wherein the reconstructing comprises:
Extracting partial feature points for each of the disassembled body parts; And
And constructing a 3D model using the extracted partial feature points.
상기 구성된 3D 모델별로 사이즈를 측정하는 단계;
상기 측정된 3D 모델별 사이즈를 표준 모델 사이즈와 비교하여 보정하는 단계;를 더 포함하는 것을 특징으로 하는 신체 모델 생성 방법.9. The method of claim 8,
Measuring a size of each of the configured 3D models;
And comparing the measured size of the 3D model with a standard model size to correct the measured size.
상기 추출된 대상을 신체부위별로 분해하는 신체부위 분해부;
상기 분해된 신체부위를 3D 모델로 재구성하는 3D 구성부; 및
상기 재구성된 3D 모델들을 결합하여 3D 전신모델을 생성하는 전신모델 생성부;를 포함하는 것을 특징으로 하는 신체 모델 생성 장치.A target extracting unit for extracting a target from a moving image;
A body part decomposition unit for decomposing the extracted object by body parts;
A 3D constructing unit reconstructing the decomposed body part into a 3D model; And
And a body model generating unit for generating a 3D body model by combining the reconstructed 3D models.
상기 대상의 동작이 포함된 동영상을 입력받는 입력부;를 더 포함하며,
상기 대상 추출부는, 상기 입력부를 통해 입력받은 동영상으로부터 상기 대상을 추출하는 것을 특징으로 하는 신체 모델 생성 장치.11. The method of claim 10,
And an input unit for inputting a moving image including the motion of the object,
Wherein the object extraction unit extracts the object from a moving image input through the input unit.
상기 대상의 동작을 동영상으로 촬영하는 촬영부;를 더 포함하며,
상기 대상 추출부는, 상기 촬영부에 의해 촬영된 동영상으로부터 상기 대상을 추출하는 것을 특징으로 하는 신체 모델 생성 장치.11. The method of claim 10,
And a photographing unit for photographing the motion of the subject as a moving picture,
Wherein the object extracting unit extracts the object from a moving image photographed by the photographing unit.
상기 대상 추출부는, 상기 동영상에서 추출된 특정 프레임에서 배경을 제거하여 상기 대상의 전경을 추출하고, 상기 추출된 대상의 전경에 대하여 윤곽선을 보정하는 것을 특징으로 하는 신체 모델 생성 장치.11. The method of claim 10,
Wherein the object extracting unit extracts a foreground of the object by removing a background from a specific frame extracted from the moving image and corrects the contour of the foreground of the extracted object.
상기 신체부위 분해부는, 상기 추출된 대상에 대한 정면이 촬영된 프레임을 이용하는 것을 특징으로 하는 신체 모델 생성 장치.11. The method of claim 10,
Wherein the body part decomposing unit uses a frame in which a front face of the extracted object is photographed.
상기 신체부위 분해부는, 상기 추출된 대상으로부터 전체 특징점을 추출하고, 상기 추출된 전체 특징점을 이용하여 상기 신체부위를 분리하는 것을 특징으로 하는 신체 모델 생성 장치.11. The method of claim 10,
Wherein the body part decomposing unit extracts all the feature points from the extracted object and separates the body parts using the extracted whole feature points.
상기 신체부위 분해부는, 상기 추출된 전체 특징점들의 위치에 따라 머리, 몸통, 팔, 다리 부위별 전체 특징점들을 포함하는 사각 프레임을 구성한 후, 상기 구성된 사각 프레임을 분리하여 상기 신체부위를 분리하는 것을 특징으로 하는 신체 모델 생성 장치.16. The method of claim 15,
The body part decomposing part separates the body part by separating the rectangular frame formed after forming the rectangular frame including all the minutiae of the head, body, arm, and leg according to the positions of the extracted minutiae points The body model generating device.
상기 3D 구성부는, 상기 분해된 신체부위별로 각각의 부분 특징점을 추출하고, 상기 추출된 부분 특징점을 이용하여 3D 모델을 구성하는 것을 특징으로 하는 신체 모델 생성 장치.11. The method of claim 10,
Wherein the 3D configuration unit extracts partial feature points for each of the decomposed body parts and constructs a 3D model using the extracted partial feature points.
상기 3D 구성부는, 상기 3D 모델을 구성한 후, 상기 구성된 3D 모델별로 사이즈를 측정하고, 상기 측정된 3D 모델별 사이즈를 표준 모델 사이즈와 비교하여 보정하는 것을 특징으로 하는 신체 모델 생성 장치.18. The method of claim 17,
Wherein the 3D configuration unit measures the size of the 3D model after the 3D model is constructed and compares the size of the 3D model with the standard model size to correct the size.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170172313A KR101995411B1 (en) | 2017-12-14 | 2017-12-14 | Device and method for making body model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170172313A KR101995411B1 (en) | 2017-12-14 | 2017-12-14 | Device and method for making body model |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190071341A true KR20190071341A (en) | 2019-06-24 |
KR101995411B1 KR101995411B1 (en) | 2019-07-02 |
Family
ID=67056014
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170172313A KR101995411B1 (en) | 2017-12-14 | 2017-12-14 | Device and method for making body model |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101995411B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210099408A (en) * | 2020-02-04 | 2021-08-12 | (주)헬스허브 | Apparatus and method for quantifying body size from medical image and providing thereof |
KR20210099411A (en) * | 2020-02-04 | 2021-08-12 | (주)헬스허브 | Apparatus for measuring body size through reverse direction fitting and method thereof |
KR20210101757A (en) * | 2020-02-11 | 2021-08-19 | (주)헬스허브 | Method and apparatus for measuring body size by matching medical images with different modalities |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220144689A (en) | 2021-04-20 | 2022-10-27 | 주식회사 케이티 | Server, method and computer program for generating 3d model of whole body of human |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050021086A (en) * | 2003-08-26 | 2005-03-07 | 엘지전자 주식회사 | Method for segmenting motion object of compressed motion pictures |
KR20070009899A (en) * | 2005-07-14 | 2007-01-19 | 학교법인연세대학교 | Apparatus and method for 3-dimensional modeling using multiple stereo cameras |
KR20110073000A (en) * | 2009-12-23 | 2011-06-29 | 주식회사 나노엔텍 | Method and apparatus for measuring body size using image |
KR20120007878A (en) | 2010-07-15 | 2012-01-25 | 경희대학교 산학협력단 | 3d motion tracking method of human's movement |
KR20140067295A (en) * | 2012-11-26 | 2014-06-05 | 삼성전자주식회사 | Image processing apparatus and method thereof |
KR101447958B1 (en) * | 2014-04-29 | 2014-10-14 | (주)디지엔터테인먼트 | Method and apparatus for recognizing body point |
KR20140123229A (en) * | 2013-04-12 | 2014-10-22 | (주)에프엑스기어 | Apparatus and Method for generating user's three dimensional body model based on depth information |
KR20150011907A (en) * | 2013-07-24 | 2015-02-03 | (주)에프엑스기어 | Apparatus and Method for generating user's three dimensional body model based on depth information |
KR101613431B1 (en) * | 2014-11-12 | 2016-04-21 | 조선대학교산학협력단 | Method and apparatus for providing body information measurement service using motion |
JP2016106684A (en) * | 2014-12-02 | 2016-06-20 | 富士通株式会社 | Skeleton model creating device, method and program |
KR20160144699A (en) * | 2015-06-09 | 2016-12-19 | 오인환 | the automatic 3D modeliing method using 2D facial image |
-
2017
- 2017-12-14 KR KR1020170172313A patent/KR101995411B1/en active IP Right Grant
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050021086A (en) * | 2003-08-26 | 2005-03-07 | 엘지전자 주식회사 | Method for segmenting motion object of compressed motion pictures |
KR20070009899A (en) * | 2005-07-14 | 2007-01-19 | 학교법인연세대학교 | Apparatus and method for 3-dimensional modeling using multiple stereo cameras |
KR20110073000A (en) * | 2009-12-23 | 2011-06-29 | 주식회사 나노엔텍 | Method and apparatus for measuring body size using image |
KR20120007878A (en) | 2010-07-15 | 2012-01-25 | 경희대학교 산학협력단 | 3d motion tracking method of human's movement |
KR20140067295A (en) * | 2012-11-26 | 2014-06-05 | 삼성전자주식회사 | Image processing apparatus and method thereof |
KR20140123229A (en) * | 2013-04-12 | 2014-10-22 | (주)에프엑스기어 | Apparatus and Method for generating user's three dimensional body model based on depth information |
KR20150011907A (en) * | 2013-07-24 | 2015-02-03 | (주)에프엑스기어 | Apparatus and Method for generating user's three dimensional body model based on depth information |
KR101447958B1 (en) * | 2014-04-29 | 2014-10-14 | (주)디지엔터테인먼트 | Method and apparatus for recognizing body point |
KR101613431B1 (en) * | 2014-11-12 | 2016-04-21 | 조선대학교산학협력단 | Method and apparatus for providing body information measurement service using motion |
JP2016106684A (en) * | 2014-12-02 | 2016-06-20 | 富士通株式会社 | Skeleton model creating device, method and program |
KR20160144699A (en) * | 2015-06-09 | 2016-12-19 | 오인환 | the automatic 3D modeliing method using 2D facial image |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210099408A (en) * | 2020-02-04 | 2021-08-12 | (주)헬스허브 | Apparatus and method for quantifying body size from medical image and providing thereof |
KR20210099411A (en) * | 2020-02-04 | 2021-08-12 | (주)헬스허브 | Apparatus for measuring body size through reverse direction fitting and method thereof |
KR20210101757A (en) * | 2020-02-11 | 2021-08-19 | (주)헬스허브 | Method and apparatus for measuring body size by matching medical images with different modalities |
Also Published As
Publication number | Publication date |
---|---|
KR101995411B1 (en) | 2019-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101995411B1 (en) | Device and method for making body model | |
CN114219878B (en) | Animation generation method and device for virtual character, storage medium and terminal | |
CN110544301A (en) | Three-dimensional human body action reconstruction system, method and action training system | |
CN113298858A (en) | Method, device, terminal and storage medium for generating action of virtual image | |
CN109453517B (en) | Virtual character control method and device, storage medium and mobile terminal | |
KR102202490B1 (en) | Device and method for measuring three-dimensional body model | |
CN111626105B (en) | Gesture estimation method and device and electronic equipment | |
CN110910449B (en) | Method and system for identifying three-dimensional position of object | |
CN114821675A (en) | Object processing method and system and processor | |
US20140198177A1 (en) | Realtime photo retouching of live video | |
JP2016192687A (en) | Video display system and video display method | |
CN116109974A (en) | Volumetric video display method and related equipment | |
CN115082537A (en) | Monocular self-monitoring underwater image depth estimation method and device and storage medium | |
CN112734657B (en) | Cloud group photo method and device based on artificial intelligence and three-dimensional model and storage medium | |
CN116320711A (en) | Image shooting method and device | |
JP7365435B2 (en) | Computer-implemented body measurement method | |
WO2023185241A1 (en) | Data processing method and apparatus, device and medium | |
EP3182367A1 (en) | Apparatus and method for generating and visualizing a 3d model of an object | |
JP7322235B2 (en) | Image processing device, image processing method, and program | |
CN114283447B (en) | Motion capturing system and method | |
CN118355409A (en) | Image conversion device, control method for image conversion device, control program, and recording medium | |
Woodward et al. | An interactive 3D video system for human facial reconstruction and expression modeling | |
KR101243771B1 (en) | Device and method for synchronization of motion data | |
JP5015109B2 (en) | Information processing apparatus, information processing method, program, and information storage medium | |
CN117414572A (en) | Key point extraction method and handle controller of virtual interaction device for realizing same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |