KR20220074674A - Apparatus and method for generating 3d data - Google Patents
Apparatus and method for generating 3d data Download PDFInfo
- Publication number
- KR20220074674A KR20220074674A KR1020210028936A KR20210028936A KR20220074674A KR 20220074674 A KR20220074674 A KR 20220074674A KR 1020210028936 A KR1020210028936 A KR 1020210028936A KR 20210028936 A KR20210028936 A KR 20210028936A KR 20220074674 A KR20220074674 A KR 20220074674A
- Authority
- KR
- South Korea
- Prior art keywords
- data
- generating
- unit
- point cloud
- information
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000012800 visualization Methods 0.000 claims abstract description 19
- 238000012958 reprocessing Methods 0.000 abstract 1
- 239000013585 weight reducing agent Substances 0.000 description 18
- 238000010586 diagram Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G06T5/001—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2211/00—Image generation
- G06T2211/40—Computed tomography
- G06T2211/416—Exact reconstruction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
본 개시는 3차원 데이터 생성 장치 및 방법에 관한 것이다. 본 개시의 실시예에 따른 방법은 외부로부터 데이터를 수신하는 단계, 수신된 데이터에 기초하여 제1 포인트 클라우드 데이터를 생성하는 단계, 제1 포인트 클라우드 데이터에 기초하여 폐색 영역을 검출하는 단계, 검출된 폐색 영역에 기초하여 제2 포인트 클라우드 데이터를 생성하는 단계, 제1 및 제2 포인트 클라우드 데이터에 기초하여 3차원 메쉬 및 텍스쳐 정보를 생성하는 단계, 3차원 메쉬 및 텍스쳐 정보에 기초하여 오브젝트 단위 정보를 생성하는 단계, 그리고 오브젝트 단위 정보에 기반하여 가시화 데이터를 생성하는 단계를 포함한다. 본 개시에 따르면, 폐색 영역에 해당하는 일부 영역의 데이터를 입력 데이터로 이용할 수 있고, 오브젝트 단위로 재가공하여 경량화 및 가시화한 3차원 데이터를 생성할 수 있다.The present disclosure relates to an apparatus and method for generating 3D data. A method according to an embodiment of the present disclosure includes the steps of receiving data from the outside, generating first point cloud data based on the received data, detecting an occlusion area based on the first point cloud data, the detected Generating second point cloud data based on the occlusion area, generating 3D mesh and texture information based on the first and second point cloud data, Object unit information based on the 3D mesh and texture information generating, and generating visualization data based on the object unit information. According to the present disclosure, data of a partial region corresponding to the occluded region may be used as input data, and 3D data that is lightweight and visualized may be generated by reprocessing in units of objects.
Description
본 개시는 3차원 데이터 생성 장치 및 방법에 관한 것으로, 좀 더 상세하게는, 데이터 획득에서부터 가상 공간 서비스에 적합한 3차원 데이터 생성까지의 파이프라인을 따르는 3차원 데이터 생성 장치 및 방법에 관한 것이다.The present disclosure relates to an apparatus and method for generating 3D data, and more particularly, to an apparatus and method for generating 3D data that follows a pipeline from data acquisition to 3D data generation suitable for a virtual space service.
최근 3차원 공간 복원 기술의 발달 및 AR/VR 시장의 활성화로 3차원 복원 데이터에 대한 관심이 높아지고 있다. 특히 AR/VR 시장의 규모는 가파르게 성장하고 있고, 그에 필수적인 3차원 복원 데이터 수요는 증가하고 있는 추세이다. Recently, with the development of 3D spatial restoration technology and the activation of the AR/VR market, interest in 3D restoration data is increasing. In particular, the size of the AR/VR market is growing rapidly, and the demand for essential 3D restoration data is increasing.
3차원 데이터를 생성하기 위해서는, 영상 획득 과정, 획득한 영상으로부터 3차원 정보를 계산하고 3차원 공간을 생성하는 과정, 그리고 3차원 공간을 활용하고 서비스하기 위한 가시화하는 과정이 필요하다. 일반적인 3차원 데이터 복원 툴은 영상을 입력으로 받아 공간 전체를 복원하는 기능을 제공한다.In order to generate 3D data, an image acquisition process, a process of calculating 3D information from the acquired image and generating a 3D space, and a process of visualizing the 3D space to utilize and service are required. A general 3D data restoration tool receives an image as an input and provides a function to restore the entire space.
실제로 사용자가 서비스를 제공하기 위해서는 서비스 시나리오에 적합하게 3차원 데이터를 생성 및 수정할 수 있는 방안이 필요하다. 그러나, 기존의 기술은 사용자의 필요에 따라 일부 영역만을 복원할 수 없거나, 복원된 결과 중 일부 오브젝트만을 활용할 수 없는 문제가 있다.In order for a user to actually provide a service, a method for generating and modifying 3D data suitable for a service scenario is required. However, the existing technology has a problem in that only some areas cannot be restored according to the user's needs, or only some objects among the restored results cannot be utilized.
또한, 일반적인 3차원 데이터 복원 툴은 서비스 시나리오의 종류에 따라 복원 결과의 품질과 경량화를 함께 고려하지 않은 문제가 있다. 이와 같은 문제를 해결하기 위해서는 사용자가 직접 3차원 데이터를 수작업으로 수정하여 시간과 노력이 크게 소요되어, 결과적으로 서비스 제작 단가가 증가되는 문제가 있다. 나아가, 일반적인 3차원 데이터 복원 툴로는 복원 데이터에 폐색 영역이 존재하더라도 일부 영역만 복원할 수 없어 전 영역을 다시 복원해야 하는 문제가 있다.In addition, there is a problem in that a general 3D data restoration tool does not consider both the quality and weight reduction of the restoration result depending on the type of service scenario. In order to solve such a problem, a user manually modifies the 3D data, which takes a lot of time and effort, and as a result, there is a problem in that the service production unit cost is increased. Furthermore, even if an occluded region exists in the restored data with a general 3D data restoration tool, only some regions cannot be restored, so the entire region must be restored again.
본 개시의 목적은, 3차원 공간을 복원하고 활용하기 위하여, 데이터 획득에서부터 가상 공간 서비스에 적합한 3차원 데이터 생성까지의 파이프라인을 따르는 3차원 데이터 생성 장치 및 방법을 제공하는데 있다.An object of the present disclosure is to provide an apparatus and method for generating 3D data that follow a pipeline from data acquisition to generation of 3D data suitable for a virtual space service in order to restore and utilize 3D space.
본 개시의 실시 예에 따른 3차원 데이터 생성 방법은, 외부로부터 이미지 데이터 및 동영상 데이터 중 적어도 하나를 수신하는 단계, 상기 수신된 데이터에 기초하여 3차원 공간 정보를 계산하여 제1 포인트 클라우드 데이터를 생성하는 단계, 상기 제1 포인트 클라우드 데이터에 기초하여 폐색 영역을 검출하는 단계, 상기 검출된 폐색 영역에 기초하여 상기 폐색 영역에 해당하는 일부 영역의 데이터를 수신하여 제2 포인트 클라우드 데이터를 생성하는 단계, 상기 제1 포인트 클라우드 데이터 및 상기 제2 포인트 클라우드 데이터에 기초하여 3차원 메쉬 및 텍스쳐 정보를 생성하는 단계, 상기 3차원 메쉬 및 텍스쳐 정보에 기초하여 오브젝트 단위로 분류하여 재가공한 오브젝트 단위 정보를 생성하는 단계, 그리고 상기 오브젝트 단위 정보에 기초하여 가시화 데이터를 생성하는 단계를 포함한다.The method for generating 3D data according to an embodiment of the present disclosure includes receiving at least one of image data and video data from the outside, calculating 3D spatial information based on the received data to generate first point cloud data detecting an occlusion area based on the first point cloud data; generating second point cloud data by receiving data of a partial area corresponding to the occlusion area based on the detected occlusion area; Generating three-dimensional mesh and texture information based on the first point cloud data and the second point cloud data, classifying into object units based on the three-dimensional mesh and texture information, and generating object unit information reprocessed and generating visualization data based on the object unit information.
본 개시에 의하면, 복원 결과의 폐색 영역에 대응하는 이미지 또는 영상만을 재촬영하여 3차원 데이터를 생성할 수 있다. 또한, 일반적인 3차원 데이터 복원 툴에서 제공하지 않는 오브젝트 분류 및 재구성 기능을 이용하여 오브젝트 단위로 3차원 데이터를 생성할 수 있다.According to the present disclosure, 3D data may be generated by re-photographing only an image or an image corresponding to the occluded area of the restoration result. In addition, 3D data may be generated in units of objects by using object classification and reconstruction functions that are not provided by general 3D data restoration tools.
나아가, 본 개시에 의하면, 서비스 시나리오에 적합하게 데이터의 경량화 및 가시화할 수 있어 다양한 서비스에 활용할 수 있다.Furthermore, according to the present disclosure, data can be reduced and visualized appropriately for a service scenario, so that it can be utilized for various services.
도 1은 본 개시의 실시 예에 따른 3차원 데이터 생성 장치(100)를 개략적으로 보여주는 블록도이다.
도 2는 도 1에 도시된 3차원 복원부(120)의 구성을 좀 더 상세하게 보여주는 블록도이다.
도 3은 도 1에 도시된 재구성부(130)의 구성을 좀 더 상세하게 보여주는 블록도이다.
도 4는 도 1에 도시된 서비스화 작업부(140)의 구성을 좀 더 상세하게 보여주는 블록도이다.
도 5는 본 개시의 실시 예에 따른 폐색영역을 보여주는 도면이다.
도 6은 본 개시의 실시 예에 따른 오브젝트 분류 결과를 보여주는 도면이다.
도 7은 본 개시의 실시 예에 따른 3차원 데이터 생성 방법을 보여주는 순서도이다.1 is a block diagram schematically showing an
FIG. 2 is a block diagram showing the configuration of the three-
FIG. 3 is a block diagram showing the configuration of the
4 is a block diagram showing in more detail the configuration of the
5 is a diagram illustrating an occluded area according to an embodiment of the present disclosure.
6 is a diagram illustrating an object classification result according to an embodiment of the present disclosure.
7 is a flowchart illustrating a method for generating 3D data according to an embodiment of the present disclosure.
아래에서는, 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 개시를 쉽게 실시할 수 있을 정도로, 본 개시의 실시 예들이 명확하고 상세하게 기재될 것이다.Below, embodiments of the present disclosure will be described clearly and in detail to the extent that those skilled in the art can easily practice the present disclosure.
상세한 설명에서 사용되는 부 또는 유닛(unit), 모듈(module), 블록(block), ~기(~or, ~er) 등의 용어들을 참조하여 설명되는 구성 요소들 및 도면에 도시된 기능 블록들은 소프트웨어, 또는 하드웨어, 또는 그것들의 조합의 형태로 구현될 수 있다. 예시적으로, 소프트웨어는 기계 코드, 펌웨어, 임베디드 코드, 및 응용 애플리케이션 소프트웨어일 수 있다. 예를 들어, 하드웨어는 전기 회로, 전자 회로, 프로세서, 컴퓨터, 집적 회로, 집적 회로 코어들, 압력 센서, 관성 센서, 멤즈(microelectromechanical system; MEMS), 수동 소자, 또는 그것들의 조합을 포함할 수 있다. Components described with reference to terms such as unit or unit, module, block, and group (~or, ~er) used in the detailed description and functional blocks shown in the drawings are It may be implemented in the form of software, hardware, or a combination thereof. Illustratively, the software may be machine code, firmware, embedded code, and application software. For example, hardware may include an electrical circuit, an electronic circuit, a processor, a computer, an integrated circuit, integrated circuit cores, a pressure sensor, an inertial sensor, a microelectromechanical system (MEMS), a passive element, or a combination thereof. .
도 1은 본 개시의 실시 예에 따른 3차원 데이터 생성 장치(100)를 개략적으로 보여주는 블록도이다. 3차원 데이터 생성 장치(100)는 데이터 획득부(110), 3차원 복원부(120), 재구성부(130), 서비스화 작업부(140), 및 저장부(150)을 포함할 수 있다.1 is a block diagram schematically showing an
3차원 데이터 생성 장치(100)는 입력 데이터(input data; DIN)에 기반하여 온라인 서비스에 필요한 3차원 데이터를 생성하고 저장할 수 있다. 예를 들어, 온라인 서비스는 영화, TV광고, 게임, 또는 AR/VR 등 3차원 공간정보를 필요로 하는 콘텐츠를 사용자에게 제공하는 것과 관련될 수 있다. 예를 들어, 3차원 데이터 생성 장치(100)는 사용자가 원하는 오브젝트 단위 정보에 기반하여 3차원 데이터를 생성하고 저장할 수 있다. 나아가, 3차원 데이터 생성 장치(100)는 3차원 데이터 생성 과정에서 3차원 공간으로 복원되지 않은 영역 즉, 폐색영역이 검출되면 폐색영역에 해당하는 입력 데이터(DIN)를 재획득하여 3차원 데이터를 생성할 수 있다.The 3D
데이터 획득부(110)는 입력 데이터(DIN)에 기반하여 3차원 데이터 생성에 필요한 처리 데이터(processed data; PD)를 생성할 수 있다. 예를 들어, 입력 데이터(DIN)는 항공기, 인공위성, 또는 드론 등으로 촬영된 이미지 데이터 및 동영상 데이터 중 적어도 하나를 포함할 수 있다. 도시되지 않았으나, 3차원 데이터 생성 장치(100)는 송수신 모듈(미도시) 또는 네트워크 아답터(미도시)를 더 포함할 수 있다. 예를 들어, 송수신 모듈(미도시)은 증폭기, 믹서, 대역폭 필터, 및 송수신 안테나를 포함할 수 있다. 송수신 모듈(미도시)은 항공기, 인공위성, 또는 드론 등과 상호 무선 통신하여 데이터를 물리적으로 송수신할 수 있다. 예를 들어, 네트워크 아답터(미도시)는 항공기, 인공위성, 또는 드론 등으로 촬영된 이미지 데이터 및 동영상 데이터를 전송받기 위해 외부 네트워크와 통신할 수 있다. 예를 들어, 데이터 획득부(110)는 송수신 모듈(미도시) 또는 네트워크 아답터(미도시)로부터 입력 데이터(DIN)를 수신할 수 있다.The
나아가, 데이터 획득부(110)는 폐색 영역 피드백 신호(occlusion region feedback signal; ORS)를 수신한 경우, 폐색 영역에 해당하는 새로운 입력 데이터(DIN)를 획득하기 위해, 항공기, 인공위성, 및 드론 등에 재촬영을 요청하는 재촬영 요청 신호(re-shoot request signal; RRS)를 송수신 모듈(미도시) 또는 네트워크 아답터(미도시)를 이용하여 송신할 수 있다.Furthermore, when the
또한, 데이터 획득부(110)는 필요한 경우 입력 데이터(DIN)에 기반하여 전처리(Preprocessing) 과정을 통해 처리 데이터(PD)를 생성할 수 있다. 예를 들어, 전처리 과정은 이미지 또는 동영상 데이터의 사이즈 조절, 형식 변환, 융합, 및 화질 보정 등 중 적어도 하나를 포함할 수 있다. 예시적으로, 데이터 획득부(110)는 2 이상의 입력 데이터(DIN)를 수신한 경우, 각각의 입력 데이터를 융합하는 전처리 과정을 통해 처리 데이터(PD)를 생성할 수 있다. 예를 들어, 처리 데이터(PD)는 입력 데이터(DIN) 자체 또는 입력 데이터(DIN)에 기반하여 전처리 과정을 수행한 데이터일 수 있다.Also, if necessary, the
3차원 복원부(120)는 처리 데이터(PD)에 기반하여 3차원 메쉬 및 텍스쳐 정보(MTI)를 생성할 수 있다. 3차원 복원부(120)는 복원 결과 온전히 복원되지 않은 영역, 즉 폐색 영역을 검출할 수 있다. 따라서, 폐색 영역이 검출된 경우, 3차원 복원부(120)는 새로운 입력 데이터(DIN)를 요구하는 폐색 영역 피드백 신호(ORS)를 데이터 획득부(110)에 송신할 수 있다. 예를 들어, 폐색 영역 피드백 신호(ORS)는 폐색 영역에 관한 정보(예를 들어, 좌표값, 방향값, 및 위상값 등), 재촬영 도구의 필요 이동값 정보, 및 필요 조도값 정보 등을 포함할 수 있다. 예를 들어, 폐색 영역에 관한 정보는 폐색 영역을 포함하는 전체 영역에 해당하는 정보 또는 폐색 영역에 해당하는 정보일 수 있다. 나아가, 3차원 복원부(120)는 피드백에 의해 재촬영된 데이터와 외부 메모리(미도시)에 저장된 기존 복원 데이터에 융합할 수 있다. 3차원 복원부(120)의 구체적인 구성 및 동작은 도 2를 통하여 설명될 것이다.The
재구성부(130)는 3차원 메쉬 및 텍스쳐 정보(3D mesh and texture information; MTI)에 기반하여 오브젝트 단위 정보(object information; OBJI)를 생성할 수 있다. 예를 들어, 재구성부(130)는 3차원 메쉬 및 텍스쳐 정보(MTI)를 오브젝트 단위(예를 들어, 자동차, 빌딩, 나무 등)로 분류할 수 있고, 분류된 오브젝트들을 사용자의 요청에 따라 재구성할 수 있다. 재구성부(130)의 구체적인 구성 및 동작은 도 3을 통하여 설명될 것이다.The
서비스화 작업부(140)는 오브젝트 단위 정보(OBJI)에 기반하여 가시화 데이터(visualized data; VD)를 생성할 수 있다. 서비스화 작업부(140)는 사용자가 원하는 품질과 용량을 가진 3차원 데이터로 가시화할 수 있다. 예를 들어, 빌딩 오브젝트의 경우, 서비스화 작업부(140)는 빌딩을 표현할 수 있는 여러 가지 특징을 정의하고 정의한 특징으로만 빌딩을 가시화할 수 있다. 예를 들어, 서비스화 작업부(140)는 3차원 데이터를 사용자의 요청 또는 서비스 장치의 사양에 따라 가공(예를 들어, 경량화)할 수 있다. 3차원 데이터의 경량화가 요구되지 않는 경우에는, 서비스화 작업부(140)는 3차원 데이터를 경량화하지 않을 수 있다. 서비스화 작업부(140)의 구체적인 구성 및 동작은 도 4를 통하여 설명될 것이다.The
저장부(150)는 가시화 데이터(VD)를 저장하도록 구성될 수 있다. 예를 들어, 저장부(150)는 일반적인 기억장치인 RAM(random access memory), 또는 플래시 메모리(flash memory) 등으로 구성될 수 있다. 그러나, 저장부(150)는 이러한 구성에 한정되지 않고 저장을 위한 어떠한 메모리로도 구성될 수 있으며, 외부 메모리(미도시)의 일부일 수 있다.The
도 2는 도 1에 도시된 3차원 복원부(120)의 구성을 좀 더 상세하게 보여주는 블록도이다. 3차원 복원부(120)는 공간정보 계산기(121), 3차원 공간 복원기(122), 및 메쉬/텍스쳐 생성기(123)를 포함할 수 있다.FIG. 2 is a block diagram showing the configuration of the three-
공간정보 계산기(121)는 처리 데이터(PD)에 기반하여 3차원 공간 정보(SI)를 생성할 수 있다. 예를 들어, 공간정보 계산기(121)는 2차원 형태의 처리 데이터(PD)를 이용하여 3차원 공간을 복원하기 위한 3차원 공간 정보(SI)를 계산할 수 있다. 예를 들어, 공간정보 계산기(121)는 하나 이상의 처리 데이터(PD)에 기반하여 3차원 공간 특징들을 추출하고, 변환 함수를 이용하여 3차원 공간 정보(SI)를 계산할 수 있다.The spatial information calculator 121 may generate 3D spatial information SI based on the processed data PD. For example, the spatial information calculator 121 may calculate 3D spatial information SI for reconstructing a 3D space by using the 2D processed data PD. For example, the spatial information calculator 121 may extract 3D spatial features based on one or more processed data PD and calculate 3D spatial information SI by using a transform function.
3차원 공간 복원기(122)는 3차원 공간 정보(3D spatial information; SI)에 기반하여 포인트 클라우드 데이터(point cloud data; PCD)를 생성할 수 있다. 포인트 클라우드의 각 포인트들은 3차원 공간 좌표값, 색상값, 및 노말값 등을 가질 수 있다. 예를 들어, 포인트 클라우드 데이터(PCD)는 3차원 공간 정보(SI)에 의해 복원되지 않은 영역, 즉 폐색 영역(occlusion region)을 포함할 수 있다. 3차원 공간 복원기(122)는 폐색 영역을 검출할 수 있다. 폐색 영역이 검출된 경우, 공간 복원기(122)는 데이터 획득부(110)에 폐색 영역 피드백 신호(ORS)를 송신할 수 있다. 이는 3차원 복원부(120)가 폐색 영역에 해당하는 처리 데이터(PD)를 3차원 복원할 수 있도록 하기 위함이다.The 3D
나아가, 3차원 공간 복원기(122)는 3차원 공간 정보(SI)를 외부 메모리(미도시)에 임시 저장할 수 있다. 예를 들어, 3차원 공간 복원기(122)는 폐색 영역 피드백 신호(ORS)에 의해 새롭게 생성된 3차원 공간 정보(SI)를 외부 메모리(미도시)에 저장된 기존의 3차원 공간 정보(SI)와 융합할 수 있다. 결과적으로 폐색 영역이 검출되지 않았다면, 3차원 공간 복원기(122)는 융합된 또는 융합되지 않은 3차원 공간 정보(SI)를 이용하여 포인트 클라우드 데이터(PCD)를 생성할 수 있다.Furthermore, the
메쉬/텍스쳐 생성기(123)는 포인트 클라우드 데이터(PCD)에 기반하여 3차원 메쉬 및 텍스쳐 정보(MTI)를 생성할 수 있다. 예를 들어, 메쉬/텍스쳐 생성기(123)는 포인트 클라우드에서 노이즈 정보를 갖는 포인트를 제거할 수 있다. 나아가, 메쉬/텍스쳐 생성기(123)는 평탄화 등의 작업을 통해 보다 직관적인 3차원 메쉬 및 텍스쳐 정보(MTI)를 생성할 수 있다. The mesh/texture generator 123 may generate a 3D mesh and texture information (MTI) based on the point cloud data (PCD). For example, the mesh/texture generator 123 may remove points having noise information from the point cloud. Furthermore, the mesh/texture generator 123 may generate a more intuitive 3D mesh and texture information (MTI) through an operation such as planarization.
도 3은 도 1에 도시된 재구성부(130)의 구성을 좀 더 상세하게 보여주는 블록도이다. 재구성부(130)는 오브젝트 분류기(131), 및 오브젝트 처리기(132)를 포함할 수 있다.FIG. 3 is a block diagram showing the configuration of the
오브젝트 분류기(131)는 3차원 메쉬 및 텍스쳐 정보(MTI)에 기반하여 분류된 오브젝트들(OSEG)을 생성할 수 있다. 예를 들어, 오브젝트 분류기(131)는 하나의 이어진 형태로 생성된 3차원 메쉬 및 텍스쳐 정보(MTI)를 개별적인 오브젝트 단위로 분리하는 세그멘테이션(segmentation)과정을 수행할 수 있다. 예를 들어, 분류된 오브젝트(segmented object; OSEG)들은 물체의 외형을 기준으로 분류된 건물, 도로, 나무 또는 자동차 등의 오브젝트들을 포함할 수 있다. The
오브젝트 처리기(132)는 분류된 오브젝트들(OSEG)에 기반하여 오브젝트 단위 정보(OBJI)를 생성할 수 있다. 예를 들어, 오브젝트 처리기(132)는 분류된 오브젝트들(OSEG)를 이용하여 사용자가 원하는 형태로 오브젝트들을 새로 생성하거나 재구성한 오브젝트 단위 정보(OBJI)를 생성할 수 있다. The
도 4는 도 1에 도시된 서비스화 작업부(140)의 구성을 좀 더 상세하게 보여주는 블록도이다. 서비스화 작업부(140)는 경량화 작업부(141), 가시화 작업부(142), 및 데이터 버퍼(143)를 포함할 수 있다.4 is a block diagram showing in more detail the configuration of the
경량화 작업부(141)는 오브젝트 단위 정보(OBJI)에 기반하여 경량화 데이터를 생성할 수 있다. 예를 들어, 서비스 시나리오상 데이터의 경량화가 필요한 경우, 경량화 작업부(141)는 데이터 용량 및 품질간의 트레이드 오프(trade-off) 관계를 이용한 데이터 경량화, 사용자의 요청에 따른 특정 오트젝트 데이터에 대한 선택적 경량화, 및 오브젝트를 제외한 백그라운드 영역의 제거 등의 압축기술을 이용한 데이터 경량화 중 적어도 하나를 포함하는 경량화 작업을 통해 경량화 데이터를 생성할 수 있다. 경량화 작업부(141)는 경량화 데이터가 후술하는 가시화 작업부(142)에 의해 가시화되기 전에 데이터 버퍼(143)에 경량화 데이터를 임시 저장할 수 있다.The weight
가시화 작업부(142)는 오브젝트 단위 정보(OBJI) 또는 경량화 데이터에 기반하여 가시화 데이터(VD)를 생성할 수 있다. 예를 들어, 서비스 시나리오상 데이터의 경량화가 필요하지 않은 경우, 가시화 작업부(142)는 직접 오브젝트 단위 정보(OBJI)를 수신하여 가시화 데이터(VD)를 생성할 수 있다. 반면, 서비스 시나리오상 데이터의 경량화가 필요한 경우, 가시화 작업부(142)는 경량화 데이터에 기반하여 가시화 데이터(VD)를 생성할 수 있다.The visualization operation unit 142 may generate the visualization data VD based on the object unit information OBJI or the weight reduction data. For example, when light weight of data is not required in a service scenario, the visualization work unit 142 may directly receive the object unit information OBJI to generate the visualization data VD. On the other hand, when data reduction is required in a service scenario, the visualization task unit 142 may generate visualization data VD based on the weight reduction data.
나아가, 가시화 작업부(141)는 가시화 데이터(VD)가 서비스 시나리오에 적절한 용량의 데이터로 생성되었는지 여부를 확인할 수 있다. 용량이 부적격한 경우, 추가적인 경량화 작업이 필요하므로, 경량화 작업부(141)에 추가적인 경량화 작업을 요청할 수 있다. 경량화 작업을 요청 받은 경량화 작업부(141)는 데이터 버퍼(143)에 저장된 경량화 데이터를 추가적으로 경량화하여 가시화 작업부(142)에 전달할 수 있다. 서비스화 작업부(140)는 서비스 시나리오에 적절한 용량의 데이터로 가시화 데이터(VD)가 생성될 때까지 경량화 및 가시화 작업을 반복할 수 있다.Furthermore, the
도 5는 본 개시의 실시 예에 따른 폐색영역을 보여주는 도면이다. 이하, 도 1 및 도 2를 참조하여 설명한다. 3차원 복원부(120)에서, 3차원 공간 복원기(122)는 3차원 공간 정보(SI)를 통해 폐색 영역을 검출할 수 있다. 도 5에 도시된 바와 같이, 3차원 공간 정보(SI)는 다른 물체에 의해 가리워져 복원되지 않는 부분, 즉 폐색 영역을 포함할 수 있다. 폐색 영역이 검출된 경우, 3차원 공간 복원기(122)는 데이터 획득부(110)에 폐색 영역 피드백 신호(ORS)를 송신함으로써 폐색 영역에 해당하는 새로운 입력 데이터(DIN)를 요구할 수 있다.5 is a diagram illustrating an occluded area according to an embodiment of the present disclosure. Hereinafter, it will be described with reference to FIGS. 1 and 2 . In the
도 6은 본 개시의 실시 예에 따른 오브젝트 분류 결과를 보여주는 도면이다. 이하, 도 1 및 도 3을 참조하여 설명한다. 도 6에 도시된 바와 같이, 재구성부(130)의 오브젝트 분류기(131)는 하나의 이어진 형태로 생성된 3차원 메쉬 및 텍스쳐 정보(MTI)를 오브젝트 단위로 분리할 수 있다. 도 6에 도시된 분류된 오브젝트들(OSEG)은 오브젝트 처리기(132)를 통해 수정 또는 재구성될 수 있다.6 is a diagram illustrating an object classification result according to an embodiment of the present disclosure. Hereinafter, it will be described with reference to FIGS. 1 and 3 . As shown in FIG. 6 , the
도 7은 본 개시의 실시 예에 따른 3차원 데이터 생성 방법을 보여주는 순서도이다. 이하, 도 1 내지 도 3을 참조하여 설명한다.7 is a flowchart illustrating a method for generating 3D data according to an embodiment of the present disclosure. Hereinafter, it will be described with reference to FIGS. 1 to 3 .
단계 S110에서, 데이터 획득부(110)는 항공기, 인공위성, 또는 드론 등으로 촬영된 이미지 데이터 및 동영상 데이터 중 적어도 하나를 입력받을 수 있다. 폐색 영역 피드백 신호(ORS)를 수신한 경우, 데이터 획득부(110)는 항공기, 인공위성, 또는 드론 등에 폐색영역에 해당하는 일부 영역에 대한 재촬영을 요청할 수 있고, 이에 따라 재촬영된 이미지 데이터 및 동영상 데이터 중 적어도 하나를 입력받을 수 있다.In step S110, the
단계 S120에서, 데이터 획득부(110)는 입력 데이터(DIN)를 획득하여 처리 데이터(PD)를 생성할 수 있고, 2 이상의 입력 데이터(DIN)를 획득한 경우에는, 입력 데이터(DIN)들을 융합하여 처리 데이터(PD)를 생성할 수 있다. In step S120 , the
단계 S130에서, 공간정보 계산기(121)는 입력 받은 처리 데이터(PD)의 3차원 공간 정보(SI)를 산출하고 이를 3차원 공간 복원기(122)에 전달할 수 있다. 3차원 공간 복원기(122)은 3차원 공간 정보(SI)를 이용하여 포인트 클라우드 형태로 데이터를 복원하고 외부 메모리(미도시)에 저장할 수 있다.In operation S130 , the spatial information calculator 121 may calculate 3D spatial information SI of the received processed data PD and transmit it to the 3D
단계 S140에서, 3차원 공간 복원기(122)는 3차원 공간으로 복원된 데이터에 폐색 영역을 검출할 수 있다. 만약 폐색 영역이 검출되었다면(예), 절차는 S110 단계로 이동한다. 이 경우, 3차원 공간 복원기(122)는 데이터 획득부(110)로 폐색 영역 피드백 신호(ORS)를 전달할 수 있다. 폐색 영역 피드백 신호(ORS)를 전달받은 데이터 획득부(110)는, 폐색 영역에 해당하는 일부 영역에 대한 이미지 데이터 및 동영상 데이터 중 적어도 하나를 입력받을 수 있다. 반면, 폐색 영역에 검출되지 않았다면(아니오), 절차는 S150 단계로 이동한다.In operation S140 , the
단계 S150에서, 적어도 1회 이상 폐색 영역 피드백 신호(ORS)를 송신한 경우, 3차원 공간 복원기(122)는 외부 메모리(미도시)에 저장된 포인트 클라우드 데이터(PCD)와 폐색 영역 피드백 신호(ORS)에 의해 새롭게 생성된 포인트 클라우드 데이터(PCD)를 융합할 수 있다. 메쉬/텍스쳐 생성기(123)는 포인트 클라우드 데이터(PCD)를 이용하여 3차원 메쉬 및 텍스쳐 정보(MTI)를 생성할 수 있다. In step S150, when the occlusion region feedback signal ORS is transmitted at least once, the
단계 S160에서, 오브젝트 분류기(131)는 하나의 이어진 형태인 3차원 메쉬 및 텍스쳐 정보(MTI)를 오브젝트 단위로 분리할 수 있다. 오브젝트 처리기(132)는 분류된 오브젝트들(OSEG)을 이용하여 오브젝트를 새로 생성하거나 재구성할 수 있다. In operation S160 , the
단계 S170에서, 오브젝트 처리기(132)는 오브젝트의 분류 적합성, 오브젝트 간 경계 추정 적합성 등을 확인할 수 있다. 상기 적합성을 수치화한 값이 사용자의 요청으로 임의로 설정된 임계값에 미치지 못할 경우, 절차는 S160으로 이동하여 다시 오브젝트를 새로 생성하거나 재구성할 수 있고, 임계값을 초과한 경우, S180로 이동할 수 있다.In step S170 , the
단계 S180에서, 서비스화 작업부(140)는 서비스 시나리오에 적합하게 3차원 데이터를 경량화 및/또는 가시화할 수 있다.In step S180, the
단계 S190에서, 서비스화 작업부(140)는 서비스 시나리오에 적합한 용량의 3차원 데이터가 생성되었는지 여부를 확인할 수 있다. 용량이 적합하다면(예), 저장부(150)는 3차원 가시화 데이터(VD)를 저장하면서 전체 절차는 종료된다. 용량이 부적합하다면(아니오), 절차는 S180로 이동한다.In step S190, the
이상 본 개시의 실시 예에 따른 3차원 데이터 생성 장치 및 방법이 설명되었다. 본 개시에 의하면, 데이터 획득에서부터 가상 공간 서비스에 적합한 3차원 데이터 생성까지의 전체 파이프라인을 수행한다. 입력이 부족하여 폐색 영역이 발생한 경우 일부만 재촬영하여 3차원 데이터를 생성할 수 있고, 일반적인 3차원 데이터 복원 툴에서 제공하지 않는 오브젝트 분류 및 재구성 기능을 이용하여 오브젝트 단위로 3차원 데이터를 활용할 수 있다. 나아가, 서비스 시나리오에 적합하게 3차원 데이터를 경량화 및 가시화할 수 있다.The apparatus and method for generating 3D data according to an embodiment of the present disclosure have been described above. According to the present disclosure, the entire pipeline from data acquisition to 3D data generation suitable for virtual space service is performed. When an occluded area occurs due to insufficient input, 3D data can be generated by re-photographing only a portion, and 3D data can be utilized in units of objects by using object classification and reconstruction functions that are not provided by general 3D data restoration tools. . Furthermore, it is possible to lighten and visualize 3D data suitable for service scenarios.
상술된 내용은 본 개시를 실시하기 위한 구체적인 실시 예들이다. 본 개시는 상술된 실시 예들뿐만 아니라, 단순하게 설계 변경되거나 용이하게 변경할 수 있는 실시 예들 또한 포함할 것이다. 또한, 본 개시는 실시 예들을 이용하여 용이하게 변형하여 실시할 수 있는 기술들도 포함될 것이다. 따라서, 본 개시의 범위는 상술된 실시 예들에 국한되어 정해져서는 안되며 후술하는 특허청구범위뿐만 아니라 이 개시의 특허청구범위와 균등한 것들에 의해 정해져야 할 것이다.The above are specific embodiments for carrying out the present disclosure. The present disclosure will include not only the above-described embodiments, but also simple design changes or easily changeable embodiments. In addition, the present disclosure will also include techniques that can be easily modified and implemented using the embodiments. Therefore, the scope of the present disclosure should not be limited to the above-described embodiments, but should be defined by the claims described below as well as the claims and equivalents of the present disclosure.
100: 3차원 데이터 생성장치
110: 데이터 획득부
120: 3차원 복원부
121: 공간정보 계산기
122: 3차원 공간 복원기
123: 메쉬/텍스쳐 생성기
130: 재구성부
131: 오브젝트 분류기
132: 오브젝트 처리기
140: 서비스화 작업부
141: 경량화 작업부
142: 가시화 작업부
143: 데이터 버퍼
150: 저장부100: three-dimensional data generating device 110: data acquisition unit
120: three-dimensional restoration unit 121: spatial information calculator
122: three-dimensional space restorer 123: mesh/texture generator
130: reconstruction unit 131: object classifier
132: object handler 140: serviceization work unit
141: lightweight work unit 142: visualization work unit
143: data buffer 150: storage
Claims (1)
외부로부터 이미지 데이터 및 동영상 데이터 중 적어도 하나를 수신하는 단계;
상기 수신된 데이터에 기초하여 3차원 공간 정보를 계산하여 제1 포인트 클라우드 데이터를 생성하는 단계;
상기 제1 포인트 클라우드 데이터에 기초하여 폐색 영역을 검출하는 단계;
상기 검출된 폐색 영역에 기초하여 상기 폐색 영역에 해당하는 일부 영역의 데이터를 수신하여 제2 포인트 클라우드 데이터를 생성하는 단계;
상기 제1 포인트 클라우드 데이터 및 상기 제2 포인트 클라우드 데이터에 기초하여 3차원 메쉬 및 텍스쳐 정보를 생성하는 단계;
상기 3차원 메쉬 및 텍스쳐 정보에 기초하여 오브젝트 단위로 분류하여 재가공한 오브젝트 단위 정보를 생성하는 단계; 그리고
상기 오브젝트 단위 정보에 기초하여 가시화 데이터를 생성하는 단계를 포함하는 방법.In the three-dimensional data generation method,
Receiving at least one of image data and video data from the outside;
generating first point cloud data by calculating 3D spatial information based on the received data;
detecting an occlusion area based on the first point cloud data;
generating second point cloud data by receiving data of a partial region corresponding to the occlusion region based on the detected occlusion region;
generating 3D mesh and texture information based on the first point cloud data and the second point cloud data;
classifying into object units based on the 3D mesh and texture information to generate reprocessed object unit information; and
and generating visualization data based on the object unit information.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20200163018 | 2020-11-27 | ||
KR1020200163018 | 2020-11-27 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220074674A true KR20220074674A (en) | 2022-06-03 |
KR102578580B1 KR102578580B1 (en) | 2023-09-15 |
Family
ID=81983312
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210028936A KR102578580B1 (en) | 2020-11-27 | 2021-03-04 | Apparatus and method for generating 3d data |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102578580B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024076027A1 (en) * | 2022-10-07 | 2024-04-11 | 삼성전자 주식회사 | Method for generating point cloud and electronic device |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101013886B1 (en) * | 2008-03-03 | 2011-02-14 | 경상대학교산학협력단 | Method and apparatus for estimating initial pole position of AC permanent magnet synchronous motor |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200042781A (en) * | 2018-10-16 | 2020-04-24 | 에스케이텔레콤 주식회사 | 3d model producing method and apparatus |
KR20200045321A (en) * | 2018-10-22 | 2020-05-04 | 에스케이텔레콤 주식회사 | Space scanning apparatus and information processing method thereof |
-
2021
- 2021-03-04 KR KR1020210028936A patent/KR102578580B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200042781A (en) * | 2018-10-16 | 2020-04-24 | 에스케이텔레콤 주식회사 | 3d model producing method and apparatus |
KR20200045321A (en) * | 2018-10-22 | 2020-05-04 | 에스케이텔레콤 주식회사 | Space scanning apparatus and information processing method thereof |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024076027A1 (en) * | 2022-10-07 | 2024-04-11 | 삼성전자 주식회사 | Method for generating point cloud and electronic device |
Also Published As
Publication number | Publication date |
---|---|
KR102578580B1 (en) | 2023-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10783668B2 (en) | Handling duplicate points in point cloud compression | |
US11024092B2 (en) | System and method for augmented reality content delivery in pre-captured environments | |
EP3786890B1 (en) | Method and apparatus for determining pose of image capture device, and storage medium therefor | |
EP3473311B1 (en) | Providing apparatus, providing method and computer program | |
US11902577B2 (en) | Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device | |
US8766979B2 (en) | Three dimensional data compression | |
KR102009292B1 (en) | Apparatus and method for reconstructing three dimensional face based on multiple cameras | |
KR102578580B1 (en) | Apparatus and method for generating 3d data | |
KR102519653B1 (en) | Apparatus and method for point cloud compression | |
KR101669820B1 (en) | Apparatus and method for bidirectional inpainting in occlusion based on volume prediction | |
CN104717481A (en) | Image capturing apparatus, monitoring system, image processing apparatus, and image capturing method | |
US20100250588A1 (en) | Image searching system and image searching method | |
EP3806474A1 (en) | Method and device for encoding three-dimensional image, and method and device for decoding three-dimensional image | |
Anand et al. | Real time LiDAR point cloud compression and transmission for intelligent transportation system | |
WO2019098318A1 (en) | Three-dimensional point group data generation method, position estimation method, three-dimensional point group data generation device, and position estimation device | |
US20230245373A1 (en) | System and method for generating a three-dimensional photographic image | |
CN113313832A (en) | Semantic generation method and device of three-dimensional model, storage medium and electronic equipment | |
JP6944180B2 (en) | Video conversion system, video conversion method and video conversion program | |
KR101575284B1 (en) | Apparatus for generating texture of 3-demensional reconstructed object by resolution level of 2-demensional image and method thereof | |
JP2024040321A (en) | Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device | |
JP7440546B2 (en) | Point cloud data processing device and method | |
US20240040149A1 (en) | Three-dimensional data storage method, three-dimensional data acquisition method, three-dimensional data storage device, and three-dimensional data acquisition device | |
JP2024515203A (en) | Point cloud data transmission device, point cloud data transmission method, point cloud data receiving device, and point cloud data receiving method | |
KR102338488B1 (en) | Apparatus and Method for Reconstructing Human Posture and Shape Model based on Multi-View Image using Relative Distance information between Joints | |
WO2022224112A1 (en) | Inherited geometry patches |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |