KR102405647B1 - Space function system using 3-dimensional point cloud data and mesh data - Google Patents

Space function system using 3-dimensional point cloud data and mesh data Download PDF

Info

Publication number
KR102405647B1
KR102405647B1 KR1020220032054A KR20220032054A KR102405647B1 KR 102405647 B1 KR102405647 B1 KR 102405647B1 KR 1020220032054 A KR1020220032054 A KR 1020220032054A KR 20220032054 A KR20220032054 A KR 20220032054A KR 102405647 B1 KR102405647 B1 KR 102405647B1
Authority
KR
South Korea
Prior art keywords
image
unit
point cloud
cloud data
data
Prior art date
Application number
KR1020220032054A
Other languages
Korean (ko)
Inventor
이종훈
Original Assignee
헬리오센 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 헬리오센 주식회사 filed Critical 헬리오센 주식회사
Priority to KR1020220032054A priority Critical patent/KR102405647B1/en
Application granted granted Critical
Publication of KR102405647B1 publication Critical patent/KR102405647B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Architecture (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Geometry (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 인공적 내지 자연적인 각종 시설물의 3D 이미지에서 찾고자 하는 시설물 내지 시설물 부분의 3D 이미지를 3차원 점군 데이터형 이미지의 고속 동적 가시화 및 투명 메쉬데이터의 응용 기술을 통해 보다 빠르고 정확하게 탐색한 다음, 탐색된 해당 시설물에 대한 분석, DB화 및 DB 수정 작업, 기타 관리 작업이 보다 효율적으로 진행될 수 있도록 하는 3차원 점군데이터 고속 동적 가시화와 투명 메쉬데이터를 이용한 공간함수 시스템에 관한 것으로서, 본 발명에 따른 3차원 점군데이터 고속 동적 가시화와 투명 메쉬데이터를 이용한 공간함수 시스템은 고속 동적 가시화용 데이터베이스부, 제어부, 디스플레이부, 입력부, 이미지 획득용 드론 장착부, 이미지 데이터 수신부 및 LOD 모드 조정부를 포함하여 구성된다.The present invention searches for a 3D image of a facility or a part of a facility to be found in a 3D image of various artificial or natural facilities faster and more accurately through high-speed dynamic visualization of a 3D point cloud data type image and application technology of transparent mesh data, and then It relates to a spatial function system using high-speed dynamic visualization of 3D point cloud data and transparent mesh data that enables more efficient analysis, DB formation, DB modification, and other management operations for the facility, according to the present invention. The spatial function system using high-speed dynamic visualization of dimensional point cloud data and transparent mesh data is composed of a database unit for high-speed dynamic visualization, a control unit, a display unit, an input unit, a drone mounting unit for image acquisition, an image data receiving unit, and an LOD mode adjustment unit.

Description

3차원 점군데이터 고속 동적 가시화와 투명 메쉬데이터를 이용한 공간함수 시스템{Space function system using 3-dimensional point cloud data and mesh data}Space function system using 3-dimensional point cloud data and mesh data with high-speed dynamic visualization of three-dimensional point cloud data and transparent mesh data

본 발명은 인공적 내지 자연적인 각종 시설물의 3D 이미지에서 찾고자 하는 시설물 내지 시설물 부분의 3D 이미지를 3차원 점군 데이터형 이미지의 고속 동적 가시화 및 투명 메쉬데이터의 응용 기술을 통해 보다 빠르고 정확하게 탐색한 다음, 탐색된 해당 시설물에 대한 분석, DB화 및 DB 수정 작업, 기타 관리 작업이 보다 효율적으로 진행될 수 있도록 하는 3차원 점군데이터 고속 동적 가시화와 투명 메쉬데이터를 이용한 공간함수 시스템에 관한 것이다.The present invention searches for a 3D image of a facility or a part of a facility to be found in a 3D image of various artificial or natural facilities faster and more accurately through high-speed dynamic visualization of a 3D point cloud data type image and application technology of transparent mesh data, and then It relates to a spatial function system using high-speed dynamic visualization of 3D point cloud data and transparent mesh data that enables more efficient analysis, DB conversion, DB modification, and other management tasks for the facility.

3차원 영상 데이터 중 하나인 포인트 클라우드(Point Cloud), 다시 말해 3차원 점군 데이터(3-dimensional point cloud data)는 3차원 공간 상의 좌표계에 속한 점들의 집합으로써, 라이다(Lider), 스테레오 카메라, RGB-D센서 등의 센서 내지 이를 장착한 장치에 의해서 생성될 수 있다.One of the three-dimensional image data, a point cloud, that is, three-dimensional point cloud data, is a set of points belonging to a coordinate system in a three-dimensional space. It may be generated by a sensor such as an RGB-D sensor or a device equipped with the same.

이러한 3차원 점군 데이터에 포함되는 각각의 점들은 일반적으로 3차원 좌표계에서의 점의 좌표 표시 방식인 x, y, z 좌표로 정의되며, 3차원 모델의 구성을 위해 사용될 수 있다. 또한, 물체의 표면 및 형태를 나타내거나, 지형이나 구조물의 형상이나 배치, 즉 위치정보를 나타내기 위하여 활용된다.Each point included in the three-dimensional point cloud data is generally defined as x, y, and z coordinates, which are coordinates of a point in a three-dimensional coordinate system, and may be used to construct a three-dimensional model. In addition, it is used to indicate the surface and shape of an object, or to indicate the shape or arrangement of a topography or structure, that is, location information.

한편 메쉬 데이터 내지 메쉬 데이터 시스템(mesh data system)은 지도상에 그리드를 설정하고, 그 그리드내에 포함되는 내용을 수치화하여 지역의 특성을 시각적으로 표현하는 방법을 말한다.On the other hand, mesh data or mesh data system refers to a method of setting a grid on a map and quantifying the contents included in the grid to visually express regional characteristics.

본 출원인은 상술한 기술들을 배경으로, 인공적 내지 자연적인 각종 시설물의 3D 이미지에서 탐색코자 하는 시설물의 3D 이미지를 보다 빠르고 정확하게 탐색 후 해당 시설물에 대한 분석, DB화 및 DB 수정 작업, 기타 관리 작업을 보다 효율적으로 진행할 수 있도록 하는 시스템으로서 본 발명을 제안하게 되었다.Based on the above-mentioned technologies, the applicant searches for the 3D image of the facility to be searched from the 3D image of various artificial or natural facilities more quickly and accurately, and then analyzes the facility, DB and DB modification work, and other management work. The present invention has been proposed as a system for more efficiently proceeding.

한국 공개특허 제10-2022-0008466호(2022.01.21.공개), “3차원 점군 데이터의 메쉬 생성 방법 및 장치”Korean Patent Laid-Open Patent No. 10-2022-0008466 (published on January 21, 2022), “Method and Apparatus for Mesh Generation of 3D Point Cloud Data” 한국 등록특허 제10-1899984호(2018.09.18.공고), “대용량 메시 데이터 가시화 시스템”Korean Patent Registration No. 10-1899984 (2018.09.18. Announcement), “Large-capacity mesh data visualization system”

본 발명의 실시 예는 인공적 내지 자연적인 각종 시설물의 3D 이미지에서 찾고자 하는 시설물 내지 시설물 부분의 3D 이미지를 3차원 점군 데이터형 이미지의 고속 동적 가시화 및 투명 메쉬데이터의 응용 기술을 통해 보다 빠르고 정확하게 탐색한 다음, 탐색된 해당 시설물에 대한 분석, DB화 및 DB 수정 작업, 기타 관리 작업이 보다 효율적으로 진행될 수 있도록 하는 3차원 점군데이터 고속 동적 가시화와 투명 메쉬데이터를 이용한 공간함수 시스템을 제공한다.An embodiment of the present invention is a 3D image of a facility or a part of a facility to be found in the 3D image of various artificial or natural facilities faster and more accurately through high-speed dynamic visualization of a 3D point cloud data type image and application technology of transparent mesh data. Next, a spatial function system using high-speed dynamic visualization of 3D point cloud data and transparent mesh data is provided so that analysis, DB conversion, DB modification, and other management tasks for the discovered facility can be performed more efficiently.

또한, 본 발명의 실시 예는 인공적 내지 자연적 각종 시설물 및 지적 표고 등을 관리하는 솔루션 제공을 위한 것으로서, 라이다, 스테레오 카메라, 센서DB 등의 정보를 입체적으로 포인트를 만들고 포인트를 반복적으로 분할해 나가는 방식을 통해 각 시설물을 작은 점인 포인트로 구성하고 기존의 실제 DB와 비교 분석하여 찾고자 하는 목적물을 찾아서 DB화하고 관리할 수 있도록 하는 3차원 점군데이터 고속 동적 가시화와 투명 메쉬데이터를 이용한 공간함수 시스템을 제공한다.In addition, an embodiment of the present invention is to provide a solution for managing various artificial or natural facilities and cadastral elevations, etc., which makes three-dimensional points with information such as lidar, stereo camera, and sensor DB and repeatedly divides the points. Through this method, each facility is composed of small points, which are compared with the existing real DB, and the object to be found is found, converted into a DB, and managed. A spatial function system using high-speed dynamic visualization and transparent mesh data. to provide.

또한, 본 발명의 실시 예는 각 시설물을 입체적 영상으로 구현하고 무수히 분할된 포인트를 줌으로 압축하여 목표한 시설물을 찾는 솔루션으로서, 화면에 나타나는 좌,우측 및 주변의 시설물의 포인트 정보는 삭제하거나 무시하고 목표물인 시설물 만을 포인트 줌으로 찾아감으로써 빠른 속도로 작업이 가능케 하는 3차원 점군데이터 고속 동적 가시화와 투명 메쉬데이터를 이용한 공간함수 시스템을 제공한다.In addition, an embodiment of the present invention is a solution to find a target facility by implementing each facility as a three-dimensional image and compressing countless divided points by zoom, and deletes or ignores the point information of the left, right and surrounding facilities displayed on the screen And it provides a spatial function system using high-speed dynamic visualization of 3D point cloud data and transparent mesh data that enables high-speed work by finding only the target facility with point zoom.

본 발명의 실시 예에 따른 3차원 점군데이터 고속 동적 가시화와 투명 메쉬데이터를 이용한 공간함수 시스템은, 인공적 시설물 및 자연적 시설물(이하 “시설물”이라 함)을 대상으로 상기 시설물별 라이다(Lider), 스테레오 카메라, RGB-D센서를 기반으로 생성된 3차원 이미지가 저장되고, 상기 3차원 이미지가 다수의 정육면체형 1단계 포인트로 분할될 수 있는 동시에 상기 1단계 포인트는 다시 다수의 정육면체형 2단계 포인트로 분할될 수 있는 방식으로 1단계 내지 n단계의 포인트가 밀집형으로 결합되어 형성되는 3차원 점군 데이터형 이미지가 저장되며, 상기 3차원 이미지 및 3차원 점군 데이터형 이미지는 상기 시설물들 중 해당 시설물과 매핑되어 저장되는 고속 동적 가시화용 데이터베이스부(100)와, 상기 3차원 이미지를 기반으로 상기 3차원 점군 데이터형 이미지를 형성시키는 투명 메쉬 데이터 가공엔진을 포함하며, 상기 3차원 점군 데이터형 이미지들 중 선택되는 3차원 점군 데이터형 이미지를 대상으로 해당 3차원 점군 데이터형 이미지의 상기 1단계 포인트를 시작으로 아래 단계의 포인트를 사용자의 선택 신호에 따라 순차적으로 탐색하는 방식으로 목적 포인트를 탐색하는 제어부와, 상기 제어부에서 처리되는 각종 정보 및 처리 상황을 시각적으로 화면 표시하는 디스플레이부를 포함할 수 있다.A spatial function system using high-speed dynamic visualization of 3D point cloud data and transparent mesh data according to an embodiment of the present invention is a lidar for each facility, targeting artificial facilities and natural facilities (hereinafter referred to as “facilities”), A three-dimensional image generated based on a stereo camera and RGB-D sensor is stored, and the three-dimensional image can be divided into a plurality of cube-shaped first-stage points, while the first-stage point is again a plurality of cube-shaped second-stage points A three-dimensional point cloud data-type image formed by densely combining the points of steps 1 to n in a manner that can be divided into and a high-speed dynamic visualization database unit 100 for mapping and storing, and a transparent mesh data processing engine for forming the 3D point cloud data type image based on the 3D image, wherein the 3D point cloud data type images A control unit that searches for a target point in a manner that sequentially searches the points of the next step according to the user's selection signal, starting with the first point of the corresponding 3D point cloud data type image for the 3D point cloud data type image selected from among and a display unit for visually displaying various information and processing conditions processed by the control unit.

또한, 상기 제어부는 선택된 상기 3차원 점군 데이터형 이미지에서 선택되는 상기 1단계 포인트를 제외한 나머지 1단계 포인트들은 상기 디스플레이부의 화면 상에서 삭제시키는 동시에 선택된 1단계 포인트만을 확대하여 표시하고, 확대된 1단계 포인트에서 선택되는 상기 2단계 포인트를 제외한 나머지 2단계 포인트들은 상기 디스플레이부의 화면 상에서 삭제시키는 동시에 선택된 2단계 포인트만을 확대하여 표시하는 순차적인 과정을 통해 목적 포인트가 탐색되도록 하는 것일 수 있다.In addition, the control unit deletes the remaining first-stage points except for the first-stage point selected from the selected three-dimensional point cloud data type image on the screen of the display unit, and at the same time enlarges and displays only the selected first-stage point, and displays the enlarged first-stage point The target point may be searched for through a sequential process of magnifying and displaying only the selected second-stage point while deleting the remaining second-stage points except for the second-stage point selected from the screen of the display unit.

또한, 본 발명의 실시 예에 따른 3차원 점군데이터 고속 동적 가시화와 투명 메쉬데이터를 이용한 공간함수 시스템은 상기 라이다(Lider), 스테레오 카메라, RGB-D센서(이하 “이미지 획득 유닛”이라 함)가 설치되는 동시에 드론에 탈착 가능하게 장착되어 상기 드론의 비행 중 이미지를 획득하는 이미지 획득용 드론 장착부를 더 포함하되, 상기 이미지 획득용 드론 장착부는, 상기 이미지 획득 유닛에 대한 수납형 설치공간이 하부에 형성되며 상기 드론에 탈착 가능하게 결합되는 하우징과, 상기 이미지 획득 유닛에서 획득되는 데이터들이 수신 대상에 전송될 수 있도록 상기 이미지 획득 유닛과의 접속 부분을 상기 수납형 설치공간에 노출하는 상태로 상기 하우징(510)에 내장되는 커넥터 모듈과, 상기 하우징에 설치되며, 상기 이미지 획득 유닛인 라이다(Lider), 스테레오 카메라, RGB-D센서 각각의 성능 정보를 사용자가 조작하는 리모트 콘트롤 모듈을 통해 수신하는 근거리 무선통신모듈과, 상기 하우징에 설치되며, 직하방에 위치하는 상기 시설물에 대한 거리를 측정하는 거리감지센서와, 상기 하우징에 설치되며, 상기 라이다(Lider), 스테레오 카메라, RGB-D센서별 작동 정보가 상기 거리감지센서를 통한 거리정보 및 상기 성능정보와 매핑되어 저장되는 메모리와, 상기 하우징에 상기 커넥터 모듈과 접속된 상태로 내장되며, 상기 거리감지센서를 통해 감지되는 실시간의 거리정보에 따라 상기 메모리로부터 해당되는 상기 작동정보를 검출하여 상기 라이다(Lider), 스테레오 카메라, RGB-D센서의 작동을 제어하고, 상기 라이다(Lider), 스테레오 카메라, RGB-D센서로부터 전송되는 데이터들을 접속된 무선통신모듈을 통해 외부의 수신 대상에 전송하되, 전송되는 데이터에 상기 거리감지센서를 통한 거리정보 및 상기 성능정보를 포함시켜 전송하는 제어모듈을 포함하는 것일 수 있다.In addition, the spatial function system using high-speed dynamic visualization of 3D point cloud data and transparent mesh data according to an embodiment of the present invention includes the lidar, stereo camera, and RGB-D sensor (hereinafter referred to as “image acquisition unit”). Further comprising a drone mounting unit for image acquisition that is detachably mounted to the drone at the same time it is installed and acquires an image during flight of the drone, wherein the drone mounting unit for image acquisition includes a storage-type installation space for the image acquisition unit at the bottom A housing formed in the hood and detachably coupled to the drone, and a connection part with the image acquisition unit so that the data acquired from the image acquisition unit can be transmitted to a receiving target in a state in which the connection part is exposed to the receiving type installation space The connector module built into the housing 510 and the performance information of the image acquisition unit Lidar, stereo camera, and RGB-D sensor installed in the housing are received through a remote control module that the user manipulates. a short-distance wireless communication module installed in the housing, a distance sensor for measuring a distance to the facility located directly below, and a distance sensor installed in the housing, the lider, stereo camera, RGB-D A memory in which operation information for each sensor is mapped and stored with distance information and the performance information through the distance sensor, is built in the housing in a state of being connected to the connector module, and a real-time distance sensed by the distance sensor According to the information, the corresponding operation information is detected from the memory to control the operation of the lidar, stereo camera, and RGB-D sensor, and transmitted from the lider, stereo camera, and RGB-D sensor. It may include a control module that transmits the data to be transmitted to an external reception target through the connected wireless communication module, and transmits the transmitted data by including the distance information and the performance information through the distance sensor in the transmitted data.

또한, 본 발명의 실시 예에 따른 3차원 점군데이터 고속 동적 가시화와 투명 메쉬데이터를 이용한 공간함수 시스템은 상기 고속 동적 가시화용 데이터베이스부, 제어부 및 디스플레이부가 설치된 통합관리부에 설치되며 상기 제어모듈로부터 전송되는 상기 라이다(Lider), 스테레오 카메라, RGB-D센서의 획득 데이터들을 수신하는 이미지 데이터 수신부(600)와, 상기 거리정보 및 성능정보에 따른 LOD(Level Of Detail) 조정모드들이 해당되는 상기 거리정보 및 성능정보와 매핑되어 저장되고, 상기 이미지 데이터 수신부로부터 상기 라이다(Lider), 스테레오 카메라, RGB-D센서의 획득 데이터들을 수신한 다음, 수신된 데이터에서 상기 거리정보 및 성능정보를 검출하여 검출된 거리정보 및 성능정보에 따른 상기 LOD 조정모드를 상기 제어부에 전송하는 LOD 모드 조정부를 더 포함할 수 있다.In addition, the spatial function system using high-speed dynamic visualization of three-dimensional point cloud data and transparent mesh data according to an embodiment of the present invention is installed in the integrated management unit in which the high-speed dynamic visualization database unit, control unit, and display unit are installed and transmitted from the control module. The image data receiving unit 600 for receiving the data acquired by the lidar, the stereo camera, and the RGB-D sensor, and the distance information corresponding to the LOD (Level Of Detail) adjustment modes according to the distance information and the performance information and the performance information is mapped and stored, and the obtained data of the lidar, the stereo camera, and the RGB-D sensor are received from the image data receiving unit, and then the distance information and the performance information are detected and detected from the received data. The control unit may further include an LOD mode adjustment unit for transmitting the LOD adjustment mode according to the distance information and the performance information to the control unit.

본 발명의 실시 예에 따르면, 인공적 내지 자연적인 각종 시설물의 3D 이미지에서 찾고자 하는 시설물 내지 시설물 부분의 3D 이미지를 3차원 점군 데이터형 이미지의 고속 동적 가시화 및 투명 메쉬데이터의 응용 기술을 통해 보다 빠르고 정확하게 탐색한 다음, 탐색된 해당 시설물에 대한 분석, DB화 및 DB 수정 작업, 기타 관리 작업이 보다 효율적으로 진행될 수 있게 된다.According to an embodiment of the present invention, a 3D image of a facility or a part of a facility to be found in the 3D image of various artificial or natural facilities is more quickly and accurately through high-speed dynamic visualization of a 3D point cloud data type image and application technology of transparent mesh data After the search, analysis of the discovered facility, DB and DB correction work, and other management tasks can be performed more efficiently.

또한, 인공적 내지 자연적 각종 시설물 및 지적 표고 등을 관리하는 솔루션 제공을 가능케 하는 것으로서, 라이다, 스테레오 카메라, 센서DB 등의 정보를 입체적으로 포인트를 만들고 포인트를 반복적으로 분할해 나가는 방식을 통해 각 시설물을 작은 점인 포인트로 구성하고 기존의 실제 DB와 비교 분석하여 찾고자 하는 목적물을 찾아서 DB화하고 관리할 수 있게 된다.In addition, it is possible to provide a solution for managing various artificial and natural facilities and cadastral elevations, and each facility is created through three-dimensional points of information such as lidar, stereo camera, and sensor DB and repeatedly dividing the points. is composed of small points, and it is possible to find and manage the target object by comparing it with the existing actual DB, making it a DB, and managing it.

또한, 각 시설물을 입체적 영상으로 구현하고 무수히 분할된 포인트를 줌으로 압축하여 목표한 시설물을 찾는 솔루션으로서, 화면에 나타나는 좌,우측 및 주변의 시설물의 포인트 정보는 삭제하거나 무시하고 목표물인 시설물 만을 포인트 줌으로 찾아감으로써 빠른 속도로 작업이 가능케 된다.In addition, as a solution to find a target facility by implementing each facility as a three-dimensional image and zooming innumerable divided points, it deletes or ignores the point information of the left, right and surrounding facilities that appear on the screen and points only the target facility. By zooming in, you can work at high speed.

도 1은 본 발명의 일 실시 예에 따른 3차원 점군데이터 고속 동적 가시화와 투명 메쉬데이터를 이용한 공간함수 시스템을 예시한 블록 구성도
도 2는 본 발명의 일 실시 예에 따른 3차원 점군데이터 고속 동적 가시화와 투명 메쉬데이터를 이용한 공간함수 시스템에서 고속 동적 가사화용 데이터베이스부의 데이터 저장 예를 예시한 도면
도 3은 본 발명의 일 실시 예에 따른 3차원 점군데이터 고속 동적 가시화와 투명 메쉬데이터를 이용한 공간함수 시스템에서 3차원 점군데이터형 이미지 및 그 분할 예를 예시한 도면
도 4는 본 발명의 일 실시 예에 따른 3차원 점군데이터 고속 동적 가시화와 투명 메쉬데이터를 이용한 공간함수 시스템에서 이미지 획득용 드론 장착부 및 기타 추가 구성들을 예시한 블록 구성도
도 5는 도 4에 따른 이미지 획득용 드론 장착부를 예시한 도면
1 is a block diagram illustrating a spatial function system using high-speed dynamic visualization of 3D point cloud data and transparent mesh data according to an embodiment of the present invention;
2 is a diagram illustrating an example of data storage in a database for high-speed dynamic housekeeping in a spatial function system using high-speed dynamic visualization of 3D point cloud data and transparent mesh data according to an embodiment of the present invention;
3 is a diagram illustrating an example of a 3D point cloud data type image and its division in a spatial function system using high-speed dynamic visualization of 3D point cloud data and transparent mesh data according to an embodiment of the present invention;
4 is a block diagram illustrating a drone mounting unit for image acquisition and other additional components in a spatial function system using high-speed dynamic visualization of 3D point cloud data and transparent mesh data according to an embodiment of the present invention;
5 is a view illustrating an image acquisition drone mounting unit according to FIG.

이하의 본 발명에 관한 상세한 설명들은 본 발명이 실시될 수 있는 실시 예이고 해당 실시 예의 예시로써 도시된 첨부 도면을 참조한다. 이들 실시 예는 당업자가 본 발명의 실시에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시 예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시 예에 관련하여 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시 예로 구현될 수 있다. 또한, 각각의 기재된 실시 예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The following detailed description of the present invention is an embodiment in which the present invention may be practiced, and reference is made to the accompanying drawings shown by way of example of the embodiment. These embodiments are described in sufficient detail to enable those skilled in the art to practice the present invention. It should be understood that various embodiments of the present invention are different but need not be mutually exclusive. For example, specific shapes, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the present invention in relation to one embodiment. In addition, it should be understood that the position or arrangement of individual components in each described embodiment may be changed without departing from the spirit and scope of the present invention.

따라서 후술되는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는 적절하게 설명된다면 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.Accordingly, the detailed description set forth below is not intended to be taken in a limiting sense, and the scope of the present invention, if properly described, is limited only by the appended claims, along with all scopes equivalent to those claimed by the claims. Like reference numerals in the drawings refer to the same or similar functions throughout the various aspects.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present invention have been selected as currently widely used general terms as possible while considering the functions in the present invention, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than the name of a simple term.

발명에서 전체에서 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 “…부”, "…모듈“ 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In the present invention, when a certain part "includes" a certain element in the whole, this means that other elements may be further included, rather than excluding other elements, unless otherwise stated. In addition, the “… wealth", "… The term “module” means a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software.

도 1 내지 도 5를 참조하여 본 발명의 실시 예에 따른 3차원 점군데이터 고속 동적 가시화와 투명 메쉬데이터를 이용한 공간함수 시스템에 대해 설명한다.A spatial function system using high-speed dynamic visualization of 3D point cloud data and transparent mesh data according to an embodiment of the present invention will be described with reference to FIGS. 1 to 5 .

도 1은 본 발명의 일 실시 예에 따른 3차원 점군데이터 고속 동적 가시화와 투명 메쉬데이터를 이용한 공간함수 시스템을 예시한 블록 구성도이고, 도 2는 본 발명의 일 실시 예에 따른 3차원 점군데이터 고속 동적 가시화와 투명 메쉬데이터를 이용한 공간함수 시스템에서 고속 동적 가사화용 데이터베이스부의 데이터 저장 예를 예시한 도면이며, 도 3은 본 발명의 일 실시 예에 따른 3차원 점군데이터 고속 동적 가시화와 투명 메쉬데이터를 이용한 공간함수 시스템에서 3차원 점군데이터형 이미지 및 그 분할 예를 예시한 도면이다. 그리고 도 4는 본 발명의 일 실시 예에 따른 3차원 점군데이터 고속 동적 가시화와 투명 메쉬데이터를 이용한 공간함수 시스템에서 이미지 획득용 드론 장착부 및 기타 추가 구성들을 예시한 블록 구성도이고, 도 5는 도 4에 따른 이미지 획득용 드론 장착부를 예시한 도면이다.1 is a block diagram illustrating a spatial function system using high-speed dynamic visualization of 3D point cloud data and transparent mesh data according to an embodiment of the present invention, and FIG. 2 is 3D point cloud data according to an embodiment of the present invention. It is a diagram illustrating an example of data storage in the database for high-speed dynamic visualization in a spatial function system using high-speed dynamic visualization and transparent mesh data, and FIG. 3 is a high-speed dynamic visualization of 3D point cloud data and transparent mesh data according to an embodiment of the present invention. It is a diagram illustrating an example of a three-dimensional point cloud data type image and its division in a spatial function system using 4 is a block diagram illustrating a drone mounting unit for image acquisition and other additional components in a spatial function system using high-speed dynamic visualization of 3D point cloud data and transparent mesh data according to an embodiment of the present invention, and FIG. 5 is FIG. It is a diagram illustrating an image acquisition drone mounting unit according to 4 .

도시된 바와 같이, 본 발명의 일 실시 예에 따른 3차원 점군데이터 고속 동적 가시화와 투명 메쉬데이터를 이용한 공간함수 시스템은 고속 동적 가시화용 데이터베이스부(100), 제어부(200), 디스플레이부(300) 및 입력부(400)를 포함하여 구성된다. 또한 본 발명의 일 실시 예에 따른 3차원 점군데이터 고속 동적 가시화와 투명 메쉬데이터를 이용한 공간함수 시스템은 이미지 획득용 드론 장착부(500), 이미지 데이터 수신부(600) 및 LOD 모드 조정부(700)를 더 포함하여 구성될 수 있다.As shown, the spatial function system using high-speed dynamic visualization of 3D point cloud data and transparent mesh data according to an embodiment of the present invention includes a database unit 100, a control unit 200, and a display unit 300 for high-speed dynamic visualization. and an input unit 400 . In addition, the spatial function system using high-speed dynamic visualization of 3D point cloud data and transparent mesh data according to an embodiment of the present invention includes a drone mounting unit 500 for image acquisition, an image data receiving unit 600 and an LOD mode adjusting unit 700. may be included.

고속 동적 가시화용 데이터베이스부(100)는 인공적 시설물 및 자연적 시설물(이하 “시설물”이라 함)을 대상으로 상기 시설물별 라이다(Lider), 스테레오 카메라, RGB-D센서를 기반으로 생성된 3차원 이미지(110)가 저장된다. 또한 고속 동적 가시화용 데이터베이스부(100)는 상기 3차원 이미지(110)가 다수의 정육면체형 1단계 포인트(121)로 분할될 수 있는 동시에 상기 1단계 포인트(121)는 다시 다수의 정육면체형 2단계 포인트(122)로 분할될 수 있는 방식으로 1단계 내지 n단계의 포인트가 밀집형으로 결합되어 형성되는 3차원 점군 데이터형 이미지(120)가 저장된다. 이때 상기 3차원 이미지(110) 및 3차원 점군 데이터형 이미지(120)는 상기 시설물들 중 해당 시설물과 매핑되어 저장된다.The high-speed dynamic visualization database unit 100 targets artificial facilities and natural facilities (hereinafter referred to as “facilities”) for each facility, a three-dimensional image generated based on a lidar, a stereo camera, and an RGB-D sensor. (110) is stored. In addition, the database unit 100 for high-speed dynamic visualization can divide the three-dimensional image 110 into a plurality of cube-shaped first-stage points 121, and at the same time, the first-stage point 121 is again a plurality of cube-shaped second-stage points. The three-dimensional point cloud data type image 120 formed by densely combining the points of steps 1 to n in a manner that can be divided into points 122 is stored. In this case, the three-dimensional image 110 and the three-dimensional point cloud data type image 120 are mapped with the corresponding facility among the facilities and stored.

제어부(200)는 상기 3차원 이미지(110)를 기반으로 상기 3차원 점군 데이터형 이미지(120)를 형성시키는 투명 메쉬 데이터 가공엔진(210)을 포함하며, 이러한 제어부(200)는 상기 3차원 점군 데이터형 이미지(120)들 중 선택되는 3차원 점군 데이터형 이미지(120)를 대상으로 해당 3차원 점군 데이터형 이미지(120)의 상기 1단계 포인트(121)를 시작으로 아래 단계의 포인트를 사용자의 선택 신호에 따라 순차적으로 탐색하는 방식으로 목적 포인트를 탐색하는 기능을 수행한다.The control unit 200 includes a transparent mesh data processing engine 210 that forms the 3D point cloud data type image 120 based on the 3D image 110 , and the control unit 200 includes the 3D point cloud data type image 120 . For the 3D point cloud data type image 120 selected from among the data type images 120, starting with the first step point 121 of the 3D point cloud data type image 120, the points of the following steps are A function of searching for a target point is performed by sequentially searching according to a selection signal.

디스플레이부(300)는 제어부(200)에서 처리되는 각종 정보 및 처리 상황을 시각적으로 화면 표시하는 기능을 수행한다.The display unit 300 performs a function of visually displaying various information and processing conditions processed by the control unit 200 on the screen.

입력부(400)는 사용자가 제어부(200)에 각종 신호 및 데이터를 입력할 수 있게 하는 기능을 수행한다.The input unit 400 performs a function that allows a user to input various signals and data to the control unit 200 .

또한 제어부(400)는 선택된 상기 3차원 점군 데이터형 이미지(120)에서 선택되는 상기 1단계 포인트를 제외한 나머지 1단계 포인트들은 디스플레이부(300)의 화면 상에서 삭제시키는 동시에 선택된 1단계 포인트만을 확대하여 표시하고, 확대된 1단계 포인트에서 선택되는 상기 2단계 포인트를 제외한 나머지 2단계 포인트들은 디스플레이부(300)의 화면 상에서 삭제시키는 동시에 선택된 2단계 포인트만을 확대하여 표시하는 순차적인 과정을 통해 목적 포인트가 탐색되도록 한다.In addition, the control unit 400 deletes the remaining first-stage points except for the first-stage point selected from the selected three-dimensional point cloud data type image 120 on the screen of the display unit 300 and enlarges and displays only the selected first-stage point. The target point is searched through a sequential process of magnifying and displaying only the selected second-stage point while deleting the remaining second-stage points except for the second-stage point selected from the enlarged first-stage point on the screen of the display unit 300 . make it possible

이미지 획득용 드론 장착부(500)는 상기 라이다(Lider), 스테레오 카메라, RGB-D센서(이하 “이미지 획득 유닛”이라 함)가 설치되는 동시에 드론(1000)에 탈착 가능하게 장착되어 상기 드론(1000)의 비행 중 이미지를 획득하는 기능을 수행한다. The drone mounting unit 500 for image acquisition is detachably mounted on the drone 1000 while the lidar, stereo camera, and RGB-D sensor (hereinafter referred to as “image acquisition unit”) are installed, and the drone ( 1000) performs the function of acquiring an image during flight.

이러한 이미지 획득용 드론 장착부(500)는 하우징(510), 커넥터 모듈(520), 근거리 무선통신모듈(530), 거리감지센서(540), 메모리(550), 제어모듈(560) 및 무선통신모듈(570)을 포함하여 구성된다.The image acquisition drone mounting unit 500 includes a housing 510 , a connector module 520 , a short-range wireless communication module 530 , a distance sensor 540 , a memory 550 , a control module 560 and a wireless communication module. 570 is included.

하우징(510)은 상기 이미지 획득 유닛에 대한 수납형 설치공간(511)이 하부에 형성되며, 이러한 하우징(510)은 드론(1000)에 탈착 가능하게 결합된다.The housing 510 has an accommodation type installation space 511 for the image acquisition unit formed at a lower portion thereof, and the housing 510 is detachably coupled to the drone 1000 .

커넥터 모듈(520)은 상기 이미지 획득 유닛에서 획득되는 데이터들이 수신 대상에 전송될 수 있도록 상기 이미지 획득 유닛과의 접속 부분(521)을 수납형 설치공간(511)에 노출하는 상태로 하우징(510)에 내장된다.The connector module 520 is configured to expose the connection part 521 with the image acquisition unit to the receiving type installation space 511 so that the data acquired by the image acquisition unit can be transmitted to the receiving target. is built into

근거리 무선통신모듈(530)은 하우징(510)에 설치되며, 상기 이미지 획득 유닛인 라이다(Lider), 스테레오 카메라, RGB-D센서 각각의 성능 정보를 사용자가 조작하는 리모트 콘트롤 모듈(2000)을 통해 수신한다. 그리고 본 실시 예에서는 리모트 콘트롤 모듈(2000)이 해당 앱을 탑재한 스마트 모바일 디바이스인 것을 예로 하였으나, 본 발명이 이에 한정되는 것은 아니다.The short-distance wireless communication module 530 is installed in the housing 510, and a remote control module 2000 that a user manipulates performance information of each of the image acquisition unit Lidar, stereo camera, and RGB-D sensor. receive through In addition, in the present embodiment, the remote control module 2000 is a smart mobile device equipped with a corresponding app as an example, but the present invention is not limited thereto.

거리감지센서(540)는 하우징(510)에 설치되며, 이러한 거리감지센서(540)는 직하방에 위치하는 상기 시설물에 대한 거리를 측정한다.The distance sensor 540 is installed in the housing 510, and the distance sensor 540 measures the distance to the facility located directly below.

메모리(550)는 하우징(510)에 설치되며, 이러한 메모리(550)는 상기 라이다(Lider), 스테레오 카메라, RGB-D센서별 작동 정보가 거리감지센서(540)를 통한 거리정보 및 상기 성능정보와 매핑되어 저장된다.The memory 550 is installed in the housing 510, and the memory 550 includes the lidar, stereo camera, and operation information for each RGB-D sensor, distance information and the performance through the distance sensor 540. Information is mapped and stored.

제어모듈(560)은 하우징(510)에 커넥터 모듈(520)과 접속된 상태로 내장되며, 거리감지센서(540)를 통해 감지되는 실시간의 거리정보에 따라 메모리(550)로부터 해당되는 상기 작동정보를 검출하여 상기 라이다(Lider), 스테레오 카메라, RGB-D센서의 작동을 제어한다. 그리고 제어모듈(560)은 상기 라이다(Lider), 스테레오 카메라, RGB-D센서로부터 전송되는 데이터들을 접속된 무선통신모듈(570)을 통해 외부의 수신 대상, 다시 말해 후술되는 이미지 데이터 수신부(600)에 전송한다. 이때 제어모듈(560)은 이미지 데이터 수신부(600)에 전송하는 데이터에 거리감지센서를 통한 거리정보 및 상기 성능정보를 포함시켜 전송한다.The control module 560 is embedded in the housing 510 in a state of being connected to the connector module 520 , and the corresponding operation information from the memory 550 according to real-time distance information detected through the distance sensor 540 . to control the operation of the lidar, stereo camera, and RGB-D sensor. In addition, the control module 560 receives data transmitted from the lidar, stereo camera, and RGB-D sensor through a wireless communication module 570 connected to an external reception target, that is, an image data receiving unit 600 to be described later. ) is sent to At this time, the control module 560 transmits the data transmitted to the image data receiver 600 by including the distance information and the performance information through the distance sensor.

이미지 데이터 수신부(600)는 고속 동적 가시화용 데이터베이스부(100), 제어부(200) 및 디스플레이부(300)가 설치된 통합관리부(3000)에 설치되며, 제어모듈(560)로부터 전송되는 상기 라이다(Lider), 스테레오 카메라, RGB-D센서의 획득 데이터들을 수신한다.The image data receiving unit 600 is installed in the integrated management unit 3000 in which the high-speed dynamic visualization database unit 100, the control unit 200, and the display unit 300 are installed, and the lidar is transmitted from the control module 560 ( Reader), stereo camera, and RGB-D sensor acquisition data are received.

LOD 모드 조정부(700)는 상기 거리정보 및 성능정보에 따른 LOD(Level Of Detail) 조정모드들이 해당되는 상기 거리정보 및 성능정보와 매핑되어 저장된다. 이에 따라 LOD 모드 조정부(700)는 이미지 데이터 수신부(600)로부터 상기 라이다(Lider), 스테레오 카메라, RGB-D센서의 획득 데이터들을 수신한 다음, 수신된 데이터에서 상기 거리정보 및 성능정보를 검출하여 검출된 거리정보 및 성능정보에 따른 상기 LOD 조정모드를 제어부(200)에 전송한다.The LOD mode adjustment unit 700 stores LOD (Level Of Detail) adjustment modes according to the distance information and the performance information mapped with the corresponding distance information and the performance information. Accordingly, the LOD mode adjusting unit 700 receives the obtained data of the lidar, the stereo camera, and the RGB-D sensor from the image data receiving unit 600 , and then detects the distance information and the performance information from the received data. and transmits the LOD adjustment mode according to the detected distance information and performance information to the controller 200 .

상술한 구성에 의해서, 인공적 내지 자연적인 각종 시설물의 3D 이미지에서 찾고자 하는 시설물 내지 시설물 부분의 3D 이미지를 3차원 점군 데이터형 이미지의 고속 동적 가시화 및 투명 메쉬데이터의 응용 기술을 통해 보다 빠르고 정확하게 탐색한 다음, 탐색된 해당 시설물에 대한 분석, DB화 및 DB 수정 작업, 기타 관리 작업이 보다 효율적으로 진행될 수 있게 된다.With the above configuration, the 3D image of the facility or facility part to be found in the 3D image of various artificial or natural facilities is searched more quickly and accurately through high-speed dynamic visualization of 3D point cloud data-type images and application technology of transparent mesh data. Next, analysis of the discovered facilities, DB and DB correction work, and other management tasks can be performed more efficiently.

다시 말해 인공적 내지 자연적 각종 시설물 및 지적 표고 등을 관리하는 솔루션을 제공하게 되는 것으로서, 라이다, 스테레오 카메라, 센서DB 등의 정보를 입체적으로 포인트를 만들고 포인트를 반복적으로 분할해 나가는 방식을 통해 각 시설물을 작은 점인 포인트로 구성하고 기존의 실제 DB와 비교 분석하여 찾고자 하는 목적물을 찾아서 DB화하고 관리할 수 있게 된다. In other words, it provides a solution for managing various artificial and natural facilities and cadastral elevations. Each facility is created by creating three-dimensional points with information such as lidar, stereo camera, and sensor DB and repeatedly dividing the points. is composed of small points, and it is possible to find and manage the target object by comparing it with the existing actual DB, making it a DB, and managing it.

부연 설명하면, 각 시설물을 입체적 영상으로 구현하고 무수히 분할된 포인트를 줌으로 압축하여 목표한 시설물을 찾는 솔루션으로서, 화면에 나타나는 좌,우측 및 주변의 시설물의 포인트 정보는 삭제하거나 무시하고 목표물인 시설물 만을 포인트 줌으로 찾아감으로써 빠른 속도로 작업이 가능하게 된다.To elaborate, it is a solution to find a target facility by implementing each facility as a three-dimensional image and compressing countless divided points with zoom. You can work at a high speed by searching only the bay with a point zoom.

또한, 목적물을 클릭하여 불러옴으로써 공간을 선택하고 면적을 계산하고 현실 DB와 비교 분석하여 오류를 최소화하고 목적물의 포인트를 구현할 수 있게 된다.In addition, by clicking and calling the object, it is possible to select a space, calculate the area, and compare and analyze it with the real DB to minimize errors and realize the point of the object.

또한, 3차원 이미지 및 이를 토대로 형성되는 3차원 점군 데이터형 이미지를 형성하는 과정에서, 라이다(Lider), 스테레오 카메라, RGB-D센서 등 이미지 획득 유닛이 장착된 드론과 시설물 간의 거리를 토대로 LOD 모드가 자동 조정되면서 3차원 점군 데이터형 이미지를 생성하는 제어부에 입력될 수 있음으로써, 해당 3차원 점군 데이터형 이미지의 생성 작업이 보다 효율적인 동시에 정확하고 정교하게 이루어질 수 있다. 그리고 이 과정에서의 작업상의 편리성 및 용이성도 향상될 수 있게 된다.In addition, in the process of forming the 3D image and the 3D point cloud data type image formed based on the 3D image, the LOD based on the distance between the facility and the drone equipped with the image acquisition unit such as lidar, stereo camera, and RGB-D sensor Since the mode may be automatically adjusted and inputted to the control unit for generating the 3D point cloud data type image, the operation of generating the 3D point cloud data type image may be performed more efficiently and accurately and precisely. And it is possible to improve the convenience and ease of operation in this process.

이상과 같이 본 설명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시 예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시 예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, in this description, specific matters such as specific components, etc., and limited embodiments and drawings have been described, but these are only provided to help a more general understanding of the present invention, and the present invention is not limited to the above embodiments No, various modifications and variations are possible from these descriptions by those of ordinary skill in the art to which the present invention pertains.

따라서 본 발명의 사상은 설명된 실시 예에 국한되어 정하여 저서는 안되며, 후술되는 청구범위뿐만 아니라 이 청구범위와 균등하거나 등가적인 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the described embodiments and should not be written, and not only the claims described below, but also all the modifications equivalent to or equivalent to the claims described below will fall within the scope of the spirit of the present invention.

100 : 고속 동적 가시화용 데이터베이스부 110 : 3차원 이미지
120 : 3차원 점군 데이터형 이미지 121 : 1단계 포인트
122 : 2단계 포인트 200 : 제어부
300 : 디스플레이부 400 : 입력부
500 : 이미지 획득용 드론 장착부 510 : 하우징
511 : 수납형 설치공간 520 : 커넥터 모듈
521 : 접속 부분 530 : 근거리 무선통신모듈
540 : 거리감지센서 550 : 메모리
560 : 제어모듈 570 : 무선통신모듈
600 : 이미지 데이터 수신부 700 : LOD 모드 조정부
1000 : 드론 2000 : 리모드 콘트롤 모듈
300 : 통합관리부
100: database unit for high-speed dynamic visualization 110: 3D image
120: 3D point cloud data type image 121: Step 1 point
122: second stage point 200: control unit
300: display unit 400: input unit
500: drone mounting unit for image acquisition 510: housing
511: storage type installation space 520: connector module
521: connection part 530: short-range wireless communication module
540: distance sensor 550: memory
560: control module 570: wireless communication module
600: image data receiving unit 700: LOD mode adjusting unit
1000: drone 2000: remote control module
300: integrated management unit

Claims (2)

인공적 시설물 및 자연적 시설물(이하 “시설물”이라 함)을 대상으로 상기 시설물별 라이다(Lider), 스테레오 카메라, RGB-D센서를 기반으로 생성된 3차원 이미지(110)가 저장되고, 상기 3차원 이미지(110)가 다수의 정육면체형 1단계 포인트(121)로 분할될 수 있는 동시에 상기 1단계 포인트(121)는 다시 다수의 정육면체형 2단계 포인트(122)로 분할될 수 있는 방식으로 1단계 내지 n단계의 포인트가 밀집형으로 결합되어 형성되는 3차원 점군 데이터형 이미지(120)가 저장되며, 상기 3차원 이미지(110) 및 3차원 점군 데이터형 이미지(120)는 상기 시설물들 중 해당 시설물과 매핑되어 저장되는 고속 동적 가시화용 데이터베이스부(100):
상기 3차원 이미지(110)를 기반으로 상기 3차원 점군 데이터형 이미지(120)를 형성시키는 투명 메쉬 데이터 가공엔진(210)을 포함하며, 상기 3차원 점군 데이터형 이미지(120)들 중 선택되는 3차원 점군 데이터형 이미지(120)를 대상으로 해당 3차원 점군 데이터형 이미지(120)의 상기 1단계 포인트(121)를 시작으로 아래 단계의 포인트를 사용자의 선택 신호에 따라 순차적으로 탐색하는 방식으로 목적 포인트를 탐색하는 제어부(200): 및
상기 제어부(200)에서 처리되는 각종 정보 및 처리 상황을 시각적으로 화면 표시하는 디스플레이부(300)를 포함하되,
상기 제어부(200)는 선택된 상기 3차원 점군 데이터형 이미지(120)에서 선택되는 상기 1단계 포인트를 제외한 나머지 1단계 포인트들은 상기 디스플레이부(300)의 화면 상에서 삭제시키는 동시에 선택된 1단계 포인트만을 확대하여 표시하고, 확대된 1단계 포인트에서 선택되는 상기 2단계 포인트를 제외한 나머지 2단계 포인트들은 상기 디스플레이부(300)의 화면 상에서 삭제시키는 동시에 선택된 2단계 포인트만을 확대하여 표시하는 순차적인 과정을 통해 목적 포인트가 탐색되도록 하고,
상기 라이다(Lider), 스테레오 카메라, RGB-D센서(이하 “이미지 획득 유닛”이라 함)가 설치되는 동시에 드론(1000)에 탈착 가능하게 장착되어 상기 드론(1000)의 비행 중 이미지를 획득하는 이미지 획득용 드론 장착부(500)를 더 포함하되, 상기 이미지 획득용 드론 장착부(500)는, 상기 이미지 획득 유닛에 대한 수납형 설치공간(511)이 하부에 형성되며 상기 드론(1000)에 탈착 가능하게 결합되는 하우징(510); 상기 이미지 획득 유닛에서 획득되는 데이터들이 수신 대상에 전송될 수 있도록 상기 이미지 획득 유닛과의 접속 부분(521)을 상기 수납형 설치공간(511)에 노출하는 상태로 상기 하우징(510)에 내장되는 커넥터 모듈(520); 상기 하우징(510)에 설치되며, 상기 이미지 획득 유닛인 라이다(Lider), 스테레오 카메라, RGB-D센서 각각의 성능 정보를 사용자가 조작하는 리모트 콘트롤 모듈(2000)을 통해 수신하는 근거리 무선통신모듈(530); 상기 하우징(510)에 설치되며, 직하방에 위치하는 상기 시설물에 대한 거리를 측정하는 거리감지센서(540); 상기 하우징(510)에 설치되며, 상기 라이다(Lider), 스테레오 카메라, RGB-D센서별 작동 정보가 상기 거리감지센서(540)를 통한 거리정보 및 상기 성능정보와 매핑되어 저장되는 메모리(550); 상기 하우징(510)에 상기 커넥터 모듈(520)과 접속된 상태로 내장되며, 상기 거리감지센서(540)를 통해 감지되는 실시간의 거리정보에 따라 상기 메모리(550)로부터 해당되는 상기 작동정보를 검출하여 상기 라이다(Lider), 스테레오 카메라, RGB-D센서의 작동을 제어하고, 상기 라이다(Lider), 스테레오 카메라, RGB-D센서로부터 전송되는 데이터들을 접속된 무선통신모듈(570)을 통해 외부의 수신 대상에 전송하되, 전송되는 데이터에 상기 거리감지센서를 통한 거리정보 및 상기 성능정보를 포함시켜 전송하는 제어모듈(560)를 포함하며,
상기 고속 동적 가시화용 데이터베이스부(100), 제어부(200) 및 디스플레이부(300)가 설치된 통합관리부(3000)에 설치되며, 상기 제어모듈(560)로부터 전송되는 상기 라이다(Lider), 스테레오 카메라, RGB-D센서의 획득 데이터들을 수신하는 이미지 데이터 수신부(600): 및
상기 거리정보 및 성능정보에 따른 LOD(Level Of Detail) 조정모드들이 해당되는 상기 거리정보 및 성능정보와 매핑되어 저장되고, 상기 이미지 데이터 수신부(600)로부터 상기 라이다(Lider), 스테레오 카메라, RGB-D센서의 획득 데이터들을 수신한 다음, 수신된 데이터에서 상기 거리정보 및 성능정보를 검출하여 검출된 거리정보 및 성능정보에 따른 상기 LOD 조정모드를 상기 제어부(200)에 전송하는 LOD 모드 조정부(700)를 더 포함하는 것을 특징으로 하는 3차원 점군데이터 고속 동적 가시화와 투명 메쉬데이터를 이용한 공간함수 시스템.
For artificial and natural facilities (hereinafter referred to as “facilities”), the three-dimensional image 110 generated based on the lidar, stereo camera, and RGB-D sensor for each facility is stored, and the three-dimensional Step 1 through in such a way that the image 110 can be divided into a plurality of cube-shaped first-level points 121 while the first-level point 121 can be further divided into a number of cube-shaped second-level points 122 A three-dimensional point cloud data-type image 120 formed by densely combining n-step points is stored, and the three-dimensional image 110 and the three-dimensional point cloud data-type image 120 are the corresponding facilities among the facilities. Database unit 100 for high-speed dynamic visualization that is mapped and stored:
and a transparent mesh data processing engine 210 that forms the 3D point cloud data type image 120 based on the 3D image 110, and includes 3 selected from the 3D point cloud data type images 120. The purpose of this method is to sequentially search for the points of the lower stage according to the user's selection signal, starting with the first stage point 121 of the corresponding three-dimensional point cloud data type image 120 for the dimensional point cloud data type image 120 . The control unit 200 for searching for a point: and
Including a display unit 300 for visually displaying various information and processing conditions processed by the control unit 200 on the screen,
The control unit 200 deletes the remaining first-stage points except for the first-stage point selected from the selected three-dimensional point cloud data type image 120 on the screen of the display unit 300 and enlarges only the selected first-stage point. The target point through a sequential process of displaying and displaying, excluding the second stage point selected from the enlarged stage 1 point, while deleting the remaining stage 2 points on the screen of the display unit 300 while magnifying and displaying only the selected stage 2 point to be explored,
The lidar, stereo camera, and RGB-D sensor (hereinafter referred to as “image acquisition unit”) are installed and detachably mounted on the drone 1000 at the same time to acquire an image during flight of the drone 1000 Further comprising a drone mounting unit 500 for obtaining an image, wherein the drone mounting unit 500 for obtaining an image has a storage-type installation space 511 for the image acquisition unit formed at a lower portion and detachable from the drone 1000 The housing 510 is coupled to each other; A connector built into the housing 510 in a state where the connection part 521 with the image acquisition unit is exposed to the receiving type installation space 511 so that the data acquired by the image acquisition unit can be transmitted to a receiving target module 520; A short-distance wireless communication module installed in the housing 510 and receiving performance information of each of the image acquisition unit Lidar, stereo camera, and RGB-D sensor through the remote control module 2000 operated by the user (530); a distance sensor 540 installed in the housing 510 and measuring a distance to the facility located directly below; A memory 550 installed in the housing 510, in which operation information for each lidar, stereo camera, and RGB-D sensor is mapped with distance information and the performance information through the distance sensor 540 and stored ); It is embedded in the housing 510 in a state of being connected to the connector module 520 , and the corresponding operation information is detected from the memory 550 according to real-time distance information detected through the distance sensor 540 . to control the operation of the lidar, stereo camera, and RGB-D sensor, and transmit data transmitted from the lidar, stereo camera, and RGB-D sensor through the connected wireless communication module 570 It transmits to an external reception target, and includes a control module 560 that transmits the distance information and the performance information through the distance sensor in the transmitted data,
The lidar and stereo camera are installed in the integrated management unit 3000 in which the high-speed dynamic visualization database unit 100 , the control unit 200 and the display unit 300 are installed, and are transmitted from the control module 560 . , the image data receiving unit 600 for receiving the acquisition data of the RGB-D sensor: and
LOD (Level Of Detail) adjustment modes according to the distance information and performance information are mapped with the corresponding distance information and performance information and stored, and the lidar, stereo camera, RGB from the image data receiving unit 600 - LOD mode adjusting unit ( 700), a spatial function system using high-speed dynamic visualization of 3D point cloud data and transparent mesh data, characterized in that it further comprises.
삭제delete
KR1020220032054A 2022-03-15 2022-03-15 Space function system using 3-dimensional point cloud data and mesh data KR102405647B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220032054A KR102405647B1 (en) 2022-03-15 2022-03-15 Space function system using 3-dimensional point cloud data and mesh data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220032054A KR102405647B1 (en) 2022-03-15 2022-03-15 Space function system using 3-dimensional point cloud data and mesh data

Publications (1)

Publication Number Publication Date
KR102405647B1 true KR102405647B1 (en) 2022-06-08

Family

ID=81981717

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220032054A KR102405647B1 (en) 2022-03-15 2022-03-15 Space function system using 3-dimensional point cloud data and mesh data

Country Status (1)

Country Link
KR (1) KR102405647B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116962649A (en) * 2023-09-19 2023-10-27 安徽送变电工程有限公司 Image monitoring and adjusting system and line construction model
CN116973939A (en) * 2023-09-25 2023-10-31 中科视语(北京)科技有限公司 Safety monitoring method and device
CN117630877A (en) * 2023-10-20 2024-03-01 宁波市中晶电子技术有限公司 Novel laser radar sensor and application method thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101899984B1 (en) 2017-12-26 2018-09-18 (주)소프트힐스 Visualizaion system of massive mesh cloud data
KR20190080702A (en) * 2017-12-28 2019-07-08 (주)휴톰 Method, apparatus and program for rendering 3d elastic model
KR20220008466A (en) 2020-07-14 2022-01-21 한국전자통신연구원 Apparatus and Method of Generating Meshes of 3-Dimensional Point Cloud

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101899984B1 (en) 2017-12-26 2018-09-18 (주)소프트힐스 Visualizaion system of massive mesh cloud data
KR20190080702A (en) * 2017-12-28 2019-07-08 (주)휴톰 Method, apparatus and program for rendering 3d elastic model
KR20220008466A (en) 2020-07-14 2022-01-21 한국전자통신연구원 Apparatus and Method of Generating Meshes of 3-Dimensional Point Cloud

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116962649A (en) * 2023-09-19 2023-10-27 安徽送变电工程有限公司 Image monitoring and adjusting system and line construction model
CN116962649B (en) * 2023-09-19 2024-01-09 安徽送变电工程有限公司 Image monitoring and adjusting system and line construction model
CN116973939A (en) * 2023-09-25 2023-10-31 中科视语(北京)科技有限公司 Safety monitoring method and device
CN116973939B (en) * 2023-09-25 2024-02-06 中科视语(北京)科技有限公司 Safety monitoring method and device
CN117630877A (en) * 2023-10-20 2024-03-01 宁波市中晶电子技术有限公司 Novel laser radar sensor and application method thereof

Similar Documents

Publication Publication Date Title
KR102405647B1 (en) Space function system using 3-dimensional point cloud data and mesh data
CN108344397B (en) Automatic modeling method and system based on oblique photography technology and auxiliary device thereof
EP1584895B1 (en) Survey data processing system
KR101330805B1 (en) Apparatus and Method for Providing Augmented Reality
CN110969691B (en) WebGL-based photographic data scheduling method and system
US20190213790A1 (en) Method and System for Semantic Labeling of Point Clouds
CN109883418A (en) A kind of indoor orientation method and device
KR100484941B1 (en) System for constructing and browsing geographic information using video data and method thereof
CN102867057A (en) Virtual wizard establishment method based on visual positioning
CN110362895B (en) Land acquisition removal application management system based on BIM + GIS technology
JP2010128622A (en) Stereo matching processing apparatus, stereo matching processing method and program
CN107851333A (en) Video generation device, image generation system and image generating method
CN106611056B (en) Method and device for cutting three-dimensional simulation map
US20240155224A1 (en) Displacement detection method, image-capturing instruction method, displacement detection device, and image-capturing instruction device
EP3792591B1 (en) Surveying data processing device, surveying data processing method, and surveying data processing program
KR101220271B1 (en) Numerical map manufacturing system for posting of reality building based on gps
CN115825067A (en) Geological information acquisition method and system based on unmanned aerial vehicle and electronic equipment
KR20220085142A (en) Intelligent construction site management supporting system and method based extended reality
JP6665402B2 (en) Content display terminal, content providing system, content providing method, and content display program
CN117109524A (en) Geological disaster unmanned plane airborne radar monitoring method and device and electronic equipment
CN110209750B (en) Map processing method, map processing device, storage medium and processor
JP2007170821A (en) Three-dimensional displacement measurement method
CN112907732A (en) Three-dimensional modeling based cooperative working method and device, storage medium and computer equipment
CN108364340A (en) The method and system of synchronous spacescan
JP2018116452A (en) Data compression apparatus, data decompressor, control method, program and storage medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant