KR102663467B1 - Point cloud up-sampling apparatus and method - Google Patents
Point cloud up-sampling apparatus and method Download PDFInfo
- Publication number
- KR102663467B1 KR102663467B1 KR1020220148645A KR20220148645A KR102663467B1 KR 102663467 B1 KR102663467 B1 KR 102663467B1 KR 1020220148645 A KR1020220148645 A KR 1020220148645A KR 20220148645 A KR20220148645 A KR 20220148645A KR 102663467 B1 KR102663467 B1 KR 102663467B1
- Authority
- KR
- South Korea
- Prior art keywords
- feature matrix
- data set
- feature
- matrix
- dataset
- Prior art date
Links
- 238000005070 sampling Methods 0.000 title claims abstract description 20
- 238000000034 method Methods 0.000 title claims description 24
- 239000011159 matrix material Substances 0.000 claims abstract description 178
- 238000000605 extraction Methods 0.000 claims abstract description 17
- 238000012937 correction Methods 0.000 claims abstract description 12
- 239000000284 extract Substances 0.000 claims abstract description 6
- 238000000746 purification Methods 0.000 claims description 10
- 238000007670 refining Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 10
- 238000002474 experimental method Methods 0.000 description 7
- 238000010606 normalization Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000011158 quantitative evaluation Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010790 dilution Methods 0.000 description 1
- 239000012895 dilution Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/56—Particle system, point based geometry or rendering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
Abstract
본 발명에 따르면, 카메라 또는 영상 저장 장치 등과 같은 영상 획득 장치로부터 물체의 특징점을 중심으로 이미지를 잘라낸 패치를 입력받는 입력부; H(여기서, H는 자연수)개의 레이어를 이용하여 레이어에 대한 멀티 스케일 특징 행렬인 제1 특징 행렬을 추출하는 특징 추출부; 상기 다수의 레이어에 대한 제2 특징 행렬을 생성하는 포인트 생성부; 상기 제2 특징 행렬을 변환하여 제3 특징 행렬을 생성하는 셀프 어탠션 블록부; 상기 H개의 레이어에 대응하는 레이어를 이용하여 상기 제1 특징 행렬과 상기 제3 특징 행렬을 기반으로 업 샘플링을 수행하는 정제부; 및 상기 포인트 생성부의 출력값과 상기 정제부의 출력값을 합하여 보정하는 보정부를 포함하는 포인트 클라우드의 고해상화 장치이다.According to the present invention, an input unit that receives a patch that cuts out an image centered on a feature point of an object from an image acquisition device such as a camera or an image storage device; a feature extraction unit that extracts a first feature matrix, which is a multi-scale feature matrix for the layer, using H (where H is a natural number) layers; a point generator that generates a second feature matrix for the plurality of layers; a self-attention block unit that converts the second feature matrix to generate a third feature matrix; a refinement unit that performs up-sampling based on the first feature matrix and the third feature matrix using layers corresponding to the H layers; and a correction unit that corrects the output value of the point generator by adding the output value of the point generator and the output value of the refinement unit.
Description
본 발명은 포인트 클라우드의 고해상화 장치 및 방법에 관한 것이다.The present invention relates to a high-resolution point cloud apparatus and method.
최근 3D 스캐너의 기술 성장과 함께 포인트 클라우드(Point Cloud)를 활용하는 분야가 증가하고 있다. 특히 자율주행 자동차에 탑재되는 LiDAR와 같은 3D 스캐너에 대한 연구가 활발히 진행되고 있다. 그러나, 고품질의 포인트 클라우드는 비용이 많이 들며, 저품질의 포인트 클라우드는 물체의 경계선을 식별하기에 어려움이 있다. 이를 해결하기 위해 저품질의 포인트 클라우드를 업 샘플링(UP-Sampling)하여 고품질의 포인트 클라우드를 생성하는 연구가 진행되고 있지만, 희석되는 데이터가 많아 고품질의 포인트 클라우드를 생성하기에는 문제가 있다.With the recent growth of 3D scanner technology, the number of areas utilizing point clouds is increasing. In particular, research on 3D scanners such as LiDAR mounted on self-driving cars is actively underway. However, high-quality point clouds are expensive, and low-quality point clouds have difficulty identifying object boundaries. To solve this problem, research is underway to generate high-quality point clouds by up-sampling low-quality point clouds, but there is a problem in generating high-quality point clouds because there is a lot of diluted data.
본 발명은 상술한 과제를 해결하기 위한 것으로서, 본 발명의 목적은 포인트 클라우드의 고해상화 장치 및 방법을 제공하는 데 있다.The present invention is intended to solve the above-described problems, and the purpose of the present invention is to provide an apparatus and method for high resolution of point clouds.
본 발명은 포인트 클라우드의 고해상화 장치에 있어서, 카메라 또는 영상 저장 장치 등과 같은 영상 획득 장치로부터 물체의 특징점을 중심으로 이미지를 잘라낸 패치를 입력받는 입력부; H(여기서, H는 자연수)개의 레이어를 이용하여 레이어에 대한 멀티 스케일 특징 행렬인 제1 특징 행렬을 추출하는 특징 추출부; 상기 다수의 레이어에 대한 제2 특징 행렬을 생성하는 포인트 생성부; 상기 제2 특징 행렬을 변환하여 제3 특징 행렬을 생성하는 셀프 어탠션 블록부; 상기 H개의 레이어에 대응하는 레이어를 이용하여 상기 제1 특징 행렬과 상기 제3 특징 행렬을 기반으로 업 샘플링을 수행하는 정제부; 및 상기 포인트 생성부의 출력값과 상기 정제부의 출력값을 합하여 보정하는 보정부를 포함할 수 있다.The present invention provides a high-resolution point cloud device, comprising: an input unit that receives a patch that cuts out an image centered on a feature point of an object from an image acquisition device such as a camera or an image storage device; a feature extraction unit that extracts a first feature matrix, which is a multi-scale feature matrix for the layer, using H (where H is a natural number) layers; a point generator that generates a second feature matrix for the plurality of layers; a self-attention block unit that converts the second feature matrix to generate a third feature matrix; a refinement unit that performs up-sampling based on the first feature matrix and the third feature matrix using layers corresponding to the H layers; And it may include a correction unit that corrects by adding the output value of the point generation unit and the output value of the refinement unit.
본 발명의 일 실시 예에 있어서, 상기 이미지의 패치를 제1 데이터셋으로 생성하고, 상기 제1 데이터셋과 상기 제2 특징 행렬을 합하여 제2 데이터셋을 생성하고, 상기 제1 특징 행렬과 상기 제3 특징 행렬을 이용하여 제3 데이터셋을 생성하고, 상기 제2 데이터셋과 상기 제3 데이터셋을 합하여 제4 데이터셋을 생성할 수 있다.In one embodiment of the present invention, a patch of the image is generated as a first data set, a second data set is generated by combining the first data set and the second feature matrix, and the first feature matrix and the A third data set can be created using a third feature matrix, and a fourth data set can be created by combining the second data set and the third data set.
본 발명의 일 실시 예에 있어서, 상기 특징 추출부는, 상기 패치로부터 기준이 되는 기준점과 K(여기서, K는 자연수)개의 인접점을 포함하는 패치를 생성할 수 있다.In one embodiment of the present invention, the feature extractor may generate a patch including a reference point and K (where K is a natural number) adjacent points from the patch.
본 발명의 일 실시 예에 있어서, 상기 특징 추출부는, 상기 인접점을 포함하는 패치를 기반으로 기준점과 인접점들 간의 상대적인 특징을 계산할 수 있다.In one embodiment of the present invention, the feature extractor may calculate relative features between a reference point and adjacent points based on a patch including the adjacent point.
본 발명의 일 실시 예에 있어서, 상기 정제부는, 상기 제1 특징 행렬과 상기 제3 특징 행렬을 이용하여 어탠션을 수행할 수 있다.In one embodiment of the present invention, the refiner may perform attention using the first feature matrix and the third feature matrix.
본 발명의 포인트 클라우드 고해상화 방법에 있어서, 카메라 또는 영상 저장 장치 등과 같은 영상 획득 장치로부터 물체의 특징점을 중심으로 이미지를 잘라낸 패치를 입력받는 단계; H(여기서, H는 자연수)개의 레이어를 이용하여 레이어에 대한 멀티 스케일 특징 행렬인 제1 특징 행렬을 추출하는 단계; 상기 다수의 레이어에 대한 제2 특징 행렬을 생성하는 단계; 상기 제2 특징 행렬을 변환하여 제3 특징 행렬을 생성하는 단계; 상기 H개의 레이어에 대응하는 레이어를 이용하여 상기 제1 특징 행렬과 상기 제3 특징 행렬을 기반으로 업 샘플링을 수행하는 단계; 및 상기 제2 특징 행렬을 생성하는 단계의 출력값과 상기 업 샘플링을 수행하는 단계의 출력값을 합하여 보정하는 보정부를 포함할 수 있다.In the point cloud high-resolution method of the present invention, the step of receiving a patch cut out of an image centered on a feature point of an object from an image acquisition device such as a camera or an image storage device; Extracting a first feature matrix, which is a multi-scale feature matrix for the layer, using H (where H is a natural number) layers; generating a second feature matrix for the plurality of layers; converting the second feature matrix to generate a third feature matrix; performing up-sampling based on the first feature matrix and the third feature matrix using layers corresponding to the H layers; and a correction unit that corrects by adding the output value of the step of generating the second feature matrix and the output value of the step of performing the up-sampling.
본 발명의 일 실시 예에 있어서, 상기 이미지의 패치를 제1 데이터셋으로 생성하고, 상기 제1 데이터셋과 상기 제2 특징 행렬을 합하여 제2 데이터셋을 생성하고, 상기 제1 특징 행렬과 상기 제3 특징 행렬을 이용하여 제3 데이터셋을 생성하고, 상기 제2 데이터셋과 상기 제3 데이터셋을 합하여 제4 데이터셋을 생성할 수 있다.In one embodiment of the present invention, a patch of the image is generated as a first data set, a second data set is generated by combining the first data set and the second feature matrix, and the first feature matrix and the A third data set can be created using a third feature matrix, and a fourth data set can be created by combining the second data set and the third data set.
본 발명의 일 실시 예에 있어서, 상기 제1 특징 행렬을 추출하는 단계는, 상기 패치로부터 기준이 되는 기준점과 K(여기서, K는 자연수)개의 인접점을 포함하는 패치를 생성할 수 있다.In one embodiment of the present invention, the step of extracting the first feature matrix may generate a patch including a reference point and K (where K is a natural number) adjacent points from the patch.
본 발명의 일 실시 예에 있어서, 상기 제1 특징 행렬을 추출하는 단계는, 상기 인접점을 포함하는 패치를 기반으로 기준점과 인접점들 간의 상대적인 특징을 계산할 수 있다.In one embodiment of the present invention, the step of extracting the first feature matrix may calculate relative features between a reference point and adjacent points based on a patch including the adjacent point.
본 발명의 일 실시 예에 있어서, 상기 업 샘플링을 수행하는 단계는, 상기 제1 특징 행렬과 상기 제3 특징 행렬을 이용하여 어탠션을 수행할 수 있다.In one embodiment of the present invention, performing the up-sampling may involve performing attention using the first feature matrix and the third feature matrix.
본 발명의 일 실시 예에 있어서, 적어도 하나의 명령어를 저장하는 적어도 하나의 메모리; 및 상기 메모리에 연결되는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는 상기 적어도 하나의 명령어를 실행하여: 카메라 또는 영상 저장 장치 등과 같은 영상 획득 장치로부터 물체의 특징점을 중심으로 이미지를 잘라낸 패치를 입력받고, H(여기서, H는 자연수)개의 레이어를 이용하여 레이어에 대한 멀티 스케일 특징 행렬인 제1 특징 행렬을 추출하고, 상기 다수의 레이어에 대한 제2 특징 행렬을 생성하고, 상기 제2 특징 행렬을 변환하여 제3 특징 행렬을 생성하고, 상기 H개의 레이어에 대응하는 레이어를 이용하여 상기 제1 특징 행렬과 상기 제3 특징 행렬을 기반으로 업 샘플링을 수행하고, 및 상기 제2 특징 행렬을 생성하는 것의 출력값과 상기 업 샘플링을 수행하는 것의 출력값을 합하여 보정하는 보정부를 포함할 수 있다.In one embodiment of the present invention, at least one memory storing at least one instruction; and at least one processor connected to the memory, wherein the at least one processor executes the at least one instruction: a patch that crops an image centered on a feature point of an object from an image acquisition device such as a camera or an image storage device. receives input, extracts a first feature matrix, which is a multi-scale feature matrix for the layer, using H (where H is a natural number) layers, generates a second feature matrix for the plurality of layers, and generates the second feature matrix for the plurality of layers. Convert the feature matrix to generate a third feature matrix, perform upsampling based on the first feature matrix and the third feature matrix using layers corresponding to the H layers, and use the second feature matrix It may include a correction unit that corrects by adding the output value of generating and the output value of performing the up-sampling.
본 발명의 일 실시 예에 있어서, 상기 이미지의 패치를 제1 데이터셋으로 생성하고, 상기 제1 데이터셋과 상기 제2 특징 행렬을 합하여 제2 데이터셋을 생성하고, 상기 제1 특징 행렬과 상기 제3 특징 행렬을 이용하여 제3 데이터셋을 생성하고, 상기 제2 데이터셋과 상기 제3 데이터셋을 합하여 제4 데이터셋을 생성할 수 있다.In one embodiment of the present invention, a patch of the image is generated as a first data set, a second data set is generated by combining the first data set and the second feature matrix, and the first feature matrix and the A third data set can be created using a third feature matrix, and a fourth data set can be created by combining the second data set and the third data set.
본 발명의 일 실시 예에 있어서, 상기 제1 특징 행렬을 추출하는 것은, 상기 패치로부터 기준이 되는 기준점과 K(여기서, K는 자연수)개의 인접점을 포함하는 패치를 생성할 수 있다.In one embodiment of the present invention, extracting the first feature matrix can generate a patch including a reference point and K (where K is a natural number) adjacent points from the patch.
본 발명의 일 실시 예에 있어서, 상기 제1 특징 행렬을 추출하는 것은, 상기 인접점을 포함하는 패치를 기반으로 기준점과 인접점들 간의 상대적인 특징을 계산할 수 있다.In one embodiment of the present invention, extracting the first feature matrix may calculate relative features between a reference point and adjacent points based on a patch including the adjacent point.
본 발명의 일 실시 예에 있어서, 상기 업 샘플링을 수행하는 것은, 상기 제1 특징 행렬과 상기 제3 특징 행렬을 이용하여 어탠션을 수행할 수 있다.In one embodiment of the present invention, the up-sampling may be performed by performing attention using the first feature matrix and the third feature matrix.
본 발명에 의하면, 포인트 클라우드의 고해상화 방법 및 이를 지원하는 장치가 제공될 수 있다.According to the present invention, a method for high-resolution point clouds and a device supporting the same can be provided.
예를 들어, 본 발명은 이미지의 특징과 이미지 전역의 특징을 사용하여 U-NET형태의 업 샘플링 구조를 갖는 업 샘플링을 구성할 수 있다.For example, the present invention can configure up-sampling with a U-NET type up-sampling structure using the characteristics of the image and the characteristics of the entire image.
이에 따라, 입력 이미지의 세부적인 정보의 희석을 방지할 수 있으며, 입력 데이터를 다각화하여 정보의 제한없이 업 샘플링을 수행할 수 있다. Accordingly, dilution of detailed information of the input image can be prevented, and upsampling can be performed without information limitation by diversifying the input data.
도 1은 포인트 클라우드의 고해상화 장치에 대한 블록도이다.
도 2는 본 발명의 일 실시 예에 따른 포인트 클라우드의 고해상화 장치의 작동 개념도이다.
도 3은 본 발명의 일 실시 예에 따른 포인트 트랜스포머의 개념도이다.
도 4는 본 발명의 일 실시 예에 따른 전역 정제 어탠션의 개념도이다.
도 5는 포인트 클라우드의 고해상화 장치의 동작 순서도이다.
도 6 정제부의 동작 순서도이다.
도 7은 본 발명의 일 실시예에 따른 포인트 클라우드의 고해상화 프로세서를 나타내는 블록도이다.Figure 1 is a block diagram of a high-resolution point cloud device.
Figure 2 is a conceptual diagram of the operation of a point cloud high-resolution device according to an embodiment of the present invention.
Figure 3 is a conceptual diagram of a point transformer according to an embodiment of the present invention.
Figure 4 is a conceptual diagram of global purification attention according to an embodiment of the present invention.
Figure 5 is an operation flowchart of a point cloud high-resolution device.
Figure 6 is a flowchart of the operation of the purification unit.
Figure 7 is a block diagram showing a high-resolution point cloud processor according to an embodiment of the present invention.
이하에서, 본 발명의 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있을 정도로, 본 발명의 실시 예들이 명확하고 상세하게 기재될 것이다.Hereinafter, embodiments of the present invention will be described clearly and in detail so that a person skilled in the art can easily practice the present invention.
도 1은 포인트 클라우드의 고해상화 장치에 대한 블록도이다.Figure 1 is a block diagram of a high-resolution point cloud device.
도 1을 참조하면, 포인트 클라우드의 고해상화 장치(10)는 입력부(100), 특징 추출부(200), 포인트 생성부(300), 셀프 어탠션 블럭부(400), 정제부(500) 및 보정부(600)을 포함한다.Referring to FIG. 1, the point cloud high-
입력부(100)는 카메라 또는 영상 저장 장치 등과 같은 영상 획득 장치로부터 제1 데이터셋을 입력받을 수 있다.The
입력부(100)는 입력된 제1 데이터셋을 후술할 특징 추출부(200)와 포인트 생성부(300)에 송신할 수 있다.The
특징 추출부(200)는 다수의 포인트 트랜스포머(Point Transformer, PT, 210)를 포함하며, 입력부(100)에서 수신한 제1 데이터셋에 포함된 적어도 하나의 패치(patch)를 포인트 트랜스포머(210)를 통해 다수의 레이어(Layer)에 대한 멀티 스케일 특징 행렬인 제1 특징 행렬을 계산할 수 있다. 아래의 수학식 1으로 정의할 수 있다.The
여기서, patchi는 포인트 트랜스포머(210)에서 생성한 i번째 패치, si는 기준점, featurei h는 h번째 레이어의 i번째 특징 행렬이다.Here, patch i is the i-th patch generated by the
포인트 트랜스포머(210)는 KNN(K-Nearest Neighbor, 211) 모델과 벡터 셀프 어탠션(Vector Self-Attention, VSA, 212) 모델으로 구성되어 있다.The
최근접 이웃(211)은 입력부(100)에서 수신한 제1 데이터셋으로부터 기준이 되는 기준점(si)과 K(여기서, K는 자연수)개의 인접점을 포함하는 i번째 패치(patchi)를 생성할 수 있다. 여기서, 패치는 물체의 특징점을 중심으로 이미지를 잘라낸 영역일 수 있다.The
벡터 셀프 어탠션(212)은 KNN모델에서 생성한 i번째 패치(patchi)를 기반으로 기준점(si)과 인접점들 간의 상대적인 특징을 계산하여 i번째 특징 행렬(featurei h)을 생성할 수 있다.The vector self-
구체적으로, 벡터 셀프 어탠션(212)은 생성한 i번째 특징 행렬(featurei h)을 다차원의 임베딩(Embedding) 벡터로 변환하고 기 설정된 파라미터 행렬과 곱하여 쿼리(Query), 키(Key) 및 밸류(Value) 행렬을 생성하고, 생성한 쿼리 행렬과 키 행렬의 내적과 소프트맥스(Softmax)연산을 통해 기준점(si)과 인접점의 연관성을 계산할 수 있다.Specifically, the vector self-
최종적으로, 벡터 셀프 어탠션(212)는 밸류 행렬과 연관성을 곱하여 기준점(si)과 K개의 인접점의 i번째 특징 행렬(featurei h)을 생성하고, i번째 특징 행렬(featurei h)을 이용하여 이후 레이어 해당하는 포인트 트랜스포머(210)의 기준점(si)을 갱신할 수 있다. 예를 들어, 포인트 트랜스포머(210)는 H(여기서, H는 자연수)회 레이어의 i번째 특징 행렬(featurei h)을 생성하여 H+1회 레이어의 기준점(si) 특징을 갱신할 수 있다.Finally, the vector self-
또한, 특징 추출부(200)는 포인트 트랜스포머(210)를 이용하여 생성한 H회 레이어의 i번째 특징 행렬(featurei h)으로 각 레이어의 제1 특징 행렬을 생성할 수 있다.Additionally, the
따라서, 특징 추출부(200)는 H회의 레이어를 통하여 하나의 포인트 트랜스포머가 출력할 수 있는 데이터셋을 확장할 수 있다. 또한, 레이어의 횟수가 증가함에 따라서 특징 행렬 차원의 수도 증가할 수 있다.Accordingly, the
포인트 생성부(300)는 다수의 포인트 트랜스포머(210)와 픽셀 셔플(Pixel Shuffle, 310)로 구성되어 있으며, 입력부(100)에서 수신한 제1 데이터셋을 포인트 생성부(300)를 통해 다수의 레이어에 대한 3차원 특징 행렬을 제2 데이터셋으로 생성할 수 있다. 포인트 트랜스포머(210)는 특징 추출부(200)와 동일하여, 중복되는 설명은 이하 생략될 것이다.The
다만, 포인트 생성부(300)의 포인트 트랜스포머(210)는 H회 레이어의 i번째 특징 행렬(featurei h)으로 각 레이어의 특징 행렬을 생성하지 않을 수 있다.However, the
픽셀 셔플(310)는 포인트 트랜스포머(210)로 인해 차원이 업 샘플링 비율인 r배로 늘어난 제1 데이터셋의 차원을 조합하여 r배로 확장된 고해상도 패치를 생성할 수 있다. The
또한, 포인트 생성부(300)는 픽셀 셔플(310)을 이용하여 제1 데이터셋의 좌표에 해당하는 3차원 특징 행렬인 제2 특징 행렬을 생성하고 제1 데이터셋과 합하여 제2 데이터셋을 생성할 수 있다.In addition, the
셀프 어탠션 블럭부(400)는 제2 데이터셋을 이용하여 전역 특징 행렬을 생성할 수 있다.The self-
구체적으로, 셀프 어탠션 블록부(400)는 포인트 생성부(300)에서 생성한 제2 데이터셋을 크기에 해당하는 행(row)과 차원에 해당하는 열(column)을 변환하고 멀티헤드 셀프 어탠션(Multihead Self-Attention, 410)을 통해 제1 특징 행렬보다 한 차원이 많은 전역 특징 행렬인 제3 특징 행렬을 생성할 수 있다.Specifically, the self-
보다 상세하게, 멀티헤드 셀프 어탠션(410)은 셀프 어탠션을 상술한 특징 추출부(200)의 포인트 트랜스포머보다 h+1번 수행하는 것으로서 제2 특징 행렬을 임베딩 벡터로 변환하여 쿼리, 키 및 밸류 행렬을 h+1번 생성할 수 있다. 이에 따라, 멀티헤드 셀프 어탠션(410)의 출력 값은 기존의 입력값에 비해 h+1배의 차원을 갖는 행렬을 생성할 수 있다.In more detail, the multi-head self-
정제부(500)는 H개의 전역 정제 어탠션(Global Context Refining Attention, GCRA, 510)과 선형기(520) 및 픽셀 셔플(310)으로 구성되어 있으며, 제1 특징 행렬과 제3 특징 행렬을 입력하여 업 샘플링(UP-Sampling)을 수행할 수 있다. 또한, 정제부(500)에 포함되는 멀티헤드 셀프 어탠션(410) 및 픽셀 셔플(310)은 상술한 동작 방법과 동일하여, 중복되는 설명은 이하 생략될 것이다.The
전역 정제 어탠션(510)은 멀티헤드 셀프 어탠션(410)과 배치 정규(Batch Norm, 511) 레이어 및 순방향 신경망(Feed Forward, 512)을 포함한다.The global
전역 정제 어탠션(510)은 제1 특징 행렬을 쿼리 행렬로 사용하고, 제3 특징 행렬을 키 및 밸류 행렬로 사용하여 멀티헤드 어탠션을 수행하고 결과값에 제3 특징 행렬을 합하여 정제(Refining)하고, 안정적인 학습을 위해 배치 정규(511)를 통해 각 배치별로 평균과 분산을 이용해 정규화를 할 수 있다.The
또한, 전역 정제 어탠션(510)은 배치 정규화된 출력값을 순방향 신경망(512)을 통해 변환하여 최종적으로 포인트들이 밀집화된 데이터셋을 생성할 수 있다.In addition, the
정제부(500)는 H개의 전역 정제 어탠션(510)으로 더욱 밀집화된 데이터셋을 생성할 수 있으며, 선형기(520)를 통해 출력값을 변환하고, 픽셀 셔플(310)을 이용하여 최종적으로 제3 데이터셋을 생성하고 차원을 3차원으로 고정할 수 있다.The
보정부(600)는 포인트 생성부(300)의 출력값과 정제부(500)의 출력값을 이용하여 보정할 수 있다.The
구체적으로, 보정부(600)는 포인트 생성부(300)의 제2 데이터셋과 정제부(500)의 제3 데이터셋을 합하여 최종적으로 포인트들이 밀집화된 제4 데이터셋을 생성할 수 있다.Specifically, the
이에 따라, 포인트 클라우드의 고해상화 장치(10)는 입력된 패치의 특징을 추출하여 저품질의 포인트 클라우드를 고품질의 포인트 클라우드로 업 샘플링을 수행할 수 있다.Accordingly, the point cloud high-
또한, 포인트 클라우드의 고해상화 장치(10)는 제1 데이터셋을 이용하여 각 레이어의 데이터를 생성하기 때문에 이미지 데이터가 희석되는 것을 방지할 수 있다.In addition, the point cloud high-
도 2는 본 발명의 일 실시 예에 따른 포인트 클라우드의 고해상화 장치의 작동 개념도이다.Figure 2 is a conceptual diagram of the operation of a point cloud high-resolution device according to an embodiment of the present invention.
도 2를 참조하면, 입력부(100)에 입력된 패치는 3차원의 패치 사이즈(Patch Size)가 N(여기서, N은 자연수)인 패치를 제1 데이터셋(S)으로 생성할 수 있다.Referring to FIG. 2, the patch input to the
특징 추출부(200)는 입력부(100)에서 수신한 제1 데이터셋(S)을 기반으로 차원이 KH-1*C일 때까지 반복적으로 포인트 트랜스포머(210)를 수행할 수 있으며, 차원에 따라 [N, C] 내지 [N, KH-1*C]행렬인 제1 특징 행렬(MFs)을 계산할 수 있다.The
포인트 생성부(300)는 입력부(100)에서 수신한 제1 데이터셋(S)을 기반으로 포인트 트랜스포머(210)를 사용하고, 픽셀 셔플(310)을 이용하여 3차원으로 고정한 [rN, 3]행렬인 제2 특징 행렬(S△)을 생성할 수 있다.The
또한, 포인트 생성부(300)는 제2 특징 행렬(S△)과 제1 데이터셋(S)을 합하여 3차원의 제2 데이터셋(Q')을 생성할 수 있다.Additionally, the
셀프 어탠션 블록부(400)는 제2 데이터셋(Q')의 행렬의 차원을 제1 데이터셋(S)의 특징으로 사용하기 위해 제2 데이터셋(Q')의 행렬을 [N, r*3]행렬로 변환하여 멀티헤드 셀프 어탠션(410)을 수행하여 [N, K'*C']행렬인 제3 특징 행렬(GFs)을 생성할 수 있다.The self-
정제부(500)는 제1 특징 행렬(MFs)을 쿼리로 사용하고, 제3 특징 행렬(GFs)을 키와 밸류로 사용하여 전역 정제 어탠션(510)을 수행하여 [N, r*3]행렬까지 차원을 줄일 수 있다.The
또한, 정제부(500)는 최종적인 [N, r*3]행렬의 픽셀 셔플(310)을 수행하여 [rN, 3]행렬을 가지는 제3 데이터셋(Q'△)을 생성할 수 있다.Additionally, the
보정부(600)는 행렬의 차원과 크기가 동일한 제2 데이터셋(Q')과 제3 데이터셋(Q'△)을 합하여 최종적인 [rN, 3]행렬을 가진 제4 데이터셋(Q)을 생성할 수 있다.The
도 3은 본 발명의 일 실시 예에 따른 특징 추출기의 개념도이다.Figure 3 is a conceptual diagram of a feature extractor according to an embodiment of the present invention.
도 3을 참조하면, 패치 사이즈가 4인 일 실시예로서 hth 포인트 트랜스포머(210)는 h-1 특징 행렬(featurei h-1)을 h 특징 행렬(featurei h)로 갱신할 때 기준점(si-)과 인접점(Incidental Point)들로 이루어진 패치(patchi)에 벡터 셀프 어탠션(212)을 수행하여 h-1 특징 행렬(featurei h-1)을 갱신할 수 있다.Referring to FIG. 3, in an embodiment in which the patch size is 4 , the h th point transformer 210 uses a reference point ( The h-1 feature matrix (feature i h-1 ) can be updated by performing vector self-
또한, hth 포인트 트랜스포머(210)는 모든 인접점들 각각의 패치에 벡터 셀프 어탠션(212)을 수행하여 각각의 특징을 갱신할 수 있다.Additionally, the h th point transformer 210 can update each feature by performing vector self-
또한, (h+1)th 포인트 트랜스포머(210)는 hth 포인트 트랜스포머(210)처럼 h 특징 행렬(featurei h)을 h+1 특징 행렬(featurei h+1)로 갱신하기위해 패치(patch-i)에 벡터 셀프 어탠션(212)을 수행할 수 있다.In addition, the (h+1) th
이에 따라, (h+1)th 포인트 트랜스포머(210)에서의 인접점(Incidental Point)들의 특징은 hth 포인트 트랜스포머(210)에서 각각의 패치에 대한 벡터 셀프 어탠션(212)을 통해 갱신되어, h 특징 행렬(featurei h)는 hth 포인트 트랜스포머(210)의 확장된 영역보다 넓은 범위의 영역을 사용하여 h+1 특징 행렬(featurei h+1)로 갱신할 수 있다.Accordingly, the characteristics of incidental points in the (h+1) th
도 4는 본 발명의 일 실시 예에 따른 전역 정제 어탠션의 개념도이다.Figure 4 is a conceptual diagram of global purification attention according to an embodiment of the present invention.
도 4를 참조하면, 전역 정제 어탠션(510)은 [N,Fp]행렬을 가지는 제3 특징 행렬(GFs)을 Pool(key, value)으로 사용하고, [N, Fq]행렬을 가진 제1 특징 행렬(MFs)을 쿼리(Query)로 사용할 수 있다.Referring to FIG. 4, the
또한, 전역 정제 어탠션(510)은 멀티헤드 셀프 어탠션(410)을 수행하고 [N, F-p]행렬을 갖는 출력값과 Pool값을 합하여 정제한 후 안정적인 학습을 위해 배치 정규(511)를 통해 각 배치별로 평균과 분산을 이용해 정규화를 할 수 있다.In addition, the global refinement attention (510) performs a multi-head self-attention (410), refines the output value with the [N, F- p ] matrix by summing it with the Pool value, and then uses batch normal (511) for stable learning. Through this, normalization can be performed using the mean and variance for each batch.
또한, 전역 정제 어탠션(510)은 [N, F-p]행렬을 갖는 정규화된 출력값을 순방향 신경망(512)을 통해 변환하여 차원이 줄어든 [N, Fo]행렬을 생성할 수 있다.In addition, the
도 5는 포인트 클라우드의 고해상화 장치의 동작 순서도이다.Figure 5 is an operation flowchart of a point cloud high-resolution device.
도 5를 참조하면 S110 단계에서, 포인트 클라우드의 고해상화 장치(10)는 입력부(100)에 영상 획득 장치로부터 제1 데이터셋(S)인 이미지를 잘라낸 패치를 입력할 수 있다.Referring to FIG. 5 , in step S110, the point cloud high-
S120 단계에서, 특징 추출부(200)는 수신한 패치를 기반으로 다수의 포인트 트랜스포머(210)를 이용하여 제1 특징 행렬(MFs)을 생성할 수 있다.In step S120, the
S130 단계에서, 포인트 생성부(300)는 수신한 패치를 기반으로 포인트 트랜스포머(210)와 픽셀 셔플(310)을 이용하여 제2 특징 행렬(S△)과 제2 데이터셋(Q')을 생성할 수 있다.In step S130, the
S140 단계에서, 셀프 어탠션 블록부(400)는 제2 특징 행렬(S△)에 셀프 어탠션을 수행하여 제3 특징 행렬(GFs)을 생성할 수 있다.In step S140, the self-
S150 단계에서, 정제부(500)는 제1 특징 행렬(MFs)과 제3 특징 행렬(GFs)을 이용하여 업 샘플링을 수행하고 제3 데이터셋(Q'△)을 생성할 수 있다.In step S150, the
S160 단계에서, 보정부(600)는 제2 데이터셋(Q')과 제3 데이터셋(Q'△)을 합하여 제4 데이터셋(Q)을 생성할 수 있다.In step S160, the
도 6 정제부의 동작 순서도이다.Figure 6 is a flowchart of the operation of the purification unit.
도 6을 참조하면 S210 단계에서, 정제부(500)는 제1 특징 행렬(MFs)과 제3 특징 행렬(GFs)을 수신할 수 있다.Referring to FIG. 6, in step S210, the
S220 단계에서, 정제부(500)는 전역 정제 어탠션(510)의 제1 특징 행렬(MFs)을 쿼리 행렬로 이용하고 제3 특징 행렬(GFs)을 키, 밸류 행렬로 이용하여 업 샘플링을 수행할 수 있다.In step S220, the
S230 단계에서, 정제부(500)는 H개의 전역 정제 어탠션(510)을 수행하여 출력값의 차원을 감소할 수 있다.In step S230, the
S240 단계에서, 정제부(500)는 선형기(520)를 통해 출력값을 변환할 수 있다.In step S240, the
S250 단계에서, 정제부(500)는 픽셀 셔플(310)을 이용하여 r배로 늘어난 차원 수를 조합하여 r배로 확장된 패치를 생성할 수 있다.In step S250, the
S260 단계에서, 정제부(500)는 출력값을 기반으로 제3 데이터셋(Q'△)을 생성할 수 있다.In step S260, the
도 7은 본 발명의 일 실시예에 따른 포인트 클라우드의 고해상화 프로세서를 나타내는 블록도이다.Figure 7 is a block diagram showing a high-resolution point cloud processor according to an embodiment of the present invention.
도 7을 참조하면, 메모리(700)는 프로세서(800)와 연결될 수 있고, 프로세서(800)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(700)는 프로세서(800)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 개시의 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 위한 명령어들(instructions)을 포함하는 소프트웨어 코드를 저장할 수 있다.Referring to FIG. 7, the
프로세서(800)는 메모리(700)를 제어하며, 메모리(700)에 저장된 명령어를 실행하여 본 개시의 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(800)는 카메라 또는 영상 저장 장치 등과 같은 영상 획득 장치로부터 물체의 특징점을 중심으로 이미지를 잘라낸 패치를 입력받을 수 있다.The
또한, 프로세서(800)는 수신한 패치에 대해 H(여기서, H는 자연수)개의 레이어를 이용하여 레이어에 대한 멀티 스케일 특징 행렬인 제1 특징 행렬(MFs)을 생성할 수 있다.Additionally, the
또한, 프로세서(800)는 수신한 패치에 대해 다수의 레이어 대한 제2 특징 행렬(S△)을 생성할 수 있고, 제2 특징 행렬(S△)을 변환하여 제3 특징 행렬(GFs)을 생성할 수 있다.Additionally, the
또한, 프로세서(800)는 H개의 레이어에 대응하는 레이어를 이용하여 제1 특징 행렬(MFs)과 제3 특징 행렬(GFs)을 기반으로 업 샘플링을 수행하고, 제2 특징 행렬(S△)을 생성하는 것의 출력값과 업 샘플링을 수행하는 것의 출력값을 합하여 보정할 수 있다.In addition, the
프로세서(800)는 수시한 이미지 패치를 제1 데이터셋(S)으로 생성하고, 제1 데이터셋(S)과 제2 특징 행렬(S△)을 합하여 제2 데이터셋(Q')을 생성할 수 있다. 또한, 프로세서(800)는 제1 특징 행렬(MFs)과 제3 특징 행렬(GFs)을 이용하여 제3 데이터셋(Q'△)을 생성하고, 제2 데이터셋(Q')과 제3 데이터셋(Q'△)을 합하여 제4 데이터셋(Q)을 생성할 수 있다.The
프로세서(800)는 수신한 패치로부터 기준이 되는 기준점과 K개의 인접점을 포함하는 패치를 생성할 수 있으며, 인접점을 포함하는 패치를 기반으로 기준점과 인접점들 간의 상대적인 특징을 계산할 수 있다.The
프로세서(800)는 제1 특징 행렬(MFs)과 제3 특징 행렬(GFs)을 이용하여 어탠션을 수행하여 포인트 클라우드를 업 샘플링 할 수 있다.The
이하, 실험예를 통해서 본 발명을 보다 상세히 설명하기로 한다. 하지만, 이들은 본 발명을 보다 상세하게 설명하기 위한 것일 뿐 본 발명의 권리범위가 이에 한정되는 것은 아니다.Hereinafter, the present invention will be described in more detail through experimental examples. However, these are only for explaining the present invention in more detail and the scope of the present invention is not limited thereto.
실험예 1 : state-of-the-art method들과의 x4, x16 업 샘플링에 대한 정량적 평가 비교Experimental Example 1: Quantitative evaluation comparison of x4 and x16 upsampling with state-of-the-art methods
본 발명의 포인트 클라우드의 고해상화 방법이 다른 방법보다 더 효과적이라는 것을 증명하기위해 실험을 실시하였다.An experiment was conducted to prove that the high-resolution point cloud method of the present invention is more effective than other methods.
본 실험은 x4, x16 업 샘플링에 대한 정량적 성능비교를 요약한다. x4 업 샘플링은 2,048개의 포인트를 8,192개의 포인트로 업 샘플링한다. x16 업 샘플링은 x4 업 샘플링을 두번 반복하여 512개의 포인트를 8,192개의 포인트로 업 샘플링한다.This experiment summarizes quantitative performance comparison for x4 and x16 upsampling. x4 upsampling upsamples 2,048 points to 8,192 points. x16 upsampling repeats x4 upsampling twice to upsample 512 points to 8,192 points.
본 실험은 본 발명과 종래 기술 Dis-PU, PU-EVA 및 PU-Transformer를 비교하기 위해 CD(Chamfer Distance), HD(Hausdorff Distance), P2F(Point-to-Surface) 및 #Params로 성능을 측정한다. CD는 실제 환경 데이터(Ground Truth, GT) 포인트 셋과 예측 포인트 셋의 유사도를 각 포인트를 통해서 측정할 수 있고, HD는 실제 환경 데이터를 기준으로 예측 포인트 셋의 이상점을 측정할 수 있다.In this experiment, performance was measured using CD (Chamfer Distance), HD (Hausdorff Distance), P2F (Point-to-Surface), and #Params to compare the present invention with the prior art Dis-PU, PU-EVA, and PU-Transformer. do. CD can measure the similarity between the actual environmental data (Ground Truth, GT) point set and the predicted point set through each point, and HD can measure the outliers of the predicted point set based on the actual environmental data.
또한, P2F는 원본 매쉬와 예측 포인트 셋의 유사도를 측정하는 지표로 예측 포인트 셋의 품질을 측정하고, 파라미터의 개수를 측정하여 파라미터 복잡도를 측정할 수 있다.In addition, P2F is an indicator that measures the similarity between the original mesh and the predicted point set, and can measure the quality of the predicted point set and parameter complexity by measuring the number of parameters.
본 실험을 위한 모든 방법들은 100 epoch, batch size 64로 학습이 되었고 학습률(learning rate) 0.0001인 Adam optimizer을 사용한다. 또한, 포인트 트랜스포머(210)에서 사용되는 최근접 이웃(211) 알고리즘의 패치 사이즈는 PU-Transformer에서와 같이 20으로 설정한다.All methods for this experiment were trained with 100 epochs and batch size 64, and use the Adam optimizer with a learning rate of 0.0001. Additionally, the patch size of the nearest neighbor (211) algorithm used in the point transformer (210) is set to 20 as in the PU-Transformer.
또한, 본 발명은 학습 데이터셋에 회전, 스케일링, 무작위 섭동 및 정규화를 적용하였으며, 업 샘플링 비율 r은 4이고 입력 패치 사이즈 N은 256이다. 포인트 생성부(300)의 C'와 K'은 각각 32, 8이며, 특징 추출부(200)와 정제부(500)의 C와 K는 각각 16, 4이다. 특징 추출부(200)와 정제부(500)의 층 깊이인 H은 4이다. 마지막으로 멀티헤드 크로스 어탠션과 멀티헤드 셀프 어탠션(410)의 헤드번호는 8이다.Additionally, the present invention applied rotation, scaling, random perturbation, and normalization to the learning dataset, and the upsampling rate r was 4 and the input patch size N was 256. C' and K' of the
실험 결과로서, 본 발명의 포인트 클라우드의 고해상화 방법(PU-MFA)이 파라미터 복잡도에서는 가장 효율적이지 못하지만 성능대비 가장 좋은 효율을 확인할 수 있다.As a result of the experiment, it can be confirmed that the point cloud high-resolution method (PU-MFA) of the present invention is not the most efficient in terms of parameter complexity, but has the best efficiency compared to performance.
실험예 2 : PU-GAN 데이터셋을 사용한 노이즈의 영향의 정량적 평가 비교Experimental Example 2: Comparison of quantitative evaluation of the impact of noise using PU-GAN dataset
본 실험은 다양한 노이즈를 더한 PU-GAN 테스트 데이터셋을 사용해 Dis-PU, PU-EVA, PU-Transformer 및 PU-MFA의 x4 업 샘플링 결과를 요약한다.This experiment summarizes the x4 upsampling results of Dis-PU, PU-EVA, PU-Transformer, and PU-MFA using the PU-GAN test dataset with various noises added.
노이즈의 영향은 입력 포인트 셋에 다양한 세기의 노이즈의 가우스 함수 (0, noise level)를 더하여 나온 결과물에 대해서 평가한다.The impact of noise is evaluated on the result obtained by adding a Gaussian function (0, noise level) of noise of various intensities to the input point set.
실험 결과로서, 본 발명인 PU-MFA방법에서 노이즈 세기에 대해 가장 강건성을 확인할 수 있다.As a result of the experiment, it can be confirmed that the PU-MFA method of the present invention is the most robust against noise intensity.
상술한 내용은 본 발명을 실시하기 위한 구체적인 실시 예들이다. 본 발명은 상술한 실시 예들 이외에도, 단순하게 설계 변경되거나 용이하게 변경할 수 있는 실시 예들도 포함될 것이다. 또한, 본 발명은 실시 예들을 이용하여 용이하게 변형하여 실시할 수 있는 기술들도 포함될 것이다. 따라서, 본 발명의 범위는 상술한 실시 예들에 국한되어 정해져서는 안되며, 후술하는 특허청구범위뿐만 아니라 이 발명의 특허청구범위와 균등한 것들에 의해 정해져야 할 것이다.The above-described details are specific embodiments for carrying out the present invention. In addition to the above-described embodiments, the present invention will also include embodiments that can be simply changed or easily changed in design. In addition, the present invention will also include technologies that can be easily modified and implemented using the embodiments. Therefore, the scope of the present invention should not be limited to the above-described embodiments, but should be determined by the claims and equivalents of the present invention as well as the claims described later.
10 : 포인트 클라우드의 고해상화 장치
100 : 입력부 212 : 벡터 셀프 어탠션
200 : 특징 추출부 310 : 픽셀 셔플
300 : 포인트 생성부 410 : 멀티헤드 어탠션
400 : 셀프 어탠션 블록부 510 : 전역 정제 어탠션
500 : 정제부 511 : 배치 정규
600 : 보정부 512 : 순방향 신경망
210 : 포인트 트랜스포머 520 : 선형기
211 : 최근접 이웃10: High-resolution point cloud device
100: Input unit 212: Vector self-attention
200: feature extraction unit 310: pixel shuffle
300: Point generation unit 410: Multi-head attention
400: Self-attention block unit 510: Global purification attention
500: Purification unit 511: Batch regular
600: Correction unit 512: Forward neural network
210: point transformer 520: linearizer
211: Nearest neighbor
Claims (15)
H(여기서, H는 자연수)개의 레이어를 이용하여 상기 제1 데이터셋에 대한 멀티 스케일 특징 행렬인 제1 특징 행렬을 추출하는 특징 추출부;
상기 제1 데이터셋의 좌표에 해당하는 제2 특징 행렬을 생성하고, 상기 제1 데이터셋과 상기 제2 특징 행렬을 합하여 제2 데이터셋을 생성하는 포인트 생성부;
상기 제2 데이터셋의 크기와 차원을 변환하여 상기 제1 특징 행렬보다 한 차원이 많은 제3 특징 행렬을 생성하는 셀프 어탠션 블록부;
상기 H개의 레이어에 대응하는 레이어를 이용하여 상기 제1 특징 행렬과 상기 제3 특징 행렬을 업 샘플링하고 제3 데이터셋을 생성하는 정제부; 및
상기 제2 데이터셋과 상기 제3 데이터셋을 합하여 제4 데이터셋을 생성하는 보정부를 포함하고,
상기 특징 추출부는,
r(여기서, r은 자연수)배로 늘어난 상기 제1 데이터셋의 차원을 3차원으로 고정하고, 상기 제1 데이터셋의 r배로 확장된 패치를 생성하는 제1 픽셀 셔플을 포함하고,
상기 정제부는,
각각이 상기 제1 특징 행렬을 쿼리 행렬로 사용하고 상기 제3 특징 행렬을 키 및 밸류 행렬로 사용하여 상기 제1 데이터셋에 대한 결과값을 생성하고, 상기 결과값에 상기 제3 특징 행렬을 합하고 정제하여 출력값을 정규화하는 복수의 전역 정제 어탠션; 및
상기 출력값의 차원을 3차원으로 고정하여 상기 제3 데이터셋을 생성하는 제2 픽셀 셔플을 포함하는 포인트 클라우드의 고해상화 장치.An input unit that receives a first data set obtained by cropping an image centered on feature points of an object from an image acquisition device such as a camera or an image storage device;
a feature extraction unit that extracts a first feature matrix, which is a multi-scale feature matrix for the first dataset, using H (where H is a natural number) layers;
a point generator that generates a second feature matrix corresponding to the coordinates of the first dataset and generates a second dataset by combining the first dataset and the second feature matrix;
a self-attention block unit that converts the size and dimension of the second data set to generate a third feature matrix with one dimension more than the first feature matrix;
a refinement unit for up-sampling the first feature matrix and the third feature matrix using layers corresponding to the H layers and generating a third data set; and
A correction unit that generates a fourth data set by combining the second data set and the third data set,
The feature extraction unit,
A first pixel shuffle that fixes the dimension of the first data set expanded by r times (where r is a natural number) to three dimensions and generates a patch expanded by r times the first data set,
The purification unit,
Generate a result for the first dataset by using the first feature matrix as a query matrix and the third feature matrix as a key and value matrix, and add the third feature matrix to the result, and A plurality of global refinement attentions that refine and normalize the output values; and
A high-resolution point cloud apparatus including a second pixel shuffler that generates the third data set by fixing the dimension of the output value to three dimensions.
상기 특징 추출부는,
상기 패치로부터 기준이 되는 기준점과 K(여기서, K는 자연수)개의 인접점을 포함하는 패치를 생성하는 포인트 클라우드의 고해상화 장치.According to paragraph 1,
The feature extraction unit,
A high-resolution point cloud device that generates a patch including a reference point and K (where K is a natural number) adjacent points from the patch.
상기 특징 추출부는,
상기 인접점을 포함하는 패치를 기반으로 기준점과 인접점들 간의 상대적인 특징을 계산하는 포인트 클라우드의 고해상화 장치.According to paragraph 3,
The feature extraction unit,
A high-resolution point cloud device that calculates relative characteristics between a reference point and adjacent points based on a patch including the adjacent point.
상기 정제부는,
상기 제1 특징 행렬과 상기 제3 특징 행렬을 이용하여 어탠션을 수행하는 포인트 클라우드의 고해상화 장치.According to paragraph 1,
The purification unit,
A point cloud high-resolution device that performs attention using the first feature matrix and the third feature matrix.
H(여기서, H는 자연수)개의 레이어를 이용하여 상기 제1 데이터셋에 대한 멀티 스케일 특징 행렬인 제1 특징 행렬을 추출하는 단계;
상기 제1 데이터셋에 대한 제2 특징 행렬을 생성하고, 상기 제1 데이터셋과 상기 제2 특징 행렬을 합하여 제2 데이터셋을 생성하는 단계;
상기 제2 데이터셋의 크기와 차원을 변환하여 상기 제1 특징 행렬보다 한 차원이 많은 제3 특징 행렬을 생성하는 단계;
상기 H개의 레이어에 대응하는 레이어를 이용하여 상기 제1 특징 행렬과 상기 제3 특징 행렬을 업 샘플링하고 제3 데이터셋을 생성하는 단계; 및
상기 제2 데이터셋과 상기 제3 데이터셋을 합하여 제4 데이터셋을 생성하는 보정부를 포함하고,
상기 제1 특징 행렬을 추출하는 단계는,
r(여기서, r은 자연수)배로 늘어난 상기 제1 데이터셋의 차원을 3차원으로 고정하고, 상기 제1 데이터셋의 r배로 확장된 패치를 생성하는 단계를 포함하고,
상기 제3 데이터셋을 생성하는 단계는,
각각이 상기 제1 특징 행렬을 쿼리 행렬로 사용하고 상기 제3 특징 행렬을 키 및 밸류 행렬로 사용하여 상기 제1 데이터셋에 대한 결과값을 생성하고, 상기 결과값에 상기 제3 특징 행렬을 합하고 정제하여 출력값을 정규화하는 단계; 및
상기 출력값의 차원을 3차원으로 고정하여 상기 제3 데이터셋을 생성하는 단계를 포함하는 포인트 클라우드의 고해상화 방법.Receiving a first data set in which an image is cropped centered on feature points of an object from an image acquisition device such as a camera or an image storage device;
Extracting a first feature matrix, which is a multi-scale feature matrix for the first dataset, using H (where H is a natural number) layers;
Generating a second feature matrix for the first dataset and combining the first dataset and the second feature matrix to generate a second dataset;
converting the size and dimension of the second data set to generate a third feature matrix with one dimension more than the first feature matrix;
up-sampling the first feature matrix and the third feature matrix using layers corresponding to the H layers and generating a third data set; and
A correction unit that generates a fourth data set by combining the second data set and the third data set,
The step of extracting the first feature matrix is:
Fixing the dimension of the first data set expanded by r times (where r is a natural number) to three dimensions, and generating a patch expanded by r times the first data set,
The step of generating the third data set is,
Generate a result value for the first dataset by using the first feature matrix as a query matrix and the third feature matrix as a key and value matrix, and add the third feature matrix to the result value, and refining and normalizing the output value; and
A high-resolution point cloud method comprising generating the third data set by fixing the dimension of the output value to 3D.
상기 제1 특징 행렬을 추출하는 단계는,
상기 패치로부터 기준이 되는 기준점과 K(여기서, K는 자연수)개의 인접점을 포함하는 패치를 생성하는 포인트 클라우드의 고해상화 방법.According to clause 6,
The step of extracting the first feature matrix is:
A high-resolution point cloud method for generating a patch including a reference point and K (where K is a natural number) adjacent points from the patch.
상기 제1 특징 행렬을 추출하는 단계는,
상기 인접점을 포함하는 패치를 기반으로 기준점과 인접점들 간의 상대적인 특징을 계산하는 포인트 클라우드의 고해상화 방법.According to clause 8,
The step of extracting the first feature matrix is:
A high-resolution point cloud method that calculates relative features between a reference point and adjacent points based on a patch including the adjacent point.
상기 제3 데이터셋을 생성하는 단계는,
상기 제1 특징 행렬과 상기 제3 특징 행렬을 이용하여 어탠션을 수행하는 포인트 클라우드의 고해상화 방법.According to clause 6,
The step of generating the third data set is,
A high-resolution point cloud method for performing attention using the first feature matrix and the third feature matrix.
상기 메모리에 연결되는 적어도 하나의 프로세서를 포함하고,
상기 적어도 하나의 프로세서는 상기 적어도 하나의 명령어를 실행하여:
카메라 또는 영상 저장 장치 등과 같은 영상 획득 장치로부터 물체의 특징점을 중심으로 이미지를 잘라낸 제1 데이터셋을 입력받고,
H(여기서, H는 자연수)개의 레이어를 이용하여 상기 제1 데이터셋에 대한 멀티 스케일 특징 행렬인 제1 특징 행렬을 추출하고,
상기 제1 데이터셋에 대한 제2 특징 행렬을 생성하고, 상기 제1 데이터셋과 상기 제2 특징 행렬을 합하여 제2 데이터셋을 생성하고,
상기 제2 데이터셋의 크기와 차원을 변환하여 상기 제1 특징 행렬보다 한 차원이 많은 제3 특징 행렬을 생성하고,
상기 H개의 레이어에 대응하는 레이어를 이용하여 상기 제1 특징 행렬과 상기 제3 특징 행렬을 업 샘플링하고 제3 데이터셋을 생성하고, 및
상기 제2 데이터셋과 상기 제3 데이터셋을 합하여 제4 데이터셋을 생성하는 것을 포함하고,
상기 제1 특징 행렬을 추출하는 것은,
r(여기서, r은 자연수)배로 늘어난 상기 제1 데이터셋의 차원을 3차원으로 고정하고, 상기 제1 데이터셋의 r배로 확장된 패치를 생성하는 것을 포함하고,
상기 제3 데이터셋을 생성하는 것은,
각각이 상기 제1 특징 행렬을 쿼리 행렬로 사용하고 상기 제3 특징 행렬을 키 및 밸류 행렬로 사용하여 상기 제1 데이터셋에 대한 결과값을 생성하고, 상기 결과값에 상기 제3 특징 행렬을 합하고 정제하여 출력값을 정규화하고; 및
상기 출력값의 차원을 3차원으로 고정하여 상기 제3 데이터셋을 생성하는 것을 포함하는 포인트 클라우드의 고해상화 장치.at least one memory storing at least one instruction; and
At least one processor connected to the memory,
The at least one processor executes the at least one instruction:
Receive a first data set in which the image is cut out centered on the feature points of the object from an image acquisition device such as a camera or an image storage device,
Extracting a first feature matrix, which is a multi-scale feature matrix for the first dataset, using H (where H is a natural number) layers,
Generating a second feature matrix for the first dataset, generating a second dataset by combining the first dataset and the second feature matrix,
Converting the size and dimension of the second dataset to generate a third feature matrix with one dimension more than the first feature matrix,
Up-sample the first feature matrix and the third feature matrix using layers corresponding to the H layers and generate a third dataset, and
Generating a fourth data set by combining the second data set and the third data set,
Extracting the first feature matrix includes:
It includes fixing the dimension of the first data set expanded by r times (where r is a natural number) to three dimensions, and generating a patch expanded by r times the first data set,
Creating the third data set is,
Generate a result value for the first dataset by using the first feature matrix as a query matrix and the third feature matrix as a key and value matrix, and add the third feature matrix to the result value, and Refine and normalize the output; and
A high-resolution point cloud device comprising generating the third data set by fixing the dimension of the output value to 3D.
상기 제1 특징 행렬을 추출하는 것은,
상기 패치로부터 기준이 되는 기준점과 K(여기서, K는 자연수)개의 인접점을 포함하는 패치를 생성하는 포인트 클라우드의 고해상화 장치.According to clause 11,
Extracting the first feature matrix includes:
A high-resolution point cloud device that generates a patch including a reference point and K (where K is a natural number) adjacent points from the patch.
상기 제1 특징 행렬을 추출하는 것은,
상기 인접점을 포함하는 패치를 기반으로 기준점과 인접점들 간의 상대적인 특징을 계산하는 포인트 클라우드의 고해상화 장치.According to clause 13,
Extracting the first feature matrix includes:
A high-resolution point cloud device that calculates relative characteristics between a reference point and adjacent points based on a patch including the adjacent point.
상기 제3 데이터셋을 생성하는 것은,
상기 제1 특징 행렬과 상기 제3 특징 행렬을 이용하여 어탠션을 수행하는 포인트 클라우드의 고해상화 장치.
According to clause 11,
Creating the third data set is,
A point cloud high-resolution device that performs attention using the first feature matrix and the third feature matrix.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220148645A KR102663467B1 (en) | 2022-11-09 | 2022-11-09 | Point cloud up-sampling apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220148645A KR102663467B1 (en) | 2022-11-09 | 2022-11-09 | Point cloud up-sampling apparatus and method |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102663467B1 true KR102663467B1 (en) | 2024-05-09 |
Family
ID=91075280
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220148645A KR102663467B1 (en) | 2022-11-09 | 2022-11-09 | Point cloud up-sampling apparatus and method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102663467B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200122870A (en) | 2019-04-19 | 2020-10-28 | 광운대학교 산학협력단 | Acquisition method for high quality 3-dimension spatial information using photogrammetry |
WO2022072940A1 (en) * | 2020-10-02 | 2022-04-07 | Google Llc | Processing images using self-attention based neural networks |
-
2022
- 2022-11-09 KR KR1020220148645A patent/KR102663467B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200122870A (en) | 2019-04-19 | 2020-10-28 | 광운대학교 산학협력단 | Acquisition method for high quality 3-dimension spatial information using photogrammetry |
WO2022072940A1 (en) * | 2020-10-02 | 2022-04-07 | Google Llc | Processing images using self-attention based neural networks |
Non-Patent Citations (1)
Title |
---|
Xian-Feng Han et al, "Dual Transformer for Point Cloud Analysis", Computer Vision and Pattern Recognition, (2021.04.27.)* * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110084734B (en) | Big data ownership protection method based on object local generation countermeasure network | |
WO2002054758A1 (en) | Adaptive prediction codeing/decoding method and device, and adapttive prediction codeintg/decoding program | |
CN116071553A (en) | Weak supervision semantic segmentation method and device based on naive VisionTransformer | |
CN113269848A (en) | Remote sensing image reconstruction system based on attention mechanism | |
KR102663467B1 (en) | Point cloud up-sampling apparatus and method | |
CN116485815A (en) | Medical image segmentation method, device and medium based on double-scale encoder network | |
Li et al. | AIS-based vessel trajectory reconstruction with U-Net convolutional networks | |
CN114529793A (en) | Depth image restoration system and method based on gating cycle feature fusion | |
Liu et al. | Multi-Scale Underwater Image Enhancement in RGB and HSV Color Spaces | |
CN114463176A (en) | Improved ESRGAN-based image super-resolution reconstruction method | |
CN112581431A (en) | Method for generating ultrasonic image from ultrasonic diagnosis report based on content maintenance and attention mechanism | |
CN115862039A (en) | Text-to-image algorithm based on multi-scale features | |
CN116137043A (en) | Infrared image colorization method based on convolution and transfomer | |
KR20230102698A (en) | Device for synthesizing image using adversarial generative neural network | |
CN114445889A (en) | Lightweight face aging method based on double attention mechanism | |
CN109146777B (en) | Mixed image super-resolution method by using perceptual similarity of pre-training network | |
Zhang et al. | Deep attentive generative adversarial network for photo-realistic image de-quantization | |
Liu et al. | A selective quantization approach for optimizing quantized inference engine | |
CN111339825B (en) | Model training method based on characteristic relation atlas learning and data classification method | |
CN117576119B (en) | Semi-supervised left atrium segmentation method based on compression-excitation network | |
Arhant et al. | A new deep learning neural network architecture for seafloor characterisation | |
CN112348806B (en) | No-reference digital pathological section ambiguity evaluation method | |
Deng et al. | DNN-Compressed Domain Visual Recognition with Feature Adaptation | |
Berezovsky et al. | Orthoimage Super-Resolution via Deep Convolutional Neural Networks | |
Huang et al. | A new side-match finite-state vector quantization using neural networks for image coding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |