JP7341864B2 - 3dデータを2d画像データに登録するためのシステム及び方法 - Google Patents
3dデータを2d画像データに登録するためのシステム及び方法 Download PDFInfo
- Publication number
- JP7341864B2 JP7341864B2 JP2019206474A JP2019206474A JP7341864B2 JP 7341864 B2 JP7341864 B2 JP 7341864B2 JP 2019206474 A JP2019206474 A JP 2019206474A JP 2019206474 A JP2019206474 A JP 2019206474A JP 7341864 B2 JP7341864 B2 JP 7341864B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- data
- boundary information
- pixels
- projected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 70
- 230000011218 segmentation Effects 0.000 claims description 83
- 230000010354 integration Effects 0.000 claims description 33
- 238000003709 image segmentation Methods 0.000 claims description 20
- 238000001514 detection method Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 230000009471 action Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 244000025254 Cannabis sativa Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/14—Transformations for image registration, e.g. adjusting or mapping for alignment of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Description
Claims (18)
- 3D(three-dimensional)データを2D(two-dimensional)画像データに登録するためのシステムであって、
3Dデータを作り出すための一つ以上のセンサと、
2D画像データを作り出すための一つ以上のカメラと、
一つ以上のプロセッサと、
前記一つ以上のプロセッサと通信可能なように連結されたメモリであって、
前記一つ以上のプロセッサによって実行されたときに、前記一つ以上のプロセッサに前記3Dデータ内で3Dセグメントを識別させる指示を含む、3Dデータセグメンテーションモジュールと、
前記一つ以上のプロセッサによって実行されたときに、前記一つ以上のプロセッサに前記3Dセグメントを物体と関連付けさせる指示を含む、データ関連付けモジュールと、
前記一つ以上のプロセッサによって実行されたときに、前記一つ以上のプロセッサに前記2D画像データ内のピクセルを分類させる指示を含む、画像セグメンテーションモジュールと、
前記一つ以上のプロセッサによって実行されたときに、前記一つ以上のプロセッサに前記物体についての速さ及び進行方向を判定させる指示を含む、速度推定モジュールと、
前記一つ以上のプロセッサによって実行されたときに、
前記3Dセグメントを、前記関連付けられた物体の速さ及び進行方向に基づいて、前記2D画像データがキャプチャされた時点に対応する位置にシフトし、タイムシフトされた3Dセグメントを2D画像空間上に投影すること、及び、
前記3Dセグメントを2D画像空間上に投影し、前記投影された3Dセグメントを、前記関連付けられた物体の速さ及び進行方向に基づいて、前記2D画像データがキャプチャされた時点に対応する位置にシフトすること、
の一つを実施することによって、前記一つ以上のプロセッサに前記3Dセグメントを前記2D画像データ内の前記分類されたピクセルの一部に登録させる指示を含む、統合モジュールと、
を記憶する、メモリと、
を含む、システム。 - 前記一つ以上のセンサは、LIDAR(Light Detection and Ranging)センサ、一組のステレオカメラ、RGB-D(Red Green Blue Depth)センサ及びレーダーセンサの少なくとも一つを含み、
前記3Dセグメントは、ポイントクラウドクラスタである、請求項1に記載のシステム。 - 前記画像セグメンテーションモジュールは、前記2D画像データのセマンティックセグメンテーションを実施する指示であって、前記セマンティックセグメンテーションは、クラスラベルを前記2D画像データ内のそれぞれのピクセルに割り当ててそのピクセルを分類する、指示をさらに含み、
前記統合モジュールは、前記タイムシフトされ投影されたポイントクラウドクラスタ内の点と重なる少なくとも一つのクラス内のピクセルの数を数える指示をさらに含む、請求項2に記載のシステム。 - 前記統合モジュールは、
前記タイムシフトされ投影されたポイントクラウドクラスタ内の点と重なる複数のクラスのそれぞれの中のピクセルの数を数え、
前記タイムシフトされ投影されたポイントクラウドクラスタを、ピクセルの最大数が前記タイムシフトされ投影されたポイントクラウドクラスタ内の点と重なる前記複数のクラス内のクラスと関連付ける、指示をさらに含む、請求項3に記載のシステム。 - 前記3Dセグメントは、凸包、ボクセル化、非凸包、バウンディングボックス及びメッシュデータの一つを含む3D境界情報である、請求項1に記載のシステム。
- 前記画像セグメンテーションモジュールは、前記2D画像データ内の前記分類されたピクセルからインスタンスセグメンテーションを作り出す指示であって、前記インスタンスセグメンテーションは、前記2D画像データ内の前記分類されたピクセルの前記一部を物体の特別なクラスの特定のインスタンスとして識別する、指示をさらに含み、
前記統合モジュールは、前記タイムシフトされ投影された3D境界情報を前記インスタンスセグメンテーションとマッチングする指示をさらに含む、請求項5に記載のシステム。 - 前記画像セグメンテーションモジュールは、前記2D画像データのセマンティックセグメンテーションを実施する指示であって、前記セマンティックセグメンテーションは、クラスラベルを前記2D画像データ内のそれぞれのピクセルに割り当ててそのピクセルを分類する、指示をさらに含み、
前記統合モジュールは、前記タイムシフトされ投影された3D境界情報内にある少なくとも一つのクラス内のピクセルの数を数える指示をさらに含む、請求項5に記載のシステム。 - 前記統合モジュールは、
前記タイムシフトされ投影された3D境界情報内にある複数のクラスのそれぞれの中のピクセルの数を数え、
前記タイムシフトされ投影された3D境界情報を、ピクセルの最大数が前記タイムシフトされ投影された3D境界情報内にある前記複数のクラス内のクラスと関連付ける、指示をさらに含む、請求項7に記載のシステム。 - 3D(three-dimensional)データを2D(two-dimensional)画像データに登録する方法であって、
一つ以上のセンサから3Dデータを受信するステップと、
一つ以上のカメラから2D画像データを受信するステップと、
前記3Dデータ内で3Dセグメントを識別するステップと、
前記3Dセグメントを物体と関連付けるステップと、
前記2D画像データ内のピクセルを分類するステップと、
前記物体についての速さ及び進行方向を判定するステップと、
前記3Dセグメントを、前記関連付けられた物体の速さ及び進行方向に基づいて、前記2D画像データがキャプチャされた時点に対応する位置にシフトし、タイムシフトされた3Dセグメントを2D画像空間上に投影するステップ、及び、前記3Dセグメントを2D画像空間上に投影し、前記投影された3Dセグメントを、前記関連付けられた物体の速さ及び進行方向に基づいて、前記2D画像データがキャプチャされた時点に対応する位置にシフトするステップ、の一つを実施することによって、前記3Dセグメントを前記2D画像データ内の前記分類されたピクセルの一部に登録するステップと、を含む、方法。 - 前記一つ以上のセンサは、LIDAR(Light Detection and Ranging)センサ、一組のステレオカメラ、RGB-D(Red Green Blue Depth)センサ及びレーダーセンサの少なくとも一つを含み、
前記3Dセグメントは、ポイントクラウドクラスタである、請求項9に記載の方法。
- 前記2D画像データ内のピクセルを分類するステップは、前記2D画像データのセマンティックセグメンテーションを実施するステップであって、前記セマンティックセグメンテーションは、クラスラベルを前記2D画像データ内のそれぞれのピクセルに割り当てる、ステップを含み、
前記登録するステップは、前記タイムシフトされ投影されたポイントクラウドクラスタ内の点と重なる少なくとも一つのクラス内のピクセルの数を数えるステップを含む、請求項10に記載の方法。 - 前記登録するステップは、
前記タイムシフトされ投影されたポイントクラウドクラスタ内の点と重なる複数のクラスのそれぞれの中のピクセルの数を数えるステップと、
前記タイムシフトされ投影されたポイントクラウドクラスタを、ピクセルの最大数が前記タイムシフトされ投影されたポイントクラウドクラスタ内の点と重なる前記複数のクラス内のクラスと関連付けるステップと、を含む、請求項11に記載の方法。 - 前記3Dセグメントは、凸包、ボクセル化、非凸包、バウンディングボックス及びメッシュデータの一つを含む3D境界情報である、請求項9に記載の方法。
- 前記2D画像データ内のピクセルを分類するステップは、インスタンスセグメンテーションを作り出すステップであって、前記インスタンスセグメンテーションは、前記2D画像データ内の前記分類されたピクセルの前記一部を物体の特別なクラスの特定のインスタンスとして識別する、ステップを含み、
前記登録するステップは、前記タイムシフトされ投影された3D境界情報を前記インスタンスセグメンテーションとマッチングするステップを含む、請求項13に記載の方法。 - 前記2D画像データ内のピクセルを分類するステップは、前記2D画像データのセマンティックセグメンテーションを実施するステップであって、前記セマンティックセグメンテーションは、クラスラベルを前記2D画像データ内のそれぞれのピクセルに割り当ててそのピクセルを分類する、ステップを含み、
前記登録するステップは、前記タイムシフトされ投影された3D境界情報内にある少なくとも一つのクラス内のピクセルの数を数えるステップを含む、請求項13に記載の方法。 - 前記登録するステップは、
前記タイムシフトされ投影された3D境界情報内にある複数のクラスのそれぞれの中のピクセルの数を数えるステップと、
前記タイムシフトされ投影された3D境界情報を、ピクセルの最大数が前記タイムシフトされ投影された3D境界情報内にある前記複数のクラス内のクラスと関連付けるステップと、を含む、請求項15に記載の方法。 - 3D(three-dimensional)データを2D(two-dimensional)画像データに登録するためのシステムであって、
3Dデータを作り出すための一つ以上のセンサと、
2D画像データを作り出すための一つ以上のカメラと、
一つ以上のプロセッサと、
前記一つ以上のプロセッサと通信可能なように連結されたメモリであって、
前記一つ以上のプロセッサによって実行されたときに、前記一つ以上のプロセッサに前記3Dデータ内で、凸包、ボクセル化、非凸包、バウンディングボックス及びメッシュデータを含む3D境界情報を識別させる指示を含む、3Dデータセグメンテーションモジュールと、
前記一つ以上のプロセッサによって実行されたときに、前記一つ以上のプロセッサに前記2D画像データ内のピクセルからインスタンスセグメンテーションを作り出させる指示を含む画像セグメンテーションモジュールであって、前記インスタンスセグメンテーションは、前記2D画像データ内の前記ピクセルの一部を物体の特別なクラスの特定のインスタンスとして識別する、画像セグメンテーションモジュールと、
前記一つ以上のプロセッサによって実行されたときに、前記一つ以上のプロセッサに、
前記3D境界情報を2D画像空間上に投影させ、投影された3D境界情報を作り出させ、
前記投影された3D境界情報を前記インスタンスセグメンテーションとマッチングさせ、前記投影された3D境界情報を前記インスタンスセグメンテーションに登録させる、指示を含む、統合モジュールと、
前記一つ以上のプロセッサによって実行されたときに、前記一つ以上のプロセッサに前記3D境界情報を物体と関連付けさせる指示を含む、データ関連付けモジュールと、
前記一つ以上のプロセッサによって実行されたときに、前記一つ以上のプロセッサに前記物体についての速さ及び進行方向を判定させる指示を含む、速度推定モジュールと、
を記憶する、メモリと、
を含み、
前記統合モジュールは、
前記3D境界情報が2D画像空間上に投影される前に、前記3D境界情報を、前記関連付けられた物体の速さ及び進行方向に基づいて、前記2D画像データがキャプチャされた時点に対応する位置にシフトすること、及び、
前記3D境界情報が2D画像空間上に投影された後に、前記投影された3D境界情報を、前記関連付けられた物体の速さ及び進行方向に基づいて、前記2D画像データがキャプチャされた時点に対応する位置にシフトすること、
の一つを実施する指示をさらに含む、システム。 - 3D(three-dimensional)データを2D(two-dimensional)画像データに登録する方法であって、
一つ以上のセンサから3Dデータを受信するステップと、
一つ以上のカメラから2D画像データを受信するステップと、
前記3Dデータ内で3D境界情報を識別するステップと、
前記2D画像データ内のピクセルからインスタンスセグメンテーションを作り出すステップであって、前記インスタンスセグメンテーションは、前記2D画像データ内の前記ピクセルの一部を物体の特別なクラスの特定のインスタンスとして識別する、ステップと、
前記3D境界情報を2D画像空間上に投影し、投影された3D境界情報を作り出すステップと、
前記投影された3D境界情報を前記インスタンスセグメンテーションとマッチングし、前記投影された3D境界情報を前記インスタンスセグメンテーションに登録する、ステップと、
前記3D境界情報を物体と関連付けるステップと、
前記物体についての速さ及び進行方向を判定するステップと、
前記3D境界情報が2D画像空間上に投影される前に、前記3D境界情報を、前記関連付けられた物体の速さ及び進行方向に基づいて、前記2D画像データがキャプチャされた時点に対応する位置にシフトするステップ、及び、前記3D境界情報が2D画像空間上に投影された後に、前記投影された3D境界情報を、前記関連付けられた物体の速さ及び進行方向に基づいて、前記2D画像データがキャプチャされた時点に対応する位置にシフトするステップ、の一つを実施するステップと、
を含む、方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/192,225 | 2018-11-15 | ||
US16/192,225 US10846817B2 (en) | 2018-11-15 | 2018-11-15 | Systems and methods for registering 3D data with 2D image data |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020087464A JP2020087464A (ja) | 2020-06-04 |
JP2020087464A5 JP2020087464A5 (ja) | 2022-09-13 |
JP7341864B2 true JP7341864B2 (ja) | 2023-09-11 |
Family
ID=70727758
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019206474A Active JP7341864B2 (ja) | 2018-11-15 | 2019-11-14 | 3dデータを2d画像データに登録するためのシステム及び方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10846817B2 (ja) |
JP (1) | JP7341864B2 (ja) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11055546B2 (en) * | 2018-12-18 | 2021-07-06 | Here Global B.V. | Automatic positioning of 2D image sign sightings in 3D space |
CN110084840B (zh) * | 2019-04-24 | 2022-05-13 | 阿波罗智能技术(北京)有限公司 | 点云配准方法、装置、服务器和计算机可读介质 |
US20210004566A1 (en) * | 2019-07-02 | 2021-01-07 | GM Global Technology Operations LLC | Method and apparatus for 3d object bounding for 2d image data |
US11747443B2 (en) * | 2019-08-05 | 2023-09-05 | Tellus You Care, Inc. | Non-contact identification of multi-person presence for elderly care |
US11551422B2 (en) | 2020-01-17 | 2023-01-10 | Apple Inc. | Floorplan generation based on room scanning |
US11763478B1 (en) | 2020-01-17 | 2023-09-19 | Apple Inc. | Scan-based measurements |
US11625839B2 (en) | 2020-05-18 | 2023-04-11 | Toyota Research Institute, Inc. | Bird's eye view based velocity estimation via self-supervised learning |
US11410546B2 (en) * | 2020-05-18 | 2022-08-09 | Toyota Research Institute, Inc. | Bird's eye view based velocity estimation |
CN111709343B (zh) * | 2020-06-09 | 2023-11-10 | 广州文远知行科技有限公司 | 一种点云检测方法、装置、计算机设备和存储介质 |
US20220107977A1 (en) * | 2020-10-05 | 2022-04-07 | Modern Adjusting Services, LLC | Methods, systems, and software for inspection of a structure |
KR102399460B1 (ko) * | 2020-10-15 | 2022-05-17 | 건국대학교 산학협력단 | 의미론적 분할 기반의 3차원 포인트 클라우드 분류 장치 및 방법 |
CN114531580B (zh) * | 2020-11-23 | 2023-11-21 | 北京四维图新科技股份有限公司 | 图像处理方法及装置 |
US11551406B2 (en) * | 2020-12-30 | 2023-01-10 | Palo Alto Research Center Incorporated | System and method for translating a 3D image into a 2D image |
US20240219567A1 (en) * | 2021-03-17 | 2024-07-04 | Sony Semiconductor Solutions Corporation | Sensing system |
CN113096126B (zh) * | 2021-06-03 | 2021-09-24 | 四川九通智路科技有限公司 | 基于图像识别深度学习的道路病害检测***及方法 |
US11688144B2 (en) | 2021-06-16 | 2023-06-27 | International Business Machines Corporation | Self guidance based on dimensional relationship |
US12039757B2 (en) | 2021-12-30 | 2024-07-16 | Waymo Llc | Associating labels between multiple sensors |
CN116523984B (zh) * | 2023-07-05 | 2023-09-26 | 矽瞻科技(成都)有限公司 | 一种3d点云定位及配准方法、设备和介质 |
CN117765048B (zh) * | 2024-02-22 | 2024-06-11 | 吉林大学 | 一种基于跨模态融合的水下目标三维配准方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012146132A (ja) | 2011-01-12 | 2012-08-02 | Osaka City Univ | 3次元データと2次元データの統合方法及びこれを用いた見守りシステム、監視システム |
US20170228940A1 (en) | 2016-02-09 | 2017-08-10 | Intel Corporation | Recognition-based object segmentation of a 3-dimensional image |
WO2018122087A1 (en) | 2016-12-28 | 2018-07-05 | Thomson Licensing | Method and device for joint segmentation and 3d reconstruction of a scene |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006083297A2 (en) * | 2004-06-10 | 2006-08-10 | Sarnoff Corporation | Method and apparatus for aligning video to three-dimensional point clouds |
US8290305B2 (en) | 2009-02-13 | 2012-10-16 | Harris Corporation | Registration of 3D point cloud data to 2D electro-optical image data |
US8179393B2 (en) | 2009-02-13 | 2012-05-15 | Harris Corporation | Fusion of a 2D electro-optical image and 3D point cloud data for scene interpretation and registration performance assessment |
WO2017132636A1 (en) | 2016-01-29 | 2017-08-03 | Pointivo, Inc. | Systems and methods for extracting information about objects from scene information |
US10430641B2 (en) * | 2017-03-08 | 2019-10-01 | GM Global Technology Operations LLC | Methods and systems for object tracking using bounding boxes |
US10318822B2 (en) * | 2017-04-06 | 2019-06-11 | GM Global Technology Operations LLC | Object tracking |
US10650531B2 (en) * | 2018-03-16 | 2020-05-12 | Honda Motor Co., Ltd. | Lidar noise removal using image pixel clusterings |
US11042157B2 (en) * | 2018-07-23 | 2021-06-22 | Baidu Usa Llc | Lane/object detection and tracking perception system for autonomous vehicles |
-
2018
- 2018-11-15 US US16/192,225 patent/US10846817B2/en active Active
-
2019
- 2019-11-14 JP JP2019206474A patent/JP7341864B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012146132A (ja) | 2011-01-12 | 2012-08-02 | Osaka City Univ | 3次元データと2次元データの統合方法及びこれを用いた見守りシステム、監視システム |
US20170228940A1 (en) | 2016-02-09 | 2017-08-10 | Intel Corporation | Recognition-based object segmentation of a 3-dimensional image |
WO2018122087A1 (en) | 2016-12-28 | 2018-07-05 | Thomson Licensing | Method and device for joint segmentation and 3d reconstruction of a scene |
Non-Patent Citations (2)
Title |
---|
Kanokphan Lertniphonphan,2D TO 3D LABEL PROPAGATION FOR OBJECT DETECTION IN POINT CLOUD,2018 IEEE International Conference on Multimedia & Expo Workshops (ICMEW),IEEE,2018年07月,全6ページ,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8551515 |
QIU YUE,RGB-Dカメラを用いた生活空間センシング及び機能解析に関する研究,第23回 画像センシングシンポジウム SSII2017 [USB],日本,画像センシング技術研究会,2017年06月07日,IS2-21 SO2-IS2-21,全6ページ |
Also Published As
Publication number | Publication date |
---|---|
JP2020087464A (ja) | 2020-06-04 |
US10846817B2 (en) | 2020-11-24 |
US20200160487A1 (en) | 2020-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7341864B2 (ja) | 3dデータを2d画像データに登録するためのシステム及び方法 | |
US10846818B2 (en) | Systems and methods for registering 3D data with 2D image data | |
US11250576B2 (en) | Systems and methods for estimating dynamics of objects using temporal changes encoded in a difference map | |
US11138465B2 (en) | Systems and methods for transforming coordinates between distorted and undistorted coordinate systems | |
US20200233426A1 (en) | System and method for estimating lane prediction errors for lane segments | |
US10762650B1 (en) | System and method for estimating depth using a monocular camera | |
US11216987B2 (en) | Systems and methods for associating LiDAR points with objects | |
US11010592B2 (en) | System and method for lifting 3D representations from monocular images | |
US10933880B2 (en) | System and method for providing lane curvature estimates | |
US11222215B1 (en) | Identifying a specific object in a two-dimensional image of objects | |
US12014549B2 (en) | Systems and methods for vehicle light signal classification | |
US11891094B2 (en) | Using a neural network to produce a digital map for a location | |
US20220036126A1 (en) | System and method for training of a detector model to output an instance identifier indicating object consistency along the temporal axis | |
US20230351773A1 (en) | Systems and methods for detecting traffic lights corresponding to a driving lane | |
US11430218B2 (en) | Using a bird's eye view feature map, augmented with semantic information, to detect an object in an environment | |
US11615268B2 (en) | System and method for optimizing performance of a model performing a downstream task | |
US11315269B2 (en) | System and method for generating a point cloud that includes surface normal information | |
US20240037961A1 (en) | Systems and methods for detecting lanes using a segmented image and semantic context | |
US11809524B2 (en) | System and method for training an adapter network to improve transferability to real-world datasets | |
US12020489B2 (en) | Network architecture for monocular depth estimation and object detection | |
US11238292B2 (en) | Systems and methods for determining the direction of an object in an image | |
US20230154038A1 (en) | Producing a depth map from two-dimensional images | |
US20240067207A1 (en) | Systems and methods for detecting roadway lane boundaries | |
US11769272B2 (en) | Distinguishing, in a point cloud data set represented by an image, a first object from a second object | |
US11741724B2 (en) | Configuring a neural network to produce an electronic road map that has information to distinguish lanes of a road |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220905 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220905 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230726 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230801 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230830 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7341864 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |