JPWO2020194650A1 - 異物検出装置、異物検出方法、およびプログラム - Google Patents

異物検出装置、異物検出方法、およびプログラム Download PDF

Info

Publication number
JPWO2020194650A1
JPWO2020194650A1 JP2021508589A JP2021508589A JPWO2020194650A1 JP WO2020194650 A1 JPWO2020194650 A1 JP WO2020194650A1 JP 2021508589 A JP2021508589 A JP 2021508589A JP 2021508589 A JP2021508589 A JP 2021508589A JP WO2020194650 A1 JPWO2020194650 A1 JP WO2020194650A1
Authority
JP
Japan
Prior art keywords
foreign matter
depth
depth information
detection range
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021508589A
Other languages
English (en)
Other versions
JP7081720B2 (ja
Inventor
シンイ オウ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2020194650A1 publication Critical patent/JPWO2020194650A1/ja
Application granted granted Critical
Publication of JP7081720B2 publication Critical patent/JP7081720B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

本発明の目的は、少ない計算量で異物の判定を実現することができる異物検出装置を提供することである。
計測情報取得部(91)は、検出範囲における深度を計測する深度計測装置(LiDAR110)が計測した深度を示す深度情報を取得する。画像取得部(92)は、検出範囲を撮像する撮像装置(カメラ130)が撮像した画像を取得する。深度抽出部(93)は、取得された画像に基づいて、深度情報のうち異物であるか否かの判定対象としない部分が除去された部分深度情報を抽出する。異物判定部(94)は、部分深度情報に基づいて検出範囲における異物の有無を判定する。

Description

本発明は、異物検出装置、異物検出方法、およびプログラムに関する。
特許文献1には、ステレオカメラとLiDAR(Light Detection and Ranging)を用いて、検出範囲に存在する物の複数の特徴量を取得し、検出範囲内に存在する物の判別を行う技術が開示されている。
また特許文献2には、監視領域内において距離測定装置により測定された物体の距離特徴量に基づいて障害物の有無を判定する技術が開示されている。
特開2007−255978号公報 国際公開第2018/190252号
ステレオカメラやLiDARの技術によれば、検出範囲内の情報を点群データとして得ることができる。しかしながら、点群を構成する各点について異物の判定処理を行う場合、計算量が膨大となる。
本発明は、上記課題に鑑みてなされたものであり、その目的の一つは、少ない計算量で異物の判定を実現することができる異物検出装置、異物検出方法、およびプログラムを提供することである。
本発明の第1の態様によれば、異物検出装置は、検出範囲における深度を検出する深度検出装置が検出した前記深度を示す深度情報を取得する検出情報取得部と、前記検出範囲を撮像する撮像装置が撮像した画像を取得する画像取得部と、取得された前記画像に基づいて、前記深度情報のうち異物であるか否かの判定対象としない部分が除去された部分深度情報を抽出する深度抽出部と、前記部分深度情報に基づいて前記検出範囲における異物の有無を判定する異物判定部とを備える。
本発明の第2の態様によれば、異物検出方法は、コンピュータが、検出範囲における深度を検出する深度検出装置が検出した前記深度を示す深度情報を取得し、前記コンピュータが、前記検出範囲を撮像する撮像装置が撮像した画像を取得し、前記コンピュータが、取得された前記画像に基づいて、前記深度情報のうち異物であるか否かの判定対象としない部分が除去された部分深度情報を抽出し、前記コンピュータが、前記部分深度情報に基づいて前記検出範囲における異物の有無を判定する。
本発明の第3の態様によれば、プログラムは、コンピュータに、検出範囲における深度を検出する深度検出装置が検出した前記深度を示す深度情報を取得するステップと、前記検出範囲を撮像する撮像装置が撮像した画像を取得するステップと、取得された前記画像に基づいて、前記深度情報のうち異物であるか否かの判定対象としない部分が除去された部分深度情報を抽出するステップと、前記部分深度情報に基づいて前記検出範囲における異物の有無を判定するステップとを実行させる。
上記態様のうち少なくとも1つの態様によれば、異物検出装置は、少ない計算量で異物の判定を実現することができる。
第1の実施形態に係る異物検出装置の構成を示す概略図である。 第1の実施形態に係る異物検出装置の処理装置の機能構成を例示するブロック図である。 第1の実施形態に係る異物検出装置による異物検出方法を示すフローチャートである。 ある時点における異物検出装置と周辺環境との位置関係の例を表す図である。 ある時点において異物検出装置の検出範囲に写る画像の例を示す図である。 既知マップデータの一例を示す図である。 既知マップデータから異物検出装置の検出範囲を切り出したマップデータの例を示す図である。 顕著性マップの一例を示す図である。 ボクセルデータの一例を示す図である。 少なくとも1つの実施形態に係る処理装置を実現するための計算機のハードウェア構成を示す図である。 異物検出装置の基本構成を示す概略ブロック図である。
〈第1の実施形態〉
《異物検出装置の構成》
図1は、第1の実施形態に係る異物検出装置の構成を示す概略図である。
異物検出装置100は、LiDAR110、カメラ130、処理装置150およびロボット170を備える。
LiDAR110、カメラ130、および処理装置150は、ロボット170に搭載される。ロボット170は、車輪等の移動装置を備える。
LiDAR110は、外界の深度を計測し、複数の検出点における深度を示す点群データを生成する。LiDAR110は深度計測装置の一例であり、点群データは深度情報の一例である。LiDAR110は、ロボット170の進行方向前方の深度を計測する。
カメラ130は、ロボット170の進行方向前方を撮像し、画像データを生成する。カメラ130は撮像装置の一例である。LiDAR110による深度の計測範囲R1と、カメラ130の撮像範囲R2とは少なくとも重複する部分を有する。
処理装置150は、LiDAR110およびカメラ130の計測情報に基づいて、LiDAR110の検出範囲R3とカメラ130の撮像範囲R2とが重複する範囲に存在する異物を検出する。つまり、LiDAR110による深度の計測範囲R1と、カメラ130の撮像範囲R2とが重複する部分は、異物検出装置100による異物の検出範囲R3である。
《処理装置の機能構成》
図2は、第1の実施形態に係る異物検出装置の処理装置の機能構成を例示するブロック図である。
処理装置150は、計測情報取得部151、画像取得部152、顕著度算出部153、前処理部154、点群抽出部155、点群変換部156、既知マップデータ記憶部157、差分抽出部158、異物判定部159および出力部160を備える。
計測情報取得部151は、LiDAR110から点群データを取得する。
画像取得部152は、カメラ130から画像データを取得する。
顕著度算出部153は、画像取得部152が取得した画像データから顕著性マップを求める。顕著性マップは、画像における注視されやすい部分をヒートマップとして表した画像である。すなわち、顕著性マップは、画像データの各画素における顕著度を示す画像である。例えば、顕著度算出部153は、画像データの周波数スペクトルの特徴を求め、事前に求めた自然画像の周波数スペクトルモデルとの差の大きさから顕著度を算出することができる。また、例えば、顕著度算出部153は、画像の勾配エッジ、色、時系列による画素値の変化量、ディープラーニングによる推論によって、顕著度を算出してもよい。
前処理部154は、計測情報取得部151が取得した点群データに対し、アウトライヤ処理およびフィルタリングなどの前処理を行う。前処理部154は、前処理としてさらにノイズの除去、境界線判定、平面判定による地面や壁の除去などを実行してもよい。
点群抽出部155は、顕著度算出部153が生成した顕著性マップに基づいて、前処理部154によって前処理された点群データから、顕著度が所定の閾値より高い画素に相当する部分(部分点群データ)を抽出する。点群抽出部155によって抽出された部分点群データは、部分深度情報の一例である。
すなわち、第1の実施形態において、顕著度が所定の閾値以下の部分は、異物であるか否かの判定対象とならない。
点群変換部156は、点群抽出部155が抽出した部分点群データを、ボクセルデータに変換する。点群変換部156は、部分点群データをボクセルデータに変換することで、計算量およびメモリの使用容量を削減することができる。部分点群データから変換されたボクセルデータは、部分深度情報の一例である。
既知マップデータ記憶部157は、異物の検出処理の開始前に求めた既知マップデータを記憶する。既知マップデータは、例えば、LiDAR110を用いたSLAM(Simultaneous Localization and Mapping)技術によって生成された三次元環境地図であってよい。既知マップデータは、検出範囲に異物が存在しないときの深度を示す参照深度情報の一例である。
差分抽出部158は、点群変換部156が生成したボクセルデータと、既知マップデータ記憶部157が記憶する既知マップデータとを比較し、ボクセルデータの各ボクセルのうち、既知マップデータに存在しないボクセルを抽出する。このとき、差分抽出部158は、所定の誤差範囲をもって既知マップデータとボクセルのマッチングを行う。
異物判定部159は、検出領域に異物が存在するか否かを判定する。また異物判定部159は、検出領域に異物が存在する場合、異物の個数、ならびに各異物の大きさおよび重心座標を求める。具体的には、異物判定部159は、差分抽出部158が抽出したボクセルをクラスタリングし、当該クラスタに基づいて、異物の個数、ならびに各異物の大きさおよび重心座標を求める。
出力部160は、異物判定部159の結果を出力する。例えば、出力部160は、図示しないディスプレイに結果を表示してもよいし、外部のサーバ装置に結果を出力してもよいし、内部の記憶媒体に結果を記録してもよい。
《異物検出方法》
図3は、第1の実施形態に係る異物検出装置による異物検出方法を示すフローチャートである。
計測情報取得部151は、LiDAR110から点群データを取得する(ステップS1)。画像取得部152は、カメラ130から画像データを取得する(ステップS2)。
顕著度算出部153は、ステップS2で取得した画像データから、顕著性マップを生成する(ステップS3)。前処理部154は、ステップS1で取得した点群データの前処理を行う(ステップS4)。点群抽出部155は、LiDAR110とカメラ130の相対的な位置および姿勢に基づいて、ステップS3で生成した顕著性マップとステップS4で前処理された点群データとの対応関係を特定する(ステップS5)。
点群抽出部155は、ステップS5で特定した対応関係に基づいて、ステップS4で前処理された点群データから、ステップS3で生成した顕著性マップにおいて顕著度が所定の閾値を超える画素に対応する部分点群データを抽出する(ステップS6)。点群変換部156は、ステップS6で抽出した部分点群データを、ボクセルデータに変換する(ステップS7)。
差分抽出部158は、ステップS7で生成したボクセルデータと既知マップデータ記憶部157が記憶する既知マップデータとを比較し、ボクセルデータの各ボクセルのうち、既知マップデータに存在しないボクセルを抽出し、異物マップに登録する(ステップS8)。異物判定部159は、異物マップの各ボクセルについてクラスタリング処理を行う(ステップS9)。異物判定部159は、ステップS9で検出されたクラスタの数を異物の数として特定する(ステップS10)。異物判定部159は、ステップS9で検出された各クラスタにおけるボクセルの範囲に基づいて異物の大きさを特定する(ステップS11)。ステップS9で検出された各クラスタにおけるボクセルの重心位置に基づいて異物の位置を特定する(ステップS12)。出力部160は、特定した異物の数、ならびに各異物の大きさおよび重心位置を出力する(ステップS13)。
《異物検出方法の具体例》
図4は、ある時点における異物検出装置と周辺環境との位置関係の例を表す図である。図5は、ある時点において異物検出装置の検出範囲に写る画像の例を示す図である。
図6は、既知マップデータの一例を示す図である。図7は、既知マップデータから異物検出装置の検出範囲を切り出したマップデータの例を示す図である。図8は、顕著性マップの一例を示す図である。図9は、ボクセルデータの一例を示す図である。
例えば、図4に示すように、2つの異物Mおよびが存在する環境において異物検出装置100を使用したとする。この場合、異物検出装置100は、ステップS2において、図5に示すような画像データを得る。また異物検出装置100は、ステップS3において、取得した画像データに基づいて画像処理を行うことで、図8に示すような顕著性マップを生成する。図8に示す顕著性マップでは、異物Mに係る画素とドアに係る画素の顕著度が高く検出されている。
異物検出装置100は、ステップS6において、顕著度が閾値より高い画素に対応する部分点群データを抽出し、ステップS7で図9に示すボクセルデータに変換する。次に、異物検出装置100は、図6に示す既知マップデータから、現在の異物検出装置の位置および姿勢に基づいて検出範囲を切り出すことで、図7に示すマップデータを得ることができる。異物検出装置100の位置および姿勢は、例えばSLAMにより推定される。異物検出装置100は、ステップS8において、図9に示すボクセルデータと図7に示すマップデータとをマッチングさせ、既知マップデータに存在するボクセルB(図7および図9の例においては、ドアの部分に位置する複数のボクセルB)を除いたボクセルを、異物マップに登録する。
そして、異物検出装置100は、異物マップに登録された複数のボクセルについてクラスタリングを行うことにより、2つの異物の位置および大きさを特定することができる。
《作用・効果》
このように、第1の実施形態に係る異物検出装置100は、検出範囲が写った画像データに基づいて、点群データから異物であるか否かの判定対象としない部分を除去した部分点群データを抽出し、部分点群データに基づいて検出範囲における異物の有無を判定する。これにより、異物検出装置100は、全点群データを用いる場合と比較して、少ない計算量で異物の有無を判定することができる。なお、第1の実施形態に係る異物検出装置100は、深度情報として点群データを用いるが、これに限られない。例えば、他の実施形態に係る異物検出装置100は、深度情報としてポリゴンデータなどの他の三次元データを用いてもよい。
第1の実施形態に係る異物検出装置100は、点群データのうち、画像データから生成された顕著性マップにおいて顕著度が閾値より高い画素に対応する部分を、部分点群データとして抽出する。これにより、異物である可能性がある部分を適切に抽出することができる。なお、他の実施形態においてはこれに限られず、顕著性マップに代えて一般的な物体識別技術により、異物である可能性がある物体を認識してもよい。
〈他の実施形態〉
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記各実施形態の組み合わせ、又は上記以外の様々な構成を採用することもできる。
例えば、上述の実施形態においては、異物検出装置100が移動手段であるロボット170を備えるが、これに限られない。例えば、他の実施形態に係る異物検出装置100は、ドローンなどの飛翔体を備えてもよい。また他の実施形態に係る異物検出装置100は、移動手段を備えず、人間が手動で異物検出装置100を移動させるものであってもよい。また、他の実施形態に係る異物検出装置100は、固定位置において異物の検出を行うものであってもよい。
上述の実施形態に係る異物検出装置100は、LiDAR110によって深度情報である点群データを得るが、これに限られない。例えば、他の実施形態に係る異物検出装置100は、LiDAR110に代えてステレオカメラやIRカメラなどの他の深度計測装置を用いて深度情報を得てもよい。
上述の実施形態に係る異物検出装置100は、内部に処理装置150を備えるが、これに限られない。例えば、他の実施形態に係る異物検出装置100は、ロボット170の外部に処理装置150を備えるものであってもよい。
〈処理装置のハードウェア構成〉
処理装置150の各機能構成部は、それぞれ単体のハードウェア(例えばハードワイヤードされた電子回路など)で実現されてもよいし、ハードウェアとソフトウェアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)によって実現されてもよい。以下、異物検出装置100の各機能構成部がハードウェアとソフトウェアとの組み合わせで実現される場合について、さらに説明する。
図10は、少なくとも1つの実施形態に係る処理装置を実現するための計算機のハードウェア構成を示す図である。計算機1000は、任意の種類の計算機である。例えば計算機1000は、ロボット170に内蔵されるSoC(System on a Chip)などの処理チップとして実現される。計算機1000は、異物検出装置100を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。
計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、およびネットワークインタフェース1120を備える。
バス1020は、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、およびネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。
プロセッサ1040は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(Field−Programmable Gate Array)などの種々のプロセッサである。メモリ1060は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス1080は、RAMやROM(Read Only Memory)などを用いて実現される補助記憶装置である。
入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース1100には、少なくともLiDAR110およびカメラ130が接続される。また入出力インタフェース1100には、他の入力装置および出力装置が接続されてよい。
また、計算機1000がロボット170に内蔵される処理チップである場合、入出力インタフェース1100には、ロボット170のアクチュエータが接続される。計算機1000は、入出力インタフェース1100を介してアクチュエータへ制御信号を送信することにより、ロボット170の走行を制御する。また、入出力インタフェース1100には、ロボット170の状態を把握するための種々のセンサ(LiDAR110、カメラ130、エンコーダ、加速度センサなど)が接続される。計算機1000は、入出力インタフェース1100を介してセンサから検出値を得ることにより、ロボット170に関する観測値を得る。
ネットワークインタフェース1120は、計算機1000を通信網に接続するためのインタフェースである。この通信網は、例えばLAN(Local Area Network)やWAN(Wide Area Network)である。ネットワークインタフェース1120が通信網に接続する方法は、無線接続であってもよいし、有線接続であってもよい。
ストレージデバイス1080は、異物検出装置100の各機能構成部を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールをメモリ1060に読み出して実行することで、各プログラムモジュールに対応する機能を実現する。
なお、他の実施形態に係る異物検出装置100がロボット170の外部に処理装置を備える場合、計算機1000のネットワークインタフェース1120は、ロボット170に内蔵されている制御チップと接続される。また、この場合、異物検出装置100は、PC(Personal Computer)などの据え置き型のコンピュータや、スマートフォンなどの可搬型のコンピュータとして実現されてもよい。
計算機1000は、ネットワークを介して、ロボット170の制御チップに対し、ロボット170の走行を制御する指示を送信する。制御チップは、計算機1000から受信した指示に従ってアクチュエータに制御信号を送信することにより、ロボット170の走行を制御する。また、計算機1000は、ネットワークを介して、ロボット170に設けられている種々のセンサから、ロボット170の状態を把握するための検出値を取得する。これらの検出値は、例えば、制御チップを介して送信される。
《基本構成》
図11は、異物検出装置の基本構成を示す概略ブロック図である。
上述した実施形態では、異物検出装置100の一実施形態として図2に示す構成について説明したが、異物検出装置90の基本構成は、図11に示すとおりである。
すなわち、異物検出装置90、計測情報取得部91、画像取得部92、深度抽出部93、および異物判定部94を基本構成とする。
計測情報取得部91は、検出範囲における深度を計測する深度計測装置が計測した前記深度を示す深度情報を取得する。計測情報取得部91は、計測情報取得部151に相当する。
画像取得部92は、検出範囲を撮像する撮像装置が撮像した画像を取得する。画像取得部92は、画像取得部152に相当する。
深度抽出部93は、取得された画像に基づいて、深度情報のうち異物であるか否かの判定対象としない部分が除去された部分深度情報を抽出する。深度抽出部93は、点群抽出部155に相当する。
異物判定部94は、部分深度情報に基づいて検出範囲における異物の有無を判定する。異物判定部94は、異物判定部159に相当する。
これにより、異物検出装置は、少ない計算量で異物の判定を実現することができる。
異物検出装置は、少ない計算量で異物の判定を実現することができる。
100 異物検出装置
110 LiDAR
130 カメラ
150 処理装置
151 計測情報取得部
152 画像取得部
153 顕著度算出部
154 前処理部
155 点群抽出部
156 点群変換部
157 既知マップデータ記憶部
158 差分抽出部
159 異物判定部
160 出力部
170 ロボット

Claims (6)

  1. 検出範囲における深度を計測する深度計測装置が計測した前記深度を示す深度情報を取得する計測情報取得部と、
    前記検出範囲を撮像する撮像装置が撮像した画像を取得する画像取得部と、
    取得された前記画像に基づいて、前記深度情報のうち異物であるか否かの判定対象としない部分が除去された部分深度情報を抽出する深度抽出部と、
    前記部分深度情報に基づいて前記検出範囲における異物の有無を判定する異物判定部と
    を備える異物検出装置。
  2. 前記画像に基づいて顕著性マップを生成する顕著度算出部を備え、
    前記深度抽出部は、前記深度情報のうち、前記顕著性マップにおいて顕著度が閾値より高い画素に対応する部分を、前記部分深度情報として抽出する
    請求項1に記載の異物検出装置。
  3. 前記検出範囲に異物が存在しないときの深度を示す参照深度情報と、前記部分深度情報との差分を抽出する差分抽出部を備え、
    前記異物判定部は、抽出された前記差分に基づいて前記異物の有無を判定する
    請求項1または請求項2に記載の異物検出装置。
  4. 前記異物判定部は、前記差分の分類処理によって1つ以上のクラスタを抽出し、抽出したクラスタに基づいて、前記異物の数および位置を特定する
    請求項3に記載の異物検出装置。
  5. コンピュータが、検出範囲における深度を計測する深度計測装置が計測した前記深度を示す深度情報を取得し、
    前記コンピュータが、前記検出範囲を撮像する撮像装置が撮像した画像を取得し、
    前記コンピュータが、取得された前記画像に基づいて、前記深度情報のうち異物であるか否かの判定対象としない部分が除去された部分深度情報を抽出し、
    前記コンピュータが、前記部分深度情報に基づいて前記検出範囲における異物の有無を判定する
    異物検出方法。
  6. コンピュータに、
    検出範囲における深度を計測する深度計測装置が計測した前記深度を示す深度情報を取得するステップと、
    前記検出範囲を撮像する撮像装置が撮像した画像を取得するステップと、
    取得された前記画像に基づいて、前記深度情報のうち異物であるか否かの判定対象としない部分が除去された部分深度情報を抽出するステップと、
    前記部分深度情報に基づいて前記検出範囲における異物の有無を判定するステップと
    を実行させるためのプログラム。
JP2021508589A 2019-03-28 2019-03-28 異物検出装置、異物検出方法、およびプログラム Active JP7081720B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/013550 WO2020194650A1 (ja) 2019-03-28 2019-03-28 異物検出装置、異物検出方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2020194650A1 true JPWO2020194650A1 (ja) 2021-10-21
JP7081720B2 JP7081720B2 (ja) 2022-06-07

Family

ID=72611163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021508589A Active JP7081720B2 (ja) 2019-03-28 2019-03-28 異物検出装置、異物検出方法、およびプログラム

Country Status (3)

Country Link
US (1) US11776143B2 (ja)
JP (1) JP7081720B2 (ja)
WO (1) WO2020194650A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115880547B (zh) * 2023-03-02 2023-11-21 宁波微科光电股份有限公司 基于图像点云数据的异物检测方法、装置及其存储介质
CN117132598B (zh) * 2023-10-26 2024-03-22 国创移动能源创新中心(江苏)有限公司 电动汽车充电接口的异物检测方法、异物检测装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100157280A1 (en) * 2008-12-19 2010-06-24 Ambercore Software Inc. Method and system for aligning a line scan camera with a lidar scanner for real time data fusion in three dimensions
JP2011112644A (ja) * 2009-11-24 2011-06-09 Ind Technol Res Inst マップ作成方法および装置とそのマップを利用した定位方法
JP2016009474A (ja) * 2014-06-26 2016-01-18 株式会社リコー 物体識別システム、情報処理装置、情報処理方法及びプログラム
JP2018066701A (ja) * 2016-10-21 2018-04-26 ソニーセミコンダクタソリューションズ株式会社 測距装置、および、測距装置の制御方法

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4857839B2 (ja) 2006-03-22 2012-01-18 日産自動車株式会社 物体検出装置
US8126642B2 (en) * 2008-10-24 2012-02-28 Gray & Company, Inc. Control and systems for autonomously driven vehicles
US8260539B2 (en) * 2010-05-12 2012-09-04 GM Global Technology Operations LLC Object and vehicle detection and tracking using 3-D laser rangefinder
KR101533905B1 (ko) * 2011-02-21 2015-07-03 스트라테크 시스템즈 리미티드 비행장 내의 이물질, 파편 또는 손상 검출 감시 시스템 및 방법
US8406470B2 (en) * 2011-04-19 2013-03-26 Mitsubishi Electric Research Laboratories, Inc. Object detection in depth images
US9255989B2 (en) * 2012-07-24 2016-02-09 Toyota Motor Engineering & Manufacturing North America, Inc. Tracking on-road vehicles with sensors of different modalities
US9052721B1 (en) * 2012-08-28 2015-06-09 Google Inc. Method for correcting alignment of vehicle mounted laser scans with an elevation map for obstacle detection
US8825260B1 (en) * 2013-07-23 2014-09-02 Google Inc. Object and ground segmentation from a sparse one-dimensional range data
US9870617B2 (en) * 2014-09-19 2018-01-16 Brain Corporation Apparatus and methods for saliency detection based on color occurrence analysis
JP6200481B2 (ja) * 2015-11-25 2017-09-20 株式会社Subaru 車外環境認識装置
CN106017355A (zh) * 2016-03-22 2016-10-12 武汉武大卓越科技有限责任公司 一种基于线结构光的三维测量传感器
US20170285916A1 (en) * 2016-03-30 2017-10-05 Yan Xu Camera effects for photo story generation
CN107563256A (zh) * 2016-06-30 2018-01-09 北京旷视科技有限公司 辅助驾驶信息产生方法及装置、辅助驾驶***
CN106204705B (zh) * 2016-07-05 2018-12-07 长安大学 一种基于多线激光雷达的3d点云分割方法
US10192147B2 (en) * 2016-08-30 2019-01-29 Microsoft Technology Licensing, Llc Foreign substance detection in a depth sensing system
EP3151164A3 (en) * 2016-12-26 2017-04-12 Argosai Teknoloji Anonim Sirketi A method for foreign object debris detection
CN108268518A (zh) * 2016-12-30 2018-07-10 乐视汽车(北京)有限公司 生成用于无人车导航控制的网格地图的装置
US10794711B2 (en) * 2016-12-30 2020-10-06 DeepMap Inc. High definition map updates based on sensor data collected by autonomous vehicles
CN108268483A (zh) * 2016-12-30 2018-07-10 乐视汽车(北京)有限公司 生成用于无人车导航控制的网格地图的方法
US10445928B2 (en) * 2017-02-11 2019-10-15 Vayavision Ltd. Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types
JP2020101365A (ja) 2017-04-11 2020-07-02 コニカミノルタ株式会社 監視システム
US10304165B2 (en) * 2017-05-12 2019-05-28 Ford Global Technologies, Llc Vehicle stain and trash detection systems and methods
US10509413B2 (en) * 2017-09-07 2019-12-17 GM Global Technology Operations LLC Ground reference determination for autonomous vehicle operations
US10338223B1 (en) * 2017-12-13 2019-07-02 Luminar Technologies, Inc. Processing point clouds of vehicle sensors having variable scan line distributions using two-dimensional interpolation and distance thresholding
CN108550139A (zh) * 2018-03-19 2018-09-18 北京航空航天大学 基于多层次深度特征的铁轨异物检测方法与装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100157280A1 (en) * 2008-12-19 2010-06-24 Ambercore Software Inc. Method and system for aligning a line scan camera with a lidar scanner for real time data fusion in three dimensions
JP2011112644A (ja) * 2009-11-24 2011-06-09 Ind Technol Res Inst マップ作成方法および装置とそのマップを利用した定位方法
JP2016009474A (ja) * 2014-06-26 2016-01-18 株式会社リコー 物体識別システム、情報処理装置、情報処理方法及びプログラム
JP2018066701A (ja) * 2016-10-21 2018-04-26 ソニーセミコンダクタソリューションズ株式会社 測距装置、および、測距装置の制御方法

Also Published As

Publication number Publication date
JP7081720B2 (ja) 2022-06-07
US11776143B2 (en) 2023-10-03
WO2020194650A1 (ja) 2020-10-01
US20220148205A1 (en) 2022-05-12

Similar Documents

Publication Publication Date Title
JP6667596B2 (ja) 物体検出システム、それを用いた自律走行車、およびその物体検出方法
JP6305171B2 (ja) シーン内の物体を検出する方法
CN111753609B (zh) 一种目标识别的方法、装置及摄像机
JP6125188B2 (ja) 映像処理方法及び装置
WO2022121283A1 (zh) 车辆关键点信息检测和车辆控制
CN111222395A (zh) 目标检测方法、装置与电子设备
JP2007527569A (ja) 立体視に基づく差し迫った衝突の検知
CN107845095B (zh) 基于三维激光点云的移动物体实时检测方法
JP7081720B2 (ja) 異物検出装置、異物検出方法、およびプログラム
CN111913177A (zh) 对目标物探测方法、装置以及存储介质
CN112683228A (zh) 单目相机测距方法及装置
CN113673584A (zh) 一种图像检测方法及相关装置
CN111880195A (zh) 基于激光雷达的塔吊防碰撞方法及其***
CN113688738A (zh) 一种基于激光雷达点云数据的目标识别***及方法
CN114119955A (zh) 一种潜在危险目标检测方法及装置
CN107767366B (zh) 一种输电线路拟合方法及装置
KR20120011533A (ko) 레이저 센서와 카메라를 이용한 차선 인식 시스템
CN112733678A (zh) 测距方法、装置、计算机设备和存储介质
Wu et al. Fast pedestrian detection with laser and image data fusion
CN111256651B (zh) 一种基于单目车载摄像头的周车测距方法和装置
CN116520351A (zh) 一种列车状态监测方法、***、存储介质及终端
CN116012712A (zh) 基于物体通用特征的目标检测方法、装置、设备及介质
CN115588187A (zh) 基于三维点云的行人检测方法、装置、设备以及存储介质
EP4006829A1 (en) Information processing device, data generation method, and non-transitory computer-readable medium having program stored thereon
CN111339840B (zh) 人脸检测方法和监控***

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220509

R151 Written notification of patent or utility model registration

Ref document number: 7081720

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151