JP7258905B2 - 判定方法、及び判定装置 - Google Patents

判定方法、及び判定装置 Download PDF

Info

Publication number
JP7258905B2
JP7258905B2 JP2020546778A JP2020546778A JP7258905B2 JP 7258905 B2 JP7258905 B2 JP 7258905B2 JP 2020546778 A JP2020546778 A JP 2020546778A JP 2020546778 A JP2020546778 A JP 2020546778A JP 7258905 B2 JP7258905 B2 JP 7258905B2
Authority
JP
Japan
Prior art keywords
detection device
reference object
objects
information
extracting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020546778A
Other languages
English (en)
Other versions
JPWO2020054293A1 (ja
Inventor
慎史 大山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Publication of JPWO2020054293A1 publication Critical patent/JPWO2020054293A1/ja
Application granted granted Critical
Publication of JP7258905B2 publication Critical patent/JP7258905B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/1916Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/248Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、検出装置が正常に動作しているか否かを判定する判定方法、及び判定装置に関する。
従来、検出装置による検出結果に基づいて処理を行う技術が知られている(例えば、特許文献1参照)。
特開2017-78709号公報
検出装置が正常に動作していなければ、その検出装置は、誤った検出結果を出力してしまうことがある。
そこで、本発明は、検出装置が正常に動作しているか否かを判定する判定方法、及び判定装置を提供することを目的とする。
本開示の一態様に係る判定方法は、第1の検出装置によって検出された1以上のオブジェクトそれぞれの位置及び形状を示す第1の情報と、基準検出装置として予め定められている第2の検出装置によって検出された1以上のオブジェクトそれぞれの位置及び形状を示す第2の情報とを取得し、前記第1の情報と前記第2の情報とに基づいて、前記第1の検出装置によって検出された1以上のオブジェクトと、前記第2の検出装置によって検出された1以上のオブジェクトとの中から、各検出装置によって検出された時刻の差が所定の範囲内である1の同一のオブジェクトを、基準オブジェクトとして抽出し、前記第1の情報によって示される前記基準オブジェクトの位置と、前記第2の情報によって示される前記基準オブジェクトの位置とを比較し、前記第1の検出装置が正常に動作しているか否かを判定する。
また、本開示の一態様に係る判定装置は、第1の検出装置によって検出された1以上のオブジェクトそれぞれの位置及び形状を示す第1の情報と、基準検出装置として予め定められている第2の検出装置によって検出された1以上のオブジェクトそれぞれの位置及び形状を示す第2の情報とを取得する取得部と、前記第1の情報と前記第2の情報とに基づいて、前記第1の検出装置によって検出された1以上のオブジェクトと、前記第2の検出装置によって検出された1以上のオブジェクトとの中から、各検出装置によって検出された時刻の差が所定の範囲内である1の同一のオブジェクトを、基準オブジェクトとして抽出する抽出部と、前記第1の情報によって示される前記基準オブジェクトの位置と、前記第2の情報によって示される前記基準オブジェクトの位置とを比較し、前記第1の検出装置が正常に動作しているか否かを判定する比較部と、を備える。
本開示の一態様に係る判定方法、及び判定装置によると、検出装置が正常に動作しているか否かを判定することができる。
図1は、実施の形態に係る判定システムの構成を示すブロック図である。 図2は、実施の形態に係る第1の検出装置が移動体に搭載されている様子を示す模式図である。 図3は、実施の形態に係るオブジェクト選別処理のフローチャートである。 図4Aは、点群データの一例を示す模式図である。 図4Bは、点群データから、平面に対応する点群が削除された平面削除点群データの一例を示す模式図である。 図4Cは、点群の集まりごとに区分された平面削除点群データの一例を示す模式図である。 図5Aは、区分された点群の集まりの形状と、3つの固有値との関係の一例を示す模式図である。 図5Bは、区分された点群の集まりの形状と、3つの固有値との関係の一例を示す模式図である。 図5Cは、区分された点群の集まりの形状と、3つの固有値との関係の一例を示す模式図である。 図6は、実施の形態に係る判定処理のフローチャートである。 図7は、変形例に係る判定システムの構成を示すブロック図である。 図8は、変形例に係る判定システムの構成を示すブロック図である。
(本発明の一態様を得るに至った経緯)
近年、自動運転を行う移動体(例えば、自動運転車両)が開発されている。
一般に、自動運転を行う移動体には、周囲のオブジェクトの位置を検出する検出装置が搭載されている。自動運転を行う移動体において、検出装置が正常に動作していないと、その移動体が事故を起こしてしまう恐れがある。このため、自動運転を行う移動体に搭載された、周囲のオブジェクトの位置を検出する検出装置が正常に動作しているか否かを調べることは重要である。
そこで、発明者は、オブジェクトの位置を検出する検出装置が正常に動作しているか否かを調べるべく、下記本開示の一態様に係る判定方法、及び判定装置に想到した。
本開示の一態様に係る判定方法は、第1の検出装置によって検出された1以上のオブジェクトそれぞれの位置及び形状を示す第1の情報と、基準検出装置として予め定められている第2の検出装置によって検出された1以上のオブジェクトそれぞれの位置及び形状を示す第2の情報とを取得し、前記第1の情報と前記第2の情報とに基づいて、前記第1の検出装置によって検出された1以上のオブジェクトと、前記第2の検出装置によって検出された1以上のオブジェクトとの中から、各検出装置によって検出された時刻の差が所定の範囲内である1の同一のオブジェクトを、基準オブジェクトとして抽出し、前記第1の情報によって示される前記基準オブジェクトの位置と、前記第2の情報によって示される前記基準オブジェクトの位置とを比較し、前記第1の検出装置が正常に動作しているか否かを判定する。
上記判定方法では、所定の範囲内の時刻差において、第1の検出装置によって検出された基準オブジェクトの位置と、基準検出装置として予め定められている第2の検出装置によって検出された基準オブジェクトの位置とを比較する。このため、上記判定方法によると、第1の検出装置が正常に動作しているか否かを判定することができる。
また、前記第1の検出装置は、移動体に搭載されており、前記基準オブジェクトを抽出する際に、前記移動体が第1の所定速度以下で移動している時に前記第1の検出装置によって検出された1以上のオブジェクトから、前記基準オブジェクトを抽出するとしてもよい。また、前記第1の検出装置は、移動体に搭載されており、前記基準オブジェクトを抽出する際に、前記移動体が停止している時に前記第1の検出装置によって検出された1以上のオブジェクトから、前記基準オブジェクトを抽出するとしてもよい。また、前記基準オブジェクトを抽出する際に、静止状態のオブジェクトを、前記基準オブジェクトとして抽出するとしてもよい。また、前記基準オブジェクトを抽出する際に、第2の所定速度以下で移動しているオブジェクトを、前記基準オブジェクトとして抽出するとしてもよい。また、前記基準オブジェクトを抽出する際に、所定の形状の1以上のオブジェクトを、前記基準オブジェクトとして抽出するとしてもよい。また、前記所定の形状の1以上のオブジェクトとは、長尺状のオブジェクトであるとしてもよい。
これらにより、第1の検出装置が正常に動作しているか否かを、より精度よく判定することができる。
また、前記第1の検出装置は、移動体に搭載されており、前記第1の検出装置が正常に動作していないと判定された場合、前記移動体を停止させるための信号を出力するとしてもよい。
これにより、移動体に搭載された第1の検出装置が正常に動作していないことに起因して発生するその移動体による事故の発生頻度を低減することができる。
また、前記第1の検出装置が正常に動作していないと判定された場合、前記第1の検出装置に係る較正を開始させるための信号を出力するとしてもよい。
これにより、第1の検出装置が正常に動作していない場合に、第1の検出装置の較正を開始させることができる。
また、前記基準オブジェクトの抽出を繰り返し行い、抽出した1以上の前記基準オブジェクトのそれぞれの位置をデータベースに登録し、前記データベースに登録されている1以上の前記基準オブジェクトのそれぞれについて、当該基準オブジェクトの抽出頻度と、当該基準オブジェクトの近傍の他の前記基準オブジェクトの配置位置とのうちの少なくとも一方に基づいて、当該基準オブジェクトの信頼度を算出するとしてもよい。
これにより、第1の検出装置が正常に動作しているか否かの判定結果に信頼度を付与することが可能になる。
また、前記基準オブジェクトの抽出を繰り返し行い、抽出した1以上の前記基準オブジェクトのそれぞれに対して、当該基準オブジェクトが静的オブジェクト又は準静的オブジェクトであるか否かを示す第3の情報をダイナミックマップから取得して紐づけし、抽出した1以上の前記基準オブジェクトのそれぞれについて、静的オブジェクト又は準静的オブジェクトであることを示す第3の情報に紐づけされた基準オブジェクトの方が、静的オブジェクト又は準静的オブジェクトでないことを示す第3の情報に紐づけされた基準のオブジェクトよりも高い信頼度となるように、当該基準オブジェクトの信頼度を算出するとしてもよい。
これにより、より精度よく基準オブジェクトの信頼度を算出することができる。
また、前記第1の検出装置は、移動体に搭載されており、前記第1の検出装置が正常に動作していないと判定した場合、当該判定に利用した前記基準オブジェクトの前記信頼度に応じて、前記移動体に警告を残すための信号と、前記移動体を整備させるための信号と、前記移動体を停止させるための信号と、の中からいずれか1つを選択的に切り替えて出力するとしてもよい。
これにより、移動体に搭載された第1の検出装置が正常に動作していないと判定した場合に、移動体側の対応方法を、基準オブジェクトの信頼度に応じて切り替えることができる。
また、前記第1の検出装置は、移動体に搭載されており、前記信頼度が所定値よりも高い前記基準オブジェクトが存在するエリアを、前記移動体に周期的に走行させるための信号を出力するとしてもよい。
これにより、移動体に搭載された第1の検出装置が正常に動作しているか否かの判定を、周期的に行うことができる。
本開示の一態様に係る判定装置は、第1の検出装置によって検出された1以上のオブジェクトそれぞれの位置及び形状を示す第1の情報と、基準検出装置として予め定められている第2の検出装置によって検出された1以上のオブジェクトそれぞれの位置及び形状を示す第2の情報とを取得する取得部と、前記第1の情報と前記第2の情報とに基づいて、前記第1の検出装置によって検出された1以上のオブジェクトと、前記第2の検出装置によって検出された1以上のオブジェクトとの中から、各検出装置によって検出された時刻の差が所定の範囲内である1の同一のオブジェクトを、基準オブジェクトとして抽出する抽出部と、前記第1の情報によって示される前記基準オブジェクトの位置と、前記第2の情報によって示される前記基準オブジェクトの位置とを比較し、前記第1の検出装置が正常に動作しているか否かを判定する比較部と、を備える。
上記判定装置では、所定の範囲内の時刻差において、第1の検出装置によって検出された基準オブジェクトの位置と、基準検出装置として予め定められている第2の検出装置によって検出された基準オブジェクトの位置とを比較する。このため、上記判定装置によると、第1の検出装置が正常に動作しているか否かを判定することができる。
以下、本開示の一態様に係る判定方法、及び判定装置の具体例について、図面を参照しながら説明する。ここで示す実施の形態は、いずれも本開示の一具体例を示すものである。従って、以下の実施の形態で示される数値、形状、構成要素、構成要素の配置及び接続形態、並びに、ステップ(工程)及びステップの順序等は、一例であって本開示を限定するものではない。以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意に付加可能な構成要素である。また、各図は、模式図であり、必ずしも厳密に図示されたものではない。
(実施の形態)
以下、本開示の一態様に係る判定システムの一例について説明する。この判定システムは、正しく較正されていない可能性のある第1の検出装置によって検出されたオブジェクトの位置と、正しく較正され、基準検出装置として予め定められている第2の検出装置によって検出された同一のオブジェクトの位置とを比較し、第1の検出装置が正常に動作しているか否かを判定する。
[1.構成]
図1は、本開示の一態様に係る判定システム1の構成を示すブロック図である。
図1に示されるように、判定システム1は、移動体センサ20と、基準センサ30と、ネットワーク40と、サーバ装置50とを含んで構成される。
移動体センサ20は、第1の検出装置21と、オブジェクト検出部22と、通信部23とを含んで構成される。判定システム1において、移動体センサ20は、例えば、移動体に搭載されて利用される。移動体センサ20が搭載される移動体は、例えば、ショッピングモール内を自動運転する自動運転車両であってよい。以下では、移動体センサ20は、ショッピングモール内を自動運転する自動運転車両に搭載されるとして説明するが、移動体センサ20が搭載される移動体は、必ずしも自動運転車両に限定される必要はない。さらには、移動体センサ20は、移動体ではなく、建物等といった移動しないインフラ設備に設置されてもよい。
第1の検出装置21は、オブジェクトの位置及び形状を検出する装置である。第1の検出装置21は、例えば、LiDAR(Laser imaging Detection And Ranging)、ステレオカメラ等によって実現される。以下では、第1の検出装置21がLiDARであるとして説明するが、必ずしもLiDARに限定される必要はない。第1の検出装置21がLiDARである場合には、第1の検出装置21は、オブジェクトの位置及び形状の検出結果として、レーザが照射された各地点の位置を示す点群データを出力する。
図2は、第1の検出装置21が、移動体の一例である自動運転車両100に搭載されている様子を示す模式図である。
図2に示されるように、第1の検出装置21は、例えば、自動運転車両100の前方方向前面(例えば、バンパ)に搭載され、自動運転車両100の周囲のオブジェクトの位置及び形状を検出する。図2に示されるように、第1の検出装置21は、例えば、自動運転車両100の斜め前方の人物110の位置及び形状を検出する。
自動運転車両100は、移動体センサ20に加えて、さらに、走行領域の地図を記憶する記憶装置(図示せず)と、自車両の位置を取得する位置取得手段(図示せず)とを搭載し、走行領域の地図と、自車両の位置と、第1の検出装置21によって検出される、自動運転車両100の周囲のオブジェクトの位置とに基づいて自動運転を行う。位置取得手段は、例えば、GPS(Global Positioning System)を利用して自装置の位置を取得する装置、デッドレコニング(Dead Reckoning)法を利用して自装置の位置を推定する装置、NDT(Normal Distributions Transform)法を利用して自装置の位置を推定する装置等を含んで構成されてよい。
第1の検出装置21は、自動運転車両100に搭載される際に、その設置位置、設置角度等が正しく較正される。第1の検出装置21は、正しく校正されていないと、正常に動作することができない。較正される設置位置としては、例えば、車両中心位置101からの相対座標等であり、較正される設置角度としては、例えば、前方方向に対するヨー角等である。しかしながら、最後に較正されてから時間が経過すると、第1の検出装置21の設置位置、設置角度等は、正しく較正された状態からずれてしまうことがある。第1の検出装置21の設置位置、設置角度等が、正しく較正された状態からずれてしまうと、自動運転車両100は、第1の検出装置21によって検出されたオブジェクトが、実際とは異なる、車両中心位置101からの距離、方向等の位置に存在すると判定して自動運転を行ってしまう恐れがある。例えば、第1の検出装置21のヨー角の設置角度が、正しく較正された角度から1度ずれてしまうと、50m先で検出されるオブジェクトの位置は、実際の位置から87cmもずれてしまうことになる。このように、第1の検出装置21が正しく較正されているか否かを調べることは、自動運転車両100が行う自動運転において重要である。特に、第1の検出装置21のヨー角の設置角度が正しく較正されているか否かを調べることは、重要である。
再び、図1に戻って、判定システム1の構成についての説明を続ける。
オブジェクト検出部22は、第1の検出装置21による検出結果に基づいて、第1の検出装置21によって検出された1以上のオブジェクトの位置及び形状を示す第1の情報を算出する。オブジェクト検出部22は、例えば、オブジェクト選別処理を行うことで、上記第1の情報を算出する。このオブジェクト選別処理については、後程図面を用いて説明する。オブジェクト検出部22は、例えば、移動体センサ20がプロセッサ(図示せず)とメモリ(図示せず)とを備え、プロセッサがメモリに記憶されたプログラムを実行することで実現される。
通信部23は、ネットワーク40に接続される他の機器と通信する。他の機器には、サーバ装置50が含まれる。通信部23は、例えば、無線通信機を備え、無線を利用して、ネットワーク40に接続される他の機器と通信するとしてもよい。
基準センサ30は、第2の検出装置31と、オブジェクト検出部32と、通信部33とを含んで構成される。判定システム1において、基準センサ30は、例えば、インフラ設備に設置されて利用される。以下では、基準センサ30は、ショッピングモール内の建物の外壁に設置されるとして説明するが、基準センサ30が設置されるインフラ設備は、必ずしも建物に限定される必要はない。さらには、基準センサ30は、インフラ設備でなく、第2の検出装置31(後述)が正しく較正されていることが保証された状態で運用される、ショッピングモール内をパトロールするパトロール車両に搭載されてもよい。
第2の検出装置31は、第1の検出装置21と同様に、オブジェクトの位置及び形状を検出する装置である。第2の検出装置31は、例えば、LiDAR、ステレオカメラ等によって実現される。以下では、第2の検出装置31が、第1の検出装置21と同様に、LiDARであるとして説明するが、必ずしもLiDARに限定される必要はない。第2の検出装置31がLiDARである場合には、第2の検出装置31は、オブジェクトの位置及び形状の検出結果として、レーザが照射された各地点の位置を示す点群データを出力する。
第2の検出装置31は、第1の検出装置21と異なり、正しく較正されていることが保証された状態で運用される。すなわち、第2の検出装置31は、常に、正しいオブジェクトの位置を検出する。このため、第2の検出装置31は、基準検出装置として予め定められている。
オブジェクト検出部32は、第2の検出装置31による検出結果に基づいて、第2の検出装置31によって検出された1以上のオブジェクトの位置及び形状を示す第2の情報を算出する。オブジェクト検出部32は、例えば、第1の検出装置21と同様に、オブジェクト選別処理を行うことで、上記第2の情報を算出する。オブジェクト検出部32は、例えば、基準センサ30がプロセッサ(図示せず)とメモリ(図示せず)とを備え、プロセッサがメモリに記憶されたプログラムを実行することで実現される。
通信部33は、ネットワーク40に接続される他の機器と通信する。他の機器には、サーバ装置50が含まれる。通信部33は、例えば、無線通信機を備え、無線を利用して、ネットワーク40に接続される他の機器と通信するとしてもよい。
サーバ装置50は、通信機能を有するコンピュータ装置であって、例えば、パソコン、情報処理端末等によって実現される。サーバ装置50は、例えば、1台のパソコンによって実現されてもよいし、互いに通信可能な、分散処理を行う複数のパソコンによって実現されてもよい。サーバ装置50は、例えば、サーバ装置50がプロセッサ(図示せず)とメモリ(図示せず)とを備え、プロセッサがメモリに記憶されたプログラムを実行することで、比較部10を実現する。
比較部10は、通信部11と、同一オブジェクト抽出部12と、位置比較部13とを含んで構成される。
通信部11は、ネットワーク40に接続される他の機器と通信する。他の機器には、移動体センサ20と基準センサ30とが含まれる。通信部11は、例えば、無線通信機を備え、無線を利用して、ネットワーク40に接続される他の機器と通信するとしてもよい。
通信部11は、移動体センサ20と通信することで、移動体センサ20から第1の情報を取得し、基準センサ30と通信することで、基準センサ30から第2の情報を取得する。
同一オブジェクト抽出部12は、通信部11によって取得された第1の情報と第2の情報とに基づいて、第1の検出装置21によって検出された1以上のオブジェクトと、第2の検出装置31によって検出された1以上のオブジェクトの中から、各検出装置(第1の検出装置21、第2の検出装置31)によって検出された時刻の差が所定の範囲内である1の同一オブジェクトを、基準オブジェクトとして抽出する。同一オブジェクト抽出部12は、例えば、第1の検出装置21によって検出された1以上のオブジェクトそれぞれの形状と、第2の検出装置31によって検出された1以上のオブジェクトそれぞれの形状とに基づいて、互いに同様の形状のオブジェクトの中から、基準オブジェクトを抽出してもよい。また、同一オブジェクト抽出部12は、例えば、第1の検出装置21によって検出された1以上のオブジェクトそれぞれについての、他のオブジェクトとの相対位置関係と、第2の検出装置31によって検出された1以上のオブジェクトそれぞれについての、他のオブジェクトとの相対位置関係とに基づいて、他のオブジェクトとの相対位置関係が互いに同様となるオブジェクトの中から、基準オブジェクトを抽出してもよい。
位置比較部13は、第1の情報によって示される、同一オブジェクト抽出部12によって抽出された基準のオブジェクトの位置と、第2の情報によって示される、同一オブジェクト抽出部12によって抽出された基準のオブジェクトの位置とを比較し、第1の検出装置21が正常に動作しているか否かを判定する。
[2.動作]
以下、上記構成の判定システム1の行う動作について説明する。
判定システム1の行う動作は、オブジェクト検出部22及びオブジェクト検出部32が主体となって行うオブジェクト選別処理と、比較部10が主体となって行う比較処理とを含む。
以下、オブジェクト選別処理と、判定処理とについて、順に説明する。
図3は、オブジェクト選別処理のフローチャートである。以下の説明において、オブジェクト選別処理を行う主体がオブジェクト検出部32であって、算出する情報が第2の情報であるとして説明するが、オブジェクト選別処理を行う主体がオブジェクト検出部22であって、算出する情報が第1の情報である場合も同様である。
オブジェクト選別処理は、例えば、予め定められた時間間隔で繰り返し開始されてもよいし、基準センサ30が、比較部10から送信されたオブジェクト選別処理を開始する旨の信号を受信することで開始されてもよいし、基準センサ30が、基準センサ30を利用するユーザから、オブジェクト選別処理を開始する旨の操作を受け付けることで開始されてもよいし、所定の時刻になることで開始されてもよい。
オブジェクト選別処理が開始されると、オブジェクト検出部32は、第2の検出装置31によって検出されたオブジェクトの位置及び形状を示す点群データを取得する(ステップS110)。
図4Aは、第2の検出装置31から検出結果として出力される、オブジェクトの位置及び形状を示す点群データの一例を示す模式図である。
図4Aに示される点群における各点は、LiDARである第2の検出装置31によりレーザが照射された各地点の位置を示す。
再び図3に戻って、オブジェクト選別処理の説明を続ける。
点群データが取得されると、オブジェクト検出部32は、第2の検出装置31によって検出された点群データから、平面を示す点群データをカットする(ステップS120)。より具体的には、オブジェクト検出部32は、第2の検出装置31によって検出された点群データから、各点における法線ベクトルの変化が少ない領域の点群を削除する。以下、第2の検出装置31によって検出された点群データから、各点における法線ベクトルの変化が少ない領域の点群が削除された点群データのことを、平面削除点群データとも呼ぶ。
一般に、オブジェクトとしての平面は、位置を精度良く比較するのに適した特徴的な形状に乏しい。このため、オブジェクト検出部32は、ステップS120の処理により、オブジェクトの位置を比較する対象から、平面を排除する。
図4Bは、平面削除点群データの一例を示す模式図である。
図4Bに示されるように、平面削除点群データは、第2の検出装置31によって検出された点群データから、地面、壁等の平面に対応する点群が削除された点群データとなる。
再び図3に戻って、オブジェクト選別処理の説明を続ける。
平面を示す点群データがカットされると、オブジェクト検出部32は、平面削除点群データに対して、セグメンテーションを行う(ステップS130)。より具体的には、オブジェクト検出部32は、平面削除点群データの点群に対して、互いに隣接する点群からなる点群の集まりごとに区分してラベリングする。
図4Cは、点群の集まりごとに区分された平面削除点群データを示す模式図である。
図4Cにおいて、破線で囲まれた点群の集まりのそれぞれが、区分された点群の集まりを示す。
図4Cに示されるように、区分された点群の集まりのそれぞれは、実空間におけるオブジェクトのそれぞれに対応する。すなわち、区分された点群の集まりのそれぞれは、対応するオブジェクトの位置及び形状を示す。
再び図3に戻って、オブジェクト選別処理の説明を続ける。
ステップS130の処理が行われると、オブジェクト検出部32は、区分された点群の集まりに対応するオブジェクトのうち、その形状が、オブジェクトの位置を比較する対象としてふさわしいオブジェクトを選別するための処理(後述するステップS140の処理~ステップS150の処理)を行う。ここでは、一例として、オブジェクトの位置を比較する対象として、棒状のオブジェクトがふさわしいとして説明する。これは、第1の検出装置21のヨー角の設置角度が正しく較正されているか否かを精度良く調べるためには、オブジェクトの位置を比較する対象として棒状のオブジェクトが適しているためである。しかしながら、オブジェクトの位置を比較する対象としてふさわしいオブジェクトは、必ずしも棒状のオブジェクトに限定される必要はない。オブジェクトの位置を比較する対象として、他の条件を満たすオブジェクトがふさわしい場合には、後述するステップS140の処理~ステップS150の処理の替わりに、その条件を満たすオブジェクトを選別するための処理を行うとしてもよい。また、さらには、オブジェクトの位置を比較する対象としてふさわしいオブジェクトを選別する必要がない、又はその必要性が低い場合には、後述するステップS140の処理~ステップS150の処理を行わないとしてもよい。
ステップS130の処理が行われると、オブジェクト検出部32は、区分された点群の集まりのそれぞれに対して、点群データの形状推定を行う(ステップS140)。より具体的には、オブジェクト検出部32は、区分された点群の集まりのそれぞれに対して、3次元空間における共分散行列の3つの固有値を算出することで固有値分解を行う第1処理を行う。そして、オブジェクト検出部32は、算出した3つの固有値を比較する第2処理を行う。
図5A、5B、5Cは、それぞれ、区分された点群の集まりの形状と、算出された3つの固有値との関係の一例を示す模式図である。
3つの固有値をa、b、cとした場合において、図5Aに示されるように、区分された点群の集まりの形状が棒状であるときには、a、b、cの関係は、a≫b≒cの関係となる。また、図5Bに示されるように、区分された点群の集まりの形状が平面状であるときには、a、b、cの関係は、a≒b≫cの関係となる。また、図5Cに示されるように、区分された点群の集まりの形状が球状であるときには、a、b、cの関係は、a≒b≒cの関係となる。このように、3つの固有値を比較することで、区分された点群の集まりに対応するオブジェクトの形状が、棒状であるか否か、平面状であるか否か、球状であるか否か等を調べることができる。
再び、図3に戻って、オブジェクト選別処理の説明を続ける。
算出した3つの固有値が比較されると、オブジェクト検出部32は、その比較結果に基づいて、区分された点群の集まりに対応するオブジェクトのうち、その形状が、オブジェクトの位置を比較する対象としてふさわしいオブジェクト(ここでは、その形状が棒状であるオブジェクト)を選別する(ステップS150)。より具体的には、オブジェクト検出部32は、平面削減点群データから、3つの固有値a、b、cの関係が、a≫b≒cとなる区分された点群の集まりを残して、他の点群の集まりを削除する。
オブジェクトの選別を行うと、オブジェクト検出部32は、平面削減点群データから、3つの固有値a、b、cの関係が、a≫b≒cとなる区分された点群の集まりを残して、他の点群の集まりを削除したデータを、第2の情報として出力する(ステップS160)。すなわち、オブジェクト検出部32は、通信部33を介して、比較部10に、第2の情報を送信する。
ステップS160の処理が終了すると、判定システム1は、そのオブジェクト選出処理を終了する。
なお、ここでは、点群データの形状推定の一具体例として、オブジェクト検出部32が第1処理と第2処理とを行うとして説明した。しかしながら、オブジェクト検出部32が行う第1処理と第2処理とは、点群データの形状推定を実現する一例に過ぎない。点群データの形状推定は、他の方法で実現されても構わない。
図6は、判定処理のフローチャートである。
判定処理は、例えば、移動体センサ20から第1の情報が送信され、基準センサ30から第2の情報が送信されることで開始されてもよいし、比較部10が、比較部10を利用するユーザから、判定処理を開始する旨の操作を受け付けることで開始されてもよいし、所定の時刻になることで開始されてもよい。
判定処理が開始されると、通信部11は、第1の検出装置21によって検出された1以上のオブジェクトそれぞれの位置及び形状を示す第1の情報と、第2の検出装置31によって検出された1以上のオブジェクトそれぞれの位置及び形状を示す第2の情報とを取得する(ステップS210)。より具体的には、通信部11は、移動体センサ20から送信された第1の情報と、基準センサ30から送信された第2の情報とを受信する。
第1の情報と第2の情報とが取得されると、同一オブジェクト抽出部12は、取得された第1の情報と第2の情報とに基づいて、第1の検出装置21によって検出された1以上のオブジェクトと、第2の検出装置31によって検出された1以上のオブジェクトとの中から、各検出装置(第1の検出装置21、第2の検出装置31)によって検出された時刻の差が所定の範囲内である1の同一のオブジェクトを基準オブジェクトとして抽出する(ステップS220)。
基準オブジェクトが抽出されると、位置比較部13は、第1の情報によって示される基準オブジェクトの位置と、第2の情報によって示される基準のオブジェクトの位置とを比較する(ステップS230)。
ステップS220の処理において、同一オブジェクト抽出部12は、第1の検出装置21によって検出された時刻と、第2の検出装置31によって検出された時刻との差が所定の範囲内(例えば、1秒以内)である1以上のオブジェクトを対象として上記抽出を行う。これは、例えば、オブジェクト検出部22が、第1の検出装置21による検出の時刻を示す情報を第1の情報に含ませて算出し、オブジェクト検出部32が、第2の検出装置31による検出の時刻を示す情報を第2の情報に含ませて算出し、同一オブジェクト抽出部12が、第1の情報及び第2の情報に含まれる、検出された時刻を示す情報に基づいて、検出された時刻の差が所定の範囲内となる第1の情報と第2の情報との組み合わせを用いて、上記抽出を行うことで実現されてもよい。また、例えば、同一オブジェクト抽出部12が、通信部11を介して、移動体センサ20と基準センサ30とに対して、第1の検出装置21による検出と、第2の検出装置31による検出とを所定の時刻差の範囲内に行わせるための同期信号を送信することで実現されてもよい。また、例えば、第1の検出装置21と第2の検出装置31とが、それぞれ、予め、所定の時間差の範囲内となる時刻に検出を行うように設定されていることで実現されてもよい。これにより、ステップS230の処理において行われる、第1の情報によって示される基準オブジェクトの位置と、第2の情報によって示される基準オブジェクトの位置との比較を、より精度よく行うことができるようになる。
また、ステップS220の処理において、同一オブジェクト抽出部12は、例えば、基準オブジェクトを抽出する際に、第1の検出装置21を搭載する移動体が第1の所定速度(例えば、10km/s)以下で移動している時に第1の検出装置21によって検出された1以上のオブジェクトから基準オブジェクトを抽出するとしてもよい。これは、例えば、オブジェクト検出部22が、予め定められた時間間隔で繰り返し第1の情報を算出し、同一オブジェクト抽出部12が、新たに取得された第1の情報によって示される点群データと、前回取得された第1の情報によって示される点群データとを比較することで、第1の検出装置21を搭載する移動体の速度が第1の所定速度以下であるか否かを判定することで実現されてもよい。また、例えば、第1の検出装置21が、予め、搭載される移動体が第1の所定速度以下である場合に限って検出を行うように設定されていることで実現されてよい。これにより、ステップS230の処理において行われる、第1の情報によって示される基準オブジェクトの位置と、第2の情報によって示される基準オブジェクトの位置との比較を、より精度よく行うことができるようになる。
また、ステップS220の処理において、同一オブジェクト抽出部12は、例えば、基準オブジェクトを抽出する際に、第1の検出装置21を搭載する移動体が停止している時に第1の検出装置21によって検出された1以上のオブジェクトから基準オブジェクトを抽出するとしてもよい。これは、例えば、オブジェクト検出部22が、予め定められた時間間隔で繰り返し第1の情報を算出し、同一オブジェクト抽出部12が、新たに取得された第1の情報によって示される点群データと、前回取得された第1の情報によって示される点群データとを比較することで、第1の検出装置21を搭載する移動体が停止しているか否かを判定することで実現されてもよい。また、例えば、第1の検出装置21が、予め、搭載される移動体が停止している場合に限って検出を行うように設定されていることで実現されてよい。これにより、ステップS230の処理において行われる、第1の情報によって示される基準オブジェクトの位置と、第2の情報によって示される基準オブジェクトの位置との比較を、より精度よく行うことができるようになる。
また、ステップS220の処理において、同一オブジェクト抽出部12は、例えば、基準オブジェクトを抽出する際に、第2の所定速度(例えば、5km/s)以下で移動しているオブジェクトを、基準オブジェクトとして抽出してもよい。これは、例えば、オブジェクト検出部22が、予め定められた時間間隔で繰り返し第1の情報を算出し、同一オブジェクト抽出部12が、新たに取得された第1の情報によって示される点群データと、前回取得された第1の情報によって示される点群データとを比較することで、区分された点群の集まりのそれぞれに対応するオブジェクトの移動速度が第2の所定速度以下であるか否かを判定することで実現されてもよい。また、例えば、移動体センサ20が、オブジェクトの動きを検出する手段を備え、オブジェクト検出部22が、第2の所定速度以下で移動しているオブジェクトに限定して、オブジェクトの選別を行うことで実現されてよい。これにより、ステップS230の処理において行われる、第1の情報によって示される基準オブジェクトの位置と、第2の情報によって示される基準オブジェクトの位置との比較を、より精度よく行うことができるようになる。
また、ステップS220の処理において、同一オブジェクト抽出部12は、例えば、基準オブジェクトを抽出する際に、静止状態のオブジェクトを基準オブジェクトとして抽出してもよい。これは、例えば、オブジェクト検出部22が、予め定められた時間間隔で繰り返し第1の情報を算出し、同一オブジェクト抽出部12が、新たに取得された第1の情報によって示される点群データと、前回取得された第1の情報によって示される点群データとを比較することで、区分された点群の集まりのそれぞれに対応するオブジェクトが静止状態であるか否かを判定することで実現されてもよい。また、例えば、移動体センサ20が、オブジェクトの動きを検出する手段を備え、オブジェクト検出部22が、静止状態のオブジェクトに限定して、オブジェクトの選別を行うことで実現されてよい。これにより、ステップS230の処理において行われる、第1の情報によって示される基準オブジェクトの位置と、第2の情報によって示される基準オブジェクトの位置との比較を、より精度よく行うことができるようになる。
ステップS230の処理が終了すると、位置比較部13は、第1の情報によって示される基準オブジェクトの位置と、第2の情報によって示される基準オブジェクトの位置との差分が所定の範囲内であるか否かを調べる(ステップS240)。
ステップS240の処理において、上記差分が所定の範囲内である場合に(ステップS240:Yes)、位置比較部13は、第1の検出装置21が正常に動作していると判定する(ステップS250)。
ステップS240の処理において、上記差分が所定の範囲内でない場合に(ステップS240:No)、位置比較部13は、第1の検出装置21が正常に動作していないと判定する(ステップS260)。
ステップS260の処理において、位置比較部13は、第1の検出装置21を搭載する移動体を停止させるための信号を出力するとしてもよい。また、ステップS260の処理において、位置比較部13は、第1の検出装置21に係る校正を開始させるための信号を出力するとしてもよい。
ステップS250の処理が終了した場合、又はステップS260の処理が終了した場合に、判定システム1は、その判定処理を終了する。
[3.考察]
上記判定システム1は、正しく較正されていない可能性のある第1の検出装置21によって検出されたオブジェクトの位置と、正しく較正され、基準検出装置として予め定められている第2の検出装置31によって検出された同一のオブジェクトの位置とを比較することで、第1の検出装置21が正常に動作しているか否かを判定する。このため、判定システム1を利用するユーザは、第1の検出装置21が正常に動作しているか否かを知ることができる。また、上記判定システム1によると、第1の検出装置21及び第2の検出装置31による検出の対象とする範囲内に元々存在しているオブジェクトを利用して、第1の検出装置21によって検出されたオブジェクトの位置と、第2の検出装置31によって検出された同一のオブジェクトの位置との比較を行うことができる。このため、上記比較において比較対象となる新たなオブジェクトを設置する必要、及び、上記比較において比較対象となるオブジェクトを特定するための特殊なマーカ等を新たに設置する必要がない。
(補足)
以上のように、本出願において開示する技術の例示として、実施の形態について説明した。しかしながら本開示による技術は、これに限定されず、適宜、変更、置き換え、付加、省略等を行った実施の形態にも適用可能である。
以下に、本開示における更なる変形例の一例について列記する。
(1)実施の形態において、判定システム1は、オブジェクト検出部22及びオブジェクト検出部32が主体となってオブジェクト選別処理を行うとして説明した。しかしながら、判定システム1においてオブジェクト選別処理が実行されれば、必ずしも、オブジェクト検出部22及びオブジェクト検出部32が主体となってオブジェクト選別処理を行う構成に限定される必要はない。例えば、比較部10が主体となってオブジェクト選別処理を行う構成であってもよい。この場合には、例えば、移動体センサ20は、第1の検出装置21により検出されたオブジェクトの位置及び形状を示す点群データそのものを第1の情報として比較部10に送信し、基準センサ30は、第2の検出装置31により検出されたオブジェクトの位置及び形状を示す点群データそのものを第2の情報として比較部10に送信する。そして、比較部10は、比較処理の実行に先立って、第1の情報を対象とするオブジェクト選別処理と、第2の情報を対象とするオブジェクト選別処理とを実行し、オブジェクト選別処理が実行された第1の情報と、オブジェクト選別処理が実行された第2の情報とを対象として比較処理を実行するとしてもよい。
(2)実施の形態において、判定システム1は、図1に示されるように、比較部10が、移動体センサ20及び基準センサ30とは別の装置であるサーバ装置50において実現されるとして説明した。しかしながら、比較部10は、必ずしも、移動体センサ20及び基準センサ30とは別の装置において実現される構成の例に限定される必要はない。
一例として、図7に示されるように、実施の形態に係る判定システム1と同様の機能を有する判定システム1aは、実施の形態に係る比較部10と同様の機能を有する比較部10aを含む移動体センサ20aであって、さらに、実施の形態に係る移動体センサ20と同様の機能を実現する移動体センサ20aと、基準センサ30と、ネットワーク40とを含んで構成されるとしてもよい。
また、別の一例として、図8に示されるように、実施の形態に係る判定システム1と同様の機能を有する判定システム1bは、実施の形態に係る比較部10と同様の機能を有する比較部10bを含む基準センサ30aであって、さらに、実施の形態に係る基準センサ30と同様の機能を実現する基準センサ30aと、移動体センサ20と、ネットワーク40とを含んで構成されるとしてもよい。
(3)実施の形態において、判定システム1は、基準オブジェクトの抽出を繰り返し行い、抽出した1以上の基準オブジェクトのそれぞれ位置をデータベースに登録してもよい。この場合、判定システム1は、データベースに登録されている1以上の基準オブジェクトのそれぞれについて、基準オブジェクトの抽出頻度に基づいて、その基準オブジェクトの信頼度を算出してもよい。ここで、判定システム1は、例えば、より抽出頻度が高い基準オブジェクトの方がより高い信頼度となるように信頼度の算出を行ってもよい。また、この場合、判定システム1は、データベースに登録されている1以上の基準オブジェクトのそれぞれについて、基準オブジェクトの近傍の他の基準オブジェクトの配置位置に基づいて、その基準オブジェクトの信頼度を算出してもよい。ここで、判定システム1は、例えば、より基準オブジェクトとして適した配置位置に存在する基準オブジェクトの方がより高い信頼度となるように信頼度の算出を行ってもよい。また、この場合、判定システム1は、データベースに登録されている1以上の基準オブジェクトのそれぞれについて、基準オブジェクトの形状に基づいて、その基準オブジェクトの信頼度を算出してもよい。ここで、判定システム1は、例えば、より基準オブジェクトとして適した形状の基準オブジェクトの方がより高い信頼度となるように信頼度の算出を行ってもよい。
このように、基準オブジェクトの信頼度を算出することで、第1の検出装置21が正常に動作しているか否かの判定結果に信頼度を付与することが可能になる。
このように、抽出した基準オブジェクトの位置をデータベースに登録することで、第1の検出装置21が正常に動作しているか否かの判定を行うことが可能となる場所を示す場所マップを作成することが可能になる。
また、判定システム1は、抽出した1以上の基準オブジェクトのそれぞれに対して、その基準オブジェクトが静的オブジェクト又は準静的オブジェクトであるか否かを示す第3の情報をダイナミックマップから取得して紐づけしてもよい。この場合、判定システム1は、抽出した1以上の基準オブジェクトのそれぞれについて、静的オブジェクト又は準静的オブジェクトであることを示す第3の情報に紐づけされた基準オブジェクトの方が、静的オブジェクト又は準静的オブジェクトでないことを示す第3の情報に紐づけされた基準のオブジェクトよりも高い信頼度となるように、その基準オブジェクトの信頼度を算出してもよい。ここで、静的オブジェクト又は準静的オブジェクトとは、比較的長期間(例えば、1カ月以上)、位置の変動がないオブジェクト(例えば、路面、建物等)のことをいう。
また、判定システム1は、第1の検出装置21が正常に動作していないと判定した場合、その判定に利用した基準オブジェクトの信頼度に応じて、出力する信号を選択的に切り替えて出力してもよい。この場合、判定システム1は、例えば、出力する信号を、移動体に警告を残すための信号と、移動体を整備させるための信号と、移動体を停止させるための信号と、の中からいずれか1つを選択的に切り替えて出力するとしてもよい。
また、判定システム1は、信頼度が所定値よりも高い基準オブジェクトが存在するエリアを、移動体に周期的に走行させるための信号を出力するとしてもよい。
(4)実施の形態において、判定システム1は、基準オブジェクトを、移動体周囲に複数個抽出するとしてもよい。この場合、抽出する複数の基準オブジェクトの方向は、移動体から見て互いに異なる方向であることが好ましい。特に、互いに異なる方向に3つ以上の基準オブジェクトがある場合には、平面における移動体の位置の算出精度を向上させることができる。
(5)実施の形態において、判定システム1は、移動体の状態、基準オブジェクトの状態、基準オブジェクトの個数、基準オブジェクトの方向、のうちの少なくとも1つから、第1の検出装置21が正常に動作しているか否かの判定結果の信頼度を算出するとしてもよい。
(6)判定システム1における、1の任意の構成要素、又は複数の任意の要素の組み合わせからなる装置のことを、判定装置との名称で呼ぶことができる。例えば、比較部10のことを判定装置と呼んでもよいし、例えば、比較部10と、通信部23と、オブジェクト検出部22と、通信部33と、オブジェクト検出部32とからなる装置のことを、判定装置と呼んでもよい。また、判定装置は、例えば、互いに物理的に分離された複数のパーツにより構成される装置であってもよい。
(7)実施の形態において、判定システム1における各構成要素は、IC(Integrated Circuit)、LSI(Large Scale Integration)等の半導体装置により個別に1チップ化されてもよいし、一部又は全部を含むように1チップ化されてもよい。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。更には、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてあり得る。
本開示は、検出装置が正常に動作しているか否かを判定するシステム等において広く利用可能である。
1、1a、1b 判定システム
10、10a、10b 比較部
11、23、33 通信部
12 同一オブジェクト抽出部
13 位置比較部
20、20a 移動体センサ
21 第1の検出装置
22、32 オブジェクト検出部
30、30a 基準センサ
31 第2の検出装置
40 ネットワーク
50 サーバ装置

Claims (14)

  1. 第1の検出装置によって検出された1以上のオブジェクトそれぞれの位置及び形状を示す第1の情報と、基準検出装置として予め定められている第2の検出装置によって検出された1以上のオブジェクトそれぞれの位置及び形状を示す第2の情報とを取得し、
    前記第1の情報と前記第2の情報とに基づいて、前記第1の検出装置によって検出された1以上のオブジェクトと、前記第2の検出装置によって検出された1以上のオブジェクトとの中から、各検出装置によって検出された時刻の差が所定の範囲内である1の同一のオブジェクトを、基準オブジェクトとして抽出し、
    前記第1の情報によって示される前記基準オブジェクトの位置と、前記第2の情報によって示される前記基準オブジェクトの位置とを比較し、
    前記第1の検出装置が正常に動作しているか否かを判定する、
    判定方法。
  2. 前記第1の検出装置は、移動体に搭載されており、
    前記基準オブジェクトを抽出する際に、前記移動体が第1の所定速度以下で移動している時に前記第1の検出装置によって検出された1以上のオブジェクトから、前記基準オブジェクトを抽出する、
    請求項1に記載の判定方法。
  3. 前記第1の検出装置は、移動体に搭載されており、
    前記基準オブジェクトを抽出する際に、前記移動体が停止している時に前記第1の検出装置によって検出された1以上のオブジェクトから、前記基準オブジェクトを抽出する、
    請求項1に記載の判定方法。
  4. 前記基準オブジェクトを抽出する際に、静止状態のオブジェクトを、前記基準オブジェクトとして抽出する、
    請求項1から請求項3のいずれか1項に記載の判定方法。
  5. 前記基準オブジェクトを抽出する際に、第2の所定速度以下で移動しているオブジェクトを、前記基準オブジェクトとして抽出する、
    請求項1から請求項3のいずれか1項に記載の判定方法。
  6. 前記基準オブジェクトを抽出する際に、所定の形状の1以上のオブジェクトを、前記基準オブジェクトとして抽出する、
    請求項1から請求項5のいずれか1項に記載の判定方法。
  7. 前記所定の形状の1以上のオブジェクトとは、長尺状のオブジェクトである、
    請求項6に記載の判定方法。
  8. 前記第1の検出装置は、移動体に搭載されており、
    前記第1の検出装置が正常に動作していないと判定された場合、前記移動体を停止させるための信号を出力する、
    請求項1から請求項7のいずれか1項に記載の判定方法。
  9. 前記第1の検出装置が正常に動作していないと判定された場合、前記第1の検出装置に係る較正を開始させるための信号を出力する、
    請求項1から請求項8のいずれか1項に記載の判定方法。
  10. 前記基準オブジェクトの抽出を繰り返し行い、
    抽出した1以上の前記基準オブジェクトのそれぞれの位置をデータベースに登録し、
    前記データベースに登録されている1以上の前記基準オブジェクトのそれぞれについて、当該基準オブジェクトの抽出頻度と、当該基準オブジェクトの近傍の他の前記基準オブジェクトの配置位置とのうちの少なくとも一方に基づいて、当該基準オブジェクトの信頼度を算出する、
    請求項1に記載の判定方法。
  11. 前記基準オブジェクトの抽出を繰り返し行い、
    抽出した1以上の前記基準オブジェクトのそれぞれに対して、当該基準オブジェクトが静的オブジェクト又は準静的オブジェクトであるか否かを示す第3の情報をダイナミックマップから取得して紐づけし、
    抽出した1以上の前記基準オブジェクトのそれぞれについて、静的オブジェクト又は準静的オブジェクトであることを示す第3の情報に紐づけされた基準オブジェクトの方が、静的オブジェクト又は準静的オブジェクトでないことを示す第3の情報に紐づけされた基準のオブジェクトよりも高い信頼度となるように、当該基準オブジェクトの信頼度を算出する、
    請求項1に記載の判定方法。
  12. 前記第1の検出装置は、移動体に搭載されており、
    前記第1の検出装置が正常に動作していないと判定した場合、当該判定に利用した前記基準オブジェクトの前記信頼度に応じて、前記移動体に警告を残すための信号と、前記移動体を整備させるための信号と、前記移動体を停止させるための信号と、の中からいずれか1つを選択的に切り替えて出力する、
    請求項10又は請求項11に記載の判定方法。
  13. 前記第1の検出装置は、移動体に搭載されており、
    前記信頼度が所定値よりも高い前記基準オブジェクトが存在するエリアを、前記移動体に周期的に走行させるための信号を出力する、
    請求項10又は請求項11に記載の判定方法。
  14. 第1の検出装置によって検出された1以上のオブジェクトそれぞれの位置及び形状を示す第1の情報と、基準検出装置として予め定められている第2の検出装置によって検出された1以上のオブジェクトそれぞれの位置及び形状を示す第2の情報とを取得する取得部と、
    前記第1の情報と前記第2の情報とに基づいて、前記第1の検出装置によって検出された1以上のオブジェクトと、前記第2の検出装置によって検出された1以上のオブジェクトとの中から、各検出装置によって検出された時刻の差が所定の範囲内である1の同一のオブジェクトを、基準オブジェクトとして抽出する抽出部と、
    前記第1の情報によって示される前記基準オブジェクトの位置と、前記第2の情報によって示される前記基準オブジェクトの位置とを比較し、前記第1の検出装置が正常に動作しているか否かを判定する比較部と、を備える、
    判定装置。
JP2020546778A 2018-09-14 2019-08-09 判定方法、及び判定装置 Active JP7258905B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018172345 2018-09-14
JP2018172345 2018-09-14
PCT/JP2019/031586 WO2020054293A1 (ja) 2018-09-14 2019-08-09 判定方法、及び判定装置

Publications (2)

Publication Number Publication Date
JPWO2020054293A1 JPWO2020054293A1 (ja) 2021-09-02
JP7258905B2 true JP7258905B2 (ja) 2023-04-17

Family

ID=69776743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020546778A Active JP7258905B2 (ja) 2018-09-14 2019-08-09 判定方法、及び判定装置

Country Status (5)

Country Link
US (1) US11288554B2 (ja)
EP (1) EP3851788A4 (ja)
JP (1) JP7258905B2 (ja)
CN (1) CN111902692A (ja)
WO (1) WO2020054293A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230154249A1 (en) * 2021-11-17 2023-05-18 Qualcomm Incorporated Misbehavior detection using sensor sharing and collective perception
US20230154248A1 (en) * 2021-11-17 2023-05-18 Qualcomm Incorporated Misbehavior detection using sensor sharing and collective perception

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016111066A1 (ja) 2015-01-07 2016-07-14 ソニー株式会社 情報処理装置、情報処理方法、および情報処理システム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07286858A (ja) * 1994-04-20 1995-10-31 Hitachi Ltd 障害物検知装置及び障害物検知装置を備えるナビゲーション装置
CN1309760A (zh) * 1998-09-02 2001-08-22 三菱电机株式会社 位置检测装置
JP2007007804A (ja) * 2005-07-01 2007-01-18 Toyota Motor Corp 自律型移動ロボットの位置計測手段と方向計測手段の異常を検知する方法と、自律型移動ロボット
JP4971874B2 (ja) * 2007-05-30 2012-07-11 株式会社神戸製鋼所 位置検出装置
CN102047073B (zh) * 2008-11-05 2013-01-02 松下电器产业株式会社 物***置推定***、装置和方法
CN102450006A (zh) * 2010-03-03 2012-05-09 松下电器产业株式会社 物***置推定装置、物***置推定方法及物***置推定程序
CN103052968B (zh) * 2010-08-03 2016-03-02 松下知识产权经营株式会社 物体检测装置和物体检测方法
JP5496008B2 (ja) * 2010-08-06 2014-05-21 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP6442193B2 (ja) * 2014-08-26 2018-12-19 株式会社トプコン 点群位置データ処理装置、点群位置データ処理システム、点群位置データ処理方法およびプログラム
WO2016158856A1 (ja) * 2015-04-02 2016-10-06 株式会社ニコン 撮像システム、撮像装置、撮像方法、及び撮像プログラム
CN107735642A (zh) * 2015-06-23 2018-02-23 富士通株式会社 位置测定装置、位置测定方法和位置测定程序
DE102015216494A1 (de) 2015-08-28 2017-03-02 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erkennung wenigstens einer Sensorfunktion wenigstens eines ersten Sensor wenigstens eines ersten Fahrzeugs
WO2017130397A1 (ja) * 2016-01-29 2017-08-03 富士通株式会社 位置推定装置、位置推定方法および位置推定プログラム
JP2018109557A (ja) * 2017-01-04 2018-07-12 株式会社東芝 位置検出装置、物体検知センサ、位置検出システム、位置検出方法及び位置検出プログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016111066A1 (ja) 2015-01-07 2016-07-14 ソニー株式会社 情報処理装置、情報処理方法、および情報処理システム

Also Published As

Publication number Publication date
EP3851788A4 (en) 2021-11-10
US20200410305A1 (en) 2020-12-31
US11288554B2 (en) 2022-03-29
CN111902692A (zh) 2020-11-06
EP3851788A1 (en) 2021-07-21
WO2020054293A1 (ja) 2020-03-19
JPWO2020054293A1 (ja) 2021-09-02

Similar Documents

Publication Publication Date Title
US11846510B2 (en) Feature matching and correspondence refinement and 3D submap position refinement system and method for centimeter precision localization using camera-based submap and LiDAR-based global map
CN111373337B (zh) 使用基于相机的子地图和基于lidar的全局地图进行厘米精度定位的3d子地图重构***和方法
CN111065980B (zh) 使用基于相机的子地图和基于lidar的全局地图进行厘米精度定位的***和方法
US10223807B1 (en) Feature extraction from 3D submap and global map system and method for centimeter precision localization using camera-based submap and lidar-based global map
US10866101B2 (en) Sensor calibration and time system for ground truth static scene sparse flow generation
US10260892B2 (en) Data structure of environment map, environment map preparing system and method, and environment map updating system and method
WO2018180338A1 (ja) 情報処理装置、サーバ装置、制御方法、プログラム及び記憶媒体
US11762074B2 (en) Position calibration method for infrastructure sensor apparatus, infrastructure sensor apparatus, a non-transitory computer readable medium storing infrastructure sensor system, and position calibration program
US20220113139A1 (en) Object recognition device, object recognition method and program
JP7258905B2 (ja) 判定方法、及び判定装置
JPWO2018061425A1 (ja) センサ故障検出装置およびそのための制御方法
US20220075074A1 (en) Obstacle detection device and obstacle detection method
CN111045022A (zh) 一种基于光检测和测距的车辆追踪方法和***
CN110929475B (zh) 对象的雷达简档的注释
CN111492267A (zh) 用于基于卫星地确定车辆的位置的方法
KR102255924B1 (ko) 레인을 검출하는 차량 및 방법
CN113850909A (zh) 点云数据处理方法、装置、电子设备及自动驾驶设备
US11804135B2 (en) Object recognition apparatus, object recognition method, and computer readable medium
JP7401273B2 (ja) 移動体の制御装置及び方法
CN114581615B (zh) 一种数据处理方法、装置、设备和存储介质
EP3696507B1 (en) Representing an environment by cylindrical and planar structures
JP2023138605A (ja) 情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230405

R150 Certificate of patent or registration of utility model

Ref document number: 7258905

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150