JP2019002839A - 情報処理装置、移動体、情報処理方法、およびプログラム - Google Patents

情報処理装置、移動体、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2019002839A
JP2019002839A JP2017118798A JP2017118798A JP2019002839A JP 2019002839 A JP2019002839 A JP 2019002839A JP 2017118798 A JP2017118798 A JP 2017118798A JP 2017118798 A JP2017118798 A JP 2017118798A JP 2019002839 A JP2019002839 A JP 2019002839A
Authority
JP
Japan
Prior art keywords
point
information processing
unit
processing apparatus
end point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017118798A
Other languages
English (en)
Other versions
JP6813436B2 (ja
Inventor
貴行 杉浦
Takayuki Sugiura
貴行 杉浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2017118798A priority Critical patent/JP6813436B2/ja
Priority to US15/914,404 priority patent/US10643348B2/en
Priority to EP18160682.3A priority patent/EP3416094B1/en
Publication of JP2019002839A publication Critical patent/JP2019002839A/ja
Application granted granted Critical
Publication of JP6813436B2 publication Critical patent/JP6813436B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

【課題】物体の基準点を精度良く特定する。【解決手段】情報処理装置20は、検出部20Eと、特定部20Gと、を備える。検出部20Eは、第1物体を構成する点群の端点を検出する。特定部20Gは、端点の近傍領域に、情報処理装置20からの距離が端点より遠い第2物体が存在する場合、該端点を第1物体の基準点として特定する。【選択図】図2

Description

本発明の実施の形態は、情報処理装置、移動体、情報処理方法、およびプログラムに関する。
物体の位置や移動速度などの算出のために、物体の基準点を特定する技術が開示されている。
例えば、自車両周辺の物体の水平方向の両方の端点を検出し、他の物体に遮蔽されていない端点を、対象物体の基準点として用いる技術が開示されている。しかしながら、物体の端点が正しく観測されない原因には、他の物体による遮蔽の他に、物体の材質や表面形状、センサとの位置関係などもある。このため、遮蔽以外の要因によって正確な端点が検出されなかった場合、対象物体の基準点が正確に検出されない場合があった。すなわち、従来では、物体の基準点を精度良く特定することが困難であった。
特許第5698597号公報
本発明が解決しようとする課題は、物体の基準点を精度良く特定することができる、情報処理装置、移動体、情報処理方法、およびプログラムを提供することである。
実施の形態の情報処理装置は、検出部と、特定部と、を備える。検出部は、第1物体を構成する点群の端点を検出する。特定部は、前記端点の近傍領域に、当該情報処理装置からの距離が前記端点より遠い第2物体が存在する場合、前記端点を前記第1物体の基準点として特定する。
実施の形態の移動体の一例を示す図。 情報処理装置の構成の一例を示すブロック図。 処理部による処理の一例の説明図。 第1面の説明図。 第2面の説明図。 近傍領域の設定の説明図。 近傍領域の詳細な説明図。 情報処理の手順の一例を示すフローチャート。 情報処理装置の構成の一例を示すブロック図。 点の一例の説明図。 補正範囲の一例の説明図。 情報処理の手順の一例を示すフローチャート。 ハードウェア構成図。
以下に添付図面を参照して、情報処理装置、移動体、情報処理方法、およびプログラムを詳細に説明する。
(第1の実施の形態)
図1は、本実施の形態の移動体10の一例を示す図である。例えば、移動体10は、走行方向(矢印X方向)に走行する。
移動体10は、情報処理装置20と、出力部10Aと、センサ10Bと、入力装置10Cと、動力制御部10Gと、動力部10Hと、を備える。
情報処理装置20は、例えば、専用または汎用コンピュータである。本実施の形態では、情報処理装置20が、移動体10に搭載されている場合を一例として説明する。
移動体10は、移動可能な物体である。移動体10は、例えば、車両(自動二輪車、自動四輪車、自転車)、台車、ロボット、船舶、飛翔体(飛行機、無人航空機(UAV:Unmanned Aerial Vehicle)など)である。移動体10は、例えば、人による運転操作を介して走行する移動体や、人による運転操作を介さずに自動的に走行(自律走行)可能な移動体である。自動走行可能な移動体は、例えば、自動運転車両である。本実施の形態の移動体10は、自律走行可能な車両である場合を一例として説明する。
なお、情報処理装置20は、移動体10に搭載された形態に限定されない。情報処理装置20は、静止物に搭載されていてもよい。静止物は、移動不可能な物や、地面に対して静止した状態の物である。静止物は、例えば、ガードレール、ポール、駐車車両、道路標識、などである。また、情報処理装置20は、クラウド上で処理を実行するクラウドサーバに搭載されていてもよい。
本実施の形態では、情報処理装置20は、物体30の基準点Sを特定する。
物体30は、情報処理装置20によって基準点Sを特定される対象の物である。詳細には、物体30は、センサ10B(詳細後述)の外界に存在する物体であって、センサ10Bによって観測される物体である。
物体30は、移動体、静止物、の何れであってもよい。移動体および静止物の定義は、上記と同様である。なお、物体30は、生物および非生物の何れであってもよい。生物は、例えば、人物、動物、植物、などである。非生物は、例えば、車両や飛行可能な物体やロボットなどである。
物体30の基準点Sは、物体30を示す点である。物体30の基準点Sは、例えば、物体30の位置や移動速度などの導出に用いられる。なお、物体30の基準点Sを、物体30の位置として用いてもよい。本実施の形態では、情報処理装置20は、物体30の基準点Sを特定する。基準点Sの特定方法については、詳細を後述する。
センサ10Bは、外界の観測情報を取得する。観測情報は、センサ10Bの設置位置の周辺の、観測結果を示す情報である。本実施の形態では、観測情報は、センサ10Bの周辺の複数の点の各々の、位置情報を導出可能な情報である。
点は、センサ10Bによって検知される検知点である。点の位置情報は、センサ10Bから点までの距離と、センサ10Bを基準とした点の方向と、を示す情報である。これらの距離および方向は、例えば、センサ10Bを基準とする点の相対位置を示す位置座標や、点の絶対位置を示す位置座標や、ベクトルなどで表すことができる。
点は、センサ10Bの外界における、センサ10Bによって個別に観測される検知点の各々を示す。例えば、センサ10Bは、センサ10Bの周囲に光を照射し、反射点で反射した反射光を受光する。この反射点が、点に相当する。なお、複数の反射点を1つの点として用いてもよい。
センサ10Bは、複数の点の各々に対する光の照射方向(センサ10Bを基準とする点の方向)と、複数の点の各々で反射した反射光に関する情報と、を含む、観測情報を得る。反射光に関する情報は、例えば、光の照射から反射光の受光までの経過時間や、受光した光の強度(または出射した光の強度に対する受光した光の強度の減衰率)などである。後述する処理部20Aでは、この経過時間などを用いて、センサ10Bから点までの距離を導出する。
センサ10Bは、例えば、撮影装置や、距離センサ(ミリ波レーダ、レーザセンサ)、などである。撮影装置は、撮影によって撮影画像データ(以下、撮影画像と称する)を得る。撮影画像データは、画素ごとに画素値を規定したデジタル画像データや、画素毎にセンサ10Bからの距離を規定したデプスマップなどである。レーザセンサは、例えば、水平面に対して平行に設置された二次元LIDAR(Laser Imaging Detection and Ranging)センサや、三次元LIDARセンサである。
LIDARセンサは、パルス状に発光するレーザ光を周囲に照射し、物体30の点で反射したレーザ光を受光する。例えば、LIDARセンサは、レーザ光を走査方向に走査することで、レーザ光を周囲に照射する。走査方向は、例えば、水平方向や、鉛直方向である。すなわち、LIDARセンサは、レーザ光を走査方向に走査し、走査方向における照射方向ごとの、レーザ光の反射光を受光する。なお、走査方向は、更に、他の方向を含んでいてもよい。
LIDARセンサは、レーザ光の照射方向と、レーザ光の照射から受光までの経過時間と、を含む観測情報を得る。そして、後述する処理部20Aでは、点の観測情報に含まれる経過時間から、照射方向におけるセンサ10Bと点との距離を算出する。これによって、後述する処理部20Aでは、各点の位置情報を取得する(詳細後述)。なお、LIDARセンサ(センサ10B)が、レーザ光の照射方向と、レーザ光の照射から受光までの経過時間と、から、照射方向におけるセンサ10Bと点との距離を算出してもよい。すなわち、LIDARセンサ(センサ10B)が、各点の位置情報を算出してもよい。
本実施の形態では、センサ10Bが、二次元LIDARセンサである場合を一例として説明する。
なお、センサ10Bは、三次元LIDARセンサであってもよい。また、センサ10Bは、物体30の表面を構成する各面の各々の観測情報を取得する構成であってもよい。また、センサ10Bは、互いに異なる複数の撮影方向の撮影画像を取得する構成であってもよい。また、情報処理装置20は、複数のセンサ10Bを備えた構成であってもよい。この場合、情報処理装置20は、同じ種類のセンサ10Bを備えた構成であってもよいし、少なくとも1つの種類の異なる複数のセンサ10Bを備えた構成であってもよい。なお、情報処理装置20が複数のセンサ10Bを備えた構成の場合、後述する処理部20Aでは、これらの複数のセンサ10Bで得られた観測情報を統合したものを、観測情報として用いればよい。
出力部10Aは、各種情報を出力する。本実施の形態では、出力部10Aは、出力情報を出力する。出力情報は、情報処理装置20で生成される(詳細後述)。出力情報は、物体30の基準点Sに関する情報を含む。具体的には、出力情報は、物体30の基準点Sの位置を示す情報と、基準点Sに基づいて導出された物体30の移動方向、移動距離、移動速度、形状、および位置、の少なくとも1つと、を含む。物体30の基準点Sの位置を示す情報は、センサ10Bに対する相対位置であってもよいし、絶対位置であってもよい。
出力部10Aは、例えば、出力情報を送信する通信機能、出力情報を表示する表示機能、出力情報を示す音を出力する音出力機能、などを備える。例えば、出力部10Aは、通信部10Dと、ディスプレイ10Eと、スピーカ10Fと、を含む。
通信部10Dは、出力情報を他の装置へ送信する。例えば、通信部10Dは、公知の通信回線を介して出力情報を送信する。ディスプレイ10Eは、出力情報を表示する。ディスプレイ10Eは、例えば、公知のLCD(liquid crystal display)や投影装置やライトなどである。スピーカ10Fは、出力情報を示す音を出力する。
入力装置10Cは、ユーザからの各種指示や情報入力を受け付ける。入力装置10Cは、例えば、マウスやトラックボール等のポインティングデバイス、あるいはキーボード等の入力デバイスである。
動力部10Hは、移動体10を駆動するデバイスである。動力部10Hは、例えば、エンジン、モータ、車輪、などである。
動力制御部10Gは、動力部10Hを制御する。動力部10Hは、動力制御部10Gの制御によって駆動する。例えば、動力制御部10Gは、情報処理装置20で生成された出力情報や、センサ10Bから得られた情報などに基づいて、周辺の状況を判断し、アクセル量、ブレーキ量、操舵角などの制御を行う。例えば、動力制御部10Gは、障害物を避けて現在走行中の車線を保ち、かつ前方車両との車間距離を所定距離以上保つように車両の制御を行う。
次に、情報処理装置20の構成について詳細に説明する。図2は、情報処理装置20の構成の一例を示すブロック図である。
情報処理装置20は、物体30の基準点Sを特定する。情報処理装置20は、例えば、専用または汎用コンピュータである。情報処理装置20は、処理部20Aと、記憶部20Bと、を備える。
処理部20A、記憶部20B、出力部10A、センサ10B、および入力装置10Cは、バス20Jを介して接続されている。なお、記憶部20B、出力部10A(通信部10D、ディスプレイ10E、スピーカ10F)、センサ10B、および入力装置10Cは、有線または無線で処理部20Aに接続すればよい。また、記憶部20B、出力部10A(通信部10D、ディスプレイ10E、スピーカ10F)、センサ10B、および入力装置10Cの少なくとも1つと、処理部20Aと、を、ネットワークを介して接続してもよい。
記憶部20Bは、各種データを記憶する。記憶部20Bは、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等である。なお、記憶部20Bは、情報処理装置20の外部に設けられた記憶装置であってもよい。また、記憶部20Bは、記憶媒体であってもよい。具体的には、記憶媒体は、プログラムや各種情報を、LAN(Local Area Network)やインターネットなどを介してダウンロードして記憶または一時記憶したものであってもよい。また、記憶部20Bを、複数の記憶媒体から構成してもよい。
図2に戻り説明を続ける。次に、処理部20Aについて説明する。処理部20Aは、取得部20Cと、分類部20Dと、検出部20Eと、設定部20Fと、特定部20Gと、出力制御部20Hと、を備える。
処理部20Aにおける各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶部20Bへ記憶されている。処理部20Aは、プログラムを記憶部20Bから読出、実行することで、各プログラムに対応する機能を実現するプロセッサである。
各プログラムを読み出した状態の処理部20Aは、図2の処理部20A内に示された各機能部を有することになる。図2においては単一の処理部20Aによって、取得部20C、分類部20D、検出部20E、設定部20F、特定部20G、および出力制御部20Hが実現されるものとして説明する。
なお、各機能部の各々を実現するための独立した複数のプロセッサを組み合わせて処理部20Aを構成してもよい。この場合、各プロセッサがプログラムを実行することにより各機能部を実現する。また、各機能部がプログラムとして構成され、1つの処理回路が各プログラムを実行する場合であってもよいし、特定の機能部が専用の独立したプログラム実行回路に実装される場合であってもよい。
なお、本実施の形態および後述する実施の形態において用いる「プロセッサ」との文言は、例えば、CPU(Central Processing Unit)、GPU(Graphical Processing Unit)或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))の回路を意味する。
プロセッサは、記憶部20Bに保存されたプログラムを読み出し実行することで機能を実現する。なお、記憶部20Bにプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。
取得部20Cは、移動体10の周辺の複数の点の各々の位置情報を取得する。
取得部20Cは、センサ10Bから、センサ10Bの周辺の観測情報を取得する。観測情報は、上述したように、センサ10Bの外界の観測情報であって、センサ10Bの周辺の複数の点の各々の位置情報を導出可能な情報である。取得部20Cは、観測情報から、点の各々の位置情報を導出する。これによって、取得部20Cは、点の位置情報を取得する。
具体的には、センサ10BがLIDARセンサであったと仮定する。この場合、取得部20Cは、観測情報として、センサ10Bからのレーザ光の照射方向と、レーザ光の照射から受光までの経過時間と、を含む観測情報を取得する。そして、取得部20Cは、経過時間から、照射方向におけるセンサ10Bと点との距離を算出する。これによって、取得部20Cは、センサ10Bによって検知された点の各々について、センサ10Bから点までの距離と、センサ10Bを基準とした点の方向と、を示す位置情報を取得する。
なお、上述したように、センサ10BがLIDARセンサである場合、センサ10Bが、レーザ光の照射方向と、レーザ光の照射から受光までの経過時間と、から、位置情報(照射方向と距離)を算出してもよい。この場合、取得部20Cは、点の各々の位置情報を、センサ10B(LIDARセンサ)から取得すればよい。
なお、上述したように、センサ10Bが、物体30の表面を構成する各面の各々の観測情報を得る構成の場合がある。この場合、取得部20Cは、観測情報に示される異なる面の各々を水平面に投影することで、点の位置情報を取得すればよい。また、センサ10Bが、互いに異なる複数の撮影方向の撮影画像を得る構成の場合がある。この場合、取得部20Cは、センサ10Bから取得した複数の撮影方向の撮影画像から、各検出点の奥行情報(距離情報)を再構築することで、検出点の各々の三次元の位置情報を推定すればよい。また、センサ10Bが、複数のセンサ10Bを備えた構成の場合がある。この場合、取得部20Cは、これらの複数のセンサ10Bで得られた観測情報を統合した上で、点の位置情報の取得に用いればよい。
図3−1は、処理部20Aによる処理の一例の説明図である。移動体10に搭載されたセンサ10Bは、センサ10Bの周囲にレーザ光Lを照射し、センサ10Bの周辺の物体30(物体30A〜物体30B)で反射した反射光を受光する。これによって、センサ10Bは、物体30(物体30A〜物体30B)における反射点に相当する点32(例えば、点32〜点3210)の各々の観測情報を得る。なお、物体30の位置、物体30の数、点32の数、および、点32の位置は、一例であり、図3−1に示す形態に限定されない。
そして、取得部20Cは、観測情報から、これらの点32(例えば、点32〜点3210)の各々の位置情報を取得する。
図2に戻り説明を続ける。分類部20Dは、取得部20Cで位置情報を取得した複数の点32を、物体30を構成する点群に分類する。
図3−1を用いて説明する。具体的には、分類部20Dは、点32の各々の位置情報に基づいて、複数の点32を、物体30を構成する点群Bに分類する。図3−1には、複数の点32(例えば、点32〜点3210)を、点32〜点32の点群B1と、点32〜点3210の点群B2と、に分類した例を示した。
例えば、センサ10Bが二次元LIDARセンサであったと仮定する。この場合、分類部20Dは、センサ10Bを水平面に沿った二次元平面の円中心とした円の周方向に向かって順に、複数の点32の各々に番号を付与(順序付け)する。
そして、情報処理装置20は、付与した番号の順に、点32の各々について、ひとつ前の点32と同じ物体30を構成するか否かを判定する。例えば、分類部20Dは、ひとつ前の点32の位置情報に示される距離(センサ10Bまでの距離)と、処理対象の点32の位置情報に示される距離と、の差が閾値以下であると、同じ物体30を構成すると判定する。そして、分類部20Dは、同じ物体30と判定されなくなるまで、該周方向に順に点32を判定する。そして、同じ物体30を構成すると判定した点32の群を、1つの物体30を構成する点群Bとして、分類する。
この分類処理によって、図3−1に示す例では、複数の点32(点32〜点3210)が、物体30を構成する1または複数の点群B(点群B1〜点群B2)に分類される。
なお、分類部20Dによる分類方法は、上記方法に限定されない。詳細には、上記では、センサ10Bを二次元平面の円中心とした円の周方向に向かって順に、点32を順序付けし、分類処理を行った。しかし、点32の順序付けの方法は、この方法に限定されない。
また、同じ物体30を構成するか否かの判定基準は、上記基準に限定されない。例えば、分類部20Dは、センサ10Bを基準とする点32の相対位置を示す位置座標や、点32の絶対位置を、判定基準に用いてもよい。また、分類部20Dは、同じ物体30を構成すると判定した複数の点32から、次に判定する対象の点32までの距離が閾値以下であるか否かを判別することで、同じ物体30を構成すると判定してもよい。また、分類部20Dは、点32の観測情報に含まれる光の反射強度を用いて、同じ物体30を構成するか否かを判定してもよい。
図2に戻り説明を続ける。検出部20Eは、第1物体を構成する点群Bの端点を検出する。
第1物体は、分類部20Dで分類された物体30の内の、基準点Sを特定する対象の物体30である。なお、本実施の形態では、分類部20Dで分類された物体30の内、該第1物体以外の物体30を、第2物体と称して説明する。
例えば、検出部20Eは、分類部20Dで分類された物体30の内の1つを、基準点Sを特定する対象の物体30(以下、第1物体30Aと称する)として特定する。そして、検出部20Eは、分類部20Dで分類された物体30の内、特定した該第1物体30A以外の物体30を、第2物体(以下、第2物体30Bと称する)とする。
なお、検出部20Eは、分類部20Dで分類された物体30を、1つずつ、順次、第1物体30Aとして特定し、端点の検出処理を行ってもよい。このとき、第1物体30Aとして特定した1つの物体30以外の物体30については、第2物体30Bとして扱い、後述する処理を行えばよい。
図3−1を用いて説明する。例えば、検出部20Eは、第1物体30Aの点群B1を構成する点32(点32〜点32)から、端点Eを検出する。
端点Eとは、第1物体30Aの点群B1を構成する複数の点32(点32〜点32)の内、所定方向の両端部に位置する点である。
端点Eの検出に用いる所定方向は、例えば、センサ10Bの走査方向である。例えば、センサ10Bの走査方向が、水平方向(図3−1中、走査方向Q参照)であったと仮定する。水平方向は、鉛直方向(矢印Z方向)に直交する二次元平面(XY平面))に沿った方向である。この二次元平面は、具体的には、鉛直方向(矢印Z方向)に対して直交する、互いに直交するX方向とY方向とによって構成される平面である。この場合、検出部20Eは、第1物体30Aの点群B1を構成する複数の点32(点32〜点32)の内、センサ10Bの走査方向Qの両端部に位置する点32(点32と点32)を、端点Eとして検出する。
なお、センサ10Bの走査方向Qが、鉛直方向である場合がある。この場合、検出部20Eは、第1物体30Aの点群B1を構成する複数の点32の内、センサ10Bの走査方向Qである鉛直方向の両端部に位置する点32を、端点Eとして検出すればよい。また、センサ10Bの走査方向が、複数の走査方向(鉛直方向、水平方向、これらの方向に交差する方向)である場合がある。この場合、検出部20Eは、第1物体30Aの点群B1を構成する複数の点32の内、センサ10Bの複数の走査方向Qの各々における、両端部に位置する点32の各々を、端点Eとして検出すればよい。
このため、検出部20Eが、第1物体30Aに対して検出する端点Eの数は、2つに限定されない。例えば、検出部20Eは、3つ以上の端点Eを検出してもよい。
なお、端点Eの検出に用いる所定方向は、センサ10Bの走査方向Qに限定されない。例えば、第1物体30Aの点群B1を構成する複数の点32(点32〜点32)の分布方向を、該所定方向として用いてもよい。
この場合、検出部20Eは、第1物体30Aの点群B1を構成する複数の点32(点32〜点32)の内、該点群B1を構成する複数の点32の分布方向の両端部に位置する点32(例えば、点32と点32)を、端点Eとして検出すればよい。
図2に戻り説明を続ける。設定部20Fは、端点Eの近傍領域を設定する。近傍領域とは、端点Eから所定範囲の領域である。例えば、近傍領域は、第1面または第2面に、センサ10Bを中心として、第1物体30Aおよび第2物体30Bを射影した場合の、端点Eの近傍の領域であってもよい。
図3−2は、第1面P1の説明図である。第1面P1は、点32を検出するセンサ10Bの走査方向Qに沿った面である。詳細には、第1面P1は、センサ10Bを円中心とし、走査方向Qに沿って360°回転することで描かれる円Cを断面とした円柱C’の、外周の曲面に沿った面である。なお、この外周は、円柱の曲面の部分を表す。
図3−3は、第2面P2の説明図である。第2面P2は、センサ10Bの光出射面10B’に平行な面である。例えば、センサ10Bは、移動体10の進行方向Xに直交する面を、光出射面10B’としている。第2面P2は、この光出射面10B’に平行な、二次元平面である。
図4は、近傍領域40の設定の説明図であり、図3−1の状態を鉛直上方向から見下ろした上面図である。本実施の形態では、設定部20Fは、基準直線Fから、第1物体30Aの外側に向かって所定角度θの範囲を、近傍領域40として設定する。
基準直線Fとは、移動体10と端点E(図4では点32)とを通る直線である。具体体的には、基準直線Fは、移動体10に搭載されたセンサ10Bの、光受光面と、端点Eと、を通る直線である。
第1物体30Aの外側とは、第1物体30Aの端点E(図4では点32)に対して、第1物体30Aの点群B1を構成する複数の点32が存在しない側を示す。
このため、近傍領域40は、センサ10Bを中心とした、センサ10Bと端点E(点32)とを通る基準直線Fと、該基準直線Fから第1物体30Aの外側に向かって所定角度θを示す直線F’と、によって囲まれた領域である。
なお、近傍領域40は、基準直線Fから、第1物体30Aの外側に向かって、水平方向および鉛直方向の少なくとも一方に、所定角度θの領域であればよい。
具体的には、近傍領域40は、第1物体30Aの外側に向かって、センサ10Bの走査方向Qに、所定角度θの領域であればよい。
このため、センサ10Bの走査方向Qが水平方向である場合には、近傍領域40は、基準直線Fから第1物体30Aの外側に向かって水平方向に所定角度θの領域であればよい。また、センサ10Bの走査方向Qが鉛直方向である場合には、近傍領域40は、基準直線Fから第1物体30Aの外側に向かって、鉛直方向に所定角度θの領域であればよい。
なお、センサ10Bの走査方向Qが複数の方向である場合には、近傍領域40は、基準直線Fから第1物体30Aの外側に向かって、該複数方向の各々の方向に所定角度θの領域であればよい。例えば、近傍領域40は、複数の走査方向Qの各々に沿った第1面の各々、または上記第2面における、センサ10Bと端点Eとを通る基準直線Fと、該基準直線Fから第1物体30Aの外側に向かって所定角度θを示す直線F’と、によって囲まれた領域であってもよい。
図5は、近傍領域40の詳細な説明図である。所定角度θは、0より大きい角度であればよい。
なお、図5(A)に示すように、所定角度θは、センサ10Bによる点32の検出限界を示す角度α以上であることが好ましい。センサ10Bの検出限界を示す角度αは、図5(B)に示すように、センサ10Bが点32を検出可能な最小角度を示す。
また、所定角度θは、センサ10Bの走査方向Qにおける、第1物体30Aのサイズを示す角度以下であることが好ましい。具体的には、図5(A)に示すように、センサ10Bの走査方向Qにおける、第1物体30Aのサイズを示す角度は、角度βで表される。角度βは、センサ10Bと、第1物体30Aにおける走査方向Qの両端部(2つの端点E(点32、点32)の各々と、を結ぶ2つの直線の成す角度である。
すなわち、設定部20Fは、端点Eを特定した第1物体30Aのサイズに応じた、所定角度θを導出する。
具体的には、まず、設定部20Fは、端点Eを特定した第1物体30Aのサイズを示す角度βを導出する。設定部20Fは、第1物体30Aを示す点群B1における、検出部20Eによって検出された走査方向Qの両端部の点32を示す一対の端点Eの位置情報を用いて、第1物体30Aのサイズを示す角度βを導出すればよい。そして、設定部20Fは、センサ10Bの検出限界を示す角度α以上で、且つ、第1物体30Aのサイズを示す角度β以下の、所定角度θを導出する。なお、設定部20Fは、あらかじめ設定した検出対象とする第1物体30Aのサイズから、角度βを導出してもよい。例えば、他の車両を検出対象とする場合、設定部20Fは、一般的な車両のサイズをあらかじめ設定し、そのサイズから導出される角度βを用いればよい。
なお、上述したように、検出部20Eは、1つの第1物体30Aに対して、複数の端点Eを検出する。このため、設定部20Fは、検出した端点Eごとに、第1物体30Aのサイズに応じた所定角度θを導出する。
そして、設定部20Fは、第1物体30Aの端点Eごとに、基準直線Fから第1物体30Aの外側に向かって所定角度θの領域を、近傍領域40として設定する。
すなわち、設定部20Fは、センサ10Bによる点32の検出限界を示す角度α以上で、且つ、センサ10Bの走査方向Qにおける第1物体30Aのサイズを示す角度β以下の、所定角度θの範囲を、近傍領域40として端点Eごとに設定する。
なお、設定部20Fは、第1物体30Aのサイズを示す角度β以下で、且つ、センサ10Bによる点32の検出限界を示す角度αのN倍(Nは1以上の整数)の所定角度θの範囲を、近傍領域40として、端点Eごとに設定してもよい。
なお、設定部20Fは、更に限定した領域を、近傍領域40として設定してもよい。設定部20Fは、例えば、複数の走査方向Qの各々に沿った第1面の各々、または上記第2面における、センサ10Bと端点Eとを通る基準直線Fから、該二次元平面に射影した第1物体30Aの外側に向かって、所定角度θの領域の各々を更に限定した領域を、近傍領域40として設定してもよい。図5(C)を用いて説明する。設定部20Fは、基準直線Fから第1物体30Aの外側に所定角度θの範囲における、情報処理装置20からの距離が第1範囲42内の領域、および、端点Eからの距離が第2範囲44内の領域、の少なくとも一方と重複する領域を、近傍領域40として設定してもよい。
第1範囲42は、基準直線Fから第1物体30Aの外側に向かって所定角度θの範囲における、情報処理装置20からの距離が距離42B以上で且つ、該距離42Bより大きい距離42A以下の範囲である。なお、情報処理装置20からの距離とは、詳細には、センサ10Bからの距離を示す。
距離42Bは、0より大きい値であり、且つ、センサ10Bから端点E(点32)までの距離未満の値であればよい。距離42Aは、センサ10Bから端点E(点32)までの距離より大きく、且つ、センサ10Bの検出可能な最大距離以下の値であればよい。
第2範囲44は、端点E(点32)を中心とした、特定半径の円内の範囲である。この特定半径は、0より大きく、且つ、予め定めた値以下であればよい。この特定半径の最大値としては、例えば、上記角度βあるいは角度αおよび該角度αのN倍の角度より、センサ10Bからみた円の角度が小さくなるような値を予め定めればよい。
なお、設定部20Fは、情報処理装置20と端点Eとの距離が大きいほど広い、第1範囲42および第2範囲44を設定することが好ましい。詳細には、設定部20Fは、センサ10Bと端点Eとの距離が大きいほど広い、第1範囲42および第2範囲44を設定することが好ましい。
図2に戻り、説明を続ける。次に、特定部20Gについて説明する。特定部20Gは、端点Eの近傍領域40に、情報処理装置20からの距離が該端点Eより遠い第2物体30Bが存在する場合、該端点Eを第1物体30Aの基準点Sとして特定する。詳細には、特定部20Gは、端点Eの近傍領域40に、端点Eより情報処理装置20からの距離が遠い、第2物体30Bを構成する点群B2の少なくとも一部が存在する場合、端点Eを第1物体30Aの基準点Sとして特定する。
図4を用いて説明する。例えば、検出部20Eが、第1物体30Aの点32および点32の各々を、端点Eとして検出したと仮定する。そして、設定部20Fが、端点Eとして検出された点32に対して、近傍領域40を設定したと仮定する。また、設定部20Fは、端点Eとして検出された点32についても、近傍領域40として近傍領域40’を設定したと仮定する。
この場合、特定部20Gは、第1物体30Aについて検出された端点E(点32、点32)の各々について、下記処理を行う。
例えば、特定部20Gは、端点E(点32)について設定された近傍領域40に、情報処理装置20からの距離が該端点E(点32)より遠い第2物体30Bが存在するか否かを判断する。例えば、まず、特定部20Gは、端点E(点32)の位置情報に示される、情報処理装置20(センサ10B)から該端点E(点32)までの距離を読取る。また、特定部20Gは、第2物体30Bの点群B2を構成する複数の点32の内、該端点E(点32)の近傍領域40内に存在する点32を特定する。そして、特定部20Gは、特定した第2物体30Bの点32の各々について、位置情報によって示される、該点32の各々のセンサ10Bからの距離を読取る。特定部20Gは、該近傍領域40内の該第2物体30Bの点32に、センサ10Bからの距離が、センサ10Bと端点E(点326)との距離より大きい点32が含まれるか否かを判断する。そして、含まれる場合、特定部20Gは、端点E(点32)について設定された近傍領域40に、情報処理装置20からの距離が該端点E(点32)より遠い第2物体30Bが存在すると判断する。
そして、特定部20Gは、該端点E(点32)の近傍領域40に、情報処理装置20からの距離が該端点Eより遠い第2物体30Bが存在すると判断した場合、該端点Eを第1物体30Aの基準点Sとして特定する。
ここで、特定部20Gは、第1物体30Aについて検出された端点E(点32、点32)の各々について、上記処理を行う。このため、複数の端点Eが、基準点Sとして特定される場合がある。
特定部20Gは、複数の基準点Sを特定してもよいし、複数の基準点Sの内の1つを、最終的な基準点Sとして特定してもよい。
例えば、特定部20Gは、検出部20Eによって検出された複数の端点Eが基準点Sとして特定可能である場合、特定に用いた近傍領域40の範囲が最も狭い端点Eを、1つの基準点Sとして特定すればよい。
例えば、図4に示すように、第1物体30Aの端点E(点32)の近傍領域40内に、該端点E(点32)よりセンサ10Bからの距離が遠い、第2物体30Bの点32が存在したと仮定する。また、第1物体30Aの他の端点E(点32)の近傍領域40’内に、該端点E(点32)よりセンサ10Bからの距離が遠い、第2物体30Bの点3211が存在したと仮定する。この場合、特定部20Gは、これらの2つの端点E(点32、点32)を、基準点Sとして特定可能である。
なお、端点E(点32)の近傍領域40は、端点E(点32)の近傍領域40’より狭い領域であったと仮定する。この場合、特定部20Gは、より狭い近傍領域40の設定された端点E(点32)を、1つの基準点Sとして特定すればよい。
なお、端点Eについて設定された近傍領域40に、情報処理装置20からの距離が該端点Eより遠い第2物体30Bが存在しない場合には、特定部20Gは、該端点Eを基準点Sとして特定しない。
図2に戻り説明を続ける。次に、出力制御部20Hについて説明する。出力制御部20Hは、物体30の基準点Sを示す出力情報を出力する。
出力情報は、物体30の基準点Sを示す情報を少なくとも含む。例えば、出力情報は、物体30ごとに特定された基準点Sの位置情報を含む。なお、出力情報は、基準点Sに基づいて導出された、物体30の移動方向、物体30の移動距離、物体30の移動速度、物体30の形状、および物体30位置、の少なくとも1つを更に含む情報であってもよい。
この場合、出力制御部20Hは、物体30ごとに算出された基準点Sの位置情報と、物体30に対応する点群Bを構成する点32の位置情報と、に基づいて、公知の方法を用いて、物体30ごとに、移動方向、移動距離、移動速度、形状、および位置、の少なくとも1つを導出すればよい。
例えば、出力制御部20Hは、センサ10Bによって異なるタイミングで取得された点32に基づいて特定された基準点Sを用いて、基準点Sの位置の変位や、変位時間などを用いて、物体30ごとに、移動方向や、移動速度、および移動距離などを導出する。
また、例えば、出力制御部20Hは、物体30を構成する点群Bの各々を、予め定めた物体30の形状モデルにあてはめることで、物体30の形状を導出すればよい。
また、例えば、出力制御部20Hは、物体30を構成する点群Bにあてはめた形状モデルを基準点Sに合わせることで、物体30の位置を導出してもよい。また、1つの物体30について複数の基準点Sが特定可能である場合、出力制御部20Hは、複数の基準点Sの中心に相当する位置を、該物体30の位置として導出してもよい。
なお、物体30の位置は、世界座標、移動体10に対する相対座標、直交座標、極座標、の何れで表してもよい。
また、出力情報は、更に他の情報を含んでいても良い。
そして、出力制御部20Hは、出力情報を、出力部10A、動力制御部10G、および記憶部20Bの少なくとも1つへ出力する。
例えば、出力制御部20Hは、出力情報を、出力部10Aへ出力する。例えば、出力情報を受付けると、出力部10Aの通信部10Dは、外部装置などに、出力情報を送信する。また、例えば、出力部10Aのディスプレイ10Eは、出力情報を表示する。また、例えば、出力部10Aのスピーカ10Fが、出力情報に応じた音を出力する。出力情報に応じた音は、出力情報を示す音声であってもよいし、出力情報に応じた警告音であってもよい。
また、例えば、出力制御部20Hは、出力情報を、動力制御部10Gへ出力する。上述したように、動力制御部10Gは、移動体10の動力部10Hを制御する。出力情報を受付けた動力制御部10Gは、出力情報や、センサ10Bから得られた情報などに基づいて、周辺の状況を判断し、アクセル量、ブレーキ量、操舵角などの制御を行う。例えば、動力制御部10Gは、障害物を避けて現在走行中の車線を保ち、かつ前方車両との車間距離を所定距離以上保つように車両の制御を行う。
なお、出力制御部20Hは、出力情報を記憶部20Bへ記憶してもよい。また、出力制御部20Hは、出力情報を、他の処理機能部(例えば、衝突判定や運動予測などを行う機能)に対して出力してもよい。
次に、本実施の形態の情報処理装置20が実行する、情報処理の手順の一例を説明する。図6は、本実施の形態の情報処理装置20が実行する、情報処理の手順の一例を示す、フローチャートである。
まず、取得部20Cが、移動体10の周辺の複数の点32の各々の位置情報を取得する(ステップS100)。
次に、分類部20Dが、ステップS100で位置情報を取得した複数の点32を、物体30を構成する点群Bに分類する(ステップS102)。
次に、検出部20Eが、物体30の内の第1物体30Aについて、第1物体30Aの端点Eを検出する(ステップS104)。
次に、設定部20Fが、該第1物体30Aの端点Eに対する近傍領域40を設定する(ステップS106)。
次に、特定部20Gは、ステップS106で設定した近傍領域40に、ステップS104で検出した第1物体30Aの端点Eより遠い、第2物体30Bが存在するか否かを判断する(ステップS108)。ステップS108で否定判断すると(ステップS108:No)、本ルーチンを終了する。一方、第2物体30Bが存在すると判断すると(ステップS108:Yes)、ステップS110へ進む。
ステップS110では、特定部20Gは、ステップS104で検出した端点Eを、第1物体30Aの基準点Sとして特定する(ステップS110)。
次に、出力制御部20Hが、ステップS110で特定した基準点Sに関する出力情報を生成する(ステップS112)。次に、出力制御部20Hは、ステップS112で生成した出力情報を出力する(ステップS114)。そして、本ルーチンを終了する。
以上説明したように、本実施の形態の情報処理装置20は、検出部20Eと、特定部20Gと、を備える。検出部20Eは、第1物体30Aを構成する点群Bの端点Eを検出する。特定部20Gは、端点Eの近傍領域40に、情報処理装置20からの距離が端点Eより遠い第2物体30Bが存在する場合、該端点Eを第1物体30Aの基準点Sとして特定する。
ここで、従来では、単に、他の物体に遮蔽されていない端点を、基準点として用いていた。このため、従来では、第1物体30Aの実際の端部付近の点32が検出されておらず、且つ、該端部付近以外の検出された点32が他の物体によって遮蔽されていない場合、物体の真の端点Eが検出されなかった。このため、従来技術では、結果的に、基準点Sの特定精度が低下する場合があった。
一方、本実施の形態の情報処理装置20は、第1物体30Aの端点Eの近傍領域40に、該端点Eより遠い位置に存在する他の物体30(第2物体30B)が存在する場合に、該端点Eを第1物体30Aの基準点Sとして特定する。
端点Eの近傍領域40に、第1物体30A以外の他の物体30である第2物体30Bが存在する場合、該端点Eは、第1物体30Aの真の端点Eである可能性が高い。このため、本実施の形態の情報処理装置20では、実際の第1物体30Aの端部付近の点32が取得されていない等の要因により、誤った端点Eとされた可能性の高い点32を除外し、真の端点Eである可能性の高い点32を、基準点Sとして特定することができる。
従って、本実施の形態の移動体10は、物体30の基準点Sを精度良く特定することができる。
(第2の実施の形態)
本実施の形態では、特定部20Gが特定した基準点Sを補正する形態を説明する。
図1は、本実施の形態の移動体11の一例を示す図である。移動体11は、出力部10Aと、センサ10Bと、入力装置10Cと、動力制御部10Gと、動力部10Hと、情報処理装置22と、を備える。移動体11は、情報処理装置20に代えて情報処理装置22を備えた点以外は、第1の実施の形態の移動体10と同様である。
図7は、情報処理装置22の構成の一例を示すブロック図である。
情報処理装置22は、処理部22Aと、記憶部20Bと、出力部10Aと、センサ10Bと、入力装置10Cと、を備える。出力部10Aは、上述したように、通信部10Dと、ディスプレイ10Eと、スピーカ10Fと、を含む。
情報処理装置22は、処理部20Aに代えて処理部22Aを備えた点以外は、第1の実施の形態の情報処理装置20と同様である。
処理部22Aは、取得部20Cと、分類部20Dと、検出部20Eと、設定部20Fと、特定部20Gと、導出部22Jと、補正部22Kと、出力制御部22Hと、を備える。
取得部20C、分類部20D、検出部20E、設定部20F、および特定部20Gは、第1の実施の形態と同様である。すなわち、処理部22Aは、第1の実施の形態における処理部20Aの機能部に加えて、導出部22Jおよび補正部22Kを更に備え、出力制御部20Hに代えて出力制御部22Hを備えた構成である。
導出部22Jは、特定部20Gが基準点Sの特定に用いた近傍領域40に基づいて、補正後の基準点Sとして設定可能な補正範囲を導出する。
ここで、特定部20Gが基準点Sを特定した第1物体30Aを構成する点群Bには、実際の第1物体30Aにおける検出されるべき点32が含まれていない場合がある。
図8は、点32の一例の説明図である。例えば、センサ10Bから照射されたレーザ光Lは、実際の第1物体30Aの材質や色や表面形状、センサ10Bと実際の第1物体30Aとの位置関係、および検知環境などによって、センサ10Bの方向に反射しない場合や、著しく強度の減衰した反射光となる場合がある。このような場合、実際の第1物体30Aの表面の内、良好な検知条件であれば検知されるべき点32が、センサ10Bによって検知されない場合がある。
例えば、図8に示すように、実際の第1物体30Aの外形30A’に沿った点には、非検出点33(非検出点33〜33)が含まれると仮定する。しかし、検知条件によって、非検出点33(非検出点33〜33)が検出されず、第1物体30Aの表面の一部に沿った点32(例えば、点32〜点32)のみが検出される場合がある。
この場合、検出された点32(点32〜点32)の内の端点Eが、第2物体30Bに応じて基準点Sとして特定されるため、基準点Sの位置を補正することが好ましい場合があった。
そこで、本実施の形態では、導出部22Jは、特定部20Gが基準点Sの特定に用いた近傍領域40に基づいて、補正後の基準点Sとして設定可能な補正範囲を導出する。
図9は、補正範囲60の一例の説明図である。補正範囲60とは、基準点Sの位置をずらす対象となる領域を示す。言い換えると、補正範囲60は、補正後の基準点Sの位置としてとりうる範囲を示す。
例えば、図9(A)に示すように、導出部22Jは、近傍領域40と第1の円50との重複領域を、補正範囲60として設定する。第1の円50は、補正対象の基準点Sと、該基準点Sの特定に用いた近傍領域40の周縁の少なくとも一部と、に内接する円である。近傍領域40の周縁とは、近傍領域40の外枠を示す線である。また、第1の円50は、該近傍領域40内に納まる円である。すなわち、第1の円50は、近傍領域40の一部の領域である。
具体的には、近傍領域40が、センサ10Bを中心とした、センサ10Bと端点E(点32)とを通る基準直線Fと、該基準直線Fから第1物体30Aの外側に向かって所定角度θの直線F’と、によって囲まれた領域であると仮定する。この場合、第1の円50は、基準直線Fと、基準直線F上の基準点S(点32)と、直線F’と、に内接する円である。
なお、導出部22Jは、他の範囲を、補正範囲60として導出してもよい。
例えば、図9(B)に示すように、導出部22Jは、近傍領域40と、第2の円52と、の重複領域を、補正範囲60として導出してもよい。第2の円52は、基準点Sを中心とした第2半径の円である。この第2半径は、上記角度αおよび該角度αのN倍の角度以上、且つ、上述の角度β以下の範囲であればよい。
また、例えば、図9(C)に示すように、導出部22Jは、近傍領域40と、第3の円54と、の重複領域を、補正範囲60として導出してもよい。第3の円54は、基準点Sを中心とし、該基準点Sから第2物体30Bを構成する点32の各々までの距離を半径とする円である。図9(C)に示す構成の場合、該半径は、基準点S(点32)と第2物体30Bの点32〜点32の各々との距離である。図9(C)には、一例として、基準点S(点32)と第2物体30Bの点32との距離を半径とし、基準点Sを中心とした、第3の円54を示した。
また、例えば、図9(D)に示すように、導出部22Jは、近傍領域40と、第1の円50、第2の円52、および第3の円54の少なくとも1つと、の重複領域を、補正範囲60として導出してもよい。
図7に戻り説明を続ける。補正部22Kは、特定部20Gが特定した基準点Sの位置を、導出部22Jが導出した補正範囲60内の位置に補正する。
例えば、補正部22Kは、特定部20Gが特定した基準点Sの位置を、導出部22Jが導出した補正範囲60の中心位置に補正する。
具体的には、補正範囲60が、近傍領域40と第1の円50との重複領域であったと仮定する(図9(A)参照)。この場合、補正部22Kは、基準点S(点32)の位置を、補正範囲60である第1の円50の中心の位置に補正する。
なお、補正部22Kは、異なるタイミングの各々に応じた複数の補正範囲60を用いて、基準点Sの位置を補正してもよい。異なるタイミングの各々に応じた複数の補正範囲60とは、センサ10Bによって異なるタイミングで取得された点32に基づいて特定された、各タイミングの基準点Sから導出した補正範囲60である。
そして、補正部22Kは、補正後の基準点Sの位置情報を、出力制御部22Hへ出力する。
出力制御部22Hは、特定部20Gで特定された基準点Sに代えて、補正部22Kで補正された基準点Sを受付け、出力情報の生成に用いる。この点以外は、出力制御部22Hは、第1の実施の形態の出力制御部20Hと同様である。
なお、出力制御部22Hは、補正後の基準点Sの補正に用いた、補正範囲60を示す情報を更に含む、出力情報を生成してもよい。
次に、本実施の形態の情報処理装置22が実行する、情報処理の手順の一例を説明する。図10は、本実施の形態の情報処理装置22が実行する、情報処理の手順の一例を示す、フローチャートである。
情報処理装置22は、第1の実施の形態の情報処理装置20におけるステップS100〜ステップS110(図6参照)と同様にして、ステップS200〜ステップS210の処理を実行する。
具体的には、まず、取得部20Cが、移動体11の周辺の複数の点32の各々の位置情報を取得する(ステップS200)。次に、分類部20Dが、ステップS200で位置情報を取得した複数の点32を、物体30を構成する点群Bに分類する(ステップS202)。次に、検出部20Eが、物体30の内の第1物体30Aについて、第1物体30Aの端点Eを検出する(ステップS204)。次に、設定部20Fが、該第1物体30Aの端点Eに対する近傍領域40を設定する(ステップS206)。
次に、特定部20Gが、ステップS206で設定した近傍領域40に、ステップS204で検出した第1物体30Aの端点Eより遠い、第2物体30Bが存在するか否かを判断する(ステップS208)。ステップS208で否定判断すると(ステップS208:No)、本ルーチンを終了する。一方、第2物体30Bが存在すると判断すると(ステップS208:Yes)、ステップS210へ進む。
ステップS210では、特定部20Gは、ステップS204で検出した端点Eを、第1物体30Aの基準点Sとして特定する(ステップS210)。
次に、導出部22Jが、基準点Sの補正範囲60を導出する(ステップS212)。次に、補正部22Kが、ステップS210で特定した基準点Sの位置を、ステップS212で導出した補正範囲60内の位置に補正する(ステップS214)。
次に、出力制御部22Hが、ステップS214で補正された基準点Sを用いて、出力情報を生成する(ステップS216)。そして、出力制御部22Hは、生成した出力情報を出力する(ステップS218)。そして、本ルーチンを終了する。
以上説明したように、本実施の形態の情報処理装置22は、特定部20Gが特定した基準点Sの位置を、補正部22Kが補正範囲60内の位置に補正する。
従って、本実施の形態の情報処理装置22は、第1の実施の形態の効果に加えて、更に精度良く、基準点Sを特定することができる。
(ハードウェア構成)
次に、上記実施の形態の情報処理装置20、および情報処理装置22のハードウェア構成の一例を説明する。図11は、上記実施の形態の情報処理装置20、および情報処理装置22のハードウェア構成図の一例を示す図である。
上記実施の形態の情報処理装置20、および情報処理装置22は、CPU(Central Processing Unit)86などの制御装置と、ROM(Read Only Memory)88やRAM(Random Access Memory)90やHDD(ハードディスクドライブ)92などの記憶装置と、各種機器とのインターフェースであるI/F部82と、出力情報などの各種情報を出力する出力部80と、ユーザによる操作を受付ける入力部94と、各部を接続するバス96とを備えており、通常のコンピュータを利用したハードウェア構成となっている。
上記実施の形態の情報処理装置20、および情報処理装置22では、CPU86が、ROM88からプログラムをRAM90上に読み出して実行することにより、上記各機能がコンピュータ上で実現される。
なお、上記実施の形態の情報処理装置20、および情報処理装置22で実行される上記各処理を実行するためのプログラムは、HDD92に記憶されていてもよい。また、上記実施の形態の情報処理装置20、および情報処理装置22で実行される上記各処理を実行するためのプログラムは、ROM88に予め組み込まれて提供されていてもよい。
また、上記実施の形態の情報処理装置20、および情報処理装置22で実行される上記処理を実行するためのプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、CD−R、メモリカード、DVD(Digital Versatile Disk)、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されてコンピュータプログラムプロダクトとして提供されるようにしてもよい。また、上記実施の形態の情報処理装置20、および情報処理装置22で実行される上記処理を実行するためのプログラムを、インターネットなどのネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上記実施の形態の情報処理装置20、および情報処理装置22で実行される上記処理を実行するためのプログラムを、インターネットなどのネットワーク経由で提供または配布するようにしてもよい。
なお、上記には、本発明の実施の形態を説明したが、上記実施の形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施の形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10、11 移動体
10B センサ
10G 動力制御部
10H 動力部
20、22 情報処理装置
20C 取得部
20D 分類部
20E 検出部
20F 設定部
20G 特定部
20H、22H 出力制御部
22J 導出部
22K 補正部

Claims (19)

  1. 第1物体を構成する点群の端点を検出する検出部と、
    前記端点の近傍領域に、当該情報処理装置からの距離が前記端点より遠い第2物体が存在する場合、前記端点を前記第1物体の基準点として特定する特定部と、
    を備える、情報処理装置。
  2. 周囲の複数の点の位置情報を取得する取得部と、
    前記複数の点を、物体を構成する前記点群に分類する分類部と、
    を備え、
    前記特定部は、
    前記端点の前記近傍領域に、前記端点より当該情報処理装置からの距離が遠い、前記第2物体を構成する前記点群の少なくとも一部が存在する場合、前記端点を前記第1物体の前記基準点として特定する、
    請求項1に記載の情報処理装置。
  3. 前記端点の前記近傍領域を設定する設定部を備え、
    前記特定部は、設定された前記近傍領域に当該情報処理装置からの距離が前記端点より遠い第2物体が存在する場合、前記端点を前記第1物体の前記基準点として特定する、
    請求項1または請求項2に記載の情報処理装置。
  4. 前記設定部は、
    当該情報処理装置と前記端点とを通る基準直線から、前記第1物体の外側に向かって所定角度の範囲を、前記近傍領域として設定する、
    請求項3に記載の情報処理装置。
  5. 前記近傍領域は、
    前記基準直線から前記第1物体の外側に向かって、水平方向および鉛直方向の少なくとも一方に前記所定角度の範囲である、
    請求項4に記載の情報処理装置。
  6. 前記設定部は、
    センサによる前記点の検出限界を示す角度以上で、且つ、前記センサの走査方向における前記第1物体のサイズを示す角度以下の、前記所定角度の範囲を、前記近傍領域として設定する、
    請求項4または請求項5に記載の情報処理装置。
  7. 前記設定部は、
    前記所定角度の範囲における、当該情報処理装置からの距離が第1範囲内の領域、および、前記端点からの距離が第2範囲内の領域、の少なくとも一方と重複する領域を、前記近傍領域として設定する、
    請求項4〜請求項6の何れか1項に記載の情報処理装置。
  8. 前記設定部は、
    当該情報処理装置と前記端点との距離が大きいほど広い、前記第1範囲および前記第2範囲を設定する、請求項7に記載の情報処理装置。
  9. 前記基準点を示す出力情報を出力する出力制御部を備える、
    請求項1〜請求項8の何れか1項に記載の情報処理装置。
  10. 前記基準点に基づいて導出された前記第1物体の移動方向、移動距離、移動速度、形状、および位置の少なくとも1つを含む出力情報を出力する出力制御部を備える、
    請求項1〜請求項8の何れか1項に記載の情報処理装置。
  11. 前記出力情報を用いて、移動体の動力部を制御する動力制御部、
    を更に備える、
    請求項9または請求項10に記載の情報処理装置。
  12. 前記特定部は,
    複数の前記端点が前記基準点として特定可能である場合、特定に用いた前記近傍領域の範囲が最も狭い前記端点を、1つの前記基準点として特定する、
    請求項1〜請求項11の何れか1項に記載の情報処理装置。
  13. 前記基準点の特定に用いた前記近傍領域に基づいて、補正後の前記基準点として設定可能な補正範囲を導出する導出部と、
    前記基準点の位置を、導出した前記補正範囲内の位置に補正する補正部と、
    を備える、
    請求項1〜請求項12の何れか1項に記載の情報処理装置。
  14. 前記導出部は、
    前記基準点と前記近傍領域の周縁の少なくとも一部とに接する第1の円と、前記近傍領域と、の重複領域を、前記補正範囲として導出する、
    請求項13に記載の情報処理装置。
  15. 前記補正部は、
    前記基準点の位置を、前記補正範囲の中心位置に補正する、請求項14に記載の情報処理装置。
  16. 前記導出部は、
    前記第1の円、前記基準点を中心とした所定半径の第2の円、および、前記基準点を中心とし前記基準点から前記第2物体を構成する前記点までの距離を半径とする第3の円、の少なくとも一つと、前記近傍領域と、の重複領域を、前記補正範囲として導出する、請求項14に記載の情報処理装置。
  17. 請求項1〜請求項16の何れか1項に記載の情報処理装置を備えた移動体。
  18. 第1物体を構成する点群の端点を検出するステップと、
    前記端点の近傍領域に、当該情報処理装置からの距離が前記端点より遠い第2物体が存在する場合、前記端点を前記第1物体の基準点として特定するステップと、
    を含む情報処理方法。
  19. 第1物体を構成する点群の端点を検出するステップと、
    前記端点の近傍領域に、当該情報処理装置からの距離が前記端点より遠い第2物体が存在する場合、前記端点を前記第1物体の基準点として特定するステップと、
    をコンピュータに実行させるためのプログラム。
JP2017118798A 2017-06-16 2017-06-16 情報処理装置、移動体、情報処理方法、およびプログラム Active JP6813436B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017118798A JP6813436B2 (ja) 2017-06-16 2017-06-16 情報処理装置、移動体、情報処理方法、およびプログラム
US15/914,404 US10643348B2 (en) 2017-06-16 2018-03-07 Information processing apparatus, moving object, information processing method, and computer program product
EP18160682.3A EP3416094B1 (en) 2017-06-16 2018-03-08 Information processing apparatus, information processing method, and computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017118798A JP6813436B2 (ja) 2017-06-16 2017-06-16 情報処理装置、移動体、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2019002839A true JP2019002839A (ja) 2019-01-10
JP6813436B2 JP6813436B2 (ja) 2021-01-13

Family

ID=61599045

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017118798A Active JP6813436B2 (ja) 2017-06-16 2017-06-16 情報処理装置、移動体、情報処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US10643348B2 (ja)
EP (1) EP3416094B1 (ja)
JP (1) JP6813436B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023167071A1 (ja) * 2022-03-02 2023-09-07 三菱造船株式会社 情報処理装置、監視装置、情報処理方法及びプログラム
JP7346659B1 (ja) 2022-05-24 2023-09-19 株式会社ジャパン・インフラ・ウェイマーク 移動体、制御方法、およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012237579A (ja) * 2011-05-10 2012-12-06 Honda Motor Co Ltd 車両用物体検知装置
JP2014524016A (ja) * 2011-06-24 2014-09-18 ソフトキネティック ソフトウェア 深度測定の品質の向上
JP2016125999A (ja) * 2014-12-26 2016-07-11 株式会社デンソー ピッチング判定装置
JP2016222377A (ja) * 2015-05-28 2016-12-28 株式会社東芝 荷役装置及びその動作方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4082286B2 (ja) 2003-06-16 2008-04-30 日産自動車株式会社 前方物***置検出装置
CN102472817B (zh) 2009-07-31 2014-02-26 本田技研工业株式会社 车用物体探测装置和车用物体探测方法
JP6265095B2 (ja) 2014-09-24 2018-01-24 株式会社デンソー 物体検出装置
KR101778558B1 (ko) * 2015-08-28 2017-09-26 현대자동차주식회사 물체 인식 장치, 그를 가지는 차량 및 그 제어 방법
JP6685836B2 (ja) 2016-05-30 2020-04-22 株式会社東芝 情報処理装置、および、情報処理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012237579A (ja) * 2011-05-10 2012-12-06 Honda Motor Co Ltd 車両用物体検知装置
JP2014524016A (ja) * 2011-06-24 2014-09-18 ソフトキネティック ソフトウェア 深度測定の品質の向上
JP2016125999A (ja) * 2014-12-26 2016-07-11 株式会社デンソー ピッチング判定装置
JP2016222377A (ja) * 2015-05-28 2016-12-28 株式会社東芝 荷役装置及びその動作方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023167071A1 (ja) * 2022-03-02 2023-09-07 三菱造船株式会社 情報処理装置、監視装置、情報処理方法及びプログラム
JP7346659B1 (ja) 2022-05-24 2023-09-19 株式会社ジャパン・インフラ・ウェイマーク 移動体、制御方法、およびプログラム
JP2023172736A (ja) * 2022-05-24 2023-12-06 株式会社ジャパン・インフラ・ウェイマーク 移動体、制御方法、およびプログラム

Also Published As

Publication number Publication date
JP6813436B2 (ja) 2021-01-13
EP3416094A1 (en) 2018-12-19
US10643348B2 (en) 2020-05-05
US20180365854A1 (en) 2018-12-20
EP3416094B1 (en) 2024-06-05

Similar Documents

Publication Publication Date Title
US11719788B2 (en) Signal processing apparatus, signal processing method, and program
US11250288B2 (en) Information processing apparatus and information processing method using correlation between attributes
CN110458854B (zh) 一种道路边缘检测方法和装置
US10565721B2 (en) Information processing device and information processing method for specifying target point of an object
JP6696697B2 (ja) 情報処理装置、車両、情報処理方法およびプログラム
US10909411B2 (en) Information processing apparatus, information processing method, and computer program product
US10885353B2 (en) Information processing apparatus, moving object, information processing method, and computer program product
US11222438B2 (en) Information processing apparatus, vehicle, and information processing method for presence probability of object
WO2020185489A1 (en) Sensor validation using semantic segmentation information
US20210004566A1 (en) Method and apparatus for 3d object bounding for 2d image data
US11204610B2 (en) Information processing apparatus, vehicle, and information processing method using correlation between attributes
US20190318176A1 (en) Information processing apparatus, information processing method, and computer program product
US10789488B2 (en) Information processing device, learned model, information processing method, and computer program product
US20190065878A1 (en) Fusion of radar and vision sensor systems
JP6813436B2 (ja) 情報処理装置、移動体、情報処理方法、およびプログラム
JP2023068009A (ja) 地図情報作成方法
JP2021170029A (ja) 測定装置、測定方法およびプログラム
JP7064400B2 (ja) 物体検知装置
CN112179360B (zh) 地图生成方法、装置、***及介质
US20210231799A1 (en) Object detection device, object detection method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190813

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201217

R151 Written notification of patent or utility model registration

Ref document number: 6813436

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151