JP6519505B2 - 物体検出装置、物体検出方法、及びプログラム - Google Patents
物体検出装置、物体検出方法、及びプログラム Download PDFInfo
- Publication number
- JP6519505B2 JP6519505B2 JP2016050939A JP2016050939A JP6519505B2 JP 6519505 B2 JP6519505 B2 JP 6519505B2 JP 2016050939 A JP2016050939 A JP 2016050939A JP 2016050939 A JP2016050939 A JP 2016050939A JP 6519505 B2 JP6519505 B2 JP 6519505B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- position information
- detection
- information
- generation unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 234
- 230000010365 information processing Effects 0.000 claims description 50
- 239000000284 extract Substances 0.000 claims description 17
- 239000008186 active pharmaceutical agent Substances 0.000 description 32
- 238000000034 method Methods 0.000 description 31
- 238000012545 processing Methods 0.000 description 22
- 238000005259 measurement Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 230000007246 mechanism Effects 0.000 description 9
- 238000000605 extraction Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/653—Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2400/00—Indexing codes relating to detected, measured or calculated conditions or factors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2422/00—Indexing codes relating to the special location or mounting of sensors
- B60W2422/95—Measuring the same parameter at multiple locations of the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2710/00—Output or target parameters relating to a particular sub-units
- B60W2710/18—Braking system
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2710/00—Output or target parameters relating to a particular sub-units
- B60W2710/20—Steering systems
- B60W2710/207—Steering angle of wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2720/00—Output or target parameters relating to overall vehicle dynamics
- B60W2720/24—Direction of travel
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
センサから得られた情報から必要な情報だけを抽出する方法としては、特許文献1に開示されているような、イメージセンサなどにより得られた多数の画像信号のうち、コーナー検知やDoG(Difference of Gaussian)maximaを用いて判定された信頼度の低い画像信号を間引く方法が知られている。
本発明の一見地に係る物体検出装置は、出力部と、複数の検出部と、第1データ生成部と、第2データ生成部と、情報処理部と、を備える。出力部は、物体に向けて第1信号を出力する。複数の検出部のそれぞれは、検出面の所定の位置に配置される。複数の検出部は、第1信号が物体にて反射されることにより発生する第2信号を検出する。
第1データ生成部は、複数の第1位置情報の集合体である第1データを生成する。第1位置情報は、各検出部の配置位置を検出面上に設定された第1座標で表した座標値と、信号検知情報と、が関連付けられた情報である。信号検知情報は、各検出部において検出された第2信号に基づき算出される情報であり、少なくとも検出面と物体との距離情報を含む。
第2データ生成部は、第1データから複数の第2位置情報を抽出することで、当該複数の第2位置情報を含む第2データを生成する。第2位置情報は、物体の存在範囲を表す代表点に対応する第1位置情報である。情報処理部は、第2データを用いて、物体の存在についての情報処理を実行する。
第1データを生成後、第2データ生成部は、第1データから、物体の存在範囲を表す代表点に対応する複数の第1位置情報を、複数の第2位置情報として抽出し、当該複数の第2位置情報を含む第2データを生成する。
第2データを生成後、情報処理部は、第2データを用いて物体の存在についての情報処理を実行する。
これにより、情報処理部は、物体の検出の測定精度を保持しつつ、物体の存在に関する処理に必要な計算量を減少することで処理速度を向上できる。
これにより、複雑な計算を用いることなく、所定の方向の輪郭を表す複数の第2位置情報を抽出できる。
これにより、周囲に複数の物体が存在する場合において、物体毎に第2データを生成できる。この結果、複数の物体が存在することに対する情報処理を高速に実行できる。
◎物体に向けて第1信号を出力するステップ。
◎それぞれが検出面の所定の位置に配置された複数の検出部により、第1信号が物体にて反射されることにより発生する第2信号を検出するステップ。
◎各検出部の配置位置を検出面上に設定された第1座標で表した座標値と、当該各検出部において検出された第2信号に基づき算出される情報であり、少なくとも検出面と物体との距離情報を含む信号検知情報と、が関連付けられた複数の第1位置情報の集合体である第1データを生成するステップ。
◎第1データから、物体の存在範囲を表す代表点に対応する第1位置情報である複数の第2位置情報を抽出することで、複数の第2位置情報を含む第2データを生成するステップ。
◎第2データを用いて、物体の存在についての情報処理を実行するステップ。
(1)物体検出装置が用いられる移動体システムの構成
以下、第1実施形態に係る物体検出装置100が用いられる移動体システム1の構成について、図1を用いて説明する。図1は、物体検出装置が用いられる移動体システムの構成を示す図である。第1実施形態に係る物体検出装置100は、例えば、自動車などの移動体の運転者による操作をアシストする装置である。
その他、移動体システム1の近傍に物体Oが存在すると判定した場合には、上記のステアリングシステムなどを制御して、移動体システム1に対して当該物体Oを回避させる移動体制御信号を出力してもよい。
制御部15は、物体検出センサ14a〜14dからの検出信号を入力し、当該検出信号に基づいて、周囲に存在する物体Oと本体11との間の位置関係を決定する。制御部15の構成については、後ほど詳しく説明する。
次に、本実施形態に係る物体検出装置100にて用いられる物体検出センサ14a〜14dの構成について、図2を用いて説明する。図2は、物体検出センサの構成を示す図である。4つの物体検出センサ14a〜14dは同じ構成を有しているので、物体検出センサ14aの構成を例にとって以下説明する。
物体検出センサ14aは、出力部141を有する。出力部141は、例えば、検出対象である物体Oに向けて、赤外領域の測定光Lm(第1信号の一例)を出力する光源である。図2に示すように、本実施形態において、出力部141は、移動体システム1が移動する空間の広い範囲に広がった測定光Lmを出力することが好ましい。なぜなら、物体検出センサ14aは、移動体システム1が移動する空間の広い範囲にある物体Oを同時に検出できるからである。
複数の検出部143−1〜143−nのそれぞれには、当該検出部と外部の制御部15とを接続/切断するためのスイッチング素子(例えば、MOS−FET)が接続されている。また、スイッチング素子にはアドレス線が接続されており、アドレス線に信号が印加されたときに、当該スイッチング素子はONされ、ONされたスイッチング素子に接続された検出部と、制御部15とが信号送受信可能となる。
以下、本実施形態に係る物体検出装置100の制御部15の構成を、図3を用いて説明する。図3は、制御部の構成を示す図である。以下に説明する制御部15の各要素の機能の一部又は全部は、制御部15を構成するコンピュータシステムにて実行可能なプログラムとして実現されていてもよい。このとき、当該プログラムは、コンピュータシステムの記憶装置に形成された記憶領域に記憶されていてもよい。また、制御部15の各要素の機能の一部又は全部は、カスタムICなどによりハードウェア的に実現されていてもよい。
制御部15は、記憶部151を有する。記憶部151は、各種データを記憶する、例えば、コンピュータシステムの記憶装置に設けられた記憶領域の一部である。
次に、第1データ生成部152は、上記の時刻の差分DTから、物体Oと検出面DSとの間の距離を表す距離情報d1を、c*DT/2(c:光速)と算出する。
なお、第1位置情報は、各検出部の配置位置についての座標値と、上記の距離情報をだけでなく、検出した第2信号に関する他の情報を含んだ信号検出情報とを関連付けた情報としてもよい。
本実施形態における第2データ生成部153の位置情報抽出方法については、後ほど詳しく説明する。
具体的には、情報処理部154は、実空間データ生成部1541を有する。実空間データ生成部1541は、第2データD2から、移動体システム1が移動する実空間における検出された物体Oの配置位置を表す実空間データVDを生成する。
第3データ生成部155の処理により、異なる複数の物体Oをクラスタリングにより分離でき、その結果、複数の第3データD3が得られる。
(4−1)物体検出装置の全体的な動作
以下、移動体システム1に備わった物体検出装置100の動作について説明する。まず、物体検出装置100の全体的な動作について、図4を用いて説明する。図4は、物体検出装置の全体的な動作を示すフローチャートである。
移動体システム1が実空間を移動中の所定の時間毎に、第1データ生成部152は、物体検出センサ14a〜14dの出力部141に対して、測定光Lmを出力するよう指令する(ステップS1)。
一方、移動体システム1の直進方向の右側には、図5Bに示すような物体O3(標識が取り付けられたガードレールの形状をした物体)が存在したとする。図5Bは、移動体システムの右側に存在する物体の一例を示す図である。図5Bにおいて、横点線より上に示す図は物体O3の上面図であり、下に示す図は物体O3の正面図である。図5Bに示すように、標識は、ガードレールから移動体システム1が走行している側へ突出した状態で取り付けられている。
例えば、図6Aにおいて淡い色で示すグリッドは、距離がd1’の近傍であることを示しており、濃い色にて示すグリッドは、距離がd2’の近傍(d2’>d1’)であることを示している。最も白色にて示されるグリッドは、最も淡い色であるので最も近い距離を意味することになるが、図面表現の都合上、当該グリッド各検出部で検出された信号検知情報に含まれる距離の値が無限大(すなわち、物体Oが不存在)であることを示すことにする。
信号検知情報の値の大小は、物体Oと検出面DSとの間の距離の大小なので、第1データD1は、物体Oについての「距離画像」であると言える。
図6Aに示す例においては、第3データ生成部155が、第1座標上で近い距離にあり、さらに信号検知情報に含まれる距離がd1’の近傍である第1位置情報の集合体を、複数の第3位置情報として抽出することにより、図7Aに示すような、人の形状を第1座標(x−y座標)に投影した第3データD3−1を得る。
一方、第3データ生成部155が、第1座標上で近い距離にあり、さらに信号検知情報に含まれる距離がd2’の近傍である第1位置情報の集合体を、複数の第3位置情報として抽出することにより、図7Bに示すような、自動車の形状を第1座標(x−y座標)に投影した第3データD3−2を得る。図7A及び図7Bは、第3データの一例を示す図である。
第3データ生成部155が、第1座標上の距離が近く、信号検知情報に含まれる距離が所定の範囲内にある第1位置情報を第3位置情報として抽出して、第3データD3を生成することにより、移動体システム1の周囲に複数の物体Oが存在する場合において、物体O毎に第2データD2を生成できる。
複数の第3データD3に対して第2データD2の生成が実行された場合には、複数の第2データD2−1、D2−2、・・・が生成される。
このような第2データD2を用いて情報処理を実行することにより、情報処理部154は、ステップS6において、物体O1、O2、O3の検出の測定精度を保持しつつ、物体O1、O2、O3の存在に関する処理に必要な計算量を減少することで情報処理の処理速度を向上できる。
一方、ユーザにより動作の終了を指令されていない場合(ステップS7において「No」の場合)、制御部15は、物体検出装置100の動作を継続する。
次に、上記のステップS5における第2データD2の生成方法を、図8を用いて説明する。図8は、第2データの生成方法を示すフローチャートである。以下に示す第2データD2の生成方法は、y座標値の大きい方から小さい方向へ第1データD1を走査することにより、第1データD1から抽出すべき第1位置情報を決定する。なお最初のx座標においてy座標の走査が終了するたびに次のx座標における走査を行う。
具体的には、第2データ生成部153は、現在参照中の第1位置情報に関連付けられている信号検知情報(距離情報dij)が、所定の値以下の有限値であるか否かにより、当該第1位置情報が物体Oの存在を示すか否かを判断する。
一方、信号検知情報(距離情報dij)が所定の値以下の有限値である場合、すなわち、現在参照中の第1位置情報が物体Oの存在を示す場合(ステップS501において「Yes」の場合)、第2データ生成部153は、物体Oの存在を示す第1位置情報を、第2位置情報として抽出するか否かを判断する。
本実施形態において、第2データ生成部153は、物体Oの存在を示す第1位置情報のうち、物体Oの輪郭(特に垂直方向の輪郭)を表す第1位置情報と、検出面DSとの距離が最小である物体Oの点(領域)を表す第1位置情報と、を第2位置情報として抽出して第2データD2を生成する。
過去に参照した全ての第1位置情報が物体Oの不存在を示しており、今回の第1位置情報において初めて物体Oの存在が示された場合(ステップS502において「Yes」の場合)、第2データ生成部153は、現在参照中の第1位置情報をy軸の正方向(上部)の輪郭を表すものと判断し、それを第2位置情報として抽出する(ステップS507)。
一方、上部の輪郭を表す第1位置情報がすでに見つかっている場合(ステップS502において「No」の場合)、第2データ生成部153は、次に、現在参照中の第1位置情報が、現時点において、検出面DSとの距離が最小であることを示しているか否かを判断する(ステップS503)。
これにより、第2データ生成部153は、物体検出センサ14a〜14dにおける測定誤差などを考慮して、検出面DSとの距離が最小である物体Oの領域の形状を示す複数の第1位置情報を、第2位置情報として抽出できる。
これにより、第2データ生成部153は、物体Oの表面の凹凸ではなく、物体Oから検出面DS側へ突出した部分を示す第1位置情報を、第2位置情報として抽出できる。
具体的には、第2データ生成部153は、最初に、現時点において、下部の輪郭を表す第1位置情報として抽出された第2位置情報が存在するか否かを判断する(ステップS505)。
検出面DSまでの距離が最小である第2位置情報、及び、上部の輪郭を表す第2位置情報以外に、下部の輪郭を表す第2位置情報がさらに存在する場合(ステップS505において「Yes」の場合)、第2データ生成部153は、当該第2位置情報を第2データD2から削除し(ステップS506)、現在参照中の第1位置情報を、下部の輪郭を表す第2位置情報として抽出する(ステップS507)。
例えば、複数の検出部143−1〜143−nが、N列M行(すなわち、検出部の数n=N*M)のアレイ状に配置されている場合には、上記のステップS501〜S507が同一のy軸方向に対してM回繰り返されていたら、y軸方向の全ての第1位置情報に対して、上記のステップS501〜S507を実行したと判断する。
例えば、走査を完了した列の個数がNよりも小さく、走査を実行すべき列が残っていると判断した場合(ステップS509において「No」の場合)、第2データ生成部153は、次の列(すなわち、i+1列)の第1位置情報に対して、第2位置情報として抽出するか否かの判断を行うと決定し、プロセスは、ステップS501に戻る。
具体的には、第2データ生成部153は、物体Oの上部又は下部の輪郭を示さず、かつ、検出面DSとの距離が最小でもない第1位置情報のうち、隣接する少なくとも1つの第1位置情報が物体Oの不存在を示す第1位置情報を、第2位置情報としてさらに抽出してもよい。
図10は、隣接する少なくとも1つの第1位置情報が物体の不存在を示す第1位置情報を第2位置情報としてさらに抽出して生成された第2データの一例を示す図である。
これにより、図9A〜図10に示すように、第2データ生成部153は、物体Oから突出した部分を示す第1位置情報のみを第2位置情報として適切に抽出できている。つまり、物体Oの小さい凹凸を示す第1位置情報が第2位置情報として誤って抽出されない。
次に、上記のステップS6において実行される情報処理について、図11を用いて説明する。図11は、情報処理の流れを示すフローチャートである。以下においては、検出した物体Oと検出面DSとの間の決定した位置関係に基づいて、移動体システム1の駆動機構を制御する情報処理を例にとって説明する。
情報処理を開始すると、移動体システム1が移動する実空間における物体Oの配置位置を決定するため、実空間データ生成部1541が、第2データD2を用いて、検出された物体Oの実空間における配置位置を表す実空間データVDを生成する(ステップS601)。
具体的には、実空間データ生成部1541は、第2データD2に含まれる第2位置情報を実空間座標系(X−Y−Z座標)に展開することにより、実空間データVDを生成する。
図12に示すように、物体Oの輪郭及び検出面DS(図12では点線にて示している)までの距離が最小である第1位置情報を含む第2データD2から生成された実空間データVDは、物体検出センサ14a〜14dにて検出された物体O1、O2、O3の配置位置、形状、及び、物体の突出部分の位置と形状を、実空間座標にて適切に再現できている。すなわち、本実施形態の物体検出装置100においては、少ないデータ量の第2データD2を用いても、物体Oの検出の測定精度はほとんど低下していない。
その他、例えば、物体Oを回避するようハンドルの操舵角を制御する移動体制御信号をさらに出力してもよく、必要に応じて、エンジン及び/又は電動モータと車輪12a、12bとの間のクラッチを切断する移動体制御信号を出力してもよい。
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、発明の要旨を逸脱しない範囲で種々の変更が可能である。特に、本明細書に書かれた複数の実施形態及び変形例は必要に応じて任意に組み合せ可能である。
例えば、上記にて説明した第1実施形態における第2データの生成処理の順番は、図8のフローチャートに示す処理の順番に限られず、必要に応じて、処理の順番を入れ替えることができる。
上記の第1実施形態において、第2データ生成部153は、第1データD1をy軸方向(垂直方向)に走査することにより、第2位置情報として抽出する第1位置情報を決定していた。しかし、物体Oの輪郭を表す第1位置情報、及び、検出面DSまでの距離が最小である第1位置情報を抽出できればよいので、第2位置情報として抽出する第1位置情報を決定する際の走査方向は、y軸方向(垂直方向)に限られない。
例えば、第1データD1をx軸方向(水平方向)に走査して、抽出する第1位置情報を決定してもよい。この場合は、物体Oの左右端部の垂直方向(y軸方向)に延びる輪郭を表す第1位置情報を抽出できる。その他、第1データD1をy軸方向とx軸方向の両方向に走査して、抽出する第1位置情報を決定してもよい。
どの方向に第1データD1を走査するかは、情報処理を、物体Oの高さに基づいて実行したいのか、水平方向の長さに基づいて実行したいかなどの基準により、適宜決定できる。
例えば、自動車の形状を有する第3データD3−2(図7B)を、垂直方向に対して45°の角度を有して左上部から右下部に向かって走査して、最も端に位置する2つの第1位置情報を抽出すると、図13に示すような第2データD2−2’を生成できる。図13は、所定の方向にデータを走査して生成される第2データの一例を示す図である。
図13に示す第2データD2−2’では、自動車形状の主に左上部と右下部の輪郭を代表点として抽出できている。このように、第1データD1又は第3データD3の走査方向を任意に変更することにより、複雑な計算を用いることなく、所定の方向の輪郭を表す第2位置情報を抽出できる。
例えば、第1座標において定義されるy=Ax+Bとの関数を、第1データD1又は第3データD3の走査線を表す関数として定義できる。この関数において、傾きAがデータの走査方向を表し、切片Bが走査線を平行移動させる。
上記の関数において、例えば、切片Bを変化させることにより走査線を平行移動しつつ、取りうる値の範囲でX値又はY値を1ずつ変化して第1データD1又は第3データD3を走査し、当該関数上の最も端に存在する2つの第1位置情報又は第3位置情報を、第2位置情報として抽出することにより、第2データD2−2’を生成できる。
また、移動体システム1を駐車する場合には、特に壁などの表面からの突出物に注意する必要がある。従って、第1データD1に含まれる第1位置情報のうち、検出面DSまでの距離が最小である第1位置情報のみを抽出するか、及び/又は人の形状を有する物体Oの存在を示す第1位置情報を抽出するかして、第2データD2を生成してもよい。
11 本体
12a、12b、12c、12d 車輪
13 移動体制御部
14a、14b、14c、14d 物体検出センサ
141 出力部
143−1、143−2、143−n 検出部
145 レンズ
15 制御部
151 記憶部
152 第1データ生成部
153 第2データ生成部
154 情報処理部
1541 実空間データ生成部
1542 実空間データ出力部
155 第3データ生成部
100 物体検出装置
D1 第1データ
D2、D2−1、D2−2 第2データ
D3、D3−1、D3−2 第3データ
VD 実空間データ
Claims (7)
- 物体に向けて第1信号を出力する出力部と、
それぞれが検出面の所定の位置に配置され、前記第1信号が前記物体にて反射されることにより発生する第2信号を検出する複数の検出部と、
各検出部の配置位置を前記検出面上に設定された第1座標で表した座標値と、当該各検出部において検出された前記第2信号に基づき算出される情報であり、少なくとも前記検出面と前記物体との距離情報を含む信号検知情報と、が関連付けられた複数の第1位置情報の集合体である第1データを生成する第1データ生成部と、
前記第1データから、前記物体の存在範囲を表す代表点に対応する第1位置情報である複数の第2位置情報を抽出することで、前記複数の第2位置情報を含む第2データを生成する第2データ生成部と、
前記第2データを用いて、前記物体の存在についての情報処理を実行する情報処理部と、
を備え、
前記第2データ生成部は、前記第1データを前記第1座標における所定の方向に走査することで、当該所定の方向に関して最も端に位置する2つの第1位置情報を、前記第2位置情報として抽出する、
物体検出装置。 - 前記代表点は前記物体の輪郭を表す点である、請求項1に記載の物体検出装置。
- 前記第2データ生成部は、前記第1座標上の同一の水平線上又は垂直線上の両端に存在する2つの第1位置情報を、前記複数の第2位置情報として抽出する、請求項1又は2に記載の物体検出装置。
- 前記代表点は前記物体と前記検出面との距離が最小の点である、請求項1に記載の物体検出装置。
- 前記第1データから、隣り合う前記検出部について前記信号検知情報に含まれる前記距離情報が所定の範囲内にある前記第1位置情報を第3位置情報として抽出して、前記第1座標に1つの物体を投影する第3データを生成する第3データ生成部をさらに備え、
前記第2データ生成部は、前記第3データに含まれる前記第3位置情報を前記複数の第2位置情報として抽出する、
請求項1〜4のいずれかに記載の物体検出装置。 - 物体に向けて第1信号を出力するステップと、
それぞれが検出面の所定の位置に配置された複数の検出部により、前記第1信号が前記物体にて反射されることにより発生する第2信号を検出するステップと、
各検出部の配置位置を前記検出面上に設定された第1座標で表した座標値と、当該各検出部において検出された前記第2信号に基づき算出される情報であり、少なくとも前記検出面と前記物体との距離情報を含む信号検知情報と、が関連付けられた複数の第1位置情報の集合体である第1データを生成するステップと、
前記第1データから、前記物体の存在範囲を表す代表点に対応する第1位置情報である複数の第2位置情報を抽出することで前記複数の第2位置情報を含む第2データを生成するステップと、
前記第2データを用いて、前記物体の存在についての情報処理を実行するステップと、
を含み、
前記第2データを生成するステップは、前記第1データを前記第1座標における所定の方向に走査することで、当該所定の方向に関して最も端に位置する2つの第1位置情報を、前記第2位置情報として抽出するステップを含む、
物体検出方法。 - 請求項6に記載の物体検出方法を、コンピュータに実行させるプログラム。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016050939A JP6519505B2 (ja) | 2016-03-15 | 2016-03-15 | 物体検出装置、物体検出方法、及びプログラム |
EP16894565.7A EP3432259B1 (en) | 2016-03-15 | 2016-12-06 | Object detection device, object detection method, and program |
US15/751,877 US10657392B2 (en) | 2016-03-15 | 2016-12-06 | Object detection device, object detection method, and program |
CN201680048028.XA CN107924562B (zh) | 2016-03-15 | 2016-12-06 | 物体检测装置、物体检测方法及记录媒体 |
KR1020187004523A KR102020670B1 (ko) | 2016-03-15 | 2016-12-06 | 물체 검출 장치, 물체 검출 방법, 및 프로그램 |
PCT/JP2016/086218 WO2017158948A1 (ja) | 2016-03-15 | 2016-12-06 | 物体検出装置、物体検出方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016050939A JP6519505B2 (ja) | 2016-03-15 | 2016-03-15 | 物体検出装置、物体検出方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017167720A JP2017167720A (ja) | 2017-09-21 |
JP6519505B2 true JP6519505B2 (ja) | 2019-05-29 |
Family
ID=59850259
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016050939A Active JP6519505B2 (ja) | 2016-03-15 | 2016-03-15 | 物体検出装置、物体検出方法、及びプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US10657392B2 (ja) |
EP (1) | EP3432259B1 (ja) |
JP (1) | JP6519505B2 (ja) |
KR (1) | KR102020670B1 (ja) |
CN (1) | CN107924562B (ja) |
WO (1) | WO2017158948A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6859907B2 (ja) * | 2017-09-08 | 2021-04-14 | トヨタ自動車株式会社 | 車両制御装置 |
CN107767373A (zh) * | 2017-10-23 | 2018-03-06 | 苏州茂特斯自动化设备有限公司 | 一种芯片管脚宽度快速亚像素精度视觉检测方法 |
JP7200994B2 (ja) * | 2018-07-13 | 2023-01-10 | 株式会社ニコン | 処理装置、検出装置、処理方法、及び処理プログラム |
CN111086508A (zh) * | 2018-10-24 | 2020-05-01 | 罗伯特·博世有限公司 | 自动躲避或减轻碰撞的方法及控制***、存储介质和汽车 |
US10311324B1 (en) * | 2018-10-26 | 2019-06-04 | StradVision, Inc. | Learning method, learning device for detecting objectness by detecting bottom lines and top lines of nearest obstacles and testing method, testing device using the same |
CN118190940B (zh) * | 2024-05-20 | 2024-07-12 | 蓝冰河(常州)精密测量技术有限责任公司 | 一种物体表面一致性检测方法和*** |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10143659A (ja) * | 1996-11-06 | 1998-05-29 | Komatsu Ltd | 物体検出装置 |
JP3349060B2 (ja) * | 1997-04-04 | 2002-11-20 | 富士重工業株式会社 | 車外監視装置 |
US6256095B1 (en) * | 2000-01-21 | 2001-07-03 | Owens-Brockway Glass Container Inc. | Container sealing surface area inspection |
CN101819490A (zh) * | 2009-02-27 | 2010-09-01 | 索尼公司 | 反射检测设备、显示设备、电子设备和反射检测方法 |
JP2012022573A (ja) * | 2010-07-15 | 2012-02-02 | Toshiba Corp | 移動体検出装置 |
JP5343063B2 (ja) * | 2010-11-30 | 2013-11-13 | 京セラドキュメントソリューションズ株式会社 | 光走査装置及び画像形成装置 |
JP2012234258A (ja) | 2011-04-28 | 2012-11-29 | Sony Corp | 画像処理装置と画像処理方法およびプログラム |
JP5993564B2 (ja) * | 2011-07-13 | 2016-09-14 | 新日本無線株式会社 | 反射型フォトセンサを用いた位置検出装置 |
JP2014071323A (ja) * | 2012-09-28 | 2014-04-21 | Dainippon Printing Co Ltd | 反射防止物品 |
CN203759246U (zh) * | 2014-01-21 | 2014-08-06 | 杭州先临三维科技股份有限公司 | 点源全息图测距装置 |
-
2016
- 2016-03-15 JP JP2016050939A patent/JP6519505B2/ja active Active
- 2016-12-06 WO PCT/JP2016/086218 patent/WO2017158948A1/ja active Application Filing
- 2016-12-06 CN CN201680048028.XA patent/CN107924562B/zh active Active
- 2016-12-06 EP EP16894565.7A patent/EP3432259B1/en active Active
- 2016-12-06 US US15/751,877 patent/US10657392B2/en active Active
- 2016-12-06 KR KR1020187004523A patent/KR102020670B1/ko active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
EP3432259A4 (en) | 2019-12-04 |
WO2017158948A1 (ja) | 2017-09-21 |
CN107924562B (zh) | 2021-04-20 |
KR102020670B1 (ko) | 2019-09-10 |
EP3432259A1 (en) | 2019-01-23 |
US10657392B2 (en) | 2020-05-19 |
JP2017167720A (ja) | 2017-09-21 |
US20180232582A1 (en) | 2018-08-16 |
KR20180030167A (ko) | 2018-03-21 |
CN107924562A (zh) | 2018-04-17 |
EP3432259B1 (en) | 2023-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6519505B2 (ja) | 物体検出装置、物体検出方法、及びプログラム | |
WO2010100791A1 (ja) | 駐車支援装置 | |
US11003920B2 (en) | Detection and planar representation of three dimensional lanes in a road scene | |
JP2019008519A (ja) | 移動体検出方法、移動体学習方法、移動体検出装置、移動体学習装置、移動体検出システム、および、プログラム | |
JP7217741B2 (ja) | 演算処理装置、オブジェクト識別システム、オブジェクト識別方法、自動車、車両用灯具 | |
JP6187671B2 (ja) | 自己位置算出装置及び自己位置算出方法 | |
JPWO2018131090A1 (ja) | 車両制御装置、車両制御方法、および車両制御プログラム | |
CN107923978B (zh) | 物体检测装置、物体检测方法及记录媒体 | |
KR102519666B1 (ko) | 이미지 변환 장치 및 방법 | |
KR101995223B1 (ko) | 보행자 검출 시스템 및 모듈, 방법, 컴퓨터프로그램 | |
WO2015125297A1 (ja) | 自己位置算出装置及び自己位置算出方法 | |
CN112631266A (zh) | 一种移动机器人感知障碍信息的方法、装置 | |
JP2015011032A (ja) | 3次元物体形状及び姿勢の推定並びに追跡の方法及び装置 | |
US9813694B2 (en) | Disparity value deriving device, equipment control system, movable apparatus, robot, and disparity value deriving method | |
JP2017181476A (ja) | 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム | |
JP2015225546A (ja) | 物体検出装置、運転支援装置、物体検出方法、および物体検出プログラム | |
JP6458577B2 (ja) | 画像測距装置 | |
JP6398218B2 (ja) | 自己位置算出装置及び自己位置算出方法 | |
CN107433902B (zh) | 基于用户输入的车辆控制***及其方法 | |
CN112747757A (zh) | 用于提供雷达数据的方法和设备、计算机程序和计算机可读存储介质 | |
KR20110012317A (ko) | 빛 줄무늬 감지 방법, 목표 위치 검출 방법 및 그를 이용한 주차 보조 장치 | |
US20240242609A1 (en) | Parking information processing device, storage medium for storing computer program for processing parking information, method for processing parking information, parking information processing system, and parking information processing server | |
KR20240094055A (ko) | 차량, 차량 제어 방법, 및 차량의 주행 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171023 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181204 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190326 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190408 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6519505 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |