JP2013008315A - Pedestrian recognition device - Google Patents
Pedestrian recognition device Download PDFInfo
- Publication number
- JP2013008315A JP2013008315A JP2011142079A JP2011142079A JP2013008315A JP 2013008315 A JP2013008315 A JP 2013008315A JP 2011142079 A JP2011142079 A JP 2011142079A JP 2011142079 A JP2011142079 A JP 2011142079A JP 2013008315 A JP2013008315 A JP 2013008315A
- Authority
- JP
- Japan
- Prior art keywords
- pedestrian
- recognition
- recognition device
- time
- pedestrian recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は歩行者認識装置に関する。 The present invention relates to a pedestrian recognition device.
特許文献1には、ナビゲーション装置からVICS受信装置の出力を用いて自車両周辺の環境を判定し、当該判定の結果を用いて環境に対応する基準パターンを選択し、当該選択した基準パターンから歩行者を認識する歩行者認識装置が開示されている。 In Patent Document 1, the environment around the host vehicle is determined using the output of the VICS receiver from the navigation device, the reference pattern corresponding to the environment is selected using the result of the determination, and walking from the selected reference pattern is performed. A pedestrian recognition device for recognizing a person is disclosed.
しかしながら、各時刻における周辺環境に基づいて基準パターンを選択しているので、基準パターンの選択精度に改善の余地があるという問題点があった。 However, since the reference pattern is selected based on the surrounding environment at each time, there is a problem that there is room for improvement in the selection accuracy of the reference pattern.
本発明は、上記の事情に鑑みてなされたものであって、認識条件の決定精度の向上と共に、計算時間の短縮を実現することができる歩行者認識装置を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a pedestrian recognition device capable of improving the determination accuracy of recognition conditions and reducing the calculation time.
本発明は、検出された歩行者情報および歩行者認識のために用意された認識条件に基づいて歩行者を認識する歩行者認識装置であって、検出された周辺環境に関する時系列の環境データに基づいて、前記歩行者認識で用いる前記認識条件を決定すること、を特徴とする。なお、前記時系列の前記環境データに基づいて周辺の交通環境を認識し、当該認識した当該交通環境に関するデータに基づいて、前記歩行者認識で用いる前記認識条件を決定するという構成としても良い。また、前記時系列の前記環境データおよび前記決定した前記認識条件に基づいて、前記歩行者を認識するという構成としても良い。また、前記決定した前記認識条件および前記歩行者認識で得られた認識結果に基づいて、前記歩行者の飛び出しを判定するという構成としても良い。また、前記時系列の前記環境データに基づいて歩行者信号の変化を検出し、前記歩行者信号が青点滅になったという変化が検出された場合には、当該青点滅の際に起こり易い歩行者飛び出し姿勢を検出し易い前記認識条件を決定するという構成としても良い。また、前記時系列の前記環境データに基づいて対向車列の変化を検出し、前記対向車列が途切れたという変化が検出された場合には、当該途切れの際に起こり易い歩行者飛び出し姿勢を検出し易い前記認識条件を決定するという構成としても良い。 The present invention relates to a pedestrian recognition device that recognizes a pedestrian based on detected pedestrian information and recognition conditions prepared for pedestrian recognition, and includes time-series environmental data related to the detected surrounding environment. Based on the above, the recognition condition used in the pedestrian recognition is determined. In addition, it is good also as a structure which recognizes the surrounding traffic environment based on the said environment data of the said time series, and determines the said recognition conditions used by the said pedestrian recognition based on the recognized data regarding the said traffic environment. Moreover, it is good also as a structure which recognizes the said pedestrian based on the said environmental data of the said time series, and the said determined recognition conditions. Moreover, it is good also as a structure of judging the popping-out of the said pedestrian based on the determined said recognition conditions and the recognition result obtained by the said pedestrian recognition. Further, when a change in the pedestrian signal is detected based on the environmental data in the time series, and a change in which the pedestrian signal has blinked blue is detected, walking that is likely to occur at the time of the blue blinking. A configuration may be adopted in which the recognition condition that makes it easy to detect the person jumping out posture is determined. Further, when a change in the oncoming vehicle train is detected based on the time-series environmental data and a change in which the oncoming vehicle has been interrupted is detected, a pedestrian jumping posture that is likely to occur at the time of the interruption is detected. The recognition condition that is easy to detect may be determined.
本発明は、検出された周辺環境に関する時系列の環境データに基づいて、歩行者認識で用いる認識条件を決定するので、認識条件の決定精度の向上と共に、計算時間の短縮を実現することができるという効果を奏する。 Since the present invention determines the recognition conditions used for pedestrian recognition based on the time-series environmental data regarding the detected surrounding environment, it is possible to improve the determination accuracy of the recognition conditions and reduce the calculation time. There is an effect.
以下に、本発明にかかる歩行者認識装置の実施形態および当該歩行者認識装置を包含する歩行者飛出認識装置の実施形態を図面に基づいて詳細に説明する。なお、これらの実施形態により本発明が限定されるものではない。 EMBODIMENT OF THE INVENTION Below, embodiment of the pedestrian recognition apparatus concerning this invention and embodiment of the pedestrian jumping recognition apparatus containing the said pedestrian recognition apparatus are described in detail based on drawing. Note that the present invention is not limited to these embodiments.
〔第1実施形態〕
第1実施形態にかかる歩行者認識装置の構成および当該歩行者認識装置で実行される動作について、図1および図2を参照して詳細に説明する。
[First Embodiment]
The configuration of the pedestrian recognition device according to the first embodiment and the operation executed by the pedestrian recognition device will be described in detail with reference to FIGS. 1 and 2.
図1は、第1実施形態にかかる歩行者認識装置の構成の一例を示すブロック図である。歩行者認識装置1は、例えば汎用のパーソナルコンピュータなどを用いて構成されたものであり、車両に搭載されているカメラ3、測距センサ4、ライトスイッチ5、ワイパースイッチ6、照度センサ7、外部通信装置8、GPS受信装置9、および地図データ記憶装置10と通信可能に接続されている。
FIG. 1 is a block diagram illustrating an example of the configuration of the pedestrian recognition device according to the first embodiment. The pedestrian recognition device 1 is configured using, for example, a general-purpose personal computer, and includes a
カメラ3は、自車両周辺を撮影し、自車両周辺が写し出されている画像データを生成する機器である。測距センサ4は、自車両周辺の障害物(例えば歩行者など)との距離を測り、当該距離に関する測距データを生成するセンサである。ライトスイッチ5は、車両に搭載されているランプの灯火状態を運転者に変更させるためのスイッチである。ワイパースイッチ6は、ワイパーの動作状態を運転者に変更させるためのスイッチである。照度センサ7は、自車両周辺の照度を測り、当該照度に関する照度データを生成するセンサである。外部通信装置8は、自車両外部との通信を行う装置である。GPS受信装置9は、GPS(Global Positioning System)衛星から発信された電波を受信し、自車両の位置(具体的には、緯度、経度、または高度など)を測り、当該位置に関する位置データ(GPSデータ)を生成する装置である。地図データ記憶装置10は、地図データが記憶されている装置である。
The
歩行者認識装置1は、制御部12および記憶部14を備えている。制御部12は、歩行者認識装置1を統括的に制御するためのものであり、例えばCPU(Central Processing Unit)などである。記憶部14は、データを記憶するためのものであり、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、またはハードディスクなどである。
The pedestrian recognition device 1 includes a
記憶部14は、環境データ記憶部14aおよび選択対象記憶部14bを備えている。環境データ記憶部14aは、自車両周辺の環境に関する環境データ(具体的には、画像データ、測距データ、ライトスイッチ5の設定状態に関するライトデータ、ワイパースイッチ6の設定状態に関するワイパーデータ、照度データ、位置データ、または自車両周辺の地図データなど)を時系列で格納するためのものである。選択対象記憶部14bには、変化する様々な交通環境において起こり易い歩行者姿勢(例えば、前傾、上体の向き、脚の前後方向への開き、または脚の左右方向への開き等)を検出し易い学習済み識別器群または歩行者認識用テンプレート(画像)群が格納されている。
The
制御部12は、保存部12a、環境認識部12b、選択部12c、および歩行者認識部12dを備えている。保存部12aは、予め入力された環境データを、環境データ記憶部14aに時系列で保存する。環境認識部12bは、環境データ記憶部14aに保存されている時系列の環境データに基づいて、自車両周辺の交通環境(例えば、自車両周辺の障害物の位置変化、または自車両が走行している道路の形状など)の認識を行う。選択部12cは、環境認識部12bでの認識結果に基づいて、選択対象記憶部14bに格納されている学習済み識別器群または歩行者認識用テンプレート群の中から、歩行者認識で用いる学習済み識別器または歩行者認識用テンプレートを選択する。歩行者認識部12dは、環境データ記憶部14aに保存されている時系列の環境データ、および選択部12cで選択された学習済み識別器または歩行者認識用テンプレートに基づいて、自車両周辺の歩行者の認識を行う。
The
図2は、歩行者認識装置1で実行される動作の一例を示すフローチャートである。まず、保存部12aは、予め入力された環境データを、環境データ記憶部14aに時系列で保存する(ステップSA1)。
FIG. 2 is a flowchart illustrating an example of an operation executed by the pedestrian recognition device 1. First, the
つぎに、環境認識部12bは、環境データ記憶部14aに保存されている時系列の環境データに基づいて、自車両周辺の交通環境を認識する(ステップSA2)。例えば、環境認識部12bは、時系列の測距データから、認識前の歩行者の位置変化を認識する。また、例えば、環境認識部12bは、測距データおよび画像データを地図データとマッチングさせることで、自車両が走行している道路の形状を認識する。また、例えば、環境認識部12bは、時系列の画像データから、歩行者信号の青から赤への色変化を検出することで、歩行者信号が青から赤に変わりかけている状況を認識する。なお、環境認識部12bは、歩行者信号の色変化を検出する際、位置データおよび地図データから画像データの探索範囲(歩行者信号が写し出されている可能性が高い範囲)を絞り込み、当該絞り込まれた探索範囲から色変化を検出してもよい。これにより、歩行者信号の認識性能を上げることができる。
Next, the
つぎに、選択部12cは、ステップSA2で認識された交通環境に関するデータに基づいて、選択対象記憶部14bに記憶されている学習済み識別器群または歩行者認識用テンプレート群の中から、歩行者認識で用いる学習済み識別器または歩行者認識用テンプレートを選択する(ステップSA3)。例えば、選択部12cは、交通環境に関するデータが、歩行者信号が青から赤に変わりかけているという状況に関するものである場合には、当該変わりかけの際に起こり易い歩行者姿勢である前傾姿勢を検出し易い学習済み識別器または歩行者認識用テンプレートを選択する。
Next, the
つぎに、歩行者認識部12dは、ステップSA3で選択された学習済み識別器または歩行者認識用テンプレート、および環境データ記憶部14aに保存されている時系列の環境データに基づいて、自車両周辺の歩行者の認識を行う(ステップSA4)。例えば、歩行者認識部12dは、歩行者認識用テンプレートに写し出されている歩行者像(或る姿勢を取っている歩行者を模した像)と類似する像が時系列の画像データに写し出されているかを判定し、写し出されていると判定された場合には自車両周辺に歩行者が存在すると認識する。また、例えば、歩行者認識部12dは、時系列の画像データから特徴ベクトル(特徴量)を抽出し、抽出された特徴ベクトルを学習済み識別器で形成される識別面で識別することで画像データに歩行者像が写し出されているかを判定し、写し出されていると判定された場合には自車両周辺に歩行者が存在すると認識する。なお、歩行者認識部12dは、時系列の画像データ上において、歩行者像が位置する可能性が高い範囲を位置データに基づいて絞り込み、当該絞り込まれた範囲を対象として歩行者像が写し出されているかを判定してもよい。これにより、歩行者の誤検出等を少なくすることができる。
Next, the
〔第2実施形態〕
第2実施形態にかかる歩行者認識装置の構成および当該歩行者認識装置で実行される動作について、図3および図4を参照して詳細に説明する。なお、第1実施形態で説明した内容と重複するものについては省略する場合がある。
[Second Embodiment]
The configuration of the pedestrian recognition device according to the second embodiment and the operation executed by the pedestrian recognition device will be described in detail with reference to FIGS. 3 and 4. In addition, what overlaps with the content described in the first embodiment may be omitted.
図3は、第2実施形態にかかる歩行者認識装置の構成の一例を示すブロック図である。第2実施形態にかかる歩行者認識装置1の構成は、制御部12に保存部12aが備えられていない点および記憶部14に環境データ記憶部14aが備えられていない点を除けば、第1実施形態にかかる歩行者認識装置1の構成と同じである。
FIG. 3 is a block diagram illustrating an example of a configuration of the pedestrian recognition device according to the second embodiment. The configuration of the pedestrian recognition device 1 according to the second embodiment is the same as that of the first embodiment except that the
環境認識部12bは、測距データを含む予め入力された環境データに基づいて、自車両周辺の交通環境の認識を行う。歩行者認識部12dは、測距データを含む予め入力された環境データおよび選択部12cで選択された学習済み識別器または歩行者認識用テンプレートに基づいて、自車両周辺の歩行者の認識を行う。
The
図4は、第2実施形態にかかる歩行者認識装置で実行される動作の一例を示すフローチャートである。まず、環境認識部12bは、測距データを含む予め入力された環境データに基づいて、自車両周辺の交通環境を認識する(ステップSB1)。例えば、環境認識部12bは、測距データおよび画像データを地図データとマッチングさせることで、自車両が走行している道路の形状を認識する。
FIG. 4 is a flowchart illustrating an example of an operation executed by the pedestrian recognition apparatus according to the second embodiment. First, the
つぎに、選択部12cは、ステップSB1で認識された交通環境に関するデータに基づいて、選択対象記憶部14bに記憶されている学習済み識別器群または歩行者認識用テンプレート群の中から、歩行者認識で用いる学習済み識別器または歩行者認識用テンプレートを選択する(ステップSB2)。例えば、選択部12cは、交通環境に関するデータが、自車両が走行している道路の形状に関するものであって、当該道路の形状が壁で先が見えない曲がり角である場合には、身体が半分隠れた歩行者に関する歩行者姿勢を検出し易い学習済み識別器または歩行者認識用テンプレートを選択する。また、例えば、選択部12cは、交通環境に関するデータが、自車両が走行している道路の形状に関するものであって、当該道路の形状が細い道路である場合には、背中を向けて横断歩道まで横断する歩行者に関する歩行者姿勢を検出し易い学習済み識別器または歩行者認識用テンプレートを選択する。また、例えば、選択部12cは、交通環境に関するデータが、自車両が走行している道路の形状に関するものであって、当該道路の形状が交差点である場合には、横断姿勢の歩行者に関する歩行者姿勢を検出し易い学習済み識別器または歩行者認識用テンプレートを選択する。
Next, the
つぎに、歩行者認識部12dは、ステップSB2で選択された学習済み識別器または歩行者認識用テンプレート、および測距データを含む予め入力された環境データに基づいて、自車両周辺の歩行者の認識を行う(ステップSB3)。
Next, the
〔第3実施形態〕
第3実施形態にかかる歩行者飛出認識装置の構成および当該歩行者飛出認識装置で実行される動作について、図5から図10を参照して詳細に説明する。なお、第1実施形態または第2実施形態で説明した内容と重複するものについては省略する場合がある。
[Third Embodiment]
The configuration of the pedestrian jumping recognition apparatus according to the third embodiment and the operation executed by the pedestrian jumping recognition apparatus will be described in detail with reference to FIGS. In addition, what overlaps with the content described in the first embodiment or the second embodiment may be omitted.
図5は、第3実施形態にかかる歩行者飛出認識装置の構成の一例を示すブロック図である。符号は第1実施形態で用いられたものと異なっているが、第3実施形態にかかる歩行者飛出認識装置2の構成は、第1実施形態にかかる歩行者認識装置1の構成を包含したものとなっている。具体的には、第3実施形態にかかる歩行者飛出認識装置2に備えられている保存部22aから歩行者認識部22d、環境データ記憶部24a、および選択対象記憶部24bの機能は、第1実施形態にかかる歩行者認識装置1に備えられている保存部12aから歩行者認識部12d、環境データ記憶部14a、および選択対象記憶部14bの機能と同じである。
FIG. 5 is a block diagram illustrating an example of a configuration of a pedestrian jumping recognition apparatus according to the third embodiment. Although the code | symbol differs from what was used in 1st Embodiment, the structure of the pedestrian jumping recognition apparatus 2 concerning 3rd Embodiment included the structure of the pedestrian recognition apparatus 1 concerning 1st Embodiment. It has become a thing. Specifically, the functions of the
判定部22eは、選択部22cで選択された学習済み識別器または歩行者認識用テンプレート、および歩行者認識部22dでの認識結果に基づいて、歩行者飛び出しの判定を行う。
The
図6は、第3実施形態にかかる歩行者飛出認識装置で実行される動作の一例を示すフローチャートである。まず、保存部22aは、予め入力された環境データを、環境データ記憶部24aに時系列で保存する(ステップSC1)。
FIG. 6 is a flowchart illustrating an example of an operation executed by the pedestrian jumping recognition apparatus according to the third embodiment. First, the
つぎに、環境認識部22bは、環境データ記憶部24aに保存されている時系列の環境データに基づいて、自車両周辺の交通環境を認識する(ステップSC2)。例えば、環境認識部22bは、時系列の画像データに基づいて歩行者信号の変化を検出する。また、例えば、環境認識部22bは、時系列の画像データに基づいて対向車列の変化を検出する。
Next, the
つぎに、選択部22cは、ステップSC2で認識された交通環境に関するデータに基づいて、選択対象記憶部24bに記憶されている学習済み識別器群または歩行者認識用テンプレート群の中から、歩行者認識で用いる(歩行者飛び出し姿勢を判定する)学習済み識別器または歩行者認識用テンプレートを選択する(ステップSC3)。例えば、ステップSC2で歩行者信号が青点滅になったという変化が検出された場合には、選択部22cは、当該青点滅の際に起こり易い例えば図7から図10に示すような歩行者飛び出し姿勢を検出し易い学習済み識別器または歩行者認識用テンプレートを選択する。また、例えば、ステップSC2で対向車列が途切れたという変化が検出された場合には、選択部22cは、当該途切れの際に起こり易い例えば図7から図10に示すような歩行者飛び出し姿勢を検出し易い学習済み識別器または歩行者認識用テンプレートを選択する。
Next, the
つぎに、歩行者認識部22dは、ステップSC3で選択された学習済み識別器または歩行者認識用テンプレート、および環境データ記憶部24aに保存されている時系列の環境データに基づいて、自車両周辺の歩行者の認識を行う(ステップSC4)。
Next, the
つぎに、判定部22eは、ステップSC3で選択された学習済み識別器または歩行者認識用テンプレート、およびステップSC4で認識された歩行者に関するデータ(画像データ)に基づいて、歩行者飛び出しの判定を行う(ステップSC5)。例えば、ステップSC3で、歩行者信号が青点滅の際に起こり易い歩行者飛び出し姿勢を検出し易い学習済み識別器または歩行者認識用テンプレートが選択された場合には、判定部22eは、自車両左折時の歩行者飛び出しを判定することになるので、自車両左折時の歩行者巻き込みを防止することができる。また、例えば、ステップSC3で、対向車列が途切れた際に起こり易い歩行者飛び出し姿勢を検出し易い学習済み識別器または歩行者認識用テンプレートが選択された場合には、判定部22eは、対向車列の途切れからの歩行者飛び出しを判定することになるので、当該途切れからの歩行者飛び出しを素早く認識することができる。
Next, the
〔実施形態のまとめ〕
以上、上述した実施形態によれば、歩行者の認識方法を、周囲の環境の時系列変化に応じて変えることにより、歩行者認識の精度を向上させる。具体的には、検出された周辺環境に関する時系列の環境データに基づいて、歩行者認識で用いる認識条件(例えば、歩行者形状に基づいて動作予測を行う場合に用いられる識別器もしくはテンプレート、または脚開度W/身長Hに基づいて動作予測を行う場合における当該W/Hの閾値(特開2007−264778号公報参照)など)を決定する。より具体的には、時系列の環境データに基づいて、照合する識別器もしくはテンプレートの候補の絞り込み、または脚開度W/身長Hの閾値の決定などを行う。これにより、認識条件の決定精度または選択精度を向上できると共に、計算時間を短縮することができる。
[Summary of Embodiment]
As mentioned above, according to embodiment mentioned above, the precision of pedestrian recognition is improved by changing the recognition method of a pedestrian according to the time-sequential change of the surrounding environment. Specifically, based on the time-series environmental data regarding the detected surrounding environment, recognition conditions used in pedestrian recognition (for example, a discriminator or template used when performing motion prediction based on the pedestrian shape, or The threshold value of W / H when performing motion prediction based on the leg opening W / height H (see Japanese Patent Application Laid-Open No. 2007-264778) is determined. More specifically, based on time-series environmental data, narrowing down of discriminators or template candidates to be collated or determination of leg opening W / height H threshold values are performed. Thereby, the determination accuracy or selection accuracy of the recognition condition can be improved and the calculation time can be shortened.
また、上述した実施形態によれば、時系列の環境データに基づいて周辺の交通環境を認識し、当該認識した当該交通環境に関するデータに基づいて、歩行者認識で用いる認識条件を決定するので、交通環境に適した認識条件を決定または選択することができる。また、上述した実施形態によれば、時系列の環境データおよび決定した認識条件に基づいて、歩行者を認識するので、歩行者の認識精度も向上できる。また、上述した実施形態によれば、決定した認識条件および歩行者認識で得られた認識結果に基づいて、歩行者の飛び出しを判定するので、歩行者飛び出しの判定精度も向上できる。また、上述した実施形態によれば、時系列の環境データに基づいて歩行者信号の変化を検出し、歩行者信号が青点滅になったという変化が検出された場合には、当該青点滅の際に起こり易い歩行者飛び出し姿勢を検出し易い認識条件を決定するので、歩行者信号が青点滅という交通環境に適した認識条件を決定または選択することができる。また、上述した実施形態によれば、時系列の環境データに基づいて対向車列の変化を検出し、対向車列が途切れたという変化が検出された場合には、当該途切れの際に起こり易い歩行者飛び出し姿勢を検出し易い認識条件を決定するので、対向車列が途切れたという交通環境に適した認識条件を決定または選択することができる。 In addition, according to the above-described embodiment, the surrounding traffic environment is recognized based on time-series environmental data, and the recognition conditions used for pedestrian recognition are determined based on the recognized data related to the traffic environment. Recognition conditions suitable for the traffic environment can be determined or selected. Further, according to the above-described embodiment, since the pedestrian is recognized based on the time-series environmental data and the determined recognition condition, the recognition accuracy of the pedestrian can be improved. Moreover, according to embodiment mentioned above, since the pedestrian jump is determined based on the determined recognition condition and the recognition result obtained by the pedestrian recognition, the determination accuracy of the pedestrian jump can be improved. In addition, according to the above-described embodiment, when a change in the pedestrian signal is detected based on time-series environmental data and a change in which the pedestrian signal has blinked blue is detected, Since the recognition condition that makes it easy to detect the pedestrian jumping posture that easily occurs is determined, it is possible to determine or select the recognition condition suitable for the traffic environment in which the pedestrian signal blinks blue. Further, according to the above-described embodiment, when a change in the oncoming vehicle train is detected based on the time-series environmental data and a change in which the oncoming vehicle is interrupted is detected, the change is likely to occur at the time of the interruption. Since the recognition condition for easily detecting the pedestrian jumping posture is determined, it is possible to determine or select the recognition condition suitable for the traffic environment in which the oncoming vehicle is interrupted.
以上のように、本発明にかかる歩行者認識装置は、自動車製造産業において有用であり、特に、車両周辺の歩行者の認識に適している。 As described above, the pedestrian recognition device according to the present invention is useful in the automobile manufacturing industry, and is particularly suitable for recognition of pedestrians around the vehicle.
1 歩行者認識装置
12 制御部
12a 保存部
12b 環境認識部
12c 選択部
12d 歩行者認識部
14 記憶部
14a 環境データ記憶部
14b 選択対象記憶部
1
12a storage unit
12b Environment Recognition Department
12c selection part
12d
14a Environmental data storage
14b Selection target storage unit
Claims (6)
検出された周辺環境に関する時系列の環境データに基づいて、前記歩行者認識で用いる前記認識条件を決定すること、
を特徴とする歩行者認識装置。 A pedestrian recognition device for recognizing a pedestrian based on detected pedestrian information and recognition conditions prepared for pedestrian recognition,
Determining the recognition conditions to be used in the pedestrian recognition based on time-series environmental data relating to the detected surrounding environment;
Pedestrian recognition device characterized by this.
前記時系列の前記環境データに基づいて周辺の交通環境を認識し、当該認識した当該交通環境に関するデータに基づいて、前記歩行者認識で用いる前記認識条件を決定すること、
を特徴とする歩行者認識装置。 In the pedestrian recognition device according to claim 1,
Recognizing the surrounding traffic environment based on the time-series environmental data, and determining the recognition conditions used in the pedestrian recognition based on the recognized data related to the traffic environment;
Pedestrian recognition device characterized by this.
前記時系列の前記環境データおよび前記決定した前記認識条件に基づいて、前記歩行者を認識すること、
を特徴とする歩行者認識装置。 In the pedestrian recognition device according to claim 1,
Recognizing the pedestrian based on the environmental data of the time series and the determined recognition condition;
Pedestrian recognition device characterized by this.
前記決定した前記認識条件および前記歩行者認識で得られた認識結果に基づいて、前記歩行者の飛び出しを判定すること、
を特徴とする歩行者認識装置。 In the pedestrian recognition device according to claim 1,
Determining the jump of the pedestrian based on the recognition condition determined and the recognition result obtained by the pedestrian recognition;
Pedestrian recognition device characterized by this.
前記時系列の前記環境データに基づいて歩行者信号の変化を検出し、前記歩行者信号が青点滅になったという変化が検出された場合には、当該青点滅の際に起こり易い歩行者飛び出し姿勢を検出し易い前記認識条件を決定すること、
を特徴とする歩行者認識装置。 In the pedestrian recognition device according to claim 4,
When a change in the pedestrian signal is detected based on the time-series environmental data and a change is detected that the pedestrian signal has blinked blue, a pedestrian jump that is likely to occur at the time of the blue blinking is detected. Determining the recognition condition that facilitates detecting the posture;
Pedestrian recognition device characterized by this.
前記時系列の前記環境データに基づいて対向車列の変化を検出し、前記対向車列が途切れたという変化が検出された場合には、当該途切れの際に起こり易い歩行者飛び出し姿勢を検出し易い前記認識条件を決定すること、
を特徴とする歩行者認識装置。 In the pedestrian recognition device according to claim 4,
A change in the oncoming vehicle train is detected based on the time-series environmental data, and when a change in the oncoming vehicle is interrupted is detected, a pedestrian jumping posture that is likely to occur at the time of the interruption is detected. Easy to determine the recognition conditions;
Pedestrian recognition device characterized by this.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011142079A JP2013008315A (en) | 2011-06-27 | 2011-06-27 | Pedestrian recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011142079A JP2013008315A (en) | 2011-06-27 | 2011-06-27 | Pedestrian recognition device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013008315A true JP2013008315A (en) | 2013-01-10 |
Family
ID=47675588
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011142079A Pending JP2013008315A (en) | 2011-06-27 | 2011-06-27 | Pedestrian recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013008315A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104008518A (en) * | 2013-02-22 | 2014-08-27 | 株式会社电装 | Object detection apparatus |
CN104050620A (en) * | 2013-03-13 | 2014-09-17 | 株式会社电装 | Object detection apparatus |
JP2014215877A (en) * | 2013-04-26 | 2014-11-17 | 株式会社デンソー | Object detection device |
CN109584632A (en) * | 2018-12-14 | 2019-04-05 | 深圳壹账通智能科技有限公司 | Road conditions method for early warning, device, computer equipment and storage medium |
JP2020201745A (en) * | 2019-06-11 | 2020-12-17 | Kddi株式会社 | Object identification device, method, and system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007128460A (en) * | 2005-11-07 | 2007-05-24 | Sumitomo Electric Ind Ltd | Collision determination system, collision determination method, computer program, and determination device |
JP2009122859A (en) * | 2007-11-13 | 2009-06-04 | Toyota Motor Corp | Object detector |
JP2009237897A (en) * | 2008-03-27 | 2009-10-15 | Daihatsu Motor Co Ltd | Image recognition device |
JP2010102437A (en) * | 2008-10-22 | 2010-05-06 | Toyota Central R&D Labs Inc | Pedestrian run-out prediction device and program |
-
2011
- 2011-06-27 JP JP2011142079A patent/JP2013008315A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007128460A (en) * | 2005-11-07 | 2007-05-24 | Sumitomo Electric Ind Ltd | Collision determination system, collision determination method, computer program, and determination device |
JP2009122859A (en) * | 2007-11-13 | 2009-06-04 | Toyota Motor Corp | Object detector |
JP2009237897A (en) * | 2008-03-27 | 2009-10-15 | Daihatsu Motor Co Ltd | Image recognition device |
JP2010102437A (en) * | 2008-10-22 | 2010-05-06 | Toyota Central R&D Labs Inc | Pedestrian run-out prediction device and program |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104008518A (en) * | 2013-02-22 | 2014-08-27 | 株式会社电装 | Object detection apparatus |
JP2014164426A (en) * | 2013-02-22 | 2014-09-08 | Denso Corp | Object detector |
US9367749B2 (en) | 2013-02-22 | 2016-06-14 | Denso Corporation | Object detection apparatus |
CN104008518B (en) * | 2013-02-22 | 2018-03-30 | 株式会社电装 | Body detection device |
CN104050620A (en) * | 2013-03-13 | 2014-09-17 | 株式会社电装 | Object detection apparatus |
JP2014178736A (en) * | 2013-03-13 | 2014-09-25 | Denso Corp | Object detection device |
CN104050620B (en) * | 2013-03-13 | 2018-02-13 | 株式会社电装 | Body detection device |
JP2014215877A (en) * | 2013-04-26 | 2014-11-17 | 株式会社デンソー | Object detection device |
CN109584632A (en) * | 2018-12-14 | 2019-04-05 | 深圳壹账通智能科技有限公司 | Road conditions method for early warning, device, computer equipment and storage medium |
JP2020201745A (en) * | 2019-06-11 | 2020-12-17 | Kddi株式会社 | Object identification device, method, and system |
JP7025372B2 (en) | 2019-06-11 | 2022-02-24 | Kddi株式会社 | Object identification device, method and system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110462543B (en) | Simulation-based method for evaluating perception requirements of autonomous vehicles | |
JP4985142B2 (en) | Image recognition apparatus and image recognition processing method of image recognition apparatus | |
JP5429380B2 (en) | Driving assistance device | |
WO2013042205A1 (en) | Pedestrian action prediction device and pedestrian action prediction method | |
CN110390240B (en) | Lane post-processing in an autonomous vehicle | |
JP5760696B2 (en) | Image recognition device | |
JP2022542246A (en) | Emergency vehicle detection | |
US11861754B2 (en) | Vehicle terminal device, service server, method, computer program, computer readable recording medium for providing driving related guidance service | |
US9779312B2 (en) | Environment recognition system | |
JP2013008315A (en) | Pedestrian recognition device | |
JPWO2013042206A1 (en) | Object change detection device and object change detection method | |
JPWO2018230492A1 (en) | Information processing apparatus, information processing method, and program | |
JP2009237898A (en) | Image recognition device | |
KR20150113589A (en) | Electronic apparatus and control method thereof | |
US20200175286A1 (en) | Processing Sensor Information for Object Detection | |
JP6411933B2 (en) | Vehicle state determination device | |
Ortiz et al. | Vehicle telematics via exteroceptive sensors: A survey | |
KR20120063657A (en) | Apparatus for protecting children pedestrian and method for protecting protecting children of the same | |
US20220092981A1 (en) | Systems and methods for controlling vehicle traffic | |
KR20160081190A (en) | Method and recording medium for pedestrian recognition using camera | |
Sung et al. | Real-time traffic light recognition on mobile devices with geometry-based filtering | |
JP2012118683A (en) | Pedestrian recognition device | |
JP2010092353A (en) | Image processing apparatus and image processing method | |
JP2010072947A (en) | Obstacle detection device | |
JP2012256241A (en) | Course evaluation device and course evaluation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130619 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140416 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140422 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140930 |