JPWO2018051459A1 - 物体検出装置および物体検出方法 - Google Patents

物体検出装置および物体検出方法 Download PDF

Info

Publication number
JPWO2018051459A1
JPWO2018051459A1 JP2017510924A JP2017510924A JPWO2018051459A1 JP WO2018051459 A1 JPWO2018051459 A1 JP WO2018051459A1 JP 2017510924 A JP2017510924 A JP 2017510924A JP 2017510924 A JP2017510924 A JP 2017510924A JP WO2018051459 A1 JPWO2018051459 A1 JP WO2018051459A1
Authority
JP
Japan
Prior art keywords
object detection
optical flow
image
unit
feature map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017510924A
Other languages
English (en)
Other versions
JP6230751B1 (ja
Inventor
友哉 澤田
友哉 澤田
三嶋 英俊
英俊 三嶋
秀明 前原
秀明 前原
守屋 芳美
芳美 守屋
一之 宮澤
一之 宮澤
彰 峯澤
彰 峯澤
百代 日野
百代 日野
夢雄 王
夢雄 王
直大 澁谷
直大 澁谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6230751B1 publication Critical patent/JP6230751B1/ja
Publication of JPWO2018051459A1 publication Critical patent/JPWO2018051459A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

画像特徴マップ生成部(3)が、カメラ(109)により連続して撮影された複数の画像から抽出した特徴量に基づいて、画像上の物体らしさの推定分布である画像特徴マップを生成する。物体検出部(4)が、画像特徴マップ生成部(3)により生成された画像特徴マップに基づいて物体を検出する。

Description

この発明は、カメラにより撮影された動画から物体を検出する物体検出装置および物体検出方法に関する。
カメラにより撮影された動画から物体を検出する技術としては、例えば、特許文献1に記載される物体検出装置が挙げられる。この装置では、物体が存在しない標準的な環境で想定される画面のオプティカルフローを生成し、カメラによって実際に撮影された動画に基づくオプティカルフローを生成して両者の差異に基づいて物体を検出している。
なお、オプティカルフローは、異なる時間に撮影された連続するフレーム画像間で対応付けられた同じ物体の移動量をベクトルで表した情報である。
特開2007−334859号公報
オプティカルフローでは、物体の位置がカメラから遠くなるにつれて撮影画像における物体の画素数が少なくなるので、物体の移動量を表すベクトルの絶対値が小さくなる。
このため、カメラから遠方の位置にある物体の画像に基づくオプティカルフローを使用した場合、物体が存在しない画像から得られたオプティカルフローとの差異が正確に得られず、物体を精度よく検出できない。すなわち、特許文献1に記載の物体検出装置では、カメラから遠方の位置にある物体を精度よく検出できないという課題があった。
この発明は上記課題を解決するもので、カメラの近傍から遠方に至るまでの範囲で物体を精度よく検出することができる物体検出装置および物体検出方法を得ることを目的とする。
この発明に係る物体検出装置は、画像特徴マップ生成部および物体検出部を備える。
この構成において、画像特徴マップ生成部は、カメラにより連続して撮影された複数の画像から抽出した特徴量に基づいて、画像上の物体らしさの推定分布を表す画像特徴マップを生成する。物体検出部は、画像特徴マップ生成部により生成された画像特徴マップに基づいて物体を検出する。
この発明によれば、画像上の物体らしさの推定分布に基づいて物体を検出するので、カメラにより撮影されたカメラの近傍から遠方に至るまでの範囲で物体を精度よく検出することができる。
この発明の実施の形態1に係る物体検出装置の機能構成を示すブロック図である。 実施の形態1に係る物体検出装置のハードウェア構成を示すブロック図である。 実施の形態1に係る物体検出装置の動作を示すフローチャートである。 図3のステップST4およびステップST5の処理の具体例を示すフローチャートである。 顕著性マップの生成処理を示すフローチャートである。 この発明の実施の形態2に係る物体検出装置の機能構成を示すブロック図である。 実施の形態2に係る物体検出装置のハードウェア構成を示すブロック図である。 実施の形態2に係る物体検出装置の動作を示すフローチャートである。 図8のステップST5cおよびステップST7cの処理の具体例を示すフローチャートである。 車両から移動体までの距離と一致率との関係を示すグラフである。
以下、この発明をより詳細に説明するため、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、この発明の実施の形態1に係る物体検出装置1の機能構成を示すブロック図である。物体検出装置1は、カメラにより撮影された動画から物体を検出する。検出対象の物体は、人、車両などの移動体であってもよく、標識などの静止物体であってもよい。
また、物体検出装置1は、図1に示すように動画撮影部2、画像特徴マップ生成部3、物体検出部4および物体認識部5を備える。
動画撮影部2は、カメラによって撮影された動画データを取得する。また、動画データは、カメラにより連続して撮影された複数の画像による画像列であり、時系列に並んだ個々の画像がフレーム画像である。
なお、カメラは、予め決められた位置に固定して設けられた固定カメラであってもよいが、車両などの移動体に搭載されたカメラであってもよい。
画像特徴マップ生成部3は、カメラにより撮影された動画データから抽出した特徴量に基づいて画像特徴マップを生成する。画像特徴マップは、画像上の物体らしさの推定分布を表すマップである。ここで、物体らしさとは、例えば、物体または何らかの対象であることの度合いである。
例えば、画像特徴マップ生成部3は、フレーム画像を段々に縮小することによって画像サイズが異なる複数の画像からなる画像ピラミッドを生成する。続いて、画像特徴マップ生成部3は、画像ピラミッドにおけるそれぞれの画像から、当該画像上の画像特徴の特徴量を抽出し、抽出した特徴量を2次元座標系にマッピングする。このマップが、当該画像における物体らしさの推定分布を示す画像特徴マップである。
物体検出部4は、画像特徴マップ生成部3により生成された画像特徴マップに基づいて物体を検出する。例えば、物体検出部4は、画像特徴マップを用いて画像上の物体を検出する。物体認識部5は、物体検出部4によって検出された物体を認識する。例えば、物体認識部5は、物体検出部4により検出された物体の形状などに基づいて物体の属性を認識する。
図1では、物体検出装置1が動画撮影部2を備える場合を示したが、動画撮影部2は、カメラ自体が備える構成であってもよい。
また、物体認識部5についても、物体検出装置1が備えずに、物体検出装置1の後段に接続された外部装置が備える構成であってもよい。
すなわち、物体検出装置1は、画像特徴マップ生成部3と物体検出部4とを少なくとも備えていればよい。
図2は、物体検出装置1のハードウェア構成を示すブロック図である。図2において、図1に示した動画撮影部2は、カメラインタフェース106を介して、カメラ109により撮影された画像列を取り込んで、データROM(Read Only Memory)101に格納する。図1に示した画像特徴マップ生成部3は、データROM101に格納された画像列を用いて画像特徴マップを生成し、生成した画像特徴マップをRAM(Random Access Memory)103に格納する。
図1に示した物体検出部4は、RAM103に格納されている画像サイズが異なる複数の画像のそれぞれに対応する推定分布を用いて物体を検出する。物体の検出結果は、ディスクコントローラ104を介して外部メモリ107に保存されるか、あるいは、ディスプレイコントローラ105を介して表示デバイス108に表示される。
また、図1に示した物体認識部5は、物体検出部4によって検出された物体の属性を認識する。物体の属性には、例えば、車両、人または二輪車といった種別が挙げられる。
なお、物体認識結果は、ディスクコントローラ104を介して外部メモリ107に保存されるか、あるいはディスプレイコントローラ105を介して表示デバイス108に表示される。
なお、ディスクコントローラ104、ディスプレイコントローラ105、カメラインタフェース106、外部メモリ107、表示デバイス108およびカメラ109は、物体検出装置1が備えていなくてもよい。すなわち、これらの装置は、物体検出装置1とは別に設けられて、物体検出装置1からデータの入出力が可能な外部装置が備えていてもよい。
なお、物体検出装置1における画像特徴マップ生成部3と物体検出部4との各機能は、処理回路により実現される。すなわち、物体検出装置1は、カメラによって連続して撮影された複数の画像から抽出した特徴量に基づいて画像特徴マップを生成し、画像特徴マップに基づいて物体を検出するための処理回路を備える。処理回路は、専用のハードウェアであってもよく、プログラムROM102に格納されたプログラムを実行するCPU(Central Processing Unit)100であってもよい。
処理回路がハードウェアである場合、処理回路は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、AISC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、または、これらを組み合わせたものが該当する。
また、画像特徴マップ生成部3および物体検出部4の各機能をそれぞれ処理回路で実現してもよいし、各機能をまとめて1つの処理回路で実現してもよい。
処理回路が、CPU100である場合、画像特徴マップ生成部3および物体検出部4の各機能は、ソフトウェア、ファームウェアまたはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアおよびファームウェアは、プログラムとして記述され、プログラムROM102に格納される。CPU100は、プログラムROM102に格納されたプログラムを読み出して実行することにより、各機能を実現する。
すなわち、物体検出装置1は、処理回路により実行されるときに画像特徴マップを生成するステップ、画像特徴マップに基づいて物体を検出するステップが結果的に実行されるプログラムを格納するためのメモリを備えている。
また、これらのプログラムは画像特徴マップ生成部3および物体検出部4の手順または方法をコンピュータに実行させるものである。
ここで、メモリとは、例えば、RAM、ROM、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)などの不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disk)などが該当する。
また、画像特徴マップ生成部3および物体検出部4の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現してもよい。
例えば、画像特徴マップ生成部3は、専用のハードウェアの処理回路でその機能を実現し、物体検出部4については、CPU100がプログラムROM102に格納されたプログラム実行することにより、その機能を実現する。
このように、処理回路は、ハードウェア、ソフトウェア、ファームウェアまたはこれらの組み合わせによって前述の機能を実現することができる。
次に動作について説明する。
図3は、物体検出装置1の動作を示すフローチャートであって、物体を検出するまでの一連の処理を示している。
動画撮影部2は、カメラ109により撮影された動画データを取り込む(ステップST1)。カメラ109による撮影が終了した場合(ステップST2;YES)、図3に示す一連の処理は終了する。すなわち、動画撮影部2による動画データの取り込みは、カメラ109による撮影が終了するまで続けられる。例えば、物体検出装置1が、車載カメラを利用した車両検出装置である場合、車両が走行している間、車載カメラによる車外の撮影が継続される。
画像特徴マップ生成部3は、カメラ109による撮影が終了していない場合(ステップST2;NO)、動画撮影部2が取り込んだ画像列を入力して、画像列中のフレーム画像を段々に縮小して画像ピラミッドを生成する(ステップST3)。ステップST3の処理は、画像列中のフレーム画像の数分繰り返し行われる。
次に、画像特徴マップ生成部3は、画像ピラミッドにおける画像サイズの異なる複数の画像から特徴量をそれぞれ抽出して画像ごとに画像特徴マップを生成する(ステップST4)。ステップST4の処理は、画像ピラミッドの数分繰り返し行われる。
物体検出部4は、画像ピラミッドにおける画像ごとに得られた画像特徴マップを1つのフレーム画像における推定結果として統合し、統合した結果に基づいて物体を検出する(ステップST5)。このようにして得られた物体の検出結果は、物体検出部4から物体認識部5に出力され、物体認識部5によって物体の属性などが認識される。
ここで、画像特徴マップに基づいた物体検出について詳細に説明する。
図4は、図3のステップST4およびステップST5の各処理の具体例を示すフローチャートである。
まず、画像特徴マップ生成部3は、動画撮影部2が取り込んだ画像列中のフレーム画像を取得し(ステップST1a)、上記画像列から同じフレーム画像を取得して反転させる(ステップST2a)。ここで、反転とは、フレーム画像における明度を反転させることを言う。すなわち、画像における暗い部分は明るい部分に変換され、明るい部分は暗い部分に変換される。
次に、画像特徴マップ生成部3は、取得したフレーム画像を段々に縮小して画像ピラミッドを生成し、さらに、反転させたフレーム画像を段々に縮小して画像ピラミッドを生成する。続いて、画像特徴マップ生成部3は、反転させていないフレーム画像についての画像ピラミッドから顕著性マップを生成し(ステップST3a)、反転させたフレーム画像についての画像ピラミッドから顕著性マップを生成する(ステップST4a)。
ここで、顕著性マップとは、画像上で周囲領域とは異なる顕著な領域をマップで表したものである。また、上記の周囲領域は、人の視覚モデルに基づいて当該画像上で人が注視すると考えられる領域である。ここで、顕著な領域は、物体らしさの推定分布に相当し、顕著性マップは、画像特徴マップの具体例と言える。
次に、物体検出部4は、画像ピラミッドにおける画像ごとに得られた顕著性マップを、1つのフレーム画像における推定結果として統合する。この処理は、反転させていないフレーム画像についての画像ピラミッドで得られた顕著性マップと、反転させたフレーム画像についての画像ピラミッドで得られた顕著性マップとの両方で行われ、さらにこれらも統合される。
続いて、物体検出部4は、顕著性マップの画像特徴と画像特徴に関する閾値とを比較して、閾値より大きい特徴量を有する領域があるか否かを判定する(ステップST5a)。
ここで、顕著性マップに閾値より大きい特徴量を有する領域がなければ(ステップST5a;NO)、物体が検出されなかったと判断されて処理が終了する。
顕著性マップに閾値より大きい特徴量を有する領域があった場合(ステップST5a;YES)、物体検出部4は、この領域を検出対象の物体がある領域として検出する(ステップST6a)。この後、物体検出部4は、このようにして抽出された領域をグルーピングして物体の検出領域として物体認識部5に出力する。
ここで、前述した顕著性マップの生成処理について詳細に説明する。
図5は、顕著性マップの生成処理を示すフローチャートである。
まず、画像特徴マップ生成部3は、処理対象の画像を、人の色の知覚レベルを近似して設計されたLab空間に変換する(ステップST1b)。
続いて、画像特徴マップ生成部3は、Lab空間に変換した画像の平均色を算出する(ステップST2b)。この平均色が、この画像の代表色となる。
次に、画像特徴マップ生成部3は、Lab空間に変換した画像にDoG(Difference of Gaussian)フィルタを適用する(ステップST3b)。これにより、DoGフィルタにおけるスケールの異なるガウシアンフィルタが当該画像の画素値に対してそれぞれ適用され、これらの差分が得られる。
人の知覚系において、網膜細胞は、中心とその周囲との差から光の強度およびエッジの方向性を知覚することが知られている。DoGフィルタは、このような網膜細胞の働きを画像処理で模したものである。
DoGフィルタにおけるガウシアンフィルタのうち、スケールの小さい方が適用されると高解像度の画像が得られるが、スケールの大きな方が適用されると、低解像度となってぼやけた画像が得られる。両画像間の画素値の差分をとることは、注目画素とその周辺画素との間で画素値の差分をとることを意味しており、周囲画素に比べて変化の大きい画像を求めることが可能となる。
続いて、画像特徴マップ生成部3は、DoGフィルタを適用した画像の色と、ステップST2bで算出した平均色との差分を算出する(ステップST4b)。これにより、平均色からのずれ幅が大きい顕著な領域が残され、この領域の周辺領域の代表色を除くことができる。このようにステップST4bにおいては、画像全体に対する大域的な顕著箇所が求められる。
なお、前述したDoGフィルタの処理では解像度が異なる画像が得られればよいので、ガウシアンフィルタに限らず、例えば画像を異なるサイズにリサイズしてから元のサイズに復元する処理を行ってもよい。
次に、画像特徴マップ生成部3は、ステップST4bで処理した画像に対して、適応的二値化フィルタを適用する(ステップST5b)。適応的二値化フィルタでは、画像全体が閾値で二値化されるのではなく、画素ごとに決めた閾値によって画素がフィルタリングされる。これにより、当該画像におけるそれぞれの画素が画素ごとの閾値と比較されて、画素値が閾値よりも大きい画素が抽出される。
なお、画素ごとの閾値は、対象の画素の近傍における明るさ情報に基づいて決定され、対象の画素の近傍が明るい場合には高い閾値が設定され、対象の画素の近傍が暗い場合は低い閾値が設定される。
次に、画像特徴マップ生成部3は、ステップST5bで抽出した顕著な画素群に対してガウシアンフィルタを適用することで、顕著な画素群による領域をマップとして求める(ステップST6b)。そして、画像特徴マップ生成部3は、上記マップを二値化する(ステップST7b)。物体検出部4は、このように二値化されたマップに基づいて物体を検出する。
なお、ステップST5bでは、ステップST4bで得られた顕著箇所からさらに局所的な顕著画素が絞り込まれる。これにより、画素に含まれる局所的な輝度変化に頑健でかつ周囲と異なる模様を有したエッジ成分を特定することが可能となる。
また、図4のステップST1aにおいて反転させていない画像を使用し、ステップST2aにおいて反転させた画像を使用するので、注目画素の周囲領域が明るい場合における暗い顕著点と、注目画素の周囲領域が暗い場合における明るい顕著点とが同様に抽出することができる。
以上のように、実施の形態1に係る物体検出装置1が、画像特徴マップ生成部3および物体検出部4を備える。この構成において、画像特徴マップ生成部3が、カメラ109により連続して撮影された複数の画像から抽出した特徴量に基づいて、画像上の物体らしさの推定分布を表す画像特徴マップを生成する。物体検出部4は、画像特徴マップ生成部3により生成された画像特徴マップに基づいて物体を検出する。
このように構成することで、画像上の物体らしさの推定分布に基づいて物体が検出されるので、カメラ109により撮影されたカメラ109の近傍から遠方に至るまでの範囲で物体を精度よく検出することができる。
物体検出装置1は、画像中の人の目につきやすい物体の領域を検出するので、例えば、看板検出、人検出、欠陥検出または車両検出に効果がある。
看板の文字は、視認性を高めるために、文字の背景部分とは異なる色で記載されている場合が多い。このため、文字部分は、物体検出装置1によって背景部分とは異なる顕著な領域として検出されやすい。
また、物体検出装置1は、背景の模様(テクスチャ)を検出せず、周囲と異なる顕著な領域を検出する。従って、人検出では、人の服装が背景と同化していない限り、人の服装が背景と異なる顕著な領域となって検出される。
さらに、物体検出装置1を用いれば、例えば、工場の搬送ライン上の部品を検出して、その数を計測することができ、物体認識部5によって認識された部品形状から部品の成形結果を判別することもできる。
構造物のひび割れなどを検出する場合、従来では、構造物の補修跡または構造物が元々有する模様なども検出されるので、これらとひび割れとを区別する処理が必要であった。
これに対して、物体検出装置1では、背景に含まれる模様は検出されないため、構造物のひび割れを容易に検出することができる。
また、物体検出装置1は、ドライブレコーダに使用されるカメラなどの車載カメラからの動画データに基づいて他の車両を検出することも可能である。この場合、画像中の背景領域とは異なる色および形状を有する物体の領域が、車両の領域として検出される。
実施の形態2.
図6は、この発明の実施の形態2に係る物体検出装置1Aの機能構成を示すブロック図である。図6において、図1と同一の構成要素には同一の符号を付して説明を省略する。
物体検出装置1Aでは、オプティカルフローの信頼度に応じて、オプティカルフローに基づいた物体検出と、画像特徴マップに基づいた物体検出とが行われる。
また、物体検出装置1Aは、図6に示すように、動画撮影部2、画像特徴マップ生成部3、物体検出部4A、物体認識部5、オプティカルフロー算出部6、信頼度算出部7およびノイズ除去部8を備える。
オプティカルフロー算出部6は、カメラにより撮影された動画データのフレーム画像間におけるオプティカルフローを算出する。
オプティカルフローは、フレーム画像間で対応付けられた同じ物体の移動量をベクトルで表した情報であり、ベクトルは画素単位で算出される。
なお、オプティカルフローは、物体の時間方向の移動情報だけでなく、空間的な連続性を考慮することで、物体の形状を特徴として反映したベクトル表記が可能である。
信頼度算出部7は、オプティカルフローの信頼度を算出する。例えば、フレーム画像間における物体の移動量を示すベクトルの大きさ、すなわち、スカラ値が信頼度として算出される。カメラの遠方にある物体は、カメラによって撮影された画像上の見かけの動きが小さくなるので、スカラ値も小さくなる。
ノイズ除去部8は、オプティカルフローのうち、カメラの移動方向に沿った方向のオプティカルフローをノイズとして除去する。例えば、車両にカメラが搭載されている場合、カメラにより撮影された画像から得られるオプティカルフローは、車両の進行方向に観測されるものが支配的となる。この方向のオプティカルフローは物体の背景領域に含まれるものであり、これに反する方向のオプティカルフローは、前景、すなわち物体がある領域に含まれるものと考えることができる。そこで、ノイズ除去部8は、この背景領域に含まれるオプティカルフローを除去する。
物体検出部4Aは、オプティカルフローの信頼度に応じて、オプティカルフローに基づいた物体検出と、画像特徴マップに基づいた物体検出とを行う。例えば、物体検出部4Aは、カメラにより撮影された画像上の領域のうち、オプティカルフローのスカラ値が閾値よりも高い領域ではオプティカルフローに基づいた物体検出を行い、上記スカラ値が閾値以下の領域では画像特徴マップに基づいた物体検出を行う。
なお、オプティカルフローに基づいた物体検出は、前述したように、物体が存在しない標準的な環境で想定される画面のオプティカルフローと、カメラによって実際に撮影された動画に基づくオプティカルフローとの差異に基づいて物体を検出するものである。
また、画像特徴マップに基づいた物体検出は実施の形態1で説明した物体検出である。
図6では物体検出装置1Aが動画撮影部2を備える場合を示したが、動画撮影部2は、カメラ自体が備える構成であってもよい。
また、物体認識部5についても、物体検出装置1Aが備えずに物体検出装置1Aの後段に接続された外部装置が備える構成であってもよい。
さらに、ノイズ除去部8は、物体検出部4Aの1つの機能であってもよい。
すなわち、物体検出装置1Aは、画像特徴マップ生成部3、物体検出部4A、オプティカルフロー算出部6および信頼度算出部7を少なくとも備えていればよい。
図7は、物体検出装置1Aのハードウェア構成を示すブロック図である。
図7において、図6に示した動画撮影部2は、カメラインタフェース206を介して、カメラ209により撮影された画像列を取り込んで、データROM201に格納する。
図6に示したオプティカルフロー算出部6は、データROM201に格納された画像列をRAM203に展開し、フレーム画像間における物体の動きベクトルを画素単位で算出する。図6に示した信頼度算出部7は、RAM203に展開されたオプティカルフローであるベクトルの絶対値(スカラ値)を算出する。
図6に示したノイズ除去部8は、RAM203に展開されている画像のうち、背景領域に含まれるオプティカルフローを除去し、前景となる物体の領域に含まれるオプティカルフローをRAM203に保持する。なお、RAM203には、物体の領域に含まれる複数のオプティカルフローが時系列に保持されるので、オプティカルフローの方向が安定していることが保証される。
図6に示した画像特徴マップ生成部3は、データROM201に格納された画像列を用いて画像特徴マップを生成し、生成した画像特徴マップをRAM203に格納する。
図6に示した物体検出部4Aは、RAM203に格納されているオプティカルフローに基づく物体検出と、画像特徴マップに基づく物体検出を行う。
また、図6に示した物体認識部5は、物体検出部4Aによって検出された物体の属性を認識する。物体の属性には、例えば、車両、人または二輪車といった種別が挙げられる。
なお、物体検出結果は、ディスクコントローラ204を介して外部メモリ207に保存されるか、あるいはディスプレイコントローラ205を介して表示デバイス208に表示される。
物体検出部4Aによる物体の検出結果と物体認識部5による物体の認識結果とは、車体制御部210に出力される。ここで、車体制御部210とは、図6における物体認識部5の後段に設けられる装置であり、ブレーキ211とステアリング212とを制御する。
例えば、車体制御部210は、物体検出装置1Aにより検出された物体と車両との衝突を回避する場合、ブレーキ211とステアリング212とを制御して衝突を回避する運転操作を行う。また、車体制御部210は、物体認識部5によって認識された物体の属性から、この物体と車両との関係で最適な運転行動を決定し、ブレーキ211とステアリング212とを制御して当該運転行動を行う。
なお、ディスクコントローラ204、ディスプレイコントローラ205、カメラインタフェース206、外部メモリ207、表示デバイス208およびカメラ209は、物体検出装置1Aが備えていなくてもよい。すなわち、これらの装置は、物体検出装置1Aとは別に設けられて、物体検出装置1Aからデータの入出力が可能な外部装置が備えていてもよい。
なお、物体検出装置1Aにおける画像特徴マップ生成部3、物体検出部4A、オプティカルフロー算出部6および信頼度算出部7の各機能は、処理回路により実現される。
すなわち、物体検出装置1Aは、上記各機能による動作を行うための処理回路を備えている。処理回路は、専用のハードウェアであってもよく、プログラムROM202に格納されたプログラムを実行するCPU200であってもよい。
処理回路がハードウェアである場合、処理回路は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、AISC、FPGA、または、これらを組み合わせたものが該当する。
また、画像特徴マップ生成部3、物体検出部4A、オプティカルフロー算出部6および信頼度算出部7の各機能をそれぞれ処理回路で実現してもよいし、各機能をまとめて1つの処理回路で実現してもよい。
処理回路が、CPU200である場合、画像特徴マップ生成部3、物体検出部4A、オプティカルフロー算出部6および信頼度算出部7の各機能は、ソフトウェア、ファームウェアまたはソフトウェアとファームウェアとの組み合わせにより実現される。
ソフトウェアおよびファームウェアは、プログラムとして記述され、プログラムROM202に格納される。CPU200は、プログラムROM202に格納されたプログラムを読み出して実行することにより、各機能を実現する。すなわち、物体検出装置1Aは、上記各機能による動作が結果的に実行されるプログラムを格納するためのメモリを備えている。また、これらのプログラムは、画像特徴マップ生成部3、物体検出部4A、オプティカルフロー算出部6および信頼度算出部7の手順または方法をコンピュータに実行させるものである。
メモリとは、実施の形態1と同様に、例えば、RAM、ROM、フラッシュメモリ、EPROM、EEPROMなどの不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVDなどが該当する。
また、画像特徴マップ生成部3、物体検出部4A、オプティカルフロー算出部6および信頼度算出部7の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現してもよい。例えば、画像特徴マップ生成部3は、専用のハードウェアの処理回路でその機能を実現し、物体検出部4A、オプティカルフロー算出部6および信頼度算出部7については、CPU200がプログラムROM202に格納されたプログラム実行することにより、その機能を実現する。このように、処理回路は、ハードウェア、ソフトウェア、ファームウェアまたはこれらの組み合わせによって前述の機能を実現することができる。
次に動作について説明する。
図8は、物体検出装置1Aの動作を示すフローチャートであり、物体を検出するまでの一連の処理を示している。
まず、動画撮影部2は、カメラ209により撮影された動画データを取り込む(ステップST1c)。ここで、カメラ209は移動可能な状態であるものとする。この状態は、例えば、カメラ209が車載カメラであり、車両とともにカメラ209が移動可能であることを意味する。なお、カメラ209は、動画を撮影しているときに移動していなくてもよい。
カメラ209による撮影が終了すると(ステップST2c;YES)、図8に示す一連の処理は終了する。すなわち、動画撮影部2による動画データの取り込みは、カメラ209による撮影が終了するまで続けられる。
オプティカルフロー算出部6は、カメラ209による撮影が終了していない場合(ステップST2c;NO)、動画撮影部2により取り込まれた画像列中のフレーム画像間におけるオプティカルフローを画素ごとに算出する(ステップST3c)。例えば、密なオプティカルフロー(Dense Optical Flow)を算出する。
次に、信頼度算出部7が、オプティカルフローのスカラ値を信頼度として算出する。
カメラ209の遠方にある物体は、カメラ209によって撮影された画像上の見かけの動きが小さくなるのでスカラ値も小さくなる。また、カメラ209を搭載する車両と等速に移動している物体から算出されたオプティカルフローのスカラ値は、非常に小さい。
信頼度算出部7は、オプティカルフローのスカラ値と閾値とを比較することによって、閾値よりもスカラ値が大きいか否かを判定する(ステップST4c)。
上記閾値としては、オプティカルフローにおける動きベクトルの絶対値を使用した判別分析法によって、画像上の領域を移動体のある領域とそれ以外の領域とに適切に分離可能な値を適応的に決定する。
スカラ値が閾値よりも大きい場合(ステップST4c;YES)、信頼度算出部7は、画像上の領域のうち、このスカラ値のオプティカルフローが得られた領域のオプティカルフローの信頼度が高いと判定する。この判定結果は、信頼度算出部7からノイズ除去部8に通知される。ノイズ除去部8は、この通知を受けると、オプティカルフローの信頼度が高い領域におけるオプティカルフローのうち、背景領域のオプティカルフローをノイズとして除去する(ステップST5c)。
一方、スカラ値が閾値以下の場合(ステップST4c;NO)、信頼度算出部7は、画像上の領域のうち、このスカラ値のオプティカルフローが得られた領域のオプティカルフローの信頼度が低いと判定する。この判定結果は、信頼度算出部7から画像特徴マップ生成部3に通知される。画像特徴マップ生成部3は、実施の形態1で示した図4および図5の処理と同様にして画像特徴マップを生成する(ステップST6c)
物体検出部4Aは、画像上の領域のうち、オプティカルフローの信頼度が高い領域ではオプティカルフローに基づいた物体検出を行い、オプティカルフローの信頼度が低い領域では画像特徴マップに基づいた物体検出を行う(ステップST7c)。
このようにして得られた物体の検出結果は、物体検出部4Aから物体認識部5に出力され、物体認識部5によって物体の属性などが認識される。
ここで、ノイズ除去部8によるノイズ除去処理について詳細に説明する。
図9は、図8のステップST5cおよびステップST7cの処理の具体例を示すフローチャートである。
まず、ノイズ除去部8は、オプティカルフローの方向成分に基づいて画像中の背景領域を分離する(ステップST1d)。
例えば、ノイズ除去部8は、k−means法を用いることにより、フレーム画像を、支配的な方向のオプティカルフローを含む領域とこれに反する方向のオプティカルフローを含む領域とに分離する。ここでは、支配的な方向のオプティカルフローが含まれる領域を背景領域とし、これに反する方向のオプティカルフローが含まれる領域を前景領域としている。
次に、ノイズ除去部8は、背景領域に含まれるオプティカルフローを除去する(ステップST2d)。例えば、ノイズ除去部8が、時系列に拡張された動的背景差分法に基づいて、背景領域に含まれるオプティカルフローを除去する。なお、動的背景差分法とは、時系列に並ぶフレーム画像から背景モデルを動的に生成して更新することで、背景領域には存在しない前景領域を求める方法である。
物体検出部4Aは、ノイズ除去部8によりノイズが除去されたフレーム画像に含まれるオプティカルフローが安定して同一方向であるか否かを時系列に確認する(ステップST3d)。例えば、物体検出部4Aは、1つ前のフレーム画像であって前景領域のノイズが除去されたフレーム画像に対し、オプティカルフローの方向を利用して次のフレーム画像での前景領域の位置を推定する。この推定結果と実際の次のフレーム画像とを足し合わせることで、物体の存在箇所領域を時系列に推定する。物体検出部4Aは、この補正処理を予め定められた繰り返し回数だけ実施する。
次に、物体検出部4Aは、ステップST3dにて時系列位置データを補正した前景領域のオプティカルフローについて、そのベクトルの絶対値が閾値よりも大きいか否かを判定する(ステップST4d)。ここで、ベクトルの絶対値が閾値以下である場合(ステップST4d;NO)、物体検出部4Aは、前景領域が移動体領域ではないと判定して処理を終了する。
一方、ベクトルの絶対値が閾値よりも大きい場合(ステップST4d;YES)、物体検出部4Aは、前景領域を移動体がある領域として検出する(ステップST5d)。
次に、物体検出部4Aは、このように抽出した領域をグルーピングして、移動体の検出領域として物体認識部5に出力する。
図10は、車両から移動体までの距離と一致率との関係を示すグラフである。図10において、横軸は、車両から移動体までの距離を示しており、縦軸は、移動体の正解位置と検出結果の位置との一致率を示している。
符号a1〜a3を付した結果が下記参考文献1に記載される従来の物体検出装置の結果であり、それ以外の結果が物体検出装置1Aの結果である。
(参考文献1)橋口典男, 東野全寿, 上野大輔, 中野泰彦, “ コンバージェンスサービスを支えるセンシング技術 ”, FUJITSU技報, Vol. 64, pp. 74−80, 2013.
上記参考文献に記載の物体検出装置は、オプティカルフロー算出結果に大きく依存するため、符号a1〜a3で示すように、車両の近傍位置でしか物体を検出できず、車両から遠方にある物体には反応できない。
これに対して、物体検出装置1Aは、物体の動きに依存しない顕著性マップに基づいて遠方の物体を検出するので、車両から100m以上離れた物体でも安定して検出することが可能である。
なお、オプティカルフロー算出部6は、動画撮影部2により取り込まれた動画データが圧縮されている場合、その圧縮情報を利用してオプティカルフローを算出してもよい。
圧縮方法の中には、動画データの動き予測を前後のフレーム画像を利用して行う方法があり、この方法を利用すれば、勾配方向が類似した動き領域をブロック単位で抽出することが可能である。この動き情報を利用することで、移動している物体のみを抽出することができる。この場合、圧縮された動画データに動き情報が含まれているため、動画を解析して新たにオプティカルフローを算出する必要がない。これにより、演算負荷を低減することができる。
以上のように、実施の形態2に係る物体検出装置1Aは、実施の形態1に係る物体検出装置1の構成に加えて、オプティカルフロー算出部6および信頼度算出部7を備える。
この構成において、物体検出部4Aは、信頼度算出部7により算出された信頼度に応じて、オプティカルフローに基づいた物体検出と、画像特徴マップに基づいた物体検出とを行う。例えば、カメラ209から遠方に物体がある場合、オプティカルフローの信頼度が低くなって画像特徴マップに基づく物体検出が行われ、カメラ209の近傍に物体がある場合には、上記信頼度が高くなってオプティカルフローに基づく物体検出が行われる。
これにより、カメラ209の近傍から遠方に至るまでの範囲で物体を精度よく検出することができる。
また、実施の形態2に係る物体検出装置1Aは、ノイズ除去部8を備える。物体検出部4Aは、画像上の領域のうち、ノイズ除去部8により除去されたオプティカルフローに反する方向のオプティカルフローが得られた領域を物体がある領域と判定する。
このように構成することで、物体がある領域を精度よく検出することができる。
なお、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせあるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
この発明に係る物体検出装置は、カメラの近傍から遠方に至るまでの範囲で物体を精度よく検出することができるので、例えば、車両検出、人検出などに好適である。
1,1A 物体検出装置、2 動画撮影部、3 画像特徴マップ生成部、4,4A
物体検出部、5 物体認識部、6 オプティカルフロー算出部、7 信頼度算出部、8 ノイズ除去部、100,200 CPU、101,201 データROM、102,202 プログラムROM、103,203 RAM、104,204 ディスクコントローラ、105,205 ディスプレイコントローラ、106,206 カメラインタフェース、107,207 外部メモリ、108,208 表示デバイス、109,209 カメラ、210 車体制御部、211 ブレーキ、212 ステアリング。
この発明に係る物体検出装置は、画像特徴マップ生成部および物体検出部を備える。この構成において、画像特徴マップ生成部は、カメラにより連続して撮影された画像列の時系列に並んだ複数の画像のそれぞれの画像から、対象画素の近傍の明るさ情報に応じて画素ごとに設定した閾値に基づいて画素値が閾値よりも大きい画素の特徴量を抽出し、抽出した特徴量をマッピングして画像上の物体らしさの推定分布を表す画像特徴マップを生成する。物体検出部は、画像特徴マップ生成部により生成された画像特徴マップの画像特徴に基づいて物体を検出する。
この発明に係る物体検出装置は、画像特徴マップ生成部および物体検出部を備える。この構成において、画像特徴マップ生成部は、カメラにより連続して撮影された画像列の時系列に並んだ複数のフレーム画像から同じフレーム画像のペアを取得して一方を反転させ、ペアのフレーム画像を段々に縮小して画像ピラミッドをそれぞれ生成し、これらの画像ピラミッドにおける画像ごとに抽出した顕著箇所の画像から、対象画素の近傍の明るさ情報に応じて画素ごとに設定した閾値に基づいて画素値が閾値よりも大きい画素を抽出し、抽出した画素群を統合してマップを生成し、ペアのフレーム画像ごとおよび画像ピラミッドにおける画像ごとにそれぞれ生成されたマップを二値化してから統合して、画像上の物体らしさの推定分布を表す画像特徴マップを、フレーム画像ごとに生成する。物体検出部は、画像特徴マップ生成部により生成された画像特徴マップの画像特徴に基づいて物体を検出する。

Claims (5)

  1. カメラにより連続して撮影された複数の画像から抽出した特徴量に基づいて、画像上の物体らしさの推定分布を表す画像特徴マップを生成する画像特徴マップ生成部と、
    前記画像特徴マップ生成部により生成された画像特徴マップに基づいて物体を検出する物体検出部と
    を備えたことを特徴とする物体検出装置。
  2. 前記カメラにより連続して撮影された複数の画像間におけるオプティカルフローを算出するオプティカルフロー算出部と、
    前記オプティカルフロー算出部により算出されたオプティカルフローについての信頼度を算出する信頼度算出部とを備え、
    前記物体検出部は、前記信頼度算出部により算出された信頼度に応じて、オプティカルフローに基づいた物体検出と、画像特徴マップに基づいた物体検出とを行うことを特徴とする請求項1記載の物体検出装置。
  3. 前記物体検出部は、画像上の領域のうち、オプティカルフローについての信頼度が閾値よりも高い領域でオプティカルフローに基づいた物体検出を行い、オプティカルフローの信頼度が前記閾値以下の領域では画像特徴マップに基づいた物体検出を行うことを特徴とする請求項2記載の物体検出装置。
  4. オプティカルフローのうち、カメラの移動方向に沿った方向のオプティカルフローを、物体の背景領域に含まれるオプティカルフローとして除去するノイズ除去部を備え、
    前記物体検出部は、画像上の領域のうち、前記ノイズ除去部により除去されたオプティカルフローに反する方向のオプティカルフローが得られた領域を、物体がある領域と判定することを特徴とする請求項2記載の物体検出装置。
  5. 画像特徴マップ生成部が、カメラによって連続して撮影された複数の画像から抽出した特徴量に基づいて、画像上の物体らしさの推定分布を表す画像特徴マップを生成するステップと、
    オプティカルフロー算出部が、前記カメラによって連続して撮影された複数の画像間におけるオプティカルフローを算出するステップと、
    信頼度算出部が、前記オプティカルフロー算出部により算出されたオプティカルフローについての信頼度を算出するステップと、
    物体検出部が、前記信頼度算出部により算出された信頼度に応じて、オプティカルフローに基づいた物体検出と、画像特徴マップに基づいた物体検出とを行うステップと
    を備えたことを特徴とする物体検出方法。
JP2017510924A 2016-09-15 2016-09-15 物体検出装置および物体検出方法 Active JP6230751B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/077268 WO2018051459A1 (ja) 2016-09-15 2016-09-15 物体検出装置および物体検出方法

Publications (2)

Publication Number Publication Date
JP6230751B1 JP6230751B1 (ja) 2017-11-15
JPWO2018051459A1 true JPWO2018051459A1 (ja) 2018-09-13

Family

ID=60321093

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017510924A Active JP6230751B1 (ja) 2016-09-15 2016-09-15 物体検出装置および物体検出方法

Country Status (5)

Country Link
US (1) US10943141B2 (ja)
JP (1) JP6230751B1 (ja)
CN (1) CN109690615A (ja)
DE (1) DE112016007131B4 (ja)
WO (1) WO2018051459A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112017007284B4 (de) * 2017-04-24 2020-08-13 Mitsubishi Electric Corporation Mitteilungssteuereinrichtung und Verfahren für Steuern von Mitteilung
US10939074B2 (en) * 2017-11-15 2021-03-02 Dean Drako Aerial imaging privacy enhancement system
US10607462B2 (en) * 2017-11-15 2020-03-31 Eagle Eye Networks, Inc. Aerial imaging privacy enhancement system
US10440229B2 (en) * 2017-11-15 2019-10-08 Dean Drako Aerial imaging privacy enhancement system
US10223611B1 (en) * 2018-03-08 2019-03-05 Capital One Services, Llc Object detection using image classification models
WO2019188392A1 (ja) * 2018-03-29 2019-10-03 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び、移動体
US10839522B2 (en) * 2018-05-11 2020-11-17 Toyota Research Institute, Inc. Adaptive data collecting and processing system and methods
WO2020196676A1 (ja) * 2019-03-26 2020-10-01 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、車両制御装置、および方法、並びにプログラム
WO2021130881A1 (ja) * 2019-12-25 2021-07-01 三菱電機株式会社 物体検出装置、モニタリング装置及び学習装置
US11922667B2 (en) 2020-04-28 2024-03-05 Rakuten Group, Inc. Object region identification device, object region identification method, and object region identification program
CN111709428B (zh) * 2020-05-29 2023-09-15 北京百度网讯科技有限公司 图像中关键点位置的识别方法、装置、电子设备及介质
JP2022099120A (ja) * 2020-12-22 2022-07-04 キヤノン株式会社 被写体追尾装置およびその制御方法
CN113486721B (zh) * 2021-06-09 2023-08-29 北京科技大学 一种基于滚动优化裂缝分类识别模型的路面裂缝检测方法
CN113807337B (zh) * 2021-08-17 2022-09-06 厦门市美亚柏科信息股份有限公司 一种基于图连通的文本检测方法、终端设备及存储介质

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3880702B2 (ja) * 1997-09-11 2007-02-14 富士重工業株式会社 画像のオプティカルフロー検出装置及び移動体の自己位置認識システム
US7587064B2 (en) * 2004-02-03 2009-09-08 Hrl Laboratories, Llc Active learning system for object fingerprinting
JP3988758B2 (ja) 2004-08-04 2007-10-10 日産自動車株式会社 移動体検出装置
JP2007069488A (ja) 2005-09-07 2007-03-22 Fujifilm Corp セルロース系樹脂フィルム及びその製造方法
JP4958279B2 (ja) 2006-05-17 2012-06-20 株式会社デンソーアイティーラボラトリ 物体検出装置
JP2009146153A (ja) 2007-12-13 2009-07-02 Fujitsu Ltd 移動体検出装置、移動体検出方法および移動体検出プログラム
JP2009229085A (ja) * 2008-03-19 2009-10-08 Nikon Corp 欠陥抽出装置、方法、プログラム
JP2009251892A (ja) 2008-04-04 2009-10-29 Fujifilm Corp オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム
JP2011028689A (ja) * 2009-07-29 2011-02-10 Sony Corp 動画抽出装置、プログラム、および動画抽出方法
JP5612915B2 (ja) 2010-06-18 2014-10-22 東芝アルパイン・オートモティブテクノロジー株式会社 移動体検出装置及び移動体検出方法
JP5642049B2 (ja) * 2011-11-16 2014-12-17 クラリオン株式会社 車両用外界認識装置およびそれを用いた車両システム
JP5792091B2 (ja) 2012-02-16 2015-10-07 富士通テン株式会社 物体検出装置及び物体検出方法
JP2013205410A (ja) * 2012-03-30 2013-10-07 Clarion Co Ltd 車両用外界認識装置およびそれを用いた車両システム
JP5917303B2 (ja) * 2012-06-05 2016-05-11 株式会社東芝 移動体検出装置、移動体検出システム、および、移動体検出方法
US9025880B2 (en) * 2012-08-29 2015-05-05 Disney Enterprises, Inc. Visual saliency estimation for images and video
JP2015056054A (ja) 2013-09-12 2015-03-23 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US10198689B2 (en) * 2014-01-30 2019-02-05 Hrl Laboratories, Llc Method for object detection in digital image and video using spiking neural networks
US10055850B2 (en) * 2014-09-19 2018-08-21 Brain Corporation Salient features tracking apparatus and methods using visual initialization

Also Published As

Publication number Publication date
US20190197345A1 (en) 2019-06-27
JP6230751B1 (ja) 2017-11-15
DE112016007131T5 (de) 2019-05-09
CN109690615A (zh) 2019-04-26
US10943141B2 (en) 2021-03-09
DE112016007131B4 (de) 2023-11-02
WO2018051459A1 (ja) 2018-03-22

Similar Documents

Publication Publication Date Title
JP6230751B1 (ja) 物体検出装置および物体検出方法
CN109788215B (zh) 图像处理装置、计算机可读存储介质以及图像处理方法
US11893789B2 (en) Deep neural network pose estimation system
JP6688277B2 (ja) プログラム、学習処理方法、学習モデル、データ構造、学習装置、および物体認識装置
CN103810475B (zh) 一种目标物识别方法及装置
JP2009048629A (ja) 検出方法
JP2012048484A (ja) 画像処理装置、画像処理方法及びプログラム
CN112950725A (zh) 一种监控相机参数标定方法及装置
CN103093198A (zh) 一种人群密度监测方法及装置
WO2018098862A1 (zh) 用于虚拟现实设备的手势识别方法、装置及虚拟现实设备
CN108229494B (zh) 网络训练方法、处理方法、装置、存储介质和电子设备
CN112435223B (zh) 目标检测方法、装置及存储介质
US10525900B2 (en) Vehicle periphery monitoring device
JP2015138319A (ja) 物体検出装置、物体検出方法、および物体検出プログラム
CN108229281B (zh) 神经网络的生成方法和人脸检测方法、装置及电子设备
CN112435278B (zh) 一种基于动态目标检测的视觉slam方法及装置
US9569674B2 (en) Movement amount estimation device, movement amount estimation method, and computer-readable recording medium storing movement amount estimation program
CN110222576B (zh) 拳击动作识别方法、装置和电子设备
Tasson et al. FPGA-based pedestrian detection under strong distortions
CN116147898A (zh) 一种汽车前照灯发光强度的检测方法及装置
CN112784817B (zh) 车辆所在车道检测方法、装置、设备及存储介质
JP2009069145A (ja) 物体検知の方法
JP2009077022A (ja) 運転支援システム及び車両
US11107197B2 (en) Apparatus for processing image blurring and method thereof
JP2018072884A (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171017

R150 Certificate of patent or registration of utility model

Ref document number: 6230751

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250