JPWO2018051459A1 - 物体検出装置および物体検出方法 - Google Patents
物体検出装置および物体検出方法 Download PDFInfo
- Publication number
- JPWO2018051459A1 JPWO2018051459A1 JP2017510924A JP2017510924A JPWO2018051459A1 JP WO2018051459 A1 JPWO2018051459 A1 JP WO2018051459A1 JP 2017510924 A JP2017510924 A JP 2017510924A JP 2017510924 A JP2017510924 A JP 2017510924A JP WO2018051459 A1 JPWO2018051459 A1 JP WO2018051459A1
- Authority
- JP
- Japan
- Prior art keywords
- object detection
- optical flow
- image
- unit
- feature map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
Description
なお、オプティカルフローは、異なる時間に撮影された連続するフレーム画像間で対応付けられた同じ物体の移動量をベクトルで表した情報である。
このため、カメラから遠方の位置にある物体の画像に基づくオプティカルフローを使用した場合、物体が存在しない画像から得られたオプティカルフローとの差異が正確に得られず、物体を精度よく検出できない。すなわち、特許文献1に記載の物体検出装置では、カメラから遠方の位置にある物体を精度よく検出できないという課題があった。
この構成において、画像特徴マップ生成部は、カメラにより連続して撮影された複数の画像から抽出した特徴量に基づいて、画像上の物体らしさの推定分布を表す画像特徴マップを生成する。物体検出部は、画像特徴マップ生成部により生成された画像特徴マップに基づいて物体を検出する。
実施の形態1.
図1は、この発明の実施の形態1に係る物体検出装置1の機能構成を示すブロック図である。物体検出装置1は、カメラにより撮影された動画から物体を検出する。検出対象の物体は、人、車両などの移動体であってもよく、標識などの静止物体であってもよい。
また、物体検出装置1は、図1に示すように動画撮影部2、画像特徴マップ生成部3、物体検出部4および物体認識部5を備える。
なお、カメラは、予め決められた位置に固定して設けられた固定カメラであってもよいが、車両などの移動体に搭載されたカメラであってもよい。
また、物体認識部5についても、物体検出装置1が備えずに、物体検出装置1の後段に接続された外部装置が備える構成であってもよい。
すなわち、物体検出装置1は、画像特徴マップ生成部3と物体検出部4とを少なくとも備えていればよい。
また、図1に示した物体認識部5は、物体検出部4によって検出された物体の属性を認識する。物体の属性には、例えば、車両、人または二輪車といった種別が挙げられる。
なお、物体認識結果は、ディスクコントローラ104を介して外部メモリ107に保存されるか、あるいはディスプレイコントローラ105を介して表示デバイス108に表示される。
また、画像特徴マップ生成部3および物体検出部4の各機能をそれぞれ処理回路で実現してもよいし、各機能をまとめて1つの処理回路で実現してもよい。
すなわち、物体検出装置1は、処理回路により実行されるときに画像特徴マップを生成するステップ、画像特徴マップに基づいて物体を検出するステップが結果的に実行されるプログラムを格納するためのメモリを備えている。
また、これらのプログラムは画像特徴マップ生成部3および物体検出部4の手順または方法をコンピュータに実行させるものである。
例えば、画像特徴マップ生成部3は、専用のハードウェアの処理回路でその機能を実現し、物体検出部4については、CPU100がプログラムROM102に格納されたプログラム実行することにより、その機能を実現する。
このように、処理回路は、ハードウェア、ソフトウェア、ファームウェアまたはこれらの組み合わせによって前述の機能を実現することができる。
図3は、物体検出装置1の動作を示すフローチャートであって、物体を検出するまでの一連の処理を示している。
動画撮影部2は、カメラ109により撮影された動画データを取り込む(ステップST1)。カメラ109による撮影が終了した場合(ステップST2;YES)、図3に示す一連の処理は終了する。すなわち、動画撮影部2による動画データの取り込みは、カメラ109による撮影が終了するまで続けられる。例えば、物体検出装置1が、車載カメラを利用した車両検出装置である場合、車両が走行している間、車載カメラによる車外の撮影が継続される。
図4は、図3のステップST4およびステップST5の各処理の具体例を示すフローチャートである。
まず、画像特徴マップ生成部3は、動画撮影部2が取り込んだ画像列中のフレーム画像を取得し(ステップST1a)、上記画像列から同じフレーム画像を取得して反転させる(ステップST2a)。ここで、反転とは、フレーム画像における明度を反転させることを言う。すなわち、画像における暗い部分は明るい部分に変換され、明るい部分は暗い部分に変換される。
ここで、顕著性マップに閾値より大きい特徴量を有する領域がなければ(ステップST5a;NO)、物体が検出されなかったと判断されて処理が終了する。
図5は、顕著性マップの生成処理を示すフローチャートである。
まず、画像特徴マップ生成部3は、処理対象の画像を、人の色の知覚レベルを近似して設計されたLab空間に変換する(ステップST1b)。
続いて、画像特徴マップ生成部3は、Lab空間に変換した画像の平均色を算出する(ステップST2b)。この平均色が、この画像の代表色となる。
なお、前述したDoGフィルタの処理では解像度が異なる画像が得られればよいので、ガウシアンフィルタに限らず、例えば画像を異なるサイズにリサイズしてから元のサイズに復元する処理を行ってもよい。
なお、画素ごとの閾値は、対象の画素の近傍における明るさ情報に基づいて決定され、対象の画素の近傍が明るい場合には高い閾値が設定され、対象の画素の近傍が暗い場合は低い閾値が設定される。
また、図4のステップST1aにおいて反転させていない画像を使用し、ステップST2aにおいて反転させた画像を使用するので、注目画素の周囲領域が明るい場合における暗い顕著点と、注目画素の周囲領域が暗い場合における明るい顕著点とが同様に抽出することができる。
このように構成することで、画像上の物体らしさの推定分布に基づいて物体が検出されるので、カメラ109により撮影されたカメラ109の近傍から遠方に至るまでの範囲で物体を精度よく検出することができる。
看板の文字は、視認性を高めるために、文字の背景部分とは異なる色で記載されている場合が多い。このため、文字部分は、物体検出装置1によって背景部分とは異なる顕著な領域として検出されやすい。
さらに、物体検出装置1を用いれば、例えば、工場の搬送ライン上の部品を検出して、その数を計測することができ、物体認識部5によって認識された部品形状から部品の成形結果を判別することもできる。
これに対して、物体検出装置1では、背景に含まれる模様は検出されないため、構造物のひび割れを容易に検出することができる。
図6は、この発明の実施の形態2に係る物体検出装置1Aの機能構成を示すブロック図である。図6において、図1と同一の構成要素には同一の符号を付して説明を省略する。
物体検出装置1Aでは、オプティカルフローの信頼度に応じて、オプティカルフローに基づいた物体検出と、画像特徴マップに基づいた物体検出とが行われる。
また、物体検出装置1Aは、図6に示すように、動画撮影部2、画像特徴マップ生成部3、物体検出部4A、物体認識部5、オプティカルフロー算出部6、信頼度算出部7およびノイズ除去部8を備える。
オプティカルフローは、フレーム画像間で対応付けられた同じ物体の移動量をベクトルで表した情報であり、ベクトルは画素単位で算出される。
なお、オプティカルフローは、物体の時間方向の移動情報だけでなく、空間的な連続性を考慮することで、物体の形状を特徴として反映したベクトル表記が可能である。
なお、オプティカルフローに基づいた物体検出は、前述したように、物体が存在しない標準的な環境で想定される画面のオプティカルフローと、カメラによって実際に撮影された動画に基づくオプティカルフローとの差異に基づいて物体を検出するものである。
また、画像特徴マップに基づいた物体検出は実施の形態1で説明した物体検出である。
また、物体認識部5についても、物体検出装置1Aが備えずに物体検出装置1Aの後段に接続された外部装置が備える構成であってもよい。
さらに、ノイズ除去部8は、物体検出部4Aの1つの機能であってもよい。
すなわち、物体検出装置1Aは、画像特徴マップ生成部3、物体検出部4A、オプティカルフロー算出部6および信頼度算出部7を少なくとも備えていればよい。
図7において、図6に示した動画撮影部2は、カメラインタフェース206を介して、カメラ209により撮影された画像列を取り込んで、データROM201に格納する。
図6に示したオプティカルフロー算出部6は、データROM201に格納された画像列をRAM203に展開し、フレーム画像間における物体の動きベクトルを画素単位で算出する。図6に示した信頼度算出部7は、RAM203に展開されたオプティカルフローであるベクトルの絶対値(スカラ値)を算出する。
図6に示した物体検出部4Aは、RAM203に格納されているオプティカルフローに基づく物体検出と、画像特徴マップに基づく物体検出を行う。
また、図6に示した物体認識部5は、物体検出部4Aによって検出された物体の属性を認識する。物体の属性には、例えば、車両、人または二輪車といった種別が挙げられる。
なお、物体検出結果は、ディスクコントローラ204を介して外部メモリ207に保存されるか、あるいはディスプレイコントローラ205を介して表示デバイス208に表示される。
例えば、車体制御部210は、物体検出装置1Aにより検出された物体と車両との衝突を回避する場合、ブレーキ211とステアリング212とを制御して衝突を回避する運転操作を行う。また、車体制御部210は、物体認識部5によって認識された物体の属性から、この物体と車両との関係で最適な運転行動を決定し、ブレーキ211とステアリング212とを制御して当該運転行動を行う。
すなわち、物体検出装置1Aは、上記各機能による動作を行うための処理回路を備えている。処理回路は、専用のハードウェアであってもよく、プログラムROM202に格納されたプログラムを実行するCPU200であってもよい。
また、画像特徴マップ生成部3、物体検出部4A、オプティカルフロー算出部6および信頼度算出部7の各機能をそれぞれ処理回路で実現してもよいし、各機能をまとめて1つの処理回路で実現してもよい。
ソフトウェアおよびファームウェアは、プログラムとして記述され、プログラムROM202に格納される。CPU200は、プログラムROM202に格納されたプログラムを読み出して実行することにより、各機能を実現する。すなわち、物体検出装置1Aは、上記各機能による動作が結果的に実行されるプログラムを格納するためのメモリを備えている。また、これらのプログラムは、画像特徴マップ生成部3、物体検出部4A、オプティカルフロー算出部6および信頼度算出部7の手順または方法をコンピュータに実行させるものである。
図8は、物体検出装置1Aの動作を示すフローチャートであり、物体を検出するまでの一連の処理を示している。
まず、動画撮影部2は、カメラ209により撮影された動画データを取り込む(ステップST1c)。ここで、カメラ209は移動可能な状態であるものとする。この状態は、例えば、カメラ209が車載カメラであり、車両とともにカメラ209が移動可能であることを意味する。なお、カメラ209は、動画を撮影しているときに移動していなくてもよい。
オプティカルフロー算出部6は、カメラ209による撮影が終了していない場合(ステップST2c;NO)、動画撮影部2により取り込まれた画像列中のフレーム画像間におけるオプティカルフローを画素ごとに算出する(ステップST3c)。例えば、密なオプティカルフロー(Dense Optical Flow)を算出する。
カメラ209の遠方にある物体は、カメラ209によって撮影された画像上の見かけの動きが小さくなるのでスカラ値も小さくなる。また、カメラ209を搭載する車両と等速に移動している物体から算出されたオプティカルフローのスカラ値は、非常に小さい。
上記閾値としては、オプティカルフローにおける動きベクトルの絶対値を使用した判別分析法によって、画像上の領域を移動体のある領域とそれ以外の領域とに適切に分離可能な値を適応的に決定する。
このようにして得られた物体の検出結果は、物体検出部4Aから物体認識部5に出力され、物体認識部5によって物体の属性などが認識される。
図9は、図8のステップST5cおよびステップST7cの処理の具体例を示すフローチャートである。
まず、ノイズ除去部8は、オプティカルフローの方向成分に基づいて画像中の背景領域を分離する(ステップST1d)。
例えば、ノイズ除去部8は、k−means法を用いることにより、フレーム画像を、支配的な方向のオプティカルフローを含む領域とこれに反する方向のオプティカルフローを含む領域とに分離する。ここでは、支配的な方向のオプティカルフローが含まれる領域を背景領域とし、これに反する方向のオプティカルフローが含まれる領域を前景領域としている。
次に、物体検出部4Aは、このように抽出した領域をグルーピングして、移動体の検出領域として物体認識部5に出力する。
符号a1〜a3を付した結果が下記参考文献1に記載される従来の物体検出装置の結果であり、それ以外の結果が物体検出装置1Aの結果である。
(参考文献1)橋口典男, 東野全寿, 上野大輔, 中野泰彦, “ コンバージェンスサービスを支えるセンシング技術 ”, FUJITSU技報, Vol. 64, pp. 74−80, 2013.
これに対して、物体検出装置1Aは、物体の動きに依存しない顕著性マップに基づいて遠方の物体を検出するので、車両から100m以上離れた物体でも安定して検出することが可能である。
圧縮方法の中には、動画データの動き予測を前後のフレーム画像を利用して行う方法があり、この方法を利用すれば、勾配方向が類似した動き領域をブロック単位で抽出することが可能である。この動き情報を利用することで、移動している物体のみを抽出することができる。この場合、圧縮された動画データに動き情報が含まれているため、動画を解析して新たにオプティカルフローを算出する必要がない。これにより、演算負荷を低減することができる。
この構成において、物体検出部4Aは、信頼度算出部7により算出された信頼度に応じて、オプティカルフローに基づいた物体検出と、画像特徴マップに基づいた物体検出とを行う。例えば、カメラ209から遠方に物体がある場合、オプティカルフローの信頼度が低くなって画像特徴マップに基づく物体検出が行われ、カメラ209の近傍に物体がある場合には、上記信頼度が高くなってオプティカルフローに基づく物体検出が行われる。
これにより、カメラ209の近傍から遠方に至るまでの範囲で物体を精度よく検出することができる。
このように構成することで、物体がある領域を精度よく検出することができる。
物体検出部、5 物体認識部、6 オプティカルフロー算出部、7 信頼度算出部、8 ノイズ除去部、100,200 CPU、101,201 データROM、102,202 プログラムROM、103,203 RAM、104,204 ディスクコントローラ、105,205 ディスプレイコントローラ、106,206 カメラインタフェース、107,207 外部メモリ、108,208 表示デバイス、109,209 カメラ、210 車体制御部、211 ブレーキ、212 ステアリング。
Claims (5)
- カメラにより連続して撮影された複数の画像から抽出した特徴量に基づいて、画像上の物体らしさの推定分布を表す画像特徴マップを生成する画像特徴マップ生成部と、
前記画像特徴マップ生成部により生成された画像特徴マップに基づいて物体を検出する物体検出部と
を備えたことを特徴とする物体検出装置。 - 前記カメラにより連続して撮影された複数の画像間におけるオプティカルフローを算出するオプティカルフロー算出部と、
前記オプティカルフロー算出部により算出されたオプティカルフローについての信頼度を算出する信頼度算出部とを備え、
前記物体検出部は、前記信頼度算出部により算出された信頼度に応じて、オプティカルフローに基づいた物体検出と、画像特徴マップに基づいた物体検出とを行うことを特徴とする請求項1記載の物体検出装置。 - 前記物体検出部は、画像上の領域のうち、オプティカルフローについての信頼度が閾値よりも高い領域でオプティカルフローに基づいた物体検出を行い、オプティカルフローの信頼度が前記閾値以下の領域では画像特徴マップに基づいた物体検出を行うことを特徴とする請求項2記載の物体検出装置。
- オプティカルフローのうち、カメラの移動方向に沿った方向のオプティカルフローを、物体の背景領域に含まれるオプティカルフローとして除去するノイズ除去部を備え、
前記物体検出部は、画像上の領域のうち、前記ノイズ除去部により除去されたオプティカルフローに反する方向のオプティカルフローが得られた領域を、物体がある領域と判定することを特徴とする請求項2記載の物体検出装置。 - 画像特徴マップ生成部が、カメラによって連続して撮影された複数の画像から抽出した特徴量に基づいて、画像上の物体らしさの推定分布を表す画像特徴マップを生成するステップと、
オプティカルフロー算出部が、前記カメラによって連続して撮影された複数の画像間におけるオプティカルフローを算出するステップと、
信頼度算出部が、前記オプティカルフロー算出部により算出されたオプティカルフローについての信頼度を算出するステップと、
物体検出部が、前記信頼度算出部により算出された信頼度に応じて、オプティカルフローに基づいた物体検出と、画像特徴マップに基づいた物体検出とを行うステップと
を備えたことを特徴とする物体検出方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2016/077268 WO2018051459A1 (ja) | 2016-09-15 | 2016-09-15 | 物体検出装置および物体検出方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6230751B1 JP6230751B1 (ja) | 2017-11-15 |
JPWO2018051459A1 true JPWO2018051459A1 (ja) | 2018-09-13 |
Family
ID=60321093
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017510924A Active JP6230751B1 (ja) | 2016-09-15 | 2016-09-15 | 物体検出装置および物体検出方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10943141B2 (ja) |
JP (1) | JP6230751B1 (ja) |
CN (1) | CN109690615A (ja) |
DE (1) | DE112016007131B4 (ja) |
WO (1) | WO2018051459A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112017007284B4 (de) * | 2017-04-24 | 2020-08-13 | Mitsubishi Electric Corporation | Mitteilungssteuereinrichtung und Verfahren für Steuern von Mitteilung |
US10939074B2 (en) * | 2017-11-15 | 2021-03-02 | Dean Drako | Aerial imaging privacy enhancement system |
US10607462B2 (en) * | 2017-11-15 | 2020-03-31 | Eagle Eye Networks, Inc. | Aerial imaging privacy enhancement system |
US10440229B2 (en) * | 2017-11-15 | 2019-10-08 | Dean Drako | Aerial imaging privacy enhancement system |
US10223611B1 (en) * | 2018-03-08 | 2019-03-05 | Capital One Services, Llc | Object detection using image classification models |
WO2019188392A1 (ja) * | 2018-03-29 | 2019-10-03 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、及び、移動体 |
US10839522B2 (en) * | 2018-05-11 | 2020-11-17 | Toyota Research Institute, Inc. | Adaptive data collecting and processing system and methods |
WO2020196676A1 (ja) * | 2019-03-26 | 2020-10-01 | ソニーセミコンダクタソリューションズ株式会社 | 画像処理装置、車両制御装置、および方法、並びにプログラム |
WO2021130881A1 (ja) * | 2019-12-25 | 2021-07-01 | 三菱電機株式会社 | 物体検出装置、モニタリング装置及び学習装置 |
US11922667B2 (en) | 2020-04-28 | 2024-03-05 | Rakuten Group, Inc. | Object region identification device, object region identification method, and object region identification program |
CN111709428B (zh) * | 2020-05-29 | 2023-09-15 | 北京百度网讯科技有限公司 | 图像中关键点位置的识别方法、装置、电子设备及介质 |
JP2022099120A (ja) * | 2020-12-22 | 2022-07-04 | キヤノン株式会社 | 被写体追尾装置およびその制御方法 |
CN113486721B (zh) * | 2021-06-09 | 2023-08-29 | 北京科技大学 | 一种基于滚动优化裂缝分类识别模型的路面裂缝检测方法 |
CN113807337B (zh) * | 2021-08-17 | 2022-09-06 | 厦门市美亚柏科信息股份有限公司 | 一种基于图连通的文本检测方法、终端设备及存储介质 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3880702B2 (ja) * | 1997-09-11 | 2007-02-14 | 富士重工業株式会社 | 画像のオプティカルフロー検出装置及び移動体の自己位置認識システム |
US7587064B2 (en) * | 2004-02-03 | 2009-09-08 | Hrl Laboratories, Llc | Active learning system for object fingerprinting |
JP3988758B2 (ja) | 2004-08-04 | 2007-10-10 | 日産自動車株式会社 | 移動体検出装置 |
JP2007069488A (ja) | 2005-09-07 | 2007-03-22 | Fujifilm Corp | セルロース系樹脂フィルム及びその製造方法 |
JP4958279B2 (ja) | 2006-05-17 | 2012-06-20 | 株式会社デンソーアイティーラボラトリ | 物体検出装置 |
JP2009146153A (ja) | 2007-12-13 | 2009-07-02 | Fujitsu Ltd | 移動体検出装置、移動体検出方法および移動体検出プログラム |
JP2009229085A (ja) * | 2008-03-19 | 2009-10-08 | Nikon Corp | 欠陥抽出装置、方法、プログラム |
JP2009251892A (ja) | 2008-04-04 | 2009-10-29 | Fujifilm Corp | オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム |
JP2011028689A (ja) * | 2009-07-29 | 2011-02-10 | Sony Corp | 動画抽出装置、プログラム、および動画抽出方法 |
JP5612915B2 (ja) | 2010-06-18 | 2014-10-22 | 東芝アルパイン・オートモティブテクノロジー株式会社 | 移動体検出装置及び移動体検出方法 |
JP5642049B2 (ja) * | 2011-11-16 | 2014-12-17 | クラリオン株式会社 | 車両用外界認識装置およびそれを用いた車両システム |
JP5792091B2 (ja) | 2012-02-16 | 2015-10-07 | 富士通テン株式会社 | 物体検出装置及び物体検出方法 |
JP2013205410A (ja) * | 2012-03-30 | 2013-10-07 | Clarion Co Ltd | 車両用外界認識装置およびそれを用いた車両システム |
JP5917303B2 (ja) * | 2012-06-05 | 2016-05-11 | 株式会社東芝 | 移動体検出装置、移動体検出システム、および、移動体検出方法 |
US9025880B2 (en) * | 2012-08-29 | 2015-05-05 | Disney Enterprises, Inc. | Visual saliency estimation for images and video |
JP2015056054A (ja) | 2013-09-12 | 2015-03-23 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
US10198689B2 (en) * | 2014-01-30 | 2019-02-05 | Hrl Laboratories, Llc | Method for object detection in digital image and video using spiking neural networks |
US10055850B2 (en) * | 2014-09-19 | 2018-08-21 | Brain Corporation | Salient features tracking apparatus and methods using visual initialization |
-
2016
- 2016-09-15 US US16/329,146 patent/US10943141B2/en active Active
- 2016-09-15 CN CN201680089086.7A patent/CN109690615A/zh active Pending
- 2016-09-15 WO PCT/JP2016/077268 patent/WO2018051459A1/ja active Application Filing
- 2016-09-15 JP JP2017510924A patent/JP6230751B1/ja active Active
- 2016-09-15 DE DE112016007131.0T patent/DE112016007131B4/de active Active
Also Published As
Publication number | Publication date |
---|---|
US20190197345A1 (en) | 2019-06-27 |
JP6230751B1 (ja) | 2017-11-15 |
DE112016007131T5 (de) | 2019-05-09 |
CN109690615A (zh) | 2019-04-26 |
US10943141B2 (en) | 2021-03-09 |
DE112016007131B4 (de) | 2023-11-02 |
WO2018051459A1 (ja) | 2018-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6230751B1 (ja) | 物体検出装置および物体検出方法 | |
CN109788215B (zh) | 图像处理装置、计算机可读存储介质以及图像处理方法 | |
US11893789B2 (en) | Deep neural network pose estimation system | |
JP6688277B2 (ja) | プログラム、学習処理方法、学習モデル、データ構造、学習装置、および物体認識装置 | |
CN103810475B (zh) | 一种目标物识别方法及装置 | |
JP2009048629A (ja) | 検出方法 | |
JP2012048484A (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN112950725A (zh) | 一种监控相机参数标定方法及装置 | |
CN103093198A (zh) | 一种人群密度监测方法及装置 | |
WO2018098862A1 (zh) | 用于虚拟现实设备的手势识别方法、装置及虚拟现实设备 | |
CN108229494B (zh) | 网络训练方法、处理方法、装置、存储介质和电子设备 | |
CN112435223B (zh) | 目标检测方法、装置及存储介质 | |
US10525900B2 (en) | Vehicle periphery monitoring device | |
JP2015138319A (ja) | 物体検出装置、物体検出方法、および物体検出プログラム | |
CN108229281B (zh) | 神经网络的生成方法和人脸检测方法、装置及电子设备 | |
CN112435278B (zh) | 一种基于动态目标检测的视觉slam方法及装置 | |
US9569674B2 (en) | Movement amount estimation device, movement amount estimation method, and computer-readable recording medium storing movement amount estimation program | |
CN110222576B (zh) | 拳击动作识别方法、装置和电子设备 | |
Tasson et al. | FPGA-based pedestrian detection under strong distortions | |
CN116147898A (zh) | 一种汽车前照灯发光强度的检测方法及装置 | |
CN112784817B (zh) | 车辆所在车道检测方法、装置、设备及存储介质 | |
JP2009069145A (ja) | 物体検知の方法 | |
JP2009077022A (ja) | 運転支援システム及び車両 | |
US11107197B2 (en) | Apparatus for processing image blurring and method thereof | |
JP2018072884A (ja) | 情報処理装置、情報処理方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170919 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171017 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6230751 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |