JP6994950B2 - 画像認識システムおよびニューラルネットワークの学習方法 - Google Patents

画像認識システムおよびニューラルネットワークの学習方法 Download PDF

Info

Publication number
JP6994950B2
JP6994950B2 JP2018001267A JP2018001267A JP6994950B2 JP 6994950 B2 JP6994950 B2 JP 6994950B2 JP 2018001267 A JP2018001267 A JP 2018001267A JP 2018001267 A JP2018001267 A JP 2018001267A JP 6994950 B2 JP6994950 B2 JP 6994950B2
Authority
JP
Japan
Prior art keywords
neural network
physical quantity
observation
disturbance
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018001267A
Other languages
English (en)
Other versions
JP2019121225A (ja
Inventor
育郎 佐藤
竜馬 新原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Denso IT Laboratory Inc
Original Assignee
Denso Corp
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Denso IT Laboratory Inc filed Critical Denso Corp
Priority to JP2018001267A priority Critical patent/JP6994950B2/ja
Publication of JP2019121225A publication Critical patent/JP2019121225A/ja
Application granted granted Critical
Publication of JP6994950B2 publication Critical patent/JP6994950B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Analysis (AREA)

Description

本発明は、ニューラルネットワークを用いた画像認識システムおよび画像認識システムにおけるニューラルネットワークの学習方法に関する。
車載カメラを使って他車両や歩行者などを検知し、それら対象物体の存在をドライバに注意喚起するシステムや、それらの対象物体の存在に応じて自動制御を行うシステムにおいて、対象物体までの距離を正確に求めることは重要な要素技術である。
従来技術として、単眼カメラで得られた静止画に対してニューラルネットワークを利用したパターン認識を行い、対象物体までの距離などの物理量を推定する方法などがある。
しかしながら、従来技術による方法では、精度よく物理量を求められないことがある。特に、単眼カメラによる上記の方法は既に相当程度成熟しており、大幅な改善が見込めない。
従来技術による方法で精度が十分でない理由の1つとして、従来は、1枚の静止画の見えのみを考慮してニューラルネットワークが最適化されていることにある。そのようなニューラルネットワークを用いて得られた物理量は、静止画に対しては適切な結果が得られるものの、得られた物理量を時系列で捉えると物理的知見とは乖離していることも少なくない。例えば、対象物体までの距離が短時間で大きく変化することを示していることもある。
本発明はこのような問題点に鑑みてなされたものであり、本発明の課題は、より精度よく物理量を推定できる画像認識システムおよび画像認識システムにおけるニューラルネットワークの学習方法を提供することである。
本発明の一態様によれば、複数の画像のそれぞれに含まれる対象の見えに関する観測をニューラルネットワークを用いて推定し、推定された前記観測から前記対象の物理量を算出する画像認識システムにおけるニューラルネットワークの学習方法であって、前記観測に対する真値と、前記物理量に関する事前知識とを用いて、前記ニューラルネットワークにおける重みを最適化する、ニューラルネットワークの学習方法が提供される。
前記観測の推定精度を示す第1コスト項と、前記物理量の算出精度を示す第2コスト項と、の総和が最小となるよう、前記ニューラルネットワークにおける重みを最適化するのが望ましい。
この場合、前記第2コスト項は、算出される前記物理量が事前知識に基づく値に近いほど小さい値をとるものであってもよい。
あるいは、前記第2コスト項は、算出される前記物理量の分布が事前知識に基づく分布に近いほど小さい値をとるものであってもよい。
前記物理量は加速度またはジャークであってもよい。
前記画像認識システムは、前記複数の画像のそれぞれから外乱を推定し、推定された前記観測および前記外乱から前記対象の物理量を算出し、前記外乱に関する事前知識も用いて、前記ニューラルネットワークにおける重みを最適化してもよい。
そして、前記観測の推定精度を示す第1コスト項と、前記物理量の算出精度を示す第2コスト項と、前記外乱の推定精度を示す第3コスト項と、の総和が最小となるよう、前記ニューラルネットワークにおける重みを最適化するのが望ましい。
この場合、前記第3コスト項は、推定される前記外乱が事前知識に基づく値に近いほど小さい値をとるものであってもよい。
あるいは、前記第3コスト項は、推定される前記外乱の分布が事前知識に基づく分布に近いほど小さい値をとるものであってもよい。
前記外乱は、路面の傾き、前記複数の画像のそれぞれを撮影するカメラの取り付け高さのずれ、および、前記カメラのピッチ角の少なくとも1つを含んでもよい。
前記対象の見えに関する観測は、前記複数の画像において前記対象を囲う矩形であってもよい。
また、本発明の別の態様によれば、複数の画像のそれぞれに含まれる対象の見えに関する観測をニューラルネットワークを用いて推定し、推定された前記観測から前記対象の物理量を算出する画像認識システムであって、前記観測に対する真値と、前記物理量に関する事前知識とを用いて、前記ニューラルネットワークにおける重みを最適化する、画像認識システムが提供される。
物理量の推定精度が向上する。
画像認識システムの一例を模式的に示す図。 画像認識システムの概略構成を示す模式図。 第1の実施形態における観測、外乱および物理量のモデルを説明する図。 第1の実施形態に係る物理量推定部2の内部構成の一例を示すブロック図。 学習時の物理量推定部2を説明する図。 本手法による加速度の推定結果と従来手法による加速度の推定結果とを比較するグラフ。 本手法による距離の推定結果と従来手法による距離の推定結果とを比較するグラフ。 第2の実施形態における観測および物理量のモデルを説明する図。 第2の実施形態に係る物理量推定部2の内部構成の一例を示すブロック図。
以下、本発明に係る実施形態について、図面を参照しながら具体的に説明する。
(第1の実施形態)
図1は、画像認識システムの一例を模式的に示す図である。本例では、自車両100に搭載されたカメラ1による撮影によって得られた画像から、該画像に含まれる対象車両200に関する物理量を、事前に学習が行われた畳み込みニューラルネットワークを利用して推定するものである。出力される物理量から衝突の危険判定などが行われる。
物理量とは、例えば対象車両200の大きさ、距離、速度、加速度などである。これらの物理量は、まず画像における対象車両200の位置を推定し、次いで推定結果に対して予め設定したモデルに基づく幾何計算を行って求められる。
ここで、画像における対象車両200の位置は、予め真値が分かっている画像(例えば、手動で真値を与えた画像)を大量に用いた教師あり学習が可能であり、従来技術によって高い精度で推定可能である。
一方、対象車両200の大きさ、距離、速度、加速度といった物理量は、これらの真値を得るのは容易ではなく、事前に教師あり学習を行うのは困難である。そのため、これらの物理量は外乱の影響を受けると、誤差が大きくなることがある。特に、加速度は距離を2階微分して得られるものであるため、わずかな外乱に対しても特に誤差が大きくなる傾向にある。
そこで、本実施形態では、外乱がある場合でも、大きさ、距離、速度、加速度といったダイナミクスの物理量も精度よく検出できる学習法を提示する。なお、「速度」は、正確には自車両100に対する対象車両200の「相対速度」であるが、本明細書では単に速度という。加速度などについても同様とする。
図2は、画像認識システムの概略構成を示す模式図である。画像認識システムは、センサの一例であるカメラ1と、物理量推定部2と、時系列フィルタ3とを備えている。
カメラ1は、図1に示したように自車両100に搭載された単眼カメラであり、前方の特定範囲を撮影する。撮影された画像は動画像ではあるが、連続する複数時刻の静止画像として物理量推定部2に入力される。なお、本実施形態では、「複数時刻」が連続する5時刻(t-2~t+2)であるとする。
物理量推定部2は、複数時刻の画像から、対象車両200に関する物理量を畳み込みニューラルネットワークを利用して推定する。本実施形態における物理量は、対象車両200の大きさ(より具体的には、車高や車幅)、対象車両200との距離、対象車両200の速度および加速度などであり、詳細は図3を用いて後述する。また、物理量推定部2の具体的な構成例は、図4Aを用いて後述する。
時系列フィルタ3は、例えばカルマンフィルタであり、物理量推定部2からの出力を補正する。本実施形態では、距離のみならず、速度や加速度も時系列フィルタ3に入力されるため、補正の精度が向上する。
図3は、第1の実施形態における観測、外乱および物理量のモデルを説明する図である。カメラ1の光軸をZ軸(紙面右向き)とし、鉛直方向をY軸(紙面下向き、鉛直下向きを正)とし、Z軸およびY軸と直交する方向をX軸(紙面と垂直)とする。また、カメラ1の焦点位置(既知)を原点とする。そして、外乱がない場合、路面はZ軸と平行であり、カメラ1は路面から高さH(既知)に取り付けられているとする。なお、路面には凹凸がないものと仮定する。
本実施形態では、観測ΓT,ΓB,ΓR,ΓL、外乱α,ΔHおよび物理量Dy,Dx,Z,dZ/dt,d2Z/dt2を次のように定義する。
まずは、画像に含まれる対象車両200の見えに関する指標である観測ΓT,ΓB,ΓR,ΓLについて説明する。ΓTは、画像上で対象車両200を矩形で囲んだ場合に、カメラ1および矩形の上端中点を通る直線を示すレイである。同様に、ΓB,ΓR,ΓLは、カメラ1および矩形の下端中点、右端中点および左端中点を通る直線をそれぞれ示すレイである。すなわち、以下の式が成立する。
Y=ΓT*Z ・・・(1)
Y=ΓB*Z ・・・(2)
観測ΓT,ΓB,ΓR,ΓLは画像において対象車両200を囲う矩形を示すもの、言い換えると、画像における対象車両200の位置を示すともいえる。以下では、ΓT,ΓB,ΓR,ΓLをまとめてΓと表記する。
次に、外乱α,ΔHについて説明する。外乱αは路面の傾きαであり、自車両100のピッキングの影響などによって生じ得る。外乱ΔHはカメラ1の高さずれ、正確には、カメラ1の取り付け高さHからの差分であり、自車両100におけるサスペンションの影響などによって生じ得る。この場合、外乱α,ΔHを考慮した真の路面は次のように表わされる。
Y=(H+ΔH)+α*Z ・・・(3)
その他、外乱としてピッチ角を考慮してもよい。ピッチ角はXZ平面におけるカメラ1の回転移動であり、自車両100のピッチングによって生じる。
次に、最終的に求めたい値である物理量Z,dZ/dt,d2Z/dt2,Dx,Dyについて説明する。
物理量Zはカメラ1から対象車両200までの距離であり、上記(2),(3)式から算出される。
Z=(H+ΔH)/(ΓB-α) ・・・(4)
なお、実際の距離は、上記(4)式の距離Zにカメラ1の焦点距離f(既知の内部パラメタ)を乗じることで得られる。
物理量dZ/dt,d2Z/dt2はそれぞれ対象車両200の速度および加速度であり、距離Zを離散微分することで算出される。
物理量Dyは対象車両200の高さ(車高)であり、上記(1),(2),(4)式から算出される。
Dy=(ΓB-ΓT)*(H+ΔH)/(ΓB-α) ・・・(5)
物理量Dxは対象車両200の幅(車幅)であり、ピッチ角を考慮することで車高Dyと同様に算出される。
以上説明したように、本実施形態における物理量Dx,Dy,Z,dZ/dt,d2Z/dt2は、いずれも観測Γおよび外乱α,ΔHに基づいて直ちに算出可能である。
図4Aは、第1の実施形態に係る物理量推定部2の内部構成の一例を示すブロック図である。物理量推定部2は、観測推定部21と、外乱推定部22と、物理量算出部23とを有する。なお、図4Aでは、説明のために観測推定部21および外乱推定部22に分けているが、単一の畳み込みニューラルネットワークで構成することもできる。また、各部の一部または全部は、コンピュータのプロセッサが所定のプログラムを実行することによって実現されてもよい。
観測推定部21は、時刻t-2~t+2における各画像から、後述する事前学習が行われた畳み込みニューラルネットワーク(例えば、パターン認識器)を利用して5時刻分の観測Γ(t-2)~Γ(t+2)を推定するものであり、いわゆるブラックボックスとなっている。
外乱推定部22は、時刻t-2~t+2における各画像から、後述する事前学習が行われた畳み込みニューラルネットワークを利用して5時刻分の外乱α(t-2)~α(t+2),ΔH(t-2)~ΔH(t+2)を推定する。
物理量算出部23は、観測推定部21で推定された観測Γ(t-2)~Γ(t+2)と、外乱推定部22で推定された外乱α(t-2)~α(t+2),ΔH(t-2)~ΔH(t+2)から、上記(4),(5)式などを適用し、5時刻分の物理量Z(t-2)~Z(t+2),Dy(t-2)~Dy(t+2),Dx(t-2)~Dx(t+2)を算出する。さらに、物理量算出部23は距離Zを離散微分して速度dZ(t)/dtおよび加速度d2Z(t)/dt2を算出する。なお、速度dZ(t)/dtおよび加速度d2Z(t)/dt2は離散微分によって得られるため、5時刻分あるわけではない。
物理量算出部23は、畳み込みニューラルネットワークを利用して推定を行う必要はなく、物理量を幾何計算によって「算出」するホワイトボックスとなっている。
続いて、観測推定部21および外乱推定部22における畳み込みニューラルネットワークの事前の学習について説明する。畳み込みニューラルネットワークは複数段の畳み込み層および全結合層から構成される。畳み込み層は、前段の畳み込み層からの出力(初段の畳み込み層においては、入力される複数時刻の画像)に対してフィルタを適用して畳み込みを行う。フィルタには重みが設定されており、事前学習とはこの重みを最適化することである。
図4Bは、学習時の物理量推定部2を説明する図である。本実施形態では、観測推定部21、外乱推定部22および物理量算出部23のそれぞれに、コスト項J1,J2,J3を設定する。そして、これらの総和であるコスト関数Jが最小となるよう重みを最適化する。
観測推定部21では、対象車両200を囲う矩形(すなわち、観測Γ)の真値を予め得ることが容易であるため、教師あり学習を行うのが望ましい。よって、観測推定部21には、5時刻分の画像と、そのそれぞれについて、矩形領域(すなわち、観測Γ)の真値が教師データとして入力される。そして、観測の推定精度を示すコスト項J1を定義する。例えば、観測Γの真値と、推定された観測Γとの差分の2乗の総和をコスト項J1とすることができる。
なお、観測推定部21の前段に推定器(不図示)を設け、5時刻分の画像のそれぞれを静止画としてみなして対象車両200の矩形(観測)を推定し、これを初期値Γ0として観測推定部21の全結合層に入力してもよい。この場合、観測推定部21は初期値Γ0を補正して観測Γを推定することとなり、画像に複数の車両が含まれる場合にも適用可能となる。このような推定器を設けない場合、画像に複数の車両がある場合には画像の領域ごとに真値を設定すればよい。
外乱推定部22では、外乱α,ΔHの真値を予め得るのが困難であるため、教師なし学習を行うこととなる。よって、外乱推定部22には教師データは入力されない。代わりに、本実施形態では、以下のような外乱α,ΔHに関する事前知識を利用することとする。
路面の傾きαの分布は、平均値0、標準偏差σαの正規分布に従うものとする。平均値0とするのは、自車両100のピッチングや路面形状の変化が正側にも負側にも現れ得るためである。標準偏差σαは、現実的な路面の傾きを考慮すると1/100オーダ程度が妥当であって、1/10オーダ以上でないことは経験から自明である。
カメラ1の高さずれΔHの分布は、平均値0、標準偏差σHの正規分布に従うものとする。平均値0とするのは、ΔHが元々カメラ1の取り付け高さからのずれとして定義されているためである。標準偏差σHは、設計者の事前知識を反映して設定されるべき値であり、1cmオーダ程度が妥当であって、1mオーダ以上でないことは経験から自明である。
そして、外乱の推定精度を示すコスト項J2を定義する。例えば、推定された5時刻分の外乱α,ΔHのそれぞれの分布が、上記事前知識に基づく正規分布に近いほど小さな値をとるコスト項J2を設定する。より具体的には、外乱α,ΔHの分布と、上記事前知識に基づく正規分布とのカルバックライブラー距離(KL距離)の対数の総和をコスト項J2とすることができる。別の例として、推定された5時刻分の外乱α,ΔHが事前知識に基づく平均値(ここでは0)に近いほど小さな値をとるコスト項J2を設定してもよい。より具体的には、推定された外乱α,ΔHの2乗または絶対値(平均値0であるため)の総和をコスト項J2としてもよい。
物理量算出部23では、物理量の真値を事前に得るのが困難であるため、教師なし学習を行うこととなる。よって、物理量算出部23には教師データは入力されない。代わりに、本実施形態では、以下のような物理量d2Z/dt2,Dy,Dxに関する事前知識を利用することとする。
加速度d2Z/dt2の分布は、平均値0、標準偏差σZ2の正規分布に従うものとする。平均値0とするのは、加速と減速とが同頻度と考えられるためである。標準偏差σZ2は、現実的な自車両100および対象車両200の加速度を考慮すると、0.01G(Gは重力加速度)オーダ程度が妥当であって、0.1Gオーダ以上でないことは経験から自明である。
車高Dyおよび車幅Dxの分布は、平均値が時系列平均(その対象車両200の車高および車幅)であり、標準偏差σDy,σDxの正規分布に従うものとする。標準偏差σDy,σDxは、設計者の事前知識を反映して設定されるべき値であり、1cmオーダ程度が妥当であって、1mオーダ以上でないことは経験から自明である。
そして、物理量の算出精度を示すコスト項J3を定義する。例えば、算出された物理量d2Z/dt2および5時刻分の物理量Dy,Dxのそれぞれの分布が、上記事前知識に基づく正規分布に近いほど小さな値となるコスト項J3を設定する。より具体的には、物理量d2Z/dt2,Dy,Dxの分布と、上記事前知識に基づく正規分布とのカルバックライブラー距離(KL距離)の対数の総和をコスト項J3とすることができる。別の例として、標準偏差σz2,σDy,σDxを0と考え、推定された物理量d2Z/dt2,Dy,Dxの推定値が事前知識に基づく平均値に近いほど小さな値をとるコスト項J3を設定してもよい。より具体的には、算出された物理量d2Z/dt2,Dy,Dxと、それぞれの平均値との差分の2乗または絶対値の総和をコスト項J3としてもよい。あるいは、走行用テストコースで、高精度PGSあるいはミリ波レーダを用いた計測で加速度の真値を得られるのであれば、真値がある画像について教師あり学習を、真値がない画像について教師なし学習を行ってもよい。
また、距離Zや速度dZ/dtについても、真値が得られれば教師あり学習を行い、得られないのであれば事前知識に基づく教師なし学習を行うようにしてもよい。
以上のコスト項J1~J3の総和をコスト関数とし、コスト関数が最小となるよう重みを最適化する。具体的には、ニューラルネットワーク学習における標準的手法である、ミニバッチ確率的勾配降下法を適用できる。ミニバッチとは、最適化の各反復において、複数個のランダムサンプリングされた学習標本を指す。本実施形態では、連続する5時刻分の画像が1つの学習標本である。ミニバッチサイズ(1ミニバッチ内の学習標本数)は十分に大きい。
観測推定部21においては、推定される観測Γが真値に近づくだけでなく、物理量算出部23によって算出される物理量の分布が事前知識に従うよう、内部の重みが最適化される。同様に、外乱推定部22においては、推定される外乱α,ΔHが事前知識に従うだけでなく、物理量算出部23によって算出される物理量の分布が事前知識に従うよう、内部の重みが最適化される。
その結果、観測推定部21は真値に近い観測Γを推定できるようになり、かつ、外乱推定部22は事前知識に基づく確率分布に程よく従う外乱α,ΔHを推定できるようになり、かつ、物理量算出部23は事前知識に基づく確率分布に程よく従う物理量d2Z/dt2,Dy,Dxを算出できるようになる。このことは、例えば路面の傾きαが1/10程度になるとか、加速度d2Z/dt2が0.1G程度になるといった、物理的にあり得ない推定結果が得られにくくなり、物理的に意味のある結果が得られるようになることを意味する。
図5は、本手法による加速度の推定結果と従来手法による加速度の推定結果とを比較するグラフである。横軸は対象までの真の距離であり、縦軸は推定された加速度の2乗平方平均値(Root Mean Square、単位は重力加速度G)である。なお、観測Γは推定値ではなく、真値を与えている。
従来手法によれば、加速度の絶対値が異常に大きく(通常の加速度はせいぜい0.2G程度のはずである)、明らかに誤った値が頻繁に得られることが分かる。これは、観測Γが理想的であっても、必ずしも正確な物理量が得られるわけではないことを示している。
一方、本手法によれば、対象までの距離が長い場合であっても、加速度は従来手法より十分に低く、より現実に近い結果が得られている。
図6は、本手法による距離の推定結果と従来手法による距離の推定結果とを比較するグラフである。横軸は対象までの真の距離であり、縦軸は推定された距離と真の距離との誤差の2乗平方平均値(Root Mean Square Error)である。
従来手法によれば、誤差は大きく、特に対象までの距離が離れるほど誤差が大きいことが分かる。一方、本手法によれば、従来手法より正確に距離が得られていることが分かる。
このように、第1の実施形態では、連続する複数の画像から推定される加速度を、事前知識を用いて学習する。そのため、事前知識が反映され、得られる物理量が物理的により現実に近い高精度なものとなる。また、事前に真値を用意することが困難な外乱も事前知識を用いて学習することで、推定精度がさらに向上する。
(第2の実施形態)
次に説明する第2の実施形態は、外乱を考慮しないものである。以下、第1の実施形態との相違点を中心に説明する。
図7は、第2の実施形態における観測および物理量のモデルを説明する図である。座標の定義は図3と共通するが、路面が傾くことは考慮しない。
本実施形態では、第1の実施形態の観測ΓT,ΓB,ΓR,ΓLに加え、観測ΓCを次のように定義する。観測ΓCは、画像上で、カメラ1と、対象車両200を囲う矩形において路面からカメラ1の取り付け高さHだけ鉛直上方向に移動した点とを通る直線を示すカメラ高レイである。すなわち、以下の式が成立する。
Y=ΓC*Z ・・・(6)
この場合でも、物理量である距離Zおよび車高Dyは次のように「算出」される。
Z=H/(ΓB-ΓC) ・・・(7)
Dy=(ΓB-ΓT)*H/(ΓB-ΓC) ・・・(8)
同様にして、車幅Dxや、車速dZ/dt、加速度d2Z/dt2も算出される。
図8は、第2の実施形態に係る物理量推定部2の内部構成の一例を示すブロック図である。本実施形態では外乱を考慮しないため、図4と比較すると外乱推定部22を設けなくてもよい。観測推定部21および物理量算出部23の動作は第1の実施形態とほぼ同様である。すなわち、観測推定部21では、観測ΓCの真値も用いて教師あり学習が行われる。物理量算出部23では、事前知識を用いた教師なし学習が行われる。
このように、第2の実施形態でも、連続する複数の画像から推定される加速度を事前知識を用いて学習する。そのため、外乱を考慮しなくても、事前知識が反映されて、推定精度が向上する。
上述した各実施形態において、物理量算出部23は、加速度d2Z/dt2に限らず、他の物理量(車高Dyや車幅Dxといった対象車両200の大きさ、距離Z、速度dZ/dt、ジャークd3Z/dt3(あるいはさらに高次の離散微分))の少なくとも1つを事前知識を用いて学習することにより、物理量の推定精度が向上する。ただし、衝突の危険判断などに有用であり、かつ、推定誤差が大きくなりがちな加速度d2Z/dt2を事前知識を用いて学習し、推定するのが特に望ましい。
上述した実施形態は、本発明が属する技術分野における通常の知識を有する者が本発明を実施できることを目的として記載されたものである。上記実施形態の種々の変形例は、当業者であれば当然になしうることであり、本発明の技術的思想は他の実施形態にも適用しうることである。したがって、本発明は、記載された実施形態に限定されることはなく、特許請求の範囲によって定義される技術的思想に従った最も広い範囲とすべきである。
1 カメラ
2 物理量推定部
3 時系列フィルタ
21 観測推定部
22 外乱推定部
23 物理量算出部
100 自車両
200 対象車両

Claims (12)

  1. 複数の画像のそれぞれに含まれる対象の見えに関する観測をニューラルネットワークを用いて推定し、推定された前記観測から前記対象の物理量を算出する画像認識システムにおけるニューラルネットワークの学習方法であって、
    前記観測に対する真値と、前記物理量に関する事前知識とを用いて、前記観測の推定精度を示す第1コスト項と、前記物理量の算出精度を示す第2コスト項と、の総和が最小となるよう、前記ニューラルネットワークにおける重みを最適化する、ニューラルネットワークの学習方法。
  2. 前記第2コスト項は、算出される前記物理量が事前知識に基づく値に近いほど小さい値をとる、請求項に記載のニューラルネットワークの学習方法。
  3. 前記第2コスト項は、算出される前記物理量の分布が事前知識に基づく分布に近いほど小さい値をとる、請求項に記載のニューラルネットワークの学習方法。
  4. 複数の画像のそれぞれに含まれる対象の見えに関する観測をニューラルネットワークを用いて推定し、推定された前記観測から前記対象の物理量を算出する画像認識システムにおけるニューラルネットワークの学習方法であって、
    前記画像認識システムは、前記複数の画像のそれぞれから外乱を推定し、推定された前記観測および前記外乱から前記対象の物理量を算出し、
    前記観測に対する真値と、前記物理量に関する事前知識と、前記外乱に関する事前知識と、を用いて、前記ニューラルネットワークにおける重みを最適化する、ニューラルネットワークの学習方法。
  5. 前記観測の推定精度を示す第1コスト項と、前記物理量の算出精度を示す第2コスト項と、前記外乱の推定精度を示す第3コスト項と、の総和が最小となるよう、前記ニューラルネットワークにおける重みを最適化する、請求項に記載のニューラルネットワークの学習方法。
  6. 前記第3コスト項は、推定される前記外乱が事前知識に基づく値に近いほど小さい値をとる、請求項に記載のニューラルネットワークの学習方法。
  7. 前記第3コスト項は、推定される前記外乱の分布が事前知識に基づく分布に近いほど小さい値をとる、請求項に記載のニューラルネットワークの学習方法。
  8. 前記外乱は、路面の傾き、前記複数の画像のそれぞれを撮影するカメラの取り付け高さのずれ、および、前記カメラのピッチ角の少なくとも1つを含む、請求項4乃至7のいずれかに記載のニューラルネットワークの学習方法。
  9. 前記物理量は加速度またはジャークである、請求項1乃至8のいずれかに記載のニューラルネットワークの学習方法。
  10. 前記対象の見えに関する観測は、前記複数の画像において前記対象を囲う矩形である、請求項1乃至のいずれかに記載のニューラルネットワークの学習方法。
  11. 複数の画像のそれぞれに含まれる対象の見えに関する観測をニューラルネットワークを用いて推定し、推定された前記観測から前記対象の物理量を算出する画像認識システムであって、
    前記観測に対する真値と、前記物理量に関する事前知識とを用いて、前記観測の推定精度を示す第1コスト項と、前記物理量の算出精度を示す第2コスト項と、の総和が最小となるよう、前記ニューラルネットワークにおける重みを最適化する、画像認識システム。
  12. 複数の画像のそれぞれに含まれる対象の見えに関する観測をニューラルネットワークを用いて推定し、推定された前記観測から前記対象の物理量を算出する画像認識システムであって、
    前記画像認識システムは、前記複数の画像のそれぞれから外乱を推定し、推定された前記観測および前記外乱から前記対象の物理量を算出し、
    前記観測に対する真値と、前記物理量に関する事前知識と、前記外乱に関する事前知識と、を用いて、前記ニューラルネットワークにおける重みを最適化する、画像認識システム。


JP2018001267A 2018-01-09 2018-01-09 画像認識システムおよびニューラルネットワークの学習方法 Active JP6994950B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018001267A JP6994950B2 (ja) 2018-01-09 2018-01-09 画像認識システムおよびニューラルネットワークの学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018001267A JP6994950B2 (ja) 2018-01-09 2018-01-09 画像認識システムおよびニューラルネットワークの学習方法

Publications (2)

Publication Number Publication Date
JP2019121225A JP2019121225A (ja) 2019-07-22
JP6994950B2 true JP6994950B2 (ja) 2022-02-04

Family

ID=67306419

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018001267A Active JP6994950B2 (ja) 2018-01-09 2018-01-09 画像認識システムおよびニューラルネットワークの学習方法

Country Status (1)

Country Link
JP (1) JP6994950B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111077335B (zh) * 2020-01-22 2021-03-02 滴图(北京)科技有限公司 一种车速检测方法、车速检测装置及可读存储介质
CN113556551B (zh) * 2020-04-23 2023-06-23 上海高德威智能交通***有限公司 一种编码、解码方法、装置及设备
WO2022091650A1 (ja) * 2020-10-30 2022-05-05 株式会社スマートドライブ 移動体挙動情報取得方法、移動体挙動情報取得装置及びプログラム
US20230051377A1 (en) * 2020-10-30 2023-02-16 Smartdrive Inc. Mobility movemennt information acquiring method and mobility movement information acquiring apparatus
JP7318995B1 (ja) 2022-03-24 2023-08-01 株式会社スマートドライブ 移動体挙動情報取得方法、移動体挙動情報取得装置及びプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016006626A (ja) 2014-05-28 2016-01-14 株式会社デンソーアイティーラボラトリ 検知装置、検知プログラム、検知方法、車両、パラメータ算出装置、パラメータ算出プログラムおよびパラメータ算出方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016006626A (ja) 2014-05-28 2016-01-14 株式会社デンソーアイティーラボラトリ 検知装置、検知プログラム、検知方法、車両、パラメータ算出装置、パラメータ算出プログラムおよびパラメータ算出方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
橋岡 佳輝,DNNを用いたカメラの6自由度相対運動推定,情報処理学会 研究報告 コンピュータビジョンとイメージメディア(CVIM) 2017-CVIM-206 [online] ,日本,情報処理学会,2017年03月14日,第1-8頁

Also Published As

Publication number Publication date
JP2019121225A (ja) 2019-07-22

Similar Documents

Publication Publication Date Title
JP6994950B2 (ja) 画像認識システムおよびニューラルネットワークの学習方法
US10983199B2 (en) Vehicle sensor calibration and localization
CN109521756A (zh) 用于无人驾驶车辆的障碍物运动信息生成方法和装置
CN107179768B (zh) 一种障碍物识别方法及装置
CN107741229B (zh) 一种光电/雷达/惯性组合的舰载机着舰导引方法
JP7482978B2 (ja) 車両センサの較正及び位置特定
CN107192409A (zh) 自动传感器姿态估计的方法
WO2018221453A1 (ja) 出力装置、制御方法、プログラム及び記憶媒体
WO2018181974A1 (ja) 判定装置、判定方法、及び、プログラム
JP5804185B2 (ja) 移動物***置姿勢推定装置及び移動物***置姿勢推定方法
CN110009037B (zh) 一种基于物理信息耦合的工程风速短时预测方法及***
CN105892471A (zh) 汽车自动驾驶方法和装置
CN109564285A (zh) 用于检测在移动单元的交通环境下的地面标志的方法和***
CN108968811A (zh) 一种扫地机器人的物体识别方法及***
US10789488B2 (en) Information processing device, learned model, information processing method, and computer program product
CN106969770B (zh) 一种机器人及其导航方法、计算机可读存储介质
CN114599995A (zh) 根据静止路边对象的雷达回波估计面内速度
CN110914703A (zh) 对点云中基于运动的不准确性的校正
CN107014296B (zh) 综合巡检车接触网巡检***高速定位触发方法及装置
CN111201448A (zh) 用于产生反演传感器模型的方法和设备以及用于识别障碍物的方法
CN114758504B (zh) 一种基于滤波校正的网联车超速预警方法及***
JP2022022287A (ja) 地図作成装置、制御方法、プログラム及び記憶媒体
CN110674674A (zh) 一种基于yolo v3的旋转目标检测方法
CN112578673B (zh) 无人方程式赛车多传感器融合的感知决策与跟踪控制方法
CN105447881A (zh) 基于多普勒的雷达图像分割及光流

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200624

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210705

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211214

R150 Certificate of patent or registration of utility model

Ref document number: 6994950

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150