JP7230896B2 - 車載センシング装置及びセンサパラメータ最適化装置。 - Google Patents

車載センシング装置及びセンサパラメータ最適化装置。 Download PDF

Info

Publication number
JP7230896B2
JP7230896B2 JP2020180855A JP2020180855A JP7230896B2 JP 7230896 B2 JP7230896 B2 JP 7230896B2 JP 2020180855 A JP2020180855 A JP 2020180855A JP 2020180855 A JP2020180855 A JP 2020180855A JP 7230896 B2 JP7230896 B2 JP 7230896B2
Authority
JP
Japan
Prior art keywords
sensor
image
identification
data
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020180855A
Other languages
English (en)
Other versions
JP2021144689A (ja
Inventor
光瑠 福島
勇 高井
道則 安藤
弘幸 松原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Publication of JP2021144689A publication Critical patent/JP2021144689A/ja
Application granted granted Critical
Publication of JP7230896B2 publication Critical patent/JP7230896B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は車載センシング装置及びセンサパラメータ最適化装置に関する。
特許文献1には、車両前方の領域をカメラが撮像し、画像処理部が、カメラから送られてくる映像信号に基づいて、車線を区切る白線や黄線などの道路区画線を検出・推定し、道路区画線に対する自車両の横位置を算出する技術が開示されている。
また特許文献2には、自車両の前方の識別対象領域を含む領域を撮像装置が撮像し、撮像装置からの撮像画像に基づいて、画像特徴量を抽出し、画像特徴量と識別モデルとを比較して歩行者らしさを示すスコアを算出し、歩行者を検出する処理をコンピュータが行う技術が開示されている。
特開2007-257449号公報 特開2013-190949号公報
特許文献1は道路区画線の認識に特化した技術であり、特許文献2は歩行者の認識に特化した技術であるが、車両の周辺には道路区画線や歩行者以外にも様々な物体が出現する可能性がある。そこで、車両の周辺に様々な物体が存在している状況をセンサによって各々測定することで得られた学習用の測定信号を用いて、例えば多層ニューラルネットワーク等の信号処理部に予め学習をさせておくことが考えられる。これにより、センサが車両の周辺を新たに測定した場合に、センサからの測定信号に対して信号処理部で信号処理を行い、その結果に基づき車両の周辺に存在する物体を識別することが可能となる。
しかしながら、センサによる測定における測定パラメータは、後段の処理とは独立してセンサの内部で制御される。例えばセンサがカメラである場合、測定パラメータの一例であるシャッタ速度は、画像全体又は画像内の所定の領域の輝度が高ければシャッタ速度が速くなり、輝度が低ければシャッタ速度が遅くなるように制御される。また、例えばセンサがレーザレーダである場合、測定パラメータの一例である受光素子の感度や検出閾値は、測距点の明るさに応じて制御される。そして、センサから出力される測定信号は、センサの測定パラメータに応じて変化する。
このように、センサの測定パラメータは後段の処理とは独立して制御されるので、センサが後段の信号処理に至適なデータを取得するとは限らない。その結果、後段における信号処理の精度が低下し、物体識別の精度が低下するおそれがあった。
本発明は上記事実を考慮して成されたもので、物体を識別する後段の信号処理に至適なデータを提供し、物体を識別する精度を向上させる車載センシング装置及びセンサパラメータ最適化装置を得ることが目的である。
第1の態様に係る車載センシング装置は、各々異なるパラメータに従って周辺環境の画像データを所定数取得するセンサと、前記センサから出力された画像データに対し、学習データを用いて予め学習された結果に基づく信号処理を行うことにより、前記センサが取得した画像データ内に存在する物体の識別結果を出力する識別処理を実行する識別部と、前記識別部による前記所定数の画像データの各々の識別結果に基づいて、前記所定数の画像データから後段処理群に出力する画像データを選択する選択部と、を含んでいる。
第1の態様では、センサが、各々異なるパラメータに従って周辺環境の画像データを所定数取得する。また、識別部は、取得した画像データ内に存在する物体の識別及び当該識別の尤度を表す尤度情報を含む識別結果を出力する。そして選択部は、所定数の画像データから後段処理群に出力する画像データを選択する。
ここで、第1の態様では、選択部が、識別部による所定数の画像データの各々の識別結果に基づいて、後段処理群に出力する画像データを選択する。これにより、物体を識別する後段の信号処理に至適なデータを提供し、物体を識別する精度を向上させることができる。
第2の態様は、第1の態様において、前記選択部は、前記識別部が出力した画像データの識別結果のうち、検出された物体の数、該物体の位置、該物体の種別、及び該物体の識別の尤度の総計の少なくともいずれか1つに基づいて前記後段処理群に出力する画像データを選択する。
これにより、複数の条件を参酌して、後段の信号処理に至適な画像データを選択することができる。
第3の態様は、第1の態様又は第2の態様において、前記識別部が前記センサから出力された第1の画像データの識別結果を出力した際に、前記第1の画像データの取得時に前記センサに適用したパラメータを変更し、該変更したパラメータに基づいて前記センサが画像データを取得するように前記センサを制御するパラメータ制御部をさらに含む。
これにより、前の画像データの取得時のパラメータを変更して次の画像データを取得することにより、後段の信号処理に至適な画像データの複数の候補を担保できる。
第4の態様は、第1の態様~第3の態様の何れか1つの態様において、前記後段処理群は、前記識別部と同じ学習データを用いて予め学習される。
第5の態様は、第1の態様~第4の態様の何れか1つの態様において、前記識別部における前記信号処理は、前記後段処理群の信号処理よりも計算負荷が小さい。
第6の態様は、第1の態様~第4の態様の何れか1つの態様において、前記後段処理群が、前記選択された画像データの識別処理を実行する間に、前記センサから次に出力された前記所定数の画像データの各々に対して識別処理を行う。
第7の態様は、第1の態様~第6の態様の何れか1つの態様において、前記識別部は、前記後段処理群による識別処理における物体の分類よりも包括的な分類に従って識別処理を行う。
第8の態様は、第1の態様~第7の態様の何れか1つの態様において、前記センサと前記識別部との間に、前記センサが取得した画像データのデータ量を圧縮する圧縮部をさらに含み、前記識別部は、前記圧縮部が出力した画像データに対して識別処理を実行する。
これにより、画像データの識別処理を行う識別部の演算負荷を抑制でき、識別処理の処理時間を短縮することが可能となる。
第9の態様は、第2の態様~第8の態様の何れか1つの態様において、前記識別部は、前記所定数の画像データに含まれる複数の画像データ内に同じ物体が識別される場合、該物体の識別の尤度を合成した値に応じた識別処理の信頼度を前記後段処理群に出力する。
第10の態様は、第1の態様~第9の態様の何れか1つの態様において、前記センサは、設定された測定パラメータに従って周辺環境の画像データを撮影することを、各々異なる前記測定パラメータを用いて繰り返す。
第11の態様は、第1の態様~第9の態様の何れか1つの態様において、前記センサは、周辺環境の画像データを撮影し、設定された処理パラメータに従って前記撮影された画像データに対して前処理を行うことを、各々異なる前記処理パラメータを用いて繰り返す。
第12の態様は、設定された各々異なるパラメータに従って周辺環境のデータを所定数取得するセンサと、前記センサから出力された前記所定数のデータの各々に対し、学習データを用いて予め学習された結果に基づく信号処理を行うことにより、任意に設定した所望の識別結果を出力する識別処理を実行する識別部と、前記識別部による前記所定数のデータの各々の識別結果に基づいたラベルを前記所定数のデータの各々に付加する評価部と、前記センサによるデータ取得、前記識別部による識別処理、及び前記評価部によるラベルの付加を含む一連の行程を1回以上繰り返して得た前記ラベルが付加されたデータを用いた学習により、前記センサのパラメータ設定に係るパラメータ制御器モデルを生成する後段処理群と、を含んでいる。
第12の態様では、センサが、各々異なるパラメータに従って周辺環境の画像データを所定数取得する。また、識別部は、取得した画像データ内に存在する物体の識別及び当該識別の尤度を表す尤度情報を含む識別結果を出力する。そして評価部は、所定数のデータの各々の識別結果に基づいたラベルを付加した所定数のデータの各々を後段処理群に出力する。
ここで、第12の態様では、後段処理群が、ラベルが付加されたデータを用いた学習でセンサのパラメータ設定に係るパラメータ制御器モデルを生成することにより、センサのパラメータを最適化できる。
第13の態様は、第12の態様において、前記ラベルが付加されたデータは、前記センサが取得したデータに、さらに前記データを取得した際の前記センサのパラメータを含む。
第14の態様は、第12の態様又は第13の態様において、前記評価部は、前記識別結果に基づいて前記所定数のデータから最良データを選択し、該最良データを取得した際の前記センサのパラメータに基づいた前記ラベルを前記所定数のデータの各々に付加する。
これにより、最良データを基準としたラベル付けが可能となる。
第15の態様は、第14の態様において、前記評価部は、前記センサが取得するデータが画像データの場合、前記識別部が出力した画像データの識別結果のうち、検出された物体の数、該物体の位置、該物体の種別、及び該物体の識別の尤度の少なくとも1つに基づいて最良データを選択する。
これにより、物体識別が良好なデータを最良データとして採用できる。
第16の態様は、第15の態様において、前記評価部は、前記最良データを取得した際のセンサのパラメータと前記所定数の画像データの各々を取得した際のセンサの各々のパラメータとの差分を前記ラベルとして前記所定数の画像データの各々に付加する。
これにより、最良データとのパラメータの乖離を定量的に把握できる。
第17の態様は、第15の態様において、前記評価部は、前記最良データを取得した際のセンサのパラメータを前記ラベルとして前記所定数の画像データの各々に付加する。
これにより、最良データとのパラメータを把握できる。
第18の態様は、第14の態様において、前記評価部は、前記センサが取得するデータが時系列データの場合、前記識別部が出力した時系列データの識別結果のうち、正答率が最大となった時系列データ及び誤答率が最小となった時系列データのいずれかを最良データとして選択する。
これにより、正答率が良好なデータ又は誤答率が少ないデータを最良データとして採用できる。
第19の態様は、第12の態様~第17の態様の何れか1つの態様において、前記後段処理群は、前記センサが取得するデータが画像データの場合、該画像データの解像度を低下させて前記ラベルと共に前記学習に供する。
第20の態様は、第19の態様において、前記後段処理群は、サイズ変更及びトリミング処理のいずれかを適用して縦横比を1:1にした画像と前記ラベルとを前記学習に供する。
これにより、画像データを畳み込み処理による学習に適した形態に変換できる。
第21の態様は、第19の態様又は第20の態様において、任意に設定した所望の識別結果を出力する識別処理を実行する後段識別部をさらに含み、前記パラメータ制御器モデルは、前記学習後、前記センサで取得した新たな画像から前記センサのパラメータを設定すると共に、前記新たな画像をそのままの状態で前記後段識別部に出力する。
これにより、センサで取得した画像は、画像処理等を行わないそのままの状態で後段識別部に出力されるので、後段識別部による物体識別の処理速度はパラメータ制御モデルによるパラメータ設定の影響を受けず、後段識別部は物体識別を迅速に行うことができる。
第22の態様は、第18の態様において、前記パラメータ制御器モデルは、前記学習後、前記センサで取得した新たな時系列データから前記センサのパラメータを設定すると共に、前記新たな時系列データをそのままの状態で認識部に出力する。
これにより、センサで取得した時系列データは、そのままの状態で認識部に出力されるので、認識部による認識の処理速度はパラメータ制御モデルによるパラメータ設定の影響を受けず、認識部は時系列データの認識を迅速に行うことができる。
本発明は、物体を識別する後段の信号処理に至適なデータを提供し、物体を識別する精度を向上させる、という効果を有する。
本発明の第1の実施形態に係る車載センシング装置のブロック図である。 (A)は測定パラメータである露光時間が最も長い露光時間1で取得した画像、(B)は露光時間が露光時間1よりも短い露光時間2で取得した画像、(C)は露光時間が露光時間2よりも短い露光時間3で取得した画像、(D)は露光時間が露光時間3よりも短い露光時間4で取得した画像から各々検出した検出結果、識別結果及び尤度の一例を示した説明図である。 前段処理群と後段処理群との動作タイミングの一例を示した説明図である。 前段処理群の物体識別器及び後段処理群の物体識別器で用いられるDNNの一例を示した説明図である。 本発明の第1の実施形態に係る車載センシング装置100における処理の一例を示したシーケンス図である。 本発明の第1の実施形態に係る車載センシング装置の前段処理群の処理の一例を示したフローチャートである。 取得画像内に一つの物体のみ存在する場合における、評価器での評価方法の一例を示した説明図で、(A)は物体識別の尤度が30%、(B)は物体識別の尤度が90%、(C)は物体識別の尤度が70%である。 取得画像内に物体が複数存在する可能性がある場合における、評価器での評価方法の一例を示した説明図で、(A)は1台の車を尤度30%で、1羽の鳥を尤度40%で各々識別した場合、(B)は1台の車を尤度50%で、もう1台の車を尤度90%で各々識別した場合、(C)は1台の車を尤度40%で、もう1台の車を尤度70%で、さらにもう1台の車を尤度10%で、1羽の鳥を尤度50%で各々識別した場合を各々示している。 図9(A)は取得画像の一例を示した概略図であり、(B)は取得画像から識別した物体の尤度に基づく信頼度マップの一例を示した説明図である。 本発明の第1の実施形態の変形例に係る車載センシング装置の一例を示したブロック図である。 本発明の第2の本実施形態の係る車載センシング装置の一例を示したブロック図である。 (A)は測定パラメータである露光時間が最も長い露光時間1で取得した画像、(B)は露光時間が露光時間1よりも短い露光時間2で取得した画像、(C)は露光時間が露光時間2よりも短い露光時間3で取得した画像、(D)は露光時間が露光時間3よりも短い露光時間4で取得した画像から各々検出した検出結果、識別結果及び尤度の一例を示した説明図である。 本発明の第2の実施形態に係る車載センシング装置における処理の一例を示したシーケンス図である。 (A)は、本発明の第2の実施形態に係る車載センシング装置の学習データ取得・正解ラベル付加段階及び学習段階の処理の一例を示したフローチャートであり、(B)は、本発明の第2の実施形態に係る車載センシング装置の運用段階の処理の一例を示したフローチャートである。 正解ラベル付加方法の説明に係るブロック図である。 (A)~(C)は、取得画像内に1つの物体のみ存在する場合における、評価器の評価方法の一例を示した説明図である。 (A)~(C)は、取得画像内に物体が複数存在する可能性がある場合における、評価器での評価方法の一例を示した説明図である。 最良画像選択を示した説明図であり、(A)は過度の露出オーバー、(B)は露出オーバー、(C)は軽度の露出オーバー、(D)は適正露出、(E)は軽度の露出アンダー、(D)は過度の露出アンダーの状態を各々示している。 (A)~(F)は、正解ラベル生成の一例を示した説明図である。センサ10へのパラメータ制御信号への適用に適している。 (A)~(F)は、正解ラベル生成の他の例を示した説明図である。 図21は、学習器に入力する画像データの前処理の一例を示した説明図であり、(A)は、処理前の元画像であり、(B)は、前処理1により元画像を縮小して解像度を低下させた画像であり、(C)は、解像度を低下させた画像を前処理2によりリサイズした画像であり、(D)は、リサイズした画像を前処理3によりトリミングして生成した縦横比が1:1の画像である。 学習器によりセンサパラメータ制御モデルを生成して、前処理した正解ラベル付きの画像からパラメータの増減値を出力する処理の一例を示したフローチャートである。 学習後の車載センシング装置のブロック図である。 本発明の第2の実施形態の変形例に係る認識装置の一例を示したブロック図である。 学習後の認識装置のブロック図である。
[第1の実施形態]
以下、図面を参照して本発明の第1の実施形態の一例を詳細に説明する。
図1に示すように、本実施形態に係る車載センシング装置100は、車載センサ10とコンピュータ20とを含んでいる。車載センサ10は、車両に搭載され、車両の周辺を検知範囲とし、設定された測定パラメータ及び処理パラメータに従って検知範囲内の物理量を繰り返し測定し、各回の測定結果を測定信号として出力すると共に、測定パラメータ及び処理パラメータの設定が外部から変更可能に構成されている。車載センサ10は、例えば、カメラである。当該カメラは、一般的な可視光カメラを用いてもよいし、一般的な可視光カメラ以外にも、近赤外カメラ、中赤外カメラ、遠赤外カメラ、テラヘルツカメラ、紫外線カメラ、X線カメラ、単一フォトダイオード等をアレイ化した装置等である。従って、車載センサ10は、物体の検出及び分類が可能な1次元的、2次元的な撮像データを取得可能で、当該撮像データの取得に影響を及ぼす測定パラメータ及び処理パラメータを変更可能な装置を全て含む。車載センサ10は、ステレオカメラ等の3次元的な(又は3次元以上の)撮像データを取得可能な装置でもよい。また、車載センサ10は物体の検出が可能であれば、ミリ波レーダ又は超音波センサ等でもよい。
車載センサ10がカメラである場合、車載センサ10は、レンズ等の光学系と受光の強度に応じた信号を出力する撮像素子とを含むセンサデバイス14と、センサデバイス14が出力した信号を画像ファイルへ変換する、いわゆる画像エンジンである前処理器12とを含む。カメラである車載センサ10の測定パラメータとしては、センサデバイス14に対するシャッタ速度(露光時間)、ゲイン(感度)、画角、絞り(Fナンバー)、フォーカス(焦点)及びフレームレート(測定周期)等である。前処理器に対する処理パラメータは、ホワイトバランス、コントラスト、空間解像度(画素数)、などが挙げられる。又は、処理パラメータは、階調変換、及びエッジ抽出等の画像処理に係るパラメータを含み、前処理器12は、当該処理パラメータに従って、階調変換、及びエッジ抽出等の画像処理を行ってもよい。
車載センサ10は、画像取得開始時はセンサデバイス14及び前処理器12の各々に予め設定された初期パラメータで画像取得を行い、その後は、初期パラメータを変更した測定パラメータ及び処理パラメータに従って画像取得を行う。
センサデバイス14と前処理器12とが一体で構成されている場合は、ホワイトバランス等の処理をセンサデバイス14で行うことと同義となる。また、フレームレートの変更をセンサデバイス14でのフレームの間引きであるコマ落としで行うことも可能な場合があるので、測定パラメータと処理パラメータとを峻別することが困難となる。従って、測定パラメータと処理パラメータとを特段区別せずに扱ってもよい。
コンピュータ20は、CPU、メモリ、各種の処理を実行するためのプログラムなどを記憶した不揮発性の記憶部及びネットワークインタフェースなどを含んでいる。コンピュータ20は、機能的には、車載センサ10で取得した画像が入力される前段処理群30と前段処理群30が出力した選択画像が入力される後段処理群50を備える。前段処理群30は、車載センサ10から出力された画像(取得画像)内の物体の検出および識別を実行して画像内の物***置を示す検出結果、当該物体が何であるかを示す識別結果、及び当該物体の確からしさを示す信頼度である尤度(確度、信頼度、可能性を示す値、確率、確証度、likelihood、possibility、probability)を出力する物体識別器32と、物体識別器32が出力した検出結果、識別結果及び尤度を、物体識別器32が当該検出結果、当該識別結果及び当該尤度を検出した取得画像に対応付けて記録する記録器34と、記録器34に記録された取得画像、並びに当該取得画像に対応付けされた検出結果、識別結果及び尤度を、評価指標記憶部38に格納された評価指標に基づいて判定して、最良と思われる画像を選択して後段処理群50に出力する評価器36と、初期パラメータから変更した測定パラメータ及び処理パラメータに従って次の画像を取得するようにセンサデバイス14及び前処理器12を制御するパラメータ制御器40とを含む。パラメータ制御器40におけるパラメータの変更は、物体識別器32が取得画像から物体を識別したことを示す識別完了信号を出力する毎に、初期パラメータから徐々に段階的に変更するが、識別完了信号に物体識別器32による識別結果を含ませ、識別完了信号に含ませた識別結果に基づいて初期パラメータをより適切と思われる値に変更してもよい。
後段処理群50は、前段処理群30から出力された最良画像から物体検出等の任意の処理を行い、最終的な結果を出力する。
後述するように、前段処理群30の物体識別器32と、後段処理群50の物体識別器52は、共にDNN(Deep Neural Network)に基づいた信号処理を行うが、前段処理群30の物体識別器32は、後段処理群50の物体識別器52よりも軽量なニューラルネットワークを用いており、後段処理群50の物体識別器52よりも高速な処理が可能に構成されている。
図2(A)は測定パラメータである露光時間が最も長い露光時間1で取得した画像、(B)は露光時間が露光時間1よりも短い露光時間2で取得した画像、(C)は露光時間が露光時間2よりも短い露光時間3で取得した画像、(D)は露光時間が露光時間3よりも短い露光時間4で取得した画像から各々検出した検出結果、識別結果及び尤度の一例を示した説明図である。
前段処理群30のパラメータ制御器40は、露光時間が例えば露光時間1から露光時間4まで段階的に異なる画像を取得するように、車載センサ10の画像取得時の露光時間を段階的に変化させるパラメータ制御信号を車載センサ10に逐次出力する。
図2(A)は、いわゆる露出オーバーの場合であり、図の左側と右側とに各々存在する物体の位置が検出されると共に、当該物体が車及びバスであることを識別しているが、尤度は車と識別された物体が20%、バスと識別された物体が10%にとどまっている。
図2(B)は、図2(A)よりも軽度の露出オーバーの場合であり、図からの左側と右側とに各々存在する物体の位置が検出されると共に、当該物体が車及びバスであることを識別しており、尤度は車と識別された物体が60%、バスと識別された物体が50%である。
図2(C)は、露光時間が適正な場合であり、図の左側に車と識別された物体と図の右側にバスと識別された物体と共に、図の中央左寄りにトラックと識別された物体が検出され、尤度は車と識別された物体が40%、バスと識別された物体が30%、トラックと識別された物体が30%である。
図2(D)は、露光時間が不足した場合であり、図の左側に車と識別された物体が検出されるのみであり、車と識別された物体の尤度は30%である。
前段処理群30の評価器36は、図2に示したような検出結果、識別結果及び尤度に基づいて後段処理群50に出力する最良画像を選択する。最良画像の選択に際しては、評価指標記憶部38に格納された評価指数が参酌される。評価器36による評価の詳細については後述するが、評価指数は、一例として(1)物体検出数が一番多い画像を選択する、(2)尤度の総計が一番高い画像を選択する、(3) 自車正面に衝突危険性が高い車両等の物体が検出された画像を選択する、(4)歩行者の検出数が一番多い画像を選択する、(5)優先順位の高い物(例:車)の尤度が最も高い画像を選択する等がある。
上記(1)~(5)の評価指数を図2に適用すると、評価指数(1)では図2(C)が、評価指数(2)では図2(B)が、評価指数(3)では図2(C)が、評価指数(5)では図2(B)が、各々最良画像として選択される。
評価器36で、いかなる評価指数を採用するかは、コンピュータ20を評価器36として機能させるアプリケーション又は評価対象である取得画像の態様により異なる。例えば、歩行者の未検出が許されないアプリケーションを用いるのであれば、歩行者の検出数を優先する評価指数(4)を採用する。
図3は、前段処理群30と後段処理群50との動作タイミングの一例を示した説明図である。図3に示したように、後段処理群50が前段処理群30から出力された最良画像を用いた処理を行っている間に、前段処理群30は測定パラメータ及び処理パラメータを各々変更した所定枚数の画像の取得及び当該画像から新たな最良画像を選定する処理を行い、当該新たな最良画像を後段処理群50に出力する。
前段処理群30及び後段処理群50のいずれにおいても物体の未検出が最も問題となるので、前段処理群30では物体の誤検出を許容し、物体の検出数を優先するアルゴリズムを採用してもよい。ただし、誤検出が異常に増えると評価器36での評価が難しくなるため、前段処理群30の物体識別器32で識別できる物体を、車載センシング装置100で真に必要な物体(例:車、人、又はバイク等)に限定し、誤検出が出にくいようにする。例えば、前段処理群30の物体識別器32では車両を乗用自動車、バス、トラックといった車種別に識別せず、車両を全て「車」等の包括的な分類に従って識別してもよい。
本実施形態では、後段処理群50が処理をしている間に、前段処理群30は複数回の処理を行う必要があるため、前段処理群30は後段処理群50よりも高速に動作する必要がある。例えば、前段処理群30は、後段処理群50による識別処理における物体の分類よりも包括的な分類に従って物体を識別することによって計算負荷を低減し、処理の高速化を図る。
前述のように、前段処理群30の物体識別器32と、後段処理群50の物体識別器52とは、共にDNNベースの識別器である。本実施形態では、前段処理群30の物体識別器32にはネットワーク層数が少ない軽量な識別器(精度犠牲、速度重視)を使用し、後段処理群50の物体識別器52には層数の多い重量ネットワークを用いた識別器(精度優先)を使用する。前段処理群30の物体識別器32と後段処理群50の物体識別器52との各々は、同じ学習データセット(教師データ)で学習されているとよい。
図4は、前段処理群30の物体識別器32及び後段処理群50の物体識別器52で用いられるDNNの一例を示した説明図である。本実施形態に係るDNNは、一例として、畳み込みニューラルネットワーク (Convolutional Neural Networks: CNN)であり、事前の学習結果に基づいて入力画像を車種等のカテゴリに分類し、出力層からカテゴリ毎の尤度が出力される。尤度は、例えば、soft-max関数を用いて、前述のカテゴリに応じて0~9までの10段階で出力され、全段階の尤度を合計すると1(百分率表現では100%)となるように正規化されている。本実施形態に係るDNNは、例えば、尤度が最も高いカテゴリを分類結果とする。
図5は、本実施形態に係る車載センシング装置100における処理の一例を示したシーケンス図である。図5に示した処理では、ステップS0で、後段処理群50の物体識別器52により、前段処理群30から出力された最良画像から物体の位置、当該物体の識別及び当該物体識別の尤度を検出する検出・分類処理が実行される間に、ステップS1において次の最良画像を選択するための前段処理が開始される。
ステップS2では、1回目のパラメータ設定(P設定)を行い、設定したパラメータを車載センサ10に出力する。設定するパラメータは測定パラメータでも処理パラメータでもよい。図5に示した処理では、都合3回、パラメータを設定し、3個の画像データを取得する。「3」は、特許請求の範囲に記載の所定数の一例である。前段処理群30が後段処理群50に対して十分に高速である場合、3よりも大きな値を所定数としてもよい。
ステップS3では、車載センサ10は、設定されたパラメータに従い1回目の撮影を行って画像を取得し、ステップS4では、取得画像を前段処理群30に送信する(1回目の画像送信)。
ステップS5では、物体識別器32により、取得画像内の物体の位置、当該物体の識別、及び当該物体の識別の尤度を検出する1回目の検出・分類処理を行う。
ステップS6では、ステップS5で検出した物***置、物体の識別及び物体識別の尤度と共に1回目の取得画像を記録器34に記録する1回目の結果と画像の記録を行う。
ステップS7では、2回目のパラメータ設定を行い、設定したパラメータを車載センサ10に出力する。2回目に設定するパラメータは、1回目に設定したパラメータとは異なる値にする。
ステップS8では、車載センサ10は、設定されたパラメータに従い2回目の撮影を行って画像を取得し、ステップS9では、取得画像を前段処理群30に送信する(2回目の画像送信)。
ステップS10では、物体識別器32により、取得画像内の物体の位置、当該物体の識別、及び当該物体の識別の尤度を検出する2回目の検出・分類処理を行う。
ステップS11では、ステップS10で検出した物***置、物体の識別及び物体識別の尤度と共に2回目の取得画像を記録器34に記録する2回目の結果と画像の記録を行う。
ステップS12では、3回目のパラメータ設定を行い、設定したパラメータを車載センサ10に出力する。3回目に設定するパラメータは、1回目に設定したパラメータ及び2回目に設定したパラメータの各々とは異なる値にする。
ステップS13では、車載センサ10は、設定されたパラメータに従い3回目の撮影を行って画像を取得し、ステップS14では、取得画像を前段処理群30に送信する(3回目の画像送信)。
ステップS15では、物体識別器32により、取得画像内の物体の位置、当該物体の識別、及び当該物体の識別の尤度を検出する3回目の検出・分類処理を行う。
ステップS16では、ステップS15で検出した物***置、物体の識別及び物体識別の尤度と共に3回目の取得画像を記録器34に記録する3回目の結果と画像の記録を行う。
ステップS17では、後段処理群50の物体識別器52により最良画像から検出された物体の位置、当該物体の識別及び当該物体識別の尤度を示す検出結果が出力される。
ステップS18では、前段処理群30の評価器36で、評価指標記憶部38に格納された評価指数を参酌して1回目の取得画像、2回目の取得画像、及び3回目の取得画像のいずれかから最良画像を選択する評価を行い、ステップS19では、選択した最良画像を後段処理群50に出力する。
ステップS20では、後段処理群50の物体識別器52により、前段処理群30から出力された新たな最良画像から物体の位置、当該物体の識別及び当該物体識別の尤度を検出する検出・分類処理を開始する。
ステップS21では、次の最良画像を選択するための前段処理が開始される。そして、ステップS22では、1回目のパラメータ設定を行い、設定したパラメータを車載センサ10に出力する。ステップS19では最良画像を選択しているので、ステップS22では当該最良画像を撮影した際のパラメータを設定してもよい。
ステップS23では、車載センサ10は、設定されたパラメータに従い1回目の撮影を行って画像を取得し、ステップS24では、取得画像を前段処理群30に送信する(1回目の画像送信)。
ステップS25では、物体識別器32により、取得画像内の物体の位置、当該物体の識別、及び当該物体の識別の尤度を検出する1回目の検出・分類処理を行う。
ステップS26では、ステップS5で検出した物***置、物体の識別及び物体識別の尤度と共に1回目の取得画像を記録器34に記録する1回目の結果と画像の記録を行う。
ステップS27では、2回目のパラメータ設定を行い、設定したパラメータを車載センサ10に出力する。2回目に設定するパラメータは、1回目に設定したパラメータとは異なる値にする。
ステップS28では、車載センサ10は、設定されたパラメータに従い2回目の撮影を行って画像を取得し、ステップS29では、取得画像を前段処理群30に送信する(2回目の画像送信)。以下、ステップS10~S19と同様の手順を経て、新たな最良画像を選択して後段処理群50に出力する。
図6は、本実施形態に係る車載センシング装置100の前段処理群30の処理の一例を示したフローチャートである。図6のステップ600~616の各々の手順は、図5のステップS1、S2、S5~S7、S10~S12、S15、S16、S18、S19の各々の手順に相当する。
ステップ600では、カウンタをn=1に設定する。ステップ602では、パラメータ設定(P設定)を行い、設定したパラメータを車載センサ10に出力する。設定するパラメータは測定パラメータでも処理パラメータでもよい。
ステップ604では、車載センサ10が撮影した画像を取得する。そして、ステップ606では、物体識別器32により、取得画像内の物体の位置、当該物体の識別、及び当該物体の識別の尤度を検出する検出・分類処理を行う。
ステップ608では、ステップ606で検出した物***置、物体の識別及び物体識別の尤度と共に取得画像を記録器34に記録する結果と画像との記録を行い、ステップ610では、カウンタを1インクリメントする。
ステップ612では、カウンタがn=3か否かを判定する。ステップ612で、カウンタがn=3の場合は手順をステップ614に移行し、カウンタがn=3ではない場合は手順をステップ602に移行する。
ステップ614では、評価器36で、評価指標記憶部38に格納された評価指数を参酌して複数の取得画像のいずれかから最良画像を選択する評価を行う。そして、ステップ616では、選択した最良画像を後段処理群50に出力して処理を終了する。
図7は、取得画像内に一つの物体のみ存在する場合における、評価器36での評価方法の一例を示した説明図で、(A)は物体識別の尤度が30%、(B)は物体識別の尤度が90%、(C)は物体識別の尤度が70%である。図7に示した場合では、前述の評価指数(2)を適用して、尤度の総計が一番高い画像である図7(B)を最良画像として選択する。
図8は、取得画像内に物体が複数存在する可能性がある場合における、評価器36での評価方法の一例を示した説明図で、(A)は1台の車を尤度30%で、1羽の鳥を尤度40%で各々識別した場合、(B)は1台の車を尤度50%で、もう1台の車を尤度90%で各々識別した場合、(C)は1台の車を尤度40%で、もう1台の車を尤度70%で、さらにもう1台の車を尤度10%で、1羽の鳥を尤度50%で各々識別した場合を各々示している。
上述の評価指数(1)~(5)を図8に適用すると、物体検出数が一番多い画像を選択する評価指数(1)では図8(C)が、尤度の総計が一番高い画像を選択する評価指数(2)では図8(C)が、自車正面に衝突危険性が高い車両等の物体が検出された画像を選択する評価指数(3)では図8(B)が、優先順位の高い物(例:車)の尤度が最も高い画像を選択する評価指数(5)では図8(B)が、各々最良画像として選択される。
本実施形態では、評価指数(1)~(5)のいずれか1つに依拠して最良画像を選択してもよいが、評価指数(1)~(5)の各条件を合成した条件を充足する取得画像を最良画像として選択してもよい。
例えば、図8(C)は、評価指数(1)及び評価指数(2)の各々の条件を充足するが、評価指数(3)及び評価指数(5)の条件も図8(B)に次いで高いスコアで充足する。従って、評価指数(1)~(5)の各条件を合成した条件下では、例えば図8(C)を最良画像として選択する。
物体識別器32における検出・分類処理では、取得画像によっては、画像から物体が検出されない場合があり得る。前述のように、かかる未検出が最も問題となるので、本実施形態に係る車載センシング装置100では、検出数を優先するアルゴリズムを採用してもよい。例えば図8(A)及び図8(B)に示したような結果しか得られなかった場合のように、物体の検出数は同じであるが、検出されている物体が異なる場合、換言すれば未検出の物体が異なる場合は、後段処理群50に図8(A)及び図8(B)のような2枚の画像を出力し、後段処理群50で一時的に処理性能を上げることにより、最終的な物体検出及び物体識別の精度を担保してもよい。
図9(A)は取得画像の一例を示した概略図であり、(B)は取得画像から識別した物体の尤度に基づく信頼度マップの一例を示した説明図である。測定パラメータ又は処理パラメータを変更しても複数の画像内に同じ物体が識別される場合は、その識別結果は非常に信頼度が高いと判断できる。従って、前段処理群30は、後段処理群50に、各パラメータで取得したデータを合成した信頼度データ(信頼度マップ)を併せて後段処理群50に出力する。データの合成は、各画像の尤度の総計でもよいし、正規化等の処理によって各画像の尤度の範囲を0~1の間に収める処理をしてもよい。一例として、図9(B)では、複数画像の尤度を合計して、車:低、車:中、車:高、鳥:高のように信頼度が示されている。
後段処理群50では、後段処理群50の物体識別器52の出力結果と、図9(B)に示したような信頼度マップとを照合することにより、車載センシング装置100としてより信頼性の高い結果を得ることができる。
以上説明したように、本実施形態では、予め前段処理群30で、後段処理群50での処理結果が最良となるような撮影条件で取得された画像を後段処理群50に渡すことで物体の未検知、誤検知等の発生を抑制することができる。
一般的なカメラを用いた車載センシング装置では、取得画像に基づいて次に取得する画像の撮影条件等のパラメータを制御する場合があるが、当該パラメータの制御はカメラ内で独立した制御であるため、後段処理群での結果を保証していない。従って、必ずしも後段処理群での処理結果が良好となるようなパラメータをカメラが設定するとは限らないという問題があった。
本実施形態では、カメラ等の車載センサ10に後続する前段処理群30で、取得画像から識別した物体の尤度に基づいて、車載センサ10のパラメータを変更して得た複数の取得画像から、後段処理群50の画僧処理に適した最良画像を選択する。その結果、後段処理群での処理結果が良好となるようにパラメータを設定して取得した画像を後段処理群50に出力可能となるので、取得画像内に存在する物体を識別する精度を向上させることができる。
なお、前段処理群30はカメラ(車載センサ10)に内蔵されてもよい。また、車載センサ10と前段処理群30と後段処理群50との全てを一体としてもよい。又は画像エンジン等である前処理器12が車載センサ10の外に独立して存在する構成でもよい。
[変形例]
図10は、本実施形態の変形例に係る車載センシング装置200の一例を示したブロック図である。図10に示した車載センシング装置200は、コンピュータ120に設けられた前段処理群130に車載センサ10で取得した画像の解像度を低下させて、当該画像データのデータ量を圧縮する解像度変換器140を備え、物体識別器32は、解像度変換器140が出力した圧縮後の画像で検出・分類処理を行う点で前述の車載センシング装置100と相違する。しかしながら、その他の構成は図1に示した車載センシング装置100と同じなので、車載センシング装置100と同じ構成については、図1と同一の符号を付して詳細な説明は省略する。
解像度変換器140により解像度を低下させた画像に対して検出・分類処理を行うことにより、当該処理を行う物体識別器32の演算負荷を抑制でき、その結果、前段処理群30での処理時間を短縮することが可能となる。又は、図1に示した車載センシング装置100と同一時間内であれば、車載センシング装置100よりも多くの画像に対して検出・分類処理を行うことができる。
車載センシング装置200において、記録器34には、解像度を低下させる前の取得画像が記録されるので、後段処理群50には、解像度が低下していない最良画像を受け渡すことができる。
上記では、モデルの一例としてのニューラルネットワークモデルをディープラーニングによって学習させる態様を説明したが、これに限定されるものではない。例えば、ニューラルネットワークモデルとは異なる他のモデルを、ディープラーニングとは異なる他の学習方法によって学習させてもよい。
[第2の実施形態]
以下、図面を参照して本発明の第2の実施形態の一例を詳細に説明する。図11は、本実施形態の係る車載センシング装置300の一例を示したブロック図である。図11に示した車載センシング装置300は、車載センサ10等の一部の構成は図1に示した車載センシング装置100と同じなので、車載センシング装置100と同じ構成については、図1と同一の符号を付して詳細な説明は省略する。車載センシング装置300は、取得した画像から車載センサ10のパラメータを最適化するセンサパラメータ最適化装置として機能する。
前段処理群330は、CPU、メモリ、各種の処理を実行するためのプログラムなどを記憶した不揮発性の記憶部及びネットワークインタフェースなどを含んでいる。前段処理群330には、車載センサ10で取得した画像及び当該画像を取得した際のパラメータが入力される。そして、入力された画像及び当該画像を取得した際のパラメータは、物体識別器332と記録器334とに供給される。前段処理群330は、車載センサ10から出力された画像内の物体の検出および識別を実行して画像内の物***置を示す検出結果、当該物体が何であるかを示す識別結果、及び当該物体の確からしさを示す信頼度である尤度を出力する物体識別器332と、物体識別器332が出力した検出結果、識別結果及び尤度を、当該検出結果、当該識別結果及び当該尤度を検出した取得画像に対応付けて記録する記録器334と、記録器334に記録された取得画像、並びに当該取得画像に対応付けされた検出結果、識別結果及び尤度を、評価指標記憶部338に格納された評価指標に基づいて判定して、最良と思われる画像(最良画像)を選択すると共に、車載センサ10が取得した全画像及び当該全画像を取得した際のパラメータと、最良画像のパラメータとを後続するラベル生成器342に出力する評価器336と、最良画像のパラメータに基づいて、各画像に正解ラベルを付加し、画像及び正解ラベル、又は画像と正解ラベルと画像を取得した時のパラメータとを後段処理群350の学習データサーバー352に出力するラベル生成器342と、初期パラメータから変更した測定パラメータ及び処理パラメータに従って次の画像を取得するようにセンサデバイス14及び前処理器12を制御する単純パラメータ制御器340と、を含む。単純パラメータ制御器340におけるパラメータの変更は、物体識別器332が取得画像から物体を識別したことを示す識別完了信号を出力する毎に、初期パラメータから徐々に段階的に変更するが、識別完了信号に物体識別器332による識別結果を含ませ、識別完了信号に含ませた識別結果に基づいて初期パラメータをより適切と思われる値に変更してもよい。ラベル生成器342は、画像と正解ラベルと画像を取得した時のパラメータとを後段処理群350の学習データサーバー352に出力する際に、画像と画像を取得した時のパラメータとが組み合わさった状態で学習データサーバー352に出力する。
前段処理群330の物体識別器332は、第1の実施形態に係る物体識別器32と同様にDNNに基づいた信号処理を行う。しかしながら、前段処理群330の物体識別器332は、第1の実施形態に係る物体識別器32よりも重量なニューラルネットワークを用いており、第1の実施形態に係る物体識別器32よりも正確な物体識別が可能なように構成されている。
後段処理群350は、前段処理群330から出力されて学習データサーバー352に格納された画像及び正解ラベルのデータを用いて、学習器354を学習し、センサパラメータ制御モデル356を生成する。図23を用いて後述するように、本実施形態では、前段処理群330の物体識別器332による物体の識別結果に基づいて後段処理群350を最適化し、最適化した後段処理群350のセンサパラメータ制御モデル356が車載センサ10のパラメータを設定する。後段処理装置である物体識別器358(図23参照)は、センサパラメータ制御モデル356によって設定されたパラメータに従って取得された画像を用いて物体識別を行う。センサパラメータ制御モデル356は、車載センサ10で取得した画像から、最良の撮影条件にするためのパラメータの増減値を予測し、カメラに入力するパラメータを変更して車載センサ10に出力する。そして車載センサ10は、変更されたパラメータに従って画像を取得する。
図12(A)は測定パラメータである露光時間が最も長い露光時間1で取得した画像、(B)は露光時間が露光時間1よりも短い露光時間2で取得した画像、(C)は露光時間が露光時間2よりも短い露光時間3で取得した画像、(D)は露光時間が露光時間3よりも短い露光時間4で取得した画像から各々検出した検出結果、識別結果及び尤度の一例を示した説明図である。
図12(A)~(D)は、単純パラメータ制御器340に予め設定された初期条件(例:初期露光時間1ms、100ms毎に4枚撮影等)に基づいて車載センサ10で取得したパラメータの異なる複数の画像を、物体識別器332により画像内の物体の検出および識別を実行した結果が併記されている。具体的には、画像内の物***置(例:矩形枠)を示す検出結果と、当該物体が何であるかを示す分類結果及び当該分類結果の確からしさを示す尤度が、図12(A)~(D)の各々に記載されている。
前段処理群330の単純パラメータ制御器340は、露光時間が例えば露光時間1から露光時間4まで段階的に異なる画像を取得するように、車載センサ10の画像取得時の露光時間を段階的に変化させるパラメータ制御信号を車載センサ10に逐次出力する。
図12(A)は、いわゆる露出オーバーの場合であり、検出数は0、信頼度計も0であり、有意な検出結果は得られていない。
図12(B)は、図12(A)よりも軽度の露出オーバーの場合であり、図からの左側と右側とに各々存在する物体の位置が検出されると共に、当該物体が車であることを識別している。尤度は車と識別された左の物体が75%、車と識別された右の物体が93%で、各々の物体識別の尤度の合計である信頼度計は168%である。
図12(C)は、露光時間が適正な場合であり、図の左側に車と識別された物体と図の右側に車と識別された物体が検出され、尤度は車と識別された右の物体が98%、車と識別された右の物体が95%で、各々の物体識別の尤度の合計である信頼度計は193%である。
図12(D)は、露光時間が不足した場合であり、図の左側に車と識別された物体が検出されるのみであり、車と識別された物体の尤度は93%である。
前段処理群330の評価器336は、図12に示したような検出結果、識別結果及び尤度に基づいてラベル生成器342に出力する最良画像を選択する。最良画像の選択に際しては、評価指標記憶部338に格納された評価指数が参酌される。評価器336による評価の詳細については後述するが、評価指数は、一例として(1)物体検出数が一番多い画像を選択する、(2)尤度の総計が一番高い画像を選択する、(3) 自車正面に衝突危険性が高い車両等の物体が検出された画像を選択する、(4)歩行者の検出数が一番多い画像を選択する等がある。
上記(1)~(4)の評価指数を図12に適用すると、評価指数(1)では図12(B)及び図12(C)が、評価指数(2)では図12(C)が、評価指数(3)では図12(B)、図12(C)及び図12(D)が、各々最良画像として選択される。
評価器336で、いかなる評価指数を採用するかは、コンピュータを評価器336として機能させるアプリケーション又は評価対象である取得画像の態様により異なる。例えば、歩行者の未検出が許されないアプリケーションを用いるのであれば、歩行者の検出数を優先する評価指数(4)を採用する。
図13は、本実施形態に係る車載センシング装置300における処理の一例を示したシーケンス図である。図13に示した処理では、ステップS100において前段処理が開始される。
ステップS101では、1回目のパラメータ設定(P設定)を行い、設定したパラメータを車載センサ10に出力する。設定するパラメータは測定パラメータでも処理パラメータでもよい。図13に示した処理では、都合3回、パラメータを設定し、3個の画像データを取得する。3よりも大きな値を所定数としてもよい。
ステップS102では、車載センサ10は、設定されたパラメータに従い1回目の撮影を行って画像を取得し、ステップS103では、取得画像を前段処理群330に送信する(1回目の画像送信)。
ステップS104では、物体識別器332により、取得画像内の物体の位置、当該物体の識別、及び当該物体の識別の尤度を検出する1回目の検出・分類処理を行う。
ステップS105では、ステップS104で検出した物***置、物体の識別及び物体識別の尤度と共に1回目の取得画像を記録器334に記録する1回目の結果と画像の記録を行う。
ステップS106では、2回目のパラメータ設定を行い、設定したパラメータを車載センサ10に出力する。2回目に設定するパラメータは、1回目に設定したパラメータとは異なる値にする。
ステップS107では、車載センサ10は、設定されたパラメータに従い2回目の撮影を行って画像を取得し、ステップS108では、取得画像を前段処理群330に送信する(2回目の画像送信)。
ステップS109では、物体識別器332により、取得画像内の物体の位置、当該物体の識別、及び当該物体の識別の尤度を検出する2回目の検出・分類処理を行う。
ステップS110では、ステップS109で検出した物***置、物体の識別及び物体識別の尤度と共に2回目の取得画像を記録器334に記録する2回目の結果と画像の記録を行う。
ステップS111では、3回目のパラメータ設定を行い、設定したパラメータを車載センサ10に出力する。3回目に設定するパラメータは、1回目に設定したパラメータ及び2回目に設定したパラメータの各々とは異なる値にする。
ステップS112では、車載センサ10は、設定されたパラメータに従い3回目の撮影を行って画像を取得し、ステップS113では、取得画像を前段処理群330に送信する(3回目の画像送信)。
ステップS114では、物体識別器332により、取得画像内の物体の位置、当該物体の識別、及び当該物体の識別の尤度を検出する3回目の検出・分類処理を行う。
ステップS115では、ステップS114で検出した物***置、物体の識別及び物体識別の尤度と共に3回目の取得画像を記録器334に記録する3回目の結果と画像の記録を行う。
ステップS116では、前段処理群330の評価器336で、評価指標記憶部338に格納された評価指数を参酌して1回目の取得画像、2回目の取得画像、及び3回目の取得画像のいずれかから最良画像を選択すると共に、取得した全画像と、当該全画像を取得した際のパラメータと、最良画像のパラメータとをラベル生成器342に出力する。
ステップS117では、ラベル生成器342において、最良画像のパラメータに基づいて、各画像に正解ラベルを付加する。
ステップS118では、学習データサーバー352及び学習器354にラベルが付加された画像データを記録する。
以上のステップS101からステップS118までが学習データ取得・正解ラベル付加段階400である。学習データ取得・正解ラベル付加段階400は、学習に必要な画像データのバリエーションを増やすために、ステップS101からステップS118までの手順を複数回繰り返してもよい。
ステップS120では、学習データサーバー352及び学習器354において、ラベルが付加された画像データを用いた学習を行う。
ステップS120での学習の結果に基づいて、ステップS121では、後段処理群350にセンサパラメータ制御モデル356が生成される。ステップS120及びステップS121は、畳み込み処理を用いた学習段階402である。学習段階402における学習の詳細は後述する。
ステップS122以降は、学習済みのセンサパラメータ制御モデル356を軸とした画像取得及び画像処理を実際に行う運用段階404である。学習データ取得・正解ラベル付加段階400及び学習段階402は、車載センシング装置300の機能を最適化するための準備段階である。
ステップS122では、初期パラメータ設定を行い、設定した初期パラメータを車載センサ10に出力する。設定するパラメータは測定パラメータでも処理パラメータでもよいが、前述の学習段階402での学習に基づくものである。
ステップS123では、車載センサ10は、設定されたパラメータに従い撮影を行って画像を取得し、ステップS124では、取得画像をセンサパラメータ制御モデル356に送信する。
ステップS125では、画像を物体識別器358に送信し、ステップS126では、物体識別器358により、取得画像内の物体の位置、当該物体の識別、及び当該物体の識別の尤度を検出する検出・分類処理を行う。ステップS126での検出・分類の結果は、ステップS127で出力される。
ステップS128では、センサパラメータ制御モデル356の出力結果に基づいて再びパラメータ設定を行い、設定したパラメータを車載センサ10に出力する。
ステップS129では、車載センサ10は、設定されたパラメータに従い撮影を行って画像を取得し、ステップS130では、取得画像をセンサパラメータ制御モデル356に送信する。
ステップS131では、画像を物体識別器358に送信し、ステップ132では、物体識別器358により、取得画像内の物体の位置、当該物体の識別、及び当該物体の識別の尤度を検出する検出・分類処理を行う。ステップS132での検出・分類の結果は、ステップS133で出力される。以降、パラメータ設定と画像取得と画像内からの物体の識別とが反復される。
図14(A)は、本実施形態に係る車載センシング装置300の学習データ取得・正解ラベル付加段階400及び学習段階402の処理の一例を示したフローチャートであり、(B)は、本実施形態に係る車載センシング装置300の運用段階404の処理の一例を示したフローチャートである。図14(A)のステップ100~120の各々の手順は、図13のステップS100、S101、S104~S106、S109~S111、S114~S121の各々の手順に相当する。また、図14(B)のステップ200~206の各々の手順は、図13のステップS122、S125、S126~S128、S130~S133の各々の手順に相当する
ステップ100では、カウンタをn=1に設定する。ステップ102では、パラメータ設定を行い、設定したパラメータを車載センサ10に出力する。設定するパラメータは測定パラメータでも処理パラメータでもよい。
ステップ104では、車載センサ10が撮影した画像を取得する。そして、ステップ106では、物体識別器332により、取得画像内の物体の位置、当該物体の識別、及び当該物体の識別の尤度を検出する検出・分類処理を行う。
ステップ108では、ステップ106で検出した物***置、物体の識別及び物体識別の尤度と共に取得画像を記録器334に記録する画像と識別結果との記録を行い、ステップ110では、カウンタを1インクリメントする。
ステップ112では、カウンタがn=10に達したか否かを判定する。ステップ112で、カウンタがn=10の場合は手順をステップ114に移行し、カウンタがn=10ではない場合は手順をステップ102に移行する。
ステップ114では、評価器336で、評価指標記憶部338に格納された評価指数を参酌して複数の取得画像のいずれかから最良画像を選択する評価を行う。そして、ステップ116では、最良画像のパラメータに基づいて、各画像に正解ラベルを付加する。
ステップ118では、画像と正解ラベルとを学習データサーバー352に出力する。図14(A)のステップ100からステップ118までが、学習データ取得・正解ラベル付加段階400に相当する。図14(A)のステップ100からステップ118までの手順は、学習に必要な画像データのバリエーションを増やすために複数回繰り返してもよい。
ステップ120では、学習データサーバー352及び学習器354において、ラベルが付加された画像データを用いた学習を行ってセンサパラメータ制御モデル356を生成して処理を終了する。ステップ120で生成したセンサパラメータ制御モデル356は、図14(B)のステップ204で車載センサ10のパラメータ予測に用いられる。
図14(B)のステップ200では、パラメータ設定を行い、設定したパラメータを車載センサ10に出力する。設定するパラメータは測定パラメータでも処理パラメータでもよい。
ステップ202では、車載センサ10が撮影した画像を取得する。ステップ204では、センサパラメータ制御モデル356により撮影した画像から車載センサ10のパラメータを予測し、予測したパラメータはステップ200のパラメータ設定にフィードバックされる。
ステップ206では、物体識別器358により、取得画像内の物体の位置、当該物体の識別、及び当該物体の識別の尤度を検出する検出・分類処理を行って処理を終了する。
図15は、正解ラベル付加方法の説明に係るブロック図である。本実施形態では、単純パラメータ制御器340で任意の回数分、例えば露光時間を図14(A)に示したように10段階変更し、各々のパラメータで画像を取得し、取得した画像から物体を検出する。そして、画像からの物体検出の結果及び画像は記録器334に記録する。画像からの物体検出を任意の回数で実行したら、画像と検出結果とを評価器336に入力し、検出数等の評価指標で最良画像を判断する。すべての画像と最良画像のパラメータとをラベル生成器342に入力し、正解ラベルを付加し、画像と正解ラベルとを、学習データサーバー352に格納する。
図15において、実線で示された経路上の手順は、上述の任意の回数分実行され、破線で示された経路上の手順は、実線で示された経路上の手順が任意の回数分実行された後に実行される。
図16は、取得画像内に1つの物体のみ存在する場合における、評価器336の評価方法の一例を示した説明図である。本実施形態では、画像内に1つの物体のみ存在する場合、尤度が最も高い画像を選定する。図16(A)は尤度が30%、図16(B)は尤度が90%、図16(C)は尤度が70%なので、図16(B)を選択し、図16(B)に示した画像の取得に係るP2(パラメータ2)を選択する。
図17は、取得画像内に物体が複数存在する可能性がある場合における、評価器336での評価方法の一例を示した説明図で、(A)は1台の車を画素数30×100の大きさ及び尤度30%で、1羽の鳥を画素数200×200の大きさ及び尤度40%で各々識別した場合、(B)は1台の車を画素数30×100の大きさ及び尤度50%で、もう1台の車を画素数30×100の大きさ及び尤度90%で各々識別した場合、(C)は1台の車を画素数30×100の大きさ及び尤度40%で、もう1台の車を画素数30×100の大きさ及び尤度70%で、さらにもう1台の車を画素数20×80の大きさ及び尤度10%で各々識別した場合を各々示している。
図17に示したような取得画像内に物体が複数存在する可能性がある場合には、一例として下記のような評価指数が適用される。
(a)検出数が最も多い画像を選択。
(b)尤度の合計が最も高い画像を選択。
(c)優先順位の高い物(例:車)の尤度が最も高い画像を選択。
(d)自車の正面において衝突危険性が高い物体の尤度が最も高い画像を選択。
(e)最も大きい物体(自車との距離が近く衝突危険性が高い物)を検出した画像を選択。
(f)各条件を合成した条件で画像を選択。
上述の評価指数(a)~(f)を図17に適用すると、物体検出数が最も多い画像を選択する評価指数(a)では図17(C)が、尤度の合計が最も高い画像を選択する評価指数(b)では図17(C)が、優先順位の高い物(例:車)の尤度が最も高い画像を選択する評価指数(c)では図17(B)が、自車の正面において衝突危険性が高い物体の尤度が最も高い画像を選択する評価指数(d)では図17(B)が、最も大きい物体(自車との距離が近く衝突危険性が高い物)を検出した画像を選択する評価指数(e)では図17(A)が、各々最良画像として選択される。
また、図17(C)は、評価指数(a)及び評価指数(b)の各々の条件を充足するが、評価指数(c)及び評価指数(d)の条件も図17(B)に次いで高いスコアで充足する。従って、評価指数(f)では、例えば図17(C)を最良画像として選択する。
物体識別器332における検出・分類処理では、取得画像によっては、画像から物体が検出されない場合があり得る。未検出が最も問題となるので、本実施形態に係る車載センシング装置300では、評価指数(a)に基づいた検出数を優先するアルゴリズムを採用してもよい。
図18は、最良画像選択を示した説明図であり、(A)は過度の露出オーバー、(B)は露出オーバー、(C)は軽度の露出オーバー、(D)は適正露出、(E)は軽度の露出アンダー、(D)は過度の露出アンダーの状態を各々示している。評価器336は、図18(D)を最良画像として選択し、図18(D)のパラメータP4を最良画像のパラメータとする。
図19は、正解ラベル生成の一例を示した説明図である。図19(A)~(F)は図18(A)~(F)と各々同一の画像であり、図19(D)が最良画像である。前述のように最良画像のパラメータはP4なので、図19(D)に正解ラベルである4を付加すると共に、図19(A)~(C)、図19(E)、図19(F)の各々にも正解ラベルである4を付加する。なお、上述の正解ラベルを、対数表記にしてもよい。
図19のように最良画像以外の画像にも最良画像のパラメータを示す正解ラベルを付加する場合の正解ラベルは、車載センサ10へのパラメータ制御信号への適用に適している。車載センサ10は、最良画像のパラメータを示す数値である正解ラベルに従って撮像することにより、最良画像を取得できるからである。
図20は、正解ラベル生成の他の例を示した説明図である。図20(A)~(F)は図18(A)~(F)と各々同一の画像であり、図20(D)が最良画像である。前述のように最良画像のパラメータはP4であるが、正解ラベルは最良画像のパラメータを示す数値(図20では4)から対象画像のパラメータを示す数値を減算して得た値を正解ラベルとする。具体的には、パラメータがP1である図20(A)の正解ラベルは3、パラメータがP2である図20(B)の正解ラベルは2、パラメータがP3である図20(C)の正解ラベルは1、パラメータがP4である図20(D)の正解ラベルは0、パラメータがP5である図20(E)の正解ラベルは-1、パラメータがP6である図20(F)の正解ラベルは-2となる。図20に示した正解ラベルは、最良画像の正解ラベルが0となる。最良画像に対して露出オーバーの場合は正の値となり、露出オーバーの程度が大きくなるほど正解ラベルの値は大きくなる。また、最良画像に対して露出アンダーの場合は負の値となり、露出アンダーの程度が大きくなるほど、正解ラベルの値は小さくなる。
図20に示した正解ラベルは、最良画像からどの程度外れているかを示しているので、車載センサ10のパラメータを補正する補正値として適用することができる。なお、±の付与は逆でもよい。例えば図20(A)の正解ラベルを「-3」にしてもよい。なお、上述の正解ラベルを、対数表記にしてもよい。
本実施形態では、図19又は図20に示した態様のラベルが付加された画像データを用いた学習を行ってセンサパラメータ制御モデル356を生成する。
図21は、学習器354に入力する画像データの前処理の一例を示した説明図である。本実施形態では、学習器354への入力画像の縦横比を1:1にするため、又は学習器354の処理を高速にするために、入力する画像データの前処理を行う。本実施形態における前処理は、一例として下記の通りである。
前処理1:縮小する(解像度を落とす)。
前処理2:リサイズする。
前処理3:トリミングする。
前処理4:前処理1~3のいずれかを適宜実行する。
図21(A)は、処理前の元画像であり、画素数640×480の大きさを有している。図21(B)は、前処理1により元画像を縮小して解像度を低下させた画像であり、画素数64×48まで小さくなっている。図21(C)は、解像度を低下させた画像を前処理2により元画像と同じ大きさである画素数640×480まで拡大してリサイズした画像である。図21(D)は、リサイズした画像を前処理3によりトリミングして生成した画素数480×480の縦横比が1:1の画像である。
前処理4は前処理1~3を適宜実行する。前処理1のみ、前処理2のみ、前処理3のみ、前処理3のみ、前処理1及び前処理2の組合せ、前処理2及び前処理3の組合せ、前処理1及び前処理3の組合せ、前処理1、2、3の組合せ等でもよい。
図22は、学習器354によりセンサパラメータ制御モデル356を生成して、前処理した正解ラベル付きの画像からパラメータの増減値を出力する処理の一例を示したフローチャートである。図22では画像で一般的に用いられる畳み込み処理を使用している。ステップ300では前述のような前処理が施された画像データが入力される。入力される画像データは一例として、RGBで画素数480×480である。
ステップ302では、カーネルサイズを3×3とした畳み込みが実行され、画像から特徴量が抽出される。ステップ304では、活性化関数であるRelu(正規化線形関数)が適用される。Relu関数は、入力値が0以下の場合には出力値が常に0、入力値が0より上の場合には出力値が入力値と同じ値となる関数である。
ステップ306では、カーネルサイズを3×3とした畳み込みが再び実行される。そして、ステップ308では、Reluが再び適用される。
ステップ310では、全結合層により方形の画像データを列ベクトル状に変換してフラット化する。ステップ312では、さらにReluが適用される。
ステップ314では、全結合層により画像データのフラット化が再度行われる。ステップ316では、2乗和誤差(Mean Squared Error)等の損失関数を適用して、正解データとの誤差が少ない適切な出力が得られるようにする。
ステップ318では、露光時間(シャッタ速度)、絞り、及びホワイトバランス等のパラメータの増減値を出力して処理を終了する。学習器354によってセンサパラメータ制御モデル356を生成する場合は、前述のように正解ラベルを付加された複数の画像を図22に示した処理を行うことにより、最良画像のパラメータに対する最良画像以外の画像のパラメータの増減値を蓄積する。
学習後のセンサパラメータ制御モデル356は、車載センサ10から画像が入力されると、当該画像に対して図22で説明した処理を行い、当該画像の最良画像に対するパラメータの増減値を予測する。学習後のセンサパラメータ制御モデル356は、予測したパラメータの増減値を車載センサ10に出力し、車載センサ10は、入力されたパラメータの増減値に従って最良画像に近い状態の画像を取得する。
図23は、学習後の車載センシング装置300のブロック図である。本実施形態では、上述のようにセンサパラメータ制御モデル356を学習させ、車載センサ10から画像又は画像と画像を取得した時のパラメータとが入力されると、当該画像を画像処理等を行わないそのままの状態で後段処理装置である物体識別器358に出力すると共に、当該画像から、最良の撮影条件にするためのパラメータの増減値を予測し、車載センサ10に入力する。パラメータの増減値は、学習器354と同様に、図22に示した一連の処理で予測される。本実施形態では、図11に示したように、ラベル生成器342が画像と正解ラベルとを後段処理群350の学習データサーバー352に出力した場合は、車載センサ10の前処理器12から画像がセンサパラメータ制御モデル356に出力される。また、ラベル生成器342が画像と正解ラベルと画像を取得した時のパラメータとを後段処理群350の学習データサーバー352に出力した場合は、車載センサ10の前処理器12から画像と画像を取得した時のパラメータとがセンサパラメータ制御モデル356に出力される。
その結果、最良の撮影条件で取得された画像を物体識別器358に渡すことができ、画像から物体の未検知又は誤検知等の発生を抑制できる。センサパラメータ制御モデル356は、物体識別器358に車載センサ10で得た画像をそのままの状態で出力するので、物体識別器358による物体識別の処理速度はセンサパラメータ制御モデル356によるパラメータの増減値の予測の影響を受けない。
以上説明したように、本実施形態では、露光状態等が適正な最良画像を選択すると共に、選択した最良画像のパラメータに基づいた正解ラベルを車載センサ10で取得した全画像に付加し、ラベル付けされた全画像を学習データとする。物体識別に適した最良画像のみならず、 最良画像以外の画像も学習データとすることにより、露光状態等が適正な画像を取得させる学習が効果的に行える。
本実施形態でのラベル付けは、二項対立的な「正解」または「不正解」という分類ではなく、例えば、最良画像に中心値0を付し、最良画像からパラメータが乖離している程度を±の数値で定量的に示している。かかるラベル付けは短時間で処理できるので、画像データに対するラベル作成の作業時間を短縮できる。また、最良画像からパラメータが乖離している程度を±の数値で定量的に示すことにより、適正でない画像の撮影パラメータをどの程度補正すればよいかの定量的な判断が可能となる。
また、本実施形態に係る車載センシング装置300は、ラベル付けされた画像での学習によってセンサパラメータ制御モデル356を生成した後は、センサパラメータ制御モデル356により、最良画像取得に適したパラメータが設定され、車載センサ10は設定されたパラメータに従って画像を取得することにより、物体識別における未検出又は誤検出を抑制できる。
車載センサ10で取得した画像は、センサパラメータ制御モデル356において最良の撮影条件にするためのパラメータの増減値の予測に供され、物体識別にさらに適した画像の取得が行われる。
また、車載センサ10で取得した画像は、画像処理等を行わないそのままの状態で後段処理装置である物体識別器358に出力されるので、物体識別器358による物体識別の処理速度はセンサパラメータ制御モデル356によるパラメータの増減値の予測の影響を受けず、物体識別器358は物体識別を迅速に行うことができる。
[変形例]
図24は、本実施形態の変形例に係る認識装置410の一例を示したブロック図である。認識装置410は、マイクロホン超音波センサ等のセンサデバイス414で各々取得した音声データ及び超音波センサの出力データ等の時系列データを認識する装置である点で、車載センシング装置300と相違する。認識装置410は、取得した時系列データからセンサデバイス414及び前処理器412の各々のパラメータを最適化するセンサパラメータ最適化装置として機能する。
センサデバイス414で取得した時系列データは、前処理器412でアナログデータから識別処理に適用可能なファイルフォーマットのデジタルデータに変換される。
前段処理群430は、CPU、メモリ、各種の処理を実行するためのプログラムなどを記憶した不揮発性の記憶部及びネットワークインタフェースなどを含んでいる。前段処理群430には、センサデバイス414で取得した時系列データ及び当該時系列データを取得した際のパラメータが入力される。パラメータは、時系列データが音声データの場合、当該音声データを取得した際の音声増幅率又はサンプリングレート等である。以下、一例として、時系列データが音声データである場合における認識装置410について説明する。入力された時系列データである音声データを取得した際のパラメータは、音声認識モデル432と記録器434とに供給される。前段処理群430は、センサデバイス414から出力された音声データ形態素解析による音声認識処理を実行する音声認識モデル432と、音声認識モデル432が出力した認識結果を音声データに対応付けて記録する記録器434と、記録器434に記録された認識結果を評価指標記憶部438に格納された評価指標に基づいて判定して、最良と思われる認識結果を選択すると共に、時系列での音声データ及び当該音声データを取得した際のパラメータと、最良の認識結果のパラメータとを後続するラベル生成器342に出力する評価器436と、 最良の認識結果のパラメータに基づいて、各音声データに正解ラベルを付加し、音声データと正解ラベルとを後段処理群450の学習データサーバー452に出力するラベル生成器442と、初期パラメータから変更したパラメータに従って次の音声データを取得するようにセンサデバイス414及び前処理器412を制御する単純パラメータ制御器440と、を含む。単純パラメータ制御器440におけるパラメータの変更は、音声認識モデル432が音声認識処理をしたことを示す識別完了信号を出力する毎に、初期パラメータから徐々に段階的に変更する。例えば、音声増幅率を初期値の0.5から0.1段階で0.9まで、5つの音声データを取得する。
前段処理群430の音声認識モデル432は、一例として再帰型ニューラルネットワーク(RNN)に基づいた信号処理を行う。また、評価指標記憶部438には、正解データである読み上げ文章のテキストデータが格納されている。評価器436は、音声認識結果のテキストデータと、正解データとを比較し、正解データと一致しない単語が出現する回数が少ない、つまりは誤認識数が最も少ない音声認識結果の音声データのパラメータを正解パラメータとする。
例えば、正解データが「きょう は いい てんき なので しろ ねぎ を かい に いき ます」という正解データに対し、認識結果が以下の3通りであった場合、下線付きで示した誤認識数が最も少ないP1が最良データとなる。
P1「きょう は いい てんき なので たまねぎ を かい に いき ます」
P2「こう は いい てんき なので しろ ねぎ を こい に いり ます」
P3「きょう は いい でんき なので たまねぎこい に いきます」
後段処理群450は、前段処理群430から出力された音声データと正解ラベルと学習データサーバー452のデータとを用いて、学習器454を学習し、センサパラメータ制御モデル456を生成する。センサデバイス414及び前処理器412は、センサパラメータ制御モデル456で設定されたパラメータに従って音声データを取得する。
図25は、学習後の認識装置410のブロック図である。本変形例では、上述のようにセンサパラメータ制御モデル456を学習させ、前処理器412から音声データが入力されると、当該音声データを未処理の状態で後段処理群450の音声認識部458に出力すると共に、当該音声データから、最良音声データを所得するためのパラメータの増減値を予測し、センサデバイス414及び前処理器412に入力する。その結果、最良のパラメータで取得された音声データを後段処理群450の音声認識部458に渡すことができ、音声認識における誤認識等の発生を抑制できる。センサパラメータ制御モデル456では、後段処理群450の音声認識部458にセンサデバイス414で得た音声データを前処理器412での処理後そのままの状態で出力するので、音声認識部458による音声認識の処理速度はセンサパラメータ制御モデル456によるパラメータの増減値の予測の影響を受けない。
以上説明したように、本変形例では、音声認識結果が適正な最良の音声データを選択すると共に、選択した最良音声データのパラメータに基づいた正解ラベルをセンサデバイス414で取得した全音声データに付加し、ラベル付けされた全音声データを学習データとする。音声認識に適した最良音声データのみならず、 最良音声データ以外の画像も学習データとすることにより、音声増幅率等が適正な音声データを取得させる学習が効果的に行える。
また、本実施形態に係る車載センシング装置300は、ラベル付けされた音声データでの学習によってセンサパラメータ制御モデル456を生成した後は、センサパラメータ制御モデル456により、最良の音声データ取得に適したパラメータが設定され、センサデバイス414及び前処理器412は設定されたパラメータに従って音声データを取得することにより、音声認識における誤認識を抑制できる。
センサデバイス414で取得した音声データは、センサパラメータ制御モデル456において最良の音声データを取得するためのパラメータの増減値の予測に供され、音声認識にさらに適した音声データの取得が行われる。
また、センサデバイス414で取得した音声データは、前処理器での処理以外の処理を行わないそのままの状態で後段処理群450の音声認識部458に出力されるので、音声認識部458による音声認識の処理速度はセンサパラメータ制御モデル456によるパラメータの増減値の予測の影響を受けず、音声認識部458は音声認識を迅速に行うことができる。
10 車載センサ
30 前段処理群
32 物体識別器
36 評価器
38 評価指標記憶部
40 パラメータ制御器
50 後段処理群
52 物体識別器
100 車載センシング装置
300 車載センシング装置
330 前段処理群
332 物体識別器
334 記録器
336 評価器
338 評価指標記憶部
340 単純パラメータ制御器
342 ラベル生成器
350 後段処理群
352 学習データサーバー
354 学習器
356 センサパラメータ制御モデル
358 物体識別器
410 認識装置
412 前処理器
414 センサデバイス
430 前段処理群
432 音声認識モデル
434 記録器
436 評価器
438 評価指標記憶部
440 単純パラメータ制御器
442 ラベル生成器
450 後段処理群
452 学習データサーバー
454 学習器
456 センサパラメータ制御モデル
458 音声認識部

Claims (22)

  1. 設定された各々異なるパラメータに従って周辺環境の画像データを所定数取得するセンサと、
    前記センサから出力された前記所定数の画像データの各々に対し、学習データを用いて予め学習された結果に基づく信号処理を行うことにより、前記画像データ内に存在する物体の識別結果を出力する識別処理を実行する識別部と、
    前記識別部による前記所定数の画像データの各々の識別結果に基づいて、前記所定数の画像データから後段処理群に出力する画像データを選択する選択部と、
    を含む車載センシング装置。
  2. 前記選択部は、前記識別部が出力した画像データの識別結果のうち、検出された物体の数、該物体の位置、該物体の種別、及び該物体の識別の尤度の総計の少なくとも1つに基づいて前記後段処理群に出力する画像データを選択する請求項1に記載の車載センシング装置。
  3. 前記識別部が前記センサから出力された前記画像データの識別結果を出力した際に、該画像データの取得時に前記センサに適用したパラメータを変更し、該変更したパラメータに基づいて前記センサが画像データを取得するように前記パラメータを設定するパラメータ制御部をさらに含む請求項1又は2に記載の車載センシング装置。
  4. 前記後段処理群は、前記識別部と同じ学習データを用いて予め学習された結果に基づく信号処理を行うことにより、前記識別結果を出力する識別処理を実行する請求項1~3のいずれか1項に記載の車載センシング装置。
  5. 前記識別部における前記信号処理は、前記後段処理群の信号処理よりも計算負荷が小さい請求項1~4のいずれか1項に記載の車載センシング装置。
  6. 前記識別部は、前記後段処理群が、前記選択された画像データの識別処理を実行する間に、前記センサから次に出力された前記所定数の画像データの各々に対して識別処理を行う請求項1~4のいずれか1項に記載の車載センシング装置。
  7. 前記識別部は、前記後段処理群による識別処理における物体の分類よりも包括的な分類に従って識別処理を行う請求項1~6のいずれか1項に記載の車載センシング装置。
  8. 前記センサと前記識別部との間に、前記センサが取得した画像データのデータ量を圧縮する圧縮部をさらに含み、
    前記識別部は、前記圧縮部による圧縮後の画像データに対して識別処理を実行する請求項1~7のいずれか1項に記載の車載センシング装置。
  9. 前記識別部は、前記所定数の画像データに含まれる複数の画像データ内に同じ物体が識別される場合、該物体の識別の尤度を合成した値に応じた識別処理の信頼度を前記後段処理群に出力する請求項2~8のいずれか1項に記載の車載センシング装置。
  10. 前記センサは、設定された測定パラメータに従って周辺環境の画像データを撮影することを、各々異なる前記測定パラメータを用いて繰り返す請求項1~9のいずれか1項に記載の車載センシング装置。
  11. 前記センサは、周辺環境の画像データを撮影し、
    設定された処理パラメータに従って前記撮影された画像データに対して前処理を行うことを、各々異なる前記処理パラメータを用いて繰り返す請求項1~9のいずれか1項に記載の車載センシング装置。
  12. 設定された各々異なるパラメータに従って周辺環境のデータを所定数取得するセンサと、
    前記センサから出力された前記所定数のデータの各々に対し、学習データを用いて予め学習された結果に基づく信号処理を行うことにより、任意に設定した所望の識別結果を出力する識別処理を実行する識別部と、
    前記識別部による前記所定数のデータの各々の識別結果に基づいたラベルを前記所定数のデータの各々に付加する評価部と、
    前記センサによるデータ取得、前記識別部による識別処理、及び前記評価部によるラベルの付加を含む一連の行程を1回以上繰り返して得た前記ラベルが付加されたデータを用いた学習により、前記センサのパラメータ設定に係るパラメータ制御器モデルを生成する後段処理群と、
    を含むセンサパラメータ最適化装置。
  13. 前記ラベルが付加されたデータは、前記センサが取得したデータに、さらに前記データを取得した際の前記センサのパラメータを含む請求項12に記載のセンサパラメータ最適化装置。
  14. 前記評価部は、前記識別結果に基づいて前記所定数のデータから最良データを選択し、該最良データを取得した際の前記センサのパラメータに基づいた前記ラベルを前記所定数のデータの各々に付加する請求項12又は13に記載のセンサパラメータ最適化装置。
  15. 前記評価部は、前記センサが取得するデータが画像データの場合、前記識別部が出力した画像データの識別結果のうち、検出された物体の数、該物体の位置、該物体の種別、及び該物体の識別の尤度の少なくとも1つに基づいて最良データを選択する請求項14に記載のセンサパラメータ最適化装置。
  16. 前記評価部は、前記最良データを取得した際のセンサのパラメータと前記所定数の画像データの各々を取得した際のセンサの各々のパラメータとの差分を前記ラベルとして前記所定数の画像データの各々に付加する請求項15に記載のセンサパラメータ最適化装置。
  17. 前記評価部は、前記最良データを取得した際のセンサのパラメータを前記ラベルとして前記所定数の画像データの各々に付加する請求項15に記載のセンサパラメータ最適化装置。
  18. 前記評価部は、前記センサが取得するデータが時系列データの場合、前記識別部が出力した時系列データの識別結果のうち、正答率が最大となった時系列データ及び誤答率が最小となった時系列データのいずれかを最良データとして選択する請求項14に記載のセンサパラメータ最適化装置。
  19. 前記後段処理群は、前記センサが取得するデータが画像データの場合、該画像データの解像度を低下させて前記ラベルと共に前記学習に供する請求項12~17のいずれか1項に記載のセンサパラメータ最適化装置。
  20. 前記後段処理群は、サイズ変更及びトリミング処理のいずれかを適用して縦横比を1:1にした画像と前記ラベルとを前記学習に供する請求項19に記載のセンサパラメータ最適化装置。
  21. 任意に設定した所望の識別結果を出力する識別処理を実行する後段識別部をさらに含み、
    前記パラメータ制御器モデルは、前記学習後、前記センサで取得した新たな画像から前記センサのパラメータを設定すると共に、前記新たな画像をそのままの状態で前記後段識別部に出力する請求項19又は20に記載のセンサパラメータ最適化装置。
  22. 前記パラメータ制御器モデルは、前記学習後、前記センサで取得した新たな時系列データから前記センサのパラメータを設定すると共に、前記新たな時系列データをそのままの状態で認識部に出力する請求項18に記載のセンサパラメータ最適化装置。
JP2020180855A 2020-03-12 2020-10-28 車載センシング装置及びセンサパラメータ最適化装置。 Active JP7230896B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020043368 2020-03-12
JP2020043368 2020-03-12

Publications (2)

Publication Number Publication Date
JP2021144689A JP2021144689A (ja) 2021-09-24
JP7230896B2 true JP7230896B2 (ja) 2023-03-01

Family

ID=77766887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020180855A Active JP7230896B2 (ja) 2020-03-12 2020-10-28 車載センシング装置及びセンサパラメータ最適化装置。

Country Status (1)

Country Link
JP (1) JP7230896B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024069886A1 (ja) * 2022-09-29 2024-04-04 株式会社ニコン 演算装置、演算システム、ロボットシステム、演算方法及びコンピュータプログラム
GB2623296A (en) * 2022-10-05 2024-04-17 Continental Automotive Tech Gmbh System and method for evaluation of the driving of a vehicle

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014146164A (ja) 2013-01-29 2014-08-14 Toyota Motor Corp 物体検出装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012088785A (ja) * 2010-10-15 2012-05-10 Toyota Central R&D Labs Inc 対象物識別装置及びプログラム
JP6786279B2 (ja) * 2016-07-05 2020-11-18 日立オートモティブシステムズ株式会社 画像処理装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014146164A (ja) 2013-01-29 2014-08-14 Toyota Motor Corp 物体検出装置

Also Published As

Publication number Publication date
JP2021144689A (ja) 2021-09-24

Similar Documents

Publication Publication Date Title
US11138467B2 (en) Method, device, product, and computer program for operating a technical system
US20230237792A1 (en) Object detection apparatus using an image preprocessing artificial neural network model
US20180307916A1 (en) System and method for image analysis
KR101607224B1 (ko) 동적 물체 분류 방법 및 장치
KR101848019B1 (ko) 차량 영역 검출을 통한 차량 번호판 검출 방법 및 장치
JP2020035443A (ja) センシング装置
JP7230896B2 (ja) 車載センシング装置及びセンサパラメータ最適化装置。
KR101818129B1 (ko) 나선 신경망 기법을 이용한 보행자 인식 장치 및 방법
CN113326735A (zh) 一种基于YOLOv5的多模态小目标检测方法
CN112528961A (zh) 一种基于Jetson Nano的视频分析方法
CN111598065A (zh) 深度图像获取方法及活体识别方法、设备、电路和介质
US20230394849A1 (en) Methods and apparatus for automatic collection of under-represented data for improving a training of a machine learning model
US20070223785A1 (en) Image processor and method
CN113034378A (zh) 一种区分电动汽车与燃油汽车的方法
CN116630932A (zh) 一种基于改进yolov5的道路遮挡目标检测方法
CN111435457B (zh) 对传感器获取的采集进行分类的方法
CN117274740A (zh) 一种红外目标检测方法及装置
JP5946294B2 (ja) 対象物検出装置、対象物検出方法、対象物検出プログラムおよび自動走行車両
US20220343158A1 (en) Method, device, and computer program for creating training data in a vehicle
CN116434156A (zh) 目标检测方法、存储介质、路侧设备及自动驾驶***
CN115761667A (zh) 一种基于改进fcos算法的无人车辆搭载摄像头目标检测方法
US20220019776A1 (en) Methods and systems to predict activity in a sequence of images
CN112990002B (zh) 下坡路上交通信号灯识别方法、***及计算机可读介质
US20220309799A1 (en) Method for Automatically Executing a Vehicle Function, Method for Evaluating a Computer Vision Method and Evaluation Circuit for a Vehicle
CN112699759B (zh) 一种训练性别识别模型的方法及相关装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230130

R150 Certificate of patent or registration of utility model

Ref document number: 7230896

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150