JP2020135034A - 頭部判別装置、コンピュータプログラム、および記憶媒体 - Google Patents

頭部判別装置、コンピュータプログラム、および記憶媒体 Download PDF

Info

Publication number
JP2020135034A
JP2020135034A JP2019023625A JP2019023625A JP2020135034A JP 2020135034 A JP2020135034 A JP 2020135034A JP 2019023625 A JP2019023625 A JP 2019023625A JP 2019023625 A JP2019023625 A JP 2019023625A JP 2020135034 A JP2020135034 A JP 2020135034A
Authority
JP
Japan
Prior art keywords
head
likelihood
region
occupant
imaged
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019023625A
Other languages
English (en)
Inventor
佑記 名和
Yuki Nawa
佑記 名和
圭吾 多田
Keigo Tada
圭吾 多田
久光 原田
Hisamitsu Harada
久光 原田
忠 関原
Tadashi Sekihara
忠 関原
安利 深谷
Yasutoshi Fukaya
安利 深谷
将城 榊原
Masaki Sakakibara
将城 榊原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Tokai Rika Co Ltd
Original Assignee
NEC Solution Innovators Ltd
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solution Innovators Ltd, Tokai Rika Co Ltd filed Critical NEC Solution Innovators Ltd
Priority to JP2019023625A priority Critical patent/JP2020135034A/ja
Publication of JP2020135034A publication Critical patent/JP2020135034A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Analysis (AREA)

Abstract

【課題】処理負荷の増大を抑制しつつ、識別器による撮像された車室内の乗員の頭部の判別精度を高める。【解決手段】プロセッサは、撮像された車室を含む原画像に対応し複数の原画素データを含む原画像データを受け付け、原画像データを圧縮することにより、前記複数の原画素データよりも少ない複数の圧縮画素データを含む圧縮画像データを生成し、頭部の大きさに基づいて定められた検出ウインドウを、圧縮画像データ内に設定し、検出ウインドウに含まれる各画素データの輝度に関する特徴量を、識別器に入力する。識別器は、画像の輝度に関する特徴量に基づいて撮像された乗員の頭部を判別するために、少なくとも撮像された頭部を含む画像を教師データとして学習している。プロセッサは、撮像された乗員の頭部が含まれる可能性が高いことを前記識別器による識別結果が示している少なくとも一つの前記検出ウインドウを、高尤度領域として特定する。【選択図】図4

Description

本発明は、撮像された車室内の乗員の頭部を判別する装置に関連する。本発明は、当該装置が備えているプロセッサにより実行されるコンピュータプログラム、および当該コンピュータプログラムが記憶された記憶媒体にも関連する。
特許文献1に開示されているように、サポートベクターマシンを用いて画像に含まれる物体が検出対象であるかを判別する装置が知られている。サポートベクターマシンは、検出対象となる物体の特徴量と検出対象ではない物体の特徴量とを学習することで生成された識別器である。このような識別器は、例えば撮像された車室内の乗員の頭部を判別するために使用されうる。
特開2010−243451号公報
学習時に想定された画像の取得条件と実際の画像の取得条件は、異なる場合がありうる。このような場合においては、識別器が判断を誤る可能性がある。
本発明の目的は、処理負荷の増大を抑制しつつ、識別器による撮像された車室内の乗員の頭部の判別精度を高めることである。
上記の目的を達成するための一態様は、頭部判別装置であって、
撮像された車室を含む原画像に対応し複数の原画素データを含む原画像データを受け付ける入力インターフェースと、
画像の輝度に関する特徴量に基づいて撮像された乗員の頭部を判別するために少なくとも撮像された頭部を含む画像を教師データとして学習した識別器を用い、前記原画像データに基づいて、前記原画像に含まれる撮像された乗員の頭部を判別するプロセッサと、
を備えており、
前記プロセッサは、
前記原画像データを圧縮することにより、前記複数の原画素データよりも少ない複数の圧縮画素データを含む圧縮画像データを生成し、
頭部の大きさに基づいて定められた検出領域を、前記圧縮画像データ内に設定し、
前記検出領域に含まれる各画素データの輝度に関する特徴量を前記識別器に入力し、
前記撮像された乗員の頭部が含まれる可能性が高いことを前記識別器による識別結果が示している少なくとも一つの前記検出領域を、高尤度領域として特定する。
上記の目的を達成するための一態様は、画像の輝度に関する特徴量に基づいて撮像された乗員の頭部を判別するために少なくとも撮像された頭部を含む画像を教師データとして学習した識別器を用い、撮像された車室を含む原画像に対応し複数の原画素データを含む原画像データに基づいて、当該原画像に含まれる撮像された乗員の頭部をプロセッサに判別させるコンピュータプログラムであって、
当該コンピュータプログラムが実行されることにより、当該プロセッサに、
前記原画像データを圧縮することにより、前記原画素データよりも少ない複数の圧縮画素データを含む圧縮画像データを生成させ、
頭部の大きさに基づいて定められた検出領域を前記圧縮画像データ内に設定させ、
前記検出領域に含まれる各画素データの輝度に関する特徴量を、前記識別器に入力させ、
前記撮像された乗員の頭部が含まれる可能性が高いことを前記識別器による識別結果が示している少なくとも一つの前記検出領域を、高尤度領域として特定させる。
このような構成によれば、原画像に対応する原画像データを圧縮することにより生成された圧縮画像データに対して、画像の輝度に関する特徴量の検出、および当該特徴量の識別器への入力がなされる。画像が圧縮されることにより、画像に含まれる物体の比較的大まかな特徴が強調されるので、特徴量の検出が容易になるだけでなく、処理対象となるデータの量が低減する。したがって、特徴量の検出、識別器への入力、および高尤度領域についての判断に係る処理負荷の増大を抑制しつつ、識別器による撮像された乗員の頭部の判別精度を高めることができる。
上記の頭部判別装置は、以下のように構成されうる。
複数の前記高尤度領域が特定された場合、前記プロセッサは、
前記複数の高尤度領域の各々について、前記撮像された乗員の頭部が存在する可能性に対応する尤度を取得し、
前記尤度が最も高い前記複数の高尤度領域の一つを、前記撮像された乗員の頭部が含まれている候補領域として選択する。
上記のコンピュータプログラムは、以下のように構成されうる。
複数の前記高尤度領域が特定された場合、前記プロセッサに、
前記複数の高尤度領域の各々について、前記撮像された乗員の頭部が存在する可能性に対応する尤度を取得させ、
前記尤度が最も高い前記複数の高尤度領域の一つを、前記撮像された乗員の頭部が含まれている候補領域として選択させる。
このような構成によれば、識別器による識別結果として複数の高尤度領域が特定された場合においても、簡易な処理を通じて、撮像された乗員の頭部を含む候補領域を特定できる。結果として、撮像された乗員の頭部を判別するための処理の負荷増大を抑制できる。
上記の頭部判別装置は、以下のように構成されうる。
重複する部分を有する複数の前記高尤度領域が特定された場合、前記プロセッサは、当該複数の高尤度領域を統合して少なくとも一つの統合高尤度領域を生成する。
上記のコンピュータプログラムは、以下のように構成されうる。
重複する部分を有する複数の前記高尤度領域が特定された場合、前記プロセッサに、当該複数の高尤度領域を統合して少なくとも一つの統合高尤度領域を生成させる。
このような構成によれば、識別器による識別結果として多数の高尤度領域が特定された場合においても、撮像された乗員の頭部を含む候補領域を特定する処理を簡略化できる。結果として、撮像された乗員の頭部を判別するための処理の負荷増大を抑制できる。
上記の頭部判別装置は、以下のように構成されうる。
前記統合高尤度領域は、前記複数の高尤度領域を内包する矩形状を有している。
上記のコンピュータプログラムは、以下のように構成されうる。
前記統合高尤度領域は、前記複数の高尤度領域を内包する矩形状を有している。
このような構成によれば、統合高尤度領域を生成するための処理を簡略化できる。結果として、撮像された乗員の頭部を判別するための処理の負荷増大を抑制できる。
上記の頭部判別装置は、以下のように構成されうる。
前記統合高尤度領域が生成された場合、前記プロセッサは、
前記統合高尤度領域に含まれる前記複数の高尤度領域の各々について、前記撮像された乗員の頭部が存在する可能性に対応する尤度を取得し、
前記尤度に基づいて、前記統合高尤度領域に含まれる前記検出領域と同じ大きさの領域を、前記撮像された乗員の頭部が含まれている候補領域として特定する。
上記のコンピュータプログラムは、以下のように構成されうる。
前記統合高尤度領域が生成された場合、前記プロセッサに、
前記統合高尤度領域に含まれる前記複数の高尤度領域の各々について、前記撮像された乗員の頭部が存在する可能性に対応する尤度を取得させ、
前記尤度に基づいて、前記統合高尤度領域に含まれる前記検出領域と同じ大きさの領域を、前記撮像された乗員の頭部が含まれている候補領域として特定させる。
このような構成によれば、撮像された乗員の頭部が含まれている候補領域を、統合高尤度領域よりも狭い範囲に限定できる。これにより、撮像された乗員の頭部の判別精度を高めることができる。
上記の頭部判別装置は、以下のように構成されうる。
前記プロセッサは、前記検出領域の大きさを変えずに前記高尤度領域を特定する。
上記のコンピュータプログラムは、以下のように構成されうる。
前記プロセッサに、前記検出領域の大きさを変えずに前記高尤度領域を特定させる。
このような構成によれば、大きさが相違する複数種の検出ウインドウを用いて高尤度領域が特定される場合と比較して、処理に要する時間を短縮できる。
上記の頭部判別装置は、以下のように構成されうる。
前記特徴量は、HOG(Histograms of Oriented Gradients)である。
上記のコンピュータプログラムは、以下のように構成されうる。
前記特徴量は、HOG(Histograms of Oriented Gradients)である。
このような構成によれば、頭部のエッジを比較的高い精度で検出できる。したがって、撮像された乗員の頭部の判別精度を高めることができる。
上記の頭部判別装置は、以下のように構成されうる。
前記識別器は、サポートベクターマシンである。
上記のコンピュータプログラムは、以下のように構成されうる。
前記識別器は、サポートベクターマシンである。
このような構成によれば、汎化性能の高い識別器が得られるので、撮像された乗員の頭部の判別精度を高めることができる。
上記の頭部判別装置は、以下のように構成されうる。
前記入力インターフェースは、前記原画像データをTOF(Time of Flight)カメラから受け付ける。
上記のコンピュータプログラムは、以下のように構成されうる。
前記原画像データは、TOF(Time of Flight)カメラから取得されたものである。
このような構成によれば、プロセッサによって取得される原画像データに三次元空間における位置情報を付加できる。必要に応じて当該位置情報を参照することにより、撮像された乗員の頭部の判別結果の正確性を検証するといった処理が可能になる。したがって、撮像された乗員の頭部の判別精度を高めることができる。
上記の目的を達成するための一態様は、上記のコンピュータプログラムを記憶している記憶媒体である。
本発明によれば、処理負荷の増大を抑制しつつ、識別器による撮像された車室内の乗員の頭部の判別精度を高めることができる。
一実施形態に係る頭部判別システムの構成を例示している。 図1の頭部判別システムが搭載される車両の一部を例示している。 図1の頭部判別装置により実行される処理を説明するための図である。 図1の頭部判別装置により実行される処理の流れを例示している。 図1の頭部判別装置により実行される処理を説明するための図である。 図1の頭部判別装置により実行される処理を説明するための図である。 図1の頭部判別装置により実行される処理の流れを例示している。 図1の頭部判別装置により実行される処理を説明するための図である。 図1の頭部判別装置により実行される処理を説明するための図である。
添付の図面を参照しつつ、実施形態例について以下詳細に説明する。以下の説明に用いる各図面では、各部材を認識可能な大きさとするために縮尺を適宜変更している。
図1は、一実施形態に係る頭部判別システム1の構成を模式的に示している。頭部判別システム1は、撮像装置2と頭部判別装置3を含んでいる。図2は、頭部判別システム1が搭載される車両4の一部を示している。矢印Lは、車両4の前後方向に沿う向きを示している。矢印Hは、車両4の高さ方向に沿う向きを示している。
撮像装置2は、図2に示される車両4の車室41内における適宜の位置に配置され、撮像された車室41を含む原画像OIを取得する。図3の(A)は、原画像OIの一例を示している。原画像OIは、撮像された運転者5を含んでいる。運転者5は、乗員の一例である。矢印Wは、車両4の左右方向に沿う向きを示している。
図1に示されるように、撮像装置2は、取得された原画像OIに対応する原画像データID1を出力する。原画像データID1は、複数の原画素データを含んでいる。複数の原画素データの各々は、取得された原画像OIを構成する複数の画素の対応する一つに関連づけられている。
頭部判別装置3は、車両4における適宜の位置に搭載される。頭部判別装置3は、撮像装置2から提供される原画像データID1に基づいて、撮像された車室41内の運転者5の頭部51を判別するための装置である。
頭部判別装置3は、入力インターフェース31を備えている。入力インターフェース31は、撮像装置2から出力された原画像データID1を受け付ける。
頭部判別装置3は、プロセッサ32を備えている。プロセッサ32は、識別器を用い、入力インターフェース31に入力された原画像データID1に基づいて、撮像された運転者5の頭部51を判別する処理を実行する。識別器は、画像の輝度に関する特徴量に基づいて撮像された乗員の頭部を判別するために、少なくとも撮像された頭部を含む画像を教師データとして学習することによって構成されている。識別器は、プロセッサ32により実行される処理アルゴリズムの呼称である。
図4を参照しつつ、プロセッサ32によって行なわれる処理の流れを説明する。前述のように、プロセッサ32は、まず入力インターフェース31を通じて原画像データID1を取得する(STEP1)。
続いてプロセッサ32は、原画像データID1を圧縮して圧縮画像データID2を生成する(STEP2)。図3の(B)は、図3の(A)に示される原画像データID1から生成された圧縮画像データID2を示している。圧縮画像データID2は、複数の圧縮画素データを含んでいる。圧縮画素データは、原画素データよりも少ない。例えば、原画像データID1は、320×240個の原画素データを含んでいる。圧縮画像データID2は、160×120個の圧縮画素データを含んでいる。適宜に使用される画像圧縮技術それ自体は周知であるので、詳細な説明は省略する。
続いてプロセッサ32は、図5の(A)に示されるように、圧縮画像データID2内に検出ウインドウDWを設定する(図4のSTEP3)。検出ウインドウDWは、圧縮画像データID2に対応する画像の輝度に関する特徴量を検出する処理の対象となる領域の基本単位を規定する。検出ウインドウDWは、検出領域の一例である。
本実施形態においては、特徴量としてHOG(Histogram of Oriented Gradients)が検出される。HOGは、画像の局所的な輝度の勾配方向の分布を示す特徴量である。
図5の(B)は、検出ウインドウDWの具体的な構成を示している。検出ウインドウDWの大きさは、撮像装置2により取得される原画像OIに含まれうる運転者5の頭部51の大きさに基づいて定められている。例えば、原画像OIにおいて頭部51がとりうる最大の大きさが96×112画素である場合、圧縮比に基づいて、圧縮画像データID2内に設定される検出ウインドウDWの大きさは、48×56画素とされうる。
検出ウインドウDW内には検出セルDCと検出ブロックDBが定義される。検出セルDCは、HOGを検出するために設定される領域の最小単位である。本実施形態においては、検出セルDCの大きさは8×8画素である。検出ブロックDBは、3×3セルの大きさを有する領域である。
HOGの検出は、検出ブロックDBに含まれる9つの検出セルDCの各々について行なわれる。すなわち、図5の(B)に示される検出ウインドウDWの上左隅に位置している検出ブロックDBについて、9セル分のHOGが検出される。検出ブロックDBに含まれる全ての検出セルDCについてHOGが検出されると、検出ウインドウDW内における検出ブロックDBの位置が変更される。具体的には、右方向へ8画素分(すなわち1セル分)だけ検出ブロックDBが移動する。移動後の位置における検出ブロックDBに含まれる全ての検出セルDCについて、同様にして9セル分のHOGが検出される。
このように検出ブロックDBが右方へ移動しながら、HOGの検出が繰り返される。検出ブロックDBが検出ウインドウDWの右端に到達すると、下方向へ8画素分(すなわち1セル分)だけ移動がなされ、検出ウインドウDW内を左方へ移動しながら、HOGの検出が繰り返される。検出ブロックDBが検出ウインドウDWの左端に到達すると、さらに下方向へ8画素分の移動がなされ、再度検出ウインドウDW内を右方へ移動しながら、HOGの検出が繰り返される。検出ブロックDBが検出ウインドウDWの下右隅に到達するまで、上記の処理が繰り返される。
図5の(A)において、検出ウインドウDWは、圧縮画像データID2の上左隅に配置されている。この位置における検出ウインドウDWについて検出ブロックDBを移動させながらのHOGの検出が完了すると、識別器による識別がなされる(図4のSTEP4)。識別器は、頭部を含む画像と頭部を含まない画像を教師データとした機械学習を通じて、画像内に撮像された頭部が含まれる可能性に対応する尤度を判断するように構成されている。本実施形態においては、識別器は、RBFカーネル関数を用いたソフトマージンSVM(サポートベクターマシン)である。尤度は、SVMスコアとして算出される。
具体的には、プロセッサ32は、検出ウインドウDWについて得られたHOGの分布を識別器に入力する。識別器は、検出ウインドウDWについてSVMスコアを算出する。算出されたSVMスコアが所定値以上である場合、プロセッサ32は、検出ウインドウDW内の画像に運転者5の頭部51が含まれている可能性が高いと判断し、検出ウインドウDWが位置している領域を高尤度領域として特定する(図4のSTEP5)。
識別器との照合に基づく高尤度領域についての判断がなされると、圧縮画像データID2内における検出ウインドウDWの位置が変更される。具体的には、右方向へ8画素分(すなわち1セル分)だけ検出ウインドウDWが移動する。移動後の位置における検出ウインドウDWに含まれる全ての検出セルDCについて、同様にしてHOGが検出され、識別器による識別がなされる。
このように検出ウインドウDWが右方へ移動しながら、HOGの検出と識別器による識別が繰り返される。検出ウインドウDWが圧縮画像データID2の右端に到達すると、下方向へ8画素分(すなわち1セル分)だけ移動がなされ、圧縮画像データID2内を左方へ移動しながら、HOGの検出と識別器による識別が繰り返される。検出ウインドウDWが圧縮画像データID2の左端に到達すると、さらに下方向へ8画素分の移動がなされ、再度圧縮画像データID2内を右方へ移動しながら、HOGの検出と識別器による識別が繰り返される。検出ウインドウDWが圧縮画像データID2の下右隅に到達するまで、上記の処理が繰り返される(図4のSTEP6においてNO)。
なお、識別器の構成時においても、上記と同様の手法を通じて教師データとしての画像におけるHOGの検出が行なわれることにより、機械学習がなされる。
図6の(A)は、圧縮画像データID2中に特定された高尤度領域HAの一例を示している。この高尤度領域HAは、検出ウインドウDWが図示の位置にあるときに行なわれた識別器による識別により所定値以上のSVMスコアが算出された結果として得られている。
全ての検出ウインドウDWの位置において識別器による識別がなされた結果(図4のSTEP6においてYES)、特定された高尤度領域HAが一つだけであれば、プロセッサ32は、圧縮画像データID2における高尤度領域HAの位置を、撮像された運転者5の頭部51の候補位置として特定する(図4のSTEP7)。
図1に示されるように、頭部判別装置3は、出力インターフェース33を備えている。出力インターフェース33は、特定された運転者5の頭部51の候補位置を示すデータHDを出力しうる。出力されたデータHDは、後段の認識処理において利用される。当該認識処理においては、例えば、当該データが示す頭部51の位置の経時変化がモニタされることにより、運転者5の頭部51の向き、傾き、動きなどが認識されうる。これにより、運転中における運転者5の脇見、居眠り、発作による異常挙動などが検知されうる。
後段の認識処理は、プロセッサ32によって行なわれてもよいし、プロセッサ32とは別のプロセッサによって行なわれてもよい。すなわち、出力インターフェース33は、物理的なインターフェースであってもよいし、論理的なインターフェースであってもよい。
上記のような構成によれば、撮像装置2により取得された原画像OIに対応する原画像データID1を圧縮することにより生成された圧縮画像データID2に対して、画像の輝度に関する特徴量の検出、および当該特徴量の識別器への入力がなされる。画像が圧縮されることにより、画像に含まれる物体の比較的大まかな特徴が強調されるので、特徴量の検出が容易になるだけでなく、処理対象となるデータの量が低減する。したがって、特徴量の検出、識別器への入力、および高尤度領域についての判断に係る処理負荷の増大を抑制しつつ、識別器による撮像された運転者5の頭部51の判別精度を高めることができる。
高尤度領域HAの特定は、検出ウインドウDWの大きさを変化させることなく行なわれうる。換言すると、プロセッサ32は、単一の大きさを有する検出ウインドウDWのみを用いて高尤度領域HAを特定しうる。
このような構成によれば、大きさが相違する複数種の検出ウインドウを用いて高尤度領域HAが特定される場合と比較して、処理に要する時間を短縮できる。
図7は、撮像された運転者5の頭部51が含まれる候補領域を特定するために(図4のSTEP7)プロセッサ32が実行しうる具体的な処理を例示している。図6の(A)を参照して説明した処理の流れは、STEP71においてYESと判断され、STEP72が実行される場合に対応している。
全ての検出ウインドウDWの位置において識別器による識別がなされた結果、離間した複数の高尤度領域HAが特定される場合がありうる(STEP71においてNO、かつSTEP73においてNO)。図6の(B)に示される例においては、撮像された運転者5の頭部51の付近に第一の高尤度領域HA1が特定され、撮像されたステアリングホイールの付近に第二の高尤度領域HA2が特定されている。
このような場合、撮像された運転者5の頭部51の候補位置を特定するために、プロセッサ32は、各高尤度領域HAについてSVMスコアを取得する。プロセッサ32は、取得された複数のSVMスコア同士を比較し、最も高いSVMスコアに対応付けられている高尤度領域HAを、撮像された運転者5の頭部51が含まれている候補領域として選択する(図7のSTEP74)。
図6の(B)に示される例においては、第一の高尤度領域HA1に対応付けられたSVMスコアと第二の高尤度領域HA2に対応付けられたSVMスコアが、比較に供される。本例においては、第一の高尤度領域HA1に対応付けられたSVMスコアが、第二の高尤度領域HA2に対応付けられたSVMスコアよりも高いとする。この場合、プロセッサ32は、第一の高尤度領域HA1を、撮像された運転者5の頭部51が含まれている候補領域として特定する(図7のSTEP72)。第二の高尤度領域HA2は、高尤度領域としての認定が解除される。
このような構成によれば、識別器による識別結果として複数の高尤度領域HAが特定された場合においても、簡易な処理を通じて、撮像された運転者5の頭部51を含む候補領域を特定できる。結果として、撮像された運転者5の頭部51を判別するための処理の負荷増大を抑制できる。
全ての検出ウインドウDWの位置において識別器による識別がなされた結果、重複する部分を有する複数の高尤度領域が特定される場合がありうる(STEP73においてYES)。図8の(A)に示される例においては、重複する部分を有する複数の高尤度領域HAが、撮像された運転者5の頭部51の付近に特定されている。同様に、撮像されたステアリングホイールの付近にも、重複する部分を有する複数の高尤度領域が特定されている。
このような場合、図8の(B)に示されるように、プロセッサ32は、当該複数の高尤度領域HAを統合して単一の統合高尤度領域IHAを生成する(図7のSTEP75)。本例においては、撮像された運転者5の頭部51の付近に第一の統合高尤度領域IHA1が生成され、撮像されたステアリングホイールの付近に第二の統合高尤度領域IHA2が生成されている。
圧縮画像データID2内に複数の統合高尤度領域IHAが存在しているので(STEP76においてNO)、プロセッサ32は、撮像された運転者5の頭部51の候補位置を特定するために、プロセッサ32は、各統合高尤度領域IHAについて統合SVMスコアを取得する。統合SVMスコアは、統合高尤度領域IHAを形成している複数の高尤度領域HAのSVMスコアの合計値として取得される。合計値は、平均値、中間値、最頻値のいずれかで置き換えてもよい。
プロセッサ32は、取得された複数の統合SVMスコア同士を比較し、最も高い統合SVMスコアに対応付けられている統合高尤度領域IHAを、撮像された運転者5の頭部51が含まれている候補領域として選択する(STEP77)。
図8の(B)に示される例においては、第一の統合高尤度領域IHA1に対応付けられた統合SVMスコアと第二の統合高尤度領域IHA2に対応付けられた統合SVMスコアが、比較に供される。本例においては、第一の統合高尤度領域IHA1に対応付けられた統合SVMスコアが、第二の統合高尤度領域IHA2に対応付けられた統合SVMスコアよりも高いとする。この場合、プロセッサ32は、第一の統合高尤度領域IHA1を選択する。第二の統合高尤度領域IHA2は、高尤度領域としての認定が解除される。
このような構成によれば、識別器による識別結果として多数の高尤度領域HAが特定された場合においても、撮像された運転者5の頭部51を含む候補領域を特定する処理を簡略化できる。結果として、撮像された運転者5の頭部51を判別するための処理の負荷増大を抑制できる。
本実施形態においては、統合高尤度領域IHAは、全ての高尤度領域HAを内包する矩形状を有している。図9の(A)に示されるように、全ての高尤度領域HAは、統合高尤度領域IHAを形成している四辺の内側に位置している。
このような構成によれば、統合高尤度領域IHAを生成するための処理を簡略化できる。結果として、撮像された運転者5の頭部51を判別するための処理の負荷増大を抑制できる。
しかしながら、統合高尤度領域IHAは、各高尤度領域HAにおける他の高尤度領域HAと重複していない部分の外縁によって形成される輪郭形状を有するように生成されてもよい。図9の(A)に示される複数の高尤度領域HAの配置例の場合、統合高尤度領域IHAは、左上に位置する高尤度領域HAにおける上端部の外縁と左端部の外縁、右下に位置する高尤度領域HAにおける下端部の外縁と右端部の外縁、およびこれらの間に位置する高尤度領域HAにおける右上隅部の外縁と左下隅部の外縁によって形成される輪郭形状を有する。すなわち、この場合の統合高尤度領域IHAの輪郭は、右上隅と左下隅に段形状部分を有する。
図9の(A)は、撮像された運転者5の頭部51が含まれる候補領域として、一つの統合高尤度領域IHAが特定された状態を示している(図7のSTEP76においてYES、またはSTEP77の終了後)。プロセッサ32は、候補領域の範囲をさらに狭める処理を行ないうる(STEP78)。
具体的には、統合された複数の高尤度領域HAについて、SVMスコアを重みとして加味した加重平均値演算を行なう。統合高尤度領域IHAがn個の高尤度領域HA1、HA2、…、HAnによって形成されている場合、次式が得られる。
Figure 2020135034
上式において、x、yは、それぞれ圧縮画像データID2における横方向の座標と縦方向の座標を表している。(x1,y1)、(x2,y2)、…、(xn,yn)は、各高尤度領域HAの上左隅の座標を表している。s1、s2、…、snは、各高尤度領域HAに対応づけられたSVMスコアを表している。演算の結果として得られる(xa,ya)は、平均的な上左隅の位置の座標を表しているが、SVMスコアの重み付けがなされているので、単純平均値よりもSVMスコアが高い高尤度領域HAからの寄与を大きく受ける。
この結果、図9の(B)に示されるように、検出ウインドウDWと同じ面積を有し、上左隅の座標が(xa,ya)である平均高尤度領域AHAが特定される。プロセッサ32は、平均高尤度領域AHAを、撮像された運転者5の頭部51が含まれている候補領域として特定する(図7のSTEP72)。
このような構成によれば、撮像された運転者5の頭部51が含まれている候補領域を、統合高尤度領域IHAよりも狭い範囲に限定できる。これにより、撮像された運転者5の頭部51の判別精度を高めることができる。
上述したプロセッサ32の機能は、汎用メモリと協働して動作する汎用マイクロプロセッサにより実現されうる。汎用マイクロプロセッサとしては、CPU、MPU、GPUが例示されうる。汎用メモリとしては、ROMやRAMが例示されうる。この場合、ROMには、上述した処理を実行するコンピュータプログラムが記憶されうる。ROMは、コンピュータプログラムを記憶している記憶媒体の一例である。プロセッサ32は、ROM上に記憶されたプログラムの少なくとも一部を指定してRAM上に展開し、RAMと協働して上述した処理を実行する。プロセッサ32は、上述した処理を実現するコンピュータプログラムを実行可能なマイクロコントローラ、ASIC、FPGAなどの専用集積回路によって実現されてもよい。プロセッサ32は、汎用マイクロプロセッサと専用集積回路の組合せによって実現されてもよい。
図1に示されるように、頭部判別装置3は、ネットワーク6を介して外部サーバ7と通信可能に構成されうる。この場合、上述した処理を実行するコンピュータプログラムは、外部サーバ7からネットワーク6を介してダウンロードされうる。外部サーバ7は、コンピュータプログラムを記憶している記憶媒体の一例である。
撮像装置2としては、TOF(Time of Flight)カメラが使用されうる。TOFカメラは、発光素子と受光素子を備えている。発光素子は、検出光として例えば赤外光を出射する。出射された検出光は、対象物によって反射され、戻り光として受光素子に入射する。検出光が発光素子より出射されてから戻り光が受光素子に入射するまでの時間が測定されることにより、戻り光を生じた対象物までの距離が算出される。TOFカメラにより取得される画像を構成する複数の画素の各々について当該距離が算出されることにより、各画素は、画像における二次元的な位置座標(U,V)に加えて、当該画素に対応する対象物の一部までの距離(奥行き)を示す距離情報d(U,V)を含む。
したがって、TOFカメラから出力される原画像データID1に含まれる複数の原画素データの各々は、位置座標(U,V)と距離情報d(U,V)を含む。すなわち、複数の原画素データの各々は、三次元空間における位置情報を有している。
各原画素データに含まれる位置座標(U,V)と距離情報d(U,V)は、画像中心座標が(cX,cY)と定義された場合、次式を用いてカメラ座標系における三次元空間上の点(X,Y,Z)に変換されうる。fは、TOFカメラが備えるレンズの焦点距離を表している。
Figure 2020135034
プロセッサ32は、上式に基づいて、位置座標(U,V)と距離情報d(U,V)からカメラ座標系における三次元空間上の点(X,Y,Z)への変換を行なう。なお、位置座標(U,V)と距離情報d(U,V)からカメラ座標系における三次元空間上の点(X,Y,Z)への変換は、TOFカメラに内蔵されたプロセッサによって行なわれてもよい。この場合、TOFカメラから出力される原画像データID1に含まれる複数の原画素データの各々は、位置座標(X,Y,Z)を含む。
カメラ座標系における位置座標(X,Y,Z)は、車両4における特定の位置を原点とする車両座標系における位置座標(L,W,H)に変換されうる。例えば、運転席における特定の位置を原点とした場合、W軸の座標値は、運転者5から見て原点よりも右方において正の値をとり、原点よりも左方において負の値をとる。例えば、L軸の座標値は、原点よりも前方において正の値をとり、原点よりも後方において負の値をとる。例えば、H軸の座標値は、原点よりも上方において正の値をとり、原点よりも下方において負の値をとる。
プロセッサ32は、各原画素データについてカメラ座標系における位置座標(X,Y,Z)から車両座標系における位置座標(L,W,H)への変換を行なう。原点は、例えば運転者5の腰骨に対応する位置として選ばれる。車両座標系への座標変換は、周知の座標回転変換、平行移動変換、スケール変換などを用いて行なわれうる。
このような構成によれば、プロセッサ32によって取得される原画像データID1に三次元空間における位置情報を付加できる。必要に応じて当該位置情報を参照することにより、上記のように特定された運転者5の頭部51が含まれる候補領域の正確性を検証するといった処理が可能になる。したがって、運転者5の頭部51の判別精度を高めることができる。
上記の実施形態は、本発明の理解を容易にするための例示にすぎない。上記の実施形態に係る構成は、本発明の趣旨を逸脱しなければ、適宜に変更・改良されうる。
上記の実施形態においては、画像の輝度に関する特徴量として、エッジの輝度勾配に基づいて物体の大まかな形状を表現可能なHOGを用いて頭部の外形状を捉えている。しかしながら、画像の局所的な明暗差に対応するHaar-Likeや、画像の局所的な輝度の分布に対応するLBP(Local Binary Pattern)を上記の特徴量として用いてもよい。
上記の実施形態においては、汎化性能が比較的高いSVMを識別器として使用している。しかしながら、ランダムフォレストやパーセプトロンを識別器として使用してもよい。
上記の実施形態においては、車室41内における撮像された運転者5の頭部51が判別に供されている。しかしながら、撮像装置2を適宜に配置することにより、撮像された他の乗員の頭部が判別に供されてもよい。
2:撮像装置、3:頭部判別装置、31:入力インターフェース、32:プロセッサ、41:車室、5:運転者、51:頭部、7:外部サーバ、OI:原画像、ID1:原画像データ、ID2:圧縮画像データ、DW:検出ウインドウ、HA:高尤度領域、IHA:統合高尤度領域、AHA:平均高尤度領域

Claims (19)

  1. 撮像された車室を含む原画像に対応し複数の原画素データを含む原画像データを受け付ける入力インターフェースと、
    画像の輝度に関する特徴量に基づいて撮像された乗員の頭部を判別するために少なくとも撮像された頭部を含む画像を教師データとして学習した識別器を用い、前記原画像データに基づいて、前記原画像に含まれる撮像された乗員の頭部を判別するプロセッサと、
    を備えており、
    前記プロセッサは、
    前記原画像データを圧縮することにより、前記複数の原画素データよりも少ない複数の圧縮画素データを含む圧縮画像データを生成し、
    頭部の大きさに基づいて定められた検出領域を、前記圧縮画像データ内に設定し、
    前記検出領域に含まれる各画素データの輝度に関する特徴量を前記識別器に入力し、
    前記撮像された乗員の頭部が含まれる可能性が高いことを前記識別器による識別結果が示している少なくとも一つの前記検出領域を、高尤度領域として特定する、
    頭部判別装置。
  2. 複数の前記高尤度領域が特定された場合、前記プロセッサは、
    前記複数の高尤度領域の各々について、前記撮像された乗員の頭部が存在する可能性に対応する尤度を取得し、
    前記尤度が最も高い前記複数の高尤度領域の一つを、前記撮像された乗員の頭部が含まれている候補領域として選択する、
    請求項1に記載の頭部判別装置。
  3. 重複する部分を有する複数の前記高尤度領域が特定された場合、前記プロセッサは、当該複数の高尤度領域を統合して少なくとも一つの統合高尤度領域を生成する、
    請求項1または2に記載の頭部判別装置。
  4. 前記統合高尤度領域は、前記複数の高尤度領域を内包する矩形状を有している、
    請求項3に記載の頭部判別装置。
  5. 前記統合高尤度領域が生成された場合、前記プロセッサは、
    前記統合高尤度領域に含まれる前記複数の高尤度領域の各々について、前記撮像された乗員の頭部が存在する可能性に対応する尤度を取得し、
    前記尤度に基づいて、前記統合高尤度領域に含まれる前記検出領域と同じ大きさの領域を、前記撮像された乗員の頭部が含まれている候補領域として特定する、
    請求項3または4に記載の頭部判別装置。
  6. 前記プロセッサは、前記検出領域の大きさを変えずに前記高尤度領域を特定する、
    請求項1から5のいずれか一項に記載の頭部判別装置。
  7. 前記特徴量は、HOG(Histograms of Oriented Gradients)である、
    請求項1から6のいずれか一項に記載の頭部判別装置。
  8. 前記識別器は、サポートベクターマシンである、
    請求項1から7のいずれか一項に記載の頭部判別装置。
  9. 前記入力インターフェースは、前記原画像データをTOF(Time of Flight)カメラから受け付ける、
    請求項1から8のいずれか一項に記載の頭部判別装置。
  10. 画像の輝度に関する特徴量に基づいて撮像された乗員の頭部を判別するために少なくとも撮像された頭部を含む画像を教師データとして学習した識別器を用い、撮像された車室を含む原画像に対応し複数の原画素データを含む原画像データに基づいて、当該原画像に含まれる撮像された乗員の頭部をプロセッサに判別させるコンピュータプログラムであって、
    当該コンピュータプログラムが実行されることにより、当該プロセッサに、
    前記原画像データを圧縮することにより、前記原画素データよりも少ない複数の圧縮画素データを含む圧縮画像データを生成させ、
    頭部の大きさに基づいて定められた検出領域を前記圧縮画像データ内に設定させ、
    前記検出領域に含まれる各画素データの輝度に関する特徴量を、前記識別器に入力させ、
    前記撮像された乗員の頭部が含まれる可能性が高いことを前記識別器による識別結果が示している少なくとも一つの前記検出領域を、高尤度領域として特定させる、
    コンピュータプログラム。
  11. 複数の前記高尤度領域が特定された場合、前記プロセッサに、
    前記複数の高尤度領域の各々について、前記撮像された乗員の頭部が存在する可能性に対応する尤度を取得させ、
    前記尤度が最も高い前記複数の高尤度領域の一つを、前記撮像された乗員の頭部が含まれている候補領域として選択させる、
    請求項10に記載のコンピュータプログラム。
  12. 重複する部分を有する複数の前記高尤度領域が特定された場合、前記プロセッサに、当該複数の高尤度領域を統合して少なくとも一つの統合高尤度領域を生成させる、
    請求項10または11に記載のコンピュータプログラム。
  13. 前記統合高尤度領域は、前記複数の高尤度領域を内包する矩形状を有している、
    請求項12に記載のコンピュータプログラム。
  14. 前記統合高尤度領域が生成された場合、前記プロセッサに、
    前記統合高尤度領域に含まれる前記複数の高尤度領域の各々について、前記撮像された乗員の頭部が存在する可能性に対応する尤度を取得させ、
    前記尤度に基づいて、前記統合高尤度領域に含まれる前記検出領域と同じ大きさの領域を、前記撮像された乗員の頭部が含まれている候補領域として特定させる、
    請求項12または13に記載のコンピュータプログラム。
  15. 前記プロセッサに、前記検出領域の大きさを変えずに前記高尤度領域を特定させる、
    請求項10から14のいずれか一項に記載のコンピュータプログラム。
  16. 前記特徴量は、HOG(Histograms of Oriented Gradients)である、
    請求項10から15のいずれか一項に記載のコンピュータプログラム。
  17. 前記識別器は、サポートベクターマシンである、
    請求項10から16のいずれか一項に記載のコンピュータプログラム。
  18. 前記原画像データは、TOF(Time of Flight)カメラから取得されたものである、
    請求項10から17のいずれか一項に記載のコンピュータプログラム。
  19. 請求項10から18のいずれか一項に記載のコンピュータプログラムを記憶している記憶媒体。
JP2019023625A 2019-02-13 2019-02-13 頭部判別装置、コンピュータプログラム、および記憶媒体 Pending JP2020135034A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019023625A JP2020135034A (ja) 2019-02-13 2019-02-13 頭部判別装置、コンピュータプログラム、および記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019023625A JP2020135034A (ja) 2019-02-13 2019-02-13 頭部判別装置、コンピュータプログラム、および記憶媒体

Publications (1)

Publication Number Publication Date
JP2020135034A true JP2020135034A (ja) 2020-08-31

Family

ID=72263043

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019023625A Pending JP2020135034A (ja) 2019-02-13 2019-02-13 頭部判別装置、コンピュータプログラム、および記憶媒体

Country Status (1)

Country Link
JP (1) JP2020135034A (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004005384A (ja) * 2002-04-19 2004-01-08 Sony Corp 画像処理方法、画像処理装置、プログラム及び記録媒体、自動トリミング装置、並びに肖像写真撮影装置
JP2011193115A (ja) * 2010-03-12 2011-09-29 Panasonic Corp 顔マスキング装置及び方法
JP2012127811A (ja) * 2010-12-15 2012-07-05 Honda Motor Co Ltd 乗員検知装置
WO2015025705A1 (ja) * 2013-08-23 2015-02-26 日本電気株式会社 映像処理装置、映像処理方法および映像処理プログラム
JP2018106282A (ja) * 2016-12-22 2018-07-05 セコム株式会社 物体検出装置
JP2019021001A (ja) * 2017-07-14 2019-02-07 オムロン株式会社 物体検出装置、物体検出方法、およびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004005384A (ja) * 2002-04-19 2004-01-08 Sony Corp 画像処理方法、画像処理装置、プログラム及び記録媒体、自動トリミング装置、並びに肖像写真撮影装置
JP2011193115A (ja) * 2010-03-12 2011-09-29 Panasonic Corp 顔マスキング装置及び方法
JP2012127811A (ja) * 2010-12-15 2012-07-05 Honda Motor Co Ltd 乗員検知装置
WO2015025705A1 (ja) * 2013-08-23 2015-02-26 日本電気株式会社 映像処理装置、映像処理方法および映像処理プログラム
JP2018106282A (ja) * 2016-12-22 2018-07-05 セコム株式会社 物体検出装置
JP2019021001A (ja) * 2017-07-14 2019-02-07 オムロン株式会社 物体検出装置、物体検出方法、およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
河中 治樹、外2名: ""マルチステレオカメラを使った部分ボクセル空間への情報統合によるリアルタイム人物頭部追跡"", 電子情報通信学会技術研究報告, vol. 106, no. 75, JPN6022049084, 19 May 2006 (2006-05-19), JP, pages 1 - 6, ISSN: 0004925311 *

Similar Documents

Publication Publication Date Title
US7379195B2 (en) Device for the detection of an object on a vehicle seat
KR102108953B1 (ko) 센서 품질 저하에 강인한 딥러닝 기반 카메라, 라이더 센서 융합 인지 방법 및 시스템
JP5742873B2 (ja) 物体識別装置
EP2246806B1 (en) Vision method and system for automatically detecting objects in front of a motor vehicle
EP1562135A2 (en) Process and apparatus for classifying image data using grid models
CN111353512A (zh) 障碍物分类方法、装置、存储介质和计算机设备
CN111867466A (zh) 体格估计装置及体格估计方法
EP3637309A1 (en) Learning method and testing method for monitoring blind spot of vehicle, and learning device and testing device using the same
JP2013205410A (ja) 車両用外界認識装置およびそれを用いた車両システム
JP2020135616A (ja) 物体検出装置
JP2011248525A (ja) 物体の検出装置及びその検出方法
Lakmal et al. Pothole detection with image segmentation for advanced driver assisted systems
JP2020135034A (ja) 頭部判別装置、コンピュータプログラム、および記憶媒体
JP6171608B2 (ja) 物体検出装置
JP6762794B2 (ja) 瞼開閉検出装置および瞼開閉検出方法
CN115201778A (zh) 不规则障碍物检测方法、车辆及计算机可读存储介质
JP7240193B2 (ja) 顔方向判別装置、コンピュータプログラム、および記憶媒体
US20080131004A1 (en) System or method for segmenting images
CN115131752A (zh) 学习方法、学习装置以及程序记录介质
CN115720569A (zh) 障碍物检测装置和障碍物检测方法
JP7053341B2 (ja) 処理装置、及びプログラム
JP6350018B2 (ja) 対象物検出装置及び要素選択装置
JP5798078B2 (ja) 車両用外界認識装置とそれを用いた車両システム
JP7079187B2 (ja) 乗員判別装置、コンピュータプログラム、および記憶媒体
JP7195963B2 (ja) 頭部判別装置、コンピュータプログラム、および記憶媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190301

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230123

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230428

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230511

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240419