JP2020135037A - 頭部判別装置、コンピュータプログラム、および記憶媒体 - Google Patents

頭部判別装置、コンピュータプログラム、および記憶媒体 Download PDF

Info

Publication number
JP2020135037A
JP2020135037A JP2019023628A JP2019023628A JP2020135037A JP 2020135037 A JP2020135037 A JP 2020135037A JP 2019023628 A JP2019023628 A JP 2019023628A JP 2019023628 A JP2019023628 A JP 2019023628A JP 2020135037 A JP2020135037 A JP 2020135037A
Authority
JP
Japan
Prior art keywords
head
radius
processor
past
position data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019023628A
Other languages
English (en)
Other versions
JP7288309B2 (ja
Inventor
佑記 名和
Yuki Nawa
佑記 名和
圭吾 多田
Keigo Tada
圭吾 多田
久光 原田
Hisamitsu Harada
久光 原田
忠 関原
Tadashi Sekihara
忠 関原
安利 深谷
Yasutoshi Fukaya
安利 深谷
将城 榊原
Masaki Sakakibara
将城 榊原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Tokai Rika Co Ltd
Original Assignee
NEC Solution Innovators Ltd
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solution Innovators Ltd, Tokai Rika Co Ltd filed Critical NEC Solution Innovators Ltd
Priority to JP2019023628A priority Critical patent/JP7288309B2/ja
Publication of JP2020135037A publication Critical patent/JP2020135037A/ja
Application granted granted Critical
Publication of JP7288309B2 publication Critical patent/JP7288309B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】車室内の乗員の頭部の判別精度を高める。【解決手段】プロセッサは、各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットを受け付ける。プロセッサは、前記位置データセットから乗員の頭部が存在する可能性が高い三次元空間の領域に対応する頭部データサブセットを抽出する(STEP511)。プロセッサは、過去に特定された車室内の乗員の頭部の位置である過去位置をストレージから読み出す(STEP512)。プロセッサは、過去位置から所定の距離より離れた三次元空間の領域にある点要素を削除することによって頭部データサブセットを制限する(STEP514)。プロセッサは、制限された位置データサブセットに基づいて頭部の中心位置を推定する(STEP515)。【選択図】図9

Description

本発明は、車室内の乗員の頭部を判別する装置に関連する。本発明は、当該装置が備えているプロセッサにより実行されるコンピュータプログラム、および当該コンピュータプログラムが記憶された記憶媒体にも関連する。
特許文献1に開示されているように、画像データに基づいて、撮像された車室内の乗員の頭部を判別する装置が知られている。
特開2008−285015号公報
本発明の目的は、車室内の乗員の頭部の判別精度を高めることである。
上記の目的を達成するための第一態様は、頭部判別装置であって、
各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットを受け付ける入力インターフェースと、
前記位置データセットと過去に特定された車室内の乗員の頭部の位置である過去位置とに基づいて、当該頭部を判別するプロセッサと、
を備えており、
前記プロセッサは、
前記乗員の頭部が存在する可能性が高い前記三次元空間の領域に対応する第一位置データサブセットを、前記位置データセットから抽出し、
前記過去位置から所定の距離よりも離れた前記三次元空間の領域に対応する第二位置データサブセットで、前記第一位置データサブセットを制限し、
制限された前記第一位置データサブセットに基づいて、前記頭部の中心位置を推定し、
推定された前記中心位置に基づいて、前記頭部の位置を特定する。
上記の目的を達成するための第二態様は、各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットと過去に特定された車室内の乗員の頭部の位置である過去位置とに基づいて、当該頭部をプロセッサに判別させるコンピュータプログラムであって、
当該コンピュータプログラムが実行されると、当該プロセッサに、
前記乗員の頭部が存在する可能性が高い前記三次元空間の領域に対応する第一位置データサブセットを、前記位置データセットから抽出させ、
前記過去位置から所定の距離よりも離れた前記三次元空間の領域に対応する第二位置データサブセットで、前記第一位置データサブセットを制限させ、
制限された前記第一位置データサブセットに基づいて、前記頭部の中心位置を推定させ、
推定された前記中心位置に基づいて、前記頭部の位置を特定させる。
第一データサブセットは、乗員の頭部が存在する可能性が高い三次元空間の領域に対応している。しかしながら、乗員の姿勢や体格、位置データセットの取得条件などによっては、頭部以外の身体部位が位置データサブセットに含まれてしまう場合がある。上記のような構成によれば、予期せず位置データサブセットに含まれた頭部以外の身体部位に対応するデータが、頭部の中心位置の推定に対してノイズとして及ぼす影響を抑制できる。したがって、頭部の中心位置の推定精度が高まる。結果として、車室内の乗員の頭部の判別精度を高めることができる。
上記の第一態様に係る頭部判別装置は、以下のように構成されうる。
前記所定の距離は、前記頭部の大きさと前記頭部の移動可能性に基づいて定められている。
上記の第二態様に係るコンピュータプログラムは、以下のように構成されうる。
前記所定の距離は、前記頭部の大きさと前記頭部の移動可能性に基づいて定められている。
上記のような構成によれば、中心位置の推定に本来必要である頭部に対応するデータが制限の対象とされてしまう事態の回避が容易になる。したがって、中心位置の推定精度の低下を抑制できる。
上記の目的を達成するための第三態様は、頭部判別装置であって、
各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットを受け付ける入力インターフェースと、
前記位置データセットと過去に特定された車室内の乗員の頭部の位置である過去位置とに基づいて、当該頭部を判別するプロセッサと、
を備えており、
前記プロセッサは、
前記乗員の頭部が存在する可能性が高い前記三次元空間の領域に対応する位置データサブセットを、前記位置データセットから抽出し、
前記位置データサブセットに含まれる前記複数の点要素に対応付けられた複数の位置の重心位置と、前記過去位置との中間点を特定し、
前記中間点に基づいて、前記頭部の中心位置を推定し、
推定された前記中心位置に基づいて、前記頭部の位置を特定する。
上記の目的を達成するための第四態様は、各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットと過去に特定された車室内の乗員の頭部の位置である過去位置とに基づいて、当該頭部をプロセッサに判別させるコンピュータプログラムであって、
当該コンピュータプログラムが実行されると、当該プロセッサに、
前記乗員の頭部が存在する可能性が高い空間領域に対応する位置データサブセットを、前記位置データセットから抽出させ、
前記位置データサブセットに含まれる前記複数の点要素に対応付けられた複数の位置の重心位置と、前記過去位置との中間点を特定させ、
前記中間点に基づいて、前記頭部の中心位置を推定させ、
推定された前記中心位置に基づいて、前記頭部の位置を特定させる。
上記のような構成によれば、今回取得された位置データサブセットに含まれる複数の点要素から特定される重心位置ではなく、重心位置と過去位置の中間点に基づいて頭部の中心位置の推定が行なわれる。過去位置により近い位置を重心位置と仮定して中心位置の推定が行なわれるので、特に位置データサブセットに含まれる複数の点要素が偏った分布を示す場合において、中心位置の推定位置が実際の頭部の中心からずれる量を抑制できる。したがって、頭部の中心位置の推定精度が高まる。結果として、車室内の乗員の頭部の判別精度を高めることができる。
上記の目的を達成するための第五態様は、頭部判別装置であって、
各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットを受け付ける入力インターフェースと、
前記位置データセットと過去に特定された車室内の乗員の頭部の位置である過去位置とに基づいて、当該頭部を判別するプロセッサと、
を備えており、
前記プロセッサは、
前記乗員の頭部が存在する可能性が高い前記三次元空間の領域に対応する位置データサブセットを、前記位置データセットから抽出し、
前記位置データサブセットに基づいて前記頭部の中心位置を推定し、
前記中心位置を中心とする前記頭部を近似する球体の半径を第一半径として特定し、
前記第一半径を、前記過去位置における前記頭部を近似する球体の半径である第二半径と比較し、
前記第一半径と前記第二半径の差異が所定値未満である場合、前記中心位置に基づいて前記頭部の位置を特定する。
上記の目的を達成するための第六態様は、各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットと過去に特定された車室内の乗員の頭部の位置である過去位置とに基づいて、当該頭部をプロセッサに判別させるコンピュータプログラムであって、
前記乗員の頭部が存在する可能性が高い前記三次元空間の領域に対応する位置データサブセットを、前記位置データセットから抽出させ、
前記位置データサブセットに基づいて前記頭部の中心位置を推定させ、
前記中心位置を中心とする前記頭部を近似する球体の半径を、第一半径として特定させ、
前記第一半径を、前記過去位置における前記頭部を近似する球体の半径である第二半径と比較させ、
前記第一半径と前記第二半径の差異が所定値未満である場合、前記中心位置に基づいて前記頭部の位置を特定させる。
上記の構成は、繰り返される中心位置の推定の間に、頭部を近似する球体の半径が大きく変動することはないという前提に基づいている。したがって、今回特定された球体の半径と過去に特定された球体の半径の差異が大きい場合、今回特定された半径が基づいている重心位置が、位置データサブセット含まれる複数の点要素の偏った分布に起因している蓋然性が高い。今回特定された球体の半径と過去に特定された球体の半径の差異が所定値以上である場合は推定された中心位置を採用しないことにより、特に位置データサブセットに含まれる複数の点要素が偏った分布を示す場合において、中心位置の推定位置が実際の頭部の中心からずれる量を抑制できる。したがって、頭部の中心位置の推定精度が高まる。結果として、車室内の乗員の頭部の判別精度を高めることができる。
上記の第五態様に係る頭部判別装置は、以下のように構成されうる。
前記第一半径と前記第二半径の差異が所定値以上である場合、前記プロセッサは、
前記第二半径に基づいて前記頭部の中心位置を再推定し、
再推定された前記頭部の中心位置に基づいて前記頭部の位置を特定する。
上記の第六態様に係るコンピュータプログラムは、以下のように構成されうる。
前記第一半径と前記第二半径の差異が所定値以上である場合、前記プロセッサに、
前記第二半径に基づいて前記頭部の中心位置を再推定させ、
再推定された前記頭部の中心位置に基づいて前記頭部の位置を特定させる。
上記のような構成によれば、頭部の中心位置の再推定に係る演算負荷を抑制できる。
上記の第一態様、第三態様、および第五態様のいずれかに係る頭部判別装置は、以下のように構成されうる。
前記プロセッサは、
前記位置データセットに基づいて前記乗員の顔の向きを判別し、
判別された前記顔の向きが特定の向きである場合に、前記頭部の中心位置の推定を行なう。
上記の第二態様、第四態様、および第六態様のいずれかに係るコンピュータプログラムは、以下のように構成されうる。
前記プロセッサに、
前記位置データセットに基づいて前記乗員の顔の向きを判別させ、
判別された前記顔の向きが特定の向きである場合に、前記頭部の中心位置の推定を行なわせる、
例えば乗員の顔が位置データセットの取得装置に面していない場合、位置データサブセットに含まれる複数の点要素の分布が偏り、頭部の位置の特定が難しくなる傾向にある。頭部の中心位置の推定の実行をこのような場合に限ることにより、頭部判別装置の処理負荷を抑制しつつ、乗員の頭部の判別精度の低下を抑制できる。
上記の第一態様、第三態様、および第五態様のいずれかに係る頭部判別装置は、以下のように構成されうる。
前記入力インターフェースは、前記位置データセットを、TOF(Time of Flight)カメラから受け付ける。
上記の第二態様、第四態様、および第六態様のいずれかに係るコンピュータプログラムは、以下のように構成されうる。
前記位置データセットは、TOF(Time of Flight)カメラから取得される。
上記のような構成によれば、乗員の頭部に係る位置情報を、画像情報とともに効率的に取得できる。
上記の目的を達成するための一態様は、上記の第二態様、第四態様、および第六態様のいずれかに係るコンピュータプログラムを記憶している記憶媒体である。
本発明によれば、車室内の乗員の頭部の判別精度を高めることができる。
一実施形態に係る頭部判別システムの構成を例示している。 図1の頭部判別システムが搭載される車両の一部を例示している。 図1の頭部判別装置により実行される処理の流れを例示している。 図1の頭部判別装置により実行される処理を説明するための図である。 図1の頭部判別装置により実行される処理を説明するための図である。 図1の頭部判別装置により実行される処理を説明するための図である。 図1の頭部判別装置により実行される処理を説明するための図である。 図1の頭部判別装置により実行される処理を説明するための図である。 図3における頭部中心位置の推定処理の第一の具体例を示している。 図9の処理を説明するための図である。 図3における頭部中心位置の推定処理の第二の具体例を示している。 図11の処理を説明するための図である。 図3における頭部中心位置の推定処理の第三の具体例を示している。 図13の処理を説明するための図である。
添付の図面を参照しつつ、実施形態例について以下詳細に説明する。以下の説明に用いる各図面では、各部材を認識可能な大きさとするために縮尺を適宜変更している。
図1は、一実施形態に係る頭部判別システム1の構成を模式的に示している。頭部判別システム1は、TOF(Time of Flight)カメラ2と頭部判別装置3を含んでいる。図2は、頭部判別システム1が搭載される車両4の一部を示している。矢印Lは、車両4の前後方向に沿う向きを示している。矢印Hは、車両4の高さ方向に沿う向きを示している。
TOFカメラ2は、図2に示される車両4の車室41内における適宜の位置に配置され、撮像された車室41を含む画像を取得する。
TOFカメラ2は、発光素子と受光素子を備えている。発光素子は、検出光として例えば赤外光を出射する。出射された検出光は、対象物によって反射され、戻り光として受光素子に入射する。検出光が発光素子より出射されてから戻り光が受光素子に入射するまでの時間が測定されることにより、戻り光を生じた対象物までの距離が算出される。TOFカメラ2により取得される画像を構成する複数の画素の各々について当該距離が算出されることにより、各画素は、画像における二次元的な位置座標(U,V)に加えて、当該画素に対応する対象物の一部までの距離(奥行き)を示す距離情報d(U,V)を含む。
TOFカメラ2は、取得された画像に対応する画像データIDを出力する。画像データIDは、複数の画素データセットを含んでいる。複数の画素データセットの各々は、取得された画像を構成する複数の画素の対応する一つに関連づけられている。複数の画素データセットの各々は、位置座標(U,V)と距離情報d(U,V)を含んでいる。すなわち、複数の画素データセットの各々は、三次元空間における位置に対応付けられている。複数の画素データセットの各々は、点要素の一例である。画像データIDは、位置データセットの一例でもある。
頭部判別装置3は、車両4における適宜の位置に搭載される。頭部判別装置3は、TOFカメラ2から提供される画像データIDに基づいて、撮像された車室41内の運転者5の頭部51を判別するための装置である。運転者5は、乗員の一例である。
頭部判別装置3は、入力インターフェース31を備えている。入力インターフェース31は、TOFカメラ2から出力された画像データIDを受け付ける。
頭部判別装置3は、プロセッサ32を備えている。プロセッサ32は、入力インターフェース31に入力された画像データIDに基づいて、撮像された運転者5の頭部51を判別する処理を実行する。
図3を参照しつつ、プロセッサ32によって行なわれる処理の流れを説明する。プロセッサ32は、まず画像データIDに対して予備処理を実行する(STEP1)。
各画素データに含まれる位置座標(U,V)と距離情報d(U,V)は、画像中心座標が(cX,cY)と定義された場合、次式を用いてカメラ座標系における三次元空間上の点(X,Y,Z)に変換されうる。fは、TOFカメラ2が備えるレンズの焦点距離を表している。
プロセッサ32は、上式に基づいて、位置座標(U,V)と距離情報d(U,V)からカメラ座標系における三次元空間上の点(X,Y,Z)への変換を行なう。なお、位置座標(U,V)と距離情報d(U,V)からカメラ座標系における三次元空間上の点(X,Y,Z)への変換は、TOFカメラ2に内蔵されたプロセッサによって行なわれてもよい。この場合、TOFカメラ2から出力される画像データIDに含まれる複数の画素データセットの各々は、位置座標(X,Y,Z)を含む。この場合においても、複数の画素データセットの各々は、三次元空間における位置に対応付けられている。この場合においても、複数の画素データセットの各々は、点要素の一例である。この場合においても、画像データIDは、位置データセットの一例でもある。
カメラ座標系における位置座標(X,Y,Z)は、車両4における特定の位置を原点とする車両座標系における位置座標(W,L,H)に変換されうる。W軸は、車両4の左右方向に延びる座標軸である。例えば、運転席における特定の位置を原点とした場合、W軸の座標値は、運転者5から見て原点よりも右方において正の値をとり、原点よりも左方において負の値をとる。L軸は、車両4の前後方向に延びる座標軸である。例えば、L軸の座標値は、原点よりも前方において正の値をとり、原点よりも後方において負の値をとる。H軸は、車両4の上下方向に延びる座標軸である。例えば、H軸の座標値は、原点よりも上方において正の値をとり、原点よりも下方において負の値をとる。
プロセッサ32は、各画素データについてカメラ座標系における位置座標(X,Y,Z)から車両座標系における位置座標(W,L,H)への変換を行なう。原点は、例えば運転者5の腰骨に対応する位置として選ばれる。車両座標系への座標変換は、周知の座標回転変換、平行移動変換、スケール変換などを用いて行なわれうる。
続いてプロセッサ32は、処理対象とされる空間領域を限定する処理を行なう。具体的には、TOFカメラ2から取得された画像データIDから、限定された空間領域に対応する複数の画素データセットPDが抽出される。
図4の(A)は、TOFカメラ2から取得された画像データIDの一例を示している。図2に示されるように、運転席に着座した運転者5の頭部51は、車室41の上部に位置している蓋然性が高い。したがって、処理対象とされる空間領域が当該車室41の上部に限定される。例えば、限定された空間領域は、W軸の座標値が−510mm〜360mm、L軸の座標値が−280mm〜700mm、H軸の座標値が430mm〜750mmの範囲である空間領域として定義されうる。図4の(B)は、限定された空間領域に対応する複数の画素データセットPDの一例を示している。
空間領域を限定する処理が行なわれることにより、後述する頭部51の判別処理の負荷が軽減されうる。しかしながら、この処理は省略されてもよい。
続いてプロセッサ32は、上記のように抽出された複数の画素データセットPDを複数のデータサブセットDSに分割する(図3のSTEP2)。
図5の(A)は、L軸とH軸により形成されるLH座標平面に射影された複数の画素データセットPDを示している。プロセッサ32は、LH座標平面に射影された複数の画素データセットPDを複数のデータサブセットDSに分割することにより、車室41の一部を構成する複数の空間領域(車室空間領域)の一つに各データサブセットDSを対応付ける。
各データサブセットDSに対応する車室空間領域は、L軸に沿う所定の幅dLを有している。幅dLは、人の頭部に対応する寸法として予め定められうる。「人の頭部に対応する寸法」は、例えば国立研究開発法人産業技術総合研究所の人体寸法データベースや独立行政法人製品評価技術基盤機構の人間特性データベースなどに公開されている頭部の大きさに係る情報に基づいて定められうる。
続いてプロセッサ32は、高尤度データサブセットLDSを特定する(図3のSTEP3)。高尤度データサブセットLDSは、運転者5の頭部51が存在する可能性が高い車室空間領域に対応するデータサブセットDSである。
具体的には、プロセッサ32は、各データサブセットDSに含まれる有意な画素データセットの数を計数する。「有意な画素データセット」とは、運転者5によって検出光が反射されたことにより取得された可能性が高い距離情報D(U,V)を有している画素データセットを意味する。そのような距離情報Dの数値範囲は、TOFカメラ2と運転者5との位置関係に基づいて適宜に定められうる。
LH座標平面に射影された複数の画素データセットPDの場合、有意な画素データセットを最も多く含むデータサブセットDSに対応する車室空間領域には、運転者5の頭部51と胴体52が含まれている可能性が高い。
したがって、図5の(B)に示されるように、プロセッサ32は、有意な画素データセットを最も多く含むデータサブセットDSを、高尤度データサブセットLDSとして特定する。換言すると、プロセッサ32は、各データサブセットDSに含まれる運転者5に対応する画素データセットの数に基づいて、頭部51が存在する可能性が高い複数の車室空間領域の少なくとも一つに対応する高尤度データサブセットLDSを特定する。
続いてプロセッサ32は、特定された高尤度データサブセットLDSに基づいて、頭部の判別を行なう(図3のSTEP4)。
まず、図5の(B)に示されるように、プロセッサ32は、運転者5の頭頂部51aを特定する。具体的には、高尤度データサブセットLDSに含まれる有意な画素データセットのうち、最も高い位置にあるものが、頭頂部51aであると特定される。換言すると、高尤度データサブセットLDSに含まれる有意な画素データセットのうち、最も大きなH軸座標値を有するものが、頭頂部51aであると特定される。
続いて、図6の(A)と(B)に示されるように、プロセッサ32は、撮像された運転者5の頭部51が含まれる蓋然性の高い頭部空間領域HSRを定義する。頭部空間領域HSRは、特定された頭頂部51aの座標に基づいて定められる。具体的には、国立研究開発法人産業技術総合研究所の人体寸法データベースや独立行政法人製品評価技術基盤機構の人間特性データベースなどに公開されている頭部の大きさに係る情報に基づいて、頭部空間領域HSRのL軸に沿う方向の寸法hdL、H軸に沿う方向の寸法hdH、およびW軸に沿う方向の寸法hdWが定められる。
例えば、寸法hdLは、頭頂部51aの座標を中心として176mmの値をとるように定められる。寸法hdHは、頭頂部51aの座標から下方へ146mmの値をとるように定められる。寸法hdWは、頭頂部51aの座標を中心として176mmの値をとるように定められる。
次にプロセッサ32は、図7の(A)に示されるように、上記のように定められた頭部空間領域HSRに対応する頭部データサブセットHSDを、複数の画素データセットPDから抽出する。
さらに、図7の(B)に示されるように、プロセッサ32は、頭部データサブセットHSDのうち、上記のように定められた頭部空間領域HSRの重心位置G(Wg,Lg,Hg)に対応する画素データセットを特定する。
続いてプロセッサ32は、頭部51の中心位置を推定する処理を行なう(図3のSTEP5)。頭部データサブセットHSDは、頭部51の表面からの戻り光に基づいて取得されているので、上記のように特定された重心位置Gは、頭部51の中心(実際の重心)よりも表面に寄る傾向にある。図8の(A)に示されるように、運転者5の頭部51は球体Sで近似できる。頭部データサブセットHSDに含まれる複数の画素データセット(点要素)が球体Sの表面に分布していると仮定すれば、各点要素から球体Sの中心までの距離は等しくなる。
そこでプロセッサ32は、各点要素からの距離のばらつきが最小となる点を探索し、重心位置Gがそのような点の位置となるように補正する。プロセッサ32は、補正された重心位置G’を頭部51の中心位置Cとして推定する。
各点要素からの距離のばらつきが最小となる点は、例えば次式で表される評価関数の値が最小になるような点として探索されうる。
nは、頭部データサブセットHSDに含まれる複数の点要素の数を表している。
kは、頭部データサブセットHSDに含まれる各点要素の位置を表している。
Gは、上記のように特定された頭部51の重心位置を表している。
d(pk,G)は、ある点要素の位置と重心位置の間のユークリッド距離を表している。
さらにプロセッサ32は、頭部51を近似する球体Sの半径を特定する。当該半径は、例えば当初の重心位置Gと補正後の重心位置G’の間のユークリッド距離に基づいて特定されうる。
プロセッサ32は、このようにして推定された中心位置Cに基づいて、運転者5の頭部51の位置を特定する。図1に示されるように、頭部判別装置3は、出力インターフェース33を備えている。出力インターフェース33は、判別された運転者5の頭部の位置を示すデータHDを出力しうる。出力されたデータHDは、後段の認識処理において利用される。当該認識処理においては、例えば、当該データが示す顔の向きの経時変化がモニタされることによって、運転者5の頭部51の向き、傾き、動きなどが認識されうる。これにより、運転中における運転者5の脇見、居眠り、発作による異常挙動などが検知されうる。
図1に示されるように、頭部判別装置3は、ストレージ34を備えている。ストレージ34は、プロセッサ32と協働して所定のデータを記憶可能な装置である。ストレージ34としては、半導体メモリやハードディスクドライブ装置が例示されうる。
プロセッサ32は、推定された頭部51の中心位置Cを示すデータと頭部51を近似する球体Sの半径を示すデータを、ストレージ34に記憶させる(図3のSTEP6)。
頭部判別装置3は、運転者5の頭部51を繰り返し判別するように構成されている。繰り返しの周期は、適宜に定められる。頭部51の中心位置Cを示すデータが一旦ストレージ34に記憶されると、プロセッサ32は、頭部データサブセットHSDとストレージに記憶された中心位置Cを示すデータに基づいて、運転者5の頭部51の位置を特定する。換言すると、プロセッサ32は、今回取得された頭部データサブセットHSDと過去に特定された運転者5の頭部51の位置に基づいて、頭部51の判別を行なう。ストレージ34に格納されたデータに対応する頭部51の中心位置Cは、過去位置の一例である。
図9は、頭部51の過去位置に基づいて現在の頭部51の中心位置Cを推定する処理の第一の例を示している。
図3から図7を参照して説明したように、プロセッサ32は、TOFカメラ2から取得された画像データIDから頭部データサブセットHSDを抽出する(STEP511)。前述のように、頭部データサブセットHSDは、運転者5の頭部51が存在する可能性が高い三次元空間の領域に対応している。本例においては、頭部データサブセットHSDは、第一位置データサブセットの一例である。
図10の(A)は、今回取得された頭部データサブセットHSDを示している。本例においては、運転者5の頭部51だけでなく、左肩部53からの戻り光に基づく画素データセット(点要素)が含まれている。このような頭部データサブセットHSDに含まれる複数の点要素に基づいて求められる重心位置Gは、実際の頭部51の重心位置よりも左肩部53に近づく。このような重心位置Gに基づいて中心位置Cの推定がなされると、実際の頭部51の中心位置よりも左肩部53に近い位置が推定されてしまう。
そこでプロセッサ32は、ストレージ34に記憶されている過去の頭部51の中心位置Cに対応するデータを読み出す(図9のSTEP512)。以降の説明において、過去の頭部51の中心位置Cを過去中心位置C’と表記する。
続いてプロセッサ32は、過去中心位置C’から所定の距離よりも離れた三次元空間の領域に頭部データサブセットHSDに含まれる点要素があるかを判断する(STEP513)。図10の(B)において、球体Sの外側は、過去中心位置C’から所定の距離よりも離れた三次元空間の領域に対応している。
本例においては、当該領域に頭部データサブセットHSDの点要素が存在している(図9のSTEP513においてYES)。この場合、プロセッサ32は、過去中心位置C’から所定の距離よりも離れた三次元空間の領域に対応する頭部データサブセットHSDの一部を削除する(STEP514)。過去中心位置C’から所定の距離よりも離れた三次元空間の領域に対応する頭部データサブセットHSDの一部は、第二位置データサブセットの一例である。
続いてプロセッサ32は、図10の(C)に示されるように、残された頭部データサブセットHSDの一部に含まれる複数の点要素の重心位置Gを特定し、当該重心位置Gに基づいて頭部51の中心位置Cを推定する(図9のSTEP515)。中心位置Cの推定の仕方は、図8の(A)を参照して説明した通りである。図10の(A)に示された例と比較すると、実際の頭部51の中心のより近くに中心位置Cが推定されていることが判る。
過去中心位置C’から所定の距離よりも離れた三次元空間の領域に頭部データサブセットHSDに含まれる点要素がない場合(STEP513においてNO)、処理はSTEP515に移行し、頭部データサブセットHSDに含まれる全ての点要素に基づいて重心位置Gの特定と中心位置Cの推定がなされる。
続いてプロセッサ32は、このように推定された中心位置Cに対応するデータを、ストレージ34に記憶させる(図9のSTEP516)。すなわち、今回推定された中心位置Cに対応するデータによって、ストレージ34に記憶されていた過去中心位置C’に対応するデータが上書きされる。今回記憶されたデータは、次回の頭部51の中心位置Cの推定処理時において、過去中心位置C’に対応するデータとして取り扱われる。
すなわち、本例においては、頭部51の中心位置Cの推定に用いられる頭部データサブセットHSDが制限される場合がある。制限は、過去中心位置C’から所定の距離よりも離れた三次元空間の領域にある頭部データサブセットHSDの一部を削除することによってなされる。頭部データサブセットHSDの一部は、中心位置Cの推定に使用されなければ、削除されなくてもよい。
前述のように、頭部データサブセットHSDは、運転者5の頭部51が存在する可能性が高い三次元空間の領域に対応している。しかしながら、運転者5の姿勢や体格、TOFカメラ2による画像取得条件などによっては、頭部51以外の身体部位が頭部データサブセットHSDに含まれてしまう場合がある。上記のような構成によれば、予期せず頭部データサブセットに含まれた頭部51以外の身体部位に対応するデータが、頭部51の中心位置Cの推定に対してノイズとして及ぼす影響を抑制できる。したがって、頭部51の中心位置Cの推定精度が高まる。結果として、車室41内の運転者5の頭部51の判別精度を高めることができる。
STEP513における判断の基準となる過去中心位置C’からの所定の距離は、頭部51の一般的な大きさに対応する距離として定められうる。この場合、「頭部51の一般的な大きさに対応する距離」は、例えば国立研究開発法人産業技術総合研究所の人体寸法データベースや独立行政法人製品評価技術基盤機構の人間特性データベースなどに公開されている頭部の大きさに係る情報に基づいて定められうる。
より好ましくは、繰り返される中心位置Cの推定の間に頭部51が移動しうる距離が、頭部51の大きさに基づいて定められた距離に加えられる。加えられる距離の値は、例えば60mmとされうる。すなわち、過去中心位置C’からの所定の距離は、頭部51の大きさと頭部51の移動可能性に基づいて定められうる。
このような構成によれば、中心位置Cの推定に本来必要である頭部51に対応するデータが制限の対象とされてしまう事態の回避が容易になる。したがって、中心位置Cの推定精度の低下を抑制できる。
図11は、頭部51の過去位置に基づいて現在の頭部51の中心位置Cを推定する処理の第二の例を示している。
図3から図7を参照して説明したように、プロセッサ32は、TOFカメラ2から取得された画像データIDから頭部データサブセットHSDを抽出する(STEP521)。前述のように、頭部データサブセットHSDは、運転者5の頭部51が存在する可能性が高い三次元空間の領域に対応している。頭部データサブセットHSDは、位置データサブセットの一例である。
続いてプロセッサ32は、抽出された頭部データサブセットHSDに含まれる複数の点要素の重心位置Gを特定する。
図8の(B)は、運転者5の顔が車室41における右方を向いている場合を例示している。運転者5の顔がTOFカメラ2に面していない本例においては、頭部データサブセットHSDに含まれる複数の点要素の分布が特定の方向へ偏る。このような複数の点要素が表面に分布していると仮定された球体Sの半径は、妥当な値を有しない傾向にある。偏った分布の複数の点要素から特定された重心位置Gに基づいて推定される中心位置Cもまた、実際の頭部51の中心からずれる傾向にある。
そこでプロセッサ32は、ストレージ34に記憶されている頭部51の過去中心位置C’に対応するデータを読み出す(図11のSTEP522)。さらにプロセッサ32は、図12の(A)に示されるように、特定された重心位置Gと過去中心位置C’の中間点Iを特定する(STEP523)。
続いてプロセッサ32は、図12の(B)に示されるように、特定された中間点Iに基づいて頭部51の中心位置Cの推定を行なう(図11のSTEP524)。中心位置Cの推定の仕方は、図8の(A)を参照して説明した通りである。図8の(B)に示された例と比較すると、実際の頭部51の中心のより近くに中心位置Cが推定されていることが判る。
続いてプロセッサ32は、このように推定された中心位置Cに対応するデータを、ストレージ34に記憶させる(図11のSTEP525)。すなわち、今回推定された中心位置Cに対応するデータによって、ストレージ34に記憶されていた過去中心位置C’に対応するデータが上書きされる。今回記憶されたデータは、次回の頭部51の中心位置Cの推定処理時において、過去中心位置C’に対応するデータとして取り扱われる。
すなわち、本例においては、今回取得された頭部データサブセットHSDに含まれる複数の点要素から特定される重心位置Gではなく、重心位置Gと過去中心位置C’の中間点Iに基づいて頭部51の中心位置Cの推定が行なわれる。過去中心位置C’により近い位置を重心位置と仮定して中心位置Cの推定を行なわれるので、特に頭部データサブセットHSDに含まれる複数の点要素が偏った分布を示す場合において、中心位置Cの推定位置が実際の頭部51の中心からずれる量を抑制できる。したがって、頭部51の中心位置Cの推定精度が高まる。結果として、車室41内の運転者5の頭部51の判別精度を高めることができる。
図13は、頭部51の過去位置に基づいて現在の頭部51の中心位置Cを推定する処理の第三の例を示している。
図3から図7を参照して説明したように、プロセッサ32は、TOFカメラ2から取得された画像データIDから頭部データサブセットHSDを抽出する(STEP531)。前述のように、頭部データサブセットHSDは、運転者5の頭部51が存在する可能性が高い三次元空間の領域に対応している。頭部データサブセットHSDは、位置データサブセットの一例である。
続いてプロセッサ32は、抽出された頭部データサブセットHSDに含まれる複数の点要素の重心位置Gを特定し、当該重心位置Gに基づいて頭部51の中心位置Cを推定する(STEP532)。中心位置Cの推定の仕方は、図8の(A)を参照して説明した通りである。
続いてプロセッサ32は、頭部51を近似する球体Sの半径を特定する(図13のSTEP533)。半径の特定の仕方は、図8の(A)を参照して説明した通りである。今回推定された中心位置Cを中心とする頭部51を近似する球体Sの半径は、第一半径の一例である。
図8の(C)は、運転者5の顔が車室41における下方を向いている場合を例示している。運転者5の顔がTOFカメラ2に面していない本例においては、頭部データサブセットHSDに含まれる複数の点要素の分布が特定の方向へ偏る。このような複数の点要素が表面に分布していると仮定された球体Sの半径は、妥当な値を有しない傾向にある。
そこでプロセッサ32は、ストレージ34に記憶されている過去の頭部51を近似する球体S’の半径に対応するデータを読み出す(図13のSTEP534)。以降の説明において、過去の頭部51を近似する球体S’の半径を、過去半径と表記する。過去半径は、第二半径の一例である。
続いてプロセッサ32は、STEP533で特定された球体Sの半径と過去半径を比較し、両者の差異が所定値未満であるかを判断する(STEP535)。所定値は、例えば±30mmとされうる。
両者の差異が所定値未満であると判断されると(STEP535においてYES)、プロセッサ32は、STEP532で推定された中心位置Cに対応するデータとSTEP533で推定された球体Sの半径に対応するデータを、ストレージ34に記憶させる(STEP536)。すなわち、今回推定された中心位置Cに対応するデータと今回特定された球体Sの半径に対応するデータによって、ストレージ34に記憶されていた過去中心位置C’に対応するデータと過去半径に対応するデータがそれぞれ上書きされる。今回記憶されたデータは、次回の頭部51の中心位置Cの推定処理時において、過去中心位置C’に対応するデータおよび過去半径に対応するデータとして取り扱われる。
図14の(A)は、STEP533で特定された球体Sの半径が大きく、過去半径との差異が所定値以上である場合を示している(図13のSTEP535においてNO)。この場合、処理はSTEP532に戻り、プロセッサ32は、中心位置Cを推定し直す。
本例の処理は、繰り返される中心位置Cの推定の間に、頭部51を近似する球体Sの半径が大きく変動することはないという前提に基づいている。したがって、今回特定された球体Sの半径と過去半径の差異が大きい場合、今回特定された半径が基づいている重心位置Gが、頭部データサブセットHSDに含まれる複数の点要素の偏った分布に起因している蓋然性が高い。今回特定された球体Sの半径と過去半径の差異が所定値以上である場合は推定された中心位置Cを採用しないことにより、特に頭部データサブセットHSDに含まれる複数の点要素が偏った分布を示す場合において、中心位置Cの推定位置が実際の頭部51の中心からずれる量を抑制できる。したがって、頭部51の中心位置Cの推定精度が高まる。結果として、車室41内の運転者5の頭部51の判別精度を高めることができる。
STEP533で特定された球体Sの半径と過去半径の差異が所定値以上である場合(STEP535においてNO)、プロセッサ32は、過去に特定された球体S’の半径に基づいて頭部51の中心位置Cを再推定しうる(STEP537)。
具体的には、STEP532で特定された頭部データサブセットHSDに含まれる複数の点要素の重心位置Gと、STEP533で特定された球体Sの中心位置Cとを結ぶ直線CLが設定される。続いて、この直線CL上の点であって、重心位置Gからの距離が過去に特定された球体S’の半径と一致する点が特定される。このようにして特定された点が、再推定された頭部51の中心位置Cとされる。
図14の(B)は、このようにして再推定された中心位置Cを示している。図14の(A)に示される例と比較すると、実際の頭部51の中心のより近くに中心位置Cが推定されていることが判る。
この場合、頭部51の中心位置Cの再推定に係る演算負荷を抑制できる。
頭部判別装置3は、運転者5の顔がTOFカメラ2に面していない場合にのみ各処理例に係る頭部51の中心位置Cを推定する処理を行なうように構成されうる。この場合、頭部判別装置3は、TOFカメラ2から取得した画像データIDに基づいて、運転者5の顔の向きを判別する処理を行なう。「運転者5の顔がTOFカメラ2に面していない場合」は、判別された運転者5の顔の向きが特定の向きである場合の一例である。
運転者5の顔がTOFカメラ2に面していない場合、頭部データサブセットHSDに含まれる複数の点要素の分布が偏り、頭部51の位置の特定が難しくなる傾向にある。頭部51の中心位置Cの推定の実行をこのような場合に限ることにより、頭部判別装置3の処理負荷を抑制しつつ、運転者5の頭部51の判別精度の低下を抑制できる。
本実施形態においては、頭部判別装置3の入力インターフェース31は、運転者5の頭部51の三次元空間における位置に係る情報を、画像データIDの一部としてTOFカメラ2から受け付けている。このような構成によれば、運転者5の頭部51に係る位置情報を、画像情報とともに効率的に取得できる。しかしながら、画像情報を出力する撮像装置と位置情報を出力する装置は、異なっていてもよい。後者の装置としては、LiDAR(Light Detection and Ranging)センサなどが例示されうる。
上述したプロセッサ32の機能は、汎用メモリと協働して動作する汎用マイクロプロセッサにより実現されうる。汎用マイクロプロセッサとしては、CPU、MPU、GPUが例示されうる。汎用メモリとしては、ROMやRAMが例示されうる。この場合、ROMには、上述した処理を実行するコンピュータプログラムが記憶されうる。ROMは、コンピュータプログラムを記憶している記憶媒体の一例である。プロセッサ32は、ROM上に記憶されたプログラムの少なくとも一部を指定してRAM上に展開し、RAMと協働して上述した処理を実行する。ストレージ34は、上記の汎用メモリとして使用されてもよい。プロセッサ32は、上述した処理を実現するコンピュータプログラムを実行可能なマイクロコントローラ、ASIC、FPGAなどの専用集積回路によって実現されてもよい。プロセッサ32は、汎用マイクロプロセッサと専用集積回路の組合せによって実現されてもよい。
図1に示されるように、頭部判別装置3は、ネットワーク6を介して外部サーバ7と通信可能に構成されうる。この場合、上述した処理を実行するコンピュータプログラムは、外部サーバ7からネットワーク6を介してダウンロードされうる。外部サーバ7は、コンピュータプログラムを記憶している記憶媒体の一例である。
上記の実施形態は、本発明の理解を容易にするための例示にすぎない。上記の実施形態に係る構成は、本発明の趣旨を逸脱しなければ、適宜に変更・改良されうる。
上記の実施形態においては、運転者5の頭部51の過去位置は、頭部51の中心位置Cに基づいている。しかしながら、頭頂部といった頭部51における他の部位が過去位置の基準とされてもよい。
上記の実施形態においては、「TOFカメラ2に面していない顔の向き」は、車室41における右方と下方である。しかしながら、「TOFカメラ2に面していない顔の向き」は、TOFカメラ2と運転席の位置関係に応じて変わりうる。例えば、車室41の左側に運転席が配置されている車両の場合、TOFカメラ2は、右上方から運転者5の画像を取得する。この場合、「TOFカメラ2に面していない顔の向き」は、車室41における左方と下方である。
上記の実施形態においては、車室41内における撮像された運転者5の頭部51が判別に供されている。しかしながら、TOFカメラ2を適宜に配置することにより、撮像された他の乗員の頭部が判別に供されてもよい。
2:TOFカメラ、3:頭部判別装置、31:入力インターフェース、32:プロセッサ、41:車室、5:運転者、51:頭部、7:外部サーバ、ID:画像データ、PD:画素データセット、HSD:頭部データサブセット、C:頭部の中心位置、G:複数の点要素の重心位置、S:球体

Claims (15)

  1. 各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットを受け付ける入力インターフェースと、
    前記位置データセットと過去に特定された車室内の乗員の頭部の位置である過去位置とに基づいて、当該頭部を判別するプロセッサと、
    を備えており、
    前記プロセッサは、
    前記乗員の頭部が存在する可能性が高い前記三次元空間の領域に対応する第一位置データサブセットを、前記位置データセットから抽出し、
    前記過去位置から所定の距離よりも離れた前記三次元空間の領域に対応する第二位置データサブセットで、前記第一位置データサブセットを制限し、
    制限された前記第一位置データサブセットに基づいて前記頭部の中心位置を推定し、
    推定された前記中心位置に基づいて、前記頭部の位置を特定する、
    頭部判別装置。
  2. 前記所定の距離は、前記頭部の大きさと前記頭部の移動可能性に基づいて定められている、
    請求項1に記載の頭部判別装置。
  3. 各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットを受け付ける入力インターフェースと、
    前記位置データセットと過去に特定された車室内の乗員の頭部の位置である過去位置とに基づいて、当該頭部を判別するプロセッサと、
    を備えており、
    前記プロセッサは、
    前記乗員の頭部が存在する可能性が高い前記三次元空間の領域に対応する位置データサブセットを、前記位置データセットから抽出し、
    前記位置データサブセットに含まれる前記複数の点要素に対応付けられた複数の位置の重心位置と、前記過去位置との中間点を特定し、
    前記中間点に基づいて、前記頭部の中心位置を推定し、
    推定された前記中心位置に基づいて、前記頭部の位置を特定する、
    頭部判別装置。
  4. 各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットを受け付ける入力インターフェースと、
    前記位置データセットと過去に特定された車室内の乗員の頭部の位置である過去位置とに基づいて、当該頭部を判別するプロセッサと、
    を備えており、
    前記プロセッサは、
    前記乗員の頭部が存在する可能性が高い前記三次元空間の領域に対応する位置データサブセットを、前記位置データセットから抽出し、
    前記位置データサブセットに基づいて前記頭部の中心位置を推定し、
    前記中心位置を中心とする前記頭部を近似する球体の半径を第一半径として特定し、
    前記第一半径を、前記過去位置における前記頭部を近似する球体の半径である第二半径と比較し、
    前記第一半径と前記第二半径の差異が所定値未満である場合、前記中心位置に基づいて前記頭部の位置を特定する、
    頭部判別装置。
  5. 前記第一半径と前記第二半径の差異が所定値以上である場合、前記プロセッサは、
    前記第二半径に基づいて前記頭部の中心位置を再推定し、
    再推定された前記頭部の中心位置に基づいて前記頭部の位置を特定する、
    請求項4に記載の頭部判別装置。
  6. 前記プロセッサは、
    前記位置データセットに基づいて前記乗員の顔の向きを判別し、
    判別された前記顔の向きが特定の向きである場合に、前記頭部の中心位置の推定を行なう、
    請求項1から5のいずれか一項に記載の頭部判別装置。
  7. 前記入力インターフェースは、前記位置データセットを、TOF(Time of Flight)カメラから受け付ける、
    請求項1から6のいずれか一項に記載の頭部判別装置。
  8. 各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットと過去に特定された車室内の乗員の頭部の位置である過去位置とに基づいて、当該頭部をプロセッサに判別させるコンピュータプログラムであって、
    当該コンピュータプログラムが実行されると、当該プロセッサに、
    前記乗員の頭部が存在する可能性が高い前記三次元空間の領域に対応する第一位置データサブセットを、前記位置データセットから抽出させ、
    前記過去位置から所定の距離よりも離れた前記三次元空間の領域に対応する第二位置データサブセットで、前記第一位置データサブセットを制限させ、
    制限された前記第一位置データサブセットに基づいて、前記頭部の中心位置を推定させ、
    推定された前記中心位置に基づいて、前記頭部の位置を特定させる、
    コンピュータプログラム。
  9. 前記所定の距離は、前記頭部の大きさと前記頭部の移動可能性に基づいて定められている、
    請求項8に記載のコンピュータプログラム。
  10. 各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットと過去に特定された車室内の乗員の頭部の位置である過去位置とに基づいて、当該頭部をプロセッサに判別させるコンピュータプログラムであって、
    当該コンピュータプログラムが実行されると、当該プロセッサに、
    前記乗員の頭部が存在する可能性が高い空間領域に対応する位置データサブセットを、前記位置データセットから抽出させ、
    前記位置データサブセットに含まれる前記複数の点要素に対応付けられた複数の位置の重心位置と、前記過去位置との中間点を特定させ、
    前記中間点に基づいて、前記頭部の中心位置を推定させ、
    推定された前記中心位置に基づいて、前記頭部の位置を特定させる、
    コンピュータプログラム。
  11. 各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットと過去に特定された車室内の乗員の頭部の位置である過去位置とに基づいて、当該頭部をプロセッサに判別させるコンピュータプログラムであって、
    当該コンピュータプログラムが実行されると、当該プロセッサに、
    前記乗員の頭部が存在する可能性が高い前記三次元空間の領域に対応する位置データサブセットを、前記位置データセットから抽出させ、
    前記位置データサブセットに基づいて前記頭部の中心位置を推定させ、
    前記中心位置を中心とする前記頭部を近似する球体の半径を、第一半径として特定させ、
    前記第一半径を、前記過去位置における前記頭部を近似する球体の半径である第二半径と比較させ、
    前記第一半径と前記第二半径の差異が所定値未満である場合、前記中心位置に基づいて前記頭部の位置を特定させる、
    コンピュータプログラム。
  12. 前記第一半径と前記第二半径の差異が所定値以上である場合、前記プロセッサに、
    前記第二半径に基づいて前記頭部の中心位置を再推定させ、
    再推定された前記頭部の中心位置に基づいて前記頭部の位置を特定させる、
    請求項11に記載のコンピュータプログラム。
  13. 前記プロセッサに、
    前記位置データセットに基づいて前記乗員の顔の向きを判別させ、
    判別された前記顔の向きが特定の向きである場合に、前記頭部の中心位置の推定を行なわせる、
    請求項8から12のいずれか一項に記載のコンピュータプログラム。
  14. 前記位置データセットは、TOF(Time of Flight)カメラから取得される、
    請求項8から13のいずれか一項に記載のコンピュータプログラム。
  15. 請求項8から14のいずれか一項に記載のコンピュータプログラムを記憶している記憶媒体。
JP2019023628A 2019-02-13 2019-02-13 頭部判別装置、コンピュータプログラム、および記憶媒体 Active JP7288309B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019023628A JP7288309B2 (ja) 2019-02-13 2019-02-13 頭部判別装置、コンピュータプログラム、および記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019023628A JP7288309B2 (ja) 2019-02-13 2019-02-13 頭部判別装置、コンピュータプログラム、および記憶媒体

Publications (2)

Publication Number Publication Date
JP2020135037A true JP2020135037A (ja) 2020-08-31
JP7288309B2 JP7288309B2 (ja) 2023-06-07

Family

ID=72278748

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019023628A Active JP7288309B2 (ja) 2019-02-13 2019-02-13 頭部判別装置、コンピュータプログラム、および記憶媒体

Country Status (1)

Country Link
JP (1) JP7288309B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012172865A1 (ja) * 2011-06-17 2012-12-20 本田技研工業株式会社 乗員検知装置
JP2015191268A (ja) * 2014-03-27 2015-11-02 株式会社リコー 人物頭部検知装置及び姿勢推定装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012172865A1 (ja) * 2011-06-17 2012-12-20 本田技研工業株式会社 乗員検知装置
JP2015191268A (ja) * 2014-03-27 2015-11-02 株式会社リコー 人物頭部検知装置及び姿勢推定装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
阿部 友一、萩原 将文: ""単眼視動画像からの人物頭部動作の解析と認識"", 電子情報通信学会論文誌, vol. 83, no. 2, JPN6022049086, 25 February 2000 (2000-02-25), JP, pages 601 - 609, ISSN: 0005057904 *

Also Published As

Publication number Publication date
JP7288309B2 (ja) 2023-06-07

Similar Documents

Publication Publication Date Title
JP6739672B2 (ja) 体格推定装置および体格推定方法
US20170262734A1 (en) Image processing apparatus, imaging device, moving object device control system, and image processing method
CN109643372A (zh) 一种识别方法、设备以及可移动平台
US20120062749A1 (en) Human body identification method using range image camera and human body identification apparatus
JP6021689B2 (ja) 車両諸元計測処理装置、車両諸元計測方法及びプログラム
CN110537207B (zh) 脸部朝向推定装置及脸部朝向推定方法
JP2010079582A (ja) 物体を検出する装置、方法及びプログラム
JP5073700B2 (ja) 物体検出装置
JP6361313B2 (ja) 車両検出方法及び装置
JP6635621B2 (ja) 自動車用視覚システム及び視覚システムを制御する方法
US10789727B2 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
JP2021051347A (ja) 距離画像生成装置及び距離画像生成方法
JP2020135037A (ja) 頭部判別装置、コンピュータプログラム、および記憶媒体
CN114467111B (zh) 物体识别方法及物体识别装置
JP7079187B2 (ja) 乗員判別装置、コンピュータプログラム、および記憶媒体
JP7195963B2 (ja) 頭部判別装置、コンピュータプログラム、および記憶媒体
JP7079188B2 (ja) 乗員判別装置、コンピュータプログラム、および記憶媒体
JP7053341B2 (ja) 処理装置、及びプログラム
JP7240193B2 (ja) 顔方向判別装置、コンピュータプログラム、および記憶媒体
CN115131752A (zh) 学习方法、学习装置以及程序记录介质
JP7212531B2 (ja) 動作判別装置、コンピュータプログラム、および記憶媒体
JP7409240B2 (ja) 障害物検出装置及び障害物検出方法
CN112400094B (zh) 物体探测装置
JP7053340B2 (ja) 処理装置、及びプログラム
CN114762019A (zh) 摄像机***

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190301

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230419

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230419

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230526

R150 Certificate of patent or registration of utility model

Ref document number: 7288309

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150