JP2011123733A - 乗員姿勢推定装置 - Google Patents

乗員姿勢推定装置 Download PDF

Info

Publication number
JP2011123733A
JP2011123733A JP2009281734A JP2009281734A JP2011123733A JP 2011123733 A JP2011123733 A JP 2011123733A JP 2009281734 A JP2009281734 A JP 2009281734A JP 2009281734 A JP2009281734 A JP 2009281734A JP 2011123733 A JP2011123733 A JP 2011123733A
Authority
JP
Japan
Prior art keywords
human body
body feature
feature point
self
occupant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009281734A
Other languages
English (en)
Other versions
JP5233977B2 (ja
Inventor
Tomonori Saito
友則 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2009281734A priority Critical patent/JP5233977B2/ja
Publication of JP2011123733A publication Critical patent/JP2011123733A/ja
Application granted granted Critical
Publication of JP5233977B2 publication Critical patent/JP5233977B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】自己遮蔽が発生した場合の姿勢推定精度を簡易な構成で向上させる
【解決手段】運転席及びその周辺を繰り返し撮影し、撮影された画像データを取得する(S10)。そして、取得された画像データに含まれる運転者の人体特徴点を検出し(S50)、人体特徴点の位置の変化に基づいて、人体特徴点の位置(人体特徴点予測位置)を予測する(S60,S70)。さらに、人体特徴点予測位置に基づいて、運転者の行動を予測する(S80)。また、予測した運転者行動に基づいて自己遮蔽が発生するか否かを判断する(S100,S120)。そして、自己遮蔽が発生すると判断された場合には(S20:YES)、自己遮蔽用人体特徴点検出アルゴリズムに設定する(S40)。一方、自己遮蔽が発生しないと判断された場合に(S20:NO)、自己遮蔽の発生を考慮しない通常用人体特徴点検出アルゴリズムに設定する(S30)。
【選択図】図2

Description

本発明は、車両の乗員の姿勢を推定する乗員姿勢推定装置に関する。
従来、人体を撮影した画像から肩、肘、手といった人体特徴点を検出することで、人体の姿勢を推定する方法(例えば、特許文献1を参照)が知られている。また、車両の車室内の乗員(以下、車両乗員という)の人体特徴点を検出することにより車両乗員の行動を推定する方法(例えば、特許文献2を参照)が知られている。
ここで、車両乗員の動作空間は三次元であるために、二次元で撮影した単眼画像から車両乗員の人体特徴点の検出を行うと、車両乗員の腕が車両乗員自身の上半身前面にある場合や頭の背後にある場合には、腕の部分が頭や胴の部分に隠れてしまう、いわゆる自己遮蔽が発生する。この自己遮蔽が発生した場合には、車両乗員の姿勢の推定精度が低下する。
このような問題に対して、車室内に複数のカメラを設置し、車両乗員の三次元の映像を取得し、取得した三次元画像から腕部分の検出を行う方法(例えば、特許文献3を参照)、および、車室内に3Dカメラを設置し、車両乗員の三次元画像から腕部分の検出を行う方法(例えば、特許文献4を参照)が知られている。
また従来、マーカーレスモーションキャプチャの技術では、遮蔽情報付きの姿勢辞書を用いて、自己遮蔽の対策を行う方法(例えば、特許文献5を参照)が知られている。
特開2007−66094号公報 特開2008−140268号公報 特開2008−84141号公報 特開2008−2838号公報 特開2007−310707号公報
しかし、上記特許文献3,4に記載の検出方法では、車両乗員の姿勢を推定する際に自己遮蔽が生じた場合でも姿勢推定を可能とするために、車室内に複数のカメラを配置したり、通常は車両に装着されていない特殊な3Dカメラが必要となったりする。さらに、特殊なカメラを使用する場合には、撮影画像サイズや撮影フレームレート等の仕様が姿勢推定で要求される仕様と適合しない可能性がある。つまり、上記検出方法では、姿勢推定装置のコストが増加するという問題があった。
また、上記特許文献5に記載の方法では、様々な姿勢画像からなる姿勢辞書を作成する必要があり、そのためのコストが増加するとともに、姿勢推定対象の人物が限定されるという問題があった。
本発明は、こうした問題に鑑みてなされたものであり、自己遮蔽が発生した場合の姿勢推定精度を簡易な構成で向上させることができる乗員姿勢推定装置を提供することを目的とする。
上記目的を達成するためになされた請求項1に記載の乗員姿勢推定装置では、撮影手段が、車両内の所定撮影領域を繰り返し撮影し、撮影した画像である車両内画像を取得する。そして人体特徴点検出手段が、撮影手段により取得された車両内画像を用いて、車両内画像に含まれる車両乗員の姿勢を特定するために車両乗員の複数の所定の関節位置を人体特徴点として検出し、さらに人体特徴点位置予測手段が、人体特徴点検出手段により検出された人体特徴点の位置の変化に基づいて、所定時間が経過した後の、複数の人体特徴点のそれぞれの位置を予測する。さらに行動予測手段が、人体特徴点位置予測手段により予測された人体特徴点の位置である人体特徴点予測位置に基づいて、車両乗員の行動である乗員行動を予測する。また自己遮蔽判断手段が、行動予測手段による予測結果に基づいて、人体特徴点が車両乗員により隠れる現象である自己遮蔽が発生するか否かを判断する。そして自己遮蔽対策手段が、自己遮蔽が発生すると自己遮蔽判断手段により判断された場合に、行動予測手段による予測結果に基づいて、自己遮蔽により隠される人体特徴点を自己遮蔽特徴点として自己遮蔽特徴点以外の人体特徴点の人体特徴点検出手段による検出が、自己遮蔽特徴点により影響を受けることを最低限に抑制するための対策である自己遮蔽対策を実施し、自己遮蔽が発生しないと自己遮蔽判断手段により判断された場合には、自己遮蔽の発生を考慮しない手法で人体特徴点検出手段に人体特徴点を検出させる。
このように構成された乗員姿勢推定装置によれば、車両乗員の人体特徴点の変化を予測し、これにより車両乗員の行動を予測する。そして、自己遮蔽が発生しない場合には、自己遮蔽の発生を考慮しない手法で人体特徴点を検出するとともに、自己遮蔽が発生する場合には、車両乗員の行動の予測結果に基づいて自己遮蔽対策を実施する。すなわち、自己遮蔽が発生する場合には、自己遮蔽が発生するときの乗員行動を考慮して人体特徴点を検出することができる。
このため、自己遮蔽が発生しない場合には、自己遮蔽の発生を考慮しない汎用的な検出手法を用いて人体特徴点を検出することができる。つまり、3Dカメラのように特殊な撮影手段を利用する必要がない。さらに、自己遮蔽が発生した場合であっても、乗員行動を考慮することができるため、上記の汎用的な検出手法を乗員行動に基づいて改良した手法を用いて人体特徴点を検出することができる。つまり、3Dカメラのように特殊な撮影手段を利用する必要がない。そして、自己遮蔽が発生した場合には、自己遮蔽特徴点により影響を受けることを最低限に抑制するための対策が実施されるため、汎用的な検出手法を用いたときと比較して、自己遮蔽が発生した場合の人体特徴点の検出精度を向上させることができる。
以上より、請求項1に記載の乗員姿勢推定装置によれば、3Dカメラのように特殊な撮影手段を利用することなく、2Dカメラのように汎用的な撮影手段を利用して、すなわち、簡易な構成で、車両乗員の姿勢を推定する推定精度を向上させることができる。
また、請求項1に記載の乗員姿勢推定装置では、請求項2に記載のように、自己遮蔽対策手段が、自己遮蔽対策として、行動予測手段により予測された行動に特化して人体特徴点を検出する手法で、人体特徴点検出手段に人体特徴点を検出させるようにするとよい。すなわち、自己遮蔽の発生を考慮しない汎用的な検出に対して、予測した乗員行動を考慮した改良を加えることにより、自己遮蔽対策を実施することができるので、自己遮蔽対策のために特殊な人体特徴点検出手法を利用する必要がない。
また、請求項1に記載の乗員姿勢推定装置では、請求項3に記載のように、自己遮蔽対策手段が、自己遮蔽対策として、人体特徴点検出手段の動作を禁止するようにしてもよい。これは、行動予測手段により予測された行動に特化した人体特徴点検出手法が当該乗員姿勢推定装置に設定されていない場合に採用することができる。これにより、自己遮蔽が発生した場合において、自己遮蔽の発生を考慮しない汎用的な検出手法を用いることにより人体特徴点の検出精度が悪化してしまうという状況の発生を抑制することができる。
また、請求項1に記載の乗員姿勢推定装置では、請求項4に記載のように、自己遮蔽対策手段は、自己遮蔽対策として、複数の人体特徴点のうち、行動予測手段による予測結果に基づいて決定された人体特徴点の位置を固定して、人体特徴点検出手段に人体特徴点を検出させるようにしてもよい。これにより、少なくとも、固定した人体特徴点については、自己遮蔽が発生した場合において、自己遮蔽の発生を考慮しない汎用的な検出手法を用いることにより検出精度が悪化してしまうという状況の発生を抑制することができる。
また、請求項1〜請求項4の何れか1項に記載の乗員姿勢推定装置では、請求項5に記載のように、行動予測手段は、人体特徴点検出手段により検出された人体特徴点の位置に基づいて特定される身体部位の位置と人体特徴点予測位置との位置関係、及び、車両内に設置された操作対象の位置と人体特徴点予測位置との位置関係の少なくとも1つに基づいて、乗員行動を予測するようにしてもよい。
すなわち、或る身体部位に人体特徴点予測位置が近付いている場合に車両乗員がこの身体部位に接触しようとしていると予測するとともに、或る操作対象の位置に人体特徴点予測位置が近付いている場合に車両乗員がこの操作対象に接触しようとしていると予測することができる。つまり、乗員行動を簡便に予測することができる。
また、請求項5に記載の乗員姿勢推定装置では、請求項6に記載のように、行動予測手段は、車両乗員の両肩の人体特徴点に基づいて特定される車両乗員の頭部の位置と、車両乗員の手の人体特徴点予測位置との位置関係に基づいて、車両乗員が、頭部への接触行動である頭部接触行動を乗員行動として行うか否かを予測し、自己遮蔽判断手段は、車両乗員が頭部接触行動を行うと行動予測手段が予測した場合に、自己遮蔽が発生すると判断するようにしてもよい。
すなわち、車両乗員の頭部の位置に車両乗員の手の人体特徴点予測位置が近付いている場合に車両乗員が頭部に接触しようとしていると予測することができる。つまり、頭部接触行動を簡便に予測することができる。また、頭部接触行動を行うと予測した場合に自己遮蔽が発生すると判断するため、自己遮蔽の発生の有無の判断を簡便に行うことができる。
また、請求項5に記載の乗員姿勢推定装置では、請求項7に記載のように、行動予測手段は、車両乗員の右腕の手の人体特徴点予測位置と、車両乗員の右腕の肘の人体特徴点予測位置とを結ぶ線分を右腕予測線分とし、車両乗員の左腕の手の人体特徴点予測位置と、車両乗員の左腕の肘の人体特徴点予測位置とを結ぶ線分を左腕予測線分として、右腕予測線分と左腕予測線分とが交差する場合に、車両乗員が右腕と左腕とを交差させる行動である腕交差行動を乗員行動として行うと予測し、自己遮蔽判断手段は、車両乗員が腕交差行動を行うと行動予測手段が予測した場合に、自己遮蔽が発生すると判断する。
このように構成された乗員姿勢推定装置によれば、車両乗員が右腕と左腕とを交差させる行動を簡便に予測することができるとともに、自己遮蔽の発生の有無の判断を簡便に行うことができる。
また、車両乗員は車両内では通常着席しているので、乗員姿勢推定装置は、上半身の姿勢を推定すればよい。このため、請求項1〜請求項7の何れか1項に記載の乗員姿勢推定装置では、請求項8に記載のように、人体特徴点検出手段は、車両乗員の肩、肘、及び手の人体特徴点のみを検出するようにするとよい。これにより、車両乗員の姿勢推定において必要性が乏しい下半身の人体特徴点を用いることがなくなり、車両乗員の姿勢を推定するときの処理負荷を低減することができる。
また、請求項1〜請求項8の何れか1項に記載の乗員姿勢推定装置では、請求項9に記載のように、人体特徴点位置予測手段が人体特徴点予測位置を予測する場合の所定時間が、予め設定された定数であるようにしてもよい。これにより、現在から何秒後の人体特徴点予測位置を予測するのかを、人体特徴点予測位置を予測する毎に設定する必要がないので、人体特徴点予測位置を予測するときの処理負荷を低減することができる。
また、請求項1〜請求項9の何れか1項に記載の乗員姿勢推定装置では、請求項10に記載のように、人体特徴点位置予測手段は、撮影手段により取得された複数の車両内画像のうち、連続した前後2つの車両内画像のみを用いて、人体特徴点予測位置を予測するようにしてもよい。前後2つの車両内画像は、人体特徴点予測位置を予測するために必要最低限の車両内画像であり、前後2つの車両内画像のみを用いることにより、人体特徴点を予測するときの処理負荷を低減することができる。
乗員姿勢推定装置1の概略構成を示すブロック図である。 運転者操作補助処理を示すフローチャートである。 カメラ11により撮影された画像例と、検出された人体特徴点の例を示す図である。 人体特徴点を検出する第1〜3の方法を示す図である。 人体特徴点を検出する第4〜6の方法を示す図である。 自己遮蔽発生時の人体特徴点を検出する方法を説明する図である。 人体特徴点予測位置の算出方法を示す図である。 運転者の行動を予測する第1〜2の方法を示す図である。 運転者の行動を予測する第3〜4の方法を示す図である。
以下に本発明の実施形態を図面とともに説明する。
図1は、乗員姿勢推定装置1の概略構成を示すブロック図である。
本実施形態の乗員姿勢推定装置1は、車両に搭載され、図1に示すように、運転席およびその周辺を連続して撮影するカメラ11と、カメラ11により撮影された画像のデータを一時的に記憶する画像キャプチャーボード12と、各種データを記憶するデータ記憶装置13と、車内LAN(不図示)を介して他の装置と各種車両情報等をやりとりする車内LAN通信部14と、各種のガイド音声等を出力するための音声出力部15と、カメラ11による撮影のために可視光または赤外光により車室内を照らす照明装置16と、上述した画像キャプチャーボード12、データ記憶装置13及び車内LAN通信部14からの入力に応じて各種処理を実行し、車内LAN通信部14、及び音声出力部15を制御する制御部17とを備えている。
制御部17は、CPU,ROM,RAM,I/O及びこれらの構成を接続するバスラインなどからなる周知のマイクロコンピュータを中心に構成されており、ROM及びRAMに記憶されたプログラムに基づいて各種処理を実行する。
このように構成された乗員姿勢推定装置1において、制御部17は、運転者が行う操作を補助する運転者操作補助処理を実行する。図2は、運転者操作補助処理を示すフローチャートである。この運転者操作補助処理は、乗員姿勢推定装置1が起動しているときに繰り返し実行される処理である。
この運転者操作補助処理が実行されると、制御部17のCPUは、まずS10にて、カメラ11により撮影された画像データを取得する。取得された画像の例を図3(a)に示す。
その後S20にて、後述のS110,130の処理でセットまたはクリアされ、自己遮蔽が発生するか否かを示す自己遮蔽フラグFがセットされているか否かを判断する。
ここで、自己遮蔽フラグFがセットされていない場合には(S20:NO)、S30にて、自己遮蔽の発生を考慮しない通常用人体特徴点検出アルゴリズムに設定して、S50に移行する。
なお、人体特徴点検出アルゴリズムとしては、図4(a)に示すように、人体の上半身部分と手、肘および肩の人体特徴点により形成される関節モデルを利用し、関節モデルと入力画像との照合を行う方法や、関節モデルを検出の制約条件として利用することが一般的である。
そして、関節モデルを利用し、その上で入力画像の画素値情報の解析を行い人体特徴点を検出する方法として、図4(b)に示すように、画像からエッジを抽出しその曲率を解析し人体特徴点位置を検出する方法 、図4(c)に示すように、人物のシルエットを領域分割し人体特徴点位置を検出する方法 、図5(a)に示すように、HOGやshape context といった局所特徴量を算出し人体特徴点位置を検出する方法などがある。
また、関節モデルを利用し、その上で現フレームと前フレーム間の人体特徴点位置の移動量の逐次推定・追跡を行い、人体特徴点位置を検出する方法として、図5(b)に示すように、関節モデルの身体部位領域のオプティカルフローを算出し人体特徴点位置を検出する方法や、図5(c)に示すように、パーティクルフィルタにより人体特徴点位置を検出する方法などがある。なお、これらの方法を利用する場合には、人体特徴点位置の初期値を予め算出した上で実行する必要がある。
一方、自己遮蔽フラグFがセットされている場合には(S20:YES)、S40にて、自己遮蔽の発生を考慮した自己遮蔽用人体特徴点検出アルゴリズムに設定して、S50に移行する。なお、自己遮蔽用人体特徴点検出アルゴリズムは、後述のS80の処理で予測した行動を行う際の各特徴点の動作特性を考慮したものであり、例えば、図6(a)に示すように、運転者が携帯電話を操作する時には肩と肘の長さLAが変わらないという特性を利用し、肩と肘の長さが変わらないという条件を付与したアルゴリズムで人体特徴点を検出する。なお、携帯電話を操作する時に肩と肘の長さLAが変わらないという条件を付加することなく、通常用人体特徴点検出アルゴリズムとしてオプティカルフローを用いると、図6(b)に示すように、携帯電話を頭部に当てている側の腕の人体特徴点を適切に検出できなくなる。
そしてS50に移行すると、S30またはS40で設定された人体特徴点検出アルゴリズムを用いて、肩、肘および手の人体特徴点を検出する。検出された人体特徴点の例を図3(b)に示す。図3(b)の点P1,P2,P3,P4,P5,P6はそれぞれ、右肩、右肘、右手、左肩、左肘、及び左手の人体特徴点を示す。またS50では、検出した人体特徴点を示す情報を、制御部17のRAMに記憶する。
次にS60にて、S50にて検出された人体特徴点の移動速度Vを算出する。具体的には、前回検出した人体特徴点の位置をPa、今回検出した人体特徴点の位置をPb,人体特徴点を前回検出した時刻をTa、人体特徴点を今回検出した時刻をTbとして、移動速度Vを式(1)により算出する。
V = (Pb−Pa)/(Tb−Ta) ・・・(1)
なお、人体特徴点の移動速度Vの算出は、右肩、左肩、右肘、左肘、右手、及び左手の人体特徴点のそれぞれについて実行される。
さらにS70にて、人体特徴点の予測位置を算出する。具体的には、前回検出した人体特徴点の位置Paを始点として今回検出した人体特徴点の位置Pbに向かう方向をDpとして、位置Pbを起点として方向Dpに向かって移動速度Vで予測時間Tp(本実施形態では例えば0.5秒)移動した地点を、人体特徴点予測位置Qとする。
なお、人体特徴点予測位置Qの算出は、右肩、左肩、右肘、左肘、右手、及び左手の人体特徴点のそれぞれについて実行される。
人体特徴点予測位置Qの算出例を図7に示す。図7では、左肩の人体特徴点が方向Dp4に向かって移動速度V4で今回位置P4bから移動した場合の人体特徴点予測位置Q4、左肘の人体特徴点が方向Dp5に向かって移動速度V5で今回位置P5bから移動した場合の人体特徴点予測位置Q5、及び左手の人体特徴点が方向Dp6に向かって移動速度V6で今回位置P6bから移動した場合の人体特徴点予測位置Q6を示す。
その後S80にて、S70で算出された右肩、右肘、右手、左肘、左肩、及び左手の人体特徴点予測位置Q1〜Q6に基づいて、運転者の行動を予測する。具体的には、例えば図8(a)に示すように、左手の人体特徴点予測位置Q6が、撮影された画像内におけるグローブボックスの位置を示す領域R1(以下、グローブボックス領域R1という)内に含まれる場合には、運転者がグローブボックスを開放しようとしていると予測する。つまり、人体特徴点予測位置が、撮影された画像内における車載機器の位置を示す領域内に含まれる場合には、運転者がこの車載機器を操作しようとしていると予測する。
また例えば図8(b)に示すように、左手の人体特徴点予測位置Q6が、運転者の右肩の身体部位領域R2内に含まれる場合には、運転者が左手を右肩へ接触させようとしていると予測する。つまり、人体特徴点予測位置が運転者の身体部位領域内に含まれる場合には、運転者が身体部位に関わる操作(頭をかく、肩を揉む、携帯電話を耳に当てる、ジュースの缶を口に当てる等)をしようとしていると予測する。
また例えば図9(a)に示すように、左手の人体特徴点予測位置Q6が、両肩の人体特徴点位置P1b,P4bと身体部位の統計データとを利用して設定した頭部領域R3内に含まれる場合には、運転者が頭部への接触操作(頭をかく、携帯電話を耳に当てる、ジュースの缶を口に当てる等)をしようとしていると予測する。なお、上記の身体部位の統計データとして、例えば、AIST/HQL人体寸法・形状データベース2003を用いるとよい。すなわち、まず、このデータベースのデータに基づき頭長と肩幅の比率(以下、頭長・肩幅比率という)を予め設定しておく。そして、両肩の人体特徴点位置を用いて矩形状の頭部領域R3の横方向の辺H3の長さを決定し、さらに、頭部領域R3の横方向の辺の長さと頭長・肩幅比率とから、矩形状の頭部領域R3の縦方向の辺V3の長さを決定する。
また例えば図9(b)に示すように、右肩、右肘、右手の人体特徴点予測位置Q1,Q2,Q3を結ぶ線分と、左肩、左肘、左手の人体特徴点予測位置Q4,Q5,Q6を結ぶ線分とが交差する場合に、運転者が両腕を交差しようとしていると予測する。
そしてS80の処理が終了すると、S90にて、自己遮蔽フラグFがセットされているか否かを判断する。ここで、自己遮蔽フラグFがセットされていない場合には(S90:NO)、S100にて、S80で予測した運転者の行動に基づいて自己遮蔽が発生するか否かを判断する。例えば、運転者が頭部への接触操作をしようとしているとS80で予測した場合には、自己遮蔽が発生すると判断し、運転者が車載機器を操作しようとしているとS80で予測した場合には、自己遮蔽が発生しないと判断する。なお、自己遮蔽が発生するか否かの判断は、本実施形態では、S80で予測することができる行動のそれぞれに対応して、自己遮蔽が発生するか否かを示すテーブル(以下、自己遮蔽判断テーブルという)が予め設けられており、この自己遮蔽判断テーブルを参照して、自己遮蔽が発生するか否かを判断する。
ここで、自己遮蔽が発生すると判断した場合には(S100:YES)、S110にて、自己遮蔽フラグFをセットし、S140に移行する。一方、自己遮蔽が発生しないと判断した場合には(S100:NO)、S140に移行する。
またS90にて、自己遮蔽フラグFがセットされていると判断した場合には(S90:YES)、S120で、S80で予測した運転者の行動に基づいて自己遮蔽が解消されるか否かを判断する。なお、この判断方法は、S100で用いた方法と同一である。ここで、自己遮蔽が解消されると判断した場合には(S120:YES),S130にて、自己遮蔽フラグFをクリアし、S140に移行する。一方、自己遮蔽が解消されないと判断した場合には(S130:NO)、S140に移行する。
そしてS140に移行すると、S80で予測した運転者の行動に基づいて、運転者が行う操作を補助するために、車内LAN通信部14と音声出力部15を制御する。例えば、運転者がグローブボックスを開放しようとしているとS80で予測した場合には、車内LAN通信部14を制御することにより車内LANを介して、グローブボックスの開閉装置(不図示)を制御するECU(不図示)へ開放指令を送信し、これにより、グローブボックスを自動的に開放させたり、運転者が運転中に携帯電話を操作しようとしているとS80で予測した場合には、音声出力部15を制御することにより音声出力部15から警告音を発生させるとともに、車内LAN通信部14を制御することにより車内LANを介してメータECU(不図示)へ表示指令を送信し、これにより、メータ表示器(不図示)に警告表示をさせたりする。そしてS140の処理が終了すると、運転者操作補助処理を一旦終了する。
このように構成された乗員姿勢推定装置1では、カメラ11が、運転席及びその周辺を繰り返し撮影し、撮影された画像データを取得する(S10)。そして、取得された画像データを用いて、画像データに含まれる運転者の右肩、左肩、右肘、左肘、右手、及び左手の人体特徴点を検出し(S50)、さらに、検出された人体特徴点の位置の変化に基づいて、予測時間Tpが経過した後の、右肩、左肩、右肘、左肘、右手、及び左手の人体特徴点の位置(人体特徴点予測位置Q)を予測する(S60,S70)。さらに、右肩、左肩、右肘、左肘、右手、及び左手の人体特徴点予測位置Qに基づいて、運転者の行動を予測する(S80)。また、予測した運転者行動に基づいて自己遮蔽が発生するか否かを判断する(S100,S120)。
そして、自己遮蔽が発生すると判断された場合には(S100:YES、S20:YES)、自己遮蔽用人体特徴点検出アルゴリズムに設定する(S40)。この自己遮蔽用人体特徴点検出アルゴリズムは、予測した運転者行動を行う際の各特徴点の動作特性を考慮したものである。これにより、自己遮蔽用人体特徴点検出アルゴリズムを用いて人体特徴点が検出される(S50)。一方、自己遮蔽が発生しないと判断された場合には(S120:YES、S20:NO)、自己遮蔽の発生を考慮しない通常用人体特徴点検出アルゴリズムに設定する(S30)。これにより、通常用人体特徴点検出アルゴリズムを用いて人体特徴点が検出される(S50)。
このように構成された乗員姿勢推定装置1によれば、運転者の人体特徴点の変化を予測し、これにより運転者の行動を予測する。そして、自己遮蔽が発生しない場合には、自己遮蔽の発生を考慮しない手法で人体特徴点を検出するとともに、自己遮蔽が発生する場合には、運転者の行動の予測結果に基づいて自己遮蔽対策を実施する。すなわち、自己遮蔽が発生する場合には、自己遮蔽が発生するときの運転者行動を考慮して人体特徴点を検出することができる。
このため、自己遮蔽が発生しない場合には、自己遮蔽の発生を考慮しない汎用的な検出手法を用いて人体特徴点を検出することができる。つまり、3Dカメラのように特殊な撮影手段を利用する必要がない。さらに、自己遮蔽が発生した場合であっても、運転者行動を考慮することができるため、上記の汎用的な検出手法を運転者行動に基づいて改良した手法を用いて人体特徴点を検出することができる。つまり、3Dカメラのように特殊な撮影手段を利用する必要がない。そして、自己遮蔽が発生した場合には、自己遮蔽により隠される人体特徴点(以下、自己遮蔽特徴点という)により人体特徴点の検出が影響を受けることを最低限に抑制するための対策が実施されるため、汎用的な検出手法を用いたときと比較して、自己遮蔽が発生した場合の人体特徴点の検出精度を向上させることができる。
以上より、乗員姿勢推定装置1によれば、3Dカメラのように特殊な撮影手段を利用することなく、2Dカメラのように汎用的な撮影手段を利用して、すなわち、簡易な構成で、運転者の姿勢を推定する推定精度を向上させることができる。
また、自己遮蔽用人体特徴点検出アルゴリズムは、予測した運転者行動を行う際の各特徴点の動作特性を考慮したものである。すなわち、自己遮蔽の発生を考慮しない汎用的な検出に対して、予測した運転者行動を考慮した改良を加えることにより、自己遮蔽対策を実施することができるので、自己遮蔽対策のために特殊な人体特徴点検出手法を利用する必要がない。
また、検出された人体特徴点の位置に基づいて特定される身体部位(本実施形態では、右肩の身体部位領域R2と頭部領域R3)の位置と人体特徴点予測位置Qとの位置関係、及び、車両内に設置された車載機器の位置(本実施形態では、グローブボックス領域R1)と人体特徴点予測位置Qとの位置関係に基づいて、運転者の行動を予測する(S80)。
すなわち、或る身体部位に人体特徴点予測位置Qが近付いている場合に運転者がこの身体部位に接触しようとしていると予測するとともに、或る車載機器の位置に人体特徴点予測位置Qが近付いている場合に運転者がこの車載機器に接触しようとしていると予測することができる。つまり、運転者の行動を簡便に予測することができる。
また、運転者の両肩の人体特徴点P1,P4に基づいて特定される運転者の頭部領域R3と、運転者の手の人体特徴点予測位置Q3,Q6との位置関係に基づいて、運転者が頭部への接触行動を行うか否かを予測し(S80)、頭部への接触行動を行うと予測した場合に、自己遮蔽が発生すると判断する(S100)。
すなわち、運転者の頭部の位置に運転者の手の人体特徴点予測位置が近付いている場合に運転者が頭部に接触しようとしていると予測することができる。つまり、頭部接触行動を簡便に予測することができる。また、頭部接触行動を行うと予測した場合に自己遮蔽が発生すると判断するため、自己遮蔽の発生の有無の判断を簡便に行うことができる。
また、運転者の右腕の手の人体特徴点予測位置Q3と運転者の右腕の肘の人体特徴点予測位置Q2とを結ぶ線分と、運転者の左腕の手の人体特徴点予測位置Q6と運転者の左腕の肘の人体特徴点予測位置Q5とを結ぶ線分とが交差する場合に、運転者が右腕と左腕とを交差させる行動(以下、腕交差行動という)を行うと予測し(S80)、この場合に、自己遮蔽が発生すると判断する(S100)。
すなわち、運転者が右腕と左腕とを交差させる行動を簡便に予測することができるとともに、自己遮蔽の発生の有無の判断を簡便に行うことができる。
また、運転者の右肩、左肩、右肘、左肘、右手、及び左手の人体特徴点のみを検出するため、運転者の姿勢推定において必要性が乏しい下半身の人体特徴点を用いることがなくなり、運転者の姿勢を推定するときの処理負荷を低減することができる。
また、人体特徴点予測位置Qを算出する場合の予測時間Tpが、予め設定された定数である。このため、現在から何秒後の人体特徴点予測位置Qを予測するのかを、人体特徴点予測位置Qを算出する毎に設定する必要がないので、人体特徴点予測位置Qを算出するときの処理負荷を低減することができる。
また、カメラ11により撮影された複数の画像データのうち、連続した前後2つの画像データのみを用いて、人体特徴点予測位置Qを算出する。前後2つの画像データは、人体特徴点予測位置Qを算出するために必要最低限の画像データであり、前後2つの画像データのみを用いることにより、人体特徴点予測位置Qを算出するときの処理負荷を低減することができる。
以上説明した実施形態において、カメラ11は本発明における撮影手段、S50の処理は本発明における人体特徴点検出手段、S60,S70の処理は本発明における人体特徴点位置予測手段、S80の処理は本発明における行動予測手段、S100,S120の処理は本発明における自己遮蔽判断手段、S20〜S40の処理は本発明における自己遮蔽対策手段、予測時間Tpは本発明における所定時間である。
以上、本発明の一実施例について説明したが、本発明は上記実施例に限定されるものではなく、本発明の技術的範囲に属する限り種々の形態を採ることができる。
例えば上記実施形態では、自己遮蔽が発生すると判断した場合には、通常用人体特徴点検出アルゴリズムから自己遮蔽用人体特徴点検出アルゴリズムに変更するものを示したが、自己遮蔽が発生すると判断した場合には、人体特徴点検出を中断するようにしてもよい。これにより、自己遮蔽が発生している場合に、通常用人体特徴点検出アルゴリズムを用いることにより人体特徴点の検出精度が悪化してしまうという状況の発生を抑制することができる。
また、自己遮蔽が発生すると判断した場合には、S80で予測した運転者の行動に基づいて人体特徴点を固定して、人体特徴点を検出するようにしてもよい。例えば、携帯電話を耳に当てる行動をしようとしていると予測する場合には、携帯電話を掴んでいる側の肘の位置を固定して人体特徴点を検出する。これにより、少なくとも、固定した人体特徴点については、自己遮蔽が発生した場合において、自己遮蔽の発生を考慮しない汎用的な検出手法を用いることにより検出精度が悪化してしまうという状況の発生を抑制することができる。
また、自己遮蔽が発生すると判断した場合には、自己遮蔽により隠れている人体特徴点を無視して人体特徴点を検出するようにしてもよい。また、自己遮蔽により隠れる前の人体特徴点の動作履歴から時系列フィルタ(カルマンフィルタ等)で、隠れている人体特徴点の位置を推測するようにしてもよい。
また上記実施形態では、運転者がグローブボックスを開放しようとしていると予測した場合には、グローブボックスを自動的に開放することにより、運転者が行う操作を補助するものを示した。この他に例えば、運転者の手がナビゲーション装置に近付いていることを予測すると、ナビゲーション装置の電源を自動的にオンにするようにしてもよい。
また上記実施形態では、右肩、左肩、右肘、左肘、右手、及び左手の人体特徴点を検出するものを示したが、検出する人体特徴点の数を減らしてもよいし、これ以外の人体特徴点(例えば、首、腰)を検出するようにしてもよい。
また上記実施形態では、前後の2つの画像データを用いて人体特徴点の予測位置を算出するものを示したが、3つ以上の画像データを用いるようにしてもよい。
また上記実施形態では、前後2つの人体特徴点の移動距離に基づいて人体特徴点の移動速度Vを算出するという簡便な方法で人体特徴点予測位置を算出するものを示したが、より詳細な方法で移動速度Vを算出して人体特徴点予測位置を算出するようにしてもよい。
また上記実施形態では、乗員姿勢推定のみのためにカメラ11を用いるものを示したが、セキュリティ機能と乗員姿勢推定の両方のためにカメラ11を用いるようにしてもよい。
また上記実施形態では、カメラ11により撮影された画像データを画像キャプチャーボード12を介して取得するものを示したが、画像キャプチャーボード12を介さず直接カメラ11から画像データを取得するようにしてもよい。
また上記実施形態では、S140において、車内LANを介して他の装置に各種指令を送信することにより、運転者が行う操作を補助するものを示した。しかし、S80において運転者行動を予測した後に、その予測結果を車内LANを介して他の装置へ送信するようにしてもよい。これにより、運転者行動の予測結果を受信した装置は独自に、この予測結果を用いて、運転者が行う操作を補助する制御を行うことができる。
1…乗員姿勢推定装置、11…カメラ、12…画像キャプチャーボード、13…データ記憶装置、14…車内LAN通信部、15…音声出力部、16…照明装置、17…制御部

Claims (10)

  1. 車両内の乗員の姿勢を推定する乗員姿勢推定装置であって、
    車両内の所定撮影領域を繰り返し撮影し、該撮影した画像である車両内画像を取得する撮影手段と、
    前記撮影手段により取得された前記車両内画像を用いて、前記車両内画像に含まれる車両乗員の姿勢を特定するために前記車両乗員の複数の所定の関節位置を人体特徴点として検出する人体特徴点検出手段と、
    前記人体特徴点検出手段により検出された前記人体特徴点の位置の変化に基づいて、所定時間が経過した後の、複数の前記人体特徴点のそれぞれの位置を予測する人体特徴点位置予測手段と、
    前記人体特徴点位置予測手段により予測された前記人体特徴点の位置である人体特徴点予測位置に基づいて、前記車両乗員の行動である乗員行動を予測する行動予測手段と、
    前記行動予測手段による予測結果に基づいて、前記人体特徴点が前記車両乗員により隠れる現象である自己遮蔽が発生するか否かを判断する自己遮蔽判断手段と、
    前記自己遮蔽が発生すると前記自己遮蔽判断手段により判断された場合に、前記行動予測手段による予測結果に基づいて、前記自己遮蔽により隠される前記人体特徴点を自己遮蔽特徴点として前記自己遮蔽特徴点以外の前記人体特徴点の前記人体特徴点検出手段による検出が、前記自己遮蔽特徴点により影響を受けることを最低限に抑制するための対策である自己遮蔽対策を実施し、前記自己遮蔽が発生しないと前記自己遮蔽判断手段により判断された場合には、前記自己遮蔽の発生を考慮しない手法で前記人体特徴点検出手段に前記人体特徴点を検出させる自己遮蔽対策手段と
    を備えることを特徴とする乗員姿勢推定装置。
  2. 前記自己遮蔽対策手段は、前記自己遮蔽対策として、
    前記行動予測手段により予測された行動に特化して前記人体特徴点を検出する手法で、前記人体特徴点検出手段に前記人体特徴点を検出させる
    ことを特徴とする請求項1に記載の乗員姿勢推定装置。
  3. 前記自己遮蔽対策手段は、前記自己遮蔽対策として、
    前記人体特徴点検出手段の動作を禁止する
    ことを特徴とする請求項1に記載の乗員姿勢推定装置。
  4. 前記自己遮蔽対策手段は、前記自己遮蔽対策として、
    複数の前記人体特徴点のうち、前記行動予測手段による予測結果に基づいて決定された前記人体特徴点の位置を固定して、前記人体特徴点検出手段に前記人体特徴点を検出させる
    ことを特徴とする請求項1に記載の乗員姿勢推定装置。
  5. 前記行動予測手段は、
    前記人体特徴点検出手段により検出された前記人体特徴点の位置に基づいて特定される身体部位の位置と前記人体特徴点予測位置との位置関係、及び、前記車両内に設置された操作対象の位置と前記人体特徴点予測位置との位置関係の少なくとも1つに基づいて、前記乗員行動を予測する
    ことを特徴とする請求項1〜請求項4の何れか1項に記載の乗員姿勢推定装置。
  6. 前記行動予測手段は、
    前記車両乗員の両肩の前記人体特徴点に基づいて特定される前記車両乗員の頭部の位置と、前記車両乗員の手の前記人体特徴点予測位置との位置関係に基づいて、前記車両乗員が、頭部への接触行動である頭部接触行動を前記乗員行動として行うか否かを予測し、
    前記自己遮蔽判断手段は、
    前記車両乗員が前記頭部接触行動を行うと前記行動予測手段が予測した場合に、前記自己遮蔽が発生すると判断する
    ことを特徴とする請求項5に記載の乗員姿勢推定装置。
  7. 前記行動予測手段は、
    前記車両乗員の右腕の手の前記人体特徴点予測位置と、前記車両乗員の右腕の肘の前記人体特徴点予測位置とを結ぶ線分を右腕予測線分とし、前記車両乗員の左腕の手の前記人体特徴点予測位置と、前記車両乗員の左腕の肘の前記人体特徴点予測位置とを結ぶ線分を左腕予測線分として、前記右腕予測線分と前記左腕予測線分とが交差する場合に、前記車両乗員が右腕と左腕とを交差させる行動である腕交差行動を前記乗員行動として行うと予測し、
    前記自己遮蔽判断手段は、
    前記車両乗員が前記腕交差行動を行うと前記行動予測手段が予測した場合に、前記自己遮蔽が発生すると判断する
    ことを特徴とする請求項5に記載の乗員姿勢推定装置。
  8. 前記人体特徴点検出手段は、
    前記車両乗員の肩、肘、及び手の前記人体特徴点のみを検出する
    ことを特徴とする請求項1〜請求項7の何れか1項に記載の乗員姿勢推定装置。
  9. 前記所定時間は、予め設定された定数である
    ことを特徴とする請求項1〜請求項8の何れか1項に記載の乗員姿勢推定装置。
  10. 前記人体特徴点位置予測手段は、
    前記撮影手段により取得された複数の前記車両内画像のうち、連続した前後2つの前記車両内画像のみを用いて、前記人体特徴点予測位置を予測する
    ことを特徴とする請求項1〜請求項9の何れか1項に記載の乗員姿勢推定装置。
JP2009281734A 2009-12-11 2009-12-11 乗員姿勢推定装置 Expired - Fee Related JP5233977B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009281734A JP5233977B2 (ja) 2009-12-11 2009-12-11 乗員姿勢推定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009281734A JP5233977B2 (ja) 2009-12-11 2009-12-11 乗員姿勢推定装置

Publications (2)

Publication Number Publication Date
JP2011123733A true JP2011123733A (ja) 2011-06-23
JP5233977B2 JP5233977B2 (ja) 2013-07-10

Family

ID=44287554

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009281734A Expired - Fee Related JP5233977B2 (ja) 2009-12-11 2009-12-11 乗員姿勢推定装置

Country Status (1)

Country Link
JP (1) JP5233977B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014522058A (ja) * 2012-06-14 2014-08-28 ソフトキネティック ソフトウェア 三次元オブジェクトのモデリング、フィッティング、およびトラッキング
JP2017116403A (ja) * 2015-12-24 2017-06-29 トヨタ自動車株式会社 姿勢推定装置、姿勢推定方法、およびプログラム
JPWO2021033453A1 (ja) * 2019-08-21 2021-02-25
JP2021060815A (ja) * 2019-10-07 2021-04-15 株式会社東海理化電機製作所 画像処理装置、およびコンピュータプログラム
JP2021060817A (ja) * 2019-10-07 2021-04-15 株式会社東海理化電機製作所 画像処理装置、およびコンピュータプログラム
DE112020006670T5 (de) 2020-02-03 2022-11-24 Mitsubishi Electric Corporation Aufmerksamkeitsrichtung-Beurteilungsvorrichtung und Aufmerksamkeitsrichtung-Beurteilungsverfahren

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001005973A (ja) * 1999-04-20 2001-01-12 Atr Media Integration & Communications Res Lab カラー画像による人物の3次元姿勢推定方法および装置
JP2008140268A (ja) * 2006-12-04 2008-06-19 Denso Corp 操作推定装置およびプログラム
JP2009037534A (ja) * 2007-08-03 2009-02-19 Denso Corp 行動推定装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001005973A (ja) * 1999-04-20 2001-01-12 Atr Media Integration & Communications Res Lab カラー画像による人物の3次元姿勢推定方法および装置
JP2008140268A (ja) * 2006-12-04 2008-06-19 Denso Corp 操作推定装置およびプログラム
JP2009037534A (ja) * 2007-08-03 2009-02-19 Denso Corp 行動推定装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014522058A (ja) * 2012-06-14 2014-08-28 ソフトキネティック ソフトウェア 三次元オブジェクトのモデリング、フィッティング、およびトラッキング
KR101519940B1 (ko) 2012-06-14 2015-05-13 소프트키네틱 소프트웨어 3-차원 물체 모델링, 피팅 및 트래킹
JP2017116403A (ja) * 2015-12-24 2017-06-29 トヨタ自動車株式会社 姿勢推定装置、姿勢推定方法、およびプログラム
JPWO2021033453A1 (ja) * 2019-08-21 2021-02-25
WO2021033453A1 (ja) * 2019-08-21 2021-02-25 コニカミノルタ株式会社 画像処理システム、画像処理プログラム、および画像処理方法
JP7351339B2 (ja) 2019-08-21 2023-09-27 コニカミノルタ株式会社 画像処理システム、画像処理プログラム、および画像処理方法
WO2021070611A1 (ja) * 2019-10-07 2021-04-15 株式会社東海理化電機製作所 画像処理装置、および非一時的なコンピュータ可読媒体
JP2021060817A (ja) * 2019-10-07 2021-04-15 株式会社東海理化電機製作所 画像処理装置、およびコンピュータプログラム
WO2021070612A1 (ja) * 2019-10-07 2021-04-15 株式会社東海理化電機製作所 画像処理装置、および非一時的なコンピュータ可読媒体
JP7312079B2 (ja) 2019-10-07 2023-07-20 株式会社東海理化電機製作所 画像処理装置、およびコンピュータプログラム
JP7350602B2 (ja) 2019-10-07 2023-09-26 株式会社東海理化電機製作所 画像処理装置、およびコンピュータプログラム
JP2021060815A (ja) * 2019-10-07 2021-04-15 株式会社東海理化電機製作所 画像処理装置、およびコンピュータプログラム
DE112020006670T5 (de) 2020-02-03 2022-11-24 Mitsubishi Electric Corporation Aufmerksamkeitsrichtung-Beurteilungsvorrichtung und Aufmerksamkeitsrichtung-Beurteilungsverfahren

Also Published As

Publication number Publication date
JP5233977B2 (ja) 2013-07-10

Similar Documents

Publication Publication Date Title
JP5233977B2 (ja) 乗員姿勢推定装置
JP5099451B2 (ja) 車両周辺確認装置
JP6394281B2 (ja) 車載注意喚起システム、報知制御装置
JP4926437B2 (ja) 車両の運転支援装置
JP5088669B2 (ja) 車両周辺監視装置
JP5096836B2 (ja) 車両の周囲を画像化する方法およびそのためのシステム
JP4687411B2 (ja) 車両周辺画像処理装置及びプログラム
JP5092776B2 (ja) 視線方向検出装置及び視線方向検出方法
JP6197814B2 (ja) 車両用表示装置
JPWO2018092265A1 (ja) 運転支援装置および運転支援方法
JP5093611B2 (ja) 車両周辺確認装置
JP6127659B2 (ja) 運転支援装置及び運転支援方法
JP2007129560A (ja) 物体検出装置
JP2013132970A (ja) ミラー制御装置およびプログラム
WO2014034065A1 (ja) 移動体警告装置、および移動体警告方法
JP2007235528A (ja) 画像提供装置
JP2007249757A (ja) 警報装置
JP2010191793A (ja) 警告表示装置及び警告表示方法
JP5644414B2 (ja) 覚醒度判定装置、覚醒度判定方法及びプログラム
US20170270371A1 (en) Method and Apparatus for Providing Increased Obstacle Visibility
EP1897751A2 (en) Driving assist system for a vehicle
JP2018148530A (ja) 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP2014115859A (ja) 脇見判定装置
JP2006253787A (ja) 画像入力装置及びこの装置を備えた車両の乗員監視装置
JP4404047B2 (ja) 障害物衝突判定システム、判定装置、障害物衝突判定方法及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130311

R151 Written notification of patent or utility model registration

Ref document number: 5233977

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160405

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees