JP6342874B2 - 画像認識装置 - Google Patents

画像認識装置 Download PDF

Info

Publication number
JP6342874B2
JP6342874B2 JP2015228898A JP2015228898A JP6342874B2 JP 6342874 B2 JP6342874 B2 JP 6342874B2 JP 2015228898 A JP2015228898 A JP 2015228898A JP 2015228898 A JP2015228898 A JP 2015228898A JP 6342874 B2 JP6342874 B2 JP 6342874B2
Authority
JP
Japan
Prior art keywords
detection space
behavior detection
behavior
distance
image recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015228898A
Other languages
English (en)
Other versions
JP2017097608A5 (ja
JP2017097608A (ja
Inventor
督之 市原
督之 市原
久貴 加藤
久貴 加藤
泰典 川口
泰典 川口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Corp
Original Assignee
Yazaki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Corp filed Critical Yazaki Corp
Priority to JP2015228898A priority Critical patent/JP6342874B2/ja
Publication of JP2017097608A publication Critical patent/JP2017097608A/ja
Publication of JP2017097608A5 publication Critical patent/JP2017097608A5/ja
Application granted granted Critical
Publication of JP6342874B2 publication Critical patent/JP6342874B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮影対象の3次元認識が可能な距離画像センサから入力される信号に基づいて人間の挙動を認識する画像認識装置に関する。
例えば、車両上に搭載された様々な車載機器を運転者が操作する場合には、通常は、各々の車載機器を操作するために様々な箇所に設けられた専用のボタンを操作する必要がある。しかし、操作の度に目的のボタンが存在する位置を探して、その位置に指を位置合わせしなければならないので、この操作のために運転者は視線を前方から一時的にずらしたり、自分の手や指の動きに格別な注意を払う必要があり、安全運転の妨げになる。
そこで、従来より運転者のボタン操作を不要にするための技術が開発されている。例えば、車両の室内に設けられたカメラによって運転者の挙動を画像認識し、所定の挙動を検出すると、その挙動に応じて車両に搭載された装置が動作する操作入力装置が知られている(特許文献1)。
特開2013−218391号公報
特許文献1のようにカメラで撮影した画像を認識して人間の挙動を検出する場合に、一般的なカメラでは二次元画像しか撮影できないので、奥行き方向の位置や挙動を検出することができず、操作パターン(ジェスチャー)の自由度を上げることができないし、検出が不要な時に挙動を検出してしまう可能性もある。
近年では、撮影対象の3次元認識が可能なTOF(Time Of Flight)距離画像センサ(以下、TOFカメラと称する)が市販されている。また、TOFカメラの他にも、撮影対象の3次元認識が可能なカメラが存在する。TOFカメラは、光源の光が測定対象物に当たって戻るまでの時間を画素毎に検出できるので、奥行き方向の距離に相当する位置情報を含む立体的な画像を撮影できる。
一方、特許文献1のような操作入力装置においては、事前に定めた特定の二次元または三次元空間(以下、挙動検出空間と称する)でのみ運転者の挙動を検出し、車載機器の動作に反映することが想定される。例えば、通常の運転状態のように、運転者の手がステアリングホイール(ハンドル)の近傍にある状況でのみ、運転者の手や指の挙動に応じて車載機器を操作するように制御すれば、運転者が無意識に手を動かしたような状況では車載機器が作動することはなくなる。
しかし、特許文献1のような操作入力装置では、運転者の手や指の挙動だけを監視しているので、認識可能な操作パターンの種類を増やすことが難しく、認識精度を上げることも難しい。例えば、運転者の微妙な手や指の形状の違いを区別しようとすると、装置が手や指の形状を間違って認識する場合があり、運転者が意図しているジェスチャーの操作パターンと、装置が実際に認識する操作パターンとの相違により誤動作が生じる可能性が想定される。
したがって、例えば運転者の手の他に他の部位の挙動も同時に検出することが考えられる。しかしながら、人間の様々な部位の挙動検出を可能にするためには、撮影するカメラの画角を大きくしたり、車両に設置するカメラの台数を増やす必要がある。しかし、カメラの画角を大きくすると、形状や位置の検出精度が低下して認識精度が下がることになる。また、車両に設置するカメラの台数を増やす場合には装置のコストが大幅に上昇するのは避けられない。
また、TOFカメラが計測する距離には誤差が発生することがある。特に、高温の環境下においては光源からの照射角度が温度により変化して誤差が増大する傾向がある。したがって、温度変化の激しい車室内などにTOFカメラを設置する場合にはTOFカメラが計測する距離や三次元座標の誤差の影響が懸念される。
TOFカメラが計測する距離の誤差が大きくなると、挙動検出空間が、拡大、縮小、または変位してしまう。その結果、挙動検出空間の外側に運転者の手が存在する場合であっても、無意識のうちに行われる手の挙動に反応し、車載機器が動作してしまう可能性がある。つまり、運転者が意図していない操作が勝手に行われてしまう。このような誤動作は、運転者の想定外の動作であるため運転者の思考に混乱を招き運転に支障を来す可能性がある。
本発明は、上述した事情に鑑みてなされたものであり、その目的は、装置コストの増大を抑制しつつ、認識可能なジェスチャーの操作パターンの種類を増やすこと、および操作検出精度を向上することが可能な画像認識装置を提供することにある。
前述した目的を達成するために、本発明に係る画像認識装置は、下記(1)〜(5)を特徴としている。
(1) 撮影対象の3次元認識が可能な距離画像センサから入力される信号に基づいて人間の挙動を認識する画像認識装置であって、
人間の挙動を認識する空間として、
第1の挙動検出空間と、
前記距離画像センサと前記第1の挙動検出空間とを結ぶ線上に少なくとも一部分が位置し、且つ前記第1の挙動検出空間とは重複しない第2の挙動検出空間と、
が事前に決定され、
前記第1の挙動検出空間と前記第2の挙動検出空間とは、前記距離画像センサと前記第1の挙動検出空間とを結ぶ線上において互いに離隔した位置に割り当てられ、
前記第1の挙動検出空間及び前記第2の挙動検出空間の少なくとも一方において人間の挙動を認識した結果を出力に反映する、
画像認識装置。
上記(1)の構成の画像認識装置によれば、装置コストの増大を抑制しつつ、認識可能なジェスチャーの操作パターンの種類を増やすこと、および操作検出精度を向上することが可能になる。すなわち、第1の挙動検出空間および第2の挙動検出空間のそれぞれにおいて人間の挙動を認識することにより、操作パターンの種類を増やすことができる。また、第1の挙動検出空間および第2の挙動検出空間が、距離画像センサから視て同じ線上に配置されるので、距離画像センサが撮像する際の画角を大きくすることなく、両方の挙動検出空間を同時に監視できる。したがって、撮影した各認識対象物に対応する画像データの画素数が増え、認識精度が向上する。
(2) 前記第1の挙動検出空間は、人間の顔の表情を認識可能な領域に割り当てられ、
前記第2の挙動検出空間は、人間の手又は指の動きを認識可能な領域に割り当てられている、
上記(1)に記載の画像認識装置。
上記(2)の構成の画像認識装置によれば、第1の挙動検出空間の画像を処理することにより、人間の顔の表情に関する挙動を検出でき、同時に第2の挙動検出空間の画像を処理することにより、人間の手又は指の動きに関する挙動を検出できる。
(3) 前記第1の挙動検出空間及び前記第2の挙動検出空間それぞれにおいて人間の挙動を認識し、認識された人間の挙動の組合せに応じてその人間が為した操作を識別する、
上記(1)に記載の画像認識装置。
上記(3)の構成の画像認識装置によれば、第1の挙動検出空間における挙動と、第2の挙動検出空間における挙動との組み合わせを利用するので、これら全体の挙動に対応する操作の種類をより高精度で認識可能になる。すなわち、運転者が特定のジェスチャー以外で特別な複数の挙動を同時に行う確率は非常に低いので、各挙動検出空間における微妙な変化を認識しなくても、特定のジェスチャーか否かを容易に区別できる。
(4) 前記距離画像センサから入力される信号に基づき認識される事前に定めた特定の撮影対象までの第1の計測距離と、前記距離画像センサから前記特定の撮影対象までの距離を事前に実測して得られた参照距離との比率を算出し、前記第1の挙動検出空間および前記第2の挙動検出空間を特定するパラメータ、または前記距離画像センサから入力される信号に基づき認識される挙動監視対象の任意の点までの第2の計測距離を、前記比率に基づく補正量により補正する計測値補正部、を更に備えた、
上記(1)に記載の画像認識装置。
上記(4)の構成の画像認識装置によれば、例えばTOFカメラを利用する場合のように、距離画像センサが計測した距離等の結果に大きな誤差が含まれている場合であっても、誤差を自動的に修正できるので、第1の挙動検出空間及び第2の挙動検出空間以外の領域で検出した挙動により誤動作が生じるのを防止できる。
(5) 前記第1の挙動検出空間および前記第2の挙動検出空間の少なくとも一方が、車室内の特定の固定部位を基準として、前記固定部位に隣接する領域、もしくは前記固定部位の周辺の領域に割り当てられている、
上記(1)または(2)に記載の画像認識装置。
上記(5)の構成の画像認識装置によれば、第1の挙動検出空間や第2の挙動検出空間を、車室内の特定の固定部位を基準として定めているので、運転者が通常の運転姿勢である場合のような、特定の条件に限り運転者のジェスチャーを認識可能になる。したがって、運転者が無意識のうちに行った挙動を、特定のジェスチャーとして装置が誤認識するのを避けることができる。
本発明の画像認識装置によれば、装置コストの増大を抑制しつつ、認識可能なジェスチャーの操作パターンの種類を増やすこと、および操作検出精度を向上することが可能になる。すなわち、前記第1の挙動検出空間および第2の挙動検出空間のそれぞれにおいて人間の挙動を認識することにより、操作パターンの種類を増やすことができる。また、前記第1の挙動検出空間および第2の挙動検出空間が、前記距離画像センサから視て同じ線上に配置されるので、前記距離画像センサが撮像する際の画角を大きくすることなく、両方の挙動検出空間を同時に監視できる。したがって、撮影した各認識対象物に対応する画像データの画素数が増え、認識精度が向上する。
以上、本発明について簡潔に説明した。更に、以下に説明される発明を実施するための形態(以下、「実施形態」という。)を添付の図面を参照して通読することにより、本発明の詳細は更に明確化されるであろう。
図1は、本発明の実施形態の画像認識装置を搭載した車両の車室内を車両の右側面側から視た各部の位置関係の例を示す側面図である。 図2は、本発明の実施形態の画像認識装置を含む車載システムの構成例を示すブロック図である。 図3は、本発明の実施形態の画像認識装置を搭載した車両の車室内の構成例を示す正面図である。 図4は、本発明の実施形態の画像認識装置の動作例を示すフローチャートである。 図5(A)および図5(B)は、それぞれ運転者の手の挙動に基づくジェスチャーの具体例を示す正面図である。 図6は、変形例の画像認識装置を搭載した車両の車室内の構成例を示す正面図である。
本発明に関する具体的な実施形態について、各図を参照しながら以下に説明する。
<画像認識装置を使用する環境の具体例>
<車室内の構成例>
車両の室内における運転席近傍の主要な構成要素の配置例を図3に示す。本発明の画像認識装置は、例えば図3に示したような車両に搭載した状態で使用される。
図3に示すように車両の室内には、運転席シート34および助手席シート35が設けてあり、運転席シート34の前方にステアリングホイール31が配置されている。また、前方のダッシュボード33の中央付近には矩形の表示画面を有するディスプレイユニット32が設置されている。このディスプレイユニット32は、カーナビゲーション装置やカーオーディオ装置の表示部として利用することができる。
また、ディスプレイユニット32を使用しない表示装置として、ヘッドアップディスプレイ(HUD)の本体がダッシュボード33の下方に格納されている。このヘッドアップディスプレイを使用する際には、表示光を反射する透明なコンバイナ(反射板)がダッシュボード33の内側から上昇してダッシュボード33上に現れ、運転者が視認できる位置に位置決めされる。
運転席シート34の左前方の運転者が操作可能な位置に、可動構造の操作レバー36が配置されている。この操作レバー36は、車両のトランスミッションの変速モードを切り替えるために利用される。
また、ステアリングホイール31よりも少し前方のダッシュボード33上にTOFカメラ21が固定した状態で設置されている。このTOFカメラ21は、撮影対象の3次元認識が可能なTOF(Time Of Flight)距離画像センサである。すなわち、TOFカメラ21は、光源の光が測定対象物に当たって戻るまでの時間を画素毎に検出し、奥行き方向の距離に相当する位置情報を含む立体的な画像を撮影できる。
<位置関係の具体例>
本発明の実施形態の画像認識装置を搭載した車両の車室内を車両の右側面側から視た各部の位置関係の例を図1に示す。
図3に示したTOFカメラ21は、ステアリングホイール31と対向する位置に設置してあり、ステアリングホイール31の全体と、ステアリングホイール31を操作する運転者の手との両方が同時に映る範囲を撮影できるように撮影方向および画角を事前に調整してある。
より具体的には、図1に示すように、TOFカメラ21の撮影範囲25Aの中に、運転者30の顔30fと、手30hと、ステアリングホイール31等の車両上の特定の固定部位が含まれるように位置決めしてある。
また、本実施形態では、運転者のジェスチャーを検出するための三次元の挙動検出空間として、2つの挙動検出空間ArF、ArHが事前に定めてある。挙動検出空間ArFは、運転者30の顔30fの挙動を認識するための空間であり、図1に示すように運転者30が通常の運転姿勢である場合における顔30fの位置を含む領域に割り当てられている。挙動検出空間ArHは、運転者30の手30hの挙動を認識するための空間であり、図1に示すように運転者30が通常の運転姿勢である場合における手30hの位置を含む領域に割り当てられている。挙動検出空間ArFおよびArHの各々は、大きさが固定された直方体形状の三次元空間である。
実際の車両においては、運転者30の運転姿勢や位置を調整できるので、調整された実際の運転姿勢や位置に合わせて各挙動検出空間ArF、ArHを自動的に調整している。例えば、顔30fを検出するための挙動検出空間ArFについては、運転席シート34のヘッドレスト34hの実際の位置を算出した後で、この位置を基準として所定距離離れた領域に割り当てている。また、手30hを検出するための挙動検出空間ArHについては、ステアリングホイール31の実際の姿勢(ティルト角度など)や位置を算出した後で、この位置を基準として所定距離離れた領域に割り当てている。
また、図1に示すように、TOFカメラ21の同じ撮影方向の軸Azに沿って、奥行き方向(Z方向)に互いにずれた位置に2つの挙動検出空間ArHおよびArFがそれぞれ割り当ててある。TOFカメラ21側から視ると、2つの挙動検出空間ArHおよびArFは一部分のみが重なり、それぞれの空間内の手や顔が同時に撮影できる状態になっている。
この場合、同じ軸Az上に2つの挙動検出空間ArHおよびArFが配置されているので、撮影範囲25Aに相当するTOFカメラ21の画角を格別に広げなくても、1台のTOFカメラ21だけで2つの挙動検出空間ArHおよびArFの両方の撮影対象を同時に撮影できる。画角を小さくすることにより、画像認識精度が向上する。また、複数のTOFカメラ21を設置する必要がないためコストの上昇を抑制できる。
また、複数の挙動検出空間ArHおよびArFのそれぞれについて挙動の認識を行うことにより、利用可能なジェスチャーの種類を増やすことが可能になる。また、ジェスチャーの認識精度を上げることが可能であるし、ユーザにとって使いやすいジェスチャーを採用することも可能になる。
<車載システムの構成例>
本発明の実施形態における画像認識装置10を含む車載システムの構成例を図2に示す。図2の車載システムは、図1および図3に示した車両に搭載されている。
図2に示す画像認識装置10は、運転者の所定のジェスチャー、すなわち身振り、手振りのような挙動から車載機器に対する操作の指示を自動的に認識し、該当する車載機器を制御することができる。
実際には、TOFカメラ21により運転者の手、指、顔や、ステアリングホイール31などを撮影し、この撮影により得られる三次元画像から、手、指、顔等の挙動をジェスチャーとして認識する。したがって、運転者は特別なボタン等を操作しなくてもジェスチャーにより車載機器を操作することができる。そのため、運転者が車載機器を操作する際に、目的のボタンを探したり、操作のためにステアリングホイール31から手を離したりする必要がなくなり、安全運転の向上に役立つ機能を提供できる。
但し、本実施形態では、画像認識装置10が手、指、顔等の挙動を検出するのは、これらが事前に定めた挙動検出空間ArH、ArF等の内側に存在する場合のみに限定してある。これにより、例えば運転者が無意識のうちに動かした手の動きを特定のジェスチャーとして誤認識するのを防止し、車載機器が想定外の動作をするのを避けることができる。
図2に示すように、TOFカメラ21は光源部21aおよび受光部21bを備えている。光源部21aは、パルス状の光を撮影対象物に照射することができる。受光部21bは、CMOSなどで構成される二次元イメージセンサを備えている。また、受光部21bが検出した二次元画像を構成する画素毎に、光源部21aの光が手などの撮影対象物にあたり受光部21bに戻るまでの時間(Time Of Flight)に応じた距離情報を検出する回路がTOFカメラ21に内蔵されている。したがって、TOFカメラ21は三次元画像を撮影できる。
TOFカメラ21が撮影した三次元画像の情報は、画像認識装置10の入力に印加される。図2に示すように、画像認識装置10は画像認識処理部11およびジェスチャー監視制御部12を備えている。
画像認識処理部11は、TOFカメラ21から出力される画像情報に対する情報処理を高速で実行し、事前に登録した特定形状のパターンを認識したり、認識したパターンの三次元座標上の位置、寸法、色、動き、形状変化などを計測する機能を有している。
ジェスチャー監視制御部12は、運転者の手が事前に定めた挙動検出空間の内側に存在するか否かを識別する。また、運転者の手が事前に定めた挙動検出空間の内側に存在する場合には、画像認識処理部11の認識結果に基づき運転者の手、指、顔等の挙動を監視して、事前に登録したジェスチャーのパターンと一致するか否かを識別する。特定のジェスチャーと一致する挙動を検知した場合には、事前に定めた制御を実施する。
上位ECU(電子制御ユニット)22は、ステアリングホイール31の位置や姿勢を表す情報や、運転席シート34の位置や姿勢を表す情報や、車両のイグニッションオンオフを示す情報などをジェスチャー監視制御部12に与えることができる。
図2に示した車載システムにおいては、画像認識装置10の出力にHUDユニット23、カーナビゲーション装置24、およびカーオーディオ装置26が接続されている。画像認識装置10は、運転者のジェスチャーに基づいて、HUDユニット23、カーナビゲーション装置24、およびカーオーディオ装置26のそれぞれを制御することができる。
例えば、特定のジェスチャーによりHUDユニット23の動作を起動する時には、HUDユニット23に含まれる図示しない透明なコンバイナが、図3に示したダッシュボード33の下方から上昇してダッシュボード33上に現れ、運転者が視認可能な状態になる。その状態で、HUDユニット23から投射された表示光がコンバイナで反射され、運転者の目の位置で視認可能な虚像が結像される。また、特定のジェスチャーによりHUDユニット23の動作を終了する時には、前記コンバイナが下降してダッシュボード33の下方に収納される。
また、カーナビゲーション装置24を操作するための様々なボタンや、カーオーディオ装置26を操作するための様々なボタンと同様の機能を、画像認識装置10が認識可能な各種のジェスチャーに割り当てることが可能である。
<ジェスチャーの具体例>
運転者の手の挙動に基づくジェスチャーの具体例を図5(A)および図5(B)にそれぞれ示す。
例えば、HUDユニット23の動作を起動するためのジェスチャーの操作を行う場合には、運転者30は左手LHおよび右手RHを図5(A)に示すようにステアリングホイール31に触れた状態のまま、左手LHを下から上に向かってなぞるように移動する。また、この時の左手LHおよび右手RHの位置は、挙動検出空間ArHの領域内に位置するように合わせる。この操作をTOFカメラ21の撮影した画像に基づき画像認識装置10が特定のジェスチャーとして認識し、画像認識装置10はHUDユニット23に起動のための制御信号を送る。
また、HUDユニット23の動作を終了するためのジェスチャーの操作を行う場合には、運転者30は左手LHおよび右手RHを図5(B)に示すようにステアリングホイール31に触れた状態のまま、左手LHを上から下に向かってなぞるように移動する。また、この時の左手LHおよび右手RHの位置は、挙動検出空間ArHの領域内に位置するように合わせる。この操作をTOFカメラ21の撮影した画像に基づき画像認識装置10が特定のジェスチャーとして認識し、画像認識装置10はHUDユニット23に動作終了のための制御信号を送る。
なお、通常の運転操作とジェスチャーとの区別を容易にするために、図5(A)、図5(B)よりももっと複雑な操作を行うようにしてもよい。例えば、特定の指の曲げ伸ばし等により特別な手の形状を表現したり、なぞる操作を複数回繰り返すようなジェスチャーパターンを採用してもよい。
また、本実施形態では画像認識装置10が挙動検出空間ArF内の顔30fの表情も認識できるので、手の挙動と顔の挙動とを組み合わせたジェスチャーを採用することも考えられる。例えば、図5(A)に示したような手の挙動が検出され、且つ挙動検出空間ArF内の顔30fにおいて、目の視線の方向が前方を向いている場合に限り、HUDユニット23を起動するためのジェスチャーとして認識する。また、図5(B)に示したような手の挙動が検出され、且つ挙動検出空間ArF内の顔30fにおいて、目の視線の方向が前方を向いている場合に限り、HUDユニット23の動作を終了するためのジェスチャーとして認識する。
挙動検出空間ArF内の挙動と、挙動検出空間ArH内の挙動とをそれぞれ独立した機器の制御に割り当ててもよい。例えば、図5(A)、図5(B)のような挙動検出空間ArH内の手の挙動は、HUDユニット23の操作のためのジェスチャーとして割り当て、挙動検出空間ArF内の顔の挙動はカーナビゲーション装置24、カーオーディオ装置26、あるいはエアコンのような機器を操作するためのジェスチャーとして割り当てることが考えられる。
<計測誤差の説明>
図2に示した画像認識装置10は、TOFカメラ21の撮影により得られる三次元画像を認識するので、認識対象の手や顔の位置が事前に定めた挙動検出空間ArF、ArHの範囲内に存在するか否かを識別できる。
しかし、TOFカメラ21から認識対象までの計測距離に比較的大きな誤差が発生する場合がある。実際には、高温の環境下で、光源部21aからの光の照射角度や画角が大きく変動するため、撮影方向(奥行き方向Z)の計測距離や、他の軸方向(X、Y)の座標位置にも誤差が発生する。車両においては、車室内の環境温度が大きく変動する可能性があるため、TOFカメラ21の計測誤差は無視できない程度に大きくなる。
TOFカメラ21の計測した距離に大きな誤差が発生すると、三次元画像に基づいて認識される認識対象の手の位置が実際の位置に対して大きくずれてしまう。そして、実際の手の位置が挙動検出空間ArH、ArFの範囲外にある時であっても、画像認識装置10が手や顔の挙動に反応してジェスチャーを検出する可能性がある。つまり、運転者がジェスチャーを行う意図がない状況で画像認識装置10がジェスチャーを誤検出してしまうので、HUDユニット23等の車載機器が運転者の想定外の動作を行うことになる。このような誤動作を防止するために、後述するように画像認識装置10は三次元画像に基づいて認識される認識対象の位置を自動的に補正する機能を搭載している。
<画像認識装置10の動作>
<処理手順の概要>
本発明の実施形態における画像認識装置10の主要な動作例を図4に示す。すなわち、図2に示した画像認識装置10のジェスチャー監視制御部12に内蔵されるコンピュータ(図示せず)または画像認識処理部11が、図4に示した手順に従って運転者のジェスチャーに対応するための制御を実施する。
図1に示した手順には、TOFカメラ21の出力する三次元画像に基づいて認識される認識対象の手の位置を補正するための処理が含まれている。具体的には、ステアリングホイール31の位置を基準として、補正のための比率R1を求め、認識された手や顔の位置を補正する。
ステアリングホイール31は、基本的には車体に固定されているので、TOFカメラ21からステアリングホイール31上の特定位置までの距離は既知として扱うことができる。そこで、この距離を事前に実測して距離参照値Lrefとして画像認識装置10上の定数テーブルTB1に登録しておく。
但し、実際の車両においてステアリングホイール31はティルト角度や操舵軸の長さを変更するための姿勢調整機能を搭載している場合が多く、TOFカメラ21からステアリングホイール31上の特定位置までの距離も可変である。そこで、ステアリングホイール31の複数の姿勢のそれぞれの状態で実測した複数の距離参照値Lrefを定数テーブルTB1に登録しておき、ステアリングホイール31の実際の姿勢に応じて最適な距離参照値Lrefを選択的に使用する。
TOFカメラ21が撮影した三次元画像に基づいて認識されるステアリングホイール31上の特定位置の三次元座標に基づいて、TOFカメラ21から前記特定位置までの距離計測値L1を算出できる。ここで、計測誤差が発生していると、距離参照値Lrefと距離計測値L1との間に差異が現れる。そこで、これらの比率R1を算出し、これを距離の誤差を補正するための補正係数として使用する。
R1=L1/Lref ・・・(1)
つまり、TOFカメラ21の位置からこれが撮影した三次元画像に基づいて認識される監視対象の手の位置までの距離計測値L2は、TOFカメラ21の特性により生じる距離の計測誤差を含んでいるので、この計測誤差を減らすために前記比率R1を用いて距離計測値L2等を補正する。
補正後の距離計測値等を用いて、監視対象の手や顔の位置と挙動検出空間ArH、ArFの各範囲の閾値とを比較することにより、手や顔の位置が各挙動検出空間の範囲内か否かを正しく識別できる。
また、各挙動検出空間ArF、ArHが予め固定されている場合には、運転者の実際の運転姿勢の調整などに伴って、各挙動検出空間ArF、ArHが所望の空間からずれる可能性がある。例えば、運転席シート34の前後方向の位置調整を行うと、運転時の実際の顔30fの位置が前後に移動して、挙動検出空間ArF内で顔を検出できなくなる可能性がある。
そこで、挙動検出空間ArFを決める場合には、車両上に固定されている運転席シート34のヘッドレスト34hの位置を基準として、その周囲の近傍の空間として挙動検出空間ArFの位置を決定する。但し、運転席シート34の移動や姿勢調整に伴ってヘッドレスト34hの位置が変化するので、運転席シート34の位置や姿勢の情報を取得してヘッドレスト34hの位置を算出し、その結果を挙動検出空間ArFの位置に反映する。
また、挙動検出空間ArHを決める場合には、車両上に固定されているステアリングホイール31の位置を基準として、その周囲の近傍の空間として挙動検出空間ArHの位置を決定する。但し、ステアリングホイール31のティルト角度等の姿勢調整に伴ってステアリングホイール31の位置や高さが変化するので、ステアリングホイール31の姿勢の情報を取得して実際のステアリングホイール31の位置を特定し、その結果を挙動検出空間ArHの位置に反映する。
<処理手順の詳細>
車両のイグニッションがオンになると、ジェスチャー監視制御部12が実行する処理は図1のステップS11からS12に進む。ステップS12では、ジェスチャー監視制御部12は上位ECU22から、ステアリングホイール31のティルト角度(高さの違いに相当)や、運転席シート34の位置および姿勢などの情報を取得する。
次のステップS13では、ジェスチャー監視制御部12は、S12で取得したステアリングホイール31の姿勢の情報に基づいて、ステアリングホイール31の実際の各部の位置を特定し、この位置を基準として挙動検出空間ArHの位置を決定する。また、S12で取得した運転席シート34の位置および姿勢の情報に基づいて、ヘッドレスト34hの実際の位置を算出し、この位置を基準として挙動検出空間ArFの位置を決定する。なお、ステアリングホイール31やヘッドレスト34hの各部の位置を特定するために必要な姿勢と各部の位置との関係や、各部の相対距離を表す定数については、定数テーブルTB1から取得する。
例えば、ヘッドレスト34hの位置に対して、標準的な人の頭の寸法の半分程度の距離だけ離れた位置の前方に隣接するように挙動検出空間ArFの前後方向(Z方向)の位置を決定する。また、挙動検出空間ArFの横方向(X)および縦方向(Y)の位置については、ヘッドレスト34hのほぼ中央の位置と一致するように決定する。
ステップS14では、ジェスチャー監視制御部12は、S12で取得した姿勢の情報をパラメータとして、これに対応付けられた1つの距離参照値Lrefを定数テーブルTB1から取得する。つまり、TOFカメラ21の位置から固定されたステアリングホイール31上の特定位置までの実際の距離を表す値を距離参照値Lrefとして取得する。
次のステップS15で、ジェスチャー監視制御部12はTOFカメラ21が撮影を開始するように制御する。この後で、TOFカメラ21の撮影により得られる三次元画像のデータが画像のフレーム毎に順次に画像認識処理部11およびジェスチャー監視制御部12に入力される。
ステップS16では、画像認識処理部11が入力される三次元画像のデータを処理して所定の画像認識を実行する。すなわち、入力された三次元画像から抽出される様々な特徴量と、事前に登録してあるステアリングホイール31の形状、手の形状、指の形状などの参照データとを比較することにより、ステアリングホイール31、手、指、顔などのそれぞれの認識対象物を認識する。
ステップS17では、ジェスチャー監視制御部12は、S16における画像認識処理部11の認識結果に基づき、基準位置として事前に定めたステアリングホイール31上の特定位置の位置座標を特定し、TOFカメラ21から前記特定位置までの距離計測値L1を算出する。なお、前記「特定位置」については、例えば突起などの特別な形状、着色やマークなどの特徴的な目印を利用することにより容易に特定できる。
ステップS18では、ジェスチャー監視制御部12は、S14で取得した距離参照値LrefとS17で算出した距離計測値L1とに基づき、前記第(1)式の比率R1を算出する。
例えば、TOFカメラ21からステアリングホイール31までの実際の距離が30cmである場合には、距離参照値Lrefが30cmになる。また、画像認識により得られた距離計測値L1が50cmの場合には、距離参照値Lrefと異なるので誤差が含まれていることになる。そこで、比率R1(50/30)を補正値として利用すれば、距離計測値L1と距離参照値Lrefの誤差がなくなるように補正することができる。
ステップS19では、ジェスチャー監視制御部12は、画像認識処理部11の認識結果に基づき、手の位置座標を取得し、TOFカメラ21の位置から手の位置までの奥行き方向(Z方向)の距離を表す距離計測値L2を算出する。また、画像認識処理部11の認識結果に基づき、顔の位置座標を取得し、TOFカメラ21の位置から顔の位置までの奥行き方向(Z方向)の距離を表す距離計測値L3を算出する。
ステップS20では、ジェスチャー監視制御部12は、S19で取得した手の位置までの距離計測値L2をS18で得た比率R1を用いて補正し、補正後の距離計測値L21を取得する。また、S19で取得した顔の位置までの距離計測値L3をS19で得た比率R1を用いて補正し、補正後の距離計測値L31を取得する。更に、距離以外の各座標の位置についても比率R1を用いて補正する。
L21=L2/R1 ・・・(2)
L31=L3/R1 ・・・(3)
ステップS21では、ジェスチャー監視制御部12は、補正後の距離計測値L21を含む運転者の手の位置の三次元座標を、挙動検出空間ArHの範囲を特定する閾値と比較して、手が挙動検出空間ArHの範囲内か否かを識別する。ここで、手の位置が挙動検出空間ArHの範囲内であれば次のS22に進み、範囲外であればS23に進む。
ステップS22では、ジェスチャー監視制御部12は、画像認識処理部11の画像認識結果に基づき、例えば図5(A)、図5(B)に示したような挙動検出空間ArH内の運転者の手や指の挙動を監視する。
ステップS23では、ジェスチャー監視制御部12は、補正後の距離計測値L31を含む運転者の顔の位置の三次元座標を、挙動検出空間ArFの範囲を特定する閾値と比較して、顔が挙動検出空間ArFの範囲内か否かを識別する。ここで、顔の位置が挙動検出空間ArFの範囲内であれば次のS24に進み、範囲外であればS25に進む。
ステップS24では、ジェスチャー監視制御部12は、画像認識処理部11の画像認識結果に基づき、挙動検出空間ArF内の運転者の顔の表情などの挙動を監視する。例えば、左右の目の視線の方向、口の形状、顔の向き、頭部の傾きなどを監視する。
ステップS25では、ジェスチャー監視制御部12は、S22で検出した手や指の挙動パターン、およびS24で検出した顔の表情等の挙動パターンを事前に登録してあるジェスチャーの基準パターンと対比して、これらが一致するか否かを識別する。
S25における比較の結果、ジェスチャー監視制御部12が登録済みのジェスチャーを検出した場合には、S26からS27に進む。そして、該当するジェスチャーに対応付けられた制御を実行するように、ジェスチャー監視制御部12がS27で車載機器に対して制御信号を出力する。
例えば、図5(A)に示した手のジェスチャーを検出し、且つ顔の視線の方向が前方であることを検出した場合には、ジェスチャー監視制御部12がHUDユニット23に対して動作を起動するための信号を出力する。また、図5(B)に示したジェスチャーを検出し、且つ顔の視線の方向が前方であることを検出した場合には、ジェスチャー監視制御部12がHUDユニット23に対して動作を終了するための信号を出力する。
<変形例の説明>
変形例の画像認識装置10Bを搭載した車両の車室内の構成例を図6に示す。図6に示した変形例においては、前述の挙動検出空間ArF、ArHの代わりに、挙動検出空間ArL、ArDを用いる場合を想定している。
図6に示した挙動検出空間ArLは、操作レバー36の位置を基準として、操作レバー36のノブの箇所を囲むような直方体形状の領域として割り当ててある。また、挙動検出空間ArDは、ディスプレイユニット32の位置を基準として、ディスプレイユニット32の画面と対向するように隣接する直方体形状の領域として割り当ててある。
また、図6に示した例では、TOFカメラ21Bが車室内の天井部に設置してあり、撮影方向を下方に向けてある。つまり、車室内の天井から下方に位置する挙動検出空間ArDおよびArLの付近を同時に撮影できるようにTOFカメラ21Bの撮影範囲25Bおよび向きを調整してある。
ここで、操作レバー36の位置やディスプレイユニット32の位置は変化しないので、TOFカメラ21から操作レバー36やディスプレイユニット32までの距離を前述の距離参照値Lrefと同様の定数として定数テーブルTB1に登録しておき、比率R1を算出するための基準値として利用できる。
したがって、図6に示した画像認識装置10Bにおいては、運転者30による次のようなジェスチャーを認識できる。
(1)運転者30が手を操作レバー36に近づけた場合の手や指の形状や動きのパターン
(2)運転者30が手をディスプレイユニット32の画面に近づけた時の手や指の形状や動きのパターン
<画像認識装置10の利点>
図1に示した画像認識装置10においては、TOFカメラ21の撮影方向を示す同一の軸Azの延長線上に複数の挙動検出空間ArH、ArFを設けてある。したがって、TOFカメラ21の画角を大きくすることなしに、複数の挙動検出空間ArH、ArFの両方の認識対象物を同時に撮影できる。そのため、認識精度の低下を防止できる。また、複数のカメラを搭載する必要がないため、コストの上昇を抑制できる。
また、複数の挙動検出空間ArH、ArFのそれぞれについて人間の挙動を検出できるので、認識可能なジェスチャーの種類を増やすことが可能である。また、複数の挙動の組み合わせを1つのジェスチャーとして割り当てることも可能になるので、自由度の高いジェスチャーを実現可能であり、例えば直感的に操作できる使いやすいユーザインタフェースを提供できる。
なお、上述の画像認識装置10においては撮影対象の3次元認識が可能な距離画像センサとしてTOFカメラ21を採用しているが、これ以外の距離画像センサを利用してもよい。また、挙動検出空間の数については可能であれば3以上に増やしてもよい。
ここで、上述した本発明に係る画像認識装置の実施形態の特徴をそれぞれ以下[1]〜[5]に簡潔に纏めて列記する。
上述の画像認識装置10に関する特徴的な事項について、以下に纏めて列挙する。
[1] 撮影対象の3次元認識が可能な距離画像センサ(TOFカメラ21)から入力される信号に基づいて人間の挙動を認識する画像認識装置(10)であって、
人間の挙動を認識する空間として、
第1の挙動検出空間(ArFまたはArH)と、
前記距離画像センサと前記第1の挙動検出空間とを結ぶ線上に少なくとも一部分が位置し、且つ前記第1の挙動検出空間とは重複しない第2の挙動検出空間(ArHまたはArF)と、
が事前に決定され、
前記第1の挙動検出空間及び前記第2の挙動検出空間の少なくとも一方において人間の挙動を認識した結果を出力に反映する(S26、S27)、
画像認識装置。
[2] 前記第1の挙動検出空間は、人間の顔の表情を認識可能な領域(ArF)に割り当てられ、
前記第2の挙動検出空間は、人間の手又は指の動きを認識可能な領域(ArH)に割り当てられている、
上記[1]に記載の画像認識装置。
[3] 前記第1の挙動検出空間及び前記第2の挙動検出空間それぞれにおいて人間の挙動を認識し(S22、S24)、認識された人間の挙動の組合せに応じてその人間が為した操作を識別する(S25、S26)、
上記[1]に記載の画像認識装置。
[4] 前記距離画像センサから入力される信号に基づき認識される事前に定めた特定の撮影対象までの第1の計測距離(距離計測値L1)と、前記距離画像センサから前記特定の撮影対象までの距離を事前に実測して得られた参照距離(距離参照値Lref)との比率(R1)を算出し、前記第1の挙動検出空間および前記第2の挙動検出空間を特定するパラメータ、または前記距離画像センサから入力される信号に基づき認識される挙動監視対象の任意の点までの第2の計測距離(距離計測値L2)を、前記比率に基づく補正量により補正する計測値補正部(S20)、を更に備えた、
上記[1]に記載の画像認識装置。
[5] 前記第1の挙動検出空間および前記第2の挙動検出空間の少なくとも一方が、車室内の特定の固定部位(ステアリングホイール31、ヘッドレスト34h、操作レバー36、ディスプレイユニット32)を基準として、前記固定部位に隣接する領域、もしくは前記固定部位の周辺の領域に割り当てられている、
上記[1]または[2]に記載の画像認識装置。
10 画像認識装置
11 画像認識処理部
12 ジェスチャー監視制御部
21 TOFカメラ
21a 光源部
21b 受光部
22 上位ECU
23 HUDユニット
24 カーナビゲーション装置
25A,25B 撮影範囲
26 カーオーディオ装置
30 運転者
30f 顔
30h 手
31 ステアリングホイール
32 ディスプレイユニット
33 ダッシュボード
34 運転席シート
34h ヘッドレスト
35 助手席シート
36 操作レバー
LH 左手
RH 右手
TB1 定数テーブル
Az 撮影方向の軸
ArH,ArF,ArL,ArD 挙動検出空間
Lref 距離参照値
L1,L2,L3 距離計測値
R1 比率

Claims (5)

  1. 撮影対象の3次元認識が可能な距離画像センサから入力される信号に基づいて人間の挙動を認識する画像認識装置であって、
    人間の挙動を認識する空間として、
    第1の挙動検出空間と、
    前記距離画像センサと前記第1の挙動検出空間とを結ぶ線上に少なくとも一部分が位置し、且つ前記第1の挙動検出空間とは重複しない第2の挙動検出空間と、
    が事前に決定され、
    前記第1の挙動検出空間と前記第2の挙動検出空間とは、前記距離画像センサと前記第1の挙動検出空間とを結ぶ線上において互いに離隔した位置に割り当てられ、
    前記第1の挙動検出空間及び前記第2の挙動検出空間の少なくとも一方において人間の挙動を認識した結果を出力に反映する、
    画像認識装置。
  2. 前記第1の挙動検出空間は、人間の顔の表情を認識可能な領域に割り当てられ、
    前記第2の挙動検出空間は、人間の手又は指の動きを認識可能な領域に割り当てられている、
    請求項1に記載の画像認識装置。
  3. 前記第1の挙動検出空間及び前記第2の挙動検出空間それぞれにおいて人間の挙動を認識し、認識された人間の挙動の組合せに応じてその人間が為した操作を識別する、
    請求項1に記載の画像認識装置。
  4. 前記距離画像センサから入力される信号に基づき認識される事前に定めた特定の撮影対象までの第1の計測距離と、前記距離画像センサから前記特定の撮影対象までの距離を事前に実測して得られた参照距離との比率を算出し、前記第1の挙動検出空間および前記第2の挙動検出空間を特定するパラメータ、または前記距離画像センサから入力される信号に基づき認識される挙動監視対象の任意の点までの第2の計測距離を、前記比率に基づく補正量により補正する計測値補正部、を更に備えた、
    請求項1に記載の画像認識装置。
  5. 前記第1の挙動検出空間および前記第2の挙動検出空間の少なくとも一方が、車室内の特定の固定部位を基準として、前記固定部位に隣接する領域、もしくは前記固定部位の周辺の領域に割り当てられている、
    請求項1または請求項2に記載の画像認識装置。
JP2015228898A 2015-11-24 2015-11-24 画像認識装置 Expired - Fee Related JP6342874B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015228898A JP6342874B2 (ja) 2015-11-24 2015-11-24 画像認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015228898A JP6342874B2 (ja) 2015-11-24 2015-11-24 画像認識装置

Publications (3)

Publication Number Publication Date
JP2017097608A JP2017097608A (ja) 2017-06-01
JP2017097608A5 JP2017097608A5 (ja) 2018-02-08
JP6342874B2 true JP6342874B2 (ja) 2018-06-13

Family

ID=58816995

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015228898A Expired - Fee Related JP6342874B2 (ja) 2015-11-24 2015-11-24 画像認識装置

Country Status (1)

Country Link
JP (1) JP6342874B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109949362A (zh) * 2019-03-01 2019-06-28 广东九联科技股份有限公司 一种物料视觉检测方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10721393B2 (en) * 2017-12-29 2020-07-21 Axis Ab Laser ranging and illumination
CN109614953A (zh) * 2018-12-27 2019-04-12 华勤通讯技术有限公司 一种基于图像识别的控制方法、车载设备及存储介质
KR102252866B1 (ko) * 2019-05-08 2021-05-18 주식회사 바이오로그디바이스 ToF 카메라를 이용한 안면인식 방법
CN110618681A (zh) * 2019-09-09 2019-12-27 四川福德机器人股份有限公司 一种模块化精定位装置
US20220366585A1 (en) 2019-09-26 2022-11-17 Smart Eye Ab Distance Determination Between an Image Sensor and a Target Area
JP2023038048A (ja) * 2021-09-06 2023-03-16 ソニーセミコンダクタソリューションズ株式会社 操作検出装置、情報処理システム、及び操作検出方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005135439A (ja) * 2004-12-28 2005-05-26 Toshiba Corp 操作入力装置
JP5051468B2 (ja) * 2008-12-25 2012-10-17 トヨタ自動車株式会社 センサ校正装置、及び、センサ校正方法
JP5260398B2 (ja) * 2009-04-23 2013-08-14 日野自動車株式会社 カメラ配置構造
JP5812582B2 (ja) * 2010-07-20 2015-11-17 キヤノン株式会社 情報処理装置および情報処理方法
JP5958876B2 (ja) * 2011-10-21 2016-08-02 スズキ株式会社 車両の入力装置
WO2015001606A1 (ja) * 2013-07-01 2015-01-08 パイオニア株式会社 撮像システム
JP6331567B2 (ja) * 2014-03-27 2018-05-30 株式会社デンソー 車両用表示入力装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109949362A (zh) * 2019-03-01 2019-06-28 广东九联科技股份有限公司 一种物料视觉检测方法

Also Published As

Publication number Publication date
JP2017097608A (ja) 2017-06-01

Similar Documents

Publication Publication Date Title
JP6342874B2 (ja) 画像認識装置
US9696814B2 (en) Information processing device, gesture detection method, and gesture detection program
JP5261554B2 (ja) 指先ポインティング、ジェスチャに基づく車両用ヒューマンマシンインタフェース
KR101459441B1 (ko) 차량 내 손가락 사이점을 이용한 사용자 인터페이스 조작 시스템 및 방법
CN105966311B (zh) 用于校准摄像机的方法、车辆用的设备和计算机程序产品
JP2010184600A (ja) 車載用ジェスチャースイッチ装置
US20220198832A1 (en) Vehicle system with no-control operation
JP6581482B2 (ja) 画像認識装置
JP2007259931A (ja) 視線検出装置
JP6011579B2 (ja) ジェスチャ入力装置
JP2017097759A (ja) 視線方向検出装置、及び視線方向検出システム
KR20200037725A (ko) 기기 제어 장치
JP6589796B2 (ja) ジェスチャ検出装置
KR20140079159A (ko) 차량내 손목각을 이용한 사용자 인터페이스 조작 시스템 및 방법
US10296101B2 (en) Information processing system, information processing apparatus, control method, and program
WO2018061603A1 (ja) ジェスチャ操作システム、ジェスチャ操作方法およびプログラム
JP3933139B2 (ja) コマンド入力装置
JP2006335112A (ja) コマンド入力装置
CN110733423B (zh) 用于显示车辆后方图像的装置和方法
JP2010029262A (ja) 視線計測装置及びプログラム
WO2018193579A1 (ja) 画像認識装置
JP5136948B2 (ja) 車両用操作装置
JP2006327526A (ja) 車載機器の操作装置
KR20150027608A (ko) 제스처 기반의 원격 조작 시스템 및 그 조작 방법
KR101976498B1 (ko) 차량용 제스처 인식 시스템 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170725

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180417

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180517

R150 Certificate of patent or registration of utility model

Ref document number: 6342874

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees