JP2013246516A - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2013246516A
JP2013246516A JP2012117943A JP2012117943A JP2013246516A JP 2013246516 A JP2013246516 A JP 2013246516A JP 2012117943 A JP2012117943 A JP 2012117943A JP 2012117943 A JP2012117943 A JP 2012117943A JP 2013246516 A JP2013246516 A JP 2013246516A
Authority
JP
Japan
Prior art keywords
movement
detection area
face image
detection
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012117943A
Other languages
English (en)
Inventor
Yasuyuki Tanaka
康之 田中
Akira Tanaka
明良 田中
Ryuji Sakai
隆二 境
Kosuke Haruki
耕祐 春木
Mitsuru Shinbayashi
満 新林
Takahiro Suzuki
崇啓 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012117943A priority Critical patent/JP2013246516A/ja
Publication of JP2013246516A publication Critical patent/JP2013246516A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ジェスチャーによる操作対象機器の操作精度を向上させる情報処理装置、情報処理方法、およびプログラムを提供する。
【解決手段】実施形態の情報処理装置は、検出部と、出力部と、を備える。検出部は、入力された動画像データに基づく動画像に含まれる顔画像の位置に従って動画像を構成するフレーム画像に対して検出領域を設定して、検出領域において操作者の操作指示の動きである第一の動きを検出するとともに、動画像における顔画像の動きである第二の動きに起因して第一の動きとして検出される動きの成分が相殺されるよう第一の動きを補正する。出力部は、検出部により補正した第一の動きによる操作指示を表す操作データを出力する。
【選択図】図3

Description

本発明の実施形態は、情報処理装置、情報処理方法、およびプログラムに関する。
撮像装置により撮像された動画像データに基づく動画像から、操作者の操作指示の動きを検出し、検出した動きによる操作指示を表す操作データを操作対象機器に出力する情報処理装置が知られている。
特開2011−221787号公報
しかしながら、従来技術においては、撮像装置により撮像された動画像データに基づく動画像において操作者の操作指示の動きを検出する領域を、操作者が認識することができないため、操作者の操作指示の動き以外の動きも、操作者の操作指示の動きとして検出してしまうことがあり、ジェスチャーによる操作対象機器の操作精度が低い、という課題がある。また、従来技術においては、操作者が椅子から立ち上がった場合など、操作指示を行なうことを意図せずに操作指示を表す動きと同様の動きを行なってしまった場合に、当該動きが、操作指示を意図するものなのかを区別できないため、操作指示を意図しない動きも、操作者の操作指示の動きとして検出しまうことがある。
本発明は、上記に鑑みてなされたものであって、ジェスチャーによる操作対象機器の操作精度を向上させる情報処理装置、情報処理方法、およびプログラムを提供することを目的とする。
実施形態の情報処理装置は、検出部と、出力部と、を備える。検出部は、入力された動画像データに基づく動画像に含まれる顔画像の位置に従って動画像を構成するフレーム画像に対して検出領域を設定して、検出領域において操作者の操作指示の動きである第一の動きを検出するとともに、動画像における顔画像の動きである第二の動きに起因して第一の動きとして検出される動きの成分が相殺されるよう第一の動きを補正する。出力部は、検出部により補正した第一の動きによる操作指示を表す操作データを出力する。
図1は、本実施形態にかかるコンピュータの外観を示す図である。 図2は、本実施形態にかかるコンピュータの構成を概略的に示すブロック図である。 図3は、本実施形態にかかるコンピュータの機能構成の一部を示すブロック図である。 図4は、本実施形態にかかるコンピュータにおいて操作データを出力する処理の流れを示すフローチャートである。 図5は、本実施形態にかかるコンピュータにおいて検出領域を設定する処理を説明するための図である。 図6は、本実施形態にかかるコンピュータにおいて検出領域を設定する処理を説明するための図である。 図7は、本実施形態にかかるコンピュータにおいて検出領域を設定する処理を説明するための図である。 図8は、本実施形態にかかるコンピュータにおいて検出領域を設定する処理を説明するための図である。 図9は、本実施形態にかかるコンピュータにおいて第一の動きを補正する処理を説明するための図である。 図10は、本実施形態にかかるコンピュータにおいて操作指示の動きを検出する処理を説明するための図である。 図11は、本実施形態にかかるコンピュータにおいて操作指示の動きを検出する処理を説明するための図である。 図12は、本実施形態にかかるコンピュータにおいて操作データを出力する処理を説明するための図である。 図13は、本実施形態にかかるコンピュータにおいて操作データを出力する処理を説明するための図である。
図1は、本実施形態にかかるコンピュータの外観を示す図である。本実施形態では、情報処理装置、情報処理方法、およびプログラムを、ノートブックタイプのパーソナルコンピュータ(以下、コンピュータとする)10に適用した例について説明するが、これに限定するものではなく、例えば、リモートコントローラ、テレビジョン受像機、ハードディスクレコーダ等にも適用することができる。図1に示すように、本実施形態にかかるコンピュータ10は、本体11と、ディスプレイユニット12と、を有している。ディスプレイユニット12には、LCD(Liquid Crystal Display)17を備える表示装置が搭載されている。ディスプレイユニット12には、さらに、LCD17の表面を覆うようにタッチパネル14が搭載されている。ディスプレイユニット12は、本体11の上面が露出される開放位置と本体11の上面を覆う閉塞位置との間を回動自在に本体11に取り付けられている。ディスプレイユニット12は、LCD17の上部にカメラモジュール20を備える。カメラモジュール20は、ディスプレイユニット12が本体11の上面を露出する開放位置にあるときに、コンピュータ10の操作者等を撮像するために用いられる。
本体11は、薄い箱形の筐体を有し、その上面に、キーボード13、入力操作パネル15、タッチパッド16、スピーカ18A,18B、コンピュータ10を電源オンまたは電源オフにするためのパワーボタン19などが配置されている。入力操作パネル15上には、各種操作ボタンが設けられている。
また、本体11の背面には、例えばHDMI(High−Definition Multimedia Interface)規格に対応した外部ディスプレイ接続端子(図示しない)が設けられている。この外部ディスプレイ接続端子は、デジタル映像信号を外部ディスプレイに出力するために用いられる。
図2は、本実施形態にかかるコンピュータの構成を概略的に示すブロック図である。本実施形態にかかるコンピュータ10は、CPU(Central Processing Unit)111、主メモリ112、ノースブリッジ113、グラフィックコントローラ114、ディスプレイユニット12、サウスブリッジ116、HDD(Hard Disk Drive)117、副プロセッサ118、BIOS(Basic Input/Output System)−ROM(Read Only Memory)119、エンベデッドコントローラ/キーボードコントローラ(EC/KBC)120、電源回路121、バッテリ122、ACアダプタ123、タッチパッド16、キーボード(KB)13、カメラモジュール20、およびパワーボタン19等を備える。
CPU111は、コンピュータ10の動作を制御するプロセッサである。CPU111は、HDD117から主メモリ112にロードされる、オペレーティングシステム(OS)および各種のアプリケーションプログラムを実行する。また、CPU111は、BIOS−ROM119に格納されたBIOSも実行する。BIOSは、周辺デバイスを制御するためのプログラムである。BIOSは、コンピュータ10の電源投入時に最初に実行される。
ノースブリッジ113は、CPU111のローカルバスとサウスブリッジ116との間を接続するブリッジデバイスである。ノースブリッジ113は、AGP(Accelerated Graphics Port)バスなどを介してグラフィックコントローラ114との通信を実行する機能を有している。
グラフィックコントローラ114は、コンピュータ10のディスプレイユニット12を制御する表示コントローラである。グラフィックコントローラ114は、OSまたはアプリケーションプログラムによってVRAM(Video Random Access Memory)(図示しない)に書き込まれた表示データから、ディスプレイユニット12に出力すべき表示信号を生成する。
サウスブリッジ116には、HDD117、副プロセッサ118、BIOS−ROM119、カメラモジュール20、およびEC/KBC120が接続されている。また、サウスブリッジ116は、HDD117および副プロセッサ118を制御するためのIDE(Integrated Drive Electronics)コントローラも備えている。
EC/KBC120は、電力管理のためのエンベデッドコントローラ(EC)と、タッチパッド16およびキーボード(KB)13を制御するためのキーボードコントローラ(KBC)が集積された、1チップマイクロコンピュータである。EC/KBC120は、例えば、パワーボタン19が操作された際に、電源回路121と共同してコンピュータ10の電源をオンにする。コンピュータ10は、ACアダプタ123を介して外部電源が供給される場合、外部電源により駆動される。外部電源が供給されない場合、コンピュータ10は、バッテリ122によって駆動される。
カメラモジュール20は、例えば、USB(Universal Serial Bus)カメラである。カメラモジュール20のUSBコネクタは、コンピュータ10の本体11に設けられたUSBポート(図示しない)に接続される。カメラモジュール20により撮像された動画像データ(表示データ)は、主メモリ112等にフレームデータとして記憶され、ディスプレイユニット12に表示させることができる。カメラモジュール20によって撮像される動画像データを構成するフレーム画像のフレームレートは、例えば、15フレーム/秒である。カメラモジュール20は、外付けカメラであっても、コンピュータ10の内蔵カメラであっても良い。
副プロセッサ118は、カメラモジュール20から取得した動画像データの処理等を行う。
図3は、本実施形態にかかるコンピュータの機能構成の一部を示すブロック図である。本実施形態にかかるコンピュータ10は、CPU111が主メモリ112に格納されたオペレーティングシステムおよびアプリケーションプログラムを実行することにより、画像取得部301、検出部302、操作判定部303、および操作実行部304等を実現する。
画像取得部301は、カメラモジュール20により撮像された動画像データを取得してHDD117等に記憶させる。
検出部302は、入力された動画像データ(画像取得部301により取得された動画像データ)に基づく動画像に含まれる顔画像の位置に従って当該動画像を構成するフレーム画像に対して検出領域を設定して、当該検出領域においてコンピュータ10の操作者の操作指示の動きである第一の動きを検出するとともに、当該動画像における顔画像の動きである第二の動きに起因して第一の動きとして検出される動きの成分が相殺されるよう当該第一の動きを補正する。本実施形態では、検出部302は、顔検出・追跡部311、検出領域設定部312、禁止判定部313、動き検出部314、履歴取得部315、および第二の動き検出部316等を備えている。
操作判定部303は、検出部302により検出(または補正)した第一の動きによる操作指示を表す操作データを出力する出力部として機能する。操作実行部304は、操作判定部303により出力された操作データに従って操作対象機器(例えば、ディスプレイユニット12、スピーカ18A,18B、外部ディスプレイなど)を制御する。
次に、図4〜13を用いて、本実施形態にかかるコンピュータ10において操作データを出力する処理の流れについて説明する。図4は、本実施形態にかかるコンピュータにおいて操作データを出力する処理の流れを示すフローチャートである。
パワーボタン19が操作されてコンピュータ10の電源がオンされている間、画像取得部301は、カメラモジュール20により撮像された動画像データを取得する(ステップS401)。本実施形態では、画像取得部301は、カメラモジュール20により所定のフレームレートで撮像されたフレーム画像から、予め設定されたサンプリングレートでフレーム画像をサンプリングすることにより、動画像データを取得する。言い換えると、画像取得部301は、フレーム画像を連続的にサンプリングすることにより、動画像データを取得する。なお、取得された動画像データには、コンピュータ10の操作者の顔の画像(以下、顔画像とする)が含まれることがある。
画像取得部301により動画像データが取得されると、顔検出・追跡部311は、取得された動画像データに基づく動画像から顔画像を検出するとともに、検出した顔画像を追跡する(ステップS402)。ここで、追跡とは、取得した動画像データを構成するフレーム画像間において、同一の操作者の顔画像を検出し続けることを意味している。
具体的には、顔検出・追跡部311は、図5に示すように、SIFT(Scale-Invariant Feature Transform)、SURF(Speeded Up Robust Features)等を用いて、取得された動画像データに基づく動画像を構成するフレーム画像501内における、顔画像502および顔以外の画像503を判別する。これにより、顔検出・追跡部311は、顔画像502の検出を行う。
次いで、顔検出・追跡部311は、KLT(Kanade Lucas Tomasi)等の特徴点を追跡するトラッキング手法等を用いたSLAM(Simultaneous Localization And Mapping)(PTAM:Parallel Tracking And Mappingの一例)等を用いて、取得された動画像データに基づく動画像を構成するフレーム画像501に含まれる顔画像502から、複数(例えば、鼻、左眼、および右眼の3つ)の特徴点を検出する。その際、顔検出・追跡部311は、フレーム画像501に含まれる顔画像502の特徴点のうち、当該フレーム画像501よりも前に撮像されたフレーム画像に含まれる顔画像502の特徴点と同じ特徴点を検出する。これにより、顔検出・追跡部311は、検出した顔画像502の追跡を行う。
また、顔検出・追跡部311は、取得した動画像データに基づく動画像を構成するフレーム画像501に含まれる顔画像のうち、カメラモジュール20に対して正面を向いている顔の顔画像502を検出する。本実施形態では、顔検出・追跡部311は、取得した動画像データに基づく動画像を構成するフレーム画像501に含まれる顔画像のうち、両目が含まれている顔画像や耳が含まれていない顔画像を、正面を向いている顔の顔画像502として検出する。つまり、コンピュータ10を操作する意思のある操作者はディスプレイユニット12に対して正対していると考えられる。そのため、カメラモジュール20に対して正面を向いている顔の顔画像502を検出することにより、コンピュータ10を操作する意思のある操作者の顔画像502のみを検出することができる。また、操作者がディスプレイユニット12に正対していることをトリガにして、以後の処理が行われるため、ジェスチャー等により操作指示を行なう際の余分な操作を省くことができる。
図4に戻り、検出領域設定部312は、顔検出・追跡部311による顔画像の追跡が成功したか否かを判断する(ステップS403)。検出領域設定部312は、顔検出・追跡部311による顔画像の追跡が所定時間(本実施形態では、1s以下)継続して行われた場合に、顔画像の追跡が成功したと判断する。顔画像の追跡が成功していない場合(ステップS403:No)、検出領域設定部312は、顔検出・追跡部311による顔画像の追跡が成功するまで待つ。
顔画像の追跡に成功した場合(ステップS403:Yes)、検出領域設定部312は、取得された動画像データに基づく動画像に含まれる顔画像の位置を検出する(ステップS404)。本実施形態では、検出領域設定部312は、図5に示すように、動画像データを構成するフレーム画像501の左上の角を原点(0,0)とする予め設定された座標系(以下、XY座標系とする)における、顔検出・追跡部311により検出した顔画像502の中心位置(本実施形態では、鼻の位置)の位置座標(X1,Y1)を、顔画像502の位置として検出する。また、検出領域設定部312は、取得された動画像データに基づく動画像に複数の顔画像が含まれる場合、当該複数の顔画像の位置を検出する。
また、検出領域設定部312は、取得された動画像データに基づく動画像に含まれる顔画像の上下方向に延びる軸(以下、顔画像の軸とする)の傾きを検出する。本実施形態では、検出領域設定部312は、XY座標系における、顔画像の軸の傾き(角度θ)を、顔画像の傾きとして検出する。具体的には、検出領域設定部312は、顔画像の上下方向に延びかつ顔画像が左右対称となる対称軸を通る軸を顔画像の軸とみなし、XY座標系における、当該顔画像の軸の傾きを顔画像の傾きとして検出する。または、検出領域設定部312は、顔画像の特徴点として検出した鼻、左眼、および右眼を結んだ三角形において、鼻の特徴点から、左眼の特徴点と右眼の特徴点とを結ぶ線分に下ろした垂線を、顔画像の軸とみなし、XY座標系における、当該顔画像の軸の傾きを顔画像の傾きとして検出しても良い。
図4に戻り、検出領域設定部312は、ディスプレイユニット12に表示している表示データに応じて、XY座標系を基準にして操作者の操作指示の第一の動きを検出する第一のモードおよび顔画像の軸を座標軸とする座標系(以下、xy座標系とする)を基準にして操作者の操作指示の第一の動きを検出する第二のモードのうちいずれか一方のモードに切り換える(ステップS405)。ここで、xy座標系は、顔画像502の軸をy軸とし、当該y軸に予め設定された位置で直交するx軸とする座標系である。本実施形態では、xy座標系は、顔画像502の軸をy軸とし、顔画像502の中心位置(位置座標(X1,Y1))でy軸に直交するx軸とからなる座標系である。
本実施形態では、検出領域設定部312は、スクロール可能なウィンドウなど、ディスプレイユニット12を基準にした方が操作指示を行いやすい表示データがディスプレイユニット12に表示されている場合には、第一のモードに切り換える。一方、検出領域設定部312は、チャンネル番号の選局やスピーカ18A,18Bから出力される音の音量に関わる表示画面など、操作者を基準にした方が操作指示を行いやすい表示データがディスプレイユニット12に表示されている場合には、第二のモードに切り換える。
また、検出領域設定部312は、ステップS404において顔画像の位置が検出されてから所定時間経過したか否かを判断する(ステップS411)。そして、顔画像の位置が検出されてから所定時間経過していない場合(ステップS411:No)、検出領域設定部312は、検出された顔画像の位置を用いた検出領域の設定を行わず、前回検出された顔画像の位置に従って設定した検出領域の位置を保持する。これにより、検出された顔画像の位置が移動した場合に、顔画像の位置の移動と同時に検出領域が移動して、検出領域の位置が把握できなくなることを防止できる。
本実施形態では、検出領域設定部312は、前回検出した顔画像の位置を記憶しておくものとする。そして、検出領域設定部312は、ステップS404において検出した顔画像の位置と、記憶している顔画像の位置と、を比較して、顔画像の位置が第二の所定時間以内に所定距離以上移動した場合に、顔画像の位置が検出されてから所定時間経過したか否かを判断する。そして、顔画像の位置が検出されてから所定時間経過していない場合には、検出領域設定部312は、検出領域の位置を保持する。これにより、操作者が椅子から立ち上がった場合や操作者が横になった場合等、顔画像の位置が短い時間で大きく移動した場合に、顔画像の位置が検出されてから遅れて検出領域を移動させることができるので、検出領域の位置が把握できなくなることを防止できる。なお、顔画像の位置の移動が小さい場合や顔画像の位置の移動の速度が遅い場合には、顔画像の位置の移動と同時に検出領域を設定しても、検出領域が大きく移動することはないので、顔画像の位置の移動と同時に検出領域の設定を行うものとする。
また、本実施形態では、検出領域設定部312は、顔画像の位置が検出されてから所定時間、検出領域の位置を保持しているが、例えば、顔画像の位置を検出する周期よりも長い周期で検出領域の位置を設定することにより、検出領域の位置の移動を、顔画像の位置の移動よりも遅らせることができるので、顔画像の位置が短い時間に大きく移動した場合に、検出領域の位置が把握できなくなることを防止できる。
顔画像の位置が検出されてから所定時間経過すると(ステップS411:Yes)、検出領域設定部312は、検出した顔画像の位置に従って、動画像を構成するフレーム画像に対して検出領域を設定する(ステップS406)。ここで、検出領域とは、操作者の操作指示(例えば、ウィンドウに表示されたコンテンツ(例えば、テキスト、絵、画像など)のスクロール、チャンネル番号の選局、音量の変更など)の動きである第一の動き(操作者の操作指示の手の動き、操作者の操作指示による物の動きを含む)を検出する領域である。また、検出領域設定部312は、取得された動画像データに基づく動画像に複数の顔画像が含まれている場合、複数の顔画像の位置に従って、動画像を構成するフレーム画像に対して複数の検出領域を設定する。
本実施形態では、検出領域設定部312は、図5に示すように、顔画像502の位置(X1,Y1)および顔画像502の軸の傾きに従って、操作者の操作指示の手505の動きである第一の動き506を検出する検出領域504に設定する。具体的には、検出領域設定部312は、顔画像502の軸の方向において、顔画像502の位置座標(X1,Y1)よりも下方に位置する領域を、第一の動き506を検出する検出領域504に設定する。これにより、操作者の位置を基準にして検出領域504が設定されるので、操作者にとって分かりやすい位置を検出領域504とすることができる。また、検出領域504の位置を報知する処理など、操作者に対して複雑な情報を報知する必要がなく、検出領域504の位置の報知に必要なコストや、操作者が検出領域504の位置を確認する手間を低減することができる。
より具体的には、検出領域設定部312は、図6に示すように、顔画像502の位置座標(X1,Y1)を原点とするxy座標において、顔画像502の位置座標(X1,Y1)を、下方(y軸方向)に移動させた位置座標(x1,y1)を検出領域504の中心位置として求める。言い換えると、図6のように操作者の顔画像502が傾いていない場合(操作者の上半身が立っている場合)、検出領域設定部312は、XY座標系において、顔画像502の位置座標(X1,Y1)を、予め設定された移動量(ΔX=0,ΔY)移動させた位置座標(x1,y1)を検出領域504の中心位置として求める。また、検出領域設定部312は、顔画像502の大きさr(例えば、顔画像502を円と仮定した場合における半径)を検出する。そして、検出領域設定部312は、xy座標系において、位置座標(x1,y1)からx軸方向にr・S1離れかつy軸に平行な向かい合う2辺504aと、位置座標(x1,y1)からy軸方向のr・S2離れかつx軸に平行な向かい合う2辺504bと、を有する矩形状の領域を、検出領域504に設定する。ここで、S1,S2は、位置座標(x1,y1)を中心位置とする検出領域504が矩形状の領域となるように予め設定された定数である。本実施形態では、S1,S2は、コンピュータ10を操作する操作者によらず所定の値であるものとするが、これに限定するものではなく、コンピュータ10の操作者毎に異なる値としても良い。
コンピュータ10の操作者が横になっている場合等、顔画像502の軸がXY座標系において角度θ傾いている場合も、検出領域設定部312は、同様に検出領域504を設定する。検出領域設定部312は、図7に示すように、顔画像502の位置座標(X1,Y1)を原点としかつXY座標系に対して角度θ傾いたxy座標系において、顔画像502の位置座標(X1,Y1)を、下方(y軸方向)に移動させた位置座標(x1,y1)を検出領域504の中心位置として求める。言い換えると、図7のように操作者の顔画像502が角度θ傾いている場合、検出領域設定部312は、XY座標系において、顔画像502の位置座標(X1,Y1)を、角度θ毎に予め設定された移動量(ΔX,ΔY)移動させた位置座標(x1,y1)を検出領域504の中心位置として求める。また、検出領域設定部312は、顔画像502の大きさrを検出する。そして、検出領域設定部312は、位置座標(x1,y1)からx軸方向にr・S1離れかつy軸に平行な向かい合う2辺504aと、位置座標(x1,y1)からy軸方向にr・S2離れかつx軸に平行な向かい合う2辺504bと、を有する矩形状の領域を、検出領域504に設定する。このように、操作者が横になっている場合等、顔画像502がXY座標系において角度θ傾いている場合に、XY座標系に対して角度θ傾いたxy座標系のy軸方向において、顔画像502よりも下方に位置する所定領域を検出領域504に設定することにより、操作者が横になっている場合等にも、操作者の上半身が立っている場合と同様の動きにより操作指示を行うことができる。
本実施形態では、検出領域設定部312は、矩形状の領域を検出領域504に設定しているが、顔画像502の位置に従って設定した領域であれば、形状を限定するものではない。例えば、検出領域設定部312は、図8に示すように、円弧状に湾曲した領域を検出領域504に設定しても良い。具体的には、検出領域設定部312は、コンピュータ10の操作者が自身の顔よりも下の位置で肘を中心として腕を回動させた場合に手が描く軌跡に沿った領域(円弧状に湾曲した領域)を、検出領域504に設定するものとする。その際、円弧状に湾曲した領域の弧の半径は、コンピュータ10の操作者毎に変更可能としても良い。例えば、コンピュータ10は、当該コンピュータ10にログインする操作者の操作者IDに対応付けて、検出領域504の弧の半径を記憶しておく。そして、検出領域設定部312は、コンピュータ10に操作者がログインした際に、ログインした操作者の操作者IDと対応付けて記憶された弧の半径を読み出し、読み出した弧の半径を有する弧に沿った領域を検出領域504に設定する。
図4に戻り、第二の動き検出部316は、検出領域設定部312により設定された検出領域において検出される第一の動きの補正に用いられ、取得された動画像データに基づく動画像における顔画像の動きである第二の動きを検出する(ステップS412)。本実施形態では、第二の動き検出部316は、図9に示すように、前回検出された顔画像502Aの中心位置(位置座標(X1,Y1)と、ステップS404で検出された顔画像502Bの中心位置(位置座標(X1´,Y1´)と、の距離を、第二の動き507として検出する。
図4に戻り、動き検出部314は、設定した検出領域において第一の動きを検出するとともに、検出した第一の動きを補正する(ステップS407)。また、動き検出部314は、検出領域設定部312により複数の検出領域が設定された場合、複数の検出領域において動きを検出する。本実施形態では、動き検出部314は、図5に示すように、画像取得部301により取得された動画像データに基づく動画像を構成するフレーム画像501の検出領域504における第一の動き506を検出する。また、動き検出部314は、検出領域設定部312により切り換えられたモード(第一のモードまたは第二のモード)に従って、検出領域504において第一の動き506を検出する。
具体的には、動き検出部314は、取得された動画像データに基づく動画像を構成するフレーム画像501のうち、最後のフレーム画像が撮像された時刻tと当該時刻tから所定時間(例えば、10フレーム分の時間)前の時刻t−1との間のフレーム画像501を抽出する。
次いで、動き検出部314は、抽出したフレーム画像501に含まれる検出領域504から、手505の第一の動き506を検出する。図10に示す例は、時刻t−1から時刻tまでの間に、検出領域504に含まれる手505が、点線で示す位置P1から実線で示す位置P2に移動した例である。具体的には、動き検出部314は、時刻tの検出領域504に含まれる手505を含む少なくとも1つの部分画像701、および時刻t−1の検出領域504に含まれる手505の少なくとも1つの部分画像702を抽出する。そして、動き検出部314は、部分画像701,702に含まれる手505を構成する少なくとも1つの画素Gの、時刻tと時刻t−1間における移動を、第一の動き506として検出する。その際、動き検出部314は、検出領域設定部312により第一のモードに切り換えられている場合には、XY座標系を基準にして、画素Gの移動を検出する。一方、動き検出部314は、検出領域設定部312により第二のモードに切り換えられている場合には、xy座標系を基準にして、画素Gの移動を検出する。
本実施形態では、動き検出部314は、図10に示す例において、手505の動きを第一の動き506として検出しているが、操作者の操作指示の動きを検出するものであれば、これに限定するものではない。例えば、動き検出部314は、操作者の操作指示による物(操作者が手に持つ物)の動きを第一の動き506として検出しても良い。さらに、動き検出部314は、検出領域設定部312により複数の検出領域が設定された場合、複数の検出領域においてそれぞれ動きを検出するものとする。
また、動き検出部314は、図11に示すように、検出領域504内での手505の動きに加えて、当該検出領域504の近傍の手505hの動きを第一の動き506として検出しても良い。ただし、検出した第一の動き506から操作者による操作指示を判定する際には、検出領域504において検出された手505の動きのみを用いるものとする。
また、動き検出部314は、検出領域504における第一の動き506のうち、予め設定された速度よりも速い速度で動く動きや、操作指示を意図しない動き(本実施形態では、X軸またはY軸に沿って手505を移動させる動きおよびx軸またはy軸に沿って手505を移動させる動き以外の動き)を検出せず、確実に検出することができる動きのみを第一の動き506として検出しても良い。これにより、より確実に操作指示の動きの検出を行うことができる。
以上のようにして第一の動き506を検出すると、動き検出部314は、ステップS412により検出された第二の動きに起因して第一の動きとして検出された動きの成分が相殺されるよう当該第一の動きを補正する。具体的には、動き検出部314は、図9に示すように、検出された第一の動き506(検出領域504における手505の移動距離)から、第二の動き507に起因する手505の動き506Sを減算することにより、第一の動き506を補正する。ここで、第二の動き507に起因する手505の動き506Sは、XY座標系における、顔画像502Aの中心位置と顔画像502Bの中心位置との間の距離である。これにより、操作者が椅子から立ち上がった際や操作者が横になった際などに、操作者が操作指示を行うことを意図しないで操作指示を表す動きと同様の動きを行ってしまい、第一の動き506が検出されたとしても、第二の動き507に起因する動き成分を取り除くことができるので、意図しない手505の動きを操作指示の第一の動き506として検出されることを防止できる。また、操作者が椅子から立ち上がった際や操作者が横になった際に、操作指示を表す動きが行われ顔の動き(第二の動き507)と手505の動き(第一の動き506)が重なったとしても、第二の動き507に起因する動き成分が取り除かれるので、操作者の操作指示の第一の動き506のみを検出することができる。
図4に戻り、履歴取得部315は、動き検出部314により補正された第一の動きの履歴を取得する(ステップS408)。
次いで、禁止判定部313は、操作判定部303により操作データが最後に出力されてから操作指示を禁止する禁止期間が経過したか否かを判定する(ステップS409)。ここで、禁止期間とは、操作者による操作指示を禁止する期間であり、コンピュータ10の操作者が任意に設定できる。禁止判定部313は、禁止期間が経過していない場合(ステップS409:No)、禁止期間が経過するまで待機する。これにより、操作者が操作指示を行なった直後に他の操作者が操作指示を行なうことで、先に操作指示を行なった操作者による操作指示が、他の操作者が行なった操作指示によって相殺されてしまうことを防止できる。また、操作者が同じ動きによる操作指示を連続して行なった場合(例えば、手505を上から下へ移動させる動きを連続して行なった場合)、手505を上から下へと移動させる動きを行なった後、手505を元の位置に戻す際に、手505を元の位置に戻す動きが検出されて、当該手505を元の位置に戻す動きによって、手505を上から下へと移動させる動きが相殺されることを防止できる。
また、禁止判定部313は、禁止期間が経過した後、操作指示が可能であることを報知する。本実施形態では、禁止判定部313は、操作指示が可能である場合、操作指示が可能であることを示すメッセージをディスプレイユニット12に表示するなど、ディスプレイユニット12の表示態様を変えることにより、操作指示が可能であることを報知する。なお、本実施形態では、禁止判定部313は、ディスプレイユニット12の表示態様を変えることにより操作指示が可能であることを報知しているが、これに限定するものではなく、例えば、図示しないLEDインジケータやスピーカ18A,18Bを用いて、操作指示が可能であることを報知しても良い。
禁止期間が経過したと判定された場合(ステップS409:Yes)、操作判定部303は、履歴取得部315により取得された動きの履歴から、検出した動きによる操作指示を表す操作データを出力する(ステップS410)。本実施形態では、操作判定部303は、履歴取得部315により取得された動きが、XY座標系(またはxy座標系)において、上下または左右に移動する動きである場合に、当該取得された動きによる操作指示を表す操作データを出力する出力部として機能する。
具体的には、検出領域設定部312により第一のモードに切り換えられ、履歴取得部315により取得された第一の動き506が、図12(a)に示すように検出領域504を右から左に移動する動き(XY座標系のX軸に対して略平行に、プラス側からマイナス側へと移動する動き)である場合、操作判定部303は、ディスプレイユニット12のウィンドウに表示された画像を右側にスクロールする操作指示を表す操作データを出力する。
また、検出領域設定部312により第一のモードに切り換えられ、履歴取得部315により取得された第一の動き506が、図12(b)に示すように検出領域504を左から右に移動する動き(XY座標系のX軸に対して略平行に、マイナス側からプラス側へと移動する動き)である場合、操作判定部303は、ディスプレイユニット12のウィンドウに表示された画像を左側にスクロールする操作指示を表す操作データを出力する。
また、検出領域設定部312により第一のモードに切り換えられ、履歴取得部315により取得された第一の動き506が、図12(c)に示すように検出領域504を上から下に移動する動き(XY座標系のY軸に対して略平行に、マイナス側からプラス側へと移動する動き)である場合、操作判定部303は、ディスプレイユニット12のウィンドウに表示された画像を下側にスクロールさせる操作指示を表す操作データを出力する。
また、検出領域設定部312により第一のモードに切り換えられ、履歴取得部315により取得された第一の動き506が、図12(d)に示すように検出領域504を下から上に移動する動き(XY座標系のY軸に対して略平行に、プラス側からマイナス側へと移動する動き)である場合、操作判定部303は、ディスプレイユニット12のウィンドウに表示された画像を上側にスクロールさせる操作指示を表す操作データを出力する。
また、検出領域設定部312により第二のモードに切り換えられ、履歴取得部315により取得された第一の動き506が、図13(a)に示すように検出領域504を右から左に移動する動き(xy座標系のx軸に対して略平行に、プラス側からマイナス側へと移動する動き)である場合、操作判定部303は、ディスプレイユニット12に表示されている放送データのチャンネル番号の選局を増加する操作指示を表す操作データを出力する。
また、検出領域設定部312により第二のモードに切り換えられ、履歴取得部315により取得された第一の動き506が、図13(b)に示すように検出領域504を左から右に移動する動き(xy座標系のx軸に対して略平行に、マイナス側からプラス側へと移動する動き)である場合、操作判定部303は、ディスプレイユニット12に表示されている放送データのチャンネル番号の選局を減らす操作指示を表す操作データを出力する。
また、検出領域設定部312により第二のモードに切り換えられ、履歴取得部315により取得された第一の動き506が、図13(c)に示すように検出領域504を上から下に移動する動き(xy座標系のy軸に対して略平行に、マイナス側からプラス側へと移動する動き)である場合、操作判定部303は、ディスプレイユニット12に表示されている放送データに関わりかつスピーカ18A,18Bから出力される音声の音量を下げる操作指示を表す操作データを出力する。
また、検出領域設定部312により第二のモードに切り換えられ、履歴取得部315により取得された第一の動き506が、図13(d)に示すように検出領域504を下から上に移動する動き(xy座標系のy軸に対して略平行に、プラス側からマイナス側へと移動する動き)である場合、操作判定部303は、ディスプレイユニット12に表示されている放送データに関わりかつスピーカ18A,18Bから出力される音声の音量を上げる操作指示を表す操作データを出力する。
また、操作判定部303は、動き検出部314により複数の検出領域において動きが検出された場合、複数の検出領域において検出した動きによる操作指示に基づく操作データを出力するものとする。例えば、操作判定部303は、複数の検出領域において検出された動きを蓄積する。
そして、操作判定部303は、蓄積した動きが同一の操作指示に対応する動きである場合には、蓄積した動きによる操作指示を表す操作データを出力する。例えば、ディスプレイユニット12に表示されている放送データのチャンネル番号を増加する操作指示に対応する動きが略同時に検出された場合、放送データのチャンネル番号を減らす操作指示を表す操作データを出力する。
一方、操作判定部303は、蓄積した動きが、互いに打ち消しあう操作指示に対応する動きである場合には、操作データを出力しない。例えば、スピーカ18A,18Bから出力される音量を上げる操作指示に対応する動きと、スピーカ18A,18Bから出力される音量を下げる操作指示に対応する動きと、が略同時に検出された場合に、操作データを出力しない。
図4に戻り、操作判定部303から操作データが出力されると、操作実行部304は、出力された操作データに従って操作対象機器(例えば、ディスプレイユニット12など)を制御する。
なお、複数のウィンドウをディスプレイユニット12に表示可能なコンピュータ10においては、操作者が視聴しているウィンドウ(表示データ)と同時に、入力された動画像データに基づく顔画像を含む動画像に検出領域を重ねた画像が表示されたウィンドウをディスプレイユニット12に表示しても良い。これにより、コンピュータ10の操作者は、動画像に含まれる顔画像および検出領域が表示されたウィンドウを見ることにより、どの位置で操作指示の動きを行えば操作指示を行なえるのかを容易に把握することができる。
このように本実施形態にかかるコンピュータ10によれば、入力された動画像データに基づく動画像に含まれる顔画像の位置に従って当該動画像を構成するフレーム画像に対して検出領域を設定して、当該検出領域において、操作者の操作指示の動きである第一の動きを検出し、動画像における顔画像の動きである第二の動きに起因して第一の動きとして検出される動きの成分が相殺されるよう当該第一の動きを補正し、補正した第一の動きによる操作指示を表す操作データを出力することにより、操作者が椅子から立ち上がった場合など、操作指示を行うことを意図せずに操作指示の動きと同様の動きを行ってしまった場合に、当該動きを操作指示の動きとして検出することを防止できるので、ジェスチャーによる操作対象機器の操作精度を向上させることができる。また、操作者の操作指示の動きを検出する領域を操作者が容易に認識できるので、ジェスチャーによるコンピュータ10の操作精度を向上させることができる。
本実施形態のコンピュータ10で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供されても良い。
また、本実施形態のコンピュータ10で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態のコンピュータ10で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。
また、本実施形態のプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
本発明の実施形態を説明したが、この実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10 コンピュータ
111 CPU
112 主メモリ
302 検出部
303 操作判定部
311 顔検出・追跡部
312 検出領域設定部
314 動き検出部
315 履歴取得部
316 第二の動き検出部

Claims (6)

  1. 入力された動画像データに基づく動画像に含まれる顔画像の位置に従って前記動画像を構成するフレーム画像に対して検出領域を設定して、前記検出領域において操作者の操作指示の動きである第一の動きを検出するとともに、前記動画像における前記顔画像の動きである第二の動きに起因して前記第一の動きとして検出される動きの成分が相殺されるよう前記第一の動きを補正する検出部と、
    前記検出部により補正した前記第一の動きによる前記操作指示を表す操作データを出力する出力部と、
    を備えた情報処理装置。
  2. 前記検出部は、前記顔画像の位置が移動してから所定時間、移動前の前記顔画像の位置に従って設定された前記検出領域の位置を保持する請求項1に記載の情報処理装置。
  3. 前記検出部は、前記顔画像の位置が所定時間以内に所定距離以上移動した場合に、前記顔画像の位置が移動してから前記所定時間、移動前の前記顔画像の位置に従って設定された前記検出領域の位置を保持する請求項2に記載の情報処理装置。
  4. 前記検出部は、前記第二の動きを検出する周期よりも長い時間、前記検出領域の位置を保持する請求項1に記載の情報処理装置。
  5. 情報処理装置で実行される情報処理方法であって、
    検出部が、入力された動画像データに基づく動画像に含まれる顔画像の位置に従って前記動画像を構成するフレーム画像に対して検出領域を設定して、前記検出領域において操作者の操作指示の動きである第一の動きを検出するとともに、前記動画像における前記顔画像の動きである第二の動きに起因して前記第一の動きとして検出される動きの成分が相殺されるよう前記第一の動きを補正する工程と、
    出力部が、前記検出部により補正した前記第一の動きによる前記操作指示を表す操作データを出力する工程と、
    を含む情報処理方法。
  6. コンピュータを、
    入力された動画像データに基づく動画像に含まれる顔画像の位置に従って前記動画像を構成するフレーム画像に対して検出領域を設定して、前記検出領域において操作者の操作指示の動きである第一の動きを検出するとともに、前記動画像における前記顔画像の動きである第二の動きに起因して前記第一の動きとして検出される動きの成分が相殺されるよう前記第一の動きを補正する検出部と、
    前記検出部により補正した前記第一の動きによる前記操作指示を表す操作データを出力する出力部と、
    として機能させるためのプログラム。
JP2012117943A 2012-05-23 2012-05-23 情報処理装置、情報処理方法、およびプログラム Pending JP2013246516A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012117943A JP2013246516A (ja) 2012-05-23 2012-05-23 情報処理装置、情報処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012117943A JP2013246516A (ja) 2012-05-23 2012-05-23 情報処理装置、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2013246516A true JP2013246516A (ja) 2013-12-09

Family

ID=49846262

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012117943A Pending JP2013246516A (ja) 2012-05-23 2012-05-23 情報処理装置、情報処理方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP2013246516A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018042751A1 (ja) * 2016-09-01 2018-03-08 三菱電機株式会社 ジェスチャー判定装置、ジェスチャー操作装置、及びジェスチャー判定方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018042751A1 (ja) * 2016-09-01 2018-03-08 三菱電機株式会社 ジェスチャー判定装置、ジェスチャー操作装置、及びジェスチャー判定方法
JPWO2018042751A1 (ja) * 2016-09-01 2018-12-27 三菱電機株式会社 ジェスチャー判定装置、ジェスチャー操作装置、及びジェスチャー判定方法

Similar Documents

Publication Publication Date Title
KR102121592B1 (ko) 시력 보호 방법 및 장치
US10346027B2 (en) Information processing apparatus, information processing method, and program
US9690475B2 (en) Information processing apparatus, information processing method, and program
JP5713959B2 (ja) 電子機器、方法、およびプログラム
JP7005161B2 (ja) 電子機器及びその制御方法
US9535604B2 (en) Display device, method for controlling display, and recording medium
US10979700B2 (en) Display control apparatus and control method
US11023050B2 (en) Display control device, display control method, and computer program
JP2012256101A (ja) 情報処理装置、情報処理方法およびプログラム
US10768710B2 (en) Information processing device, information processing method, and program
JP5075975B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20180059811A1 (en) Display control device, display control method, and recording medium
US20200035208A1 (en) Electronic device and control method thereof
JP2013246516A (ja) 情報処理装置、情報処理方法、およびプログラム
JP5229928B1 (ja) 注視位置特定装置、および注視位置特定プログラム
CN111352524A (zh) 信息输入装置
JP2013246515A (ja) 情報処理装置、情報処理方法、およびプログラム
JP6686319B2 (ja) 画像投影装置及び画像表示システム
JP2018180050A (ja) 電子機器及びその制御方法
JP2012234574A (ja) 情報処理装置、情報処理方法及びプログラム
JP5659303B1 (ja) 機器制御方法、機器制御装置、プログラムおよび電子機器
US20220244899A1 (en) Display system that displays virtual object, display device and method of controlling same, and storage medium
US11036287B2 (en) Electronic device, control method for electronic device, and non-transitory computer readable medium
US20130057564A1 (en) Image processing apparatus, image processing method, and image processing program
JP2018063523A (ja) 表示制御システムおよび表示制御プログラム