JP2014049023A - 入力装置 - Google Patents
入力装置 Download PDFInfo
- Publication number
- JP2014049023A JP2014049023A JP2012193193A JP2012193193A JP2014049023A JP 2014049023 A JP2014049023 A JP 2014049023A JP 2012193193 A JP2012193193 A JP 2012193193A JP 2012193193 A JP2012193193 A JP 2012193193A JP 2014049023 A JP2014049023 A JP 2014049023A
- Authority
- JP
- Japan
- Prior art keywords
- face
- touch panel
- user
- coordinate position
- touch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
Abstract
【課題】ユーザの視点に応じて適切なタッチ入力を行うことができる入力装置を提供する。
【解決手段】入力装置1は、ユーザを撮影するカメラ2と、カメラ2により撮影された画像データからユーザの顔を検出する顔検出部3と、タッチ入力するためのタッチパネル4と、タッチパネル4を一体的に設けた液晶ディスプレイなどの表示部5と、タッチパネル4上でタッチされた座標位置を検出する座標位置検出部6と、タッチパネル4に対する顔検出部3で検出されたユーザの顔の位置を判定し、判定結果に基づいて、座標位置検出部6で検出された座標位置を補正する座標位置補正部7とを備える。
【選択図】図1
【解決手段】入力装置1は、ユーザを撮影するカメラ2と、カメラ2により撮影された画像データからユーザの顔を検出する顔検出部3と、タッチ入力するためのタッチパネル4と、タッチパネル4を一体的に設けた液晶ディスプレイなどの表示部5と、タッチパネル4上でタッチされた座標位置を検出する座標位置検出部6と、タッチパネル4に対する顔検出部3で検出されたユーザの顔の位置を判定し、判定結果に基づいて、座標位置検出部6で検出された座標位置を補正する座標位置補正部7とを備える。
【選択図】図1
Description
本発明は、入力装置に関し、より詳細には、タッチパネルを介して情報を入力するための入力装置に関する。
現在の携帯端末装置は、高機能・多機能になってきており、特にスマートフォン・タブレット端末(以下、スマートフォンという)と呼ばれるものはタッチパネルを利用するものが主流を占めている。タッチパネル型の場合、端末起動時にアイコンが画面上に並べられており、そのアイコンをタッチすることで所望の処理を行えるようなUI(ユーザインタフェース)が採用されていることが多い。
上記のタッチパネル上に指先やスタイラスペンなどを接触させた場合、掌の大きさや視野角度に個人差があるため、指先やスタイラスペンなどがタッチパネルに表示されたアイコンの適切な位置に接触していない場合がある。このような場合に、うまくアイコンを選択できない虞がある。
これに対して、例えば、特許文献1には、タッチパネルに対する物体(指先など)の接触位置を適切にし得る技術が記載されている。これによれば、入力位置を認識させるための画像を表示する表示装置と、表示装置の表示面に沿って設けられた接触検出面に接触する物体の位置を検出する接触位置検出部と、接触位置検出部によって検出された位置と入力位置を認識させるための画像の中心位置との差を表すデータを記録する記録部と、記録部に記録されるデータに基づいて、表示装置に表示する入力位置を認識させるための画像の修正量を求める演算部とを備える。
ここで、スマートフォンのような携帯端末装置では、文字入力の際にタッチパネルの画面上にキーエリアが表示され、比較的正確なタッチ操作が要求される。しかしながら、ユーザ(操作者)は通常スマートフォンを手に持ちながら操作を行うため、操作パネル(タッチパネル)に対して操作するときの視点は色々な状態に変化する。例えば、タッチパネルに対して真正面の視点から操作している場合は、ユーザは目標とするタッチ位置に向けて、正確なタッチ操作を容易に行えると考えられる。しかし、タッチパネルに対して左側などの視点から操作している場合では、目標とするタッチ位置に向けて指の先部分をタッチしようとしても、指の腹部分が触れてしまい、目標とするタッチ位置とは異なる位置への操作となる場合がよくある。ここで、操作するときの視点が一定となるのであれば、指の形状を考慮して所定量を補正する事も考えられるが、スマートフォンの場合には、操作するときの視点が色々と変化するため、たとえ同じタッチ位置であったとしても、その時の視点により目標としていたタッチ位置が異なると考えられる。つまり、スマートフォンのような携帯端末装置における正確なタッチ操作は、操作するときの視点によって困難な場合があるという問題がある。
これに対して、特許文献1に記載の技術は、タッチパネル上で検出されたタッチ位置と、キー画像の中心位置との差を表すデータに基づいて、キー画像の修正量を求めるもので、上記のようにユーザの視点が変化する事に着目したものではない。従って、特許文献1に記載の技術では、上記のような問題を解決することはできない。
本発明は、上述のような実情に鑑みてなされたもので、ユーザの視点に応じて適切なタッチ入力を行うことができる入力装置を提供することを目的とする。
上記課題を解決するために、本発明の第1の技術手段は、タッチパネルを一体的に設けた表示部を備え、前記タッチパネルを介して前記表示部に表示されている情報を入力する入力装置であって、ユーザを撮影する撮影部と、該撮影部により撮影された画像データからユーザの顔を検出する顔検出部と、前記タッチパネル上でタッチされた座標位置を検出する座標位置検出部と、前記タッチパネルに対する前記顔検出部で検出されたユーザの顔の位置を判定し、判定結果に基づいて、前記座標位置検出部で検出された座標位置を補正する座標位置補正部とを備えたことを特徴としたものである。
第2の技術手段は、第1の技術手段において、前記撮影部は、所定の操作入力モードの起動に応じて起動され、自動的にユーザを撮影することを特徴としたものである。
第3の技術手段は、第1または第2の技術手段において、前記座標位置補正部は、前記顔検出部で検出されたユーザの顔が、前記タッチパネルに対して、上側、下側、右側、左側、正面のいずれの位置にあるかを判定することを特徴としたものである。
第4の技術手段は、第3の技術手段において、前記座標位置補正部は、前記顔検出部で検出された前記画像データ上のユーザの顔の位置を表す座標位置と、前記座標位置検出部で検出された前記タッチパネル上でタッチされた座標位置と、前記タッチパネルのサイズと、前記タッチパネルからユーザの顔までの距離とに基づいて、前記タッチパネル上でタッチされた座標位置を補正することを特徴としたものである。
第5の技術手段は、第4の技術手段において、前記タッチパネルからユーザの顔までの距離は、前記顔検出部で検出されたユーザの顔のサイズに応じて算出され、前記タッチパネルのサイズは、前記距離に応じて画素数に換算されたものであることを特徴としたものである。
本発明によれば、ユーザの顔の位置を視点の位置とみなし、タッチパネル上でのタッチ位置と、ユーザの顔の位置とに基づいて、タッチ位置を補正することができるため、ユーザの視点に応じて適切なタッチ入力を行うことができる。
以下、添付図面を参照しながら、本発明の入力装置に係る好適な実施の形態について説明する。
図1は、本発明による入力装置の構成例を示すブロック図で、図中、1は入力装置を示す。入力装置1は、ユーザ(操作者)を撮影する撮影部に相当するカメラ2と、カメラ2により撮影された画像データからユーザの顔を検出する顔検出部3と、タッチ入力するためのタッチパネル4と、タッチパネル4を一体的に設けた液晶ディスプレイなどの表示部5と、タッチパネル4上でタッチされた座標位置を検出する座標位置検出部6と、タッチパネル4に対する顔検出部3で検出されたユーザの顔の位置を判定し、判定結果に基づいて、座標位置検出部6で検出された座標位置を補正する座標位置補正部7とを備える。
本発明の主たる目的は、ユーザの顔の位置を視点の位置とみなして、ユーザの視点に応じて適切なタッチ入力を行えるようにすることである。このための構成として、図1に示す各部を備える。以下では、座標位置補正部7による補正処理を、タッチ座標位置補正処理といい、このタッチ座標位置補正処理の具体例について後述の図4〜図13で説明するものとする。
入力装置1は、タッチパネル4を介して表示部5に表示されている情報(文字列など)を入力する。タッチパネル4としては、特に方式を限定するものではないが、例えば、抵抗膜方式、静電容量方式などを採用することができ、指やスタイラスペンなどでタッチされると電気信号とタッチ位置の座標値(p,q)を出力するように構成される。この入力装置1は、スマートフォンなどの携帯端末装置に適用することができる。以下の説明では、入力装置1をスマートフォンに適用した場合を例示して説明するが、スマートフォンに限定されるものではなく、従来の携帯電話機などに適用してもよいことは言うまでもない。
図2は、本発明による入力装置1を備えたスマートフォンの一例を示す図で、図中、10はスマートフォンを示す。スマートフォン10は、図1の入力装置1を入力デバイスとして内蔵する。スマートフォン10は、タッチパネル4を一体的に設けた表示部5を有し、表示部5を囲むように設けられた筐体の上部中央付近には、カメラ2が配置されている。スマートフォン10は、このカメラ2で撮影した画像データからユーザの顔を検出し、ユーザの顔の位置を視点の位置とみなしてタッチ座標位置補正処理を行う。
図2において、スマートフォン10は、スマートフォン10への所定の操作により文字入力モードのオン(有効)を検知すると、表示部5に、文字列を入力するための文字入力画面を表示させる。この文字入力画面では、例えば、ユーザが指先uを「あ」にタッチすれば「あ」行の文字を入力することができる。他の文字「か」〜「わ」についても同様であり、それぞれの文字にタッチすることで各行に含まれる文字を入力することができる。
また、視点(1)はスマートフォン10の正面にユーザの顔がある場合の視点の位置である。視点(2)はスマートフォン10の左側にユーザの顔がある場合の視点の位置である。視点(3)はスマートフォン10の右側にユーザの顔がある場合の視点の位置である。視点(4)はスマートフォン10の上側にユーザの顔がある場合の視点の位置である。視点(5)はスマートフォン10の下側にユーザの顔がある場合の視点の位置である。つまり、座標位置補正部7は、顔検出部3で検出されたユーザの顔が、タッチパネル4から見てどの位置にあるかを判定する。なお、文字入力等の操作入力において、タッチパネル4に対して逆方向あるいは横方向などからの操作入力はないと考えられるため、タッチパネル4に対して対向する向きでの顔の位置を判定することを前提としている。
ここで、ユーザが指先uを「な」にタッチした場合を想定する。このとき、ユーザの視点の位置が視点(1)、つまり、スマートフォン10の正面(タッチパネル4から見て正面)からの操作であった場合、「な」がそのまま視点(1)の補正点となり、「な」行の入力が可能となる。また、ユーザの視点の位置が視点(2)、つまり、スマートフォン10の左側(タッチパネル4から見て右側)からの操作であった場合、タッチ座標位置補正処理により、「は」が視点(2)の補正点となる。以下同様に、ユーザの視点の位置が視点(3)、つまり、スマートフォン10の右側(タッチパネル4から見て左側)からの操作であった場合、タッチ座標位置補正処理により、「た」が視点(3)の補正点となる。ユーザの視点の位置が視点(4)、つまり、スマートフォン10の上側(タッチパネル4から見て上側)からの操作であった場合、タッチ座標位置補正処理により、「や」が視点(4)の補正点となる。ユーザの視点の位置が視点(5)、つまり、スマートフォン10の下側(タッチパネル4から見て下側)からの操作であった場合、タッチ座標位置補正処理により、「か」が視点(5)の補正点となる。
図3は、本発明のスマートフォン10によるタッチ座標位置補正処理の一例を説明するためのフロー図である。まず、スマートフォン10(図2参照)は、ユーザによる所定の操作に従って文字入力モードのオン(有効)を検知すると(ステップS1)、これに伴い自動的にカメラ2を起動させる(ステップS2)。なお、タッチ座標位置補正処理のトリガとなる入力操作は、文字入力に限らず、比較的正確な操作が求められる入力操作全般が対象となる。
次に、スマートフォン10は、文字入力モードに移行し、表示部5に文字入力画面(図2)を表示させ、これに対して文字入力操作があったか否かを判定する(ステップS3)。文字入力操作があったと判定した場合(YESの場合)、座標位置検出部6がタッチパネル4上でタッチされた座標位置を検出すると共に、カメラ2で自動的に撮影したユーザの顔を含む画像データを図示しないメモリに記憶する(ステップS4)。また、ステップS3において、文字入力操作がないと判定した場合(NOの場合)、ステップS3での処理を繰り返す。
次に、スマートフォン10は、顔検出部3が、ステップS4で記憶した画像データからユーザの顔を検出する(ステップS5)。この顔検出処理自体は、一般に広く利用されている、例えば“Viola&Johns法”をはじめ公知の技術であり、いずれの方法を用いてもよい。ここでは、一例として、顔の大きさに合わせたウィンドウを画像内で走査して検出する方法について簡単に説明する。この方法では、走査しているウィンドウ内に顔が含まれているか否かが識別器により判定される。ウィンドウサイズを変えて走査することで、異なる大きさの顔検出が可能となる。この識別器は、注目ウィンドウ内に顔が含まれているか否かを判定するための判定ルールを、事前に収集しておいた多数の人物の顔画像と顔以外の画像からなるサンプル画像から学習する(例えば、参考文献として、「三田雄志,「高速・高精度を両立する顔検出技術」,東芝レビューVol.61,No.7,2006」を参照)。
次に、スマートフォン10は、顔検出部3により顔が1つ検出されたか否かを判定し(ステップS6)、顔が1つ検出されたと判定した場合(YESの場合)、座標位置補正部7が顔検出結果に基づいて座標位置検出部6で検出された座標位置を補正して出力する(ステップS7)。また、ステップS6において、顔が1つ検出されないと判定した場合(NOの場合)、座標位置補正部7が座標位置検出部6で検出された座標位置をそのまま出力する(ステップS8)。
次に、スマートフォン10は、ユーザによる所定の操作に従って文字入力モードがオフされたか否かを判定し(ステップS9)、文字入力モードがオフされたと判定した場合(YESの場合)、カメラ2を停止させて(ステップS10)、一連の処理を終了する。また、ステップS9において、文字入力モードがオフされていないと判定した場合(NOの場合)、ステップS3に戻り処理を繰り返す。
以下、本発明によるタッチ座標位置補正処理の具体例について説明する。座標位置補正部7は、顔検出部3で検出された画像データ上のユーザの顔の位置を表す座標位置と、座標位置検出部6で検出されたタッチパネル4上でタッチされた座標位置と、タッチパネル4のサイズと、タッチパネル4からユーザの顔までの距離とに基づいて、タッチパネル4上でタッチされた座標位置を補正する。なお、タッチパネル4からユーザの顔までの距離は、例えば、顔検出部3で検出されたユーザの顔のサイズに応じて算出され、タッチパネル4のサイズは、例えば、上記距離に応じて画素数に換算されたものである。
図4は、顔検出部3で検出された画像データ上のユーザの顔の位置を表す座標位置を求める方法の一例を説明するための図で、図中、21はカメラ2で撮影した画像データ(撮影画像)、22は顔検出ウィンドウである。本例では、画像データ21上の座標位置を(x,y)で表し、カメラ2の画素数をVGA(640×480)として説明する。顔検出ウィンドウ22のサイズを例えば160×160とし、この顔検出ウィンドウ22を画像データ21内で走査する。そして、顔検出ウィンドウ22内にユーザの顔が含まれるか否かを判定することで顔検出を行なう。なお、顔検出の方法については公知の技術であるため、ここでの説明は省略する。なお、上記の「顔検出ウィンドウ」とは、前述した参考文献「三田雄志,「高速・高精度を両立する顔検出技術」,東芝レビューVol.61,No.7,2006」に記載されている「ウィンドウ」に相当するものである。
図4において、顔検出ウィンドウ22の中心点cをユーザの顔の座標位置、すなわち、視点の位置とみなし、顔検出ウィンドウ22のサイズをユーザの顔のサイズとみなす。ここでは、顔検出ウィンドウ22によりユーザの顔fが検出されるが、顔検出ウィンドウ22の中心点cの座標(160,120)がユーザの顔(視点)の座標位置となり、顔検出ウィンドウのサイズ(160×160)がユーザの顔のサイズとなる。なお、ユーザの顔はスマートフォン10に最も近いと考えられるため、後述の図5で説明するように、顔検出ウィンドウ22のサイズを大から小の順番で切り替えて顔検出を行なうことが望ましい。また、同じサイズの顔検出ウィンドウ22で、複数個の顔が検出された場合には、視点が複数存在することになるため、タッチ座標位置補正処理を無効にする方法などが考えられる。
図5は、タッチパネル4とユーザの顔との距離を求める方法の一例について説明するための図である。例えば、図5(A)に示すように、タッチパネル4(カメラ2)からユーザの顔までの距離を「10〜25cm(近い)」、「25〜40cm(通常)」、「40〜55cm(遠い)」の3つの領域に分ける。そして、3つの各領域毎に、ユーザの顔を検出することを想定して、顔検出ウィンドウ22を3種類設ける。すなわち、「10〜25cm(近い)」の場合、図5(B)に示すように、320×320のサイズとなる顔検出ウィンドウ22aを設ける。同様に、「25〜40cm(通常)」の場合、図5(C)に示すように、240×240のサイズとなる顔検出ウィンドウ22bを設ける。また、「40〜55cm(遠い)」の場合、図5(D)に示すように、160×160のサイズとなる顔検出ウィンドウ22cを設ける。
顔検出を行なう順番は、最もサイズの大きい顔検出ウィンドウ22aから実施し、顔検出ウィンドウ22b、顔検出ウィンドウ22cの順に行い、最初に検出された顔をユーザの顔fとみなす。つまり、ユーザの顔fを検出したときの顔検出ウィンドウのサイズ(顔fのサイズに相当)によって、タッチパネル4とユーザの顔fとの距離を推定することができる。例えば、顔検出ウィンドウ22aのサイズ(320×320)で、ユーザの顔fを検出できた場合、タッチパネル4からユーザまでの距離は「10〜25cm(近い)」となる。この際、「10〜25cm(近い)」の場合の代表値を例えば175mmなどと予め決めておけばよい。
同様に、顔検出ウィンドウ22bのサイズ(240×240)で、ユーザの顔fを検出できた場合、タッチパネル4からユーザまでの距離は「25〜40cm(通常)」となる。この際、「25〜40cm(通常)」の場合の代表値を例えば325mmなどと予め決めておく。また、顔検出ウィンドウ22cのサイズ(160×160)で、ユーザの顔fを検出できた場合、タッチパネル4からユーザまでの距離は「40〜55cm(遠い)」となる。この際、「40〜55cm(遠い)」の場合の代表値を例えば475mmなどと予め決めておく。
なお、上記において、例えば、子供がスマートフォン10を操作する場合、大人と比較して顔のサイズが小さくなるため、顔検出ウィンドウのサイズと、タッチパネル4からユーザまでの距離との対応関係を調整することが望ましい。具体的には、例えば、スマートフォン10が、操作開始時(例えば、ロック解除操作時)などに、ユーザに対してタッチパネル4から20cm程度離れた位置に顔をセットするように促すメッセージを表示させる。このメッセージを受けて、ユーザがタッチパネル4から20cm程度離れた位置に顔をセットした状態で、ユーザが手動でカメラ2による撮影を行う。これにより、スマートフォン10は、ユーザの顔の大きさ情報を取得し、この情報に基づいて、タッチパネル4からユーザまでの距離に対する顔検出ウィンドウのサイズを調整することが考えられる。
図6は、タッチパネル4上でタッチされた座標位置を検出する方法の一例を説明するための図である。本例では、タッチパネル4上の座標位置を(p,q)で表わし、タッチパネル4及び表示部5のサイズを4.7インチとし、表示部5の表示解像度を720×1280、タッチパネル4の読取解像度を720×1280とする。ユーザの指uがタッチパネル4にタッチされたときに、指uが触れている範囲rの中心点c′をタッチ座標位置とみなす。ここでの中心点c′の座標は、例えば(100,350)と検出される。なお、複数の指の接触を検知した場合には、無効操作にするなどの方法を取ることが考えられる。
図7は、座標位置補正部7によるタッチ座標位置補正処理の概要を説明するための図である。ここで、タッチ座標位置の補正量(a,b)は、以下の補正式1で表すことができる。なお、ここでは、カメラ2の画素数は640×480、タッチパネル4の解像度は720×1280とするが、これらに限定されるものではない。
(補正式1)
a=((x−p*w/720)*d2/(d1−d2))*720/w
b=((y−q*h/1280−h/2)*d2/(d1−d2))*1280/h
但し、x,yは画像データ上のユーザの顔(視点)の位置を表す座標位置、p,qはタッチパネル上でタッチされた座標位置、w,hはタッチパネルのサイズ、d1はタッチパネルからユーザの顔までの距離、d2は所定値を示す。なお、所定値d2は、後述の図8に示すように、タッチ点から延びる垂線とユーザの視線との交点からタッチ点までの距離に基づき予め定められた値であり、例えば、“5”(単位:mm)に設定される。
a=((x−p*w/720)*d2/(d1−d2))*720/w
b=((y−q*h/1280−h/2)*d2/(d1−d2))*1280/h
但し、x,yは画像データ上のユーザの顔(視点)の位置を表す座標位置、p,qはタッチパネル上でタッチされた座標位置、w,hはタッチパネルのサイズ、d1はタッチパネルからユーザの顔までの距離、d2は所定値を示す。なお、所定値d2は、後述の図8に示すように、タッチ点から延びる垂線とユーザの視線との交点からタッチ点までの距離に基づき予め定められた値であり、例えば、“5”(単位:mm)に設定される。
図7(A)において、ユーザはスマートフォン10を右側(すなわち、タッチパネル4から見て左側となる視点(3)の位置)から見ている状態で、タッチパネル4に対して文字入力を行う場合を想定する。ユーザの指uでタッチした点c′の座標位置(p,q)は、(−80,−80)であり、「な」の領域に含まれる。そして、このときカメラ2により撮影された画像データ21に対して顔検出処理が施され、図7(B)に示すように、画像データ21の左側にユーザの顔fが検出される。顔fの情報としては、ユーザの視点cの座標位置(x,y)が(−180,0)であり、顔fのサイズが顔検出ウィンドウ22のサイズから(240×240)と求まる。
そして、顔fのサイズ(240×240)により、タッチパネル4とユーザの顔fとの距離d1は、325mm(代表値、図5参照)と求められる。また、このときのタッチパネル4のサイズを画像データ21の座標軸上に換算したパネルサイズw×hは、距離d1に応じて画素数に換算したもので、後述の図11(B)の換算結果から、112×208と求められる。また、所定値d2としては、前述の5mmを用いる。
以上の各値(x,y,p,q,w,h,d1,d2)を補正式1に代入する。これにより、タッチパネル4から325mm離れた右側視点(視点(3)の位置)の状態で文字入力を行ったときの補正量(a,b)は、(a,b)≒(−17、−9)と算出される。従って、タッチ座標位置(−80,−80)は、座標(−97、−89)に補正され、文字入力は、「な」ではなく、「た」として処理される。
次に、上述の補正式1が成り立つ根拠について図8〜図13に基づき具体的に説明する。視点や指の形状により、様々なパターンで位置ずれは生じるものと考えられるが、位置ずれが生じるモデルを仮定することで、本発明のタッチ座標位置補正処理を容易に行うことができる。
図8は、位置ずれモデルの一例を示す図である。この一例において、ユーザはタッチパネル上の目標タッチ点(t1やt2)に視点を合わせ、そこに向けて指を操作するものとする。ここでユーザは、指の先端付近を意識して、タッチパネルに触れるものと考えられる。しかし、指先は丸みを帯びているため、タッチしたい位置に触れる際に、指の腹部分(t3)がタッチパネルに触れてしまい、目標タッチ点(t1やt2)とは異なる位置(t3)をタッチする事が想定される。詳細には、ユーザの指uがタッチパネル4のタッチ点t3で接触している。点線のユーザの顔fは、スマートフォン10の正面(基準ポジション)から操作している場合を示し、顔fの中心点cから延びる視線とタッチパネル4との交点が目標タッチ点t1となる。また、実線のユーザの顔fは、スマートフォン10の右側から操作している場合を示し、顔fの中心点cから延びる視線とタッチパネル4との交点が目標タッチ点t2となる。また、図中、d1は、タッチパネル4からユーザの顔f(中心点c)までの距離を示し、d2は、タッチ点t3から延びる垂線とユーザの視線との交点t4からタッチ点t3までの距離を示す。なお、タッチ点t3から延びる垂線とは、すなわち、タッチ点t3を通りタッチパネル4に直交する方向に延びる直線である。
上記の位置ずれモデルでは、補正計算を容易にするために、タッチ点t3から延びる垂線とユーザの各視線とが交わる交点t4が、常にタッチパネル4から5mm上に位置するものと仮定する。つまり、前述の補正式1における所定値d2を5mmとしている。なお、この5mmとした理由は、人間の人差し指の平均的な厚みに基づくものであるが、必ずしも5mmに限定されるものではない。
図9は、図8に示す位置ずれモデルによるタッチ座標位置補正処理の一例を説明するための図である。図中、d3は、顔fの中心点cとタッチ点t3から延びる垂線との距離を示し、d4は、タッチ点t3と目標タッチ点t2との距離で、この距離d4が求めるべき補正量(ずれ量)に相当する。そして、このずれ量d4は、図9の位置ずれモデルから幾何学的に算出することができる。すなわち、図9の位置ずれモデルより、
d1:d2=(d3+d4):d4
が成り立つため、これを変形すると、
d4=d3*d2/(d1−d2)
となる。
d1:d2=(d3+d4):d4
が成り立つため、これを変形すると、
d4=d3*d2/(d1−d2)
となる。
上記において、d1は顔検出ウィンドウのサイズによって決まる値(図5より、175,325,475mmのいずれかに決まる値)であり、d2は所定値(5mm)である。従って、距離d3が求まれば、ずれ量d4を算出することが可能であることが分かる。
距離d3を求めるために、タッチパネル4のサイズを画像データの座標軸(単位:画素数)に換算する必要がある。上述の補正式1は、カメラ2で撮影された画像データ(撮影画像)の画素数を単位としたxy座標軸上で計算するため、タッチパネル4の実サイズを撮影画像と同じxy座標軸上に換算する。ここで、カメラ2の撮影画像は、被写体(ユーザの顔)とタッチパネル4(レンズ)との距離d1により、撮影される平面の実サイズが異なる。
図10は、カメラ2による撮影画像の実サイズを求める方法の一例を説明するための図である。前述の図5で説明したように、計算を簡略化するために、ユーザの顔とタッチパネル4との距離d1は、3つの各領域毎に、175,325,475mmを代表値とし、距離d1の代表値毎に、撮影画像の平面の実サイズを計算する。ここで、カメラの画角は、レンズ特性によって決まるが、本例では、カメラ2のレンズの画角を、水平方向54°、垂直方向40.5°として計算する。すなわち、撮影画像の画素数を640×480(4:3)としているため、レンズの画角もこれに合わせて4:3としている。
図10(A)において、Lはカメラ2で撮影される撮影画像の実サイズ、d1はカメラ2からユーザの顔(被写体)までの距離、θはカメラ2の画角とすると、
tan(θ/2)=(L/2)/d1
の関係が成り立つため、
L=2×d1×tan(θ/2)
となる。これにより、撮影画像の水平方向及び垂直方向の実サイズを求めることができる。
tan(θ/2)=(L/2)/d1
の関係が成り立つため、
L=2×d1×tan(θ/2)
となる。これにより、撮影画像の水平方向及び垂直方向の実サイズを求めることができる。
上記式より、撮影画像の実サイズは、図10(B)のように計算される。例えば、d1=175mm、すなわち、カメラ2の175mm先で撮影される平面画像のサイズは、約178×129mmと求められる。同様に、カメラ2の325mm先で撮影される平面画像のサイズは、約331×239mmと求められ、カメラ2の475mm先で撮影される平面画像のサイズは、約484×350mmと求められる。
図11は、タッチパネル4のサイズを撮影画像と同じxy座標軸上のパネルサイズに換算する方法の一例を説明するための図である。前述したように、タッチパネル4のサイズは、4.7インチと想定しているため、横×縦(9:16)の実サイズは、約58×104mmとなる。これより、d1=175mmの場合、タッチパネル4の実サイズ(58×104mm)と撮像画像21の実サイズ(178×129mm)との関係は、図11(A)のようになる。そして、d1=175,325,475mmのそれぞれの場合について、タッチパネル4のパネルサイズをxy座標軸上で画素数に換算すると、図11(B)のようになる。例えば、d1=175mmの場合、水平方向の画素数は、640画素×58mm/178mm≒208画素と換算され、垂直方向の画素数は、480画素×104mm/129mm≒386画素と換算される。
図12は、タッチパネル4と撮像画像21とをxy座標軸上に展開したときの関係の一例を説明するための図である。まず、図12(A)に示すように、スマートフォン10のタッチパネル上部中央付近に配置されたカメラ2からの法線は、カメラ2による撮影画像21の中心と直交するものとする。そして、前述の図5で説明したように、タッチパネル4(カメラ2)からユーザの顔までの距離d1は、(1)「10〜25cm(近い)」,d1=175mm、(2)「25〜40cm(通常)」,d1=325mm、(3)「40〜55cm(遠い)」,d1=475mm、の3つの領域に分けられている。
ここで、撮影画像21の画素数を640×480とし、タッチパネル4のパネルサイズを画素数(w×h)で表す場合、図11(B)の換算結果から、(1)d1=175mmでは、208(w)×386(h)となる。(2)d1=325mmでは、112(w)×208(h)となる。(3)d1=475mmでは、76(w)×142(h)となる。これら(1)〜(3)それぞれの場合における撮影画像21とタッチパネル4との関係を図12(B)〜(D)に示す。
図13は、本発明によるタッチ座標位置補正処理の一例を説明するための図である。ここで、撮影画像上での座標をxy座標とし、顔検出座標を(x,y)とする。タッチパネル上での座標をpq座標として、操作入力座標を(p,q)とする。タッチパネルサイズの撮影画像の座標上での大きさをw×hとする。 タッチパネル上で補正される補正量を(a,b)とすると、補正後の座標は(p+a,q+b)で表せる。
図13(A)にタッチパネル4上の座標(p,q)を示す。この図13(A)の座標(p,q)を、カメラ撮影画像上の座標に展開した状態を図13(B)に示す。ここで、前述の図12(A)に示したように、スマートフォン10のカメラ2は、タッチパネル4の上部中心に配置されている。また、カメラ2の光軸は、スマートフォン10から垂直に延び、撮影画像の中心に位置するようになっている。つまり、撮影画像の中心は、スマートフォン10のレンズ位置と一致するため、撮影画像の中心(xy軸の原点)は、タッチパネル4の上部中心位置になるものとして扱う。
以下、前述の図9も参照しながら説明する。720×1280のタッチパネル4のpq座標上における任意のタッチ点t3(p,q)を、カメラ画像上のxy座標上に換算する場合、図13(B)に示すように、pq座標での原点は(0,−h/2)となる。そして、pq座標上の任意のタッチ点t3の座標(p,q)は、xy軸上におけるタッチ点t3′の座標(p*w/720,q*h/1280−h/2)に換算される。なお、撮影画像とタッチパネル4との位置関係を考慮して換算するため、タッチパネル4のサイズ(58×104mm)を撮影画像のxy座標上へ展開した場合、w×hの画素数で表される。
撮影画像上での顔位置との関係を図13(C)に示す。ユーザの顔の中心点cの座標を(x,y)とすると、ユーザの顔の中心点cとタッチ点t3′との距離(画素数)は、x軸方向が(x−p*w/720)、y軸方向が(y−(q*h/1280−h/2))と表すことができる。つまり、これが図9の距離d3に相当する。そして、図9のずれ量(補正量)d4は、前述したように、d4=d3*d2/(d1−d2)、で示すことができるため、p軸の補正量a及びq軸の補正量bは、前述の補正式1、すなわち、
a=((x−p*w/720)*d2/(d1−d2))*720/w
b=((y−q*h/1280−h/2)*d2/(d1−d2))*1280/h
で示すことができる。
a=((x−p*w/720)*d2/(d1−d2))*720/w
b=((y−q*h/1280−h/2)*d2/(d1−d2))*1280/h
で示すことができる。
そして、上記の補正量a,bに基づいて、タッチ点t3の補正後の座標に相当する目標タッチ点t2のpq座標は、(p+a,q+b)で示すことができる。
なお、上記のタッチ座標位置補正処理は、スマートフォン10を縦向きにして操作する場合に限らず、横向きにして操作する場合など、いずれの向きで操作する場合であっても同様に適用することができる。
このように、本発明によれば、ユーザの顔の位置を視点の位置とみなし、タッチパネル上でのタッチ位置と、撮影画像上のユーザの顔の位置とに基づいて、タッチパネル上でのタッチ位置をユーザの視点に応じた目標とするタッチ位置へと補正することができるため、操作パネルに対して操作するときの視点が色々と変化してしまうスマートフォンのような携帯端末装置においても、操作するときの視点によらず、正確なタッチ操作が可能となる。
1…入力装置、2…カメラ、3…顔検出部、4…タッチパネル、5…表示部、6…座標位置検出部、7…座標位置補正部、10…スマートフォン。
Claims (5)
- タッチパネルを一体的に設けた表示部を備え、前記タッチパネルを介して前記表示部に表示されている情報を入力する入力装置であって、
ユーザを撮影する撮影部と、該撮影部により撮影された画像データからユーザの顔を検出する顔検出部と、前記タッチパネル上でタッチされた座標位置を検出する座標位置検出部と、前記タッチパネルに対する前記顔検出部で検出されたユーザの顔の位置を判定し、判定結果に基づいて、前記座標位置検出部で検出された座標位置を補正する座標位置補正部とを備えたことを特徴とする入力装置。 - 請求項1に記載の入力装置において、前記撮影部は、所定の操作入力モードの起動に応じて起動され、自動的にユーザを撮影することを特徴とする入力装置。
- 請求項1または2に記載の入力装置において、前記座標位置補正部は、前記顔検出部で検出されたユーザの顔が、前記タッチパネルに対して、上側、下側、右側、左側、正面のいずれの位置にあるかを判定することを特徴とする入力装置。
- 請求項3に記載の入力装置において、前記座標位置補正部は、前記顔検出部で検出された前記画像データ上のユーザの顔の位置を表す座標位置と、前記座標位置検出部で検出された前記タッチパネル上でタッチされた座標位置と、前記タッチパネルのサイズと、前記タッチパネルからユーザの顔までの距離とに基づいて、前記タッチパネル上でタッチされた座標位置を補正することを特徴とする入力装置。
- 請求項4に記載の入力装置において、前記タッチパネルからユーザの顔までの距離は、前記顔検出部で検出されたユーザの顔のサイズに応じて算出され、前記タッチパネルのサイズは、前記距離に応じて画素数に換算されたものであることを特徴とする入力装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012193193A JP2014049023A (ja) | 2012-09-03 | 2012-09-03 | 入力装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012193193A JP2014049023A (ja) | 2012-09-03 | 2012-09-03 | 入力装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014049023A true JP2014049023A (ja) | 2014-03-17 |
Family
ID=50608590
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012193193A Pending JP2014049023A (ja) | 2012-09-03 | 2012-09-03 | 入力装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014049023A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018131805A1 (de) | 2017-12-11 | 2019-06-13 | Omron Corporation | Vorrichtung zum erfassen einer gesichtsposition |
CN111258443A (zh) * | 2018-12-03 | 2020-06-09 | 瑞萨电子株式会社 | 信息输入装置 |
-
2012
- 2012-09-03 JP JP2012193193A patent/JP2014049023A/ja active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018131805A1 (de) | 2017-12-11 | 2019-06-13 | Omron Corporation | Vorrichtung zum erfassen einer gesichtsposition |
US10776944B2 (en) | 2017-12-11 | 2020-09-15 | Omron Corporation | Face position detecting device |
CN111258443A (zh) * | 2018-12-03 | 2020-06-09 | 瑞萨电子株式会社 | 信息输入装置 |
CN111258443B (zh) * | 2018-12-03 | 2024-06-07 | 瑞萨电子株式会社 | 信息输入装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4820285B2 (ja) | 自動位置合わせタッチシステムおよび方法 | |
US10055081B2 (en) | Enabling visual recognition of an enlarged image | |
US9589325B2 (en) | Method for determining display mode of screen, and terminal device | |
US8866772B2 (en) | Information processing terminal and method, program, and recording medium | |
US9632626B2 (en) | Apparatuses and methods for providing a 3D man-machine interface (MMI) | |
JP5802247B2 (ja) | 情報処理装置 | |
JP2012208705A (ja) | 画像操作装置、画像操作方法およびプログラム | |
US11023050B2 (en) | Display control device, display control method, and computer program | |
JP6381361B2 (ja) | データ処理装置、データ処理システム、データ処理装置の制御方法、並びにプログラム | |
JP2019174984A (ja) | 表示制御装置、その制御方法、プログラム及び記憶媒体 | |
WO2018076720A1 (zh) | 单手操控方法及操控*** | |
TWI499938B (zh) | 觸控系統 | |
JP2014049023A (ja) | 入力装置 | |
CN111258443B (zh) | 信息输入装置 | |
JPH11296304A (ja) | 画面表示入力装置及び視差補正方法 | |
JP5947999B2 (ja) | タッチスクリーンに対する操作精度を向上する方法、電子機器およびコンピュータ・プログラム | |
JP2018116346A (ja) | 入力制御装置、表示装置、及び入力制御方法 | |
JP2015153277A (ja) | 表示装置 | |
JP6709022B2 (ja) | タッチ検出装置 | |
CN104035628B (zh) | 虚拟触控装置 | |
JP2017157135A (ja) | 入力装置及び入力方法 | |
JP2015216484A (ja) | 撮像装置、画像処理方法、プログラム及び記憶媒体 | |
EP3059664A1 (en) | A method for controlling a device by gestures and a system for controlling a device by gestures | |
JP2015162079A (ja) | タッチ位置補正システムおよび自動取引装置 | |
JP2016118868A (ja) | 情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法 |