JP2010287032A - 入力装置 - Google Patents
入力装置 Download PDFInfo
- Publication number
- JP2010287032A JP2010287032A JP2009140152A JP2009140152A JP2010287032A JP 2010287032 A JP2010287032 A JP 2010287032A JP 2009140152 A JP2009140152 A JP 2009140152A JP 2009140152 A JP2009140152 A JP 2009140152A JP 2010287032 A JP2010287032 A JP 2010287032A
- Authority
- JP
- Japan
- Prior art keywords
- input
- screen
- display
- touch
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Navigation (AREA)
Abstract
【課題】操作者の手などで画面部品が隠れることを防止し、入力操作性の向上を図ることができる入力装置を提供する。
【解決手段】画面部品の表示位置として、操作者の手のような操作物がいずれの方向からタッチ面をタッチするかに対応付けて当該操作物で画面部品の表示が遮蔽されない位置を記憶する表示パターン格納部17を備え、操作物の方向に基づいて、表示パターン格納部17から操作物で表示が遮蔽されない表示位置を決定することにより、タッチ面のタッチに応じて画面部品を表示装置12の画面に表示する。
【選択図】図1
【解決手段】画面部品の表示位置として、操作者の手のような操作物がいずれの方向からタッチ面をタッチするかに対応付けて当該操作物で画面部品の表示が遮蔽されない位置を記憶する表示パターン格納部17を備え、操作物の方向に基づいて、表示パターン格納部17から操作物で表示が遮蔽されない表示位置を決定することにより、タッチ面のタッチに応じて画面部品を表示装置12の画面に表示する。
【選択図】図1
Description
この発明は、タッチ入力方式の入力装置に関するものである。
近年、タッチ入力方式の入力装置を備えた機器は様々な機器に普及している。携帯電話端末等の機器に適用したタッチパネル入力装置は一般的に個人での利用に限定されるが、複数人が同一のタッチパネル上で入力操作を行う機器もある。例えば、据付のナビゲーションシステムは、運転席と助手席の間に配置され、運転席方向からの操作と助手席からの操作が同一のタッチパネルに対して行われる。
このようなタッチ入力方式の入力装置において、操作性や操作方向に応じた表示を行う従来の技術としては、例えば、特許文献1に開示される入力装置がある。
特許文献1の入力装置では、識別信号の受信の有無によっていずれの方向から操作画面を見ている操作者が操作を行っているのかを判別することにより、この操作画面に操作者が見る方向に応じた適正な画像を表示することができる。
特許文献1の入力装置では、識別信号の受信の有無によっていずれの方向から操作画面を見ている操作者が操作を行っているのかを判別することにより、この操作画面に操作者が見る方向に応じた適正な画像を表示することができる。
また、特許文献2は、文字入力の操作性を向上させるため、ひらがな文字入力用の10個のキーを5個1組として2組のキー群を対称に縦方向に配置することにより、右利きと左利きのいずれのユーザにとっても文字入力がし易い構造を提案している。
従来の入力装置では、異なる方向から同一のタッチパネルに対して操作されても、操作方向に依らず、ユーザインタフェースは一定である場合が一般的である。このため、操作方向によっては画面の一部が操作者の手で隠れてしまい、操作性が悪くなるという課題があった。
また、特許文献1は、操作者がどの方向から操作画面に操作しているかを判別するが、デュアルビューLCDを搭載した車載情報機器において、助手席用と運転席用とに別々に表示した画面に対してどちら側から操作が行われたかを判別するものであり、結局、上述した操作性の悪化に対する解決は考慮されていない。
さらに、特許文献2はキー群が固定的に配置されるため、この特許文献2においても、操作方向によっては、操作者の手でキーが隠れてしまう可能性がある。
この発明は、上記のような課題を解決するためになされたもので、操作者の手などで画面部品が隠れることを防止し、入力操作性の向上を図ることができる入力装置を得ることを目的とする。
この発明に係る入力装置は、タッチ面をタッチして入力するタッチ式入力手段と、タッチ式入力手段のタッチ面に対応する画面を表示する表示手段と、タッチ式入力手段のタッチ面をタッチする操作物を検出するセンサ手段と、センサ手段で検出された操作物の検出位置に基づいて、当該操作物がいずれの方向からタッチ面をタッチしたかを判定する判定手段と、画面部品の表示位置として、操作物がいずれの方向からタッチ面をタッチするかに対応付けて、当該操作物で画面部品の表示が遮蔽されない位置を記憶する第1の記憶手段と、判定手段が特定した操作物の方向を基に第1の記憶手段から操作物で表示が遮蔽されない表示位置を決定することにより、タッチ面のタッチに応じて画面部品を表示手段の画面に表示する処理手段とを備えるものである。
この発明によれば、画面部品の表示位置として、操作物がいずれの方向からタッチ面をタッチするかに対応付けて当該操作物で画面部品の表示が遮蔽されない位置を記憶する第1の記憶手段を備え、操作物の方向に基づいて、第1の記憶手段から操作物で表示が遮蔽されない表示位置を決定することにより、タッチ面のタッチに応じて画面部品を表示手段の画面に表示する。このように構成することで、操作者の手などで画面部品が隠れることを防止し、入力操作性の向上を図ることができるという効果がある。
実施の形態1.
図1は、この発明の実施の形態1による入力装置の構成を示すブロック図であり、実施の形態1の入力装置をカーナビゲーションシステムにおける文字入力システムに適用した場合を示している。図1において、実施の形態1の入力装置10は、タッチ式入力装置(タッチ式入力手段)11、表示装置(表示手段)12、センサ(センサ手段)13、入力判定部(判定手段)14、入力処理部(処理手段)15、描画位置判定部(処理手段)16、表示パターン格納部(第1の記憶手段)17及び描画処理部(処理手段)18を備える。
図1は、この発明の実施の形態1による入力装置の構成を示すブロック図であり、実施の形態1の入力装置をカーナビゲーションシステムにおける文字入力システムに適用した場合を示している。図1において、実施の形態1の入力装置10は、タッチ式入力装置(タッチ式入力手段)11、表示装置(表示手段)12、センサ(センサ手段)13、入力判定部(判定手段)14、入力処理部(処理手段)15、描画位置判定部(処理手段)16、表示パターン格納部(第1の記憶手段)17及び描画処理部(処理手段)18を備える。
タッチ式入力装置11は、タッチ操作を受け付ける入力装置である。タッチ式入力装置11では、操作者からタッチ操作を受けると、このタッチ位置に応じたタッチ面上の座標を入力判定部14へ出力する。表示装置12は、タッチ式入力装置11からの入力のフィードバックを表示する出力装置である。なお、図1では、複数の方向から見ても同じ内容の画面を表示する一般的な表示装置としているが、見られる方向により異なる画面内容を表示可能な表示装置(マルチビューモニタ)を用いてもよい。
センサ13は、操作者の手がタッチ式入力装置11のタッチ面上のどこにあるかを検出する検出装置である。この検出方式としては、例えば、赤外線や超音波をプローブに利用する場合であれば、センサ13をタッチ式入力装置11のタッチ面周囲に配置しておき、赤外線や超音波の反射波の変動を電気信号としてモニタすることが考えられる。また、カメラで撮像した画像から操作者の手の位置を認識する画像処理技術を利用してもよい。
入力判定部14は、タッチ式入力装置11からの信号が出力されたタイミングで、センサ13から信号を取得し、取得した信号に基づきタッチ面の右左上下のいずれの方向から入力操作が行われたかを判定する構成部である。また、入力判定部14は、タッチ式入力装置11からの信号に基づいてタッチ面上のタッチ位置に応じた座標を算出し、タッチ面に対して操作者が入力操作した方向(以下、操作者方向と呼ぶ)と併せて入力処理部15へ出力する。
図2は、操作者方向の判定処理の一例を説明するための図であり、センサ13に赤外線センサを用いている。図2に示すように、センサ13として、表示装置12の表示画面(タッチ式入力装置11のタッチ面を上層に配置)の周囲に赤外線センサを配置する。
センサ13で赤外線の反射波を検出することにより、操作者の手が、赤外線センサ上にあることが分かる。入力判定部14は、センサ13からの反射波の検出信号を入力して、この検出信号が領域1からのものか、領域2からのものかを判定することで、操作者方向が左方向であるか右方向であるかを判定する。
センサ13で赤外線の反射波を検出することにより、操作者の手が、赤外線センサ上にあることが分かる。入力判定部14は、センサ13からの反射波の検出信号を入力して、この検出信号が領域1からのものか、領域2からのものかを判定することで、操作者方向が左方向であるか右方向であるかを判定する。
なお、図2の例では領域1と領域2のみに分割しているが、図3に示すように、領域をさらに分割して、操作者方向が左方向(右方向)であることを示す領域1(領域2)の他に、操作者方向が上方向(下方向)であることを示す領域3(領域4)を規定することにより、左右方向以外の方向を検出するようにしてもよい。領域1〜4をさらに分割して、様々な方向の操作者方向を検出できるようにしても構わない。
入力処理部15は、入力判定部14から入力したタッチ位置に応じた座標に基づいて、表示装置12に表示する画面部品を生成する構成部である。描画位置判定部16は、表示パターン格納部17に格納された表示パターンデータを参照して、入力処理部15で生成された画面部品の表示位置を判定する構成部である。描画処理部18は、入力処理部15からの描画指示に基づいて、表示装置12の画面上に画面表示を行う構成部である。
表示パターン格納部17は、表示パターンデータが格納される記憶部である。表示パターンデータとは、表示装置12の画面上に表示する画面内容毎に付与した画面ID、この画面IDで特定される画面上に表示する画面部品(例えばポップアップ表示部品)に付与された部品ID及び操作者方向に応じた画面部品の表示座標が少なくとも対応付けられたデータである。
図4は、表示パターン格納部が保持するデータ内容の一例を示す図である。図4に示すように、表示パターンデータは、画面ID、この画面IDで特定される画面上に表示する画面部品及び操作者方向(図4では左方向と右方向)に応じた画面部品の表示座標(タッチ面上の座標位置)が対応付けられている。描画位置判定部16は、画面ID、画面部品及び操作者方向に基づき、表示パターン格納部17の表示パターンデータを参照することにより、当該画面部品を表示すべき座標位置を特定する。
このように、表示パターンデータとして、画面ID、画面部品、操作者方向からポップアップ部品を表示する座標を予め一意に決定しておく。この他、例えば、描画処理部18の機能として、左方向からの入力に対してはタッチ位置の右側に(逆に右方向からの入力に対してはタッチ位置の左側に)一定の画素数だけ離れた場所に画面部品を表示する等、動的に画面部品の表示座標を決定するようにしてもよい。
なお、動的に座標位置を決定すると、画面上の画像表示領域から画面部品がはみ出してしまう場合が起こり得る。この場合には、タッチ位置から一定の画素数だけ離れた上方(あるいは下方)に画面部品を表示することで回避できる。
なお、動的に座標位置を決定すると、画面上の画像表示領域から画面部品がはみ出してしまう場合が起こり得る。この場合には、タッチ位置から一定の画素数だけ離れた上方(あるいは下方)に画面部品を表示することで回避できる。
次に動作について説明する。
図5は、実施の形態1の入力装置による動作の流れを示すフローチャートである。また、図6は、ソフトウェアキーボードに実施の形態1の入力装置を適用した例を示す図である。以降は、図5に沿って図6の内容を説明する。なお、図6のソフトウェアキーボードは、2タッチで入力文字を決定するものであり、最初に50音表の各行の先頭文字である「あ」「か」「さ」「た」「な」「は」「ま」「や」「ら」「わ」のうちから選択して、この後、選択した行に属する文字を選択することで入力文字が決定される。
図5は、実施の形態1の入力装置による動作の流れを示すフローチャートである。また、図6は、ソフトウェアキーボードに実施の形態1の入力装置を適用した例を示す図である。以降は、図5に沿って図6の内容を説明する。なお、図6のソフトウェアキーボードは、2タッチで入力文字を決定するものであり、最初に50音表の各行の先頭文字である「あ」「か」「さ」「た」「な」「は」「ま」「や」「ら」「わ」のうちから選択して、この後、選択した行に属する文字を選択することで入力文字が決定される。
先ず、操作者がタッチ式入力装置11にタッチ入力(ステップST1)を行うと、タッチ式入力装置11が、当該操作者からのタッチ入力を検出して、タッチ面上のタッチ位置座標を入力判定部14へ出力する。図6に示す時点(1)は、表示装置12の表示画面上に表示配置された12個のキーボタンのうち、操作者が左方向から行キー「か」ボタン19aを押下(タッチ入力)している。これにより、行キー「か」ボタン19aのタッチ位置座標がタッチ式入力装置11から入力判定部14へ出力される。
入力判定部14では、タッチ式入力装置11からタッチ位置情報が出力されると、これを契機に当該タッチ入力に対するセンサ13の検出信号を取得し、この検出信号に基づいて操作者の手が存在するタッチ面上の領域を判定し、操作者の方向を判定する(ステップST2)。また、入力判定部14は、タッチ式入力装置11から入力したタッチ位置情報に基づき、表示装置12が表示している、どの画面部品に対応するタッチ位置がタッチされたかを判別する。
図6の例では、入力判定部14が、タッチ式入力装置11がタッチ位置情報を出力したタイミングで、センサ13から検出信号(センサ情報)を入力し、このセンサ情報に基づいて、当該タッチ入力の操作方向が左方向であることを判定する。また、入力判定部14は、このときタッチ式入力装置11から入力したタッチ位置情報に基づいて、操作者によって行キー「か」ボタン19aが押下されたことを判別する。
続いて、入力処理部15は、タッチ位置座標に対応する処理を行い、この処理に応じて表示装置12に表示すべき画面情報(画面部品)を生成する(ステップST3)。図6の例では、入力処理部15が、タッチ位置情報から行キー「か」ボタン19aが押下されたことを特定すると、これに続く処理として、「か」行に属する文字列である「か」「き」「く」「け」「こ」と「戻る」の選択ボタンを表示すべきと判定する。この処理に応じて、入力処理部15は、「か」「き」「く」「け」「こ」と「戻る」を選択する6個の選択ボタン19bの画面部品を生成する。
次に、描画位置判定部16が、入力処理部15で生成された画面部品を表示すべき座標を判定する(ステップST4)。座標位置の判定は、描画位置判定部16が、入力処理部15から画面部品と操作者方向を特定する情報を入力し、この情報に基づいて、表示パターン格納部17に格納される表示パターンデータを参照することにより、画面部品を表示すべき座標位置を判定する。
例えば、図6の時点(2)の画面を特定する画面ID、入力処理部15が生成した画面部品に相当する画面部品(「か」「き」「く」「け」「こ」「戻る」の選択ボタン19b)及び操作者方向(ここでは「左方向」)を基に、図4に示す表示パターンデータが参照されて「か」「き」「く」「け」「こ」「戻る」の選択ボタン19bをそれぞれ表示すべき座標が判定され取得される。描画位置判定部16が取得した描画位置座標は、入力処理部15へフィードバックされる。
ステップST5において、入力処理部15は、描画位置判定部16から取得した描画位置座標に基づいて、画面部品を配置した表示画面のレイアウト情報を作成し、このレイアウト情報による描画指示を描画処理部18へ出力する。描画処理部18では、入力処理部15からの描画指示に従う画面を表示装置12に表示する。
図6では、描画する画面部品の位置座標が決定された後、入力処理部15が、描画処理部18に描画指示することにより、時点(2)に示す画面のように、「か」「き」「く」「け」「こ」「戻る」の選択ボタン19bが、表示装置12の画面上に表示される。このとき、操作者方向が左方向であるので、操作者の手で隠れないように、選択ボタン19bが画面右側にずれて配置される。
また、図6に示す時点(3)(4)は、操作者方向が右方向である場合の画面表示を示している。この場合においても、上述と同様の手順で処理を行い、選択ボタン19bの表示位置を画面左側にすることにより、選択ボタン19bが操作者の手で隠れる不具合を回避でき、操作性の向上につながる。
なお、図6に示す時点(2)の画面のように「か」「き」「く」「け」「こ」「戻る」の選択ボタン19bを一時的に表示(以下、ポップアップ表示と呼ぶ)させたことにより、画面上に元々表示されていた「さ」「は」「ら」「→」の選択ボタンが隠れてしまう。これらのボタンを選択するには、ポップアップ表示した選択ボタン19bの「戻る」ボタンを押下する等して、ポップアップ表示を終了させる必要がある。
図4に示す表示パターンデータでは、画面部品が、表示されるべき画面とその表示位置に対応付けて登録されている。このため、画面部品をポップアップ表示すると、それ以前に表示されていた画面部品のうち、ポップアップ表示した画面部品によって隠される画面部品を特定することができる。
そこで、ポップアップを表示した状態で、それ以前に表示されていたボタンも選択可能とするため、ポップアップ表示以前に表示されていた画面中でポップアップ表示によって隠れるボタンの表示座標位置を、図4に示す表示パターンデータに予め登録しておく。
例えば、図6では、描画位置判定部16が、「か」「き」「く」「け」「こ」「戻る」の選択ボタン19bの座標を決定する際に併せて、これによって隠されるであろう「さ」「は」「ら」「→」のボタンの座標位置も取得し、選択ボタン19bのポップアップ表示に隠れてしまわない位置を特定する。描画処理部18が、描画位置判定部16により特定された位置に「さ」「は」「ら」「→」のボタンを表示(特定された位置に移動)すればよい。
そこで、ポップアップを表示した状態で、それ以前に表示されていたボタンも選択可能とするため、ポップアップ表示以前に表示されていた画面中でポップアップ表示によって隠れるボタンの表示座標位置を、図4に示す表示パターンデータに予め登録しておく。
例えば、図6では、描画位置判定部16が、「か」「き」「く」「け」「こ」「戻る」の選択ボタン19bの座標を決定する際に併せて、これによって隠されるであろう「さ」「は」「ら」「→」のボタンの座標位置も取得し、選択ボタン19bのポップアップ表示に隠れてしまわない位置を特定する。描画処理部18が、描画位置判定部16により特定された位置に「さ」「は」「ら」「→」のボタンを表示(特定された位置に移動)すればよい。
また、上述のように、ボタンの位置をずらして表示するスペースが表示装置12の表示画面にない場合、表示位置の変更の他、画面上でのボタンサイズの縮小を行うようにしてもよい。例えば、図4に示す表示パターンデータに加え、図7に示すように縮小後の画面部品サイズの情報も含めておくことで、ポップアップ表示の際に画面ID、画面部品及び操作者方向を基に画面部品の表示座標とサイズを決定することができる。この場合、図7の「縮小後のサイズ」項目に「縮小なし」が登録されていれば、入力処理部15によって生成された画面部品を縮小せずに表示し、サイズの指定があれば、そのサイズ指定に従い画面部品の縮小を行う。なお、この縮小サイズは、画面及び画面部品のサイズを考慮した空きスペースに表示可能なサイズを予め決定して設定する。
図8は、図6で示したソフトウェアキーボードで画面部品の縮小処理を行う場合を説明するための図である。図6では、行キー「か」ボタン19aを押下すると、ポップアップ表示された「か」「き」「く」「け」「こ」「戻る」の選択ボタン19bによって、「さ」「は」「ら」「→」の選択ボタンが隠されていたが、上述のように、図7に示す表示パターンデータを参照して、ポップアップ表示する表示位置を変更し、画面部品を縮小することにより、図8に示すように、全てのボタンを表示画面上に表示することができる。
また、図6に示す時点(2)のようにポップアップが表示された画面で「戻る」ボタンを押下すると、選択ボタン19bのポップアップ表示を終了できるが、操作者の手を一定時間検出しなくなると、入力操作が一旦終了したものとしてポップアップ表示を終了するようにしてもよい。
図9は、上述した操作者の手の検出有無に応じてポップアップ表示の開始と終了を決定する処理の流れを示すフローチャートである。
先ず、入力判定部14は、描画処理部18により表示装置12の画面上にポップアップ表示した後、センサ13からセンサ情報の取得を開始する(ステップST1a)。次に、入力判定部14は、センサ13からのセンサ情報に基づいて、操作者の手の方向(操作者方向)を判定し特定する(ステップST2a)。
先ず、入力判定部14は、描画処理部18により表示装置12の画面上にポップアップ表示した後、センサ13からセンサ情報の取得を開始する(ステップST1a)。次に、入力判定部14は、センサ13からのセンサ情報に基づいて、操作者の手の方向(操作者方向)を判定し特定する(ステップST2a)。
続いて、入力判定部14は、表示装置12の画面上にポップアップ表示してから1回目の測定であるか否かを判定する(ステップST3a)。ここで、1回目の測定である場合(ステップST3a;YES)、入力判定部14は、今回の測定で判定された操作者方向を不図示のメモリに記憶して、所定時間ウェイト(図9は、100msec待ちの状態)した後(ステップST6a)、ステップST1aに戻り、上記処理を繰り返す。
2回目以降の測定である場合(ステップST3a;NO)、入力判定部14が、センサ13のセンサ情報を基に前回測定した操作者方向(操作者の手の方向)と今回測定された操作者方向とが同一であるか否かを判定する(ステップST4a)。このとき、操作者方向が同一であると(ステップST4a;YES)、入力判定部14は、同一操作者の手が画面上にあると判断し、今回の測定で判定された操作者方向を上記メモリに記憶した後、ステップST6aの処理を経由してからステップST1aに戻り、上記処理を繰り返す。
操作者方向が異なる場合(ステップST4a;NO)、入力判定部14は、同一操作者の手が画面上にないと判断し、現在画面上のポップアップ表示を終了する(ステップST5a)。
なお、ステップST4aの判定において、今回測定時に操作者の手が画面上のどこにもないと判断された場合には、ステップST5aの処理に移行するようにしてもよい。
図9に示す処理では、操作者の手が画面上から離れたときは入力操作の継続意思がなくなったものと判断してポップアップ表示を終了する。このようにすることにより、例えば「戻る」ボタンの押下等の明示的な終了操作を行うことなく、ポップアップ表示を終了させることができる。
図9に示す処理では、操作者の手が画面上から離れたときは入力操作の継続意思がなくなったものと判断してポップアップ表示を終了する。このようにすることにより、例えば「戻る」ボタンの押下等の明示的な終了操作を行うことなく、ポップアップ表示を終了させることができる。
以上のように、この実施の形態1によれば、画面部品の表示位置として、操作者の手のような操作物がいずれの方向からタッチ面をタッチするかに対応付けて当該操作物で画面部品の表示が遮蔽されない位置を記憶する表示パターン格納部17を備え、操作物の方向に基づいて、表示パターン格納部17から操作物で表示が遮蔽されない表示位置を決定することにより、タッチ面のタッチに応じて画面部品を表示装置12の画面に表示する。
このように構成することで、操作者の手などで画面部品が隠れることを防止し、入力操作性の向上を図ることができる。例えば、表示装置12の最前画面にダイアログボックスやメッセージボックス、メニュー、ヘルプ文字列等をポップアップ表示する場合、操作者の手で隠れない位置にポップアップ表示することにより、操作性を向上させることができる。
このように構成することで、操作者の手などで画面部品が隠れることを防止し、入力操作性の向上を図ることができる。例えば、表示装置12の最前画面にダイアログボックスやメッセージボックス、メニュー、ヘルプ文字列等をポップアップ表示する場合、操作者の手で隠れない位置にポップアップ表示することにより、操作性を向上させることができる。
また、この実施の形態1によれば、画面上に元々表示していた画面部品のうち、ポップアップ表示によって隠れて見えなくなる画面部品については、入力処理部15が、図7に示す表示パターンデータを参照することにより、表示位置の変更及び部品サイズの縮小の少なくとも一方の処理を施す。このようにすることで、ポップアップ表示を消去する操作を行うことなく、ポップアップ表示前に元々表示していた画面部品を視認し選択することが可能となり、操作性を向上させることができる。
さらに、この実施の形態1によれば、入力判定部14が、センサ13からのセンサ情報に基づいて、ポップアップ表示した後に操作者の手がタッチ面上にあるか否かを判定し、入力処理部15が、入力判定部14によって操作者の手が所定時間タッチ面上にないと判定されると、ポップアップ表示を消去する操作が行われるのを待つことなく、ポップアップ表示を消去してポップアップ表示前の画面部品を表示させる。このようにすることで、ポップアップ表示を消去する操作を明示的に行う必要がなくなり、操作性を向上させることができる。
実施の形態2.
図10は、この発明の実施の形態2による入力装置の構成を示すブロック図である。図10において、実施の形態2の入力装置10Aは、図1で示した構成に加え、文字入力候補予測部20及び方向別入力候補予測辞書データ保持部21を設けている。
なお、図10では、描画位置判定部16及び表示パターン格納部17の記載を省略している。また、図10において、図1と同一符号を付した構成部は、実施の形態1と同一若しくは同様の機能及び構成を有するので説明を省略する。
図10は、この発明の実施の形態2による入力装置の構成を示すブロック図である。図10において、実施の形態2の入力装置10Aは、図1で示した構成に加え、文字入力候補予測部20及び方向別入力候補予測辞書データ保持部21を設けている。
なお、図10では、描画位置判定部16及び表示パターン格納部17の記載を省略している。また、図10において、図1と同一符号を付した構成部は、実施の形態1と同一若しくは同様の機能及び構成を有するので説明を省略する。
文字入力候補予測部(文字列予測手段)20は、タッチ式入力装置11に操作者が入力した文字から、この後に入力しようとしている文字列を予測する構成部である。
また、方向別入力候補予測辞書データ保持部(第2の記憶手段)21は、文字入力候補予測部20による予測処理の際に参照される入力候補予測辞書(予測辞書)を保持する記憶部であり、操作者方向に対応付けて異なる内容の辞書が保持される。
また、方向別入力候補予測辞書データ保持部(第2の記憶手段)21は、文字入力候補予測部20による予測処理の際に参照される入力候補予測辞書(予測辞書)を保持する記憶部であり、操作者方向に対応付けて異なる内容の辞書が保持される。
例えば、表示パターン格納部17には、方向別入力候補予測辞書データ保持部21が保持する辞書の予測候補ごとの表示位置が操作者方向別に登録されている。文字入力候補予測部20は、後述のようにして、方向別入力候補予測辞書データ保持部21から、操作者方向別の予測候補を選択すると、これを描画位置判定部16へ通知する。描画位置判定部16は、文字入力候補予測部20から通知のあった予測候補の表示位置を、入力判定部14が特定した操作者方向に基づき、表示パターン格納部17を参照して決定する。この後、実施の形態1と同様の手順で処理することにより、表示装置12の画面上の操作者の手で隠れない位置に予測候補が表示される。
図11は、方向別入力候補予測辞書の具体例を示す図である。図11に示すように、方向別入力候補予測辞書データ保持部21は、操作者方向とこれに応じて使用される辞書とを対応付けたリスト情報を有しており、文字入力候補予測部20は、入力予測を行う際にそれぞれの操作者方向で指定される辞書を参照する。
また、図12に示すように、文字入力候補予測部20が、例えば入力予測を行う度に、操作者の入力履歴辞書を操作者方向別(例えば左右別)に作成して方向別入力候補予測辞書データ保持部21に保存しておく。このようにすることで、操作者方向別の文字入力履歴情報から予測候補を抽出することができ、入力効率を高めることができる。
次に動作について説明する。
図13は、実施の形態2の入力装置による動作の流れを示すフローチャートであり、この図に沿って動作の詳細を述べる。
先ず、操作者がタッチ式入力装置11にタッチ入力(ステップST1b)を行うと、タッチ式入力装置11が、当該操作者からのタッチ入力を検出して、タッチ面上のタッチ位置座標を入力判定部14へ出力する。入力判定部14では、タッチ式入力装置11からタッチ位置情報が出力されると、これを契機に当該タッチ入力に対するセンサ13の検出信号を取得し、この検出信号に基づいて操作者の手が存在するタッチ面上の領域を判定し、操作者の方向を判定する(ステップST2b)。
図13は、実施の形態2の入力装置による動作の流れを示すフローチャートであり、この図に沿って動作の詳細を述べる。
先ず、操作者がタッチ式入力装置11にタッチ入力(ステップST1b)を行うと、タッチ式入力装置11が、当該操作者からのタッチ入力を検出して、タッチ面上のタッチ位置座標を入力判定部14へ出力する。入力判定部14では、タッチ式入力装置11からタッチ位置情報が出力されると、これを契機に当該タッチ入力に対するセンサ13の検出信号を取得し、この検出信号に基づいて操作者の手が存在するタッチ面上の領域を判定し、操作者の方向を判定する(ステップST2b)。
続いて、入力判定部14は、タッチ式入力装置11から入力したタッチ位置情報に基づいて、表示装置12が表示している、どの画面部品に対応するタッチ位置がタッチされたかを判別する。ここでは、図6に示した行キー「か」19aが選択されたものとする。
入力処理部15は、入力判定部14によりタッチ位置情報から判定された行キー「か」19aに基づいて、最初の入力文字が「か」であることを特定する。
入力処理部15は、入力判定部14によりタッチ位置情報から判定された行キー「か」19aに基づいて、最初の入力文字が「か」であることを特定する。
文字入力候補予測部20は、入力処理部15により特定された入力文字「か」と、ステップST2bで入力判定部14により得られた操作者方向を入力すると、この操作者方向及び入力文字を用いて、方向別入力候補予測辞書データ保持部21の保持内容を検索し、入力予測候補を抽出する辞書を決定するとともに、決定した辞書から入力文字に対応する入力候補を予測する(ステップST3b)。文字入力候補予測部20が取得した入力候補は、入力処理部15へフィードバックされる。
ステップST4bにおいて、入力処理部15は、文字入力候補予測部20から取得した入力候補を表示する画面のレイアウト情報を作成し、このレイアウト情報による描画指示を描画処理部18へ出力する。描画処理部18では、入力処理部15からの描画指示に従って、入力候補を表示装置12の画面上に表示する。
以上のように、この実施の形態2によれば、操作者の手のような操作物がいずれの方向からタッチ面をタッチするかに対応付けて、入力文字列の予測候補が登録された入力候補予測辞書を記憶する方向別入力候補予測辞書データ保持部21と、操作物によるタッチで文字が入力されると、入力判定部14が特定した操作物の方向に対応する入力候補予測辞書を方向別入力候補予測辞書データ保持部21から選択し、当該入力候補予測辞書を参照して、入力された文字から予測される入力文字列の予測候補を決定する文字入力候補予測部20とを備える。このような構成を有することにより、操作者方向と入力される語彙のジャンルの傾向に関連がある場合、操作者方向別に入力予測候補辞書を使い分けることで、文字入力の効率を高めることが可能である。
例えば、助手席ではAV等のエンタテイメント系の操作を主に行い、運転席ではナビゲーション系の操作を主に行うといった、操作者方向と入力される語彙のジャンルの傾向に関連がある場合、助手席方向からの操作に対しては音楽等のエンターテイメント系の辞書から入力候補を表示し、運転席方向からの操作に対しては施設名称等のナビゲーション系の辞書から入力候補を表示する。
例えば、助手席ではAV等のエンタテイメント系の操作を主に行い、運転席ではナビゲーション系の操作を主に行うといった、操作者方向と入力される語彙のジャンルの傾向に関連がある場合、助手席方向からの操作に対しては音楽等のエンターテイメント系の辞書から入力候補を表示し、運転席方向からの操作に対しては施設名称等のナビゲーション系の辞書から入力候補を表示する。
また、この実施の形態2によれば、方向別入力候補予測辞書データ保持部21が、操作者方向別に文字入力履歴情報を保持するので、操作者方向別の文字入力履歴情報から入力候補を予測することができ、入力効率を高めることができる。
10,10A 入力装置、11 タッチ式入力装置(タッチ式入力手段)、12 表示装置(表示手段)、13 センサ(センサ手段)、14 入力判定部(判定手段)、15 入力処理部(処理手段)、16 描画位置判定部(処理手段)、17 表示パターン格納部(第1の記憶手段)、18 描画処理部(処理手段)、19a,19b 選択ボタン、20 文字入力候補予測部(文字列予測手段)、21 方向別入力候補予測辞書データ保持部(第2の記憶手段)。
Claims (6)
- タッチ面をタッチして入力するタッチ式入力手段と、
前記タッチ式入力手段のタッチ面に対応する画面を表示する表示手段と、
前記タッチ式入力手段のタッチ面をタッチする操作物を検出するセンサ手段と、
前記センサ手段で検出された操作物の検出位置に基づいて、当該操作物がいずれの方向から前記タッチ面をタッチしたかを判定する判定手段と、
画面部品の表示位置として、前記操作物がいずれの方向から前記タッチ面をタッチするかに対応付けて、当該操作物で前記画面部品の表示が遮蔽されない位置を記憶する第1の記憶手段と、
前記判定手段が特定した前記操作物の方向を基に前記第1の記憶手段から前記操作物で表示が遮蔽されない表示位置を決定することにより、前記タッチ面のタッチに応じて画面部品を前記表示手段の画面に表示する処理手段とを備えた入力装置。 - 第1の記憶手段は、第1の画面部品が表示されると、当初の表示位置では前記第1の画面部品によって表示が遮蔽される第2の画面部品の表示位置として、操作物で表示が遮蔽されず、前記第1の画面部品の表示位置から離れた位置を記憶し、
処理手段は、タッチに応じて前記第1の画面部品を表示するにあたり、前記第1の記憶手段から決定した表示位置に前記当初の表示位置から移動して前記第2の画面部品を表示することを特徴とする請求項1記載の入力装置。 - 第1の記憶手段は、画面部品の縮小後のサイズを記憶し、
処理手段は、前記第1の記憶手段から決定した表示位置では前記画面部品が表示手段の表示画面から外れる場合、当該画面部品を前記縮小後のサイズとして表示することを特徴とする請求項1または請求項2記載の入力装置。 - 判定手段は、タッチ面のタッチに応じて画面部品がポップアップ表示されると、センサ手段の検出結果から、タッチを行った操作物のタッチ面上の存在有無を判定し、
処理手段は、前記判定手段により前記操作物がタッチ面上に所定時間存在しないと判定されると、前記画面部品のポップアップ表示を消去することを特徴とする請求項1から請求項3のうちのいずれか1項記載の入力装置。 - 操作物がいずれの方向からタッチ面をタッチするかに対応付けて、入力文字列の予測候補が登録された予測辞書を記憶する第2の記憶手段と、
前記操作物によるタッチで文字が入力されると、判定手段が特定した前記操作物の方向に対応する前記予測辞書を前記第2の記憶手段から選択し、当該予測辞書を参照して、前記入力された文字から予測される入力文字列の予測候補を決定する文字列予測手段とを備え、
処理手段は、前記文字列予測手段が決定した入力文字列の予測候補を表示手段の画面に表示することを特徴とする請求項1から請求項4のうちのいずれか1項記載の入力装置。 - 文字列予測手段は、操作物によるタッチで入力された文字列の履歴で、第2の記憶手段の予測辞書を更新することを特徴とする請求項5記載の入力装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009140152A JP2010287032A (ja) | 2009-06-11 | 2009-06-11 | 入力装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009140152A JP2010287032A (ja) | 2009-06-11 | 2009-06-11 | 入力装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010287032A true JP2010287032A (ja) | 2010-12-24 |
Family
ID=43542683
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009140152A Pending JP2010287032A (ja) | 2009-06-11 | 2009-06-11 | 入力装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010287032A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012191445A (ja) * | 2011-03-10 | 2012-10-04 | Kddi Corp | 携帯端末装置および制御プログラム |
JP2013041348A (ja) * | 2011-08-12 | 2013-02-28 | Kyocera Corp | 携帯端末、補助情報表示プログラムおよび補助情報表示方法 |
WO2013047023A1 (ja) * | 2011-09-26 | 2013-04-04 | Necカシオモバイルコミュニケーションズ株式会社 | 表示装置、表示方法およびプログラム |
JP2013242778A (ja) * | 2012-05-22 | 2013-12-05 | Denso Corp | 画像表示装置 |
JP2016024657A (ja) * | 2014-07-22 | 2016-02-08 | 日本電信電話株式会社 | マルチタッチスクリーン付き携帯端末およびその動作方法 |
JP2016517082A (ja) * | 2013-03-13 | 2016-06-09 | アマゾン テクノロジーズ インコーポレイテッド | ユーザデバイスの感覚情報の管理 |
-
2009
- 2009-06-11 JP JP2009140152A patent/JP2010287032A/ja active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012191445A (ja) * | 2011-03-10 | 2012-10-04 | Kddi Corp | 携帯端末装置および制御プログラム |
JP2013041348A (ja) * | 2011-08-12 | 2013-02-28 | Kyocera Corp | 携帯端末、補助情報表示プログラムおよび補助情報表示方法 |
WO2013047023A1 (ja) * | 2011-09-26 | 2013-04-04 | Necカシオモバイルコミュニケーションズ株式会社 | 表示装置、表示方法およびプログラム |
JPWO2013047023A1 (ja) * | 2011-09-26 | 2015-03-26 | Necカシオモバイルコミュニケーションズ株式会社 | 表示装置、表示方法およびプログラム |
US9244556B2 (en) | 2011-09-26 | 2016-01-26 | Nec Corporation | Display apparatus, display method, and program |
JP2013242778A (ja) * | 2012-05-22 | 2013-12-05 | Denso Corp | 画像表示装置 |
US9262997B2 (en) | 2012-05-22 | 2016-02-16 | Denso Corporation | Image display apparatus |
JP2016517082A (ja) * | 2013-03-13 | 2016-06-09 | アマゾン テクノロジーズ インコーポレイテッド | ユーザデバイスの感覚情報の管理 |
US9746957B2 (en) | 2013-03-13 | 2017-08-29 | Amazon Technologies, Inc. | Managing sensory information of a user device |
JP2016024657A (ja) * | 2014-07-22 | 2016-02-08 | 日本電信電話株式会社 | マルチタッチスクリーン付き携帯端末およびその動作方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101136153B1 (ko) | 지문 인식 또는 멀티 터치가 가능한 센서 그리드 방식의 투명 패널 사용자 입력 장치, 사용자 지문 인식 방법, 및 사용자 터치 인식 방법 | |
US20090073136A1 (en) | Inputting commands using relative coordinate-based touch input | |
JP5001182B2 (ja) | 表示制御装置、電子機器、表示制御方法、およびプログラム | |
US20090146968A1 (en) | Input device, display device, input method, display method, and program | |
US20100088628A1 (en) | Live preview of open windows | |
CN108733303B (zh) | 便携式终端的触摸输入方法和设备 | |
US8456433B2 (en) | Signal processing apparatus, signal processing method and selection method of user interface icon for multi-touch panel | |
US20150253925A1 (en) | Display control device, display control method and program | |
JP2008210348A (ja) | 画像表示装置 | |
JP2010287032A (ja) | 入力装置 | |
US10956030B2 (en) | Multi-touch based drawing input method and apparatus | |
US20150186347A1 (en) | Information processing device, information processing method, and computer program product | |
US9495088B2 (en) | Text entry method with character input slider | |
US20150253938A1 (en) | Unit manipulation system, and slave display device and master display device used in the system | |
JP2002350151A (ja) | ナビゲーション装置 | |
JPWO2013171919A1 (ja) | 表示制御装置、制御プログラム、および表示装置の制御方法 | |
US20150253887A1 (en) | Information processing apparatus | |
US20100171706A1 (en) | Information processor, user interface control method and program | |
US8766937B2 (en) | Method of facilitating input at an electronic device | |
JP5512379B2 (ja) | 入力装置、入力方法および入力プログラム | |
JP2012178175A (ja) | 表示制御装置、電子機器、表示制御方法、およびプログラム | |
JP2007122287A (ja) | 情報処理装置、階層情報出力方法及びプログラム | |
JP5461030B2 (ja) | 入力装置 | |
JP5437899B2 (ja) | 入力装置、入力方法および入力プログラム | |
JP5414920B2 (ja) | 表示制御装置、表示制御方法、およびプログラム |