JP5158014B2 - 表示制御装置、表示制御方法およびコンピュータプログラム - Google Patents

表示制御装置、表示制御方法およびコンピュータプログラム Download PDF

Info

Publication number
JP5158014B2
JP5158014B2 JP2009123414A JP2009123414A JP5158014B2 JP 5158014 B2 JP5158014 B2 JP 5158014B2 JP 2009123414 A JP2009123414 A JP 2009123414A JP 2009123414 A JP2009123414 A JP 2009123414A JP 5158014 B2 JP5158014 B2 JP 5158014B2
Authority
JP
Japan
Prior art keywords
display
contact
unit
operating body
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009123414A
Other languages
English (en)
Other versions
JP2010271940A (ja
Inventor
文規 本間
辰志 梨子田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009123414A priority Critical patent/JP5158014B2/ja
Priority to EP10250907A priority patent/EP2256614B1/en
Priority to AT10250907T priority patent/ATE539399T1/de
Priority to US12/779,607 priority patent/US20100295806A1/en
Priority to CN201010180327.3A priority patent/CN101893956B/zh
Publication of JP2010271940A publication Critical patent/JP2010271940A/ja
Application granted granted Critical
Publication of JP5158014B2 publication Critical patent/JP5158014B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、表示制御装置、表示制御方法およびコンピュータプログラムに関する。
近年、情報の入出力操作を誰でも容易に行うことができるようにするための手段として、例えばタッチパネル等を用いた、情報を表示する表示面と操作情報を入力する入力面とを同一軸上に重ねた表示入力装置が多く利用されている。このような表示入力装置によれば、例えば表示面に表示されたアイコンをユーザが指で触ることによりアイコンを選択するという入力情報を入力することができる。しかし、表示入力装置のタッチパネルの面積が小さい場合には、アイコン等のオブジェクトの表示が小さくなってしまう。さらに、オブジェクト同士が隣接して存在する場合にはユーザの指がオブジェクトを覆い隠してしまい、所望のオブジェクトを選択できたか否かを判別し難く、指示間違いが生じやすいという問題があった。
このような問題に対して、例えば特許文献1には、図9に示すような、表示面10に表示されたオブジェクトを指示するカーソル20が開示されている。カーソル20は、入力対象座標を指示する指示部21と、指示部21の移動動作を行う保持部22および操舵部23とを備える。ユーザは、保持部22と操舵部23を指Fで操作することによって指示部21を所望のボタンに位置させる。そして、右入力選択部24または左入力選択部25が指示されると、指示部21に対応した処理が実行される。これにより、微細な箇所での精密かつ確実な入力が可能となる。
特許第3744116号
しかし、特許文献1に記載の表示入力装置での操作では、結局カーソルを用いて間接的に操作するのと大差なく、直接選択対象をタッチして選択できないという問題があった。一方、操作体によりタッチパネルをタッチしている箇所を拡大して画面上の別の個所に表示するという手法もある。かかる手法によれば、ユーザは直接選択対象をタッチして選択できるが、選択対象は別の個所に表示されているため、実際の指の動きと別の個所に表示されている情報の操作との関連性がユーザにとって分かり難いという問題がある。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、操作体によって操作対象を操作している際に操作状態を確認することができるとともに、ユーザが違和感なく操作することが可能な、新規かつ改良された表示制御装置、表示制御方法およびコンピュータプログラムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、表示部において情報の入力位置を示すポインタを操作する操作体の、表示面に対する接触を検出する検出部と、検出部による検出結果に基づいて、操作体の表示面との接触状態を判定する接触判定部と、接触判定部により表示面に操作体が接触していると判定された場合に、操作体が表示面に接触している接触領域の形状を表す接触跡を、表示部に表示する接触跡表示処理部と、操作体が表示面に接触した状態で表示部の表示の変更を開始させる所定の状態を検知した場合に、少なくとも接触領域を含む所定の表示領域に表示されているオブジェクト、接触跡およびポインタを、操作体の接触領域とは異なる、接触領域近辺に表示させる画面表示処理部とを備える表示制御装置が提供される。接触跡表示処理部は、操作体が表示面に接触する接触領域の変化に応じて、表示部に表示されている接触跡の形状を変化させる。
本発明によれば、操作体が表示面に接触すると、接触跡表示処理部によって操作体の接触跡が表示部に表示される。そして、操作体が接触した状態でさらに所定の状態が検知されると、画面表示処理部は、表示部に表示されているオブジェクト、接触跡およびポインタを操作体の接触領域とは異なる、接触領域近辺に表示させる。これにより、操作体によって覆い隠されているオブジェクトや接触跡、ポインタをユーザが視認できるようにすることができる。そして、操作体の接触領域が変化すると、接触跡表示処理部により表示部に表示されている接触跡の形状が変化する。これにより、操作体がポインタ等と異なる位置に表示されている場合においても、ポインタが自己の操作によって動いているという同一性をユーザに感じさせることができ、操作性を向上させることができる。
ここで、画面表示処理部は、所定の状態として接触領域にオブジェクトが表示されていることや、操作体が所定時間以上前記表示面に接触していることを検知するようにしてもよい。
また、画面表示処理部は、所定の状態を検出した場合に、表示部に表示されているオブジェクト、接触跡およびポインタを所定距離だけスクロールさせることができる。例えば、画面表示処理部は、接触跡と操作体の接触領域とが重複しない位置まで、表示部に表示されているオブジェクト、接触跡およびポインタを画面上側へスクロールするようにしてもよい。
さらに、画面表示処理部は、所定の状態を検出した場合に、表示部の所定の表示領域に表示されているオブジェクト、接触跡およびポインタを接触領域近辺に拡大して表示するようにしてもよい。
また、接触跡表示処理部は、操作体の接触領域の重心に対応して接触跡の重心位置を決定することができる。そして、画面表示処理部は、接触跡の重心位置に最も近接する位置にポインタを表示する。
さらに、接触判定部により操作体が表示面から離隔したと判定されたとき、接触跡表示処理部は、表示部に表示されていた接触跡を非表示にし、画面表示処理部は、所定の状態に基づいて変化させた表示部の表示を元に戻すようにすることもできる。
また、上記課題を解決するために、本発明の別の観点によれば、表示部において情報の入力位置を示すポインタを操作する操作体の、表示面に対する接触を検出するステップと、検出結果に基づいて操作体の表示面との接触状態を判定するステップと、表示面に操作体が接触していると判定された場合に、操作体が表示面に接触している接触領域の形状を表す接触跡を表示部に表示するステップと、操作体が表示面に接触した状態で表示部の表示の変更を開始させる所定の状態を検知した場合に、少なくとも接触領域を含む所定の表示領域に表示されているオブジェクト、接触跡およびポインタを、操作体の接触位置とは異なる、接触位置近辺に表示させるステップと、操作体が表示面に接触する接触領域の変化に応じて、表示部に表示されている接触跡の形状を変化させるステップと、を含む、表示制御方法が提供される。
さらに、上記課題を解決するために、本発明の別の観点によれば、コンピュータに上記の表示制御装置として機能させるためのコンピュータプログラムが提供される。コンピュータプログラムは、コンピュータが備える記憶装置に格納され、コンピュータが備えるCPUに読み込まれて実行されることにより、そのコンピュータを上記の表示制御装置として機能させる。また、コンピュータプログラムが記録された、コンピュータで読み取り可能な記録媒体も提供される。記録媒体は、例えば磁気ディスクや光ディスクなどである。
以上説明したように本発明によれば、操作体によって操作対象を操作している際に操作状態を確認することができるとともに、ユーザが違和感なく操作することが可能な表示制御装置、表示制御方法およびコンピュータプログラムを提供することができる。
本発明の第1の実施形態にかかる表示制御装置による表示制御を説明する説明図である。 同実施形態にかかる表示制御装置のハードウェア構成を示すブロック図である。 同実施形態にかかる表示制御装置の機能構成を示す機能ブロック図である。 静電式タッチセンサにより検出された静電容量の大きさの分布を示す説明図である。 同実施形態にかかる表示制御装置による表示制御方法を示すフローチャートである。 所定の状態に応じて変化される表示部の表示を説明するための説明図である。 指の平で画面に接触しているときの指の接触状態および接触跡の形状を示す説明図である。 指先で画面に接触しているときの指の接触状態および接触跡の形状を示す説明図である。 従来の表示入力装置のカーソルの一例を示す説明図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.表示制御装置による表示制御の概要
2.表示制御装置の構成
3.表示制御装置による表示制御方法
<1.表示制御装置による表示制御の概要>
まず、図1に基づいて、本発明の実施形態にかかる表示制御装置による表示制御の概略について説明する。なお、図1は、本実施形態にかかる表示制御装置による表示制御を説明する説明図である。
本実施形態では、図1に示すように、例えばWebページやスクロールできるページ上に、オブジェクトとしてテキストが配置された画面200を想定している。テキスト上には文字などの入力位置を示す入力ポインタであるキャレット210が表示される。キャレット210によってテキストの始点終点を指定したり、テキストを選択したりする等、一般的なコンピュータのGUI(Graphical User Interface)でサポートされている操作が可能となる。本実施形態にかかる表示制御装置を特徴付ける要素として、例えば指等の操作体の接触跡220というGUI要素がある。接触跡220は、操作体が画面に接触している接触領域を表す詳細な接触形状である。本実施形態にかかる表示制御装置は、ユーザが指で画面をタッチしている状況によって接触跡220の形状を変化させて、ユーザが指で画面にタッチしている状況を正確にかつリアルタイムに接触跡に反映させる。
すなわち、本実施形態にかかる表示制御装置は、例えばタッチパネル等のように、テキスト等のオブジェクトを表示部に表示するとともに表示部の表示面に接触することで操作情報を入力可能な表示入力装置の表示を制御する。表示制御装置は、例えば指Fなどの操作体が表示面に接触したことを検知すると、指Fが接触する位置に、指Fが接触している接触領域の形状を表す接触跡220を表示部に表示させる。表示制御装置は、操作体が表示面に接触した状態でさらに所定の状態を検出すると、表示部のうち少なくとも接触領域を含む所定の表示領域に表示されている情報、接触跡220およびキャレット210を、操作体の接触位置とは異なる箇所に表示する。このとき、ユーザは、指Fを接触させた接触位置において、当該接触位置とは異なる領域に表示されたオブジェクトを操作することができる。さらに、表示制御装置は、上述したように、表示部に対するユーザの指Fの接触領域の変化にともなって接触跡220の形状を変化させる。
接触跡220は、操作体が画面200にタッチする都度生成されて表示部に表示され、操作体がリリースされる都度破棄されて表示部に表示されなくなる。これにより、ユーザは、実際の操作体の接触位置から離れた位置に接触跡220が表示されていても、実際の指Fの表示部に対する接触状況と接触跡220の形状との同一性により自己の接触跡であることを認識することができ、接触位置と異なる位置に表示されたキャレット210を違和感なく操作することができる。以下、本実施形態にかかる表示制御装置の構成とこれを用いた表示制御方法について詳細に説明する。
<2.表示制御装置の構成>
[ハードウェア構成]
まず、図2に基づいて、本実施形態にかかる表示制御装置100のハードウェア構成について説明する。なお、図2は、本実施形態にかかる表示制御装置100のハードウェア構成を示すブロック図である。
本実施形態にかかる表示制御装置100は、図2に示すように、CPU(Central Processing Unit)101と、RAM(Random Access Memory)102と、不揮発性メモリ103とを備える。さらに、表示制御装置100は、タッチパネル104と、表示装置105とを備える。
CPU101は、演算処理装置および制御装置として機能し、各種プログラムに従って表示制御装置100内の動作全般を制御する。また、CPU101は、マイクロプロセッサであってもよい。RAM102は、CPU101の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。不揮発性メモリ103は、CPU101が使用するプログラムや演算パラメータ等を記憶する。不揮発性メモリ103は、例えばROM(Read Only Memory)やフラッシュメモリ等を用いることができる。
タッチパネル104は、ユーザが情報を入力する入力装置の一例であって、情報を入力ための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU101に出力する入力制御回路などから構成されている。ユーザは、タッチパネル104を操作することにより、表示制御装置100に対して各種のデータを入力したり処理動作を指示したりすることができる。表示装置105は、情報を出力する出力装置の一例である。表示装置105として、例えばCRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置などを用いることができる。
[機能構成]
次に、図3および図4に基づいて、本実施形態にかかる表示制御装置100の機能構成について説明する。なお、図3は、本実施形態にかかる表示制御装置100の機能構成を示す機能ブロック図である。図4は、静電式タッチセンサにより検出された静電容量の大きさの分布を示す説明図である。
本実施形態にかかる表示制御装置100は、図3に示すように、表示入力部110と、接触判定部120と、接触跡表示処理部130と、画面表示処理部140とを備える。
表示入力部110は、テキストやアイコン、図形などのオブジェクトを表示するとともに、操作体で触れることにより表示されたオブジェクトを操作可能な装置である。表示入力部110の情報を操作する操作体としては、例えば指やタッチペン等を用いることができる。表示入力部110は、オブジェクトを表示する表示部112と、操作体の表示部112の表示面に対する近接および接触を検出する検出部114とからなる。表示部112は、図2の表示装置105に相当し、例えば液晶ディスプレイや有機ELディスプレイを用いることができる。また、検出部114は、図2のタッチパネル104に相当し、例えば、静電容量の変化を検出するセンサや、表示部112への圧力の変化を検出するセンサ、光量の変化(影の濃さ)を検出することで操作体の近接を検知する光学方式のセンサ等を用いることができる。
例えば、検出部114が静電容量の変化を検出する静電式のタッチパネルである場合、当該タッチパネルは、静電センサを格子状(例えば10×6)に配置して構成することができる。タッチパネルは、静電容量の変化によってその値を常時変化させる。静電センサに指が近接したり接触したりした場合には、静電センサにより検出される静電容量は増加する。静電センサにより検出される静電容量の増加量の変化に基づいて、タップ等のインタラクションを検出することができる。また、個々の静電センサの静電容量は同時に取得することが可能となる。このため、後述するように、検出部114によりすべての静電センサの静電容量の変化を同時に検出し、後述の接触跡表示処理部130で補間することによってタッチパネルに近接または接触する操作体(例えば指F)の形状を取得することができる。なお、本実施形態にかかる検出部114は、少なくとも表示入力部110に対する操作体の接触を検出できればよい。
検出部114は、検出した検出値を検出結果として接触判定部120および接触跡表示処理部130へ出力する。なお、検出部114が表示部112のオブジェクト表示面側に設けられる場合、ユーザは、検出部114に操作体を接触させて表示部112に表示されたキャレット等のポインタを操作する。このとき、操作体が実際に接触するのは検出部114の表面であるが、以下においては、このように操作体を接触させる面を「(表示入力部110の)表示面」として説明する。
接触判定部120は、操作体が表示入力部110の表示面に接触したか否かを判定する。例えば、検出部114が静電容量の変化を検出する静電式のタッチパネルである場合、接触判定部120は、検出部114が検出した静電容量の値に基づいて、操作体が表示入力部110の表示面に接触したか否かを判定する。静電式のタッチパネルを用いると、図4に示すように、表示面に対する操作体の接触または近接距離に応じて変化する静電容量の大きさを把握することができる。図4において黒色で表わされている領域は指Fがタッチパネルに接触している接触領域であって、静電容量が大きい領域である。一方、白色で表わされている領域はタッチパネルと対向して指が存在していない領域であって、静電容量は低い。このように、タッチパネルにより検出される静電容量の大きさにより操作体がタッチパネルに接触しているか否かを判定することができる。接触判定部120は、操作体が表示入力部110の表示面に接触したか否かについての判定結果に基づいて、接触跡表示処理部130および画面表示処理部140に対して実行する処理を指示する。
接触跡表示処理部130は、操作体が表示入力部110の表示面に接触している場合に、表示面に操作体が接触している接触領域を表す接触跡を表示部112に表示させる。接触跡表示処理部130は、接触判定部120による指示に基づいて接触跡を表示部112に表示させるための処理を行う。また、接触跡表示処理部130は、表示部112に表示されている接触跡の形状を検出部114により検出される検出結果に応じて変化させる処理を行う。接触跡表示処理部130は、処理した情報を表示部112に出力して、表示部112に接触跡を表示させる。
画面表示処理部140は、表示部112に表示されるオブジェクトの表示を制御する。本実施形態では、表示部112に表示されているオブジェクトが、表示入力部110の表示面に接触する操作体によって覆い隠されているときに、画面表示処理部140は、表示部112の表示を変更する。これにより、表示部112に表示されているオブジェクトが操作体によって覆い隠されて、ユーザがキャレット操作時に視認できなくなる状態を防止することができる。画面表示処理部140は、表示部112の表示を変更させる指示情報を表示部112に出力して、表示部112に表示を変更させる。
以上、本実施形態にかかる表示制御装置100の構成について説明した。次に、図5〜図8に基づいて、表示制御装置100による表示制御方法について説明する。なお、図5は、本実施形態にかかる表示制御装置100による表示制御方法を示すフローチャートである。図6は、所定の状態に応じて変化される表示部の表示を説明するための説明図である。図7は、指の平で画面に接触しているときの指の接触状態および接触跡の形状を示す説明図である。図8は、指先で画面に接触しているときの指の接触状態および接触跡の形状を示す説明図である。
<3.表示制御装置による表示制御方法>
本実施形態にかかる表示制御装置100による表示制御方法は、図5に示すように、まず、接触判定部120により表示入力部110の表示面に操作体が接触したか否かが判定される(ステップS100)。接触判定部120は、上述したように、検出部114の検出結果に基づいて操作体が表示入力部110の表示面に接触しているか否かを判定することができる。例えば検出部114が静電式のタッチパネルからなる場合、接触判定部120は、指Fが表示入力部110の表示面に接触していないときの静電センサの検出値を基準として、検出される静電容量が所定の値以上に増加したとき、指Fが表示入力部110に接触したと判定する。接触判定部120は、指Fが表示入力部110の表示面に接触したと判定するまでステップS100の処理を繰り返す。
指Fが表示入力部110の表示面に接触したと判定すると、接触判定部120は、接触跡表示処理部130に対して接触跡を表示させる(ステップS110)。接触跡表示処理部130は、検出部114の検出結果である静電容量の変化から指Fが表示入力部110の表示面に接触する接触領域の形状を画像として認識し、当該画像に対して所定のエッジ抽出処理およびエッジの平滑化処理を行う。表示部112に表示される接触跡220は、例えば図6(a)に示すように指Fの接触領域と略同一または相似する形状で表わされる。接触跡220の重心と接触領域の重心は対応している。接触跡220は、その領域に透過色を付したり、領域の境界線のみを表示したりすることでユーザに分かり易いように表わすことができる。接触跡表示処理部130は、これらの処理を施した画像を表示入力部110へ出力し、表示部112に表示させる。
なお、このときキャレット210は、接触領域の重心位置と同一または最も近接した位置に表示される。ユーザは指Fの接触領域にキャレット210を移動させるために指Fを表示面に接触させるが、キャレット210は、テキスト等のオブジェクトの入力位置を示すポインタであり、例えば文字と文字との間等キャレット210の表示可能な位置には制約がある。このようにキャレット210を必ずしも接触領域の重心と同一の位置に表示させることができないため、画面表示処理部140は接触領域の重心位置と同一または最も近接した位置に表示させるようにする。これにより、キャレット210が接触跡220の領域内あるいはその近辺に表示されるようになり、指Fの移動によって移動する接触跡220に対応してキャレット210が移動するので、キャレット210の操作性をより向上させることができる。
次いで、接触判定部120は、指Fの接触位置に表示されているオブジェクトを接触領域と異なる位置に表示させる処理を開始する所定の状態(トリガー)を検出したか否かを判定する(ステップS120)。トリガーは、操作体の所定の動作や所定の状況とすることができる。本実施形態では、表示部112における指Fの接触位置にテキスト等の情報が表示されていることをトリガーとする。接触判定部120は、検出部114により検出された指Fの接触位置と表示部112における情報の表示状態とから、指Fの接触領域にテキスト等のオブジェクトが表示されているか否かを判定することができる。接触判定部120は、オブジェクトが指Fの接触位置に表示されていないと判定している間は、ステップS100に戻り、ステップS100からS120の処理を繰り返す。
なお、指Fの接触領域に表示されているオブジェクトを接触領域と異なる位置に表示させる処理を開始する所定の状態は、上記例に限定されない。例えば操作体が表示入力部110の表示面に接触してから所定時間がカウント部(図示せず。)によりカウントされたか否か(すなわち、指Fが表示面に長押しされているか否か)をトリガーとしてもよい。あるいは、指Fが表示面に押し込まれて、検出部114により検出された接触領域の面積が変化したか否かをトリガーとしてもよい。また、表示制御装置100に表示面におけるジェスチャを判定する動作判定部(図示せず。)を設けて、表示面で行われる所定のジェスチャをトリガーとすることもできる。例えば、接触面に接触させている指Fと異なる指を表示面で2回続けてタップするダブルタップなどの所定のジェスチャが行われたか否か等をトリガーとしてもよい。ステップS120ではこれらの状態のうち1つ以上をトリガーとして設定することができる。複数のトリガー条件が設定された場合、すべての条件を満たしたときにステップS130の処理を実行してもよく、いずれか1つの条件を満たしたときにステップS130の処理を実行してもよい。
一方、指Fの接触領域にオブジェクトが表示されていると判定した場合、接触判定部120は、表示部112に表示されている画面全体を所定距離だけスクロールして、オブジェクトの表示位置を移動させる(ステップS130)。本実施形態では、接触領域を含む所定の表示領域として表示部112に表示されている画面全体を設定する。例えば、図6(a)に示すように、指Fが表示入力部110の表示面に接触しており、指Fの接触位置にテキストが表示されているとする。そうすると、接触判定部120は、画面表示処理部140に対して画面全体を所定の方向にスクロールさせて、指Fに隠れているテキストを表示させるよう指示する。画面表示処理部140は、表示部112に表示されているテキスト、キャレット210および接触跡220を、指Fに対する手首の位置と略反対側の方向、例えば図6(b)に示すように表示部112に表示された画面全体を上部側に所定距離だけスクロールさせる。
ここで、所定距離は、例えば接触跡220が指Fによって隠れない程度の距離とすることができ、例えば約10mm程度とすることができる。あるいは、表示部112にテキストが表示されている場合には、テキストの文字の高さ方向における接触跡220の長さとキャレット210の長さとのうちいずれか大きい方を所定の距離としてもよい。これにより、キャレット210を操作するために指Fに隠れてしまったオブジェクトを、ユーザが確認できるようにすることができる。
画面、キャレット210および接触跡220がスクロールされると、図6(b)に示すように、実際に指Fが表示入力部110の表示面に接触している接触位置と異なる位置に、操作対象であるキャレット210やオブジェクト、接触跡220が表示されるようになる。この間も、検出部114は、ユーザの指Fの接触状態を検出し続けており、検出結果を接触判定部120および接触跡表示処理部130へ出力している。接触跡表示処理部130は、検出部114による検出結果に基づいて、表示部112に表示されている接触跡220の形状を変形させる(ステップS140)。接触跡220の表示の変形処理は、ステップS110の処理と同様に行うことができる。
すなわち、接触跡220の形状は、表示入力部110の表示面に指Fが接触している状態に応じて変化する。例えば図7に示すように、指Fが指の平で表示入力部110と接触している場合には、接触跡220の形状は指の長手方向に長い略楕円形状となり、接触跡220の面積(すなわち、指Fの接触面積)は大きくなる。一方、図8に示すように、指Fが指先で表示入力部110と接触している場合には、接触跡220の形状は面積の小さい、指の幅方向に長い略楕円形状となる。このように、表示面に対する指Fの接触のさせ方によって指Fが表示入力部110の表示面に接触する接触領域は変化する。すなわち、ステップS140では、指Fの接触領域と異なる位置に表示された、指Fの接触跡220の形状をリアルタイムに変化させる処理が行われる。これにより、ユーザは、指Fの接触位置と異なる位置に表示されたキャレット210やオブジェクトを直接操作するような感覚で操作することができるようになる。
その後、接触判定部120は、操作体が表示入力部110の表示面からリリースされたか否かを判定する(ステップS150)。接触判定部120は、検出部114の検出結果に基づいて、操作体が表示入力部110の表示面からリリースされたか否かを判定することができる。例えば、検出部114として静電式のタッチパネルを用いる場合、検出部114により検出された静電容量が前の時間と比較して減少したり、指Fが接触していないときの静電センサの検出値と略同一となったとき、操作体のリリース動作が行われたと判断することができる。
ステップS150において操作体のリリース動作が検出された場合には、接触跡表示処理部130は、接触跡220を非表示化して表示部112に表示させないようにする。さらに、画面表示処理部140は、上部側へ移動されていた画面を元の位置に戻す(ステップS160)。このように、操作体が表示面から離隔されたときに接触跡220を非表示とすることにより、操作体の表示面への接触状態をユーザに通知することができる。また、移動されていたオブジェクトを元の位置に戻すことにより、ユーザが意図しない位置にオブジェクトが移動されてしまうのを防止することができる。そして、表示制御装置100は、図5に示す表示制御処理を終了する。
一方、ステップS150にて操作体のリリース動作が検出されないときは、接触判定部120は、操作体のドラッグ動作が検出されたか否かを判定する(ステップS170)。ドラッグ動作とは、操作体を表示入力部110に接触させたまま移動させる動作である。本実施形態では、ドラッグ動作をキャレット210によるテキスト等のオブジェクの選択処理と関連付けている。接触判定部120によりドラッグが検出されると、接触跡表示処理部130および画面表示処理部140は、キャレット210および接触跡220をドラッグ動作に合わせて移動させる(ステップS180)。
例えば、図6(b)に示すように、表示入力部110に表示されたテキストの間にキャレット210が表示されている状態で、指Fを画面右方向にドラッグしたとする。そうすると、図6(c)に示すように、指Fのドラッグ動作に合わせてテキスト間に表示されたキャレット210および接触跡220が画面右方向に移動する。そして、キャレット210が図6(b)から図6(c)へ移動した軌跡上に表示されているテキストが選択された状態となる。このように、指Fを移動させることで、指Fの接触領域とは異なる位置に表示されたオブジェクトを操作することができる。そして、ステップS180の処理が終わると、ステップS140に戻り、表示制御装置100はステップS140からの処理を繰り返す。なお、ステップS170においてドラッグ動作が検出されなかった場合も同様にステップS140からの処理が繰り返される。
以上、本実施形態にかかる表示制御装置100による表示制御方法について説明した。本実施形態にかかる表示制御方法によれば、検出部114による検出結果に基づいて操作体の接触跡220が表示部112に表示されるとともに、操作体が表示面に接触された状態でさらに所定の状態(トリガー)が検出されると画面全体が一時的にスクロールされる。そして、操作体の移動に合わせてキャレット210および接触跡220を移動させる。このとき、キャレット210とともに表示されている接触跡220の形状を操作体の接触状態に応じて自由に変形させることができる。このため、キャレット210と実際の操作体の接触位置とが異なる位置に表示されていても、操作体と当該操作体により操作されているキャレット210との同一性を確保することができる。これにより、ユーザは、キャレット210が操作体に隠れない位置に表示された状態で、キャレット210を直接移動させているような感覚で違和感なく移動させることができる。
なお、本実施形態では、例えばWebページやスクロールできるページ上にテキストが配置された画面200を例として説明したが、本実施形態にかかる表示制御装置100による表示制御方法は、他の例にも適用可能である。例えば、表示入力部110に操作体を接触させて図形を描写する場合に、表示制御装置100による表示制御方法を用いることができる。このとき、表示部に表示されたオブジェクトは、予め表示されているテキストやアイコン、入力ポインタによって入力された図形等とすることができる。
例えば、図形を描写する操作体によって、例えば線の入力位置を示す入力ポインタや描写中の図形が隠れてしまったりすると、ユーザは細かな描写を行い難くなる。そこで、操作体の表示面に対する接触が検出された場合には、操作体の接触領域を表す接触跡を表示部に表示する。そして、操作体が接触された状態でさらに所定の状態(トリガー)が検出された場合に例えば画面をスクロールさせて、オブジェクト、入力ポインタおよび接触跡を一次的に移動させる。これにより、ユーザは操作対象である入力ポインタを視認しながら図形を描写することができる。また、接触跡は操作体の表示面に対する接触領域に応じてリアルタイムに変形されるので、操作体と操作体の接触領域と異なる位置に表示された入力ポインタとの同一性を確保することができる。したがって、ユーザは、接触跡の表示により違和感なくポインタを操作する操作体を移動させることができる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、上記実施形態では、操作体で覆い隠された情報を視認できるようにするため所定の表示領域をスクロールさせたが、本発明はかかる例に限定されない。例えば、操作体の接触領域を含む所定の表示領域に表示されているオブジェクトを別画面として、操作体の接触位置近辺に表示させてもよい。このとき、別画面に表示される所定の表示領域のオブジェクトは拡大して表示してもよい。これにより、オブジェクトや操作対象の視認や操作を行い易くすることもできる。
100 表示制御置
110 表示入力部
112 表示部
114 検出部
120 接触判定部
130 接触跡表示処理部
140 画面表示処理部
210 キャレット
220 接触跡

Claims (10)

  1. 表示部において情報の入力位置を示すポインタを操作する操作体の、前記表示部の表示面に対する接触を検出する検出部と、
    前記検出部による検出結果に基づいて、前記操作体の前記表示面との接触状態を判定する接触判定部と、
    前記接触判定部により前記表示面に前記操作体が接触していると判定された場合に、前記操作体が前記表示面に接触している接触領域の形状を表す接触跡を、前記表示部に表示する接触跡表示処理部と、
    前記操作体が前記表示面に接触した状態で前記表示部の表示の変更を開始させる所定の状態を検知した場合に、少なくとも前記接触領域を含む所定の表示領域に表示されているオブジェクト、前記接触跡および前記ポインタを、前記操作体の接触領域とは異なる、前記接触領域近辺に表示させる画面表示処理部と、
    を備え、
    前記接触跡表示処理部は、前記操作体が前記表示面に接触する前記接触領域の変化に応じて、前記表示部に表示されている前記接触跡の形状を変化させる、表示制御装置。
  2. 前記画面表示処理部は、前記所定の状態として前記接触領域にオブジェクトが表示されていることを検知する、請求項1に記載の表示制御装置。
  3. 前記画面表示処理部は、前記所定の状態として前記操作体が所定時間以上前記表示面に接触していることを検知する、請求項1または2に記載の表示制御装置。
  4. 前記画面表示処理部は、前記所定の状態を検出した場合に、前記表示部に表示されているオブジェクト、前記接触跡および前記ポインタを所定距離だけスクロールする、請求項1〜3のいずれか1項に記載の表示制御装置。
  5. 前記画面表示処理部は、前記接触跡と前記操作体の接触領域とが重複しない位置まで、前記表示部に表示されているオブジェクト、前記接触跡および前記ポインタを画面上側へスクロールする、請求項4に記載の表示制御装置。
  6. 前記画面表示処理部は、前記所定の状態を検出した場合に、前記表示部の前記所定の表示領域に表示されているオブジェクト、前記接触跡および前記ポインタを前記接触領域近辺に拡大して表示する、請求項1〜3のいずれか1項に記載の表示制御装置。
  7. 前記接触跡表示処理部は、前記操作体の接触領域の重心に対応して前記接触跡の重心位置を決定し、
    前記画面表示処理部は、前記接触跡の重心位置に最も近接する位置に前記ポインタを表示する、請求項1〜6のいずれか1項に記載の表示制御装置。
  8. 前記接触判定部により前記操作体が前記表示面から離隔したと判定されたとき、
    前記接触跡表示処理部は、前記表示部に表示されていた前記接触跡を非表示にし、
    前記画面表示処理部は、前記所定の状態に基づいて変化させた前記表示部の表示を元に戻す、請求項1〜7のいずれか1項に記載の表示制御装置。
  9. 表示部において情報の入力位置を示すポインタを操作する操作体の、前記表示部の表示面に対する接触を検出するステップと、
    検出結果に基づいて前記操作体の前記表示面との接触状態を判定するステップと、
    前記表示面に前記操作体が接触していると判定された場合に、前記操作体が前記表示面に接触している接触領域の形状を表す接触跡を前記表示部に表示するステップと、
    前記操作体が前記表示面に接触した状態で前記表示部の表示の変更を開始させる所定の状態を検知した場合に、少なくとも前記接触領域を含む所定の表示領域に表示されているオブジェクト、前記接触跡および前記ポインタを、前記操作体の接触領域とは異なる、前記接触領域近辺に表示させるステップと、
    前記操作体が前記表示面に接触する前記接触領域の変化に応じて、前記表示部に表示されている前記接触跡の形状を変化させるステップと、
    を含む、表示制御方法。
  10. 表示部において情報の入力位置を示すポインタを操作する操作体の、前記表示部の表示面に対する接触を検出する検出部による検出結果に基づいて、前記操作体の前記表示面との接触状態を判定する接触判定手段と、
    前記接触判定手段により前記表示面に前記操作体が接触していると判定された場合に、前記操作体が前記表示面に接触している接触領域の形状を表す接触跡を、前記表示部に表示する接触跡表示処理手段と、
    前記操作体が前記表示面に接触した状態で前記表示部の表示の変更を開始させる所定の状態を検知した場合に、少なくとも前記接触領域を含む所定の表示領域に表示されているオブジェクト、前記接触跡および前記ポインタを、前記操作体の接触領域とは異なる、前記接触領域近辺に表示させる画面表示処理手段と、
    を備え、
    前記接触跡表示処理手段は、前記操作体が前記表示面に接触する前記接触領域の変化に応じて、前記表示部に表示されている前記接触跡の形状を変化させる、表示制御装置として機能させるためのコンピュータプログラム。
JP2009123414A 2009-05-21 2009-05-21 表示制御装置、表示制御方法およびコンピュータプログラム Expired - Fee Related JP5158014B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2009123414A JP5158014B2 (ja) 2009-05-21 2009-05-21 表示制御装置、表示制御方法およびコンピュータプログラム
EP10250907A EP2256614B1 (en) 2009-05-21 2010-05-11 Display control apparatus, display control method, and computer program
AT10250907T ATE539399T1 (de) 2009-05-21 2010-05-11 Anzeigesteuerungsvorrichtung, anzeigesteuerungsverfahren und computerprogramm
US12/779,607 US20100295806A1 (en) 2009-05-21 2010-05-13 Display control apparatus, display control method, and computer program
CN201010180327.3A CN101893956B (zh) 2009-05-21 2010-05-14 显示控制设备、显示控制方法和计算机程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009123414A JP5158014B2 (ja) 2009-05-21 2009-05-21 表示制御装置、表示制御方法およびコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2010271940A JP2010271940A (ja) 2010-12-02
JP5158014B2 true JP5158014B2 (ja) 2013-03-06

Family

ID=42633328

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009123414A Expired - Fee Related JP5158014B2 (ja) 2009-05-21 2009-05-21 表示制御装置、表示制御方法およびコンピュータプログラム

Country Status (5)

Country Link
US (1) US20100295806A1 (ja)
EP (1) EP2256614B1 (ja)
JP (1) JP5158014B2 (ja)
CN (1) CN101893956B (ja)
AT (1) ATE539399T1 (ja)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134273A (ja) * 2009-12-25 2011-07-07 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP5149954B2 (ja) * 2010-11-25 2013-02-20 東芝テック株式会社 情報処理端末
JP2012185798A (ja) 2011-02-16 2012-09-27 Ricoh Co Ltd 座標検出システム、情報処理装置、方法、プログラムおよび記録媒体
JP2012185647A (ja) * 2011-03-04 2012-09-27 Sony Corp 表示制御装置、表示制御方法、およびプログラム
US8490008B2 (en) 2011-11-10 2013-07-16 Research In Motion Limited Touchscreen keyboard predictive display and generation of a set of characters
US9122672B2 (en) 2011-11-10 2015-09-01 Blackberry Limited In-letter word prediction for virtual keyboard
US9652448B2 (en) 2011-11-10 2017-05-16 Blackberry Limited Methods and systems for removing or replacing on-keyboard prediction candidates
US9715489B2 (en) 2011-11-10 2017-07-25 Blackberry Limited Displaying a prediction candidate after a typing mistake
US9310889B2 (en) 2011-11-10 2016-04-12 Blackberry Limited Touchscreen keyboard predictive display and generation of a set of characters
JP5102412B1 (ja) 2011-12-27 2012-12-19 パナソニック株式会社 情報端末、情報端末の制御方法、及び、プログラム
US9557913B2 (en) 2012-01-19 2017-01-31 Blackberry Limited Virtual keyboard display having a ticker proximate to the virtual keyboard
CA2789827C (en) 2012-01-19 2017-06-13 Research In Motion Limited Virtual keyboard providing an indication of received input
GB2503968B (en) 2012-02-24 2021-02-17 Blackberry Ltd Touchscreen keyboard providing word predictions in partitions of the touchscreen keyboard in proximate association with candidate letters
WO2013123571A1 (en) 2012-02-24 2013-08-29 Research In Motion Limited Virtual keyboard with dynamically reconfigurable layout
US9201510B2 (en) 2012-04-16 2015-12-01 Blackberry Limited Method and device having touchscreen keyboard with visual cues
GB2508450A (en) * 2012-04-30 2014-06-04 Blackberry Ltd Method and apparatus for text selection
US10025487B2 (en) 2012-04-30 2018-07-17 Blackberry Limited Method and apparatus for text selection
US9292192B2 (en) 2012-04-30 2016-03-22 Blackberry Limited Method and apparatus for text selection
EP2660697B1 (en) * 2012-04-30 2017-03-01 BlackBerry Limited Method and apparatus for text selection
US9354805B2 (en) 2012-04-30 2016-05-31 Blackberry Limited Method and apparatus for text selection
US9207860B2 (en) 2012-05-25 2015-12-08 Blackberry Limited Method and apparatus for detecting a gesture
US9116552B2 (en) 2012-06-27 2015-08-25 Blackberry Limited Touchscreen keyboard providing selection of word predictions in partitions of the touchscreen keyboard
CN106843692B (zh) * 2012-08-30 2021-05-18 中兴通讯股份有限公司 触摸屏字符显示方法及装置
US9524290B2 (en) 2012-08-31 2016-12-20 Blackberry Limited Scoring predictions based on prediction length and typing speed
US9063653B2 (en) 2012-08-31 2015-06-23 Blackberry Limited Ranking predictions based on typing speed and typing confidence
US10719224B1 (en) * 2013-04-29 2020-07-21 David Graham Boyers Methods and graphical user interfaces for pointing and editing on computing devices with touch-sensitive displays
JP2015153197A (ja) * 2014-02-14 2015-08-24 Clinks株式会社 ポインティング位置決定システム
US20150346998A1 (en) * 2014-05-30 2015-12-03 Qualcomm Incorporated Rapid text cursor placement using finger orientation
US20160378251A1 (en) * 2015-06-26 2016-12-29 Microsoft Technology Licensing, Llc Selective pointer offset for touch-sensitive display device
JP6418299B1 (ja) * 2017-09-15 2018-11-07 株式会社セガゲームス 情報処理装置及びプログラム
US11320983B1 (en) * 2018-04-25 2022-05-03 David Graham Boyers Methods and graphical user interfaces for positioning a selection, selecting, and editing, on a computing device running applications under a touch-based operating system
CN112748842A (zh) * 2020-12-31 2021-05-04 维沃移动通信有限公司 文本选取方法和装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9605216D0 (en) * 1996-03-12 1996-05-15 Ncr Int Inc Display system and method of moving a cursor of the display system
JP3744116B2 (ja) 1997-04-08 2006-02-08 松下電器産業株式会社 表示入力装置
FI115254B (fi) * 2001-12-20 2005-03-31 Nokia Corp Kosketusnäytön käyttäminen osoitinvälineellä
JP2005234993A (ja) * 2004-02-20 2005-09-02 Toshiba Corp 画像表示装置、及び画像表示方法
JP4179197B2 (ja) * 2004-03-12 2008-11-12 日本電信電話株式会社 リンク先コンテンツ同時閲覧方法、リンク先コンテンツ同時閲覧装置およびリンク先コンテンツ同時閲覧プログラム
US7653883B2 (en) * 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US7489306B2 (en) * 2004-12-22 2009-02-10 Microsoft Corporation Touch screen accuracy
US8077153B2 (en) * 2006-04-19 2011-12-13 Microsoft Corporation Precise selection techniques for multi-touch screens
US8570278B2 (en) * 2006-10-26 2013-10-29 Apple Inc. Portable multifunction device, method, and graphical user interface for adjusting an insertion point marker
US7855779B2 (en) * 2007-05-25 2010-12-21 Seiko Epson Corporation Display device and detection method
US8009146B2 (en) * 2007-06-28 2011-08-30 Nokia Corporation Method, apparatus and computer program product for facilitating data entry via a touchscreen
JP4450038B2 (ja) * 2007-09-12 2010-04-14 株式会社カシオ日立モバイルコミュニケーションズ 情報表示装置及びプログラム
US8650507B2 (en) * 2008-03-04 2014-02-11 Apple Inc. Selecting of text using gestures
US8576181B2 (en) * 2008-05-20 2013-11-05 Lg Electronics Inc. Mobile terminal using proximity touch and wallpaper controlling method thereof
US8284170B2 (en) * 2008-09-30 2012-10-09 Apple Inc. Touch screen device, method, and graphical user interface for moving on-screen objects without using a cursor
KR101531192B1 (ko) * 2008-11-14 2015-06-25 엘지전자 주식회사 이동 단말기 및 이를 이용한 맵 표시 방법
US9658760B2 (en) * 2009-05-07 2017-05-23 Creative Technology Ltd. Methods for searching digital files on a user interface

Also Published As

Publication number Publication date
EP2256614B1 (en) 2011-12-28
CN101893956A (zh) 2010-11-24
CN101893956B (zh) 2013-03-27
ATE539399T1 (de) 2012-01-15
EP2256614A1 (en) 2010-12-01
US20100295806A1 (en) 2010-11-25
JP2010271940A (ja) 2010-12-02

Similar Documents

Publication Publication Date Title
JP5158014B2 (ja) 表示制御装置、表示制御方法およびコンピュータプログラム
JP4734435B2 (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置
EP2500813B1 (en) Information processing apparatus, information processing method, and computer-readable storage medium
US8633906B2 (en) Operation control apparatus, operation control method, and computer program
JP4518955B2 (ja) 接触エリアの移動させられた表現を用いたユーザインタフェース
US10203869B2 (en) Information processing apparatus, and input control method and program of information processing apparatus
US10007382B2 (en) Information processing apparatus and information processing method
EP1569075A2 (en) Pointing device for a terminal having a touch screen and method for using same
KR20100059698A (ko) 유저인터페이스 제공 장치, 제공방법, 및 이를 기록한 컴퓨터 판독 가능한 기록매체
KR20150014083A (ko) 전자 장치 및 전자 장치의 입력 인식 방법
JP5780438B2 (ja) 電子機器、位置指定方法及びプログラム
KR101636665B1 (ko) 프로그래머블 표시기 및 그 화면 조작 처리 프로그램
US20170131882A1 (en) Information processing apparatus, information processing method, and computer program product
KR20080066416A (ko) 터치 스크린을 갖는 이동 단말기의 사용자 인터페이스 방법
JP5845585B2 (ja) 情報処理装置
KR101505806B1 (ko) 터치 스크린 디스플레이에서의 포인터 활성화 및 제어 방법 및 장치
JP2006085218A (ja) タッチパネル操作装置
JP5769841B2 (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置
JP2018023792A (ja) ゲーム装置及びプログラム
JP6126639B2 (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置及びゲームプログラム。
JP5523381B2 (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置
US11893229B2 (en) Portable electronic device and one-hand touch operation method thereof
JP5769765B2 (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置
JP6204414B2 (ja) ゲーム装置及びプログラム
JP6112147B2 (ja) 電子機器、及び位置指定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121126

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151221

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees