JP2005044026A - 命令実行方法、命令実行プログラムおよび命令実行装置 - Google Patents
命令実行方法、命令実行プログラムおよび命令実行装置 Download PDFInfo
- Publication number
- JP2005044026A JP2005044026A JP2003201016A JP2003201016A JP2005044026A JP 2005044026 A JP2005044026 A JP 2005044026A JP 2003201016 A JP2003201016 A JP 2003201016A JP 2003201016 A JP2003201016 A JP 2003201016A JP 2005044026 A JP2005044026 A JP 2005044026A
- Authority
- JP
- Japan
- Prior art keywords
- screen
- objects
- operator
- displayed
- instruction execution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Input From Keyboards Or The Like (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】タッチパネルを具備した機器に文字入力をはじめとする各種処理を指示するにあたって、画面上のオブジェクト(ボタン、アイコンなど)の指定を正確かつ容易に行えるよう操作者を支援すること。
【解決手段】画面上で押圧された位置が複数のオブジェクトの表示領域にまたがっていて、オブジェクトが一つに特定できない場合、本発明では当該複数のオブジェクトを画面上で強調表示(具体的には拡大)する。そして、その状態で画面上の任意の場所が押圧された場合に、その時点でフォーカスが位置しているオブジェクトに対応する命令を実行する。したがって、誤って同時に複数のオブジェクトに触れてしまった場合でも、強調表示された目的のオブジェクトにフォーカスが巡ってきたタイミングで画面上の任意の場所に触れるだけで、最初から目的のオブジェクトだけに正確に触れたのと同じ結果が得られる。
【選択図】 図5
【解決手段】画面上で押圧された位置が複数のオブジェクトの表示領域にまたがっていて、オブジェクトが一つに特定できない場合、本発明では当該複数のオブジェクトを画面上で強調表示(具体的には拡大)する。そして、その状態で画面上の任意の場所が押圧された場合に、その時点でフォーカスが位置しているオブジェクトに対応する命令を実行する。したがって、誤って同時に複数のオブジェクトに触れてしまった場合でも、強調表示された目的のオブジェクトにフォーカスが巡ってきたタイミングで画面上の任意の場所に触れるだけで、最初から目的のオブジェクトだけに正確に触れたのと同じ結果が得られる。
【選択図】 図5
Description
【0001】
【発明の属する技術分野】
この発明は、画面上に表示された複数のオブジェクトのうち操作者により指定されたものを特定して当該オブジェクトに対応する命令を実行する命令実行方法、命令実行プログラムおよび命令実行装置に関する。
【0002】
【従来の技術】
画面上のオブジェクト(ボタン、アイコンなど)に指で触れることで、文字入力やメニュー選択などの各種命令(コマンド)を実行できるタッチパネルは、操作者がキーボードに不慣れであったり、キーボードを設置する物理的スペースがなかったりする場合の入力手段として、パーソナル・コンピュータのほかPDA、ATM、カーナビゲーションシステムなどに広く利用されている。
【0003】
そしてこのタッチパネルについては、従来から、入力を容易化するためのさまざまな工夫が提案されてきた。たとえば、タッチパネルのキー入力に対応するキー画像を拡大する、というものである(たとえば、特許文献1参照。)。
【0004】
また、タッチパネルでは複数のキーを同時に押下してしまう場合が多いため、押下された複数のシンボル領域を拡大するもの(たとえば、特許文献2参照。)、表示されている画像情報の大きさを変更するもの(たとえば、特許文献3参照。)、最初に押下されたキーを中心に拡大表示し指を離すと元に戻るもの(たとえば、特許文献4参照。)、押下された複数のキーを含む分割キーボードを拡大表示するもの(たとえば、特許文献5参照。)、あらかじめ複数キー配列から入力しやすいものを選択したり、押下された複数のキーの周辺を拡大したり、あるいは電卓などの機能単位で拡大したりするもの(たとえば、特許文献6参照。)がある。
【0005】
さらに、操作者の指示により拡大画像を表示する際の工夫については、拡大画像を原画像全体と重ならない位置に表示するものがある(たとえば、特許文献7参照。)。
【0006】
【特許文献1】
特許第2595045号公報
【特許文献2】
特許第2531416号公報
【特許文献3】
特開昭63−004322号公報
【特許文献4】
特開2002−91677号公報
【特許文献5】
特開平8−234909号公報
【特許文献6】
特許第3235480号公報
【特許文献7】
特開2000−250681号公報
【0007】
【発明が解決しようとする課題】
しかしながら上記例のように、押下された複数のオブジェクトを単純に拡大表示する方式では、画面イメージが大幅に変化するため、それまで表示できていた必要情報が隠れてしまうことがある。また、拡大された領域が依然として入力しづらいものであった場合、拡大画像のどの部分に触れたらよいのかを認識するのに時間がかかる。
【0008】
さらに、拡大画像を原画像にかからない位置に表示する方式では、原画像の全体表示にこだわるあまり、拡大画像を表示するための十分な領域が確保できず、依然として操作性の問題が残ってしまうという問題があった。
【0009】
この発明は上記従来技術による問題を解決するため、文字入力をはじめとする各種処理の指示にあたって、画面上のオブジェクトの指定を正確かつ容易に行えるよう操作者を支援することが可能な命令実行方法、命令実行プログラムおよび命令実行装置を提供することを目的とする。
【0010】
【課題を解決するための手段】
上述した課題を解決し、目的を達成するため、この発明にかかる命令実行方法、命令実行プログラムまたは命令実行装置は、画面上に表示された複数のオブジェクトのうち操作者により指定されたものを特定して当該オブジェクトに対応する命令を実行する命令実行方法、命令実行プログラムまたは命令実行装置において、画面上で押圧された位置の座標から操作者が指定したオブジェクトを特定し、オブジェクトが一つに特定できないときは上記オブジェクトの候補となる複数のオブジェクトの強調画像を表示して、その状態で画面上の任意の場所が押圧された場合に、その時点で選択中のオブジェクト(フォーカスが位置しているオブジェクト)に対応する命令を実行する。
【0011】
上記発明によれば、誤って同時に複数のオブジェクトに触れてしまった場合でも、強調表示(具体的には拡大など)された目的のオブジェクトにフォーカスが巡ってきたタイミングで画面上の任意の場所に触れるだけで、目的のオブジェクトだけに触れた場合と同様に当該オブジェクトに対応する命令を実行させることができる。
【0012】
なお、本発明でいう「押圧」の意味は、実際にタッチパネルなどに圧力を加える場合のみをいうものではなく、人の指などの接触や接近を感知し、それによってオブジェクトを選択する場合の「接触」や「接近」を含むものとする。
【0013】
【発明の実施の形態】
以下に添付図面を参照して、この発明にかかる命令実行方法、命令実行プログラムおよび命令実行装置の好適な実施の形態を詳細に説明する。
【0014】
図1は、本発明の実施の形態による命令実行装置の構成を機能的に示す説明図である。本発明の実施の形態による命令実行装置は、具体的にはタッチパネル100を具備したパーソナル・コンピュータである。そしてそのHD(ハードディスク)には、電卓機能すなわち仮想的な計算機を表示して、操作者の指示によりリアルタイムに四則演算などを行うプログラムが保持されている。
【0015】
図示する各部のうち、記憶部103は上記HDによって実現され、また表示制御部102、入力座標算出部104、出力座標算出部105および命令実行部106は、CPU(プロセッサ)がHDからRAMに読み出した上記プログラムを実行することにより実現される。なお、このプログラムはHDのほか、FD、CD−RW、MOなどの各種の記録媒体に格納して配布することができ、ネットワークを介して配布することも可能である。
【0016】
また、図2は本発明の実施の形態による命令実行装置における、命令実行処理(タッチパネル100からの入力を受け付けて各種命令を実行する処理)の手順を示すフローチャートである。以下、図2に示す手順に沿って、図1に示した各部の機能を順次説明する。
【0017】
上記装置はまず表示制御部102の画像読み出し部102aにより、たとえば図3に示すような操作画面のデータを記憶部103から読み出して、出力座標算出部105に出力する。出力座標算出部105は、ディスプレイ101上で上記画面を表示すべき位置(出力座標)を算出するとともに、当該位置に当該画面を出力(表示)する(ステップS201)。
【0018】
この状態でディスプレイ101の前面のタッチパネル100が指などにより押圧されると(ステップS202:Yes)、タッチパネル100から所定の入力信号が入力座標算出部104に出力され、入力座標算出部104は上記信号から、押圧された画面位置(入力座標)を算出する(ステップS203)。
【0019】
ここで算出された入力座標は、入力座標算出部104から表示制御部102のオブジェクト特定部102bに出力され、オブジェクト特定部102bにより、入力座標とディスプレイ101に表示中の各オブジェクトの座標(後者の座標は出力座標算出部105が管理している)とが照合される。
【0020】
そしてオブジェクト特定部102bは、押圧されたオブジェクトが一つに特定できない場合、たとえば入力座標がオブジェクトAの表示領域とオブジェクトBの表示領域の双方にまたがっている場合に(ステップS204:No)、画像読み出し部102aに指示して、記憶部103から上記各オブジェクトの強調画像を読み出させる(ステップS205)。
【0021】
たとえば図3に示した操作画面で、指でタッチされた位置が「9」ボタン300と「÷」ボタン301の双方にまたがっていた場合、上記で取り出される強調画像は、具体的には図4に示すような2つの画像(「9」ボタン300と「÷」ボタン301の拡大画像)である。すなわち、どれと一つには特定できないが、操作者が意図したオブジェクトである可能性のある複数の候補の、それぞれの強調画像が読み出される。
【0022】
なお、強調の具体的な形態はここでは拡大であるが、拡大に限定しない何らかの変形、色や輝度の変更、点滅や明滅、あるいは自動音声によるオブジェクト名の読み上げなど強調の形態は任意である。要するに通常の表示形態よりも「目立つ」形態であれば何であってもよい。
【0023】
また、ここではあらかじめ記憶部103に各オブジェクトの強調画像を用意しておくようにしたが、複数のオブジェクトが押圧される都度、それぞれの強調画像を通常の画像から作成するようにしてもよい。
【0024】
上記各画像は、画像読み出し部102aから出力座標算出部105に出力され、出力座標算出部105は、ディスプレイ101上で当該画像を表示すべき位置(出力座標)を算出する(ステップS206)。この出力座標は、たとえば入力座標の平均値(中央)を中心として、その周囲に各オブジェクトの強調画像が等間隔に配置されるよう決められる。あるいは、現在表示中の各オブジェクト(通常サイズ)の表示領域の中心と、再表示後の各オブジェクト(拡大サイズ)の表示領域の中心とが一致するように決めてもよい。
【0025】
ただしこのとき、再表示後のオブジェクトの表示領域があらかじめ指定された領域に重なってしまう場合は(ステップS207:Yes)、出力座標算出部105は上記で算出した出力座標を、当該領域と重複しないように補正する(ステップS208)。
【0026】
この領域とは、ここではたとえば入力文字領域302(タッチパネル100から入力された文字がエコー表示される領域)であるものとする。ステップS206で算出した座標のままだと、拡大後のオブジェクトの上端が入力文字領域302にかかってしまう場合、ステップS208で強調画像の出力座標を、その背後に入力文字が隠れてしまわない位置まで下方向に補正する。その後ディスプレイ101の、上記で算出(必要に応じて補正)した位置に、上記各画像を出力(表示)する(ステップS209)。
【0027】
一方、表示制御部102のフォーカス制御部102cは、強調表示された複数のオブジェクトのうち一つをフォーカスの位置するオブジェクトとして選択するとともに(ステップS210)、当該オブジェクトの識別情報、すなわちどのオブジェクトを選択したかを出力座標算出部105に通知する。
【0028】
そして出力座標算出部105では、選択されたオブジェクト(強調表示中)の現在の表示領域から、たとえばその外縁もしくは外枠にあたる領域の座標を算出し(ステップS211)、ディスプレイ101の当該位置にカーソルを出力(表示)する(ステップS212)。
【0029】
図5は、このステップS212の直後の操作画面の一例を示す説明図である。図示するように、図3に示したボタン300・301がそれぞれボタン500・501に拡大されるとともに(ボタン500・501は入力文字領域502を避けて表示されていることに注意)、選択されたボタン500の周囲にカーソル503が表示されている。
【0030】
一方、表示制御部102の時間計測部102dはステップS210の選択の時点から経過時間の計測を開始し、何の入力もないまま所定時間(たとえば1秒)が経過すると(ステップS213:No、ステップS214:Yes)、その旨の信号をフォーカス制御部102cに出力する。
【0031】
これを受けたフォーカス制御部102cでは、前回選択したのとは別のオブジェクトを一つ選択し(ステップS210)、この結果たとえば図5の画面でボタン500に位置していたカーソル503が、ボタン501の位置に再表示(移動)される(ステップS211・S212)。
【0032】
なお、時間計測部102dにより計測される所定時間は、あらかじめ操作者が自由に設定できる。一般に、パーソナル・コンピュータやPDAなどではこの時間は短めでよいが、カーナビゲーションシステムのように、操作者が入力に集中できるとは限らない装置では、より長めに設定しておくほうが使いやすい。
【0033】
また、ここでは強調表示中に何らかの入力がない限り、フォーカスは各オブジェクトをサイクリックに巡回してゆくようにしたが、たとえばあらかじめ設定した回数だけステップS210〜S214を繰り返しても何の入力もなかった場合は、ステップS209で表示した強調画像を消去して、図3の操作画面に戻るようにしてもよい。
【0034】
また、フォーカスの巡回順序はどのようであってもよく、左上隅→右上隅→左下隅→右下隅のようなZ型の移動のほか、操作者が意図したオブジェクトである可能性がより高いオブジェクト(たとえば入力座標の大半がそのオブジェクトの表示領域に含まれるようなオブジェクト)を、優先的にフォーカスするようにしてもよい。
【0035】
一方、図5の画面が表示された状態でタッチパネル100のどこか(場所は問わない)が押圧されると(ステップS213:Yes)、入力座標算出部104により算出された入力座標が、表示制御部102のオブジェクト特定部102bに出力される。
【0036】
そしてオブジェクト特定部102bは、現在フォーカスが位置しているオブジェクトがどれであるかをフォーカス制御部102cに問い合わせ、当該オブジェクトの識別情報を命令実行部106(上記識別情報に対応する命令の実行を制御する機能部)に出力する(ステップS215)。
【0037】
なお、ステップS204でオブジェクトを一意に特定できる場合は(ステップS204:Yes)、ステップS205〜S214を省略して直接ステップS215で、当該オブジェクトの識別情報を出力する。
【0038】
以上説明した実施の形態によれば、誤って同時に複数のオブジェクトに触れてしまった場合、それら複数のオブジェクトが強調表示(たとえば拡大表示)されるとともに、いずれか一つに位置するフォーカスが一定の時間間隔で順次移動してゆく。そして、あるオブジェクトにフォーカスが位置している間に、タッチパネル100の任意の場所に触れるだけで、当該オブジェクトに対応する入力を行うことができる。
【0039】
このように、画面全体や入力座標の周辺領域でなく、ボタンなどのオブジェクトのみを強調表示するので、画面がちらついて入力しづらくなることはない。また、強調表示中はタッチパネル100のどこに触れても、フォーカスのあるオブジェクトに対する入力とみなされるので、強調後の画面で触れるべき場所を改めて探す必要もなく、迅速かつ正確に入力を行うことができる。
【0040】
したがって、誤って同時に複数のオブジェクトに触れてしまった場合でも、強調表示(具体的には拡大など)された目的のオブジェクトにフォーカスが巡ってきたタイミングで画面上の任意の場所に触れるだけで、目的のオブジェクトだけに触れた場合と同様に当該オブジェクトに対応する命令を実行させることができるので、これによって、文字入力をはじめとする各種処理の指示にあたって、画面上のオブジェクトの指定を正確かつ容易に行えるよう操作者を支援することが可能となる。
【0041】
さらに、入力結果や入力に不可欠な情報を表示していて、オブジェクトの背後に隠れてしまうのは望ましくない領域、具体的にはたとえば入力文字領域502は避けるようにしてオブジェクトが拡大されるので、強調によりかえって入力がしづらくなることもない。
【0042】
なお、上述した実施の形態は押圧されたオブジェクトが2つの例であるが、この個数はいくつであってもよい。たとえば図6はソフトウエアキーボードの画面の一例、図7は図6の画面で、入力座標が「I」「O」「K]「L」の4つのオブジェクトにまたがっていた場合の強調表示の一例である。「O」に位置しているフォーカスの表現が、上述した実施の形態と若干異なる(外縁上のカーソルのほか、オブジェクトそのものにも網掛けがなされている)以外は、基本的に図5と同様である。
【0043】
また、フォーカスは上記のほか、オブジェクトの点滅などによっても表現することができる。たとえば図8はスクロールバーを備えたウィンドウの一例、図9は図8の画面で、入力座標が上スクロールボタン800と下スクロールボタン801の双方にまたがっていた場合の強調表示の一例である。ボタン800・801がそれぞれボタン900・901に拡大されるとともに、フォーカス中のボタン900は点滅表示になっている。
【0044】
なお、上記例では強調後のオブジェクトが、ウィンドウ内のデータ(スクロールされる領域内のデータ)を隠してしまわないように、ウィンドウの外側方向へ向かってボタン800・801が拡大されている。
【0045】
また、上記はいずれもパーソナル・コンピュータの画面例であるが、本発明はタッチパネル100とディスプレイ101を備えたどんな機器にも応用することができる。たとえば図10はカレンダーの表示機能を備えた携帯電話の画面の一例、図11は図10の画面で、入力座標が「8」「9」「15」「16」の4つのオブジェクトにまたがっていた場合の強調表示の一例である。図11の画面も本質的に、図5や図7、図9の画面と変わるところがない。
【0046】
特にディスプレイ101が小さい携帯電話のような機器では、誤って一度に複数のオブジェクトを押してしまいがちであるが、本発明によればその場合も、目的のオブジェクトにフォーカスが巡回してくるのを待って、画面上の適当な場所に触れればよいだけなので、誤操作を容易に修正できる。
【0047】
なお、本実施の形態における命令実行方法は、あらかじめ用意されたコンピュータ読み取り可能なプログラムであってもよく、またそのプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現される。このプログラムは、HD(ハードディスク)、FD(フレキシブルディスク)、CD−ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。また、このプログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒体であってもよい。
【0048】
(付記1)画面上に表示された複数のオブジェクトのうち操作者により指定されたものを特定して当該オブジェクトに対応する命令を実行する命令実行方法において、
前記画面上で押圧された位置の座標を算出する入力座標算出工程と、
前記入力座標算出工程で算出された座標から前記操作者により指定されたオブジェクトを特定するオブジェクト特定工程と、
前記オブジェクト特定工程でオブジェクトが一つに特定できない場合に、前記操作者により指定されたオブジェクトの候補となる複数のオブジェクトの強調画像を前記画面上に表示する強調画像表示工程と、
前記強調画像表示工程で強調画像を表示された複数のオブジェクトのうち一つを選択するオブジェクト選択工程と、
前記強調画像表示工程で強調画像を表示された前記画面上の任意の場所が押圧された場合に、前記オブジェクト選択工程で選択されたオブジェクトに対応する命令を実行する命令実行工程と、
を含んだことを特徴とする命令実行方法。
【0049】
(付記2)前記操作者により指定されたオブジェクトが一つに特定できない場合が、前記入力座標算出工程で算出された座標が前記画面上に表示された複数のオブジェクトの表示領域にまたがっている場合であることを特徴とする前記付記1に記載の命令実行方法。
【0050】
(付記3)前記強調画像表示工程では、前記画面上で所定の情報が表示されている表示領域を避けて前記強調画像を表示することを特徴とする前記付記1または付記2に記載の命令実行方法。
【0051】
(付記4)前記オブジェクト選択工程では、前回の選択から所定時間を経過すると前記複数のオブジェクトのうち前回選択したオブジェクトに代えて別のオブジェクトを選択することを特徴とする前記付記1〜付記3のいずれか一つに記載の命令実行方法。
【0052】
(付記5)画面上に表示された複数のオブジェクトのうち操作者により指定されたものを特定して当該オブジェクトに対応する命令を実行するときに用いる命令実行プログラムであって、
前記画面上で押圧された位置の座標を算出する入力座標算出工程と、
前記入力座標算出工程で算出された座標から前記操作者により指定されたオブジェクトを特定するオブジェクト特定工程と、
前記オブジェクト特定工程でオブジェクトが一つに特定できない場合に、前記操作者により指定されたオブジェクトの候補となる複数のオブジェクトの強調画像を前記画面上に表示する強調画像表示工程と、
前記強調画像表示工程で強調画像を表示された複数のオブジェクトのうち一つを選択するオブジェクト選択工程と、
前記強調画像表示工程で強調画像を表示された前記画面上の任意の場所が押圧された場合に、前記オブジェクト選択工程で選択されたオブジェクトに対応する命令を実行する命令実行工程と、
をプロセッサに実行させることを特徴とする命令実行プログラム。
【0053】
(付記6)画面上に表示された複数のオブジェクトのうち操作者により指定されたものを特定して当該オブジェクトに対応する命令を実行する命令実行装置において、
前記画面上で押圧された位置の座標を算出する入力座標算出手段と、
前記入力座標算出手段により算出された座標から前記操作者により指定されたオブジェクトを特定するオブジェクト特定手段と、
前記オブジェクト特定手段によりオブジェクトが一つに特定できない場合に、前記操作者により指定されたオブジェクトの候補となる複数のオブジェクトの強調画像を前記画面上に表示する強調画像表示手段と、
前記強調画像表示手段により強調画像を表示された複数のオブジェクトのうち一つを選択するオブジェクト選択手段と、
前記強調画像表示手段により強調画像を表示された前記画面上の任意の場所が押圧された場合に、前記オブジェクト選択手段により選択されたオブジェクトに対応する命令を実行する命令実行手段と、
を備えたことを特徴とする命令実行装置。
【0054】
【発明の効果】
以上説明したように本発明によれば、文字入力をはじめとする各種処理の指示にあたって、画面上のオブジェクトの指定を正確かつ容易に行えるよう操作者を支援することが可能な命令実行方法、命令実行プログラムおよび命令実行装置が得られるという効果を奏する。
【図面の簡単な説明】
【図1】本発明の実施の形態による命令実行装置の構成を機能的に示す説明図である。
【図2】本発明の実施の形態による命令実行装置における、命令実行処理の手順を示すフローチャートである。
【図3】本発明の実施の形態による命令実行装置の操作画面(通常表示画面)の一例を示す説明図である。
【図4】図3に示した操作画面中のオブジェクト300・301の強調画像の一例を示す説明図である。
【図5】本発明の実施の形態による命令実行装置の操作画面(強調表示画面)の一例を示す説明図である。
【図6】操作画面(通常表示画面)の他の一例を示す説明図である。
【図7】操作画面(強調表示画面)の他の一例を示す説明図である。
【図8】操作画面(通常表示画面)の他の一例を示す説明図である。
【図9】操作画面(強調表示画面)の他の一例を示す説明図である。
【図10】操作画面(通常表示画面)の他の一例を示す説明図である。
【図11】操作画面(強調表示画面)の他の一例を示す説明図である。
【符号の説明】
100 タッチパネル
101 ディスプレイ
102 表示制御部
102a 画像読み出し部
102b オブジェクト特定部
102c フォーカス制御部
102d 時間計測部
103 記憶部
104 入力座標算出部
105 出力座標算出部
106 命令実行部
【発明の属する技術分野】
この発明は、画面上に表示された複数のオブジェクトのうち操作者により指定されたものを特定して当該オブジェクトに対応する命令を実行する命令実行方法、命令実行プログラムおよび命令実行装置に関する。
【0002】
【従来の技術】
画面上のオブジェクト(ボタン、アイコンなど)に指で触れることで、文字入力やメニュー選択などの各種命令(コマンド)を実行できるタッチパネルは、操作者がキーボードに不慣れであったり、キーボードを設置する物理的スペースがなかったりする場合の入力手段として、パーソナル・コンピュータのほかPDA、ATM、カーナビゲーションシステムなどに広く利用されている。
【0003】
そしてこのタッチパネルについては、従来から、入力を容易化するためのさまざまな工夫が提案されてきた。たとえば、タッチパネルのキー入力に対応するキー画像を拡大する、というものである(たとえば、特許文献1参照。)。
【0004】
また、タッチパネルでは複数のキーを同時に押下してしまう場合が多いため、押下された複数のシンボル領域を拡大するもの(たとえば、特許文献2参照。)、表示されている画像情報の大きさを変更するもの(たとえば、特許文献3参照。)、最初に押下されたキーを中心に拡大表示し指を離すと元に戻るもの(たとえば、特許文献4参照。)、押下された複数のキーを含む分割キーボードを拡大表示するもの(たとえば、特許文献5参照。)、あらかじめ複数キー配列から入力しやすいものを選択したり、押下された複数のキーの周辺を拡大したり、あるいは電卓などの機能単位で拡大したりするもの(たとえば、特許文献6参照。)がある。
【0005】
さらに、操作者の指示により拡大画像を表示する際の工夫については、拡大画像を原画像全体と重ならない位置に表示するものがある(たとえば、特許文献7参照。)。
【0006】
【特許文献1】
特許第2595045号公報
【特許文献2】
特許第2531416号公報
【特許文献3】
特開昭63−004322号公報
【特許文献4】
特開2002−91677号公報
【特許文献5】
特開平8−234909号公報
【特許文献6】
特許第3235480号公報
【特許文献7】
特開2000−250681号公報
【0007】
【発明が解決しようとする課題】
しかしながら上記例のように、押下された複数のオブジェクトを単純に拡大表示する方式では、画面イメージが大幅に変化するため、それまで表示できていた必要情報が隠れてしまうことがある。また、拡大された領域が依然として入力しづらいものであった場合、拡大画像のどの部分に触れたらよいのかを認識するのに時間がかかる。
【0008】
さらに、拡大画像を原画像にかからない位置に表示する方式では、原画像の全体表示にこだわるあまり、拡大画像を表示するための十分な領域が確保できず、依然として操作性の問題が残ってしまうという問題があった。
【0009】
この発明は上記従来技術による問題を解決するため、文字入力をはじめとする各種処理の指示にあたって、画面上のオブジェクトの指定を正確かつ容易に行えるよう操作者を支援することが可能な命令実行方法、命令実行プログラムおよび命令実行装置を提供することを目的とする。
【0010】
【課題を解決するための手段】
上述した課題を解決し、目的を達成するため、この発明にかかる命令実行方法、命令実行プログラムまたは命令実行装置は、画面上に表示された複数のオブジェクトのうち操作者により指定されたものを特定して当該オブジェクトに対応する命令を実行する命令実行方法、命令実行プログラムまたは命令実行装置において、画面上で押圧された位置の座標から操作者が指定したオブジェクトを特定し、オブジェクトが一つに特定できないときは上記オブジェクトの候補となる複数のオブジェクトの強調画像を表示して、その状態で画面上の任意の場所が押圧された場合に、その時点で選択中のオブジェクト(フォーカスが位置しているオブジェクト)に対応する命令を実行する。
【0011】
上記発明によれば、誤って同時に複数のオブジェクトに触れてしまった場合でも、強調表示(具体的には拡大など)された目的のオブジェクトにフォーカスが巡ってきたタイミングで画面上の任意の場所に触れるだけで、目的のオブジェクトだけに触れた場合と同様に当該オブジェクトに対応する命令を実行させることができる。
【0012】
なお、本発明でいう「押圧」の意味は、実際にタッチパネルなどに圧力を加える場合のみをいうものではなく、人の指などの接触や接近を感知し、それによってオブジェクトを選択する場合の「接触」や「接近」を含むものとする。
【0013】
【発明の実施の形態】
以下に添付図面を参照して、この発明にかかる命令実行方法、命令実行プログラムおよび命令実行装置の好適な実施の形態を詳細に説明する。
【0014】
図1は、本発明の実施の形態による命令実行装置の構成を機能的に示す説明図である。本発明の実施の形態による命令実行装置は、具体的にはタッチパネル100を具備したパーソナル・コンピュータである。そしてそのHD(ハードディスク)には、電卓機能すなわち仮想的な計算機を表示して、操作者の指示によりリアルタイムに四則演算などを行うプログラムが保持されている。
【0015】
図示する各部のうち、記憶部103は上記HDによって実現され、また表示制御部102、入力座標算出部104、出力座標算出部105および命令実行部106は、CPU(プロセッサ)がHDからRAMに読み出した上記プログラムを実行することにより実現される。なお、このプログラムはHDのほか、FD、CD−RW、MOなどの各種の記録媒体に格納して配布することができ、ネットワークを介して配布することも可能である。
【0016】
また、図2は本発明の実施の形態による命令実行装置における、命令実行処理(タッチパネル100からの入力を受け付けて各種命令を実行する処理)の手順を示すフローチャートである。以下、図2に示す手順に沿って、図1に示した各部の機能を順次説明する。
【0017】
上記装置はまず表示制御部102の画像読み出し部102aにより、たとえば図3に示すような操作画面のデータを記憶部103から読み出して、出力座標算出部105に出力する。出力座標算出部105は、ディスプレイ101上で上記画面を表示すべき位置(出力座標)を算出するとともに、当該位置に当該画面を出力(表示)する(ステップS201)。
【0018】
この状態でディスプレイ101の前面のタッチパネル100が指などにより押圧されると(ステップS202:Yes)、タッチパネル100から所定の入力信号が入力座標算出部104に出力され、入力座標算出部104は上記信号から、押圧された画面位置(入力座標)を算出する(ステップS203)。
【0019】
ここで算出された入力座標は、入力座標算出部104から表示制御部102のオブジェクト特定部102bに出力され、オブジェクト特定部102bにより、入力座標とディスプレイ101に表示中の各オブジェクトの座標(後者の座標は出力座標算出部105が管理している)とが照合される。
【0020】
そしてオブジェクト特定部102bは、押圧されたオブジェクトが一つに特定できない場合、たとえば入力座標がオブジェクトAの表示領域とオブジェクトBの表示領域の双方にまたがっている場合に(ステップS204:No)、画像読み出し部102aに指示して、記憶部103から上記各オブジェクトの強調画像を読み出させる(ステップS205)。
【0021】
たとえば図3に示した操作画面で、指でタッチされた位置が「9」ボタン300と「÷」ボタン301の双方にまたがっていた場合、上記で取り出される強調画像は、具体的には図4に示すような2つの画像(「9」ボタン300と「÷」ボタン301の拡大画像)である。すなわち、どれと一つには特定できないが、操作者が意図したオブジェクトである可能性のある複数の候補の、それぞれの強調画像が読み出される。
【0022】
なお、強調の具体的な形態はここでは拡大であるが、拡大に限定しない何らかの変形、色や輝度の変更、点滅や明滅、あるいは自動音声によるオブジェクト名の読み上げなど強調の形態は任意である。要するに通常の表示形態よりも「目立つ」形態であれば何であってもよい。
【0023】
また、ここではあらかじめ記憶部103に各オブジェクトの強調画像を用意しておくようにしたが、複数のオブジェクトが押圧される都度、それぞれの強調画像を通常の画像から作成するようにしてもよい。
【0024】
上記各画像は、画像読み出し部102aから出力座標算出部105に出力され、出力座標算出部105は、ディスプレイ101上で当該画像を表示すべき位置(出力座標)を算出する(ステップS206)。この出力座標は、たとえば入力座標の平均値(中央)を中心として、その周囲に各オブジェクトの強調画像が等間隔に配置されるよう決められる。あるいは、現在表示中の各オブジェクト(通常サイズ)の表示領域の中心と、再表示後の各オブジェクト(拡大サイズ)の表示領域の中心とが一致するように決めてもよい。
【0025】
ただしこのとき、再表示後のオブジェクトの表示領域があらかじめ指定された領域に重なってしまう場合は(ステップS207:Yes)、出力座標算出部105は上記で算出した出力座標を、当該領域と重複しないように補正する(ステップS208)。
【0026】
この領域とは、ここではたとえば入力文字領域302(タッチパネル100から入力された文字がエコー表示される領域)であるものとする。ステップS206で算出した座標のままだと、拡大後のオブジェクトの上端が入力文字領域302にかかってしまう場合、ステップS208で強調画像の出力座標を、その背後に入力文字が隠れてしまわない位置まで下方向に補正する。その後ディスプレイ101の、上記で算出(必要に応じて補正)した位置に、上記各画像を出力(表示)する(ステップS209)。
【0027】
一方、表示制御部102のフォーカス制御部102cは、強調表示された複数のオブジェクトのうち一つをフォーカスの位置するオブジェクトとして選択するとともに(ステップS210)、当該オブジェクトの識別情報、すなわちどのオブジェクトを選択したかを出力座標算出部105に通知する。
【0028】
そして出力座標算出部105では、選択されたオブジェクト(強調表示中)の現在の表示領域から、たとえばその外縁もしくは外枠にあたる領域の座標を算出し(ステップS211)、ディスプレイ101の当該位置にカーソルを出力(表示)する(ステップS212)。
【0029】
図5は、このステップS212の直後の操作画面の一例を示す説明図である。図示するように、図3に示したボタン300・301がそれぞれボタン500・501に拡大されるとともに(ボタン500・501は入力文字領域502を避けて表示されていることに注意)、選択されたボタン500の周囲にカーソル503が表示されている。
【0030】
一方、表示制御部102の時間計測部102dはステップS210の選択の時点から経過時間の計測を開始し、何の入力もないまま所定時間(たとえば1秒)が経過すると(ステップS213:No、ステップS214:Yes)、その旨の信号をフォーカス制御部102cに出力する。
【0031】
これを受けたフォーカス制御部102cでは、前回選択したのとは別のオブジェクトを一つ選択し(ステップS210)、この結果たとえば図5の画面でボタン500に位置していたカーソル503が、ボタン501の位置に再表示(移動)される(ステップS211・S212)。
【0032】
なお、時間計測部102dにより計測される所定時間は、あらかじめ操作者が自由に設定できる。一般に、パーソナル・コンピュータやPDAなどではこの時間は短めでよいが、カーナビゲーションシステムのように、操作者が入力に集中できるとは限らない装置では、より長めに設定しておくほうが使いやすい。
【0033】
また、ここでは強調表示中に何らかの入力がない限り、フォーカスは各オブジェクトをサイクリックに巡回してゆくようにしたが、たとえばあらかじめ設定した回数だけステップS210〜S214を繰り返しても何の入力もなかった場合は、ステップS209で表示した強調画像を消去して、図3の操作画面に戻るようにしてもよい。
【0034】
また、フォーカスの巡回順序はどのようであってもよく、左上隅→右上隅→左下隅→右下隅のようなZ型の移動のほか、操作者が意図したオブジェクトである可能性がより高いオブジェクト(たとえば入力座標の大半がそのオブジェクトの表示領域に含まれるようなオブジェクト)を、優先的にフォーカスするようにしてもよい。
【0035】
一方、図5の画面が表示された状態でタッチパネル100のどこか(場所は問わない)が押圧されると(ステップS213:Yes)、入力座標算出部104により算出された入力座標が、表示制御部102のオブジェクト特定部102bに出力される。
【0036】
そしてオブジェクト特定部102bは、現在フォーカスが位置しているオブジェクトがどれであるかをフォーカス制御部102cに問い合わせ、当該オブジェクトの識別情報を命令実行部106(上記識別情報に対応する命令の実行を制御する機能部)に出力する(ステップS215)。
【0037】
なお、ステップS204でオブジェクトを一意に特定できる場合は(ステップS204:Yes)、ステップS205〜S214を省略して直接ステップS215で、当該オブジェクトの識別情報を出力する。
【0038】
以上説明した実施の形態によれば、誤って同時に複数のオブジェクトに触れてしまった場合、それら複数のオブジェクトが強調表示(たとえば拡大表示)されるとともに、いずれか一つに位置するフォーカスが一定の時間間隔で順次移動してゆく。そして、あるオブジェクトにフォーカスが位置している間に、タッチパネル100の任意の場所に触れるだけで、当該オブジェクトに対応する入力を行うことができる。
【0039】
このように、画面全体や入力座標の周辺領域でなく、ボタンなどのオブジェクトのみを強調表示するので、画面がちらついて入力しづらくなることはない。また、強調表示中はタッチパネル100のどこに触れても、フォーカスのあるオブジェクトに対する入力とみなされるので、強調後の画面で触れるべき場所を改めて探す必要もなく、迅速かつ正確に入力を行うことができる。
【0040】
したがって、誤って同時に複数のオブジェクトに触れてしまった場合でも、強調表示(具体的には拡大など)された目的のオブジェクトにフォーカスが巡ってきたタイミングで画面上の任意の場所に触れるだけで、目的のオブジェクトだけに触れた場合と同様に当該オブジェクトに対応する命令を実行させることができるので、これによって、文字入力をはじめとする各種処理の指示にあたって、画面上のオブジェクトの指定を正確かつ容易に行えるよう操作者を支援することが可能となる。
【0041】
さらに、入力結果や入力に不可欠な情報を表示していて、オブジェクトの背後に隠れてしまうのは望ましくない領域、具体的にはたとえば入力文字領域502は避けるようにしてオブジェクトが拡大されるので、強調によりかえって入力がしづらくなることもない。
【0042】
なお、上述した実施の形態は押圧されたオブジェクトが2つの例であるが、この個数はいくつであってもよい。たとえば図6はソフトウエアキーボードの画面の一例、図7は図6の画面で、入力座標が「I」「O」「K]「L」の4つのオブジェクトにまたがっていた場合の強調表示の一例である。「O」に位置しているフォーカスの表現が、上述した実施の形態と若干異なる(外縁上のカーソルのほか、オブジェクトそのものにも網掛けがなされている)以外は、基本的に図5と同様である。
【0043】
また、フォーカスは上記のほか、オブジェクトの点滅などによっても表現することができる。たとえば図8はスクロールバーを備えたウィンドウの一例、図9は図8の画面で、入力座標が上スクロールボタン800と下スクロールボタン801の双方にまたがっていた場合の強調表示の一例である。ボタン800・801がそれぞれボタン900・901に拡大されるとともに、フォーカス中のボタン900は点滅表示になっている。
【0044】
なお、上記例では強調後のオブジェクトが、ウィンドウ内のデータ(スクロールされる領域内のデータ)を隠してしまわないように、ウィンドウの外側方向へ向かってボタン800・801が拡大されている。
【0045】
また、上記はいずれもパーソナル・コンピュータの画面例であるが、本発明はタッチパネル100とディスプレイ101を備えたどんな機器にも応用することができる。たとえば図10はカレンダーの表示機能を備えた携帯電話の画面の一例、図11は図10の画面で、入力座標が「8」「9」「15」「16」の4つのオブジェクトにまたがっていた場合の強調表示の一例である。図11の画面も本質的に、図5や図7、図9の画面と変わるところがない。
【0046】
特にディスプレイ101が小さい携帯電話のような機器では、誤って一度に複数のオブジェクトを押してしまいがちであるが、本発明によればその場合も、目的のオブジェクトにフォーカスが巡回してくるのを待って、画面上の適当な場所に触れればよいだけなので、誤操作を容易に修正できる。
【0047】
なお、本実施の形態における命令実行方法は、あらかじめ用意されたコンピュータ読み取り可能なプログラムであってもよく、またそのプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現される。このプログラムは、HD(ハードディスク)、FD(フレキシブルディスク)、CD−ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。また、このプログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒体であってもよい。
【0048】
(付記1)画面上に表示された複数のオブジェクトのうち操作者により指定されたものを特定して当該オブジェクトに対応する命令を実行する命令実行方法において、
前記画面上で押圧された位置の座標を算出する入力座標算出工程と、
前記入力座標算出工程で算出された座標から前記操作者により指定されたオブジェクトを特定するオブジェクト特定工程と、
前記オブジェクト特定工程でオブジェクトが一つに特定できない場合に、前記操作者により指定されたオブジェクトの候補となる複数のオブジェクトの強調画像を前記画面上に表示する強調画像表示工程と、
前記強調画像表示工程で強調画像を表示された複数のオブジェクトのうち一つを選択するオブジェクト選択工程と、
前記強調画像表示工程で強調画像を表示された前記画面上の任意の場所が押圧された場合に、前記オブジェクト選択工程で選択されたオブジェクトに対応する命令を実行する命令実行工程と、
を含んだことを特徴とする命令実行方法。
【0049】
(付記2)前記操作者により指定されたオブジェクトが一つに特定できない場合が、前記入力座標算出工程で算出された座標が前記画面上に表示された複数のオブジェクトの表示領域にまたがっている場合であることを特徴とする前記付記1に記載の命令実行方法。
【0050】
(付記3)前記強調画像表示工程では、前記画面上で所定の情報が表示されている表示領域を避けて前記強調画像を表示することを特徴とする前記付記1または付記2に記載の命令実行方法。
【0051】
(付記4)前記オブジェクト選択工程では、前回の選択から所定時間を経過すると前記複数のオブジェクトのうち前回選択したオブジェクトに代えて別のオブジェクトを選択することを特徴とする前記付記1〜付記3のいずれか一つに記載の命令実行方法。
【0052】
(付記5)画面上に表示された複数のオブジェクトのうち操作者により指定されたものを特定して当該オブジェクトに対応する命令を実行するときに用いる命令実行プログラムであって、
前記画面上で押圧された位置の座標を算出する入力座標算出工程と、
前記入力座標算出工程で算出された座標から前記操作者により指定されたオブジェクトを特定するオブジェクト特定工程と、
前記オブジェクト特定工程でオブジェクトが一つに特定できない場合に、前記操作者により指定されたオブジェクトの候補となる複数のオブジェクトの強調画像を前記画面上に表示する強調画像表示工程と、
前記強調画像表示工程で強調画像を表示された複数のオブジェクトのうち一つを選択するオブジェクト選択工程と、
前記強調画像表示工程で強調画像を表示された前記画面上の任意の場所が押圧された場合に、前記オブジェクト選択工程で選択されたオブジェクトに対応する命令を実行する命令実行工程と、
をプロセッサに実行させることを特徴とする命令実行プログラム。
【0053】
(付記6)画面上に表示された複数のオブジェクトのうち操作者により指定されたものを特定して当該オブジェクトに対応する命令を実行する命令実行装置において、
前記画面上で押圧された位置の座標を算出する入力座標算出手段と、
前記入力座標算出手段により算出された座標から前記操作者により指定されたオブジェクトを特定するオブジェクト特定手段と、
前記オブジェクト特定手段によりオブジェクトが一つに特定できない場合に、前記操作者により指定されたオブジェクトの候補となる複数のオブジェクトの強調画像を前記画面上に表示する強調画像表示手段と、
前記強調画像表示手段により強調画像を表示された複数のオブジェクトのうち一つを選択するオブジェクト選択手段と、
前記強調画像表示手段により強調画像を表示された前記画面上の任意の場所が押圧された場合に、前記オブジェクト選択手段により選択されたオブジェクトに対応する命令を実行する命令実行手段と、
を備えたことを特徴とする命令実行装置。
【0054】
【発明の効果】
以上説明したように本発明によれば、文字入力をはじめとする各種処理の指示にあたって、画面上のオブジェクトの指定を正確かつ容易に行えるよう操作者を支援することが可能な命令実行方法、命令実行プログラムおよび命令実行装置が得られるという効果を奏する。
【図面の簡単な説明】
【図1】本発明の実施の形態による命令実行装置の構成を機能的に示す説明図である。
【図2】本発明の実施の形態による命令実行装置における、命令実行処理の手順を示すフローチャートである。
【図3】本発明の実施の形態による命令実行装置の操作画面(通常表示画面)の一例を示す説明図である。
【図4】図3に示した操作画面中のオブジェクト300・301の強調画像の一例を示す説明図である。
【図5】本発明の実施の形態による命令実行装置の操作画面(強調表示画面)の一例を示す説明図である。
【図6】操作画面(通常表示画面)の他の一例を示す説明図である。
【図7】操作画面(強調表示画面)の他の一例を示す説明図である。
【図8】操作画面(通常表示画面)の他の一例を示す説明図である。
【図9】操作画面(強調表示画面)の他の一例を示す説明図である。
【図10】操作画面(通常表示画面)の他の一例を示す説明図である。
【図11】操作画面(強調表示画面)の他の一例を示す説明図である。
【符号の説明】
100 タッチパネル
101 ディスプレイ
102 表示制御部
102a 画像読み出し部
102b オブジェクト特定部
102c フォーカス制御部
102d 時間計測部
103 記憶部
104 入力座標算出部
105 出力座標算出部
106 命令実行部
Claims (3)
- 画面上に表示された複数のオブジェクトのうち操作者により指定されたものを特定して当該オブジェクトに対応する命令を実行する命令実行方法において、
前記画面上で押圧された位置の座標を算出する入力座標算出工程と、
前記入力座標算出工程で算出された座標から前記操作者により指定されたオブジェクトを特定するオブジェクト特定工程と、
前記オブジェクト特定工程でオブジェクトが一つに特定できない場合に、前記操作者により指定されたオブジェクトの候補となる複数のオブジェクトの強調画像を前記画面上に表示する強調画像表示工程と、
前記強調画像表示工程で強調画像を表示された複数のオブジェクトのうち一つを選択するオブジェクト選択工程と、
前記強調画像表示工程で強調画像を表示された前記画面上の任意の場所が押圧された場合に、前記オブジェクト選択工程で選択されたオブジェクトに対応する命令を実行する命令実行工程と、
を含んだことを特徴とする命令実行方法。 - 画面上に表示された複数のオブジェクトのうち操作者により指定されたものを特定して当該オブジェクトに対応する命令を実行するときに用いる命令実行プログラムであって、
前記画面上で押圧された位置の座標を算出する入力座標算出工程と、
前記入力座標算出工程で算出された座標から前記操作者により指定されたオブジェクトを特定するオブジェクト特定工程と、
前記オブジェクト特定工程でオブジェクトが一つに特定できない場合に、前記操作者により指定されたオブジェクトの候補となる複数のオブジェクトの強調画像を前記画面上に表示する強調画像表示工程と、
前記強調画像表示工程で強調画像を表示された複数のオブジェクトのうち一つを選択するオブジェクト選択工程と、
前記強調画像表示工程で強調画像を表示された前記画面上の任意の場所が押圧された場合に、前記オブジェクト選択工程で選択されたオブジェクトに対応する命令を実行する命令実行工程と、
をプロセッサに実行させることを特徴とする命令実行プログラム。 - 画面上に表示された複数のオブジェクトのうち操作者により指定されたものを特定して当該オブジェクトに対応する命令を実行する命令実行装置において、
前記画面上で押圧された位置の座標を算出する入力座標算出手段と、
前記入力座標算出手段により算出された座標から前記操作者により指定されたオブジェクトを特定するオブジェクト特定手段と、
前記オブジェクト特定手段によりオブジェクトが一つに特定できない場合に、前記操作者により指定されたオブジェクトの候補となる複数のオブジェクトの強調画像を前記画面上に表示する強調画像表示手段と、
前記強調画像表示手段により強調画像を表示された複数のオブジェクトのうち一つを選択するオブジェクト選択手段と、
前記強調画像表示手段により強調画像を表示された前記画面上の任意の場所が押圧された場合に、前記オブジェクト選択手段により選択されたオブジェクトに対応する命令を実行する命令実行手段と、
を備えたことを特徴とする命令実行装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003201016A JP2005044026A (ja) | 2003-07-24 | 2003-07-24 | 命令実行方法、命令実行プログラムおよび命令実行装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003201016A JP2005044026A (ja) | 2003-07-24 | 2003-07-24 | 命令実行方法、命令実行プログラムおよび命令実行装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005044026A true JP2005044026A (ja) | 2005-02-17 |
Family
ID=34261227
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003201016A Pending JP2005044026A (ja) | 2003-07-24 | 2003-07-24 | 命令実行方法、命令実行プログラムおよび命令実行装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005044026A (ja) |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006244231A (ja) * | 2005-03-04 | 2006-09-14 | Xanavi Informatics Corp | 入力制御装置、および入力制御方法 |
JP2006285598A (ja) * | 2005-03-31 | 2006-10-19 | Fujitsu Ten Ltd | タッチパネル装置、タッチパネル装置の操作支援方法、及びタッチパネル装置の操作支援プログラム |
JP2006338490A (ja) * | 2005-06-03 | 2006-12-14 | Just Syst Corp | 入力補助装置、入力補助方法、入力補助プログラムおよびコンピュータに読み取り可能な記録媒体 |
JP2006340355A (ja) * | 2005-05-30 | 2006-12-14 | Samsung Electronics Co Ltd | データ入力方法及びシステム |
JP2008059030A (ja) * | 2006-08-29 | 2008-03-13 | Kyocera Mita Corp | 電子機器及びプログラム |
JP2009176227A (ja) * | 2008-01-28 | 2009-08-06 | Panasonic Electric Works Co Ltd | 表示装置 |
JP2009217687A (ja) * | 2008-03-12 | 2009-09-24 | Alpine Electronics Inc | タッチパネル入力装置および処理実行方法 |
JP2010049654A (ja) * | 2008-08-25 | 2010-03-04 | Casio Hitachi Mobile Communications Co Ltd | 端末装置及びプログラム |
WO2010047048A1 (ja) * | 2008-10-20 | 2010-04-29 | 三菱電機株式会社 | タッチパネル装置 |
EP2252926A2 (en) * | 2008-03-11 | 2010-11-24 | Microsoft Corporation | Interpreting ambiguous inputs on a touch-screen |
JP2010271982A (ja) * | 2009-05-22 | 2010-12-02 | Nec Casio Mobile Communications Ltd | 携帯端末装置及びプログラム |
JP2010282311A (ja) * | 2009-06-03 | 2010-12-16 | Fuji Xerox Co Ltd | 表示制御装置、画像処理装置、及びプログラム |
JP2011081677A (ja) * | 2009-10-08 | 2011-04-21 | Kyocera Corp | 入力装置 |
JP2011081678A (ja) * | 2009-10-08 | 2011-04-21 | Kyocera Corp | 入力装置 |
JP2011081676A (ja) * | 2009-10-08 | 2011-04-21 | Kyocera Corp | 入力装置 |
JP2011107803A (ja) * | 2009-11-13 | 2011-06-02 | Fujitsu Toshiba Mobile Communications Ltd | 情報処理装置 |
US7969421B2 (en) | 2003-10-29 | 2011-06-28 | Samsung Electronics Co., Ltd | Apparatus and method for inputting character using touch screen in portable terminal |
JP2011238294A (ja) * | 2011-08-19 | 2011-11-24 | Clarion Co Ltd | 表示装置 |
JP2011258241A (ja) * | 2011-09-26 | 2011-12-22 | Kyocera Corp | 携帯電子機器および携帯電子機器の制御方法 |
JP2012058839A (ja) * | 2010-09-06 | 2012-03-22 | Fuji Xerox Co Ltd | 情報処理装置及びプログラム |
KR101127349B1 (ko) | 2009-09-07 | 2012-03-29 | 이상용 | 휴대용 기기에서 터치 스크린을 이용하여 문자, 숫자 또는 기호를 입력하는 방법 |
US8151007B2 (en) | 2007-08-24 | 2012-04-03 | Nintendo Co., Ltd. | Information processing program and information processing apparatus |
JP2012094054A (ja) * | 2010-10-28 | 2012-05-17 | Kyocera Mita Corp | 操作装置及び画像形成装置 |
JP2012094008A (ja) * | 2010-10-27 | 2012-05-17 | Kyocera Corp | 携帯電子機器 |
JP2012113725A (ja) * | 2010-02-26 | 2012-06-14 | Copcom Co Ltd | コンピュータプログラム及びコンピュータ装置 |
CN102902474A (zh) * | 2011-07-26 | 2013-01-30 | 柯尼卡美能达商用科技株式会社 | 具有触摸面板的图像处理装置 |
CN102981707A (zh) * | 2011-11-14 | 2013-03-20 | 微软公司 | 自适应区域光标 |
JP2013131181A (ja) * | 2011-12-22 | 2013-07-04 | Kyocera Document Solutions Inc | 入力装置および処理装置 |
WO2013128935A1 (ja) * | 2012-03-01 | 2013-09-06 | Necカシオモバイルコミュニケーションズ株式会社 | 情報処理装置、操作状況通知方法及び非一時的なコンピュータ可読媒体 |
US8854310B2 (en) | 2006-08-25 | 2014-10-07 | Kyocera Corporation | Portable electronic apparatus and operation detecting method of portable electronic apparatus |
JP2014215639A (ja) * | 2013-04-22 | 2014-11-17 | シャープ株式会社 | 情報処理装置および制御プログラム |
US9170719B2 (en) | 2011-12-20 | 2015-10-27 | Sharp Kabushiki Kaisha | Information processing device, method for controlling information processing device, and recording medium on which information processing device control program is recorded |
EP2699986B1 (en) * | 2011-04-19 | 2019-03-20 | Hewlett-Packard Development Company, L.P. | Touch screen selection |
-
2003
- 2003-07-24 JP JP2003201016A patent/JP2005044026A/ja active Pending
Cited By (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9342156B2 (en) | 2003-10-29 | 2016-05-17 | Samsung Electronics Co., Ltd. | Apparatus and method for inputting character using touch screen in portable terminal |
US9098120B2 (en) | 2003-10-29 | 2015-08-04 | Samsung Electronics Co., Ltd. | Apparatus and method for inputting character using touch screen in portable terminal |
US9710162B2 (en) | 2003-10-29 | 2017-07-18 | Samsung Electronics Co., Ltd. | Apparatus and method for inputting character using touch screen in portable terminal |
US9891819B2 (en) | 2003-10-29 | 2018-02-13 | Samsung Electronics Co., Ltd. | Apparatus and method for inputting character using touch screen in portable terminal |
US7969421B2 (en) | 2003-10-29 | 2011-06-28 | Samsung Electronics Co., Ltd | Apparatus and method for inputting character using touch screen in portable terminal |
JP4530881B2 (ja) * | 2005-03-04 | 2010-08-25 | クラリオン株式会社 | 入力制御装置、および入力制御方法 |
JP2006244231A (ja) * | 2005-03-04 | 2006-09-14 | Xanavi Informatics Corp | 入力制御装置、および入力制御方法 |
JP2006285598A (ja) * | 2005-03-31 | 2006-10-19 | Fujitsu Ten Ltd | タッチパネル装置、タッチパネル装置の操作支援方法、及びタッチパネル装置の操作支援プログラム |
JP2006340355A (ja) * | 2005-05-30 | 2006-12-14 | Samsung Electronics Co Ltd | データ入力方法及びシステム |
JP4553797B2 (ja) * | 2005-06-03 | 2010-09-29 | 株式会社ジャストシステム | 入力補助装置、入力補助方法、入力補助プログラムおよびコンピュータに読み取り可能な記録媒体 |
JP2006338490A (ja) * | 2005-06-03 | 2006-12-14 | Just Syst Corp | 入力補助装置、入力補助方法、入力補助プログラムおよびコンピュータに読み取り可能な記録媒体 |
US8854310B2 (en) | 2006-08-25 | 2014-10-07 | Kyocera Corporation | Portable electronic apparatus and operation detecting method of portable electronic apparatus |
JP4690272B2 (ja) * | 2006-08-29 | 2011-06-01 | 京セラミタ株式会社 | 電子機器及びプログラム |
JP2008059030A (ja) * | 2006-08-29 | 2008-03-13 | Kyocera Mita Corp | 電子機器及びプログラム |
US10071309B2 (en) | 2007-08-24 | 2018-09-11 | Nintendo Co., Ltd. | Information processing program and information processing apparatus |
US9616337B2 (en) | 2007-08-24 | 2017-04-11 | Nintendo Co., Ltd. | Information processing program and information processing apparatus |
US8151007B2 (en) | 2007-08-24 | 2012-04-03 | Nintendo Co., Ltd. | Information processing program and information processing apparatus |
JP2009176227A (ja) * | 2008-01-28 | 2009-08-06 | Panasonic Electric Works Co Ltd | 表示装置 |
EP2252926A2 (en) * | 2008-03-11 | 2010-11-24 | Microsoft Corporation | Interpreting ambiguous inputs on a touch-screen |
EP2252926A4 (en) * | 2008-03-11 | 2014-08-06 | Microsoft Corp | INTERPRETATION OF BIDDEN INPUTS ON A TOUCH SCREEN |
JP2011513880A (ja) * | 2008-03-11 | 2011-04-28 | マイクロソフト コーポレーション | タッチスクリーン上の曖昧な入力を解釈する方法 |
JP2009217687A (ja) * | 2008-03-12 | 2009-09-24 | Alpine Electronics Inc | タッチパネル入力装置および処理実行方法 |
JP2010049654A (ja) * | 2008-08-25 | 2010-03-04 | Casio Hitachi Mobile Communications Co Ltd | 端末装置及びプログラム |
JPWO2010047048A1 (ja) * | 2008-10-20 | 2012-03-15 | 三菱電機株式会社 | タッチパネル装置 |
WO2010047048A1 (ja) * | 2008-10-20 | 2010-04-29 | 三菱電機株式会社 | タッチパネル装置 |
JP2010271982A (ja) * | 2009-05-22 | 2010-12-02 | Nec Casio Mobile Communications Ltd | 携帯端末装置及びプログラム |
JP2010282311A (ja) * | 2009-06-03 | 2010-12-16 | Fuji Xerox Co Ltd | 表示制御装置、画像処理装置、及びプログラム |
KR101127349B1 (ko) | 2009-09-07 | 2012-03-29 | 이상용 | 휴대용 기기에서 터치 스크린을 이용하여 문자, 숫자 또는 기호를 입력하는 방법 |
JP2011081676A (ja) * | 2009-10-08 | 2011-04-21 | Kyocera Corp | 入力装置 |
JP2011081678A (ja) * | 2009-10-08 | 2011-04-21 | Kyocera Corp | 入力装置 |
JP2011081677A (ja) * | 2009-10-08 | 2011-04-21 | Kyocera Corp | 入力装置 |
JP2011107803A (ja) * | 2009-11-13 | 2011-06-02 | Fujitsu Toshiba Mobile Communications Ltd | 情報処理装置 |
JP2016006651A (ja) * | 2010-02-26 | 2016-01-14 | 株式会社カプコン | コンピュータプログラム及びコンピュータ装置 |
JP2012113725A (ja) * | 2010-02-26 | 2012-06-14 | Copcom Co Ltd | コンピュータプログラム及びコンピュータ装置 |
JP2012058839A (ja) * | 2010-09-06 | 2012-03-22 | Fuji Xerox Co Ltd | 情報処理装置及びプログラム |
JP2012094008A (ja) * | 2010-10-27 | 2012-05-17 | Kyocera Corp | 携帯電子機器 |
JP2012094054A (ja) * | 2010-10-28 | 2012-05-17 | Kyocera Mita Corp | 操作装置及び画像形成装置 |
EP2699986B1 (en) * | 2011-04-19 | 2019-03-20 | Hewlett-Packard Development Company, L.P. | Touch screen selection |
CN102902474A (zh) * | 2011-07-26 | 2013-01-30 | 柯尼卡美能达商用科技株式会社 | 具有触摸面板的图像处理装置 |
JP2011238294A (ja) * | 2011-08-19 | 2011-11-24 | Clarion Co Ltd | 表示装置 |
JP2011258241A (ja) * | 2011-09-26 | 2011-12-22 | Kyocera Corp | 携帯電子機器および携帯電子機器の制御方法 |
WO2013074333A1 (en) * | 2011-11-14 | 2013-05-23 | Microsoft Corporation | Adaptive area cursor |
CN102981707A (zh) * | 2011-11-14 | 2013-03-20 | 微软公司 | 自适应区域光标 |
US9170719B2 (en) | 2011-12-20 | 2015-10-27 | Sharp Kabushiki Kaisha | Information processing device, method for controlling information processing device, and recording medium on which information processing device control program is recorded |
JP2013131181A (ja) * | 2011-12-22 | 2013-07-04 | Kyocera Document Solutions Inc | 入力装置および処理装置 |
WO2013128935A1 (ja) * | 2012-03-01 | 2013-09-06 | Necカシオモバイルコミュニケーションズ株式会社 | 情報処理装置、操作状況通知方法及び非一時的なコンピュータ可読媒体 |
JP2014215639A (ja) * | 2013-04-22 | 2014-11-17 | シャープ株式会社 | 情報処理装置および制御プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2005044026A (ja) | 命令実行方法、命令実行プログラムおよび命令実行装置 | |
JP6965319B2 (ja) | 文字入力インターフェース提供方法及び装置 | |
JP5790805B2 (ja) | 情報処理装置及びプログラム | |
KR101872533B1 (ko) | 3 상태 터치 입력 시스템 | |
US7415676B2 (en) | Visual field changing method | |
JP4849412B2 (ja) | 情報入力表示装置 | |
US20110157028A1 (en) | Text entry for a touch screen | |
EP2701044A1 (en) | Information processing device, information processing method, and computer-readable recording medium which records program | |
JP4818036B2 (ja) | タッチパネル制御装置およびタッチパネル制御方法 | |
KR20110109551A (ko) | 터치스크린 장치 및 터치스크린 장치의 입력 처리 방법 | |
JP5664147B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
KR20060118811A (ko) | 문자 입력판을 디스플레이하는 장치 및 방법 | |
JP5119763B2 (ja) | タッチパネルを備えた情報機器、それに使用されるアイコン選択方法及びプログラム | |
US9001055B2 (en) | Portable device and method for operating portable device | |
CN103140826B (zh) | 信息终端装置以及触控面板的显示方法 | |
JP2008065504A (ja) | タッチパネル制御装置およびタッチパネル制御方法 | |
KR20160004590A (ko) | 전자 장치의 화면 표시 방법 및 전자 장치 | |
JP2010287121A (ja) | 情報処理装置、プログラム、記録媒体、及び表示制御装置 | |
JPWO2011152335A1 (ja) | タッチパネル入力を用いた電子機器及びそれによる操作受付方法 | |
JP5622270B2 (ja) | 入力表示制御装置、入力表示制御方法およびプログラム | |
JP4856136B2 (ja) | 移動制御プログラム | |
JP2007079947A (ja) | 表示装置及びそれに用いるプログラム | |
JP6800714B2 (ja) | 電子機器および表示制御方法 | |
JP2012146017A (ja) | 電子黒板システム、電子黒板システムの制御方法、プログラムおよびその記録媒体 | |
JP2009514119A (ja) | ディスプレイ機能を有するボタンを具備した端末機及びこのためのディスプレイ方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071016 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080226 |