JP4959825B2 - 指示入力装置、指示入力方法、プログラムおよびその記録媒体 - Google Patents

指示入力装置、指示入力方法、プログラムおよびその記録媒体 Download PDF

Info

Publication number
JP4959825B2
JP4959825B2 JP2010098921A JP2010098921A JP4959825B2 JP 4959825 B2 JP4959825 B2 JP 4959825B2 JP 2010098921 A JP2010098921 A JP 2010098921A JP 2010098921 A JP2010098921 A JP 2010098921A JP 4959825 B2 JP4959825 B2 JP 4959825B2
Authority
JP
Japan
Prior art keywords
gesture
input
instruction
image data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010098921A
Other languages
English (en)
Other versions
JP2011008768A (ja
Inventor
レディ ケティレディ アマレンダー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Publication of JP2011008768A publication Critical patent/JP2011008768A/ja
Application granted granted Critical
Publication of JP4959825B2 publication Critical patent/JP4959825B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、タッチスクリーン(タッチパネル)に対するジェスチャー入力によって指示入力を行う指示入力装置および指示入力方法に関するものである。
従来から、ユーザーがタッチスクリーンに触れることによってコンピュータに対してメニューやツールバーなどの選択指示を行うタッチスクリーン技術が知られている。例えば、タッチスクリーン技術の一例であるマルチ・タッチ・インターフェースでは、ユーザーが2本以上の指を用いてコンピュータ画面上の操作対象に対する操作を直接入力できるようになっている。
また、タッチスクリーンに対するジェスチャーによって指示入力(操作入力)を行う技術では、タッチスクリーン上においてユーザーが予め設定されているジェスチャーを行うと、このタッチスクリーンに接続されたコンピュータがそのジェスチャーをコマンドとして解釈する。例えば、タッチスクリーンを軽く叩くことで方向や位置を指示したり、タッチスクリーンに触れている2本の指の間隔を狭くすることで縮小(ズームイン)の指示を入力したり、上記間隔を広くすることで拡大(ズームアウト)の指示を入力したり、2本の指でタッチスクリーンに触れながら接触位置を回転させることによって右回転あるいは左回転の指示を入力したり、タッチクリーンに触れた指を平行移動させることによってスクロールの指示を入力したりすることができる。タッチ操作は、一般に、タッチスクリーン上に表示されている操作対象にタッチすることによって行われる直接操作である。
ところで、複数枚の写真や複数ページからなる文書をスキャナーで読み取る場合、ユーザーが写真やページの向きが正しいかどうかをいちいち確認する必要があり、この確認作業に多大な時間を要するという問題がある。一般に、複数枚の写真や複数ページからなる文書は、表示装置またはPC(パーソナルコンピュータ)で1つずつ編集され、保存される。また、スキャナー機能を備えた最近の多機能周辺装置(MFP)では、その多機能周辺機器に備えられる表示パネルを介してスキャナー機能で読み込まれた写真や文書に対する編集を行えるようになっている。また、上記表示パネルは、タッチセンサー等によってタッチ入力ができるようになっている。例えば、予め設定されているジェスチャーによって回転、ドラッグ・アンド・ドロップなどの指示入力を行ったり、2本の指で挟む動作やその逆の動作によって拡大や縮小などの指示入力を行ったり、2本の指で操作対象の画像にタッチして回転させるジェスチャーを行うことで当該画像を回転させたりできる。
なお、特許文献1には、ジェスチャーによって直接操作を行うタッチシステムの一例が開示されている。
また、特許文献2には、タッチスクリーンに表示された複数のサムネイルの中から上下を反転させる処理を行うサムネイルを選択し、選択したサムネイルに対して一括して反転処理を実行させることが記載されている。
特開2005−108211号公報(平成17年4月21日公開) 特開2005−006209号公報(平成17年1月6日公開)
ところで、タッチスクリーン上に表示された画像に対してジェスチャーによる指示入力を行えるようにするためには、表示する画像のサイズをユーザーの指で操作できる程度に大きくする必要がある。また、ユーザーの利便性を高めるためには、多数の画像やページを表示する場合であっても、各画像あるいは各ページに対して一度のジェスチャーで指示入力を行えるようにすることが好ましい。
ところが、画像のサイズをユーザーの指で操作できる程度に大きくすることは、表示する画像が1つだけの場合には容易であるが、多数の画像やページを表示させる場合にはそれら全てを大きなサイズにすることは困難である。
また、特許文献2の技術では、選択された各サムネイルに対して反転処理を一括して行うことができるものの、反転処理以外の処理については何ら考慮されていない。このため、反転処理以外の処理を行う場合には、ユーザーがサムネイル毎に詳細な指示入力を行う必要がある。
本発明は、上記の問題点に鑑みてなされたものであり、その目的は、タッチスクリーンに対して予め設定されたジェスチャーで触れることによって表示されている画像に適用すべき操作内容を入力する指示入力装置において、ユーザーの操作性を向上させることにある。
本発明の指示入力装置は、上記の課題を解決するために、タッチスクリーン機能を有する表示部を備え、画像データに対して適用すべき操作内容をユーザーが上記表示部の表示画面に対して当該操作内容に応じたジェスチャーで触れることによって入力する指示入力装置であって、画像データに対して適用可能な1または複数の操作内容と当該各操作内容の選択指示を入力するためのジェスチャーとを対応付けて記憶するジェスチャー記憶部と、上記ジェスチャーと当該ジェスチャーが入力されたときに当該ジェスチャーに対応する操作内容を画像データに適用する際の適用方法を示すパラメータとを対応付けて記憶するジェスチャーパラメータ記憶部と、上記ジェスチャーを入力するためのジェスチャー入力領域、および上記ジェスチャーに対応する上記パラメータの設定指示を入力するための設定入力領域を含むジェスチャーパッド画像を上記表示部に表示させるジェスチャーパッド表示制御部と、上記設定入力領域に対してパラメータの設定指示が入力されたときに当該設定指示に応じて上記ジェスチャーパラメータ記憶部に記憶している上記パラメータを変更するパラメータ設定部と、上記ジェスチャー入力領域に対してユーザーが入力したジェスチャー、および上記ジェスチャー記憶部に記憶されている上記各操作内容と当該各操作内容に対応するジェスチャーとの対応関係に基づいてユーザーが入力した上記ジェスチャーに対応する操作内容を検出し、上記ジェスチャーパラメータ記憶部に記憶されている各ジェスチャーと当該各ジェスチャーに対応する操作内容を画像データに適用する際の適用方法との対応関係に基づいてユーザーが入力した上記ジェスチャーに対応する上記適用方法を検出するジェスチャー検出部とを備えていることを特徴としている。
本発明の指示入力方法は、上記の課題を解決するために、タッチスクリーン機能を有する表示部を備え、画像データに対して適用すべき操作内容をユーザーが上記表示部の表示画面に対して当該操作内容に応じたジェスチャーで触れることによって入力する指示入力装置を用いて指示入力を行う指示入力方法であって、画像データに対して適用可能な1または複数の操作内容と当該各操作内容の選択指示を入力するためのジェスチャーとを対応付けて予め記憶するジェスチャー記憶工程と、上記ジェスチャーと当該ジェスチャーが入力されたときに当該ジェスチャーに対応する操作内容を画像データに適用する際の適用方法を示すパラメータとを対応付けて記憶するジェスチャーパラメータ記憶工程と、上記ジェスチャーを入力するためのジェスチャー入力領域、および上記ジェスチャーに対応する上記パラメータの設定指示を入力するための設定入力領域を含むジェスチャーパッド画像を上記表示部に表示させるジェスチャーパッド表示工程と、上記設定入力領域に対してパラメータの設定指示が入力されたときに当該設定指示に応じて上記ジェスチャーパラメータ記憶工程で記憶した上記パラメータを変更するパラメータ設定工程と、上記ジェスチャー入力領域に対してユーザーが入力したジェスチャー、および上記ジェスチャー記憶工程で記憶した上記各操作内容と当該各操作内容に対応するジェスチャーとの対応関係に基づいてユーザーが入力した上記ジェスチャーに対応する操作内容を検出し、上記ジェスチャーパラメータ記憶工程で記憶した各ジェスチャーと当該各ジェスチャーに対応する上記適用方法との対応関係に基づいてユーザーが入力した上記ジェスチャーに対応する上記適用方法を検出するジェスチャー検出工程とを含むことを特徴としている。
上記の指示入力装置および指示入力方法によれば、入力したジェスチャーに対応する操作内容を画像データに適用する際の適用方法をユーザーが任意に設定することができるので、ユーザーの操作性を高めることができる。
また、従来のジェスチャー入力を行う指示入力装置では、操作対象画像のサムネイルに対してユーザーが直接触れることによって当該操作対象画像に対する操作内容の指示入力を行っていたが、上記の構成によれば、ジェスチャーを入力するためのジェスチャー入力領域を含むジェスチャーパッド画像がタッチスクリーン機能を有する表示部に表示されるので、ユーザーはジェスチャー入力領域に対してジェスチャー入力を行うことによって画像データに対する操作指示を入力することができる。したがって、操作対象画像に対応するサムネイルに対してユーザーが直接触れる必要がない。このため、各サムネイルの表示サイズを小さくしたり、あるいはサムネイルを表示しない構成にしたり、サムネイルをこの指示入力装置とは別に備えられる表示装置に表示させる構成にしたりても、ユーザーがジェスチャー入力を容易に行うことができる。これにより、例えば、サムネイルを表示するための表示領域が小さい場合や、より多くのサムネイルを一覧表示したい場合であっても、ユーザーの操作性を向上させることができる。
また、操作対象画像として選択可能な画像のサムネイルを生成するサムネイル生成部と、上記サムネイル生成部が生成したサムネイルを上記表示部または上記表示部とは異なる第2表示部に表示させるサムネイル表示制御部とを備え、上記ジェスチャー入力領域に対するジェスチャーの入力が行われたときに、上記サムネイル生成部は、上記ジェスチャー検出部が検出した当該ジェスチャーに対応する操作内容および上記ジェスチャーパラメータ記憶部に記憶されている当該操作内容に対応する上記パラメータによって示された上記適用方法に基づく操作を、上記表示部または上記第2表示部にサムネイルが表示されている画像データのうちユーザーが操作対象画像として選択した各画像データに対して適用した場合の当該各画像データに対応するサムネイルであるプレビュー用サムネイルを生成し、上記サムネイル表示制御部は、上記表示部または上記第2表示部に表示している上記各操作対象画像のサムネイルを上記プレビュー用サムネイルに更新する構成としてもよい。
上記の構成によれば、ユーザーがジェスチャーの入力を行った場合にそのジェスチャーを操作対象画像に適用した結果を示すプレビュー用サムネイルが表示されるので、ユーザーはジェスチャーに対応する処理結果を確認しながら画像データに対する操作指示を行うことができる。したがって、ユーザーの操作性をさらに高めることができる。
また、上記ジェスチャーパッド表示制御部は、上記ジェスチャー入力領域に対して入力された上記ジェスチャーに対応する操作を操作対象画像として選択されている各画像データに適用することの実行指示をユーザーが指示入力するための実行指示用画像を上記表示部に表示させ、上記実行指示用画像に対するユーザーの指示入力を検出したときに、上記実行指示に対応する操作を操作対象画像として選択されている各画像データに対して実行させるための信号を上記各画像データに対して上記実行指示に対応する操作を行う画像処理装置に伝達する構成としてもよい。
上記の構成によれば、ジェスチャーに応じた操作を適用した場合のプレビュー用サムネイルを確認してから当該操作の実行指示を行うことができるので、ユーザーが所望する操作を効率的に適用することができる。
また、上記パラメータは、上記ジェスチャーを入力する際の表示画面に対するユーザーの接触位置の軌跡の形状、向き、時間的変化パターン、またはこれらの組み合わせと、当該ジェスチャーに対応する操作を画像データに適用する際の画像データに対する操作量、操作方向、操作角度、またはこれらの組み合わせとを対応付けるためのものであってもよい。例えば、上記ジェスチャー記憶部には、画像データに対する回転処理を行わせるためのジェスチャーである回転処理ジェスチャーが記憶されており、上記ジェスチャーパラメータ記憶部には、上記回転処理ジェスチャーと当該回転処理ジェスチャーが入力されたときに画像データに回転処理を施す際の回転角度を示すパラメータとが対応付けて記憶されており、上記パラメータ設定部は、ユーザーからのパラメータの設定指示に基づいて、上記回転処理ジェスチャーを入力する際の表示画面に対するユーザーの接触位置の軌跡の形状または回転角度と、当該回転処理ジェスチャーに応じて画像データに回転処理を施す際の画像データの回転角度とを示すパラメータを変更する構成であってもよい。
上記各構成によれば、入力したジェスチャーに対応する画像データに対する操作の程度をユーザーが任意に設定することができる。これにより、ユーザーがジェスチャーに対応する画像データへの操作量を比較的少なく設定することでジェスチャー入力による画像データに対する操作の微調整を行ったり、逆にジェスチャーに対応する画像データへの操作量を比較的大きく設定することで画像データに対する操作量の多い操作を小さなジェスチャーで指示入力したりすることができる。
また、上記サムネイル表示制御部は、上記サムネイル生成部が生成したサムネイルを上記表示部に表示させ、上記表示部に表示されているサムネイルのうちユーザーが触れたサムネイルをユーザーが操作対象画像として選択した画像データのサムネイルとして検出する構成であってもよい。
上記の構成によれば、ユーザーは、タッチスクリーン機能を有する表示部に表示されているサムネイルのうち操作対象画像としたい画像のサムネイルに触れるだけで操作対象画像を選択することができる。したがって、ユーザーの利便性を向上させることができる。
なお、上記指示入力装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記各部として動作させることにより、上記指示入力装置をコンピュータにて実現させるプログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に含まれる。
以上のように、本発明の指示入力装置は、画像データに対して適用可能な1または複数の操作内容と当該各操作内容の選択指示を入力するためのジェスチャーとを対応付けて記憶するジェスチャー記憶部と、上記ジェスチャーと当該ジェスチャーが入力されたときに当該ジェスチャーに対応する操作内容を画像データに適用する際の適用方法を示すパラメータとを対応付けて記憶するジェスチャーパラメータ記憶部と、上記ジェスチャーを入力するためのジェスチャー入力領域、および上記ジェスチャーに対応する上記パラメータの設定指示を入力するための設定入力領域を含むジェスチャーパッド画像を上記表示部に表示させるジェスチャーパッド表示制御部と、上記設定入力領域に対してパラメータの設定指示が入力されたときに当該設定指示に応じて上記ジェスチャーパラメータ記憶部に記憶している上記パラメータを変更するパラメータ設定部と、上記ジェスチャー入力領域に対してユーザーが入力したジェスチャー、および上記ジェスチャー記憶部に記憶されている上記各操作内容と当該各操作内容に対応するジェスチャーとの対応関係に基づいてユーザーが入力した上記ジェスチャーに対応する操作内容を検出し、上記ジェスチャーパラメータ記憶部に記憶されている各ジェスチャーと当該各ジェスチャーに対応する操作内容を画像データに適用する際の適用方法との対応関係に基づいてユーザーが入力した上記ジェスチャーに対応する上記適用方法を検出するジェスチャー検出部とを備えている。
また、本発明の指示入力方法は、画像データに対して適用可能な1または複数の操作内容と当該各操作内容の選択指示を入力するためのジェスチャーとを対応付けて予め記憶するジェスチャー記憶工程と、上記ジェスチャーと当該ジェスチャーが入力されたときに当該ジェスチャーに対応する操作内容を画像データに適用する際の適用方法を示すパラメータとを対応付けて記憶するジェスチャーパラメータ記憶工程と、上記ジェスチャーを入力するためのジェスチャー入力領域、および上記ジェスチャーに対応する上記パラメータの設定指示を入力するための設定入力領域を含むジェスチャーパッド画像を上記表示部に表示させるジェスチャーパッド表示工程と、上記設定入力領域に対してパラメータの設定指示が入力されたときに当該設定指示に応じて上記ジェスチャーパラメータ記憶工程で記憶した上記パラメータを変更するパラメータ設定工程と、上記ジェスチャー入力領域に対してユーザーが入力したジェスチャー、および上記ジェスチャー記憶工程で記憶した上記各操作内容と当該各操作内容に対応するジェスチャーとの対応関係に基づいてユーザーが入力した上記ジェスチャーに対応する操作内容を検出し、上記ジェスチャーパラメータ記憶工程で記憶した各ジェスチャーと当該各ジェスチャーに対応する上記適用方法との対応関係に基づいてユーザーが入力した上記ジェスチャーに対応する上記適用方法を検出するジェスチャー検出工程とを含む。
それゆえ、本発明の指示入力装置および指示入力方法によれば、入力したジェスチャーに対応する操作内容を画像データに適用する際の適用方法をユーザーが任意に設定することができるので、ユーザーの操作性を高めることができる。また、ジェスチャーを入力するためのジェスチャー入力領域を含むジェスチャーパッド画像がタッチスクリーン機能を有する表示部に表示されるので、ユーザーはジェスチャー入力領域に対してジェスチャー入力を行うことによって画像データに対する操作指示を容易に入力することができる。
本発明の一実施形態にかかる指示入力装置が備えられるシステムの構成を示すブロック図である。 図1のシステムに備えられる多機能周辺装置(MFP)の構成を示すブロック図である。 図1システムに備えられる端末装置の構成を示すブロック図である。 図1のシステムにおける多機能周辺装置または端末装置に備えられる指示入力装置において表示されるジェスチャーパッドの一例を示す模式図である。 図1のシステムにおける多機能周辺装置または端末装置に備えられる指示入力装置において表示される操作対象画像として選択可能な画像のサムネイルのリストを示す模式図である。 本発明の一実施形態にかかる指示入力装置における処理の流れを示すフローチャートである。 本発明の一実施形態にかかる指示入力装置に表示される表示画面の一例を示す模式図である。 本発明の一実施形態にかかる指示入力装置に表示される表示画面の一例を示す模式図である。 本発明の一実施形態にかかる指示入力装置に表示される表示画面の一例を示す模式図である。 本発明の一実施形態にかかる指示入力装置に表示される表示画面の一例を示す模式図である。 本発明の一実施形態にかかる指示入力装置の概略構成を示すブロック図である。
本発明は、タッチセンサー(タッチスクリーン機能)付き表示画面(タッチスクリーン)を有する表示装置、あるいは多機能周辺装置(MFP)などに設けられた表示パネルに表示された画像に対してジェスチャーによって操作(例えば、サムネイル画像によって表示された複数のページのうちのいずれかを選択する操作など)を行うシステムあるいは方法に適用することができる。例えば、MFPのタッチスクリーンあるいはタッチコンピュータスクリーンを介してジェスチャーによる操作を行うことによって複数の画像に対して共通の視覚的な編集を行うシステムあるいは方法に適用することもできる。すなわち、本発明の一実施形態では、単一のジェスチャーによって複数の画像に対して同時に同様の処理を行うことができる。本発明は、フルサイズの画像についてのサムネイルを表示する表示装置に適用できるが、サムネイルのサイズは必ずしも当該サムネイルに対して直接操作を行うことのできるサイズでなくてもよい。本発明の一実施形態では、サムネイルの選択を行う際、この選択操作を、選択する画像から離れた位置に配置されるタッチパッドあるいはタッチスクリーンによって行う。本発明は、スキャナー(画像読取装置)および/またはプリンター(画像印刷装置)との間で通信を行うコンピュータをホストとするものであってもよく、多機能周辺装置(MFP)をホストとするものであってもよい。
図1は、本発明の一実施形態にかかる指示入力装置が用いられるシステム100の構成を示すブロック図である。この図に示すように、システム100は、多機能周辺装置(画像処理装置、画像読取装置、画像形成装置)110と、多機能周辺装置110との間で直接通信を行う端末装置(情報処理装置)120とを備えている。また、多機能周辺装置110は、ネットワークリンクを介してネットワーク130に接続されており、このネットワーク130にはネットワークリンク132,133を介して端末装置140,141が接続されている。これにより、多機能周辺装置110は、端末装置140,141との間で通信を行うことも可能になっている。端末装置120,140,141は、例えば、多機能周辺装置110の制御を行うドライバの処理を行うコンピュータである。なお、本実施形態では多機能周辺装置110がスキャナー機能とプリンター機能とを備えている場合について説明するが、これに限らず、例えば多機能周辺装置110をプリンター単体、あるいはスキャナー単体に置き換えてもよい。また、本発明の指示入力装置は、多機能周辺装置110に備えられていてもよく、端末装置120,140,141に備えられていてもよい。
図2Aは、多機能周辺装置110の構成を示すブロック図である。この図に示すように、多機能周辺装置110は、外部装置接続部202、接続制御部204、データバス206、演算処理部(画像処理部)208、ROM210、RAM212、大容量記憶部214、ログ記憶部216、ユーザーインターフェース(指示入力装置)218、読取制御部220、FAX制御部222、複写制御部224、印刷制御部226、スキャナー230、プリンター240、および出力用紙方向センサー242を備えている。
外部装置接続部(インターフェースポート)202は、外部装置(例えば端末装置120,140,141等)を通信可能に接続するための接続部であり、例えばプリンタケーブル、ネットワークリンク、あるいは無線モジュールなどが接続される。接続制御部(インターフェースコントローラ)204は、外部装置接続部202と多機能周辺装置110との間の直接通信、および/または、外部装置接続部202と多機能周辺装置110との間におけるデータバス206を介した条件信号の送受信を制御する。
ROM(read only memory)210は多機能周辺装置110の各機能を実現する制御プログラムを記憶するメモリーであり、RAM(random access memory)212は上記制御プログラム等を展開したり、各種データ等を一時的に記憶したりするためのメモリーである。また、大容量記憶部214はRAM212に格納可能なサイズを超えている各種ファイルや各種データなどを記憶するメモリーである。演算処理部208は、上記制御プログラムの命令を実行するCPU(central processing unit)等からなる。すなわち、多機能周辺装置110の各機能は、各機能を実現するソフトウェアであるの制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)を演算処理部208がROM210から読み出して実行することによって達成される。
ログ記憶部216は、演算処理部208における処理履歴(処理に用いられたパラメータ、ファイル、インデックスなど)を記憶するものである。ログ記憶部216は、個別に設けられた記憶部であってもよく、ROM210、RAM212、あるいは大容量記憶部214に設けられていてもよく、ROM210、RAM212、および大容量記憶部214に分散して設けられていてもよい。
ユーザーインターフェース(指示入力装置)218は、ユーザーに対する各種情報の呈示、およびユーザーからの各種指示入力の受け付けを行うものである。ユーザーインターフェース218の詳細については後述する。
また、スキャナー230は原稿を読み取ってその画像データを生成するものであり、プリンター240は画像データに応じた画像を記録材上に形成(印刷)するものである。スキャナー230およびプリンター240の構成は特に限定されるものではなく、従来から公知のものを用いることができる。出力用紙方向センサー242は、プリンター240によって出力される用紙の向きを検出し、印刷制御部226を介して外部装置接続部202に接続されている外部装置に通知する。
読取制御部220はスキャナー230およびデータバス206と接続されており、印刷制御部226はプリンター240およびデータバス206と接続されており、FAX制御部222および複写制御部224はスキャナー230、プリンター240、およびデータバス206と接続されている。これにより、これら各制御部がスキャナー230、プリンター240、あるいはスキャナー230およびプリンター240の両方を制御し、スキャナー230で原稿を読み取る処理、スキャナー230で読み取った画像をFAX送信する処理、外部からFAX送信された画像データに応じた画像をプリンター240で印刷する処理、スキャナー230で読み取った画像データに応じた画像をプリンター240で印刷する複写処理、外部から受信した画像データあるいは多機能周辺装置110のメモリーに記憶されている画像データに応じた画像をプリンター240で印刷する処理などを実行する。なお、読取制御部220、FAX制御部222、複写制御部224、および印刷制御部226は演算処理部208の一部であってもよく、演算処理部208と協働して動作するものであってもよい。
なお、多機能周辺装置110が、ROM210、RAM212、大容量記憶部214、あるいはこれら各記憶部に分散させてキャリブレーションテーブルを記憶しておき、外部装置接続部202を介して接続される外部装置から送信された画像データに対する処理を行う場合にこのキャリブレーションテーブルを用いて上記画像データに画像処理を施したり、プリンター240における印刷処理時のパラメータを調整したりするようにしてもよい。
図2Bは、システム100に備えられる端末装置120,140,141の一例であるホストコンピュータ250の構成を示すブロック図である。このホストコンピュータ250は、図2Bに示したように、演算処理部(CPU)251、ROM252,RAM253、大容量記憶部(HD(ハードディスク))254、入出力部(入出力(I/O)インターフェース)255、およびユーザーインターフェース(指示入力装置)270を備えている。
ROM252はホストコンピュータ250の各機能を実現する制御プログラムを記憶するメモリーであり、RAM253は上記制御プログラム等を展開したり、各種データ等を一時的に記憶したりするためのメモリーである。また、大容量記憶部254はRAM253に格納可能なサイズを超えている各種ファイルや各種データなどを記憶するメモリーである。演算処理部251は、上記制御プログラムの命令を実行するCPU(central processing unit)等からなる。すなわち、ホストコンピュータ250の各機能は、各機能を実現するソフトウェアであるの制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)を演算処理部251がROM252から読み出して実行することによって達成される。
入出力部255は、無線または有線のネットワークリンク256、あるいはパラレルバス、シリアルバス、あるいはユニバーサルシリアルバス(USB)ケーブル257を介して、図2Aに示した多機能周辺装置110と接続されており、インターフェース259を介してユーザーインターフェース270に接続されている。
ユーザーインターフェース(指示入力装置)270は、ユーザーに対する各種情報の呈示、およびユーザーからの各種指示入力の受け付けを行うものである。なお、本実施形態では、ユーザーインターフェース270を介して多機能周辺装置110に対する指示入力を行えるようになっている。
図10はユーザーインターフェース(指示入力装置)218,270の構成を示すブロック図である。この図に示すように、ユーザーインターフェース218,270は、タッチスクリーン301、補助入力装置302、指示入力制御部303、ROM304、RAM305、および大容量記憶部306を備えている。
タッチスクリーン(表示部)301は、指示入力制御部303からの指示に応じた画像を表示するグラフィックユーザーインターフェース(GUI)としての機能と、当該タッチスクリーン301に対するユーザーのタッチ動作を行ったときに、タッチされた位置および範囲に応じた信号を生成して指示入力制御部303に伝達する機能とを有している。タッチスクリーン301の構成は上記の両機能を有しているものであれば特に限定されるものではなく、従来から公知のタッチスクリーンを用いることができる。
補助入力装置302は、ユーザーが多機能周辺装置110あるいはホストコンピュータ250に対するユーザーからの指示入力を受け付けて指示入力制御部303に伝達するための、タッチスクリーン301とは異なる他の入力手段である。補助入力装置302としては、例えば、キーボード、マウス、音声入力装置(マイク等)、操作ボタンなどを用いることができる。
指示入力制御部303は、タッチスクリーン301に対する画像表示、タッチスクリーン301に対するユーザーからの指示入力内容の検出、および補助入力装置302に対するユーザーからの指示入力内容の検出を行う。また、指示入力制御部303は、検出したユーザーからの指示入力内容に応じた信号を生成して多機能周辺装置110の演算処理部208あるいはホストコンピュータ250の演算処理部251に伝達する。
図10に示したように、指示入力制御部303は、サムネイル表示制御部311、ジェスチャーパッド表示制御部312、サムネイル生成部313、タッチ入力検出部314、ジェスチャー検出部315、パラメータ設定部316、および補助入力検出部317を備えている。
サムネイル生成部313は、ユーザーインターフェース218,270において操作対象画像として選択可能な画像のサムネイル(サムネイル画像)を生成する。なお、本実施形態では、大容量記憶部306の画像データ記憶部323に画像データが格納されている画像を操作対象画像とする場合について主に説明するが、これに限らず、例えば、スキャナー230によって読み取られた各画像を操作対象画像としてもよく、ユーザーインターフェース218,270に対して通信可能に接続された他の装置から入力される画像を操作対象画像としてもよい。また、所定の条件を満たす画像(例えば、指定された検索条件に合致する画像、指定されたフォルダに格納されている画像など)を操作対象画像としてもよい。
サムネイル表示制御部311は、サムネイル生成部313が生成したサムネイルのリストをタッチスクリーン301の一部(後述する画像リスト表示領域400)に表示させる。
ジェスチャーパッド表示制御部312は、後述するジェスチャーパッド300をタッチスクリーン301に表示させる。
なお、本実施形態では、サムネイルのリストとジェスチャーパッド300とを共にタッチスクリーン301に表示させるものとしているが、これに限らず、少なくともジェスチャーパッド300がタッチスクリーン301に表示される構成であればよい。例えば、サムネイルのリストについてはタッチセンサー機能を有さないタッチスクリーン301とは別の第2表示部(第2表示装置)に表示させ、この第2表示部に表示されているリストの中から操作対象とする画像を選択する選択指示を、補助入力装置302を介して入力するようにしてもよい。また、タッチスクリーン301は表示画面における一部の領域のみがタッチスクリーンとしての機能を有し、残余の領域はタッチスクリーンとしての機能を有さない構成であってもよい。この場合、少なくともジェスチャーパッド300についてはタッチスクリーンとしての機能を有する領域に表示させるようにすればよい。また、ジェスチャーパッドは、タッチスクリーン301上の編集画面(画像リスト表示領域を含む表示画面)に追加されるプラグイン(plug-in;アプリケーションに追加機能を提供するためのプログラム)のソフトウェアによって実現されるものであってもよい。また、編集画面の制御プログラムとジェスチャーパッドの制御プログラムとが、API(application program interface;アプリケーションプログラムインターフェース)によって画像データの通信を行うようにしてもよい。
大容量記憶部306は、ジェスチャー記憶部321、ジェスチャーパラメータ記憶部322、および画像データ記憶部323を備えている。
ジェスチャー記憶部321は、ユーザーインターフェース218,270に対してユーザーが入力可能な各ジェスチャー(ジェスチャーの種別)について、各ジェスチャーに対応する操作内容(例えば、回転処理、拡大処理、縮小処理、画像を印刷する用紙あるいは画像を表示する表示枠(表示領域)に対する当該画像の相対位置の移動処理など)と、当該操作内容を選択するためのタッチスクリーン301に対するジェスチャー(タッチ位置の軌跡のパターン)とを対応付けて記憶する。
ジェスチャーパラメータ記憶部322は、各ジェスチャーが入力されたときに当該ジェスチャーに対応する操作内容を画像データに適用する際の適用方法を示すパラメータを記憶する。上記パラメータは、例えば、各ジェスチャーを入力する際の表示画面に対するユーザーの接触位置の軌跡の形状、向き、時間的変化パターン、またはこれらの組み合わせと、当該ジェスチャーに対応する操作を画像データに適用する際の画像データに対する操作量、操作方向、操作角度、またはこれらの組み合わせとを対応付けるものであってもよい。より具体的には、上記パラメータとしては、例えば、画像の回転指示を行うジェスチャー(回転処理ジェスチャー)の場合には接触位置の軌跡の回転角度(タッチスクリーン上における2本の指で触れられた位置の中点を中心とする2本の指による接触位置の回転方向と回転角度あるいは移動量)と画像データに適用する回転角度との関係を示すパラメータ、画像の拡大縮小を示すジェスチャーの場合には接触位置の軌跡(タッチスクリーン上における2本の指で触れられた位置の間隔の変化方向と変化量)と画像に対する変倍率(変倍量)との関係を示すパラメータ、画像の当該画像を印刷する用紙あるいは当該画像を表示する表示枠に対する相対位置の移動を行うジェスチャーの場合には接触位置の軌跡(タッチスクリーン上における接触位置の移動方向と移動量)と画像に適用する移動量との関係を示すパラメータなどが挙げられる。
画像データ記憶部323は、操作対象画像として選択可能な画像の画像データを記憶する。
タッチ入力検出部314は、タッチスクリーン301から入力される信号に基づいて、このタッチスクリーン301におけるユーザーがタッチした位置および範囲を検出する。なお、タッチ入力検出部314は、ユーザーがタッチスクリーン301にタッチしながらタッチ位置を移動させたとき(ジェスチャー入力を行ったとき)にはその移動の軌跡を検出する。
ジェスチャー検出部315は、タッチ入力検出部314の検出した上記軌跡とジェスチャー記憶部321に記憶しているジェスチャーのパターンとを照合することでユーザーが入力したジェスチャー(ジェスチャーの種別)を検出する。また、ジェスチャー検出部315は、上記軌跡と、上記軌跡から検出したジェスチャー(ジェスチャーの種別)と、ジェスチャーパラメータ記憶部322に格納されている当該ジェスチャー(ジェスチャーの種別)に関するパラメータとに基づいて、上記ジェスチャーに対応する操作内容(処理の種別および操作量)を検出する。
例えば、ユーザーが回転処理を示すジェスチャーを入力した場合、ジェスチャー検出部315は、タッチ入力検出部314が検出した当該ジェスチャー入力に対応する軌跡とジェスチャー記憶部321に記憶しているジェスチャーのパターンとを照合することで、上記ジェスチャー入力が回転処理を示すジェスチャーであることを検出する。また、ジェスチャー検出部315は、上記軌跡とジェスチャーパラメータ記憶部322に格納されている回転処理に対応するジェスチャーについてのパラメータ(例えば、上記軌跡の長さあるいは回転角度と画像データに対する回転角度とを対応付けたパラメータ)を検出する。
パラメータ設定部316は、ユーザーからの指示に応じて各ジェスチャーに応じた画像データに対する操作内容のパラメータを設定する。すなわち、各ジェスチャーに応じた上記パラメータはジェスチャーパラメータ記憶部322にデフォルトで設定されているが、ユーザーがジェスチャーパラメータ記憶部322に記憶されているそれらのパラメータを任意に変更することができるようになっている。
補助入力検出部317は、補助入力装置302を介してユーザーから入力された指示入力を検出する。
なお、指示入力制御部303の各部は、CPU等のプロセッサを用いてソフトウェアによって実現される。具体的には、ROM304はユーザーインターフェース218,270の各機能を実現する制御プログラムを記憶するメモリーであり、RAM305は上記制御プログラム等を展開したり、各種データ等を一時的に記憶したりするためのメモリーである。また、大容量記憶部306がRAM305に格納可能なサイズを超えている各種ファイルや各種データなどを記憶するようにしてもよい。
指示入力制御部303の各部の機能は、これら各機能を実現するソフトウェアである制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)を指示入力制御部303がROM304から読み出して実行することによって達成される。
なお、本実施形態では、上記制御プラグラムをROM304に記憶させておくものとしているが、これに限らず、例えば、制御プログラムのプログラムコードをコンピュータで読み取り可能に記録した記録媒体をユーザーインターフェース218,270あるいはユーザーインターフェース218,270を備えた装置(多機能周辺装置110あるいはホストコンピュータ250)に供給し、指示入力制御部303がこの記録媒体に記録されているプログラムコードを実行する構成としてもよい。上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリー系などを用いることができる。また、ユーザーインターフェース218,270あるいはユーザーインターフェース218,270を備えた装置が通信ネットワークを介して上記プログラムコードをダウロードする構成としてもよい。上記通信ネットワークの構成は、特に限定されるものではなく、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体についても特に限定されるものではなく、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、指示入力制御部303の各機能は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。また、指示入力制御部303の各機能は、ソフトウェアを用いて実現されるものに限らず、ハードウェアロジックによって構成されるものであってもよく、処理の一部を行うハードウェアと当該ハードウェアの制御や残余の処理を行うソフトウェアを実行する演算手段とを組み合わせたものであってもよい。
また、指示入力制御部303は多機能周辺装置110の演算処理部208あるいはホストコンピュータ250の演算処理部251に備えられるものであってもよく、演算処理部208あるいは演算処理部251と協働して動作するものであってもよい。また、指示入力制御部303に備えられる各部(各要素)におけるデータへのアクセス、データ処理、通信、およびデータの表示等の処理は、指示入力制御部303が、例えばマイクロソフト社の“WINDOWS(登録商標)”などのオペレーティングシステムを用いて行うようにしてもよい。
また、ROM304は多機能周辺装置110のROM210あるいはホストコンピュータ250のROM252と共通であってもよく、RAM305は多機能周辺装置110のRAM212あるいはホストコンピュータ250のRAM253と共通であってもよい。また、大容量記憶部306についても、多機能周辺装置110の大容量記憶部214あるいはホストコンピュータ250の大容量記憶部254と共通であってもよい。
また、ユーザーインターフェース218,270が、ユーザーに呈示する音声情報を出力するスピーカー、ヘッドフォン、あるいはイヤフォンなどの音声出力部と、音声出力部の動作を制御する音声出力制御部とを備えていてもよい(いずれも図示せず)。
図3は、ジェスチャーパッド(ジェスチャーパッド画像)300の一例を示す説明図である。この図に示すジェスチャーパッド300は、ジェスチャーアイコン表示領域310、設定入力領域320、ジェスチャー入力領域330を含んでいる。
ジェスチャーアイコン表示領域310は、選択されている操作対象画像(例えばスキャナーで読み取った画像または文書、表示方向を変更可能なファイル、あるいは視覚的特性を変更可能なファイルなど)に対して適用可能なジェスチャーを示すアイコンを表示する領域である。すなわち、ジェスチャーアイコン表示領域310には、選択されている操作対象画像に対して適用可能なジェスチャー(適用可能な操作に対応するジェスチャー)のアイコンのリスト(動作ライブラリー)が表示される。
設定入力領域320は、選択されたジェスチャーについてのパラメータの設定に関する入力(設定指示)を受け付けるための領域である。例えば、ユーザーがジェスチャーアイコン表示領域310にアイコンが表示されているジェスチャーの中からパラメータの設定あるいは変更を行いたいジェスチャーを選択すると、選択されたジェスチャーのアイコン620が設定入力領域320に表示される。そして、設定入力領域320に表示されているパラメータの変更ボタン850を操作してパラメータの変更量を入力し、適用ボタン(実行指示用画像)840に触れることによりパラメータの変更指示を行うことができる。パラメータの変更指示が入力されると、パラメータ設定部316がジェスチャーパラメータ記憶部322に記憶しているパラメータを更新する。
ジェスチャー入力領域330は、ユーザーがジェスチャーによって画像に対する処理の指示入力を行う際に触れる領域である。すなわち、ユーザーは、ジェスチャー入力領域330に触れながら所望する処理に対応するジェスチャーのパターンに応じて接触位置を移動させることでジェスチャーを入力する。
なお、本実施形態では、ジェスチャー入力領域330に対してジェスチャーを入力すると、サムネイル生成部313が操作対象画像に対して当該ジェスチャーに対応する処理を施した場合の結果に対応するサムネイル(プレビュー用サムネイル、プレビュー画像)を生成し、サムネイル表示制御部311が画像リスト表示領域400に表示されている操作対象画像のサムネイルを更新するようになっている。すなわち、入力されたジェスチャーを適用した場合のプレビュー用サムネイルが表示されるようになっている。
図4は、タッチスクリーン301に表示される、操作対象画像として選択可能な画像のサムネイルのリスト410を含む画像リスト表示領域(画像編集環境)400の例を示す模式図である。画像リスト表示領域400には、例えば、多機能周辺装置110のスキャナー機能(スキャナー230)で読み込まれて多機能周辺装置110の画像データ記憶部323に記憶された画像ファイルのサムネイル(記憶されている画像ファイルの画素サイズを小さくした画像)が表示される。
図5は、ユーザーインターフェース218,270における処理の流れを示すフローチャートである。なお、図5に示した各処理は必ずしも図5に示した順に行われる必要はなく、適宜順番を変更したり、これら各処理の一部または全部を並行して実行したりしてもよい。
図5に示したように、まず、サムネイル生成部313が操作対象画像として選択可能な画像(例えば画像データ記憶部323に記憶されている画像、あるいは多機能周辺装置110のスキャナー230で読み込まれた画像)のサムネイルを生成する(S510)。そして、サムネイル表示制御部311が、サムネイル生成部313の生成したサムネイルのリストをタッチスクリーン301の画像リスト表示領域400に表示させる(S511)。また、ジェスチャーパッド表示制御部312がタッチスクリーン301にジェスチャーパッド300を表示させる(S512)。
次に、タッチ入力検出部314が、パラメータを変更するジェスチャーの選択指示がなされたか否かを判断する(S513)。例えば、タッチ入力検出部314が、ジェスチャーアイコン表示領域310に表示されているアイコンを選択する操作がなされた場合に当該アイコンに対応するジェスチャーのパラメータを変更すると判断するようにしてもよく、操作対象画像が選択されていない状態でジェスチャーアイコン表示領域310に表示されているアイコンを選択する操作またはジェスチャー入力領域330に対するジェスチャー入力がなされた場合に当該ジェスチャーのパラメータを変更すると判断するようにしてもよい。また、ジェスチャーアイコン表示領域310に表示されているアイコンを選択する操作またはジェスチャー入力領域330に対するジェスチャー入力がなされた後、パラメータの変更設定を行う旨の指示入力がなされた場合に、パラメータの変更を行うと判断するようにしてもよい。
図6は、タッチスクリーン301に表示される表示画面の一例を示す模式図であり、図3に示したジェスチャーパッド(タッチパッド)300と、図4に示した画像リスト表示領域400とを同一の表示画面(タッチスクリーン301)に表示させた統合編集環境画面600の例を示している。例えば、ジェスチャーアイコン表示領域310に表示されているアイコンの中から左回り回転を示すアイコン610を選択すると、当該アイコン610に対応するジェスチャーのパラメータの設定を行うと判断され、当該アイコン610に対応するアイコン620(図6の破線部参照)が設定入力領域320に表示される。また、アイコン620の近傍には、選択されたアイコン610に対応するジェスチャーについてのパラメータの変更量を指定するための変更ボタン850と、パラメータの変更の実行指示を行うための適用ボタン840とが表示される。
S513においてパラメータを変更するジェスチャーの選択指示がなされたと判断した場合、タッチ入力検出部314は、パラメータの変更量に関する指示入力を検出する(S514)。例えば、ユーザーは、設定入力領域320に表示されているパラメータの変更量を指定するための変更ボタン850を操作することでパラメータの変更量の指示入力を行う。
その後、タッチ入力検出部314は、パラメータの設定に関する実行指示がなされたか否かを判断する(S515)。そして、パラメータの設定に関する実行指示がなされたと判断した場合、S514で入力された変更量に基づいてジェスチャーパラメータ記憶部322に記憶しているパラメータの更新を実行する(S516)。一方、パラメータの設定に関する実行指示がなされていない場合、S514の処理に戻る。
S513においてパラメータを設定するジェスチャーの選択指示がなされていないと判断した場合、およびS516の処理を行った後、タッチ入力検出部314は、操作対象画像の選択指示がなされたか否かを判断する(S517)。そして、操作対象画像の選択指示がなされていないと判断した場合、S513の処理に戻る。
一方、操作対象画像の選択指示がなされたと判断した場合、サムネイル表示制御部311が、操作対象画像のサムネイルを識別可能に表示する(S518)。識別可能に表示するための方法は特に限定されるものではなく、例えば、操作対象画像のサムネイルの周囲を太線で囲むようにしてもよく、操作対象画像以外の画像を反転表示させるようにしてもよい。
図7は、タッチスクリーン301に表示される表示画面の一例を示す模式図であり、画像リスト表示領域400に表示されているサムネイルのうちの一部を操作対象画像のサムネイルとして選択した場合の例を示している。この例では、画像リスト表示領域400に表示されているサムネイルのリスト410の中から、生花についての横向き画像のサムネイル710、野生生物についての横向き画像のサムネイル720、および風景についての横向き画像のサムネイル730が選択されており、選択されたこれら各サムネイルの周囲が太線で表示されている。
その後、タッチ入力検出部314は、ジェスチャー入力領域330に対して操作対象画像に対して適用すべき操作命令の選択指示(操作内容の選択指示)に関するジェスチャー入力がなされたか否か(操作命令の選択指示に関するジェスチャー入力を検出したか否か)を判断する(S519)。
そして、操作命令の選択指示に関するジェスチャー入力がなされた場合、サムネイル生成部313が操作対象画像に対してジェスチャー入力に応じた操作を適用した場合の結果に対応するサムネイルを生成し、サムネイル生成部313によって生成された上記サムネイルをサムネイル表示制御部311が画像リスト表示領域400に表示させる(S520)。すなわち、サムネイル表示制御部311は、画像リスト表示領域400に表示されている操作対象画像のサムネイルを、上記操作命令に応じてサムネイル生成部313が生成した当該操作対象画像のサムネイルに更新する。なお、サムネイル生成部313は、当該ジェスチャー入力に応じて操作対象画像のサムネイルをリアルタイムに更新する。例えば、回転処理のジェスチャー入力がなされている場合、当該ジェスチャー入力の軌跡に応じた回転角度で操作対象画像のサムネイルをリアルタイムに回転させて表示する。
図8は、タッチスクリーン301に表示される表示画面の一例を示す模式図であり、図7に示した状態から回転操作を行わせるためのジェスチャーを入力した場合の例を示している。操作対象画像が選択されている状態でジェスチャー入力(操作命令の選択指示)が入力されると、図8に示したように、画像リスト表示領域400に表示されている操作対象画像のサムネイルが、当該サムネイルに対応する操作対象画像に対して上記ジェスチャー入力に対応する操作を適用した場合に得られる画像に対応するサムネイルに更新される。図8は、図7に示したように生花のサムネイル710、野生生物のサムネイル720、および風景のサムネイル730が操作対象画像のサムネイルとして選択された状態から、ジェスチャーパッド300のジェスチャー入力領域740に対して左回りの回転処理を行わせるためのジェスチャー(点852を中心とする左回りの回転851を示すジェスチャー)が入力された場合を示しており、上記各操作対象画像に対して上記ジェスチャーに対応する回転角度で左回りの回転処理を施した画像に対応するプレビュー用サムネイルが表示されている。なお、図8に示した状態では、操作命令の実行指示(適用ボタン840に対する操作入力)が行われていないので、上記の回転処理はこの時点ではまだ画像データ記憶部323に記憶されている操作対象画像には適用されない。すなわち、上記の回転処理は一時的に適用されたものであり、設定入力領域320に表示されている適用ボタン840にユーザーが触れるまで確定されず、画像データ記憶部323に格納されている操作対象画像の画像データには適用されない。
その後、タッチ入力検出部314は、ユーザーが設定入力領域320の適用ボタン840に触れたか否か、すなわち上記操作命令に応じた操作の実行指示が入力されたか否かを判断する(S521)。そして、操作の実行指示が入力されていないと判断した場合、タッチ入力検出部314は、S519の処理に戻る。
一方、S521において操作の実行指示が入力されたと判断した場合、タッチ入力検出部314は、S517で検出した操作対象画像、およびS521で実行指示された操作命令を多機能周辺装置110の演算処理部208またはホストコンピュータ250の演算処理部251に伝達する(S522)。
図9は、タッチスクリーン301に表示される表示画面の一例を示す模式図であり、ユーザーがジェスチャーパッド300の適用ボタン840に触れるたことによって操作命令の実行指示を行い、操作対象画像および操作命令を示す信号が多機能周辺装置110の演算処理部208またはホストコンピュータ250の演算処理部251に伝達されて画像データ記憶部323に格納されている操作対象画像に上記操作命令に応じた操作が適用された後、当該操作を適用した後の画像データに基づくサムネイルのリストが画像リスト表示領域400に表示されている状態を示している。
その後、指示入力制御部303は処理を続行するか否かを判断し(S523)、続行する場合にはS510の処理に戻る。一方、続行しないと判断した場合には処理を終了する。
なお、指示入力制御部303がジェスチャー記憶部321に記憶しているジェスチャーの中から操作対象画像(例えば選択されたサムネイル)に適用することのできるジェスチャーを抽出し、ジェスチャーパッド表示制御部312が抽出した各ジェスチャーのアイコンのセットあるいはライブラリーをジェスチャーパッド300のジェスチャーアイコン表示領域310に表示するようにしてもよい。また、ジェスチャーの選択は、適用可能な各ジェスチャーに対応する各アイコンをジェスチャーアイコン表示領域310に整列して表示させた中から選択するようにしてもよく、ジェスチャーアイコン表示領域310に各ジェスチャーのリストを表示させてその中から選択するようにしてもよく、これらの両方の方法で選択できるようにしてもよい。また、ジェスチャー入力領域330に対するタッチ動作を検知した結果に基づいて入力されたジェスチャーを解釈し、解釈したジェスチャーを設定入力領域320に表示するようにしてもよい。これにより、リストあるいはライブラリーに登録されているジェスチャーの中からユーザーがパラメータを変更するジェスチャーを選択し、当該ジェスチャーのパラメータをユーザーが任意に変更することができる。
本実施形態によれば、例えば、ユーザーが複数の画像をスキャナーで読み取って取得したデジタル画像データに適用することにより、これら各画像の中に向きが異なるものがある場合(例えば、肖像画と風景画とが入り混じっている場合、側面が左向きである画像と側面が右向きである画像とが入り混じっている場合、スキャナーにおける読み取り時にトレイに誤った方向でセットされて不揃いのまま読み取り処理が行われたために方向の誤っている画像が含まれている場合など)であっても、ユーザーが向きの正しくない画像だけを選択し、選択した各画像を1度のジェスチャーによって正しい向きになるように回転させることができる。
なお、本実施形態において、ユーザーがスキャナーによって画像を読み込んだ後、画像に対する編集環境を提供するタッチスクリーン上にそれらの画像のアイコンあるいはサムネイルのリストと、ジェスチャーパッドとを表示させるようにしてもよい。
この場合、ユーザーは、所望する処理(例えば回転処理)を適用したい画像(操作対象画像)のアイコンあるいはサムネイルを選択し、ジェスチャーパッドのジェスチャー入力領域に触れて上記処理に対応するジェスチャーを入力する。これにより、入力されたジェスチャーに応じた処理を操作対象画像として選択された各画像に適用した結果に対応するプレビュー用サムネイルが上記タッチスクリーンに表示される。その後、ユーザーが、上記処理が施されたこれら各画像を保存するための保存コマンド(上記処理を操作対象画像に対して実行させるための実行指示)を入力するようにしてもよい。
本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
本発明は、ジェスチャーに基づいて指示入力を行う指示入力装置に適用できる。
100 システム
110 多機能周辺装置(画像処理装置、画像読取装置、画像形成装置)
120,140,141 端末装置
208 演算処理部(画像処理部)
218,270 ユーザーインターフェース(指示入力装置)
250 ホストコンピュータ
251 演算処理部(画像処理部)
300 ジェスチャーパッド(ジェスチャーパッド画像)
301 タッチスクリーン(表示部)
310 ジェスチャーアイコン表示領域
311 サムネイル表示制御部
312 ジェスチャーパッド表示制御部
313 サムネイル生成部
314 タッチ入力検出部
315 ジェスチャー検出部
316 パラメータ設定部
320 設定入力領域
321 ジェスチャー記憶部
322 ジェスチャーパラメータ記憶部
323 画像データ記憶部
330 ジェスチャー入力領域
400 画像リスト表示領域
740 ジェスチャー入力領域

Claims (9)

  1. タッチスクリーン機能を有する表示部を備え、画像データに対して適用すべき操作内容をユーザーが上記表示部の表示画面に対して当該操作内容に応じたジェスチャーで触れることによって入力する指示入力装置であって、
    画像データに対して適用可能な1または複数の操作内容と当該各操作内容の選択指示を入力するためのジェスチャーとを対応付けて記憶するジェスチャー記憶部と、
    上記ジェスチャーと当該ジェスチャーが入力されたときに当該ジェスチャーに対応する操作内容を画像データに適用する際の適用方法を示すパラメータとを対応付けて記憶するジェスチャーパラメータ記憶部と、
    上記ジェスチャーを入力するためのジェスチャー入力領域、および上記ジェスチャーに対応する上記パラメータの設定指示を入力するための設定入力領域を含むジェスチャーパッド画像を上記表示部に表示させるジェスチャーパッド表示制御部と、
    上記設定入力領域に対してパラメータの設定指示が入力されたときに当該設定指示に応じて上記ジェスチャーパラメータ記憶部に記憶している上記パラメータを変更するパラメータ設定部と、
    上記ジェスチャー入力領域に対してユーザーが入力したジェスチャー、および上記ジェスチャー記憶部に記憶されている上記各操作内容と当該各操作内容に対応するジェスチャーとの対応関係に基づいてユーザーが入力した上記ジェスチャーに対応する操作内容を検出し、上記ジェスチャーパラメータ記憶部に記憶されている各ジェスチャーと当該各ジェスチャーに対応する操作内容を画像データに適用する際の適用方法との対応関係に基づいてユーザーが入力した上記ジェスチャーに対応する上記適用方法を検出するジェスチャー検出部と
    操作対象画像として選択可能な画像のサムネイルを生成するサムネイル生成部と、
    上記サムネイル生成部が生成したサムネイルを上記表示部における上記ジェスチャーパッド画像が表示される表示領域とは異なる表示領域または上記表示部とは異なる第2表示部に表示させるサムネイル表示制御部とを備え、
    上記表示部または上記第2表示部にサムネイルが表示されている画像データのうちユーザーが操作対象画像として選択した各画像データに対して、ユーザーが上記ジェスチャー入力領域に入力したジェスチャーに基づいて検出された上記操作内容および上記適用方法に基づく操作を実行させるための信号を、上記各画像データに対して上記操作を行う画像処理装置に伝達することを特徴とする指示入力装置。
  2. 記ジェスチャー入力領域に対するジェスチャーの入力が行われたときに、
    上記サムネイル生成部は、上記ジェスチャー検出部が検出した当該ジェスチャーに対応する操作内容および上記ジェスチャーパラメータ記憶部に記憶されている当該操作内容に対応する上記パラメータによって示された上記適用方法に基づく操作を、上記表示部または上記第2表示部にサムネイルが表示されている画像データのうちユーザーが操作対象画像として選択した各画像データに対して適用した場合の当該各画像データに対応するサムネイルであるプレビュー用サムネイルを生成し、
    上記サムネイル表示制御部は、上記表示部または上記第2表示部に表示している上記各操作対象画像のサムネイルを上記プレビュー用サムネイルに更新することを特徴とする請求項1に記載の指示入力装置。
  3. 上記ジェスチャーパッド表示制御部は、上記ジェスチャー入力領域に対して入力された上記ジェスチャーに対応する操作を操作対象画像として選択されている各画像データに適用することの実行指示をユーザーが指示入力するための実行指示用画像を上記表示部に表示させ、
    上記実行指示用画像に対するユーザーの指示入力を検出したときに、上記実行指示に対応する操作を操作対象画像として選択されている各画像データに対して実行させるための信号を、上記各画像データに対して上記実行指示に対応する操作を行う画像処理装置に伝達することを特徴とする請求項1または2に記載の指示入力装置。
  4. 上記パラメータは、上記ジェスチャーを入力する際の表示画面に対するユーザーの接触位置の軌跡の形状、向き、時間的変化パターン、またはこれらの組み合わせと、当該ジェスチャーに対応する操作を画像データに適用する際の画像データに対する操作量、操作方向、操作角度、またはこれらの組み合わせとを対応付けるためのものであることを特徴とする請求項1から3のいずれか1項に記載の指示入力装置。
  5. 上記ジェスチャー記憶部には、画像データに対する回転処理を行わせるためのジェスチャーである回転処理ジェスチャーが記憶されており、
    上記ジェスチャーパラメータ記憶部には、
    上記回転処理ジェスチャーと当該回転処理ジェスチャーが入力されたときに画像データに回転処理を施す際の回転角度を示すパラメータとが対応付けて記憶されており、
    上記パラメータ設定部は、ユーザーからのパラメータの設定指示に基づいて、上記回転処理ジェスチャーを入力する際の表示画面に対するユーザーの接触位置の軌跡の形状または回転角度と、当該回転処理ジェスチャーに応じて画像データに回転処理を施す際の画像データの回転角度とを示すパラメータを変更することを特徴とする請求項4に記載の指示入力装置。
  6. 上記サムネイル表示制御部は、上記サムネイル生成部が生成したサムネイルを上記表示部に表示させ、
    上記表示部に表示されているサムネイルのうちユーザーが触れたサムネイルをユーザーが操作対象画像として選択した画像データのサムネイルとして検出することを特徴とする請求項に記載の指示入力装置。
  7. タッチスクリーン機能を有する表示部を備え、画像データに対して適用すべき操作内容をユーザーが上記表示部の表示画面に対して当該操作内容に応じたジェスチャーで触れることによって入力する指示入力装置を用いて指示入力を行う指示入力方法であって、
    画像データに対して適用可能な1または複数の操作内容と当該各操作内容の選択指示を入力するためのジェスチャーとを対応付けて予め記憶するジェスチャー記憶工程と、
    上記ジェスチャーと当該ジェスチャーが入力されたときに当該ジェスチャーに対応する操作内容を画像データに適用する際の適用方法を示すパラメータとを対応付けて記憶するジェスチャーパラメータ記憶工程と、
    上記ジェスチャーを入力するためのジェスチャー入力領域、および上記ジェスチャーに対応する上記パラメータの設定指示を入力するための設定入力領域を含むジェスチャーパッド画像を上記表示部に表示させるジェスチャーパッド表示工程と、
    上記設定入力領域に対してパラメータの設定指示が入力されたときに当該設定指示に応じて上記ジェスチャーパラメータ記憶工程で記憶した上記パラメータを変更するパラメータ設定工程と、
    操作対象画像として選択可能な画像のサムネイルを生成するサムネイル生成工程と、
    上記サムネイル生成工程で生成したサムネイルを上記表示部における上記ジェスチャーパッド画像が表示される表示領域とは異なる表示領域または上記表示部とは異なる第2表示部に表示させるサムネイル表示工程と、
    上記ジェスチャー入力領域に対してユーザーが入力したジェスチャー、および上記ジェスチャー記憶工程で記憶した上記各操作内容と当該各操作内容に対応するジェスチャーとの対応関係に基づいてユーザーが入力した上記ジェスチャーに対応する操作内容を検出し、上記ジェスチャーパラメータ記憶工程で記憶した各ジェスチャーと当該各ジェスチャーに対応する上記適用方法との対応関係に基づいてユーザーが入力した上記ジェスチャーに対応する上記適用方法を検出するジェスチャー検出工程と
    上記表示部または上記第2表示部にサムネイルが表示されている画像データのうちユーザーが操作対象画像として選択した各画像データに対して、ユーザーが上記ジェスチャー入力領域に入力したジェスチャーに基づいて検出された上記操作内容および上記適用方法に基づく操作を実行させるための信号を、上記各画像データに対して上記操作を行う画像処理装置に伝達する工程とを含むことを特徴とする指示入力方法。
  8. 請求項1から6のいずれか1項に記載の指示入力装置を動作させるプログラムであって、コンピュータを上記各部として機能させるためのプログラム。
  9. 請求項8に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2010098921A 2009-06-29 2010-04-22 指示入力装置、指示入力方法、プログラムおよびその記録媒体 Active JP4959825B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/493,471 US8543946B2 (en) 2009-06-29 2009-06-29 Gesture-based interface system and method
US12/493,471 2009-06-29

Publications (2)

Publication Number Publication Date
JP2011008768A JP2011008768A (ja) 2011-01-13
JP4959825B2 true JP4959825B2 (ja) 2012-06-27

Family

ID=43382190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010098921A Active JP4959825B2 (ja) 2009-06-29 2010-04-22 指示入力装置、指示入力方法、プログラムおよびその記録媒体

Country Status (2)

Country Link
US (1) US8543946B2 (ja)
JP (1) JP4959825B2 (ja)

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110191708A1 (en) * 2000-02-17 2011-08-04 TWP Inc. Selection interface structures, systems and methods
EP3260969B1 (en) 2009-09-22 2021-03-03 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US9310907B2 (en) 2009-09-25 2016-04-12 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US8832585B2 (en) 2009-09-25 2014-09-09 Apple Inc. Device, method, and graphical user interface for manipulating workspace views
US8799826B2 (en) 2009-09-25 2014-08-05 Apple Inc. Device, method, and graphical user interface for moving a calendar entry in a calendar application
US8766928B2 (en) 2009-09-25 2014-07-01 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US8612884B2 (en) 2010-01-26 2013-12-17 Apple Inc. Device, method, and graphical user interface for resizing objects
US8539386B2 (en) 2010-01-26 2013-09-17 Apple Inc. Device, method, and graphical user interface for selecting and moving objects
US8539385B2 (en) * 2010-01-26 2013-09-17 Apple Inc. Device, method, and graphical user interface for precise positioning of objects
US8972879B2 (en) 2010-07-30 2015-03-03 Apple Inc. Device, method, and graphical user interface for reordering the front-to-back positions of objects
US9081494B2 (en) 2010-07-30 2015-07-14 Apple Inc. Device, method, and graphical user interface for copying formatting attributes
US9098182B2 (en) 2010-07-30 2015-08-04 Apple Inc. Device, method, and graphical user interface for copying user interface objects between content regions
US9164542B2 (en) * 2010-08-31 2015-10-20 Symbol Technologies, Llc Automated controls for sensor enabled user interface
JP2012058857A (ja) * 2010-09-06 2012-03-22 Sony Corp 情報処理装置、操作方法及び情報処理プログラム
US9747270B2 (en) 2011-01-07 2017-08-29 Microsoft Technology Licensing, Llc Natural input for spreadsheet actions
US20120225693A1 (en) 2010-10-01 2012-09-06 Sanjiv Sirpal Windows position control for phone applications
US9588545B2 (en) * 2010-10-01 2017-03-07 Z124 Windows position control for phone applications
US20120218202A1 (en) 2010-10-01 2012-08-30 Sanjiv Sirpal Windows position control for phone applications
US20120225694A1 (en) 2010-10-01 2012-09-06 Sanjiv Sirpal Windows position control for phone applications
JP5429198B2 (ja) * 2011-01-12 2014-02-26 コニカミノルタ株式会社 画像処理装置、画像形成システム、および制御プログラム
JP5418508B2 (ja) * 2011-01-13 2014-02-19 カシオ計算機株式会社 電子機器、表示制御方法及びプログラム
US20120204118A1 (en) * 2011-02-08 2012-08-09 Lefar Marc P Systems and methods for conducting and replaying virtual meetings
US8537195B2 (en) * 2011-02-09 2013-09-17 Polycom, Inc. Automatic video layouts for multi-stream multi-site telepresence conferencing system
JP5422586B2 (ja) * 2011-02-28 2014-02-19 京セラドキュメントソリューションズ株式会社 情報処理装置及び画像形成装置
JP5682394B2 (ja) * 2011-03-24 2015-03-11 大日本印刷株式会社 タッチパネルを用いた操作入力検知装置
US8631317B2 (en) 2011-06-28 2014-01-14 International Business Machines Corporation Manipulating display of document pages on a touchscreen computing device
JP2013037420A (ja) * 2011-08-04 2013-02-21 Dainippon Printing Co Ltd コンテンツ表示システム、コンテンツ表示制御方法、コンテンツ表示制御装置、プログラム
US9251144B2 (en) * 2011-10-19 2016-02-02 Microsoft Technology Licensing, Llc Translating language characters in media content
US9210361B2 (en) * 2012-04-24 2015-12-08 Skreens Entertainment Technologies, Inc. Video display system
US10499118B2 (en) 2012-04-24 2019-12-03 Skreens Entertainment Technologies, Inc. Virtual and augmented reality system and headset display
US9743119B2 (en) 2012-04-24 2017-08-22 Skreens Entertainment Technologies, Inc. Video display system
US11284137B2 (en) 2012-04-24 2022-03-22 Skreens Entertainment Technologies, Inc. Video processing systems and methods for display, selection and navigation of a combination of heterogeneous sources
KR101925058B1 (ko) * 2012-04-26 2018-12-04 삼성전자주식회사 초음파 장치의 버튼의 기능을 버튼에 디스플레이하는 방법 및 장치
JP5656919B2 (ja) * 2012-05-31 2015-01-21 京セラドキュメントソリューションズ株式会社 送信装置
JP2014071568A (ja) * 2012-09-28 2014-04-21 Brother Ind Ltd 画像処理プログラムおよび画像処理装置
JP5978895B2 (ja) 2012-09-28 2016-08-24 ブラザー工業株式会社 画像処理プログラムおよび画像処理装置
CA2901601C (en) 2012-12-04 2021-04-27 L-3 Communications Corporation Touch sensor controller responsive to environmental operating conditions
KR102098258B1 (ko) * 2013-02-04 2020-04-07 삼성전자 주식회사 콘텐츠 편집 방법 및 이를 구현하는 전자기기
US9741150B2 (en) * 2013-07-25 2017-08-22 Duelight Llc Systems and methods for displaying representative images
JP5765364B2 (ja) * 2013-04-17 2015-08-19 コニカミノルタ株式会社 画像処理装置、プレビュー画像を表示する方法、およびプログラム
US10664652B2 (en) 2013-06-15 2020-05-26 Microsoft Technology Licensing, Llc Seamless grid and canvas integration in a spreadsheet application
JP6217186B2 (ja) * 2013-07-03 2017-10-25 コニカミノルタ株式会社 画像データ処理装置
JP2015053040A (ja) * 2013-08-06 2015-03-19 国立大学法人 筑波大学 画像表示装置、画像表示方法及びプログラム
US9329692B2 (en) 2013-09-27 2016-05-03 Microsoft Technology Licensing, Llc Actionable content displayed on a touch screen
US10328344B2 (en) 2013-10-11 2019-06-25 Valve Corporation Game controller systems and methods
CN103543833B (zh) * 2013-10-30 2016-03-23 天津三星电子有限公司 一种显示器参数遥控调节方法、装置及显示器
JP2015103161A (ja) * 2013-11-27 2015-06-04 コニカミノルタ株式会社 画像形成装置、操作画面の表示方法、およびコンピュータプログラム
JP6160465B2 (ja) * 2013-12-05 2017-07-12 富士ゼロックス株式会社 携帯情報端末、及びプログラム
US9661254B2 (en) 2014-05-16 2017-05-23 Shadowbox Media, Inc. Video viewing system with video fragment location
USD795928S1 (en) * 2015-08-20 2017-08-29 S-Printing Solution Co., Ltd. Display screen or portion thereof with graphical user interface
EP3438806A4 (en) * 2016-03-31 2020-04-29 KYOCERA Document Solutions Inc. DISPLAY DEVICE
USD819686S1 (en) * 2016-11-21 2018-06-05 Google Llc Display screen with graphical user interface
JP6359701B2 (ja) * 2017-02-15 2018-07-18 シャープ株式会社 画像形成装置、情報処理装置及び表示方法
US10298811B2 (en) * 2017-03-31 2019-05-21 Kyocera Document Solutions Inc. Scan privacy tool and methods using sensors or control buttons
CN107992348B (zh) * 2017-10-31 2020-09-11 厦门宜弘电子科技有限公司 基于智能终端的动态漫画插件处理方法及***
USD952664S1 (en) * 2020-11-23 2022-05-24 The Boeing Company Display screen or portion thereof with animated graphical user interface
USD951981S1 (en) * 2020-11-23 2022-05-17 The Boeing Company Display screen or portion thereof with animated graphical user interface
USD954101S1 (en) * 2020-11-23 2022-06-07 The Boeing Company Display screen or portion thereof with graphical user interface
USD958824S1 (en) * 2020-11-23 2022-07-26 The Boeing Company Display screen or portion thereof with graphical user interface
USD951980S1 (en) * 2020-11-23 2022-05-17 The Boeing Company Display screen or portion thereof with graphical user interface

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5774591A (en) * 1995-12-15 1998-06-30 Xerox Corporation Apparatus and method for recognizing facial expressions and facial gestures in a sequence of images
US7840912B2 (en) * 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
US7469381B2 (en) 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
US6883140B1 (en) * 2000-02-24 2005-04-19 Microsoft Corporation System and method for editing digitally represented still images
US7886236B2 (en) * 2003-03-28 2011-02-08 Microsoft Corporation Dynamic feedback for gestures
JP2005006209A (ja) 2003-06-13 2005-01-06 Kyocera Mita Corp 原稿読取装置
US7411575B2 (en) * 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US7340333B2 (en) * 2004-07-26 2008-03-04 Gm Global Technology Operations, Inc. Multifunction control system
KR20070117951A (ko) * 2006-06-09 2007-12-13 삼성전자주식회사 입력 채널 확장을 위한 장치, 및 방법
JP2009094736A (ja) * 2007-10-05 2009-04-30 Sony Corp プリントシステム、画像表示装置、画像表示方法及び画像表示プログラム
TW201009650A (en) * 2008-08-28 2010-03-01 Acer Inc Gesture guide system and method for controlling computer system by gesture
US9207806B2 (en) * 2009-05-28 2015-12-08 Microsoft Technology Licensing, Llc Creating a virtual mouse input device

Also Published As

Publication number Publication date
US8543946B2 (en) 2013-09-24
US20100333044A1 (en) 2010-12-30
JP2011008768A (ja) 2011-01-13

Similar Documents

Publication Publication Date Title
JP4959825B2 (ja) 指示入力装置、指示入力方法、プログラムおよびその記録媒体
JP4501016B2 (ja) 原稿読取装置
JP4375578B2 (ja) 画像形成装置及び画像形成装置における設定方法
JP5763237B2 (ja) 画像形成装置および画像形成処理設定方法
JP5765366B2 (ja) 画像処理装置、携帯端末装置、リモート画面データの作成プログラム及び表示制御プログラム
US20140145991A1 (en) Information processing apparatus installed with touch panel as user interface
JP4425939B2 (ja) 画像データ処理装置
JP2009152818A (ja) 画像処理情報を含む出力イメージの設定方法および該設定制御プログラム
JP2013106100A (ja) 表示装置及びその制御方法
JP2016126657A (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
JP6840571B2 (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
JP2011138436A (ja) 画像処理装置及び同装置の表示制御方法並びに表示制御プログラム
JP6003939B2 (ja) 画像処理連携システムと連携方法、携帯端末装置及び画像処理連携プログラム
JP7187286B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP4425940B2 (ja) 画像データ処理装置
JP4885256B2 (ja) 画像データ処理装置
JP6080461B2 (ja) 操作受付装置及び方法、並びにプログラム
US20140040827A1 (en) Information terminal having touch screens, control method therefor, and storage medium
JP2015014888A (ja) 操作装置、画像形成装置、操作装置の制御方法、及びプログラム
JP6409285B2 (ja) 表示制御装置、画像形成装置、表示方法、および表示プログラム
JP6539328B2 (ja) 画像形成装置及びプログラム
JP2015011647A (ja) 操作装置およびその操作装置を含む画像形成装置、操作装置の制御方法
JP2008181272A (ja) 情報処理装置及びプログラム
JP2017135714A (ja) 画像形成装置、情報処理装置及び表示方法
JP5250246B2 (ja) 情報表示装置、及び画像形成装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120321

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150330

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4959825

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150