JP2022171477A - 情報処理装置、情報処理装置の制御方法およびプログラム - Google Patents

情報処理装置、情報処理装置の制御方法およびプログラム Download PDF

Info

Publication number
JP2022171477A
JP2022171477A JP2021078147A JP2021078147A JP2022171477A JP 2022171477 A JP2022171477 A JP 2022171477A JP 2021078147 A JP2021078147 A JP 2021078147A JP 2021078147 A JP2021078147 A JP 2021078147A JP 2022171477 A JP2022171477 A JP 2022171477A
Authority
JP
Japan
Prior art keywords
user
touch
touchless
information processing
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021078147A
Other languages
English (en)
Other versions
JP2022171477A5 (ja
Inventor
聡希 渡内
Masaki Watauchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021078147A priority Critical patent/JP2022171477A/ja
Priority to US17/715,994 priority patent/US11983385B2/en
Publication of JP2022171477A publication Critical patent/JP2022171477A/ja
Publication of JP2022171477A5 publication Critical patent/JP2022171477A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Facsimiles In General (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】タッチ操作とタッチレス操作の両方に対応した情報処理装置のユーザ操作の利便性を向上させる。【解決手段】タッチ操作とタッチレス操作が可能な情報処理装置は、操作方法に関する設定情報に応じて、タッチ操作およびタッチレス操作のいずれか一方の操作を有効とすることで操作方法を制御する操作制御部205を備え、操作制御部205は、設定情報のみで操作方法が決定できない場合、検出したユーザの操作の操作方法に応じて操作方法を制御する。【選択図】図2

Description

本発明は、タッチ操作とタッチレス操作が可能な情報処理装置、情報処理装置の制御方法およびプログラムに関する。
近年、情報処理装置はタッチパネル(画面)を有するものが多く存在する。例えば、情報処理装置の一種である画像形成装置(MFP)はタッチパネルを備えるものが一般的である。オフィスに設置されているMFPは通常、複数人が共同で使用している。他方、衛生観念の高まりにより他人が触れたタッチパネルに触りたくないという要望が生まれている。近年、画面に触れずに操作する技術としてハンドセンサを用いたタッチレス技術が開示されている。例えば、特許文献1は、操作に用いるジェスチャの一覧を表示することで、操作者が操作に用いるジェスチャを予め覚えることなく操作を行うことが可能な、操作者が手形状等によって制御対象装置に指示を与えるインターフェース装置を開示している。情報装置にハンドセンサを搭載することによって、複数人が共用で同じ情報処理装置を使用しても、他人が触れた画面に触れずに操作することが可能になる。
特許第4267648号公報
しかしながら、共用している情報処理装置の操作方法をタッチレス操作のみに限定してしまうと使い勝手が低下してしまう。例えば、タッチ操作のみ有効な情報処理装置をタッチレス操作のみ有効な情報処理装置に置き換えた場合、タッチを好まない衛生観念の高いユーザのニーズは満たせるが、画面に触れることを厭わずにこれまでと同様の操作を行いたいユーザのニーズは満たせない。一方、タッチ操作とタッチレス操作の両方を使用できるようにすると、両方の操作方法が混在して、誤操作が発生してしまう恐れがある。
本発明は、タッチ操作とタッチレス操作の両方に対応した情報処理装置のユーザ操作の利便性を向上させることを目的とする。
上記課題を解決するために、本発明の情報処理装置は、タッチ操作とタッチレス操作が可能な情報処理装置であって、操作方法に関する設定情報に応じて、タッチ操作およびタッチレス操作のいずれか一方の操作を有効とすることで操作方法を制御する操作制御手段を備え、前記操作制御手段は、前記設定情報のみで操作方法が決定できない場合、検出したユーザの操作の操作方法に応じて操作方法を制御する。
本発明によれば、タッチ操作とタッチレス操作の両方に対応した情報処理装置のユーザ操作の利便性を向上させることができる。
情報処理装置のハードウェア構成を示すブロック図である。 情報処理装置のソフトウェア構成を示すブロック図である。 機器設定管理テーブルの一例を示す図である。 操作方法選択画面の一例を示す図である。 第1実施形態におけるMFPの処理を示すフローチャートである。 第1実施形態におけるMFPの処理を示すフローチャートである。 第2実施形態におけるMFPの処理を示すフローチャートである。 第2実施形態におけるMFPの処理を示すフローチャートである。 第2実施形態におけるユーザ操作の検出処理を示すフローチャートである。
(第1実施形態)
図1は、本実施形態における情報処理装置のハードウェア構成を示すブロック図である。本実施形態の情報処理装置は、例えばタッチパネルおよびハンドセンサを備え、ユーザのタッチ操作およびタッチレス操作を受け付けることが可能である。なお、本実施形態では、情報処理装置の一例として印刷機能およびスキャン機能を有するMFP(Multi Function Peripheral)を用いて説明を行うが、本発明をMFPに限定するものではない。
MFP101は、スキャナ132、プリンタ133を備える画像形成装置である。スキャナ132は、原稿を光学的に読み取り、スキャンに基づく電子ファイル(スキャンデータ)を生成する画像入力デバイスである。プリンタ133は、外部から受信した印刷データに応じた画像を形成して用紙に出力したり、スキャナ305にセットされた原稿画像を光学的に読み取り用紙に出力したりする画像出力デバイスである。MFP101はさらに、制御部110、タッチパネル120、ハンドセンサ131を備える。
制御部110は、MFP101全体の動作を制御する。制御部110は、CPU111、ROM112、RAM113、HDD114、タッチパネルI/F115、ハンドセンサI/F116、スキャナI/F117、プリンタI/F118を備える。CPU(Central Processing Unit)111は、ROM112やHDD114に記憶された制御プログラムを読み出して実行することにより、ハードウェアおよびソフトウェアの制御処理を実行する。ROM(Read Only Memory)202は、不揮発性の記憶領域であって、MFP101の基本制御プログラム、アプリケーション等の各種データを記憶する。RAM(Random Access Memory)113は、CPU111の主メモリ、ワークエリア等の一時記憶領域として用いられる。HDD(Hard Disk Drive)114は、画像データや各種プログラムを記憶する。
タッチパネル120は、画面を表示する液晶表示部121と、ユーザが画面に触れた情報を検出するタッチセンサ122を備える。タッチパネルI/F115は、タッチパネル120と制御部110とを接続するインターフェースである。タッチパネルI/F115は、液晶表示部121に表示するデータをタッチパネル120に出力する。また、タッチパネルI/F115は、タッチセンサ122によって検出されたユーザによる接触操作(タッチ操作)の情報をCPU111に送出する。
ハンドセンサ131は、液晶表示部121の上部空間におけるユーザの手や指の状態を検出する。ハンドセンサ131が検出する情報の例としては、指先と液晶表示部121までの距離や、伸ばした指の種類や本数、手の左右、手や指の動き(ハンドジェスチャー)などが挙げられる。ユーザは、ハンドセンサ131が検出する情報によりタッチパネル120に接触することなくタッチレス操作を行うことが可能である。ハンドセンサI/F116は、ハンドセンサ131と制御部110とを接続するインターフェースである。ハンドセンサI/F116は、ハンドセンサ131により検出されたユーザの手や指の状態をCPU111に送出する。
スキャナI/F117は、スキャナ132と制御部110とを接続するインターフェースである。スキャナ132は、原稿を読み取って画像データを生成し、スキャナI/F117を介して読み取った画像データを制御部110に入力する。プリンタI/F118は、プリンタ133と制御部110とを接続するインターフェースである。プリンタ133で印刷すべき画像データはプリンタI/F118を介して制御部110からプリンタ133に転送され、プリンタ133において用紙などの記録媒体上に印刷される。
図2は、本実施形態における情報処理装置のソフトウェア構成を示すブロック図である。MFP101のROM112やHDD114に記憶されているプログラムを、CPU111がRAM113に読み出し、解析、実行することで、本ソフトウェア構成が実現され、後述の処理が実行される。MFP101は、機器設定管理部201、機器設定管理テーブル保持部202、画面制御部203、ハードウェア制御部204、操作制御部205を備える。
機器設定管理部201は、MFP101において設定可能な設定項目とその値を管理する。例えば、機器設定管理部201は、ユーザの操作方法に関する設定情報を管理する。また、機器設定管理部201は、操作方法をリセットするまでのリセット時間も管理する。機器設定管理テーブル保持部202は、機器設定管理部201において管理している設定情報を機器設定管理テーブルとして保持する。機器設定管理テーブルは、RAM113またはHDD114に記録される。機器設定管理テーブル保持部202が保持する機器設定管理テーブルの例は、図3にて後述する。
画面制御部203は、液晶表示部121に表示する画面を制御する。液晶表示部121に表示する画面の例は、図4にて後述する。ハードウェア制御部204は、タッチパネル120やハンドセンサ131、スキャナ132、プリンタ133といったMFP101のハードウェアを各I/Fを介して制御する。操作制御部205は、MFP101が受け付けるユーザの操作方法(操作モード)を制御する。操作制御部205は、機器設定管理テーブルに設定されている操作モードに応じてMFP101が受け付けるユーザの操作方法を決定する。機器設定管理テーブルに定義された操作モードが「自動」の場合には、操作制御部205は、ユーザによる操作に応じて操作方法を決定する。
図3は、機器設定管理テーブルの一例を示す図である。機器設定管理テーブルは、機器設定管理部201により管理され、機器設定管理テーブル保持部202に保持されている。機器設定管理テーブルは、一行(1レコード)がひとつの設定の定義であり、各行には設定項目とその設定値の組み合わせが定義されている。設定項目301は、設定項目を表す列である。設定値302は、設定項目に対する設定値を定義する列である。本実施形態の機器設定管理テーブルには、ユーザの操作方法を定義する操作モードの設定と、操作モードをリセットするまでの時間を定義する自動リセット時間の設定が含まれる。
操作モード311は、設定項目301が「操作モード」、設定値302が「自動」の設定である。操作モードは、MFP101の操作方法を決める設定項目である。操作モードに設定可能な設定値302は、「タッチ」「タッチレス」「自動」の3種類である。設定値302が「タッチ」の場合、MFP101はユーザのタッチ操作のみを有効とする。設定値302が「タッチレス」の場合、MFP101はユーザのタッチレス操作のみを有効とする。設定値302が「自動」の場合、MFP101の操作開始時にユーザが行った操作に応じて、以降の画面で用いる操作方法が決定される。すなわち、MFP101の操作開始時にユーザがタッチ操作を行った場合は、以降の画面で用いる操作方法でもユーザのタッチ操作のみを有効とする。一方、MFP101の操作開始時にユーザがタッチレス操作を行った場合は、以降の画面で用いる操作方法でもユーザのタッチレス操作のみを有効とする。
自動リセット時間312は、設定項目301が「自動リセット時間」、設定値302が「60sec」の設定である。自動リセット時間は、操作方法の自動リセットが行われるまでの所定の時間を定める設定項目である。自動リセットとは、ユーザがMFP101の操作を終了してから、所定の時間以上何の操作も行われなかった場合に、MFP101を自動的に起動時の状態に戻す機能である。自動リセット時間に設定可能な設定値302は、任意の時間である。設定値302に「60sec」が設定されている場合は、ユーザがMFP101の操作を終了してから60秒間何の操作も行われなかった場合、MFP101の操作方法の設定はリセット(初期化)される。例えば操作モードが「自動」に設定されていた場合、自動リセットによりタッチ操作もしくはタッチレス操作に設定されていた操作方法がリセットされ、自動リセット後最初にユーザが行った操作に応じて有効となるユーザの操作方法が決定される。
図4は、MFP101の操作方法選択画面の一例を示す図である。操作方法選択画面は、操作モードが「自動」に設定されている場合にMFP101の起動時に液晶表示部121に表示される画面である。操作方法選択画面の例として図4(A)、図4(B)の2つの例を説明する。ユーザが操作方法選択画面に対して行った操作に応じて、以降受け付ける操作方法が決定される。
図4(A)は、操作方法選択画面に表示するアイコンが一つの場合の例である。操作方法選択画面400は、アイコン401を有する。アイコン401は、タッチ操作とタッチレス操作の両方に対応している。ユーザは、アイコン401をタッチ操作で選択することもできるし、タッチレス操作で選択することもできる。ユーザがアイコン401をタッチ操作で選択した場合、以降の画面ではタッチ操作のみが有効になる。一方、ユーザがアイコン401をタッチレス操作で選択した場合、以降の画面ではタッチレス操作のみが有効になる。
図4(B)は、操作方法選択画面に表示するアイコンが二つの場合の例である。操作方法選択画面410は、タッチ操作に対応するアイコン411とタッチレス操作に対応するアイコン412の2つのアイコンを有するアイコン411およびアイコン412は、以降の画面で使用する操作方法を選択するためのアイコンである。アイコン411は、タッチ操作を選択するためのアイコンであり、アイコン412はタッチレス操作を選択するためのアイコンである。また、各アイコンは選択するための操作方法が決まっており、アイコン411はタッチ操作でなければ選択できず、アイコン412はタッチレス操作でなければ選択できない仕様となっている。このように、各アイコンを選択するための操作方法を限定することによって、ユーザが誤って選択してしまう可能性を抑制している。ユーザがタッチ操作によりアイコン411を選択した場合、以降の画面ではタッチ操作のみが有効になる。一方、ユーザがタッチレス操作よりアイコン412を選択した場合、以降の画面ではタッチレス操作のみが有効になる。
図5および図6は、第1実施形態におけるMFP101の処理を示すフローチャートである。本フローは、MFP101が起動することにより開始される。図5および図6に示される各処理は、CPU111がMFP101のHDD114に記憶されているプログラムをRAM113に読み出し、解析、実行することにより実現される。
ステップS501で、操作制御部205は、機器設定管理テーブル保持部202が保持する機器設定管理テーブルに定義されている操作モード311と自動リセット時間312の各設定値を取得する。ステップS502で、操作制御部205は、操作モード311の設定値が「タッチ」「タッチレス」「自動」のいずれであるか判定する。操作制御部205は、操作モード311の設定値に応じて以降の処理を分岐する。操作モード311の設定値が「タッチ」の場合は、ステップS508へ処理を進める。設定値が「タッチレス」の場合は、ステップS509へ処理を進める。設定値が「自動」の場合は、ステップS503へ処理を進める。ステップS501~ステップS502に示されるように、本実施形態ではまず機器設定管理テーブルに定義されている設定情報に応じて、操作方法を決定する。操作方法が「自動」の場合、すなわち設定情報のみで操作方法が決定できない場合は、ステップS503に進み、ユーザの操作に応じた操作方法を決定するための一連の処理を行う。
設定値が「自動」の場合、ステップS503で、ハードウェア制御部204は、タッチセンサ122とハンドセンサ131を有効にする。タッチセンサ122とハンドセンサ131の両方が有効なため、ユーザによるタッチ操作とタッチレス操作の両方が検出可能である。ステップS504で、画面制御部203は、液晶表示部121に操作方法選択画面を表示する。画面制御部203は操作方法選択画面として、例えば、図4(A)の操作方法選択画面400や図4(B)の操作方法選択画面410を液晶表示部121に表示し、ユーザに操作を促す。
ステップS505で、ハードウェア制御部204は、タッチセンサ122もしくはハンドセンサ131に対するユーザの操作を待ち受け、ユーザの操作が検出できたか否か判定する。ハードウェア制御部204は、ユーザの操作を検出するとステップS506へ処理を進める。一方、ユーザの操作が検出できない場合は、本ステップを繰り返す。ステップS505で検出するユーザの操作は、MFP101の起動後最初のユーザによる操作となる。すなわち操作開始時の操作である。ステップS506で、操作制御部205は、現在のシステム時刻を「最終操作時刻」としてRAM113またはHDD114に記録する。
ステップS507で、操作制御部205は、ステップS505で検出した操作開始時のユーザの操作がタッチ操作であったかタッチレス操作であったか判定する。検出したユーザ操作がタッチセンサ122に対するタッチ操作であった場合は、ステップS508へ処理を進める。一方、検出したユーザ操作がハンドセンサ131に対するタッチレス操作であった場合は、ステップS509へ処理を進める。このように、機器設定管理テーブルに定義されている操作モードのみで操作方法を決定することができない場合(操作モードが「自動」の場合)は、ステップS503~ステップS507の処理を行うことで、ユーザ操作に応じた操作方法を決定することができる。
ステップS508は、操作モードが「タッチ」であった場合または操作モードが「自動」で操作方法選択画面におけるユーザの操作がタッチ操作であった場合に実行される処理である。ステップS508で、操作制御部205はハードウェア制御部204に指示して、タッチセンサ122を有効に、かつ、ハンドセンサ131を無効にする。タッチセンサ122をオン、ハンドセンサ131をオフにすることにより、以降のステップではユーザによるタッチ操作のみが検出され、タッチレス操作は検出されなくなる。
ステップS509は、操作モードが「タッチレス」であった場合または操作モードが「自動」で操作方法選択画面におけるユーザの操作がタッチレス操作であった場合に実行される処理である。ステップS509で、操作制御部205はハードウェア制御部204に指示して、タッチセンサ122を無効に、かつ、ハンドセンサ131を有効にする。ハンドセンサ131をオン、タッチセンサ122をオフにすることにより、以降のステップではユーザによるタッチレス操作のみが検出され、タッチ操作は検出されなくなる。
ステップS510で、画面制御部203は、液晶表示部121にホーム画面を表示する。ホーム画面は、MFP101が有する機能やアプリケーションを呼び出すためのアイコンが並んでいる画面である。
ステップS511で、操作制御部205は、最終操作からの経過時間がステップS501で取得して操作方法をリセットする所定の時間(自動リセット時間)を経過しているか否か判定する。具体的には、まず操作制御部205は、ユーザが最後にMFP101を操作してからの経過時間を、現在のシステム時刻と記録している最終操作時刻の差をもって算出する。そして操作制御部205は、算出した経過時間と自動リセット時間312の設定値とを比較し、経過時間が自動リセット時間312の設定値を経過しているか否か判定する。経過時間が自動リセット時間に達している場合は、ステップS502へ処理を進め、操作モードをリセット(初期化)する。操作モードをリセットした場合は、ステップS502~ステップS509で再び操作モードを決定する処理を行う。操作モードが「自動」の場合には、リセット後のステップS505~ステップS507では、リセット後最初に検出したユーザ操作に応じてタッチ操作とタッチレス操作のいずれの操作を有効にするか決定する。一方、経過時間が自動リセット時間を経過していない場合は、ステップS512に処理を進める。
ステップS512で、ハードウェア制御部204は、液晶表示部121に表示されている画面に対するユーザ操作を待ち受ける。ハードウェア制御部204は、ユーザ操作を検出するとステップS513へ処理を進め、ユーザ操作を検出していない場合はステップS511へ戻る。
ステップS513で、ハードウェア制御部204は、ステップS512で検出したユーザによる操作がシャットダウンを指示するものであるか否かを判定する。ハードウェア制御部204はユーザによる操作がシャットダウン指示である場合は、ステップS516へ処理を進める。一方、ハードウェア制御部204はユーザによる操作がシャットダウン指示でない場合は、ステップS514へ処理を進める。
ステップS514で、操作制御部205は、現在のシステム時刻を「最終操作時刻」としてRAM113またはHDD114に記録する。ステップS515で、ハードウェア制御部204はステップS512で検出したユーザによる操作に応じた各種処理を行う。例えば、ユーザがホーム画面でアプリケーションを選択する操作を行った場合は、ハードウェア制御部204は選択されたアプリケーションを起動する。ユーザがプリント指示を行った場合は、ハードウェア制御部204はプリンタ133を用いて印刷処理を行う。ハードウェア制御部204はユーザによる操作に応じた処理を行った後はステップS512に戻り、新たなユーザ操作を待ち受ける。ユーザによる操作に応じた処理を行った後、自動リセット時間を経過するまでユーザから新たな操作がなかった場合(ステップS512でNO、ステップS511でYES)は、設定してある操作モードを初期化し、ステップS502に戻る。ステップS516で、ハードウェア制御部204は、MFP101の電源を落とすためのシャットダウン処理を行い、本フローを終了する。
以上、本実施形態によると、タッチ操作とタッチレス操作の両方に対応した情報処理装置において、ユーザによる操作に応じてタッチ操作とタッチレス操作のどちらが一方の操作のみを受け付けるよう制御することができる。これにより、各ユーザは共用されている情報処理装置を好みの操作方法で操作できるとともに、選択しなかった操作方法による誤操作を抑制することができ、ユーザの利便性が向上する。
(第2実施形態)
第1実施形態では、タッチ操作とタッチレス操作の一方を無効にする方法として、ハードウェアであるタッチセンサ122もしくはハンドセンサ131を無効にする処理を行う。しかしながら、センサ(タッチセンサ122、ハンドセンサ131)の種類によってはセンサを無効化できないケースが考えられる。そこで第2実施形態では、タッチ操作とタッチレス操作の一方を無効にする方法として、ソフトウェアでタッチセンサ122もしくはハンドセンサ131の入力を無視する実施形態を説明する。なお、第2実施形態では、第1実施形態との差分のみを説明する。
図7および図8は、第2実施形態におけるにおけるMFP101の処理を示すフローチャートである。本フローは、MFP101が起動することにより開始される。図7および図8に示される各処理は、CPU111がMFP101のHDD114に記憶されているプログラムをRAM113に読み出し、解析、実行することにより実現される。図7および図8は、第1実施形態の図5および図6を変形したフローチャートであり、以下では図5および図6との差分について説明する。
ステップS701で、ハードウェア制御部204は、タッチセンサ122とハンドセンサ131の両方を有効にする。
ステップS502で、操作制御部205は、操作モード311の設定値が「タッチ」「タッチレス」「自動」のいずれであるか判定する。操作制御部205は、操作モード311の設定値に応じて以降の処理を分岐する。操作モード311の設定値が「タッチ」の場合は、ステップS712へ処理を進める。設定値が「タッチレス」の場合は、ステップS713へ処理を進める。設定値が「自動」の場合は、ステップS711へ処理を進める。
ステップS711で、操作制御部205は、センサモードを「Both」としてRAM113またはHDD114に記録する。ここでセンサモードとは、タッチセンサ122とハンドセンサ131の各センサから受け取った情報をどのように扱うかを決定するものである。センサモードには、「Both」の他、「TouchOnly」、「TouchlessOnly」がある。「Both」はタッチ操作とタッチレス操作の両方を有効とするモードである。「TouchOnly」は、タッチ操作を有効とし、タッチレス操作を無効とするモードである。「TouchlessOnly」は、タッチレス操作を有効とし、タッチ操作を無効とするモードである。センサモードに応じた処理の詳細は、図9のフローチャートを用いて後述する。操作制御部205は、センサモードを「Both」に設定した後、ステップS504に処理を進める。ステップS504で、画面制御部203は、液晶表示部121に操作方法選択画面を表示し、ステップS721に処理を進める。
ステップS721で、ハードウェア制御部204は、タッチセンサ122もしくはハンドセンサ131に対するユーザの操作を待ち受け、いずれかのセンサに対するユーザの操作が検出できたか否か判定する。ハードウェア制御部204は、ユーザの操作を検出するとステップS506へ処理を進める。一方、ユーザの操作が検出できない場合は、本ステップを繰り返す。
ステップS507で、操作制御部205は、ステップS721で検出したユーザの操作がタッチ操作であったかタッチレス操作であったか判定する。検出したユーザ操作がタッチセンサ122に対するタッチ操作であった場合は、ステップS712へ処理を進める。一方、検出したユーザ操作がハンドセンサ131に対するタッチレス操作であった場合は、ステップS713へ処理を進める。
ステップS712で、操作制御部205は、センサモードを「TouchOnly」としてRAM113またはHDD114に記録する。センサモードを「TouchOnly」にすることにより、ハンドセンサ131が検出したタッチレス操作は無効となり、タッチセンサ122が検出したタッチ操作のみが有効となる。
ステップS712で、操作制御部205は、センサモードを「TouchlessOnly」としてRAM113またはHDD114に記録する。センサモードを「TouchlessOnly」にすることにより、タッチセンサ122が検出したタッチ操作は無効となり、ハンドセンサ131が検出したタッチレス操作のみが有効となる。
ステップS731で、ハードウェア制御部204は、ユーザの操作を待ち受け、操作制御部205は、センサモードに応じたユーザの操作が検出されたか否か判定する。第1実施形態では操作モード311の設定値および操作選択画面表示時のユーザ操作に応じてタッチセンサ122またはハンドセンサ131のいずれかを無効にしていたため、無効でないセンサに対する操作のみを検出することが可能であった。第2実施形態では、タッチセンサ122およびハンドセンサ131を有効にしたまま、センサモードに応じたユーザ操作の検出処理を行う。ステップS731でユーザの操作を検出した場合に、該操作がセンサモードに応じた操作であるか否かを判定する処理の詳細は、図9のフローチャートを用いて説明する。
図9は、第2実施形態におけるユーザ操作の検出処理を示すフローチャートである。タッチセンサ122またはハンドセンサ131がユーザによる操作を検出することにより本処理は開始される。ステップS901で、ハードウェア制御部204は、タッチ操作を検出したタッチセンサ122またはタッチレス操作を検出したハンドセンサ131から、センサ入力を受け取る。
ステップS902で、操作制御部205は、ステップS901でハードウェア制御部204が受け付けたセンサ入力が、タッチセンサ122とハンドセンサ131のいずれからの入力であったか判定する。操作制御部205は、入力元がタッチセンサ122の場合はステップS903へ処理を進める。一方、操作制御部205は、入力元がハンドセンサ131の場合は、ステップS911へ処理を進める。
タッチセンサ122からの入力を受けた場合、すなわちユーザがタッチ操作を行った場合、ステップS903で、操作制御部205は、現在設定されているセンサモードを判定する。操作制御部205は、センサモードが「TouchOnly」の場合はステップS904へ処理を進める。一方、操作制御部205は、センサモードが「TouchlessOnly」の場合は、ステップS905へ処理を進める。ステップS904で、操作制御部205は、センサモードに応じた操作が検出されたと判定する。センサモードに応じた操作が検出された場合は、処理をステップS513に進める。一方、ステップS905で、操作制御部205は、センサモードに応じた操作が未検出であると判定する。センサモードに応じた操作が未検出である場合はステップS511に戻る。つまり、センサモードが「TouchlessOnly」である場合には、タッチセンサ122からの入力があっても無視する。
ハンドセンサ131からの入力を受けた場合、すなわちユーザがタッチレス操作を行った場合、ステップS911で、ハードウェア制御部204は、現在設定されているセンサモードを判定する。ハードウェア制御部204は、センサモードが「TouchlessOnly」の場合はステップS912へ処理を進める。一方、ハードウェア制御部204は、センサモードが「TouchOnly」の場合はステップS905へ処理を進める。ステップS912で、操作制御部205は、センサモードに応じた操作が検出されたと判定する。センサモードに応じた操作が検出された場合は、処理をステップS513に進める。一方、ステップS905で、操作制御部205は、センサモードに応じた操作が未検出であると判定する。センサモードに応じた操作が未検出である場合はステップS511に戻る。つまり、センサモードが「TouchOnly」である場合には、ハンドセンサ131からの入力があっても無視する。
ステップS731において、センサモードに応じたユーザの操作が検出されたと判定した場合は、ステップS513に処理を進める。一方、ユーザによる操作が検出されない場合、または、ユーザによる操作がセンサモードに応じた操作でないと判定した場合は、ステップS511に戻る。
以上、本実施形態において説明した手順により、ハードウェア的に無効にできないセンサを有する情報処理装置であっても、ユーザによる操作に応じてタッチ操作とタッチレス操作のどちらが一方の操作のみを受け付けるよう制御することができる。これにより、各ユーザは共用されている情報処理装置を好みの操作方法で操作できるとともに、選択しなかった操作方法による誤操作を抑制することができ、ユーザの利便性が向上する。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、本発明の好ましい実施形態について説明したが、本発明は、これらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。

Claims (11)

  1. タッチ操作とタッチレス操作が可能な情報処理装置であって、
    操作方法に関する設定情報に応じて、タッチ操作およびタッチレス操作のいずれか一方の操作を有効とすることで操作方法を制御する操作制御手段を備え、
    前記操作制御手段は、前記設定情報のみで操作方法が決定できない場合、検出したユーザの操作の操作方法に応じて操作方法を制御する
    ことを特徴とする情報処理装置。
  2. 前記操作制御手段は、前記設定情報のみで操作方法が決定できない場合、タッチ操作とタッチレス操作の両方を検出可能にし、前記情報処理装置の起動後最初に検出したユーザの操作の操作方法に応じて操作方法を制御することを特徴とする請求項1に記載の情報処理装置。
  3. 前記設定情報のみで操作方法が決定できない場合、ユーザに操作方法の選択を促す選択画面を表示する表示手段をさらに備え、
    前記操作制御手段は、前記選択画面が表示されている際にタッチ操作を検出した場合はタッチ操作のみを有効にし、タッチレス操作を検出した場合はタッチ操作のみを有効にすることを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記操作制御手段は、タッチレス操作を有効にする場合にはタッチ操作を検出するセンサを無効にし、タッチ操作を有効にする場合にはタッチレス操作を検出するセンサを無効にすることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  5. 前記操作制御手段は、タッチレス操作を有効にする場合にはセンサが検出したタッチ操作を無視し、タッチ操作を有効にする場合にはセンサが検出したタッチレス操作を無視することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  6. 前記設定情報には、タッチ操作のみを有効とする設定値、タッチレス操作のみを有効とする設定値、ユーザから受け付けた操作方法を有効とする設定値のいずれかが設定されることを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
  7. ユーザからの操作が所定の時間なかった場合、前記操作制御手段は決定した操作方法をリセットすることを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
  8. 操作方法をリセットした場合、前記操作制御手段は操作方法に関する設定情報に応じて操作方法を制御し、前記設定情報のみで操作方法が決定できない場合にはリセット後、最初に検出したユーザの操作の操作方法に応じて操作方法を制御することを特徴とする請求項7に記載の情報処理装置。
  9. 前記設定情報と、ユーザからの操作がない場合に前記操作制御手段が決定した操作方法をリセットするまでの所定の時間を管理する管理手段をさらに備えることを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。
  10. タッチ操作とタッチレス操作が可能な情報処理装置の制御方法であって、
    操作方法に関する設定情報に応じて、タッチ操作およびタッチレス操作のいずれか一方の操作を有効とすることで操作方法を制御する操作制御工程を有し、
    前記操作制御工程では、前記設定情報のみで操作方法が決定できない場合、検出したユーザの操作の操作方法に応じて操作方法を制御する
    ことを特徴とする情報処理装置の制御方法。
  11. 請求項1乃至9のいずれか1項に記載の情報処理装置の各手段としてコンピュータを機能させるためのプログラム。
JP2021078147A 2021-04-30 2021-04-30 情報処理装置、情報処理装置の制御方法およびプログラム Pending JP2022171477A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021078147A JP2022171477A (ja) 2021-04-30 2021-04-30 情報処理装置、情報処理装置の制御方法およびプログラム
US17/715,994 US11983385B2 (en) 2021-04-30 2022-04-08 Information processing apparatus, control method for information processing apparatus, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021078147A JP2022171477A (ja) 2021-04-30 2021-04-30 情報処理装置、情報処理装置の制御方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2022171477A true JP2022171477A (ja) 2022-11-11
JP2022171477A5 JP2022171477A5 (ja) 2024-05-02

Family

ID=83808525

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021078147A Pending JP2022171477A (ja) 2021-04-30 2021-04-30 情報処理装置、情報処理装置の制御方法およびプログラム

Country Status (2)

Country Link
US (1) US11983385B2 (ja)
JP (1) JP2022171477A (ja)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4267648B2 (ja) 2006-08-25 2009-05-27 株式会社東芝 インターフェース装置及びその方法
WO2012104951A1 (ja) * 2011-01-31 2012-08-09 パナソニック株式会社 情報処理装置、処理制御方法、プログラム及び記録媒体
KR101872027B1 (ko) * 2011-07-12 2018-06-27 삼성전자주식회사 전자기 공진 입력이 가능한 소프트 키를 구비하는 터치 스크린
WO2013014709A1 (ja) * 2011-07-27 2013-01-31 三菱電機株式会社 ユーザインタフェース装置、車載用情報装置、情報処理方法および情報処理プログラム
US8849348B2 (en) * 2011-11-22 2014-09-30 Verizon Patent And Licensing Inc. Mobile device session switching
US20150046828A1 (en) * 2013-08-08 2015-02-12 Samsung Electronics Co., Ltd. Contextualizing sensor, service and device data with mobile devices
JP2015039805A (ja) 2013-08-21 2015-03-02 キヤノン株式会社 画像形成装置、制御方法およびプログラム
JP7315430B2 (ja) * 2019-10-15 2023-07-26 シャープ株式会社 画像形成装置、制御プログラムおよび制御方法

Also Published As

Publication number Publication date
US11983385B2 (en) 2024-05-14
US20220350451A1 (en) 2022-11-03

Similar Documents

Publication Publication Date Title
JP7434470B2 (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
US9058546B2 (en) Image forming apparatus for providing user interface and method thereof
JP5523090B2 (ja) 入力装置、入力装置の制御方法、プログラムおよび記憶媒体
JP2016117158A (ja) 画像形成装置、画像形成システムおよびプログラム
JP2006268313A (ja) 表示制御装置およびその表示内容の配置方法
JP6353218B2 (ja) 画像処理装置、その制御方法、及びプログラム
JP2014215788A (ja) 情報処理システム、情報処理方法及びプログラム
US10013043B2 (en) Function execution apparatus, and method and computer-readable medium for customization of standby screen based on frequency in use
JP2016100840A (ja) 画像処理装置、画像処理装置の制御プログラム、画像処理システム
JP6758603B2 (ja) 情報処理装置、画像形成装置及びプログラム
JP6181994B2 (ja) 入力装置、画像読取装置、画像形成装置、入力方法、及びプログラム
JP2022171477A (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP2014115787A (ja) 入力装置、入力方法、コンピュータプログラム
US9374482B2 (en) Image processing apparatus, method for displaying preview image, and recording medium
JP6938917B2 (ja) 表示制御装置、画像処理装置及びプログラム
JP6565256B2 (ja) 表示装置、画像処理装置及びプログラム
JP2017073596A (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
JP2015102946A (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2006163988A (ja) 情報処理装置
JP2018032249A (ja) 処理装置及びプログラム
JP7413702B2 (ja) 情報処理システム
JP2017196868A (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
JP2011034516A (ja) 情報入力装置、情報入力方法、及び情報入力プログラム
JP6458672B2 (ja) 情報処理装置及びプログラム
JP2023159207A (ja) 画像処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240423

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240423