JP5929572B2 - 操作表示装置およびプログラム - Google Patents

操作表示装置およびプログラム Download PDF

Info

Publication number
JP5929572B2
JP5929572B2 JP2012153711A JP2012153711A JP5929572B2 JP 5929572 B2 JP5929572 B2 JP 5929572B2 JP 2012153711 A JP2012153711 A JP 2012153711A JP 2012153711 A JP2012153711 A JP 2012153711A JP 5929572 B2 JP5929572 B2 JP 5929572B2
Authority
JP
Japan
Prior art keywords
operations
input
finger
display
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012153711A
Other languages
English (en)
Other versions
JP2014016795A (ja
Inventor
泰明 杉本
泰明 杉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2012153711A priority Critical patent/JP5929572B2/ja
Priority to US13/934,567 priority patent/US9791947B2/en
Priority to EP13175819.5A priority patent/EP2685368B1/en
Publication of JP2014016795A publication Critical patent/JP2014016795A/ja
Application granted granted Critical
Publication of JP5929572B2 publication Critical patent/JP5929572B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/70Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
    • G06F21/82Protecting input, output or interconnection devices
    • G06F21/84Protecting input, output or interconnection devices output devices, e.g. displays or monitors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/174Form filling; Merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2117User registration
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Image Processing (AREA)

Description

本発明は、複数箇所へのタッチ操作を同時に検出可能なタッチパネルを備えた操作表示装置およびプログラムに関する。
複数箇所へのタッチ操作を同時に検出可能なタッチパネルをディスプレイ上に備えた端末装置などの操作表示装置では、複数本の指による複数箇所へのタッチ操作を一組の操作(マルチタッチ操作)として認識することで、ピンチインやピンチアウトなどの多様な操作を受け付ける。
ところで、比較的大きなディスプレイを備えた端末装置や会議システムにおける大型の操作表示装置などでは、1台の操作表示装置を複数人で利用することがある。この場合、同時に検出された複数箇所へのタッチ操作が、一人の操作者によるマルチタッチ操作であるか、複数人の操作者による個別の操作(シングルタッチ操作)であるかを識別しなければ、複数人による同時利用とマルチタッチ操作の受け付けとを両立させることができない。
上記の問題に対応する技術として、たとえば、大型の操作表示装置の近傍に居る複数のユーザを検出し、検出されたそれぞれのユーザに対して領域を割り当て、各領域で独立した操作を受け付けるようにした操作表示装置が提案されている(特許文献1)。
また、タッチパネル上に同時に存在している複数のタッチ入力位置の位置関係(一定以上離れているか否か)により、その同時に存在している複数のタッチ入力位置に係る操作が一人の操作者によるマルチタッチ操作か否かを判定するようにしたマルチタッチパネルが提案されている(特許文献2)。
なお、操作者を特定する技術として、たとえば、タッチパネルに指で触れている操作者の人体を通じてその操作者が携帯している端末装置と通信して、該端末装置からユーザの認証情報を取得する技術がある(特許文献3、4)。
特開2011−154546号公報 特開2009−282634号公報 特開2010−226248号公報 特開2002−222169号公報
特許文献1、2に開示された技術では、各ユーザが相互にある程度以上離れた位置に居なければ、同時に検出された複数箇所へのタッチ操作が、一人の操作者によるマルチタッチ操作であるか、複数人の操作者による個別のシングルタッチ操作であるかを的確に判定することはできない。
本発明は、上記の問題を解決しようとするものであり、同時に検出された複数箇所へのタッチ操作が一人の操作者によるマルチタッチ操作であるか複数人の操作者による個別のシングルタッチ操作であるかを的確に判定可能な操作表示装置を提供することを目的としている。
かかる目的を達成するための本発明の要旨とするところは、次の各項の発明に存する。
[1]表示部と、
前記表示部の表示面への指のタッチによる入力操作を同時に複数検出可能なタッチパネルと、
前記入力操作において前記表示面に接触している部分の指の形状を検出する指形状検出部と、
前記表示面に指が接触している操作者の体を通じて端末装置と通信して前記操作者を一意に特定する操作者識別情報を前記端末装置から取得する人体通信部と、
前記表示部の表示内容を制御する制御部と、
を備え、
前記制御部は、
前記タッチパネルによって前記表示面上への複数の指のタッチによる入力操作が同時に検出された場合に、
前記指形状検出部によって検出された各入力操作に係る指の形状から前記複数の指のタッチによる入力操作が同一人による操作であるか否かを判定し、その同一人による操作であるか否かの判定結果に応じて前記表示部の表示内容を変更し、
前記複数の入力操作のそれぞれについて前記人体通信部が前記操作者識別情報を取得した場合は、前記操作者識別情報に基づいて、前記複数の指による入力操作が同一人によるものである否かを判定する
ことを特徴とする操作表示装置。
上記発明では、複数の指のタッチによる入力操作が同時に検出された場合に、各入力操作に係る指の形状からこの複数の入力操作が同一人による操作か、複数の操作者による操作かを判定し、その判定結果に応じて表示内容を変更する。
[2]前記制御部は、
記人体通信部が、前記複数の入力操作の一部についてのみ前記操作者識別情報を取得する場合は、前記複数の入力操作が同一人による操作でないと判定する
ことを特徴とする[1]に記載の操作表示装置。
[3]前記制御部は、
記人体通信部が、前記複数の入力操作の全てについて前記操作者識別情報を取得できない場合は、前記指の形状に基づいて、前記複数の入力操作が同一人による操作であるか否かを判定する
ことを特徴とする[1]または[2]に記載の操作表示装置。
[4]表示部と、
前記表示部の表示面への指のタッチによる入力操作を同時に複数検出可能なタッチパネルと、
前記入力操作において前記表示面に接触している部分の指の形状を検出する指形状検出部と、
前記表示面に指が接触している操作者の体を通じて端末装置と通信して前記操作者を一意に特定する操作者識別情報を前記端末装置から取得する人体通信部と、
前記表示部の表示内容を制御する制御部と、
を備え、
前記制御部は、
前記タッチパネルによって前記表示面上への複数の指のタッチによる入力操作が同時に検出された場合に、
前記指形状検出部によって検出された各入力操作に係る指の形状から前記複数の指のタッチによる入力操作が同一人による操作であるか否かを判定し、その同一人による操作であるか否かの判定結果に応じて前記表示部の表示内容を変更し、
前記人体通信部が、前記複数の入力操作の一部についてのみ前記操作者識別情報を取得する場合は、前記複数の入力操作が同一人による操作でないと判定する
ことを特徴とする操作表示装置。
[5]前記制御部は、
記人体通信部が、前記複数の入力操作の全てについて前記操作者識別情報を取得できない場合は、前記指の形状に基づいて、前記複数の入力操作が同一人による操作であるか否かを判定する
ことを特徴とする[4]に記載の操作表示装置。
[6]表示部と、
前記表示部の表示面への指のタッチによる入力操作を同時に複数検出可能なタッチパネルと、
前記入力操作において前記表示面に接触している部分の指の形状を検出する指形状検出部と、
前記表示面に指が接触している操作者の体を通じて端末装置と通信して前記操作者を一意に特定する操作者識別情報を前記端末装置から取得する人体通信部と、
前記表示部の表示内容を制御する制御部と、
を備え、
前記制御部は、
前記タッチパネルによって前記表示面上への複数の指のタッチによる入力操作が同時に検出された場合に、
前記指形状検出部によって検出された各入力操作に係る指の形状から前記複数の指のタッチによる入力操作が同一人による操作であるか否かを判定し、その同一人による操作であるか否かの判定結果に応じて前記表示部の表示内容を変更し、
前記人体通信部が、前記複数の入力操作の全てについて前記操作者識別情報を取得できない場合は、前記指の形状に基づいて、前記複数の入力操作が同一人による操作であるか否かを判定する
ことを特徴とする操作表示装置。
[7]前記制御部は、前記タッチパネルによって、前記表示面上に対する、所定の箇所への指によるタッチ後タッチされた箇所を第1方向に移動させる第1入力操作と、所定の箇所への指によるタッチ後タッチされた箇所を前記第1方向とは逆の第2方向に移動させる第2入力操作とが同時に検出された場合に、前記第1入力操作と前記第2入力操作とが同一人による操作であるか否かを判定する
ことを特徴とする[1]乃至[6]のいずれか1つに記載の操作表示装置。
[8]表示部と、
前記表示部の表示面への指のタッチによる入力操作を同時に複数検出可能なタッチパネルと、
前記入力操作において前記表示面に接触している部分の指の形状を検出する指形状検出部と、
前記表示部の表示内容を制御する制御部と、
を備え、
前記制御部は、前記タッチパネルによって前記表示面上への複数の指のタッチによる入力操作が同時に検出された場合に、前記指形状検出部によって検出された各入力操作に係る指の形状から前記複数の指のタッチによる入力操作が同一人による操作であるか否かを判定し、その同一人による操作であるか否かの判定結果に応じて前記表示部の表示内容を変更し、
前記タッチパネルによって、前記表示面上に対する、所定の箇所への指によるタッチ後タッチされた箇所を第1方向に移動させる第1入力操作と、所定の箇所への指によるタッチ後タッチされた箇所を前記第1方向とは逆の第2方向に移動させる第2入力操作とが同時に検出された場合に、前記第1入力操作と前記第2入力操作とが同一人による操作であるか否かを判定する
ことを特徴とする操作表示装置。
[9]表示部と、
前記表示部の表示面への指のタッチ操作を同時に複数検出可能なタッチパネルと、
前記表示面に指が接触している操作者の体を通じて端末装置と通信して前記操作者を一意に特定する操作者識別情報を前記端末装置から取得する人体通信部と、
前記表示部の表示内容を制御する制御部と、
を備え、
前記制御部は、前記タッチパネルによって、前記表示面上に対する、所定の箇所への指によるタッチ後タッチされた箇所を移動させる入力操作が同時に複数検出された場合に、各入力操作を行っている指を通じて前記人体通信部が取得した複数の操作者識別情報から、前記複数の入力操作が同一人による操作であるか否かを判定し、その同一人による操作であるか否かの判定結果に応じて前記表示部の表示内容を変更し、
前記タッチパネルによって、前記表示面上に対する、所定の箇所への指によるタッチ後タッチされた箇所を第1方向に移動させる第1入力操作と、所定の箇所への指によるタッチ後タッチされた箇所を前記第1方向とは逆の第2方向に移動させる第2入力操作とが同時に検出された場合に、前記第1入力操作と前記第2入力操作とが同一人による操作であるか否かを判定する
ことを特徴とする操作表示装置。
上記発明では、複数のタッチ操作が同時に検出された場合に、各タッチ操作を行っている指を通じた人体通信によって取得した複数の操作者識別情報から、複数のタッチ操作が一人の操作者による操作か、複数の操作者による操作かを判定する。
[10]前記制御部は、前記タッチパネルによって検出された複数の入力操作が同一人による操作であると判定する場合、前記第1入力操作及び前記第2入力操作を、一組のピンチイン操作、ピンチアウト操作又はローテーション操作であると判断する
ことを特徴とする[7]乃至[9]のいずれか1つに記載の操作表示装置。
11]前記制御部は、前記複数の指のタッチによる入力操作が同一人による操作であると判定した場合は、前記複数の指のタッチによる入力操作を一組の操作と認識し、その一組の操作の内容に応じて前記表示内容を変更し、前記複数の指のタッチによる入力操作が複数の操作者による操作であると判定した場合は、前記複数の操作者の人数に対応する複数の領域に前記表示面を分割し、それぞれの領域に個別の画面を表示して、それぞれの画面で独立した操作を受け付ける
ことを特徴とする[1]乃至[10]のいずれか1つに記載の操作表示装置。
上記発明では、複数の指のタッチによる入力操作が人による入力操作であると判定した場合は、その複数の入力操作を一人の操作者から受けたマルチタッチ操作として扱う。複数の指のタッチによる入力操作が複数の操作者による操作であると判定した場合は、表示面を複数に分割し、それぞれの領域に個別の画面を表示して、各画面で独立した操作を受け付ける。
[12]前記制御部は、前記複数の指のタッチによる入力操作が複数の操作者による操作であると判定した場合は、前記指形状検出部によって検出された各指の形状からそれぞれの指に対応する操作者の向きを判定し、前記複数の操作者のそれぞれに前記領域を割り当てると共に、各操作者に割り当てた領域に表示する画面を、その操作者の向きに応じた向きにする
ことを特徴とする[7]または[8]を引用する[10]を引用する[11]、または、[1]乃至[8]のいずれか1つを引用する[11]に記載の操作表示装置。
上記発明では、分割後の各領域に表示する画面は、その領域に割り当てた操作者の向きに合わせた向きになる。なお、タッチ操作に対してそのタッチ操作が含まれる領域を優先的に割り当てるとよい。
13]前記制御部は、前記表示面を複数に分割する際の分割方向を、前記複数の指のタッチによる入力操作に係る指の接触位置の前記表示面内での分散状況に応じて変更する
ことを特徴とする[11]または[12]に記載の操作表示装置。
上記発明では、たとえば、複数のタッチ操作が左右に分散している場合は左右に表示面を分割し、上下に分散している場合は上下に表示面を分割する。
14]前記制御部は、予め用意された複数の分割パターンの中から、前記表示面を前記複数の操作者の人数に対応する複数の領域に分割する分割パターンであってそれぞれの領域に一人分ずつ指のタッチによる入力操作が分散される分割パターンを優先的に選択し、その選択した分割パターンに従って前記表示面を分割する
ことを特徴とする[11]乃至[13]のいずれか1つに記載の操作表示装置。
上記発明では、分割後の各領域に1つずつタッチ操作が含まれるような分割パターンが選択される。
[15]前記制御部は、前記タッチパネルによって検出された複数の入力操作が同一人による操作であると判定する場合、前記表示部の表示内容を拡大又は縮小する
ことを特徴とする[1]乃至[10]のいずれか1つに記載の操作表示装置。
[16]前記制御部は、前記タッチパネルによって検出された複数の入力操作が同一人による操作でないと判定する場合、前記第1入力操作及び前記第2入力操作をそれぞれ第1操作者及び第2操作者によるフリック操作と判断する
ことを特徴とする[]乃至[10]のいずれか1つに記載の操作表示装置。
17]前記制御部は、前記複数の入力操作が同一人による操作であると判定した場合は、前記複数の入力操作を一組の操作と認識し、その一組の入力操作の内容に応じて前記表示内容を変更し、前記複数の入力操作が複数の操作者による操作であると判定した場合は、前記複数の操作者の人数に対応する複数の領域に前記表示面を分割し、それぞれの領域に個別の画面を表示して、それぞれの画面で独立した操作を受け付ける
ことを特徴とする[9]に記載の操作表示装置。
上記発明では、複数の指のタッチによる入力操作が人による操作であると判定した場合は、その複数の入力操作を一人の操作者から受けたマルチタッチ操作として扱う。複数の入力操作が複数の操作者による操作であると判定した場合は、表示面を複数に分割し、それぞれの領域に個別の画面を表示して、各画面で独立した操作を受け付ける。
18]前記制御部は、前記領域に表示する画面内に操作者情報の入力欄がある場合は、前記人体通信部によって取得した操作者識別情報に基づいて前記入力欄に操作者情報を自動設定する
ことを特徴とする[17]に記載の操作表示装置。
上記発明では、人体通信部によって取得した操作者識別情報に基づく操作者情報が該当する入力欄に自動設定される。
19]前記制御部は、分割直前に前記表示部に表示されていた画面と同じ内容の画面を分割後の各領域に表示する
ことを特徴とする[11]乃至[14]、[17]、[18]のいずれか1つに記載の操作表示装置。
上記発明では、分割前に表示していた画面と同じ内容の画面(レイアウトやサイズは異なっても良い)が分割後の各領域に表示される。
20]前記制御部は、セキュリティ情報の入力に使用される入力釦のある画面を分割後の各領域に表示する場合は、各領域に表示する画面のレイアウトを互いに相違させる
ことを特徴とする[19]に記載の操作表示装置。
上記発明では、レイアウトを相違させることで、隣の操作者から覗き見されても、操作内容が推測され難くなる。
[21]前記制御部は、セキュリティ情報の入力に使用される複数の入力釦のある画面を分割後の各領域に表示する場合は、各領域に表示する画面における前記複数の入力釦の配置を互いに相違させる
ことを特徴とする[19]または[20]に記載の操作表示装置。
上記発明では、入力釦のキー配置を相違させることで、隣の操作者から覗き見されても、操作内容が推測され難くなる。
[22]表示部と、前記表示部の表示面への指のタッチによる入力操作を同時に複数検出可能なタッチパネルと、前記入力操作において前記表示面に接触している部分の指の形状を検出する指形状検出部と、前記表示面に指が接触している操作者の体を通じて端末装置と通信して前記操作者を一意に特定する操作者識別情報を前記端末装置から取得する人体通信部とを備えた情報処理装置を、
前記タッチパネルによって前記表示面上への複数の指のタッチによる入力操作が同時検出された場合に、
前記指形状検出部によって検出された各入力操作に係る指の形状から前記複数の指のタッチによる入力操作が同一人による操作であるか否かを判定し、その同一人による操作であるか否かの判定結果に応じて前記表示部の表示内容を変更するように動作させ、
前記複数の入力操作のそれぞれについて前記人体通信部が前記操作者識別情報を取得した場合は、前記操作者識別情報に基づいて、前記複数の指による入力操作が同一人によるものである否かを判定するように動作させる
ことを特徴とするプログラム。
[23]前記情報処理装置を、
前記人体通信部が、前記複数の入力操作の一部についてのみ前記操作者識別情報を取得する場合は、前記複数の入力操作が同一人による操作でないと判定するように動作させる
ことを特徴とする[22]に記載のプログラム。
[24]前記情報処理装置を、
前記人体通信部が、前記複数の入力操作の全てについて前記操作者識別情報を取得できない場合は、前記指の形状に基づいて、前記複数の入力操作が同一人による操作であるか否かを判定するように動作させる
ことを特徴とする[22]または[23]に記載のプログラム。
[25]表示部と、前記表示部の表示面への指のタッチによる入力操作を同時に複数検出可能なタッチパネルと、前記入力操作において前記表示面に接触している部分の指の形状を検出する指形状検出部と、前記表示面に指が接触している操作者の体を通じて端末装置と通信して前記操作者を一意に特定する操作者識別情報を前記端末装置から取得する人体通信部とを備えた情報処理装置を、
前記タッチパネルによって前記表示面上への複数の指のタッチによる入力操作が同時検出された場合に、前記指形状検出部によって検出された各入力操作に係る指の形状から前記複数の指のタッチによる入力操作が同一人による操作であるか否かを判定し、その同一人による操作であるか否かの判定結果に応じて前記表示部の表示内容を変更するように動作させ、
前記人体通信部が、前記複数の入力操作の一部についてのみ前記操作者識別情報を取得する場合は、前記複数の入力操作が同一人による操作でないと判定するように動作させる
ことを特徴とするプログラム。
[26]前記情報処理装置を、
前記人体通信部が、前記複数の入力操作の全てについて前記操作者識別情報を取得できない場合は、前記指の形状に基づいて、前記複数の入力操作が同一人による操作であるか否かを判定するように動作させる
ことを特徴とする[25]に記載のプログラム。
[27]表示部と、前記表示部の表示面への指のタッチによる入力操作を同時に複数検出可能なタッチパネルと、前記入力操作において前記表示面に接触している部分の指の形状を検出する指形状検出部と、前記表示面に指が接触している操作者の体を通じて端末装置と通信して前記操作者を一意に特定する操作者識別情報を前記端末装置から取得する人体通信部とを備えた情報処理装置を、
前記タッチパネルによって前記表示面上への複数の指のタッチによる入力操作が同時検出された場合に、前記指形状検出部によって検出された各入力操作に係る指の形状から前記複数の指のタッチによる入力操作が同一人による操作であるか否かを判定し、その同一人による操作であるか否かの判定結果に応じて前記表示部の表示内容を変更するように動作させ、
前記人体通信部が、前記複数の入力操作の全てについて前記操作者識別情報を取得できない場合は、前記指の形状に基づいて、前記複数の入力操作が同一人による操作であるか否かを判定するように動作させる
ことを特徴とするプログラム。
[28]前記情報処理装置を、前記タッチパネルによって、前記表示面上に対する、所定の箇所への指によるタッチ後タッチされた箇所を第1方向に移動させる第1入力操作と、所定の箇所への指によるタッチ後タッチされた箇所を前記第1方向とは逆の第2方向に移動させる第2入力操作とが同時に検出された場合に、前記第1入力操作と前記第2入力操作とが同一人による操作であるか否かを判定するように動作させる
ことを特徴とする請求項22乃至27のいずれか1つに記載のプログラム。
[29]表示部と、前記表示部の表示面への指のタッチによる入力操作を同時に複数検出可能なタッチパネルと、前記入力操作において前記表示面に接触している部分の指の形状を検出する指形状検出部とを備えた情報処理装置を、
前記タッチパネルによって前記表示面上への複数の指のタッチによる入力操作が同時検出された場合に、前記指形状検出部によって検出された各入力操作に係る指の形状から前記複数の指のタッチによる入力操作が同一人による操作であるか否かを判定し、その同一人による操作であるか否かの判定結果に応じて前記表示部の表示内容を変更するように動作させ、
前記タッチパネルによって、前記表示面上に対する、所定の箇所への指によるタッチ後タッチされた箇所を第1方向に移動させる第1入力操作と、所定の箇所への指によるタッチ後タッチされた箇所を前記第1方向とは逆の第2方向に移動させる第2入力操作とが同時に検出された場合に、前記第1入力操作と前記第2入力操作とが同一人による操作であるか否かを判定するように動作させる
ことを特徴とするプログラム。
[30]表示部と、前記表示部の表示面への指のタッチ操作を同時に複数検出可能なタッチパネルと、前記表示面に指が接触している操作者の体を通じて端末装置と通信して前記操作者を一意に特定する操作者識別情報を前記端末装置から取得する人体通信部とを備えた情報処理装置を、
前記タッチパネルによって、前記表示面上に対する、所定の箇所への指によるタッチ後タッチされた箇所を移動させる入力操作が同時に複数検出された場合に、各入力操作を行っている指を通じて前記人体通信部が取得した複数の操作者識別情報から、前記複数の入力操作が同一人による操作であるか否かを判定し、その同一人による操作であるか否かの判定結果に応じて前記表示部の表示内容を変更するように動作させ、
前記タッチパネルによって、前記表示面上に対する、所定の箇所への指によるタッチ後タッチされた箇所を第1方向に移動させる第1入力操作と、所定の箇所への指によるタッチ後タッチされた箇所を前記第1方向とは逆の第2方向に移動させる第2入力操作とが同時に検出された場合に、前記第1入力操作と前記第2入力操作とが同一人による操作であるか否かを判定するように動作させる
ことを特徴とするプログラム。
[31]前記情報処理装置を、前記タッチパネルによって検出された複数の入力操作が同一人による操作であると判定する場合、前記第1入力操作及び前記第2入力操作を、一組のピンチイン操作、ピンチアウト操作又はローテーション操作であると判断するように動作させる
ことを特徴とする[28]乃至[30]のいずれか1つに記載のプログラム。
[32]前記情報処理装置を、前記タッチパネルによって検出された複数の入力操作が同一人による操作であると判定する場合、前記表示部の表示内容を拡大又は縮小するように動作させる
ことを特徴とする[22]乃至[31]のいずれか1つに記載のプログラム。
[33]前記情報処理装置を、前記タッチパネルによって検出された複数の入力操作が同一人による操作でないと判定する場合、前記第1入力操作及び前記第2入力操作をそれぞれ第1操作者及び第2操作者によるフリック操作と判断するように動作させる
ことを特徴とする[28]乃至[31]のいずれか1つに記載のプログラム。
34]前記情報処理装置を、
前記複数の入力操作が同一人による操作であると判定した場合は、前記複数の入力操作を一組の操作と認識し、その一組の入力操作の内容に応じて前記表示内容を変更し、前記複数の入力操作が複数の操作者による操作であると判定した場合は、前記複数の操作者の人数に対応する複数の領域に前記表示面を分割し、それぞれの領域に個別の画面を表示して、それぞれの画面で独立した操作を受け付けるように機能させる
ことを特徴とする[22]乃至[31]のいずれか1つに記載のプログラム。
本発明に係る操作表示装置およびプログラムによれば、同時に検出された複数箇所へのタッチ操作が一人の操作者によるマルチタッチ操作であるか複数人の操作者による個別のシングルタッチ操作であるかを的確に判定することができる。
本発明の実施の形態に係る操作表示装置を一人の操作者が操作する様子を示す説明図である。 本発明の実施の形態に係る操作表示装置を二人の操作者が同時に操作する様子を示す説明図である。 本発明の実施の形態に係る操作表示装置の電気的概略構成を示すブロック図である。 一人の操作者からピンチアウト操作を受けた場合における表示の変化例を示す説明図である。 同時に検出された複数の操作が二人の操作者からの個別のシングルタッチ操作であると判定した場合における分割表示の例を示す説明図である。 同時に検出された複数の操作が二人の操作者からの個別のシングルタッチ操作であると判定した場合における分割表示の他の一例を示す説明図である。 上下に表示面を分割する場合の一例を示す説明図である。 接触位置の分散状況と分割方向との関係を示す説明図である。 分割方向を決定する別の判断基準を示す説明図である。 3人の操作者によるシングルタッチ操作を同時に検出して表示面Sを3つの領域に分割する場合の表示例を示す説明図である。 複数の操作を同時に検出する際に操作表示装置のCPUが行う処理の流れを示す流れ図である。 複数操作処理(図11のステップS111)の詳細を示す流れ図である。 表示面Sに対する指のタッチ操作を受けて人体通信を行う様子を示す説明図である。 本発明の第2の実施の形態に係る操作表示装置の電気的概略構成を示すブロック図である。 人体通信を行う端末装置の電気的概略構成を示すブロック図である。 同時に検出された複数の操作が二人の操作者からの個別のシングルタッチ操作であると判定した場合の表示の変化例を示す説明図である。 複数の操作を同時に検出する際に第2の実施の形態に係る操作表示装置が行う処理の流れを示す流れ図である。 第2の複数操作処理(図17のステップS313)の詳細を示す流れ図である。 操作表示装置の機能を組み込んだ複合機の構成例を示すブロック図である。 複合機、操作表示装置、端末装置などがネットワークを通じて通信可能に接続されたシステム構成例を示す図である。
以下、図面に基づき本発明の各種の実施の形態を説明する。
図1は、本発明の第1の実施の形態に係る操作表示装置10を一人の操作者Aが操作する様子を示し、図2は、操作表示装置10を二人の操作者A、Bが同時に操作する様子を示している。
操作表示装置10は、B5サイズほどの平板形状を成した携帯端末である。なお、各図では、操作表示装置10に比べて操作者のサイズを十分小さく描いてある。
操作表示装置10の表面のほぼ全域は各種の操作画面を表示する表示部の表示面Sになっている。また、表示面S上のほぼ全面に渡り、操作者の指の接触による各種の操作(タッチ操作)を検出するタッチパネル部17(図3参照)が設けてある。
タッチパネル部17は、複数のタッチ操作を同時に検出する機能を有する。詳細には、表示面Sに指が接触している接触位置31を、同時に複数検出可能に構成されている。また、操作表示装置10は、表示面Sに接触している部分における指の形状(以後、単に、指の形状とも呼ぶ)を検出する指形状検出部24(図3参照)を備えている。
図1では、各接触位置31において表示面Sに接触している部分の指の輪郭を描いてある。操作表示装置10は、表示面S上に複数の接触位置31が同時に存在することを検出した場合に、各接触位置31に対応する指の形状からその複数の接触位置31に係る複数のタッチ操作が一人の操作者による操作であるか、複数の操作者による操作であるかを判定し、その判定結果に応じて表示内容を変更するようになっている。
たとえば、図1に示すように、2つの接触位置31a、31bが表示面S上に同時に存在することが検出されたとき、それらの接触位置31a、31bに接触している部分の指の形状から、それら2箇所の接触位置31a、31bに係るタッチ操作を行った操作者が同一人であるか否かを判断する。同一人と判断した場合は、その2箇所の接触位置31a、31bに係る2つのタッチ操作を一人の操作者によるマルチタッチ操作と認識する。同図では、2箇所の接触位置31a、31bが、図中の矢印33、34に示すように、表示面Sに接触した後、互いに次第に離れるマルチタッチ操作、すなわち、一人の操作者によるピンチアウト操作を受けたと認識する。
一方、図2に示すように、2箇所の接触位置31a、31bに係る2つのタッチ操作を行った操作者が同一人でないと判断した場合は、その2箇所の接触位置31a、31bに係る2つのタッチ操作を二人の操作者による個別のシングルタッチ操作と認識する。図2では、接触位置31aに係るタッチ操作を左方向へのフリック操作と認識し、接触位置31bに係るタッチ操作を別の操作者による右方向へのフリック操作と認識する。
なお、同時に検出される複数のタッチ操作は、同時にタッチが開始される必要はなく、操作者Aがタッチした後、そのタッチが続いている間に操作者Bがタッチするというような場合も含まれる。すなわち、タッチ開始のタイミングが異なっていても、双方ともタッチしている状態がある時点で検出されればよい。
図3は、操作表示装置10の電気的概略構成を示している。操作表示装置10は、当該操作表示装置10の動作を統括制御する制御部としてのCPU11にバスを通じて、ROM(Read Only Memory)12、RAM(Random Access Memory)13、不揮発メモリ14、表示部15、操作部16、ネットワーク通信部21、画像処理部22、ハードディスク装置23、指形状検出部24などを接続して構成される。
ROM12には、各種プログラムやデータが格納され、これらのプログラムに従ってCPU11が各種の処理を実行することで操作表示装置10としての各機能が実現される。RAM13はCPU11がプログラムを実行する際に各種のデータを一時的に格納するワークメモリや表示データを一時記憶するメモリとして使用される。
不揮発メモリ14は、電源がオフになっても記憶内容が保持されるメモリである。不揮発メモリ14には、各種の設定内容、ユーザ情報、通信情報(ネットワークアドレスなど)などが記憶される。また、検出された指の接触位置31毎に、その接触位置の位置情報および指の形状に関する情報、当該接触位置に係る操作を行った操作者の識別情報などを関連付けて記憶する管理テーブル14aが記憶される。
ハードディスク装置23は、大容量、不揮発の記憶装置である。管理テーブル14aはハードディスク装置23に記憶されてもよいし、RAM13に記憶されてもよい。
表示部15は、液晶ディスプレイなどで構成され、各種の操作画面を表示する。表示部15はRAM13の所定領域に格納された表示データに対応する画面を表示する。CPU11は表示データの作成や加工を行う。操作部16は、タッチパネル部17および少数の操作スイッチ18を備えている。タッチパネル部17は、複数のタッチ操作を同時に検出する。すなわち、指が接触している接触位置を同時に複数箇所検出可能になっている。タッチパネル部17の検出方式は、静電容量、アナログ/デジタル抵抗膜、赤外線、超音波、電磁誘導等、任意でよい。
指形状検出部24は、表示部15の表示面Sに接触している部分の指の形状を検出する。ここでは、表示面Sに接触している複数の指の接触部分の形状を同時に検出することができる。指の形状を検出する方法は、接触部分の形状を光学的に読み取る方法など、任意でよい。
ネットワーク通信部21は、無線通信によりネットワークと接続して各種の外部装置と通信する機能を果たす。たとえば、印刷や原稿のコピー、ファックス送信などの機能を備えた複合機を当該操作表示装置10から遠隔操作する場合、操作の対象となる複合機との間の通信に使用される。なお、操作表示装置10は外部装置とBluetooth(登録商標)などの近距離通信で接続される構成でもよい。
画像処理部22は、表示部15に表示される表示データを加工する機能を果たす。たとえば、表示データを加工して画面の拡大縮小、回転などを行う。
CPU11は、タッチパネル部17が複数のタッチ操作を同時に検出したとき、タッチパネル部17からタッチ操作毎にその接触位置を示す情報を取得する。また各タッチ操作において表示面Sに接触している部分の指の形状を示す情報を指形状検出部24から取得して解析する。この解析により、たとえば、接触部分における指の輪郭形状(もしくは輪郭の特徴)、接触面積、指の向きなどの情報を指属性として求め、これを接触位置と関連付けて管理テーブル14aに登録する。CPU11は、各接触位置に対応する指属性を対比して操作者の同一性を判定する。たとえば、複数のタッチ操作に係る指の向き(指先の向き)の差が45度未満ならば、それらは同一人によるタッチ操作とし、45度以上ならば別人によるタッチ操作と判定する。そして、その判定結果に応じて表示部15への表示内容を変更する。
以下、その具体例を各種示す。
図4は、一人の操作者からピンチアウト操作を受けた場合を示している。同図(a)に示すように、左矢印41の根元の位置をタッチされた後、左矢印41の向きに払う第1タッチ操作と、右矢印42の根元の位置をタッチされた後、右矢印42の向きに払う第2タッチ操作とを同時に検出すると、第1タッチ操作の操作者と第2タッチ操作の操作者が同一人か否かを判定する。すなわち、第1タッチ操作に係る指の接触部分の形状から得た指属性と、第2タッチ操作に係る指の接触部分の形状から得た指属性とを対比して第1タッチ操作の操作者と第2タッチ操作の操作者が同一人か否かを判定する。
同一人と判定した場合は、第1タッチ操作と第2タッチ操作とを一人の操作者によるマルチタッチ操作と認識する。この例の場合、ピンチアウト操作と認識する。その結果、同図(b)に示すように、ピンチアウト操作を受けた箇所を中心に画面を拡大表示する。
図5は、同時に検出された複数のタッチ操作が二人の操作者からの個別のシングルタッチ操作であると判定した場合を示している。同図(a)に示すように、左矢印43の根元の位置をタッチされた後、左矢印43の向きに払う第1タッチ操作と、右矢印44の根元の位置をタッチされた後、右矢印44の向きに払う第2タッチ操作とを同時に検出すると、第1タッチ操作に係る指の接触部分の形状から得た指属性と、第2タッチ操作に係る指の接触部分の形状から得た指属性とを対比して第1タッチ操作の操作者と第2タッチ操作の操作者が同一人か否かを判定する。
別人と判定した場合は、第1タッチ操作を第1の操作者によるシングルタッチ操作、第2タッチ操作を第2の操作者によるシングルタッチ操作と認識する。この例の場合、第1タッチ操作を第1の操作者による左方向へのフリック操作、第2タッチ操作を第2の操作者による右方向へのフリック操作と認識する。その結果、同図(b)に示すように、表示部15の表示面Sを2つの領域S1、S2に分割し、それぞれの領域S1、S2に個別の画面を表示し、それぞれの画面で独立した操作を受け付ける。この例では、表示面Sを左右に分割し、各領域S1、S2に、分割前の画面と同じ内容(項目)をレイアウトを変えて表示している。
図5の例では、パスワードの入力を受け付けるパスワード入力画面を表示している。パスワード入力画面には、画面のタイトル51と、ユーザ情報入力欄52、パスワード入力欄53、パスワード(セキュリティ情報)の入力を受けるためのテンキー54が表示されている。
左側の領域S1に表示したパスワード入力画面ではテンキー54を画面の左端に寄せてあり、右側の領域S2に表示したパスワード入力画面ではテンキー54を画面の右端に寄せてある。また、各領域S1、S2に表示したパスワード入力画面におけるテンキー54のキー配列を相違させてある。テンキー54はパスワード(セキュリティ情報)の入力に係る入力釦なので、操作内容が隣の操作者に分からないようにすることが重要になる。
そこで、各領域S1、S2に表示したパスワード入力画面においてテンキー54が互いに離れるようにレイアウトすることで、テンキー54に対する操作が隣の操作者から見え難くなるようにしている。また、テンキー54のキー配列を相違させることで指の動きから操作内容を想定できなくしている。
図6は、同時に検出された複数のタッチ操作が二人の操作者からの個別のシングルタッチ操作であると判定した場合における分割表示の他の例を示している。図6では、指形状検出部24によって検出された各指の形状から、それぞれの指に対応する操作者の向きを認識し、各操作者に割り当てた領域S1、S2に表示する画面をそれぞれの操作者の向きに応じた向きに表示する。
図6の例では、タッチ操作61に係る指の形状からタッチ操作61を行った操作者Aの向きを矢印63方向と判定し、タッチ操作62に係る指の形状からタッチ操作62を行った操作者Bの向きを矢印64方向と判定した例を示している。
すなわち、タッチ操作61を行った操作者Aは、頂点OPQR有する矩形の表示面Sの辺OP側に立ち、辺QR側を向いて操作していると判定する。また、タッチ操作62を行った操作者Bは、表示面Sの辺QR側に立ち、辺OP側を向いて操作していると判定する。
この判定結果より、同図(b)に示すように、領域S1には矢印63方向から見た場合に天地が正しく見える方向のパスワード入力画面を表示し、領域S2には矢印64方向から見た場合に天地が正しく見える方向のパスワード入力画面を表示する。
次に、表示面Sを複数に分割する際の分割方向を、複数のタッチ操作に係る指の接触位置の表示面S内での分散状況に応じて変更する場合について説明する。
図6に示すように、タッチ操作61の接触位置が表示面Sを左右に2等分した場合の左側のエリアに属し、タッチ操作62の接触位置が右側のエリアに属している場合には、表示面Sを左右に分割する。一方、図7に示すように、タッチ操作71の接触位置が表示面Sを上下に2等分した場合の上側のエリアに属し、タッチ操作72の接触位置が下側のエリアに属している場合は、表示面Sを上下に分割する。
なお、図7の例では、タッチ操作71に係る指の形状からタッチ操作71を行った操作者Aは、頂点OPQR有する矩形の表示面Sの辺OP側に立ち、辺RQ側を向いて操作していると判定され、タッチ操作72に係る指の形状からタッチ操作72を行った操作者Bは、表示面Sの辺QR側に立ち、辺OP側を向いて操作していると判定される。そして、この判定結果より、図7(b)に示すように、領域S1には矢印73方向から見た場合に天地が正しく見える方向のパスワード入力画面を表示し、領域S2には矢印74方向から見た場合に天地が正しく見える方向のパスワード入力画面を表示している。
なお、分割後の領域S1、S2に表示する画面の向きはその領域に存在するタッチ操作に係る操作者の向きに合わせてある。たとえば、図6では、左側の領域S1に存在するタッチ操作61に対応する操作者Aの向きに合わせて左側の領域S1に表示する画面の向きを設定し、右側の領域S2に存在するタッチ操作62に対応する操作者Bの向きに合わせて右側の領域S2に表示する画面の向きを設定してある。
分割数が2の場合には、表示面Sを左右に均等に分割する分割パターンと上下に均等に分割する分割パターンとを予め用意しておき、2つのタッチ操作の接触位置が各領域に1つずつ分散する方の分割パターンを選択する。
図8は、タッチ操作に係る指の接触位置の分散状況と分割方向との関係を示している。上記分割パターンの選択を行うために、頂点OPQRを有する矩形の表示面Sを縦横にそれぞれ等分割した4つのエリアD1〜D4を設定する。頂点Oを左下、頂点Pを右下、頂点Qを右上、頂点Rを左上とする。エリアD1は頂点Oを有する左下エリア、エリアD2は頂点Pを有する右下エリア、エリアD3は頂点Rを有する左上エリア、エリアD4は頂点Qを有する右上エリアとする。
図8(a)に示すように、第1タッチ操作81と第2タッチ操作82が左下エリアD1と右下エリアD2に分散しているような場合は左右に分割する分割パターンを選択する。すなわち、左右方向に分散し、上下方向には上下の一方に偏っている場合は、左右に分割する。図8(b)に示すように、第1タッチ操作81と第2タッチ操作82が右下エリアD2と右上エリアD4に分散しているような場合は上下に分割する分割パターンを選択する。すなわち、上下方向に分散し、左右方向には左右の一方に偏っている場合は、上下に分割する。
図8(c)に示すように、第1タッチ操作81と第2タッチ操作82が共に右下エリアD2(1つのエリア)に存在するような場合、すなわち、左右方向は左右の一方に偏り、かつ上下方向についても上下の一方に偏っている場合は、別途の条件で分割方向を決定する。たとえば、予め定めた方向に分割する。
図8(d)に示すように、第1タッチ操作81が左下エリアD1に存在し第2タッチ操作82が右上エリアD4に存在するような場合、すなわち、左右方向に分散しかつ上下方向にも分散している場合は、別途の条件で分割方向を決定する。たとえば、予め定めた方向に分割する。
分割数がNの場合には、表示面Sを左右方向に均等にN個に分割する場合の分割パターンと上下方向に均等にN個に分割する場合の分割パターンとを予め用意しておき、N個のタッチ操作の接触位置が各領域に1つずつ分散する方の分割パターンを選択する。
図9は、分割方向を決定する別の判断基準を示している。本例では、隣り合うタッチ操作間の距離(表示面Sの一端に最も近いタッチ操作についてはその一端からの距離)に関して、上下方向の分散と、左右方向への分散を求め、分散の小さい方向に分割する。
図9の例では、上下方向については、辺OPから第1タッチ操作の接触位置までの距離Y1と、第1タッチ操作の接触位置から第2タッチ操作の接触位置までの距離Y2と、第2タッチ操作の接触位置から辺QRまでの距離Y3に対する分散k1を求める。
Y1とY2とY3の平均値をYaとすると、
k1=((Y1−Ya)+(Y2−Ya)+(Y3−Ya))÷3)
となる。
左右方向については、辺ORから第1タッチ操作の接触位置までの距離X1と、第1タッチ操作の接触位置から第2タッチ操作の接触位置までの距離X2と、第2タッチ操作の接触位置から辺PQまでの距離X3とにおける分散k2を求める。
X1とX2とX3の平均値をXaとすると、
k2=((X1―Xa)+(X2―Xa)+(X3―Xa))÷3
となる。
K1>k2ならば左右方向に分割し、k1<k2ならば上下方向に分割する。k1=k2の場合は、予め定めた方向(たとえば、横方向)に分割する。
タッチ操作が3箇所以上の場合も同様にして分割方向を定めることができる。なお、図8に示すエリアに基づく方法を優先的に使用して分割方向を定め、この方法で分割方向を決定できない場合(図8(c)、(d)の場合)に、図9に示す分散に基づく方法で分割方向を決定するようにしてもよい。
また、指の形状から求めた操作者の向きが同方向(図6(a)における矢印63または矢印64のいずれか一方に揃っている)ならば左右に分割し、操作者の向きが異なる場合にのみ上下に分割するか左右に分割するかを前述したエリアや分散に基づいて決定するようにしてもよい。
図10は、3人の操作者によるシングルタッチ操作を同時に検出して表示面Sを3つの領域S1、S2、S3に分割した場合を示している。タッチ操作61に係る指の形状からタッチ操作61を行った操作者Aの向きを矢印63方向と判定し、タッチ操作62に係る指の形状からタッチ操作62を行った操作者Bの向きを矢印64方向と判定し、タッチ操作65に係る指の形状からタッチ操作65に対する操作を行った操作者Cの向きを矢印66方向と判定した例を示している。
すなわち、タッチ操作61を行った操作者Aは、頂点OPQR有する矩形の表示面Sの辺OP側に立ち、辺QR側を向いて操作していると判定する。また、タッチ操作62を行った操作者Bは、表示面Sの辺QR側に立ち、辺OP側を向いて操作していると判定する。タッチ操作65を行った操作者Cは、表示面Sの辺OP側に立ち、辺QR側を向いて操作していると判定する。
この例では、3つのタッチ操作の接触位置が左右方向に分散しているので、表示面Sを左右方向に3等分する。そして、分割後の各領域S1、S2、S3内に接触位置のあるタッチ操作を優先的にその領域に割り当てると共に、各領域S1、S2、S3に割り当てたタッチ操作に係る操作者の向きに合わせてその領域S1、S2、S3に表示する画面の向きを設定して表示している。
その結果、同図(b)に示すように、領域S1には矢印63方向から見た場合に天地が正しく見える方向のパスワード入力画面が表示され、領域S2には矢印64方向から見た場合に天地が正しく見える方向のパスワード入力画面が表示され、領域S3には矢印66方向から見た場合に天地が正しく見える方向のパスワード入力画面が表示される。
図11は、タッチ操作を検出した際に操作表示装置10のCPU11が行う処理の流れを示している。CPU11は、表示面S上へのタッチ操作(接触)の有無を監視する(ステップS101)。タッチパネル部17が新たなタッチ操作を検出すると(ステップS101;Yes)、このタッチ操作の接触位置をタッチパネル部17から取得すると共にこのタッチ操作を行った指の形状を示す情報を指形状検出部24から取得し、これらの情報を関連付けて管理テーブル14aに登録する(ステップS102)。ここでは、前述した指属性と接触位置とを関連付けて管理テーブル14aに登録する。
次に、同一画面に対して累計で複数箇所へのタッチ操作を検出したか否かを判断し(ステップS103)、1箇所のみの場合は(ステップS103;No)、当該タッチ操作がリリース(指が離された)か否かを調べる(ステップS104)。リリースされた場合は(ステップS104;Yes)、一人の操作者によるシングルタッチ操作であると判定し(ステップS105)、そのシングルタッチ操作に対応する処理(表示の変更や操作の内容を複合機本体などへ出力する処理)を行って(ステップS106)本処理を終了する。
リリースされない場合は(ステップS104;No)、ステップS101に戻って新たなタッチ操作の有無を調べる。新たなタッチ操作を受けない場合は(ステップS101;No)、ステップS104に戻ってリリースの有無を再び調べる。
累計で複数箇所へのタッチ操作が検出された場合は(ステップS103;Yes)、管理テーブル14aに登録されている情報から複数箇所へのタッチ操作が一人の操作者によるマルチタッチ操作か否かを判定する(ステップS107)。ここでは、各タッチ操作(管理テーブル14aに登録されている各接触位置)に対応する指の形、面積、向きなどの情報を対比して、同一人によるマルチタッチ操作か否かを判定する。たとえば、複数のタッチ操作のそれぞれに係る指の向きが異なる場合は、別人の操作と判定する。指の向きが同一の場合には、さらに指の形の特徴や面積の違いが所定の許容範囲内か否かを判定する。許容範囲内ならば一人の操作と判定し、許容範囲を超える場合は別人の操作と判定する。
判定結果が「一人の操作」である場合は(ステップS108;Yes)、管理テーブル14aに登録されている複数の接触位置に対応する複数のタッチ操作を一人の操作者によるマルチタッチ操作と認識し(ステップS109)、そのマルチタッチ操作に対応する処理(表示の変更や操作の内容を複合機本体などへ出力する処理)を行って(ステップS111)本処理を終了する。
判定結果が「一人の操作」でない場合は(ステップS108;No)、管理テーブル14aに登録されている複数の接触位置に対応する複数のタッチ操作を複数人の操作者による個別のシングルタッチ操作と認識し(ステップS110)、その操作に対応する処理(たとえば、前述した分割表示)を行って(ステップS111)本処理を終了する。
図12は、複数操作処理(図11のステップS111)の詳細を示している。複数のタッチ操作が一人の操作者によるマルチタッチ操作の場合は(ステップS201;Yes)、そのマルチタッチ操作に対応する処理(表示の変更や操作の内容を複合機本体などへ出力する処理)を行って(ステップS202)、本処理を終了する。マルチタッチ操作には、ピンチイン、ピンチアウト、ローテーションなどがある。
複数のタッチ操作が一人の操作者によるマルチタッチ操作でない場合は(ステップS201;No)、各タッチ操作に対応する指の形状(主に指の向き)からそれぞれのタッチ操作を行った操作者の顔の向きを判定する(ステップS203)。次に、前述した方法で分割方向を決定する(ステップS204)。ここでは、上下または左右のいずれかに決定する。
次に、表示面Sを、操作者の数に相当する個数に、かつステップS204で決定した方向に分割する(ステップS205)。次に、分割後の各領域に表示する画面の向きを決定する(ステップS206)。詳細には、各タッチ操作に対応する操作者に分割後の領域を1つずつ割り当てる。ここでは、操作者に割り当てる領域にその操作者の指の接触位置が優先的に含まれるようにして、領域を割り当てる。そして、それぞれの領域に表示する画面の向きを、その領域が割り当てられた操作者の向きに応じた向きに設定する。
次に、各領域に表示する画面のレイアウトを決定する。図5で説明したように、他の操作者からの覗き見による情報漏えいを防止するために、セキュリティ情報を入力するための操作釦(テンキー54など)やセキュリティ情報の入力欄53の配置やキー配列を決定する。また、領域のサイズや形状に合わせて画面のレイアウト、各表示オブジェクトのサイズ、文字サイズなどを決定する。
そして、上記決定した内容に従って各領域に個別の画面を表示し、それぞれの画面で独立に操作を受け付ける状態に移行して(ステップS208)本処理を終了する。
以上のように、本発明の第1の実施の形態に係る操作表示装置10では、表示面Sへの複数のタッチ操作が同時に検出された場合に、それぞれのタッチ操作に係る指の形状から、複数のタッチ操作が一人の操作者によるマルチタッチ操作であるか、複数人の操作者による個別のシングルタッチ操作であるかを判定することができる。
次に、本発明の第2の実施の形態について説明する。
第2の実施の形態では、図13に示すように、表示面Sに対する指によるタッチ操作を受けたとき、その指を含む操作者の体を通じてこの操作者が身につけている端末装置110と通信(人体通信)を行って、この端末装置110から操作者を一意に特定する操作者識別情報を取得し、このタッチ操作を行った操作者を特定する。複数のタッチ操作が同時に検出された場合には、各タッチ操作に対応する操作者識別情報を取得し、これらを比較することで、複数のタッチ操作が一人の操作者によるマルチタッチ操作か否かを判定するようになっている。
図14は、第2の実施の形態に係る操作表示装置10Bの電気的概略構成を示している。図3に示す第1の実施の形態に係る操作表示装置10と同一構成の部分には同一の符号を付してあり、それらの説明は適宜省略する。操作表示装置10Bは、当該操作表示装置10Bの動作を統括制御する制御部としてのCPU11にバスを通じて、ROM(Read Only Memory)12、RAM(Random Access Memory)13、不揮発メモリ14、表示部15、操作部16、ネットワーク通信部21、画像処理部22、ハードディスク装置23、外部端末通信部25などを接続して構成される。
外部端末通信部25は人体通信により外部の端末装置110と通信する機能を果たす。人体を通信路とする人体通信には、電流方式や電界方式などがある。ここでは、表示面S上に多数の電極を配置しておき、操作者の指が表示面S上のいずれかの電極に触れると、その電極から操作者の指および体に微弱な電流を流して、該操作者が身に着けている端末装置110と通信するようになっている。複数の操作者が同時に表示面Sにタッチしている状態であっても、それぞれのタッチ位置(接触位置)に対応する電極を通じて個別に人体通信することが可能になっている。
不揮発メモリ14に記憶される管理テーブル14aには、検出された指の接触位置毎に、その接触位置の位置情報とその接触位置に対応する電極を通じた人体通信によって取得できた操作者識別情報とが関連付けて登録される。
CPU11は、タッチパネル部17が新たなタッチ操作を検出する毎に、そのタッチ操作の接触位置にある電極を通じた人体通信により、該接触位置へのタッチ操作を行った操作者の操作者識別情報を取得する。詳細には、端末装置110に対して操作者識別情報の取得要求を送信し、該取得要求に対する応答として端末装置110から操作者識別情報を受信する。そして、接触位置の情報と受信した操作者識別情報とを関連付けて管理テーブル14aに登録する。複数のタッチ操作が同時に検出された場合には、管理テーブル14aに登録されている複数の接触位置に対応する操作者識別情報を比較することで、操作者の同一性を判定し、その判定結果に応じて表示部15への表示内容を変更する。
図15は、端末装置110の電気的概略構成を示している。端末装置110は、当該端末装置110の動作を統括制御する制御部としてのCPU111にバスを通じて、ROM112、RAM113、記憶部114、データ入力部115、本体通信部116などを接続して構成される。端末装置110は、たとえば、カード型(例えば従業員証に埋め込む)、腕時計型、鍵型などの形態とすることができる。
ROM112には、プログラムやデータが格納され、このプログラムに従ってCPU111が処理を実行することで端末装置110としての機能が実現される。RAM113はCPU111がプログラムを実行する際に各種のデータを一時的に格納するワークメモリとして使用される。
記憶部114には、操作者識別情報(認証情報)が記憶される。記憶部114は不揮発メモリである。データ入力部115は、記憶部114に記憶される操作者識別情報を外部から入力するインターフェイス部としての機能を果たす。本体通信部116は、人体通信により、操作表示装置10Bと各種の情報を送受信する機能を果たす。
端末装置110は、人体通信により操作表示装置10Bから操作者識別情報の取得要求を受けると、記憶部114から操作者識別情報を読み出し、これを該取得要求に対する応答として、本体通信部116から操作表示装置10Bへ人体通信によって送信するように動作する。
図16は、同時に検出された複数のタッチ操作が二人の操作者からの個別のシングルタッチ操作であると判定した場合を示している。同図(a)に示すように、左矢印43の根元の位置をタッチされた後、左矢印43の向きに払う第1タッチ操作と、右矢印44の根元の位置をタッチされた後、右矢印44の向きに払う第2タッチ操作とを同時に検出すると、第1タッチ操作に係る指を通じた人体通信によって第1タッチ操作の操作者の端末装置110から取得した操作者識別情報と、第2タッチ操作に係る指を通じた人体通信によって第2タッチ操作の操作者の端末装置110から取得した操作者識別情報とを対比して、第1タッチ操作の操作者と第2タッチ操作の操作者が同一人か否かを判定する。
別人と判定した場合は、第1タッチ操作を第1の操作者によるシングルタッチ操作、第2タッチ操作を第2の操作者によるシングルタッチ操作と認識する。この例の場合、第1タッチ操作を第1の操作者による左方向へのフリック操作、第2タッチ操作を第2の操作者による右方向へのフリック操作と認識する。その結果、同図(b)に示すように、表示部15の表示面Sを2つの領域S1、S2に分割し、それぞれの領域S1、S2に個別の画面を表示し、それぞれの画面で独立した操作を受け付ける。この例では、表示面Sを左右に分割し、各領域S1、S2に、分割前の画面と同じ内容(項目)をレイアウトを変えて表示している。
図16において表示している画面は、図5と同様のパスワード入力画面であり、隣の操作者の覗き見によるセキュリティ情報の漏洩を防止するために、分割後の左側の領域S1に表示したテンキー54と右側の領域S2に表示したテンキー54とが互いに離れるように表示面Sの左端と右端に分けて配置してある。また、各領域S1、S2に表示したパスワード入力画面におけるテンキー54のキー配列を相違させてある。
さらに、第2の実施の形態に係る操作表示装置10Bは、人体通信によって端末装置110から操作者識別情報を取得するので、この取得した操作者識別情報から特定される操作者の名前などをユーザ情報入力欄52に自動で設定している。
この例では、表示面Sを左右に分割し、左矢印43の向きに払う第1タッチ操作の操作者に左側の領域S1を割り当て、第1タッチ操作の操作者の端末装置110から取得した操作者識別情報(操作者名:鈴木)を、左側の領域S1のユーザ情報入力欄52に設定している。また、右矢印44の向きに払う第2タッチ操作の操作者に右側の領域S2を割り当て、第2タッチ操作の操作者の端末装置110から取得した操作者識別情報(操作者名:佐藤)を、右側の領域S2のユーザ情報入力欄52に設定している。
第2の実施の形態に係る操作表示装置10Bにおいても、第1の実施の形態の場合と同様に表示面Sを分割する際の分割方向を、複数のタッチ操作の接触位置の分散状況から判定するようになっている。なお、第2の実施の形態に係る操作表示装置10Bでは、操作者の向きを判定できないため、画面の向きは、分割前と同じ方向にする。
図17は、複数のタッチ操作を同時に検出する際に操作表示装置10BのCPU11が行う処理の流れを示している。CPU11は、タッチパネル部17がタッチ操作(接触)を検出したか否かを監視する(ステップS301)。タッチパネル部17が新たなタッチ操作を検出すると(ステップS301;Yes)、このタッチ操作を行った指を通じた人体通信により操作者識別情報の取得を試みる。操作者識別情報を取得できた場合は(ステップS302;Yes)、その取得した操作者識別情報とタッチパネル部17から取得した接触位置を示す情報とを関連付けて管理テーブル14aに登録し(ステップS303)、ステップS305へ移行する。
人体通信による操作者識別情報を取得できなかった場合は(ステップS302;No)、不特定を示す操作者識別情報(たとえば、ビジターとして登録する)と、タッチパネル部17から取得した接触位置を示す情報とを関連付けて管理テーブル14aに登録し(ステップS304)、ステップS305へ移行する。
次に、同一画面に対して累計で複数箇所へのタッチ操作を検出したか否かを判断し(ステップS305)、1箇所のみの場合は(ステップS305;No)、当該タッチ操作がリリース(指が離された)か否かを調べる(ステップS306)。リリースされた場合は(ステップS306;Yes)、一人の操作者によるシングルタッチ操作であると判定し(ステップS307)、そのシングルタッチ操作に対応する処理(表示の変更や操作の内容を複合機本体などへ出力する処理)を行って(ステップS308)本処理を終了する。
リリースされない場合は(ステップS306;No)、ステップS301に戻って新たなタッチ操作の有無を調べる。新たなタッチ操作を受けない場合は(ステップS301;No)、ステップS306に戻ってリリースの有無を再び調べる。
累計で複数箇所へのタッチ操作が検出された場合は(ステップS305;Yes)、管理テーブル14aに登録されている情報から複数箇所へのタッチ操作が一人の操作者によるマルチタッチ操作か否かを判定する(ステップS309)。管理テーブル14aに登録されている操作者識別情報が不特定以外であってすべて同一の場合は一人の操作者による操作と判定する。管理テーブル14aに登録されている操作者識別情報が同一でない場合、およびすべて不特定の場合は、複数人の操作者による操作であると判定する。たとえば、管理テーブル14aに2個の登録がある場合、それらの操作者識別情報が、操作者Aと操作者Bの場合、操作者Aと不特定の場合、不特定と不特定の場合はいずれも複数人の操作者による操作であると判定する。
判定結果が「一人の操作」である場合は(ステップS310;Yes)、管理テーブル14aに登録されている複数の接触位置に対応する複数のタッチ操作を一人の操作者によるマルチタッチ操作と認識し(ステップS311)、そのマルチタッチ操作に対応する処理(表示の変更や操作の内容を複合機本体などへ出力する処理)を行って(ステップS313)本処理を終了する。
判定結果が「一人の操作」でない場合は(ステップS310;No)、管理テーブル14aに登録されている複数の接触位置に係る複数のタッチ操作を複数人の操作者による個別のシングルタッチ操作と認識し(ステップS312)、その操作に対応する処理(たとえば、前述した分割表示)を行って(ステップS313)本処理を終了する。
図18は、第2の複数操作処理(図17のステップS313)の詳細を示している。複数のタッチ操作が一人の操作者によるマルチタッチ操作の場合は(ステップS401;Yes)、そのマルチタッチ操作に対応する処理(表示の変更や操作の内容を複合機本体などへ出力する処理)を行って(ステップS402)、本処理を終了する。
複数のタッチ操作が一人の操作者によるマルチタッチ操作でない場合は(ステップS401;No)、接触位置の分散状況から表示面Sの分割方向を決定する(ステップS403)。そして、表示面SをステップS403で決定した分割方向でかつ操作者の数に相当する個数に分割する(ステップS404)。
次に、各領域に表示する画面のレイアウトを決定する(ステップS405)。図5で説明したように、他の操作者からの覗き見による情報漏えいを防止するために、セキュリティ情報を入力するための操作釦(テンキー54など)やセキュリティ情報の入力欄53の配置やキー配列を決定する。また、領域のサイズや形状に合わせて画面のレイアウト、各表示オブジェクトのサイズ、文字サイズなどを決定する。
次に、表示対象の画面に、操作者識別情報から自動設定可能な入力欄が存在する場合は、その入力欄に、操作者名など操作者識別情報から特定される操作者情報を自動設定する(ステップS406)。
そして、上記決定した内容に従って各領域に個別の画面を表示し、それぞれの画面で独立に操作を受け付ける状態に移行して(ステップS407)本処理を終了する。
以上のように、本発明の第2の実施の形態に係る操作表示装置10Bでは、タッチ操作を受ける度に、そのタッチ操作を行った指を含む操作者の体を通じた人体通信によってこの操作者が身につけている端末装置から操作者識別情報を取得し、この操作者識別情報とタッチ操作を受けた接触位置とを関連付けて登録するので、複数のタッチ操作が同時に検出された場合には、各接触位置に対応する操作者識別情報を比較することで、複数のタッチ操作が一人の操作者によるマルチタッチ操作か否かを判定することができる。
また、操作者識別情報から設定可能な入力欄に対する入力を自動的に行うので、操作者の操作負担が軽減される。また、操作者情報を入力欄に自動設定することで、分割後の複数の中のどの画面を操作すべきかを操作者に容易に認識させることができる。
<変形例>
第1、第2の実施の形態に示す操作表示装置10、10Bは、操作対象とする装置本体と一体に構成されてもよい。図19は、複合機200に操作表示装置10、10Bを組み込んだ場合の構成例を示している。図19に示す複合機200は、第1の実施の形態で示した指の形状に基づく判定機能と、第2の実施の形態で示した人体通信により取得した操作者識別情報に基づく判定機能の双方を備えた装置として構成されている。
複合機200は、原稿画像を光学的に読み取ってその複製画像を記録紙に印刷するコピー機能、読み取った原稿の画像データをファイルにして保存したり外部端末へ送信したりするスキャン機能、パーソナルコンピュータなどの外部端末から受信した印刷ジョブに係る画像を記録紙上に形成して出力するPCプリント機能、画像データを送受信するファクシミリ機能などを備えた装置である。
図19は複合機200の概略構成を示すブロック図である。第1、第2の実施の形態に係る操作表示装置10、10Bと同一の構成要素には同一の符号を付してあり、それらの説明は適宜省略する。
複合機200は、当該複合機200の動作を制御するCPU11にバスを介して、ROM12と、RAM13と、不揮発メモリ14、表示部15、操作部16、ネットワーク通信部21、画像処理部22、ハードディスク装置23、指形状検出部24、外部端末通信部25などが接続されて構成されている。これらは、第1、第2の実施の形態で示した操作表示装置10、10Bとしての機能を果たす構成要素である。
さらに複合機200は、CPU11にバスを通じて、スキャナ部231、プリンタ部232、ファクシミリ通信部233を接続して備えている。
スキャナ部231は、原稿画像を光学的に読み取って画像データを取得する。スキャナ部231は、たとえば、原稿に光を照射する光源と、その反射光を受けて原稿を幅方向に1ライン分読み取るラインイメージセンサと、原稿からの反射光をラインイメージセンサに導いて結像させるレンズやミラーなどからなる光学系のほか、ミラーや光源を移動させてライン単位の読取位置を原稿の長さ方向に順次移動させる移動機構などを備えて構成されている。
プリンタ部232は、画像データに基づく画像を電子写真プロセスによって記録紙上に形成して出力する。プリンタ部232は、たとえば、記録紙の搬送装置と、感光体ドラムと、帯電装置と、入力される画像データに応じて点灯制御されるLD(Laser Diode)と、LDから射出されたレーザ光を感光体ドラム上で走査させる走査ユニットと、現像装置と、転写分離装置と、クリーニング装置と、定着装置とを有する、いわゆるレーザープリンタとして構成されている。レーザ光に代えてLED(Light Emitting Diode)で感光体ドラムを照射するLEDプリンタのほか他の方式のプリンタであってもかまわない。
ファクシミリ通信部233は、ファクシミリ通信に係るプロトコル制御を行って、ファクシミリ送受信を行う。
ROM12には、各種プログラムやデータが格納され、これらのプログラムに従ってCPU11が各種の処理を実行することで操作表示装置10、10Bとしての各機能および複合機200としての各機能が実現される。RAM13は、複合機200が扱う画像データを一時的に保存するエリアとしても使用される。
ハードディスク装置23には、スキャナ部231で読み取られた原稿の画像データや、外部PC(パーソナルコンピュータ)などから受信した印刷データや、ファクシミリ受信した画像データなどの保存に使用される。
表示部15は、当該複合機200を操作するための各種の操作画面や設定画面を表示し、操作部16は複合機200を動作させるための各種の操作を操作者から受け付ける。表示部15および操作部16は、複合機200の操作パネル240を構成する。
画像処理部22は、画像データに対して、画像補正、回転、拡大/縮小、圧縮/伸張など各種の画像処理を施す。
複合機200では、指の形状に基づく判定機能と、人体通信によって取得した操作者識別情報に基づく判定機能の双方を備えている。両判定機能を備えている複合機200における操作表示装置は次のように動作する。
表示面S上へのタッチ操作を受ける毎に、そのタッチ操作を受けた指の形状に関する情報(指属性)と接触位置とを関連付けて管理テーブル14aに登録する。さらに、人体通信によって操作者の操作者識別情報を取得できた場合は、この取得した操作者識別情報を接触位置に関連付けて管理テーブル14aに登録する。
複数のタッチ操作が同時に検出された場合の処理は以下のようになる。複数のタッチ操作のそれぞれについて操作者識別情報を取得できた場合は、操作者識別情報に基づいてその複数のタッチ操作が一人の操作者によるマルチタッチ操作であるか否かを判定する。一部のタッチ操作に関してのみ操作者識別情報を取得でき、他のタッチ操作に係る操作者識別情報を取得できない場合は、複数人の操作者による操作であると認識する。すべてのタッチ操作について操作者識別情報を取得できない場合は、指の形状に基づいて、その複数のタッチ操作が一人の操作者によるマルチタッチ操作であるか否かを判定する。
また、指の形状に基づいて各操作者の向きを判定し、分割後の各領域に表示する画面の向きを、その領域に割り当てた操作者の向きに応じた向きに設定する。さらに、操作者識別情報を取得できた場合は、その操作者識別情報から特定される操作者の情報を該当する入力欄に自動設定する。
以上のように、指の形状に基づく判定機能と人体通信によって取得される操作者識別情報に基づく判定機能の双方を備える場合、一方のみを備える場合に比べて、同時に検出された複数のタッチ操作が一人の操作者によるマルチタッチ操作か複数人の操作者による操作かをより的確に判定することができる。
図20は、複合機200、操作表示装置10、10B、端末装置110などがネットワークを通じて通信可能に接続されたシステム構成例を示している。たとえば、操作表示装置10、10Bは、複合機200をリモート操作するために使用される。なお、操作表示装置10,10B、複合機200はBluetooth(登録商標)などの近距離通信で接続される構成でもよい。
以上、本発明の実施の形態を図面によって説明してきたが、具体的な構成は実施の形態に示したものに限られるものではなく、本発明の要旨を逸脱しない範囲における変更や追加があっても本発明に含まれる。
実施の形態では、同時に検出された複数のタッチ操作が複数人による操作であると判定したとき、その複数のタッチ操作を、個別のシングルタッチ操作と認識するようにしたが、複数のタッチ操作の中の一部に同一人による複数のタッチ操作が含まれる場合は、その複数のタッチ操作を同一人による一組の操作として扱うようにしてもよい。たとえば、同時に3箇所のタッチ操作が検出された場合に、その中の2つは同一の操作者によるタッチ操作で、他の1つは別の操作者によるタッチ操作であると判定したとき、表示面Sの分割数を「2」とするように制御する。
実施の形態では、同時に検出された複数のタッチ操作が複数人の操作者によるタッチ操作であると判定したときの処理として、表示面Sを複数の領域に分割してそれぞれの領域に個別の画面を表示し、それぞれの画面で独立に操作を受けるようにしたが、他の処理を行うようにしてもよい。たとえば、1つの画面で同時に複数の操作を受け付け可能であれば、それぞれの操作に対応した複数の処理を実行するようにしてもよい。
10、10B…操作表示装置
11…CPU
12…ROM
13…RAM
14…不揮発メモリ
14a…管理テーブル
15…表示部
16…操作部
17…タッチパネル部
18…操作スイッチ
21…ネットワーク通信部
22…画像処理部
23…ハードディスク装置
24…指形状検出部
25…外部端末通信部
31、31a、31b…接触位置
33、34、41、42、43、44…タッチ操作の方向(矢印)
51…画面のタイトル
52…ユーザ情報入力欄
53…パスワード入力欄
54…テンキー
61、62、65…タッチ操作
63、64、66…タッチ操作の方向(矢印)
71、72…タッチ操作
73、74…タッチ操作の方向(矢印)
81…第1タッチ操作
82…第2タッチ操作
110…端末装置
111…CPU
112…ROM
113…RAM
114…記憶部
115…データ入力部
116…本体通信部
200…複合機
231…スキャナ部
232…プリンタ部
233…ファクシミリ通信部
240…操作パネル
A、B、C…操作者
D1〜D4…分割基準となるエリア
S…表示面
S1〜S3…分割後の領域

Claims (34)

  1. 表示部と、
    前記表示部の表示面への指のタッチによる入力操作を同時に複数検出可能なタッチパネルと、
    前記入力操作において前記表示面に接触している部分の指の形状を検出する指形状検出部と、
    前記表示面に指が接触している操作者の体を通じて端末装置と通信して前記操作者を一意に特定する操作者識別情報を前記端末装置から取得する人体通信部と、
    前記表示部の表示内容を制御する制御部と、
    を備え、
    前記制御部は、
    前記タッチパネルによって前記表示面上への複数の指のタッチによる入力操作が同時に検出された場合に、
    前記指形状検出部によって検出された各入力操作に係る指の形状から前記複数の指のタッチによる入力操作が同一人による操作であるか否かを判定し、その同一人による操作であるか否かの判定結果に応じて前記表示部の表示内容を変更し、
    前記複数の入力操作のそれぞれについて前記人体通信部が前記操作者識別情報を取得した場合は、前記操作者識別情報に基づいて、前記複数の指による入力操作が同一人によるものである否かを判定する
    ことを特徴とする操作表示装置。
  2. 前記制御部は、
    前記人体通信部が、前記複数の入力操作の一部についてのみ前記操作者識別情報を取得する場合は、前記複数の入力操作が同一人による操作でないと判定する
    ことを特徴とする請求項1に記載の操作表示装置。
  3. 前記制御部は、
    前記人体通信部が、前記複数の入力操作の全てについて前記操作者識別情報を取得できない場合は、前記指の形状に基づいて、前記複数の入力操作が同一人による操作であるか否かを判定する
    ことを特徴とする請求項1または2に記載の操作表示装置。
  4. 表示部と、
    前記表示部の表示面への指のタッチによる入力操作を同時に複数検出可能なタッチパネルと、
    前記入力操作において前記表示面に接触している部分の指の形状を検出する指形状検出部と、
    前記表示面に指が接触している操作者の体を通じて端末装置と通信して前記操作者を一意に特定する操作者識別情報を前記端末装置から取得する人体通信部と、
    前記表示部の表示内容を制御する制御部と、
    を備え、
    前記制御部は、
    前記タッチパネルによって前記表示面上への複数の指のタッチによる入力操作が同時に検出された場合に、
    前記指形状検出部によって検出された各入力操作に係る指の形状から前記複数の指のタッチによる入力操作が同一人による操作であるか否かを判定し、その同一人による操作であるか否かの判定結果に応じて前記表示部の表示内容を変更し、
    前記人体通信部が、前記複数の入力操作の一部についてのみ前記操作者識別情報を取得する場合は、前記複数の入力操作が同一人による操作でないと判定する
    ことを特徴とする操作表示装置。
  5. 前記制御部は、
    前記人体通信部が、前記複数の入力操作の全てについて前記操作者識別情報を取得できない場合は、前記指の形状に基づいて、前記複数の入力操作が同一人による操作であるか否かを判定する
    ことを特徴とする請求項4に記載の操作表示装置。
  6. 表示部と、
    前記表示部の表示面への指のタッチによる入力操作を同時に複数検出可能なタッチパネルと、
    前記入力操作において前記表示面に接触している部分の指の形状を検出する指形状検出部と、
    前記表示面に指が接触している操作者の体を通じて端末装置と通信して前記操作者を一意に特定する操作者識別情報を前記端末装置から取得する人体通信部と、
    前記表示部の表示内容を制御する制御部と、
    を備え、
    前記制御部は、
    前記タッチパネルによって前記表示面上への複数の指のタッチによる入力操作が同時に検出された場合に、
    前記指形状検出部によって検出された各入力操作に係る指の形状から前記複数の指のタッチによる入力操作が同一人による操作であるか否かを判定し、その同一人による操作であるか否かの判定結果に応じて前記表示部の表示内容を変更し、
    前記人体通信部が、前記複数の入力操作の全てについて前記操作者識別情報を取得できない場合は、前記指の形状に基づいて、前記複数の入力操作が同一人による操作であるか否かを判定する
    ことを特徴とする操作表示装置。
  7. 前記制御部は、前記タッチパネルによって、前記表示面上に対する、所定の箇所への指によるタッチ後タッチされた箇所を第1方向に移動させる第1入力操作と、所定の箇所への指によるタッチ後タッチされた箇所を前記第1方向とは逆の第2方向に移動させる第2入力操作とが同時に検出された場合に、前記第1入力操作と前記第2入力操作とが同一人による操作であるか否かを判定する
    ことを特徴とする請求項1乃至6のいずれか1つに記載の操作表示装置。
  8. 表示部と、
    前記表示部の表示面への指のタッチによる入力操作を同時に複数検出可能なタッチパネルと、
    前記入力操作において前記表示面に接触している部分の指の形状を検出する指形状検出部と、
    前記表示部の表示内容を制御する制御部と、
    を備え、
    前記制御部は、
    前記タッチパネルによって前記表示面上への複数の指のタッチによる入力操作が同時に検出された場合に、前記指形状検出部によって検出された各入力操作に係る指の形状から前記複数の指のタッチによる入力操作が同一人による操作であるか否かを判定し、その同一人による操作であるか否かの判定結果に応じて前記表示部の表示内容を変更し、
    前記タッチパネルによって、前記表示面上に対する、所定の箇所への指によるタッチ後タッチされた箇所を第1方向に移動させる第1入力操作と、所定の箇所への指によるタッチ後タッチされた箇所を前記第1方向とは逆の第2方向に移動させる第2入力操作とが同時に検出された場合に、前記第1入力操作と前記第2入力操作とが同一人による操作であるか否かを判定する
    ことを特徴とする操作表示装置。
  9. 表示部と、
    前記表示部の表示面への指のタッチ操作を同時に複数検出可能なタッチパネルと、
    前記表示面に指が接触している操作者の体を通じて端末装置と通信して前記操作者を一意に特定する操作者識別情報を前記端末装置から取得する人体通信部と、
    前記表示部の表示内容を制御する制御部と、
    を備え、
    前記制御部は、
    前記タッチパネルによって、前記表示面上に対する、所定の箇所への指によるタッチ後タッチされた箇所を移動させる入力操作が同時に複数検出された場合に、各入力操作を行っている指を通じて前記人体通信部が取得した複数の操作者識別情報から、前記複数の入力操作が同一人による操作であるか否かを判定し、その同一人による操作であるか否かの判定結果に応じて前記表示部の表示内容を変更し、
    前記タッチパネルによって、前記表示面上に対する、所定の箇所への指によるタッチ後タッチされた箇所を第1方向に移動させる第1入力操作と、所定の箇所への指によるタッチ後タッチされた箇所を前記第1方向とは逆の第2方向に移動させる第2入力操作とが同時に検出された場合に、前記第1入力操作と前記第2入力操作とが同一人による操作であるか否かを判定する
    ことを特徴とする操作表示装置。
  10. 前記制御部は、前記タッチパネルによって検出された複数の入力操作が同一人による操作であると判定する場合、前記第1入力操作及び前記第2入力操作を、一組のピンチイン操作、ピンチアウト操作又はローテーション操作であると判断する
    ことを特徴とする請求項7乃至9のいずれか1つに記載の操作表示装置。
  11. 前記制御部は、前記複数の指のタッチによる入力操作が同一人による操作であると判定した場合は、前記複数の指のタッチによる入力操作を一組の操作と認識し、その一組の操作の内容に応じて前記表示内容を変更し、前記複数の指のタッチによる入力操作が複数の操作者による操作であると判定した場合は、前記複数の操作者の人数に対応する複数の領域に前記表示面を分割し、それぞれの領域に個別の画面を表示して、それぞれの画面で独立した操作を受け付ける
    ことを特徴とする請求項1乃至10のいずれか1つに記載の操作表示装置。
  12. 前記制御部は、前記複数の指のタッチによる入力操作が複数の操作者による操作であると判定した場合は、前記指形状検出部によって検出された各指の形状からそれぞれの指に対応する操作者の向きを判定し、前記複数の操作者のそれぞれに前記領域を割り当てると共に、各操作者に割り当てた領域に表示する画面を、その操作者の向きに応じた向きにする
    ことを特徴とする請求項7または8を引用する請求項10を引用する請求項11、または、請求項1乃至8のいずれか1つを引用する請求項11に記載の操作表示装置。
  13. 前記制御部は、前記表示面を複数に分割する際の分割方向を、前記複数の指のタッチによる入力操作に係る指の接触位置の前記表示面内での分散状況に応じて変更する
    ことを特徴とする請求項11または12に記載の操作表示装置。
  14. 前記制御部は、予め用意された複数の分割パターンの中から、前記表示面を前記複数の操作者の人数に対応する複数の領域に分割する分割パターンであってそれぞれの領域に一人分ずつ指のタッチによる入力操作が分散される分割パターンを優先的に選択し、その選択した分割パターンに従って前記表示面を分割する
    ことを特徴とする請求項11乃至13のいずれか1つに記載の操作表示装置。
  15. 前記制御部は、前記タッチパネルによって検出された複数の入力操作が同一人による操作であると判定する場合、前記表示部の表示内容を拡大又は縮小する
    ことを特徴とする請求項1乃至10のいずれか1つに記載の操作表示装置。
  16. 前記制御部は、前記タッチパネルによって検出された複数の入力操作が同一人による操作でないと判定する場合、前記第1入力操作及び前記第2入力操作をそれぞれ第1操作者及び第2操作者によるフリック操作と判断する
    ことを特徴とする請求項乃至10のいずれか1つに記載の操作表示装置。
  17. 前記制御部は、前記複数の入力操作が同一人による操作であると判定した場合は、前記複数の入力操作を一組の操作と認識し、その一組の入力操作の内容に応じて前記表示内容を変更し、前記複数の入力操作が複数の操作者による操作であると判定した場合は、前記複数の操作者の人数に対応する複数の領域に前記表示面を分割し、それぞれの領域に個別の画面を表示して、それぞれの画面で独立した操作を受け付ける
    ことを特徴とする請求項9に記載の操作表示装置。
  18. 前記制御部は、前記領域に表示する画面内に操作者情報の入力欄がある場合は、前記人体通信部によって取得した操作者識別情報に基づいて前記入力欄に操作者情報を自動設定する
    ことを特徴とする請求項17に記載の操作表示装置。
  19. 前記制御部は、分割直前に前記表示部に表示されていた画面と同じ内容の画面を分割後の各領域に表示する
    ことを特徴とする請求項11乃至14、17、18のいずれか1つに記載の操作表示装置。
  20. 前記制御部は、セキュリティ情報の入力に使用される入力釦のある画面を分割後の各領域に表示する場合は、各領域に表示する画面のレイアウトを互いに相違させる
    ことを特徴とする請求項19に記載の操作表示装置。
  21. 前記制御部は、セキュリティ情報の入力に使用される複数の入力釦のある画面を分割後の各領域に表示する場合は、各領域に表示する画面における前記複数の入力釦の配置を互いに相違させる
    ことを特徴とする請求項19または20に記載の操作表示装置。
  22. 表示部と、前記表示部の表示面への指のタッチによる入力操作を同時に複数検出可能なタッチパネルと、前記入力操作において前記表示面に接触している部分の指の形状を検出する指形状検出部と、前記表示面に指が接触している操作者の体を通じて端末装置と通信して前記操作者を一意に特定する操作者識別情報を前記端末装置から取得する人体通信部とを備えた情報処理装置を、
    前記タッチパネルによって前記表示面上への複数の指のタッチによる入力操作が同時検出された場合に、
    前記指形状検出部によって検出された各入力操作に係る指の形状から前記複数の指のタッチによる入力操作が同一人による操作であるか否かを判定し、その同一人による操作であるか否かの判定結果に応じて前記表示部の表示内容を変更するように動作させ、
    前記複数の入力操作のそれぞれについて前記人体通信部が前記操作者識別情報を取得した場合は、前記操作者識別情報に基づいて、前記複数の指による入力操作が同一人によるものである否かを判定するように動作させる
    ことを特徴とするプログラム。
  23. 前記情報処理装置を、
    前記人体通信部が、前記複数の入力操作の一部についてのみ前記操作者識別情報を取得する場合は、前記複数の入力操作が同一人による操作でないと判定するように動作させる
    ことを特徴とする請求項22に記載のプログラム。
  24. 前記情報処理装置を、
    前記人体通信部が、前記複数の入力操作の全てについて前記操作者識別情報を取得できない場合は、前記指の形状に基づいて、前記複数の入力操作が同一人による操作であるか否かを判定するように動作させる
    ことを特徴とする請求項22または23に記載のプログラム。
  25. 表示部と、前記表示部の表示面への指のタッチによる入力操作を同時に複数検出可能なタッチパネルと、前記入力操作において前記表示面に接触している部分の指の形状を検出する指形状検出部と、前記表示面に指が接触している操作者の体を通じて端末装置と通信して前記操作者を一意に特定する操作者識別情報を前記端末装置から取得する人体通信部とを備えた情報処理装置を、
    前記タッチパネルによって前記表示面上への複数の指のタッチによる入力操作が同時検出された場合に、前記指形状検出部によって検出された各入力操作に係る指の形状から前記複数の指のタッチによる入力操作が同一人による操作であるか否かを判定し、その同一人による操作であるか否かの判定結果に応じて前記表示部の表示内容を変更するように動作させ、
    前記人体通信部が、前記複数の入力操作の一部についてのみ前記操作者識別情報を取得する場合は、前記複数の入力操作が同一人による操作でないと判定するように動作させる
    ことを特徴とするプログラム。
  26. 前記情報処理装置を、
    前記人体通信部が、前記複数の入力操作の全てについて前記操作者識別情報を取得できない場合は、前記指の形状に基づいて、前記複数の入力操作が同一人による操作であるか否かを判定するように動作させる
    ことを特徴とする請求項25に記載のプログラム。
  27. 表示部と、前記表示部の表示面への指のタッチによる入力操作を同時に複数検出可能なタッチパネルと、前記入力操作において前記表示面に接触している部分の指の形状を検出する指形状検出部と、前記表示面に指が接触している操作者の体を通じて端末装置と通信して前記操作者を一意に特定する操作者識別情報を前記端末装置から取得する人体通信部とを備えた情報処理装置を、
    前記タッチパネルによって前記表示面上への複数の指のタッチによる入力操作が同時検出された場合に、前記指形状検出部によって検出された各入力操作に係る指の形状から前記複数の指のタッチによる入力操作が同一人による操作であるか否かを判定し、その同一人による操作であるか否かの判定結果に応じて前記表示部の表示内容を変更するように動作させ、
    前記人体通信部が、前記複数の入力操作の全てについて前記操作者識別情報を取得できない場合は、前記指の形状に基づいて、前記複数の入力操作が同一人による操作であるか否かを判定するように動作させる
    ことを特徴とするプログラム。
  28. 前記情報処理装置を、前記タッチパネルによって、前記表示面上に対する、所定の箇所への指によるタッチ後タッチされた箇所を第1方向に移動させる第1入力操作と、所定の箇所への指によるタッチ後タッチされた箇所を前記第1方向とは逆の第2方向に移動させる第2入力操作とが同時に検出された場合に、前記第1入力操作と前記第2入力操作とが同一人による操作であるか否かを判定するように動作させる
    ことを特徴とする請求項22乃至27のいずれか1つに記載のプログラム。
  29. 表示部と、前記表示部の表示面への指のタッチによる入力操作を同時に複数検出可能なタッチパネルと、前記入力操作において前記表示面に接触している部分の指の形状を検出する指形状検出部とを備えた情報処理装置を、
    前記タッチパネルによって前記表示面上への複数の指のタッチによる入力操作が同時検出された場合に、前記指形状検出部によって検出された各入力操作に係る指の形状から前記複数の指のタッチによる入力操作が同一人による操作であるか否かを判定し、その同一人による操作であるか否かの判定結果に応じて前記表示部の表示内容を変更するように動作させ、
    前記タッチパネルによって、前記表示面上に対する、所定の箇所への指によるタッチ後タッチされた箇所を第1方向に移動させる第1入力操作と、所定の箇所への指によるタッチ後タッチされた箇所を前記第1方向とは逆の第2方向に移動させる第2入力操作とが同時に検出された場合に、前記第1入力操作と前記第2入力操作とが同一人による操作であるか否かを判定するように動作させる
    ことを特徴とするプログラム。
  30. 表示部と、前記表示部の表示面への指のタッチ操作を同時に複数検出可能なタッチパネルと、前記表示面に指が接触している操作者の体を通じて端末装置と通信して前記操作者を一意に特定する操作者識別情報を前記端末装置から取得する人体通信部とを備えた情報処理装置を、
    前記タッチパネルによって、前記表示面上に対する、所定の箇所への指によるタッチ後タッチされた箇所を移動させる入力操作が同時に複数検出された場合に、各入力操作を行っている指を通じて前記人体通信部が取得した複数の操作者識別情報から、前記複数の入力操作が同一人による操作であるか否かを判定し、その同一人による操作であるか否かの判定結果に応じて前記表示部の表示内容を変更するように動作させ、
    前記タッチパネルによって、前記表示面上に対する、所定の箇所への指によるタッチ後タッチされた箇所を第1方向に移動させる第1入力操作と、所定の箇所への指によるタッチ後タッチされた箇所を前記第1方向とは逆の第2方向に移動させる第2入力操作とが同時に検出された場合に、前記第1入力操作と前記第2入力操作とが同一人による操作であるか否かを判定するように動作させる
    ことを特徴とするプログラム。
  31. 前記情報処理装置を、前記タッチパネルによって検出された複数の入力操作が同一人による操作であると判定する場合、前記第1入力操作及び前記第2入力操作を、一組のピンチイン操作、ピンチアウト操作又はローテーション操作であると判断するように動作させる
    ことを特徴とする請求項28乃至30のいずれか1つに記載のプログラム。
  32. 前記情報処理装置を、前記タッチパネルによって検出された複数の入力操作が同一人による操作であると判定する場合、前記表示部の表示内容を拡大又は縮小するように動作させる
    ことを特徴とする請求項22乃至31のいずれか1つに記載のプログラム。
  33. 前記情報処理装置を、前記タッチパネルによって検出された複数の入力操作が同一人による操作でないと判定する場合、前記第1入力操作及び前記第2入力操作をそれぞれ第1操作者及び第2操作者によるフリック操作と判断するように動作させる
    ことを特徴とする請求項28乃至31のいずれか1つに記載のプログラム。
  34. 前記情報処理装置を、
    前記複数の入力操作が同一人による操作であると判定した場合は、前記複数の入力操作を一組の操作と認識し、その一組の入力操作の内容に応じて前記表示内容を変更し、前記複数の入力操作が複数の操作者による操作であると判定した場合は、前記複数の操作者の人数に対応する複数の領域に前記表示面を分割し、それぞれの領域に個別の画面を表示して、それぞれの画面で独立した操作を受け付けるように機能させる
    ことを特徴とする請求項22乃至31のいずれか1つに記載のプログラム。
JP2012153711A 2012-07-09 2012-07-09 操作表示装置およびプログラム Active JP5929572B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012153711A JP5929572B2 (ja) 2012-07-09 2012-07-09 操作表示装置およびプログラム
US13/934,567 US9791947B2 (en) 2012-07-09 2013-07-03 Operation display device, operation display method and tangible computer-readable recording medium
EP13175819.5A EP2685368B1 (en) 2012-07-09 2013-07-09 Operation display device, operation display method and tangible computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012153711A JP5929572B2 (ja) 2012-07-09 2012-07-09 操作表示装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2014016795A JP2014016795A (ja) 2014-01-30
JP5929572B2 true JP5929572B2 (ja) 2016-06-08

Family

ID=48792994

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012153711A Active JP5929572B2 (ja) 2012-07-09 2012-07-09 操作表示装置およびプログラム

Country Status (3)

Country Link
US (1) US9791947B2 (ja)
EP (1) EP2685368B1 (ja)
JP (1) JP5929572B2 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5880916B2 (ja) 2011-06-03 2016-03-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP5787099B2 (ja) * 2012-11-06 2015-09-30 コニカミノルタ株式会社 案内情報表示装置
JP2015097378A (ja) * 2013-10-09 2015-05-21 株式会社リコー 画像形成システム及び画像形成方法
US9886185B2 (en) * 2014-06-09 2018-02-06 Cornelius, Inc. Systems and methods of multi-touch concurrent dispensing
JP6137068B2 (ja) * 2014-06-24 2017-05-31 コニカミノルタ株式会社 情報処理装置、同装置におけるロック中画面の表示制御方法及び表示制御プログラム
JP6452369B2 (ja) 2014-09-29 2019-01-16 キヤノン株式会社 情報処理装置とその制御方法、プログラム、記憶媒体
CN105573536B (zh) * 2014-10-16 2018-09-07 华为技术有限公司 触控交互的处理方法、装置和***
JP5943359B2 (ja) * 2014-11-05 2016-07-05 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation パスワードを検証するシステム、方法およびプログラム
US9671896B2 (en) * 2014-11-18 2017-06-06 Toshiba Tec Kabushiki Kaisha Interface system, object for operation input, operation input supporting method
CN104407793B (zh) * 2014-11-26 2018-03-13 深圳市华星光电技术有限公司 触摸信号处理方法及设备
US10452206B2 (en) 2014-12-08 2019-10-22 Maxell, Ltd. Projection video display device and video display method
JP6350261B2 (ja) * 2014-12-17 2018-07-04 コニカミノルタ株式会社 オブジェクト操作システム及びオブジェクト操作制御プログラム並びにオブジェクト操作制御方法
JP6256545B2 (ja) * 2015-08-31 2018-01-10 キヤノンマーケティングジャパン株式会社 情報処理装置、その制御方法、及びプログラム、並びに、情報処理システム、その制御方法、及びプログラム
US10073538B2 (en) 2016-04-11 2018-09-11 International Business Machines Corporation Assessment of a password based on characteristics of a physical arrangement of keys of a keyboard
CN107979748A (zh) * 2016-10-21 2018-05-01 中强光电股份有限公司 投影机、投影***以及影像投影方法
US11009907B2 (en) 2019-01-18 2021-05-18 Dell Products L.P. Portable information handling system user interface selection based on keyboard configuration
US20200233537A1 (en) * 2019-01-18 2020-07-23 Dell Products L.P. Portable information handling system to all-in-one transformation
US11347367B2 (en) * 2019-01-18 2022-05-31 Dell Products L.P. Information handling system see do user interface management
US10976837B2 (en) * 2019-08-20 2021-04-13 Sigmasense, Llc. User input passive device for use with an interactive display device
JP7277392B2 (ja) * 2020-01-21 2023-05-18 株式会社東海理化電機製作所 遠隔制御装置、処理装置、およびコンピュータプログラム
CN114103845B (zh) * 2022-01-25 2022-04-15 星河智联汽车科技有限公司 一种车辆中控屏操作者身份识别方法、装置及车辆

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6549194B1 (en) 1999-10-01 2003-04-15 Hewlett-Packard Development Company, L.P. Method for secure pin entry on touch screen display
US6791530B2 (en) * 2000-08-29 2004-09-14 Mitsubishi Electric Research Laboratories, Inc. Circular graphical user interfaces
JP3858599B2 (ja) 2001-01-26 2006-12-13 松下電工株式会社 情報システム及びそのシステム運用管理方法
US8125459B2 (en) * 2007-10-01 2012-02-28 Igt Multi-user input systems and processing techniques for serving multiple users
US20050183035A1 (en) 2003-11-20 2005-08-18 Ringel Meredith J. Conflict resolution for graphic multi-user interface
JP4095040B2 (ja) * 2004-02-12 2008-06-04 株式会社日立製作所 テーブル型情報端末の表示方法
FR2867577B1 (fr) 2004-03-10 2006-06-09 Giga Byte Tech Co Ltd Procede permettant de remplir automatiquement des donnees utilisateur en utilisant une identification d'empreintes digitales
US8930834B2 (en) * 2006-03-20 2015-01-06 Microsoft Corporation Variable orientation user interface
US7620901B2 (en) * 2006-03-21 2009-11-17 Microsoft Corporation Simultaneous input across multiple applications
US20080192059A1 (en) * 2007-02-09 2008-08-14 Microsoft Corporation Multi-user display
US8125458B2 (en) * 2007-09-28 2012-02-28 Microsoft Corporation Detecting finger orientation on a touch-sensitive device
US8773361B2 (en) * 2007-11-20 2014-07-08 Samsung Electronics Co., Ltd. Device identification method and apparatus, device information provision method and apparatus, and computer-readable recording mediums having recorded thereon programs for executing the device identification method and the device information provision method
JP5448370B2 (ja) * 2008-05-20 2014-03-19 キヤノン株式会社 情報処理装置及びその制御方法、プログラム、記憶媒体
JP5248225B2 (ja) * 2008-07-11 2013-07-31 富士フイルム株式会社 コンテンツ表示装置、コンテンツ表示方法およびプログラム
JP2010118016A (ja) * 2008-11-14 2010-05-27 Sharp Corp 入力装置、入力方法、入力プログラム、及びコンピュータ読み取り可能な記録媒体
JP4924848B2 (ja) 2009-03-19 2012-04-25 コニカミノルタビジネステクノロジーズ株式会社 ジョブ実行システムおよびジョブ実行装置、端末装置
KR101651859B1 (ko) * 2009-06-05 2016-09-12 삼성전자주식회사 사용자별 ui 제공방법 및 이를 적용한 디바이스
WO2011036710A1 (ja) * 2009-09-24 2011-03-31 株式会社 東芝 タッチ式入力装置
JP5618554B2 (ja) 2010-01-27 2014-11-05 キヤノン株式会社 情報入力装置、情報入力方法及びプログラム
US20120060127A1 (en) 2010-09-06 2012-03-08 Multitouch Oy Automatic orientation of items on a touch screen display utilizing hand direction
US20120151413A1 (en) * 2010-12-08 2012-06-14 Nokia Corporation Method and apparatus for providing a mechanism for presentation of relevant content
JP5743198B2 (ja) * 2011-04-28 2015-07-01 株式会社ワコム マルチタッチ・マルチユーザ検出装置

Also Published As

Publication number Publication date
US20140009417A1 (en) 2014-01-09
US9791947B2 (en) 2017-10-17
JP2014016795A (ja) 2014-01-30
EP2685368A3 (en) 2017-07-05
EP2685368A2 (en) 2014-01-15
EP2685368B1 (en) 2020-12-23

Similar Documents

Publication Publication Date Title
JP5929572B2 (ja) 操作表示装置およびプログラム
JP5862888B2 (ja) 操作表示装置およびプログラム
US10162503B2 (en) Image processing apparatus and method of displaying object in image processing apparatus
JP4766078B2 (ja) 画像形成装置、画像形成装置によって実行される認証方法および認証プログラム
JP5482814B2 (ja) 表示装置、表示装置の制御方法、および表示装置の制御プログラム
JP5594910B2 (ja) 表示入力装置及びこれを備えた画像形成装置
JP2013196267A (ja) 画像形成装置、画像形成装置の制御方法、及び画像形成装置の制御プログラム
JP5118409B2 (ja) 操作装置
EP2779612A2 (en) Image forming apparatus and method, and tangible computer-readable recording medium
US9924050B2 (en) Operation display apparatus, portable terminal, programs therefor, and operation display system
CN103376684A (zh) 电子设备和图像形成装置
JP2013186827A (ja) 操作装置
JP2008009835A (ja) 操作表示装置
JP2015028733A (ja) 操作装置および画像処理装置
US20180220018A1 (en) Image processing apparatus, method for displaying conditions, and non-transitory recording medium storing computer readable program
JP5831715B2 (ja) 操作装置および画像処理装置
JP2018136665A (ja) メニュー装置、入力装置、メニュー提供方法及びメニュープログラム
JP2015230490A (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP6213581B2 (ja) 情報処理装置及び情報処理装置の制御プログラム
JP6369243B2 (ja) 操作表示装置、プログラム、操作表示システム
JP5892332B2 (ja) 表示制御装置表示システム表示制御プログラム
JP7087821B2 (ja) 制御システム、複合機、および制御プログラム
JP6841180B2 (ja) 点字デバイス連携システム、点字デバイス、および点字デバイス連携システムの制御方法
JP6551363B2 (ja) 情報処理装置
US9524055B2 (en) Display device detecting touch on display unit

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141022

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141217

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150824

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160418

R150 Certificate of patent or registration of utility model

Ref document number: 5929572

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150