JP6055459B2 - タッチパネル装置、および画像処理装置 - Google Patents

タッチパネル装置、および画像処理装置 Download PDF

Info

Publication number
JP6055459B2
JP6055459B2 JP2014255402A JP2014255402A JP6055459B2 JP 6055459 B2 JP6055459 B2 JP 6055459B2 JP 2014255402 A JP2014255402 A JP 2014255402A JP 2014255402 A JP2014255402 A JP 2014255402A JP 6055459 B2 JP6055459 B2 JP 6055459B2
Authority
JP
Japan
Prior art keywords
touch panel
user
finger
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014255402A
Other languages
English (en)
Other versions
JP2016115272A (ja
Inventor
紀枝 藤本
紀枝 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2014255402A priority Critical patent/JP6055459B2/ja
Priority to CN201510903415.4A priority patent/CN105721733B/zh
Priority to US14/972,122 priority patent/US9648181B2/en
Publication of JP2016115272A publication Critical patent/JP2016115272A/ja
Application granted granted Critical
Publication of JP6055459B2 publication Critical patent/JP6055459B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00352Input means
    • H04N1/00384Key input means, e.g. buttons or keypads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00352Input means
    • H04N1/00392Other manual input means, e.g. digitisers or writing tablets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • G06V40/1359Extracting features related to ridge properties; Determining the fingerprint type, e.g. whorl or loop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • G06V40/1376Matching features related to ridge properties or fingerprint texture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00281Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal
    • H04N1/00307Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal with a mobile telephone apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00352Input means
    • H04N1/00384Key input means, e.g. buttons or keypads
    • H04N1/00389Programmable function keys, e.g. for one-touch operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/00411Display of information to the user, e.g. menus the display also being used for user input, e.g. touch screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/44Secrecy systems
    • H04N1/4406Restricting access, e.g. according to user identity
    • H04N1/442Restricting access, e.g. according to user identity using a biometric data reading device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0338Fingerprint track pad, i.e. fingerprint sensor used as pointing device tracking the fingertip image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0094Multifunctional device, i.e. a device capable of all of reading, reproducing, copying, facsimile transception, file transception

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Input (AREA)
  • Position Input By Displaying (AREA)
  • Collating Specific Patterns (AREA)

Description

この発明は、タッチパネル装置、および画像処理装置に関するものである。
デジタル複合機等に代表される画像処理装置においては、画像読み取り部で原稿の画像を読み取った後、画像形成部に備えられる感光体に対して読み取った画像を基に光を照射し、感光体上に静電潜像を形成する。その後、形成した静電潜像の上に帯電したトナー等の現像剤を供給して可視画像とした後、用紙に転写して定着させて印刷し、装置外に排出する。
画像処理装置においては、コピー機能、スキャン機能等、各種の機能を選択して処理を行うことができる。処理の設定や印刷の命令といった操作内容の入力については、テンキーやスタートキーといったハードキーを用いて入力されるものもあれば、タッチパネルにより入力されるものもある。
ここで、タッチパネルによる操作に関する技術が、特開2009−151691号公報(特許文献1)、特開2013−182405号公報(特許文献2)、特開平4−191920号公報(特許文献3)、および特開平5−241733号公報(特許文献4)に開示されている。
特許文献1によると、情報処理装置において、前面にタッチパネルが設けられた表示手段と、タッチパネルに対してタッチ動作されたタッチ地点と、アンタッチ動作されたアンタッチ地点とに基づいてタッチ動作の移動量を算出する移動量算出手段と、移動量に応じてタッチ動作が押下操作であるかジェスチャー操作であるかを判別する操作判別手段と、押下操作に応じたコマンドであるのか、或いはジェスチャー操作に応じたコマンドであるのかを認識するコマンド認識手段とを備えることを特徴としている。
また、特許文献2によると、操作表示装置について、タッチされた位置を検出するタッチパネル部と、表示部と、タッチパネル部にて第1操作を受けたとき、表示部に第1表示処理による表示を行い、タッチパネル部にて第1操作の要素を含む第2操作を受けたとき、表示部に第1表示処理による表示と第2表示処理による表示の双方を行う表示制御部とを有することを特徴としている。
特許文献3には、操作者が操作を行うべくタッチパネルを操作した時、このタッチ位置をタッチ位置読み取り部により読み取り、読み取ったタッチ位置の座標値を表示画面に表示されている表示位置の座標値と比較して、その差を差計算手段により算出し、さらにこの算出した差データからタッチパネルの新有効反応位置を算出して、タッチパネルの有効反応位置を新有効反応位置に移動して補正することを特徴とするタッチパネル装置におけるタッチ位置補正方法が開示されている。
また、特許文献4によると、タッチパネルの入力誤差補正方式について、タッチ面に平行する2つの平面によって座標入力を行い、得られた2座標により補正された入力座標を得ることを特徴としている。
特開2009−151691号公報 特開2013−182405号公報 特開平4−191920号公報 特開平5−241733号公報
特許文献1〜特許文献2によると、ジェスチャー、すなわち、入力される操作内容の判別について、移動距離を閾値として判別することとしている。しかし、このような操作内容の判別の方法によると、ユーザーの指の大小等に起因した個人差に対応することができない。そうすると、ユーザーによっては、要求する操作内容と異なった操作内容が入力される場合もある。すなわち、ジェスチャーの誤判定が生じてしまうおそれがある。
また、特許文献3〜特許文献4によると、ユーザーが実際にタッチパネルをタッチした位置、すなわち、タッチパネルを押下した位置に対して補正を行って、ユーザーの要求する操作内容の入力に対応する正確な押下位置となるようにしている。しかし、複雑な機構や処理を伴うものであり、装置構成が煩雑になるおそれがある。
この発明の目的は、簡易な構成でユーザーの要望する操作内容の入力を精度よく行うことができるタッチパネル装置を提供することである。
この発明の他の目的は、簡易な構成でユーザーの要望する操作内容の入力を精度よく行うことができる画像処理装置を提供することである。
この発明の一つの局面においては、タッチパネル装置は、タッチパネル部と、指紋画像読み取り部と、大きさ導出部と、制御部とを備える。タッチパネル部は、ユーザーの操作内容に関する情報を表示する表示部を含む。タッチパネル部は、ユーザーの指との接触状況を検出して、操作内容を入力させる。指紋画像読み取り部は、タッチパネル部がユーザーの指により押下された際に、タッチパネル部を押下したユーザーの指紋を画像として読み取る。大きさ導出部は、指紋画像読み取り部により読み取られた指紋の画像のうち、指紋を構成する隆線と隆線の間隔および隆線自体の太さから、タッチパネル部を押下したユーザーの指の大きさを導出する。制御部は、大きさ導出部により導出されたユーザーの指の大きさに基づいて、操作内容を制御する。
この発明の他の局面においては、画像処理装置は、上記したタッチパネル装置と、タッチパネル装置により入力された操作内容に従って、画像を処理する画像処理部とを備える。
この発明のさらに他の局面においては、タッチパネル装置は、タッチパネル部と、指紋画像読み取り部と、位置導出部と、制御部とを備える。タッチパネル部は、ユーザーの操作内容に関する情報を表示する表示部を含む。タッチパネル部は、前記ユーザーの指との接触状況を検出して、前記操作内容を入力させる。指紋画像読み取り部は、前記タッチパネル部が前記ユーザーの指により押下された際に、前記タッチパネル部を押下した前記ユーザーの指紋を画像として読み取る。位置導出部は、前記指紋画像読み取り部により読み取られた前記指紋の画像から、前記タッチパネル部を押下した前記ユーザーの指の位置を導出する。制御部は、前記位置導出部により導出された前記ユーザーの指の位置に基づいて、前記操作内容を制御する。
この発明のさらに他の局面においては、画像処理装置は、上記したタッチパネル装置と、タッチパネル装置により入力された操作内容に従って、画像を処理する画像処理部とを備える。
このようなタッチパネル装置によると、ユーザーが操作内容を入力する際に、タッチパネル部と接触したユーザーの指から指紋の画像を指紋画像読み取り部で読み取る。そして、読み取られた指紋の画像から、タッチパネル部を押下したユーザーの指の大きさを導出する。その後、導出されたユーザーの指の大きさに基づいて、操作内容を制御する。そうすると、ユーザーの個人差やタッチパネル部との接触状況に関わらず、導出されたユーザーの指の大きさに基づいて、操作内容を制御することができる。この場合、複雑な機構や処理を施す必要はない。したがって、簡易な構成でユーザーの要望する操作内容の入力を精度よく行うことができる。
また、このような画像処理装置によると、簡易な構成でユーザーの要望する操作内容の入力を精度よく行うことができる。
また、このようなタッチパネル装置によると、ユーザーが操作内容を入力する際に、タッチパネル部と接触したユーザーの指から指紋の画像を指紋画像読み取り部で読み取る。そして、読み取られた指紋の画像から、タッチパネル部を押下したユーザーの指の大きさを導出する。その後、導出されたユーザーの指の大きさに基づいて、操作内容を制御する。そうすると、ユーザーの個人差やタッチパネル部との接触状況に関わらず、導出されたユーザーの指の位置に基づいて、操作内容を制御することができる。この場合、複雑な機構や処理を施す必要はない。したがって、簡易な構成でユーザーの要望する操作内容の入力を精度よく行うことができる。
また、このような画像処理装置によると、簡易な構成でユーザーの要望する操作内容の入力を精度よく行うことができる。
この発明の一実施形態に係る画像処理装置をデジタル複合機に適用した場合のデジタル複合機の外観を示す概略斜視図である。 図1に示すデジタル複合機の構成を示すブロック図である。 デジタル複合機に備えられる操作部の概略的な構成を示す外観図である。 代表的な3種類の指紋の画像を示す図である。 この発明の一実施形態に係るデジタル複合機を用いてユーザーがタッチパネル部から操作内容を入力する場合の処理の流れを示すフローチャートである。 読み取られた指紋の画像を示す図であり、比較的指が大きい場合を示す。 読み取られた指紋の画像を示す図であり、比較的指が小さい場合を示す。 操作内容としてのタップとスワイプとを判別する状態を示す図である。 読み取られた指紋の画像を示す図である。 タッチパネル部に対して指先で押下した場合の状態を示す図である。 タッチパネル部に対して指の腹の部分で押下した場合の状態を示す図である。
以下、この発明の実施の形態を説明する。図1は、この発明の一実施形態に係る画像処理装置をデジタル複合機に適用した場合のデジタル複合機の外観を示す概略図である。図2は、この発明の一実施形態に係る画像処理装置をデジタル複合機に適用した場合のデジタル複合機の構成を示すブロック図である。
図1および図2を参照して、デジタル複合機11は、デジタル複合機11全体の制御を行う制御部12と、デジタル複合機11側から発信する情報やユーザーの入力内容を表示する表示部としての表示画面28を含み、押下された位置を検出するタッチパネル部21を備え、印刷部数や階調性等の画像形成の条件や電源のオンまたはオフを入力させる操作部13と、セットされた原稿を自動的に読み取り位置へ搬送するADF(Auto Document Feeder)22を含み、原稿や印刷物の画像を読み取る画像読み取り部14と、トナーを用いて現像を行う現像装置23を含み、読み取った画像やネットワーク25を介して送信された画像データを基に画像を形成する画像形成部15と、送信された画像データや入力された画像形成条件等の格納を行う格納部としてのハードディスク16と、公衆回線24に接続されており、ファクシミリ送信やファクシミリ受信を行うファクシミリ通信部17と、ネットワーク25と接続するためのネットワークインターフェース部18とを備える。なお、デジタル複合機11は、画像データの書き出しや読み出しを行うDRAM(Dynamic Random Access Memory)等を備えるが、これらについては、図示および説明を省略する。また、図2中の矢印は、制御信号や制御、画像に関するデータの流れを示している。
デジタル複合機11は、画像読み取り部14により読み取られた原稿を用いて画像形成部15において画像を形成することにより、複写機として作動する。また、デジタル複合機11は、ネットワークインターフェース部18を通じて、ネットワーク25に接続されたコンピューター26a、26b、26cから送信された画像データを用いて、画像形成部15において画像を形成して用紙に印刷することにより、プリンターとして作動する。すなわち、画像形成部15は、要求された画像を印刷する印刷部として作動する。また、デジタル複合機11は、ファクシミリ通信部17を通じて、公衆回線24から送信された画像データを用いて、DRAMを介して画像形成部15において画像を形成することにより、また、画像読み取り部14により読み取られた原稿の画像データを、ファクシミリ通信部17を通じて公衆回線24に画像データを送信することにより、ファクシミリ装置として作動する。すなわち、デジタル複合機11は、画像処理に関し、複写機能、すなわち、コピー機能、プリンター機能、ファクシミリ機能等、複数の機能を有する。さらに、各機能に対しても、詳細に設定可能な機能を有する。
デジタル複合機11を含む画像処理システム27は、上記した構成のデジタル複合機11と、ネットワーク25を介してデジタル複合機11に接続される複数のコンピューター26a、26b、26cとを備える。この実施形態においては、複数のコンピューター26a〜26cについては、3台示している。各コンピューター26a〜26cはそれぞれ、デジタル複合機11に対して、ネットワーク25を介して印刷要求を行って印刷をすることができる。デジタル複合機11とコンピューター26a〜26cとは、LAN(Local Area Network)ケーブル等を用いて有線で接続されていてもよいし、無線で接続されていてもよく、ネットワーク25内には、他のデジタル複合機やサーバーが接続されている構成でもよい。
次に、上記した操作部13の構成について、さらに詳細に説明する。図3は、操作部13の概略的な構成を示す外観図である。図3を参照して、操作部13は、印刷部数等を入力させるための0〜9までの数字、および「*」や「#」の記号を入力させるテンキー31と、印刷の開始やファクシミリ送信の開始を指示させるスタートキー32と、デジタル複合機11の電源のオンまたはオフを入力させる電源キー33と、デジタル複合機11の有するプリンター機能やコピー機能等の選択を指示させるメニューキー34と、種々の画像形成の条件や使用ユーザーの登録を指示させる登録キー35と、テンキー31等を用いてユーザーにより入力された指示の内容をキャンセルさせるリセットキー36と、上記したタッチパネル部21とを含む。なお、テンキー31、スタートキー32、電源キー33、メニューキー34、登録キー35、およびリセットキー36は、いわゆるハードキーに相当する。
タッチパネル部21は、液晶のタッチパネル機能を有している。すなわち、いわゆるタップや接触も含めたユーザーの指での押下、さらには、スワイプやピッチ等により、タッチパネル部21から画像形成条件等の設定や印刷の命令といった操作内容を入力させることができる。この場合、例えば、ユーザーは、表示画面28に表示された操作内容に該当するタッチパネル部21の領域を押下して操作内容を入力させることができる。
操作内容としてのタップとスワイプとは、指の大きさがある程度の範囲内に含まれるユーザーにおいて、タッチパネル部21にユーザーの指が接触し始めてから指が離れるまでの移動距離で判別する。なお、タップといっても、完全に同じ位置で接触し始めて離される訳ではなく、基本的にユーザーの指のブレ等もあって、指の接触する位置の微小の移動があるものである。また、タッチパネル部21に指が接触する位置については、点ではなくある程度の領域で接触するものである。なお、タッチパネル部21を強く押下するか弱く押下するか、あるいは軽く触れる程度であるかによって、接触する領域の面積や形状は変化するものである。上記した接触する位置の移動、接触する領域等については、もちろんユーザーの個人差がある。
操作部13は、ユーザーの指に押下された領域において、ユーザーの指紋の画像を読み取ることができる。操作部13は、タッチパネル部21における接触された領域において、指紋を画像として読み取る。ここで、操作部13に備えられるタッチパネル部21は、接触させたユーザーの指からユーザーの指紋を画像として読み取る指紋画像読み取り部19を含む。
ここで、代表的な指紋の画像について、簡単に説明する。図4は、代表的な3種類の指紋の画像を示す図である。図4を参照して、3種類の指紋の画像41としては、円形または渦巻き状の陵線の紋様を形成する渦状紋の指紋の画像42a、左右いずれかの方向に蹄のパターンの陵線の紋様を形成する蹄状紋の指紋の画像42b、および一方側から他方側に向かって延び、弓なりになった陵線の紋様を形成する弓状紋の指紋の画像42cの3つがある。指紋については、これら3つの指紋のパターンに対応する指のユーザーがほとんどである。なお、これらの指紋の画像42a〜42cについては、情報としてハードディスク16に格納されている。
次に、この発明の一実施形態に係るデジタル複合機11を用いて、ユーザーがタッチパネル部21から操作内容を入力する場合について説明する。図5は、この発明の一実施形態に係るデジタル複合機11を用いてユーザーがタッチパネル部21から操作内容を入力する場合の処理の流れを示すフローチャートである。
図5を参照して、まず、デジタル複合機11は、ユーザーに操作内容を入力させるために、タッチパネル部21において、操作内容の情報を表示画面28で表示する(図5において、ステップS11、以下、「ステップ」を省略する)。
ユーザーは、要求する操作内容に応じて、タッチパネル部21を押下して、タップやスワイプ等のジェスチャー、すなわち、操作内容の入力を行う。そうすると、制御部12は、タッチパネル部21への操作内容の入力を検知する(S12)。
ここで、指紋画像読み取り部19は、タッチパネル部21がユーザーの指により押下された際、すなわち、ユーザーの指とタッチパネル部21とが接触した際に、ユーザーの指紋の画像を読み取る(S13)。そして、読み取られた指紋の画像から、ユーザーの指の大きさを導出する(S14)。ここで、制御部12等は、指紋画像読み取り部19により読み取られた指紋の画像から、タッチパネル部21を押下したユーザーの指の大きさを導出する大きさ導出部として作動する。
図6および図7は、読み取られた指紋の画像を示す図である。図6は、比較的指が大きい場合を示す。図7は、比較的指が小さい場合を示す。
まず、図6を参照して、ユーザーの指紋の画像として、図6に示す画像46aを読み取ったとする。そうすると、制御部12は、ハードディスク16に格納された情報である画像42a〜42cの中から、どの種類の指紋の画像に相当するか、さらに、相当する種類の指紋の画像のうち、いずれの領域の画像に相当するかを判断する。
この場合、読み取られた指紋の画像46aが、渦状紋の指紋の画像47aに相当すると判断する。さらに、読み取られた指紋の画像46aが、渦状紋の指紋の画像47aのうち、一点鎖線で示す領域48aの画像に相当すると判断する。すなわち、読み取られた指紋の画像46aから、渦状紋の指紋を有するユーザーが、操作内容を入力する際に、指のうちの一点鎖線で示す領域48aにおいて押下したと判断する。なお、この場合、読み取られた指紋の画像46aのパターンから、具体的には、指のうちの腹の下の方の部分で押下したと判断する。
さらに、読み取られた指紋のパターン、具体的には、例えば、指紋を構成する隆線と隆線との間隔や、隆線自体の太さ等から、ユーザーの指の大きさを導出する。この場合、指紋を構成する隆線と隆線との間隔が比較的広く、隆線自体の太さも比較的太いことから、比較的ユーザーの指が大きいことを導出する。
一方、図7を参照して、ユーザーの指紋の画像として、図7に示す画像46bを読み取ったとする。この場合、読み取られた画像46bが占める領域の面積は、上記した画像46aが占める領域の面積とほぼ同じである。制御部12は、ハードディスク16に格納された画像42a〜42cの中から、どの種類の指紋の画像に相当するか、さらに、相当する種類の指紋の画像のうち、いずれの領域の画像に相当するかを判断する。
この場合も、読み取られた指紋の画像46bが、渦状紋の指紋の画像47aに相当すると判断する。なお、渦状紋の指紋の画像47bは、渦状紋の指紋の画像47aを単に縮小したものである。すなわち、渦状紋の指紋の画像47aと渦状紋の指紋の画像47bとは、相似形であり、指紋を構成する隆線と隆線との間隔や、隆線自体の太さ等は異なるものの、指紋のパターンとしては同じである。さらに、読み取られた指紋の画像46bが、渦状紋の指紋の画像47bのうち、一点鎖線で示す領域48bの画像に相当すると判断する。
さらに、読み取られた指紋の画像46bのパターンから、ユーザーの指の大きさを導出する。この場合、指紋を構成する隆線と隆線との間隔が比較的狭く、隆線自体の太さも比較的細いことから、比較的ユーザーの指が小さいことを導出する。
なお、指紋画像読み取り部19が、図7に示す画像46cを読み取ったとする。この読み取られた画像46cの面積は、画像46a、46bの面積よりも小さい。すなわち、ユーザーの指がタッチパネル部21に接触した領域が小さいものである。この画像46cについても、どの種類の指紋の画像に相当するか、さらに、相当する種類の指紋の画像のうち、いずれの領域の画像に相当するかを判断する。
この場合も、読み取られた指紋の画像46cが、渦状紋の指紋の画像47bに相当すると判断する。渦状紋の指紋の画像47bのうち、二点鎖線で示す領域48cの画像に相当すると判断する。さらに、読み取られた指紋の画像46cが、渦状紋の指紋の画像47bのうち、二点鎖線で示す領域48cの画像に相当すると判断する。この場合も、指紋を構成する隆線と隆線との間隔が比較的狭く、隆線自体の太さも比較的細いことから、比較的ユーザーの指が小さいことを導出する。すなわち、画像46bと画像46cとでは、読み取られた指紋の領域が異なり、領域の面積や形状が異なるものの、同等の指の大きさのユーザーであると判断する。
その後、導出した指の大きさが、設定された大きさの範囲内であるか否かを判断する(S15)。図8は、操作内容としてのタップとスワイプとを判別する状態を示す図である。図8中の右方向に向かうに従い、指が接触した位置から指が離された位置までの移動距離が長くなることを示している。ユーザーの指の大きさが設定された大きさの範囲内である場合を、指の移動距離の方向に長い棒状の画像51aで示す。ユーザーの指の大きさが設定された大きさの範囲よりも大きい場合を、指の移動距離の方向に長い棒状の画像51bで示す。ユーザーの指の大きさが設定された大きさの範囲よりも小さい場合を、指の移動距離の方向に長い棒状の画像51cで示す。なお、ユーザーの指の大きさが設定された大きさの範囲内である場合、指が接触した位置52を原点とし、原点から長さLで示す距離の位置にタップとスワイプを判別する距離の閾値53aが設定されている。なお、この長さLで示す距離は、具体的には、例えば、画素として20ピクセルに相当する距離である。
図8を参照して、ユーザーの指の大きさが設定された大きさの範囲内であると判断した場合(S15において、YES)、設定された閾値でユーザーの操作内容を判別する(S16)。すなわち、指が接触した位置52から長さLで示す距離の位置にある距離の閾値53aまでの間に指が離されたと検知すれば、タップを示す領域54aの範囲内の指の移動であると判断する。そして、その操作内容は、タップであったと判別する。一方、指が接触した位置52から長さLで示す距離の位置にある距離の閾値53aを超えて指が離されたと検知すれば、スワイプを示す領域55aの範囲内の指の移動であると判断する。そして、その操作内容は、スワイプであったと判別する。
その後、判断した操作内容に従って処理を実行し、終了する(S17)。具体的には、例えば、操作内容がタップと判別した場合、押下された位置に相当する表示画面28の表示に対応する数値等の入力を行う。また、操作内容がスワイプであった場合、表示画面28のスクロール等を行う。
一方、指の大きさが設定された大きさの範囲内でないと判断した場合(S15において、NO)、距離の閾値53aを補正する(S18)。具体的には、以下のようにする。
指の大きさが設定された大きさの範囲よりも大きいと判断した場合、指が接触した位置52からの長さLで示す距離の閾値53aよりも長い長さLで示す距離の閾値53bとする。すなわち、長さLで示す距離の閾値53aを長さLで示す距離の閾値53bに補正する。そして、操作内容の判別が閾値53bとなるよう補正した状況で、ユーザーの操作内容を判別する(S19)。
この場合、指が接触した位置52から長さLで示す距離の閾値53bまでの間に指が離されたと検知すれば、タップを示す領域54bの範囲内の指の移動であると判断する。そして、その操作内容は、タップであったと判別する。また、指が接触した位置52から長さLで示す距離の閾値53bを超えて指が離されたと検知すれば、スワイプを示す領域55bの範囲内の指の移動であると判断する。そして、その操作内容は、スワイプであったと判別する。なお、長さLで示す距離の閾値53bは、例えば、長さLで示す距離の閾値53aよりも10ピクセル分だけ長い30ピクセルに相当する距離である。
また、指の大きさが設定された大きさの範囲よりも小さいと判断した場合、指が接触した位置52からの長さLで示す距離の閾値53aよりも短い長さLで示す距離の閾値53cとする。すなわち、長さLで示す距離の閾値53aを長さLで示す距離の閾値53cに補正する。そして、操作内容の判別が閾値53cとなるよう補正した状況で、ユーザーの操作内容を判別する(S19)。
この場合、指が接触した位置52から長さLで示す距離の閾値53cまでの間に指が離されたと検知すれば、タップを示す領域54cの範囲内の指の移動であると判断する。そして、その操作内容は、タップであったと判別する。また、指が接触した位置52から長さLで示す距離の閾値53cを超えて指が離されたと検知すれば、スワイプを示す領域55cの範囲内の指の移動であると判断する。そして、その操作内容は、スワイプであったと判別する。なお、長さLで示す距離の閾値53cは、例えば、長さLで示す距離の閾値53aよりも10ピクセル分だけ短い10ピクセルに相当する距離である。
その後、それぞれ判断した操作内容に従って処理を行い、終了する(S17)。
このような構成によれば、ユーザーが操作内容を入力する際に、タッチパネル部21と接触したユーザーの指から指紋の画像を指紋画像読み取り部19で読み取る。そして、読み取られた指紋の画像から、タッチパネル部を押下したユーザーの指の大きさを導出する。その後、導出されたユーザーの指の大きさに基づいて、操作内容を制御する。そうすると、ユーザーの個人差やタッチパネル部との接触状況に関わらず、導出されたユーザーの指の大きさに基づいて、操作内容を制御することができる。この場合、複雑な機構や処理を施す必要はない。したがって、簡易な構成でユーザーの要望する操作内容の入力を精度よく行うことができる。すなわち、ユーザーが意図しない別の操作内容が入力されたり、入力したい操作ボタンが押せなかったりするおそれを低減することができる。具体的には、指の小さいユーザーが、スワイプしたいのにタップと判定されるおそれを低減することができる。また、指の大きいユーザーが、タップしたいのにスワイプと判定されるおそれを低減することができる。なお、上記したように、指の大きさの導出に関しては、接触した面積や形状には依拠しないので、同じユーザーでも接触の方法が変化したとしても、特に問題はない。
この場合、大きさ導出部により導出されたユーザーの指の大きさに基づいて、タッチパネル部21の操作におけるジェスチャーの閾値を補正して、操作内容を制御している。したがって、簡易な構成でユーザーの要望する操作内容の入力をより精度よく行うことができる。
また、この場合、指紋画像読み取り部により読み取られた指紋の画像と、ハードディスク16により格納された3種類の指紋の画像とを比較して、操作内容を制御しているため、より簡易な構成でユーザーの要望する操作内容の入力を行うことができる。すなわち、このような構成によれば、ユーザー毎の指紋の画像の登録を行わなくとも対応できるものである。
また、指紋の画像を読み取る毎に、読み取られた指紋の画像を精査し、これに従って操作内容を制御するようにしてもよい。具体的には、例えば、指紋を構成する陵線と陵線との間の間隔が所定の長さ以上であったり、陵線の太さが所定の値以上あれば、指紋の種類や指紋のパターンに関わらず、操作内容を判別する閾値を補正するよう構成してもよい。
なお、上記の実施の形態においては、指紋の画像から指の大きさを導出し、導出した指の大きさに基づいて操作内容を判別する閾値を補正することとしたが、これに限らず、読み取られた指紋の画像から、タッチパネル部に指を接触させた際のユーザーの指が接触した位置を導出し、押下された位置の座標を補正するようにしてもよい。すなわち、デジタル複合機11は、ユーザーの操作内容に関する情報を表示する表示部を含み、ユーザーの指との接触状況を検出して、操作内容を入力させるタッチパネル部21と、タッチパネル部21がユーザーの指により押下された際に、タッチパネル部21を押下したユーザーの指紋を画像として読み取る指紋画像読み取り部19と、指紋画像読み取り部19により読み取られた指紋の画像から、タッチパネル部21を押下したユーザーの指の位置を導出する位置導出部と、位置導出部により導出されたユーザーの指の位置に基づいて、操作内容を制御する制御部とを備えるよう構成してもよい。
図9は、読み取られた指紋の画像を示す図である。図9においては、図4に示す渦状紋の指紋の画像42a、蹄状紋の指紋の画像42b、および弓状紋の指紋の画像42cを併せて示している。また、指紋の画像42a〜42cのパターンから、図9中の矢印Dで示す上側が指先側となり、指の付け根側、具体的には、指の第一関節に近い側となる。
図9を参照して、指紋画像読み取り部19によって指紋の画像44aが読み取られた場合、指紋の画像44aは、指紋を構成する陵線と陵線との間隔、陵線の太さ、指紋を構成する陵線のパターン等から、渦状紋の指紋の画像42aのうち、一点鎖線で示す領域43aで囲む部分の画像に相当すると判断する。この領域43aで囲む部分は、指のうちの指の付け根側である第一関節に近い位置に相当する。したがって、この場合、渦状紋の指紋を有するユーザーが、指の腹の下の方でタッチパネル部21を押下していると判断する。
また、指紋画像読み取り部19によって指紋の画像44bが読み取られた場合、指紋の画像44bは、指紋を構成する陵線と陵線との間隔等から、蹄状紋の指紋の画像42bのうち、一点鎖線で示す領域43bで囲む部分の画像に相当すると判断する。この領域43bで囲む部分は、指の中心付近である指の腹の位置に相当する。したがって、蹄状紋の指紋を有するユーザーが、いわゆる指の腹の位置でタッチパネル部21を押下していると判断する。
また、指紋画像読み取り部19によって指紋の画像44cが読み取られた場合、指紋の画像44cは、指紋を構成する陵線と陵線との間隔等から、弓状紋の指紋の画像42cのうち、一点鎖線で示す領域43cで囲む部分の画像に相当すると判断する。この領域43cで囲む部分は、爪先側に近い指先側の位置に相当する。したがって、弓状紋の指紋を有するユーザーが、指先でタッチパネル部21を押下していると判断することができる。
これらのような判断結果を基に、ユーザーの押下した位置の座標を補正することにしてもよい。こうすることにより、ユーザーの要望する操作内容の入力をより精度よく行うことができる。
具体的には、例えば、以下のように構成する。図10は、タッチパネル部21に対して指先で押下した場合の状態を示す図である。図11は、タッチパネル部21に対して指の腹の部分で押下した場合の状態を示す図である。いずれの図においても、理解の容易の観点から、上側に指61の一部を縮小して概略的に示している。また、いずれの図においても、下側に渦状紋の指紋の画像42aを示している。
まず、図10を参照して、ユーザーが指61をいわゆる立てた状態として、タッチパネル部21に指先を接触させて操作内容を入力した場合、ユーザーが指61を接触させて入力しようとした位置64aと実際に押下した位置63aとの距離の差は、長さLで示される。なお、実際に押下した位置63aとしては、一点鎖線で示す指61が接触した領域62aのほぼ中心の位置である。この長さL、すなわち、ユーザーが指61を接触させて入力しようとした位置64aと実際に押下した位置63aとの差は、比較的短いものとなる。この場合、上記したように、実際に押下した位置63aを含む領域62aの指紋のパターンから、指先で押下したと判断することができる。したがって、このような場合には、補正値を比較的小さくして、実際に押下した位置63aから是正して正確な入力位置となるよう位置の座標を補正する。具体的には、入力しようとした位置64aは、実際に押下した位置63aに対して爪先側に位置するものであるという傾向や、実際の補正値として0〜数mm(ミリメートル)という位置のずれを考慮して、入力位置の座標を補正する。
一方、図11を参照して、ユーザーが指61をいわゆる寝かせた状態として、タッチパネル部21に指の腹の部分を接触させて操作内容を入力した場合、ユーザーが指61を接触させて入力しようとした位置64bと実際に押下した位置63bとの距離の差は、長さLで示される。この長さL、すなわち、ユーザーが指61を接触させて入力しようとした位置64aと実際に押下した位置63aとの差は、比較的長いものとなる。この場合、上記したように、実際に押下した位置63bを含む領域62bの指紋のパターンから、指61の腹の部分で押下したことと判断することができる。したがって、このような場合には、補正値を比較的大きくして、実際に押下した位置63bから是正して正確な入力位置を把握するようにする。具体的には、入力しようとした位置64bは、実際に押下した位置63bに対して爪先側に位置するものであるという傾向や、実際の補正値として10〜数十mmという位置のずれを考慮して、入力位置の座標を補正する。
すなわち、制御部12は、位置導出部により導出されたユーザーの指の位置が、指先に近づくにつれて、接触させた位置に対する位置のずれの補正値を小さくして、操作内容を制御する。このように構成することによって、簡易な構成でユーザーの要望する操作内容の入力を精度よく行うことができる。すなわち、ユーザーの個人の情報として補正値が設定されている場合等においては、ログイン画面まで戻ってログインをし直して操作内容の入力等を行う必要があるが、このようなユーザーの煩雑な操作を回避することができる。
なお、上記した場合において、領域62a、62bの面積や形状については、指61をタッチパネル部21に接触させた圧力や指の場所に起因するものである。しかし、指紋のパターンで指のどの位置で接触したかを判断しているため、接触した領域の面積や形状に依拠せずに、高精度でユーザーの指の位置を導出することができる。
なお、上記の実施の形態においては、3種類の指紋の画像をハードディスクに格納することとしたが、これに限らず、さらに他の種類の指紋の画像をハードディスクに格納するよう構成してもよい。そして、これらを比較して操作内容を制御することにしてもよい。また、ハードディスクに格納される指紋の画像は、渦状紋の画像、蹄状紋の画像、および弓状紋の画像のうちの少なくともいずれか一つの画像を含むようにしてもよい。また、複数の種類の指紋の画像を格納する格納部は、デジタル複合機の外部に設けられていてもよい。すなわち、他の記憶媒体に情報として格納された指紋の画像と比較することにしてもよい。
なお、上記の実施の形態においては、デジタル複合機としての画像処理装置における操作内容の入力の場合について説明したが、これに限らず、スマートフォンや、タブレット端末等の端末装置に備えられ、タッチパネル部により操作内容を入力するタッチパネル装置において、上記構成を備えることとしてもよい。
すなわち、タッチパネル装置は、ユーザーの操作内容に関する情報を表示する表示部を含み、ユーザーの指との接触状況を検出して、操作内容を入力させるタッチパネル部と、タッチパネル部がユーザーの指により押下された際に、タッチパネル部を押下したユーザーの指紋を画像として読み取る指紋画像読み取り部と、指紋画像読み取り部により読み取られた指紋の画像から、タッチパネル部を押下したユーザーの指の大きさを導出する大きさ導出部と、大きさ導出部により導出されたユーザーの指の大きさに基づいて、操作内容を制御する制御部とを備える構成とする。
このようなタッチパネル装置によると、ユーザーが操作内容を入力する際に、タッチパネル部と接触したユーザーの指から指紋の画像を指紋画像読み取り部で読み取る。そして、読み取られた指紋の画像から、タッチパネル部を押下したユーザーの指の大きさを導出する。その後、導出されたユーザーの指の大きさに基づいて、操作内容を制御する。そうすると、ユーザーの個人差やタッチパネル部との接触状況に関わらず、導出されたユーザーの指の大きさに基づいて、操作内容を制御することができる。この場合、複雑な機構や処理を施す必要はない。したがって、簡易な構成でユーザーの要望する操作内容の入力を精度よく行うことができる。
また、タッチパネル装置は、ユーザーの操作内容に関する情報を表示する表示部を含み、ユーザーの指との接触状況を検出して、操作内容を入力させるタッチパネル部と、タッチパネル部がユーザーの指により押下された際に、タッチパネル部を押下したユーザーの指紋を画像として読み取る指紋画像読み取り部と、指紋画像読み取り部により読み取られた指紋の画像から、タッチパネル部を押下したユーザーの指の位置を導出する位置導出部と、位置導出部により導出されたユーザーの指の位置に基づいて、操作内容を制御する制御部とを備える構成とする。
このようなタッチパネル装置によると、ユーザーが操作内容を入力する際に、タッチパネル部と接触したユーザーの指から指紋の画像を指紋画像読み取り部で読み取る。そして、読み取られた指紋の画像から、タッチパネル部を押下したユーザーの指の大きさを導出する。その後、導出されたユーザーの指の大きさに基づいて、操作内容を制御する。そうすると、ユーザーの個人差やタッチパネル部との接触状況に関わらず、導出されたユーザーの指の位置に基づいて、操作内容を制御することができる。この場合、複雑な機構や処理を施す必要はない。したがって、簡易な構成でユーザーの要望する操作内容の入力を精度よく行うことができる。
なお、タッチパネル装置や画像処理装置については、ユーザー認証用の指紋認証システムが導入されているものもあり、このシステムを利用すれば、より効率的なシステムを構築することができる。
今回開示された実施の形態および実施例はすべての点で例示であって、どのような面からも制限的なものではないと理解されるべきである。本発明の範囲は上記した説明ではなく、特許請求の範囲によって規定され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
この発明に係るタッチパネル装置、および画像処理装置は、簡易な構成でユーザーの要望する操作内容の入力を精度よく行うことが要求される場合に、特に有効に利用される。
11 デジタル複合機、12 制御部、13 操作部、14 画像読み取り部、15 画像形成部、16 ハードディスク、17 ファクシミリ通信部、18 ネットワークインターフェース部、19 指紋画像読み取り部、21 タッチパネル部、22 ADF、23 現像装置、24 公衆回線、25 ネットワーク、26a,26b,26c コンピューター、27 画像処理システム、28 表示画面、31 テンキー、32 スタートキー、33 電源キー、34 メニューキー、35 登録キー、36 リセットキー、41,42a,42b,42c,44a,44b,44c,46a,46b,46c,47a,47b,51a,51b,51c 画像、43a,43b,43c,48a,48b,48c,54a,54b,54c,55a,55b,55c,62a,62b 領域、52,63a,63b,64a,64b 位置、53a,53b,53c 閾値、61 指。

Claims (6)

  1. ユーザーの操作内容に関する情報を表示する表示部を含み、前記ユーザーの指との接触状況を検出して、前記操作内容を入力させるタッチパネル部と、
    前記タッチパネル部が前記ユーザーの指により押下された際に、前記タッチパネル部を押下した前記ユーザーの指紋を画像として読み取る指紋画像読み取り部と、
    前記指紋画像読み取り部により読み取られた前記指紋の画像のうち、指紋を構成する隆線と隆線の間隔および隆線自体の太さから、前記タッチパネル部を押下した前記ユーザーの指の大きさを導出する大きさ導出部と、
    前記大きさ導出部により導出された前記ユーザーの指の大きさに基づいて、前記操作内容を制御する制御部とを備える、タッチパネル装置。
  2. 前記制御部は、前記大きさ導出部により導出された前記ユーザーの指の大きさに基づいて、前記タッチパネル部に入力された操作内容の判別をする閾値を補正して、前記操作内容を制御する、請求項1に記載のタッチパネル装置。
  3. 前記制御部は、前記ユーザーの指が前記タッチパネル部に接触して移動する距離が前記閾値を超えなければ前記操作内容がタップであると判別し、前記閾値を超えれば前記操作内容がスワイプであると判別するよう制御する、請求項2に記載のタッチパネル装置。
  4. 複数の種類の指紋の画像を格納する格納部を備え、
    前記制御部は、前記指紋画像読み取り部により読み取られた前記指紋の画像と、前記格納部により格納された前記複数の種類の指紋の画像とを比較して前記操作内容を制御する、請求項1〜3のいずれか1項に記載のタッチパネル装置。
  5. 前記格納部に格納される前記複数の種類の指紋の画像は、渦状紋の画像、蹄状紋の画像、および弓状紋の画像のうちの少なくともいずれか一つの画像を含む、請求項4に記載のタッチパネル装置。
  6. 請求項1に記載のタッチパネル装置と、
    前記タッチパネル装置により入力された前記操作内容に従って、画像を処理する画像処理部とを備える、画像処理装置。
JP2014255402A 2014-12-17 2014-12-17 タッチパネル装置、および画像処理装置 Expired - Fee Related JP6055459B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014255402A JP6055459B2 (ja) 2014-12-17 2014-12-17 タッチパネル装置、および画像処理装置
CN201510903415.4A CN105721733B (zh) 2014-12-17 2015-12-09 触控面板装置及图像处理装置
US14/972,122 US9648181B2 (en) 2014-12-17 2015-12-17 Touch panel device and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014255402A JP6055459B2 (ja) 2014-12-17 2014-12-17 タッチパネル装置、および画像処理装置

Publications (2)

Publication Number Publication Date
JP2016115272A JP2016115272A (ja) 2016-06-23
JP6055459B2 true JP6055459B2 (ja) 2016-12-27

Family

ID=56129353

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014255402A Expired - Fee Related JP6055459B2 (ja) 2014-12-17 2014-12-17 タッチパネル装置、および画像処理装置

Country Status (3)

Country Link
US (1) US9648181B2 (ja)
JP (1) JP6055459B2 (ja)
CN (1) CN105721733B (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014207898A1 (ja) * 2013-06-28 2014-12-31 富士通株式会社 情報処理装置、入力制御プログラム、および入力制御方法
CN108491707B (zh) 2016-05-30 2020-01-14 Oppo广东移动通信有限公司 一种解锁控制方法及终端设备和介质产品
CN106056081B (zh) * 2016-05-30 2018-03-27 广东欧珀移动通信有限公司 一种解锁控制方法及终端设备
JP6764291B2 (ja) * 2016-09-14 2020-09-30 キヤノン株式会社 情報処理装置およびその制御方法、並びにプログラム
US20210278925A1 (en) * 2017-12-12 2021-09-09 Connectec Japan Corporation Information processing system
JP2022126435A (ja) * 2021-02-18 2022-08-30 京セラドキュメントソリューションズ株式会社 画像形成装置

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04191920A (ja) 1990-11-27 1992-07-10 Oki Electric Ind Co Ltd タッチパネル装置におけるタッチ位置補正方法
JPH05241733A (ja) 1992-02-27 1993-09-21 Hitachi Ltd タッチパネルの入力誤差補正方式
US9292111B2 (en) * 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
JP3508546B2 (ja) * 1998-05-11 2004-03-22 日本電気株式会社 画面操作システムおよび画面操作方法
JP4426733B2 (ja) * 2000-03-31 2010-03-03 富士通株式会社 指紋データ合成方法,指紋データ合成装置,指紋データ合成プログラムおよび同プログラムを記録したコンピュータ読取可能な記録媒体
US7697729B2 (en) * 2004-01-29 2010-04-13 Authentec, Inc. System for and method of finger initiated actions
JP5239328B2 (ja) 2007-12-21 2013-07-17 ソニー株式会社 情報処理装置及びタッチ動作認識方法
US20090224874A1 (en) * 2008-03-05 2009-09-10 International Business Machines Corporation Apparatus, system, and method for providing authentication and activation functions to a computing device
IL196125A0 (en) * 2008-12-23 2009-09-22 Bejamin Zimchoni A method and system for operating a keyboard with multi funcitional keys, using fingerpints recognition
JP5477385B2 (ja) * 2009-10-05 2014-04-23 富士通株式会社 生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラム
US9201539B2 (en) * 2010-12-17 2015-12-01 Microsoft Technology Licensing, Llc Supplementing a touch input mechanism with fingerprint detection
US8823489B2 (en) * 2011-04-22 2014-09-02 Qualcomm Incorporated Systems and methods for generating a derived biometric template
CN103186329B (zh) * 2011-12-27 2017-08-18 富泰华工业(深圳)有限公司 电子设备及其触摸输入控制方法
US20130222277A1 (en) * 2012-02-23 2013-08-29 James Michael O'Hara Systems and methods for identifying a user of an electronic device
JP5761526B2 (ja) 2012-03-01 2015-08-12 コニカミノルタ株式会社 操作表示装置
US9384518B2 (en) * 2012-03-26 2016-07-05 Amerasia International Technology, Inc. Biometric registration and verification system and method
US9600709B2 (en) * 2012-03-28 2017-03-21 Synaptics Incorporated Methods and systems for enrolling biometric data
TW201339917A (zh) * 2012-03-30 2013-10-01 Hon Hai Prec Ind Co Ltd 用於電子裝置中的操控方法及系統
JP2014048971A (ja) * 2012-08-31 2014-03-17 Sharp Corp 入力装置、入力装置の制御方法、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2014167712A (ja) * 2013-02-28 2014-09-11 Nec Casio Mobile Communications Ltd 情報処理装置、情報処理方法およびプログラム
US20140270417A1 (en) * 2013-03-18 2014-09-18 Sunasic Technologies, Inc. Portable fingerprint device with enhanced security
US9898642B2 (en) * 2013-09-09 2018-02-20 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
CN103577068A (zh) * 2013-10-15 2014-02-12 广东欧珀移动通信有限公司 一种动态调整桌面图标大小的方法及移动终端
US9412002B2 (en) * 2013-12-26 2016-08-09 Intel Corporation Wearable electronic device having a fingerprint identification display
CN103793688B (zh) * 2014-01-23 2017-04-19 深圳市汇顶科技股份有限公司 生物特征识别装置和电子设备
US10068118B2 (en) * 2014-02-25 2018-09-04 Tara Chand Singhal Apparatus and method for a biometric sensor in a handheld mobile wireless communication device
US10296778B2 (en) * 2014-05-08 2019-05-21 Northrop Grumman Systems Corporation Methods, devices, and computer-readable media for biometric collection, quality checking, and matching
CN104035721A (zh) * 2014-07-03 2014-09-10 南昌欧菲生物识别技术有限公司 利用指纹识别调整视频播放参数的方法及其装置
KR20160135303A (ko) * 2014-09-06 2016-11-25 선전 후이딩 테크놀로지 컴퍼니 리미티드 상의 슬라이드 이동 등록

Also Published As

Publication number Publication date
US9648181B2 (en) 2017-05-09
US20160179292A1 (en) 2016-06-23
JP2016115272A (ja) 2016-06-23
CN105721733B (zh) 2018-08-03
CN105721733A (zh) 2016-06-29

Similar Documents

Publication Publication Date Title
JP6055459B2 (ja) タッチパネル装置、および画像処理装置
JP5874465B2 (ja) 情報処理装置、画像形成装置、情報処理装置の制御方法、画像形成装置の制御方法、情報処理装置の制御プログラム、及び画像形成装置の制御プログラム
US10277757B2 (en) Electronic device and image forming apparatus
US9001368B2 (en) Image processing apparatus, operation standardization method, and non-transitory computer-readable recording medium encoded with operation standardization program with an application program that supports both a touch panel capable of detecting only one position and a touch panel capable of detecting a plurality of positions simultaneously
JP5945926B2 (ja) 操作表示装置
JP5991509B2 (ja) 情報処理装置、プログラム
CN103376684A (zh) 电子设备和图像形成装置
US20190245992A1 (en) Information processing apparatus equipped with touch panel type display unit, control method therefor, and storage medium
CN104349000B (zh) 数值输入装置以及电子机器
US9100519B2 (en) Data processing apparatus, content displaying method, and non-transitory computer-readable recording medium encoded with browsing program
US20180220018A1 (en) Image processing apparatus, method for displaying conditions, and non-transitory recording medium storing computer readable program
JP5831715B2 (ja) 操作装置および画像処理装置
JP5978274B2 (ja) 表示入力装置および表示入力制御プログラム。
JP6217508B2 (ja) 表示入力装置、および表示入力制御プログラム
JP2012230622A (ja) 情報処理装置
JP6477605B2 (ja) 入力装置、および画像処理装置
JP6766658B2 (ja) 画像処理装置、入力パターン確認方法、およびコンピュータプログラム
JP6213581B2 (ja) 情報処理装置及び情報処理装置の制御プログラム
JP6179785B2 (ja) 操作表示装置 プログラム
JP6354696B2 (ja) 表示装置、および画像処理装置
US20220303402A1 (en) Information processing apparatus and non-transitory computer readable medium storing program
JP2011175516A (ja) 入力装置及び入力制御プログラム
JP7310152B2 (ja) 情報処理装置及びプログラム
JP5765372B2 (ja) 表示装置、表示装置の制御方法、および表示装置の制御プログラム
JP6314815B2 (ja) 機能選択装置、および画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160603

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20160603

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20160621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161202

R150 Certificate of patent or registration of utility model

Ref document number: 6055459

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees