JP7400205B2 - 入力装置 - Google Patents

入力装置 Download PDF

Info

Publication number
JP7400205B2
JP7400205B2 JP2019070743A JP2019070743A JP7400205B2 JP 7400205 B2 JP7400205 B2 JP 7400205B2 JP 2019070743 A JP2019070743 A JP 2019070743A JP 2019070743 A JP2019070743 A JP 2019070743A JP 7400205 B2 JP7400205 B2 JP 7400205B2
Authority
JP
Japan
Prior art keywords
sensing layer
detection
input device
passes
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019070743A
Other languages
English (en)
Other versions
JP2020170311A (ja
Inventor
学 村山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Funai Electric Co Ltd
Original Assignee
Funai Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Funai Electric Co Ltd filed Critical Funai Electric Co Ltd
Priority to JP2019070743A priority Critical patent/JP7400205B2/ja
Priority to CN202010118480.7A priority patent/CN111796694A/zh
Priority to EP20161297.5A priority patent/EP3719614B1/en
Priority to US16/813,762 priority patent/US11068108B2/en
Publication of JP2020170311A publication Critical patent/JP2020170311A/ja
Application granted granted Critical
Publication of JP7400205B2 publication Critical patent/JP7400205B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、物体による操作画面に対する特定の非接触操作を受け付けるための入力装置に関する。
衛生管理が厳しい食品加工分野及び医療分野等において、ユーザの手指が直接接触するタッチパネルディスプレイを用いることは、当該タッチパネルディスプレイが病原体の感染源となるおそれがあるため好ましくない。そのため、上述した各分野では、ユーザの手指による操作画面に対する特定の非接触操作を受け付けるための入力装置を用いることが提案されている(例えば、特許文献1参照)。
従来の入力装置は、空中の表示領域に操作画面を示す空中像(実像)を結像させ、この空中像に対向する検出領域におけるユーザの手指の動作を検出することにより、操作画面に対する特定の非接触操作が行われたと判定する。
特開2014-67071号公報
しかしながら、上述した従来の入力装置では、例えばユーザの身体の一部等が意図せずに検出領域を通過した場合に、操作画面に対する特定の非接触操作が行われたと誤判定されるおそれが生じる。
本発明は、上述した課題を解決しようとするものであり、その目的は、操作画面に対する特定の非接触操作の有無を精度良く判定することができる入力装置を提供することである。
上記目的を達成するために、本発明の一態様に係る入力装置は、物体による操作画面に対する特定の非接触操作を受け付けるための入力装置であって、表示面上に前記操作画面を表示させる表示制御部と、前記表示面に対向して形成された空中の第1のセンシング層における前記物体の通過状態を検出する第1の検出部と、前記表示面と前記第1のセンシング層との間に形成された空中の第2のセンシング層における前記物体の通過状態を検出する第2の検出部と、前記第1の検出部及び前記第2の検出部の各々の検出結果に基づいて、前記物体による前記特定の非接触操作の有無を判定する判定部と、を備える。
本態様によれば、ユーザが意図的に操作画面に対する特定の非接触操作を行った場合と、ユーザの身体の一部等が意図せずに第1のセンシング層及び第2のセンシング層の各々を通過した場合とでは、第1のセンシング層及び第2のセンシング層の各々における物体の通過状態が異なるようになる。そのため、判定部は、第1のセンシング層及び第2のセンシング層の各々における物体の通過状態に基づいて、物体による特定の非接触操作の有無を判定することにより、操作画面に対する特定の非接触操作の有無を精度良く判定することができる。その結果、入力装置をユーザインタフェースとする機器の誤操作等を回避することができる。
例えば、本発明の一態様に係る入力装置において、前記第1の検出部は、前記第1のセンシング層における前記物体の通過箇所の数を検出し、前記第2の検出部は、前記第2のセンシング層における前記物体の通過箇所の数を検出するように構成してもよい。
本態様によれば、判定部は、第1のセンシング層及び第2のセンシング層の各々における物体の通過箇所の数に基づいて、物体による特定の非接触操作の有無を判定することができる。
例えば、本発明の一態様に係る入力装置において、前記特定の非接触操作は、前記物体による前記操作画面上の所定の表示に対する非接触のシングルタッチジェスチャであり、前記判定部は、前記物体が前記第1のセンシング層を1箇所通過し且つ前記第2のセンシング層を1箇所通過した場合に、前記シングルタッチジェスチャが行われたと判定するように構成してもよい。
本態様によれば、判定部は、第1のセンシング層及び第2のセンシング層の各々における物体の通過箇所の数に基づいて、シングルタッチジェスチャが行われたと判定することができる。
例えば、本発明の一態様に係る入力装置において、前記特定の非接触操作は、前記物体による前記操作画面に対する非接触のマルチタッチジェスチャであり、前記判定部は、前記物体が前記第1のセンシング層を2箇所通過し且つ前記第2のセンシング層を2箇所通過した場合に、前記マルチタッチジェスチャが行われたと判定するように構成してもよい。
本態様によれば、判定部は、第1のセンシング層及び第2のセンシング層の各々における物体の通過箇所の数に基づいて、マルチタッチジェスチャが行われたと判定することができる。
例えば、本発明の一態様に係る入力装置において、前記判定部は、前記物体が前記第1のセンシング層を3箇所以上通過し且つ前記第2のセンシング層を1箇所以上通過した場合に、前記特定の非接触操作が行われなかったと判定するように構成してもよい。
本態様によれば、判定部は、第1のセンシング層及び第2のセンシング層の各々における物体の通過箇所の数に基づいて、特定の非接触操作が行われなかったと判定することができる。
例えば、本発明の一態様に係る入力装置において、前記表示制御部は、前記物体が前記第1のセンシング層を通過した際に、前記操作画面上にカーソルを表示させるように構成してもよい。
本態様によれば、表示制御部は、物体が第1のセンシング層を通過した際に、操作画面上にカーソルを表示させるので、物体が第1のセンシング層を通過したことをユーザに容易に認識させることができる。
例えば、本発明の一態様に係る入力装置において、前記第1の検出部は、前記第1のセンシング層における前記物体の大きさを検出し、前記第2の検出部は、前記第2のセンシング層における前記物体の有無を検出し、前記判定部は、前記第1のセンシング層における前記物体の大きさが閾値以下であり、且つ、前記第2のセンシング層において前記物体が検出された場合に、前記特定の非接触操作が行われたと判定し、前記第1のセンシング層における前記物体の大きさが前記閾値を超え、且つ、前記第2のセンシング層において前記物体が検出された場合に、前記特定の非接触操作が行われなかったと判定するように構成してもよい。
本態様によれば、判定部は、第1のセンシング層における物体の大きさ及び第2のセンシング層における物体の有無に基づいて、物体による特定の非接触操作の有無を判定することができる。
例えば、本発明の一態様に係る入力装置において、前記入力装置は、さらに、前記表示面と前記第2のセンシング層との間に形成された空中の1又は複数の第3のセンシング層における前記物体の通過状態を検出する1又は複数の第3の検出部を備え、前記判定部は、前記第1の検出部、前記第2の検出部、及び、前記1又は複数の第3の検出部の各々の検出結果に基づいて、前記物体による前記特定の非接触操作の有無を判定するように構成してもよい。
本態様によれば、判定部は、操作画面に対する特定の非接触操作の有無をより精度良く判定することができる。
なお、本発明は、入力装置に含まれる特徴的な処理部としてコンピュータを機能させるためのプログラム又は空中像表示方法に含まれる特徴的なステップをコンピュータに実行させるプログラムとして実現することもできる。そして、そのようなプログラムを、CD-ROM(Compact Disc-Read Only Memory)等のコンピュータ読取可能な非一時的な記録媒体やインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。
本発明の一態様に係る入力装置によれば、操作画面に対する特定の非接触操作の有無を精度良く判定することができる。
実施の形態1に係る入力装置を示す平面図である。 実施の形態1に係る入力装置を示す側面図である。 実施の形態1に係る入力装置の構成を示すブロック図である。 実施の形態1に係る入力装置の動作の流れを示すフローチャートである。 実施の形態1に係る入力装置において、物体が第1のセンシング層を1箇所通過した状態を説明するための図である。 実施の形態1に係る入力装置において、物体が第2のセンシング層を1箇所通過した状態を説明するための図である。 実施の形態1に係る入力装置において、物体が第1のセンシング層及び第2のセンシング層をそれぞれ2箇所ずつ通過した状態を説明するための図である。 実施の形態1に係る入力装置において、物体が第1のセンシング層及び第2のセンシング層をそれぞれ3箇所ずつ通過した状態を説明するための図である。 実施の形態2に係る入力装置を示す平面図である。 実施の形態2に係る入力装置の構成を示すブロック図である。 実施の形態2に係る入力装置の動作の流れを示すフローチャートである。
以下、本発明の実施の形態について、図面を用いて詳細に説明する。なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
(実施の形態1)
[1-1.入力装置の構成]
まず、図1~図3を参照しながら、実施の形態1に係る入力装置2の構成について説明する。図1は、実施の形態1に係る入力装置2を示す平面図である。図2は、実施の形態1に係る入力装置2を示す側面図である。図3は、実施の形態1に係る入力装置2の構成を示すブロック図である。
図1及び図2に示すように、入力装置2は、表示部4と、第1の検出部6と、第2の検出部8とを備えている。入力装置2は、例えば食品加工分野又は医療分野等で用いられる機器(図示せず)を、物体18(例えばユーザの手指)により非接触で操作するためのユーザインタフェースとして適用される。
表示部4は、例えば液晶表示パネルである。表示部4は、操作画面10を表示するための表示面12を有している。操作画面10は、例えば機器を操作するためのメニュー画面等である。図1に示す例では、操作画面10上には、機器の操作メニュー等を示すアイコン14(所定の表示の一例)が表示されている。
第1の検出部6は、表示部4の表示面12に対向して形成された空中の第1のセンシング層16における物体18の通過状態を検出する。具体的には、第1の検出部6は、第1のセンシング層16における物体18の通過箇所の数を検出する。
なお、第1のセンシング層16は、表示部4の表示面12に略平行な空中の位置に形成された、仮想的な平面(XY平面)である。また、第1のセンシング層16における物体18の通過箇所とは、第1のセンシング層16における物体18の断面領域を意味する。例えば、ユーザの1本の手指が第1のセンシング層16を通過した場合には、第1のセンシング層16における物体18の通過箇所は1箇所となる。また例えば、ユーザの2本の手指が第1のセンシング層16を通過した場合には、第1のセンシング層16における物体18の通過箇所は2箇所となる。
第1の検出部6は、例えばスキャンセンサで構成されており、図1に示すように、表示部4の角部に対向して配置されている。図2に示すように、第1の検出部6は、第1の発光部20と、第1の受光部22とを有している。第1の発光部20は、赤外線レーザを、第1のセンシング層16において2次元的に走査する。第1の受光部22は、第1のセンシング層16を通過した物体18で反射した光を受光し、検出する。
第2の検出部8は、表示部4の表示面12と第1のセンシング層16との間に形成された空中の第2のセンシング層24における物体18の通過状態を検出する。具体的には、第2の検出部8は、第2のセンシング層24における物体18の通過箇所の数を検出する。図2に示すように、第2のセンシング層24と表示部4の表示面12との間の距離Dは、物体18が第2のセンシング層24を通過した際に表示部4の表示面12に直接接触しない程度の大きさ(例えば1cm~数cm程度)である。
なお、第2のセンシング層24は、表示部4の表示面12に略平行な空中の位置に形成された、仮想的な平面(XY平面)である。また、第2のセンシング層24における物体18の通過箇所とは、第2のセンシング層24における物体18の断面領域を意味する。例えば、ユーザの1本の手指が第2のセンシング層24を通過した場合には、第2のセンシング層24における物体18の通過箇所は1箇所となる。また例えば、ユーザの2本の手指が第2のセンシング層24を通過した場合には、第2のセンシング層24における物体18の通過箇所は2箇所となる。
第2の検出部8は、例えばスキャンセンサで構成されており、図1に示すように、表示部4の角部に対向して配置されている。図2に示すように、第2の検出部8は、第2の発光部26と、第2の受光部28とを有している。第2の発光部26は、赤外線レーザを、第2のセンシング層24において2次元的に走査する。第2の受光部28は、第2のセンシング層24を通過した物体18で反射した光を受光し、検出する。
図3に示すように、入力装置2は、さらに、演算処理部30を備えている。演算処理部30は、検出処理部32と、測距演算部34と、判定部36と、動作処理部38と、表示制御部40とを有している。
検出処理部32は、第1の検出部6からの検出信号に基づいて、第1のセンシング層16における物体18の通過箇所の数を算出する。また、検出処理部32は、第2の検出部8からの検出信号に基づいて、第2のセンシング層24における物体18の通過箇所の数を算出する。
測距演算部34は、第1の検出部6からの検出信号に基づいて、第1のセンシング層16における物体18の位置(2次元座標)を算出する。また、測距演算部34は、第2の検出部8からの検出信号に基づいて、第2のセンシング層24における物体18の位置(2次元座標)を算出する。
判定部36は、検出処理部32及び測距演算部34の各算出結果に基づいて、物体18による操作画面10に対する特定の非接触操作の有無を判定する。なお、特定の非接触操作は、例えばユーザの手指による操作画面10に対する非接触のシングルタッチジェスチャ及びマルチタッチジェスチャ等である。シングルタッチジェスチャとは、ユーザの1本の手指(例えば人差し指)によるジェスチャであり、例えばタップ等のジェスチャである。マルチタッチジェスチャとは、ユーザの2本の手指(例えば人差し指及び親指)によるジェスチャであり、例えばピンチイン、ピンチアウト及び回転等のジェスチャである。判定部36による判定処理については、後で詳述する。
動作処理部38は、測距演算部34の算出結果及び判定部36の判定結果に基づいて、特定の非接触操作に対応する処理を実行する。例えば、ユーザが操作画面10上のアイコン14に対して非接触でシングルタッチジェスチャを行った際には、動作処理部38は、アイコン14を選択する処理等を実行する。また例えば、ユーザが操作画面10に対して非接触でマルチタッチジェスチャを行った際には、動作処理部38は、操作画面10の表示倍率を拡大又は縮小する処理等を実行する。
表示制御部40は、表示部4の表示面12の表示内容を制御する。具体的には、表示制御部40は、表示部4の表示面12に操作画面10を表示させる処理を実行する。また、表示制御部40は、検出処理部32及び測距演算部34の各算出結果に基づいて、物体18が第1のセンシング層16を通過した際に、操作画面10上にカーソル42(後述する図5Aの(b)参照)を表示させる処理を実行する。この時、カーソル42は、第1のセンシング層16における物体18の位置に対応する操作画面10上の位置に表示される。
[1-2.入力装置の動作]
次に、図4~図7を参照しながら、実施の形態1に係る入力装置2の動作について説明する。図4は、実施の形態1に係る入力装置2の動作の流れを示すフローチャートである。図5Aは、実施の形態1に係る入力装置2において、物体18が第1のセンシング層16を1箇所通過した状態を説明するための図である。図5Bは、実施の形態1に係る入力装置2において、物体18が第2のセンシング層24を1箇所通過した状態を説明するための図である。図6は、実施の形態1に係る入力装置2において、物体18が第1のセンシング層16及び第2のセンシング層24をそれぞれ2箇所ずつ通過した状態を説明するための図である。図7は、実施の形態1に係る入力装置2において、物体18が第1のセンシング層16及び第2のセンシング層24をそれぞれ3箇所ずつ通過した状態を説明するための図である。
まず、図4~図5Bを参照しながら、ユーザがシングルタッチジェスチャを行う場合における入力装置2の動作について説明する。
図4及び図5Aの(a)に示すように、ユーザの1本の手指が第1のセンシング層16を通過した場合には、第1の検出部6は、第1のセンシング層16における物体18(1本の手指)の通過箇所の数を検出する(S101)。検出処理部32は、第1の検出部6からの検出信号に基づいて、第1のセンシング層16における物体18の通過箇所の数を「1箇所」と算出する(S102で「1箇所」)。
図5Aの(b)に示すように、表示制御部40は、検出処理部32及び測距演算部34の各算出結果に基づいて、物体18が第1のセンシング層16を通過した際に、操作画面10上にカーソル42を表示させる(S103)。この状態で、ユーザが1本の手指を第1のセンシング層16に沿って(すなわち、XY平面内で)動かすことにより、カーソル42は、ユーザの手指の動きに追従して操作画面10上を移動する。なお、操作画面10上にカーソル42を表示させると同時に、表示部4のスピーカ(図示せず)から音を出力させてもよい。
その後、図5Bの(a)に示すように、ユーザが1本の手指を第2のセンシング層24を通過させた場合には、第2の検出部8は、第2のセンシング層24における物体18(1本の手指)の通過箇所の数を検出する(S104)。検出処理部32は、第2の検出部8からの検出信号に基づいて、第2のセンシング層24における物体18の通過箇所の数を「1箇所」と算出する。なお、ユーザの1本の手指が第1のセンシング層16を通過した場合は、第2のセンシング層24における物体18の通過箇所は必ず1箇所になる。判定部36は、図5Bの(b)に示すように、カーソル42がアイコン14に重畳した状態で、物体18が第2のセンシング層24を1箇所通過した場合に、シングルタッチジェスチャが行われたと判定する(S105)。
なお、シングルタッチジェスチャが行われた場合には、操作画面10上にアイコン14とは別の専用のボタン又はアイコン等を表示させてもよい。
次に、図4及び図6を参照しながら、ユーザがマルチタッチジェスチャを行う場合における入力装置2の動作について説明する。
図4及び図6の(a)に示すように、ユーザの2本の手指(例えば人差し指及び親指)が第1のセンシング層16を通過した場合には、第1の検出部6は、第1のセンシング層16における物体18(2本の手指)の通過箇所の数を検出する(S101)。検出処理部32は、第1の検出部6からの検出信号に基づいて、第1のセンシング層16における物体18の通過箇所の数を「2箇所」と算出する(S102で「2箇所」)。
表示制御部40は、検出処理部32及び測距演算部34の各算出結果に基づいて、物体18が第1のセンシング層16を通過した際に、操作画面10上にカーソル42(図5Aの(b)参照)を表示させる(S106)。
その後、ユーザが手指を第2のセンシング層24を通過させた場合には、第2の検出部8は、第2のセンシング層24における物体18(手指)の通過箇所の数を検出する(S107)。なお、ユーザの2本の手指が第1のセンシング層16を通過した場合は、第2のセンシング層24における物体18の通過箇所は2箇所又は1箇所になる。
図6の(b)に示すように、ユーザの2本の手指が第2のセンシング層24を通過した場合には、検出処理部32は、第2の検出部8からの検出信号に基づいて、第2のセンシング層24における物体18の通過箇所の数を「2箇所」と算出する(S108で「2箇所」)。判定部36は、物体18が第2のセンシング層24を2箇所通過した場合に、マルチタッチジェスチャが行われたと判定する(S109)。
一方、ユーザの1本の手指が第2のセンシング層24を通過した場合には、検出処理部32は、第2の検出部8からの検出信号に基づいて、第2のセンシング層24における物体18の通過箇所の数を「1箇所」と算出する(S108で「1箇所」)。判定部36は、物体18が第2のセンシング層24を1箇所通過してから所定の待機時間の経過後に、シングルタッチジェスチャが行われたと判定する(S105)。
次に、図4及び図7を参照しながら、ユーザの3本の手指が意図せずに第1のセンシング層16及び第2のセンシング層24の各々を通過した場合における入力装置2の動作について説明する。
図4及び図7の(a)に示すように、ユーザの3本の手指(例えば人差し指、中指及び薬指)が第1のセンシング層16を通過した場合には、第1の検出部6は、第1のセンシング層16における物体18(3本の手指)の通過箇所の数を検出する(S101)。検出処理部32は、第1の検出部6からの検出信号に基づいて、第1のセンシング層16における物体18の通過箇所の数を「3箇所」と算出する(S102で「3箇所」)。
表示制御部40は、検出処理部32及び測距演算部34の各算出結果に基づいて、物体18が第1のセンシング層16を通過した際に、操作画面10上にカーソル42(図5Aの(b)参照)を表示させる(S110)。
その後、ユーザの手指が第2のセンシング層24を通過した場合には、第2の検出部8は、第2のセンシング層24における物体18(手指)の通過箇所の数を検出する(S111)。なお、ユーザの3本の手指が第1のセンシング層16を通過した場合は、第2のセンシング層24における物体18の通過箇所は3箇所以下になる。
図7の(b)に示すように、ユーザの3本の手指が第2のセンシング層24を通過した場合には、検出処理部32は、第2の検出部8からの検出信号に基づいて、第2のセンシング層24における物体18の通過箇所の数を「3箇所」と算出する。判定部36は、物体18が第2のセンシング層24を3箇所通過した場合に、シングルタッチジェスチャ及びマルチタッチジェスチャのいずれも行われなかったと判定する(S112)。この時、判定部36は、物体18が第2のセンシング層24を2箇所又は1箇所通過した場合も同様に、シングルタッチジェスチャ及びマルチタッチジェスチャのいずれも行われなかったと判定する。
なお、物体18が第1のセンシング層16を4箇所以上通過した場合には、上述と同様にステップS102からS110に進んでS110~S112の各処理が実行され、シングルタッチジェスチャ及びマルチタッチジェスチャのいずれも行われなかったと判定される。
[1-3.効果]
上述したように、判定部36は、第1のセンシング層16及び第2のセンシング層24の各々における物体18の通過箇所の数に基づいて、物体18による特定の非接触操作の有無を判定する。
例えば、ユーザが意図的に操作画面10に対する特定の非接触操作を行った場合には、第1のセンシング層16における物体18の通過箇所の数は1箇所又は2箇所になると考えられる。そのため、この場合には、判定部36は、操作画面10に対する特定の非接触操作が行われたと判定する。
一方、例えば、ユーザの身体の一部等が意図せずに第1のセンシング層16を通過した場合には、第1のセンシング層16における物体18の通過箇所の数は3箇所以上になると考えられる。そのため、この場合には、判定部36は、操作画面10に対する特定の非接触操作が行われなかったと判定する。
したがって、実施の形態1に係る入力装置2では、操作画面10に対する特定の非接触操作の有無を精度良く判定することができ、入力装置2をユーザインタフェースとする機器の誤操作等を回避することができる。
(実施の形態2)
[2-1.入力装置の構成]
次に、図8及び図9を参照しながら、実施の形態2に係る入力装置2Aの構成について説明する。図8は、実施の形態2に係る入力装置2Aを示す平面図である。図9は、実施の形態2に係る入力装置2Aの構成を示すブロック図である。なお、本実施の形態では、上記実施の形態1と同一の構成要素には同一の符号を付して、その説明を省略する。
図8に示すように、実施の形態2に係る入力装置2Aでは、第1の検出部6A及び第2の検出部8Aの各構成が上記実施の形態1と異なっている。
具体的には、第1の検出部6Aは、光学アレイセンサで構成されており、複数の第1の発光部44と、複数の第1の受光部46と、複数の第2の発光部48と、複数の第2の受光部50とを有している。
複数の第1の発光部44は、表示部4の第1の辺52aに沿って間隔を置いて配置されている。複数の第1の受光部46は、表示部4の第1の辺52aに対向する第2の辺52bに沿って間隔を置いて配置されている。すなわち、複数の第1の発光部44はそれぞれ、複数の第1の受光部46に対応して配置されている。複数の第1の発光部44はそれぞれ、複数の第1の受光部46に向けて赤外線(図8において一点鎖線で示す)を直線状に照射する。複数の第1の受光部46はそれぞれ、複数の第1の発光部44からの赤外線を受光する。
複数の第2の発光部48は、表示部4の第3の辺52cに沿って間隔を置いて配置されている。複数の第2の受光部50は、表示部4の第3の辺52cに対向する第4の辺52dに沿って間隔を置いて配置されている。すなわち、複数の第2の発光部48はそれぞれ、複数の第2の受光部50に対応して配置されている。複数の第2の発光部48はそれぞれ、複数の第2の受光部50に向けて赤外線(図8において一点鎖線で示す)を直線状に照射する。複数の第2の受光部50はそれぞれ、複数の第2の発光部48からの赤外線を受光する。
複数の第1の発光部44、複数の第1の受光部46、複数の第2の発光部48及び複数の第2の受光部50で囲まれた領域には、第1のセンシング層16Aが形成される。物体18(図2参照)が第1のセンシング層16Aの所定位置を通過した際には、当該所定位置に対応する第1の発光部44及び第2の発光部48からの光はそれぞれ、物体18によって遮断されるため、当該所定位置に対応する第1の受光部46及び第2の受光部50により受光されなくなる。これにより、第1の検出部6Aは、第1のセンシング層16Aの所定位置における物体18の大きさ(面積)を検出する。
また、第2の検出部8Aは、第2のセンシング層24における物体18の有無を検出する。第2の検出部8Aは、上記実施の形態1と同様にスキャンセンサで構成されている。なお、第2の検出部8Aは、第1の検出部6Aと同様に光学アレイセンサで構成されていてもよい。
さらに、図9に示すように、実施の形態2に係る入力装置2Aでは、演算処理部30Aの検出処理部32A及び判定部36Aの各構成が上記実施の形態1と異なっている。
検出処理部32Aは、第1の検出部6Aからの検出信号に基づいて、第1のセンシング層16Aにおける物体18の大きさを算出する。また、検出処理部32Aは、第2の検出部8Aからの検出信号に基づいて、第2のセンシング層24における物体18の有無を判定する。
判定部36Aは、検出処理部32A及び測距演算部34の各算出結果に基づいて、物体18による操作画面10に対する特定の非接触操作の有無を判定する。本実施の形態では、特定の非接触操作は、例えば操作画面10に対する非接触のシングルタッチジェスチャである。判定部36Aによる判定処理については、後で詳述する。
[2-2.入力装置の動作]
次に、図10を参照しながら、実施の形態2に係る入力装置2Aの動作について説明する。図10は、実施の形態2に係る入力装置2Aの動作の流れを示すフローチャートである。
図10に示すように、物体18が第1のセンシング層16Aを通過した場合には、第1の検出部6Aは、第1のセンシング層16Aにおける物体18の大きさを検出する(S201)。検出処理部32Aは、第1の検出部6Aからの検出信号に基づいて、第1のセンシング層16Aにおける物体18の大きさを算出する。
ユーザの1本の手指が第1のセンシング層16Aを通過した場合には、検出処理部32Aは、第1のセンシング層16Aにおける物体18の大きさが閾値以下であると判定する(S202でYES)。ここで、閾値は、例えば1本の手指の平均的な大きさに相当する面積である。表示制御部40は、検出処理部32A及び測距演算部34の各算出結果に基づいて、物体18が第1のセンシング層16Aを通過した際に、操作画面10上にカーソル42(図5Aの(b)参照)を表示させる(S203)。
その後、ユーザの1本の手指が第2のセンシング層24を通過した場合には、第2の検出部8Aは、第2のセンシング層24における物体18(1本の手指)の存在を検出する(S204)。検出処理部32Aは、第2の検出部8Aからの検出信号に基づいて、物体18が第2のセンシング層24に存在すると判定する。判定部36Aは、カーソル42がアイコン14に重畳した状態で、物体18が第2のセンシング層24を通過した場合に、シングルタッチジェスチャが行われたと判定する(S205)。
上述したステップS202に戻り、例えばユーザの手首が第1のセンシング層16Aを通過した場合には、検出処理部32Aは、第1のセンシング層16Aにおける物体18の大きさが閾値を超えると判定する(S202でNO)。この場合、表示制御部40は、操作画面10上にカーソル42を表示させない。
その後、ユーザの手首又は手指等が第2のセンシング層24を通過した場合には、第2の検出部8Aは、第2のセンシング層24における物体18(手首又は手指等)の存在を検出する(S206)。検出処理部32Aは、第2の検出部8Aからの検出信号に基づいて、物体18が第2のセンシング層24に存在すると判定する。判定部36Aは、物体18が第2のセンシング層24を通過した場合に、シングルタッチジェスチャが行われなかったと判定する(S207)。
[2-3.効果]
上述したように、判定部36Aは、第1のセンシング層16Aにおける物体18の大きさ及び第2のセンシング層24における物体18の有無に基づいて、物体18による特定の非接触操作の有無を判定する。
例えば、ユーザが意図的に操作画面10に対する特定の非接触操作を行った場合には、第1のセンシング層16Aにおける物体18の大きさは閾値以下になると考えられる。そのため、この場合には、判定部36Aは、操作画面10に対する特定の非接触操作が行われたと判定する。
一方、例えば、ユーザの身体の一部等が意図せずに第1のセンシング層16Aを通過した場合には、第1のセンシング層16Aにおける物体18の大きさは閾値を超えると考えられる。そのため、この場合には、判定部36Aは、操作画面10に対する特定の非接触操作が行われなかったと判定する。
したがって、実施の形態2に係る入力装置2Aでは、上記実施の形態1と同様に、操作画面10に対する特定の非接触操作の有無を精度良く判定することができ、入力装置2Aをユーザインタフェースとする機器の誤操作等を回避することができる。
(変形例)
以上、本発明の実施の形態1及び2に係る入力装置について説明したが、本発明は、これらの実施の形態に限定されるものではない。例えば、上記各実施の形態をそれぞれ組み合わせてもよい。
上記各実施の形態では、液晶表示パネルで構成された表示部4の表示面12上に操作画面10を表示させたが、これに限定されない。操作画面は、例えば空中の表示領域である表示面に結像された空中像(実像)であってもよく、あるいは、プロジェクタによりスクリーン上の表示面に投影された投影画像であってもよい。
また、上記各実施の形態では、第1の検出部6(6A)と第2の検出部8(8A)とを別体に構成したが、これに限定されず、これらを一体に構成してもよい。すなわち、1つの検出部で第1の検出部6(6A)及び第2の検出部8(8A)の各機能を実現してもよい。
また、上記各実施の形態では、空中に第1のセンシング層16(16A)及び第2のセンシング層24を形成したが、これに限定されず、第2のセンシング層24と表示部4の表示面12との間の空中にさらに1又は複数の第3のセンシング層を形成してもよい。この場合、入力装置2(2A)は、1又は複数の第3のセンシング層における物体18の通過状態を検出する1又は複数の第3の検出部を備え、判定部36は、第1の検出部6(6A)、第2の検出部8(8A)、及び、1又は複数の第3の検出部の各々の検出結果に基づいて、物体18による特定の非接触操作の有無を判定する。なお、判定部36は、物体18が表示部4の表示面12に最も近い位置に形成された第3のセンシング層を通過した場合に、物体18による特定の非接触操作が行われたと判定してもよい。
また、上記各実施の形態では、物体18をユーザの手指としたが、これに限定されず、例えば指示棒等であってもよい。
(他の変形例等)
また、上記の各装置は、具体的には、マイクロプロセッサ、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクドライブ、ディスプレイユニット、キーボード及びマウス等から構成されるコンピュータシステムとして構成されてもよい。RAM又はハードディスクドライブには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、各装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
さらに、上記の各装置を構成する構成要素の一部又は全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM及びRAM等を含んで構成されるコンピュータシステムである。RAMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
さらにまた、上記の各装置を構成する構成要素の一部又は全部は、各装置に脱着可能なICカード又は単体のモジュールから構成されているとしてもよい。ICカード又はモジュールは、マイクロプロセッサ、ROM及びRAM等から構成されるコンピュータシステムである。ICカード又はモジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、ICカード又はモジュールは、その機能を達成する。このICカード又はこのモジュールは、耐タンパ性を有するとしてもよい。
また、本発明は、上記に示す方法であるとしてもよい。また、本発明は、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、上記コンピュータプログラムからなるデジタル信号であるとしてもよい。
さらに、本発明は、上記コンピュータプログラム又は上記デジタル信号をコンピュータ読み取り可能な非一時的な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD、半導体メモリ等に記録したものとしてもよい。また、これらの非一時的な記録媒体に記録されている上記デジタル信号であるとしてもよい。
また、本発明は、上記コンピュータプログラム又は上記デジタル信号を、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
また、本発明は、マイクロプロセッサ及びメモリを備えたコンピュータシステムであって、上記メモリは、上記コンピュータプログラムを記憶しており、上記マイクロプロセッサは、上記コンピュータプログラムに従って動作するとしてもよい。
また、上記プログラム又は上記デジタル信号を上記非一時的な記録媒体に記録して移送することにより、又は、上記プログラム又は上記デジタル信号を上記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
本発明の入力装置は、例えば機器を操作するためのユーザインタフェース等として適用することができる。
2,2A 入力装置
4 表示部
6,6A 第1の検出部
8,8A 第2の検出部
10 操作画面
12 表示面
14 アイコン
16,16A 第1のセンシング層
18 物体
20,44 第1の発光部
22,46 第1の受光部
24,24A 第2のセンシング層
26,48 第2の発光部
28,50 第2の受光部
30 演算処理部
32 検出処理部
34 測距演算部
36 判定部
38 動作処理部
40 表示制御部
42 カーソル
52a 第1の辺
52b 第2の辺
52c 第3の辺
52d 第4の辺

Claims (2)

  1. 物体による操作画面に対する特定の非接触操作を受け付けるための入力装置であって、
    表示面上に前記操作画面を表示させる表示制御部と、
    前記表示面に対向して形成された空中の第1のセンシング層における前記物体の通過状態を検出する第1の検出部と、
    前記表示面と前記第1のセンシング層との間に形成された空中の第2のセンシング層における前記物体の通過状態を検出する第2の検出部と、
    前記物体が前記第1のセンシング層を通過した後に前記第2のセンシング層を通過した状態で、前記第1の検出部及び前記第2の検出部の各々の検出結果に基づいて、前記物体による前記特定の非接触操作が行われたか否かを判定する判定部と、を備え
    前記第1の検出部は、前記第1のセンシング層における前記物体の大きさを検出し、
    前記第2の検出部は、前記第2のセンシング層における前記物体の有無を検出し、
    前記判定部は、
    前記第1のセンシング層における前記物体の大きさが閾値以下であり、且つ、前記第2のセンシング層において前記物体が検出された場合に、前記特定の非接触操作が行われたと判定し、
    前記第1のセンシング層における前記物体の大きさが前記閾値を超え、且つ、前記第2のセンシング層において前記物体が検出された場合に、前記特定の非接触操作が行われなかったと判定する
    入力装置。
  2. 物体による操作画面に対する特定の非接触操作を受け付けるための入力装置であって、
    表示面上に前記操作画面を表示させる表示制御部と、
    前記表示面に対向して形成された空中の第1のセンシング層における前記物体の通過状態を検出する第1の検出部と、
    前記表示面と前記第1のセンシング層との間に形成された空中の第2のセンシング層における前記物体の通過状態を検出する第2の検出部と、
    前記物体が前記第1のセンシング層を通過した後に前記第2のセンシング層を通過した状態で、前記第1の検出部及び前記第2の検出部の各々の検出結果に基づいて、前記物体による前記特定の非接触操作が行われたか否かを判定する判定部と、を備え、
    前記入力装置は、さらに、前記表示面と前記第2のセンシング層との間に形成された空中の1又は複数の第3のセンシング層における前記物体の通過状態を検出する1又は複数の第3の検出部を備え、
    前記判定部は、前記第1の検出部、前記第2の検出部、及び、前記1又は複数の第3の検出部の各々の検出結果に基づいて、前記物体による前記特定の非接触操作が行われたか否かを判定する
    力装置。
JP2019070743A 2019-04-02 2019-04-02 入力装置 Active JP7400205B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019070743A JP7400205B2 (ja) 2019-04-02 2019-04-02 入力装置
CN202010118480.7A CN111796694A (zh) 2019-04-02 2020-02-26 输入装置
EP20161297.5A EP3719614B1 (en) 2019-04-02 2020-03-05 Input device
US16/813,762 US11068108B2 (en) 2019-04-02 2020-03-10 Input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019070743A JP7400205B2 (ja) 2019-04-02 2019-04-02 入力装置

Publications (2)

Publication Number Publication Date
JP2020170311A JP2020170311A (ja) 2020-10-15
JP7400205B2 true JP7400205B2 (ja) 2023-12-19

Family

ID=69779894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019070743A Active JP7400205B2 (ja) 2019-04-02 2019-04-02 入力装置

Country Status (4)

Country Link
US (1) US11068108B2 (ja)
EP (1) EP3719614B1 (ja)
JP (1) JP7400205B2 (ja)
CN (1) CN111796694A (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022113036A (ja) * 2021-01-22 2022-08-03 キヤノン株式会社 情報処理装置
FR3122751B1 (fr) * 2021-05-04 2023-10-06 Imprimerie Nat Kit de détection pour borne interactive
JP7256842B2 (ja) * 2021-05-25 2023-04-12 株式会社エイサムテクノロジー 非接触入力装置
JPWO2023073759A1 (ja) * 2021-10-25 2023-05-04
US11995359B2 (en) 2021-12-14 2024-05-28 Canon Kabushiki Kaisha Image forming apparatus with touch and touchless input portion

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014164755A (ja) 2013-02-22 2014-09-08 Samsung Electronics Co Ltd センサを用いる近接動作認識装置及びその装置を用いた方法
WO2016092617A1 (ja) 2014-12-08 2016-06-16 日立マクセル株式会社 投射型映像表示装置及び映像表示方法
JP2017228216A (ja) 2016-06-24 2017-12-28 キヤノン株式会社 情報処理装置、その制御方法、プログラム、及び記憶媒体
WO2018083737A1 (ja) 2016-11-01 2018-05-11 マクセル株式会社 表示装置及び遠隔操作制御装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06110610A (ja) * 1992-09-30 1994-04-22 Toshiba Corp 座標入力装置
JP2008009759A (ja) * 2006-06-29 2008-01-17 Toyota Motor Corp タッチパネル装置
WO2012011263A1 (ja) * 2010-07-20 2012-01-26 パナソニック株式会社 ジェスチャ入力装置およびジェスチャ入力方法
US9470922B2 (en) * 2011-05-16 2016-10-18 Panasonic Intellectual Property Corporation Of America Display device, display control method and display control program, and input device, input assistance method and program
JP2014067071A (ja) 2012-09-10 2014-04-17 Askanet:Kk 空中タッチパネル
US10394434B2 (en) * 2013-02-22 2019-08-27 Samsung Electronics Co., Ltd. Apparatus and method for recognizing proximity motion using sensors
US20150002475A1 (en) * 2013-06-27 2015-01-01 Industrial Technology Research Institute Mobile device and method for controlling graphical user interface thereof
JP6359862B2 (ja) * 2014-04-17 2018-07-18 シャープ株式会社 タッチ操作入力装置、タッチ操作入力方法及びプログラム
WO2015182388A1 (ja) * 2014-05-29 2015-12-03 富士電機株式会社 光学的操作入力検出装置、自動販売機、及び光学的操作入力検出方法
KR101636460B1 (ko) * 2014-11-05 2016-07-05 삼성전자주식회사 전자 장치 및 그 제어 방법
TWI546715B (zh) * 2014-12-26 2016-08-21 深圳市華星光電技術有限公司 懸浮觸控方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014164755A (ja) 2013-02-22 2014-09-08 Samsung Electronics Co Ltd センサを用いる近接動作認識装置及びその装置を用いた方法
WO2016092617A1 (ja) 2014-12-08 2016-06-16 日立マクセル株式会社 投射型映像表示装置及び映像表示方法
JP2017228216A (ja) 2016-06-24 2017-12-28 キヤノン株式会社 情報処理装置、その制御方法、プログラム、及び記憶媒体
WO2018083737A1 (ja) 2016-11-01 2018-05-11 マクセル株式会社 表示装置及び遠隔操作制御装置

Also Published As

Publication number Publication date
EP3719614B1 (en) 2022-12-21
US11068108B2 (en) 2021-07-20
JP2020170311A (ja) 2020-10-15
CN111796694A (zh) 2020-10-20
EP3719614A1 (en) 2020-10-07
US20200319750A1 (en) 2020-10-08

Similar Documents

Publication Publication Date Title
JP7400205B2 (ja) 入力装置
US11199963B2 (en) Non-contact operation input device
US20170228138A1 (en) System and method for spatial interaction for viewing and manipulating off-screen content
US8810509B2 (en) Interfacing with a computing application using a multi-digit sensor
KR101597844B1 (ko) 터치 스크린 상의 모호한 입력들의 해석
CA2738185C (en) Touch-input with crossing-based widget manipulation
US9218121B2 (en) Apparatus and method recognizing touch gesture
US20100302155A1 (en) Virtual input devices created by touch input
TWI490775B (zh) 運算裝置、其操作方法以及非暫態電腦可讀取媒體
JP2008159032A (ja) 操作制御方法およびシステム
TWI502474B (zh) 使用者介面的操作方法與電子裝置
KR102323892B1 (ko) 멀티 터치 가상 마우스
CA2909182C (en) Virtual touch screen
US9235293B2 (en) Optical touch device and touch sensing method
JP5575027B2 (ja) 表示一体型座標入力装置及び仮想キーボード機能の起動方法
TW201617793A (zh) 穿戴式裝置及其操作方法
KR20140086805A (ko) 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록매체
TW201310314A (zh) 觸控面板之3d感測方法及系統
WO2012114791A1 (ja) ジェスチャー操作システム
US9727236B2 (en) Computer input device
JP2013238963A (ja) インタラクティブ表示装置
KR20190049349A (ko) 프로젝션 영상에서 사용자의 터치를 인식하는 방법 및 이러한 방법을 수행하는 장치
US11615568B2 (en) System and method for expanding a canvas
KR101835952B1 (ko) 화면의 이동을 제어하는 장치 및 방법
TW201432585A (zh) 觸控面板的操作方法與電子裝置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230303

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20230616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231120

R150 Certificate of patent or registration of utility model

Ref document number: 7400205

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150