JP2018109873A - Electronic device, program and control method - Google Patents
Electronic device, program and control method Download PDFInfo
- Publication number
- JP2018109873A JP2018109873A JP2017000237A JP2017000237A JP2018109873A JP 2018109873 A JP2018109873 A JP 2018109873A JP 2017000237 A JP2017000237 A JP 2017000237A JP 2017000237 A JP2017000237 A JP 2017000237A JP 2018109873 A JP2018109873 A JP 2018109873A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- electronic device
- controller
- user
- proximity sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、電子機器、プログラムおよび制御方法に関する。 The present invention relates to an electronic device, a program, and a control method.
例えばスマートフォンおよびタブレット端末等の電子機器は、一般にタッチパネルを備えている。ユーザは、このような電子機器を、タッチパネルに触れることで制御するのが一般的である。近年、ユーザが端末から離れて行うジェスチャを例えば赤外線センサ等の近接センサによって検出し、ジェスチャと対応する入力操作を実行する電子機器が知られている(例えば特許文献1)。 For example, electronic devices such as smartphones and tablet terminals generally include a touch panel. A user generally controls such an electronic device by touching a touch panel. 2. Description of the Related Art In recent years, an electronic device that detects a gesture performed by a user away from a terminal using a proximity sensor such as an infrared sensor and performs an input operation corresponding to the gesture is known (for example, Patent Document 1).
特許文献1に開示されたジェスチャによる入力操作は、タッチパネルへの入力操作と異なり、直接電子機器に触れて操作が行われるものではない。そのため、ユーザが特定の操作を意図してジェスチャを行っても、電子機器が、ユーザの意図とは異なる操作として認識する場合がある。電子機器が、ユーザのジェスチャを、ユーザの意図しないジェスチャと認識した場合、電子機器の誤操作が発生し得る。
Unlike the input operation to the touch panel, the input operation by the gesture disclosed in
かかる事情に鑑みてなされた本発明の目的は、ジェスチャによる入力操作において誤操作を防止しやすい電子機器、プログラムおよび制御方法を提供することにある。 An object of the present invention made in view of such circumstances is to provide an electronic device, a program, and a control method that can easily prevent an erroneous operation in an input operation by a gesture.
本発明の実施形態に係る電子機器は、近接センサと、前記近接センサからの出力と、自機器の状態とに応じて、ジェスチャの方向を決定するコントローラと、を備える。 An electronic device according to an embodiment of the present invention includes a proximity sensor, a controller that determines a direction of a gesture according to an output from the proximity sensor, and a state of the device itself.
本発明の実施形態に係るプログラムは、近接センサと、コントローラと、を備える電子機器に、前記コントローラにより、前記近接センサからの出力と、前記電子機器の状態とに応じて、前記ジェスチャの方向を決定するステップを実行させる。 A program according to an embodiment of the present invention is directed to an electronic device including a proximity sensor and a controller, and the controller controls the direction of the gesture according to an output from the proximity sensor and a state of the electronic device. Let the decision step be executed.
本発明の実施形態に係る制御方法は、近接センサと、コントローラと、を備える電子機器の制御方法であって、前記コントローラにより、前記近接センサからの出力と、前記電子機器の状態とに応じて、前記ジェスチャの方向を決定するステップを含む。 The control method which concerns on embodiment of this invention is a control method of an electronic device provided with a proximity sensor and a controller, Comprising: According to the output from the said proximity sensor by the said controller, and the state of the said electronic device Determining the direction of the gesture.
本発明の一実施形態によれば、ジェスチャによる入力操作において誤操作を防止しやすい電子機器、プログラムおよび制御方法を提供することができる。 According to an embodiment of the present invention, it is possible to provide an electronic device, a program, and a control method that can easily prevent an erroneous operation in an input operation by a gesture.
(電子機器の構成)
図1に示すように一実施形態の電子機器1は、タイマー12と、カメラ13と、ディスプレイ14と、マイク15と、ストレージ16と、通信ユニット17と、スピーカー25と、近接センサ18(ジェスチャセンサ)と、コントローラ11と、を備える。電子機器1は、さらにUVセンサ19と、照度センサ20と、加速度センサ21と、地磁気センサ22と、気圧センサ23と、ジャイロセンサ24と、を備える。図1は例示である。電子機器1は図1に示す構成要素の全てを備えなくてもよい。また、電子機器1は図1に示す以外の構成要素を備えていてもよい。
(Configuration of electronic equipment)
As shown in FIG. 1, an
タイマー12はコントローラ11からタイマー動作の指示を受け、所定時間経過した時点で、その旨を示す信号をコントローラ11に出力する。タイマー12は、図1に示すようにコントローラ11とは独立して設けられていてもよいし、コントローラ11が内蔵する構成であってもよい。
The
カメラ13は、電子機器1の周囲の被写体を撮像する。カメラ13は一例として、電子機器1のディスプレイ14が設けられる面に設けられるインカメラである。
The
ディスプレイ14は画面を表示する。画面は、例えば文字、画像、記号および図形等の少なくとも一つを含む。ディスプレイ14は、液晶ディスプレイ(Liquid Crystal Display)、有機ELパネル(Organic Electro-Luminescence Panel)または無機ELパネル(Inorganic Electro-Luminescence Panel)等であってもよい。本実施形態において、ディスプレイ14はタッチパネルディスプレイ(タッチスクリーンディスプレイ)である。タッチパネルディスプレイは、指またはスタイラスペン等の接触を検出して、その接触位置を特定する。ディスプレイ14は、指またはスタイラスペン等が接触した位置を同時に複数検出することができる。
The
マイク15は、人が発する声を含む、電子機器1の周囲の音を検出する。
The
ストレージ16は記憶部としてプログラムおよびデータを記憶する。ストレージ16は、コントローラ11の処理結果を一時的に記憶する。ストレージ16は、半導体記憶デバイスおよび磁気記憶デバイス等の任意の記憶デバイスを含んでよい。ストレージ16は、複数の種類の記憶デバイスを含んでよい。ストレージ16は、メモリカード等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。
The
ストレージ16に記憶されるプログラムには、フォアグランドまたはバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとを含む。アプリケーションは、例えば、ジェスチャに応じた処理をコントローラ11に実行させる。制御プログラムは、例えば、OS(Operating System)である。アプリケーションおよび制御プログラムは、通信ユニット17による通信または記憶媒体を介してストレージ16にインストールされてもよい。
The programs stored in the
通信ユニット17は、有線または無線により通信するためのインタフェースである。一実施形態の通信ユニット17によって行われる通信方式は無線通信規格である。例えば、無線通信規格は2G、3Gおよび4G等のセルラーフォンの通信規格を含む。例えばセルラーフォンの通信規格は、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile communications)およびPHS(Personal Handy-phone System)等を含む。例えば、無線通信規格は、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)およびNFC(Near Field Communication)等を含む。通信ユニット17は、上述した通信規格の1つまたは複数をサポートすることができる。 The communication unit 17 is an interface for communicating by wire or wireless. The communication method performed by the communication unit 17 of one embodiment is a wireless communication standard. For example, the wireless communication standards include cellular phone communication standards such as 2G, 3G, and 4G. For example, communication standards for cellular phones include LTE (Long Term Evolution), W-CDMA (Wideband Code Division Multiple Access), CDMA2000, PDC (Personal Digital Cellular), GSM (registered trademark) (Global System for Mobile communications) and PHS (PHS). Personal Handy-phone System). For example, wireless communication standards include WiMAX (Worldwide Interoperability for Microwave Access), IEEE 802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (Near Field Communication), and the like. The communication unit 17 can support one or more of the communication standards described above.
スピーカー25は音を出力する。例えば通話の際に、相手の声がスピーカー25から出力される。また、例えばニュースまたは天気予報等の読み上げの際に、その内容がスピーカー25から音で出力される。 The speaker 25 outputs sound. For example, the other party's voice is output from the speaker 25 during a call. For example, when reading out news or weather forecasts, the content is output from the speaker 25 as sound.
近接センサ18は、電子機器1の周囲の対象物との相対距離および対象物の移動方向等を非接触で検出する。本実施形態において、近接センサ18は1つの光源用赤外LED(Light Emitting Diode)と4つの赤外フォトダイオードとを有する。近接センサ18は、光源用赤外LEDから赤外光を対象物に向けて照射する。近接センサ18は、対象物からの反射光を赤外フォトダイオードの入射光とする。そして、近接センサ18は赤外フォトダイオードの出力電流に基づいて対象物との相対距離を測定することができる。また、近接センサ18は、対象物からの反射光がそれぞれの赤外フォトダイオードに入射する時間差により対象物の移動方向を検出する。したがって、近接センサ18は、電子機器1のユーザが電子機器1に触れずに行うエアジェスチャ(以下単に「ジェスチャ」という)を用いた操作を検出することができる。ここで、近接センサ18は可視光フォトダイオードを有していてもよい。
The
コントローラ11は、例えばCPU(Central Processing Unit)等のプロセッサである。コントローラ11は、他の構成要素が統合されたSoC(System-on-a-Chip)等の集積回路であってもよい。コントローラ11は、複数の集積回路を組み合わせて構成されてもよい。コントローラ11は、電子機器1の動作を統括的に制御して各種の機能を実現する。
The controller 11 is a processor such as a CPU (Central Processing Unit). The controller 11 may be an integrated circuit such as an SoC (System-on-a-Chip) in which other components are integrated. The controller 11 may be configured by combining a plurality of integrated circuits. The controller 11 controls various operations of the
具体的にはコントローラ11は、ストレージ16に記憶されているデータを必要に応じて参照する。コントローラ11は、ストレージ16に記憶されているプログラムに含まれる命令を実行してディスプレイ14等の他の機能部を制御することによって各種機能を実現する。例えばコントローラ11は、ユーザによる接触のデータをタッチパネルから取得する。例えばコントローラ11は、近接センサ18が検出したユーザのジェスチャに関する情報を取得する。例えばコントローラ11は、タイマー12からカウントダウンの残り時間(タイマー時間)等の情報を取得する。また、例えばコントローラ11は、アプリケーションの起動状況を把握する。
Specifically, the controller 11 refers to data stored in the
UVセンサ19は、太陽光等に含まれる紫外線(Ultraviolet)量を測定することができる。
The
照度センサ20は、当該照度センサ20に入射する周囲光の照度を検出する。
The
加速度センサ21は、電子機器1に働く加速度の方向および大きさを検出する。加速度センサ21は、例えばx軸方向、y軸方向およびz軸方向の加速度を検出する3軸(3次元)タイプである。加速度センサ21は、例えばピエゾ抵抗型であってもよいし、静電容量型であってもよい。
The
地磁気センサ22は地磁気の向きを検出して、電子機器1の向きを測定可能にする。
The
気圧センサ23は、電子機器1の外側の気圧(大気圧)を検出する。
The
ジャイロセンサ24は、電子機器1の角速度を検出する。コントローラ11は、ジャイロセンサ24により取得された角速度を時間積分することにより、電子機器1の向きの変化を測定することができる。
The gyro sensor 24 detects the angular velocity of the
(ジェスチャによる電子機器の操作)
図2は、ユーザがジェスチャにより電子機器1を操作する様子を示す。図2において、電子機器1は一例としてスタンドによって支持される。代替例として電子機器1は壁に立てかけられたり、テーブルに置かれたりしてもよい。近接センサ18がユーザのジェスチャを検出すると、コントローラ11は検出されたジェスチャに基づく処理を行う。図2の例では、ジェスチャに基づく処理はレシピが表示されている画面のスクロールである。例えば、ユーザが電子機器1の長手方向上方へと手を動かすジェスチャを行うと、ユーザの手の動きに連動して画面が上方へとスクロールする。また、例えば、ユーザが電子機器1の長手方向下方へと手を動かすジェスチャを行うと、ユーザの手の動きに連動して画面が下方へとスクロールする。
(Operating electronic devices using gestures)
FIG. 2 shows a state in which the user operates the
図2に示す電子機器1はスマートフォンである。代替例として電子機器1は例えば、携帯電話端末、ファブレット、タブレットPCまたはフィーチャーフォン等でもよい。また、電子機器1は、上記のものに限定されず、例えば、PDA、リモコン端末、携帯音楽プレイヤー、ゲーム機、電子書籍リーダ、カーナビゲーション、家電製品または産業用機器(FA機器)等でもよい。
The
(ジェスチャを検出する手法)
ここで、図3および図4を参照しながら、コントローラ11が近接センサ18の出力に基づいてユーザのジェスチャを検出する手法を説明する。図3は、電子機器1を正面から見たときの近接センサ18の構成例を示す図である。近接センサ18は、光源用赤外LED180と、4つの赤外フォトダイオードSU,SR,SDおよびSLと、を有する。4つの赤外フォトダイオードSU,SR,SDおよびSLは、レンズ181を介して検出対象物からの反射光を検出する。4つの赤外フォトダイオードSU,SR,SDおよびSLは、レンズ181の中心から見て対称的に配置されている。ここで、図3に示される仮想線D1は電子機器1の長手方向と略平行であるとする。図3の仮想線D1上に、赤外フォトダイオードSUと赤外フォトダイオードSDとが離れて配置されている。そして、図3の仮想線D1の方向において、赤外フォトダイオードSRおよびSLは、赤外フォトダイオードSUと赤外フォトダイオードSDとの間に配置されている。
(Method for detecting gestures)
Here, a method in which the controller 11 detects a user gesture based on the output of the
図4は、4つの赤外フォトダイオードSU,SR,SDおよびSLの検出対象物(例えばユーザの手等)が、図3の仮想線D1の方向に沿って移動したときの検出値の推移を例示する。ここで、仮想線D1の方向において、赤外フォトダイオードSUと赤外フォトダイオードSDとが最も離れている。そのため、図4に示すように、赤外フォトダイオードSUの検出値(破線)の変化(例えば上昇)と、赤外フォトダイオードSDの検出値(細い実線)の同じ変化(例えば上昇)との時間差が最も大きい。コントローラ11は、フォトダイオードSU,SR,SDおよびSLの検出値の所定の変化の時間差を把握することによって、検出対象物の移動方向を判定できる。 FIG. 4 shows the transition of the detection value when the detection objects (for example, the user's hand) of the four infrared photodiodes SU, SR, SD, and SL move along the direction of the virtual line D1 in FIG. Illustrate. Here, the infrared photodiode SU is farthest from the infrared photodiode SD in the direction of the virtual line D1. Therefore, as shown in FIG. 4, the time difference between the change (for example, increase) in the detection value (broken line) of the infrared photodiode SU and the same change (for example, increase) in the detection value (thin solid line) of the infrared photodiode SD. Is the largest. The controller 11 can determine the moving direction of the detection object by grasping the time difference of the predetermined change in the detection values of the photodiodes SU, SR, SD, and SL.
コントローラ11は、近接センサ18からフォトダイオードSU,SR,SDおよびSLの検出値を取得する。そして、コントローラ11は、例えば検出対象物の仮想線D1の方向への移動を把握するために、フォトダイオードSDの検出値からフォトダイオードSUの検出値を減算した値を所定の時間で積分してもよい。図4の例では、領域R41およびR42において積分値は非ゼロの値となる。この積分値の変化(例えば正値、ゼロ、負値の変化)から、コントローラ11は、仮想線D1の方向における検出対象物の移動を把握できる。
The controller 11 acquires the detection values of the photodiodes SU, SR, SD, and SL from the
また、コントローラ11は、フォトダイオードSLの検出値からフォトダイオードSRの検出値を減算した値を所定の時間で積分してもよい。この積分値の変化(例えば正値、ゼロ、負値の変化)から、コントローラ11は、仮想線D1に直交する方向(電子機器1の短手方向に略平行な方向)における検出対象物の移動を把握できる。 Further, the controller 11 may integrate a value obtained by subtracting the detection value of the photodiode SR from the detection value of the photodiode SL in a predetermined time. From this change in integral value (for example, a change in positive value, zero, or negative value), the controller 11 moves the detection target in a direction orthogonal to the virtual line D1 (a direction substantially parallel to the short direction of the electronic device 1). Can be grasped.
代替例として、コントローラ11はフォトダイオードSU,SR,SDおよびSLの全ての検出値を用いて演算を行ってもよい。すなわち、コントローラ11は検出対象物の移動方向を、電子機器1の長手方向および短手方向の成分に分離して演算することなく把握してもよい。
As an alternative example, the controller 11 may perform calculation using all detection values of the photodiodes SU, SR, SD, and SL. That is, the controller 11 may grasp the moving direction of the detection target without calculating the components in the longitudinal direction and the short direction of the
検出されるジェスチャは例えば、左右のジェスチャ、上下のジェスチャ、斜めのジェスチャ、時計回りで円を描くジェスチャ、および反時計回りで円を描くジェスチャ等である。例えば左右へのジェスチャとは、電子機器1の短手方向と略平行な方向に行われるジェスチャである。上下のジェスチャとは、電子機器1の長手方向と略平行な方向に行われるジェスチャである。斜めのジェスチャとは、電子機器1と略平行な平面において、電子機器1の長手方向と短手方向とのいずれとも平行でない方向に行われるジェスチャである。
The detected gestures include, for example, left and right gestures, up and down gestures, diagonal gestures, gestures that draw a circle in a clockwise direction, and gestures that draw a circle in a counterclockwise direction. For example, the right and left gesture is a gesture performed in a direction substantially parallel to the short direction of the
(キッチンモード)
図5は、ユーザがジェスチャにより電子機器1を操作する状況の一例を示す。図5の例で、ユーザは料理のレシピを電子機器1のディスプレイ14に表示しながら、キッチンでレシピに従って料理をしている。このとき、近接センサ18はユーザのジェスチャを検出する。そして、コントローラ11は近接センサ18が検出したジェスチャに基づく処理を行う。例えば、コントローラ11は特定のジェスチャ(例えばユーザが手を上下に動かすジェスチャ)に応じてレシピをスクロールする処理が可能である。料理中は、ユーザの手が汚れたり、濡れたりすることがある。しかし、ユーザは電子機器1に触れることなくレシピをスクロールすることができる。したがって、ディスプレイ14が汚れること、および料理中のユーザの手にディスプレイ14の汚れがうつることを回避できる。
(Kitchen mode)
FIG. 5 shows an example of a situation where the user operates the
ここで、電子機器1はモードを複数有する。モードとは電子機器1の全体の動作について制限等を与える動作モード(動作状態または動作状況)を意味する。モードは同時に1つだけ選択可能である。本実施形態において、電子機器1のモードは第1モードおよび第2モードを含む。第1モードは、例えばキッチン以外の部屋および外出先等での使用に適している通常の動作モード(通常モード)である。第2モードは、キッチンでレシピを表示しながら料理を行うのに最適な電子機器1の動作モード(キッチンモード)である。上記で説明したように、第2モードの場合には、ジェスチャによる入力操作が可能であることが好ましい。つまり、電子機器1のモードが第2モードに切り替わる場合には、連動して近接センサ18を動作させてジェスチャを検出可能にすることが好ましい。本実施形態の電子機器1は、以下に説明するユーザインターフェースを備えることによって、第2モード(キッチンモード)への切り替えと近接センサ18の動作とを連動させることが可能である。
Here, the
(ジェスチャの方向を決定する手法)
次に、電子機器1のコントローラ11による、ジェスチャの方向の決定処理について説明する。コントローラ11によるジェスチャの方向の決定処理は、例えば、電子機器1が上述したキッチンモードである場合に実行されてもよい。
(Method to determine the direction of the gesture)
Next, gesture direction determination processing by the controller 11 of the
電子機器1において、ジェスチャとして検出される方向は、予め定められていてよい。例えば、ジェスチャとして検出される方向は、電子機器1の長手方向と、電子機器1の短手方向とに定められていてよい。電子機器1のコントローラ11は、ジェスチャを検出すると、検出したジェスチャが長手方向の操作であるか、短手方向の操作であるかを決定する。例えば、コントローラ11は、ジェスチャを検出すると、ジェスチャを長手方向の成分(移動量)と短手方向の成分(移動量)とに分解する。そして、コントローラ11は、長手方向の成分が短手方向の成分よりも大きい場合、ジェスチャが長手方向の操作であると決定し、短手方向の成分が長手方向の成分よりも大きい場合、ジェスチャが短手方向の操作であると決定できる。
In the
図6は、ジェスチャの方向の決定について説明するための概念図である。図6において、上下方向は電子機器1の長手方向、左右方向は電子機器1の短手方向であるとする。図6において、長手方向は、ユーザが実行するジェスチャの上下方向に、短手方向は、ユーザが実行するジェスチャの左右方向に、それぞれ対応するとする。ユーザのジェスチャの方向は、図6に、実線により区切られた領域として概念的に示されるように、例えば上下左右の各方向において、均等に割り当てられた判定基準に基づいて決定される。この判定基準によれば、例えば、ユーザが手を下方向から上方向に動かすジェスチャを行った場合、図6の矢印A1に示すように、当該ジェスチャが下から上に向かう長手方向のジェスチャとして検出されると、電子機器1において上方向の処理が実行される。
FIG. 6 is a conceptual diagram for explaining determination of the direction of a gesture. In FIG. 6, the vertical direction is the longitudinal direction of the
しかしながら、ユーザのジェスチャは、ユーザが意図する方向のジェスチャとして認識されない場合がある。例えば、ユーザが、長手方向(上下方向)の操作を行うことを意図して、手を長手方向に動かすジェスチャを行ったとする。このジェスチャを、例えばユーザが右手で行う場合、人体の構造上、右手の手のひらは、図7に手の動きを矢印で模式的に示すように、右手の肘を軸として弧を描くように移動する。この場合、ユーザが行ったジェスチャは、ユーザが意図した長手方向の成分と、手のひらが弧を描いたことにより生じる短手方向の成分とを有する。 However, the user's gesture may not be recognized as a gesture in the direction intended by the user. For example, it is assumed that the user performs a gesture of moving the hand in the longitudinal direction with the intention of performing an operation in the longitudinal direction (vertical direction). For example, when the user performs this gesture with the right hand, the palm of the right hand moves so as to draw an arc around the elbow of the right hand as schematically shown by the arrow in FIG. To do. In this case, the gesture made by the user has a component in the longitudinal direction intended by the user and a component in the short direction caused by the palm drawing an arc.
このジェスチャにおいて、コントローラ11は、短手方向の成分が長手方向の成分より大きいと判断した場合、上記ジェスチャを、短手方向の操作であると認識する場合がある。例えば、当該ユーザのジェスチャは、図6の矢印A2として概念的に示すように、短手方向(右方向)のジェスチャとして検出される場合がある。しかしながら、当該ジェスチャにおいて、ユーザが意図したのは長手方向の操作であるため、コントローラ11がジェスチャに基づいて短手方向の処理を行うと、誤操作となる。 In this gesture, if the controller 11 determines that the short direction component is larger than the long direction component, the controller 11 may recognize the gesture as an operation in the short direction. For example, the user's gesture may be detected as a gesture in the short direction (right direction) as conceptually indicated by an arrow A2 in FIG. However, since it is the operation in the longitudinal direction that the user intended in the gesture, if the controller 11 performs processing in the short direction based on the gesture, an erroneous operation is performed.
本実施形態に係る電子機器1のコントローラ11は、近接センサ18からの出力と、自機器(電子機器1)の状態とに応じて、ジェスチャの方向を決定できる。コントローラ11が電子機器1の状態に応じてジェスチャの方向を決定することにより、ユーザが意図しない処理が実行されにくくなる。これにより、電子機器1は、ジェスチャによる入力操作において誤操作を防止しやすくなる。
The controller 11 of the
ここで、コントローラ11による、電子機器1の状態に応じた、ジェスチャの方向の決定処理について、詳細に説明する。ジェスチャの方向の決定処理において、コントローラ11は、近接センサ18からの出力と電子機器1の状態とに応じて、ユーザによるジェスチャの優先判定方向を決定する。優先判定方向は、ユーザのジェスチャの方向として優先的に判定される方向であり、例えばユーザが操作を行う可能性が高い方向であってよい。コントローラ11は、ユーザのジェスチャにより示される制御方向が、優先判定方向以外の他の方向よりも、優先判定方向として検出されやすくなるように処理を実行する。コントローラ11は、このような処理を、例えば、優先判定方向と他の方向との移動量についての重みづけを変更することによって実現してよい。なお、優先判定方向における検出の優先の程度(どの程度優先するか)については、電子機器1の状態に応じて適宜定められていてよい。優先の程度は、例えば重みづけの程度により定めることができる。
Here, the determination process of the gesture direction according to the state of the
電子機器1の状態は、例えばディスプレイ14に表示される画面の向きであってよい。ここでは、一例として、電子機器1のディスプレイ14には、電子機器1の向きに応じて画面が表示される場合について説明する。例えば、ディスプレイ14には、図8(A)に示すように、電子機器1の長手方向が縦方向(上下方向)としてユーザに認識される画面と、図8(B)に示すように、電子機器1の短手方向が縦方向としてユーザに認識される画面との、いずれかの画面が表示される。ディスプレイ14に表示される画面は、例えば加速度センサ21等に基づいて決定される、鉛直方向に対する電子機器1の向きに応じてコントローラ11により決定されてよい。電子機器1の状態は、ディスプレイ14に表示される画面が、長手方向が縦方向としてユーザに認識される画面か、電子機器1の短手方向が縦方向としてユーザに認識される画面かを含んでよい。
The state of the
コントローラ11は、ディスプレイ14に表示される画面の向きに基づいて、例えば上下方向を優先判定方向として決定してよい。この場合、ジェスチャは、左右方向よりも、上下方向のジェスチャとして判定されやすくなる。
The controller 11 may determine, for example, the vertical direction as the priority determination direction based on the orientation of the screen displayed on the
コントローラ11による処理の詳細について、図9を参照して説明する。図9は、優先判定方向の決定に基づく、ジェスチャの方向を決定するための割当てについて説明するための概念図である。図9に記載した破線は、図6における、上下左右の判定領域を区切る実線に対応する。図9に示すように、コントローラ11は、図6に示す場合と比較して、上下方向と左右方向との判定領域を区切る実線の傾きを小さくすることにより、上方向および下方向と判定される領域を広げ、右方向および左方向と判定される領域を狭める。この場合、例えば、ユーザのジェスチャが矢印A3に示すように、右方向の成分を含む場合であっても、コントローラ11は、上方向のジェスチャとして認識できる。 Details of the processing by the controller 11 will be described with reference to FIG. FIG. 9 is a conceptual diagram for explaining assignment for determining the direction of the gesture based on the determination of the priority determination direction. The dashed lines described in FIG. 9 correspond to the solid lines separating the upper, lower, left, and right determination areas in FIG. As shown in FIG. 9, the controller 11 determines the upward and downward directions by reducing the slope of the solid line that separates the determination region between the vertical direction and the horizontal direction as compared with the case shown in FIG. 6. The area is expanded, and the areas determined to be right and left are narrowed. In this case, for example, even when the user's gesture includes a component in the right direction as indicated by an arrow A3, the controller 11 can recognize the gesture as an upward direction.
図10は、電子機器1の向きと、ジェスチャの方向を決定するための割当てとの関係について説明するための図である。図10には、電子機器1を示す図に重畳して、図9に示す判定領域の概念図が示されている。
FIG. 10 is a diagram for explaining the relationship between the orientation of the
コントローラ11は、図10(A)に示すように、ディスプレイ14に表示される画面が、長手方向が縦方向としてユーザに認識される画面である場合、当該長手方向を上下方向に対応付けて、優先判定方向を決定する。つまり、コントローラ11は、上下方向に対応付けられた長手方向を、優先判定方向であると決定する。この場合、図10(A)に概念図として示すように、コントローラ11は、上下方向の判定領域を広げて、ジェスチャの方向の判定を行う。つまり、電子機器1の長手方向が上下方向に対応付けられた状態で、上下方向の判定領域が拡大されるため、ユーザのジェスチャは、電子機器1の長手方向に沿ったジェスチャとして判定されやすくなる。
As shown in FIG. 10A, when the screen displayed on the
これに対し、コントローラ11は、図10(B)に示すように、ディスプレイ14に表示される画面が、短手方向が縦方向としてユーザに認識される画面である場合、当該短手方向を上下方向に対応付けて、優先判定方向を決定する。つまり、コントローラ11は、上下方向に対応付けられた短手方向を、優先判定方向であると決定する。この場合、コントローラ11は、上下方向の判定領域を広げて、ジェスチャの方向の判定を行う。つまり、この場合、電子機器1の短手方向が上下方向に対応付けられた状態で、上限方向の判定領域が拡大されるため、ユーザのジェスチャは、電子機器1の短手方向に沿ったジェスチャとして判定されやすくなる。
On the other hand, when the screen displayed on the
このように、電子機器1が、電子機器1の向きに応じて上下方向を優先判定方向として決定することにより、例えばディスプレイ14に表示される画面における主要な操作が上下方向の操作である場合、ユーザのジェスチャが左右方向の成分を含む場合であっても、より頻度が高いことが想定される上下方向のジェスチャとして認識されやすくなる。
In this way, when the
なお、電子機器1は、左右方向を優先判定方向と決定してもよい。これにより、電子機器1は、ディスプレイ14に表示される画面における主要な操作が左右方向の操作である場合、ユーザのジェスチャが上下方向の成分を含む場合であっても、より頻度が高いことが想定される左右方向のジェスチャとして認識されやすくなる。
Note that the
このように、電子機器1において、コントローラ11は、ディスプレイ14に表示される画面の向きに基づいて優先判定方向を決定することにより、ユーザのジェスチャを、ユーザが意図する方向のジェスチャとして検出しやすくなる。そのため、電子機器1によれば、ジェスチャによる入力操作において誤操作を防止しやすくなる。
As described above, in the
電子機器1の状態は、ディスプレイ14に表示される画面の向きに限られない。電子機器1の状態は、例えば電子機器1において実行されている機能に応じて決定されてもよい。
The state of the
例えば、近接センサ18がジェスチャを検出したときに実行されている機能が、ディスプレイ14に表示された情報の閲覧であり、ディスプレイ14に表示された画面のスクロール操作が、上下方向のジェスチャにより実行されるとする。この場合、コントローラ11は、ディスプレイ14に表示された画面の上下方向を優先判定方向であると決定してよい。ユーザがディスプレイ14で情報を閲覧している場合には、上下方向の画面のスクロール操作が主要な操作になると想定されるところ、コントローラ11は、スクロール操作に対応する上下方向を優先判定方向と決定することにより、ユーザのジェスチャを、上下方向のジェスチャとして認識しやすくなる。つまり、ユーザのジェスチャは、より頻度が高いことが想定される上下方向のジェスチャとして認識されやすくなる。
For example, a function executed when the
また、例えば、近接センサ18がジェスチャを検出したときに実行されている機能が、電話の着信であり、手を左から右に移動させるという左右方向のジェスチャにより、電子機器1において着信に応答することができるとする。この場合、コントローラ11は、ディスプレイ14に表示された画面の左右方向を優先判定方向であると決定してよい。ユーザが着信に応答する場合には、タッチパネルにおけるスライド操作に対応する左右方向のジェスチャが主要な操作になると想定されるところ、コントローラ11は、着信に応答するための左右方向を優先判定方向と決定することにより、ユーザのジェスチャを、左右方向のジェスチャとして認識しやすくなる。つまり、ユーザのジェスチャは、より頻度が高いことが想定される左右方向のジェスチャとして認識されやすくなる。
In addition, for example, the function executed when the
また、例えば、近接センサ18がジェスチャを検出したときに実行されている機能が、所定のアプリケーションの使用であるとする。当該アプリケーションでは、ディスプレイ14に表示される画面の向きに対して、上下方向のジェスチャが、画面のスクロール操作に対応付けられており、左右方向のジェスチャが、所定のアイコンの表示および非表示の切換え操作に対応付けられているとする。当該アプリケーションにおいて、例えば上下方向のスクロール操作が主要な操作であり、アイコンの表示および非表示の切換え操作が補助的な操作であることが、予めストレージ16に記憶されているとする。この場合、コントローラ11は、ディスプレイ14に表示された画面の上下方向を優先判定方向であると決定してよい。これにより、ユーザのジェスチャは、主要な操作である上下方向のスクロール操作として認識されやすくなるとともに、左右方向のジェスチャは、補助的な操作である切換え操作として認識される。
Further, for example, it is assumed that a function that is executed when the
優先判定方向は、例えば電子機器1において実行される各機能にそれぞれ対応付けて、ストレージ16に記憶されていてよい。コントローラ11は、各機能に対応付けられた優先判定方向に基づいて、ユーザのジェスチャの方向を決定してよい。
The priority determination direction may be stored in the
また、コントローラ11は、電子機器1で実行される機能によっては、ユーザのジェスチャを、一方向のみ有効なものとして検出し、他の方向を無効なものと処理してもよい。例えば、コントローラ11は、電子機器1で実行される機能によっては、ユーザのジェスチャを、上方向または下方向という、上下方向のみが有効なものであるとして検出してよい。また、例えば、コントローラ11は、電子機器1で実行される機能によっては、ユーザのジェスチャを、右方向または左方向という、左右方向のみが有効なものであるとして検出してよい。このように、コントローラ11は、優先判定方向以外の方向のジェスチャを無効なジェスチャと判定してもよい。この場合、コントローラ11は、電子機器1で実行され得ない方向のジェスチャを無効にして、ジェスチャの方向を決定できるため、ユーザのジェスチャを、ユーザが意図する操作として検出しやすくなる。
The controller 11 may detect a user gesture as valid in only one direction and process the other direction as invalid depending on a function executed in the
また、電子機器1の状態は、ディスプレイ14に表示される画面の向きと、電子機器1において実行されている機能との双方に基づいて、決定されてもよい。また、電子機器1の状態は、上述した例とは異なる、他の状態を含んでいてもよい。
Further, the state of the
図11は、電子機器1が実行する処理の一例を示すフローチャートである。
FIG. 11 is a flowchart illustrating an example of processing executed by the
まず、電子機器1のコントローラ11は、近接センサ18からの出力を取得する(ステップS1)。
First, the controller 11 of the
コントローラ11は、電子機器1の状態を検出する(ステップS2)。電子機器1の状態は、上述したように、ディスプレイ14に表示される画面の向きであってよく、電子機器1において実行されている機能に基づいて決定されてもよい。
The controller 11 detects the state of the electronic device 1 (step S2). As described above, the state of the
コントローラ11は、ステップS1で取得した近接センサ18からの出力と、ステップS2で検出した電子機器1の状態とに応じて、優先判定方向を決定する(ステップS3)。
The controller 11 determines a priority determination direction according to the output from the
コントローラ11は、決定した優先判定方向に基づいて、ユーザが行ったジェスチャの方向を判定する(ステップS4)。 The controller 11 determines the direction of the gesture performed by the user based on the determined priority determination direction (step S4).
コントローラ11は、ステップS4で判定したジェスチャの方向に応じて、制御を行う(ステップS5)。 The controller 11 performs control according to the direction of the gesture determined in step S4 (step S5).
以上説明したように、本実施形態に係る電子機器1は、近接センサ18からの出力と、自機器の状態とに応じて、ジェスチャの方向を決定する。そのため、電子機器1は、ユーザのジェスチャを、自機器の状態に応じて、ユーザが意図する操作として検出しやすくなる。これにより、ジェスチャによる入力操作において誤操作を防止しやすくなる。
As described above, the
(その他の実施形態)
本発明を図面および実施形態に基づき説明してきたが、当業者であれば本開示に基づき種々の変形および修正を行うことが容易であることに注意されたい。したがって、これらの変形および修正は本発明の範囲に含まれることに留意されたい。例えば、各手段または各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の手段またはステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。
(Other embodiments)
Although the present invention has been described based on the drawings and embodiments, it should be noted that those skilled in the art can easily make various variations and modifications based on the present disclosure. Therefore, it should be noted that these variations and modifications are included in the scope of the present invention. For example, functions included in each means or each step can be rearranged so as not to be logically contradictory, and a plurality of means or steps can be combined into one or divided. .
上記の実施形態では、ジェスチャは、近接センサ18により検出されると説明したが、必ずしも近接センサ18により検出されなくてもよい。ジェスチャは、任意の非接触でユーザのジェスチャを検出可能な、任意の非接触センサにより検出されてもよい。非接触センサの一例は、例えば、カメラ13または照度センサ20等を含む。
In the above embodiment, it has been described that the gesture is detected by the
本開示内容の多くの側面は、プログラム命令を実行可能なコンピュータシステムその他のハードウェアにより実行される、一連の動作として示される。コンピュータシステムその他のハードウェアには、例えば、汎用コンピュータ、PC(パーソナルコンピュータ)、専用コンピュータ、ワークステーション、PCS(Personal Communications System、パーソナル移動通信システム)、移動(セルラー)電話機、データ処理機能を備えた移動電話機、RFID受信機、ゲーム機、電子ノートパッド、ラップトップコンピュータ、GPS(Global Positioning System)受信機またはその他のプログラム可能なデータ処理装置が含まれる。各実施形態では、種々の動作または制御方法は、プログラム命令(ソフトウェア)で実装された専用回路(例えば、特定機能を実行するために相互接続された個別の論理ゲート)、一以上のプロセッサにより実行される論理ブロックおよび/またはプログラムモジュール等により実行されることに留意されたい。論理ブロックおよび/またはプログラムモジュール等を実行する一以上のプロセッサには、例えば、一以上のマイクロプロセッサ、CPU(中央演算処理ユニット)、ASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)、プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、電子機器、ここに記載する機能を実行可能に設計されたその他の装置および/またはこれらいずれかの組合せが含まれる。ここに示す実施形態は、例えば、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコードまたはこれらいずれかの組合せにより実装される。命令は、必要なタスクを実行するためのプログラムコードまたはコードセグメントであってもよい。そして、命令は、機械読取り可能な非一時的記憶媒体その他の媒体に格納することができる。コードセグメントは、手順、関数、サブプログラム、プログラム、ルーチン、サブルーチン、モジュール、ソフトウェアパッケージ、クラスまたは命令、データ構造もしくはプログラムステートメントのいずれかの任意の組合せを示すものであってもよい。コードセグメントは、他のコードセグメントまたはハードウェア回路と、情報、データ引数、変数または記憶内容の送信および/または受信を行い、これにより、コードセグメントが他のコードセグメントまたはハードウェア回路と接続される。 Many aspects of the present disclosure are presented as a series of operations performed by a computer system or other hardware capable of executing program instructions. The computer system and other hardware include, for example, a general-purpose computer, a PC (personal computer), a dedicated computer, a workstation, a PCS (Personal Communications System), a mobile (cellular) telephone, and a data processing function. Mobile phones, RFID receivers, game consoles, electronic notepads, laptop computers, GPS (Global Positioning System) receivers or other programmable data processing devices are included. In each embodiment, various operations or control methods are performed by dedicated circuitry (eg, individual logic gates interconnected to perform specific functions) implemented by program instructions (software), one or more processors. Note that it is executed by a logical block and / or a program module. The one or more processors that execute logic blocks and / or program modules include, for example, one or more microprocessors, a CPU (Central Processing Unit), an ASIC (Application Specific Integrated Circuit), a DSP (Digital Signal Processor), and a PLD. (Programmable Logic Device), FPGA (Field Programmable Gate Array), processor, controller, microcontroller, microprocessor, electronic equipment, other devices designed to perform the functions described herein, and / or any combination thereof Is included. The embodiments shown here are implemented by, for example, hardware, software, firmware, middleware, microcode, or any combination thereof. The instructions may be program code or code segments for performing the necessary tasks. The instructions can then be stored on a machine-readable non-transitory storage medium or other medium. A code segment may represent any combination of procedures, functions, subprograms, programs, routines, subroutines, modules, software packages, classes or instructions, data structures or program statements. A code segment transmits and / or receives information, data arguments, variables or stored contents with other code segments or hardware circuits, thereby connecting the code segments with other code segments or hardware circuits .
ここで用いられるストレージ16は、さらに、ソリッドステートメモリ、磁気ディスクおよび光学ディスクの範疇で構成されるコンピュータ読取り可能な有形のキャリア(媒体)として構成することができる。かかる媒体には、ここに開示する技術をプロセッサに実行させるためのプログラムモジュール等のコンピュータ命令の適宜なセットまたはデータ構造が格納される。コンピュータ読取り可能な媒体には、一つ以上の配線を備えた電気的接続、磁気ディスク記憶媒体、磁気カセット、磁気テープ、その他の磁気および光学記憶装置(例えば、CD(Compact Disk)、レーザーディスク(登録商標)、DVD(登録商標)(Digital Versatile Disc)、フロッピー(登録商標)ディスクおよびブルーレイディスク(登録商標))、可搬型コンピュータディスク、RAM(Random Access Memory)、ROM(Read-Only Memory)、EPROM(Erasable Programmable Read-Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)もしくはフラッシュメモリ等の書換え可能でプログラム可能なROMもしくは情報を格納可能な他の有形の記憶媒体またはこれらいずれかの組合せが含まれる。メモリは、プロセッサまたはプロセッシングユニットの内部および/または外部に設けることができる。ここで用いられるように、「メモリ」という語は、あらゆる種類の長期記憶用、短期記憶用、揮発性、不揮発性またはその他のメモリを意味する。つまり、「メモリ」は特定の種類および/または数に限定されない。また、記憶が格納される媒体の種類も限定されない。
The
1 電子機器
11 コントローラ
12 タイマー
13 カメラ
14 ディスプレイ
15 マイク
16 ストレージ
17 通信ユニット
18 近接センサ
19 UVセンサ
20 照度センサ
21 加速度センサ
22 地磁気センサ
23 気圧センサ
24 ジャイロセンサ
25 スピーカー
140,141 選択ボタン
180 光源用赤外LED
181 レンズ
SU,SR,SD,SL フォトダイオード
DESCRIPTION OF
181 Lens SU, SR, SD, SL Photodiode
Claims (9)
前記近接センサからの出力と、自機器の状態とに応じて、ジェスチャの方向を決定するコントローラと、
を備える電子機器。 A proximity sensor;
A controller that determines the direction of the gesture according to the output from the proximity sensor and the state of the device;
Electronic equipment comprising.
前記優先判定方向は、前記ディスプレイに表示される前記画面の上下方向または左右方向のいずれかである、請求項2または請求項3に記載の電子機器。 A display for displaying the screen;
The electronic device according to claim 2, wherein the priority determination direction is one of a vertical direction and a horizontal direction of the screen displayed on the display.
前記自機器の状態は、前記ディスプレイに表示される前記画面の向きである、
ことを特徴とする、請求項1乃至請求項3のいずれか一項に記載の電子機器。 A display for displaying the screen;
The state of the device is the orientation of the screen displayed on the display.
The electronic device according to any one of claims 1 to 3, wherein the electronic device is characterized.
ことを特徴とする、請求項1乃至請求項5のいずれか一項に記載の電子機器。 The state of the device is determined according to a function executed when the proximity sensor performs the output.
The electronic apparatus according to claim 1, wherein the electronic apparatus is characterized in that
前記コントローラにより、前記近接センサからの出力と、前記電子機器の状態とに応じて、前記ジェスチャの方向を決定するステップ
を実行させるプログラム。 In an electronic device including a proximity sensor and a controller,
The program which performs the step which determines the direction of the said gesture by the said controller according to the output from the said proximity sensor, and the state of the said electronic device.
前記コントローラにより、前記近接センサからの出力と、前記電子機器の状態とに応じて、前記ジェスチャの方向を決定するステップ
を含む制御方法。 A method for controlling an electronic device comprising a proximity sensor and a controller,
A control method including a step of determining a direction of the gesture by the controller according to an output from the proximity sensor and a state of the electronic device.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017000237A JP2018109873A (en) | 2017-01-04 | 2017-01-04 | Electronic device, program and control method |
US15/855,509 US20180188817A1 (en) | 2017-01-04 | 2017-12-27 | Electronic device, computer-readable non-transitory recording medium, and control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017000237A JP2018109873A (en) | 2017-01-04 | 2017-01-04 | Electronic device, program and control method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017232729A Division JP2018109955A (en) | 2017-12-04 | 2017-12-04 | Electronic device, program and control method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018109873A true JP2018109873A (en) | 2018-07-12 |
Family
ID=62845136
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017000237A Pending JP2018109873A (en) | 2017-01-04 | 2017-01-04 | Electronic device, program and control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018109873A (en) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003173239A (en) * | 2001-12-06 | 2003-06-20 | Matsushita Electric Ind Co Ltd | Portable information terminal unit and image screen display control method |
JP2010182029A (en) * | 2009-02-04 | 2010-08-19 | Zenrin Datacom Co Ltd | Device and method for displaying image, and computer program |
JP2011003136A (en) * | 2009-06-22 | 2011-01-06 | Sony Corp | Operation control device and method |
JP2011081799A (en) * | 2003-05-01 | 2011-04-21 | Thomson Licensing | Multimedia user interface |
JP2011138410A (en) * | 2009-12-28 | 2011-07-14 | Sony Corp | Operation direction determination apparatus, remote operating system, operation direction determination method and program |
JP2012155545A (en) * | 2011-01-26 | 2012-08-16 | Alpine Electronics Inc | Infrared proximity sensor calibration device for touch panel |
JP2013012021A (en) * | 2011-06-29 | 2013-01-17 | Sony Corp | Information processing apparatus, information processing method, program and remote operation system |
JP2013030134A (en) * | 2011-07-29 | 2013-02-07 | Toshiba Corp | Recognition device, method and program |
JP2014186401A (en) * | 2013-03-21 | 2014-10-02 | Sharp Corp | Information display device |
JP2016181139A (en) * | 2015-03-24 | 2016-10-13 | 大日本印刷株式会社 | Information processing apparatus, information processing method, and program |
WO2016185916A1 (en) * | 2015-05-20 | 2016-11-24 | コニカミノルタ株式会社 | Wearable electronic device, gesture detection method for wearable electronic device, and gesture detection program for wearable electronic device |
-
2017
- 2017-01-04 JP JP2017000237A patent/JP2018109873A/en active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003173239A (en) * | 2001-12-06 | 2003-06-20 | Matsushita Electric Ind Co Ltd | Portable information terminal unit and image screen display control method |
JP2011081799A (en) * | 2003-05-01 | 2011-04-21 | Thomson Licensing | Multimedia user interface |
JP2010182029A (en) * | 2009-02-04 | 2010-08-19 | Zenrin Datacom Co Ltd | Device and method for displaying image, and computer program |
JP2011003136A (en) * | 2009-06-22 | 2011-01-06 | Sony Corp | Operation control device and method |
JP2011138410A (en) * | 2009-12-28 | 2011-07-14 | Sony Corp | Operation direction determination apparatus, remote operating system, operation direction determination method and program |
JP2012155545A (en) * | 2011-01-26 | 2012-08-16 | Alpine Electronics Inc | Infrared proximity sensor calibration device for touch panel |
JP2013012021A (en) * | 2011-06-29 | 2013-01-17 | Sony Corp | Information processing apparatus, information processing method, program and remote operation system |
JP2013030134A (en) * | 2011-07-29 | 2013-02-07 | Toshiba Corp | Recognition device, method and program |
JP2014186401A (en) * | 2013-03-21 | 2014-10-02 | Sharp Corp | Information display device |
JP2016181139A (en) * | 2015-03-24 | 2016-10-13 | 大日本印刷株式会社 | Information processing apparatus, information processing method, and program |
WO2016185916A1 (en) * | 2015-05-20 | 2016-11-24 | コニカミノルタ株式会社 | Wearable electronic device, gesture detection method for wearable electronic device, and gesture detection program for wearable electronic device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6293953B1 (en) | Electronic device, program, and control method | |
JP6091693B1 (en) | Electronics | |
US10775998B2 (en) | Electronic device and control method | |
JP6101881B1 (en) | Electronic device, program, and control method | |
EP3528477B1 (en) | Electronic apparatus, program, and control method | |
WO2018193876A1 (en) | Electronic device | |
JP6163278B1 (en) | Electronic device, program, and control method | |
WO2018193877A1 (en) | Electronic device, program, and control method | |
US20180188817A1 (en) | Electronic device, computer-readable non-transitory recording medium, and control method | |
JP6113345B1 (en) | Electronics | |
JP6173625B1 (en) | Electronic device, program, and control method | |
JP6235175B1 (en) | Electronic device, program, and control method | |
JP6568331B1 (en) | Electronic device, control method, and program | |
JP2018181351A (en) | Electronic device | |
JP2018109955A (en) | Electronic device, program and control method | |
JP6333461B1 (en) | Electronics | |
JP2018109873A (en) | Electronic device, program and control method | |
JP6346699B1 (en) | Electronics | |
JP6163274B1 (en) | Electronic device, program, and control method | |
JP6637089B2 (en) | Electronic device, program and control method | |
JP2018110370A (en) | Electronic device, program and control method | |
JP2018109871A (en) | Electronic device | |
JP2019149825A (en) | Electronic device, program, and control method | |
JP2018137827A (en) | Electronic apparatus, program, and control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181129 |