JP2016115310A - 電子機器 - Google Patents

電子機器 Download PDF

Info

Publication number
JP2016115310A
JP2016115310A JP2014255920A JP2014255920A JP2016115310A JP 2016115310 A JP2016115310 A JP 2016115310A JP 2014255920 A JP2014255920 A JP 2014255920A JP 2014255920 A JP2014255920 A JP 2014255920A JP 2016115310 A JP2016115310 A JP 2016115310A
Authority
JP
Japan
Prior art keywords
light
unit
light receiving
case
receiving unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014255920A
Other languages
English (en)
Inventor
正雄 藤井
Masao Fujii
正雄 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014255920A priority Critical patent/JP2016115310A/ja
Publication of JP2016115310A publication Critical patent/JP2016115310A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Electric Clocks (AREA)

Abstract

【課題】タッチパネルに対するタッチ操作やキーや竜頭に対する操作以外の指示入力手段を備えることで、操作態様の種類を増やし、ユーザーにとって操作しやすい電子機器を提供する。【解決手段】ケースにバンドを接続するかん又はケースが備える操作部に設けられ、オブジェクトに反射された光を受光する受光部12、13と、受光部が受光した光に基づいてオブジェクトの動きを検出し動きに基づいてユーザーの指示を取得する制御部10と、を備える。【選択図】図1

Description

本発明は、電子機器に関する。
従来、例えば特許文献1に記載されているような腕時計型のウェアラブルコンピューター(所謂スマートウォッチ)が知られている。
特開2005−190203号公報
しかし、従来の腕時計における文字盤相当の小型のタッチパネルだけではスマートウォッチを操作しづらいという問題があった。
本発明は、操作しやすい電子機器を提供することを目的とする。
上記目的を達成するための電子機器は、受光部と制御部とを備える。受光部は、ケースにバンドを接続するかん、または、前記ケースが備える操作部に設けられ、オブジェクトに反射された光を受光する。制御部は、前記受光部が受光した光に基づいて前記オブジェクトの動きを検出し前記動きに基づいてユーザーの指示を取得する。
上記構成を備えることにより、かんや操作部に反射光が入射する範囲内でユーザーがオブジェクトを移動させることでユーザーは電子機器に指示を入力することができる。すなわち、従来のようなタッチパネルに対するタッチ操作やキーや竜頭に対する操作以外の指示入力手段を備えることで、操作態様の種類を増やし、ユーザーにとって操作しやすい電子機器を提供することができる。
なお、「かんまたは操作部」という表現は、かんまたは操作部のどちらか一方を意味する場合と、かんと操作部の両方を意味する場合とを含む。また、操作部自身は、受光部による指示入力とは別系統でユーザーの指示を入力することもでき、その入力方法はどのような態様であってもよい。例えば押下することによって指示を入力するキー(ボタン)であってもよいし、回転させることによって指示を入力するダイヤル(例えば竜頭)等であってもよい。操作部に設けられた受光部は、少なくとも一部が操作部に一体化あるいは内包されていればよい(残りの部分は例えばケース内に収容されていてもよい)。かんに設けられた受光部についても、少なくとも一部がかんに内包されていればよく、残りの部分はケース内に収容されていてもよい。
オブジェクトは、電子機器にユーザーが指示を入力するために移動させるものであって受光部が検出対象とする波長の光を反射することができればどのようなものであってもよいが、例えばオブジェクトとしては、ユーザーの指であって、電子機器を装着していない方の腕の指を想定可能である。なお、光に基づいてオブジェクトの動きを検出するとは、オブジェクトからの反射光の位置の移動を検出することや、当該反射光によって明らかとなるオブジェクトの影(反射光が相対的に少ない部分)の位置の移動を検出することを意味する。あるいは、受光部が受光した光の明度の変化によって受光部の受光画角内へのオブジェクトの入出等の動きを検出することであってもよい。また、オブジェクトの動きに基づいてユーザーの指示を取得するとは、オブジェクトの特定の動き方(ジェスチャー)と処理内容との対応づけが予め制御部において定義されており、ユーザーがオブジェクトで特定のジェスチャーをしたことを検出した場合に、制御部はユーザーが当該ジェスチャーに対応する処理の実行を指示したと認識することを意味する。
さらに、上記目的を達成するための電子機器は、かんまたは操作部に設けられ光を発光する発光部を備えてもよく、前記受光部は、前記発光部から発光された光が前記オブジェクトに反射された光を受光してもよい。
すなわち、受光部が検出対象とする波長の光(反射光)が受光部に入射しない環境であっても、当該光を発光する発光部を備えることにより当該光のオブジェクトからの反射光を受光できる。その結果、上述の環境下でもユーザーは指示を入力することができる。
さらに、上記目的を達成するための電子機器において、前記受光部は、ユーザーの腕に前記バンドによって装着された場合の指側の前記かんまたは前記操作部に設けられた第一受光部と、肘側の前記かんまたは前記操作部に設けられた第二受光部とを備えてもよい。
指側と肘側とにそれぞれ受光部を備えることにより、どちらか一方にだけ受光部が設けられる場合と比較して、オブジェクトの動きで示されるジェスチャーの種類を増加させることができる。
さらに、上記目的を達成するための電子機器において、前記制御部は、前記第一受光部が受光した光に基づいて検出された前記ケースの指側における第一オブジェクトの動きと前記第二受光部が受光した光に基づいて検出された前記ケースの肘側における第二オブジェクトの動きの組み合わせに基づいて前記ユーザーの指示を取得してもよい。
この構成の場合、第一オブジェクトの動きと第二オブジェクトの動きの組み合わせによってユーザーは一つの指示を入力することができる。二つのオブジェクトの動きの組み合わせとは例えば、ピンチイン、ピンチアウト、スライド(スクロール、スワイプ、ドラッグ)、回転等のジェスチャーが含まれてもよい。また、二つのオブジェクトの動きの組み合わせとは、二つのオブジェクトが少なくともある一定期間同時に移動する上述の操作方法に限らず、一方のオブジェクトの動作が終わった後に他方のオブジェクトを動作させるジェスチャーが含まれてもよい。
また請求項に記載された各手段の機能は、構成自体で機能が特定されるハードウェア資源、プログラムにより機能が特定されるハードウェア資源、又はそれらの組み合わせにより実現される。また、これら各手段の機能は、各々が物理的に互いに独立したハードウェア資源で実現されるものに限定されない。
(1A)は第一実施形態にかかるスマートウォッチのブロック図、(1B)は平面図、(1C)は照射範囲と撮影範囲を示す模式図。 指示受付処理を示すフローチャート。 (3A)および(3B)は第一実施形態にかかるジェスチャーの例を示す模式図。 (4A)は第二実施形態にかかるスマートウォッチのブロック図、(4B)は平面図。
以下、本発明の実施の形態を添付図面を参照しながら以下の順に説明する。尚、各図において対応する構成要素には同一の符号が付され、重複する説明は省略される。
1.第一実施形態:
1−1.構成:
図1Aは、本発明の実施形態にかかる電子機器としてのスマートウォッチ(腕時計型ウェアラブルコンピューター)1の構成を示すブロック図である。図1Bはスマートウォッチ1を示す平面図である。スマートウォッチ1は、ケース20と、ケース20に接続しケース20を手首に装着させるバンド30とを備えている。かん21,22,23,24は、ケース20にバンド30を接続するための部位でありケース20に固定されている。かん21とかん23を貫通する軸25と、かん22とかん24を貫通する軸26とにバンド30の二つの端部が固定される。
かん21には第一センサー12aが設けられており、かん22には第二センサー12bが設けられている。第一センサー12aと第二センサー12bは第一受光部12に相当する。かん23には第三センサー13aが設けられており、かん24には第四センサー13bが設けられている。第三センサー13aと第四センサー13bは第二受光部13に相当する。これらのセンサー12a,12b,13a,13bは本実施形態においては赤外線センサーとして構成される。各センサーにはそれぞれ光学系と受光素子とが含まれる。なお、例えば光学系がかんに設けられ受光素子はケース20内に設けられてもよい。第一キー入力部14は第一キー14a、第一発光部14b等を含む。また、第二キー入力部16は第二キー16a、第二発光部16b等を含む。第一発光部14bおよび第二発光部16bは、本実施形態においては赤外線LEDとして構成される。第一キー入力部14および第二キー入力部16は操作部に相当する。なお、発光部においても光学系と発光素子とが含まれ、発光素子はケース20内に設けられてもよい。
図1Cは受光部(センサー12a、12b、13a、13b)の撮影範囲と発光部(第一発光部14b、第二発光部16b)の照射範囲を示す模式図である。本明細書では、スマートウォッチ1はユーザーの左手の手首に装着されるとして以降の説明を進める。同図の二点鎖線に示すように第一発光部14bは、左手首に装着した場合のケース20の指側を照射し、第二発光部16bはケース20の肘側を照射する。また、同図の一点鎖線に示すように、第一センサー12aおよび第二センサー12bはケース20の指側を撮影範囲とし、第三センサー13aおよび第四センサー13bは、ケース20の肘側を撮影範囲とする。ユーザーが左手指側にある手の甲に対して右手の指等のオブジェクトを接近させると、第一発光部14bが照射した赤外線がオブジェクトに反射し、第一センサー12aおよび第二センサー12bが当該反射光を受光することができる。また、ユーザーが左手肘側の皮膚に対してオブジェクトを接近させると、第二発光部16bが発光した赤外線がオブジェクトに反射し、第三センサー13aおよび第四センサー13bが当該反射光を受光することができる。
タッチパネル部11は、タッチパネル11a、タッチパネルドライバー等を含む。タッチパネル11aはケース20の表面に取り付けられている。またケース20には制御部10が収容されており、さらには、加速度センサー、ジャイロセンサー、通信I/F部、バッテリー(いずれも不図示)等も収容されている。さらに地磁気センサー、GPS受信部が備えられていてもよい。制御部10はCPU,RAM,ROM等を備え、CPUがROMに記録された各種プログラムをRAM等を用いて実行することにより、スマートウォッチ1の各部を制御することができる。各種プログラムには、後述する指示受付処理プログラムが含まれる。
1−2:動作:
図2は、指示受付処理を示すフローチャートである。この処理は、第一受光部12および第二受光部13を用いた操作入力機能が有効である場合に一定時間経過ごとに制御部10によって繰り返し実行される。なお本実施形態においては、第一受光部12および第二受光部13を用いた操作入力機能の有効/無効をユーザーが切り替えることができる。はじめに、制御部10は、第一受光部12と第二受光部13の撮影した画像データを取得し画像解析およびジェスチャー判定を行う(ステップS100)。具体的には例えば、第一センサー12aが撮影した画像データと第二センサー12bが撮影した画像データとから、ステレオマッチングと三角測量の原理により、制御部10は左手指側のオブジェクトのケース20を基準とした3次元座標を算出する。また、第三センサー13aが撮影した画像データと第四センサー13bが撮影した画像データとから、制御部10は左手肘側のオブジェクトのケース20を基準とした3次元座標を算出する。そして、一定時間経過ごとに繰り返し取得された画像データの過去複数回分の画像データの解析結果と今回取得した画像データの解析結果とから、後述するようないずれかのジェスチャーがユーザーによって行われたか否かを制御部10は判定する。
続いて制御部10はステップS100においてジェスチャー有と判定されたか否かを判定し(ステップS105)、ジェスチャー有と判定された場合は、制御部10はスマートウォッチ1のモード等に応じて当該ジェスチャーに対応する処理を実行する(ステップS110)。なお、例えば他の入力手段での操作(キー押下やタッチパネルに対する操作)が行われている場合は、他の入力手段による操作との優先順に応じてジェスチャーに対応する処理が行われる。または、他の入力手段による操作との組み合わせに応じて処理が行われてもよい。ステップS105においてジェスチャー有と判定されなかった場合は、指示受付処理を終了する。
次に、ジェスチャーに対する処理例を説明する。図3Aに示すようにユーザーが左手の甲に対して右手の人指し指で行うジェスチャーとしては、例えば、シングルタップやダブルタップ、スライド(スクロール、スワイプ、ドラッグ等ともいう)等が想定される。例えば、スマートウォッチ1がスリープモードである場合にユーザーが左手の甲を右手の人指し指でシングルタップすると、制御部10はスリープモードを解除し通常モードにモード遷移するようにしてもよい。また例えば、タッチパネル11aに任意の画面が表示されている状態でユーザーが左手の甲に対して右手の人指し指をスライドさせると、表示要素がスクロールして表示されている画面が切り替わってもよい。なお、上記処理内容は一例であり、各ジェスチャーと処理内容の割り当ては適宜設計されうる事項である。なお、手の甲へのマルチタッチ操作(ピンチイン、ピンチアウト、複数の指でのスライド、回転等)に対して処理が割り当てられてもよい。また、ケース20の肘側に対する上述の様々なジェスチャーに対して個別に処理が割り当てられていてもよい。
また、図3Bに示すようにケース20の指側と肘側の両方に対する操作の組み合わせで示されるジェスチャーとしては例えば、人差し指(第一オブジェクト)と親指(第二オブジェクト)とで行われるピンチイン、ピンチアウト、回転、二本の指でのスライド等が想定される。例えばピンチインには、表示要素の拡大や詳細化等の処理が対応づけられ、ピンチアウトには表示要素の縮小や集約化等の処理が対応づけられてもよい。また、回転操作には、表示要素の回転処理が対応づけられてもよい。
このように、スマートウォッチ1では、スマートウォッチ1を装着した腕の手の甲や肘側の腕表面を操作領域として含めることができる。小型のタッチパネル11aだけでは従来操作しづらかった局面においても、この操作領域に対して操作を行い、指示を入力することができるため、ユーザーにとって操作しやすいスマートウォッチを提供できる。また、手の甲や肘側の腕表面は、ユーザーの目からタッチパネル11aと同程度の距離にあり、またケース20の周囲の領域であるため、ユーザーの目の視線移動を狭い範囲で抑えることができ、ユーザーに負担をかけにくい。また、本実施形態の場合、指側と肘側の2つの操作領域が設定されるため、一つの場合と比較するとジェスチャーの種類を増やすことができる。また、発光部を備えることにより、受光部が検出対象とする波長の光が受光部に入射しない環境下であっても、発光部が発光した当該光のオブジェクトからの反射光を受光できる。その結果、上述の環境下でもユーザーは指示を入力することができる。
2.第二実施形態:
図4Aは、第二実施形態にかかるスマートウォッチ2のブロック図である。図4Bはスマートウォッチ2の平面図である。スマートウォッチ2は発光部を備えず、操作部としての第一キー入力部18に受光部としてのセンサー18bが設けられている。第二実施形態におけるセンサー18bは、左手の手の甲(ケース20の指側)に対する右手の指等のオブジェクトに反射した例えば可視光を検出する。第一キー入力部18は第一キー18aと上述のセンサー18bを備えており、第二キー入力部19はセンサーを備えず第二キー19aを備えている。センサー18bは、本実施形態においては例えばラインセンサーとして構成される。ラインセンサーはバンド30の延びる方向(図中の第一方向)と平行にケース20内に固定され、図示しない光学系を介して光を受光する。
制御部10は、センサー18bが出力するデータに基づいてオブジェクトの動きで表されるジェスチャーを特定する。ジェスチャーとしては例えば、シングルタップ、ダブルタップ、スライド、ピンチイン、ピンチアウト等様々なジェスチャーを想定可能である。なお本実施形態におけるスライド、ピンチイン、ピンチアウトは、少なくとも第一方向と平行な方向における移動を伴うジェスチャーである。
3.他の実施形態:
尚、本発明の技術的範囲は、上述した実施例に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。例えば、上記実施形態ではケースが円形である例を示したが、例えばケースが四角形を含む多角形(角は丸みを帯びていてもよい)であってもよい。その場合は、受光部や発光部はかんに設けられていなくてもよく、ケースの側面(バンドが接続しない側面)に設けられていてもよい。なお、ケースの側面とは、タッチパネルが設けられた面を上面とした場合の側面として定義される。
また、上記実施形態では、ケースの側面に設けられた操作部は片側につき一つであったが、片側に複数の操作部が設けられていてもよい。そして、それらの操作部に、受光部や発光部がそれぞれ設けられていてもよい。また、発光部はかんまたは操作部に必ずしも備えられていなくてもよい。すなわち、ケースの側面(バンドが接続していない部分の側面)に広く発光部が設けられ、かんまたは操作部に受光部が設けられている形態でもよい。
また、第一実施形態のように指側と肘側の両方に受光部や発光部がそれぞれ設けられなくてもよく、第二実施形態のように片側だけに受光部や発光部が設けられていてもよい。例えば、指側の一方のかんに発光部が設けられ、他方のかんに受光部が設けられてもよい。また例えば、発光部は設けられずに、指側の二つのかんにそれぞれ受光部が設けられてもよい。
また、発光部が発光する光は可視光であってもよい。また、受光部を用いた操作入力機能が有効である場合であっても、発光部や受光部は常時動作していなくてもよく、電力消費量を低減するために特定のモードや特定の状況において動作するように制御部によって制御されてもよい。また、受光部を用いた操作入力機能が有効となった後、予め決められた時間が経過してもオブジェクトの動きを制御部が検出できない場合は、操作入力機能を自動的に無効に切り替えてもよい。
また、オブジェクトの動きを検出する手法は上記実施形態で述べた手法以外にも様々な手法を採用可能である。例えば、指側(肘側でもよい)の一方のかん(第一のかん)に第一発光部と第一受光部が設けられ、他方のかん(第二のかん)に第二発光部と第二受光部とが設けられてもよい。第一発光部と第二発光部とは同じタイミングで発光するように制御される。第一発光部が光を発光してから、オブジェクトに当該光が反射し第一受光部が反射光を受光するまでの時間から第一のかんとオブジェクトとの距離(第一の距離)を算出可能である。同様に第二発光部が光を発光してから、オブジェクトに当該光が反射し第二受光部が反射光を受光するまでの時間から第二のかんとオブジェクトとの距離(第二の距離)を算出可能である。そして第一の距離と第二の距離とに基づいてケース20を基準としたオブジェクトの位置を算出することを一定時間ごとに繰り返し、オブジェクトの動きを検出するようにしてもよい。
1…スマートウォッチ、2…スマートウォッチ、10…制御部、11…タッチパネル部、11a…タッチパネル、12…第一受光部、12a…第一センサー、12b…第二センサー、13…第二受光部、13a…第三センサー、13b…第四センサー、14…第一キー入力部、14a…第一キー、14b…第一発光部、16…第二キー入力部、16a…第二キー、16b…第二発光部、18…第一キー入力部、18a…第一キー、18b…センサー、19…第二キー入力部、19a…第二キー、20…ケース、21〜24…かん、25…軸、26…軸、30…バンド

Claims (4)

  1. ケースにバンドを接続するかん、または、前記ケースが備える操作部に設けられ、オブジェクトに反射された光を受光する受光部と、
    前記受光部が受光した光に基づいて前記オブジェクトの動きを検出し前記動きに基づいてユーザーの指示を取得する制御部と、
    を備える電子機器。
  2. かんまたは操作部に設けられ、光を発光する発光部を備え、
    前記受光部は前記発光部から発光された光が前記オブジェクトに反射された光を受光する、
    請求項1に記載の電子機器。
  3. 前記受光部は、ユーザーの腕に前記バンドによって装着された場合の指側の前記かんまたは前記操作部に設けられた第一受光部と、肘側の前記かんまたは前記操作部に設けられた第二受光部とを備える、
    請求項1または請求項2に記載の電子機器。
  4. 前記制御部は、前記第一受光部が受光した光に基づいて検出された前記ケースの指側における第一オブジェクトの動きと前記第二受光部が受光した光に基づいて検出された前記ケースの肘側における第二オブジェクトの動きの組み合わせに基づいて前記ユーザーの指示を取得する、
    請求項3に記載の電子機器。
JP2014255920A 2014-12-18 2014-12-18 電子機器 Pending JP2016115310A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014255920A JP2016115310A (ja) 2014-12-18 2014-12-18 電子機器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014255920A JP2016115310A (ja) 2014-12-18 2014-12-18 電子機器

Publications (1)

Publication Number Publication Date
JP2016115310A true JP2016115310A (ja) 2016-06-23

Family

ID=56141876

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014255920A Pending JP2016115310A (ja) 2014-12-18 2014-12-18 電子機器

Country Status (1)

Country Link
JP (1) JP2016115310A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018131245A1 (ja) * 2017-01-12 2018-07-19 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN112947038A (zh) * 2019-12-10 2021-06-11 斯沃奇集团研究和开发有限公司 设有控制部件的表
JP7419563B2 (ja) 2021-09-27 2024-01-22 グーグル エルエルシー ウェアラブルデバイスのタッチ制御

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018131245A1 (ja) * 2017-01-12 2018-07-19 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN112947038A (zh) * 2019-12-10 2021-06-11 斯沃奇集团研究和开发有限公司 设有控制部件的表
JP2021092549A (ja) * 2019-12-10 2021-06-17 ザ・スウォッチ・グループ・リサーチ・アンド・ディベロップメント・リミテッド 制御部材を備える小型時計
US11314208B2 (en) 2019-12-10 2022-04-26 The Swatch Group Research And Development Ltd Watch provided with a control member
JP7084460B2 (ja) 2019-12-10 2022-06-14 ザ・スウォッチ・グループ・リサーチ・アンド・ディベロップメント・リミテッド 制御部材を備える小型時計
JP7419563B2 (ja) 2021-09-27 2024-01-22 グーグル エルエルシー ウェアラブルデバイスのタッチ制御

Similar Documents

Publication Publication Date Title
US11231786B1 (en) Methods and apparatus for using the human body as an input device
JP6545258B2 (ja) スマートリング
KR101284797B1 (ko) 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치 및 그 방법
US10444908B2 (en) Virtual touchpads for wearable and portable devices
WO2017041433A1 (zh) 可穿戴设备的触控响应方法、装置及可穿戴设备
KR101844390B1 (ko) 사용자 인터페이스 제어를 위한 시스템 및 기법
EP2941678B1 (en) Computing interface system
US20150212583A1 (en) Detection of user gestures
WO2016139850A1 (ja) 情報処理装置、制御方法、およびプログラム
EP2677398A2 (en) Virtual touch device without pointer on display surface
US20100103104A1 (en) Apparatus for user interface based on wearable computing environment and method thereof
US10120444B2 (en) Wearable device
EP3139256B1 (en) Wearable touch apparatus and wearable touch method
CN110018736A (zh) 人工现实中的经由近眼显示器界面的对象增强
KR20150032019A (ko) 시선 추적 기반의 사용자 인터페이스 방법 및 그 장치
WO2009075433A1 (en) Data input apparatus and data processing method therefor
KR20120126508A (ko) 포인터를 사용하지 않는 가상 터치 장치에서의 터치 인식 방법
JP2004078977A (ja) インターフェイス装置
US11573648B2 (en) Information processing apparatus and information processing method to identify gesture operation of a user
KR101103058B1 (ko) 컴퓨터 시스템 및 이의 구동방법
JP2017518597A (ja) 制御方法、装置、電子機器及びコンピュータ記録媒体
JP2016115310A (ja) 電子機器
CN106598422B (zh) 混合操控方法及操控***和电子设备
US20170277428A1 (en) Information processing device, information processing method, and non-transitory computer readable memory medium
KR20150069856A (ko) 스마트 워치 제어 방법 및 시스템