JP6595597B2 - ウェアラブル装置、制御方法及び制御プログラム - Google Patents

ウェアラブル装置、制御方法及び制御プログラム Download PDF

Info

Publication number
JP6595597B2
JP6595597B2 JP2017530864A JP2017530864A JP6595597B2 JP 6595597 B2 JP6595597 B2 JP 6595597B2 JP 2017530864 A JP2017530864 A JP 2017530864A JP 2017530864 A JP2017530864 A JP 2017530864A JP 6595597 B2 JP6595597 B2 JP 6595597B2
Authority
JP
Japan
Prior art keywords
character
control unit
wearable device
upper limb
detects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017530864A
Other languages
English (en)
Other versions
JPWO2017018388A1 (ja
Inventor
伸悟 伊東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Publication of JPWO2017018388A1 publication Critical patent/JPWO2017018388A1/ja
Application granted granted Critical
Publication of JP6595597B2 publication Critical patent/JP6595597B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本出願は、利用者の頭部に装着可能なウェアラブル装置、制御方法及び制御プログラムに関する。
上記のウェアラブル装置として、近年、眼前に配置されるディスプレイと、手指の動きを認識可能な赤外線検知ユニットと、を備え、手のジェスチャによって操作が行われるヘッドマウントディスプレイ装置が開示されている(特許文献1参照)。
国際公開第2014/128751号
上記のようなウェアラブル装置においては、より使い勝手の良いものが望まれる。
本出願の目的は、より使い勝手の良いウェアラブル装置、制御方法及び制御プログラムを提供することにある。
態様の一つに係るウェアラブル装置は、文字を表示する表示部と、現実の空間に在る利用者の上肢を検出する検出部と、前記検出部の検出結果から、前記上肢における一部と他部とが互いに近づく第1身体動作を検出すると、前記文字を選択する文字選択処理を実行する制御部と、を備える、頭部に装着可能なものである。
また、態様の一つに係るウェアラブル装置は、文字を表示する表示部と、現実の空間に在る利用者の上肢を検出する検出部と、前記検出部の検出結果から、前記上肢における一部と他部との距離の変化を伴う身体動作を検出すると、前記文字の文字種を変更する文字種変更処理を実行する制御部と、を備える、頭部に装着可能なものである。
また、態様の一つに係るウェアラブル装置は、利用者の眼前に配置され、文字を表示する表示部と、現実の空間に在る利用者の上肢を検出する検出部と、前記検出部の検出結果から、前記上肢の身体動作を検出する制御部と、を備える、利用者の頭部に装着可能なウェアラブル装置であって、前記制御部は、前記表示部による文字入力画面の表示時に、該表示時以前に入力された文字列が表示されると、前記身体動作の内、所定の身体動作が検出されるかを判定し、当該所定の身体動作の検出が有ると判定すると、前記文字列の表示を消去する。
また、態様の一つに係るウェアラブル装置は、複数の文字からなる文字列を表示する表示部と、現実の空間に在る利用者の上肢を検出する検出部と、前記文字列の内、前記検出部によって検出される前記上肢の一部の位置と他部の位置とによって規定される範囲に含まれる第1文字列を選択する文字選択処理を実行する制御部と、を備える頭部に装着可能なウェアラブル装置であって、前記制御部は、文字選択処理の実行中に、前記一部と前記他部との間の離間距離が略同一に維持された状態で、前記上肢の所定の身体動作を検出したことに基づいて、前記第1文字列に対して所定の処理を実行する。
態様の一つに係る制御方法は、文字を表示する表示部と、現実の空間に在る利用者の上肢を検出する検出部と、制御部と、を備える頭部に装着可能なウェアラブル装置によって実行される制御方法であって、前記制御部は、前記検出部の検出結果から、前記上肢における一部と他部とが互いに近づく第1身体動作を検出すると、前記文字を選択する文字選択処理を実行する。
態様の一つに係る制御プログラムは、文字を表示する表示部と、現実の空間に在る利用者の上肢を検出する検出部と、制御部と、を備える頭部に装着可能なウェアラブル装置において、前記制御部が前記検出部の検出結果から、前記上肢における一部と他部とが互いに近づく第1身体動作を検出すると、当該制御部に、前記文字を選択する文字選択処理を実行させる。
ウェアラブル装置の斜視図である。 ウェアラブル装置のブロック図である。 検出部の検出範囲と、表示部の表示領域との関係について説明する図である。 検出部の検出範囲と、表示部の表示領域との関係について説明する図である。 検出部の検出範囲と、表示部の表示領域との関係について説明する図である。 ウェアラブル装置により実行される機能の第1例を説明する図である。 ウェアラブル装置により実行される機能の第2例を説明する図である。 ウェアラブル装置により実行される機能の第3例を説明する図である。 ウェアラブル装置により実行される機能の第4例を説明する図である。 文字選択処理を実行するための第1身体動作における上肢の一部と他部とが近づく方向の条件について説明する図である。 文字選択処理を実行するための第1身体動作における上肢の一部と他部とが近づく方向の条件について説明する図である。 ウェアラブル装置により実行される機能の第5例を説明する図である。 ウェアラブル装置により実行される機能の第6例を説明する図である。 文字種の変更の他の例を示す図である。 文字種の変更の他の例を示す図である。 文字種の変更の他の例を示す図である。 文字種の変更の他の例を示す図である。
本出願に係るウェアラブル装置1を実施するための複数の実施形態を、図面を参照しつつ詳細に説明する。以下の説明においては、同様の構成要素に同一の符号を付すことがある。さらに、重複する説明は省略することがある。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。
まず、図1を参照しながら、ウェアラブル装置1の全体的な構成について説明する。図1は、ウェアラブル装置1の斜視図である。図1に示すように、ウェアラブル装置1は、利用者の頭部に装着されるヘッドマウントタイプ(或いはメガネ型)の装置である。
ウェアラブル装置1は、前面部1aと、側面部1bと、側面部1cとを有する。前面部1aは、装着時に、利用者の両目を覆うように利用者の正面に配置される。側面部1bは、前面部1aの一方の端部に接続される。側面部1cは、前面部1aの他方の端部に接続される。側面部1b及び側面部1cは、装着時に、眼鏡の蔓のように利用者の耳によって支持され、ウェアラブル装置1を安定させる。側面部1b及び側面部1cは、装着時に、利用者の頭部の背面で接続されるように構成されても良い。
前面部1aは、装着時に利用者の目と対向する面に表示部2a及び表示部2bを備える。表示部2aは、装着時に利用者の右目と対向する位置に配設される。表示部2bは、装着時に利用者の左目と対向する位置に配設される。表示部2aは、右目用の画像を表示し、表示部2bは、左目用の画像を表示する。なお、装着時に利用者のそれぞれの目に対応した画像を表示する表示部2a及び表示部2bを備えることにより、ウェアラブル装置1は、両眼の視差を利用した3次元表示を実現することができる。
表示部2a及び表示部2bは、一対の透過又は半透過のディスプレイであるが、これに限定されない。例えば、表示部2a及び表示部2bは、メガネレンズ、サングラスレンズ、及び紫外線カットレンズ等のレンズ類を設け、レンズとは別に表示部2a及び表示部2bを設けても良い。表示部2a及び表示部2bは、利用者の右目と左目に異なる画像を独立して提供することができれば、1つの表示デバイスによって構成されても良い。
前面部1aには、撮像部3(アウトカメラ)が備えられている。撮像部3は、前面部1aの中央部分に配置されている。撮像部3は、利用者の前方の風景における所定範囲の画像を取得する。また、撮像部3は、利用者の視界に相当する範囲の画像を取得することも可能である。ここでいう視界とは、例えば、利用者が正面を見ているときの視界である。なお、撮像部3は、前面部1aの一方の端部(装着時の右目側)の近傍に配設される撮像部と、前面部1aの他方の端部(装着時の左目側)の近傍に配設される撮像部との2つから構成されていても良い。この場合、前面部1aの一方の端部(装着時の右目側)の近傍に配設される撮像部は、利用者の右目の視界に相当する範囲の画像を取得できる。前面部1aの一方の端部(装着時の左目側)の近傍に配設される撮像部は、利用者の左目の視界に相当する範囲の画像を取得できる。
また、前面部1aには、撮像部4(インカメラ)が備えられている。撮像部4は、ウェアラブル装置1が利用者の頭部に装着されたときに、前面部1aにおける、利用者の顔面側に配置されている。撮像部4は、利用者の顔面、例えば目の画像を取得できる。
また、前面部1aには、検出部5が備えられる。検出部5は、前面部1aの中央部分に配置されている。また、側面部1cには、操作部6が備えられる。検出部5、操作部6については後述する。
ウェアラブル装置1は、利用者に各種情報を視認させる機能を有する。ウェアラブル装置1は、表示部2a及び表示部2bが表示を行っていない場合、表示部2a及び表示部2bを透して前景を利用者に視認させる。ウェアラブル装置1は、表示部2a及び表示部2bが表示を行っている場合、表示部2a及び表示部2bを透した前景と、表示部2a及び表示部2bの表示内容とを利用者に視認させる。
次に、図2を参照しながら、ウェアラブル装置1の機能的な構成について説明する。図2は、ウェアラブル装置1のブロック図である。図2に示すように、ウェアラブル装置1は、表示部2a及び表示部2bと、撮像部3(アウトカメラ)及び撮像部4(インカメラ)と良い、検出部5と、操作部6と、制御部7と、通信部8と、記憶部9とを有する。
表示部2a及び2bは、液晶ディスプレイ(Liquid Crystal Display)、有機EL(Organic Electro−Luminessence)パネル等の半透過または透過の表示デバイスを備える。表示部2a及び表示部2bは、制御部7から入力される制御信号に従って各種の情報を画像として表示する。表示部2a及び表示部2bは、制御部7の制御に基づき、所定の文字を表示する。表示部2a及び表示部2bは、レーザー光線等の光源を用いて利用者の網膜に画像を投影する投影装置であっても良い。この場合、表示部2a及び表示部2bは、眼鏡を模したウェアラブル装置1のレンズ部分にハーフミラーを設置して、別途設けられるプロジェクタから照射される画像が投影される構成であっても良い(図1に示す例において、表示部2a及び表示部2bは、矩形状のハーフミラーを示している)。また、前述したように、表示部2a及び表示部2bは、各種の情報を3次元的に表示しても良い。また、表示部2a及び表示部2bは、各種の情報を利用者の前方(利用者から離れた位置)にあたかも存在するかのように表示しても良い。このように情報を表示する方式としては、例えば、フレームシーケンシャル方式、偏光方式、直線偏光方式、円偏光方式、トップアンドボトム方式、サイドバイサイド方式、アナグリフ方式、レンチキュラ方式、パララックスバリア方式、液晶パララックスバリア方式、2視差方式等の多視差方式の何れかが採用されて良い。
撮像部3及び撮像部4は、CCD(Charge Coupled Device Image Sensor)、CMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサを用いて電子的に画像を撮像する。そして、撮像部3及び撮像部4は、撮像した画像を信号に変換して制御部7へ出力する。
検出部5は、利用者の前景に存在する現実の物体(所定物)を検出する。検出部5は、例えば、現実の物体のうち、予め登録された物体又は予め登録された形状にマッチする物体を検出する。予め登録された物体は、例えば、人間の手や指を含む。予め登録された形状は、例えば、人間の手や指等の形状を含む。検出部5は、現実の物体を検出するセンサを有する。検出部5は、例えば、赤外線を照射する赤外線照射部と、現実の所定物から反射される赤外線を受光可能な、センサとしての赤外線撮像部と、からなる。赤外線照射部は、ウェアラブル装置1の前面部1aに設けられることによって、利用者の前方に赤外線を照射可能となる。また、赤外線撮像部は、ウェアラブル装置1の前面部1aに設けられることによって、利用者の前方に在る所定物から反射される赤外線を検出可能となる。なお、検出部5は、赤外線の他にも、例えば、可視光、紫外線、電波、音波、磁気、静電容量の少なくとも1つを用いて、現実の物体を検出しても良い。
本実施形態においては、撮像部3(アウトカメラ)は、検出部5を兼ねても良い。すなわち、撮像部3は、撮像される画像を解析することによって、撮像範囲内の物体を検出する。撮像部3は、利用者の前方の所定物を撮像可能なように、図1に示すような、ウェアラブル装置1の前面部1aに設けられる。
操作部6は、例えば、側面部1cに配設されるタッチセンサを含む。タッチセンサは、利用者の接触を検出可能であり、検出結果に応じて、ウェアラブル装置1の起動、停止、動作モードの変更等の基本的な操作を受け付ける。本実施形態では、操作部6が側面部1cに配置されている例を示しているが、これに限定されず、側面部1bに配置されても良いし、側面部1bと側面部1cにとの双方に配置されても良い。
制御部7は、演算手段であるCPU(Central Processing Unit)と、記憶手段であるメモリとを備える。制御部7は、これらのハードウェア資源を用いてプログラムを実行することによって各種の機能を実現する。具体的には、制御部7は、記憶部9に記憶されているプログラムやデータを読み出してメモリに展開し、メモリに展開されたプログラムに含まれる命令をCPUに実行させる。そして、制御部7は、CPUによる命令の実行結果に応じて、メモリ及び記憶部9に対してデータの読み書きを行ったり、表示部2a及び表示部2b等の動作を制御したりする。CPUが命令を実行するに際しては、メモリに展開されているデータや検出部5等を介して検出される操作がパラメータや判定条件の一部として利用される。また、制御部7は、通信部8を制御することによって、通信機能を有する他の電子機器との通信を実行させる。
通信部8は、無線により通信する。通信部8によってサポートされる無線通信規格には、例えば、2G、3G、4G等のセルラーフォンの通信規格と、近距離無線の通信規格がある。セルラーフォンの通信規格としては、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、WiMAX(Worldwide Interoperability for Microwave Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)等がある。近距離無線の通信規格としては、例えば、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)、WPAN(Wireless Personal Area Network)等がある。WPANの通信規格には、例えば、ZigBee(登録商標)がある。通信部8は、上述した通信規格の1つ又は複数をサポートしていても良い。ウェアラブル装置1は、例えば、無線通信機能を有する他の電子機器(スマートフォン、ノートパソコン、テレビ等)と無線通信接続を行うことにより、各種信号の送受信を行うことが出来る。
なお、通信部8は、上記携帯電子機器等の他の電子機器と有線接続されることによって、通信しても良い。この場合、ウェアラブル装置1は、他の電子機器が接続されるコネクタを備える。コネクタは、USB(Universal Serial Bus)、HDMI(登録商標)(High−Definition Multimedia Interface)、ライトピーク(サンダーボルト(登録商標))、イヤホンマイクコネクタのような汎用的な端子であっても良い。コネクタは、Dockコネクタのような専用の端子でも良い。コネクタは、上記の電子機器以外にも、例えば、外部ストレージ、スピーカ、及び通信装置を含むあらゆる装置に接続されて良い。
記憶部9は、各種のプログラムやデータを記憶する。記憶部9は、フラッシュメモリ等の不揮発性を有する記憶装置を含んでも良い。記憶部9に記憶されるプログラムには、制御プログラム90が含まれる。記憶部9は、メモリカード等の可搬の記憶媒体と、記憶媒体に対して読み書きを行う読み書き装置との組み合わせによって構成されても良い。この場合、制御プログラム90は、記憶媒体に記憶されていても良い。また、制御プログラム90は、無線通信または有線通信によってサーバ装置や、スマートフォン、腕時計型端末、ノートパソコン、テレビ等から取得されても良い。
制御プログラム90は、ウェアラブル装置1を稼働させるための各種制御に関する機能を提供する。制御プログラム90は、検出処理プログラム90aと、表示制御プラグラム90bとを含む。検出処理プログラム90aは、検出部5の検出結果から、利用者の前景に存在する所定物を検出するための機能を提供する。検出処理プログラム90aは、検出部5の検出結果から、利用者の前景における所定物の位置、及び、所定物の動作を検出する機能を提供する。表示制御プラグラム90bは、利用者に視認可能なように画像を表示し、所定物の動作に応じて、画像の表示の態様を変更する機能を提供する。
次に、図3Aから図3Cを参照し、検出部5の検出範囲と、表示部2a及び表示部2bの表示領域との関係について説明する。図3Aから図3Cは、検出部の検出範囲と、表示部の表示領域との関係について説明する図である。なお、本実施形態では、検出部5が赤外線によって現実の所定物を検出するセンサであるものとして説明していく。検出部5は、赤外線を照射する赤外線照射部と、現実の所定物から反射される赤外線を受光可能な(赤外感度を有する)赤外線撮像部とからなるものとして説明していく。即ち、制御部7は、赤外線撮像部の撮像画像から、現実の所定物を検出する。また、本実施形態では、表示部2a及び表示部2bがウェアラブル装置1から離れた位置にあたかも存在するかのように表示画像を表示させるものとして説明していく。
図3Aは、検出部5の検出範囲51と、表示部2a及び2bの表示領域21とを模式的に示した斜視図である。図3Bは、図3Aの上面図である。図3Cは、図3Aの正面図である。図3Aから図3Cは、X軸、Y軸、Z軸からなる三次元直交座標系が定義されている。X軸方向は、水平方向を指す。Y軸方向は、鉛直方向或いは利用者の体の長軸方向を指す。Z軸方向は、利用者の前後方向を指す。また、Z軸正方向は、検出部5が含む赤外線照射部の照射におけるより大きい深度の方向を指す。なお、図3Cは、利用者が前方を視認した際の視界に相当する。
図3Aから図3Cから解るように、検出範囲51は、3次元空間を有する。赤外線照射部と赤外線撮像部とからなる検出部5は、利用者の前方の所定物を2次元的な画像として検出するとともに、該所定物の形状を検出することができる。また、検出部5は、所定物を2次元的な画像として検出するとともに、該画像の各画素の位置座標データに対応する深度データを取得することができる(即ち深度データが付加された深度画像を取得することができる)。深度データは、検出部5と、2次元的な画像における各画素に対応する現実の物体(所定物)までの距離を示すデータである。制御部7は、検出部5の検出結果に基づき、例えば、所定物が利用者の腕、手、又は指、或いはこれらを組み合わせたもの(上肢と総称する)である場合の該所定物の動作として、指の曲げ動作・伸展動作、手首の曲げ、前腕の回転(回内又は回外)、等の身体動作を検出できる。
なお、制御部7は、上記の身体動作の他に、上肢の特定箇所の位置が、検出範囲51内において移動をすることを身体動作として検出しても良い。また、制御部7は、上肢が特定の形状を形成したことを身体動作として検出しても良い。例えば、制御部7は、親指を上方に伸ばしつつ他の指を握った形態(グッドサイン)等を身体動作として検出して良い。
なお、撮像部3(アウトカメラ)を検出部として適用した場合であっても、上記検出部5と同様に、制御部7は、検出範囲内(撮像範囲内)に在る所定物の検出、所定物の動作等の検出が可能である。
次に、表示部2a及び表示部2bは、図3Aから図3Cから解るように、実際に設けられたウェアラブル装置1の部分ではなく、ウェアラブル装置1から離れた位置となる表示領域21において利用者によって視認可能なように画像を表示する(以下、表示部2a及び表示部2bが表示する画像を表示画像と称することもある)。このとき、表示部2a及び2bは、表示画像を、奥行きを持つ立体形状の3Dオブジェクトとして表示しても良い。なお、当該奥行きは、Z軸方向における厚みに対応する。しかしながら、表示部2a及び表示部2bは、ウェアラブル装置1から離れた位置となる表示領域21において利用者によって視認可能なように画像を表示するのではなく、実際に設けられたウェアラブル装置1の表示部2a及び表示部2bの部分に画像を表示しても良い。
次に、図4〜図11を参照して、本実施形態に係るウェアラブル装置1により実行される機能を説明する。以下に示す各種の機能は、制御プログラム90によって提供される。図4は、ウェアラブル装置1により実行される機能の第1例を説明する図である。
図4には、ウェアラブル装置1の表示部2a或いは表示部2b(以後、単に表示部2と称することもある)、表示部2の表示領域21、及び利用者の上肢が示されている。また、図4は、凡そ、利用者によって2次元的に視認され得る領域として示されている。なお、後述する図5〜図10の例においても同様である。
ステップS1において、ウェアラブル装置1は、ウェブブラウザアプリケーションを実行しており、利用者の所望とする検索ワードを入力し、該検索ワードに基づき検索を行うための検索画面SC1を表示部2に表示している。また、ウェアラブル装置1は、検出部5の検出範囲51における利用者の上肢の位置に対応する表示位置に、検出部5の検出結果に基づいて制御部7に検出される上肢の形状と略同形状の表示オブジェクト(以後、手オブジェクトHと称する)を表示部2に表示している。ウェアラブル装置1は、検出部5の検出範囲51内の予め定められた所定空間の座標位置と表示領域21の座標位置とを対応付けて記憶している。そのため、利用者は、手オブジェクトHの表示位置を視認しながら、現実の空間において上肢を動かすことにより、表示領域21における所望とする位置に手オブジェクトHを移動させることができる。また、ステップS1においては、利用者が現実の空間において、上肢における人差し指を伸展させていることに基づき、ウェアラブル装置1は、人差し指を伸展させた手を模した画像を手オブジェクトHとして表示部2に表示している。
ステップS1に示すように、利用者が現実の空間において上肢を動かすことにより、ウェアラブル装置1は、手オブジェクトHを点線で示した位置から、人差し指の指先部分が検索画面SC1における文字入力領域SC11と重畳する位置へ、該手オブジェクトHを移動させる。ウェアラブル装置1は、利用者によって文字入力操作が開始されるものと認識する。ウェアラブル装置1は、手オブジェクトHが文字入力領域SC11と重畳する位置へ移動することにより、利用者によって文字入力を行う操作が開始されるものと認識する。ウェアラブル装置1は、例えば、ステップS2に示すように、上肢の身体動作に基づく手オブジェクトHの位置及び形状の変化に応じて文字を入力可能な文字キーSC2を検索画面SC1の一部に重畳させて表示する。また、ウェアラブル装置1は、ステップS2において、検索画面SC1における文字入力領域SC11に、前回のウェブブラウザアプリケーションの起動時に入力されていた文字列「carrot recipes」を表示している。
次に、手オブジェクトHが文字入力領域SC11の近くに位置している状態において、利用者は、上肢における人差し指と親指を伸展させた状態から、人差し指と親指とを互いに近づける動作(摘まむ動作)を行っている。ステップS3において、ウェアラブル装置1は、上肢における人差し指と親指を伸展させた状態を検出すると、入力していた文字列「carrot recipes」が利用者によって選択されたものと見なす。そして、ステップS4において、ウェアラブル装置1は、上肢における人差し指と親指とを互いに近づける動作を検出すると、利用者によって選択されたものと見なした文字列「carrot recipes」を消去する。ここで、「人差し指と親指とを互いに近づける動作」とは、人差し指の所定領域(例えば指先)と、親指の所定領域(例えば、指先)とを互いに近づける動作を示す。また「指先」とは、例えば、指の第1間接から指の先端に至る部分として良い。
このように、本実施形態に係るウェアラブル装置1は、文字を表示する表示部2と、現実の空間に在る所定物を検出する検出部5と、検出部5の検出結果から、上肢における一部(第1例では人差し指)と他部(第1例では親指)とが互いに近づく第1身体動作を検出すると、文字を選択する文字選択処理を実行する制御部7と、を備える。このような構成を有することにより、ウェアラブル装置1において、摘まむ動作のような、より簡易な動作によって文字を選択することができるため、利用者にとって使い勝手が良くなる。
なお、本実施形態に係るウェアラブル装置1において、制御部7は、人差し指の指先と親指の指先とを互いに近づける動作(第1身体動作)を検出すると、当該動作に基づいて変化する、人差し指の指先と親指の指先との距離を検出する。制御部7は、検出した距離が所定長さ以下となったことを契機に、文字選択処理を実行するようにしても良い。ここで、「人差し指の指先と親指の指先との距離」とは、現実に存在する上肢における人差し指の指先と親指の指先との現実の空間における距離を意味していても良いし、手オブジェクトHにおける人差し指の指先と親指の指先との距離を意味していても良い。また「所定長さ」とは、「人差し指の指先と親指の指先との距離」が、手オブジェクトHにおける人差し指の指先と親指の指先との距離を意味する場合においては、例えば、対象とする文字列の半分の長さであっても良い。図4に示す例では、ウェアラブル装置1は、第1身体動作を検出すると、手オブジェクトHにおける人差し指の指先と親指の指先との距離が、「carrot recipes」の文字列が表示されている部分の長さdの半分の長さ(1/2d)以下となった場合に、当該文字列が利用者によって選択されたものと見なす。また、「所定長さ」は、人差し指の指先と親指の指先とが互いに触れたと見なせる長さ、即ち、ゼロとしても良い。
また、本実施形態に係るウェアラブル装置1において、制御部7は、第1身体動作を検出し、かつ、該第1身体動作における一部(第1例では人差し指)又は他部(第1例では親指)の移動速度が第1速度以上であることを検出すると、文字選択処理を実行するようにしても良い。このような構成とすることで、ウェアラブル装置1は、利用者の意図した身体動作によって文字選択を行い易くすることができる。
図5は、ウェアラブル装置1により実行される機能の第2例を説明する図である。第2例は、第1例と同様に、ウェブブラウザアプリケーションが起動している場合を示している。
ステップS11において、ウェアラブル装置1は、検索画面SC1及び文字キーSC2を表示部2に表示している。また、ウェアラブル装置1は、検索画面SC1における文字入力領域SC11に、前回のウェブブラウザアプリケーションの起動時に入力されていた文字列「carrot recipes」を表示している。また、ウェアラブル装置1は、検出部5の検出範囲51における利用者の上肢の位置に対応する表示位置に、検出部5によって検出結果に基づいて制御部7に検出される上肢の形状と略同形状の手オブジェクトHを表示部2に表示している。
ステップS11において、利用者は、上肢を動かすことにより、手オブジェクトHの親指の指先を文字列「recipes」の先頭に位置させ、一方で、人差し指の指先を「recipes」の後尾に位置させている。このとき、手オブジェクトHの親指の指先と人差し指の指先とは、「recipes」の表示領域の長さd2だけ離間している。次に、利用者は、ステップS11に示す状態から、利用者が人差し指の指先と親指の指先とを互いに近づける動作(第1身体動作)を行う。ステップS12において、ウェアラブル装置1は、第1身体動作を検出すると、文字列「carrot recipes」の内の「recipes」の部分が利用者によって選択されたものと見なす。ステップS12に示す例では、ウェアラブル装置1は、第1身体動作を行う上肢の形状と略同形状の手オブジェクトHを表示部2に表示している。ステップS13において、ウェアラブル装置1は、利用者によって選択されたものと見なした文字列「recipes」を文字入力領域SC11から消去する。
以上のように、本実施形態に係るウェアラブル装置1において、表示部2は複数の文字からなる文字列を表示し、制御部7は、第1身体動作を検出すると、前記文字列における、第1身体動作が検出される直前の手オブジェクトHの一部(親指の指先)の位置と他部(人差し指の指先)の位置とによって規定される数の文字(第2例では「recipes」)に対して文字選択処理を実行する。ここで、「手オブジェクトHの一部の位置と他部の位置とによって規定される数の文字」とは、第2例のように、手オブジェクトHの一部(親指の指先)と重畳する文字「r」と手オブジェクトHの他部(人差し指の指先)と重畳する文字「s」との間に含まれる文字列(「r」、「s」も含む文字列、即ち「recipes」)であって良い。また、「手オブジェクトHの一部の位置と他部の位置とによって規定される数の文字」とは、手オブジェクトHの一部のX座標位置と略同一のX座標位置に表示されている文字(Y軸座標位置は同一でなくても良い)と、手オブジェクトHの他部のX座標位置と略同一のX座標位置に表示されている文字(Y軸座標位置は同一でなくても良い)と、の間に含まれる文字列としても良い。また、「手オブジェクトHの一部の位置と他部の位置とによって規定される数の文字」とは、上肢の一部と他部の位置との間の距離のX軸方向成分(即ち、文字列の入力方向の成分)と同程度の長さとなる文字列としても良い。また、第2例のように複数の単語(「carrot」と「recipes」)が表示されている場合には、当該単語の表示領域のX軸方向における長さが、上肢の一部と他部の位置との間の距離のX軸方向成分により近い一方を「手オブジェクトHの一部の位置と他部の位置とによって規定される数の文字」と見なしても良い。
また、第1例において、ウェアラブル装置1は、第1身体動作を検出し、当該第1身体動作における上肢の一部又は他部の移動速度が第1速度以上であることを検出すると、文字選択処理を実行するようにしても良いことを説示した。一方で、ウェアラブル装置1は、上肢の一部又は他部の第1速度未満の動作によっては文字選択処理が実行されない。このため、利用者は、上肢の一部又は他部を第1速度未満で適宜移動させることにより、利用者の所望とする文字列、或いは文字数を指定することができる(文字列を指定した後に、第1速度以上の第1身体動作を行えば、当該指定した文字列に対して文字選択処理が実行される)。また、ウェアラブル装置1は、表示領域21における、手オブジェクトHの一部の位置と他部の位置とが所定時間以上変動しなかった場合に、当該位置に基づいて利用者の所望とする文字列、或いは文字数が指定されたものと見なしても良い。
以上に説明した第1例及び第2例においては、ウェアラブル装置1は、利用者の第1身体動作を検出すると、制御部7が文字選択処理によって選択した文字を消去する文字消去処理を実行する例を示した。ここで、第1例及び第2例のように、制御部7は、表示部2による検索画面SC1における文字入力領域SC11(文字入力画面と称する)の表示時に、該表示時以前に入力された文字(文字列「carrot recipes」)が表示されると、第1身体動作の検出の有無を監視する。制御部7は、第1身体動作の検出が有ったこと契機に、入力された文字「carrot recipes」に対する文字消去処理を実行する構成を有していて良い。第1例及び第2例のように、ウェアラブル装置1は、所定のアプリケーションを起動した際に、前回の起動時に入力されていた文字列を再度表示する場合がある。この場合に、ウェアラブル装置1は、再度表示された文字を上記の第1身体動作のような簡易な動作によって、一括して消去できるので、利用者にとって使い勝手が良くなる。なお、ウェアラブル装置1は、文字消去処理の実行後に、身体動作として、上肢の一部と他部とが互いに離れる第2身体動作を検出すると、消去した文字を再入力するようにしても良い。また、ウェアラブル装置1は、文字消去処理の実行後、所定時間内に、第2身体動作を検出すると、消去した文字を再入力するようにしても良い。
図6は、ウェアラブル装置1により実行される機能の第3例を説明する図である。第3例は、ウェアラブル装置1によってメールアプリケーションが起動されている場合を示している。
ステップS21において、ウェアラブル装置1は、他の通信端末とのメールのやりとりを示すメール画面SC3を表示部2に表示している。また、ウェアラブル装置1は、検出部5の検出範囲51における利用者の右上肢の位置に対応する表示位置に、検出部5によって検出結果に基づいて制御部7に検出される右上肢の形状と略同形状の右手オブジェクトRHを表示部2に表示している。右手オブジェクトRHは、メール画面SC3中の一部のメッセージSC31に重畳して表示されている。
ここで、利用者が右上肢を動かすことにより、右手オブジェクトRHの人差し指の指先と親指の指先とを互いに近づける動作を(第1身体動作)を行うと、ウェアラブル装置1は、文字選択処理を実行する。ステップS22において、ウェアラブル装置1は、第1身体動作がなされる直前における右手オブジェクトRHの人差し指の指先の位置と親指の指先の位置に基づいて、或いは、人差し指の指先と親指の指先とが距離d3だけ離間していることに基づいて、メッセージSC31の内の一部の文字列「19時に○○駅前」に対して文字選択処理を実行する。そして、ウェアラブル装置1は、文字選択処理を実行するとともに、文字列「19時に○○駅前」をコピーする複製処理、即ち、文字列「19時に○○駅前」を一時的に記憶する処理を実行する。なお、文字列「19時に○○駅前」に対する複製処理がなされたことを視認しやすくするために、ウェアラブル装置1は、文字列「19時に○○駅前」の表示態様を変更する。
ステップS22において、複製処理を実行した後に、利用者は、ウェアラブル装置1の検出部5の検出範囲51内に左上肢を移動させる。ステップS23において、ウェアラブル装置1は、検出部5の検出結果に基づいて左上肢の形状と略同形状の左手オブジェクトLHを表示部2に表示する。ステップS23において、例えば、利用者は、現実の空間において左上肢を左方向に移動させている。ステップS24において、ウェアラブル装置1は、左手オブジェクトLHの表示位置を表示領域21における左方向に移動させるとともに、左上肢が移動したことに基づいて、メール画面SC3から異なる画面へ表示を遷移させる。遷移後の画面は、ステップS24に示すように、例えば、利用者の操作によって文字を入力することが可能なメモ画面SC4である。
ステップS24において、利用者は、現実の空間において右上肢を動かすことにより、メモ画面SC4上に右手オブジェクトRHを移動させ、右手オブジェクトRHの人差し指と親指とを互い離間させる(第2身体動作を行う)。ステップS25において、ウェアラブル装置1は、第2身体操作を検出すると、複製処理によって一時的に記憶していた文字列「19時に○○駅前」をメモ画面SC4内に入力(ペースト)する。
以上のように、本実施形態に係るウェアラブル装置1において、制御部7は、第1身体動作を検出すると、文字選択動作によって選択した文字(第3例においては、文字列「19時に○○駅前」)をコピーする複製処理を実行する。
また、本実施形態に係るウェアラブル装置1において、制御部7は、複製処理の実行後に、身体動作として、手オブジェクトHの一部(親指の指先)と他部(人差し指の指先)とが互いに離れる第2身体動作を検出すると、文字選択動作によってコピーした文字を表示部2にペーストする貼付処理を実行する。なお、ウェアラブル装置1は、貼付処理を実行した後、複製処理を実行した状態を解除、即ち、一時的に記憶していた文字列を記憶しない状態へ変更しても良い。また、ウェアラブル装置1は、貼付処理を実行した後も、複製処理を実行した状態を維持、即ち、文字選択処理によって選択した文字列を継続して記憶しても良い。当該構成によれば、ウェアラブル装置1は、利用者が第1身体動作を繰り返し行うことで、当該繰り返した回数だけ貼付処理を実行させることができる。また、ウェアラブル装置1は、貼付処理を実行した後も、複製処理を実行した状態を維持し、利用者の操作に基づき、他の文字列に対する文字選択処理を実行する際に、一時的に記憶する文字列を他の文字列に置換するようにしても良い。
また、ウェアラブル装置1は、第1身体動作に基づき文字選択処理及び複製処理を実行すると、当該第1身体動作後の上肢の一部と他部とが近づいた状態が維持されているか否かを判定しても良い。例えば、ウェアラブル装置1は、当該状態が維持されている場合には、文字選択処理及び複製処理を継続し、一方で、当該状態が解除された、即ち、上肢の一部と他部とが離れた場合には、文字選択処理及び複製処理を解除するにようにしても良い。
また、ウェアラブル装置1は、右上肢による第1身体動作に基づいて第1文字列に対する文字選択処理及び複製処理を実行し、一方で、左上肢による第1身体動作に基づいて第2文字列に対する文字選択処理及び複製処理を実行しても良い。この場合、ウェアラブル装置1は、第2身体動作に基づき、選択した文字列の貼付処理を実行するに際し、当該第2身体動作が左上肢に依るものなのか、右上肢に依るものなのかを判定しても良い。例えば、ウェアラブル装置1は、左上肢に依る第2身体動作である場合には第1文字列を貼り付ける処理を実行し、一方で、右上肢に依る第2身体動作である場合には第2文字列を貼り付ける処理を実行するようにしても良い。また、ウェアラブル装置1は、上肢の親指と人差し指とが互いに近づく第1身体動作に基づいて第1文字列に対する文字選択処理及び複製処理を実行し、一方で、上肢の親指と中指とが互いに近づく第1身体動作に基づいて第2文字列に対する文字選択処理及び複製処理を実行するようにしても良い。この場合、ウェアラブル装置1は、第2身体動作に基づき、選択した文字列の貼付処理を実行するに際し、当該第2身体動作が、親指と人差し指とが離れる動作であるか、親指と中指とが離れる動作であるか、を判定する。例えば、ウェアラブル装置1は、親指と人差し指とが離れる動作である場合には第1文字列を貼り付ける処理を実行し、一方で、親指と中指とが離れる動作である場合には第2文字列を貼り付ける処理を実行するようにしても良い。このような構成によれば、ウェアラブル装置1は、第1身体動作における上肢の一部と他部との組み合わせの種類に対応する数だけそれぞれ異なる複製処理を実行することができるので、ウェアラブル装置1の操作性が向上する。
図7は、ウェアラブル装置1により実行される機能の第4例を説明する図である。ウェアラブル装置1は、メールアプリケーションを起動している。ステップS31において、ウェアラブル装置1は、メール画面SC3と右手オブジェクトRHを表示部2に表示している。また、メール画面SC3中の一部のメッセージSC32に右手オブジェクトRHが重畳して表示されている。
ここで、利用者が右上肢を動かすことにより、右手オブジェクトRHの人差し指の指先と親指の指先とを互いに近づける動作を(第1身体動作)を行うと、ウェアラブル装置1は、文字選択処理を実行する。ステップS32において、ウェアラブル装置1は、複数の行で構成される文字列を含むメッセージSC32の内、第1身体動作がなされる直前における右手オブジェクトRHの人差し指の指先の位置と親指の指先の位置に基づいた行数の文字列に対して文字選択処理を実行する。図7に示す例では、ウェアラブル装置1は、人差し指の指先と親指の指先とが距離d4だけ離間していることに基づいた2行分の行数の文字列「http://・・・」に対して文字選択処理を実行する。そして、ウェアラブル装置1は、文字選択処理を実行するとともに、文字列「http://・・・」をコピーする複製処理、即ち、文字列「http://・・・」を一時的に記憶する処理を実行する。なお、ステップS32に示す例では、文字列「http://・・・」に対する複製処理がなされたことを視認しやすくするために、ウェアラブル装置1は、文字列「http://・・・」の表示態様を変更する。
ステップS33において、ウェアラブル装置1は、複製処理を実行した後に、図6のステップS23に示したような所定の操作が利用者によってなされたことに基づいて、メール画面SC3から異なる画面(メモ画面SC4)へ表示を遷移させる。ステップS33において、利用者は、現実の空間において右上肢を動かすことにより、メモ画面SC4上に右手オブジェクトRHを移動させ、右手オブジェクトRHの人差し指と親指とを互い離間させる(第2身体動作を行う)。ステップS34において、ウェアラブル装置1は、複製処理によって一時的に記憶していた文字列「http://・・・」をメモ画面SC4内に入力(ペースト)する。
以上のように、本実施形態に係るウェアラブル装置1において、表示部2は、複数の行で構成される文字列を表示し、制御部7は、第1身体動作を検出すると、文字列における、該第1身体動作が検出される直前の上肢の一部の位置と他部の位置とによって規定される行数の文字列(図7の例では2行分の文字列)に対して文字選択処理を実行する。ここで、「上肢の一部の位置と他部の位置とによって規定される行数の文字列」とは、図7の例のように、手オブジェクトHの一部(親指の指先)と重畳する行と、手オブジェクトHの他部(人差し指の指先)と重畳する行と、双方の行の間に含まれる行と、を構成する文字列であって良い。また、「上肢の一部の位置と他部の位置とによって規定される行数の文字列」とは、手オブジェクトHの一部のY座標位置と略同一のY座標位置に表示されている行(X軸座標位置は同一でなくても良い)と、手オブジェクトHの他部のY座標位置と略同一のY座標位置に表示されている行(X軸座標位置は同一でなくても良い)と、双方の行の間に含まれる他の行と、を構成する文字列としても良い。また、「上肢の一部の位置と他部の位置とによって規定される行数の文字列」とは、上肢の一部と他部の位置との間の距離のY軸方向成分(即ち、文字列の入力方向と垂直な方向の成分)と同程度の長さとなる行数の文字列としても良い。また、ウェアラブル装置1は、上肢の一部の位置と他部の位置とによって規定される行に加えて、当該規定された行の文字列と連続して一の文節(或いは、一の意味内容)を構成する他の文字列が含まれる上段の行又は下段の行も合わせて、文字選択処理の対象とされても良い。例えば、文字列「http://・・・」が、2行分の文字列で1つのURLを構成しているものと仮定すれば、たとえ1行分(文字列「http://・・・」の一部)しか指定しなかったとしても、文字列「http://・・・」の全部(2行分)を文字選択処理の対象にすることができる。また、メッセージSC32(対象となる文字列)が複数の行からなるパラグラフを含む場合、ウェアラブル装置1は、上肢の一部の位置と他部の位置とによって規定される行を含むパラグラフ全部が、文字選択処理の対象とされても良い。また、メッセージSC32(対象となる文字列)が複数のパラグラフを含む場合、ウェアラブル装置1は、上肢の一部の位置に重畳する行を含む第1のパラグラフと、上肢の他部の位置に重畳する行を含む第2のパラグラフの双方(或いは、第1のパラグラフと第2のパラグラフとの間に他のパラグラフがある場合には、該他のパラグラフも含む)が、文字選択処理の対象とされても良い。
以上の各実施形態において、文字列の横方向の規定と縦方向の双方において、文字選択処理の対象となる範囲の指定が可能であることを示した。次に、図8を参照して、文字選択処理を実行するための第1身体動作における上肢の一部と他部とが近づく方向の条件について説明する。図8A及び図8Bは、文字選択処理を実行するための第1身体動作における上肢の一部と他部とが近づく方向の条件について説明する図である。
図8Aに示すように、制御部7は、第1身体動作を検出すると、上肢における一部と他部とが互いに近づく方向と、文字が順番に入力される入力方向(X軸方向)と、が交わる角度θ1を算出する。制御部7は、該角度θ1が第1角度以下である場合に、文字選択処理を実行するようにして良い。ここで、角度θ1は、例えば、0〜45度の範囲内で適宜設定されると良い。
また、図8Bに示すように、制御部7は、上肢における一部と他部とが互いに近づく方向と、文字の入力方向と垂直な方向(Y軸方向)、が交わる角度θ2を算出する。制御部7は、該角度θ2が第2角度以下である場合に、文字選択処理を実行するようにして良い。ここで、角度θ2は、例えば、0〜45度の範囲内で適宜設定されると良い。
図9は、ウェアラブル装置1により実行される機能の第5例を説明する図である。第5例は、メールアプリケーションが起動している場合を示している。ステップS41において、ウェアラブル装置1は、メール画面SC3と右手オブジェクトRHを表示部2に表示している。また、メール画面SC3中の一部のメッセージSC32には、右手オブジェクトRHが重畳して表示されている。
ここで、利用者が右上肢を動かすことにより、右手オブジェクトRHの人差し指の指先と親指の指先とを互いに近づける動作を(第1身体動作)を行うと、ウェアラブル装置1は、文字選択処理を実行する。ステップS42において、ウェアラブル装置1は、第1身体動作における人差し指の指先と親指の指先とを互いに近づく方向が略縦方向(Y軸方向)であり、かつ、第1身体動作後の右手オブジェクトRHの人差し指の指先がメッセージSC321の上端に、親指の指先がメッセージSC321の下端に位置していることに基づいて、メッセージSC321を文字選択処理の対象とする。ウェアラブル装置1は、利用者によってメッセージSC321が選択されたものと見なしたことを契機に、メッセージSC321の表示態様を変更する。なお、図9に示す例は、第1身体動作後の上肢の一部の位置と他部の位置とに基づいて、文字選択処理の対象とする文字列を決定する点において、上記の各実施形態とは異なる。
ステップS42において、利用者は、右手オブジェクトRHがメッセージSC321を摘まんでいる状態、即ち、人差し指と親指との離間距離が略同一に維持された状態において、利用者が現実の空間において上肢を動かしている。この動作を検出することにより、ステップS43において、ウェアラブル装置1は、右手オブジェクトRHを表示部2の表示領域21における右方向へ移動させる。この場合、ウェアラブル装置1は、文字選択処理で選択したメッセージSC321中を構成する文字をコピーする複製処理を実行するとともに、メッセージSC321の表示位置を右方向へ移動させる。
そして、ステップS43において、利用者は、ウェアラブル装置1の検出部5の検出範囲51内に左上肢を移動させている。ステップS43において、ウェアラブル装置1は、検出部5の検出結果に基づいて左上肢の形状と略同形状の左手オブジェクトLHを表示部2に表示する。そして、例えば、利用者が現実の空間において左上肢を左方向に移動させると、ウェアラブル装置1は、検出部5の検出結果から左上肢の身体動作を検出し、左手オブジェクトLHの表示位置を表示領域21における左方向に移動させる。また、ステップS43において、ウェアラブル装置1は、左上肢の身体動作を検出すると、利用者による操作がなされたものと見なし、例えば、メール画面SC3から異なる画面へ表示を遷移させる。遷移後の画面は、例えば、ステップS44に示すように検索画面SC5である。なお、ウェアラブル装置1は、メール画面SC3から検索画面SC5に表示を遷移させるに際して、右手オブジェクトRHが摘まんでいるメッセージSC321の表示を維持する、即ち、メッセージSC321中の文字をコピーしている状態を維持する。
ステップS44において、利用者が現実の空間において右上肢を動かすことにより、ウェアラブル装置1は、検索画面SC5における文字入力領域SC51にメッセージSC321が重畳するように、右手オブジェクトRHの表示位置を移動させる。ステップS45において、ウェアラブル装置1は、文字入力領域SC51にコピーしていたメッセージSC321内の文字を入力、即ち、ペーストする貼付処理を実行する。なお、ウェアラブル装置1は、文字入力領域SC51にメッセージSC321が重畳するように、右手オブジェクトRHの表示位置を移動させることに基づいて、文字入力領域SC51にメッセージSC321内の文字をペーストすることに限定しない。例えば、ウェアラブル装置1は、文字入力領域SC51にメッセージSC321が重畳するように、右手オブジェクトRHの表示位置が移動し、該移動後に右手オブジェクトRHの人差し指の指先と親指の指先とが離れたことに基づいて、文字入力領域SC51にメッセージSC321内の文字をペーストするようにしても良い。この場合、利用者は、文字入力領域SC51にメッセージSC321を構成する文字をペーストするために、現実の空間において、右上肢を移動させ、かつ人差し指の指先と親指の指先とを離す動作(第2身体動作)を行えば良い。
上述したように第5例では、第1身体動作前ではなく、第1身体動作後の上肢の一部の位置と他部の位置とに基づいて、文字選択処理の対象とする文字列を決定する点において、上記の各実施形態とは異なる。第5例では、メッセージSC321に対する文字選択処理を実施するための操作が、必ずしも、上肢の一部と他部とが互いに近づく第1身体動作である必要はない。例えば、ウェアラブル装置1は、単に、上肢の一部がメッセージSC321の上端に位置し、他部がメッセージSC321の下端に位置したことに基づいて、メッセージSC321に対する文字選択処理を実行しても良い。或いは、ウェアラブル装置1は、上肢の一部がメッセージSC321の上端に位置し、他部がメッセージSC321の下端に位置した状態が所定時間以上継続したことに基づいてメッセージSC321に対する文字選択処理を実行しても良い。
図9に示したように、本実施形態に係るウェアラブル装置1は、複数の文字からなる文字列を表示する表示部2と、現実の空間に在る利用者の上肢を検出する検出部5と、前記文字列の内、検出部5によって検出される上肢の一部の位置と他部の位置とによって規定される範囲に含まれる第1文字列(図9の例では、メッセージSC321)を選択する文字選択処理を実行する制御部7と、を備える頭部に装着可能なウェアラブル装置1であって、制御部7は、文字選択処理の実行中に、上肢一部と他部との間の離間距離が略同一に維持された状態で、該上肢の所定の身体動作(図9の例では、上肢を右方向へ移動させる動作)を検出したことに基づいて、第1文字列に対して所定の処理(図9の例では、メッセージSC321内の文字列をコピーする複製処理)を実行する。ここで、所定の身体動作は、例えば、文字選択処理を実行させるための上肢の一部と他部とを近づける動作における、該一部と他部とが近づく方向と略直交する(或いは所定範囲内の角度で交わる)方向へ上肢を移動させる動作であって良い。当該動作であれば、文字選択処理のための操作と、所定の処理を実行させるための操作と、の間で身体動作が混同し難く、従って、誤操作が生じ難くなる。
図10は、ウェアラブル装置1により実行される機能の第6例を説明する図である。ステップS51に示すように、ウェアラブル装置1は、利用者に所定の情報を入力させるための入力フォームSC6を表示部2に表示している。また、ウェアラブル装置1は、検出部5の検出範囲51における利用者の上肢の位置に対応する表示位置に、検出部5によって検出結果に基づいて検出される上肢の形状と略同形状の手オブジェクトHを表示部2に表示している。
ステップS51において、入力フォームSC6における電話番号入力領域には、全角数字列「080−」(文字列T1)が入力されている。ステップS52において、利用者は、現実の空間において上肢を動かすことにより、文字列T1「080−」の先頭に右手オブジェクトRHの親指の指先を位置させ、文字列T1「080−」の後尾に右手オブジェクトRHの人差し指の指先を位置させている。次に、利用者は、右手オブジェクトRHの人差し指の指先と親指の指先とを互いに近づける動作を(第1身体動作)を行っている。ステップS52において、ウェアラブル装置1は、当該近づける動作を検出すると、文字列T1「080−」が利用者によって選択されたものと見なす。即ち、ウェアラブル装置1は、文字列T1を選択する文字選択処理を実行する。
ステップS52において、ウェアラブル装置1は、文字列T1を選択する文字選択処理を実行するとともに、当該選択した文字列T1の文字種を変更する。ウェアラブル装置1は、文字種の変更として、ステップS53に示すように、全角数字である文字列T1から半角数字である文字列T2へ変更する。
以上のように、本実施形態に係るウェアラブル装置1において、制御部7は、第1身体動作を検出すると、文字列T1を選択するとともに、該文字の文字種を変更する文字種変更処理を実行する。
なお、文字種の変更は、全角文字から半角文字への変更に限られない。図11Aから図11Dは、文字種の変更の他の例を示す図である。
図11Aに示す例では、ウェアラブル装置1は、上肢の一部と他部とが互いに近づく第1身体動作を検出すると、第6例と同様に、文字を全角から半角に変換、若しくは、文字の大きさを変更する例を示している。なお、ウェアラブル装置1は、上肢の一部と他部とが互いに近づく第1身体動作を検出すると、文字の大きさを縮小し、一方で、上肢の一部と他部とが互いに離れる第2身体動作を検出すると、文字の大きさを拡大する構成として良い。
即ち、本実施形態に係るウェアラブル装置1において、制御部7は、検出部5の検出結果から、上肢における一部と他部との距離の変化を伴う身体動作を検出すると、文字の文字種を変更する文字種変更処理を実行するものと特徴付けられても良い。このような構成を有することにより、ウェアラブル装置1は、摘まむ動作のような、より簡易な動作によって、入力されている文字の文字種を変更することができるため、利用者にとって使い勝手が良くなる。
また、本実施形態に係るウェアラブル装置1において、文字種変更処理は、所定の2種の文字種の内、一方から他方へ変更する動作であり、一部と他部との距離が小さくなる第1身体動作を検出すると、一方から他方へ変更し、一方、一部と他部との距離が大きくなる第2身体動作を検出すると、他方から一方へ変更する。また、2種の文字種は、互いに大小関係を有する文字種であり、ウェアラブル装置1は、第1身体動作を検出すると、2種の文字種の内の相対的に大きな一方(全角表記)から相対的に小さな他方(半角表記)へ変更し、第2身体動作を検出すると、2種の文字種の内の相対的に小さな一方から相対的に大きな他方へ変更するようにしても良い。なお、ウェアラブル装置1は、文字種変更処理の対象となる文字列が全角表記の文字と半角表記の文字との双方を含む場合には、第1身体動作に基づき、文字列中の全角表記の文字を半角表記へ変更し(元々半角表記の文字は文字種を変更しない)、第2身体動作に基づき、文字列中の半角表記の文字を全角表記へ変更(元々全角表記の文字は文字種を変更しない)するようにしても良い。
図11Bに示す例では、ウェアラブル装置1は、上肢の一部と他部とが互いに近づく第1身体動作を検出すると、かな文字で表記された文字列「にんじん」を漢字表記の文字列「人参」に変換する例を示している。なお、ウェアラブル装置1は、上肢の一部と他部とが互いに近づく第1身体動作を検出すると、かな文字での表記から、漢字での表記に変更し、一方で、上肢の一部と他部とが互いに離れる第2身体動作を検出すると、漢字での表記から、かな文字での表記に変換する構成として良い。かな文字で表記された文字列(単語)と、該文字列に対応する漢字とでは、漢字表記の場合の方が、文字数が少なくなる場合が多い。そのため、第1身体動作又は第2身体動作による上肢の一部と他部との間の距離の増減に従って、文字列の文字数が増減するため、利用者に対してより自然な操作感を与えることができる。即ち、ウェアラブル装置1は、第1身体動作を検出すると、2種の文字種の内の相対的に大きな一方(かな文字での表記)から相対的に小さな他方(漢字での表記)へ変更する動作を実行し、第2身体動作を検出すると、2種の文字種の内の相対的に小さな一方から相対的に大きな他方へ変更する動作を実行する構成を有していても良い。なお、ウェアラブル装置1は、文字種変更処理の対象となる文字列が、かな文字と漢字表記の文字との双方を含む場合には、第1身体動作に基づき、文字列中のかな文字を漢字表記へ変更し(元々漢字表記の文字は文字種を変更しない)、第2身体動作に基づき、文字列中の漢字表記の文字をかな表記へ変更(元々かな表記の文字は文字種を変更しない)するようにしても良い。
図11Cに示す例では、ウェアラブル装置1は、上肢の一部と他部とが互いに近づく第1身体動作を検出すると、漢字表記で表記された日本語の文字列「人参」を英語「carrot」に翻訳する例を示している。なお、ウェアラブル装置1は、上肢の一部と他部とが互いに近づく第1身体動作を検出すると、漢字での表記から、英語での表記に翻訳し、一方で、上肢の一部と他部とが互いに離れる第2身体動作を検出すると、英語での表記から、漢字での表記に翻訳する構成として良い。なお、図11Cの例では、一の単語を翻訳する例を示したが、これに限定されず、複数の単語からなる文章に対して翻訳される処理がウェアラブル装置1によって実行されても良い。
図11Dに示す例では、ウェアラブル装置1は、先頭の文字が大文字で表記されている文字列「Carrot」に対し、上肢の一部を「C」の上部に、他部を「C」の下部に位置させた状態で、一部と他部とが互いに近づく第1身体動作を検出すると、大文字で表記された「C」を小文字の「c」に変更する例を示している。反対に、ウェアラブル装置1は、文字の全てが小文字で表記された文字列「carrot」に対し、上肢の一部を「c」の上部に、他部を「c」の下部に位置させた状態で、一部と他部とが互いに離れる第2身体動作を検出すると、小文字で表記された「c」を大文字の「C」に変更するようにしても良い。即ち、ウェアラブル装置1は、第1身体動作を検出すると、2種の文字種の内の相対的に大きな一方(大文字)から相対的に小さな他方(小文字)へ変更し、第2身体動作を検出すると、2種の文字種の内の相対的に小さな一方(小文字)から相対的に大きな他方(大文字)へ変更する動作を実行するようにしても良い。
以上、図11を参照して説明したように、本実施形態に係るウェアラブル装置1において、制御部7は、第1身体動作を検出すると、文字を選択するとともに、該文字に対して、全角/半角変換、又は、かな/漢字変換、又は、他言語への翻訳、又は、大文字/小文字変換を文字種変更処理として実行する。
以上に、各実施形態を説明してきた。特に、第1例及び第2例においては、ウェアラブル装置1が利用者の第1身体動作を検出すると、文字選択処理によって選択した文字を消去する文字消去処理を実行する例を示した。ここで、第1例、第2例のように、制御部7は、表示部2による検索画面SC1における文字入力領域SC11の表示時に、該表示時以前に入力された文字が表示されると、第1身体動作の検出の有無を監視し、第1身体動作の検出が有ったこと契機に、表示時以前に入力された文字に対する文字消去処理を実行する構成を有していても良いことを述べた。これによれば、ウェアラブル装置1は、利用者の眼前に配置され、文字を表示する表示部2と、現実の空間に在る利用者の上肢を検出する検出部5と、検出部5の検出結果から、上肢の身体動作を検出する制御部7と、を備え、制御部7は、表示部2による文字入力画面の表示時に、該表示時以前に入力された文字列が表示されると、前記身体動作の内、所定の身体動作が検出されるかを判定し、当該所定の身体動作の検出が有ると判定すると、文字列の表示を消去するものと特徴づけられても良い。このとき、「所定の身体動作」は、上記のような、上肢における一部と他部とが互いに近づく第1身体動作に限られず、例えば、手を開いた状態から閉じた状態へ遷移させる握り動作、又は、上肢の指先を所定方向(例えば、文字列が並ぶ方向)に移動させる動作、又は、上肢の指先を所定方向に移動させた後、当該所定方向とは逆方向に戻す往復動作を所定時間内に所定回数以上繰り返す動作(消しゴムで文字を消すような動作を模した身体動作)等であって良い。
また、ウェアラブル装置1において、制御部7は、表示部2による文字入力画面の表示時に、該表示時以前に入力された文字列が表示されると、当該文字列が表示されてから所定時間が経過するまでに、所定の身体動作が検出されるかを判定し、所定時間が経過する前に所定の身体動作の検出が有ると判定すると、文字列の表示を消去するようにしても良い。また、ウェアラブル装置1において、制御部7は、表示部2による文字入力画面の表示時に、該表示時以前に入力された文字列が表示されると、当該文字列が表示されてから所定時間が経過するまでの間は、手オブジェクトHの位置、即ち現実の空間における上肢の位置に依らず、第1身体動作(上肢の一部と他部とを互いに近づける動作)がなされたことに基づいて、文字列を消去できるようにし、一方で、文字列が表示されてから所定時間が経過した後は、手オブジェクトHが所定の位置に在ることを条件に文字列を指定し、該指定した状態で、第1身体動作(上肢の一部と他部とを互いに近づける動作)がなされなければ文字列を消去するができないようにしても良い。
以上に、説明してきた実施形態は、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。さらに、本明細書において開示される全ての技術的事項は、矛盾しないように再配置可能であり、複数の構成部を1つに組み合わせたり、或いは分割したりすることが可能である。
以上の各実施形態では、現実の空間における上肢の位置及び上肢の形状に基づく手オブジェクトHを表示領域21に表示し、当該手オブジェクトHの表示態様(表示位置或いは形状)を変更することによって、ウェアラブル装置1に上記に例示した種々の動作を実行させる構成を例示した。例えば、第1例においては、手オブジェクトHの人差し指の指先と表示画像(検索画面SC11)とが重畳することに基づいて当該表示画像が選択される構成を例示した。しかしながらこのような構成に限定されない。例えば、ウェアラブル装置1は、現実の空間における上肢の人差し指の指先が、表示領域21における表示画像と重畳して利用者に視認されると位置に在ると推定した場合に、当該表示画像が選択されたと見なす構成としても良い。この場合、ウェアラブル装置1は、利用者によって表示領域21と重畳して視認される現実の空間の範囲を予め推定しており、従って、その範囲内における人差し指の指先と検出位置に応じて表示領域21の何れの位置と重畳して視認されるかを推定可能としている。
また、上記の実施形態では、ウェアラブル装置1が、眼鏡形状を有する例を示してきたが、ウェアラブル装置1の形状はこれに限定されない。例えば、ウェアラブル装置1は、利用者の頭部のほぼ上半分を覆うようなヘルメットタイプの形状を有していても良い。或いは、ウェアラブル装置1は、利用者の顔面のほぼ全体を覆うようなマスクタイプの形状を有していても良い。
また、上記の実施形態では、ウェアラブル装置1は、表示部2が利用者の左右の目の前に設けられる一対の表示部2a及び表示部2bを有している構成を例示してきたが、これに限定されない。例えば、表示部2は、利用者の左右の目の内の一方の前に設けられる一つの表示部を有している構成であっても良い。
また、上記の実施形態では、ウェアラブル装置1は、正面部の縁部が、表示部2の表示領域の縁の全周を囲っている構成を例示してきたが、これに限定されない。例えば、ウェアラブル装置1は、表示部2の表示領域の縁の一部のみを囲っている構成であっても良い。
また、上記の実施形態では、ウェアラブル装置1は、利用者の上肢として手や指を撮像部(或いは検出部)によって検出する構成を示したが、手や指は、手袋やグローブ等が装着されている状態であっても同様にして検出可能である。
上記の実施形態では、ウェアラブル装置1の構成と動作について説明したが、これに限定されず、各構成要素を備える方法やプログラムとして構成されても良い。例えば、一態様に係る制御方法は、文字を表示する表示部と、現実の空間に在る利用者の上肢を検出する検出部と、前記検出部の検出結果から、前記上肢の身体動作を検出する制御部と、を備える、頭部に装着可能なウェアラブル装置によって実行される制御方法であって、前記制御部が、前記身体動作として、前記上肢における一部と他部とが互いに近づく第1身体動作を検出するステップと、当該第1身体動作を検出すると、前記文字を選択する文字選択処理を実行するステップと、を含む制御方法として特徴づけられても良い。また、一態様に係るプログラムは、文字を表示する表示部と、現実の空間に在る利用者の上肢を検出する検出部と、前記検出部の検出結果から、前記上肢の身体動作を検出する制御部と、を備える、頭部に装着可能なウェアラブル装置において、前記制御部に前記身体動作として、前記上肢における一部と他部とが互いに近づく第1身体動作を検出するステップと、当該第1身体動作を検出すると、前記文字を選択する文字選択処理を実行するステップと、を実行させる制御プログラムとして特徴づけられても良い。
1 ウェアラブル装置
1a 前面部
1b 側面部
1c 側面部
2 表示部
3 撮像部
4 撮像部
5 検出部
6 操作部
7 制御部
8 通信部
9 記憶部

Claims (19)

  1. 文字を表示する表示部と、
    現実の空間に在る利用者の上肢を検出する検出部と、
    前記検出部の検出結果から、前記上肢における一部と他部とが互いに近づく第1身体動作を検出すると、前記文字を選択する文字選択処理を実行する制御部と、を備え
    前記制御部は、前記第1身体動作を検出し、かつ、該第1身体動作における前記一部又は前記他部の移動速度が第1速度以上であることを検出すると、前記文字選択処理を実行する、頭部に装着可能な
    ウェアラブル装置。
  2. 文字を表示する表示部と、
    現実の空間に在る利用者の上肢を検出する検出部と、
    前記検出部の検出結果から、前記上肢における一部と他部とが互いに近づく第1身体動作を検出すると、前記文字を選択する文字選択処理を実行する制御部と、を備え、
    前記制御部は、前記上肢における前記一部と前記他部とが互いに近づく方向と、前記文字の入力方向と、が交わる角度を算出し、該角度が第1角度以下である場合に、前記文字選択処理を実行する、頭部に装着可能な
    ェアラブル装置。
  3. 文字を表示する表示部と、
    現実の空間に在る利用者の上肢を検出する検出部と、
    前記検出部の検出結果から、前記上肢における一部と他部とが互いに近づく第1身体動作を検出すると、前記文字を選択する文字選択処理を実行する制御部と、を備え、
    前記制御部は、前記上肢における前記一部と前記他部とが互いに近づく方向と、前記文字の入力方向と垂直な方向、が交わる角度を算出し、該角度が第2角度以下である場合に、前記文字選択処理を実行する、頭部に装着可能な
    ェアラブル装置。
  4. 前記制御部は、前記第1身体動作を検出し、かつ、該第1身体動作によって、前記上肢における前記一部と前記他部との距離が所定長さ以下となったことを検出すると、前記文字選択処理を実行する
    請求項1から3の何れか一項に記載のウェアラブル装置。
  5. 前記表示部は、文字列を表示し、
    前記制御部は、前記第1身体動作を検出すると、前記文字列における、該第1身体動作が検出される直前の前記一部の位置と前記他部の位置とによって規定される数の文字に対して前記文字選択処理を実行する
    請求項1、2、4の何れか一項に記載のウェアラブル装置。
  6. 前記表示部は、複数の行で構成される文字列を表示し、
    前記制御部は、前記第1身体動作を検出すると、前記文字列における、該第1身体動作が検出される直前の前記一部の位置と前記他部の位置とによって規定される行数の前記文字列に対して前記文字選択処理を実行する
    請求項1または4に記載のウェアラブル装置。
  7. 前記制御部は、前記第1身体動作を検出すると、前記文字選択処理によって選択した文字を消去する文字消去処理を実行する
    請求項1からの何れか一項に記載のウェアラブル装置。
  8. 前記制御部は、前記表示部による文字入力画面の表示時に、該表示時以前に入力された文字が表示されると、前記第1身体動作の検出の有無を監視し、前記第1身体動作の検出が有ったこと契機に、前記表示時以前に入力された文字に対する前記文字消去処理を実行する
    請求項に記載のウェアラブル装置。
  9. 前記文字消去処理の実行後に、前記上肢における前記一部と前記他部とが互いに離れる第2身体動作を検出すると、前記消去した文字を再入力する
    請求項又はに記載のウェアラブル装置。
  10. 前記制御部は、前記第1身体動作を検出すると、前記文字選択処理によって選択した文字をコピーする複製処理を実行する
    請求項1からの何れか一項に記載のウェアラブル装置。
  11. 前記制御部は、前記複製処理の実行後に、前記上肢における前記一部と前記他部とが互いに離れる第2身体動作を検出すると、前記コピーした文字を前記表示部にペーストする貼付処理を実行する
    請求項10に記載のウェアラブル装置。
  12. 前記制御部は、前記第1身体動作を検出すると、前記文字を選択するとともに、該文字の文字種を変更する文字種変更処理を実行する
    請求項1からの何れか一項に記載のウェアラブル装置。
  13. 前記制御部は、前記第1身体動作を検出すると、前記文字を選択するとともに、該文字に対して、全角/半角変換、又は、かな/漢字変換、又は、他言語への翻訳、又は、大文字/小文字変換を前記文字種変更処理として実行する
    請求項12に記載のウェアラブル装置。
  14. 文字を表示する表示部と、現実の空間に在る利用者の上肢を検出する検出部と、制御部と、を備える頭部に装着可能なウェアラブル装置によって実行される制御方法であって、
    前記制御部は、前記検出部の検出結果から、前記上肢における一部と他部とが互いに近づく第1身体動作を検出すると、前記文字を選択する文字選択処理を実行し、
    前記制御部は、前記第1身体動作を検出し、かつ、該第1身体動作における前記一部又は前記他部の移動速度が第1速度以上であることを検出すると、前記文字選択処理を実行する
    制御方法。
  15. 文字を表示する表示部と、現実の空間に在る利用者の上肢を検出する検出部と、制御部と、を備える頭部に装着可能なウェアラブル装置によって実行される制御方法であって、
    前記制御部は、前記検出部の検出結果から、前記上肢における一部と他部とが互いに近づく第1身体動作を検出すると、前記文字を選択する文字選択処理を実行し、
    前記制御部は、前記上肢における前記一部と前記他部とが互いに近づく方向と、前記文字の入力方向と、が交わる角度を算出し、該角度が第1角度以下である場合に、前記文字選択処理を実行する
    制御方法。
  16. 文字を表示する表示部と、現実の空間に在る利用者の上肢を検出する検出部と、制御部と、を備える頭部に装着可能なウェアラブル装置によって実行される制御方法であって、
    前記制御部は、前記検出部の検出結果から、前記上肢における一部と他部とが互いに近づく第1身体動作を検出すると、前記文字を選択する文字選択処理を実行し、
    前記制御部は、前記上肢における前記一部と前記他部とが互いに近づく方向と、前記文字の入力方向と垂直な方向、が交わる角度を算出し、該角度が第2角度以下である場合に、前記文字選択処理を実行する
    制御方法。
  17. 文字を表示する表示部と、現実の空間に在る利用者の上肢を検出する検出部と、制御部と、を備える頭部に装着可能なウェアラブル装置において、
    前記制御部が前記検出部の検出結果から、前記上肢における一部と他部とが互いに近づく第1身体動作を検出すると、当該制御部に、前記文字を選択する文字選択処理を実行させ
    前記制御部が前記第1身体動作を検出し、かつ、該第1身体動作における前記一部又は前記他部の移動速度が第1速度以上であることを検出すると、当該制御部に、前記文字選択処理を実行させ
    制御プログラム。
  18. 文字を表示する表示部と、現実の空間に在る利用者の上肢を検出する検出部と、制御部と、を備える頭部に装着可能なウェアラブル装置において、
    前記制御部が前記検出部の検出結果から、前記上肢における一部と他部とが互いに近づく第1身体動作を検出すると、当該制御部に、前記文字を選択する文字選択処理を実行させ
    前記制御部に、前記上肢における前記一部と前記他部とが互いに近づく方向と、前記文字の入力方向と、が交わる角度を算出させ、該角度が第1角度以下である場合に、当該制御部に、前記文字選択処理を実行させ
    制御プログラム。
  19. 文字を表示する表示部と、現実の空間に在る利用者の上肢を検出する検出部と、制御部と、を備える頭部に装着可能なウェアラブル装置において、
    前記制御部が前記検出部の検出結果から、前記上肢における一部と他部とが互いに近づく第1身体動作を検出すると、当該制御部に、前記文字を選択する文字選択処理を実行させ
    前記制御部に、前記上肢における前記一部と前記他部とが互いに近づく方向と、前記文字の入力方向と垂直な方向、が交わる角度を算出させ、該角度が第2角度以下である場合に、当該制御部に、前記文字選択処理を実行させ
    制御プログラム。
JP2017530864A 2015-07-29 2016-07-25 ウェアラブル装置、制御方法及び制御プログラム Active JP6595597B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015149243 2015-07-29
JP2015149243 2015-07-29
PCT/JP2016/071767 WO2017018388A1 (ja) 2015-07-29 2016-07-25 ウェアラブル装置、制御方法及び制御プログラム

Publications (2)

Publication Number Publication Date
JPWO2017018388A1 JPWO2017018388A1 (ja) 2018-04-26
JP6595597B2 true JP6595597B2 (ja) 2019-10-23

Family

ID=57884403

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017530864A Active JP6595597B2 (ja) 2015-07-29 2016-07-25 ウェアラブル装置、制御方法及び制御プログラム

Country Status (3)

Country Link
US (1) US10551932B2 (ja)
JP (1) JP6595597B2 (ja)
WO (1) WO2017018388A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111417919A (zh) * 2017-12-08 2020-07-14 索尼公司 信息处理装置及其控制方法和记录介质
US10890653B2 (en) 2018-08-22 2021-01-12 Google Llc Radar-based gesture enhancement for voice interfaces
US10698603B2 (en) * 2018-08-24 2020-06-30 Google Llc Smartphone-based radar system facilitating ease and accuracy of user interactions with displayed objects in an augmented-reality interface
JP2022051971A (ja) * 2019-02-05 2022-04-04 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、プログラム
JP2020194517A (ja) * 2019-05-21 2020-12-03 雄史 高田 翻訳システムおよび翻訳システムセット
MX2022003336A (es) * 2019-09-20 2022-05-06 Interdigital Ce Patent Holdings Sas Dispositivo y metodo para la interaccion manual de usuario en entornos de realidad virtual (vr) y realidad aumentada (ar).
US11429879B2 (en) * 2020-05-12 2022-08-30 Ubs Business Solutions Ag Methods and systems for identifying dynamic thematic relationships as a function of time
EP3985486B1 (en) 2020-10-13 2024-04-17 Hiroyuki Ikeda Glasses-type terminal
JP7031112B1 (ja) 2020-10-13 2022-03-08 裕行 池田 眼鏡型端末

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH075978B2 (ja) * 1986-04-11 1995-01-25 三菱自動車工業株式会社 シリンダブロツクの焼入れ方法およびその装置
JPH075978A (ja) * 1993-06-18 1995-01-10 Sony Corp 入力装置
JP4686886B2 (ja) * 2001-04-06 2011-05-25 ソニー株式会社 情報処理装置
CA2621488A1 (en) 2005-09-13 2007-03-22 Spacetime3D, Inc. System and method for providing three-dimensional graphical user interface
US9696808B2 (en) 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
WO2011118096A1 (ja) * 2010-03-23 2011-09-29 シャープ株式会社 情報表示装置及び文書データ編集方法
JP5229750B2 (ja) * 2010-10-29 2013-07-03 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理方法、およびそのプログラム
JP2012168932A (ja) 2011-02-10 2012-09-06 Sony Computer Entertainment Inc 入力装置、情報処理装置および入力値取得方法
WO2012144666A1 (en) * 2011-04-19 2012-10-26 Lg Electronics Inc. Display device and control method therof
JP2012248067A (ja) * 2011-05-30 2012-12-13 Canon Inc 情報入力装置、その制御方法、および制御プログラム
US8854433B1 (en) 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
JP5619063B2 (ja) 2012-04-09 2014-11-05 京セラドキュメントソリューションズ株式会社 表示入力装置及びこれを備えた画像形成装置
WO2014127293A2 (en) 2013-02-15 2014-08-21 Quick Eye Technologies Inc. An organizer for data that is subject to multiple criteria
WO2014128751A1 (ja) 2013-02-19 2014-08-28 株式会社ブリリアントサービス ヘッドマウントディスプレイ装置、ヘッドマウントディスプレイ用プログラム、およびヘッドマウントディスプレイ方法
JP5900393B2 (ja) * 2013-03-21 2016-04-06 ソニー株式会社 情報処理装置、操作制御方法及びプログラム
CN105190480B (zh) 2013-05-09 2018-04-10 索尼电脑娱乐公司 信息处理设备和信息处理方法
US20160098094A1 (en) * 2014-10-02 2016-04-07 Geegui Corporation User interface enabled by 3d reversals
CN107735750A (zh) * 2015-07-08 2018-02-23 阿尔卑斯电气株式会社 触觉再现装置

Also Published As

Publication number Publication date
US20180217672A1 (en) 2018-08-02
JPWO2017018388A1 (ja) 2018-04-26
WO2017018388A1 (ja) 2017-02-02
US10551932B2 (en) 2020-02-04

Similar Documents

Publication Publication Date Title
JP6595597B2 (ja) ウェアラブル装置、制御方法及び制御プログラム
JP6510648B2 (ja) ウェアラブル装置、制御方法及び制御プログラム
JP6400197B2 (ja) ウェアラブル装置
US10983593B2 (en) Wearable glasses and method of displaying image via the wearable glasses
US20200209961A1 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
US9697648B1 (en) Text functions in augmented reality
US9904360B2 (en) Head tracking based gesture control techniques for head mounted displays
CN110633008B (zh) 用户交互解释器
US20150378158A1 (en) Gesture registration device, gesture registration program, and gesture registration method
US20140015794A1 (en) Electronic device, control method, and control program
JP2016118929A (ja) 入力支援方法、入力支援プログラムおよび入力支援装置
KR20170059815A (ko) 롤러블 이동 단말기
CN113821124A (zh) 用于触摸检测的imu
JP6999822B2 (ja) 端末装置および端末装置の制御方法
KR101622695B1 (ko) 이동 단말기 및 그것의 제어방법
JP6133673B2 (ja) 電子機器及びシステム
JP2017111537A (ja) ヘッドマウントディスプレイおよびヘッドマウントディスプレイのプログラム
JP6481360B2 (ja) 入力方法、入力プログラムおよび入力装置
US11995899B2 (en) Pointer-based content recognition using a head-mounted device
KR20180097031A (ko) 휴대 단말 장치와 프로젝션 장치를 포함하는 증강 현실 시스템
CN117762243A (zh) 连续手势的运动映射

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190926

R150 Certificate of patent or registration of utility model

Ref document number: 6595597

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150