JP2020071588A - 表示装置、及び、表示装置の制御方法 - Google Patents
表示装置、及び、表示装置の制御方法 Download PDFInfo
- Publication number
- JP2020071588A JP2020071588A JP2018203895A JP2018203895A JP2020071588A JP 2020071588 A JP2020071588 A JP 2020071588A JP 2018203895 A JP2018203895 A JP 2018203895A JP 2018203895 A JP2018203895 A JP 2018203895A JP 2020071588 A JP2020071588 A JP 2020071588A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- user
- image
- input
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
【課題】ユーザーの操作性を向上する。【解決手段】HMD100は、ユーザーの頭部に装着され、光を透過する透過型の画像表示部20と、ユーザーの手の動きを検出する筋電センサー200と、筋電センサー200の検出値に基づき、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する操作推定部143と、操作推定部143の推定結果を判定する判定部144と、筋電センサー200の検出値と、1つの入力用画像MAと、判定部144の判定結果との組み合わせを含む学習データセット147aに基づいて、筋電センサー200の検出値から1つの入力用画像MAを特定するための条件を機械学習する学習部145と、を備える。【選択図】図6
Description
本発明は、表示装置、及び、表示装置の制御方法に関する。
従来、ユーザーの操作を受け付ける種々のインターフェイス装置が知られている(例えば、特許文献1参照)。
例えば、特許文献1に記載のインターフェイス装置は、操作者の手に装着される。このインターフェイス装置は、操作者の一方の手の平の少なくとも一部に接触する部材と、カメラと、検出手段とを備える。カメラは、この部材の一方の手の平に対向する面とは反対側の面上に配置される。検出手段は、このカメラにより撮像された画像に基づいて、一方の手の動作を検出する。
例えば、特許文献1に記載のインターフェイス装置は、操作者の手に装着される。このインターフェイス装置は、操作者の一方の手の平の少なくとも一部に接触する部材と、カメラと、検出手段とを備える。カメラは、この部材の一方の手の平に対向する面とは反対側の面上に配置される。検出手段は、このカメラにより撮像された画像に基づいて、一方の手の動作を検出する。
本発明は、ユーザーの操作性を向上可能な表示装置を提供することを目的とする。
上記目的を達成する一態様は、光を透過する透過型の表示部であって、ユーザーの頭部に装着される表示部と、前記表示部を透過して視認される前記ユーザーの手に重なる位置に、複数の入力用画像を前記表示部に表示させる表示制御部と、前記ユーザーの手の動きを検出する動きセンサーと、前記動きセンサーの検出値に基づき、前記複数の入力用画像の中から1つの入力用画像を選択する操作を推定する操作推定部と、前記操作推定部の推定結果を判定する判定部と、前記動きセンサーの検出値と、前記1つの入力用画像と、前記判定部の判定結果との組み合わせを含む学習データセットに基づいて、前記動きセンサーの検出値から前記1つの入力用画像を特定するための条件を機械学習する学習部と、を備える表示装置である。
上記表示装置において、撮像部を備え、前記判定部は、前記判定部は、前記操作推定部の推定結果の正否を、前記撮像部による画像に基づいて判定する構成であってもよい。
上記表示装置において、前記ユーザーからの音声の入力を受け付ける音声入力部を備え、前記判定部は、前記操作推定部の推定結果の正否を、前記音声入力部に入力された音声に基づいて判定する構成であってもよい。
上記表示装置において、前記複数の入力用画像の各々は、互いに相違する文字を示し、前記操作推定部は、前記動きセンサーの検出値に基づいて、入力する文字を推定する構成であってもよい。
上記表示装置において、前記複数の入力用画像の各々は、前記ユーザーの手の親指を除く各指において関節で区切られた領域に対応付けられ、前記1つの入力用画像を選択する操作は、前記ユーザーの手の親指を前記関節で区切られた領域に押圧する操作である構成であってもよい。
上記表示装置において、前記複数の入力用画像に含まれる2つ以上の所定個数の入力用画像は、前記ユーザーの手の親指を除く各指において関節で区切られた領域に対応付けられ、前記領域を選択する操作は、前記ユーザーの手の親指を前記関節で区切られた領域に押圧する操作であり、前記領域に対応付けられた前記所定個数の入力用画像から前記1つの入力用画像を選択する操作は、前記ユーザーの手の親指を所定方向に移動する操作である構成であってもよい。
上記表示装置において、前記表示制御部は、前記ユーザーの手の位置をガイドする第1ガイド画像を前記表示部に表示させる構成であってもよい。
上記表示装置において、前記表示制御部は、前記表示部を透過して視認される前記ユーザーの手の位置を追跡し、前記ユーザーの手の移動に応じて、前記複数の入力用画像の各々の表示位置を調整する構成であってもよい。
上記表示装置において、前記動きセンサーは、前記ユーザーの手首に装着される筋電センサーを含む構成であってもよい。
上記目的を達成する別の一態様は、光を透過する透過型の表示部であって、ユーザーの頭部に装着される表示部と、前記ユーザーの手の動きを検出する動きセンサーと、を備える表示装置の制御方法であって、前記動きセンサーの検出値から前記複数の入力用画像の中から1つの入力用画像を選択する操作を推定する操作推定ステップと、前記操作推定ステップの推定結果を判定する判定ステップと、前記動きセンサーの検出値と、前記1つの入力用画像と、前記判定ステップの判定結果との組み合わせを含む学習データセットに基づいて、前記動きセンサーの検出値から前記1つの入力用画像を特定するための条件を機械学習する学習ステップと、を含む、表示装置の制御方法である。
以下、図面を参照して本実施形態について説明する。
図1は、HMD100の外観構成を示す説明図である。
図1に示すように、HMD(Head Mounted Display)100は、いわゆるシースルー型()のHMDであって、制御装置10と、画像表示部20とを備える。HMD100は、「表示装置」の一例に相当する。シースルー型は、「透過型」ということもできる。
制御装置10は、平たい箱形のケース10Aを備える。ケース10Aは、ユーザーの操作を受け付ける各種のスイッチやトラックパッド14等を備え、これらをユーザーが操作することによって、制御装置10は、HMD100を制御する制御装置として機能する。また、ケース10Aは、HMD100を制御する機能部を内蔵する。ケース10Aは、筐体の一例に対応する。
図1は、HMD100の外観構成を示す説明図である。
図1に示すように、HMD(Head Mounted Display)100は、いわゆるシースルー型()のHMDであって、制御装置10と、画像表示部20とを備える。HMD100は、「表示装置」の一例に相当する。シースルー型は、「透過型」ということもできる。
制御装置10は、平たい箱形のケース10Aを備える。ケース10Aは、ユーザーの操作を受け付ける各種のスイッチやトラックパッド14等を備え、これらをユーザーが操作することによって、制御装置10は、HMD100を制御する制御装置として機能する。また、ケース10Aは、HMD100を制御する機能部を内蔵する。ケース10Aは、筐体の一例に対応する。
また、HMD100の制御装置10は、筋電センサー200と無線にて通信可能に接続される。筋電センサー200は、ユーザーの手首に装着される。
筋電センサー200は、ユーザーの指の筋肉の動きに応じて発生する電気信号を検出する。本実施形態では、筋電センサー200は、主にユーザーの親指の筋肉の動きに応じて発生する電気信号を検出する。
筋電センサー200は、後述にて図7を参照して説明するように、ユーザーの手首に装着される。筋電センサー200は、円筒状に形成され、その内面側に複数のセンサーが配置される。「内面側」とは、ユーザーの手首の外周面と当接する側を示す。筋電センサー200は、複数のセンサーによって、複数の筋肉の動きを検出可能に構成される。
筋電センサー200は、バッテリー、通信部、制御部、入出力部を備える。通信部は、例えばBluetooth(登録商標)のような無線通信によって、HMD100の制御装置10との間で通信可能である。
筋電センサー200は、「動きセンサー」の一例に相当する。なお、「動きセンサー」は、ユーザーの指に装着されるジャイロセンサーでもよい。また、「動きセンサー」は、筋電センサー200とジャイロセンサーとを含んでもよい。
筋電センサー200は、ユーザーの指の筋肉の動きに応じて発生する電気信号を検出する。本実施形態では、筋電センサー200は、主にユーザーの親指の筋肉の動きに応じて発生する電気信号を検出する。
筋電センサー200は、後述にて図7を参照して説明するように、ユーザーの手首に装着される。筋電センサー200は、円筒状に形成され、その内面側に複数のセンサーが配置される。「内面側」とは、ユーザーの手首の外周面と当接する側を示す。筋電センサー200は、複数のセンサーによって、複数の筋肉の動きを検出可能に構成される。
筋電センサー200は、バッテリー、通信部、制御部、入出力部を備える。通信部は、例えばBluetooth(登録商標)のような無線通信によって、HMD100の制御装置10との間で通信可能である。
筋電センサー200は、「動きセンサー」の一例に相当する。なお、「動きセンサー」は、ユーザーの指に装着されるジャイロセンサーでもよい。また、「動きセンサー」は、筋電センサー200とジャイロセンサーとを含んでもよい。
画像表示部20は、ユーザーの頭部に装着される装着体であり、本実施形態では眼鏡形状を有する。画像表示部20は、右保持部21と、左保持部23と、前部フレーム27とを有する本体に、右表示ユニット22、左表示ユニット24、右導光板26、及び左導光板28を備える。画像表示部20は、「表示部」の一例に相当する。
右保持部21及び左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプルのように、ユーザーの頭部に画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、画像表示部20の装着状態においてユーザーの右側に位置する端部を端部ERとし、ユーザーの左側に位置する端部を端部ELとする。右保持部21は、画像表示部20の装着状態において、前部フレーム27の端部ERからユーザーの右側頭部に対応する位置まで延伸して設けられる。左保持部23は、画像表示部20の装着状態において、端部ELからユーザーの左側頭部に対応する位置まで延伸して設けられる。
右保持部21及び左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプルのように、ユーザーの頭部に画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、画像表示部20の装着状態においてユーザーの右側に位置する端部を端部ERとし、ユーザーの左側に位置する端部を端部ELとする。右保持部21は、画像表示部20の装着状態において、前部フレーム27の端部ERからユーザーの右側頭部に対応する位置まで延伸して設けられる。左保持部23は、画像表示部20の装着状態において、端部ELからユーザーの左側頭部に対応する位置まで延伸して設けられる。
右導光板26及び左導光板28は、前部フレーム27に設けられる。右導光板26は、画像表示部20の装着状態においてユーザーの右眼の眼前に位置し、右眼に画像を視認させる。左導光板28は、画像表示部20の装着状態においてユーザーの左眼の眼前に位置し、左眼に画像を視認させる。
前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有し、この連結位置は、ユーザーが画像表示部20を装着する装着状態で、ユーザーの眉間に対応する。前部フレーム27は、右導光板26と左導光板28との連結位置において、画像表示部20の装着状態でユーザーの鼻に当接する鼻当て部を設けてもよい。この場合、鼻当て部と右保持部21及び左保持部23とにより画像表示部20をユーザーの頭部に保持できる。また、右保持部21及び左保持部23に、画像表示部20の装着状態においてユーザーの後頭部に接する図示しないベルトを連結してもよく、この場合、ベルトによって画像表示部20をユーザーの頭部に保持できる。
右表示ユニット22は、右導光板26による画像の表示に係るユニットであり、右保持部21に設けられ、装着状態においてユーザーの右側頭部の近傍に位置する。左表示ユニット24は、左導光板28による画像の表示に係るユニットであり、左保持部23に設けられ、装着状態においてユーザーの左側頭部の近傍に位置する。
本実施形態の右導光板26及び左導光板28は、光透過性の樹脂等によって形成される光学部であり、例えばプリズムであり、右表示ユニット22及び左表示ユニット24が出力する画像光を、ユーザーの眼に導く。
また、右導光板26及び左導光板28の表面に、調光機能を有する図示しない電子シェードを設けてもよい。電子シェードは電圧を入力する図示しない端子、及び、端子間の電圧に応じて光の透過率が変化する図示しないシェード本体を有し、後述する制御部141の制御により、印加される電圧を調整可能である。電子シェードは、可視光を含む波長域全体の透過率が変化する構成であってもよいし、光の波長域により異なる透過率を有する構成であってもよい。電子シェードは、例えば、ユーザーの眼の側とは反対の側である前部フレーム27の表側を覆うように配置される。電子シェードの光学特性を調整することにより、外部から右導光板26及び左導光板28に入射し、右導光板26及び左導光板28を透過する外光の光量を調整できる。
画像表示部20は、右表示ユニット22及び左表示ユニット24がそれぞれ生成する画像光を、右導光板26及び左導光板28に導き、この画像光によって虚像をユーザーに視認させることによって、画像を表示する。ユーザーの前方から、右導光板26及び左導光板28を透過して外光がユーザーの眼に入射する場合、ユーザーの眼には、虚像を構成する画像光及び外光が入射することとなり、虚像の視認性が外光の強さに影響される。このため、例えば前部フレーム27に電子シェードを装着し、電子シェードの光学特性を適宜選択あるいは調整することによって、虚像の視認のし易さを調整できる。
カメラ61は、画像表示部20の前部フレーム27に配置される。カメラ61は、ユーザーが画像表示部20を装着した状態で視認する外景方向を撮像することが望ましく、前部フレーム27の前面において、右導光板26及び左導光板28を透過する外光を遮らない位置に設けられる。図1の例では、カメラ61が前部フレーム27の端部ER側に配置される。カメラ61は、端部EL側に配置されてもよく、右導光板26と左導光板28との連結部に配置されてもよい。カメラ61は、「撮像部」の一例に相当する。
カメラ61は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子及び撮像レンズ等を備えるデジタルカメラである。本実施形態のカメラ61は単眼カメラであるが、ステレオカメラで構成してもよい。カメラ61は、HMD100の表側方向、換言すれば、HMD100を装着した状態におけるユーザーの視界方向の少なくとも一部の外景を撮像する。外景は、実空間に対応する。別の表現では、カメラ61は、ユーザーの視界と重なる範囲または方向を撮像し、ユーザーが注視する方向を撮像するということもできる。カメラ61の画角の広さは適宜設定可能であるが、本実施形態では、後述するように、ユーザーが右導光板26及び左導光板28を通して視認する外界を含む。より好ましくは、右導光板26及び左導光板28を透過して視認可能なユーザーの視界の全体を撮像できるように、カメラ61の撮像範囲が設定される。
カメラ61は、制御部141の指示に従って撮像処理を実行し、撮像画像データを表示制御部142及び判定部144に出力する。表示制御部142及び判定部144の各々については、後述にて図6を参照して説明する。
カメラ61は、制御部141の指示に従って撮像処理を実行し、撮像画像データを表示制御部142及び判定部144に出力する。表示制御部142及び判定部144の各々については、後述にて図6を参照して説明する。
HMD100は、予め設定された測定方向に位置する測定対象物までの距離を検出する距離センサー64を備える。距離センサー64は、例えば、ユーザーにとって前方に位置する測定対象物までの距離を検出する構成とすることができ、本実施形態では、前部フレーム27において右導光板26と左導光板28との連結部分に配置される。この例では、画像表示部20の装着状態において、距離センサー64の位置は、水平方向ではユーザーの両眼のほぼ中間であり、鉛直方向ではユーザーの両眼より上である。距離センサー64の測定方向は、例えば、前部フレーム27の表側方向とすることができ、言い換えればカメラ61の撮像方向と重複する方向である。
距離センサー64は、例えば、LED(Light Emitting Diode)やレーザーダイオード等の光源と、光源が発する光が測定対象物に反射する反射光を受光する受光部とを有する。距離センサー64は、制御部141の指示に従い、三角測距処理や時間差に基づく測距処理を実行すればよい。また、距離センサー64は、超音波を発する音源と、測定対象物で反射する超音波を受信する検出部とを備える構成としてもよい。この場合、距離センサー64は、制御部141の指示に従い、超音波の反射までの時間差に基づき測距処理を実行すればよい。
制御装置10と画像表示部20とは、接続ケーブル40により接続される。接続ケーブル40は、ケース10Aの端部に設けられるコネクター42に着脱可能に接続される。すなわち、ケース10Aには、接続ケーブル40を抜き差し可能なコネクター42が設けられ、画像表示部20を使用する場合にコネクター42に接続ケーブル40が接続される。
接続ケーブル40は、左保持部23の先端から、画像表示部20の内部に設けられる各種回路に接続する。接続ケーブル40は、デジタルデータを伝送するメタルケーブルまたは光ファイバーケーブルを有し、アナログ信号を伝送するメタルケーブルを有していてもよい。接続ケーブル40の途中には、コネクター46が設けられる。
コネクター46は、ステレオミニプラグを接続するジャックであり、コネクター46と制御装置10とは、例えばアナログ音声信号を伝送するラインで接続される。コネクター46は、オーディオコネクターという場合がある。図1に示す構成例では、ステレオヘッドホンを構成する右イヤホン32及び左イヤホン34と、マイク63とを有するヘッドセット30が、コネクター46に接続される。
コネクター46は、ステレオミニプラグを接続するジャックであり、コネクター46と制御装置10とは、例えばアナログ音声信号を伝送するラインで接続される。コネクター46は、オーディオコネクターという場合がある。図1に示す構成例では、ステレオヘッドホンを構成する右イヤホン32及び左イヤホン34と、マイク63とを有するヘッドセット30が、コネクター46に接続される。
マイク63は、例えば図1に示すように、マイク63の集音部がユーザーの視線方向を向くように配置され、音声を集音して、音声信号を図5に示す音声インターフェイス182に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。
制御装置10は、ユーザーにより操作される***作部として、トラックパッド14、上下キー15、LED表示部17及び電源スイッチ18を備える。これらの***作部はケース10Aの表面に配置される。これらの***作部は、例えば、ユーザーの手指により操作される。
トラックパッド14は、ケース10Aの前面において、ユーザーが指を接触させる、タッチ操作を行うための領域である。トラックパッド14は、ケース10Aの前面と同様の平面であってもよいが、トラックパッド14と、それ以外の領域とをユーザーが識別できる構成であることが好ましい。例えば、トラックパッド14の縁を示す線が印刷または凹凸により形成されてもよいし、トラックパッド14が、トラックパッド14の表面の触感をそれ以外の領域と異ならせる表面加工を施されてもよい。
制御装置10は、ケース10Aの前面において、図5に示すタッチセンサー13により、ユーザーによるトラックパッド14への接触操作を検出できる。制御装置10は、タッチセンサー13が接触操作を検出した場合に、操作を検出した位置を特定する。トラックパッド14は、トラックパッド14における絶対位置、或いは、相対位置を入力する操作のために使用できる。
ケース10Aの前面にはLED表示部17が設置される。LED表示部17は、トラックパッド14に位置し、LED表示部17の表面は、ケース10Aの前面における他の領域と違わない。LED表示部17は、光を透過可能な図示しない透過部を有し、透過部の直下に設置される1または複数のLEDが点灯することにより、ユーザーが記号等を視認できるように、発光する。図1の例では、LED表示部17のLEDが点灯することにより、3つの記号△、記号○、記号□が現れる。記号△は、三角形を示す。記号○は丸を示す。記号□は四角形を示す。
制御装置10は、LED表示部17に対するユーザーの手指の接触操作を、タッチセンサー13により検出し、操作位置を特定できる。このため、例えば操作位置が、LED表示部17に現れる記号のどれに対応する位置かを特定できる。従って、LED表示部17はソフトウェアボタンとして機能する。例えば、LED表示部17に現れる記号を、HMD100の機能に対応付けることで、LED表示部17へのタッチ操作を当該機能に対する操作として検出できる。HMD100は、図1の例で、記号○をホームボタンに割り当てることができる。この場合、記号○の位置に接触操作が行われると、制御部141は、ホームボタンの操作を検出する。また、記号□は履歴ボタンに割り当てることができる。この場合、記号□の接触操作を、制御部141は、履歴ボタンの操作として検出する。同様に、記号△は戻るボタンに割り当てることができる。制御部141は、記号△の接触操作を、戻るボタンの操作として検出する。
上下キー15は、ケース10Aの側面に配置され、押圧操作を検出する一対のキーを備える。上下キー15の右イヤホン32及び左イヤホン34から出力する音量の増減の指示入力や、画像表示部20の表示の明るさの増減の指示入力に利用される。
電源スイッチ18は、HMD100の電源のオン及びオフを切り替えるスイッチである。
電源スイッチ18は、HMD100の電源のオン及びオフを切り替えるスイッチである。
ケース10Aにおいて電源スイッチ18と同じ側の側面には、図5に示すUSB(Universal Serial Bus)コネクター188が設けられる。USBコネクター188は、制御装置10を、外部の装置に接続するインターフェイスであり、本実施形態ではインターフェイスの一例として、USB規格に準拠したコネクターを例示する。USBコネクター188は、例えば、microUSB規格に適合する形状、及びサイズを有するコネクターであり、転送速度等の仕様は任意である。
制御装置10は、図5に示すバッテリー132を有し、バッテリー132が供給する電力により制御装置10及び画像表示部20が動作する。バッテリー132への充電は、USBコネクター188に対して電力を供給することにより行うことができる。HMD100は、制御装置10と画像表示部20とを取り外し、制御装置10のみを専用の充電装置に接続することで、充電を行うことができる。
図2は、画像表示部20が備える光学系の構成を示す要部平面図である。図2には説明のためユーザーの左眼LE及び右眼REを図示する。
図2に示すように、右表示ユニット22と左表示ユニット24とは、左右対称に構成される。ユーザーの右眼REに画像を視認させる構成として、右表示ユニット22は、画像光を発するOLED(Organic Light Emitting Diode)ユニット221を備える。また、OLEDユニット221が発する画像光Lを導くレンズ群等を備えた右光学系251を備える。画像光Lは、右光学系251により右導光板26に導かれる。
図2に示すように、右表示ユニット22と左表示ユニット24とは、左右対称に構成される。ユーザーの右眼REに画像を視認させる構成として、右表示ユニット22は、画像光を発するOLED(Organic Light Emitting Diode)ユニット221を備える。また、OLEDユニット221が発する画像光Lを導くレンズ群等を備えた右光学系251を備える。画像光Lは、右光学系251により右導光板26に導かれる。
OLEDユニット221は、OLEDパネル223と、OLEDパネル223を駆動するOLED駆動回路225とを有する。OLEDパネル223は、有機エレクトロルミネッセンスにより発光してR、G、Bの色光をそれぞれ発する発光素子を、マトリクス状に配置して構成される、自発光型の表示パネルである。Rは、赤色を示す。Gは緑色を示す。Bは青色を示す。OLEDパネル223は、R、G、Bの素子を1個ずつ含む単位を1画素として、複数の画素を備え、マトリクス状に配置される画素により画像を形成する。OLED駆動回路225は、制御部141の制御に従って、OLEDパネル223が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル223の発光素子を発光させる。OLED駆動回路225は、OLEDパネル223の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路225は、例えばOLEDパネル223を駆動する半導体デバイスで構成され、OLEDパネル223の裏面に固定される図示しない基板に実装されてもよい。この基板には図5に示す温度センサー217が実装される。
なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成であってもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加え、Wの光を発する発光素子を備えるWRGB構成のOLEDパネル223を用いてもよい。Wは白色を示す。
なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成であってもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加え、Wの光を発する発光素子を備えるWRGB構成のOLEDパネル223を用いてもよい。Wは白色を示す。
右光学系251は、OLEDパネル223から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板26に入射する。右導光板26の内部において光を導く光路には、画像光Lを反射する複数の反射面が形成される。画像光Lは、右導光板26の内部で複数回の反射を経て右眼RE側に導かれる。右導光板26には、右眼REの眼前に位置するハーフミラー261が形成される。ハーフミラー261は、反射面の一例に対応する。画像光Lは、ハーフミラー261で反射して右眼REに向けて右導光板26から射出され、この画像光Lが右眼REの網膜に像を結び、ユーザーに画像を視認させる。
また、ユーザーの左眼LEに画像を視認させる構成として、左表示ユニット24は、画像光を発するOLEDユニット241と、OLEDユニット241が発する画像光Lを導くレンズ群等を備えた左光学系252とを備える。画像光Lは、左光学系252により左導光板28に導かれる。
OLEDユニット241は、OLEDパネル243と、OLEDパネル243を駆動するOLED駆動回路245とを有する。OLEDパネル243は、OLEDパネル223と同様に構成される自発光型の表示パネルである。OLED駆動回路245は、制御部141の指示に従って、OLEDパネル243が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル243の発光素子を発光させる。OLED駆動回路245は、OLEDパネル243の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路245は、例えばOLEDパネル243を駆動する半導体デバイスで構成され、OLEDパネル243の裏面に固定される図示しない基板に実装されてもよい。この基板には、温度センサー239が実装される。
左光学系252は、OLEDパネル243から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、左導光板28に入射する。左導光板28は、画像光Lを反射する複数の反射面が形成された光学素子であり、例えばプリズムである。画像光Lは、左導光板28の内部で複数回の反射を経て左眼LE側に導かれる。左導光板28には、左眼LEの眼前に位置するハーフミラー281が形成される。ハーフミラー281は、反射面の一例に対応する。画像光Lは、ハーフミラー281で反射して左眼LEに向けて左導光板28から射出され、この画像光Lが左眼LEの網膜に像を結び、ユーザーに画像を視認させる。
この構成によれば、HMD100は、透過型の表示装置として機能する。すなわち、ユーザーの右眼REには、ハーフミラー261で反射した画像光Lと、右導光板26を透過した外光OLとが入射する。また、左眼LEには、ハーフミラー281で反射した画像光Lと、ハーフミラー281を透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねてユーザーの眼に入射させ、ユーザーにとっては、右導光板26及び左導光板28を透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。
ハーフミラー261、281は、右表示ユニット22及び左表示ユニット24がそれぞれ出力する画像光を反射して画像を取り出す画像取り出し部であり、表示部ということができる。
ハーフミラー261、281は、右表示ユニット22及び左表示ユニット24がそれぞれ出力する画像光を反射して画像を取り出す画像取り出し部であり、表示部ということができる。
なお、左光学系252と左導光板28とを総称して「左導光部」とも呼び、右光学系251と右導光板26とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いてユーザーの眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。
図3及び図4は、画像表示部20の要部の構成を示す図である。図3は、画像表示部20をユーザーの頭部側から見た要部斜視図である。なお、図3では接続ケーブル40の図示を省略する。図4は、対象物の位置とカメラ61の撮像範囲との関係を示す模式図である。
図3は、画像表示部20のユーザーの頭部に接する側、言い換えればユーザーの右眼RE及び左眼LEに見える側である。別の言い方をすれば、図3では、右導光板26及び左導光板28の裏側が見えている。
図3では、ユーザーの右眼REに画像光を照射するハーフミラー261、及び、左眼LEに画像光を照射するハーフミラー281が、略四角形の領域として見える。また、ハーフミラー261、281を含む右導光板26及び左導光板28の全体が、上述したように外光を透過する。このため、ユーザーには、右導光板26及び左導光板28の全体を透過して外景が視認され、ハーフミラー261、281の位置に矩形の表示画像が視認される。
図3では、ユーザーの右眼REに画像光を照射するハーフミラー261、及び、左眼LEに画像光を照射するハーフミラー281が、略四角形の領域として見える。また、ハーフミラー261、281を含む右導光板26及び左導光板28の全体が、上述したように外光を透過する。このため、ユーザーには、右導光板26及び左導光板28の全体を透過して外景が視認され、ハーフミラー261、281の位置に矩形の表示画像が視認される。
カメラ61は、上記のように画像表示部20において右側の端部に配置され、ユーザーの両眼が向く方向、すなわちユーザーにとって前方を撮像する。図4では、カメラ61の位置を、ユーザーの右眼RE及び左眼LEとともに平面視で模式的に示す。カメラ61の画角をCで示す。画角Cは、撮像範囲の一例に対応する。なお、図4には水平方向の画角Cを示すが、カメラ61の実際の画角は、一般的なデジタルカメラと同様に上下方向にも拡がる。
カメラ61の光軸は、右眼RE及び左眼LEの視線方向を含む方向とされる。ユーザーがHMD100を装着した状態で視認できる外景は、無限遠とは限らない。例えば図4に示すように、ユーザーが両眼で対象物OBを注視すると、ユーザーの視線は、図中の符号RD、LDに示すように対象物OBに向けられる。この場合、ユーザーから対象物OBまでの距離は、30cm〜10m程度であることが多く、1m〜4m程度であることが、より多い。そこで、HMD100について、通常使用時におけるユーザーから対象物OBまでの距離の上限、及び下限の目安を定めてもよい。この目安は調査や実験により求めてもよいしユーザーが設定してもよい。カメラ61の光軸、及び画角は、通常使用時における対象物OBまでの距離が、設定された上限の目安に相当する場合、及び、下限の目安に相当する場合に、この対象物OBが画角に含まれるように、設定されることが好ましい。
また、一般に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされ、そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。さらに、人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45度〜70度程度とされている。この場合、注視点が、図4の対象物OBであるとき、視線RD、LDを中心として水平方向に30度、垂直方向に20度程度が有効視野である。また、水平方向に60〜90度、垂直方向に45度〜70度程度が安定注視野であり、水平方向に約200度、垂直方向に約125度が視野角となる。さらに、ユーザーが画像表示部20を透過して右導光板26及び左導光板28を透過して視認する実際の視野を、実視野(FOV:Field Of View)と呼ぶことができる。図3に示す本実施形態の構成で、実視野は、右導光板26及び左導光板28を透過してユーザーが視認する実際の視野に相当する。実視野は、視野角及び安定注視野より狭いが、有効視野より広い。
カメラ61の画角Cは、ユーザーの視野よりも広い範囲を撮像可能であることが好ましく、具体的には、画角Cが、少なくともユーザーの有効視野よりも広いことが好ましい。また、画角Cが、ユーザーの実視野よりも広いことが、より好ましい。さらに好ましくは、画角Cが、ユーザーの安定注視野よりも広く、最も好ましくは、画角Cがユーザーの両眼の視野角よりも広い。
カメラ61が、撮像レンズとして、いわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよいし、単焦点レンズであってもズームレンズであってもよく、複数のレンズからなるレンズ群をカメラ61が備える構成であってもよい。
また、距離センサー64は、右導光板26と左導光板28との中央において、前方を向いて配置される。例えば、距離センサー64は、画像表示部20の中央位置から、図4に示す対象物OBのように、ユーザーの正面方向に位置する物体までの距離を検出可能に構成される。HMD100を装着したユーザーは、注視する方向に頭を向けるので、注視する対象は画像表示部20の正面にあると考えることができる。このため、画像表示部20の中央に配置された距離センサー64が、画像表示部20の正面を検出方向64Aとすれば、ユーザーが注視する対象までの距離を検出できる。
また、図3に示すように、画像表示部20のユーザー側には内側カメラ68が配置される。内側カメラ68は、ユーザーの右眼RE、及び、左眼LEのそれぞれに対応するように、右導光板26と左導光板28との中央位置に一対、設けられる。内側カメラ68は、ユーザーの右眼REと左眼LEとをそれぞれ撮像する一対のカメラである。内側カメラ68は、制御部141の指示に従って撮像を行う。制御部141は、内側カメラ68の撮像画像データを解析する。例えば、制御部141は、内側カメラ68の撮像画像データから右眼RE及び左眼LEの眼球表面における反射光や瞳孔の画像を検出し、ユーザーの視線方向を特定する。また、制御部141は、ユーザーの視線方向の変化を求めることができ、右眼RE及び左眼LEのそれぞれの眼球運動を検出してもよい。
ここで、ユーザーの視線の移動は、ユーザーの仮想視点の移動とみることもできる。
ここで、ユーザーの視線の移動は、ユーザーの仮想視点の移動とみることもできる。
また、制御部141は、内側カメラ68の撮像画像データからユーザーの右眼RE及び左眼LEの瞼の画像を抽出して、眼瞼運動を検出してもよく、眼瞼の状態を検出してもよい。瞼を眼瞼という場合がある。本実施形態では画像表示部20が一対の内側カメラ68、68を備える構成を例示するが、例えば、1つの内側カメラ68を、画像表示部20の中央位置に設けてもよい。この場合、1つの内側カメラ68が、右眼RE及び左眼LEを撮像できる画角を有することが好ましいが、例えば、右眼REまたは左眼LEの一方のみを内側カメラ68により撮像してもよい。すなわち、右眼REまたは左眼LEのいずれか一方の視線方向、眼球運動、眼瞼運動、眼瞼の状態等を制御部141が検出する構成としてもよい。
また、制御部141は、内側カメラ68の撮像画像から右眼RE及び左眼LEの視線方向を検出した場合に、右眼RE及び左眼LEの輻輳角を求めることができる。図4には輻輳角を符号PAで示す。輻輳角PAは、ユーザーが注視する対象物OBまでの距離に対応する。すなわち、ユーザーが立体的に画像や物体を視認する場合、視認する対象までの距離に対応して、右眼RE及び左眼LEの輻輳角が定まる。従って、輻輳角を検出することで、ユーザーが注視する距離を求めることができる。また、ユーザーの輻輳角を誘導するように画像を表示することにより、立体視を誘導できる。
輻輳角は、例えば、内側カメラ68の撮像画像データから求めることができる。例えば、内側カメラ68に撮像画像データから右眼REの視線方向を求め、この視線方向から、右眼REの正面方向に対する右眼REの視線方向の角度LAを求める。同様に、内側カメラ68の撮像画像データから左眼LEの視線方向を求め、この視線方向に基づき、左眼LEの正面方向に対する左眼LEの視線方向の角度RAを求める。輻輳角PAは、角度LAと、角度RAとの和に等しく、容易に輻輳角PAを求めることができる。
図5は、HMD100を構成する各部の構成を示す図である。
図5に示すように、制御装置10は、プログラムを実行してHMD100を制御するメインプロセッサー140を備える。メインプロセッサー140には、メモリー118及び不揮発性記憶部121が接続される。また、メインプロセッサー140には、入力装置として操作部110が接続される。また、メインプロセッサー140には、センサー類として、6軸センサー111、磁気センサー113、及び、GPS115が接続される。また、メインプロセッサー140には、通信部117、音声コーデック180、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192、及び、FPGA194が接続される。これらは外部とのインターフェイスとして機能する。
図5に示すように、制御装置10は、プログラムを実行してHMD100を制御するメインプロセッサー140を備える。メインプロセッサー140には、メモリー118及び不揮発性記憶部121が接続される。また、メインプロセッサー140には、入力装置として操作部110が接続される。また、メインプロセッサー140には、センサー類として、6軸センサー111、磁気センサー113、及び、GPS115が接続される。また、メインプロセッサー140には、通信部117、音声コーデック180、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192、及び、FPGA194が接続される。これらは外部とのインターフェイスとして機能する。
メインプロセッサー140は、制御装置10が内蔵するコントローラー基板120に実装される。コントローラー基板120には、メインプロセッサー140に加えて、メモリー118、不揮発性記憶部121等が実装されてもよい。本実施形態では、6軸センサー111、磁気センサー113、GPS115、通信部117、メモリー118、不揮発性記憶部121、音声コーデック180等がコントローラー基板120に実装される。また、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192、FPGA194、及びインターフェイス196をコントローラー基板120に実装した構成であってもよい。
メモリー118は、メインプロセッサー140が制御プログラムを実行する場合に、実行される制御プログラム、及び、処理されるデータを一時的に記憶するワークエリアを構成する。不揮発性記憶部121は、フラッシュメモリーやeMMC(embedded Multi Media Card)で構成される。不揮発性記憶部121は、メインプロセッサー140が実行するプログラムや、メインプロセッサー140がプログラムを実行して処理する各種データを記憶する。
メインプロセッサー140は、操作部110から入力される操作信号に基づいて、トラックパッド14の操作面に対する接触操作を検出し、操作位置を取得する。
操作部110は、ボタン11、タッチセンサー13、およびLED表示部17を含む。タッチセンサー13は、トラックパッド14へのタッチ操作を検出し、検出したタッチ操作の操作位置を特定する。この場合、操作部110は、トラックパッド14におけるタッチ位置を示すデータを含む操作信号をメインプロセッサー140に出力する。ボタン11の操作が行われた場合、及び、タッチセンサー13がタッチ操作を検出した場合、操作部110からメインプロセッサー140に対し、操作信号が出力される。
LED表示部17は、図3に示すトラックパッド14の直下に配置される図示しないLED、及び、このLEDを点灯させる駆動回路を含む。LED表示部17は、メインプロセッサー140の制御に従って、LEDを点灯、点滅、消灯させる。
操作部110は、ボタン11、タッチセンサー13、およびLED表示部17を含む。タッチセンサー13は、トラックパッド14へのタッチ操作を検出し、検出したタッチ操作の操作位置を特定する。この場合、操作部110は、トラックパッド14におけるタッチ位置を示すデータを含む操作信号をメインプロセッサー140に出力する。ボタン11の操作が行われた場合、及び、タッチセンサー13がタッチ操作を検出した場合、操作部110からメインプロセッサー140に対し、操作信号が出力される。
LED表示部17は、図3に示すトラックパッド14の直下に配置される図示しないLED、及び、このLEDを点灯させる駆動回路を含む。LED表示部17は、メインプロセッサー140の制御に従って、LEDを点灯、点滅、消灯させる。
6軸センサー111は、3軸加速度センサー、及び、3軸ジャイロセンサーを備えるモーションセンサーである。ジャイロセンサーは、角速度センサーの一例に対応する。モーションセンサーは、慣性センサーという場合がある。6軸センサー111は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。
磁気センサー113は、例えば、3軸の地磁気センサーである。
GPS(Global Positioning System)115は、図示しないGPSアンテナを備え、GPS衛星から送信される無線信号を受信して、制御装置10の現在位置の座標を検出する。
6軸センサー111、磁気センサー113及びGPS115は、検出値を、予め指定されたサンプリング周期に従ってメインプロセッサー140に出力する。或いは、6軸センサー111、磁気センサー113及びGPS115は、メインプロセッサー140の要求に応じて、メインプロセッサー140により指定されたタイミングで、検出値をメインプロセッサー140に出力する。
磁気センサー113は、例えば、3軸の地磁気センサーである。
GPS(Global Positioning System)115は、図示しないGPSアンテナを備え、GPS衛星から送信される無線信号を受信して、制御装置10の現在位置の座標を検出する。
6軸センサー111、磁気センサー113及びGPS115は、検出値を、予め指定されたサンプリング周期に従ってメインプロセッサー140に出力する。或いは、6軸センサー111、磁気センサー113及びGPS115は、メインプロセッサー140の要求に応じて、メインプロセッサー140により指定されたタイミングで、検出値をメインプロセッサー140に出力する。
通信部117は、外部の機器との間で無線通信を実行する。本実施形態では、通信部117は、筋電センサー200と無線通信を実行する。通信部117は、アンテナ、RF回路、ベースバンド回路、通信制御回路等を備えて構成され、或いはこれらが統合されたデバイスで構成される。通信部117は、例えば、Bluetooth(登録商標)、無線LAN等の規格に準拠した無線通信を行う。なお、無線LANは、Wi−Fi(登録商標)含む。
音声インターフェイス182は、音声信号を入出力するインターフェイスである。本実施形態では、音声インターフェイス182は、接続ケーブル40に設けられた図3に示すコネクター46を含む。音声コーデック180は、音声インターフェイス182に接続され、音声インターフェイス182を介して入出力される音声信号のエンコード及びデコードを行う。また、音声コーデック180はアナログ音声信号からデジタル音声データへの変換を行うA/Dコンバーター、及び、その逆の変換を行うD/Aコンバーターを備えてもよい。例えば、本実施形態のHMD100は、音声を右イヤホン32及び左イヤホン34により出力し、マイク63で集音する。音声コーデック180は、メインプロセッサー140が出力するデジタル音声データをアナログ音声信号に変換して、音声インターフェイス182を介して出力する。また、音声コーデック180は、音声インターフェイス182に入力されるアナログ音声信号をデジタル音声データに変換してメインプロセッサー140に出力する。
マイク63、音声インターフェイス182及び音声コーデック180は、「音声入力部」の一例に相当する。
マイク63、音声インターフェイス182及び音声コーデック180は、「音声入力部」の一例に相当する。
外部コネクター184は、メインプロセッサー140と通信する外部の装置を接続するコネクターである。外部コネクター184は、例えば、外部の装置をメインプロセッサー140に接続して、メインプロセッサー140が実行するプログラムのデバッグや、HMD100の動作のログの収集を行う場合に、この外部の装置を接続するインターフェイスである。
外部メモリーインターフェイス186は、可搬型のメモリーデバイスを接続可能なインターフェイスであり、例えば、カード型記録媒体を装着してデータの読取が可能なメモリーカードスロットとインターフェイス回路とを含む。この場合のカード型記録媒体のサイズ、形状、規格は制限されず、適宜に変更可能である。
外部メモリーインターフェイス186は、可搬型のメモリーデバイスを接続可能なインターフェイスであり、例えば、カード型記録媒体を装着してデータの読取が可能なメモリーカードスロットとインターフェイス回路とを含む。この場合のカード型記録媒体のサイズ、形状、規格は制限されず、適宜に変更可能である。
USBコネクター188は、USB規格に準拠したコネクターとインターフェイス回路とを備え、USBメモリーデバイス、スマートフォン、コンピューター等を接続できる。USBコネクター188のサイズや形状、適合するUSB規格のバージョンは適宜に選択、変更可能である。HMD100とリモートコントローラー350とをUSBケーブルによって接続する場合、USBコネクター188が、リモートコントローラー350に接続される。
また、HMD100は、バイブレーター19を備える。バイブレーター19は、図示しないモーター、偏心した図示しない回転子等を備え、メインプロセッサー140の制御に従って振動を発生する。HMD100は、例えば、操作部110に対する操作を検出した場合、HMD100の電源がオン及びオフされる場合等に、所定の振動パターンでバイブレーター19により振動を発生する。
センサーハブ192及びFPGA194は、インターフェイス(I/F)196を介して、画像表示部20を接続される。センサーハブ192は、画像表示部20が備える各種センサーの検出値を取得してメインプロセッサー140に出力する。また、FPGA194は、メインプロセッサー140と画像表示部20の各部との間で送受信するデータの処理、及び、インターフェイス196を介した伝送を実行する。
画像表示部20の右表示ユニット22及び左表示ユニット24は、それぞれ、制御装置10に接続される。図3に示すように、HMD100では左保持部23に接続ケーブル40が接続され、この接続ケーブル40に繋がる配線が画像表示部20内部に敷設され、右表示ユニット22と左表示ユニット24とのそれぞれが制御装置10に接続される。
右表示ユニット22は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)211、インターフェイス211を介して制御装置10から入力されるデータを受信する受信部(Rx)213、及び、EEPROM215が実装される。EEPROM215は、記憶部の一例に対応する。
インターフェイス211は、受信部213、EEPROM215、温度センサー217、カメラ61、照度センサー65、及びLEDインジケーター67を、制御装置10に接続する。
インターフェイス211は、受信部213、EEPROM215、温度センサー217、カメラ61、照度センサー65、及びLEDインジケーター67を、制御装置10に接続する。
EEPROM(Electrically Erasable Programmable ROM)215は、各種のデータをメインプロセッサー140が読み取り可能に記憶する。EEPROM215は、例えば、画像表示部20が備えるOLEDユニット221、241の発光特性や表示特性に関するデータ、右表示ユニット22または左表示ユニット24が備えるセンサーの特性に関するデータなどを記憶する。具体的には、OLEDユニット221、241のガンマ補正に係るパラメーター、温度センサー217、239の検出値を補償するデータ等を記憶する。これらのデータは、HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれ、出荷後はメインプロセッサー140がEEPROM215のデータを利用して処理を行える。
カメラ61は、インターフェイス211を介して入力される信号に従って撮像を実行し、撮像画像データ、或いは、撮像結果を示す信号を制御装置10に出力する。
照度センサー65は、図3に示すように、前部フレーム27の端部ERに設けられ、画像表示部20を装着するユーザーの前方からの外光を受光するよう配置される。照度センサー65は、受光量に対応する検出値を出力する。受光量は、受光強度という場合もある。
LEDインジケーター67は、図3に示すように、前部フレーム27の端部ERにおいてカメラ61の近傍に配置される。LEDインジケーター67は、カメラ61による撮像を実行中に点灯して、撮像中であることを報知する。
照度センサー65は、図3に示すように、前部フレーム27の端部ERに設けられ、画像表示部20を装着するユーザーの前方からの外光を受光するよう配置される。照度センサー65は、受光量に対応する検出値を出力する。受光量は、受光強度という場合もある。
LEDインジケーター67は、図3に示すように、前部フレーム27の端部ERにおいてカメラ61の近傍に配置される。LEDインジケーター67は、カメラ61による撮像を実行中に点灯して、撮像中であることを報知する。
温度センサー217は、温度を検出し、検出温度に対応する電圧値あるいは抵抗値を、検出値として出力する。温度センサー217は、図3に示すOLEDパネル223の裏面側に実装される。温度センサー217は、例えばOLED駆動回路225と同一の基板に実装されてもよい。この構成により、温度センサー217は、主としてOLEDパネル223の温度を検出する。
内側カメラ68は、インターフェイス211を介して制御装置10から入力される信号に従って撮像を実行し、撮像画像データ、或いは、撮像結果を示す信号を制御装置10に出力する。図3に示す一対の内側カメラ68、68が同時に動作してもよい。また、一対の内側カメラ68、68のそれぞれが、インターフェイス211に接続され、独立して動作する構成であってもよい。
距離センサー64は、インターフェイス211を介して制御装置10から入力される信号に従って距離検出を実行し、検出結果を示す信号を制御装置10に出力する。図3に示す一対の距離センサー64、64が同時に動作してもよい。また、一対の距離センサー64、64のそれぞれが、インターフェイス211に接続され、独立して動作する構成であってもよい。
受信部213は、インターフェイス211を介してメインプロセッサー140が送信するデータを受信する。受信部213は、OLEDユニット221で表示する画像の画像データを受信した場合に、受信した画像データを、図2に示すOLED駆動回路225に出力する。
左表示ユニット24は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)231、インターフェイス231を介して制御装置10から入力されるデータを受信する受信部233が実装される。受信部を「Rx」と記載する場合がある。また、表示ユニット基板210には、6軸センサー235、及び、磁気センサー237が実装される。6軸センサー235は、「動きセンサー」の一例に対応する。
インターフェイス231は、受信部233、6軸センサー235、磁気センサー237、及び温度センサー239を、制御装置10に接続する。
インターフェイス231は、受信部233、6軸センサー235、磁気センサー237、及び温度センサー239を、制御装置10に接続する。
6軸センサー235は、3軸加速度センサー、及び、3軸ジャイロセンサーを備えるモーションセンサーである。6軸センサー235は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。
磁気センサー237は、例えば、3軸の地磁気センサーである。
磁気センサー237は、例えば、3軸の地磁気センサーである。
温度センサー239は、温度を検出し、検出温度に対応する電圧値あるいは抵抗値を、検出値として出力する。温度センサー239は、図3に示すOLEDパネル243の裏面側に実装される。温度センサー239は、例えばOLED駆動回路245と同一の基板に実装されてもよい。この構成により、温度センサー239は、主としてOLEDパネル243の温度を検出する。
また、温度センサー239が、OLEDパネル243或いはOLED駆動回路245に内蔵されてもよい。また、上記基板は半導体基板であってもよい。具体的には、OLEDパネル243が、Si−OLEDとして、OLED駆動回路245等とともに統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー239を実装してもよい。
また、温度センサー239が、OLEDパネル243或いはOLED駆動回路245に内蔵されてもよい。また、上記基板は半導体基板であってもよい。具体的には、OLEDパネル243が、Si−OLEDとして、OLED駆動回路245等とともに統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー239を実装してもよい。
右表示ユニット22が備えるカメラ61、距離センサー64、照度センサー65、内側カメラ68、温度センサー217、左表示ユニット24が備える6軸センサー235、磁気センサー237、温度センサー239は、センサーハブ192に接続される。センサーハブ192は、メインプロセッサー140の制御に従って各センサーのサンプリング周期の設定及び初期化を行う。センサーハブ192は、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データの送信、検出値の取得等を実行する。また、センサーハブ192は、予め設定されたタイミングで、右表示ユニット22及び左表示ユニット24が備える各センサーの検出値を、メインプロセッサー140に出力する。センサーハブ192は、各センサーの検出値を、メインプロセッサー140に対する出力のタイミングに合わせて一時的に保持する機能を備えてもよい。また、センサーハブ192は、各センサーの出力値の信号形式、或いはデータ形式の相違に対応し、統一されたデータ形式のデータに変換して、メインプロセッサー140に出力する機能を備えてもよい。
また、センサーハブ192は、メインプロセッサー140の制御に従ってLEDインジケーター67への通電を開始及び停止させ、カメラ61が撮像を開始及び終了するタイミングに合わせて、LEDインジケーター67を点灯または点滅させる。
また、センサーハブ192は、メインプロセッサー140の制御に従ってLEDインジケーター67への通電を開始及び停止させ、カメラ61が撮像を開始及び終了するタイミングに合わせて、LEDインジケーター67を点灯または点滅させる。
制御装置10は、電源部130を備え、電源部130から供給される電力により動作する。電源部130は充電可能なバッテリー132、及び、バッテリー132の残容量の検出およびバッテリー132への充電の制御を行う電源制御回路134を備える。電源制御回路134はメインプロセッサー140に接続され、バッテリー132の残容量の検出値、或いは電圧の検出値をメインプロセッサー140に出力する。また、電源部130が供給する電力に基づき、制御装置10から画像表示部20に電力を供給してもよい。また、電源部130から制御装置10の各部及び画像表示部20への電力の供給状態を、メインプロセッサー140が制御可能な構成としてもよい。
HMD100は、コンテンツの供給元となる種々の外部機器を接続する図示しないインターフェイスを備えてもよい。例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスであってもよく、無線通信インターフェイスで構成してもよい。この場合の外部機器は、HMD100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。この場合、HMD100は、これらの外部機器から入力されるコンテンツデータに基づく画像や音声を出力できる。
図6は、制御部141の構成を示す図である。
図6に示すように、制御部141は、表示制御部142と、操作推定部143と、判定部144と、学習部145と、信号記憶部146と、学習データ記憶部147と、画像記憶部148とを備える。具体的には、メインプロセッサー140がメモリー118の制御プログラムを実行することによって、表示制御部142、操作推定部143、判定部144及び学習部145として機能する。また、メインプロセッサー140がメモリー118の制御プログラムを実行することによって、メモリー118を、信号記憶部146、学習データ記憶部147及び画像記憶部148として機能させる。
図6に示すように、制御部141は、表示制御部142と、操作推定部143と、判定部144と、学習部145と、信号記憶部146と、学習データ記憶部147と、画像記憶部148とを備える。具体的には、メインプロセッサー140がメモリー118の制御プログラムを実行することによって、表示制御部142、操作推定部143、判定部144及び学習部145として機能する。また、メインプロセッサー140がメモリー118の制御プログラムを実行することによって、メモリー118を、信号記憶部146、学習データ記憶部147及び画像記憶部148として機能させる。
表示制御部142は、複数の入力用画像MNを、画像表示部20を透過して視認されるユーザーの手と重なる位置に画像表示部20に表示させる。
具体的には、表示制御部142は、カメラ61によって取得される画像データに基づいて、外景に含まれるユーザーの手の位置を特定する。そして、表示制御部142は、複数の入力用画像MNを、特定したユーザーの手の位置に重なるように、画像表示部20に表示させる。すなわち、表示制御部142は、複数の入力用画像MNの表示位置を、特定したユーザーの手の位置に決定する。
また、表示制御部142は、画像表示部20を透過して視認されるユーザーの手の位置を追跡し、ユーザーの手の移動に応じて、複数の入力用画像MNの表示位置を調整する。
具体的には、複数の入力用画像MNの各々は、互いに相違する文字を示す。複数の入力用画像MNについては、後述にて図8を参照して詳細に説明する。
また、表示制御部142は、ユーザーの手の位置をガイドする第1ガイド画像GL1を画像表示部20に表示させる。また、表示制御部142は、筋電センサー200の位置をガイドする第2ガイド画像GL2を画像表示部20に表示させる。第1ガイド画像GL1及び第2ガイド画像GL2については、後述にて図7を参照して詳細に説明する。
具体的には、表示制御部142は、カメラ61によって取得される画像データに基づいて、外景に含まれるユーザーの手の位置を特定する。そして、表示制御部142は、複数の入力用画像MNを、特定したユーザーの手の位置に重なるように、画像表示部20に表示させる。すなわち、表示制御部142は、複数の入力用画像MNの表示位置を、特定したユーザーの手の位置に決定する。
また、表示制御部142は、画像表示部20を透過して視認されるユーザーの手の位置を追跡し、ユーザーの手の移動に応じて、複数の入力用画像MNの表示位置を調整する。
具体的には、複数の入力用画像MNの各々は、互いに相違する文字を示す。複数の入力用画像MNについては、後述にて図8を参照して詳細に説明する。
また、表示制御部142は、ユーザーの手の位置をガイドする第1ガイド画像GL1を画像表示部20に表示させる。また、表示制御部142は、筋電センサー200の位置をガイドする第2ガイド画像GL2を画像表示部20に表示させる。第1ガイド画像GL1及び第2ガイド画像GL2については、後述にて図7を参照して詳細に説明する。
信号記憶部146は、筋電センサー200の基準値を記憶する。
具体的には、信号記憶部146は、複数の入力用画像MNの各々を選択する操作に対応する筋電センサー200の基準値を記憶する。
信号記憶部146が記憶する筋電センサー200の基準値は、例えば、事前のキャリブレーションによって得られる。例えば、筋電センサー200の基準値は、ユーザーを示す情報に対応付けて記憶する。換言すれば、筋電センサー200の基準値は、ユーザー毎に記憶する。
また、信号記憶部146に記憶する筋電センサー200の基準値は、ユーザーが筋電センサー200を適正な位置に装着した状態で、繰り返し検出される。そして、その平均値が、信号記憶部146に記憶される。また、平均値に替えて、筋電センサー200の基準値の範囲を信号記憶部146に記憶してもよい。
具体的には、信号記憶部146は、複数の入力用画像MNの各々を選択する操作に対応する筋電センサー200の基準値を記憶する。
信号記憶部146が記憶する筋電センサー200の基準値は、例えば、事前のキャリブレーションによって得られる。例えば、筋電センサー200の基準値は、ユーザーを示す情報に対応付けて記憶する。換言すれば、筋電センサー200の基準値は、ユーザー毎に記憶する。
また、信号記憶部146に記憶する筋電センサー200の基準値は、ユーザーが筋電センサー200を適正な位置に装着した状態で、繰り返し検出される。そして、その平均値が、信号記憶部146に記憶される。また、平均値に替えて、筋電センサー200の基準値の範囲を信号記憶部146に記憶してもよい。
画像記憶部148は、表示制御部142が表示する画像を記憶する。具体的には、画像記憶部148は、複数の入力用画像MN、第1ガイド画像GL1、第2ガイド画像GL2等の画像を記憶する。
操作推定部143は、筋電センサー200の検出値を取得し、筋電センサー200の検出値に基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
更に具体的には、学習部145が判定基準を生成するまでの期間において、操作推定部143は、以下のようにして複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。すなわち、操作推定部143は、筋電センサー200の検出値と、信号記憶部146に記憶された筋電センサー200の基準値とに基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
学習部145が判定基準を生成した後の期間において、操作推定部143は、以下のようにして複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。すなわち、操作推定部143は、筋電センサー200の検出値と、判定基準とに基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
更に具体的には、学習部145が判定基準を生成するまでの期間において、操作推定部143は、以下のようにして複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。すなわち、操作推定部143は、筋電センサー200の検出値と、信号記憶部146に記憶された筋電センサー200の基準値とに基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
学習部145が判定基準を生成した後の期間において、操作推定部143は、以下のようにして複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。すなわち、操作推定部143は、筋電センサー200の検出値と、判定基準とに基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
判定部144は、操作推定部143の推定結果を判定する。
具体的には、判定部144は、カメラ61による画像に基づいて、操作推定部143の推定結果の正否を判定する。
更に具体的には、カメラ61は、表示制御部142によって複数の入力用画像MNの各々が表示される位置を含むユーザーの手の動画像を生成する。そして、判定部144は、ユーザーの手の動画像に基づいて、操作推定部143の推定結果の正否を判定する。
具体的には、判定部144は、カメラ61による画像に基づいて、操作推定部143の推定結果の正否を判定する。
更に具体的には、カメラ61は、表示制御部142によって複数の入力用画像MNの各々が表示される位置を含むユーザーの手の動画像を生成する。そして、判定部144は、ユーザーの手の動画像に基づいて、操作推定部143の推定結果の正否を判定する。
すなわち、ユーザーの手の動画像が、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を示す場合には、判定部144は、操作推定部143の推定結果が正しいと判定する。ユーザーの手の動画像が、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を示さない場合には、判定部144は、操作推定部143の推定結果が正しくないと判定する。
ユーザーの手の動画像が、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を示さない場合は、下記の2つの場合を含む。第1の場合は、ユーザーの手の動画像が、複数の入力用画像MNの中から1つの入力用画像MA以外の入力用画像を選択する操作を示す場合である。第2の場合は、ユーザーの手の動画像が、複数の入力用画像MNのいずれかの入力用画像を選択する操作を示さない場合である。
本実施形態では、判定部144は、カメラ61による画像に基づいて、操作推定部143の推定結果の正否を判定するが、これに限定されない。判定部144が、例えば、ユーザーからの操作に基づいて、操作推定部143の推定結果の正否を判定してもよい。また、判定部144が、例えば、ユーザーからの音声に基づいて、操作推定部143の推定結果の正否を判定してもよい。
ユーザーの手の動画像が、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を示さない場合は、下記の2つの場合を含む。第1の場合は、ユーザーの手の動画像が、複数の入力用画像MNの中から1つの入力用画像MA以外の入力用画像を選択する操作を示す場合である。第2の場合は、ユーザーの手の動画像が、複数の入力用画像MNのいずれかの入力用画像を選択する操作を示さない場合である。
本実施形態では、判定部144は、カメラ61による画像に基づいて、操作推定部143の推定結果の正否を判定するが、これに限定されない。判定部144が、例えば、ユーザーからの操作に基づいて、操作推定部143の推定結果の正否を判定してもよい。また、判定部144が、例えば、ユーザーからの音声に基づいて、操作推定部143の推定結果の正否を判定してもよい。
学習データ記憶部147は、学習データセット147aを記憶する。学習データセット147aは、筋電センサー200の検出値と、1つの入力用画像MAと、判定部144の判定結果との組み合わせを含む。
学習部145は、学習データセット147aに基づいて、筋電センサー200の検出値から1つの入力用画像MAを特定するための条件を機械学習する。
筋電センサー200の検出値から1つの入力用画像MAを特定するための条件は、例えば、筋電センサー200の検出値が、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を示すか否かの判定基準である。学習部145が実行する機械学習処理については、後述にて図9を参照して詳細に説明する。
また、学習部145は、学習データセット147aを学習データ記憶部147に記憶する。具体的には、操作推定部143の推定結果の正否を判定部144が判定する度に、学習部145は、学習データセット147aを学習データ記憶部147に記憶する。
筋電センサー200の検出値から1つの入力用画像MAを特定するための条件は、例えば、筋電センサー200の検出値が、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を示すか否かの判定基準である。学習部145が実行する機械学習処理については、後述にて図9を参照して詳細に説明する。
また、学習部145は、学習データセット147aを学習データ記憶部147に記憶する。具体的には、操作推定部143の推定結果の正否を判定部144が判定する度に、学習部145は、学習データセット147aを学習データ記憶部147に記憶する。
図7は、ガイド画像GLを示す図である。
図7には、視野領域AR1と画像領域AR2とが示されている。視野領域AR1は、右導光板26を透過した外光と、左導光板28を透過した外光とによって、ユーザーが認識可能な実空間の景色の範囲を示す。換言すれば、視野領域AR1は、HMD100を装着したユーザーの視野の範囲を示す。視野領域AR1には、ユーザーの右手HPが含まれる。また、ユーザーの右手HPの手首の位置PS1には、筋電センサー200が装着されている。
画像領域AR2は、右導光板26により導かれた画像光と、左導光板28により導かれた画像光とによって、ユーザーが認識可能な画像の範囲を示す。換言すれば、画像領域AR2は、HMD100を装着したユーザーが認識可能な画像の範囲を示す。画像領域AR2には、第1ガイド画像GL1と第2ガイド画像GL2とが含まれる。
図7には、視野領域AR1と画像領域AR2とが示されている。視野領域AR1は、右導光板26を透過した外光と、左導光板28を透過した外光とによって、ユーザーが認識可能な実空間の景色の範囲を示す。換言すれば、視野領域AR1は、HMD100を装着したユーザーの視野の範囲を示す。視野領域AR1には、ユーザーの右手HPが含まれる。また、ユーザーの右手HPの手首の位置PS1には、筋電センサー200が装着されている。
画像領域AR2は、右導光板26により導かれた画像光と、左導光板28により導かれた画像光とによって、ユーザーが認識可能な画像の範囲を示す。換言すれば、画像領域AR2は、HMD100を装着したユーザーが認識可能な画像の範囲を示す。画像領域AR2には、第1ガイド画像GL1と第2ガイド画像GL2とが含まれる。
第1ガイド画像GL1は、ユーザーの手の位置をガイドする。具体的には、第1ガイド画像GL1は、ユーザーの右手HPを実空間において配置すべき位置を示す。図7に示すように、ユーザーの右手HPは、第1ガイド画像GL1が示す位置に配置されている。
第2ガイド画像GL2は、筋電センサー200によって適正な電気信号を検出するための筋電センサー200のユーザーの右手HPの手首への装着位置を示す。図7では、第2ガイド画像GL2は、実空間における筋電センサー200の位置を示す位置PS1よりも手のひらに近い。
このように、筋電センサー200の位置PS1が第2ガイド画像GL2と重なっていない場合には、表示制御部142は、第2ガイド画像GL2を点滅表示する。
また、ユーザーは、筋電センサー200の位置PS1が第2ガイド画像GL2と重なるように、筋電センサー200を手のひらに近付ける必要がある。
第2ガイド画像GL2は、筋電センサー200によって適正な電気信号を検出するための筋電センサー200のユーザーの右手HPの手首への装着位置を示す。図7では、第2ガイド画像GL2は、実空間における筋電センサー200の位置を示す位置PS1よりも手のひらに近い。
このように、筋電センサー200の位置PS1が第2ガイド画像GL2と重なっていない場合には、表示制御部142は、第2ガイド画像GL2を点滅表示する。
また、ユーザーは、筋電センサー200の位置PS1が第2ガイド画像GL2と重なるように、筋電センサー200を手のひらに近付ける必要がある。
なお、本実施形態では、筋電センサー200の位置PS1が第2ガイド画像GL2と重なっていない場合には、表示制御部142は、第2ガイド画像GL2を点滅表示するが、これに限定されない。筋電センサー200の位置PS1が第2ガイド画像GL2と重なっていない場合には、表示制御部142は、第2ガイド画像GL2の表示形態を変更すればよい。例えば、表示制御部142は、第2ガイド画像GL2の表示色を変更してもよい。
図8は、本実施形態に係る入力用画像MNを示す図である。
図8には、図7と同様に、視野領域AR1と画像領域AR2とが示されている。
画像領域AR2には、ユーザーの右手HPが含まれる。また、ユーザーの右手HPの手首の位置PS1には、筋電センサー200が装着されている。
図8には、図7と同様に、視野領域AR1と画像領域AR2とが示されている。
画像領域AR2には、ユーザーの右手HPが含まれる。また、ユーザーの右手HPの手首の位置PS1には、筋電センサー200が装着されている。
また、本実施形態では、HMD100がユーザーIDの入力を受け付ける場合について説明する。図8の画像領域AR2には、ガイド画像GP1が表示される。ガイド画像GP1には、「ID:123_」と表示されている。
ガイド画像GP1は、ユーザーIDとして、「1」の数字と、「2」の数字と、「3」の数字とが入力されていることを示す。また、ガイド画像GP1のカーソルを示す「_」は、ユーザーIDとして、4個目の文字の入力を待っている状態であることを示す。
ガイド画像GP1は、ユーザーIDとして、「1」の数字と、「2」の数字と、「3」の数字とが入力されていることを示す。また、ガイド画像GP1のカーソルを示す「_」は、ユーザーIDとして、4個目の文字の入力を待っている状態であることを示す。
複数の入力用画像MNの各々は、互いに相違する文字を示す。図8に示すように、例えば、複数の入力用画像MNの各々は、「0」〜「9」の数字と、「−」の記号と、決定コマンドと、戻るコマンドとを含む。
決定コマンドは、ユーザーIDの入力を決定する旨のコマンドを示す。戻るコマンドは、ユーザーIDとして入力された文字のうち1つの文字を消去する旨のコマンドを示す。
具体的には、複数の入力用画像MNの各々は、ユーザーの右手HPの指において関節で区切られた領域に対応付けられる。
更に具体的には、複数の入力用画像MNの各々は、ユーザーの右手HPの親指FP1を除く各指において関節で区切られた領域に対応付けられる。
決定コマンドは、ユーザーIDの入力を決定する旨のコマンドを示す。戻るコマンドは、ユーザーIDとして入力された文字のうち1つの文字を消去する旨のコマンドを示す。
具体的には、複数の入力用画像MNの各々は、ユーザーの右手HPの指において関節で区切られた領域に対応付けられる。
更に具体的には、複数の入力用画像MNの各々は、ユーザーの右手HPの親指FP1を除く各指において関節で区切られた領域に対応付けられる。
ユーザーの右手HPは、親指FP1、人差し指FP2、中指FP3、薬指FP4、及び小指FP5を含む。
人差し指FP2は、第1関節FP21と、第2関節FP22と、第3関節FP23とを含む。
人差し指FP2において、第1関節FP21の先端側の領域には、入力用画像M21が表示される。入力用画像M21は、「1」の数字を示す。先端側は、手のひらから離間する側を示す。
すなわち、表示制御部142は、入力用画像M21を、画像表示部20を透過して視認されるユーザーの右手HPの人差し指FP2の第1関節FP21の先端側の領域と重なる位置に、画像表示部20に表示させる。
具体的には、表示制御部142は、カメラ61によって取得される画像データに基づいて、外景に含まれるユーザーの右手HPの人差し指FP2の第1関節FP21の先端側の領域の位置を特定する。そして、入力用画像M21の表示位置を、特定したユーザーの右手HPの人差し指FP2の第1関節FP21の先端側の領域の位置に決定する。
なお、入力用画像M21は、複数の入力用画像MNに含まれる。
また、複数の入力用画像MNに含まれる入力用画像M21を除く入力用画像MNについては、図8において、複数の入力用画像MNを示す参照符号MNの記載を省略している。
人差し指FP2は、第1関節FP21と、第2関節FP22と、第3関節FP23とを含む。
人差し指FP2において、第1関節FP21の先端側の領域には、入力用画像M21が表示される。入力用画像M21は、「1」の数字を示す。先端側は、手のひらから離間する側を示す。
すなわち、表示制御部142は、入力用画像M21を、画像表示部20を透過して視認されるユーザーの右手HPの人差し指FP2の第1関節FP21の先端側の領域と重なる位置に、画像表示部20に表示させる。
具体的には、表示制御部142は、カメラ61によって取得される画像データに基づいて、外景に含まれるユーザーの右手HPの人差し指FP2の第1関節FP21の先端側の領域の位置を特定する。そして、入力用画像M21の表示位置を、特定したユーザーの右手HPの人差し指FP2の第1関節FP21の先端側の領域の位置に決定する。
なお、入力用画像M21は、複数の入力用画像MNに含まれる。
また、複数の入力用画像MNに含まれる入力用画像M21を除く入力用画像MNについては、図8において、複数の入力用画像MNを示す参照符号MNの記載を省略している。
第1関節FP21と第2関節FP22との間の領域には、入力用画像M22が表示される。入力用画像M22は、「5」の数字を示す。
すなわち、表示制御部142は、入力用画像M22を、画像表示部20を透過して視認されるユーザーの右手HPの人差し指FP2の第1関節FP21と第2関節FP22との間の領域と重なる位置に、画像表示部20に表示させる。
人差し指FP2において、第2関節FP22と第3関節FP23との間の領域には、入力用画像M23が表示される。入力用画像M23は、「9」の数字を示す。
すなわち、表示制御部142は、入力用画像M23を、画像表示部20を透過して視認されるユーザーの右手HPの人差し指FP2の第2関節FP22と第3関節FP23との間の領域と重なる位置に、画像表示部20に表示させる。
人差し指FP2の第3関節FP23と近接する手のひらの領域には、入力用画像M24が表示される。入力用画像M24は、決定コマンドを示す。
すなわち、入力用画像M24は、ユーザーIDを構成する各数字及び記号の入力を確定する旨のコマンドを示す。また、入力用画像M24は、ユーザーIDを確定する旨のコマンドを示す。入力用画像M24は、「決定」の文字列を示す。
また、表示制御部142は、入力用画像M24を、画像表示部20を透過して視認されるユーザーの右手HPの第3関節FP23と近接する手のひらの領域と重なる位置に、画像表示部20に表示させる。
すなわち、表示制御部142は、入力用画像M22を、画像表示部20を透過して視認されるユーザーの右手HPの人差し指FP2の第1関節FP21と第2関節FP22との間の領域と重なる位置に、画像表示部20に表示させる。
人差し指FP2において、第2関節FP22と第3関節FP23との間の領域には、入力用画像M23が表示される。入力用画像M23は、「9」の数字を示す。
すなわち、表示制御部142は、入力用画像M23を、画像表示部20を透過して視認されるユーザーの右手HPの人差し指FP2の第2関節FP22と第3関節FP23との間の領域と重なる位置に、画像表示部20に表示させる。
人差し指FP2の第3関節FP23と近接する手のひらの領域には、入力用画像M24が表示される。入力用画像M24は、決定コマンドを示す。
すなわち、入力用画像M24は、ユーザーIDを構成する各数字及び記号の入力を確定する旨のコマンドを示す。また、入力用画像M24は、ユーザーIDを確定する旨のコマンドを示す。入力用画像M24は、「決定」の文字列を示す。
また、表示制御部142は、入力用画像M24を、画像表示部20を透過して視認されるユーザーの右手HPの第3関節FP23と近接する手のひらの領域と重なる位置に、画像表示部20に表示させる。
中指FP3は、第1関節FP31と、第2関節FP32と、第3関節FP33とを含む。
中指FP3において、第1関節FP31の先端側の領域には、入力用画像M31が表示される。入力用画像M31は、「2」の数字を示す。
中指FP3において、第1関節FP31と第2関節FP32との間の領域には、入力用画像M32が表示される。入力用画像M32は、「6」の数字を示す。
中指FP3において、第2関節FP32と第3関節FP33との間の領域には、入力用画像M33が表示される。入力用画像M33は、「0」の数字を示す。
表示制御部142は、入力用画像M31〜入力用画像M33の各々を、画像表示部20を透過して視認されるユーザーの右手HPの中指FP3において関節で区切られた領域と重なる位置に、画像表示部20に表示させる。関節で区切られた領域は、第1関節FP31の先端側の領域と、第1関節FP31と第2関節FP32との間の領域と、第2関節FP32と第3関節FP33との間の領域とを含む。
中指FP3において、第1関節FP31の先端側の領域には、入力用画像M31が表示される。入力用画像M31は、「2」の数字を示す。
中指FP3において、第1関節FP31と第2関節FP32との間の領域には、入力用画像M32が表示される。入力用画像M32は、「6」の数字を示す。
中指FP3において、第2関節FP32と第3関節FP33との間の領域には、入力用画像M33が表示される。入力用画像M33は、「0」の数字を示す。
表示制御部142は、入力用画像M31〜入力用画像M33の各々を、画像表示部20を透過して視認されるユーザーの右手HPの中指FP3において関節で区切られた領域と重なる位置に、画像表示部20に表示させる。関節で区切られた領域は、第1関節FP31の先端側の領域と、第1関節FP31と第2関節FP32との間の領域と、第2関節FP32と第3関節FP33との間の領域とを含む。
薬指FP4は、第1関節FP41と、第2関節FP42と、第3関節FP43とを含む。
薬指FP4において、第1関節FP41の先端側の領域には、入力用画像M41が表示される。入力用画像M41は、「3」の数字を示す。
薬指FP4において、第1関節FP41と第2関節FP42との間の領域には、入力用画像M42が表示される。入力用画像M42は、「7」の数字を示す。
薬指FP4において、第2関節FP42と第3関節FP43との間の領域には、入力用画像M43が表示される。入力用画像M43は、「−」の記号を示す。
表示制御部142は、入力用画像M41〜入力用画像M43の各々を、画像表示部20を透過して視認されるユーザーの右手HPの薬指FP4において関節で区切られた領域と重なる位置に、画像表示部20に表示させる。関節で区切られた領域は、第1関節FP41の先端側の領域と、第1関節FP41と第2関節FP42との間の領域と、第2関節FP42と第3関節FP43との間の領域とを含む。
薬指FP4において、第1関節FP41の先端側の領域には、入力用画像M41が表示される。入力用画像M41は、「3」の数字を示す。
薬指FP4において、第1関節FP41と第2関節FP42との間の領域には、入力用画像M42が表示される。入力用画像M42は、「7」の数字を示す。
薬指FP4において、第2関節FP42と第3関節FP43との間の領域には、入力用画像M43が表示される。入力用画像M43は、「−」の記号を示す。
表示制御部142は、入力用画像M41〜入力用画像M43の各々を、画像表示部20を透過して視認されるユーザーの右手HPの薬指FP4において関節で区切られた領域と重なる位置に、画像表示部20に表示させる。関節で区切られた領域は、第1関節FP41の先端側の領域と、第1関節FP41と第2関節FP42との間の領域と、第2関節FP42と第3関節FP43との間の領域とを含む。
小指FP5は、第1関節FP51と、第2関節FP52と、第3関節FP53とを含む。
小指FP5において、第1関節FP51の先端側の領域には、入力用画像M51が表示される。入力用画像M51は、「4」の数字を示す。
小指FP5において、第1関節FP51と第2関節FP52との間の領域には、入力用画像M52が表示される。入力用画像M52は、「8」の数字を示す。
小指FP5において、第2関節FP52と第3関節FP53との間の領域には、入力用画像M53が表示される。入力用画像M53は、ユーザーIDとして入力された文字のうち1つの文字を消去する旨のコマンドを示す。入力用画像M53は、「戻」の文字を示す。
表示制御部142は、入力用画像M51〜入力用画像M53の各々を、画像表示部20を透過して視認されるユーザーの右手HPの小指FP5において関節で区切られた領域と重なる位置に、画像表示部20に表示させる。関節で区切られた領域は、第1関節FP51の先端側の領域と、第1関節FP51と第2関節FP52との間の領域と、第2関節FP52と第3関節FP53との間の領域とを含む。
小指FP5において、第1関節FP51の先端側の領域には、入力用画像M51が表示される。入力用画像M51は、「4」の数字を示す。
小指FP5において、第1関節FP51と第2関節FP52との間の領域には、入力用画像M52が表示される。入力用画像M52は、「8」の数字を示す。
小指FP5において、第2関節FP52と第3関節FP53との間の領域には、入力用画像M53が表示される。入力用画像M53は、ユーザーIDとして入力された文字のうち1つの文字を消去する旨のコマンドを示す。入力用画像M53は、「戻」の文字を示す。
表示制御部142は、入力用画像M51〜入力用画像M53の各々を、画像表示部20を透過して視認されるユーザーの右手HPの小指FP5において関節で区切られた領域と重なる位置に、画像表示部20に表示させる。関節で区切られた領域は、第1関節FP51の先端側の領域と、第1関節FP51と第2関節FP52との間の領域と、第2関節FP52と第3関節FP53との間の領域とを含む。
操作推定部143は、筋電センサー200の検出値に基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
具体的には、1つの入力用画像MAを選択する操作は、ユーザーの右手HPの親指FP1を、人差し指FP2、中指FP3、薬指FP4、及び小指FP5の各々における関節で区切られた領域に押圧する操作である。
換言すれば、1つの入力用画像MAを選択するジェスチャーは、ユーザーの右手HPの親指FP1を、人差し指FP2、中指FP3、薬指FP4、及び小指FP5の各々における関節で区切られた領域に押圧するジェスチャーである。
このジェスチャーは、筋電センサー200の検出値に基づいて操作推定部143によって検出されるため、一般的なジェスチャーと区別できるように、「筋電ジェスチャー」と記載してもよい。
ユーザーの右手HPの親指FP1は、第1関節FP11と、第2関節FP12とを含む。親指FP1において、第1関節FP11の先端側の領域には、ガイド画像M1が表示される。ガイド画像M1は、例えば丸印「〇」の記号を示す。
ガイド画像M1は、第1関節FP11の先端側の領域を、関節で区切られた領域に押圧する操作によって、1つの入力用画像MAを選択することを示す。
具体的には、1つの入力用画像MAを選択する操作は、ユーザーの右手HPの親指FP1を、人差し指FP2、中指FP3、薬指FP4、及び小指FP5の各々における関節で区切られた領域に押圧する操作である。
換言すれば、1つの入力用画像MAを選択するジェスチャーは、ユーザーの右手HPの親指FP1を、人差し指FP2、中指FP3、薬指FP4、及び小指FP5の各々における関節で区切られた領域に押圧するジェスチャーである。
このジェスチャーは、筋電センサー200の検出値に基づいて操作推定部143によって検出されるため、一般的なジェスチャーと区別できるように、「筋電ジェスチャー」と記載してもよい。
ユーザーの右手HPの親指FP1は、第1関節FP11と、第2関節FP12とを含む。親指FP1において、第1関節FP11の先端側の領域には、ガイド画像M1が表示される。ガイド画像M1は、例えば丸印「〇」の記号を示す。
ガイド画像M1は、第1関節FP11の先端側の領域を、関節で区切られた領域に押圧する操作によって、1つの入力用画像MAを選択することを示す。
例えば、「1」の数字を示す入力用画像M21を選択する場合には、ユーザーは、親指FP1の第1関節FP11の先端側の領域を、人差し指FP2の第1関節FP21の先端側の領域に押圧する操作を行う。
また、例えば、「6」の数字を示す入力用画像M32を選択する場合には、ユーザーは、親指FP1の第1関節FP11の先端側の領域を、中指FP3の第1関節FP31と第2関節FP32との間の領域に押圧する操作を行う。
また、例えば、「−」の記号を示す入力用画像M43を選択する場合には、ユーザーは、親指FP1の第1関節FP11の先端側の領域を、薬指FP4の第2関節FP42と第3関節FP43との間の領域に押圧する操作を行う。
また、例えば、決定コマンドを示す入力用画像M24を選択する場合には、ユーザーは、親指FP1の第1関節FP11の先端側の領域を、人差し指FP2の第3関節FP23と近接する手のひらの領域に押圧する操作を行う。
また、例えば、「6」の数字を示す入力用画像M32を選択する場合には、ユーザーは、親指FP1の第1関節FP11の先端側の領域を、中指FP3の第1関節FP31と第2関節FP32との間の領域に押圧する操作を行う。
また、例えば、「−」の記号を示す入力用画像M43を選択する場合には、ユーザーは、親指FP1の第1関節FP11の先端側の領域を、薬指FP4の第2関節FP42と第3関節FP43との間の領域に押圧する操作を行う。
また、例えば、決定コマンドを示す入力用画像M24を選択する場合には、ユーザーは、親指FP1の第1関節FP11の先端側の領域を、人差し指FP2の第3関節FP23と近接する手のひらの領域に押圧する操作を行う。
また、操作推定部143は、筋電センサー200の検出値に基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
複数の入力用画像MNは、「0」〜「9」の数字と、「−」の記号と、決定コマンドと、戻るコマンドとを含む。具体的には、複数の入力用画像MNは、入力用画像M21〜入力用画像M24、入力用画像M31〜入力用画像M33、入力用画像M41〜入力用画像M43、及び入力用画像M51〜入力用画像M53に対応する。すなわち、複数の入力用画像MNは、図8に示す13個の入力用画像MNを示す。操作推定部143は、筋電センサー200の検出値に基づいて、13個の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
複数の入力用画像MNは、「0」〜「9」の数字と、「−」の記号と、決定コマンドと、戻るコマンドとを含む。具体的には、複数の入力用画像MNは、入力用画像M21〜入力用画像M24、入力用画像M31〜入力用画像M33、入力用画像M41〜入力用画像M43、及び入力用画像M51〜入力用画像M53に対応する。すなわち、複数の入力用画像MNは、図8に示す13個の入力用画像MNを示す。操作推定部143は、筋電センサー200の検出値に基づいて、13個の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
信号記憶部146には、13個の入力用画像MNの各々を選択する操作に対応する筋電センサー200の基準値を記憶する。
信号記憶部146に記憶する筋電センサー200の基準値は、ユーザーが筋電センサー200を適正な位置に装着した状態で、ユーザー毎に、且つ13個の入力用画像MNの各々を選択する操作毎に繰り返し検出される。そして、その平均値が、筋電センサー200の基準値として、13個の入力用画像MNの各々を選択する操作に対応付けて信号記憶部146に記憶される。また、平均値に替えて、筋電センサー200の検出値の範囲を信号記憶部146に記憶してもよい。
信号記憶部146に記憶する筋電センサー200の基準値は、ユーザーが筋電センサー200を適正な位置に装着した状態で、ユーザー毎に、且つ13個の入力用画像MNの各々を選択する操作毎に繰り返し検出される。そして、その平均値が、筋電センサー200の基準値として、13個の入力用画像MNの各々を選択する操作に対応付けて信号記憶部146に記憶される。また、平均値に替えて、筋電センサー200の検出値の範囲を信号記憶部146に記憶してもよい。
操作推定部143は、筋電センサー200の検出値と、信号記憶部146に記憶された筋電センサー200の基準値とに基づいて、13個の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
例えば、筋電センサー200の検出値が、親指FP1の第1関節FP11の先端側の領域を、人差し指FP2の第1関節FP21の先端側の領域に押圧する操作を示す場合には、操作推定部143は、入力用画像M21を選択する操作を推定する。
また、例えば、筋電センサー200の検出値が、親指FP1の第1関節FP11の先端側の領域を、中指FP3の第1関節FP31と第2関節FP32との間の領域に押圧する操作を示す場合には、操作推定部143は、以下の処理を行う。すなわち、操作推定部143は、入力用画像M32を選択する操作を推定する。
また、例えば、筋電センサー200の検出値が、親指FP1の第1関節FP11の先端側の領域を、薬指FP4の第2関節FP42と第3関節FP43との間の領域に押圧する操作を示す場合には、操作推定部143は、以下の処理を行う。すなわち、操作推定部143は、入力用画像M43を選択する操作を推定する。
また、例えば、筋電センサー200の検出値が、親指FP1の第1関節FP11の先端側の領域を、人差し指FP2の第3関節FP23と近接する手のひらの領域に押圧する操作を示す場合には、操作推定部143は、以下の処理を行う。すなわち、操作推定部143は、入力用画像M24を選択する操作を推定する。
例えば、筋電センサー200の検出値が、親指FP1の第1関節FP11の先端側の領域を、人差し指FP2の第1関節FP21の先端側の領域に押圧する操作を示す場合には、操作推定部143は、入力用画像M21を選択する操作を推定する。
また、例えば、筋電センサー200の検出値が、親指FP1の第1関節FP11の先端側の領域を、中指FP3の第1関節FP31と第2関節FP32との間の領域に押圧する操作を示す場合には、操作推定部143は、以下の処理を行う。すなわち、操作推定部143は、入力用画像M32を選択する操作を推定する。
また、例えば、筋電センサー200の検出値が、親指FP1の第1関節FP11の先端側の領域を、薬指FP4の第2関節FP42と第3関節FP43との間の領域に押圧する操作を示す場合には、操作推定部143は、以下の処理を行う。すなわち、操作推定部143は、入力用画像M43を選択する操作を推定する。
また、例えば、筋電センサー200の検出値が、親指FP1の第1関節FP11の先端側の領域を、人差し指FP2の第3関節FP23と近接する手のひらの領域に押圧する操作を示す場合には、操作推定部143は、以下の処理を行う。すなわち、操作推定部143は、入力用画像M24を選択する操作を推定する。
このようにして、操作推定部143が、筋電センサー200の検出値と、信号記憶部146に記憶された筋電センサー200の基準値とに基づいて、13個の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。その結果、ユーザーIDが入力される。
図9は、制御部141の処理を示すフローチャートである。なお、本実施形態では、ユーザーの右手HPが、第1ガイド画像GL1が示す位置に配置されている場合について説明する。
図9に示すように、まず、ステップS101において、表示制御部142が、ガイド画像GLを表示する。ガイド画像GLは、ユーザーの右手HPの位置をガイドする第1ガイド画像GL1と、筋電センサー200の位置をガイドする第2ガイド画像GL2とを含む。
次に、ステップS103において、表示制御部142は、第2ガイド画像GL2に基づいて、筋電センサー200が装着されている位置PS1が適切であるか否かを判定する。
筋電センサー200が装着されている位置PS1が適切であると表示制御部142が判定した場合(ステップS103でYES)には、処理がステップS107に進む。筋電センサー200が装着されている位置PS1が適切ではないと表示制御部142が判定した場合(ステップS103でNO)には、処理がステップS105に進む。
そして、ステップS105において、ユーザーが、筋電センサー200が装着されている位置PS1を修正する。換言すれば、表示制御部142は、筋電センサー200が装着されている位置PS1が適切でないことを検出し、第2ガイド画像GL2を点滅表示する。そして、表示制御部142は、筋電センサー200が装着されている位置PS1が修正されたことを検出する。その後、処理がステップS103に戻る。
図9に示すように、まず、ステップS101において、表示制御部142が、ガイド画像GLを表示する。ガイド画像GLは、ユーザーの右手HPの位置をガイドする第1ガイド画像GL1と、筋電センサー200の位置をガイドする第2ガイド画像GL2とを含む。
次に、ステップS103において、表示制御部142は、第2ガイド画像GL2に基づいて、筋電センサー200が装着されている位置PS1が適切であるか否かを判定する。
筋電センサー200が装着されている位置PS1が適切であると表示制御部142が判定した場合(ステップS103でYES)には、処理がステップS107に進む。筋電センサー200が装着されている位置PS1が適切ではないと表示制御部142が判定した場合(ステップS103でNO)には、処理がステップS105に進む。
そして、ステップS105において、ユーザーが、筋電センサー200が装着されている位置PS1を修正する。換言すれば、表示制御部142は、筋電センサー200が装着されている位置PS1が適切でないことを検出し、第2ガイド画像GL2を点滅表示する。そして、表示制御部142は、筋電センサー200が装着されている位置PS1が修正されたことを検出する。その後、処理がステップS103に戻る。
ステップS103でYESの場合には、ステップS107において、表示制御部142は、複数の入力用画像MNを画像表示部20に表示させる。具体的には、表示制御部142は、複数の入力用画像MNを、画像表示部20を透過して視認されるユーザーの右手HPと重なる位置に、画像表示部20に表示させる。
次に、ステップS109において、操作推定部143が、筋電センサー200の検出値を取得したか否かを判定する。
筋電センサー200の検出値を取得していないと操作推定部143が判定した場合(ステップS109でNO)には、処理が待機状態になる。筋電センサー200の検出値を取得したと操作推定部143が判定した場合(ステップS109でYES)には、処理がステップS111に進む。
そして、ステップS111において、判定部144は、カメラ61が生成したユーザーの右手HPの動画像を取得する。ユーザーの右手HPの動画像は、複数の入力用画像MNの中からいずれかの入力用画像を選択する操作を示す。よって、本実施形態では、「操作画像」と記載する場合がある。
次に、ステップS113において、操作推定部143は、筋電センサー200の検出値に基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
次に、ステップS115において、判定部144は、カメラ61が生成したユーザーの右手HPの動画像に基づいて、操作推定部143の推定結果の正否を判定する。
すなわち、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作が行われたと判定部144が判定した場合には、操作推定部143の推定結果が正しいと判定部144が判定する。また、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作が行われていないと判定部144が判定した場合には、操作推定部143の推定結果が正しくないと判定部144が判定する。
次に、ステップS117において、学習部145が「機械学習処理」を実行し、処理が終了する。「機械学習処理」は、学習部145が学習データセット147aに基づいて、筋電センサー200の検出値が複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を示すか否かの判定基準を生成する処理を示す。
筋電センサー200の検出値を取得していないと操作推定部143が判定した場合(ステップS109でNO)には、処理が待機状態になる。筋電センサー200の検出値を取得したと操作推定部143が判定した場合(ステップS109でYES)には、処理がステップS111に進む。
そして、ステップS111において、判定部144は、カメラ61が生成したユーザーの右手HPの動画像を取得する。ユーザーの右手HPの動画像は、複数の入力用画像MNの中からいずれかの入力用画像を選択する操作を示す。よって、本実施形態では、「操作画像」と記載する場合がある。
次に、ステップS113において、操作推定部143は、筋電センサー200の検出値に基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
次に、ステップS115において、判定部144は、カメラ61が生成したユーザーの右手HPの動画像に基づいて、操作推定部143の推定結果の正否を判定する。
すなわち、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作が行われたと判定部144が判定した場合には、操作推定部143の推定結果が正しいと判定部144が判定する。また、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作が行われていないと判定部144が判定した場合には、操作推定部143の推定結果が正しくないと判定部144が判定する。
次に、ステップS117において、学習部145が「機械学習処理」を実行し、処理が終了する。「機械学習処理」は、学習部145が学習データセット147aに基づいて、筋電センサー200の検出値が複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を示すか否かの判定基準を生成する処理を示す。
なお、ステップS107は、「表示制御ステップ」の一例に相当する。ステップS113は、「操作推定ステップ」の一例に相当する。ステップS115は、「判定ステップ」の一例に相当する。ステップS117は、「学習ステップ」の一例に相当する。
図10は、制御部141の機械学習処理を示すフローチャートである。
図10に示すように、ステップS201において、学習部145は、学習データセット147aを、複数の入力用画像MNに含まれる入力用画像MA毎に分類して、学習データ記憶部147に記憶する。学習データセット147aは、筋電センサー200の検出値と、1つの入力用画像MAと、判定部144の判定結果とを含む。
すなわち、学習データ記憶部147において、学習データセット147aは、入力用画像MA毎に分類されて記憶される。
次に、ステップS203において、学習部145は、操作推定部143の推定結果が正しいと判定部144が判定したか否かを判定する。
操作推定部143の推定結果が正しくないと判定部144が判定した場合(ステップS203でNO)には、処理がステップS211に進む。操作推定部143の推定結果が正しいと判定部144が判定した場合(ステップS203でYES)には、処理がステップS205に進む。
図10に示すように、ステップS201において、学習部145は、学習データセット147aを、複数の入力用画像MNに含まれる入力用画像MA毎に分類して、学習データ記憶部147に記憶する。学習データセット147aは、筋電センサー200の検出値と、1つの入力用画像MAと、判定部144の判定結果とを含む。
すなわち、学習データ記憶部147において、学習データセット147aは、入力用画像MA毎に分類されて記憶される。
次に、ステップS203において、学習部145は、操作推定部143の推定結果が正しいと判定部144が判定したか否かを判定する。
操作推定部143の推定結果が正しくないと判定部144が判定した場合(ステップS203でNO)には、処理がステップS211に進む。操作推定部143の推定結果が正しいと判定部144が判定した場合(ステップS203でYES)には、処理がステップS205に進む。
そして、ステップS205において、学習部145は、筋電センサー200の検出値から第1特徴量を抽出する。第1特徴量は、操作推定部143の推定結果が正しいと判定部144が判定した場合における筋電センサー200の検出値の特徴を示す。
例えば、第1特徴量は、筋電センサー200の検出値の周波数、及び振幅のいずれかを含む。具体的には、第1特徴量は、筋電センサー200の検出値における周波数の最大値、周波数の平均値、周波数の最小値、振幅の最大値、振幅の平均値、及び振幅の最小値の少なくとも1つを含む。
また、第1特徴量が、例えば、筋電センサー200の検出値の経時的な変化の特徴を示してもよい。
次に、ステップS207において、学習部145は、ステップS205で抽出した第1特徴量を学習データ記憶部147に記憶する。具体的には、学習部145は、図9のステップS113において操作推定部143が推定した操作によって選択された1つの入力用画像MAに対応付けて、第1特徴量を学習データ記憶部147に記憶する。
次に、ステップS209において、学習部145は、第1特徴量を集計し、処理がステップS217に進む。
具体的には、学習データ記憶部147において、1つの入力用画像MAに対応付けて記憶された複数の第1特徴量を集計する。例えば、学習部145は、第1特徴量の平均値、標準偏差、最大値、及び最小値の少なくとも1つを算出する。
例えば、第1特徴量は、筋電センサー200の検出値の周波数、及び振幅のいずれかを含む。具体的には、第1特徴量は、筋電センサー200の検出値における周波数の最大値、周波数の平均値、周波数の最小値、振幅の最大値、振幅の平均値、及び振幅の最小値の少なくとも1つを含む。
また、第1特徴量が、例えば、筋電センサー200の検出値の経時的な変化の特徴を示してもよい。
次に、ステップS207において、学習部145は、ステップS205で抽出した第1特徴量を学習データ記憶部147に記憶する。具体的には、学習部145は、図9のステップS113において操作推定部143が推定した操作によって選択された1つの入力用画像MAに対応付けて、第1特徴量を学習データ記憶部147に記憶する。
次に、ステップS209において、学習部145は、第1特徴量を集計し、処理がステップS217に進む。
具体的には、学習データ記憶部147において、1つの入力用画像MAに対応付けて記憶された複数の第1特徴量を集計する。例えば、学習部145は、第1特徴量の平均値、標準偏差、最大値、及び最小値の少なくとも1つを算出する。
ステップS203でNOの場合には、ステップS211において、学習部145は、筋電センサー200の検出値から第2特徴量を抽出する。第2特徴量は、操作推定部143の推定結果が正しくないと判定部144が判定した場合における筋電センサー200の検出値の特徴を示す。
例えば、第2特徴量は、筋電センサー200の検出値の周波数、及び振幅のいずれかを含む。具体的には、第2特徴量は、筋電センサー200の検出値における周波数の最大値、周波数の平均値、周波数の最小値、振幅の最大値、振幅の平均値、及び振幅の最小値の少なくとも1つを含む。
また、第2特徴量が、例えば、筋電センサー200の検出値の経時的な変化の特徴を示してもよい。
次に、ステップS213において、学習部145は、ステップS211で抽出した第2特徴量を学習データ記憶部147に記憶する。具体的には、学習部145は、図9のステップS113において操作推定部143が推定した操作によって選択された1つの入力用画像MAに対応付けて、第2特徴量を学習データ記憶部147に記憶する。
次に、ステップS215において、学習部145は、第2特徴量を集計し、処理がステップS217に進む。
具体的には、学習データ記憶部147において、1つの入力用画像MAに対応付けて記憶された複数の第2特徴量を集計する。例えば、学習部145は、第2特徴量の平均値、標準偏差、最大値、及び最小値の少なくとも1つを算出する。
例えば、第2特徴量は、筋電センサー200の検出値の周波数、及び振幅のいずれかを含む。具体的には、第2特徴量は、筋電センサー200の検出値における周波数の最大値、周波数の平均値、周波数の最小値、振幅の最大値、振幅の平均値、及び振幅の最小値の少なくとも1つを含む。
また、第2特徴量が、例えば、筋電センサー200の検出値の経時的な変化の特徴を示してもよい。
次に、ステップS213において、学習部145は、ステップS211で抽出した第2特徴量を学習データ記憶部147に記憶する。具体的には、学習部145は、図9のステップS113において操作推定部143が推定した操作によって選択された1つの入力用画像MAに対応付けて、第2特徴量を学習データ記憶部147に記憶する。
次に、ステップS215において、学習部145は、第2特徴量を集計し、処理がステップS217に進む。
具体的には、学習データ記憶部147において、1つの入力用画像MAに対応付けて記憶された複数の第2特徴量を集計する。例えば、学習部145は、第2特徴量の平均値、標準偏差、最大値、及び最小値の少なくとも1つを算出する。
そして、ステップS217において、学習部145は、筋電センサー200の検出値が複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を示すか否かの判定基準を生成し、処理が終了する。
例えば、第1特徴量の最小値が第2特徴量の最大値より大きい場合には、学習部145は、特徴量の値が第1特徴量の最小値以上であることを示す判定基準を生成する。
また、例えば、第1特徴量の最大値が第2特徴量の最小値より小さい場合には、学習部145は、特徴量の値が第1特徴量の最大値以下であることを示す判定基準を生成する。
例えば、第1特徴量の最小値が第2特徴量の最大値より大きい場合には、学習部145は、特徴量の値が第1特徴量の最小値以上であることを示す判定基準を生成する。
また、例えば、第1特徴量の最大値が第2特徴量の最小値より小さい場合には、学習部145は、特徴量の値が第1特徴量の最大値以下であることを示す判定基準を生成する。
図11は、学習処理後の制御部141の処理を示すフローチャートである。
図11に示すステップS301〜ステップS311の各々は、図8に示すステップS101〜ステップS111の各々と同一の処理であるため、その説明を省略する。
ステップS313において、学習部145は、筋電センサー200の検出値から特徴量を抽出する。特徴量は、第1特徴量及び第2特徴量に対応する。
次に、ステップS315において、操作推定部143は、筋電センサー200の検出値と、判定基準とに基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。その後、処理がステップS317に進む。
具体的には、操作推定部143は、ステップS313で抽出された特徴量と、判定基準とに基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
図11に示すステップS317〜ステップS319の各々は、図8に示すステップS115〜ステップS117の各々と同一の処理であるため、その説明を省略する。
図11に示すステップS301〜ステップS311の各々は、図8に示すステップS101〜ステップS111の各々と同一の処理であるため、その説明を省略する。
ステップS313において、学習部145は、筋電センサー200の検出値から特徴量を抽出する。特徴量は、第1特徴量及び第2特徴量に対応する。
次に、ステップS315において、操作推定部143は、筋電センサー200の検出値と、判定基準とに基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。その後、処理がステップS317に進む。
具体的には、操作推定部143は、ステップS313で抽出された特徴量と、判定基準とに基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
図11に示すステップS317〜ステップS319の各々は、図8に示すステップS115〜ステップS117の各々と同一の処理であるため、その説明を省略する。
図12は、入力用画像MNの他の形態を示す図である。図12には、図7と同様に、視野領域AR1と画像領域AR2とが示されている。
画像領域AR2には、ユーザーの右手HPが含まれる。また、ユーザーの右手HPの手首の位置PS1には、筋電センサー200が装着されている。
画像領域AR2には、ユーザーの右手HPが含まれる。また、ユーザーの右手HPの手首の位置PS1には、筋電センサー200が装着されている。
図8を参照して説明したように、HMD100が数字の入力を受け付けるのに対して、図12では、HMD100がアルファベット等の入力を受け付ける点で相違している。
複数の入力用画像MNの各々は、互いに相違する文字を示す。例えば、複数の入力用画像MNの各々は、「A」〜「Z」のアルファベットと、「@」マークと、バックスペースコマンドと、戻るコマンドと、文字種変更コマンドと、エンターコマンドとを含む。
バックスペースコマンドは、入力した文字を1文字削除する旨のコマンドを示す。戻るコマンドは、直前に行われた1つの操作を取り消す旨のコマンドを示す。文字種変更コマンドは、入力する文字の種類を変更する旨のコマンドを示す。エンターコマンドは、入力された操作を確定する旨のコマンドを示す。
複数の入力用画像MNは、ユーザーの右手HPの指において関節で区切られた領域に対応付けられる。
更に具体的には、複数の入力用画像MNは、ユーザーの右手HPの親指FP1を除く各指において関節で区切られた領域に対応付けられる。
複数の入力用画像MNの各々は、互いに相違する文字を示す。例えば、複数の入力用画像MNの各々は、「A」〜「Z」のアルファベットと、「@」マークと、バックスペースコマンドと、戻るコマンドと、文字種変更コマンドと、エンターコマンドとを含む。
バックスペースコマンドは、入力した文字を1文字削除する旨のコマンドを示す。戻るコマンドは、直前に行われた1つの操作を取り消す旨のコマンドを示す。文字種変更コマンドは、入力する文字の種類を変更する旨のコマンドを示す。エンターコマンドは、入力された操作を確定する旨のコマンドを示す。
複数の入力用画像MNは、ユーザーの右手HPの指において関節で区切られた領域に対応付けられる。
更に具体的には、複数の入力用画像MNは、ユーザーの右手HPの親指FP1を除く各指において関節で区切られた領域に対応付けられる。
ユーザーの右手HPは、親指FP1、人差し指FP2、中指FP3、薬指FP4、及び小指FP5を含む。
人差し指FP2は、第1関節FP21と、第2関節FP22と、第3関節FP23とを含む。中指FP3は、第1関節FP31と、第2関節FP32と、第3関節FP33とを含む。薬指FP4は、第1関節FP41と、第2関節FP42と、第3関節FP43とを含む。小指FP5は、第1関節FP51と、第2関節FP52と、第3関節FP53とを含む。これらの関節に対応する参照符号は、図示を省略している。
人差し指FP2は、第1関節FP21と、第2関節FP22と、第3関節FP23とを含む。中指FP3は、第1関節FP31と、第2関節FP32と、第3関節FP33とを含む。薬指FP4は、第1関節FP41と、第2関節FP42と、第3関節FP43とを含む。小指FP5は、第1関節FP51と、第2関節FP52と、第3関節FP53とを含む。これらの関節に対応する参照符号は、図示を省略している。
複数の入力用画像MNに含まれる2つ以上の所定個数の入力用画像は、ユーザーの右手HPの親指を除く各指において関節で区切られた領域に対応付けられる。
例えば、人差し指FP2において、第1関節FP21の先端側の領域には、3つの入力用画像L21が表示される。3つの入力用画像L21は、「D」のアルファベットと、「E」のアルファベットと、「F」のアルファベットとを示す。この場合には、所定個数は「3個」である。
また、例えば、人差し指FP2において、第1関節FP21と第2関節FP22との間の領域には、3つの入力用画像L22が表示される。3つの入力用画像L22は、「M」のアルファベットと、「N」のアルファベットと、「O」のアルファベットとを示す。この場合には、所定個数は「3個」である。
また、例えば、人差し指FP2において、第2関節FP22と第3関節FP23との間の領域には、4つの入力用画像L23が表示される。4つの入力用画像L23は、「W」のアルファベットと、「X」のアルファベットと、「Y」のアルファベットと、「Z」のアルファベットとを示す。この場合には、所定個数は「4個」である。
例えば、人差し指FP2において、第1関節FP21の先端側の領域には、3つの入力用画像L21が表示される。3つの入力用画像L21は、「D」のアルファベットと、「E」のアルファベットと、「F」のアルファベットとを示す。この場合には、所定個数は「3個」である。
また、例えば、人差し指FP2において、第1関節FP21と第2関節FP22との間の領域には、3つの入力用画像L22が表示される。3つの入力用画像L22は、「M」のアルファベットと、「N」のアルファベットと、「O」のアルファベットとを示す。この場合には、所定個数は「3個」である。
また、例えば、人差し指FP2において、第2関節FP22と第3関節FP23との間の領域には、4つの入力用画像L23が表示される。4つの入力用画像L23は、「W」のアルファベットと、「X」のアルファベットと、「Y」のアルファベットと、「Z」のアルファベットとを示す。この場合には、所定個数は「4個」である。
操作推定部143は、筋電センサー200の検出値に基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
具体的には、操作推定部143は、筋電センサー200の検出値に基づいて、関節で区切られた領域を選択する操作と、領域に対応付けられた所定個数の入力用画像MBから1つの入力用画像MAを選択する操作とを推定する。
まず、関節で区切られた領域を選択する操作は、ユーザーの右手HPの親指FP1を、人差し指FP2、中指FP3、薬指FP4、及び小指FP5の各々における関節で区切られた領域に押圧する操作である。関節で区切られた領域を選択する操作によって、複数の入力用画像MNの中から所定個数の入力用画像MBが選択される。
次に、領域に対応付けられた所定個数の入力用画像MBから1つの入力用画像MAを選択する操作は、ユーザーの右手HPの親指FP1を所定方向に移動する操作である。
具体的には、操作推定部143は、筋電センサー200の検出値に基づいて、関節で区切られた領域を選択する操作と、領域に対応付けられた所定個数の入力用画像MBから1つの入力用画像MAを選択する操作とを推定する。
まず、関節で区切られた領域を選択する操作は、ユーザーの右手HPの親指FP1を、人差し指FP2、中指FP3、薬指FP4、及び小指FP5の各々における関節で区切られた領域に押圧する操作である。関節で区切られた領域を選択する操作によって、複数の入力用画像MNの中から所定個数の入力用画像MBが選択される。
次に、領域に対応付けられた所定個数の入力用画像MBから1つの入力用画像MAを選択する操作は、ユーザーの右手HPの親指FP1を所定方向に移動する操作である。
更に、具体的には、例えば、人差し指FP2において、第2関節FP22と第3関節FP23との間の領域が選択されている場合には、以下のようにして1つの入力用画像MAが選択される。
すなわち、「W」のアルファベットを選択する場合には、ユーザーは、右手HPの親指FP1を、人差し指FP2の先端に向かう方向(上方向)に移動する操作を行う。「X」のアルファベットを選択する場合には、ユーザーは、右手HPの親指FP1を、中指FP3から離間する方向(右方向)に移動する操作を行う。「Y」のアルファベットを選択する場合には、ユーザーは、右手HPの親指FP1を、人差し指FP2の基端に向かう方向(下方向)に移動する操作を行う。「Z」のアルファベットを選択する場合には、ユーザーは、右手HPの親指FP1を、中指FP3に向かう方向(左方向)に移動する操作を行う。
すなわち、「W」のアルファベットを選択する場合には、ユーザーは、右手HPの親指FP1を、人差し指FP2の先端に向かう方向(上方向)に移動する操作を行う。「X」のアルファベットを選択する場合には、ユーザーは、右手HPの親指FP1を、中指FP3から離間する方向(右方向)に移動する操作を行う。「Y」のアルファベットを選択する場合には、ユーザーは、右手HPの親指FP1を、人差し指FP2の基端に向かう方向(下方向)に移動する操作を行う。「Z」のアルファベットを選択する場合には、ユーザーは、右手HPの親指FP1を、中指FP3に向かう方向(左方向)に移動する操作を行う。
このようにして、操作推定部143が、筋電センサー200の検出値に基づいて、関節で区切られた領域を選択する操作と、領域に対応付けられた所定個数の入力用画像MBから1つの入力用画像MAを選択する操作とを推定する。したがって、ユーザーは、アルファベットを入力することができる。
以上、図1〜図12を参照して説明したように、本実施形態では、操作推定部143は、動きセンサーの一例である筋電センサー200の検出値に基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。判定部144は、操作推定部143の推定結果を判定する。学習部145は、学習データセット147aに基づいて、筋電センサー200の検出値から1つの入力用画像MAを特定するための条件を機械学習する。1つの入力用画像MAを特定するための条件は、例えば、1つの入力用画像MAを特定するための筋電センサー200の検出値の特徴量の判定基準を示す。学習データセット147aは、筋電センサー200の検出値と、1つの入力用画像MAと、判定部144の判定結果との組み合わせを含む。
よって、筋電センサー200の検出値から1つの入力用画像MAを特定するための条件を機械学習するため、操作推定部143が1つの入力用画像MAを選択する操作を推定する精度を向上できる。したがって、HMD100の操作性を向上できる。
よって、筋電センサー200の検出値から1つの入力用画像MAを特定するための条件を機械学習するため、操作推定部143が1つの入力用画像MAを選択する操作を推定する精度を向上できる。したがって、HMD100の操作性を向上できる。
また、カメラ61を備え、判定部144は、操作推定部143の推定結果の正否を、カメラ61による画像に基づいて判定する。
よって、カメラ61が、ユーザーの右手HPの画像を生成できる。したがって、判定部144は、ユーザーの右手HPの動きによる操作が1つの入力用画像MAを選択する操作であるか否かを正確に判定できる。
よって、カメラ61が、ユーザーの右手HPの画像を生成できる。したがって、判定部144は、ユーザーの右手HPの動きによる操作が1つの入力用画像MAを選択する操作であるか否かを正確に判定できる。
また、複数の入力用画像MNの各々は、互いに相違する文字を示す。操作推定部143は、筋電センサー200の検出値に基づいて、入力する文字を推定する。
よって、ユーザーは、文字を入力する操作を容易に実行できる。したがって、HMD100の操作性を更に向上できる。
よって、ユーザーは、文字を入力する操作を容易に実行できる。したがって、HMD100の操作性を更に向上できる。
複数の入力用画像MNの各々は、ユーザーの右手HPの親指FP1を除く各指において関節で区切られた領域に対応付けられる。1つの入力用画像MAを選択する操作は、ユーザーの右手HPの親指FP1を関節で区切られた領域に押圧する操作である。
よって、筋電センサー200は、1つの入力用画像MAを選択する操作を正確に検出できる。また、ユーザーは、右手HPだけを用いて、1つの入力用画像MAを選択する操作を実行できる。したがって、HMD100の操作性を更に向上できる。
よって、筋電センサー200は、1つの入力用画像MAを選択する操作を正確に検出できる。また、ユーザーは、右手HPだけを用いて、1つの入力用画像MAを選択する操作を実行できる。したがって、HMD100の操作性を更に向上できる。
複数の入力用画像MNに含まれる2つ以上の所定個数の入力用画像MBは、ユーザーの右手HPの親指FP1を除く各指において関節で区切られた領域に対応付けられている。領域を選択する操作は、ユーザーの右手HPの親指FP1を関節で区切られた領域に押圧する操作である。領域に対応付けられた所定個数の入力用画像MBから1つの入力用画像MAを選択する操作は、ユーザーの右手HPの親指FP1を所定方向に移動する操作である。
よって、筋電センサー200は、1つの入力用画像MAを選択する操作を正確に検出できる。また、ユーザーは、右手HPだけを用いて、アルファベットのような多数の入力用画像MNから1つの入力用画像MAを選択する操作を実行できる。したがって、HMD100の操作性を更に向上できる。
よって、筋電センサー200は、1つの入力用画像MAを選択する操作を正確に検出できる。また、ユーザーは、右手HPだけを用いて、アルファベットのような多数の入力用画像MNから1つの入力用画像MAを選択する操作を実行できる。したがって、HMD100の操作性を更に向上できる。
また、表示制御部142は、ユーザーの右手HPの位置をガイドする第1ガイド画像GL1を画像表示部20に表示させる。
よって、例えば、筋電センサー200の位置をガイドする第2ガイド画像GL2を画像表示部20に表示させることによって、ユーザーに筋電センサー200を適正な位置に装着させることができる。したがって、1つの入力用画像MAを選択する操作を更に正確に検出できる。その結果、HMD100の操作性を更に向上できる。
よって、例えば、筋電センサー200の位置をガイドする第2ガイド画像GL2を画像表示部20に表示させることによって、ユーザーに筋電センサー200を適正な位置に装着させることができる。したがって、1つの入力用画像MAを選択する操作を更に正確に検出できる。その結果、HMD100の操作性を更に向上できる。
また、表示制御部142は、画像表示部20を透過して視認されるユーザーの手の位置を追跡し、ユーザーの手の移動に応じて、複数の入力用画像MNの各々の表示位置を調整する。
よって、ユーザーの手が移動した場合にも、複数の入力用画像MNの各々を適正な位置に表示できる。したがって、HMD100の操作性を更に向上できる。
よって、ユーザーの手が移動した場合にも、複数の入力用画像MNの各々を適正な位置に表示できる。したがって、HMD100の操作性を更に向上できる。
また、動きセンサーは、ユーザーの手首に装着される筋電センサー200を含む。
したがって、簡素な構成で、1つの入力用画像MAを選択する操作を検出できる。
したがって、簡素な構成で、1つの入力用画像MAを選択する操作を検出できる。
なお、本実施形態では、表示制御部142が、ユーザーの右手HPと重なる位置に入力用の画像Mを表示するが、これに限定されない。表示制御部142が、ユーザーの手と重なる位置に複数の入力用画像MNを表示すればよい。例えば、表示制御部142が、ユーザーの左手と重なる位置に複数の入力用画像MNを表示してもよい。また、例えば、表示制御部142が、ユーザーの両手と重なる位置に複数の入力用画像MNを表示してもよい。この場合には、ユーザーの右手HPと重なる位置に入力用画像MNを表示する場合と比較して、多数の入力用画像MNを表示できる。
また、本実施形態では、複数の入力用画像MNの各々が数字を示す場合について説明したが、これに限定されない。複数の入力用画像MNの各々が記号を示せばよい。ここで、「記号」とは、文字、数学記号、及び図形記号等を含む。文字は、アルファベット、平仮名、及びカタカナを含む。例えば、複数の入力用画像MNの各々がアルファベットのうちの1文字を示してもよい。この場合には、文章の入力が可能になる。
また、本実施形態では、動きセンサーが、ユーザーの右手HPの手首に装着される筋電センサー200である場合について説明したが、これに限定されない。動きセンサーが、ユーザーの右手HPの指に装着されるジャイロセンサーでもよい。右手HPの指は、例えば、親指FP1である。また、動きセンサーが、手首に装着される筋電センサー200と、ユーザーの指に装着されるジャイロセンサーとを含んでもよい。
また、例えば、指に装着されるセンサーが、3軸の加速度センサーでもよいし、6軸センサーでもよい。6軸センサーは、3軸加速度センサー、及び、3軸ジャイロセンサーを備えるモーションセンサーである。6軸センサーは、上記のセンサーがモジュール化されたIMUを採用してもよい。
また、例えば、親指FP1以外の指にも、ジャイロセンサーが装着されてもよい。具体的には、右手HPの人差し指FP2、中指FP3、薬指FP4、及び小指FP5にも、ジャイロセンサーが装着されてもよい。
また、例えば、指に装着されるセンサーが、3軸の加速度センサーでもよいし、6軸センサーでもよい。6軸センサーは、3軸加速度センサー、及び、3軸ジャイロセンサーを備えるモーションセンサーである。6軸センサーは、上記のセンサーがモジュール化されたIMUを採用してもよい。
また、例えば、親指FP1以外の指にも、ジャイロセンサーが装着されてもよい。具体的には、右手HPの人差し指FP2、中指FP3、薬指FP4、及び小指FP5にも、ジャイロセンサーが装着されてもよい。
また、本実施形態では、判定部144が、操作推定部143の推定結果の正否を判定するが、これに限定されない。判定部144が、操作推定部143の推定結果を判定すればよい。例えば、判定部144が、操作推定部143の推定結果が正しくない場合に、操作推定部143の推定結果が正しくない程度を判定してもよい。例えば、操作推定部143が1つの入力用画像MAを選択する操作を推定し、判定部144が入力用画像MAと相違する1つの入力用画像MBを選択する操作が行われたと判定した場合に、判定部144が以下の処理を実行してもよい。すなわち、判定部144は、入力用画像MAと入力用画像MBとの間の距離に基づいて、推定部143の推定結果が正しくない程度を判定してもよい。
また、本実施形態では、1つの入力用画像MAを特定するための条件が、1つの入力用画像MAを特定するための筋電センサー200の検出値の特徴量の判定基準を示すが、これに限定されない。1つの入力用画像MAを特定するための条件が、1つの入力用画像MAを特定するための筋電センサー200の検出値に関する条件であればよい。
例えば、1つの入力用画像MAを特定するための条件が、1つの入力用画像MAを特定するための筋電センサー200の検出値の特徴量の範囲でもよい。なお、筋電センサー200の検出値の特徴量は、筋電センサー200の検出値の周波数、及び振幅のいずれかを含む。具体的には、特徴量は、筋電センサー200の検出値における周波数の最大値、周波数の平均値、周波数の最小値、振幅の最大値、振幅の平均値、及び振幅の最小値の少なくとも1つを含む。
例えば、1つの入力用画像MAを特定するための条件が、1つの入力用画像MAを特定するための筋電センサー200の検出値の特徴量の範囲でもよい。なお、筋電センサー200の検出値の特徴量は、筋電センサー200の検出値の周波数、及び振幅のいずれかを含む。具体的には、特徴量は、筋電センサー200の検出値における周波数の最大値、周波数の平均値、周波数の最小値、振幅の最大値、振幅の平均値、及び振幅の最小値の少なくとも1つを含む。
なお、本実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
例えば、本実施形態では、制御装置10が画像表示部20と有線接続される構成を例示したが、これに限定されず、制御装置10に対して画像表示部20が無線接続される構成であってもよい。この場合の無線通信方式は通信部117が対応する通信方式として例示した方式を採用してもよいし、その他の通信方式であってもよい。
例えば、本実施形態では、制御装置10が画像表示部20と有線接続される構成を例示したが、これに限定されず、制御装置10に対して画像表示部20が無線接続される構成であってもよい。この場合の無線通信方式は通信部117が対応する通信方式として例示した方式を採用してもよいし、その他の通信方式であってもよい。
また、制御装置10が備える一部の機能を画像表示部20に設けてもよく、制御装置10を複数の装置により実現してもよい。例えば、制御装置10に代えて、ユーザーの身体、着衣、或いは、ユーザーが身につける装身具に取り付け可能なウェアラブルデバイスを用いてもよい。この場合のウェアラブルデバイスは、例えば、時計型の装置、指輪型の装置、レーザーポインター、マウス、エアーマウス、ゲームコントローラー、ペン型のデバイス等であってもよい。
さらに、本実施形態では、画像表示部20と制御装置10とが分離され、接続ケーブル40を介して接続された構成を例に挙げて説明した。これに限定されず、制御装置10と画像表示部20とが一体に構成され、ユーザーの頭部に装着される構成とすることも可能である。
また、本実施形態において、ユーザーが表示部を透過して外景を視認する構成は、右導光板26及び左導光板28が外光を透過する構成に限定されない。例えば外景を視認できない状態で画像を表示する表示装置にも適用可能である。具体的には、カメラ61の撮像画像、この撮像画像に基づき生成される画像やCG、予め記憶された映像データや外部から入力される映像データに基づく映像等を表示する表示装置に、適用できる。この種の表示装置としては、外景を視認できない、いわゆるクローズ型の表示装置を含むことができる。例えば、カメラ61により撮像する外景の画像と、表示画像とを合成した合成画像を画像表示部20により表示する構成とすれば、画像表示部20が外光を透過しなくても、ユーザーに外景と画像とを視認可能に表示できる。このような、いわゆるビデオシースルー型の表示装置に適用することも勿論可能である。
また、例えば、画像表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、ユーザーの左眼LEに対応して画像を表示する表示部と、ユーザーの右眼REに対応して画像を表示する表示部とを備えていればよい。また、表示装置は、例えば、自動車や飛行機等の車両に搭載されるHMDとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたHMDとして構成されてもよい。この場合、ユーザーの身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。
また、画像光をユーザーの眼に導く光学系として、右導光板26及び左導光板28の一部に、ハーフミラー261、281により虚像が形成される構成を例示した。これに限定されず、右導光板26及び左導光板28の全面または大部分を占める面積を有する表示領域に、画像を表示する構成としてもよい。この場合、画像の表示位置を変化させる動作において、画像を縮小する処理を含めてもよい。
さらに、光学素子は、ハーフミラー261、281を有する右導光板26、左導光板28に限定されず、画像光をユーザーの眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
さらに、光学素子は、ハーフミラー261、281を有する右導光板26、左導光板28に限定されず、画像光をユーザーの眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
また、図5、図6等に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部141が実行するプログラムは、不揮発性記憶部121または制御装置10内の他の図示しない記憶装置に記憶されてもよい。また、外部の装置に記憶されたプログラムを通信部117や外部コネクター184を介して取得して実行する構成としてもよい。また、制御装置10に形成された構成のうち、操作部110がユーザーインターフェイス(UI)として形成されてもよい。また、制御装置10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、メインプロセッサー140と同様のプロセッサーが画像表示部20に配置されてもよいし、制御装置10が備えるメインプロセッサー140と画像表示部20のプロセッサーとが別々に分けられた機能を実行する構成としてもよい。
10…制御装置、20…画像表示部(表示部)、21…右保持部、22…右表示ユニット、23…左保持部、24…左表示ユニット、26…右導光板、27…前部フレーム、28…左導光板、30…ヘッドセット、32…右イヤホン、34…左イヤホン、40…接続ケーブル、61…カメラ(撮像部)、63…マイク(音声入力部の一部)、100…HMD(表示装置)、110…操作部、117…通信部、118…メモリー、120…コントローラー基板、121…不揮発性記憶部、130…電源部、140…メインプロセッサー、141…制御部、142…表示制御部、143…操作推定部、144…判定部、145…学習部、146…信号記憶部、147…学習データ記憶部、147a…学習データセット、148…画像記憶部、180…音声コーデック(音声入力部の一部)、182…音声インターフェイス(音声入力部の一部)、200…筋電センサー(動きセンサー)、AR1…視野領域、AR2…画像領域、FP1…親指、FP11…第1関節、FP12…第2関節、FP2…人差し指、FP21…第1関節、FP22…第2関節、FP23…第3関節、FP3…中指、FP31…第1関節、FP32…第2関節、FP33…第3関節、FP4…薬指、FP41…第1関節、FP42…第2関節、FP43…第3関節、FP5…小指、FP51…第1関節、FP52…第2関節、FP53…第3関節、GL…ガイド画像、GL1…第1ガイド画像、GL2…第2ガイド画像、HP…右手、MA…入力用画像、MN…入力用画像。
Claims (10)
- 光を透過する透過型の表示部であって、ユーザーの頭部に装着される表示部と、
前記表示部を透過して視認される前記ユーザーの手に重なる位置に、複数の入力用画像を前記表示部に表示させる表示制御部と、
前記ユーザーの手の動きを検出する動きセンサーと、
前記動きセンサーの検出値に基づき、前記複数の入力用画像の中から1つの入力用画像を選択する操作を推定する操作推定部と、
前記操作推定部の推定結果を判定する判定部と、
前記動きセンサーの検出値と、前記1つの入力用画像と、前記判定部の判定結果との組み合わせを含む学習データセットに基づいて、前記動きセンサーの検出値から前記1つの入力用画像を特定するための条件を機械学習する学習部と、
を備える表示装置。 - 撮像部を備え、
前記判定部は、前記操作推定部の推定結果の正否を、前記撮像部による画像に基づいて判定する、
請求項1に記載の表示装置。 - 前記ユーザーからの音声の入力を受け付ける音声入力部を備え、
前記判定部は、前記操作推定部の推定結果の正否を、前記音声入力部に入力された音声に基づいて判定する、
請求項1又は2に記載の表示装置。 - 前記複数の入力用画像の各々は、互いに相違する文字を示し、
前記操作推定部は、前記動きセンサーの検出値に基づいて、入力する文字を推定する、
請求項1から3のいずれか1項に記載の表示装置。 - 前記複数の入力用画像の各々は、前記ユーザーの手の親指を除く各指において関節で区切られた領域に対応付けられ、
前記1つの入力用画像を選択する操作は、前記ユーザーの手の親指を前記関節で区切られた領域に押圧する操作である、
請求項1から4のいずれか1項に記載の表示装置。 - 前記複数の入力用画像に含まれる2つ以上の所定個数の入力用画像は、前記ユーザーの手の親指を除く各指において関節で区切られた領域に対応付けられ、
前記領域を選択する操作は、前記ユーザーの手の親指を前記関節で区切られた領域に押圧する操作であり、
前記領域に対応付けられた前記所定個数の入力用画像から前記1つの入力用画像を選択する操作は、前記ユーザーの手の親指を所定方向に移動する操作である、
請求項1から4のいずれか1項に記載の表示装置。 - 前記表示制御部は、前記ユーザーの手の位置をガイドする第1ガイド画像を前記表示部に表示させる、
請求項1から6のいずれか1項に記載の表示装置。 - 前記表示制御部は、前記表示部を透過して視認される前記ユーザーの手の位置を追跡し、前記ユーザーの手の移動に応じて、前記複数の入力用画像の各々の表示位置を調整する、
請求項1から7のいずれか1項に記載の表示装置。 - 前記動きセンサーは、前記ユーザーの手首に装着される筋電センサーを含む、
請求項1から8のいずれか1項に記載の表示装置。 - 光を透過する透過型の表示部であって、ユーザーの頭部に装着される表示部と、前記ユーザーの手の動きを検出する動きセンサーと、を備える表示装置の制御方法であって、
前記表示部を透過して視認される前記ユーザーの手に重なる位置に、複数の入力用画像を前記表示部に表示させる表示制御ステップと、
前記動きセンサーの検出値に基づき、前記複数の入力用画像の中から1つの入力用画像を選択する操作を推定する操作推定ステップと、
前記操作推定ステップの推定結果を判定する判定ステップと、
前記動きセンサーの検出値と、前記1つの入力用画像と、前記判定ステップの判定結果との組み合わせを含む学習データセットに基づいて、前記動きセンサーの検出値から前記1つの入力用画像を特定するための条件を機械学習する学習ステップと、
を含む、表示装置の制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018203895A JP2020071588A (ja) | 2018-10-30 | 2018-10-30 | 表示装置、及び、表示装置の制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018203895A JP2020071588A (ja) | 2018-10-30 | 2018-10-30 | 表示装置、及び、表示装置の制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020071588A true JP2020071588A (ja) | 2020-05-07 |
Family
ID=70547861
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018203895A Pending JP2020071588A (ja) | 2018-10-30 | 2018-10-30 | 表示装置、及び、表示装置の制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020071588A (ja) |
-
2018
- 2018-10-30 JP JP2018203895A patent/JP2020071588A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10643390B2 (en) | Head mounted display, method for controlling head mounted display, and computer program | |
CN108508603B (zh) | 头部佩戴型显示装置及其控制方法、以及记录介质 | |
US11216083B2 (en) | Display system that switches into an operation acceptable mode according to movement detected | |
CN108535868B (zh) | 头部佩戴型显示装置及其控制方法 | |
US11668936B2 (en) | Head-mounted type display device and method of controlling head-mounted type display device | |
US10976836B2 (en) | Head-mounted display apparatus and method of controlling head-mounted display apparatus | |
US20190317608A1 (en) | Transmissive head-mounted display apparatus, display control method, and computer program | |
US20170289533A1 (en) | Head mounted display, control method thereof, and computer program | |
US10296105B2 (en) | Head-mounted display device, computer program, and control method for head-mounted display device | |
JP2018142857A (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
US20180214007A1 (en) | Endoscope operation support system | |
JP2019164420A (ja) | 透過型頭部装着型表示装置および透過型頭部装着型表示装置の制御方法、透過型頭部装着型表示装置の制御のためのコンピュータープログラム | |
US10884498B2 (en) | Display device and method for controlling display device | |
JP2018084886A (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム | |
JP6776578B2 (ja) | 入力装置、入力方法、コンピュータープログラム | |
JP2018206080A (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
JP2017146726A (ja) | 移動支援装置、及び、移動支援方法 | |
JP2018042004A (ja) | 表示装置、頭部装着型表示装置、及び、表示装置の制御方法 | |
JP2020135306A (ja) | 表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法 | |
JP6932917B2 (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
JP2020071588A (ja) | 表示装置、及び、表示装置の制御方法 | |
JP2017182460A (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム | |
JP2017134630A (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
JP6790769B2 (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
JP2020119391A (ja) | 情報処理装置、情報処理装置の制御方法、及び情報処理装置の制御プログラム |