以下、図面を参照して、実施の形態について説明する。
ウェアラブル端末は、頭部装着型(これにはメガネ型、ゴーグル型、ヘルメット型等が含まれるが、これらを総称してメガネ型と称する場合もある)、リストバンド型、ペンダント型等があるが、ここでは、メガネ型ウェアラブル端末の実施形態を説明する。メガネ型ウェアラブル端末には、透明なレンズを介して視線の先の風景が見えるタイプと、視界が遮られ、風景が見えないヘッドマウントディスプレイと称されるタイプがあるが、ここでは、一例として風景が見えるタイプを説明する。
図1はメガネ型ウェアラブル端末(以下、単にウェアラブル端末と称する)10の斜視図、図2(a)は正面図、図2(b)は上から見た断面構造を示す図である。
ウェアラブル端末10は通常のメガネとほぼ同じ形状であるが、一方、ここでは右眼側のテンプルの外側に投影装置12が取り付けられている。フレームにはガラス14、16が嵌め込まれている。左眼側のガラス14はユーザが景色を見ることができるように通常の透明ガラスである。右眼側のガラス16は、少なくとも一部がスクリーン16となっている。スクリーン16は、投影装置12が投影している画像をユーザが見ることができるようにするものである。スクリーン16は投影装置12が画像を投影しない時は透明であり、ユーザが右眼側のガラス(スクリーン)16を介して景色を見ることができる。
投影装置12は、電子部品として電源部22、制御部24を含む。電源部22はボタン型の電池、充電可能な電池、非接触給電可能な二次電池等を含むことができる。あるいは、電源は内蔵せず、外部電源から電源ラインを介して投影装置12に給電してもよい。制御部24は、後述するネットワークを介してサーバや他の電子機器との間で通信を行い、情報を送受信する。この通信は、有線又は無線のいずれであってもよい。無線の場合、使用環境に応じてBluetooth(登録商標)、ZigBee(登録商標)、UWB等の近距離無線通信、WiFi(登録商標)等の中距離無線通信、3G/4G、WiMAX(登録商標)等の遠距離無線通信のいずれを利用してもよい。
投影装置12は、さらに、光学部品として光源28、表示部30、プリズム32、レンズ群34等を含む。光源28は、互いに発光色が異なり、それぞれの出力光量を独立して変更可能な複数、例えば3個のLED(Light Emitting Diode)を含む調光型白色LED光源であってもよい。調光型白色LED光源によれば、ウェアラブル端末10の使用環境が、例えばオレンジ色が主体の照明が用いられることの多いクリーンルーム内、等である場合においても、使用環境に応じて発光色を変更することができ、鮮明な投影像が得られる。さらに、調光型白色LED光源によれば、ユーザが見易い表示色を出力することができ、ユーザが見辛い表示色を出力する場合に比較して、目の疲れや、それに伴う偏頭痛、等のユーザにとって支障となる要因の発生を避けることが可能である。
表示部30は、例えば反射型のLCD(Liquid Crystal Display)モジュールであり、制御部24による表示制御に基づいて、所定のテキスト、画像等(以下、表示部30が表示されるものを表示像と総称することもある)を表示する。光源28から出射される非平行光(発散性の光、以下発散光と称することもある)は、プリズム32のハーフミラー面32aで反射され、表示部30の表示像を照明する。表示部30の反射光は、表示像に対応した光(画像光と称する場合もある)としてハーフミラー面32aを透過して、出射面32cから出射され、レンズ群34を介して所定サイズの投影像としてスクリーン16に投影される。
スクリーン16は、手前側透明屈折体42、フレネルレンズ形ハーフミラー面44及び奥側透明屈折体46を有する。フレネルレンズ形ハーフミラー面44に到達した画像光の一部は、フレネルレンズ形ハーフミラー面44で反射され、表示部30の表示像に対応する虚像(投影像)を数メートル先に形成する。なお、スクリーン16は、ウェアラブル端末10を装着したユーザの視線の先の風景も一部透過することができ、スクリーン16には投影像とともにユーザが視認可能な風景が表示されるように構成してもよい。
光源28から出射され、ハーフミラー面32aを通過した画像光(発散光)の一部は、全反射面32bで全反射し、出射面32cで屈折して光源28からの発散光である漏れ光50となる。漏れ光50は、投影部12の正面に形成された開口又は隙間(誘導部)52を通ってスクリーン16とは異なる方向へ出射される。
ウェアラブル端末10は、投影装置12の所定の位置、たとえば底面部に、スピーカ54A、イヤホンジャック54B、マイクジャック56、スライド式スイッチ57及び回転式スイッチ58等を有する。マイクジャック56には、図示しないハンズフリーマイクが接続され、ユーザの音声が収集される。スライド式スイッチ57は、例えば投影装置12の投影像の輝度や色調等を調整可能である。回転式スイッチ58は、例えば投影像の投影角度等を調整可能である。スライド式スイッチ57及び回転式スイッチ58のように異なる動作により異なる調整量を設定可能とすることで、投影像を目視しながら、ユーザが、ブラインドタッチで、投影像を調整可能である。例えば、スライド式スイッチ57を操作することにより、ユーザの好みに合わった表示輝度や色調の投影像を提供できる。回転式スイッチ58を操作することにより、ユーザの頭部の形状やサイズに合わせて、最適な位置に画像を表示するように投影角度を調整できる。なお、スライド式スイッチ57と回転式スイッチ58による調整対象が逆であってもよいことはもちろんであるし、スライド式スイッチ57と回転式スイッチ58の位置が逆であってもよいし、両者を1つの操作部材の2種類の操作に割り当ててもよい。
これらのスイッチ57、58による選択は投影像のみを見ながら施行錯誤的に行ってもよいが、調整の効率を上げるために、メニュー画面を投影して、その画面内で項目を選択することにより調整してもよい。表示部30がメニュー画面を表示することにより、メニュー画面がスクリーン16に投影される。
さらに、メニュー項目の選択は、スイッチ57、58の操作によらず、タッチ操作によってもよい。このため、投影装置12の外側には、タッチパッド55も設けられる。表示部30がメニュー等を表示し、メニュー内の項目の表示位置に応じたタッチパッド55内の位置をタッチすることにより、簡単かつ効率よくユーザ操作を入力できる。
正面中央部の外側にはカメラ59が設けられ、ユーザの視線の先の画像(静止画、動画のいずれも可)を撮影可能である。なお、図示していないが、正面中央部の内側(カメラ59の配置位置と対応する位置)にユーザの顔に対向してカメラを設け、ユーザの眼球を撮影し、ユーザの虹彩を検出可能としてもよい。虹彩はユーザ認証に使うことができる。
ウェアラブル端末10からの漏れ光50を利用することで、ウェアラブル端末10の状態、すなわちユーザの状態を検出できる。図3、図4、図5を参照して、ウェアラブル端末の状態の検出原理を説明する。ここで、状態は位置と、位置の移動等を含む。
ウェアラブル端末の使用例の一例を図3に示す。例えば、工場の部品ヤード、通販会社の商品倉庫、小売業の配送部署等のワークエリア60内に任意数の作業スペース又は商品棚A01〜Axy(x,yはともに正の整数)、B01〜Bxy、C01〜Cxyが配置される。作業スペース又は商品棚は、例えば工場の作業テーブルや生産ライン内の製造装置又は学校の机や会議室の着席位置、等であってもよい。
ワークエリア60には少なくとも1つの光センサ62−1〜62−n(nは正の整数)が配置される。光センサ62−1〜62−nは、ウェアラブル端末10−1〜10−m(mは正の整数)の位置、個数、位置の変化(移動)及び向きの変化等を、図4、図5に示す検出方法により、個々に検出できる。ウェアラブル端末10−1〜10−mの位置、個数、移動及び向きの変化等を検出することにより。ウェアラブル端末10−1〜10−mを装着した任意数のユーザの位置、移動等の状態を認識できる。
ユーザは、ワークエリア60内を自在に移動できる。ユーザは、予め定められた作業を、予め定められた位置、例えばステーション(カート)、それに準じた収容器又は可動式のテーブル等である作業スペース64において実行する。なお、作業スペース64は、移動可能ではなく、固定された机やその着席位置等であってもよい。
図3、図4に示すように、検出システムは、1以上のウェアラブル端末10、1以上の光センサ62を含む。光センサ62は、漏れ光50を検出する機能と、検出結果をサーバ等に送信する通信機能を有する。この通信機能も、ウェアラブル端末10の通信機能と同じく、有線又は無線のいずれであってもよい。無線の場合、使用環境に応じてBluetooth(登録商標)、ZigBee(登録商標)、UWB等の近距離無線通信、WiFi(登録商標)等の中距離無線通信、3G/4G、WiMAX(登録商標)等の遠距離無線通信のいずれを利用してもよい。以下に説明する実施形態は通信機能を有する種々のユニット、モジュールを有するが、これらのユニット、モジュールの通信機能も、同様に、有線又は無線のいずれであってもよい。無線の場合、使用環境に応じてBluetooth(登録商標)、ZigBee(登録商標)、UWB等の近距離無線通信、WiFi(登録商標)等の中距離無線通信、3G/4G、WiMAX(登録商標)等の遠距離無線通信のいずれを利用してもよい。
光センサ62が受信した漏れ光50からウェアラブル端末10を特定できるように、ウェアラブル端末10は、端末の識別情報(Identification、以下端末IDと称する場合もある)を含む情報を用いて漏れ光50を間欠的に変調する。変調方式の典型的な一例は、発光量をゼロまで落とすチョッパー形変調方式があるが、ここでは、発光量が低い状態でも所定量以上の発光量を確保できる変調方式が採用される。これにより、ユーザの目に対する負担を軽減できる。変調方式として、例えばDSV(Digital Sum Value)フリーの変調方式(すなわち常に変調信号のDSVを計算し、適宜ビット反転コードを挿入可能にして直流成分をゼロとする変調方式)が採用されると、比較的ロングレンジでの発光量変化が抑えられ、巨視的に常に発光量変化がゼロにでき、ユーザの目への負担が一層軽減される。人間の目は、0.02秒程度の変化まで認識できるので、上記変調の基準周波数を10Hz以上、例えば20Hz以上、より好ましくは60Hz以上に設定することで、ユーザの目に対する負担を軽減する効果も生まれる。一方、光源28に使用されるLEDは、内部インピーダンスと接続容量を持つため、精度よい変調周波数は、100MHz未満、望ましくは10MHz以下が望ましい。従って、実施形態の検出システムにて用いる光源28の変調周波数は、10Hz〜100MHz、望ましくは10Hz〜10MHzの範囲が好ましい。
光源28からの発散光の漏れ光50を利用しているので、光センサ62が検出する光量がウェアラブル端末10と光センサ62との間の距離に応じて変化する。この現象を利用すると、ウェアラブル端末10と光センサ62との間の距離又は光センサ62に対するウェアラブル端末10の向きを求めることができる。光センサ62の位置(高さも含む)は固定であるので、光センサ62とウェアラブル端末10との距離が分かると、ウェアラブル端末10の位置(x,y,z)が検出できる。
さらに、光源28からの発散光の漏れ光50を利用しているので、漏れ光50を比較的広い範囲で検出できる。その結果、比較的少数の光センサ62−1〜62−nを設置するだけで、ワークエリア60内のウェアラブル端末10−1〜10−mの位置、ウェアラブル端末10と光センサ62との距離、ウェアラブル端末10−1〜10−mの向き、又は光センサ62に対するウェアラブル端末10の方位が検出できる。これにより、検出システムを設置するために必要となる設備費用を低減できる。
光センサ62が検出した漏れ光50の光量情報は、所定のタイミングで、光センサ62から後述するサーバへ送信される。サーバは、収集した光センサ62からの情報を解析する。これにより、任意のウェアラブル端末10−1〜10−mすなわちユーザの位置及び状態が検出できる。
図4は、実施形態に係るウェアラブル端末を認識するシステムの具体的な利用例を説明する概略図である。4個の光センサ62−1〜60−4の周囲にウェアラブル端末10−1〜10−3を装着した3人のユーザがいる状況を想定する。ウェアラブル端末10−1、10−2からの漏れ光50は、光センサ62−1〜60−4にて検出される。光センサ62−1〜60−4は、それぞれにおいて検出した漏れ光50の光量をA−D(Analog - Digital)変換し、光量に対応する光量情報として、所定のタイミングで、例えば近距離無線通信によりサーバへ送信する。
ユーザの移動に応じてウェアラブル端末10−1が光センサ62−1へ移動する一方、ユーザの任意の動作、例えば首振り(頭部の旋回)に応じてウェアラブル端末10−2の向きが一時的に変化したとする。この時の検出情報の変化を図5に示す。
図5では、ウェアラブル端末10−1〜10−3のそれぞれの漏れ光50の変調方式として、間欠的な時間変化方式を用いた例を示している。すなわち、ウェアラブル端末10−1〜10−3のそれぞれにおいて、ID変調期間がずれている。
図5(a)、(b)、(c)に示すように、1番目〜3番目のウェアラブル端末10−1〜10−3について、間欠的にウェアラブル端末のID変調期間が設定され、それ以外の期間は無変調期間である。各ID変調期間内では、同期信号SYNCとウェアラブル端末10−1〜10−3の端末IDが一つの組を構成し(1対1で対応し)、その組が複数回(図5に示すようにセンサが4個の場合、4の倍数回)、繰り返される。
1番目のウェアラブル端末10−1が無変調期間に入ると同時に、2番目のウェアラブル端末10−2のID変調期間が開始する。同様に2番目のウェアラブル端末10−2が無変調期間に入ると同時に、3番目のウェアラブル端末10−3のID変調期間が開始する。
2番目のウェアラブル端末10−2のID変調期間内と3番目のウェアラブル端末10−3のID変調期間内とにおいては、同期信号SYNCとウェアラブル端末10−2、10−3の端末IDが繰り返し変調される。このように、ウェアラブル端末10の端末IDを変調信号内に乗せることで、端末IDが検出可能である。
上記の例では、ウェアラブル端末10−1〜10−3のそれぞれの変調タイミングは、時分割(間欠化)されている。しかし、例えば全てのウェアラブル端末10−1〜10−3について、連続的に変調されるものとし、ウェアラブル端末10−1〜10−3のそれぞれの変調基準周波数が変化されてもよい。また、スペクトル拡散時のそれぞれの周波数スペクトル特性が変化されてもよい。
図5(d)、(e)、(f)、(g)が示すように、光センサ62−1〜62−4からの情報通信期間は、各ID変調期間において細かく分割されている。
図4に示すように、初期の時点では、ウェアラブル端末10−1からの漏れ光の一部が、光センサ62−4に到達する。そのため、初期の時点では、図5(k)に示すように、光センサ62−4がウェアラブル端末10−1からの漏れ光を検出する。しかし、ウェアラブル端末10−1が光センサ62−1へ向かって移動するにつれて、光センサ62−4が検出するウェアラブル端末10−1からの漏れ光の変調信号振幅が減少して行く。一方、図5(h)に示すように、光センサ62−1が検出するウェアラブル端末10−1からの漏れ光の変調信号振幅は、時間の経過と共に増加する。このように、光センサ62−1〜62−nが検出する変調信号振幅の時間変化を比較することで、検出対象であるウェアラブル端末10−1〜10−mの位置の時間変化(移動状態)が検出できる。
一方、初期の時点で、ウェアラブル端末10−2が光センサ62−3に向いているので、漏れ光から得られる変調信号振幅に関して、光センサ62−2での検出値より光センサ62−3での検出値の方が大きい。この後、例えば2番目のユーザが首を振り、一時的に光センサ62−2を向いたとする。すると、光センサ62−2が出力するウェアラブル端末10−2の検出出力は、図5(i)に示すように、一時的に増加した後、減少する。他方、光センサ62−3が出力するウェアラブル端末10−2の検出出力は、図5(j)に示すように、一時的に減少した後、増加する。
このように、光センサ62が検出する変調信号振幅の時間変化を比較することで、検出対象であるウェアラブル端末10−1〜10−mの向きの時間変化も推定できる。
上記の検出例は、ユーザの動きとして、移動や首振りである場合の例である。しかしそれに限らず、ユーザのさまざまな別の行動を利用してもよい。例えば、ユーザの手の移動や上体(身体)のひねり、等により漏れ光を一時的に遮光してもよい。この場合、全ての光センサ62−1〜60−4において、共通に、同一の時間帯に、変調信号振幅の一時的な減少が生じる。このように、全ての光センサ62−1〜60−4の変調信号振幅の変化の関連性を比較することで、ユーザの異なる行動パターンが識別可能である。
以上の方法を利用することにより、単なるユーザの行動を検出するだけでなく、ユーザの意思も認識することが可能である。
なお、ウェアラブル端末10の位置(x,y,z)を検出する方法として、ビーコンを用いてもよい。上述の例では、多数のウェアラブル端末10から端末識別情報が変調された光が多数の光センサ60に出射され、多数の光センサ60が受信した情報を比較処理して、ウェアラブル端末10の位置、状態を検出したが、多数の位置情報発信器をワークエリア60内に配置し、発信器から配置位置に応じたビーコンを、例えば数メートルの到達距離のRF−ID等の近距離無線通信により送信すれば、それを受信したウェアラブル端末10は発信器の位置とほぼ同じ位置であると見なすことができる。さらに、GPSを利用してウェアラブル端末の位置を検出することもできる。位置検出は、一種類の方法のみに基づく必要は無く、複数の方法を併用すると、検出精度を向上できる。
図6は、ウェアラブル端末を使用するシステム全体の一例を示す。システムは、1又は複数のLAN102と、1つの広域ネットワーク104からなる。広域ネットワーク104は工場、ビル、企業毎のネットワークでもよいし、インターネットでもよい。LAN102は、例えば、工場の建屋、部署、ビルのフロア、企業の営業所等の単位であってもよい。各LAN102は複数のウェアラブル端末10、ドローン202、複数の光センサ62、アクセスポイント112、複数の位置情報発信器113、複数のカメラ114等からなる。ウェアラブル端末10の数は作業者の数だけ用意しておく必要はなく、所定個数だけ用意しておき、必要な作業者が空いている共有ウェアラブル端末を装着すればよい。ドローン202も同様に1又は数個だけ用意しておき、必要な作業者が空いている共有ドローンを使用すればよい。ウェアラブル端末10、ドローン202、光センサ62、位置情報発信器113、カメラ114等は無線によりアクセスポイント112に接続される。LAN102は広域ネットワーク104を介してコミュニケーションサーバ106に接続される。位置情報発信器113は、位置に応じたビーコンを、例えば数メートルの到達距離のRF−ID等の近距離無線通信により送信する。カメラ114は、LAN102のエリア内を撮影するものであり、その画像を解析することにより、ユーザの行動を知ることができる。例えば、ユーザ毎の標準画像を記憶しておいて、ユーザがウェアラブル端末10を取り付ける際の画像又は取り外す際の画像と比較することにより、装着ユーザを特定できる。多数のカメラを配置できない場合は、撮影方向が可変で、一台で広範囲のユーザを撮影できるカメラ114を配置する。
ドローン202は遠隔操作される小型の飛行物体であるが、目的地がセットされると目的地まで自律的に飛行することもできる。通常、4つのプロペラを有するが、プロペラの個数は限定されない。ドローン202はカメラを搭載し、LAN102を介して撮影画像をウェアラブル端末10に送信し、さらにはネットワーク104を介して撮影画像をコミュニケーションサーバ106へ送信する。ドローン202は空中で静止したり、地上に着陸したりし、固定位置から撮影することもできる。例えば、図3に示すようなワークエリア60が1つのLAN102のエリアとなっている場合、ドローン202は、ワークエリア60内を自在に移動し、例えば製造装置A02の裏側を撮影することができ、撮影した画像を、他の場所、例えば製造装置A04の前に居るユーザのウェアラブル端末10−3に送信する。これにより、作業者は自分が実際に見ることができない風景をスクリーン16上で見ることができる。なお、ドローン202の個数は、作業者の個数だけ用意する必要はなく、必要な数でよい。
コミュニケーションサーバ106は情報検索部120、位置・情報管理部122、装着者推定部124、スケジュール管理部126、画像保管部128、撮影制御部130等を含む。
位置・状態管理部122は、ウェアラブル端末10や管理者端末202の位置及び状態に関する情報を収集し、管理する。また、情報検索部120からそれらの情報を抽出する。スケジュール管理部126は、端末を装着する従業員の予定情報・出退勤記録を管理・提供するための機能を持つ。予定情報は、従業員の作業予定(何時から何時までは何処エリアにいて○○作業に従事する予定等)と、出/退勤時刻、作業記録(何時から何時までは何処エリアにいて○○作業に従事した等)を含む。また、情報検索部120からそれらの情報を抽出する。情報検索部120は、位置・状態管理部122やスケジュール管理部126の持つ情報を検索・処理するための機能を持つ。装着者推定部124は、管理している従業員の既存の特徴量データと与えられたユーザの特徴量データとの相関をとることで、装着者が誰であるかを決定する。撮影制御部130は、ドローン202の飛行目的地、撮影方向、撮影ズームレンズの倍率等を設定し、ドローン202の動きを制御する。画像保管部128は、ドローン202で撮影した画像又はウェアラブル端末10のカメラで撮影した画像を撮影日時、撮影機器のID、撮影位置、撮影方向、その他の撮影条件(ユーザID、作業エリア名、ユーザが操作している装置名、ズーム倍率等)等とともに保管することができる。実施の形態によっては、これらの情報の一部を保管するだけの場合もある。
図7は、ウェアラブル端末10の電気的な構成の一例を示す。ウェアラブル端末10は、CPU140、システムコントローラ142、メインメモリ144、ストレージデバイス146、マイク148、スピーカ54、画像処理部150(光源28、表示部30を制御する)、カメラ59、無線通信デバイス152、モーションセンサ154、視線検出センサ156、ジェスチャセンサ158、タッチパッド55、バイブレータ68、位置情報受信器159、GPSモジュール155等を備える。
CPU140は、ウェアラブル端末10内の各種モジュールの動作を制御するプロセッサであり、SSD又はフラッシュアレイ等の不揮発性の半導体メモリからなるストレージデバイス146からメインメモリ144にロードされるコンピュータプログラムを実行する。これらプログラムには、オペレーティングシステム(OS)、および各種アプリケーションプログラムが含まれている。CPU140は、各種アプリケーションプログラムを実行し、無線通信デバイス152を使ってネットワーク経由でコミュニケーションサーバ106と通信することにより、例えば以下のような処理を行う。例えば、CPU140は、マイク148を使って音声入力を行い、音声データをコミュニケーションサーバ106へ送ったり、イヤホンジャック54Bに接続される図示しないステレオイヤホン又はスピーカ54から音を鳴らす等、様々の制御を行う。ステレオスピーカが必要である場合、図1、図2には図示しないが、左眼側のテンプルにもスピーカを設けてもよい。
システムコントローラ142は、CPU140のローカルバスと各種コンポーネントとの間を接続するデバイスである。マイク148はマイクジャック56に接続され、ユーザが発する音声又は環境音を収集する。ユーザの発する音声を音声認識すること又は環境音を分析することにより、ユーザの行動の推定ができ、ユーザを特定できる。例えば、ユーザ毎の標準音声を記憶しておいて、装着者が発生する音声と比較することにより、装着ユーザを特定できる。また、環境音を分析することにより、装着者が位置する作業場所を特定することができ、ユーザの行動予定から当該場所にいる筈のユーザを絞り込むことができる。スピーカ54はユーザの注意を喚起するアラーム等を出力する。画像処理部150は、表示部30に画像信号を出力し、光源28を点灯することにより、スクリーン16に表示部30の画像を投影する。この画像は静止画のみならず、動画も含むことができる。無線通信デバイス152は、例えば無線LAN機能を有し、ウェアラブル端末10とアクセスポイント112とを無線で接続する。
モーションセンサ154は、3軸加速度、3軸ジャイロ、3軸地磁気センサを統合したセンサであり、ウェアラブル端末10を使用するユーザの頭の動きを検出でき、その結果、顔が向いている方角を判別する。視線検出センサ156は、メガネのフレーム中心の内側にユーザの顔に向けて設けられ、ユーザの眼球を撮影し、視線の動きを検出する。さらに、視線検出センサ156は、ユーザの虹彩を検出可能としてもよい。ジェスチャセンサ158は、指の動きによるジェスチャを判別するセンサである。具体的には、投影装置12に設けられたタッチバッド55上の指の動きや、カメラ59の画像を解析することにより、ユーザのジェスチャを判別するセンサの総称である。バイブレータ68は、投影装置12を振動させることによりウェアラブル端末10のテンプルを振動させ、ユーザに何かの情報を伝える。位置情報受信器159は、LAN102のエリア内に複数配置された位置情報発信器113からRF−ID等の近距離無線通信を利用して発信される位置情報を含むビーコンを受信する。近距離無線通信なので、発信器と受信器(ウェアラブル端末)との位置はほぼ同じと見做すことができる。GPSモジュール155は、ウェアラブル端末10の位置(x,y,z)を検出する。この検出結果と、位置情報受信器159の検出結果と、図3の光センサ62の検出結果を総合することにより、より正確にユーザの位置、その変化を検出できる。
図8は、ドローン202の電気的な構成の一例を示す。ドローン202は、ウェアラブル端末202と同様に、CPU140A、システムコントローラ142A、メインメモリ144A、ストレージデバイス146A、無線通信デバイス152A、モーションセンサ154A、GPSモジュール155A等を備える。ドローン202のCPU140A、システムコントローラ142A、メインメモリ144A、ストレージデバイス146A、無線通信デバイス152A、モーションセンサ154A、GPSモジュール155Aは、ウェアラブル端末10のCPU140、システムコントローラ142、メインメモリ144、ストレージデバイス146、無線通信デバイス152、モーションセンサ154、GPSモジュール155と対応する。GPSモジュール155は、ドローン202の現在位置を検出し、目的地への自律的な飛行を可能とする。
ドローン202は、さらに、カメラ156、モータ157等を備えてもよい。カメラ156はウェアラブル端末10のカメラ59と同機能であることが好ましいが、機能が異なっていても良く、例えばカメラ156の方が解像度が高く高機能であってもよい。カメラ156は撮影方向が可変であることは勿論であるが、レンズの焦点距離が可変であってもよい。カメラ156は静止画、動画のいずれも撮影可能であってもよいし、動画のみが撮影可能であってもよい。モータ157はドローン202を飛行させるための駆動源であり、複数のプロペラそれぞれを駆動可能である。
次に、このように構成されたウェアラブル端末10、コミュニケーションサーバ106、ドローン202による映像配信処理を説明する。ここでは、ウェアラブル端末10の使用環境は、多数の製造装置がある製造工場であるとする。製造現場においては、製造装置の稼働率が製品の生産量に影響を及ぼす大きな要因となる。製造装置は定期的な保守点検が必要であるが、保守点検時は装置を停止するので、保守点検作業の効率化が望まれている。また、製造装置に突発的な不具合が発生した場合の復旧作業も効率化が望まれている。このような保守点検、復旧作業の際、装置の裏側とか他の装置のメータの値等を参照したい要求がある。従前は、他の作業者に手伝って貰ったり、本人が他の箇所まで移動する必要がある。この実施形態では、自律飛行するドローン202のカメラ156により本人に代わって他の場所の映像を撮影する。
図9、図10のフローチャートを参照して、作業開始前に、ユーザが作業現場とは異なる箇所、すなわち作業中に見たい箇所に移動して見たい画像(静止画)を先ず撮影し、その情報に基づいてドローン202を制御してドローン202の撮影を開始してから、作業現場に移動し、作業を行いながら他の箇所の映像を見る場合の処理の流れを説明する。例えば、図3の製造装置A04の裏側にメータがあり、このメータの値が装置A04の点検等の作業に必要であるとする。
ウェアラブル端末10を使用するユーザは、図3の製造装置A04の裏側へまわり、メータを観察する。ブロックB12で、ユーザは、ウェアラブル端末10のフレーム中央のカメラ59を操作してメータを撮影する。撮影画像は、投影装置12によりスクリーン16に投影される。ユーザは、ブロックB14で、スクリーン16上の撮影画像を見て、最適な画像が得られるように、撮影位置、撮影方向、すなわち顔の位置、向きを調整する。カメラ59がズーム機能を有する場合は、レンズの焦点距離を調節して最適な画像を得てもよい。ズーム調整はタッチバッド55の操作等により行ってもよい。スクリーン16への投影においては、スイッチ57、58により輝度、色調、角度等が調整可能であるが、調整した場合、調整値は記憶され、ドローン202の撮影映像を表示する際に同じ調整値が適用されるように構成してもよい。
所望の画像が得られると、ユーザは、タッチバッド55の操作等によりシャッタ操作をする。シャッタ操作がされると、ウェアラブル端末10のCPU140は、ブロックB16で、撮影画像(静止画)をその時の撮影方向情報とともにストレージデバイス146に保存する。撮影方向情報は、モーションセンサ154により検出された顔の向きにより得られ、カメラ59を始点とする3次元ベクトルで表される。シャッタ操作の他の例は、マイク148から音声コマンドを入力し、音声認識によりコマンドを検出すること、顔を所定の方向に振り、モーションセンサ154により顔の所定の動きを検出すること、指、手を所定の方向に振り、カメラ59で撮影し、画像解析により指、手の所定の動きを検出すること等がある。
その後、CPU140は、ブロックB18で、画像と撮影方向情報とをコミュニケーションサーバ106へ送信し、ドローン撮影を要求する。すなわち、シャッタ操作がドローン撮影を要求するユーザ操作となる。この後、ユーザは撮影場所から移動する。例えば、ユーザは、図3の製造装置A04の表側へまわり、保守点検又は復旧作業を行う。
コミュニケーションサーバ106では、位置・状態管理部122が、ブロックB20で多数の光センサ62の出力を受信して演算処理して、ドローン撮影を要求したウェアラブル端末10の位置:撮影位置(x,y,z)を検出する。
撮影位置が検出されると、撮影制御部130は、ブロックB24で、ドローン202を起動し、ブロックB36で、ウェアラブル端末10から送信された撮影画像、撮影方向情報とともに、ブロックB20で検出した撮影位置情報をドローン202へ送信する。ドローン202の起動はブロックB24のタイミングではなく、ブロックB36の撮影画像、撮影方向情報、撮影位置情報の送信タイミングでも良いし、その後でもよい。
ドローン202は、ブロックB32で起動すると、撮影画像、撮影方向情報、撮影位置情報を受信する。
ドローン202は、ブロックB38で、受信した撮影位置情報に応じた位置まで飛行して、静止する。これにより、静止画を撮影した時のウェアラブル端末10の位置にユーザはもう居ないが、その代りにドローン202がその場所に位置することになる。
次に、ドローン202は、ブロックB40で、受信した撮影方向情報に応じてカメラ156の向きを調整する。これにより、静止画を撮影した時のウェアラブル端末10の位置と同じ場所に位置するドローン202のカメラ156が、静止画を撮影したウェアラブル端末10のカメラ59と同じ向きとなる。
ブロックB42で、ドローン202は、カメラ156による撮影を開始する。この時に撮影される動画に含まれる静止画は、ウェアラブル端末10が撮影した画像と同じであるはずである。しかし、ウェアラブル端末10の位置・撮影方向検出の誤差、ドローン202の位置・撮影方向制御の誤差等により、程度は様々であるが、ウェアラブル端末10が撮影した画像と若干異なる可能性がある。そのため、ドローン202又はコミュニケーションサーバ106で、両画像の特徴量を計算し、特徴量マッチングを実行して、両画像が一致しているか否かを調べることとする。ここでは、ドローン202で特徴量マッチングを実行する例を説明するが、コミュニケーションサーバ106で特徴量マッチングを実行してもよい。
ドローン202は、ブロックB44で、コミュニケーションサーバ106から送信されたウェアラブル端末10の撮影画像の特徴量と、ブロックB42で撮影した画像の特徴量を計算し、特徴量マッチング処理により両画像の一致度を判定し、判定結果に応じて、ドローン202の位置、撮影カメラ156の向き又は必要に応じてその他の撮影条件を調整して、ウェアラブル端末10が撮影した画像と同じ画像が撮影されるようにする。
同じ画像が得られたら、ドローン202は、ブロックB46で映像配信通知をコミュニケーションサーバ106へ送信する。コミュニケーションサーバ106は、ブロックB48で、映像配信通知をウェアラブル端末10へ送信する。ウェアラブル端末10が通知に応答すると、ドローン202は、ブロックB54で映像配信を開始し、ウェアラブル端末10は、ブロックB56で映像受信を開始する。映像配信は、ウェアラブル端末10が終了要求を送信するまで続く。配信された映像は、画像処理部150によりスクリーン16に投影される。
なお、ウェアラブル端末10は、配信された映像の撮影を遠隔制御する機能を備えてもよい。例えば、ユーザは作業の進行状況に応じて、異なる撮影方向、異なる場所の映像を見たいことがある。撮影方向、撮影場所の調整操作の具体例は、スイッチ57、58の操作、タッチパッド55の操作、音声入力、顔の動作、指の動作等がある。音声入力の場合、マイク148から入力した音声が認識され、調整コマンドが検出される。顔の動作の場合、上下左右に動かすと位置・方向、前後に動かすとズーム等を調整してもよい。ジェスチャ操作の場合、指の動きがカメラ59で撮影され、画像の解析により特定のジェスチャが認識されると、調整コマンドが検出される。
このように、ウェアラブル端末10のカメラ59によりユーザが撮影した現場の撮影位置、撮影方向等がドローン202に送信されると、ドローン202が同じ撮影位置に移動し、同じ撮影方向となるようにドローン202のカメラ156が制御される。したがって、ユーザがその現場を離れる前にその現場を撮影しておくだけで、ユーザに代わってドローン202がその現場の撮影を行う。ユーザは、ウェアラブル端末10の左眼側のレンズを介して、現在の視線の先の風景を見ることができると同時に、右眼側のスクリーン16でドローン202が撮影している離れた現場の画像を見ることができる。これにより、作業員は、三脚等のカメラを固定して所望の画像を撮影できるように調整してから現場を離れる必要が無く、異なる箇所の画像を容易に参照しながら、作業を行うことができ、作業の効率が上がる。しかも、特徴量マッチングを使って2枚の画像の撮影位置、撮影方向等を微調整するので、ドローン202は、ユーザがウェアラブル端末10で撮影した画像と同じ画像を確実に撮影できる。
ユーザから離れた場所を撮影するためにドローン202を利用したが、ドローンに限らず、他の飛行物体でもよいし、飛行物体に限らず、地上を走行する自走式の物体や、地上を歩行するロボット等にカメラを取り付けてもよい。
図9、図10は、作業開始前にユーザが撮影した画像を引き続き撮影するようにドローン202を設定してから、ユーザが移動する例を説明したが、このシステムの使用例はこれに限定されない。図11、図12のフローチャートを参照して、他の使用例を説明する。この例は、コミュニケーションサーバ106の画像保管部128に記憶されている画像の中から画像を選択して、その画像と同じ画像をドローン202が撮影するように構成される。この例によれば、事前にドローン202を設定することなく、作業中にユーザが見たい画像又は箇所を指定すると、必要な画像が配信される。
ブロックB102で、ユーザは、ウェアラブル端末10のフレーム中央のカメラ59を操作してメータを撮影する。撮影画像は、投影装置12によりスクリーン16に投影される。ユーザは、ブロックB104で、スクリーン16上の撮影画像を見て、最適な画像が得られるように、撮影位置、撮影方向、すなわち顔の位置、向きを調整する。カメラ59がズーム機能を有する場合は、レンズの焦点距離を調節して最適な画像を得てもよい。ズーム調整はタッチバッド55の操作等により行ってもよい。スクリーン16への投影においては、スイッチ57、58により輝度、色調、角度等が調整可能であるが、調整した場合、調整値は記憶され、ドローン202の撮影画像を表示する際に同じ調整値が適用されるように構成してもよい。
所望の画像が得られると、ユーザは、タッチバッド55の操作等によりシャッタ操作をする。シャッタ操作がされると、ウェアラブル端末10のCPU140は、ブロックB106で、撮影画像(静止画)をその時の撮影方向情報とともにストレージデバイス146に保存するとともに、コミュニケーションサーバ106へ送信する。
コミュニケーションサーバ106では、位置・状態管理部122が、ブロックB108で多数の光センサ62の出力を受信して演算処理して、各ウェアラブル端末10の位置(x,y,z)を検出して、管理している。ウェアラブル端末10から送信された撮影画像と撮影方向情報を受信すると、画像保管部128は、ブロックB112で、送信端末の位置情報を位置・状態管理部122から読み出し、受信した撮影画像と撮影方向情報、その他の情報とともに、表1に示すように撮像画像データベースとして記憶する。
画像IDと関連づけて多くの情報を記憶するのは、これらの情報に基づいて画像を検索するためである。撮影方向は、前の例では、撮影位置を始点とする3次元ベクトルである。ユーザIDは撮影者を示し、画像データベースから自分の撮影画像のみならず、他者の撮影画像も検索するために記憶される。作業位置は、撮影位置から一義的に導かれるが、検索の便宜のために記憶される。撮影画像のみならずサムネイル画像も保管する理由は、保管画像一覧を表示するためである。
いずれのウェアラブル端末10においても上述の動作が繰り返され、多数の撮影画像がコミュニケーションサーバ106の画像保管部128に蓄積される。
ウェアラブル端末10のCPU140は、ブロックB114で、タッチバッド55の操作等によりドローン撮影が要求されたか否かを判定する。否の場合、ブロックB102の処理に戻り、撮影画像の蓄積が継続する。なお、この間、ユーザは移動してもよい。
ドローン撮影が要求された場合、CPU140は、ブロックB118で、コミュニケーションサーバ106へ画像選択メニューを要求する。
ドローン撮影要求を受けると、コミュニケーションサーバ106では、ブロックB122で、ドローン202を起動するとともに、撮影画像データベースに基づいて画像選択メニューを生成し、ウェアラブル端末10へ送信する。
ウェアラブル端末10は、画像選択メニューを受信すると、画像処理部150は、ブロックB126で、画像選択メニューをスクリーンに投影する。選択メニューは種々用意されており、予め選択、あるいはメニュー表示中に他の選択メニューに変更可能である。
選択メニューの例:
・同じユーザの同じ装置の異なる撮影方向のサムネイル画像の一覧
・同じユーザの異なる装置の同じ撮影方向のサムネイル画像の一覧
・同じユーザ又は特定の他のユーザの同じ装置に関するサムネイル画像の一覧
・同じユーザ又は特定の他のユーザの特定の日のサムネイル画像の一覧
ユーザは、メニュー内のいずれかの画像を選択する。選択操作は、タッチバッド55の操作以外に、マイク148から音声コマンドを入力し、音声認識によりコマンドを検出すること、顔を所定の方向に振り、モーションセンサ154により顔の所定の動きを検出すること、指、手を所定の方向に振り、カメラ59で撮影し、画像解析により指、手の所定の動きを検出すること等がある。いずれかのサムネイル画像が選択されると、CPU140は、ブロックB130で、選択結果をコミュニケーションサーバ106へ送信する。
なお、選択メニューは、サムネイル画像の一覧ではなく、表1に示す画像の属性の一覧でもよい。例えば、「見たい作業装置を選んで下さい:(1)装置A、(2)装置B、…」のテキストが表示され、装置が選択されると、「見たい撮影方向を選んで下さい:(1)正面、(2)背面、(3)右斜め上、…」の画面に変わり、画像を特定する属性の一覧が次々に表示されてもよい。
コミュニケーションサーバ106は、選択結果を受信すると、ブロックB146で、撮影制御部130は、画像保管部128の撮像画像データベースから選択画像に応じた撮影位置と撮影方向情報を読み出す。あるいは、画像ではなく、属性が選択された場合は、ブロックB146で、撮影制御部130は、画像保管部128の撮像画像データベースから選択された属性に応じた画像を読み出す。次いで、ブロックB148で、撮影制御部130は、画像、撮影位置情報、撮影方向情報をドローン202へ送信する。
ドローン202は、ブロックB138で起動し、ブロックB150で、受信した撮影位置情報に応じた位置まで飛行して、静止する。これにより、ユーザが選択メニューで選択した画像を撮影した時のウェアラブル端末10の場所にドローン202が位置する。
次に、ドローン202は、ブロックB152で、受信した撮影方向情報に応じてカメラ156の向きを調整する。これにより、選択した静止画を撮影した時のウェアラブル端末10の位置と同じ場所に位置するドローン202のカメラ156が、静止画を撮影したウェアラブル端末10のカメラ59と同じ向きとなる。
ブロックB154で、ドローン202は、カメラ156による撮影を開始する。この時に撮影される動画に含まれる静止画は、ウェアラブル端末10が撮影した画像と同じであるはずである。しかし、ウェアラブル端末10の位置・撮影方向検出の誤差、ドローン202の位置・撮影方向制御の誤差等により、程度は様々であるが、ウェアラブル端末10が撮影した画像と若干異なる可能性がある。そのため、ドローン202又はコミュニケーションサーバ106で、両画像の特徴量を計算し、特徴量マッチングを実行して、両画像が一致しているか否かを調べることとする。ここでは、ドローン202で特徴量マッチングを実行する例を説明するが、コミュニケーションサーバ106で特徴量マッチングを実行してもよい。
ドローン202は、ブロックB156で、コミュニケーションサーバ106から送信されたウェアラブル端末10の撮影画像の特徴量と、ブロックB42で撮影した画像の特徴量を計算し、特徴量マッチング処理により両画像の一致度を判定し、判定結果に応じて、ドローン202の位置、撮影カメラ156の向き又は必要に応じてその他の撮影条件を調整して、ウェアラブル端末10が撮影した画像と同じ画像が撮影されるようにする。
同じ画像が得られたら、ドローン202は、ブロックB158で映像配信通知をコミュニケーションサーバ106へ送信する。コミュニケーションサーバ106は、ブロックB162で、映像配信通知をウェアラブル端末10へ送信する。ウェアラブル端末10が通知に応答すると、ドローン202は、ブロックB166で映像配信を開始し、ウェアラブル端末10は、ブロックB168で映像受信を開始する。映像配信は、ウェアラブル端末10が終了要求を送信するまで続く。配信された映像は、画像処理部150によりスクリーン16に投影される。
このように、画像保管部130がウェアラブル端末10で撮影した多数の静止画を保管しているので、作業中にユーザが装置の裏側等の実際に見ることができない場所の映像を見たい場合、保管画像の中から見たい映像に近い画像を選択することにより、その画像と同じ画像をドローン202が撮影して、ユーザのウェアラブル端末に配信される。この例によれば、作業前にドローン202の撮影を開始させることもできるので、ユーザは、作業前に画像を選択して映像配信を開始しておけば、作業開始とともに必要な映像を見ることができる、作業効率が向上する。
図11、図12のフローチャートでは、ドローン撮影を要求すると、画像選択メニューが表示され、ユーザが選択することを説明したが、選択不要とすることもできる。例えば、ユーザ毎の作業対象の装置又はユーザのスケジュールによって、次に参照すべき箇所が決まっている場合は、それに応じてドローン202を自動的に制御して、参照すべき映像を撮影するようにしてもよい。撮影制御部130は、表2のようなユーザ毎の参照画像データベースを記憶し、現在の作業内容に応じてドローン202の移動先、撮影方向を制御してもよい。
また、定期点検等のように作業手順が細かく決まっている場合は、スケジュール管理部126がユーザ毎の作業スケジュールを管理している。したがって、そのスケジュールに応じて順次ドローン202の移動先、撮影方向を自動的に決めてもよい。
なお、このように配信映像を自動的に決める場合でも、ユーザの操作により、配信映像に代えて選択メニューを表示するにしてもよい。
実施形態としてメガネ型ウェアラブル端末を説明したが、ゴーグル型、ヘルメット型等の他の頭部装着型でもよいし、リストバンド型、ペンダント型等にも本発明は適用可能である。例えば、ヘルメット型又はゴーグル型にすると、投影装置12、カメラ59をヘルメット又はゴーグルに取り付けることができ、通常のメガネユーザも使用できる。さらに、ヘルメット型にすると、スピーカ54をヘルメットの内側に取り付けることができるので、よりクリアな音を聴くことができるとともに、マイクをヘルメットに取り付け、しかも位置を調整できるので、マイクの集音能力が向上する。
また、頭部装着型以外のウェアラブル端末にも本発明は適用可能である。
さらに、ウェアラブルでなくても携帯可能な小型軽量で、常にユーザとともにある電子機器、例えば、ノートブック型パソコン、タブレット型パソコン、スマートフォンにも本発明は適用可能である。
ウェアラブル端末とコミュニケーションサーバとの機能分担は上述した説明の通りに限定されず、ウェアラブル端末の機能として説明したものの一部をコミュニケーションサーバの機能として実現してもよいし、コミュニケーションサーバの機能として説明したものの一部をウェアラブル端末の機能として実現してもよい。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合せてもよい。