JP6621826B2 - ヘッドウェアラブルデバイスを含む通信システム - Google Patents

ヘッドウェアラブルデバイスを含む通信システム Download PDF

Info

Publication number
JP6621826B2
JP6621826B2 JP2017533297A JP2017533297A JP6621826B2 JP 6621826 B2 JP6621826 B2 JP 6621826B2 JP 2017533297 A JP2017533297 A JP 2017533297A JP 2017533297 A JP2017533297 A JP 2017533297A JP 6621826 B2 JP6621826 B2 JP 6621826B2
Authority
JP
Japan
Prior art keywords
wearable device
head wearable
wearer
session
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017533297A
Other languages
English (en)
Other versions
JP2018504688A (ja
Inventor
アンソニー シュラブソール,ポール
アンソニー シュラブソール,ポール
ティベリ,ルカ
デース,ワルテル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2018504688A publication Critical patent/JP2018504688A/ja
Application granted granted Critical
Publication of JP6621826B2 publication Critical patent/JP6621826B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/06Details of telephonic subscriber devices including a wireless LAN interface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Computer And Data Communications (AREA)

Description

本発明は、動作環境における使用のためのヘッドウェアラブルデバイスを含む通信システムに関し、ヘッドウェアラブルデバイスは、無線通信のために構成される。
本発明は、更に、ヘッドウェアラブルデバイス、通信方法、及びシステムにおける使用のためのコンピュータプログラム(コンピュータプログラム製品)に関する。
本発明は、例えばWi-Fiを介した、無線通信の分野に関し、より具体的には、ドッキングステーション(dockee)によるホストの1つ又はそれよりも多くの周辺機器へのアクセスのためにドッキングステーション及びホストとして機能する、ヘッドウェアラブルデバイスに関する。この脈絡において、周辺機器は、ディスプレイ、キーボード、若しくはマウスのような外部装置、又はラウドスピーカ若しくは記憶装置のようなホストに内蔵される、周辺機器であってよい。例えば、テレビがホストであってもよく、即ち、ホストはテレビに組み込まれ、多数の周辺機器へのアクセスを提供するホストを構成する。 そのような周辺機器及び/又はホストの他の内部若しくは外部リソースにアクセスし且つ/或いはそれらを使用することは、ホストによって提供されるサービスと呼ばれることがある。
無線通信は、スマートメガネ又はスマートゴーグル、タブレット又は携帯電話のような、ヘッドウェアラブルデバイスのような様々なモバイルデバイスの間を通信するために用いられてよい。例えば、無線ドッキングは、(ドッキングステーションとして機能する)モバイルデバイスが、(例えば、IEEE802.11に記載されるようなWi-Fiを用いることに基づく)無線リンクを通じた一連の一般的なメッセージ交換プロトコルを通じて(ホスト又は無線ドッキングステーション(docking station)と呼ばれる)更なるデバイスに無線接続される或いはワイヤを通じてローカルに取り付けられる、(マウス、ディスプレイ、マシンツール等のような)一連の周辺機器にアクセスするのを可能にする。1つ又はそれよりも多くの有線又は無線周辺機器と連結されるホストは、無線ドッキング環境と呼ばれることがある。
無線ドッキングは、例えば、WO2012/117306A1から知られている。無線ドッキングステーションは、少なくとも1つのドッキングステーションとホストとの間の無線の安全な通信を可能にすることがある。無線ドッキングホストは、選択されるホストとの通信を選択し且つ開始するためにドッキングステーションが用い得るWi-Fiビーコンを通じて、その存在についての情報を提供することがある。
WO2012/167200は、ホストとのデータ共有セッションへのクライアントデバイスの選択的な許可を記載している。ホストユーザは、ホストへのクライアントの近接性に基づきクライアントデバイスを選択してよく、或いはクライアントデバイスのユーザを視覚的に識別してよい。ホストがクライアントデバイスを許可することを決定するときには、デバイスを近接させて、カメラ又はマイクロホンを用いたローカル音声/視覚チャネルを創り出さなければならない。チャネルを介してクライアントデバイスからホストに識別子が提供される。そのように許可されるときに、クライアント及びホストデバイスは通信してよい。
US2014/0368980A1は、カメラを有するヘッドウェアラブルデバイスを含む通信システムを記載している。ウェアラブルコンピュータシステムは、ウェアラブルコンピュータシステムの動作での支援を要求するユーザからの命令を受信してよく、支援を要求するテクニカルサポートセッションを開始してよい。ウェアラブルコンピュータシステムは、ウェアラブルコンピュータシステムに連結されるマイクロホンを通じて、ユーザとテクニカルサポートアソシエートとの間の音声通信チャネルを提供してもよい。
様々な人が、実際の動作環境(例えば、オフィス環境、多数の能動的なユーザを有するユーザの家庭、劇場、航空管制、金融機関、ソフトウェア開発等)においてスマートメガネのようなヘッドウェアラブルデバイスを装着することがある。更なる野外の例は、建築作業員又は救急専門家であってよい。本明細書ではヘッドウェアラブルデバイスを装着するあらゆる人を装着者と呼び、ヘッドウェアラブルデバイスを介して遂行される或いは制御される活動を指す場合には、ユーザ(使用者)と呼ぶ。例えば、ユーザは、ヘッドウェアラブルデバイスの装着者であってよく、例えば、Wi-Fiを介して、ヘッドウェアラブルデバイスに無線で連結されるスマートホン又はタブレットも有してよい。スマートホン又はタブレットは、共有されるべきデータを有することがあり、或いは、ユーザは、周辺機器、例えば、ホストに連結された大型ディスプレイを用いることを欲することがある。本明細書では、周辺機器という用語は、ホストに連結されて、情報の入力又は出力、相互作用又は制御のような、機能性をユーザにもたらす、あらゆる物理的デバイス、例えば、ディスプレイ又は相互作用ツールを含む。そのような機能性の例は以下を含む。
− どの情報ソースが所与の時間に表示されるかを選択すること。
− ディスプレイの特定の領域を拡大すること。
− 追加的な情報を示すこと。
− 幾つかの周辺デバイスのオン/オフを切り替えること。
− メッセージ送信/受信すること。
− 他の人と通信すること(例えば、ビデオチャット)。
よって、ユーザは、動作環境内の何らかの他のユーザ又はデバイスと通信すること、例えば、オーディオ又はビデオ情報を交換すること、或いは周辺機器を使用すること又は共有することを欲することがある。しかしながら、特定のユーザと通信セッションを設定することは困難なことがある。例えば、多数のユーザが動作環境内に存在するならば、選択的なユーザとコンタクトを取ることは騒々しい環境の故に困難である。
必要とされるユーザ相互作用及び時間の量を減少させながら、動作環境内の更なるユーザとの通信セッションを設定することを可能にする通信システムを提供することが、本発明の目的である。
この目的のために、本発明の第1の特徴によれば、通信システム、ヘッドウェアラブルデバイス、通信方法、及びシステムにおける使用のためのコンピュータプログラム(コンピュータプログラム製品)が、付属の独立項に定められるように提供される。
通信システムにおいて、第1のヘッドウェアラブルデバイスが、
− 第1のヘッドウェアラブルデバイスが第1の装着者によって装着される間に動作環境の環境画像を取り込むカメラと、
− 第1のプロセッサとを含み、
第1のプロセッサは、
− 第1の装着者の視認方向に基づき、第1の装着者からの動作距離にある動作環境内で更なる操作者によって装着される、更なるヘッドウェアラブルデバイスを検出するために前記環境画像を処理し
− 遠隔に検出可能な視覚的特性に基づき動作距離にある更なるヘッドウェアラブルデバイスを識別し、且つ
− 第1のヘッドウェアラブルデバイスと更なるヘッドウェアラブルデバイスとの間の通信セッションを構築するために構成され、
更なるヘッドウェアラブルデバイスは、
− 更なるプロセッサを含み、
更なるプロセッサは、
− 第1のヘッドウェアラブルデバイスと更なるヘッドウェアラブルデバイスとの間の通信セッションを構築するために構成される。
通信の方法が、上記通信システムにおける第1のヘッドウェアラブルデバイスにおける使用のためにあり、ヘッドウェアラブルデバイスは、無線通信のために構成され、第1のヘッドウェアラブルデバイスが第1の装着者によって装着される間に動作環境の環境画像を取り込むカメラを含む。当該方法は、第1の装着者の視認方向に基づき、第1の装着者から動作距離にある動作環境内で更なる装着者によって装着される更なるヘッドウェアラブルデバイスを検出するために前記環境画像を処理すること、遠隔に検出可能な視覚的特性に基づき、動作距離にある更なるヘッドウェアラブルデバイスを識別すること、及びヘッドウェアラブルデバイスと更なるヘッドウェアラブルデバイスとの間の通信セッションを構築することを含む。
上記構成は、以下の高価を有する。使用中、スマートメガネのようなヘッドウェアラブルデバイスのカメラは環境画像を取り込み、その画像は第1のプロセッサによって処理される。ヘッドウェアラブルデバイスが装着されるとき、カメラは装着者の視認方向に方向付けられる。ドッキングステーションプロセッサは、動作環境に対する装着者の視認方向に基づき焦点位置を検出してよい。焦点地点は、自然の中心付けられた向きにあるユーザの両眼の故に真っ直ぐ前を見ている装着者の視野に対応する環境画像中の中心位置に対応してよい。画像中、焦点位置付近で、装着者の視認方向を用いることによって第1のヘッドウェアラブルデバイスの装着者が見ている更なるヘッドウェアラブルデバイスが検出されてよい。
視認方向は、カメラが前方、即ち、装着者の頭の方向に向けられる間に、画像の中央部分を選択することによって暗黙に用いられてよく、中央部分は、装着者の両眼が中立位置にある時に装着者が見ている地点と一致する。
代替的に、視認方向は、装着者の両眼の位置を決定することによって、例えば、そのように知られる眼トラッキングによって、能動的に検出されてよい。それに加えて、プロセッサは、装着者の少なくとも1つの眼の実際の向きを検出することによって視認方向を検出し、中心付けられた向きからの実際の向きのオフセットを決定し、オフセットに依存して焦点位置をシフトさせるために、構成されてよい。焦点位置は、中心付けられた向きにあるユーザの眼の故に真っ直ぐ前を見ている装着者の視野内の中心位置に対応してよく、或いはヘッドウェアラブルデバイスが向けられている方向と異なる方向を見ているユーザの眼の故の中心から外れた位置に対応してよい。眼の向きは、ユーザの両眼に向けられた内向きに面するカメラによって検出されてよい。有利には、焦点位置は、装着者の実際の視認方向に基づき増強され、ヘッドウェアラブルデバイスは、画像中の増強された焦点位置に基づき検出される。
次に、更なるヘッドウェアラブルデバイスは、動作距離、即ち、装着者が作業又は他の活動を動作的に遂行する動作環境内で能動的である距離にある、遠隔に検出可能な視覚的特性、例えば、解析されるのに十分な程に大きく且つ環境画像から復号される視覚的マーカに基づき識別されてよい。システムは、有利に、識別されたようなヘッドウェアラブルデバイスが、第1の装着者が通信のために選択することを欲する更なる装着者によって装着されていると推測する。識別することは、可能な複数の他のヘッドウェアラブルデバイスの中から選択することを含んでよい。何故ならば、多数のヘッドウェアラブルデバイスが焦点地点の周りで検出されることがあるからである。例えば、その選択は、遠隔に検出可能な視覚的特性、例えば、他のヘッドウェアラブルデバイス全体及び/又は他の装着者の特性に基づいてもよく、第1の装着者の焦点位置に対する更なるヘッドウェアラブルデバイスの近接性、他のヘッドウェアラブルデバイスの向き、又は他の装着者の頭、顔若しくは両眼の向きに基づいてもよい。その向きは、第1のヘッドウェアラブルデバイスに向かってよく、よって、他の装着者と第1の装着者との間のアイコンタクトを示してよく、故に、どのヘッドウェアラブルデバイスが選択されるべきかを示してよい。
視覚的マーカは、例えば、遠隔に検出可能であるよう十分に大きい図式的コードであってよい。そのような視覚的マーカは、いわゆる符号化デバイスが用いられる動作環境を示す動作距離で撮られる環境画像から画像プロセッサによって読み取られるために設計され、ヘッドウェアラブルデバイス上に更なる情報を含んでよい。視覚的マーカは、例えば、遠隔に検出可能な大きさの図式的シンボル及び/又はテキストを有するラベルであってよい。有利には、そのようなシンボル又はテキストは、環境画像から画像プロセッサによって検出されてよく、それぞれのヘッドウェアラブルデバイスを明らかに識別する。視覚的マーカは、例えば、周辺機器のディスプレイ上に表示される或いはヘッドウェアラブルデバイスから発する符号化された光による能動的な視覚的マーカであってよい。有利には、マーカは、利用可能な若しくは必要とされる実際のサービス若しくは機能又は提案されるセッションタイプを表すよう、ヘッドウェアラブルデバイスによって動的に創られ或いは適合されてよい。
次に、第1の装着者のヘッドウェアラブルデバイスと更なる装着者のヘッドウェアラブルデバイスとの間に通信セッションが構築される。通信セッションは、前記無線回通信を介して構築され、あらゆるプロトコル又はメッセージングシステム、例えば、Wi-Fiを用いてよい。セッションは、音声、ビデオ、テキスト又は他のデータのような、アプリケーションレベルでのデータの通信を更に含んでよい。通信セッションは、アイコンタクトによって更なるヘッドウェアラブルデバイスを標的化することに含められる装着者の故の安全性のレベルも有する。有利には、セッションは、第1の装着者の視認方向に基づき、即ち、アイコンタクトに基づき実質的に自動的に構築され、装着者がヘッドウェアラブルデバイスに触る必要はなく、ユーザの特定の命令を必要としない。例えば、騒々しい又は野外の動作環境において、ユーザは、互いに容易にコンタクトすることがある。何故ならば、彼らは互いからの視覚的視野内にいるが、彼らのタスクの間に詳細を効果的に聞くことができない/見ることができないからである。
任意的に、ヘッドウェアラブルデバイスにおいて、ドッキングステーションプロセッサは、装着者の眼から更なるヘッドウェアラブルデバイスまでの視認距離を検出して、視認距離に依存して前記焦点位置をシフトさせるために、構成される。有利には、焦点位置は、ヘッドウェアラブルデバイスまでの実際の視認距離によって増強され、更なるヘッドウェアラブルデバイスは、画像中の増強された焦点位置に基づき選択される。
ある実施態様では、第1のヘッドウェアラブルデバイスにおいて、第1のプロセッサは、更なるヘッドウェアラブルデバイスの装着者のジェスチャを検出することによってセッション確認を検出することを含む通信セッションを構築するために構成される。追加的に又は代替的に、更なるヘッドウェアラブルデバイスにおいて、更なるプロセッサは、第1のヘッドウェアラブルデバイスの装着者のジェスチャを検出することによってセッション要求を検出することを含む通信セッションを構築するために構成される。
これらの構成は、以下の効果を有する。使用中、通信セッションが相手方のジェスチャによって確認されてよい(或いは否定されてよい)。その上、通信セッションが相手方のジェスチャによって要求されてよい。ジェスチャを検出するために、更なるヘッドウェアラブルデバイスは、カメラ及び画像プロセッサ機能、又は、例えば、頷き要求又は確認を検出するためのジャイロスコープを備えてもよい。有利には、セッションは、装着者のジェスチャを用いることによって開始されてよい/確認されてよく、それは通信セッションの直観的な制御をもたらす。
ある実施態様において、第1のヘッドウェアラブルデバイスは、第1の装着者の眼の眼画像を取り込むための内向きに面するカメラを含み、第1のプロセッサは、眼画像に基づき第1の装着者の視認方向を検出するために構成される。有利には、視認方向は、眼画像に基づき正確に検出される。
第1のヘッドウェアラブルデバイスの実施態様において、第1のプロセッサは、遠隔に検出可能な視覚的特性に基づき更なるヘッドウェアラブルデバイスを識別するために構成され、遠隔に検出可能な視覚的特性は、以下のうちの少なくとも1つである。
− 更なるヘッドウェアラブルデバイスから発するような符号化された光。
− 更なるヘッドウェアラブルデバイス上に設けられるような視覚的マーカ。
− 更なるヘッドウェアラブルデバイスの視覚的特性。
− 更なるヘッドウェアラブルデバイスの装着者の視覚的特性。
− 更なるヘッドウェアラブルデバイスの装着者のジェスチャ。
この脈絡において、視覚的とは、ヘッドウェアラブルデバイス上に存在するあらゆるカメラ又は放射線検出システムによって視覚的に検出可能な放射線を意味するので、これは熱映像法、飛行時間(Time of Flight)若しくは類似の3D撮像、又は装着者及び/又はヘッドウェアラブルデバイスの識別のために利用されてよい他の非人間的な視覚的方法を含む。代替的に又は追加的に、検出は、更なるデバイスのRF信号強度の検出も含み得る。
これらの構成は、以下の効果を有する。使用中、多数のヘッドウェアラブルデバイスが環境画像中に存在するとき、識別が、ヘッドウェアラブルデバイス及び/又はその装着者の認識可能な特性に基づき行われる。例えば、プロセッサは、初めに、人間形態を視覚的に識別し、次に、視覚的マークを検出するためにウェアラブルデバイスマーカを位置付ける領域に集中するように構成されてよい。
前記識別すること、例えば、データ又はコードを識別することに基づき、それぞれのヘッドウェアラブルデバイスが無線通信を介してコンタクトされる。例えば、符号化された光中に検出されるようなコード(符号)は、無線通信を介して通信セッションを構築する間に交換されるメッセージ中の少なくとも1つのコード(符号)に結合される。或いは、それぞれの装着者、それぞれのヘッドウェアラブルデバイス、視覚的マーカ、電子符号及びアドレス等についての情報を有する、データベースが利用可能である。
第1のヘッドウェアラブルデバイスの実施態様において、第1のプロセッサは、通信セッションを構築するために構成され、通信セッションを構築することは、
− セッション要求を生成し、無線通信を介して、セッション要求を更なるヘッドウェアラブルデバイスに送信すること、及び/又は
− 無線通信を介して、更なるヘッドウェアラブルデバイスからセッション確認を受信することを含む。
追加的に又は代替的に、更なるヘッドウェアラブルデバイスにおいて、更なるプロセッサは、通信セッションを構築するために構成され、通信セッションを構築することは、
− 無線通信を介して、第1のヘッドウェアラブルデバイスからセッション要求を受信すること、及び/又は
− セッション確認を生成し、無線通信を介して、セッション確認を前記第1のヘッドウェアラブルデバイスに送信することを含む。
これらの構成は、以下の効果を有する。使用中、メッセージがセッション要求及びセッション確認を含む所定の順序に従って交換されて、通信セッションを開始する。その上、ジェスチャがセッション要求及びセッション確認の準備中に検出されてよい。例えば、通信システムの更なる実施態様では、第1のヘッドウェアラブルデバイスにおいて、第1のプロセッサは、第1のヘッドウェアラブルデバイスの装着者のジェスチャを検出することに基づき、セッション要求を生成するために構成され、且つ/或いは更なるヘッドウェアラブルデバイスにおいて、更なるプロセッサは、更なるヘッドウェアラブルデバイスの装着者のジェスチャを検出することに基づき、セッション確認を生成するために構成される。その上又は代替的に、第1のヘッドウェアラブルデバイスにおいて、第1のプロセッサは、更なるヘッドウェアラブルデバイスの装着者のジェスチャを検出することに基づき、セッション要求を生成するために構成され、且つ/或いは更なるヘッドウェアラブルデバイスにおいて、更なるプロセッサは、第1のヘッドウェアラブルデバイスの装着者のジェスチャを検出することに基づき、セッション確認を生成するために構成される。
第1のヘッドウェアラブルデバイスの実施態様において、第1のプロセッサは、第1のヘッドウェアラブルデバイスの装着者のジェスチャ及び/又は更なるヘッドウェアラブルデバイスの装着者のジェスチャに基づき、通信セッションタイプを決定するために構成される。これらの構成は、以下の効果を有する。使用中、システムは、例えば、能動的なアプリケーション又はユーザの要求に依存して、様々なタイプの通信をサポートしてよい。有利には、第1のヘッドウェアラブルデバイス又は更なるヘッドウェアラブルデバイスの装着者のそれぞれのジェスチャ又は両方を検出することによって、システムは、特定の通信セッション、例えば、音声通信セッションを設定してよい。更なる実施態様において、通信セッションタイプは、ホストとしての第1のヘッドウェアラブルデバイスとドッキングステーションとしての更なるヘッドウェアラブルデバイスとの間のドッキングセッション、ドッキングステーションとしての第1のヘッドウェアラブルデバイスとホストとしての更なるヘッドウェアラブルデバイスとの間のドッキングセッション、音声通信セッション、視覚的情報共有セッション、周辺機器共有セッションのうちの1つであってよい。
第1のヘッドウェアラブルデバイスの実施態様において、第1のプロセッサは、通信セッションにおいて、ユーザ相互作用セッションを提供するために構成される。更なるヘッドウェアラブルデバイスにおいて、更なるプロセッサは、通信セッションにおいて、ユーザ相互作用セッションを提供するために構成される。その上、ユーザ相互作用セッションは、ヘッドウェアラブルデバイスの装着者の間の音声通信、ヘッドウェアラブルデバイスの装着者の間の情報の共有又は情報の相互作用的な使用を含んでよい。例えば、情報は、テキスト、画像、ビデオ、コンピュータ生成データのうちの少なくとも1つを含んでよい。その上、騒々しい環境では、「スピーチ・ツー・テキスト」(“speech to text”)ベースの通信が有利に用いられてよく、その場合、テキストは、受信する装着者のスマートメガネディスプレイ上にレンダリングされる。周辺機器を共用することは、コンピュータスクリーンを共有すること、第1のヘッドウェアラブルデバイスによる更なるヘッドウェアラブルデバイスのディスプレイを借用することであってよい。
第1のヘッドウェアラブルデバイスの実施態様において、第1のプロセッサは、通信セッションのようなドッキングセッションにおいてドッキングステーションとして機能するために構成される。更なるヘッドウェアラブルデバイスにおいて、更なるプロセッサは、ドッキングセッションにおいてホストとして機能するために構成され、ホストは、少なくとも1つの周辺機器に連結するために構成される。ホストは、ドッキングステーションとしてのヘッドウェアラブルデバイスとの無線ドッキングのために並びにヘッドウェアラブルデバイスのための周辺機器へのアクセスを提供するために構成されてよい。ヘッドウェアラブルデバイスは、周辺機器にアクセスするためのホストのドッキングステーションとして無線ドッキングのために構成されてよい。有利には、ドッキングが、装着者の視認方向に基づき、可能であれば装着者の更なるジェスチャに基づき、ヘッドウェアラブルデバイスの間で自動的に行われる、ドッキングシステムが提供される。
本発明に従った方法は、コンピュータで実施される方法としてコンピュータ上で実施されてよく、専用のハードウェア内で実施されてよく、或いは両方の組み合わせにおいて実施されてよい。本発明に従った方法のための実行可能なコードは、コンピュータプログラム(コンピュータプログラム製品)に格納されてよい。コンピュータプログラム(コンピュータプログラム製品)の例は、メモリデバイス、光学記憶デバイス、集積回路、サーバ、オンラインソフトウェア等を含む。好ましくは、コンピュータプログラム(コンピュータプログラム製品)は、コンピュータプログラム(コンピュータプログラム製品)がコンピュータ上で実行されるときに本発明に従った方法を実行するためにコンピュータ可読媒体上に格納される不揮発性プログラムコード手段を含む。ある実施態様において、コンピュータプログラムは、コンピュータプログラムがコンピュータ上で作動させられるときに本発明に従った方法の全てのステップを実行するように構成されるコンピュータプログラムコード手段を含む。コンピュータプログラムは、コンピュータ可読媒体上に具現されてよい。
本発明に従ったデバイス及び方法の更に好適な実施形態は、付属の特許請求の範囲に記載されており、その開示を参照として本明細書中に援用する。
本発明のこれらの及び他の特徴は、添付の図面を参照して以下の記述中に一例として記載する実施形態から明らかであり、それらを更に参照して解明されるであろう。
ヘッドウェアラブルデバイスを含むドッキングシステムを示している。 多数の周辺機器とヘッドウェアラブルデバイスとを有する動作環境の実施例を示している。 ドッキングステーションで周辺機器を選択するドッキング方法を示している。 ホストでのドッキング方法を示している。
図は純粋に図式的であり、縮尺通りに描かれていない。 図面では、既に記載した要素に対応する要素は同じ参照番号を有することがある。
ウェアラブルコンピューティングは、企業がオープンプランオフィス環境内の知識労働者のような専門環境内の労働者の生産性を増大させる多くの新しい機会を提供する。具体的には、スマートメガネのようなヘッドウェアラブルデバイスは、互いに臨時に交流することを欲するマルチパーソン環境内の労働者のための共同作業において、タブレット、コンピュータ及びスマートホンの機能を拡張し、増強し、或いは交換する能力を提供する。そのような動作環境では、様々な他のヘッドウェアラブルデバイス及び/又は周辺機器が存在することがある。よって、そのような動作環境は、互いに作業距離にある、即ち、動作環境内の実際の仕事中にユーザによって装着されるような、多数の装着者及びヘッドウェアラブルデバイスを有することがある。
革新的なウェアラブルモバイルデバイス、例えば、スマートウェアラブルメガネは、使用者によって携行されるのでなくむしろ装着されるという利点を有し、装着者によって手を用いないで操作されることがある。典型的には、ヘッドウェアラブルデバイスは、基板(board)上に様々なセンサ(例えば、マイクロホン、加速度計等)及びアクチュエータ(例えば、ラウドスピーカ、ディスプレイ等)を有し、普通、カメラも有する。これらのセンサ、特に動作環境の画像を取り込むカメラから抽出される情報を用いて、装着者の位置及び焦点、例えば、視認方向に関する情報を導き出してよい。そのような画像、即ち、ヘッドウェアラブルデバイスが動作環境内の実際のユーザによって装着されている間にヘッドウェアラブルデバイスのカメラによって取り込まれる画像は、環境画像と呼ばれる。
典型的には、ヘッドウェアラブルデバイス及びホストデバイスは、それぞれ、デバイスに格納される適切なソフトウェア実行するマイクロプロセッサを含む。例えば、そのソフトウェアは、対応するメモリ、例えば、RAMのような揮発性メモリ又はフラッシュのような不揮発性メモリ(図示せず)内にダウンロードされ且つ/或いは格納されてよい。デバイスは、マイクロプロセッサ及びメモリ(図示せず)を備えてもよい。代替的に、デバイスは、全体的に又は部分的に、フィールドプログラマブルゲートアレイ(FPGA)のような、プログラマブル論理内に実装されてよい。ドッキングステーションデバイス及びホストデバイスは、全体的に又は部分的に、いわゆる特定用途向け集積回路(ASIC)、即ち、それらの特定の使用のためにカスタマイズされる集積回路として実装されてよい。
その上、以下に記載するような機能及びユニットは、プロセッサ回路及び記憶装置回路を含んでよいハードウェア回路内に少なくとも部分的に実装されてよく、プロセッサ回路は記憶装置回路内に電子的に表される指令を実行する。
スマートメガネのようなヘッドウェアラブルデバイスは、セッションベースのポイントツーポイント通信の形態を構築することがある。それに加えて、ヘッドウェアラブルデバイスは、互いにペアになったりドッキングしたりしなければならない。典型的には、アドホックペアリング及びペアリング解除のプロセスは、マルチユーザ環境内のユーザにとって面倒である。何故ならば、それは間違ったデバイスへの接続を防止するために明確なユーザ行為(例えば、NFCペアリング又は押しボタンペアリングの場合の2分間の待機)を必要とすることがあるからである。更に、通信を開始し且つ構築するために、(例えば、ユーザ管理ツールを介して)人をデジタル式に識別し得なければならない。データベース中の多数の人々から人を選択することは、特に他の人の名前を覚えることができないならば、極めて面倒になり得る。
様々な実際の動作環境では、ユーザがペアリングし且つペアリング解除するのが必要な回数は高いことが想定される。近代的な建造物において頻繁に見られるオープンオフィスにおいて重大な懸念となってきている1つの相互作用は、例えば、共同作業し且つ情報を共有するために、空間内の他者を邪魔せずに個々の同僚と連絡する能力である(例えば、オーディオ、テキスト、画像の共有、ビデオの共有、コンピュータ生成データの共有又はコンピュータ生成データとの相互作用、コンピュータスクリーンの共有、他の装着者のディスプレイの借用)。マルチユーザ/マルチデバイス環境に起因する曖昧さ(ambiguity)は、選択及びペアリング/ペアリング解除のためのデバイスとの明確なユーザ相互作用行為の必要を取り除くことによって解決されることがある。意図される他のユーザのヘッドウェアラブルデバイスが選択され且つ識別されるときに、通信及び相互作用がヘッドウェアラブルデバイスの装着者間に構築されてよく、その通信セッションはある範囲の異なる通信ニーズを満たすことがある。
更なる実際的な動作環境では、他の問題が起こることがある。労働者は騒々しい環境(工場、空港滑走路、建築現場)内で互いに交流しなければならないことがあり、ポイントツーポイントで互いに素早く自然に連絡しなければならないことがある。この必要は、選択及びペアリング/ペアリング解除のために他のデバイスとの何らの明確なユーザ相互作用行為も伴わずに更なるヘッドウェアラブルデバイスとの通信セッションを構築することによって、充足されることがある。
図1は、ヘッドウェアラブルデバイスを含む通信システムを示している。通信システムは、動作環境内の2つのヘッドウェアラブルデバイスを含む(そのようには図示されていない)。第1のヘッドウェアラブルデバイス100がスマートメガネとして示されている。ヘッドウェアラブルデバイスは、装着者の両眼の前に位置付けられるべきメガネ101を有する。メガネはヘッドアップディスプレイ(HUD)を備えてよい。
ヘッドウェアラブルデバイスは、眼トラッキングユニット115及びカメラ120を備えてよい。カメラ120は、ヘッドウェアラブルデバイスの装着者の視線と実質的に一致する環境の画像を取り込むよう、前方視向きにおいて取り付けられる。装着者の眼130が図式的に示されており、(更には示されていない)装着者を表している。
ヘッドウェアラブルデバイスは、無線通信ユニット105と、後に詳細に記載するようなヘッドウェアラブルデバイスの機能を制御するためにヘッドウェアラブルデバイス内の他のユニットに連結されるプロセッサ110とを有する。プロセッサは、装着者の視認方向及び環境画像に基づき動作環境内の更なるヘッドウェアラブルデバイスを検出するために構成される。それに加えて、プロセッサは、カメラから環境画像を取得するために並びに画像を処理するために構成される。
任意的に、プロセッサは、画像中の中心位置を動作環境に対する視認方向の表示として取ることによってカメラを介して焦点位置を検出するために構成される。焦点位置は、ユーザの眼が中心付けられた向きにある故に真っ直ぐ前方を見る装着者の視野内の中心位置に対応する。プロセッサは、焦点位置に最も近いヘッドウェアラブルデバイスを選択するために更に構成される。そのような選択は、装着者が視線を合わせることを前提とする。
任意的に、プロセッサは、装着者の目の実際の向きを検出し且つ中心付けられた向きからの実際の向きのオフセットを決定することによって、視認方向を検出するために構成される。そのようにして、視認方向を決定するために眼の実際の向きをトラッキングすることは知られている。引き続き、焦点位置はオフセットに依存してシフトされる。プロセッサは、他のヘッドウェアラブルデバイスに対する装着者の眼からの視認距離を検出するために並びに視認距離に依存して焦点位置をシフトさせるために、構成されてよい。例えば、その距離は、ユーザがカメラとの相互作用によって自動焦点地点を適合させる能力を備える自動焦点カメラを用いて決定されてよい。その上、距離範囲を用いて、装着者の眼から特定の距離を超えないヘッドウェアラブルデバイスのみを選択してよい。代替的に、他のヘッドウェアラブルデバイスに対する距離は、例えば、IEEE Fine Time Measurement(FTM)を用いる、例えば、Wi-Fiベースの距離測定値を用いることによって、検出されてよい。
引き続き、プロセッサは、例えば、視覚的マーカを検出することによって、遠隔に検出可能な視覚的特性に基づき、動作距離にある更なるヘッドウェアラブルデバイスを識別する。それに加えて、ヘッドウェアラブルデバイスは、十分に大きな視覚的マーカを備えてよい。代替的に、ヘッドウェアラブルデバイスは、ある距離にあるヘッドウェアラブルデバイスを識別する符号化された光を発する光源を備えてよく、或いは何らかの他のラベル、図式的シンボル又は視覚的コードを備えてよい。プロセッサは、そのような視覚的ラベル又はコードに基づき更なるヘッドウェアラブルデバイスを識別する。更なるヘッドウェアラブルデバイスが識別されるとき、プロセッサは、第1のヘッドウェアラブルデバイスと更なるヘッドウェアラブルデバイスとの間の通信セッションを構築するように構成される。
ヘッドウェアラブルデバイスは、デバイスと視覚的マーカとの間の関係が知られるような方法において構成されてよい。その構成(configuration)は、例えば、無線ドッキング環境データ構成の部分として、例えば、ホスト内に、或いは、ヘッドウェアラブルデバイスが接続されるネットワーク内のサーバデバイス上に、格納されてよい。ホスト又はネットワークサーバデバイスは、格納される構成情報を検索する(retrieving)照会インターフェース(query interface)を提供してよい。ホストは、ビーコンフレーム、プローブ応答又はGASフレームを用いて、無線ドッキングステーションとの事前関連発見情報交換(pre-association discovery information exchange)中に格納された構成情報を提供してもよい。代替的に、構成データは、ヘッドウェアラブルデバイスの間に分散させられてよい。ヘッドウェアラブルデバイスは、格納された構成データを検索する照会インターフェースを提供してよく、P2P事前関連デバイス発見に追加される既存の又は新しい情報要素(Information Elements)を用いて事前関連発見中にこのデータを提供してよく、或いはGAS照会応答メッセージ中にこのデータを提供してよい。
ヘッドウェアラブルデバイスの実施態様では、視覚的マーカがウェアラブルデバイスの外向きカメラから来る画像内でひとたび検出されると、マーカについての又はマーカから抽出される情報を用いて、早期に格納された構成情報からの検出されたヘッドウェアラブルデバイスについての情報を抽出してよい。その構成は、例えば、ホストに接続することによって、ネットワーク内のサーバに照会を送信することによって、ビーコンフレーム、プローブ応答又はGASフレームを用いて、無線ドッキングホストによって送信される事前関連発見情報を解析することによって、検索されて(retrieved)よい。
図1に示す通信システムは、更なるプロセッサ160と、更なる無線通信ユニット155とを有する、更なるヘッドウェアラブルデバイス150を示している。第1のヘッドウェアラブルデバイスに類似する他のコンポーネントが存在してもよく、更なる眼は更なるヘッドウェアラブルデバイスの更なる装着者を表している。更なるプロセッサは、第1のヘッドウェアラブルデバイスと更なるヘッドウェアラブルデバイスとの間の通信セッションを構築するよう構成される。
ヘッドウェアラブルデバイスは、それぞれの無線通信ユニット105,155と、例えば、そのように知られるWi-Fiを介した通信のための、更なる要素とを有することによって、無線通信のために構成される。Wi-Fi接続を構築することは、2つのデバイスがWi-Fiを通じて「関連付けられる」(‘associated’)前に、取られるべき多数のステップ及び多数のメッセージの交換を必要とする。これは正しいデバイスが接続されようとしていることを確認する幾らかのユーザの関与を必要とする場合があり、ユーザが接続の構築及び開始を待たなければならない時間、具体的には、認証ステップを要し、安全な接続を構築するためにリンク鍵(link keys)を構築することは、典型的に、時間及びユーザの関与を必要とする。もちろん、動作環境内の全てのデバイスを事前に互いにペアリングし、それらの信用(credentials)又は導き出される信用(derived credentials)を用い、(例えば、持続的なP2Pグループを用いて、事前共有鍵を用いて暗号/リンク鍵を導き出して)更なる安全な接続を自動的に構築し得るが、これは多くの動作環境において余り実用的でないことがある。
ある実施態様では、ベクトルベースのコンテキストパラメータ(context parameter)が、(ヘッドウェアラブルデバイスによって知られる固定的な位置を備えるWi-Fiアクセスポイント、ランプ又は火災警報器のような既知の場所を備える両方のヘッドウェアラブルデバイスの視野内にある特定の物体のような)共通の基準地点に向かうヘッドウェアラブルデバイスの間の角度(及び/又は距離)を三角測量することによって、自動的に導き出され、このベクトルベースのコンテキストパラメータを暗号/リンク鍵を導き出すための共通の秘密として用いる。例えば、セッションのリクエスタ(requestor)のヘッドウェアラブルデバイスは、それ自体と基準地点との間のその測定された(又は既知の)距離、それ自体と他のヘッドウェアラブルデバイスとの間の測定された(又は既知の)距離、及びリクエスタのヘッドウェアラブルデバイスが基準地点と要求されたヘッドウェアラブルデバイスとの間の角度を用い、(例えば、余弦法則を2回適用して基準地点に向かうリクエスタのヘッドウェアラブルデバイスの距離及び角度の両方を導き出すことによって)リクエスタのデバイスがリクエスタのヘッドウェアラブルデバイスと基準地点との間に有する角度を導き出してよい。要求されたデバイスは、リクエスタのヘッドウェアラブルデバイスと基準との間の角度を簡単に測定することができるので、両方とも、適用可能な(複数の)リンク鍵(のセット)を導き出すための入力としての共通の秘密として用い得る、同一の(又は極めて類似の)角度に自動的に到達する。
例えば、IEEE Fine Time Measurement(FTM)を用いることによって、ヘッドウェアラブルデバイスと周知の物体との間の又は2つのウェアラブルデバイスの間の距離を測定することを行い得る。その距離は、他のユーザからの場所情報、例えば、(例えば、Wi-Fi、GPS又は他の信号に基づく)場所トラッキングデータベース、ユーザ及び作業場所のデータベースを検索/取り出すことから、他のユーザの頭の上のランプからの符号化された光から場所を抽出することから、導き出されてもよい。基準地点は、2つのヘッドウェアラブルデバイスの間で一致されられなければならず、且つ/或いは予め一致させられ/事前に構成されなければならない。
その上、原理的には、内蔵コンパスと磁北との間の角度を用いて、共有される秘密を導き出すことができる。ヘッドウェアラブルデバイスと磁北との間の2つの平行な線を仮定すると、セッションのリクエスタであるヘッドウェアラブルデバイスは、要求されるヘッドウェアラブルデバイスの角度が、180度から、ヘッドウェアラブルデバイスが要求されたヘッドウェアラブルデバイスを指している間に、リクエスタのヘッドウェアラブルデバイスを指すコンパスと磁北との間の角度を引いた角度であると推定する。導き出される角度はそれほど精密でなく、磁場強度の可能な変動、コンパスの精度及び可能な磁性干渉を考慮に入れるために、可能な値の範囲、又は例えば特定の長さの時間に亘って測定される可能な平均値を考慮に入れる必要があることに留意のこと。
代替的な実施態様では、符号化された光を用いて、例えば、公開鍵を符号化するように、並びに、ヘッドウェアラブルデバイスのカメラが、この公開鍵を復号し得るように、両方のヘッドウェアラブルデバイスは、符号化された光を創り得るランプを備える。ディフィー・ヘルマン鍵共有(Diffie-Hellman key exchange)において公開鍵を用いてリンク鍵を導き出し得る。公開鍵を用いて入ってくるメッセージのデジタル署名を照合し、正しいデジタル署名を生成し得る、故に、対応する秘密鍵を有する、接続/メッセージのみを受け容れてもよい。
例えば、ベクトルベースのコンテキストパラメータを用いるペアリングの、信頼性を強化するための代替的な又は追加的な実施態様において、2つのヘッドウェアラブルデバイスをペアリングすることは、他のユーザの髪の毛の色、他のユーザの服の色、他のユーザの名前、他のユーザのジェスチャ、他のユーザの眼の色等の、他のユーザの特徴を、リンク鍵を創るための入力として用いることを含む。2つのデバイスがWi-Fiを通じて関連付けられるとき、それらのWi-Fi接続は暗号で保護され、IP接続が構築されてよい。
Wi-Fiデバイスは、自分自身を無線で発見可能にすることができる。これは2つのデバイスが関連付けられる前に行うことができるので、これは事前関連発見(pre-association discovery)と呼ばれる。幾つかの種類の事前関連発見がある。1つは、デバイス、及び名前、機能等のような、デバイスの幾つかの特性を発見し得るような、事前関連デバイス発見である。これは、IEEE802.11から周知の、ビーコンフレーム及びプローブ要求フレーム及びプローブ応答フレームを通じて行われてよい。他の種類は、他のものが、IEEE80211u Generic Advertisement Service(GAS)フレームを通じて、サービス、例えば、Wi-Fiデバイスによって提供される印刷、表示等を発見し得る、事前関連サービス発見である。そのような発見は、無線ドッキングのために提供される無線ドッキング環境についての情報を含むことがある。以下の要素は、無線通信セッションを構築するために無線デバイスを選択する機構を提供する。
第1のヘッドウェアラブルデバイス100は、動作環境の環境画像を取り込むカメラ120を有するのに対し、第1のプロセッサ110は、装着者の視認方向及び環境画像に基づき動作環境内の更なるヘッドウェアラブルデバイス150を検出するよう構成される。視認方向は、カメラが前方に、即ち、ヘッドウェアラブルデバイスが装着されるときの装着者の頭の方向に向けられる間に、画像の中央部分を選択することによって黙示的に用いられてよい。ここで、画像の中央部分は、装着者が前方を見ている、即ち、装着者の眼が中立位置にあるときに装着者が見ている、地点と一致する。
代替的に、視認方向は、例えば、そのように知られている眼トラッキングユニット115によって、装着者の両眼の位置を決定することによって、能動的に検出されてよい。眼トラッキングユニットの機能は、プロセッサ内に実装されてもよい。ある実施態様において、第1のヘッドウェアラブルデバイスは、装着者の眼の眼画像を取り込む内向きに面するカメラを含み、第1のプロセッサは、眼画像に基づき装着者の視認方向を検出するように構成される。よって、プロセッサは、装着者の少なくとも1つの眼の実際の向きを検出し且つ中心付けられた向きからの実際の向きのオフセットを決定して、オフセットに依存して焦点位置をシフトさせることによって、視認方向を決定するように構成されてよい。焦点位置は、中心付けられた向きにあるユーザの故の、真っ直ぐ前を見ている装着者の視野内の中心位置に対応してよく、或いはヘッドウェアラブルデバイスが指している向きと異なる向きを見ているユーザの眼の故の、中心から外れた位置に対応してよい。眼トラッキングユニットは、ユーザの両眼を指し示す内向きに面するカメラを有してよい。故に、視認方向は、能動的に検出される。
実際の視認方向を用いて、装着者が見ていると思われる環境画像の部分が選択される。有利には、焦点位置は、装着者の実際の視認方向に基づき増強され、ヘッドウェアラブルデバイスは、画像中の増強された焦点位置に基づき選択される。
通信セッションを構築している間に、ヘッドウェアラブルデバイスにあるボタンを押すこと又は接続される時計又は携帯電話上のタッチスクリーンのような何らかの他のユーザインターフェース要素を用いることのような、ヘッドウェアラブルデバイス又は接続されているデバイスとの使用者相互作用に基づき、様々な命令、要求又は確認が発せられてよい。しかしながら、そのようなユーザインターフェースに加えて又はそのようなユーザインターフェースの代替として、ジェスチャが用いられてよい。
通信システムの実施態様では、スマートメガネ装着者が、他の装着者への直接的なアイコンタクトとジェスチャとの組み合わせによって、他の装着者との通信セッションを構築する。例えば、第1の装着者は、他の装着者との通信セッションが他の装着者との直接的なアイコンタクトとジェスチャとの組み合わせによって意図されることを指し示してよい。他の装着者は、通信セッションを開始する彼の意欲を通信し且つ/或いは確認する意図を指し示してよい。ジェスチャは、手ぶり又は身体部分の任意の他の適切な動きであってよい。人の画像に基づくジェスチャ認識は、そのように知られている。ジェスチャは、通信の種類、通信の持続時間、通信の主体であるデータ種類若しくは用途、又は通信セッションを定める任意の他の要素を指し示してもよい。次に、様々な実施態様を記載する。
上記通信システムの実施態様では、第1のヘッドウェアラブルデバイスにおいて、第1のプロセッサは、更なるヘッドウェアラブルデバイスの装着者のジェスチャを検出することによってセッション確認を検出することに基づき、通信セッションを構築するために構成される。代替的に又は追加的に、更なるヘッドウェアラブルデバイスにおいて、更なるプロセッサは、第1のヘッドウェアラブルデバイスの装着者のジェスチャを検出することによって、セッション要求を検出することを含む通信セッションを構築するために構成される。
図2は、通信システムにおいて通信セッションを構築することを示している。通信システムは、(図式的に示す)動作環境内の2つのヘッドウェアラブルデバイスを含む。第1のヘッドウェアラブルデバイス220は、第1の通信ユニット221と、第1のプロセッサ222とを有する。更なるヘッドウェアラブルデバイス230は、更なる通信ユニット231と、更なるプロセッサ232とを有する。ヘッドウェアラブルデバイスは、動作環境内で互いに視覚的に検出し合い且つ識別し合うために上述のように構成される。引き続き、通信セッションは、以下の方法のうちの1つにおいて構築されてよい。
第1のヘッドウェアラブルデバイスにおいて、第1のプロセッサ222は、セッション要求250を生成し、無線通信を介して、セッション要求を更なるヘッドウェアラブルデバイスに送信することによって、通信セッションを構築するために構成されてよい。代替的に又は追加的に、第1のプロセッサは、無線通信を介して、更なるヘッドウェアラブルデバイスからセッション確認240を受信するために構成されてよい。その上、更なるヘッドウェアラブルデバイスにおいて、更なるプロセッサは、無線通信を介して、第1のヘッドウェアラブルデバイスからセッション要求250を受信することによって通信セッションを構築するために構成されてよい。代替的に又は追加的に、更なるプロセッサは、セッション確認240を生成し、無線通信を介して、セッション確認を第1のヘッドウェアラブルデバイスに送信するために構成されてよい。
任意的に、ジェスチャと電子無線メッセージとの組み合わせを用いて、通信セッションを設定すること、画定すること、修正すること、又は終了させることを開始し且つ/或いは確認してよい。
通信システムの実施態様では、第1のヘッドウェアラブルデバイスにおいて、第1のプロセッサは、第1のヘッドウェアラブルデバイスの装着者のジェスチャを検出することに基づきセッション要求を生成するために構成される。例えば、プロセッサは、更なるヘッドウェアラブルデバイスの方向における装着者の招待ジェスチャ(inviting gesture)、例えば、彼の指を向けることを検出してよい。その上、ヘッドウェアラブルデバイスは、このジェスチャによって引き起こされる光又は閃光を発して、他の装着者との通信のために注意を引き付け得る。次に、プロセッサは、例えば、そのヘッドウェアラブルデバイスから発せられる符号化された光を検出することによって、向けられるヘッドウェアラブルデバイスを識別する。次に、そのヘッドウェアラブルデバイスで標的化されるセッション要求が生成される。
代替的に又は追加的に、更なるヘッドウェアラブルデバイスにおいて、更なるプロセッサは、更なるヘッドウェアラブルデバイスの装着者のジェスチャを検出することに基づきセッション確認を生成するために構成される。例えば、プロセッサは、第1のヘッドウェアラブルデバイスの方向に「親指を立てる仕草」(“thumps up”)のような装着者の積極的なジェスチャを検出してよい。次に、プロセッサは、例えば、そのヘッドウェアラブルデバイスから発せられる符号化された光を検出することによって、指し示されているヘッドウェアラブルデバイスを識別してよい。代替的に、プロセッサは、セッション要求を既に受信し、それに応答してよい。次に、第1のヘッドウェアラブルデバイスで標的化されるセッション要求が生成される。
通信システムの実施態様では、第1のヘッドウェアラブルデバイスにおいて、第1のプロセッサは、更なるヘッドウェアラブルデバイスの装着者のジェスチャを検出することに基づきセッション要求を生成するために構成される。例えば、プロセッサは、第1のヘッドウェアラブルデバイスの方向における更なる装着者の招待ジェスチャを検出してよい。次に、プロセッサは、その装着者が、例えば、更なるヘッドウェアラブルデバイスから発せられる符号化された光を検出することによって招待ジェスチャを行う、更なるヘッドウェアラブルデバイスを識別する。次に、更なるヘッドウェアラブルデバイスで標的化されるセッション要求が生成される。その上、会議ジェスチャ(meeting gesture)が、1人よりも多くの人からの招待、即ち、招待に別々に同意して(acknowledge)よい3人又はそれよりも多くの装着者との通信セッションの開始のために識別され得る。
代替的に又は追加的に、更なるヘッドウェアラブルデバイスにおいて、更なるプロセッサは、第1のヘッドウェアラブルデバイスの装着者のジェスチャを検出することに基づきセッション確認を生成するために構成されてよい。例えば、プロセッサは、第1の装着者の確認的ジェスチャ、例えば、更なるヘッドウェアラブルデバイスの方向に彼の指を向けることを検出してよい。次に、プロセッサは、例えば、第1のヘッドウェアラブルデバイス上の視覚的マーカを検出することによって、第1のヘッドウェアラブルデバイスを識別する。次にそのヘッドウェアラブルデバイスで標的化されるセッション確認が生成される。
通信システムの実施態様では、第1のヘッドウェアラブルデバイスにおいて、第1のプロセッサは、通信セッションタイプを決定するために構成される。例えば、通信セッションタイプは、音声通信セッション又は視覚的情報共有セッション、又は周辺機器共有セッションである。
ある実施態様において、通信セッションタイプは、ホストとしての第1のヘッドウェアラブルデバイスとドッキングステーションとしての更なるヘッドウェアラブルデバイスとの間のドッキングセッション、又はドッキングステーションとしての第1のヘッドウェアラブルデバイスとホストとしての更なるヘッドウェアラブルデバイスとの間のドッキングセッションである。無線ドッキングでは、いわゆる無線ドッキングホストが、ドッキングステーションと呼ばれるモバイルデバイスに数多くのサービスを利用可能にさせ、それらを用いて、ドッキングステーションは、通信を一回で設定し得る。無線ドッキングホストによって利用可能にされる周辺機器及び/又はサービスのあらゆるグループを無線ドッキングステーションと呼ぶことがある。
図3は、ドッキングステーションをホストにドッキングするために構成される通信システムを示している。図はヘッドウェアラブルデバイス320をドッキングステーションとして含むドッキングシステムを示している。システムは、1つ又はそれよりも多くのドッキングステーション320との無線通信のためのホストデバイス300を含む。ホストは、更なるヘッドウェアラブルデバイス内に埋め込まれてよく、或いはホストデバイスは、更なるヘッドウェアラブルデバイスに連結されてよい。ホストは、多数の周辺機器310,311,312に連結されて、サービス、例えば、オーディオ又はビデオ(AV)データをレンダリングすることを提供する。この文書において、AVデータは、あらゆるタイプのビデオデータ、オーディオデータ又はビデオデータ及びオーディオデータの組み合わせのために用いられることに留意のこと。周辺機器は、ビーマ(beamer)若しくはディスプレイのようなビデオ出力デバイス、カメラ310若しくはタッチスクリーンのようなグラフィカル入力/出力デバイス、ラウドスピーカ312若しくはヘッドホンのようなオーディオ出力デバイス、マウス若しくは部屋制御ユニットのようなユーザ入力デバイス、又はデータ記憶ユニット若しくはプリンタのようなデータ処理デバイスを含んでよい。実際的な環境には、更なる周辺機器に連結される多数のホストがあってよい。
ホストデバイス300は、無線通信に適合するためのホスト通信ユニット302、例えば、そのように周知のWi-Fiユニットを有する。ホストデバイスは、少なくとも1つのドッキングステーションをドッキングするために構成されるホストプロセッサ301を更に有する。無線デバイスを無線ドッキングホスト(WDH)にドッキングするプロセスは、Wi-Fi又はBluetooth(登録商標)のような利用可能な無線チャネルを介してデータリンクを構築するプロセスであり、WO2012/117306A1を参照して上で議論したようにそのようなものとして知られている。Bluetooth(登録商標)の記述を、例えば、2007年7月26日発行のBluetooth(登録商標)仕様、コアパッケージバージョン2.1+EDR中に見出し得る。ドッキングプロセスは、ドッキングステーションのために1つ又はそれよりも多くの周辺機器へのアクセスを提供することを含む。ホストは、周辺機器を介して利用可能な設定及びサービスを制御する専用の周辺機器制御ユニットを有してよい。
ドッキングステーション320は、ホストとの無線通信に適合させるためのドッキングステーション通信ユニット321を有する。実際には、その目的のために、多数のユニット、例えば、Bluetooth(登録商標)、Wi-Fi及び60GHz(例えば、WiGig)があってよい。ドッキングステーションは、ドッキングステーションとして、少なくとも1つのサービスへのアクセスを得るために、ホストデバイスとのドッキングのために構成されるドッキングステーションプロセッサ322を更に有する。
ヘッドウェアラブルデバイス上のカメラ323が、装着者がホストを提示する更なるヘッドウェアラブルデバイスの方向を見るときに、動作環境の画像を取り込むために構成される。プロセッサ322は、動作環境に対する装着者の視認方向を検出するために構成される。ヘッドウェアラブルデバイスを実際に装着する間に、ヘッドウェアラブルデバイス及びそのカメラの向きは知られているので、プロセッサは、装着者が取り込まれる画像の中心に近い焦点上に集束されていると推測してよい。視認方向及び焦点を決定する更なる実施態様は上で議論した。
プロセッサ322は、図1及び図2に示す第1のプロセッサを参照して上で議論したように、通信機能のセットを更に実装する。それにより、ドッキング、即ち、ドッキングタイプの通信セッションを可能にする、通信セッションが、上で議論したようなアイコンタクトに基づきヘッドウェアラブルデバイスの間で構築される。デバイスは、例えば、Wi-Fi Directを用いることによって、それらの無線ドッキング環境又はそれらの機能を無線で可能にするために、Wi-Fi通信を利用してよい。2つのデバイスがWi-Fiを通じて関連付けられるとき、それらのWi-Fi接続は暗号保護され、IP接続が構築される。
通信システムの実施態様では、第1のヘッドウェアラブルデバイスにおいて、第1のプロセッサは、第1のヘッドウェアラブルデバイスの装着者のジェスチャに基づき及び/又は更なるヘッドウェアラブルデバイスの装着者のジェスチャに基づき通信セッションを決定するために構成される。例えば、プロセッサは、第1の装着者のタイプジェスチャ、例えば、更なるヘッドウェアラブルデバイスの方向における支払の動きを検出してよい。次に、プロセッサは、例えば、更なるヘッドウェアラブルデバイス上の視覚的マーカを検出することによって、更なるヘッドウェアラブルデバイスを識別する。次に、セッションが構築され、セッションの種類がジェスチャに基づき定められる。例えば、請求書を作成する又は支払うことを可能にするアプリケーションが開始される。
実際には、ジェスチャは、ユーザが通信することを欲するか否かを示してよく、ユーザが構築したい共有の種類、例えば、音声通信を更に示してよい。スマートメガネが他者の注意に引く手を振るジェスチャを検出するとき、外向きに面するカメラを用いて他のスマートメガネがカメラの視野内に位置するか否かを決定してよい。他の装着者のスマートメガネがひとたび検出されると、開始者は装着者の応答を待つ。例えば、受信する装着者は、彼女の頭を振って要求を拒否してよく、或いは頷いてセッションに同意してよい。代替的に、例えば、タイムアウトに基づく、延長されたアイコンタクトが、両方のメガネの間で検出されて、開始を引き起こす。アイコンタクトは、開始者のスマートメガネによって取り上げられ、ペアリング要求/応答プロトコル、例えば、Wi-Fi Protected Setup、Bluetooth(登録商標)ペアリングが開始される。プライバシー及び安全性のために、ペアリングプロセスは、共有される秘密、例えば、自動的に決定される共有されるコンテキストパラメータの交換を含み得る。例えば、そのようなパラメータは、内蔵コンパスを用いた地球の磁北と比較された角度計算に基づいてよい。例えば、磁北と接続されるヘッドウェアラブルデバイスの間の接続線又はアイコンタクト線との間の角度は、両方のヘッドウェアラブルデバイスで独立して決定されてよい。検出されるように選択されるジェスチャは、セッションを構築する最も自然な形態の相互作用である。しかしながら、瞬きのような代替的な同意の手段も検出されてよい。故に、通信セッションは、アイコンタクトに基づき開始され、ペアリングされるヘッドウェアラブルデバイスをもたらすのに対し、ジェスチャはプロセス中に検出されてよく且つ/或いは通信の種類を更に定めてよい。
ひとたびペアリングされると、開始者の元のジェスチャに依存してよいセッション内通信が行われる。例えば、音声通信の場合、初期設定動作は、「静かなモード」において作動することであってよい。これは、装着者が、セッションに参加していない作業者を邪魔せずに、互いに声を発しないで話し合い或いは囁き合い得ることを意味する。
ひとたび開始されると、セッションは、ペアにされる装着者の間にアイコンタクト又は音声通信が存在する持続時間に亘ってアクティブなままである。それに加えて、第1のプロセッサ及び更なるプロセッサは、アイコンタクト、ジェスチャ又は通信活動をモニタリング(監視)してよい。例えば、第1のプロセッサは後続の環境画像を周期的に撮るようカメラを制御してよく、それは着用者の視認方向を用いて更なるヘッドウェアラブルデバイスの場所を検出し或いはトラッキング(追跡)するために用いられてよい。
ある実施態様では、アイコンタクトがないことのタイムアウトに基づき、或いは音声通信リンク上である期間に亘って無言(silence)が検出されるならば、ペアリング解除が引き起こされる。ここでは、ユーザ命令によってセッションを明示的に終了させる必要はない。代替的に又は追加的に、ユーザは、通信セッションを制御する命令を発するようユーザインターフェースが提供される。例えば、ユーザは、ペアリングされた後にセッションを変更することを欲することがあり、或いは追加的なメガネ装着者をセッションに加えることを欲することがある。
ある実施態様において、第1のプロセッサは、セッション内相互作用を実行するために構成され、セッション内相互作用は、以下を含むが、これらに限定されない。
● 例えば、ユーザが囁き得るオフィスのような静かな環境又は雑音消去がアクティブ化される騒々しい環境についてのサポートを伴う、特定の音声通信タイプ。
● 文書及びデジタル媒体を交換すること。
● 多数のディスプレイを用いたスクリーン共有。
● (例えば、病院の手術室内の)状況についての他の人のビューを得るよう、他のユーザが他の人が何を見ているかを知るのを可能にすること。
例えば、ユーザは、彼の指で彼のラップトップスクリーンを指して、「あなたはこれについてどう考えるか?」と言う。ヘッドウェアラブルデバイスは、指し示されているデジタルオブジェクトを検出し、そのデジタル形態を他の受信者に中継する。
ポイント・ツー・ポイント(point-to-point)通信は、Wi-Fi、Wi-Fi Direct、Bluetooth(登録商標)又は他の無線技術を用いて構築されてよい。Wi-Fi Directのような、ポイントツーポイント無線接続がひとたび構築されると、同じ無線接続を用いて、装着者のヘッドウェアラブルデバイスにリンクされる他のデバイス及びサービスの間の通信を構築し得る。例えば、リンクされるスマートホン/タブレット/ラップトップは、ファイル交換のためのWi-Fi Direct Services Sendサービスセッション、ディスプレイ共有のためのMiracastセッション、各々の他の周辺機器を用い得るようなWi-Fi Serial Bus又はWi-Fi Dockingセッション等を構築してよい。
図4は、ヘッドウェアラブルデバイスにおける使用のための通信の方法を示している。方法は、ヘッドウェアラブルデバイス間の通信セッションを可能にする。第1のヘッドウェアラブルデバイス及び更なるヘッドウェアラブルデバイスの機能化は、図1、図2及び図3を参照して解明される。方法は、初めに、開始501で開始し、ユーザがヘッドウェアラブルデバイスを彼/彼女の頭の上に置くことによって引き起こされる。カメラは、環境画像を取り込むためにアクティブ化される。次に、DET_HWD502で、更なるヘッドウェアラブルデバイスが、ヘッドウェアラブルデバイスの装着者の視認方向及び環境画像に基づき動作環境内で検出される。次に、ID_HWD503で、更なるヘッドウェアラブルデバイスは、例えば、視覚的マーカに基づき、識別される。次に、ヘッドウェアラブルデバイスは、検出及び識別が成功裡であれば、段階SEL504で選択される。成功裡でないならば、方法は、第1の段階DET_HWDで継続する。任意的に、方法は、ジェスチャ検出段階DET_GEST508を実行する。この段階では、更なるヘッドウェアラブルデバイスの装着者のジェスチャを検出することによって、セッション確認が検出され、且つ/或いは第1のヘッドウェアラブルデバイスの装着者のジェスチャを検出することによって、セッション要求が検出される。次に、方法は、ヘッドウェアラブルデバイスと更なるヘッドウェアラブルデバイスとの間の通信セッションを構築することによって、通信段階COM_SES505で継続する。
実際には、方法は、ソフトウェア(ヘッドウェアラブルデバイス方法)、例えば、いわゆるアプリ内で実行されてよい。そのようなコンピュータプログラム(コンピュータプログラム製品)は、無線通信のためであり、図4を参照して記載したようなヘッドウェアラブルデバイスをプロセッサに実行させるよう動作可能なプログラムを含む。方法の更なる実施態様は、図1乃至3を参照して記載したような更なる動作を実行する更なる指令を含む。よって、本発明の様々な実施態様は、プログラム可能なコンポーネントを用いてハードウェア及び/又はソフトウェア内で実施されてよい。
明瞭化のための上記の説明は、異なる機能ユニットおよびプロセッサを参照して本発明の実施形態を説明したことが理解されよう。しかしながら、本発明から逸脱することなく、異なる機能ユニット又はプロセッサ間の機能の任意の適切な分散が用いられてよいことが明らかであろう。 例えば、別個のユニット、プロセッサ又はコントローラによって実行されるように例示された機能は、同じプロセッサ又は複数のコントローラによって実行されてよい。故に、特定の機能ユニットへの言及は、厳密な論理的又は物理的構造又は組織を示すよりもむしろ、記載された機能性をもたらすための適切な手段の参照としてのみ見られるべきである。本発明は、ハードウェア、ソフトウェア、ファームウェア又はこれらの任意の組み合わせを含む、任意の適切な形態において実施されてよい。
本明細書において、「含む」という用語は、列挙された要素又はステップ以外の要素又はステップの存在を排除せず、ある要素に先行する不定冠詞は、複数のそのような要素の存在を排除しないこと、如何なる参照符号も、請求項の範囲を限定しないこと、本発明はハードウェア及びソフトウェアの両方によって実施されてよいこと、幾つかの「手段」又は「ユニット」は同じハードウェア又はソフトウェアの品目によって表されてよいこと、プロセッサが場合によってはハードウェア要素と協働して1つ又はそれよりも多くのユニットの機能を充足してよいことに留意のこと。更に、本発明は、実施形態に限定されず、本発明は、上述の又は相互に異なる従属項中に列挙されるありとあらゆる新規な構成又は構成の組み合わせにある。

Claims (15)

  1. ある動作環境における使用のためのヘッドウェアラブルデバイスを含む通信システムであって、
    前記ヘッドウェアラブルデバイスは、無線通信のために構成され、
    第1のヘッドウェアラブルデバイスが、
    − 該第1のヘッドウェアラブルデバイスが第1の装着者によって装着される間に前記動作環境の環境画像を取り込むカメラと、
    − 第1のプロセッサとを含み、
    該第1のプロセッサは、
    − 前記第1の装着者の視認方向に基づき、前記第1の装着者からの動作距離にある前記動作環境内で更なる操作者によって装着される、更なるヘッドウェアラブルデバイスを検出するために前記環境画像を処理し
    − 遠隔に検出可能な視覚的特性に基づき、前記動作距離にある前記更なるヘッドウェアラブルデバイスを識別し、且つ
    − 前記第1のヘッドウェアラブルデバイスと前記更なるヘッドウェアラブルデバイスとの間の通信セッションを構築するために構成され、
    前記更なるヘッドウェアラブルデバイスは、
    − 更なるプロセッサを含み、
    該更なるプロセッサは、
    − 前記第1のヘッドウェアラブルデバイスと前記更なるヘッドウェアラブルデバイスとの間の前記通信セッションを構築するために構成される、
    通信システム。
  2. 前記ヘッドウェアラブルデバイスは、共通の基準地点に向かう前記ヘッドウェアラブルデバイスの間の角度及び/又は距離を三角測量することによってベクトルベースのコンテキストパラメータを導き出して、暗号鍵を導き出すための共通の秘密として前記ベクトルベースのコンテキストパラメータを用いることによって、安全な通信セッションを構築するために構成され、且つ/或いは
    前記第1のヘッドウェアラブルデバイスにおいて、前記第1のプロセッサは、前記通信セッションを構築するために構成され、該通信セッションを構築することは、
    − 前記更なる装着者のジェスチャを検出することによってセッション確認を検出することを含み、且つ/或いは、
    前記更なるヘッドウェアラブルデバイスにおいて、前記更なるプロセッサは、前記通信セッションを構築するために構成され、該通信セッションを構築することは、
    − 前記第1の装着者のジェスチャを検出することによってセッション要求を検出することを含む、
    請求項1に記載の通信システム。
  3. 前記第1のヘッドウェアラブルデバイスは、
    − 前記第1の装着者の眼の眼画像を取り込む内向きに面するカメラを含み、
    前記第1のプロセッサは、
    − 前記眼画像に基づき前記第1の装着者の前記視認方向を検出するために構成される、
    請求項1又は2に記載の通信システム。
  4. 前記第1のヘッドウェアラブルデバイスにおいて、前記第1のプロセッサは、前記遠隔に検出可能な視覚的特性に基づき、前記更なるヘッドウェアラブルデバイスを識別するために構成され、前記遠隔に検出可能な視覚的特性は、
    − 前記更なるヘッドウェアラブルデバイスから発するような符号化された光、
    − 前記更なるヘッドウェアラブルデバイスに設けられるような視覚的マーカ、
    − 前記更なるヘッドウェアラブルデバイスの視覚的特性、
    − 前記更なるヘッドウェアラブルデバイスの前記装着者の視覚的特性、
    − 前記更なるヘッドウェアラブルデバイスの前記装着者のジェスチャ
    のうちの少なくとも1つである、
    請求項1乃至3のうちのいずれか1項に記載の通信システム。
  5. 前記第1のヘッドウェアラブルデバイスにおいて、前記第1のプロセッサは、前記通信セッションを構築するために構成され、該通信セッションを構築することは、
    − セッション要求を生成し、前記無線通信を介して、前記セッション要求を前記更なるヘッドウェアラブルデバイスに送信すること、及び/又は
    − 前記無線通信を介して、前記更なるヘッドウェアラブルデバイスからセッション確認を受信することを含み、且つ/或いは
    前記更なるヘッドウェアラブルデバイスにおいて、前記更なるプロセッサは、前記通信セッションを構築するために構成され、該通信セッションを構築することは、
    − 前記無線通信を介して、前記第1のヘッドウェアラブルデバイスから前記セッション要求を受信すること、及び/又は
    − 前記セッション確認を生成し、前記無線通信を介して、前記セッション確認を前記第1のヘッドウェアラブルデバイスに送信することを含む、
    請求項1乃至4のうちのいずれか1項に記載の通信システム。
  6. 前記第1のヘッドウェアラブルデバイスにおいて、前記第1のプロセッサは、前記第1のヘッドウェアラブルデバイスの前記装着者のジェスチャを検出することに基づき、セッション要求を生成するために構成され、且つ/或いは
    前記更なるヘッドウェアラブルデバイスにおいて、前記更なるプロセッサは、前記更なるヘッドウェアラブルデバイスの前記装着者のジェスチャを検出することに基づき、セッション確認を生成するために構成される、
    請求項1乃至5のうちのいずれか1項に記載の通信システム。
  7. 前記第1のヘッドウェアラブルデバイスにおいて、前記第1のプロセッサは、前記更なるヘッドウェアラブルデバイスの前記装着者のジェスチャを検出することに基づき、セッション要求を生成するために構成され、且つ/或いは
    前記更なるヘッドウェアラブルデバイスにおいて、前記更なるプロセッサは、前記第1のヘッドウェアラブルデバイスの前記装着者のジェスチャを検出することに基づき、セッション確認を生成するために構成される、
    請求項1乃至6のうちのいずれか1項に記載の通信システム。
  8. 前記第1のヘッドウェアラブルデバイスにおいて、前記第1のプロセッサは、通信セッションのタイプを決定するために構成され、該通信セッションのタイプは、
    − ホストとしての前記第1のヘッドウェアラブルデバイスとドッキングステーションとしての前記更なるヘッドウェアラブルデバイスとの間のドッキングセッション、
    − ドッキングステーションとしての前記第1のヘッドウェアラブルデバイスとホストとしての前記更なるヘッドウェアラブルデバイスとの間のドッキングセッション、
    − 音声通信セッション、
    − 視覚的情報共有セッション、
    − 周辺機器共有セッション
    のうちの1つである、
    請求項1乃至7のうちのいずれか1項に記載の通信システム。
  9. − 前記第1のヘッドウェアラブルデバイスにおいて、前記第1のプロセッサは、前記第1のヘッドウェアラブルデバイスの前記装着者のジェスチャ及び/又は前記更なるヘッドウェアラブルデバイスの前記装着者のジェスチャに基づき、通信セッションのタイプを決定するために構成される、
    請求項1乃至8のうちのいずれか1項に記載の通信システム。
  10. − 前記第1のヘッドウェアラブルデバイスにおいて、前記第1のプロセッサは、前記通信セッションにおいて、ユーザ相互作用セッションを提供するために構成され、
    − 前記更なるヘッドウェアラブルデバイスにおいて、前記更なるプロセッサは、前記通信セッションにおいて、前記ユーザ相互作用セッションを提供するために構成され、
    ユーザ相互作用セッションは、
    − 前記ヘッドウェアラブルデバイスの前記装着者の間の音声通信、
    − 前記ヘッドウェアラブルデバイスの前記装着者間の情報の共有又は該情報の相互作用的な使用、
    − 周辺機器又は周辺機器の部分の共有
    のうちの少なくとも1つを含み、
    前記情報は、
    − テキスト、
    − 画像、
    − ビデオ、
    − コンピュータ生成データ
    のうちの少なくとも1つを含み、
    前記周辺機器又は周辺機器の部分の共有は、
    − コンピュータスクリーンを共有すること、
    − 前記第1のヘッドウェアラブルデバイスによる前記更なるヘッドウェアラブルデバイスのディスプレイを借用することのような、
    共有である、
    請求項1乃至9のうちのいずれか1項に記載の通信システム。
  11. − 前記第1のヘッドウェアラブルデバイスにおいて、前記第1のプロセッサは、前記通信セッションのようなドッキングセッションにおいてドッキングステーションとして機能するために構成され、
    − 前記更なるヘッドウェアラブルデバイスにおいて、前記更なるプロセッサは、前記ドッキングセッションにおいてホストとして機能するために構成され、該ホストは、少なくとも1つの周辺機器に連結するために構成され、
    前記ホストは、ドッキングステーションとしての前記ヘッドウェアラブルデバイスとの無線ドッキングのために並びに前記ヘッドウェアラブルデバイスのための前記周辺機器へのアクセスを提供するために構成され、
    前記ヘッドウェアラブルデバイスは、前記周辺機器にアクセスするための前記ホストの前記ドッキングステーションとして無線ドッキングのために構成される、
    請求項1乃至10のうちのいずれか1項に記載の通信システム。
  12. 請求項1に記載の通信システムにおける使用のためのヘッドウェアラブルデバイスであって、
    − 無線通信のための無線通信ユニット、
    − 前記第1のヘッドウェアラブルデバイスが第1の装着者によって装着されている間に、前記動作環境の環境画像を取り込むカメラと、
    − 請求項1乃至11のうちのいずれか1項に記載の第1のプロセッサとを含み、
    該第1のプロセッサは、
    − 前記第1の装着者の視認方向に基づき、前記第1の装着者からの動作距離にある前記動作環境内の更なる装着者によって装着される、更なるヘッドウェアラブルデバイスを検出するために前記環境画像を処理し
    − 遠隔に検出可能な視覚的特性に基づき、前記動作距離にある前記更なるヘッドウェアラブルデバイスを識別し、且つ
    − 前記第1のヘッドウェアラブルデバイスと前記更なるヘッドウェアラブルデバイスとの間の通信セッションを構築するために構成される、
    ヘッドウェアラブルデバイス。
  13. 請求項1に記載の通信システムにおける前記第1のヘッドウェアラブルデバイスにおける使用のための通信の方法であって、
    前記ヘッドウェアラブルデバイスは、無線通信のために構成され、前記第1のヘッドウェアラブルデバイスが第1の装着者によって装着される間に、前記動作環境の環境画像を取り込むカメラを含み、
    当該方法は、
    − 前記第1の装着者の視認方向に基づき、前記第1の装着者からの動作距離にある前記動作環境内で更なる装着者によって装着される、更なるヘッドウェアラブルデバイスを検出するために前記環境画像を処理すること、
    − 遠隔に検出可能な視覚的特性に基づき、前記動作距離にある前記更なるヘッドウェアラブルデバイスを識別すること、及び
    − 前記ヘッドウェアラブルデバイスと前記更なるヘッドウェアラブルデバイスとの間の通信セッションを構築することを含む、
    方法。
  14. 請求項13に記載の方法であって、
    − 共通の基準地点に向かう前記ヘッドウェアラブルデバイスの間の角度及び/又は距離を三角測量することによってベクトルベースのコンテキストパラメータを導き出して、暗号鍵を導き出すための共通の秘密として前記ベクトルベースのコンテキストパラメータを用いることによって、安全な通信セッションを構築すること、
    − 前記更なるヘッドウェアラブルデバイスの前記装着者のジェスチャを検出することによってセッション確認を検出すること、及び/又は
    − 前記第1のヘッドウェアラブルデバイスの前記装着者のジェスチャを検出することによってセッション要求を検出することを含む、
    方法。
  15. 前記ヘッドウェアラブルデバイスの間で通信するためのコンピュータプログラムであって、
    プロセッサに請求項13又は14に記載の方法を実行させるように動作可能なプログラムを含む、
    コンピュータプログラム。
JP2017533297A 2014-12-22 2015-12-18 ヘッドウェアラブルデバイスを含む通信システム Active JP6621826B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP14199738.7 2014-12-22
EP14199738 2014-12-22
PCT/EP2015/080381 WO2016102336A1 (en) 2014-12-22 2015-12-18 Communication system comprising head wearable devices

Publications (2)

Publication Number Publication Date
JP2018504688A JP2018504688A (ja) 2018-02-15
JP6621826B2 true JP6621826B2 (ja) 2019-12-18

Family

ID=52282496

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017533297A Active JP6621826B2 (ja) 2014-12-22 2015-12-18 ヘッドウェアラブルデバイスを含む通信システム

Country Status (5)

Country Link
US (1) US20170359456A1 (ja)
EP (1) EP3237991B1 (ja)
JP (1) JP6621826B2 (ja)
CN (1) CN107113354B (ja)
WO (1) WO2016102336A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10681021B2 (en) * 2011-06-01 2020-06-09 Qualcomm Incorporated Selective admission into a network sharing session
US11941168B2 (en) * 2016-02-06 2024-03-26 Ip3 2023, Series 923 Of Allied Security Trust I Gaze initiated interaction technique
JP2017175439A (ja) * 2016-03-24 2017-09-28 京セラ株式会社 電子機器
WO2018091349A1 (en) 2016-11-17 2018-05-24 Philips Lighting Holding B.V. A device for identifying a second device and method thereof
CN107608076B (zh) * 2017-09-06 2019-11-26 北京小鸟看看科技有限公司 头戴显示***和主机
EP3502838B1 (en) * 2017-12-22 2023-08-02 Nokia Technologies Oy Apparatus, method and system for identifying a target object from a plurality of objects
US11114199B2 (en) 2018-01-25 2021-09-07 Mako Surgical Corp. Workflow systems and methods for enhancing collaboration between participants in a surgical procedure
US10732710B2 (en) * 2018-06-26 2020-08-04 Sony Interactive Entertainment Inc. Privacy chat trigger using mutual eye contact
US10582897B2 (en) * 2018-07-24 2020-03-10 Dnanudge Limited Method and device for comparing personal biological data of two users
JP7163656B2 (ja) * 2018-07-30 2022-11-01 株式会社リコー 配信システム、受信クライアント端末、配信方法
US10581940B1 (en) * 2018-08-20 2020-03-03 Dell Products, L.P. Head-mounted devices (HMDs) discovery in co-located virtual, augmented, and mixed reality (xR) applications
CN110502115B (zh) * 2019-08-19 2021-08-13 Oppo广东移动通信有限公司 交互方法、头戴设备和存储介质
CN112506335B (zh) * 2019-09-16 2022-07-12 Oppo广东移动通信有限公司 头戴式设备及其控制方法、装置、***和存储介质
US11099402B2 (en) * 2019-10-25 2021-08-24 Microsoft Technology Licensing, Llc Dynamically changing a fiducial marker for IoT device identification
US11289086B2 (en) * 2019-11-01 2022-03-29 Microsoft Technology Licensing, Llc Selective response rendering for virtual assistants
JP7500603B2 (ja) * 2019-11-18 2024-06-17 マクセル株式会社 キャッシュレス決済システムおよび情報端末
US11184601B2 (en) * 2019-12-19 2021-11-23 Shenzhen Yunyinggu Technology Co., Ltd. Apparatus and method for display encoding
US11747859B2 (en) * 2021-03-16 2023-09-05 Shailesh Nirgudkar Personal safety headband
CN113778230A (zh) * 2021-09-14 2021-12-10 Oppo广东移动通信有限公司 信息交互方法、装置、设备及存储介质
US20230177136A1 (en) * 2021-12-08 2023-06-08 Qualcomm Incorporated Auto-pairing rotation vector

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002152805A (ja) * 2000-11-10 2002-05-24 Sony Corp 通信制御装置およびその方法、ならびに通信システムおよびその方法
US8963804B2 (en) * 2008-10-30 2015-02-24 Honeywell International Inc. Method and system for operating a near-to-eye display
US8447070B1 (en) * 2010-04-19 2013-05-21 Amazon Technologies, Inc. Approaches for device location and communication
JP2011249907A (ja) * 2010-05-24 2011-12-08 Nikon Corp 頭部装着型入力装置
KR20130136566A (ko) * 2011-03-29 2013-12-12 퀄컴 인코포레이티드 로컬 멀티-사용자 협업을 위한 모듈식 모바일 접속된 피코 프로젝터들
US10681021B2 (en) * 2011-06-01 2020-06-09 Qualcomm Incorporated Selective admission into a network sharing session
JP5718757B2 (ja) * 2011-07-26 2015-05-13 国立大学法人京都大学 画像管理装置、画像管理プログラム、および画像管理方法
US8235529B1 (en) * 2011-11-30 2012-08-07 Google Inc. Unlocking a screen using eye tracking information
US9014681B2 (en) * 2011-12-27 2015-04-21 Sony Corporation Establishing a communication connection between two devices based on device displacement information
US20140368980A1 (en) * 2012-02-07 2014-12-18 Google Inc. Technical Support and Remote Functionality for a Wearable Computing System
US8893164B1 (en) * 2012-05-16 2014-11-18 Google Inc. Audio system
US9312948B2 (en) * 2012-07-09 2016-04-12 Qualcomm Incorporated Method and apparatus for enabling wireless dockees to find and dock with a wireless docking host being used by another dockee
US20140152538A1 (en) * 2012-11-30 2014-06-05 Plantronics, Inc. View Detection Based Device Operation
CN203164515U (zh) * 2013-04-12 2013-08-28 北京印刷学院 一种智能眼镜
US20150153826A1 (en) * 2013-12-01 2015-06-04 Apx Labs, Llc Systems and methods for providing a virtual menu
CN104036169B (zh) * 2014-06-06 2017-10-10 北京智谷睿拓技术服务有限公司 生物认证方法及生物认证装置
CN104055478B (zh) * 2014-07-08 2016-02-03 金纯� 基于视线追踪控制的医用内窥镜操控***
CN104199793B (zh) * 2014-08-29 2018-05-01 广州三星通信技术研究有限公司 便携式电子设备及在其上关联其他电子设备信息的方法和装置

Also Published As

Publication number Publication date
WO2016102336A1 (en) 2016-06-30
CN107113354B (zh) 2021-08-03
EP3237991B1 (en) 2021-06-30
JP2018504688A (ja) 2018-02-15
EP3237991A1 (en) 2017-11-01
US20170359456A1 (en) 2017-12-14
CN107113354A (zh) 2017-08-29

Similar Documents

Publication Publication Date Title
JP6621826B2 (ja) ヘッドウェアラブルデバイスを含む通信システム
US9319402B2 (en) Digital handshake for authentication of devices
US8429407B2 (en) Digital handshake between devices
US9071967B1 (en) Wireless credential sharing
JP6379104B2 (ja) 近距離通信(nfc)リンクを介した、2人のモバイル・デバイス・ユーザに共通する情報の共有
US9635106B2 (en) Identifying one or more peer devices in a peer-to-peer communication
US11445026B2 (en) Methods, systems, and media for indicating a security status of an internet of things device
EP3276910B1 (en) Bluetooth-based identity recognition method and device
US20160154460A1 (en) Gaze Initiated Interaction Technique
US10440032B2 (en) Method, apparatus, and recording medium for sharing use authority with respect to service
EP2987269B1 (en) Method and system for controlling external device
KR20160015972A (ko) 웨어러블 디바이스 및 그 제어 방법
EP3610667B1 (en) Techniques for verifying user intent and securely configuring computing devices
TWI692703B (zh) 用於出現識別之方法與系統及相關電腦可讀媒體
US20180212773A1 (en) Close proximity inner circle discovery
US10276127B2 (en) Identifying users from screen touch events
US10845875B1 (en) Gaze initiated interaction technique
CN111694892A (zh) 资源转移方法、装置、终端、服务器及存储介质
WO2016139968A1 (ja) 制御装置、制御方法、およびプログラム
JP6026703B2 (ja) ルータアクセス制御方法、装置、ルータ、プログラム、及び記録媒体
TW201715901A (zh) 在一第一通訊裝置及至少一第二通訊裝置之間建立一共享秘密
JP2014099130A (ja) デバイスへのデータ表示システム、方法、並びに、そのシステムのためのプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170623

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191120

R150 Certificate of patent or registration of utility model

Ref document number: 6621826

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250