JP2022113031A - Control device, program, system, and control method - Google Patents
Control device, program, system, and control method Download PDFInfo
- Publication number
- JP2022113031A JP2022113031A JP2021009122A JP2021009122A JP2022113031A JP 2022113031 A JP2022113031 A JP 2022113031A JP 2021009122 A JP2021009122 A JP 2021009122A JP 2021009122 A JP2021009122 A JP 2021009122A JP 2022113031 A JP2022113031 A JP 2022113031A
- Authority
- JP
- Japan
- Prior art keywords
- space
- type
- type device
- control device
- spectacles
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000008859 change Effects 0.000 claims abstract description 81
- 238000002834 transmittance Methods 0.000 claims description 9
- 238000005259 measurement Methods 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 22
- 238000003384 imaging method Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 12
- 230000005540 biological transmission Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 238000010295 mobile communication Methods 0.000 description 4
- 230000010365 information processing Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、制御装置、プログラム、システム及び制御方法に関する。 The present invention relates to control devices, programs, systems, and control methods.
特許文献1には、音声再生装置の位置に応じて音量を調整する(病院や図書館では音量を絞る)ことが記載されている。特許文献2には、フライトモードを備える頭部装着型デバイスが記載されている。特許文献3には、ユーザが会話中にコンテンツの音声の音量を下げることが記載されている。
[先行技術文献]
[特許文献]
[特許文献1]特開2010-136034号公報
[特許文献2]特開2014-090407号公報
[特許文献3]特開2012-186622号公報
Patent Literature 1 describes adjusting the volume according to the position of the audio reproducing device (turning down the volume in hospitals and libraries). Patent Literature 2 describes a head-mounted device with flight mode. Japanese Patent Laid-Open No. 2002-200002 describes that the volume of the audio of content is lowered while the user is having a conversation.
[Prior art documents]
[Patent Literature]
[Patent Document 1] JP 2010-136034 [Patent Document 2] JP 2014-090407 [Patent Document 3] JP 2012-186622
本発明の一実施態様によれば、眼鏡型デバイスを制御する制御装置が提供される。制御装置は、眼鏡型デバイスが位置する空間の種類を認識する空間認識部を備えてよい。制御装置は、空間認識部によって認識された空間の種類に基づいて、眼鏡型デバイスの入出力に関連する設定値を変更する設定変更部を備えてよい。 According to one embodiment of the present invention, a controller is provided for controlling an eyewear device. The controller may comprise a space recognizer that recognizes the type of space in which the glasses-type device is located. The control device may include a setting change unit that changes setting values related to input/output of the glasses-type device based on the type of space recognized by the space recognition unit.
上記空間認識部は、上記眼鏡型デバイスが備えるカメラによって撮像された撮像画像に基づいて、上記眼鏡型デバイスが位置する空間の種類を認識してよい。上記空間認識部は、上記眼鏡型デバイスが備える空間測定センサの出力に基づいて、上記眼鏡型デバイスが位置する空間の種類を認識してよい。上記空間認識部は、上記眼鏡型デバイスが備える輝度センサの出力に基づいて、上記眼鏡型デバイスが位置する空間の種類を認識してよい。上記空間認識部は、各地の3次元空間情報が登録された3Dマップから、上記眼鏡型デバイスの位置情報が示す位置に対応する3次元空間情報を取得することによって、上記眼鏡型デバイスが位置する空間の種類を認識してよい。 The space recognition section may recognize the type of space in which the eyeglass-type device is located, based on an image captured by a camera included in the eyeglass-type device. The space recognition section may recognize the type of space in which the eyeglasses-type device is located based on the output of a space measurement sensor included in the eyeglasses-type device. The space recognition section may recognize the type of space in which the eyeglass-type device is located based on the output of a brightness sensor included in the eyeglass-type device. The space recognition unit acquires three-dimensional space information corresponding to the position indicated by the position information of the eyeglass-type device from a 3D map in which three-dimensional space information of various places is registered, thereby locating the eyeglass-type device. You may recognize the type of space.
上記設定変更部は、上記空間認識部によって認識された上記空間の種類に基づいて、上記眼鏡型デバイスによる出力音声に関する設定値を変更してよい。上記設定変更部は、上記空間認識部によって認識された上記空間の種類に基づいて、上記眼鏡型デバイスが表示するコンテンツに関する設定値を変更してよい。上記設定変更部は、上記空間認識部によって認識された上記空間の種類に基づいて、上記眼鏡型デバイスによって表示されるコンテンツの透過率を変更してよい。上記設定変更部は、上記空間認識部によって認識された上記空間の種類に基づいて、上記眼鏡型デバイスによるコンテンツの表示のオンオフを変更してよい。上記設定変更部は、上記空間認識部によって認識された上記空間の種類に基づいて、上記眼鏡型デバイスの音声入力に関する設定値を変更してよい。上記設定変更部は、上記空間認識部によって認識された上記空間の種類に基づいて、外部通知のオンオフを変更してよい。上記設定変更部は、上記空間認識部によって認識された上記空間の種類に基づいて、上記眼鏡型デバイスが外部コンテンツを受領するか否かを変更してよい。上記設定変更部は、上記空間認識部によって認識された上記空間の種類に基づいて、上記眼鏡型デバイスのカメラに関する設定値を変更してよい。上記制御装置は、上記眼鏡型デバイスを装着しているユーザが、他者と対面しているか否かを判定する対面判定部を備えてよく、上記設定変更部は、上記対面判定部による判定結果にさらに基づいて、上記眼鏡型デバイスの入出力に関連する設定値を変更してよい。上記制御装置は、上記眼鏡型デバイスに搭載されていてよい。 The setting change unit may change a setting value related to the output sound by the glasses-type device based on the type of the space recognized by the space recognition unit. The setting change unit may change setting values related to content displayed by the glasses-type device based on the type of space recognized by the space recognition unit. The setting change unit may change transmittance of content displayed by the glasses-type device based on the type of space recognized by the space recognition unit. The setting change unit may change ON/OFF of content display by the glasses-type device based on the type of the space recognized by the space recognition unit. The setting change unit may change a setting value related to voice input of the glasses-type device based on the type of space recognized by the space recognition unit. The setting change unit may change ON/OFF of the external notification based on the type of the space recognized by the space recognition unit. The setting change unit may change whether or not the glasses-type device receives external content based on the type of space recognized by the space recognition unit. The setting change section may change a setting value related to the camera of the spectacles-type device based on the type of the space recognized by the space recognition section. The control device may include a facing determination unit that determines whether or not the user wearing the glasses-type device is facing another person. Further based on, the setting values related to the inputs and outputs of the eyeglasses-type device may be changed. The control device may be mounted on the glasses-type device.
本発明の一実施態様によれば、コンピュータを、上記制御装置として機能させるためのプログラムが提供される。 According to one embodiment of the present invention, there is provided a program for causing a computer to function as the control device.
本発明の一実施態様によれば、上記制御装置と、上記眼鏡型デバイスとを備え、上記制御装置は、上記眼鏡型デバイスに対して、ネットワークを介して指示を送信することによって、上記眼鏡型デバイスを制御する、システムが提供される。 According to one embodiment of the present invention, the control device and the eyeglasses-type device are provided, and the control device controls the eyeglasses-type device by transmitting instructions to the eyeglasses-type device via a network. A system is provided for controlling a device.
本発明の一実施態様によれば、眼鏡型デバイスを制御する制御装置によって実行される制御方法が提供される。制御方法は、眼鏡型デバイスが位置する空間の種類を認識する空間認識段階を備えてよい。制御方法は、空間認識段階において認識された空間の種類に基づいて、眼鏡型デバイスの入出力に関連する設定値を変更する設定変更段階を備えてよい。 According to one embodiment of the present invention, there is provided a control method performed by a controller for controlling an eyeglass-type device. The control method may comprise a spatial awareness step of recognizing the type of space in which the eyeglass device is located. The control method may comprise a setting change step of changing settings related to inputs and outputs of the glasses-type device based on the type of space recognized in the space recognition step.
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 It should be noted that the above summary of the invention does not list all the necessary features of the invention. Subcombinations of these feature groups can also be inventions.
AR(Augmented Reality)グラス等の眼鏡型デバイスは、今後普及が進み、様々な場所で使用されることが想定されるが、特定の場所や画面においては、周囲の迷惑になる可能性がある。マナーモード等の設定が搭載される可能性はあるが、ユーザが手動で設定しなければならない場面が出てくる。本実施形態に係る眼鏡型デバイス100は、空間や場面、状況を認識して、各種設定値を自動的に変更する機能を備える。
Glasses-type devices such as AR (Augmented Reality) glasses are expected to become more popular in the future and to be used in various places. There is a possibility that settings such as manner mode are installed, but there will be situations where the user has to manually set them. The spectacles-
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Also, not all combinations of features described in the embodiments are essential for the solution of the invention.
図1は、システム10の一例を概略的に示す。システム10は、複数の眼鏡型デバイス100及び管理サーバ300を備える。
FIG. 1 schematically illustrates an
眼鏡型デバイス100は、無線通信機能と、各種情報を表示部に表示する表示機能を有している眼鏡型のデバイスであれば、どのようなものであってもよい。眼鏡型デバイス100は、例えば、ARグラスであってよい。
The spectacles-
眼鏡型デバイス100が表示する情報の例として、時刻や日時等の情報、メールやSNS等の情報、アプリの情報、及びAR用のコンテンツ等が挙げられる。なお、これらに限らず、眼鏡型デバイス100は、任意の情報を表示可能であってよい。
Examples of the information displayed by the glasses-
眼鏡型デバイス100は、AR用のコンテンツを、管理サーバ300から受信して、表示してよい。管理サーバ300が管理するコンテンツは、任意のデータ形式であってよい。例えば、コンテンツは、3DのCG(Computer Graphics)データである。例えば、コンテンツは、静止画である。また、例えば、コンテンツは、動画である。例えば、コンテンツは、テキストである。コンテンツは、これらを複合的に含んでもよい。
The glasses-
眼鏡型デバイス100は、コンテンツを透明又は半透明のグラス上に表示することによって、実空間にコンテンツが配置されている感覚をユーザ102に与えることが可能なデバイスであってよい。すなわち、眼鏡型デバイス100は、いわゆる透過型(シースルー型)のデバイスであってよい。なお、眼鏡型デバイス100は、ビデオパススルー型のデバイスであってもよい。この場合、眼鏡型デバイス100は、ユーザ102の視界に対応する範囲を撮影している撮影画像を非透過型のディスプレイに表示し、コンテンツを重畳表示してよい。
The glasses-
眼鏡型デバイス100は、音声出力機能をさらに備えてよい。眼鏡型デバイス100は、例えば、ユーザ102に対して、音楽データ等を出力する。AR用のコンテンツに、音声が対応付けられている場合、眼鏡型デバイス100は、コンテンツを表示するとともに、コンテンツに対応する音声を出力してよい。
The glasses-
管理サーバ300は、眼鏡型デバイス100に配信するコンテンツを管理してよい。管理サーバ300は、例えば、実世界の対象に対応付けてコンテンツを登録する。実世界の対象は、実世界の位置、エリア、及び物体等であってよい。コンテンツの登録は、管理サーバ300の管理者等によって許可された任意の者によって行われてよい。管理サーバ300は、スマートフォン、タブレット端末、PC(Personal Computer)、及びARグラス等によるコンテンツの登録を受け付けてよい。
The
管理サーバ300は、例えば、眼鏡型デバイス100から、眼鏡型デバイス100の撮像範囲を示す撮像範囲情報を受信して、撮像範囲に含まれる対象に対応するコンテンツを眼鏡型デバイス100に送信してよい。眼鏡型デバイス100の撮像範囲は、眼鏡型デバイス100のカメラの撮像範囲であってよい。眼鏡型デバイス100のカメラによる撮像範囲は、ユーザ102の視界に対応する範囲であってよい。眼鏡型デバイス100のカメラの撮像範囲は、ユーザ102の視界よりも広い範囲であってよく、ユーザ102の視界と実質的に同じ範囲であってもよい。
For example, the
眼鏡型デバイス100と管理サーバ300は、ネットワーク20を介して通信してよい。ネットワーク20は、クラウドを含む。ネットワーク20は、インターネットを含んでよい。ネットワーク20は、移動体通信ネットワークを含んでよい。移動体通信ネットワークは、LTE(Long Term Evolution)通信方式、3G(3rd Generation)通信方式、5G(5th Generation)通信方式、6G(6th Generation)通信方式以降の通信方式のいずれに準拠していてもよい。ネットワーク20は、Wi-Fi(登録商標)通信方式に対応していてよい。ネットワーク20には、Wi-Fiアクセスポイントを介してアクセス可能であってよい。ネットワーク20には、その他無線通信全般を利用してアクセス可能であってよい。管理サーバ300は、ネットワーク20に有線接続されてよく、無線接続されてもよい。眼鏡型デバイス100は、移動体通信、Wi-Fi通信、その他無線通信全般によって、ネットワーク20に接続されてよい。
The glasses-
図2は、眼鏡型デバイス100の構成の一例を概略的に示す。眼鏡型デバイス100は、リム112及びテンプル118を有するフレーム110を備える。眼鏡型デバイス100は、眼鏡型デバイス100における各種制御を実行する制御装置200を備える。
FIG. 2 schematically shows an example of the configuration of the spectacles-
図2における制御装置200の配置は一例であり、制御装置200は、フレーム110の他の位置に配置されてもよい。例えば、制御装置200は、フレーム110の外部に配置されてもよい。また、例えば、制御装置200は、テンプル118内に配置されてもよい。具体例として、制御装置200は、テンプル118の先端部、すなわち、モダンに配置されてもよい。制御装置200は、バッテリを備えてよい。制御装置200とバッテリは、別体として、フレーム110の別の位置に配置されてもよい。
The arrangement of the
眼鏡型デバイス100は、カメラ120を備えてよい。カメラ120の撮像範囲は、眼鏡型デバイス100を装着しているユーザ102の視界に対応する範囲であってよい。図2におけるカメラ120の配置は一例であり、カメラ120は、他の位置に配置されてもよい。
The glasses-
眼鏡型デバイス100は、センサ122を備えてよい。センサ122は、眼鏡型デバイス100の空間を測定するための空間測定センサであってよい。センサ122は、LiDAR(Light Detection and Ranging)を含んでよい。センサ122は、測距センサを含んでもよい。図2では、センサ122がブリッジ114に配置されている場合を例示しているが、図2におけるセンサ122の配置は一例であり、センサ122は、他の位置に配置されてもよい。
The
眼鏡型デバイス100は、センサ124を備えてよい。センサ124は、例えば、眼鏡型デバイス100の装着者であるユーザ102の視線を検出する。センサ124は、例えば、ユーザ102の目を撮像して監視することによって、ユーザ102の視線を検出する。図2におけるセンサ124の配置は一例であり、センサ124は、他の位置に配置されてもよい。
The
眼鏡型デバイス100は、マイク126を備えてよい。マイク126は、眼鏡型デバイス100の装着者であるユーザ102の発話を取得可能な位置に配置される。図2におけるマイク126の配置は一例であり、マイク126は、他の位置に配置されてもよい。
Glasses-
眼鏡型デバイス100は、音声出力部128を備えてよい。音声出力部128は、スピーカを備えてよい。図2における音声出力部128の配置は一例であり、音声出力部128は、他の位置に配置されてもよい。
The glasses-
眼鏡型デバイス100は、センサ130を備えてよい。センサ130は、眼鏡型デバイス100の周囲の輝度を測定する輝度センサであってよい。図2におけるセンサ130の配置は一例であり、センサ130は、他の位置に配置されてもよい。
The
制御装置200は、各種入力を受け付けてよい。制御装置200は、眼鏡型デバイス100の任意の位置に配置された操作部を介して、ユーザ102からの各種入力を受け付けてよい。制御装置200は、例えば、フレーム110の任意の位置に配置されたボタン等の入力部を介して、ユーザ102からの各種入力を受け付ける。制御装置200は、例えば、スマートフォン、ウェアラブル端末、及びタブレット端末等の携帯端末を介して、ユーザ102からの各種入力を受け付けてもよい。眼鏡型デバイス100は、例えば、Wi-Fi、Bluetooth(登録商標)及びZigbee(登録商標)等の短距離無線通信方式を用いて、これらと無線接続を確立してよい。
The
制御装置200は、ユーザ102による音声入力を受け付けてもよい。制御装置200は、マイク126が取得したユーザ102の発話を音声認識することによって、ユーザ102による音声入力を受け付けてよい。
制御装置200は、ユーザ102の手の動きによる入力を受け付けてよい。制御装置200は、カメラ120によって撮像されたユーザ102の手の動きを認識することによって、コンテンツの選択等の、ユーザ102による入力を受け付けてよい。制御装置200は、ユーザ102によるジェスチャ入力を受け付けてもよい。
The
制御装置200は、各種センサを備えてよい。制御装置200は、例えば、測位センサを備える。例えば、制御装置200は、GPS(Global Positioning System)センサ等のGNSS(Global Naviagtion Satellite System)センサを備える。制御装置200は、加速度センサを備えてよい。制御装置200は、ジャイロセンサを備えてよい。制御装置200は、その他のセンサを備えてもよい。
The
制御装置200は、カメラ120の撮像範囲を示す撮像範囲情報を生成してよい。制御装置200は、眼鏡型デバイス100の位置、向き、及び姿勢に基づいて、撮像範囲情報を生成してよい。制御装置200は、各種センサの出力によって、眼鏡型デバイス100の位置、向き、及び姿勢を特定してよい。
The
制御装置200は、レンズ部116への表示機能を備えてよい。レンズ部116は、眼鏡型デバイス100の表示部の一例であってよい。レンズ部116は、透明又は半透明のディスプレイであってよく、制御装置200は、レンズ部116に各種表示を実行させてよい。すなわち、眼鏡型デバイス100は、透明又は半透明のディスプレイ型のデバイスであってよい。また、制御装置200が、レンズ部116に対して表示を投影する機能を有してもよい。すなわち、眼鏡型デバイス100は、投影型のデバイスであってよい。
The
制御装置200は、ネットワーク20を介した通信を実行する機能を有してよい。制御装置200は、移動体通信、Wi-Fi通信、及びその他の無線通信全般の少なくともいずれかによって、ネットワーク20にアクセスしてよい。制御装置200は、ネットワーク20を介して、管理サーバ300と通信してよい。
The
制御装置200は、眼鏡型デバイス100の入出力に関する設定値に従って、各種入出力を制御する。設定値は、例えば、製品購入時等においてはデフォルトの値であり、ユーザ102によってカスタマイズ可能であってよい。
The
本実施形態に係る制御装置200は、通常時における設定値(基本設定値と記載する場合がある。)とは別に、眼鏡型デバイス100が置かれている状況に応じた設定値(状況設定値と記載する場合がある。)を設定可能である。制御装置200は、例えば、眼鏡型デバイス100が位置する空間の種類毎の状況設定値を格納する。空間の種類の例としては、屋内空間、屋外空間、周囲の人の密度が多い空間、周囲の人の密度が少ない空間、広い空間、及び狭い空間等が挙げられるが、これらに限られない。
The
また、制御装置200は、例えば、眼鏡型デバイス100のユーザ102が他者と対面している状況における状況設定値を格納する。制御装置200は、空間の種類毎に、ユーザ102が他者と対面していない状況における状況設定値と、ユーザ102が他者と対面している状況における状況設定値とを格納してもよい。
Also, the
状況設定値は、ユーザ102によって設定可能であってよい。ユーザ102は、例えば、空間の種類毎に、状況設定値を自発的に手動設定する。また、ユーザ102は、例えば、他者と対面している状況における状況設定値を自発的に手動設定する。また、ユーザ102は、例えば、空間の種類毎に、ユーザ102が他者と対面していない状況における状況設定値と、ユーザ102が他者と対面している状況における状況設定値とを自発的に手動設定する。
The context settings may be configurable by the
制御装置200は、ユーザ102による設定値の調整状況に応じて、状況設定値を設定してもよい。例えば、制御装置200は、眼鏡型デバイス100がある空間に位置する場合に、ユーザ102によって設定値が変更された場合に、変更後の設定値を、当該空間の種類に対応する状況設定値として設定する。
The
制御装置200は、例えば、カメラ120によって撮像された撮像画像と、各種センサによって出力された情報とを用いて、眼鏡型デバイス100が位置する空間の種類を認識する。そして、制御装置200は、眼鏡型デバイス100の入出力に関連する設定値を、認識した空間の種類に対応する状況設定値に変更する。
The
入出力に関連する設定値の例として、出力音声に関する設定値が挙げられる。当該設定値は、例えば、出力音声の音量を示す。当該設定値は、出力音声のオンオフを示してもよい。 An example of setting values related to input/output includes setting values related to output audio. The set value indicates, for example, the volume of the output sound. The setting value may indicate on/off of the output sound.
入出力に関連する設定値の例として、表示するコンテンツに関する設定値が挙げられる。当該設定値は、コンテンツの透過率を示してよい。当該設定値は、コンテンツの明度や、コンテンツのサイズ等を示してもよい。当該設定値は、コンテンツの表示のオンオフを示してもよい。当該設定値は、外部コンテンツ表示のオンオフを示してもよい。 Examples of setting values related to input/output include setting values related to content to be displayed. The setting value may indicate the transparency of the content. The setting value may indicate the brightness of the content, the size of the content, and the like. The setting value may indicate ON/OFF of content display. The setting value may indicate on/off of external content display.
入出力に関連する設定値の例として、音声入力に関する設定値が挙げられる。当該設定値は、音声入力のオンオフを示してよい。当該設定値は、音声入力の感度を示してもよい。 An example of setting values related to input/output includes setting values related to voice input. The setting value may indicate on/off of voice input. The setting value may indicate the sensitivity of voice input.
入出力に関連する設定値の例として、外部通知に関する設定値が挙げられる。外部通知とは、例えば、眼鏡型デバイス100が新着メッセージや、新着メールを受信した場合に、その旨をユーザ102に通知することであってよい。当該設定値は、外部通知のオンオフを示してよい。
An example of setting values related to input/output is a setting value related to external notification. The external notification may be, for example, notification to the
入出力に関連する設定値の例として、外部コンテンツに関する設定値が挙げられる。当該設定値は、外部コンテンツを受領するか否かを示してよい。外部コンテンツの受領をしない設定がなされた場合、例えば、制御装置200は、管理サーバ300に対してその旨を通知する。管理サーバ300は、眼鏡型デバイス100に対するコンテンツの送信を停止する。
Examples of setting values related to input/output include setting values related to external content. The setting value may indicate whether or not to accept external content. When the setting is made not to receive external content, for example, the
図3は、眼鏡型デバイス100によるコンテンツ400の表示例を概略的に示す。制御装置200は、カメラ120の撮像範囲に含まれる対象に対応するコンテンツを管理サーバ300から受信して、レンズ部116に表示させる。
FIG. 3 schematically shows a display example of
制御装置200は、入出力に関連する設定値に従って、管理サーバ300から受信したコンテンツの表示を制御する。制御装置200は、例えば、外部コンテンツ表示がオフに設定された場合、管理サーバ300からコンテンツを受信しても表示しない。制御装置200は、例えば、コンテンツの透過率が設定されている場合に、管理サーバ300から受信したコンテンツを、設定された透過率で表示させる。
The
図4は、制御装置200による処理の流れの一例を概略的に示す。ここでは、状況設定値が対応付けられていない空間において、制御装置200が起動した状態を開始状態として説明する。
FIG. 4 schematically shows an example of the flow of processing by the
ステップ(ステップをSと省略して記載する場合がある。)102では、制御装置200が、眼鏡型デバイス100の入出力に関連する設定値を基本設定値に設定する。S104では、制御装置200が、各種情報を取得する。制御装置200は、カメラ120によって撮像された撮像画像や、各種センサによって出力された情報を取得する。
In step (the step may be abbreviated as S) 102, the
S106では、制御装置200が、眼鏡型デバイス100が位置する空間が変化したか否かを判定する。変化したと判定した場合、S108に進み、変化していないと判定した場合、S116に進む。
In S106, the
S108では、制御装置200が、変化後の空間の種類に対応する状況設定値が有るか否かを判定する。有ると判定した場合、S110に進み、無いと判定した場合、S112に進む。S110では、眼鏡型デバイス100の入出力に関連する設定値を、変化後の空間の種類に対応する状況設定値に変更する。
In S108, the
S112では、制御装置200が、ユーザ102による設定変更が有ったか否かを判定する。変更有と判定した場合、S114に進み、変更無と判定した場合、S116に進む。S114では、ユーザ102による変更後の設定値を、眼鏡型デバイス100が位置する空間の種類に対応する状況設定値として、登録する。
In S112, the
S116では、制御装置200が、設定値の自動変更機能を終了するか否かを判定する。制御装置200は、ユーザ102による終了指示を受け付けた場合、終了すると判定し、受け付けていない場合、終了しないと判定してよい。終了しないと判定した場合、S104に戻る。
In S116, the
図5は、状況設定値テーブル500の一例を概略的に示す。図5に示す例では、4つの空間種類に対する、各設定項目の設定値の具体例を示している。図5に示す通り、空間種類及び設定項目は、図5に示すものに限らない。 FIG. 5 schematically shows an example of a situation setting value table 500. As shown in FIG. The example shown in FIG. 5 shows specific examples of setting values for each setting item for four space types. As shown in FIG. 5, the space types and setting items are not limited to those shown in FIG.
図5に示す例において、屋外で人の密度が高い空間(都心部等)に対して、出力音声:80%、コンテンツ透過率:60%、音声入力:ON、コンテンツ表示:ON、通知受付:ON、外部コンテンツ受領:ONが設定されている。これにより、眼鏡型デバイス100が、屋外で、かつ、人通りが多いような空間に位置する場合、通りの人がコンテンツに隠れてしまわないような透過率でコンテンツが表示され、周囲に音が漏れない範囲で音声が出力されるといった、その空間での操作や表示等に適した設定値へ変更することができる。図5に示す例において、屋外で人の密度が低い空間(住宅街等)に対して、出力音声:100%、コンテンツ透過率:80%、音声入力:ON、コンテンツ表示:ON、通知受付:ON、外部コンテンツ受領:ONが設定されている。これにより、眼鏡型デバイス100が、屋外で、かつ、人通りが少ないような空間に位置する場合、密度が高い場合に比べ、通りの人がコンテンツに隠れるリスクが無いため、はっきりと見やすい透過率でコンテンツを表示し、音声も人の密度が高い場合に比べて、聞き取りやすいように出力されるといった、設定値へ変更することができる。
In the example shown in FIG. 5, for an outdoor space with a high density of people (city center, etc.), output audio: 80%, content transmittance: 60%, audio input: ON, content display: ON, notification reception: ON, external content reception: ON is set. As a result, when the glasses-
図5に示す例において、屋内の静かな空間(図書館等)に対して、出力音声:10%、コンテンツ透過率:30%、音声入力:ON、コンテンツ表示:ON、通知受付:ON、外部コンテンツ受領:ONが設定されている。これにより、コンテンツのサイズや透過率を屋内向けに調整することができる。 In the example shown in FIG. 5, for a quiet indoor space (library, etc.), output audio: 10%, content transmittance: 30%, audio input: ON, content display: ON, notification acceptance: ON, external content Receive: ON is set. This makes it possible to adjust the content size and transmittance for indoor use.
図5に示す例において、屋内の特殊な空間(映画館等)に対して、出力音声:0%、コンテンツ透過率:設定無、音声入力:OFF、コンテンツ表示:OFF、通知受付:OFF、外部コンテンツ受領:OFFが設定されている。これにより、眼鏡型デバイス100が、映画館等の、周囲への影響を極端に抑える必要がある特殊な空間に位置する場合に、音声等の入出力や、コンテンツの表示等を一時的に停止することができる。
In the example shown in FIG. 5, for a special indoor space (movie theater, etc.), output sound: 0%, content transmittance: no setting, voice input: OFF, content display: OFF, notification reception: OFF, external Content reception: OFF is set. As a result, when the spectacles-
図6は、制御装置200の機能構成の一例を概略的に示す。制御装置200は、格納部202、情報取得部204、空間認識部206、対面判定部208、及び設定変更部210を備える。なお、制御装置200がこれらの全てを備えることは必須とは限らない。
FIG. 6 schematically shows an example of the functional configuration of the
情報取得部204は、各種情報を取得する。情報取得部204は、取得した情報を格納部202に格納する。
The
情報取得部204は、カメラ120によって撮像された撮像画像を取得してよい。情報取得部204は、各種センサによって出力された情報を取得してよい。情報取得部204は、例えば、測位センサによって出力された情報を取得する。情報取得部204は、例えば、ジャイロセンサによって出力された情報を取得する。情報取得部204は、例えば、加速度センサによって出力された情報を取得する。情報取得部204は、例えば、センサ122によって出力された情報を取得する。情報取得部204は、例えば、センサ124によって出力された情報を取得する。情報取得部204は、例えば、マイク126が取得した音声を取得する。情報取得部204は、例えば、センサ130によって出力された情報を取得する。
The
情報取得部204は、ユーザ102によって入力された基本設定値を取得してよい。情報取得部204は、ユーザ102によって入力された状況設定値を取得してもよい。情報取得部204は、例えば、空間の種類毎に、ユーザ102によって入力された状況設定値を、空間の種類に対応付けて格納部202に格納する。
The
空間認識部206は、眼鏡型デバイス100が位置する空間の種類を認識する。空間認識部206は、カメラ120による撮像画像に基づいて、眼鏡型デバイス100が位置する空間の種類を認識してよい。例えば、空間認識部206は、眼鏡型デバイス100が位置する空間が屋内であるのか屋外であるのかを認識する。また、例えば、空間認識部206は、眼鏡型デバイス100が位置する空間が広い空間であるのか狭い空間であるのかを認識する。また、例えば、空間認識部206は、眼鏡型デバイス100が位置する空間が、人の密度が予め定められた閾値より高い空間であるのか、低い空間であるのかを認識してよい。
The
空間認識部206は、センサ122の出力に基づいて、眼鏡型デバイス100が位置する空間の種類を認識してよい。例えば、空間認識部206は、眼鏡型デバイス100が位置する空間が広い空間であるのか狭い空間であるのかを認識する。また、例えば、空間認識部206は、眼鏡型デバイス100が位置する空間が、人の密度が予め定められた閾値より高い空間であるのか、低い空間であるのかを認識してよい。
The
空間認識部206は、センサ130の出力に基づいて、眼鏡型デバイス100が位置する空間の種類を認識してよい。例えば、空間認識部206は、眼鏡型デバイス100が位置する空間が屋内であるのか屋外であるのかを認識する。
The
空間認識部206は、各地の3次元空間情報が登録された3Dマップから、眼鏡型デバイス100の位置情報が示す位置に対応する3次元空間情報を取得することによって、眼鏡型デバイス100が位置する空間の種類を認識してよい。空間認識部206は、例えば、3Dマップを保持している管理サーバ300に対して、眼鏡型デバイス100の位置情報を送信して、位置情報が示す位置に対応する3次元空間情報を管理サーバ300から受信する。3Dマップは、格納部202に格納されていてもよい。この場合、空間認識部206は、格納部202に格納されている3Dマップから、眼鏡型デバイス100の位置情報が示す位置に対応する3次元空間情報を取得してよい。
The
空間認識部206は、カメラ120による撮像画像、センサ122の出力、センサ130の出力、及び眼鏡型デバイス100の位置情報が示す位置に対応する3次元空間情報を複合的に用いることによって、眼鏡型デバイス100が位置する空間の種類を認識してよい。
The
対面判定部208は、眼鏡型デバイス100を装着しているユーザ102が、他者と対面しているか否かを判定する。対面判定部208は、例えば、カメラ120による撮像画像を解析することによって、他者の目線や顔の向きを認識し、ユーザ102と対面していることを検知する。対面判定部208は、マイク126が取得する音声を音声認識することによって、ユーザ102と、他者の発話を解析して、ユーザ102と他者とが対話をしているか否かを判定してもよい。
The facing
設定変更部210は、眼鏡型デバイス100の入出力に関連する設定値を変更する。設定変更部210は、例えば、デフォルトの設定値を、ユーザ102によって入力された基本設定値に変更する。設定変更部210は、ユーザ102に指示に従って、基本設定値を変更してよい。
The setting
設定変更部210は、眼鏡型デバイス100がある空間の位置しているときに、ユーザ102の指示に従って設定値を変更した場合に、当該空間の種類に対応付けて、変更後の設定値を状況設定値として登録してもよい。設定変更部210は、ユーザ102に対して問い合わせを行って、ユーザ102の許可が得られた場合に、当該登録を行い、許可が得られなかった場合には、登録を行わなくてもよい。これにより、ある空間において、ユーザ102がそのときだけ反映したい設定変更を行った場合に、それが自動登録されてしまうことを防止することができる。
When the setting value is changed according to an instruction from the
設定変更部210は、空間認識部206によって認識された空間の種類に基づいて、眼鏡型デバイス100の入出力に関連する設定値を変更してよい。設定変更部210は、例えば、眼鏡型デバイス100が位置する空間が、他の種別の空間に切り替わったことに応じて、切り替わった後の空間の種類に基づいて、設定値を変更する。設定変更部210は、眼鏡型デバイス100の入出力に関連する設定値を、切り替わったとの空間の種類に対応する状況設定値に変更してよい。
The setting
設定変更部210は、例えば、空間認識部206によって認識された空間の種類に基づいて、眼鏡型デバイス100による出力音声に関する設定値を変更する。設定変更部210は、例えば、出力音声の音量を変更する。また、設定変更部210は、例えば、出力音声のオンオフを変更する。
The setting
設定変更部210は、例えば、空間認識部206によって認識された空間の種類に基づいて、眼鏡型デバイス100が表示するコンテンツに関する設定値を変更する。設定変更部210は、例えば、コンテンツの透過率を変更する。また、設定変更部210は、例えば、コンテンツの表示のオンオフを変更する。
The setting
設定変更部210は、例えば、空間認識部206によって認識された空間の種類に基づいて、眼鏡型デバイス100の音声入力に関する設定値を変更する。設定変更部210は、例えば、音声入力のオンオフを変更する。また、設定変更部210は、例えば、音声入力の感度を変更する。
The setting
設定変更部210は、例えば、空間認識部206によって認識された空間の種類に基づいて、外部通知のオンオフを変更する。設定変更部210は、例えば、空間認識部206によって認識された空間の種類に基づいて、眼鏡型デバイス100が外部コンテンツを受領するか否かを変更する。
The setting
設定変更部210は、例えば、空間認識部206によって認識された空間の種類に基づいて、カメラ120に関する設定値を変更する。設定変更部210は、例えば、カメラ120のオンオフを変更する。また、設定変更部210は、例えば、カメラ120によって撮像可能な形式を、静止画のみとするか、静止画及び動画とするかを変更する。
The setting
設定変更部210は、対面判定部208による判定結果にさらに基づいて、眼鏡型デバイス100の入出力に関連する設定値を変更する。設定変更部210は、例えば、空間の種類毎に格納された、ユーザ102が他者と対面していない状況における状況設定値と、ユーザ102が他者と対面している状況における状況設定値とを用いる。
The setting
設定変更部210は、眼鏡型デバイス100がある空間に位置しており、かつ、ユーザ102が他者と対面している場合、眼鏡型デバイス100の入出力に関連する設定値を、当該空間の種類に対応付けられた、ユーザ102が他者と対面している状況における状況設定値に変更する。設定変更部210は、眼鏡型デバイス100がある空間に位置しており、かつ、ユーザ102が他者と対面していない場合、眼鏡型デバイス100の入出力に関連する設定値を、当該空間の種類に対応付けられた、ユーザ102が他者と対面していない状況における状況設定値に変更してよい。
When the spectacles-
ユーザ102が他者と対面している状況における状況設定値は、ユーザ102が他者と対面していない状況における状況設定値と比較して、会話の邪魔にならないような設定値であってよい。例えば、ユーザ102が他者と対面している状況における状況設定値では、出力音声がオフにされるか、音量が小さく設定され、コンテンツ表示や、外部コンテンツの受領がオフに設定され得る。
The situation setting value in the situation where the
図1から図6を用いて説明した実施形態では、制御装置200が、眼鏡型デバイス100が位置する空間の種類を認識して、空間の種類に基づいて眼鏡型デバイス100の入出力に関連する設定値を変更する場合を例に挙げて説明したが、これに限らず、当該処理は、管理サーバ300が主体となって実行されてもよい。管理サーバ300は、制御装置の一例であってよい。
In the embodiments described with reference to FIGS. 1 to 6, the
図7は、管理サーバ300の機能構成の一例を概略的に示す。図7では、管理サーバ300の機能のうち、眼鏡型デバイス100が位置する空間の種類を認識して、眼鏡型デバイス100の入出力に関連する設定値を変更する機能に関して、主に説明する。ここでは、図6における各構成の処理内容と異なる点を主に説明する。
FIG. 7 schematically shows an example of the functional configuration of the
情報取得部304は、各種情報を取得する。情報取得部304は、情報取得部204が取得する情報と同様の情報を、制御装置200から受信してよい。情報取得部304は、取得した情報を格納部302に格納する。
The
空間認識部306は、眼鏡型デバイス100が位置する空間の種類を認識する。空間認識部306は、空間認識部206と同様の手法を用いることによって、眼鏡型デバイス100が位置する空間の種類を認識してよい。
The
対面判定部308は、眼鏡型デバイス100を装着しているユーザ102が、他者と対面しているか否かを判定する。対面判定部308は、対面判定部208と同様の手法を用いることによって、眼鏡型デバイス100を装着しているユーザ102が、他者と対面しているか否かを判定してよい。
The facing
設定変更部310は、眼鏡型デバイス100の入出力に関連する設定値を変更する。設定変更部310は、制御装置200に対して変更指示を送信することによって、眼鏡型デバイス100の入出力に関連する設定値を変更してよい。設定変更部310は、設定変更部210と同様に、空間認識部306によって認識された空間の種類に基づいて、眼鏡型デバイス100の入出力に関連する設定値を変更してよい。また、設定変更部310は、設定変更部210と同様に、対面判定部308による判定結果にさらに基づいて、眼鏡型デバイス100の入出力に関連する設定値を変更してよい。
The setting
図8は、制御装置200又は管理サーバ300として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200を、本実施形態に係る装置の1又は複数の「部」として機能させ、又はコンピュータ1200に、本実施形態に係る装置に関連付けられるオペレーション又は当該1又は複数の「部」を実行させることができ、及び/又はコンピュータ1200に、本実施形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつか又はすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。
FIG. 8 schematically shows an example of a hardware configuration of a
本実施形態によるコンピュータ1200は、CPU1212、RAM1214、及びグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、記憶装置1224、及びICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。記憶装置1224は、ハードディスクドライブ及びソリッドステートドライブ等であってよい。コンピュータ1200はまた、ROM1230及びキーボード又はタッチパネルのような入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。
CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。
The
通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。
ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/又はコンピュータ1200のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、様々な入出力ユニットをUSBポート、パラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ1220に接続してよい。
プログラムは、ICカードのようなコンピュータ可読記憶媒体によって提供されてよい。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ1200の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。
A program may be provided by a computer-readable storage medium such as an IC card. The program is read from a computer-readable storage medium, installed in
例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。
For example, when communication is performed between the
また、CPU1212は、記憶装置1224、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。
The
様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
Various types of information, such as various types of programs, data, tables, and databases, may be stored on recording media and subjected to information processing.
上で説明したプログラム又はソフトウェアモジュールは、コンピュータ1200上又はコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。
The programs or software modules described above may be stored in a computer-readable storage medium on or near
本実施形態におけるフローチャート及びブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。 The blocks in the flowcharts and block diagrams in this embodiment may represent steps in the process in which the operations are performed or "parts" of the apparatus responsible for performing the operations. Certain steps and "portions" may be provided with dedicated circuitry, programmable circuitry provided with computer readable instructions stored on a computer readable storage medium, and/or computer readable instructions provided with computer readable instructions stored on a computer readable storage medium. It may be implemented by a processor. Dedicated circuitry may include digital and/or analog hardware circuitry, and may include integrated circuits (ICs) and/or discrete circuitry. Programmable circuits, such as Field Programmable Gate Arrays (FPGAs), Programmable Logic Arrays (PLAs), etc., perform AND, OR, EXCLUSIVE OR, NOT AND, NOT OR, and other logical operations. , flip-flops, registers, and memory elements.
コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。 A computer-readable storage medium may comprise any tangible device capable of storing instructions to be executed by a suitable device, such that a computer-readable storage medium having instructions stored thereon may be illustrated in flowchart or block diagram form. It will comprise an article of manufacture containing instructions that can be executed to create means for performing specified operations. Examples of computer-readable storage media may include electronic storage media, magnetic storage media, optical storage media, electromagnetic storage media, semiconductor storage media, and the like. More specific examples of computer readable storage media include floppy disks, diskettes, hard disks, random access memory (RAM), read only memory (ROM), erasable programmable read only memory (EPROM or flash memory) , electrically erasable programmable read only memory (EEPROM), static random access memory (SRAM), compact disc read only memory (CD-ROM), digital versatile disc (DVD), Blu-ray disc, memory stick , integrated circuit cards, and the like.
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。 The computer readable instructions may be assembler instructions, Instruction Set Architecture (ISA) instructions, machine instructions, machine dependent instructions, microcode, firmware instructions, state configuration data, or instructions such as Smalltalk, JAVA, C++, etc. any source or object code written in any combination of one or more programming languages, including object-oriented programming languages, and conventional procedural programming languages such as the "C" programming language or similar programming languages; may include
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。 Computer readable instructions are used to produce means for a processor of a general purpose computer, special purpose computer, or other programmable data processing apparatus, or programmable circuits to perform the operations specified in the flowchart or block diagrams. A general purpose computer, special purpose computer, or other programmable data processor, locally or over a wide area network (WAN) such as the Internet, etc., to execute such computer readable instructions. It may be provided in the processor of the device or in a programmable circuit. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, and the like.
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It is obvious to those skilled in the art that various modifications or improvements can be made to the above embodiments. It is clear from the description of the scope of the claims that forms with such modifications or improvements can also be included in the technical scope of the present invention.
特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The execution order of each process such as actions, procedures, steps, and stages in the devices, systems, programs, and methods shown in the claims, the specification, and the drawings is etc., and it should be noted that they can be implemented in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the specification, and the drawings, even if the description is made using "first," "next," etc. for convenience, it means that it is essential to carry out in this order. not a thing
10 システム、20 ネットワーク、100 眼鏡型デバイス、102 ユーザ、110 フレーム、112 リム、114 ブリッジ、116 レンズ部、118 テンプル、120 カメラ、122 センサ、124 センサ、126 マイク、128 音声出力部、130 センサ、200 制御装置、202 格納部、204 情報取得部、206 空間認識部、208 対面判定部、210 設定変更部、300 管理サーバ、302 格納部、304 情報取得部、306 空間認識部、308 対面判定部、310 設定変更部、400 コンテンツ、500 状況設定値テーブル、1200 コンピュータ、1210 ホストコントローラ、1212 CPU、1214 RAM、1216 グラフィックコントローラ、1218 ディスプレイデバイス、1220 入出力コントローラ、1222 通信インタフェース、1224 記憶装置、1230 ROM、1240 入出力チップ 10 system, 20 network, 100 glasses-type device, 102 user, 110 frame, 112 rim, 114 bridge, 116 lens unit, 118 temple, 120 camera, 122 sensor, 124 sensor, 126 microphone, 128 audio output unit, 130 sensor, 200 control device, 202 storage unit, 204 information acquisition unit, 206 space recognition unit, 208 meeting determination unit, 210 setting change unit, 300 management server, 302 storage unit, 304 information acquisition unit, 306 space recognition unit, 308 meeting determination unit , 310 setting change unit, 400 content, 500 situation setting value table, 1200 computer, 1210 host controller, 1212 CPU, 1214 RAM, 1216 graphic controller, 1218 display device, 1220 input/output controller, 1222 communication interface, 1224 storage device, 1230 ROM, 1240 input/output chip
Claims (18)
前記眼鏡型デバイスが位置する空間の種類を認識する空間認識部と、
前記空間認識部によって認識された空間の種類に基づいて、前記眼鏡型デバイスの入出力に関連する設定値を変更する設定変更部と
を備える制御装置。 A control device for controlling an eyeglass-type device,
a space recognition unit that recognizes the type of space in which the glasses-type device is located;
A control device comprising: a setting change unit that changes setting values related to input/output of the spectacles-type device based on the type of space recognized by the space recognition unit.
を備え、
前記設定変更部は、前記対面判定部による判定結果にさらに基づいて、前記眼鏡型デバイスの入出力に関連する設定値を変更する、請求項1から13のいずれか一項に記載の制御装置。 a facing determination unit that determines whether or not the user wearing the glasses-type device is facing another person,
14. The control device according to any one of claims 1 to 13, wherein said setting change unit changes setting values related to input/output of said spectacles-type device further based on a determination result by said face-to-face determination unit.
前記眼鏡型デバイスと
を備え、
前記制御装置は、前記眼鏡型デバイスに対して、ネットワークを介して指示を送信することによって、前記眼鏡型デバイスを制御する、システム。 a control device according to any one of claims 1 to 14;
and the glasses-type device;
The system, wherein the controller controls the eyeglass-type device by transmitting instructions to the eyeglass-type device via a network.
前記眼鏡型デバイスが位置する空間の種類を認識する空間認識段階と、
前記空間認識段階において認識された空間の種類に基づいて、前記眼鏡型デバイスの入出力に関連する設定値を変更する設定変更段階と
を備える制御方法。 A control method executed by a control device that controls an eyeglass-type device, comprising:
a spatial recognition step of recognizing the type of space in which the glasses-type device is located;
and a setting change step of changing setting values related to input/output of the glasses-type device based on the type of space recognized in the space recognition step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021009122A JP2022113031A (en) | 2021-01-22 | 2021-01-22 | Control device, program, system, and control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021009122A JP2022113031A (en) | 2021-01-22 | 2021-01-22 | Control device, program, system, and control method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022113031A true JP2022113031A (en) | 2022-08-03 |
Family
ID=82657093
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021009122A Pending JP2022113031A (en) | 2021-01-22 | 2021-01-22 | Control device, program, system, and control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022113031A (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010217907A (en) * | 2010-04-23 | 2010-09-30 | Seiko Epson Corp | Image display apparatus, projector, and image display method |
JP2015504616A (en) * | 2011-09-26 | 2015-02-12 | マイクロソフト コーポレーション | Video display correction based on sensor input of transmission myopia display |
JP2017516196A (en) * | 2014-04-17 | 2017-06-15 | マイクロソフト テクノロジー ライセンシング,エルエルシー | Conversation detection |
JP2017529635A (en) * | 2014-06-14 | 2017-10-05 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | Methods and systems for creating virtual and augmented reality |
WO2019244670A1 (en) * | 2018-06-18 | 2019-12-26 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2020155030A (en) * | 2019-03-22 | 2020-09-24 | 富士ゼロックス株式会社 | Information processing device and program |
-
2021
- 2021-01-22 JP JP2021009122A patent/JP2022113031A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010217907A (en) * | 2010-04-23 | 2010-09-30 | Seiko Epson Corp | Image display apparatus, projector, and image display method |
JP2015504616A (en) * | 2011-09-26 | 2015-02-12 | マイクロソフト コーポレーション | Video display correction based on sensor input of transmission myopia display |
JP2017516196A (en) * | 2014-04-17 | 2017-06-15 | マイクロソフト テクノロジー ライセンシング,エルエルシー | Conversation detection |
JP2017529635A (en) * | 2014-06-14 | 2017-10-05 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | Methods and systems for creating virtual and augmented reality |
WO2019244670A1 (en) * | 2018-06-18 | 2019-12-26 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2020155030A (en) * | 2019-03-22 | 2020-09-24 | 富士ゼロックス株式会社 | Information processing device and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210405761A1 (en) | Augmented reality experiences with object manipulation | |
US10132633B2 (en) | User controlled real object disappearance in a mixed reality display | |
KR102670848B1 (en) | Augmented reality anthropomorphization system | |
US9633477B2 (en) | Wearable device and method of controlling therefor using location information | |
US10139623B2 (en) | Virtual object orientation and visualization | |
US20150278737A1 (en) | Automatic Calendar Event Generation with Structured Data from Free-Form Speech | |
KR20230022236A (en) | 3D reconstruction using wide-angle imaging devices | |
KR20220154816A (en) | Location Mapping for Large Scale Augmented Reality | |
US9367613B1 (en) | Song identification trigger | |
US20230051671A1 (en) | Dynamic capture parameter processing for low power | |
CN115113399A (en) | Augmented reality displays for macular degeneration | |
JP7274451B2 (en) | System, management device, program, and management method | |
JP2022113031A (en) | Control device, program, system, and control method | |
JP7174785B2 (en) | Control device, program, and control method | |
JP7194158B2 (en) | Information processing device and program | |
JP7133005B2 (en) | Glasses-type device, program, and control method | |
JP7139395B2 (en) | Controllers, programs and systems | |
JP7140810B2 (en) | Control device, program, system, and control method | |
JP2022102681A (en) | Spectacle-type device, program, and control method | |
JP7039672B1 (en) | Controls, programs, and control methods | |
JP7187520B2 (en) | Glasses-type device, management server and program | |
JP2024073312A (en) | Control device, program, control method, and eyeglasses-type device | |
JP7135052B2 (en) | Control device, program, and control method | |
US12026805B2 (en) | Augmented reality based geolocalization of images | |
JP7506135B2 (en) | Information processing device, program, and display method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210316 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221007 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230207 |