JP2022113031A - Control device, program, system, and control method - Google Patents

Control device, program, system, and control method Download PDF

Info

Publication number
JP2022113031A
JP2022113031A JP2021009122A JP2021009122A JP2022113031A JP 2022113031 A JP2022113031 A JP 2022113031A JP 2021009122 A JP2021009122 A JP 2021009122A JP 2021009122 A JP2021009122 A JP 2021009122A JP 2022113031 A JP2022113031 A JP 2022113031A
Authority
JP
Japan
Prior art keywords
space
type
type device
control device
spectacles
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021009122A
Other languages
Japanese (ja)
Inventor
健太 石垣
Kenta Ishigaki
優也 佐藤
Yuya Sato
裕貴 可児
Hirotaka Kani
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Corp
Original Assignee
SoftBank Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Corp filed Critical SoftBank Corp
Priority to JP2021009122A priority Critical patent/JP2022113031A/en
Publication of JP2022113031A publication Critical patent/JP2022113031A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

To provide a control device, a program, a system, and a control method.SOLUTION: In a system for controlling a spectacle-type device in which the spectacle-type device and a management server control communicates with each other via a network, a control device 200 of the spectacle-type device comprises: a space recognition unit which recognizes a type of a space at which the spectacle-type device is located; and a setting change unit which changes a setting value related to input and output of the spectacle-type device on the basis of the type of the space recognized by the space recognition unit. A control method executed by the control device which controls the spectacle-type device includes a space recognition step and a setting change step. The space recognition step recognizes the type of the space at which the spectacle-type device is located. The setting change step changes a setting value related to input and output of the spectacle-type device on the basis of the type of the space recognized in the space recognition step.SELECTED DRAWING: Figure 6

Description

本発明は、制御装置、プログラム、システム及び制御方法に関する。 The present invention relates to control devices, programs, systems, and control methods.

特許文献1には、音声再生装置の位置に応じて音量を調整する(病院や図書館では音量を絞る)ことが記載されている。特許文献2には、フライトモードを備える頭部装着型デバイスが記載されている。特許文献3には、ユーザが会話中にコンテンツの音声の音量を下げることが記載されている。
[先行技術文献]
[特許文献]
[特許文献1]特開2010-136034号公報
[特許文献2]特開2014-090407号公報
[特許文献3]特開2012-186622号公報
Patent Literature 1 describes adjusting the volume according to the position of the audio reproducing device (turning down the volume in hospitals and libraries). Patent Literature 2 describes a head-mounted device with flight mode. Japanese Patent Laid-Open No. 2002-200002 describes that the volume of the audio of content is lowered while the user is having a conversation.
[Prior art documents]
[Patent Literature]
[Patent Document 1] JP 2010-136034 [Patent Document 2] JP 2014-090407 [Patent Document 3] JP 2012-186622

本発明の一実施態様によれば、眼鏡型デバイスを制御する制御装置が提供される。制御装置は、眼鏡型デバイスが位置する空間の種類を認識する空間認識部を備えてよい。制御装置は、空間認識部によって認識された空間の種類に基づいて、眼鏡型デバイスの入出力に関連する設定値を変更する設定変更部を備えてよい。 According to one embodiment of the present invention, a controller is provided for controlling an eyewear device. The controller may comprise a space recognizer that recognizes the type of space in which the glasses-type device is located. The control device may include a setting change unit that changes setting values related to input/output of the glasses-type device based on the type of space recognized by the space recognition unit.

上記空間認識部は、上記眼鏡型デバイスが備えるカメラによって撮像された撮像画像に基づいて、上記眼鏡型デバイスが位置する空間の種類を認識してよい。上記空間認識部は、上記眼鏡型デバイスが備える空間測定センサの出力に基づいて、上記眼鏡型デバイスが位置する空間の種類を認識してよい。上記空間認識部は、上記眼鏡型デバイスが備える輝度センサの出力に基づいて、上記眼鏡型デバイスが位置する空間の種類を認識してよい。上記空間認識部は、各地の3次元空間情報が登録された3Dマップから、上記眼鏡型デバイスの位置情報が示す位置に対応する3次元空間情報を取得することによって、上記眼鏡型デバイスが位置する空間の種類を認識してよい。 The space recognition section may recognize the type of space in which the eyeglass-type device is located, based on an image captured by a camera included in the eyeglass-type device. The space recognition section may recognize the type of space in which the eyeglasses-type device is located based on the output of a space measurement sensor included in the eyeglasses-type device. The space recognition section may recognize the type of space in which the eyeglass-type device is located based on the output of a brightness sensor included in the eyeglass-type device. The space recognition unit acquires three-dimensional space information corresponding to the position indicated by the position information of the eyeglass-type device from a 3D map in which three-dimensional space information of various places is registered, thereby locating the eyeglass-type device. You may recognize the type of space.

上記設定変更部は、上記空間認識部によって認識された上記空間の種類に基づいて、上記眼鏡型デバイスによる出力音声に関する設定値を変更してよい。上記設定変更部は、上記空間認識部によって認識された上記空間の種類に基づいて、上記眼鏡型デバイスが表示するコンテンツに関する設定値を変更してよい。上記設定変更部は、上記空間認識部によって認識された上記空間の種類に基づいて、上記眼鏡型デバイスによって表示されるコンテンツの透過率を変更してよい。上記設定変更部は、上記空間認識部によって認識された上記空間の種類に基づいて、上記眼鏡型デバイスによるコンテンツの表示のオンオフを変更してよい。上記設定変更部は、上記空間認識部によって認識された上記空間の種類に基づいて、上記眼鏡型デバイスの音声入力に関する設定値を変更してよい。上記設定変更部は、上記空間認識部によって認識された上記空間の種類に基づいて、外部通知のオンオフを変更してよい。上記設定変更部は、上記空間認識部によって認識された上記空間の種類に基づいて、上記眼鏡型デバイスが外部コンテンツを受領するか否かを変更してよい。上記設定変更部は、上記空間認識部によって認識された上記空間の種類に基づいて、上記眼鏡型デバイスのカメラに関する設定値を変更してよい。上記制御装置は、上記眼鏡型デバイスを装着しているユーザが、他者と対面しているか否かを判定する対面判定部を備えてよく、上記設定変更部は、上記対面判定部による判定結果にさらに基づいて、上記眼鏡型デバイスの入出力に関連する設定値を変更してよい。上記制御装置は、上記眼鏡型デバイスに搭載されていてよい。 The setting change unit may change a setting value related to the output sound by the glasses-type device based on the type of the space recognized by the space recognition unit. The setting change unit may change setting values related to content displayed by the glasses-type device based on the type of space recognized by the space recognition unit. The setting change unit may change transmittance of content displayed by the glasses-type device based on the type of space recognized by the space recognition unit. The setting change unit may change ON/OFF of content display by the glasses-type device based on the type of the space recognized by the space recognition unit. The setting change unit may change a setting value related to voice input of the glasses-type device based on the type of space recognized by the space recognition unit. The setting change unit may change ON/OFF of the external notification based on the type of the space recognized by the space recognition unit. The setting change unit may change whether or not the glasses-type device receives external content based on the type of space recognized by the space recognition unit. The setting change section may change a setting value related to the camera of the spectacles-type device based on the type of the space recognized by the space recognition section. The control device may include a facing determination unit that determines whether or not the user wearing the glasses-type device is facing another person. Further based on, the setting values related to the inputs and outputs of the eyeglasses-type device may be changed. The control device may be mounted on the glasses-type device.

本発明の一実施態様によれば、コンピュータを、上記制御装置として機能させるためのプログラムが提供される。 According to one embodiment of the present invention, there is provided a program for causing a computer to function as the control device.

本発明の一実施態様によれば、上記制御装置と、上記眼鏡型デバイスとを備え、上記制御装置は、上記眼鏡型デバイスに対して、ネットワークを介して指示を送信することによって、上記眼鏡型デバイスを制御する、システムが提供される。 According to one embodiment of the present invention, the control device and the eyeglasses-type device are provided, and the control device controls the eyeglasses-type device by transmitting instructions to the eyeglasses-type device via a network. A system is provided for controlling a device.

本発明の一実施態様によれば、眼鏡型デバイスを制御する制御装置によって実行される制御方法が提供される。制御方法は、眼鏡型デバイスが位置する空間の種類を認識する空間認識段階を備えてよい。制御方法は、空間認識段階において認識された空間の種類に基づいて、眼鏡型デバイスの入出力に関連する設定値を変更する設定変更段階を備えてよい。 According to one embodiment of the present invention, there is provided a control method performed by a controller for controlling an eyeglass-type device. The control method may comprise a spatial awareness step of recognizing the type of space in which the eyeglass device is located. The control method may comprise a setting change step of changing settings related to inputs and outputs of the glasses-type device based on the type of space recognized in the space recognition step.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 It should be noted that the above summary of the invention does not list all the necessary features of the invention. Subcombinations of these feature groups can also be inventions.

システム10の一例を概略的に示す。An example system 10 is shown schematically. 眼鏡型デバイス100の構成の一例を概略的に示す。An example of the configuration of the spectacles-type device 100 is shown schematically. 眼鏡型デバイス100によるコンテンツ400の表示例を概略的に示す。4 schematically shows a display example of content 400 by the glasses-type device 100. FIG. 制御装置200による処理の流れの一例を概略的に示す。An example of the flow of processing by the control device 200 is shown schematically. 状況設定値テーブル500一例を概略的に示す。An example of a situation setting value table 500 is shown schematically. 制御装置200の機能構成の一例を概略的に示す。An example of the functional configuration of the control device 200 is shown schematically. 管理サーバ300の機能構成の一例を概略的に示す。An example of the functional configuration of the management server 300 is shown schematically. 制御装置200又は管理サーバ300として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。An example of a hardware configuration of a computer 1200 functioning as a control device 200 or a management server 300 is shown schematically.

AR(Augmented Reality)グラス等の眼鏡型デバイスは、今後普及が進み、様々な場所で使用されることが想定されるが、特定の場所や画面においては、周囲の迷惑になる可能性がある。マナーモード等の設定が搭載される可能性はあるが、ユーザが手動で設定しなければならない場面が出てくる。本実施形態に係る眼鏡型デバイス100は、空間や場面、状況を認識して、各種設定値を自動的に変更する機能を備える。 Glasses-type devices such as AR (Augmented Reality) glasses are expected to become more popular in the future and to be used in various places. There is a possibility that settings such as manner mode are installed, but there will be situations where the user has to manually set them. The spectacles-type device 100 according to this embodiment has a function of recognizing a space, a scene, and a situation, and automatically changing various setting values.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Also, not all combinations of features described in the embodiments are essential for the solution of the invention.

図1は、システム10の一例を概略的に示す。システム10は、複数の眼鏡型デバイス100及び管理サーバ300を備える。 FIG. 1 schematically illustrates an example system 10 . The system 10 includes a plurality of eyeglass-type devices 100 and a management server 300. FIG.

眼鏡型デバイス100は、無線通信機能と、各種情報を表示部に表示する表示機能を有している眼鏡型のデバイスであれば、どのようなものであってもよい。眼鏡型デバイス100は、例えば、ARグラスであってよい。 The spectacles-type device 100 may be any type of spectacles-type device that has a wireless communication function and a display function for displaying various information on a display unit. The glasses-type device 100 may be AR glasses, for example.

眼鏡型デバイス100が表示する情報の例として、時刻や日時等の情報、メールやSNS等の情報、アプリの情報、及びAR用のコンテンツ等が挙げられる。なお、これらに限らず、眼鏡型デバイス100は、任意の情報を表示可能であってよい。 Examples of the information displayed by the glasses-type device 100 include information such as time and date, information such as email and SNS, application information, AR content, and the like. Note that the spectacles-type device 100 may be capable of displaying arbitrary information without being limited to these.

眼鏡型デバイス100は、AR用のコンテンツを、管理サーバ300から受信して、表示してよい。管理サーバ300が管理するコンテンツは、任意のデータ形式であってよい。例えば、コンテンツは、3DのCG(Computer Graphics)データである。例えば、コンテンツは、静止画である。また、例えば、コンテンツは、動画である。例えば、コンテンツは、テキストである。コンテンツは、これらを複合的に含んでもよい。 The glasses-type device 100 may receive AR content from the management server 300 and display it. The content managed by the management server 300 may be in any data format. For example, the content is 3D CG (Computer Graphics) data. For example, the content is a still image. Also, for example, the content is a moving image. For example, the content is text. Content may include these in a composite manner.

眼鏡型デバイス100は、コンテンツを透明又は半透明のグラス上に表示することによって、実空間にコンテンツが配置されている感覚をユーザ102に与えることが可能なデバイスであってよい。すなわち、眼鏡型デバイス100は、いわゆる透過型(シースルー型)のデバイスであってよい。なお、眼鏡型デバイス100は、ビデオパススルー型のデバイスであってもよい。この場合、眼鏡型デバイス100は、ユーザ102の視界に対応する範囲を撮影している撮影画像を非透過型のディスプレイに表示し、コンテンツを重畳表示してよい。 The glasses-type device 100 may be a device capable of giving the user 102 the feeling that the content is arranged in real space by displaying the content on transparent or translucent glasses. That is, the spectacles-type device 100 may be a so-called transmissive (see-through) device. Note that the glasses-type device 100 may be a video pass-through type device. In this case, the spectacles-type device 100 may display a captured image of a range corresponding to the field of view of the user 102 on a non-transmissive display and superimpose the content.

眼鏡型デバイス100は、音声出力機能をさらに備えてよい。眼鏡型デバイス100は、例えば、ユーザ102に対して、音楽データ等を出力する。AR用のコンテンツに、音声が対応付けられている場合、眼鏡型デバイス100は、コンテンツを表示するとともに、コンテンツに対応する音声を出力してよい。 The glasses-type device 100 may further have an audio output function. The glasses-type device 100 outputs music data or the like to the user 102, for example. When audio is associated with AR content, the glasses-type device 100 may display the content and output audio corresponding to the content.

管理サーバ300は、眼鏡型デバイス100に配信するコンテンツを管理してよい。管理サーバ300は、例えば、実世界の対象に対応付けてコンテンツを登録する。実世界の対象は、実世界の位置、エリア、及び物体等であってよい。コンテンツの登録は、管理サーバ300の管理者等によって許可された任意の者によって行われてよい。管理サーバ300は、スマートフォン、タブレット端末、PC(Personal Computer)、及びARグラス等によるコンテンツの登録を受け付けてよい。 The management server 300 may manage content to be distributed to the glasses-type device 100 . The management server 300, for example, registers content in association with real-world objects. Real-world objects may be real-world locations, areas, objects, and the like. Content registration may be performed by any person authorized by the administrator of the management server 300 or the like. The management server 300 may accept registration of content by smartphones, tablet terminals, PCs (Personal Computers), AR glasses, and the like.

管理サーバ300は、例えば、眼鏡型デバイス100から、眼鏡型デバイス100の撮像範囲を示す撮像範囲情報を受信して、撮像範囲に含まれる対象に対応するコンテンツを眼鏡型デバイス100に送信してよい。眼鏡型デバイス100の撮像範囲は、眼鏡型デバイス100のカメラの撮像範囲であってよい。眼鏡型デバイス100のカメラによる撮像範囲は、ユーザ102の視界に対応する範囲であってよい。眼鏡型デバイス100のカメラの撮像範囲は、ユーザ102の視界よりも広い範囲であってよく、ユーザ102の視界と実質的に同じ範囲であってもよい。 For example, the management server 300 may receive, from the spectacles-type device 100, imaging range information indicating the imaging range of the spectacles-type device 100, and transmit content corresponding to an object included in the imaging range to the spectacles-type device 100. . The imaging range of the spectacles-type device 100 may be the imaging range of the camera of the spectacles-type device 100 . The imaging range of the camera of the glasses-type device 100 may be a range corresponding to the field of view of the user 102 . The imaging range of the camera of the glasses-type device 100 may be a range wider than the field of view of the user 102 or substantially the same as the field of view of the user 102 .

眼鏡型デバイス100と管理サーバ300は、ネットワーク20を介して通信してよい。ネットワーク20は、クラウドを含む。ネットワーク20は、インターネットを含んでよい。ネットワーク20は、移動体通信ネットワークを含んでよい。移動体通信ネットワークは、LTE(Long Term Evolution)通信方式、3G(3rd Generation)通信方式、5G(5th Generation)通信方式、6G(6th Generation)通信方式以降の通信方式のいずれに準拠していてもよい。ネットワーク20は、Wi-Fi(登録商標)通信方式に対応していてよい。ネットワーク20には、Wi-Fiアクセスポイントを介してアクセス可能であってよい。ネットワーク20には、その他無線通信全般を利用してアクセス可能であってよい。管理サーバ300は、ネットワーク20に有線接続されてよく、無線接続されてもよい。眼鏡型デバイス100は、移動体通信、Wi-Fi通信、その他無線通信全般によって、ネットワーク20に接続されてよい。 The glasses-type device 100 and the management server 300 may communicate via the network 20 . Network 20 includes a cloud. Network 20 may include the Internet. Network 20 may include a mobile communication network. The mobile communication network conforms to any of the LTE (Long Term Evolution) communication method, 3G (3rd Generation) communication method, 5G (5th Generation) communication method, 6G (6th Generation) communication method and later communication methods. good. The network 20 may support the Wi-Fi (registered trademark) communication system. Network 20 may be accessible via a Wi-Fi access point. The network 20 may be accessible using other wireless communications in general. The management server 300 may be wired or wirelessly connected to the network 20 . The glasses-type device 100 may be connected to the network 20 by mobile communication, Wi-Fi communication, or other general wireless communication.

図2は、眼鏡型デバイス100の構成の一例を概略的に示す。眼鏡型デバイス100は、リム112及びテンプル118を有するフレーム110を備える。眼鏡型デバイス100は、眼鏡型デバイス100における各種制御を実行する制御装置200を備える。 FIG. 2 schematically shows an example of the configuration of the spectacles-type device 100. As shown in FIG. The eyewear device 100 comprises a frame 110 having rims 112 and temples 118 . The spectacles-type device 100 includes a control device 200 that executes various controls in the spectacles-type device 100 .

図2における制御装置200の配置は一例であり、制御装置200は、フレーム110の他の位置に配置されてもよい。例えば、制御装置200は、フレーム110の外部に配置されてもよい。また、例えば、制御装置200は、テンプル118内に配置されてもよい。具体例として、制御装置200は、テンプル118の先端部、すなわち、モダンに配置されてもよい。制御装置200は、バッテリを備えてよい。制御装置200とバッテリは、別体として、フレーム110の別の位置に配置されてもよい。 The arrangement of the control device 200 in FIG. 2 is an example, and the control device 200 may be arranged at other positions on the frame 110 . For example, controller 200 may be located outside frame 110 . Also, for example, the controller 200 may be located within the temple 118 . As a specific example, the controller 200 may be located at the tip of the temple 118, ie, at the modulus. Control device 200 may include a battery. The control device 200 and the battery may be arranged at different positions on the frame 110 as separate bodies.

眼鏡型デバイス100は、カメラ120を備えてよい。カメラ120の撮像範囲は、眼鏡型デバイス100を装着しているユーザ102の視界に対応する範囲であってよい。図2におけるカメラ120の配置は一例であり、カメラ120は、他の位置に配置されてもよい。 The glasses-type device 100 may have a camera 120 . The imaging range of the camera 120 may be a range corresponding to the field of view of the user 102 wearing the glasses-type device 100 . The arrangement of the cameras 120 in FIG. 2 is an example, and the cameras 120 may be arranged at other positions.

眼鏡型デバイス100は、センサ122を備えてよい。センサ122は、眼鏡型デバイス100の空間を測定するための空間測定センサであってよい。センサ122は、LiDAR(Light Detection and Ranging)を含んでよい。センサ122は、測距センサを含んでもよい。図2では、センサ122がブリッジ114に配置されている場合を例示しているが、図2におけるセンサ122の配置は一例であり、センサ122は、他の位置に配置されてもよい。 The eyewear device 100 may include sensors 122 . Sensor 122 may be a spatial measurement sensor for measuring the space of eyeglass device 100 . Sensor 122 may include LiDAR (Light Detection and Ranging). Sensor 122 may include a ranging sensor. Although FIG. 2 illustrates the case where the sensor 122 is arranged on the bridge 114, the arrangement of the sensor 122 in FIG. 2 is an example, and the sensor 122 may be arranged at other positions.

眼鏡型デバイス100は、センサ124を備えてよい。センサ124は、例えば、眼鏡型デバイス100の装着者であるユーザ102の視線を検出する。センサ124は、例えば、ユーザ102の目を撮像して監視することによって、ユーザ102の視線を検出する。図2におけるセンサ124の配置は一例であり、センサ124は、他の位置に配置されてもよい。 The eyewear device 100 may include sensors 124 . The sensor 124 detects, for example, the line of sight of the user 102 who wears the spectacles-type device 100 . Sensor 124 detects the gaze of user 102 by, for example, imaging and monitoring the eyes of user 102 . The placement of the sensors 124 in FIG. 2 is an example, and the sensors 124 may be placed at other positions.

眼鏡型デバイス100は、マイク126を備えてよい。マイク126は、眼鏡型デバイス100の装着者であるユーザ102の発話を取得可能な位置に配置される。図2におけるマイク126の配置は一例であり、マイク126は、他の位置に配置されてもよい。 Glasses-type device 100 may include microphone 126 . The microphone 126 is placed at a position where it can pick up the speech of the user 102 who wears the spectacles-type device 100 . The placement of the microphone 126 in FIG. 2 is an example, and the microphone 126 may be placed at other positions.

眼鏡型デバイス100は、音声出力部128を備えてよい。音声出力部128は、スピーカを備えてよい。図2における音声出力部128の配置は一例であり、音声出力部128は、他の位置に配置されてもよい。 The glasses-type device 100 may include an audio output section 128 . Audio output unit 128 may include a speaker. The arrangement of the audio output section 128 in FIG. 2 is an example, and the audio output section 128 may be arranged at another position.

眼鏡型デバイス100は、センサ130を備えてよい。センサ130は、眼鏡型デバイス100の周囲の輝度を測定する輝度センサであってよい。図2におけるセンサ130の配置は一例であり、センサ130は、他の位置に配置されてもよい。 The eyewear device 100 may include sensors 130 . The sensor 130 may be a brightness sensor that measures the brightness around the eyewear device 100 . The arrangement of the sensors 130 in FIG. 2 is an example, and the sensors 130 may be arranged at other positions.

制御装置200は、各種入力を受け付けてよい。制御装置200は、眼鏡型デバイス100の任意の位置に配置された操作部を介して、ユーザ102からの各種入力を受け付けてよい。制御装置200は、例えば、フレーム110の任意の位置に配置されたボタン等の入力部を介して、ユーザ102からの各種入力を受け付ける。制御装置200は、例えば、スマートフォン、ウェアラブル端末、及びタブレット端末等の携帯端末を介して、ユーザ102からの各種入力を受け付けてもよい。眼鏡型デバイス100は、例えば、Wi-Fi、Bluetooth(登録商標)及びZigbee(登録商標)等の短距離無線通信方式を用いて、これらと無線接続を確立してよい。 The control device 200 may receive various inputs. The control device 200 may receive various inputs from the user 102 via an operation unit arranged at an arbitrary position on the spectacles-type device 100 . The control device 200 receives various inputs from the user 102 via an input unit such as a button arranged at an arbitrary position on the frame 110, for example. The control device 200 may receive various inputs from the user 102 via a mobile terminal such as a smart phone, wearable terminal, and tablet terminal, for example. The glasses-type device 100 may establish a wireless connection with them, for example, using short-range wireless communication schemes such as Wi-Fi, Bluetooth®, and Zigbee®.

制御装置200は、ユーザ102による音声入力を受け付けてもよい。制御装置200は、マイク126が取得したユーザ102の発話を音声認識することによって、ユーザ102による音声入力を受け付けてよい。 Controller 200 may accept voice input by user 102 . The control device 200 may accept voice input by the user 102 by voice recognition of the user's 102 speech captured by the microphone 126 .

制御装置200は、ユーザ102の手の動きによる入力を受け付けてよい。制御装置200は、カメラ120によって撮像されたユーザ102の手の動きを認識することによって、コンテンツの選択等の、ユーザ102による入力を受け付けてよい。制御装置200は、ユーザ102によるジェスチャ入力を受け付けてもよい。 The control device 200 may accept input by hand movements of the user 102 . The control device 200 may accept input from the user 102 such as selection of content by recognizing the movement of the hand of the user 102 captured by the camera 120 . The control device 200 may accept gesture input by the user 102 .

制御装置200は、各種センサを備えてよい。制御装置200は、例えば、測位センサを備える。例えば、制御装置200は、GPS(Global Positioning System)センサ等のGNSS(Global Naviagtion Satellite System)センサを備える。制御装置200は、加速度センサを備えてよい。制御装置200は、ジャイロセンサを備えてよい。制御装置200は、その他のセンサを備えてもよい。 The control device 200 may include various sensors. The control device 200 includes, for example, a positioning sensor. For example, the control device 200 includes a GNSS (Global Navigation Satellite System) sensor such as a GPS (Global Positioning System) sensor. Control device 200 may include an acceleration sensor. The control device 200 may include a gyro sensor. Controller 200 may include other sensors.

制御装置200は、カメラ120の撮像範囲を示す撮像範囲情報を生成してよい。制御装置200は、眼鏡型デバイス100の位置、向き、及び姿勢に基づいて、撮像範囲情報を生成してよい。制御装置200は、各種センサの出力によって、眼鏡型デバイス100の位置、向き、及び姿勢を特定してよい。 The control device 200 may generate imaging range information indicating the imaging range of the camera 120 . The control device 200 may generate imaging range information based on the position, orientation, and orientation of the glasses-type device 100 . The control device 200 may identify the position, orientation, and orientation of the spectacles-type device 100 based on the outputs of various sensors.

制御装置200は、レンズ部116への表示機能を備えてよい。レンズ部116は、眼鏡型デバイス100の表示部の一例であってよい。レンズ部116は、透明又は半透明のディスプレイであってよく、制御装置200は、レンズ部116に各種表示を実行させてよい。すなわち、眼鏡型デバイス100は、透明又は半透明のディスプレイ型のデバイスであってよい。また、制御装置200が、レンズ部116に対して表示を投影する機能を有してもよい。すなわち、眼鏡型デバイス100は、投影型のデバイスであってよい。 The control device 200 may have a function of displaying on the lens unit 116 . The lens section 116 may be an example of the display section of the spectacles-type device 100 . The lens unit 116 may be a transparent or translucent display, and the control device 200 may cause the lens unit 116 to perform various displays. That is, the glasses-type device 100 may be a transparent or translucent display-type device. Also, the control device 200 may have a function of projecting a display onto the lens unit 116 . That is, the glasses-type device 100 may be a projection-type device.

制御装置200は、ネットワーク20を介した通信を実行する機能を有してよい。制御装置200は、移動体通信、Wi-Fi通信、及びその他の無線通信全般の少なくともいずれかによって、ネットワーク20にアクセスしてよい。制御装置200は、ネットワーク20を介して、管理サーバ300と通信してよい。 The control device 200 may have the function of performing communication via the network 20 . Controller 200 may access network 20 via mobile communications, Wi-Fi communications, and/or other wireless communications in general. The control device 200 may communicate with the management server 300 via the network 20 .

制御装置200は、眼鏡型デバイス100の入出力に関する設定値に従って、各種入出力を制御する。設定値は、例えば、製品購入時等においてはデフォルトの値であり、ユーザ102によってカスタマイズ可能であってよい。 The control device 200 controls various inputs/outputs in accordance with input/output setting values of the spectacles-type device 100 . The setting values are default values at the time of product purchase, for example, and may be customizable by the user 102 .

本実施形態に係る制御装置200は、通常時における設定値(基本設定値と記載する場合がある。)とは別に、眼鏡型デバイス100が置かれている状況に応じた設定値(状況設定値と記載する場合がある。)を設定可能である。制御装置200は、例えば、眼鏡型デバイス100が位置する空間の種類毎の状況設定値を格納する。空間の種類の例としては、屋内空間、屋外空間、周囲の人の密度が多い空間、周囲の人の密度が少ない空間、広い空間、及び狭い空間等が挙げられるが、これらに限られない。 The control device 200 according to the present embodiment sets a set value (situation set value) according to the situation in which the spectacles-type device 100 is placed, in addition to the set value (which may be referred to as a basic set value) during normal operation. ) can be set. The control device 200 stores, for example, situation setting values for each type of space in which the glasses-type device 100 is located. Examples of space types include, but are not limited to, indoor spaces, outdoor spaces, spaces with high density of surrounding people, spaces with low density of surrounding people, wide spaces, and narrow spaces.

また、制御装置200は、例えば、眼鏡型デバイス100のユーザ102が他者と対面している状況における状況設定値を格納する。制御装置200は、空間の種類毎に、ユーザ102が他者と対面していない状況における状況設定値と、ユーザ102が他者と対面している状況における状況設定値とを格納してもよい。 Also, the control device 200 stores, for example, a situation setting value in a situation where the user 102 of the glasses-type device 100 is facing another person. The control device 200 may store, for each type of space, a situation setting value in a situation where the user 102 is not facing another person and a situation setting value in a situation where the user 102 is facing another person. .

状況設定値は、ユーザ102によって設定可能であってよい。ユーザ102は、例えば、空間の種類毎に、状況設定値を自発的に手動設定する。また、ユーザ102は、例えば、他者と対面している状況における状況設定値を自発的に手動設定する。また、ユーザ102は、例えば、空間の種類毎に、ユーザ102が他者と対面していない状況における状況設定値と、ユーザ102が他者と対面している状況における状況設定値とを自発的に手動設定する。 The context settings may be configurable by the user 102 . The user 102 voluntarily manually sets the situation setting value, for example, for each type of space. Also, the user 102 voluntarily and manually sets the situation setting value in a situation where the user 102 is facing another person, for example. Further, for example, the user 102 voluntarily sets a situation setting value in a situation where the user 102 is not facing another person and a situation setting value in a situation where the user 102 is facing another person, for each type of space. manually set to

制御装置200は、ユーザ102による設定値の調整状況に応じて、状況設定値を設定してもよい。例えば、制御装置200は、眼鏡型デバイス100がある空間に位置する場合に、ユーザ102によって設定値が変更された場合に、変更後の設定値を、当該空間の種類に対応する状況設定値として設定する。 The control device 200 may set the status setting value according to the adjustment status of the setting value by the user 102 . For example, when the spectacles-type device 100 is positioned in a certain space and the setting value is changed by the user 102, the control device 200 uses the changed setting value as the situation setting value corresponding to the type of space. set.

制御装置200は、例えば、カメラ120によって撮像された撮像画像と、各種センサによって出力された情報とを用いて、眼鏡型デバイス100が位置する空間の種類を認識する。そして、制御装置200は、眼鏡型デバイス100の入出力に関連する設定値を、認識した空間の種類に対応する状況設定値に変更する。 The control device 200 recognizes the type of space in which the spectacles-type device 100 is located, for example, using the captured image captured by the camera 120 and information output by various sensors. Then, the control device 200 changes the setting values related to the input/output of the glasses-type device 100 to the situation setting values corresponding to the recognized type of space.

入出力に関連する設定値の例として、出力音声に関する設定値が挙げられる。当該設定値は、例えば、出力音声の音量を示す。当該設定値は、出力音声のオンオフを示してもよい。 An example of setting values related to input/output includes setting values related to output audio. The set value indicates, for example, the volume of the output sound. The setting value may indicate on/off of the output sound.

入出力に関連する設定値の例として、表示するコンテンツに関する設定値が挙げられる。当該設定値は、コンテンツの透過率を示してよい。当該設定値は、コンテンツの明度や、コンテンツのサイズ等を示してもよい。当該設定値は、コンテンツの表示のオンオフを示してもよい。当該設定値は、外部コンテンツ表示のオンオフを示してもよい。 Examples of setting values related to input/output include setting values related to content to be displayed. The setting value may indicate the transparency of the content. The setting value may indicate the brightness of the content, the size of the content, and the like. The setting value may indicate ON/OFF of content display. The setting value may indicate on/off of external content display.

入出力に関連する設定値の例として、音声入力に関する設定値が挙げられる。当該設定値は、音声入力のオンオフを示してよい。当該設定値は、音声入力の感度を示してもよい。 An example of setting values related to input/output includes setting values related to voice input. The setting value may indicate on/off of voice input. The setting value may indicate the sensitivity of voice input.

入出力に関連する設定値の例として、外部通知に関する設定値が挙げられる。外部通知とは、例えば、眼鏡型デバイス100が新着メッセージや、新着メールを受信した場合に、その旨をユーザ102に通知することであってよい。当該設定値は、外部通知のオンオフを示してよい。 An example of setting values related to input/output is a setting value related to external notification. The external notification may be, for example, notification to the user 102 when the glasses-type device 100 receives a new message or new mail. The setting value may indicate ON/OFF of external notification.

入出力に関連する設定値の例として、外部コンテンツに関する設定値が挙げられる。当該設定値は、外部コンテンツを受領するか否かを示してよい。外部コンテンツの受領をしない設定がなされた場合、例えば、制御装置200は、管理サーバ300に対してその旨を通知する。管理サーバ300は、眼鏡型デバイス100に対するコンテンツの送信を停止する。 Examples of setting values related to input/output include setting values related to external content. The setting value may indicate whether or not to accept external content. When the setting is made not to receive external content, for example, the control device 200 notifies the management server 300 to that effect. The management server 300 stops transmission of content to the glasses-type device 100 .

図3は、眼鏡型デバイス100によるコンテンツ400の表示例を概略的に示す。制御装置200は、カメラ120の撮像範囲に含まれる対象に対応するコンテンツを管理サーバ300から受信して、レンズ部116に表示させる。 FIG. 3 schematically shows a display example of content 400 by the glasses-type device 100. As shown in FIG. The control device 200 receives content corresponding to an object included in the imaging range of the camera 120 from the management server 300 and causes the lens unit 116 to display the content.

制御装置200は、入出力に関連する設定値に従って、管理サーバ300から受信したコンテンツの表示を制御する。制御装置200は、例えば、外部コンテンツ表示がオフに設定された場合、管理サーバ300からコンテンツを受信しても表示しない。制御装置200は、例えば、コンテンツの透過率が設定されている場合に、管理サーバ300から受信したコンテンツを、設定された透過率で表示させる。 The control device 200 controls the display of the content received from the management server 300 according to set values related to input/output. For example, when external content display is set to off, the control device 200 does not display content even if it receives content from the management server 300 . For example, when the transparency of the content is set, the control device 200 displays the content received from the management server 300 with the set transparency.

図4は、制御装置200による処理の流れの一例を概略的に示す。ここでは、状況設定値が対応付けられていない空間において、制御装置200が起動した状態を開始状態として説明する。 FIG. 4 schematically shows an example of the flow of processing by the control device 200. As shown in FIG. Here, a state in which the control device 200 is activated in a space to which no situation setting value is associated will be described as a start state.

ステップ(ステップをSと省略して記載する場合がある。)102では、制御装置200が、眼鏡型デバイス100の入出力に関連する設定値を基本設定値に設定する。S104では、制御装置200が、各種情報を取得する。制御装置200は、カメラ120によって撮像された撮像画像や、各種センサによって出力された情報を取得する。 In step (the step may be abbreviated as S) 102, the control device 200 sets the setting values related to the input/output of the spectacles-type device 100 to the basic setting values. In S104, the control device 200 acquires various information. The control device 200 acquires captured images captured by the camera 120 and information output by various sensors.

S106では、制御装置200が、眼鏡型デバイス100が位置する空間が変化したか否かを判定する。変化したと判定した場合、S108に進み、変化していないと判定した場合、S116に進む。 In S106, the control device 200 determines whether or not the space in which the eyeglass-type device 100 is located has changed. If it is determined that the value has changed, the process proceeds to S108, and if it is determined that the value has not changed, the process proceeds to S116.

S108では、制御装置200が、変化後の空間の種類に対応する状況設定値が有るか否かを判定する。有ると判定した場合、S110に進み、無いと判定した場合、S112に進む。S110では、眼鏡型デバイス100の入出力に関連する設定値を、変化後の空間の種類に対応する状況設定値に変更する。 In S108, the control device 200 determines whether or not there is a situation setting value corresponding to the changed space type. If it is determined that there is, the process proceeds to S110, and if it is determined that there is not, the process proceeds to S112. In S110, the setting value related to the input/output of the glasses-type device 100 is changed to the situation setting value corresponding to the type of space after the change.

S112では、制御装置200が、ユーザ102による設定変更が有ったか否かを判定する。変更有と判定した場合、S114に進み、変更無と判定した場合、S116に進む。S114では、ユーザ102による変更後の設定値を、眼鏡型デバイス100が位置する空間の種類に対応する状況設定値として、登録する。 In S112, the control device 200 determines whether or not the user 102 has changed the settings. If it is determined that there is a change, the process proceeds to S114, and if it is determined that there is no change, the process proceeds to S116. In S114, the setting value after the change by the user 102 is registered as the situation setting value corresponding to the type of space in which the spectacles-type device 100 is located.

S116では、制御装置200が、設定値の自動変更機能を終了するか否かを判定する。制御装置200は、ユーザ102による終了指示を受け付けた場合、終了すると判定し、受け付けていない場合、終了しないと判定してよい。終了しないと判定した場合、S104に戻る。 In S116, the control device 200 determines whether or not to terminate the automatic setting value changing function. The control device 200 may determine to end when an end instruction from the user 102 is accepted, and may determine not to end when not accepted. If it is determined not to end, the process returns to S104.

図5は、状況設定値テーブル500の一例を概略的に示す。図5に示す例では、4つの空間種類に対する、各設定項目の設定値の具体例を示している。図5に示す通り、空間種類及び設定項目は、図5に示すものに限らない。 FIG. 5 schematically shows an example of a situation setting value table 500. As shown in FIG. The example shown in FIG. 5 shows specific examples of setting values for each setting item for four space types. As shown in FIG. 5, the space types and setting items are not limited to those shown in FIG.

図5に示す例において、屋外で人の密度が高い空間(都心部等)に対して、出力音声:80%、コンテンツ透過率:60%、音声入力:ON、コンテンツ表示:ON、通知受付:ON、外部コンテンツ受領:ONが設定されている。これにより、眼鏡型デバイス100が、屋外で、かつ、人通りが多いような空間に位置する場合、通りの人がコンテンツに隠れてしまわないような透過率でコンテンツが表示され、周囲に音が漏れない範囲で音声が出力されるといった、その空間での操作や表示等に適した設定値へ変更することができる。図5に示す例において、屋外で人の密度が低い空間(住宅街等)に対して、出力音声:100%、コンテンツ透過率:80%、音声入力:ON、コンテンツ表示:ON、通知受付:ON、外部コンテンツ受領:ONが設定されている。これにより、眼鏡型デバイス100が、屋外で、かつ、人通りが少ないような空間に位置する場合、密度が高い場合に比べ、通りの人がコンテンツに隠れるリスクが無いため、はっきりと見やすい透過率でコンテンツを表示し、音声も人の密度が高い場合に比べて、聞き取りやすいように出力されるといった、設定値へ変更することができる。 In the example shown in FIG. 5, for an outdoor space with a high density of people (city center, etc.), output audio: 80%, content transmittance: 60%, audio input: ON, content display: ON, notification reception: ON, external content reception: ON is set. As a result, when the glasses-type device 100 is located outdoors in a space with a lot of pedestrian traffic, the content is displayed with a transmittance that does not hide people on the street, and the surrounding noise is reduced. It is possible to change the setting value to suit the operation, display, etc. in the space, such as outputting sound within a range that does not leak. In the example shown in FIG. 5, for an outdoor space with a low density of people (residential area, etc.), output audio: 100%, content transmittance: 80%, audio input: ON, content display: ON, notification reception: ON, external content reception: ON is set. As a result, when the spectacles-type device 100 is located outdoors and in a space with few pedestrians, there is no risk that people on the street will be hidden by the content compared to when the density is high. It is possible to change the setting value such that the content is displayed in and the voice is output so that it is easier to hear than when there is a high density of people.

図5に示す例において、屋内の静かな空間(図書館等)に対して、出力音声:10%、コンテンツ透過率:30%、音声入力:ON、コンテンツ表示:ON、通知受付:ON、外部コンテンツ受領:ONが設定されている。これにより、コンテンツのサイズや透過率を屋内向けに調整することができる。 In the example shown in FIG. 5, for a quiet indoor space (library, etc.), output audio: 10%, content transmittance: 30%, audio input: ON, content display: ON, notification acceptance: ON, external content Receive: ON is set. This makes it possible to adjust the content size and transmittance for indoor use.

図5に示す例において、屋内の特殊な空間(映画館等)に対して、出力音声:0%、コンテンツ透過率:設定無、音声入力:OFF、コンテンツ表示:OFF、通知受付:OFF、外部コンテンツ受領:OFFが設定されている。これにより、眼鏡型デバイス100が、映画館等の、周囲への影響を極端に抑える必要がある特殊な空間に位置する場合に、音声等の入出力や、コンテンツの表示等を一時的に停止することができる。 In the example shown in FIG. 5, for a special indoor space (movie theater, etc.), output sound: 0%, content transmittance: no setting, voice input: OFF, content display: OFF, notification reception: OFF, external Content reception: OFF is set. As a result, when the spectacles-type device 100 is positioned in a special space such as a movie theater where the influence on the surroundings must be extremely suppressed, the input/output of audio and the like, and the display of content, etc. are temporarily stopped. can do.

図6は、制御装置200の機能構成の一例を概略的に示す。制御装置200は、格納部202、情報取得部204、空間認識部206、対面判定部208、及び設定変更部210を備える。なお、制御装置200がこれらの全てを備えることは必須とは限らない。 FIG. 6 schematically shows an example of the functional configuration of the control device 200. As shown in FIG. The control device 200 includes a storage section 202 , an information acquisition section 204 , a space recognition section 206 , a meeting determination section 208 and a setting change section 210 . Note that it is not essential for the control device 200 to have all of these.

情報取得部204は、各種情報を取得する。情報取得部204は、取得した情報を格納部202に格納する。 The information acquisition unit 204 acquires various types of information. The information acquisition unit 204 stores the acquired information in the storage unit 202 .

情報取得部204は、カメラ120によって撮像された撮像画像を取得してよい。情報取得部204は、各種センサによって出力された情報を取得してよい。情報取得部204は、例えば、測位センサによって出力された情報を取得する。情報取得部204は、例えば、ジャイロセンサによって出力された情報を取得する。情報取得部204は、例えば、加速度センサによって出力された情報を取得する。情報取得部204は、例えば、センサ122によって出力された情報を取得する。情報取得部204は、例えば、センサ124によって出力された情報を取得する。情報取得部204は、例えば、マイク126が取得した音声を取得する。情報取得部204は、例えば、センサ130によって出力された情報を取得する。 The information acquisition section 204 may acquire a captured image captured by the camera 120 . The information acquisition unit 204 may acquire information output by various sensors. The information acquisition unit 204 acquires information output by, for example, a positioning sensor. The information acquisition unit 204 acquires information output by, for example, a gyro sensor. The information acquisition unit 204 acquires information output by, for example, an acceleration sensor. The information acquisition unit 204 acquires information output by the sensor 122, for example. The information acquisition unit 204 acquires information output by the sensor 124, for example. The information acquisition unit 204 acquires the sound acquired by the microphone 126, for example. The information acquisition unit 204 acquires information output by the sensor 130, for example.

情報取得部204は、ユーザ102によって入力された基本設定値を取得してよい。情報取得部204は、ユーザ102によって入力された状況設定値を取得してもよい。情報取得部204は、例えば、空間の種類毎に、ユーザ102によって入力された状況設定値を、空間の種類に対応付けて格納部202に格納する。 The information acquisition unit 204 may acquire basic setting values input by the user 102 . The information acquisition unit 204 may acquire the situation settings input by the user 102 . The information acquisition unit 204 stores, for each type of space, the setting value input by the user 102 in the storage unit 202 in association with the type of space.

空間認識部206は、眼鏡型デバイス100が位置する空間の種類を認識する。空間認識部206は、カメラ120による撮像画像に基づいて、眼鏡型デバイス100が位置する空間の種類を認識してよい。例えば、空間認識部206は、眼鏡型デバイス100が位置する空間が屋内であるのか屋外であるのかを認識する。また、例えば、空間認識部206は、眼鏡型デバイス100が位置する空間が広い空間であるのか狭い空間であるのかを認識する。また、例えば、空間認識部206は、眼鏡型デバイス100が位置する空間が、人の密度が予め定められた閾値より高い空間であるのか、低い空間であるのかを認識してよい。 The space recognition unit 206 recognizes the type of space in which the spectacles-type device 100 is located. The space recognition unit 206 may recognize the type of space in which the spectacles-type device 100 is located based on the image captured by the camera 120 . For example, the space recognition unit 206 recognizes whether the space in which the glasses-type device 100 is located is indoors or outdoors. Also, for example, the space recognition unit 206 recognizes whether the space in which the spectacles-type device 100 is positioned is a wide space or a narrow space. Also, for example, the space recognition unit 206 may recognize whether the space in which the spectacles-type device 100 is located is a space where the density of people is higher or lower than a predetermined threshold.

空間認識部206は、センサ122の出力に基づいて、眼鏡型デバイス100が位置する空間の種類を認識してよい。例えば、空間認識部206は、眼鏡型デバイス100が位置する空間が広い空間であるのか狭い空間であるのかを認識する。また、例えば、空間認識部206は、眼鏡型デバイス100が位置する空間が、人の密度が予め定められた閾値より高い空間であるのか、低い空間であるのかを認識してよい。 The space recognition unit 206 may recognize the type of space in which the spectacles-type device 100 is located based on the output of the sensor 122 . For example, the space recognition unit 206 recognizes whether the space in which the spectacles-type device 100 is located is a wide space or a narrow space. Also, for example, the space recognition unit 206 may recognize whether the space in which the spectacles-type device 100 is located is a space where the density of people is higher or lower than a predetermined threshold.

空間認識部206は、センサ130の出力に基づいて、眼鏡型デバイス100が位置する空間の種類を認識してよい。例えば、空間認識部206は、眼鏡型デバイス100が位置する空間が屋内であるのか屋外であるのかを認識する。 The space recognition section 206 may recognize the type of space in which the spectacles-type device 100 is located based on the output of the sensor 130 . For example, the space recognition unit 206 recognizes whether the space in which the glasses-type device 100 is located is indoors or outdoors.

空間認識部206は、各地の3次元空間情報が登録された3Dマップから、眼鏡型デバイス100の位置情報が示す位置に対応する3次元空間情報を取得することによって、眼鏡型デバイス100が位置する空間の種類を認識してよい。空間認識部206は、例えば、3Dマップを保持している管理サーバ300に対して、眼鏡型デバイス100の位置情報を送信して、位置情報が示す位置に対応する3次元空間情報を管理サーバ300から受信する。3Dマップは、格納部202に格納されていてもよい。この場合、空間認識部206は、格納部202に格納されている3Dマップから、眼鏡型デバイス100の位置情報が示す位置に対応する3次元空間情報を取得してよい。 The space recognition unit 206 acquires three-dimensional space information corresponding to the position indicated by the position information of the spectacle-type device 100 from a 3D map in which the three-dimensional space information of various places is registered, thereby locating the spectacle-type device 100. You may recognize the type of space. For example, the space recognition unit 206 transmits the position information of the spectacles-type device 100 to the management server 300 holding the 3D map, and sends the three-dimensional space information corresponding to the position indicated by the position information to the management server 300. receive from A 3D map may be stored in the storage unit 202 . In this case, the space recognition unit 206 may acquire three-dimensional space information corresponding to the position indicated by the position information of the glasses-type device 100 from the 3D map stored in the storage unit 202 .

空間認識部206は、カメラ120による撮像画像、センサ122の出力、センサ130の出力、及び眼鏡型デバイス100の位置情報が示す位置に対応する3次元空間情報を複合的に用いることによって、眼鏡型デバイス100が位置する空間の種類を認識してよい。 The space recognizing unit 206 uses three-dimensional spatial information corresponding to the position indicated by the image captured by the camera 120, the output of the sensor 122, the output of the sensor 130, and the position information of the eyeglass-shaped device 100 in a complex manner. It may recognize the type of space in which the device 100 is located.

対面判定部208は、眼鏡型デバイス100を装着しているユーザ102が、他者と対面しているか否かを判定する。対面判定部208は、例えば、カメラ120による撮像画像を解析することによって、他者の目線や顔の向きを認識し、ユーザ102と対面していることを検知する。対面判定部208は、マイク126が取得する音声を音声認識することによって、ユーザ102と、他者の発話を解析して、ユーザ102と他者とが対話をしているか否かを判定してもよい。 The facing determination unit 208 determines whether or not the user 102 wearing the glasses-type device 100 is facing another person. The facing determination unit 208 detects that the person is facing the user 102 by, for example, analyzing an image captured by the camera 120 to recognize the other person's line of sight and face orientation. The face-to-face determination unit 208 analyzes the utterances of the user 102 and the other person by recognizing the voice acquired by the microphone 126, and determines whether or not the user 102 and the other person are having a conversation. good too.

設定変更部210は、眼鏡型デバイス100の入出力に関連する設定値を変更する。設定変更部210は、例えば、デフォルトの設定値を、ユーザ102によって入力された基本設定値に変更する。設定変更部210は、ユーザ102に指示に従って、基本設定値を変更してよい。 The setting change unit 210 changes setting values related to input/output of the spectacles-type device 100 . The setting change unit 210 changes, for example, default setting values to basic setting values input by the user 102 . The setting change unit 210 may change the basic setting values according to instructions from the user 102 .

設定変更部210は、眼鏡型デバイス100がある空間の位置しているときに、ユーザ102の指示に従って設定値を変更した場合に、当該空間の種類に対応付けて、変更後の設定値を状況設定値として登録してもよい。設定変更部210は、ユーザ102に対して問い合わせを行って、ユーザ102の許可が得られた場合に、当該登録を行い、許可が得られなかった場合には、登録を行わなくてもよい。これにより、ある空間において、ユーザ102がそのときだけ反映したい設定変更を行った場合に、それが自動登録されてしまうことを防止することができる。 When the setting value is changed according to an instruction from the user 102 when the spectacles-type device 100 is positioned in a certain space, the setting changing unit 210 changes the setting value after the change in association with the type of the space. It may be registered as a set value. The setting change unit 210 may inquire of the user 102 and perform the registration if the permission of the user 102 is obtained, and may not perform the registration if the permission is not obtained. As a result, in a certain space, when the user 102 makes a setting change to be reflected only at that time, it is possible to prevent the change from being automatically registered.

設定変更部210は、空間認識部206によって認識された空間の種類に基づいて、眼鏡型デバイス100の入出力に関連する設定値を変更してよい。設定変更部210は、例えば、眼鏡型デバイス100が位置する空間が、他の種別の空間に切り替わったことに応じて、切り替わった後の空間の種類に基づいて、設定値を変更する。設定変更部210は、眼鏡型デバイス100の入出力に関連する設定値を、切り替わったとの空間の種類に対応する状況設定値に変更してよい。 The setting change section 210 may change setting values related to input/output of the spectacles-type device 100 based on the type of space recognized by the space recognition section 206 . For example, when the space in which the glasses-type device 100 is located is switched to another type of space, the setting change unit 210 changes the setting value based on the type of space after switching. The setting change unit 210 may change the setting values related to the input/output of the glasses-type device 100 to the situation setting values corresponding to the type of the switched space.

設定変更部210は、例えば、空間認識部206によって認識された空間の種類に基づいて、眼鏡型デバイス100による出力音声に関する設定値を変更する。設定変更部210は、例えば、出力音声の音量を変更する。また、設定変更部210は、例えば、出力音声のオンオフを変更する。 The setting change unit 210 changes the setting value related to the audio output by the glasses-type device 100 based on the type of space recognized by the space recognition unit 206, for example. The setting change unit 210 changes, for example, the volume of the output sound. Also, the setting change unit 210 changes ON/OFF of the output sound, for example.

設定変更部210は、例えば、空間認識部206によって認識された空間の種類に基づいて、眼鏡型デバイス100が表示するコンテンツに関する設定値を変更する。設定変更部210は、例えば、コンテンツの透過率を変更する。また、設定変更部210は、例えば、コンテンツの表示のオンオフを変更する。 The setting change unit 210 changes setting values related to content displayed by the glasses-type device 100 based on the type of space recognized by the space recognition unit 206, for example. The setting changer 210 changes, for example, the transmittance of the content. Also, the setting change unit 210 changes ON/OFF of content display, for example.

設定変更部210は、例えば、空間認識部206によって認識された空間の種類に基づいて、眼鏡型デバイス100の音声入力に関する設定値を変更する。設定変更部210は、例えば、音声入力のオンオフを変更する。また、設定変更部210は、例えば、音声入力の感度を変更する。 The setting change unit 210 changes the setting value related to voice input of the glasses-type device 100 based on the type of space recognized by the space recognition unit 206, for example. The setting change unit 210 changes ON/OFF of voice input, for example. Also, the setting change unit 210 changes, for example, the sensitivity of voice input.

設定変更部210は、例えば、空間認識部206によって認識された空間の種類に基づいて、外部通知のオンオフを変更する。設定変更部210は、例えば、空間認識部206によって認識された空間の種類に基づいて、眼鏡型デバイス100が外部コンテンツを受領するか否かを変更する。 The setting change unit 210 changes ON/OFF of the external notification based on the type of space recognized by the space recognition unit 206, for example. The setting change unit 210 changes whether the glasses-type device 100 receives external content based on the type of space recognized by the space recognition unit 206, for example.

設定変更部210は、例えば、空間認識部206によって認識された空間の種類に基づいて、カメラ120に関する設定値を変更する。設定変更部210は、例えば、カメラ120のオンオフを変更する。また、設定変更部210は、例えば、カメラ120によって撮像可能な形式を、静止画のみとするか、静止画及び動画とするかを変更する。 The setting change unit 210 changes the setting values for the camera 120 based on the type of space recognized by the space recognition unit 206, for example. The setting change unit 210 changes ON/OFF of the camera 120, for example. Also, the setting change unit 210 changes, for example, whether the format that can be captured by the camera 120 is only still images or both still images and moving images.

設定変更部210は、対面判定部208による判定結果にさらに基づいて、眼鏡型デバイス100の入出力に関連する設定値を変更する。設定変更部210は、例えば、空間の種類毎に格納された、ユーザ102が他者と対面していない状況における状況設定値と、ユーザ102が他者と対面している状況における状況設定値とを用いる。 The setting change unit 210 changes setting values related to input/output of the spectacles-type device 100 further based on the determination result by the meeting determination unit 208 . The setting change unit 210 stores, for example, a situation setting value in a situation where the user 102 is not facing another person and a situation setting value in a situation where the user 102 is facing another person, which are stored for each type of space. Use

設定変更部210は、眼鏡型デバイス100がある空間に位置しており、かつ、ユーザ102が他者と対面している場合、眼鏡型デバイス100の入出力に関連する設定値を、当該空間の種類に対応付けられた、ユーザ102が他者と対面している状況における状況設定値に変更する。設定変更部210は、眼鏡型デバイス100がある空間に位置しており、かつ、ユーザ102が他者と対面していない場合、眼鏡型デバイス100の入出力に関連する設定値を、当該空間の種類に対応付けられた、ユーザ102が他者と対面していない状況における状況設定値に変更してよい。 When the spectacles-type device 100 is located in a space and the user 102 is facing another person, the setting change unit 210 changes the setting values related to the input/output of the spectacles-type device 100 to the space. The setting value is changed to the situation setting value associated with the type in which the user 102 is facing another person. When the spectacles-type device 100 is located in a space and the user 102 is not facing another person, the setting change unit 210 changes the setting values related to the input/output of the spectacles-type device 100 to the space. The setting value may be changed to the situation setting value associated with the type in a situation where the user 102 is not facing another person.

ユーザ102が他者と対面している状況における状況設定値は、ユーザ102が他者と対面していない状況における状況設定値と比較して、会話の邪魔にならないような設定値であってよい。例えば、ユーザ102が他者と対面している状況における状況設定値では、出力音声がオフにされるか、音量が小さく設定され、コンテンツ表示や、外部コンテンツの受領がオフに設定され得る。 The situation setting value in the situation where the user 102 is facing the other person may be a setting value that does not interfere with the conversation compared to the situation setting value in the situation where the user 102 is not facing the other person. . For example, in a situation setting in which the user 102 is facing another person, the output sound may be turned off or the volume may be set to low, and content display and reception of external content may be set to off.

図1から図6を用いて説明した実施形態では、制御装置200が、眼鏡型デバイス100が位置する空間の種類を認識して、空間の種類に基づいて眼鏡型デバイス100の入出力に関連する設定値を変更する場合を例に挙げて説明したが、これに限らず、当該処理は、管理サーバ300が主体となって実行されてもよい。管理サーバ300は、制御装置の一例であってよい。 In the embodiments described with reference to FIGS. 1 to 6, the control device 200 recognizes the type of space in which the spectacles-type device 100 is located, and controls the input/output of the spectacles-type device 100 based on the type of space. Although the case of changing the setting value has been described as an example, the processing is not limited to this, and the management server 300 may be the subject of the processing. The management server 300 may be an example of a control device.

図7は、管理サーバ300の機能構成の一例を概略的に示す。図7では、管理サーバ300の機能のうち、眼鏡型デバイス100が位置する空間の種類を認識して、眼鏡型デバイス100の入出力に関連する設定値を変更する機能に関して、主に説明する。ここでは、図6における各構成の処理内容と異なる点を主に説明する。 FIG. 7 schematically shows an example of the functional configuration of the management server 300. As shown in FIG. 7, among the functions of the management server 300, the function of recognizing the type of space in which the spectacle-type device 100 is located and changing the setting values related to the input/output of the spectacle-type device 100 will be mainly described. Here, differences from the processing contents of each configuration in FIG. 6 will be mainly described.

情報取得部304は、各種情報を取得する。情報取得部304は、情報取得部204が取得する情報と同様の情報を、制御装置200から受信してよい。情報取得部304は、取得した情報を格納部302に格納する。 The information acquisition unit 304 acquires various types of information. The information acquisition unit 304 may receive information similar to the information acquired by the information acquisition unit 204 from the control device 200 . The information acquisition unit 304 stores the acquired information in the storage unit 302 .

空間認識部306は、眼鏡型デバイス100が位置する空間の種類を認識する。空間認識部306は、空間認識部206と同様の手法を用いることによって、眼鏡型デバイス100が位置する空間の種類を認識してよい。 The space recognition unit 306 recognizes the type of space in which the spectacles-type device 100 is located. The space recognition unit 306 may recognize the type of space in which the spectacles-type device 100 is located by using a technique similar to that of the space recognition unit 206 .

対面判定部308は、眼鏡型デバイス100を装着しているユーザ102が、他者と対面しているか否かを判定する。対面判定部308は、対面判定部208と同様の手法を用いることによって、眼鏡型デバイス100を装着しているユーザ102が、他者と対面しているか否かを判定してよい。 The facing determination unit 308 determines whether or not the user 102 wearing the glasses-type device 100 is facing another person. The facing determination unit 308 may determine whether or not the user 102 wearing the glasses-type device 100 is facing another person by using a method similar to that of the facing determination unit 208 .

設定変更部310は、眼鏡型デバイス100の入出力に関連する設定値を変更する。設定変更部310は、制御装置200に対して変更指示を送信することによって、眼鏡型デバイス100の入出力に関連する設定値を変更してよい。設定変更部310は、設定変更部210と同様に、空間認識部306によって認識された空間の種類に基づいて、眼鏡型デバイス100の入出力に関連する設定値を変更してよい。また、設定変更部310は、設定変更部210と同様に、対面判定部308による判定結果にさらに基づいて、眼鏡型デバイス100の入出力に関連する設定値を変更してよい。 The setting change unit 310 changes setting values related to input/output of the spectacles-type device 100 . The setting change section 310 may change setting values related to input/output of the spectacles-type device 100 by transmitting a change instruction to the control device 200 . The setting change unit 310 may change setting values related to input/output of the spectacles-type device 100 based on the type of space recognized by the space recognition unit 306, similar to the setting change unit 210. FIG. Further, similarly to the setting change unit 210 , the setting change unit 310 may change setting values related to input/output of the glasses-type device 100 further based on the determination result of the meeting determination unit 308 .

図8は、制御装置200又は管理サーバ300として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200を、本実施形態に係る装置の1又は複数の「部」として機能させ、又はコンピュータ1200に、本実施形態に係る装置に関連付けられるオペレーション又は当該1又は複数の「部」を実行させることができ、及び/又はコンピュータ1200に、本実施形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつか又はすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。 FIG. 8 schematically shows an example of a hardware configuration of a computer 1200 functioning as the control device 200 or management server 300. As shown in FIG. Programs installed on the computer 1200 cause the computer 1200 to function as one or more "parts" of the apparatus of the present embodiments, or cause the computer 1200 to operate or perform operations associated with the apparatus of the present invention. Multiple "units" can be executed and/or the computer 1200 can be caused to execute the process or steps of the process according to the present invention. Such programs may be executed by CPU 1212 to cause computer 1200 to perform certain operations associated with some or all of the blocks in the flowcharts and block diagrams described herein.

本実施形態によるコンピュータ1200は、CPU1212、RAM1214、及びグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、記憶装置1224、及びICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。記憶装置1224は、ハードディスクドライブ及びソリッドステートドライブ等であってよい。コンピュータ1200はまた、ROM1230及びキーボード又はタッチパネルのような入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。 Computer 1200 according to this embodiment includes CPU 1212 , RAM 1214 , and graphics controller 1216 , which are interconnected by host controller 1210 . Computer 1200 also includes input/output units such as communication interface 1222 , storage device 1224 , and IC card drives, which are connected to host controller 1210 via input/output controller 1220 . Storage devices 1224 may be hard disk drives, solid state drives, and the like. Computer 1200 also includes input/output units such as ROM 1230 and a keyboard or touch panel, which are connected to input/output controller 1220 via input/output chip 1240 .

CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。 The CPU 1212 operates according to programs stored in the ROM 1230 and RAM 1214, thereby controlling each unit. Graphics controller 1216 retrieves image data generated by CPU 1212 into a frame buffer or the like provided in RAM 1214 or itself, and causes the image data to be displayed on display device 1218 .

通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。 Communication interface 1222 communicates with other electronic devices over a network. Storage device 1224 stores programs and data used by CPU 1212 within computer 1200 . The IC card drive reads programs and data from IC cards and/or writes programs and data to IC cards.

ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/又はコンピュータ1200のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、様々な入出力ユニットをUSBポート、パラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ1220に接続してよい。 ROM 1230 stores therein programs that are dependent on the hardware of computer 1200, such as a boot program that is executed by computer 1200 upon activation. Input/output chip 1240 may also connect various input/output units to input/output controller 1220 via USB ports, parallel ports, serial ports, keyboard ports, mouse ports, and the like.

プログラムは、ICカードのようなコンピュータ可読記憶媒体によって提供されてよい。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ1200の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。 A program may be provided by a computer-readable storage medium such as an IC card. The program is read from a computer-readable storage medium, installed in storage device 1224 , RAM 1214 , or ROM 1230 , which are also examples of computer-readable storage media, and executed by CPU 1212 . The information processing described within these programs is read by computer 1200 to provide coordination between the programs and the various types of hardware resources described above. An apparatus or method may be configured by implementing information operations or processing according to the use of computer 1200 .

例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。 For example, when communication is performed between the computer 1200 and an external device, the CPU 1212 executes a communication program loaded into the RAM 1214 and sends communication processing to the communication interface 1222 based on the processing described in the communication program. you can command. Under the control of the CPU 1212, the communication interface 1222 reads the transmission data stored in the transmission buffer area provided in the RAM 1214, the storage device 1224, or a recording medium such as an IC card, and transmits the read transmission data to the network. Received data transmitted or received from a network is written in a receive buffer area or the like provided on a recording medium.

また、CPU1212は、記憶装置1224、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。 The CPU 1212 also causes the RAM 1214 to read all or necessary portions of files or databases stored in external recording media such as the storage device 1224 and IC cards, and performs various types of processing on the data on the RAM 1214 . may be executed. CPU 1212 may then write back the processed data to an external recording medium.

様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。 Various types of information, such as various types of programs, data, tables, and databases, may be stored on recording media and subjected to information processing. CPU 1212 performs various types of operations on data read from RAM 1214, information processing, conditional decisions, conditional branching, unconditional branching, and information retrieval, which are described throughout this disclosure and are specified by instruction sequences of programs. Various types of processing may be performed, including /replace, etc., and the results written back to RAM 1214 . In addition, the CPU 1212 may search for information in a file in a recording medium, a database, or the like. For example, when a plurality of entries each having an attribute value of a first attribute associated with an attribute value of a second attribute are stored in the recording medium, the CPU 1212 selects the first attribute from among the plurality of entries. search for an entry that matches the specified condition of the attribute value of the attribute, read the attribute value of the second attribute stored in the entry, and thereby determine the first attribute that satisfies the predetermined condition An attribute value of the associated second attribute may be obtained.

上で説明したプログラム又はソフトウェアモジュールは、コンピュータ1200上又はコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。 The programs or software modules described above may be stored in a computer-readable storage medium on or near computer 1200 . Also, a recording medium such as a hard disk or RAM provided in a server system connected to a dedicated communication network or the Internet can be used as a computer-readable storage medium, whereby the program can be transferred to the computer 1200 via the network. offer.

本実施形態におけるフローチャート及びブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。 The blocks in the flowcharts and block diagrams in this embodiment may represent steps in the process in which the operations are performed or "parts" of the apparatus responsible for performing the operations. Certain steps and "portions" may be provided with dedicated circuitry, programmable circuitry provided with computer readable instructions stored on a computer readable storage medium, and/or computer readable instructions provided with computer readable instructions stored on a computer readable storage medium. It may be implemented by a processor. Dedicated circuitry may include digital and/or analog hardware circuitry, and may include integrated circuits (ICs) and/or discrete circuitry. Programmable circuits, such as Field Programmable Gate Arrays (FPGAs), Programmable Logic Arrays (PLAs), etc., perform AND, OR, EXCLUSIVE OR, NOT AND, NOT OR, and other logical operations. , flip-flops, registers, and memory elements.

コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。 A computer-readable storage medium may comprise any tangible device capable of storing instructions to be executed by a suitable device, such that a computer-readable storage medium having instructions stored thereon may be illustrated in flowchart or block diagram form. It will comprise an article of manufacture containing instructions that can be executed to create means for performing specified operations. Examples of computer-readable storage media may include electronic storage media, magnetic storage media, optical storage media, electromagnetic storage media, semiconductor storage media, and the like. More specific examples of computer readable storage media include floppy disks, diskettes, hard disks, random access memory (RAM), read only memory (ROM), erasable programmable read only memory (EPROM or flash memory) , electrically erasable programmable read only memory (EEPROM), static random access memory (SRAM), compact disc read only memory (CD-ROM), digital versatile disc (DVD), Blu-ray disc, memory stick , integrated circuit cards, and the like.

コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。 The computer readable instructions may be assembler instructions, Instruction Set Architecture (ISA) instructions, machine instructions, machine dependent instructions, microcode, firmware instructions, state configuration data, or instructions such as Smalltalk, JAVA, C++, etc. any source or object code written in any combination of one or more programming languages, including object-oriented programming languages, and conventional procedural programming languages such as the "C" programming language or similar programming languages; may include

コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。 Computer readable instructions are used to produce means for a processor of a general purpose computer, special purpose computer, or other programmable data processing apparatus, or programmable circuits to perform the operations specified in the flowchart or block diagrams. A general purpose computer, special purpose computer, or other programmable data processor, locally or over a wide area network (WAN) such as the Internet, etc., to execute such computer readable instructions. It may be provided in the processor of the device or in a programmable circuit. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, and the like.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It is obvious to those skilled in the art that various modifications or improvements can be made to the above embodiments. It is clear from the description of the scope of the claims that forms with such modifications or improvements can also be included in the technical scope of the present invention.

特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The execution order of each process such as actions, procedures, steps, and stages in the devices, systems, programs, and methods shown in the claims, the specification, and the drawings is etc., and it should be noted that they can be implemented in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the specification, and the drawings, even if the description is made using "first," "next," etc. for convenience, it means that it is essential to carry out in this order. not a thing

10 システム、20 ネットワーク、100 眼鏡型デバイス、102 ユーザ、110 フレーム、112 リム、114 ブリッジ、116 レンズ部、118 テンプル、120 カメラ、122 センサ、124 センサ、126 マイク、128 音声出力部、130 センサ、200 制御装置、202 格納部、204 情報取得部、206 空間認識部、208 対面判定部、210 設定変更部、300 管理サーバ、302 格納部、304 情報取得部、306 空間認識部、308 対面判定部、310 設定変更部、400 コンテンツ、500 状況設定値テーブル、1200 コンピュータ、1210 ホストコントローラ、1212 CPU、1214 RAM、1216 グラフィックコントローラ、1218 ディスプレイデバイス、1220 入出力コントローラ、1222 通信インタフェース、1224 記憶装置、1230 ROM、1240 入出力チップ 10 system, 20 network, 100 glasses-type device, 102 user, 110 frame, 112 rim, 114 bridge, 116 lens unit, 118 temple, 120 camera, 122 sensor, 124 sensor, 126 microphone, 128 audio output unit, 130 sensor, 200 control device, 202 storage unit, 204 information acquisition unit, 206 space recognition unit, 208 meeting determination unit, 210 setting change unit, 300 management server, 302 storage unit, 304 information acquisition unit, 306 space recognition unit, 308 meeting determination unit , 310 setting change unit, 400 content, 500 situation setting value table, 1200 computer, 1210 host controller, 1212 CPU, 1214 RAM, 1216 graphic controller, 1218 display device, 1220 input/output controller, 1222 communication interface, 1224 storage device, 1230 ROM, 1240 input/output chip

Claims (18)

眼鏡型デバイスを制御する制御装置であって、
前記眼鏡型デバイスが位置する空間の種類を認識する空間認識部と、
前記空間認識部によって認識された空間の種類に基づいて、前記眼鏡型デバイスの入出力に関連する設定値を変更する設定変更部と
を備える制御装置。
A control device for controlling an eyeglass-type device,
a space recognition unit that recognizes the type of space in which the glasses-type device is located;
A control device comprising: a setting change unit that changes setting values related to input/output of the spectacles-type device based on the type of space recognized by the space recognition unit.
前記空間認識部は、前記眼鏡型デバイスが備えるカメラによって撮像された撮像画像に基づいて、前記眼鏡型デバイスが位置する空間の種類を認識する、請求項1に記載の制御装置。 2. The control device according to claim 1, wherein said space recognition unit recognizes the type of space in which said spectacles-type device is located, based on an image captured by a camera included in said spectacles-type device. 前記空間認識部は、前記眼鏡型デバイスが備える空間測定センサの出力に基づいて、前記眼鏡型デバイスが位置する空間の種類を認識する、請求項1又は2に記載の制御装置。 3. The control device according to claim 1, wherein said space recognition unit recognizes the type of space in which said spectacles-type device is located based on an output of a space measurement sensor included in said spectacles-type device. 前記空間認識部は、前記眼鏡型デバイスが備える輝度センサの出力に基づいて、前記眼鏡型デバイスが位置する空間の種類を認識する、請求項1から3のいずれか一項に記載の制御装置。 The control device according to any one of claims 1 to 3, wherein the space recognition unit recognizes the type of space in which the spectacles-type device is located, based on an output of a brightness sensor included in the spectacles-type device. 前記空間認識部は、各地の3次元空間情報が登録された3Dマップから、前記眼鏡型デバイスの位置情報が示す位置に対応する3次元空間情報を取得することによって、前記眼鏡型デバイスが位置する空間の種類を認識する、請求項1から4のいずれか一項に記載の制御装置。 The space recognizing unit acquires three-dimensional space information corresponding to the position indicated by the position information of the eyeglass-type device from a 3D map in which three-dimensional space information of various places is registered, thereby locating the eyeglass-type device. 5. A control device according to any one of claims 1 to 4, which recognizes the type of space. 前記設定変更部は、前記空間認識部によって認識された前記空間の種類に基づいて、前記眼鏡型デバイスによる出力音声に関する設定値を変更する、請求項1から5のいずれか一項に記載の制御装置。 6. The control according to any one of claims 1 to 5, wherein the setting change unit changes a setting value regarding an output sound from the glasses-type device based on the type of the space recognized by the space recognition unit. Device. 前記設定変更部は、前記空間認識部によって認識された前記空間の種類に基づいて、前記眼鏡型デバイスが表示するコンテンツに関する設定値を変更する、請求項1から6のいずれか一項に記載の制御装置。 7. The setting change unit according to any one of claims 1 to 6, wherein the setting change unit changes setting values related to content displayed by the glasses-type device based on the type of the space recognized by the space recognition unit. Control device. 前記設定変更部は、前記空間認識部によって認識された前記空間の種類に基づいて、前記眼鏡型デバイスによって表示されるコンテンツの透過率を変更する、請求項7に記載の制御装置。 8. The control device according to claim 7, wherein said setting changer changes transmittance of content displayed by said glasses-type device based on the type of said space recognized by said space recognizer. 前記設定変更部は、前記空間認識部によって認識された前記空間の種類に基づいて、前記眼鏡型デバイスによるコンテンツの表示のオンオフを変更する、請求項7に記載の制御装置。 8. The control device according to claim 7, wherein said setting changer changes ON/OFF of content display by said spectacles-type device based on the type of said space recognized by said space recognizer. 前記設定変更部は、前記空間認識部によって認識された前記空間の種類に基づいて、前記眼鏡型デバイスの音声入力に関する設定値を変更する、請求項1から9のいずれか一項に記載の制御装置。 10. The control according to any one of claims 1 to 9, wherein the setting change unit changes setting values related to voice input of the glasses-type device based on the type of the space recognized by the space recognition unit. Device. 前記設定変更部は、前記空間認識部によって認識された前記空間の種類に基づいて、外部通知のオンオフを変更する、請求項1から10のいずれか一項に記載の制御装置。 The control device according to any one of claims 1 to 10, wherein the setting change unit changes ON/OFF of external notification based on the type of the space recognized by the space recognition unit. 前記設定変更部は、前記空間認識部によって認識された前記空間の種類に基づいて、前記眼鏡型デバイスが外部コンテンツを受領するか否かを変更する、請求項1から11のいずれか一項に記載の制御装置。 12. The setting change unit according to any one of claims 1 to 11, wherein the setting change unit changes whether the glasses-type device receives external content based on the type of the space recognized by the space recognition unit. Control device as described. 前記設定変更部は、前記空間認識部によって認識された前記空間の種類に基づいて、前記眼鏡型デバイスのカメラに関する設定値を変更する、請求項1から12のいずれか一項に記載の制御装置。 13. The control device according to any one of claims 1 to 12, wherein said setting change unit changes a setting value related to a camera of said spectacles-type device based on the type of said space recognized by said space recognition unit. . 前記眼鏡型デバイスを装着しているユーザが、他者と対面しているか否かを判定する対面判定部
を備え、
前記設定変更部は、前記対面判定部による判定結果にさらに基づいて、前記眼鏡型デバイスの入出力に関連する設定値を変更する、請求項1から13のいずれか一項に記載の制御装置。
a facing determination unit that determines whether or not the user wearing the glasses-type device is facing another person,
14. The control device according to any one of claims 1 to 13, wherein said setting change unit changes setting values related to input/output of said spectacles-type device further based on a determination result by said face-to-face determination unit.
前記制御装置は、前記眼鏡型デバイスに搭載されている、請求項1から14のいずれか一項に記載の制御装置。 15. The control device according to any one of claims 1 to 14, wherein the control device is mounted on the spectacles-type device. コンピュータを、請求項1から14のいずれか一項に記載の制御装置として機能させるためのプログラム。 A program for causing a computer to function as the control device according to any one of claims 1 to 14. 請求項1から14のいずれか一項に記載の制御装置と、
前記眼鏡型デバイスと
を備え、
前記制御装置は、前記眼鏡型デバイスに対して、ネットワークを介して指示を送信することによって、前記眼鏡型デバイスを制御する、システム。
a control device according to any one of claims 1 to 14;
and the glasses-type device;
The system, wherein the controller controls the eyeglass-type device by transmitting instructions to the eyeglass-type device via a network.
眼鏡型デバイスを制御する制御装置によって実行される制御方法であって、
前記眼鏡型デバイスが位置する空間の種類を認識する空間認識段階と、
前記空間認識段階において認識された空間の種類に基づいて、前記眼鏡型デバイスの入出力に関連する設定値を変更する設定変更段階と
を備える制御方法。
A control method executed by a control device that controls an eyeglass-type device, comprising:
a spatial recognition step of recognizing the type of space in which the glasses-type device is located;
and a setting change step of changing setting values related to input/output of the glasses-type device based on the type of space recognized in the space recognition step.
JP2021009122A 2021-01-22 2021-01-22 Control device, program, system, and control method Pending JP2022113031A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021009122A JP2022113031A (en) 2021-01-22 2021-01-22 Control device, program, system, and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021009122A JP2022113031A (en) 2021-01-22 2021-01-22 Control device, program, system, and control method

Publications (1)

Publication Number Publication Date
JP2022113031A true JP2022113031A (en) 2022-08-03

Family

ID=82657093

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021009122A Pending JP2022113031A (en) 2021-01-22 2021-01-22 Control device, program, system, and control method

Country Status (1)

Country Link
JP (1) JP2022113031A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010217907A (en) * 2010-04-23 2010-09-30 Seiko Epson Corp Image display apparatus, projector, and image display method
JP2015504616A (en) * 2011-09-26 2015-02-12 マイクロソフト コーポレーション Video display correction based on sensor input of transmission myopia display
JP2017516196A (en) * 2014-04-17 2017-06-15 マイクロソフト テクノロジー ライセンシング,エルエルシー Conversation detection
JP2017529635A (en) * 2014-06-14 2017-10-05 マジック リープ, インコーポレイテッドMagic Leap,Inc. Methods and systems for creating virtual and augmented reality
WO2019244670A1 (en) * 2018-06-18 2019-12-26 ソニー株式会社 Information processing device, information processing method, and program
JP2020155030A (en) * 2019-03-22 2020-09-24 富士ゼロックス株式会社 Information processing device and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010217907A (en) * 2010-04-23 2010-09-30 Seiko Epson Corp Image display apparatus, projector, and image display method
JP2015504616A (en) * 2011-09-26 2015-02-12 マイクロソフト コーポレーション Video display correction based on sensor input of transmission myopia display
JP2017516196A (en) * 2014-04-17 2017-06-15 マイクロソフト テクノロジー ライセンシング,エルエルシー Conversation detection
JP2017529635A (en) * 2014-06-14 2017-10-05 マジック リープ, インコーポレイテッドMagic Leap,Inc. Methods and systems for creating virtual and augmented reality
WO2019244670A1 (en) * 2018-06-18 2019-12-26 ソニー株式会社 Information processing device, information processing method, and program
JP2020155030A (en) * 2019-03-22 2020-09-24 富士ゼロックス株式会社 Information processing device and program

Similar Documents

Publication Publication Date Title
US20210405761A1 (en) Augmented reality experiences with object manipulation
US10132633B2 (en) User controlled real object disappearance in a mixed reality display
KR102670848B1 (en) Augmented reality anthropomorphization system
US9633477B2 (en) Wearable device and method of controlling therefor using location information
US10139623B2 (en) Virtual object orientation and visualization
US20150278737A1 (en) Automatic Calendar Event Generation with Structured Data from Free-Form Speech
KR20230022236A (en) 3D reconstruction using wide-angle imaging devices
KR20220154816A (en) Location Mapping for Large Scale Augmented Reality
US9367613B1 (en) Song identification trigger
US20230051671A1 (en) Dynamic capture parameter processing for low power
CN115113399A (en) Augmented reality displays for macular degeneration
JP7274451B2 (en) System, management device, program, and management method
JP2022113031A (en) Control device, program, system, and control method
JP7174785B2 (en) Control device, program, and control method
JP7194158B2 (en) Information processing device and program
JP7133005B2 (en) Glasses-type device, program, and control method
JP7139395B2 (en) Controllers, programs and systems
JP7140810B2 (en) Control device, program, system, and control method
JP2022102681A (en) Spectacle-type device, program, and control method
JP7039672B1 (en) Controls, programs, and control methods
JP7187520B2 (en) Glasses-type device, management server and program
JP2024073312A (en) Control device, program, control method, and eyeglasses-type device
JP7135052B2 (en) Control device, program, and control method
US12026805B2 (en) Augmented reality based geolocalization of images
JP7506135B2 (en) Information processing device, program, and display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221007

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230207