JP2018097437A - Wearable information display terminal and system including the same - Google Patents

Wearable information display terminal and system including the same Download PDF

Info

Publication number
JP2018097437A
JP2018097437A JP2016238874A JP2016238874A JP2018097437A JP 2018097437 A JP2018097437 A JP 2018097437A JP 2016238874 A JP2016238874 A JP 2016238874A JP 2016238874 A JP2016238874 A JP 2016238874A JP 2018097437 A JP2018097437 A JP 2018097437A
Authority
JP
Japan
Prior art keywords
information display
user
data
display terminal
wearable information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016238874A
Other languages
Japanese (ja)
Inventor
木 健 一 鈴
Kenichi Suzuki
木 健 一 鈴
▲崎▼ 雄 一 郎 竹
Yuichiro Takezaki
▲崎▼ 雄 一 郎 竹
門 緑 大
Midori Daimon
門 緑 大
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Telepathy Japan Inc
Original Assignee
Telepathy Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Telepathy Japan Inc filed Critical Telepathy Japan Inc
Priority to JP2016238874A priority Critical patent/JP2018097437A/en
Publication of JP2018097437A publication Critical patent/JP2018097437A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a behavior support system including a wearable information display terminal which includes a learning function customized for each user based on a use history and which can continuously improve convenience.SOLUTION: A wearable information display terminal of the present invention includes: an input part including at least a camera, a microphone, and a multi-axis sensor; a storage part storing representation data of an object; a display control part displaying the object in a coordinate system of the real space in conformity with the natural law; an information display part displaying the object within a field of view of a user; an audio output part; and a communication part, wherein the display control part causes the representation data of the object to be displayed with audio and motion in conformity with the natural law in a direction of a line of sight of the user by an augmented reality (AR: Augmented Reality) for a part or all of the object.SELECTED DRAWING: Figure 6

Description

本発明は、ウェアラブル情報表示端末及びこれを備えるシステムに関し、より詳しくは、ウェアラブル情報表示端末に表示されたオブジェクトとの対話形式でユーザの行動を支援するシステムに関する。   The present invention relates to a wearable information display terminal and a system including the wearable information display terminal, and more particularly, to a system that supports user actions in an interactive manner with an object displayed on the wearable information display terminal.

近年、スマートフォンの普及に伴い、ユーザはいつでもどこでも情報を手軽に取得できるようになった。こうした状況に鑑みて、ユーザの所在位置に基づき近隣の公共施設や店舗情報、又ユーザ個人の興味や行動に関連する広告を提供するサービスの実用化が進んでいる。しかし、スマートフォンは、情報を検索するために、スマートフォン本体をポケットやカバンから取り出して、画面表示をオンにしたり、カメラやアプリケーションを起動させたりする等の操作が必要である。   In recent years, with the spread of smartphones, users can easily obtain information anytime and anywhere. In view of these circumstances, services that provide advertisements related to nearby public facilities and store information, and individual interests and actions of users based on the location of the user have been put into practical use. However, in order to search for information, the smartphone needs operations such as taking out the smartphone main body from the pocket or bag, turning on the screen display, or starting the camera or application.

一方、ユーザの身体に取り付けて使用することができる様々な形態のウェアラブルデバイスが実用化され、今後、広く利用されるようになると期待される。特に頭部に装着して常時使用できるヘッドマウントディスプレイ(HMD)は、ユーザがHMDを装着した状態で行動する際に、必要な情報を確認したり、他のユーザと情報交換を行ったりする利用形態をサポートし得る。このため、ユーザが外界の実像を認識しながら、画像データに基づく画像をユーザの眼に視認可能に表示するタイプのものが提案されている。   Meanwhile, various types of wearable devices that can be used by being attached to the user's body have been put into practical use and are expected to be widely used in the future. In particular, a head mounted display (HMD) that can be worn on the head and used at all times is used to check necessary information or exchange information with other users when the user acts with the HMD attached. Can support the form. For this reason, there has been proposed a type in which an image based on image data is displayed so as to be visible to the user's eyes while the user recognizes a real image of the outside world.

例えば、特許文献1には、画像表示部を眼鏡または他のヘッドギヤに取り付けることができる簡単な装着システムによって結合する頭部装着ディスプレイ・デバイスが開示されている。このディスプレイ・デバイスは、ユーザの目に細長い部材の延長方向を横切って周囲の光を通過することができるように構成された細長い部材からなるサポートを含み、このサポートに支持された液晶ディスプレイからの画像を、接眼レンズ組立体を介してユーザの眼に送るもので、接眼レンズは取付け具によりユーザの眼の前に装着される。   For example, Patent Document 1 discloses a head-mounted display device in which an image display unit is coupled by a simple mounting system that can be attached to glasses or other headgear. The display device includes a support comprised of an elongated member configured to allow ambient light to pass across the direction of extension of the elongated member to the user's eye, from a liquid crystal display supported by the support. The image is sent to the user's eye through the eyepiece lens assembly, and the eyepiece is mounted in front of the user's eye by a fixture.

また、特許文献2には、コール機能を備えたデバイスに対する広告システムが記載されている。しかし、このシステムは、広告サービスを提供する事業者の観点からユーザの求めるドキュメントに、クライアントデバイスの所在位置に関する情報に基づく地域店舗や施設情報等の広告情報を付加して提供するものであって、ユーザが本来の目的である検索行動を支援し、クライアントデバイスの使い勝手を向上させるものではなかった。   Patent Document 2 describes an advertising system for a device having a call function. However, this system provides advertisement information such as regional store and facility information based on information on the location of the client device to the document requested by the user from the viewpoint of the provider of the advertisement service. However, it did not support the user's original search behavior and improve the usability of the client device.

このため、ユーザがどこでも簡単に有用な情報を取得でき、ユーザに様々なサービスを提供するウェアラブル情報表示端末を備えるシステム、特に、ユーザ毎に最適化された行動を支援する手段を備え、携行性及び即応性に優れたユーザフレンドリーなウェアラブル情報表示端末を備えるシステムが求められている。   For this reason, a system including a wearable information display terminal that allows a user to easily obtain useful information anywhere and provides various services to the user, in particular, a means for supporting an action optimized for each user, and portability In addition, there is a need for a system including a user-friendly wearable information display terminal having excellent responsiveness.

特表2003−502713号公報Japanese translation of PCT publication No. 2003-502713 特開2011−65658号公報JP 2011-65658 A

本発明は、上記従来の問題点に鑑みてなされたものであって、本発明の目的は、ユーザごとにカスタマイズされて使用履歴に基づく学習機能を備え、利便性が継続的に向上可能なウェアラブル情報表示端末を用いる行動支援システムを提供することにある。   The present invention has been made in view of the above-described conventional problems, and an object of the present invention is to provide a wearable that is customized for each user and has a learning function based on a usage history, and the convenience can be continuously improved. The object is to provide an action support system using an information display terminal.

上記目的を達成するためになされた本発明の一態様によるウェアラブル情報表示端末は、ユーザの視界内に情報及びオブジェクトを表示するウェアラブル情報表示端末であって、前記ウェアラブル情報表示端末は、少なくともカメラ、マイク、並びにXYZの3軸のそれぞれに対して加速度、角速度、及び地磁気を検出する複数の多軸センサを含む入力部と、前記オブジェクトの表現データを格納する記憶部と、前記オブジェクトを実空間の座標系に合わせて表示させる表示制御部と、前記オブジェクトをユーザの視界内に表示する情報表示部と、音声出力部と、通信部と、を備え、前記表示制御部は、前記オブジェクトの表現データを、前記複数の多軸センサで検出された前記ウェアラブル情報表示端末の向き、傾き、及び動きに応じて、質量、重力加速度、運動エネルギー保存則、及び慣性力を含む地球環境下における物理法則に従う変換規則に基づいて、前記オブジェクトの音声、サイズ、及び動きに変換し、ユーザの視線方向に前記変換されたオブジェクトの一部または全体を拡張現実(AR:Augmented Reality)で表示させることを特徴とする。   A wearable information display terminal according to an aspect of the present invention made to achieve the above object is a wearable information display terminal that displays information and objects in a user's field of view, and the wearable information display terminal includes at least a camera, A microphone and an input unit including a plurality of multi-axis sensors that detect acceleration, angular velocity, and geomagnetism for each of the three axes of XYZ, a storage unit that stores expression data of the object, and the object in real space A display control unit configured to display in accordance with a coordinate system; an information display unit that displays the object in a user's field of view; an audio output unit; and a communication unit, wherein the display control unit includes expression data of the object Depending on the orientation, inclination, and movement of the wearable information display terminal detected by the plurality of multi-axis sensors, Based on conversion rules according to physical laws in the global environment including quantity, gravitational acceleration, kinetic energy conservation law, and inertial force, the object is converted to voice, size, and movement, and the converted to the user's gaze direction A part or the whole of an object is displayed in augmented reality (AR: Augmented Reality).

前記オブジェクトは、前記複数の多軸センサで検出された前記ウェアラブル情報表示端末を装着したユーザの視線方向、移動方向、及び動作のセンシングデータに基づいて、現実の背景画像に重畳して実空間の座標系の所定の位置に視認されるように前記画像表示部に表示され得る。   The object is superimposed on an actual background image based on sensing data of a gaze direction, a moving direction, and a motion of a user wearing the wearable information display terminal detected by the plurality of multi-axis sensors. It can be displayed on the image display unit so as to be visually recognized at a predetermined position in the coordinate system.

上記目的を達成するためになされた本発明の他の態様によるウェアラブル情報表示端末は、ユーザの視界内に情報及びオブジェクトを表示するウェアラブル情報表示端末であって、少なくともカメラ、マイク、並びにXYZの3軸のそれぞれに対して加速度、角速度、及び地磁気を検出する複数の多軸センサを含む入力部と、前記オブジェクトの表現データを格納する記憶部と、前記オブジェクトを実空間の座標系に合わせて表示させる表示制御部と、前記オブジェクトをユーザの視界内に表示する情報表示部と、音声出力部と、通信部と、を備え、人工知能(AI:Artificial Intelligence)機能を有して、ユーザ毎にカスタマイズされた、行動を支援する手段をさらに備え、前記行動を支援する手段は、使用履歴に基づく不要データの選別を通じて、ユーザの個人的選好に適合する支援項目及び支援方法を学習し、前記行動を支援する手段の人工知能の精度を継続的に向上させる手段を含み、前記人工知能の機能的な成長及び前記オブジェクトの外見上の変化は、前記ウェアラブル情報表示のカメラで撮影されたユーザ視線方向の画像から読み取られる実空間の環境情報または前記複数の多軸センサで検出されたユーザの運動情報、位置情報、及び前記使用履歴に対応する通信データ量に連動して外見上の表現データを変更するかまたは補間して生成された画像データへの変化を含み、ユーザの視線方向に前記画像データの一部または全てが拡張現実で表示されることを特徴とする。   A wearable information display terminal according to another aspect of the present invention made to achieve the above object is a wearable information display terminal that displays information and objects in a user's field of view, and includes at least a camera, a microphone, and XYZ 3 An input unit including a plurality of multi-axis sensors for detecting acceleration, angular velocity, and geomagnetism for each axis, a storage unit for storing expression data of the object, and displaying the object according to a coordinate system in real space A display control unit, an information display unit that displays the object in the user's field of view, an audio output unit, and a communication unit, and has an artificial intelligence (AI) function for each user. Customized means for supporting actions, the means for supporting actions being used Including means for continuously learning the support items and support methods adapted to the user's personal preference through the selection of unnecessary data based on the above, and continuously improving the accuracy of the artificial intelligence of the means for supporting the behavior, Functional growth and changes in the appearance of the object include real space environment information read from an image in the user's line of sight taken by the wearable information display camera or user's detected by the plurality of multi-axis sensors. Including movement information, position information, and change to image data generated by changing or interpolating apparent expression data in conjunction with the amount of communication data corresponding to the usage history, Part or all of the image data is displayed in augmented reality.

前記オブジェクトの外見上の変化は、通算の通信データ量Dが下記数式1に示す所定の通信データ量D1の倍数であるしきい値Dtに到達する毎に、段階的に変化し得る。
[数1]
Dt=m×D1
(ここで、mは1以上の整数、D1は予め設定された所定の通信データ量である)
また、ユーザの周辺状況またはユーザ入力に基づいて、前記人工知能によりユーザの個人選好に適合する行動を支援する手段を判定し、前記判定に基づいて行動支援プログラムによる行動支援を実行するか、またはコンシェルジュサポートを行う外部の支援サイトに前記ウェアラブル情報表示端末を接続するかを選択する手段をさらに備え、前記選択する手段は、ユーザからの選択入力により接続先を切り替えるか、またはユーザのオーダー数が所定の数値を超えた場合もしくはシステムによる回答が一定数量以下に絞り込めない場合に、強制的に外部のコンシェルジュサポートに接続する手段を備え得る。
前記表示制御部は、人間の知覚視野角と、オブジェクトとの相対位置及び距離とに応じて、描画の停止または拡張現実で表示するための画像変換処理を停止して、画像データの演算処理に必要なメモリ使用量を制御するようにオブジェクトの表示制御を行い得る。
Change in appearance of the object, every time communication data amount D of total reaches the threshold Dt m is a multiple of a predetermined communication data amount D1 shown in Equation 1 below, may change stepwise.
[Equation 1]
Dt m = m × D1
(Here, m is an integer of 1 or more, and D1 is a predetermined communication data amount set in advance)
Further, based on the user's surroundings or user input, determine means for supporting an action that matches the user's personal preference by the artificial intelligence, and based on the determination, execute action support by an action support program, or It further comprises means for selecting whether to connect the wearable information display terminal to an external support site that performs concierge support, and the means for selecting switches the connection destination by a selection input from the user, or the order number of the user is A means for forcibly connecting to an external concierge support may be provided when a predetermined numerical value is exceeded or when the number of responses by the system cannot be narrowed to a certain number or less.
The display control unit stops drawing conversion or image conversion processing for displaying in augmented reality according to a human perceived viewing angle and a relative position and distance to an object, and calculates image data. Object display control can be performed to control the required memory usage.

上記目的を達成するためになされた本発明の一態様によるウェアラブル情報表示端末を備えるシステムは、前記に記載のウェアラブル情報表示端末及び管理サーバで構成されるシステムであって、前記ウェアラブル情報表示端末は、ネットワークを介して通信可能に接続された管理サーバまたは前記ウェアラブル情報表示端末に含まれる所定の機能が実行されるように構成されることを特徴とする。   A system comprising a wearable information display terminal according to one aspect of the present invention made to achieve the above object is a system comprising the wearable information display terminal and the management server described above, wherein the wearable information display terminal is A predetermined function included in the management server or the wearable information display terminal that is communicably connected via a network is configured to be executed.

前記管理サーバまたは前記ウェアラブル情報表示端末は、ユーザ毎の個人識別データ、過去の利用履歴データ、個人選択された設定情報、及びオブジェクトの表現データを保管する情報記憶部と、前記ウェアラブル情報表示端末の入力部から受信した要求入力に基づいて所定の機能を実現させるための制御部と、前記ウェアラブル情報表示端末の入力部から受信したセンシングデータ、画像データに基づく当該端末の位置データ、及び視線方向の画像データを獲得する位置検出部と、所定のアルゴリズムを利用して前記獲得された位置データ及び視線方向の画像データ並びに前記情報記憶部に保管されたユーザ毎の過去の当該システム利用履歴データに基づき、前記ウェアラブル情報表示端末を装着しているユーザに提供する関連情報をネットワークサーバから収集するデータ検索部と、前記ウェアラブル情報表示端末上で作り出されて実空間のユーザと対話するオブジェクトをユーザに表示するための画像データを生成する拡張現実画像処理部と、前記所定の機能を実現させた結果またはユーザに提供する関連情報を前記オブジェクトの画像データとともに所定の表示形態で前記ウェアラブル情報表示端末に表示させるように制御する画像処理部と、を備え、前記管理サーバまたはウェアラブル情報表示端末は、各ユーザの過去の利用履歴データに基づいて前記所定の機能及びオブジェクトの構成データをユーザ毎に更新し得る。
前記ウェアラブル情報表示端末から前記管理サーバに送信されたデータ量等に基づいて、前記識別されたユーザ毎にシステム利用料の課金データを更新し得る。
前記ウェアラブル情報表示端末の入力部は、個人認証のための生体情報データを取得するセンサをさらに有し、前記管理サーバは、前記ウェアラブル情報表示端末の入力部から受信した前記生体情報データに基づき、前記ウェアラブル情報表示端末を装着しているユーザを認証して、前記認証されたユーザに前記情報記憶部へのアクセスを許可し得る。
前記オブジェクトの表現データは、前記オブジェクトの外観、表情、及び所作を表示する画像データと前記オブジェクトの音声データとを含み得る。
前記オブジェクトは、前記ウェアラブル情報表示端末を装着したユーザの視界内で等身大に視認されるように表示され得る。
前記ウェアラブル情報表示端末は、前記ウェアラブル情報表示端末を装着したユーザの使用状態に応じて、異なる動作モードに設定され、前記異なる動作モードには、前記入力部のカメラ、マイク、タッチパネル、または多軸センサが動作する状態である通常モード並びに前記入力部のカメラ、マイク、タッチパネル、または多軸センサが停止状態であるプライバシーモードを含み得る。
複数の前記ウェアラブル情報表示端末が前記システムを相互利用する場合、第1の使用者のウェアラブル情報表示端末に保有されて第1の使用者が視認しているオブジェクトデータを、第2の使用者のウェアラブル情報表示端末に表示する際に、第2の使用者のウェアラブル情報表示端末に表示されるオブジェクトデータを、前記第1及び第2の使用者のウェアラブル情報表示端末間の直接的なデータ交換か又はサーバを介したデータ交換によって転送し得る。
The management server or the wearable information display terminal includes an information storage unit for storing personal identification data for each user, past usage history data, personally selected setting information, and object expression data, and the wearable information display terminal. A control unit for realizing a predetermined function based on a request input received from the input unit; sensing data received from the input unit of the wearable information display terminal; position data of the terminal based on image data; Based on a position detection unit that acquires image data, the position data acquired using a predetermined algorithm, the image data in the line-of-sight direction, and the past system usage history data for each user stored in the information storage unit , Network related information to be provided to the user wearing the wearable information display terminal. A data search unit that collects data from a work server, an augmented reality image processing unit that generates image data for displaying to the user an object that is created on the wearable information display terminal and interacts with the user in the real space; An image processing unit for controlling the wearable information display terminal to display the result of realizing the function or the related information provided to the user together with the image data of the object in a predetermined display form, and the management server or the wearable The information display terminal can update the predetermined function and object configuration data for each user based on past usage history data of each user.
Based on the amount of data transmitted from the wearable information display terminal to the management server, the system usage fee billing data can be updated for each identified user.
The input unit of the wearable information display terminal further includes a sensor that acquires biometric information data for personal authentication, and the management server is based on the biometric information data received from the input unit of the wearable information display terminal, The user wearing the wearable information display terminal may be authenticated, and the authenticated user may be allowed to access the information storage unit.
The expression data of the object may include image data that displays the appearance, expression, and behavior of the object and audio data of the object.
The object may be displayed so as to be seen in a life-size manner within the field of view of the user wearing the wearable information display terminal.
The wearable information display terminal is set to a different operation mode according to a use state of a user wearing the wearable information display terminal, and the different operation mode includes a camera, a microphone, a touch panel, or a multi-axis of the input unit. It may include a normal mode in which the sensor operates and a privacy mode in which the camera, microphone, touch panel, or multi-axis sensor of the input unit is in a stopped state.
When a plurality of the wearable information display terminals mutually use the system, the object data held by the first user's wearable information display terminal and viewed by the first user is stored in the second user's wearable information display terminal. Whether the object data displayed on the wearable information display terminal of the second user is directly exchanged between the first and second wearable information display terminals when displayed on the wearable information display terminal. Alternatively, it can be transferred by data exchange through a server.

本発明のウェアラブル情報表示端末によれば、ユーザごとにカスタマイズされて親しみやすい擬人化オブジェクトがユーザ・インターフェースとして利用可能になる。これにより、ユーザが本ウェアラブル情報表示端末を装着して行動する期間中に、ユーザに有用な情報を対話形式で速やかに取得できるという効果を奏する。   According to the wearable information display terminal of the present invention, an anthropomorphic object that is customized for each user and is familiar can be used as a user interface. Thereby, during the period when the user wears the wearable information display terminal and acts, there is an effect that information useful to the user can be quickly acquired in an interactive manner.

本発明の一実施形態によるウェアラブル情報表示端末を備える行動支援システムの全体構成を示す図である。It is a figure which shows the whole structure of the action assistance system provided with the wearable information display terminal by one Embodiment of this invention. 本発明の一実施形態によるウェアラブル情報表示端末の一例を示す全体図である。1 is an overall view showing an example of a wearable information display terminal according to an embodiment of the present invention. 図2に示す本発明の一実施形態によるウェアラブル情報表示端末の構成を示す概略図であり、(a)は平面図、(b)は正面図である。It is the schematic which shows the structure of the wearable information display terminal by one Embodiment of this invention shown in FIG. 2, (a) is a top view, (b) is a front view. 図3に示すウェアラブル情報表示端末の本体ユニットの内部構成を示す概略図である。It is the schematic which shows the internal structure of the main body unit of the wearable information display terminal shown in FIG. 拡張現実で表示されるオブジェクトをユーザが視認しているイメージを示す図である。It is a figure which shows the image which the user is visually recognizing the object displayed by augmented reality. 本発明の一実施形態によるウェアラブル情報表示端末のシステム構成を示すブロック図である。It is a block diagram which shows the system configuration | structure of the wearable information display terminal by one Embodiment of this invention. 本実施形態によるウェアラブル情報表示端末を備えるシステムの構成を示すブロック図である。It is a block diagram which shows the structure of a system provided with the wearable information display terminal by this embodiment. 行動支援プログラムのプログラム選択テーブルの一例を示す図である。It is a figure which shows an example of the program selection table of an action assistance program. 本実施形態の行動支援プログラムが利用する学習項目データの一例を示す図である。It is a figure which shows an example of the learning item data which the action assistance program of this embodiment utilizes. 本実施形態の行動支援プログラムが利用する応答データの一例を示す図である。It is a figure which shows an example of the response data which the action assistance program of this embodiment utilizes. 図6に示す検索データ記憶部に格納されるデータファイルの構成を示す図である。It is a figure which shows the structure of the data file stored in the search data storage part shown in FIG. 本実施形態による行動支援処理のメイン動作を示すフローチャートである。It is a flowchart which shows the main operation | movement of the action assistance process by this embodiment.

以下、本発明を実施するための形態の具体例を、図面を参照しながら詳細に説明する。   Hereinafter, specific examples of embodiments for carrying out the present invention will be described in detail with reference to the drawings.

本発明によるウェアラブル情報表示端末及びこれを備えるシステムは、仮想現実で作り出される擬人化されたオブジェクトとしてのキャラクタ画像、例えば、バーチャルな秘書を、ウェアラブル情報表示端末の表示画面上で、実空間の座標系に合わせてユーザの視界内に視認可能に表示し、人工知能(AI:Artificial Intelligence)機能を備えて、バーチャル秘書とユーザとの対話形式で、ユーザ毎にカスタマイズされた行動を支援する各種機能を実行し、ウェアラブル情報表示端末は、ユーザが外部の情報機器やサーバシステムにインターネットまたはコンピュータ・ネットワーク(以下、ネットワークと略称する)を介してアクセスし、所望のサービスを受ける際の携行性に優れたユーザ・インタフェースとなる。   The wearable information display terminal according to the present invention and a system including the same are used to display a character image as a personified object created in virtual reality, for example, a virtual secretary on the display screen of the wearable information display terminal in real space coordinates. Various functions that display in the user's field of view according to the system, have AI (Artificial Intelligence) function, and support customized actions for each user in the form of interaction between the virtual secretary and the user The wearable information display terminal is excellent in portability when a user accesses an external information device or server system via the Internet or a computer network (hereinafter abbreviated as a network) and receives a desired service. User interface and That.

本発明によるウェアラブル情報表示端末及びこれを備えるシステムは、ウェアラブル情報表示端末を装着したユーザの行動を支援する時に、ウェアラブル情報表示端末が備える各種センサ及びカメラによって取得されたユーザの状況を判断して、学習(状況の学習だけでなくユーザの応答や反応等も含む)を行い、各支援を実行する時点での周囲状況とそれまでの学習結果に基づいて、擬人化されたオブジェクトがユーザに対し、ユーザの意図に最も近い処理を多様な形態(行為=動きと音声)で提供する。これによりユーザは、ユーザが親しみやすい個人ごとのバーチャルな秘書またはコンシェルジュを同伴する感覚で情報の検索、収集、及び提供を受けることが可能になり、利便性が高く快適な行動環境を具現することができる。   The wearable information display terminal and the system including the wearable information display terminal according to the present invention determine the user's situation acquired by various sensors and cameras included in the wearable information display terminal when supporting the behavior of the user wearing the wearable information display terminal. , Learning (including not only situation learning but also user responses and reactions), and based on the surrounding situation at the time of executing each support and the learning results so far, anthropomorphic objects are given to the user The processing closest to the user's intention is provided in various forms (action = motion and voice). This enables users to search, collect and provide information as if they were accompanied by a virtual secretary or concierge for each individual that the user is familiar with, and to realize a convenient and comfortable behavioral environment. Can do.

ここで、ウェアラブル情報表示端末に出現させるバーチャルな秘書またはコンシェルジュは、人間と同様に判断し学習する疑似人格化(仮想人格化)された客体である。従って、同一の周囲状況であっても過去の学習内容等に応じてバーチャル秘書のコミュニケーションの内容は異なる。例えば、ユーザに興味のない情報を提供するという判断ミスも有り、判断ミスによる不要な応答をすることもある。これらバーチャル秘書からの提供情報に対するユーザの応答により、判断ミスか否かを判定して学習する。バーチャル秘書として画像表示されるキャラクタ(容姿)は、写真やアニメ等から所望の人物像を設定可能であり、また人間的な容姿である必要はなく、例えば、犬、猫、サル等の動物の実物像や人間的に図案化(イラスト化)した容姿であってもよく、更にロボット的な容姿であってもよい。またバーチャル秘書の年齢も一定である必要はなく、バーチャル秘書の学習機能として、最初は子供の容姿で、利用経過と共に成長して容姿が変化していく(例えば、大人の容姿に変化し、更に老人の容姿に変化していく)ようにしてもよい。バーチャル秘書の容姿や音声については、複数の容姿、複数の音声の中から選択することが可能である。   Here, the virtual secretary or concierge that appears on the wearable information display terminal is a pseudo-personalized (virtual personalized) object that is judged and learned in the same manner as a human being. Therefore, even in the same surrounding situation, the contents of the virtual secretary communication differ depending on the past learning contents and the like. For example, there is a misjudgment of providing information that is not of interest to the user, and an unnecessary response due to a misjudgment may occur. Based on the response of the user to the information provided from these virtual secretaries, it is determined whether or not there is a determination error and learning is performed. The character (appearance) displayed as a virtual secretary can be set to a desired human figure from photographs, animations, etc., and does not have to be human-appearance. For example, the character of an animal such as a dog, cat, or monkey It may be a real image, a human figure (illustration), or a robot-like appearance. The age of the virtual secretary does not need to be constant. The learning function of the virtual secretary is that the child's appearance at first, and the appearance changes with the progress of use (for example, changes to the appearance of an adult, It may be changed to the appearance of an old man). The appearance and sound of the virtual secretary can be selected from a plurality of appearances and a plurality of sounds.

以下、ユーザが、ウェアラブル情報表示端末を装着して利用する本発明の一実施形態による行動支援システムの構成を詳細に説明する。   Hereinafter, the configuration of an action support system according to an embodiment of the present invention in which a user wears and uses a wearable information display terminal will be described in detail.

図1は、本発明の一実施形態によるウェアラブル情報表示端末を備える行動支援システムの全体構成を示す図である。   FIG. 1 is a diagram illustrating an overall configuration of an action support system including a wearable information display terminal according to an embodiment of the present invention.

本実施形態によるウェアラブル情報表示端末を備えるシステム1は、ウェアラブル情報表示端末100、及びウェアラブル情報表示端末100にネットワーク2を介して通信可能に接続される管理サーバ200で構成される。ウェアラブル情報表示端末100は、ユーザの視界内に画像データに基づく情報及びオブジェクトを表示する画像表示部がユーザの眼前に保持される機構又は部材を有するウェアラブル情報表示端末であり、管理サーバ200は、少なくとも、システム全般を制御するシステム制御部210と、行動を支援する手段を実行して機能させるための各種プログラム及びデータを格納する記憶部220と、外部の複数のサーバ及び複数のウェアラブル情報表示端末とのネットワーク接続を制御する通信インターフェイス(I/F)部230を備えるコンピュータである。なお、ウェアラブル情報表示端末100は、無線通信手段によりアクセスポイントAP経由でネットワーク2に接続される。以下、それぞれの構成を具体的に説明する。   A system 1 including a wearable information display terminal according to the present embodiment includes a wearable information display terminal 100 and a management server 200 that is communicably connected to the wearable information display terminal 100 via a network 2. The wearable information display terminal 100 is a wearable information display terminal having a mechanism or member in which an image display unit that displays information and objects based on image data in the user's field of view is held in front of the user's eyes. At least a system control unit 210 that controls the entire system, a storage unit 220 that stores various programs and data for executing and functioning support means, a plurality of external servers, and a plurality of wearable information display terminals And a communication interface (I / F) unit 230 that controls network connection to the computer. The wearable information display terminal 100 is connected to the network 2 via the access point AP by wireless communication means. Each configuration will be specifically described below.

図2は、本発明の一実施形態によるウェアラブル情報表示端末の一例を示す全体図である。   FIG. 2 is an overall view showing an example of a wearable information display terminal according to an embodiment of the present invention.

ウェアラブル情報表示端末100は、画像データの撮影、送受信、及び表示を行う頭部装着可能なコミュニケーション装置であって、画像表示ユニット10、本体ユニット20、及び連結部材(図示せず)を備える。ウェアラブル情報表示端末100は、連結部材を介して、図示しないが別途のヘッドバンド又は眼鏡型フレームに、画像表示ユニット10がユーザの眼前の観察位置に保持されるように固定される。   The wearable information display terminal 100 is a head-mountable communication device that captures, transmits, and displays image data, and includes an image display unit 10, a main unit 20, and a connecting member (not shown). Wearable information display terminal 100 is fixed to a separate headband or glasses-type frame (not shown) via a connecting member so that image display unit 10 is held at an observation position in front of the user's eyes.

図3は、図2に示す本発明の一実施形態によるウェアラブル情報表示端末の構成を示す概略図であり、(a)は平面図、(b)は正面図である。   FIG. 3 is a schematic diagram showing the configuration of the wearable information display terminal according to the embodiment of the present invention shown in FIG. 2, wherein (a) is a plan view and (b) is a front view.

図3に示すように、ウェアラブル情報表示端末100は、第1収納室10a、第2収納室10b、及び支持部材11で構成される画像表示ユニット10と、画像表示ユニット10に連結した筐体20aからなる本体ユニット20とを備える。画像表示ユニット10の第1収納室10aには、画像データを画像光に変換して出射する表示光学系30、第2収納室10bには、表示光学系30で生成された画像光をユーザの眼Eに導く接眼光学系40が収納され、本体ユニット20の筐体20a内には、ウェアラブル情報表示端末100の動作全般を制御するための電子回路部品が搭載された印刷回路基板34及びバッテリー35などが収納される。また、本体ユニット20の筐体20aの側面には、タッチバッド87、及びウェアラブル情報表示端末100をヘッドバンド又は眼鏡フレーム等に固定するための連結部材20bが設けられる。   As shown in FIG. 3, the wearable information display terminal 100 includes an image display unit 10 including a first storage chamber 10 a, a second storage chamber 10 b, and a support member 11, and a housing 20 a connected to the image display unit 10. A main unit 20 comprising: In the first storage chamber 10a of the image display unit 10, the display optical system 30 that converts image data into image light and emits it, and in the second storage chamber 10b, the image light generated by the display optical system 30 is received by the user. An eyepiece optical system 40 that leads to the eye E is housed, and a printed circuit board 34 and a battery 35 on which electronic circuit components for controlling the overall operation of the wearable information display terminal 100 are mounted in the housing 20a of the main body unit 20. Etc. are stored. Further, on the side surface of the housing 20 a of the main unit 20, a connection member 20 b for fixing the touch pad 87 and the wearable information display terminal 100 to a headband or a spectacle frame or the like is provided.

第1収納室10aに収納される表示光学系30は、光源31、集光レンズ32、画像表示素子33を備え、図示しないが、その他の光学素子及び画像表示素子の駆動回路などを含み、生成した画像光を接眼光学系40に向かって出射する。また、第1収納室10aには、ビデオカメラ部83が配備され、上述の構成部材を含んで画像光を生成する画像表示部30M及びビデオカメラ部83は、本体ユニット20の筐体20a内に収容された印刷回路基板34及びバッテリー35にフレキシブル配線(図示せず)により電気的に接続される。印刷回路基板34には、ウェアラブル情報表示端末100の制御及び各種機能を具現する各種電子デバイス及び部品が実装される。印刷回路基板34に実装される各種電子デバイス及び部品の詳細は後述する。   The display optical system 30 stored in the first storage chamber 10a includes a light source 31, a condensing lens 32, and an image display element 33. Although not shown, the display optical system 30 includes other optical elements and drive circuits for the image display element. The image light thus emitted is emitted toward the eyepiece optical system 40. In addition, a video camera unit 83 is provided in the first storage chamber 10a, and the image display unit 30M and the video camera unit 83 that generate image light including the above-described components are provided in the housing 20a of the main unit 20. The printed circuit board 34 and the battery 35 accommodated therein are electrically connected by flexible wiring (not shown). Various electronic devices and components that implement the control and various functions of the wearable information display terminal 100 are mounted on the printed circuit board 34. Details of various electronic devices and components mounted on the printed circuit board 34 will be described later.

光源31は、R(赤色)、G(緑色)、B(青色)の各色の光を放射するものであり、例えばLED(発光ダイオード)からなる。なお、光源は、RGB一体型のLEDパネルで構成されることが好ましいが、単色光や白色光を放射するものであってもよい。光源31からの光は、集光レンズ32を介して集光されて画像表示素子33に供給される。画像表示素子33は、例えば、光が通過する領域となる各画素がマトリクス状に配置された液晶表示素子であるLCD(Liquid Crystal Display)で構成される。画像表示素子33は、印刷回路基板34に実装された所定の電子デバイスによって制御され、供給された光を変調して画像光を生成する。   The light source 31 emits light of each color of R (red), G (green), and B (blue), and includes, for example, an LED (light emitting diode). The light source is preferably composed of an RGB integrated LED panel, but may emit monochromatic light or white light. The light from the light source 31 is condensed through the condenser lens 32 and supplied to the image display element 33. The image display element 33 is configured by, for example, an LCD (Liquid Crystal Display) that is a liquid crystal display element in which pixels that are regions through which light passes are arranged in a matrix. The image display element 33 is controlled by a predetermined electronic device mounted on the printed circuit board 34, and modulates the supplied light to generate image light.

なお、表示光学系30は、上記の構成に限定されるものではなく、反射型液晶表示素子であるLCOS(Liquid Crystal On Silicon)、偏光ビームスプリッター(PBS)、及び反射板等を組み合わせた構成にすることも可能である。   The display optical system 30 is not limited to the above-described configuration, but has a configuration in which a reflective liquid crystal display element, LCOS (Liquid Crystal On Silicon), a polarizing beam splitter (PBS), a reflecting plate, and the like are combined. It is also possible to do.

第2収納室10b内に配置される接眼光学系40は、プリズム41及び接眼レンズ42から構成される。プリズム41は、表示光学系30から入射した画像光の光路Lをユーザの眼Eの方向に反射する手段として機能する導光部材である。接眼レンズ42は、正のパワー(屈折力)を持ち、画像光をユーザの眼Eに集光する。なお、プリズム41は、単一のプリズムで構成されるか、または複数プリズムを組み合わせて構成される。本実施形態では、プリズム41は、入射面に接合された接眼レンズ42と一体に形成される。   The eyepiece optical system 40 disposed in the second storage chamber 10b includes a prism 41 and an eyepiece lens. The prism 41 is a light guide member that functions as means for reflecting the optical path L of the image light incident from the display optical system 30 in the direction of the user's eye E. The eyepiece lens 42 has positive power (refractive power) and condenses image light on the user's eye E. The prism 41 is configured by a single prism or a combination of a plurality of prisms. In the present embodiment, the prism 41 is formed integrally with an eyepiece lens 42 bonded to the incident surface.

画像表示ユニット10の支持部材11は、上下方向(Z軸方向)に互いに対面する2枚の支持板(11a、11b)で構成され、両支持板の間には空間が存在する。したがって、支持部材11によってユーザの視線は遮られない。なお、両支持板(11a、11b)を補強するために支持部材11を透明樹脂などの部材で覆うことも可能である。また、本実施形態では、支持部材11は互いに対面する2枚の支持板(11a、11b)で形成されるが、これに限定されない。例えば、単一の支持板または支柱で形成され得る。また、この場合、支持板または支柱は透明部材で形成してもよい。なお、第2収納室10bのユーザの眼に対向する面には、ユーザの眼を保護するための透明な弾性部材からなるプロテクト板44を配置してもよい。   The support member 11 of the image display unit 10 is composed of two support plates (11a, 11b) facing each other in the vertical direction (Z-axis direction), and there is a space between the support plates. Therefore, the user's line of sight is not blocked by the support member 11. In addition, in order to reinforce both support plates (11a, 11b), the support member 11 can be covered with a member such as a transparent resin. In the present embodiment, the support member 11 is formed of two support plates (11a, 11b) facing each other, but is not limited thereto. For example, it can be formed of a single support plate or column. In this case, the support plate or the support column may be formed of a transparent member. A protect plate 44 made of a transparent elastic member for protecting the user's eyes may be disposed on the surface of the second storage chamber 10b that faces the user's eyes.

図4は、図3に示すウェアラブル情報表示端末の本体ユニットの内部構成を示す概略図である。   FIG. 4 is a schematic diagram showing the internal configuration of the main unit of the wearable information display terminal shown in FIG.

図4に示すように、本体ユニット20内には、中央処理装置(CPU)71、画像処理プロセッサ(GPU)73、フラッシュメモリチップ81、SRAMコンポーネント82、オーディオ処理IC84、無線通信用LSIモジュール85、スピーカー86、マイク88、多軸センサ92、及びウェアラブル情報表示端末の制御及び操作に必要なその他のコンポーネントが組み込まれた印刷回路基板34が筐体20a内に収納される。また、印刷回路基板34の図示しない背面側には、音声認識、音声合成、及び画像認識を担う専用LSIが搭載される。さらに、筐体20aの側面に設けられたタッチバッド87も、印刷回路基板34に実装された所定のインターフェース部品に接続される。本体ユニット20は、接続用フランジ16を介して充電用又は通信用ケーブルを接続することも可能である。なお、図4において、筐体20aに対向する裏蓋は説明を簡潔にするため図示を省略している。   As shown in FIG. 4, the main unit 20 includes a central processing unit (CPU) 71, an image processing processor (GPU) 73, a flash memory chip 81, an SRAM component 82, an audio processing IC 84, a wireless communication LSI module 85, The printed circuit board 34 in which the speaker 86, the microphone 88, the multi-axis sensor 92, and other components necessary for controlling and operating the wearable information display terminal are incorporated in the housing 20a. A dedicated LSI for voice recognition, voice synthesis, and image recognition is mounted on the back side (not shown) of the printed circuit board 34. Further, the touch pad 87 provided on the side surface of the housing 20 a is also connected to a predetermined interface component mounted on the printed circuit board 34. The main unit 20 can be connected to a charging or communication cable via the connecting flange 16. In FIG. 4, the illustration of the back cover facing the housing 20a is omitted for the sake of brevity.

一方、画像表示ユニット10の第1収納室10aには、図示しないが、カメラを配置して、プリズム41を介してユーザの瞳を撮影し、虹彩による個人認証を行うための画像データを取得する構成を備え得る。また、例えば、XYZの3軸のそれぞれに対応する3軸加速度センサ、3軸角速度センサ(ジャイロセンサ)、及び3軸地磁気センサを含む複数のセンサ(以下、多軸センサ92と略記する)で構成され、ウェアラブル情報表示端末の向き、移動方向、及び動きを検出する。さらに、図示しないがGPSチップを搭載するか又は無線基地局からの電波を利用した位置検出を行う構成を備える。   On the other hand, although not shown, a camera is disposed in the first storage chamber 10a of the image display unit 10, the user's pupil is photographed via the prism 41, and image data for performing personal authentication using the iris is acquired. A configuration may be provided. In addition, for example, a plurality of sensors (hereinafter abbreviated as a multi-axis sensor 92) including a three-axis acceleration sensor, a three-axis angular velocity sensor (gyro sensor), and a three-axis geomagnetic sensor corresponding to each of the three axes of XYZ. The direction, movement direction, and movement of the wearable information display terminal are detected. Further, although not shown, a configuration is provided in which a GPS chip is mounted or position detection is performed using radio waves from a radio base station.

本体ユニット20の画像処理プロセッサ(GPU)73は、擬人化されたオブジェクトの画像データを、多軸センサ92でリアルタイムに検出したウェアラブル情報表示端末の向き(ユーザの視線方向に対応)、移動方向、及び動きに関するセンシングデータに基づいて、自然法則に合わせた動きで、ユーザの視線方向の所定位置に所定の大きさ(例えば、等身大)で、オブジェクトの一部又は全体が視認されるようにデータ処理する。そして、中央処理装置(CPU)71は、表示光学系30の画像表示部30Mを制御して、画像処理プロセッサ(GPU)73でデータ処理されたオブジェクトの画像を、ビデオカメラ部83で撮影した現実の背景画像に重畳して実空間の座標系に合わせて画面上に拡張現実(AR:Augmented Reality)で表示させる。   The image processing processor (GPU) 73 of the main body unit 20 detects the image data of the anthropomorphic object in real time by the multi-axis sensor 92 (corresponding to the user's line-of-sight direction), moving direction, Based on the sensing data relating to the movement, the data is such that a part or the whole of the object is visually recognized at a predetermined size (for example, life-size) at a predetermined position in the user's line-of-sight direction by a movement in accordance with the laws of nature. Process. The central processing unit (CPU) 71 controls the image display unit 30M of the display optical system 30, and the video camera unit 83 captures the image of the object data processed by the image processing processor (GPU) 73. Are superimposed on the background image and displayed in augmented reality (AR) on the screen according to the coordinate system of the real space.

図5は、拡張現実で表示されるオブジェクトをユーザが視認しているイメージを示す図である。ウェアラブル情報表示端末を装着したユーザには、実空間上の現実の風景に重ねて、ユーザの視線方向に擬人化されたオブジェクトの全体が等身大に視認される。   FIG. 5 is a diagram illustrating an image in which a user visually recognizes an object displayed in augmented reality. The user wearing the wearable information display terminal can see the entire object that is anthropomorphized in the direction of the user's line of sight over the actual landscape in real space.

また、本体ユニット20の中央処理装置(CPU)71は、オーディオ処理IC84を制御して、擬人化されたオブジェクトの音声データを、多軸センサ92でリアルタイムで検出したウェアラブル情報表示端末の向き(ユーザの視線方向に対応)、移動方向、及び動きに関するセンシングデータに基づいて、ユーザが拡張現実で表示されたオブジェクトの画像を視認する距離に対応した音量でスピーカー86から出力させる。なお、スピーカー86は、外部騒音に影響されにくい骨伝導タイプのスピーカーを使用するのが望ましい。又、接続用フランジ16を介して接続したイヤホン(図示せず)を使用することも可能である。この場合、両耳に対してステレオ若しくはサラウンド音声を出力し、ユーザが拡張現実で表示されたオブジェクトの画像を視認する方法及び距離に対応する音像定位を具現し得る。   Further, the central processing unit (CPU) 71 of the main unit 20 controls the audio processing IC 84 to detect the voice data of the anthropomorphic object in the direction of the wearable information display terminal (user) detected by the multi-axis sensor 92 in real time. Based on the sensing data regarding the moving direction and movement, the speaker 86 outputs the sound at a volume corresponding to the distance at which the user visually recognizes the image of the object displayed in augmented reality. The speaker 86 is preferably a bone conduction type speaker that is not easily affected by external noise. It is also possible to use an earphone (not shown) connected via the connecting flange 16. In this case, a stereo or surround sound is output to both ears, and a sound image localization corresponding to a method and a distance in which a user visually recognizes an object image displayed in augmented reality can be realized.

ウェアラブル情報表示端末100は、無線通信用LSIモジュール85を駆動して、図1に示すように近隣のアクセスポイントAPを経由してネットワーク2を介して管理サーバ200に通信可能に接続され、各種データ(例えば、音声データ、画像データ、センシングデータ)及び指令(要請及び/又は応答)を送受信し得る。また、無線通信用LSIモジュール85を駆動して、他のウェアラブル情報表示端末に直接通信可能に接続され得る。無線通信の接続には、WiFi又はブルートゥース(登録商標)(Bluetooth(登録商標))を利用し得る。   The wearable information display terminal 100 drives the wireless communication LSI module 85 and is communicably connected to the management server 200 via the network 2 via the nearby access point AP as shown in FIG. (Eg, audio data, image data, sensing data) and commands (requests and / or responses) may be sent and received. Further, the LSI module 85 for wireless communication can be driven and connected to other wearable information display terminals so as to be able to communicate directly. For connection of wireless communication, WiFi or Bluetooth (registered trademark) (Bluetooth (registered trademark)) can be used.

なお、本発明の一実施形態によるシステムに備えられるウェアラブル情報表示端末は、上述した形態に限定されず、例えば、単眼の虚像投影型ヘッドマウントディスプレイ、眼鏡の両レンズ位置に配置された導光板に画像を投影する透過型のヘッドマウントディスプレイの形態で構成することも可能である。   In addition, the wearable information display terminal provided in the system according to the embodiment of the present invention is not limited to the above-described form. For example, a monocular virtual image projection type head mounted display, a light guide plate disposed at both lens positions of glasses. It is also possible to configure in the form of a transmissive head-mounted display that projects an image.

以下、本発明の一実施形態によるウェアラブル情報表示端末のシステム構成について説明する。   Hereinafter, a system configuration of a wearable information display terminal according to an embodiment of the present invention will be described.

図6は、本発明の一実施形態によるウェアラブル情報表示端末のシステム構成を示すブロック図である。   FIG. 6 is a block diagram showing a system configuration of a wearable information display terminal according to an embodiment of the present invention.

本実施形態によるウェアラブル情報表示端末100は、端末全体の制御を行う中央制御部110、本端末で実行される各種プログラム及びそれらに付随する各種データを格納する記憶部120、ユーザからの指令入力及びユーザへの応答出力を対話形式で処理する擬人対話処理部111、ユーザの指令に基づき所定の支援機能を実行させる支援機能制御部112、拡張現実画像処理部113、音声制御部114、位置情報処理部115、入力部10Mに含まれる各構成要素及び画像表示部30Mとの間で入出力データを制御する入出力I/F部130、及び入力部10Mから受信した音声及び画像のデータを認識する音声画像認識部140を備える。音声画像認識部140は、音声合成機能を含む。入力部10Mに含まれる各構成要素は、ビデオカメラ部83、スピーカー86、タッチバッド87、マイク88、多軸センサ92である。また、ユーザの瞳を撮影するカメラ(インカメラと呼ぶ)91を備え得る。   The wearable information display terminal 100 according to the present embodiment includes a central control unit 110 that controls the entire terminal, various programs executed by the terminal, and a storage unit 120 that stores various data associated therewith, command input from a user, Anthropomorphic dialogue processing unit 111 that processes response output to the user in an interactive manner, support function control unit 112 that executes a predetermined support function based on a user command, augmented reality image processing unit 113, voice control unit 114, position information processing 115, the input / output I / F unit 130 that controls input / output data between the components included in the input unit 10M and the image display unit 30M, and the audio and image data received from the input unit 10M An audio image recognition unit 140 is provided. The voice image recognition unit 140 includes a voice synthesis function. The components included in the input unit 10M are a video camera unit 83, a speaker 86, a touch pad 87, a microphone 88, and a multi-axis sensor 92. Moreover, the camera (it calls an in-camera) 91 which image | photographs a user's pupil can be provided.

中央制御部110は、ユーザからの指令入力に基づき、指定された機能を実行するように各部の制御を行う。記憶部120は、端末全般及び端末内の各部等が実行する各種プログラム及びそれらに付随する各種データを格納する情報記憶部150と、ユーザ個人の利用情報及び検索データを格納する検索データ記憶部160とを含む。情報記憶部120に格納されるプログラム及びデータの詳細は後述する。   The central control unit 110 controls each unit to execute a specified function based on a command input from the user. The storage unit 120 includes an information storage unit 150 that stores various programs executed by the entire terminal and each unit in the terminal and various data associated therewith, and a search data storage unit 160 that stores personal user usage information and search data. Including. Details of the program and data stored in the information storage unit 120 will be described later.

音声画像認識部140は、入力部10Mから受信した音声信号や画像信号を認識及び分析し、所定形式の入力データに変換して擬人対話処理部111及び支援機能制御部112に送信し、擬人対話処理部111及び支援機能制御部112からのテキスト出力データを受信して音声合成し、音声制御部114で調整された擬人化オブジェクトの音声データで変調して入出力I/F部130に送信する。   The voice image recognition unit 140 recognizes and analyzes the voice signal and the image signal received from the input unit 10M, converts them into input data in a predetermined format, and transmits the input data to the personification dialogue processing unit 111 and the support function control unit 112. The text output data from the processing unit 111 and the support function control unit 112 are received and synthesized, and modulated with the voice data of the anthropomorphic object adjusted by the voice control unit 114 and transmitted to the input / output I / F unit 130. .

擬人対話処理部111は、ユーザからの指令入力及びユーザへの応答出力を対話形式で処理する。支援機能制御部112は、ユーザの周囲状況や過去の応答履歴等を学習して記憶部120に蓄積されたデータベースを参照して、ユーザ指示に基づく機能を実行させる。   The anthropomorphic dialogue processing unit 111 processes a command input from the user and a response output to the user in an interactive format. The support function control unit 112 learns the user's surroundings, past response history, and the like, refers to the database stored in the storage unit 120, and executes a function based on the user instruction.

拡張現実画像処理部113は、ユーザと対話する擬人化オブジェクトの画像データを、ウェアラブル情報表示端末の姿勢及び向き情報(センシングデータ)に基づいて、実空間の座標に合わせて画像表示部30Mの画面上に拡張現実で表示されるよう処理する。また、ビデオカメラ部83で撮影した画像に検索情報を重畳させる処理を行う。例えば、中央制御部110は、ユーザが頭部を所定の方向に動かす動作を検知して、ユーザ視線に対応した所定の画面位置に擬人化オブジェクトの画像を表示するよう制御する。また、ユーザの視線軸とビデオカメラ部83の光軸とが所定の時間保持された場合、これらの軸が一致した時の撮影画像を入力データと認識する。   The augmented reality image processing unit 113 displays the image data of the anthropomorphic object that interacts with the user on the screen of the image display unit 30M according to the coordinates of the real space based on the attitude and orientation information (sensing data) of the wearable information display terminal. Process to be displayed in augmented reality above. In addition, processing for superimposing search information on an image photographed by the video camera unit 83 is performed. For example, the central control unit 110 detects that the user moves the head in a predetermined direction, and controls to display an image of the anthropomorphic object at a predetermined screen position corresponding to the user's line of sight. When the user's line-of-sight axis and the optical axis of the video camera unit 83 are held for a predetermined time, the captured image when these axes match is recognized as input data.

音声制御部114は、擬人化オブジェクトの音声データを、センシングデータに基づいて、ユーザが拡張現実で表示されたオブジェクトの画像を視認する位置に応じた音量でスピーカー86から出力されるように制御する。位置情報処理部115は、ユーザが着用するウェアラブル情報表示端末の所在場所及周囲状況に関する各種の検出データを処理し、ウェアラブル情報表示端末の姿勢及び向きを特定するデータを生成する。   The voice control unit 114 controls the voice data of the anthropomorphic object to be output from the speaker 86 at a volume corresponding to the position at which the user visually recognizes the image of the object displayed in augmented reality based on the sensing data. . The position information processing unit 115 processes various detection data related to the location and surrounding situation of the wearable information display terminal worn by the user, and generates data for specifying the posture and orientation of the wearable information display terminal.

以下、本発明の一実施形態によるウェアラブル情報表示端末を備えるシステムの管理サーバを含むシステム構成について説明する。   Hereinafter, a system configuration including a management server of a system including a wearable information display terminal according to an embodiment of the present invention will be described.

図7は、本実施形態によるウェアラブル情報表示端末を備えるシステムの構成を示すブロック図である。   FIG. 7 is a block diagram illustrating a configuration of a system including the wearable information display terminal according to the present embodiment.

本実施形態によるシステムの管理サーバ200は、システム全体を制御するシステム制御部210、ユーザに所定の情報を提供するデータ検索部211、ユーザの要請に基づき秘書機能等の所定の行動支援機能を提供する行動支援制御部212、オブジェクト画像処理部213、オブジェクト音声制御部214、位置情報管理部215、各種プログラム及びデータを格納する記憶部220、外部機器とのネットワーク接続を行って通信を制御する通信I/F部230、及びユーザとのデータ交換を対話形式に変換する擬人対話処理部240を備える。   The system management server 200 according to the present embodiment provides a system control unit 210 that controls the entire system, a data search unit 211 that provides predetermined information to the user, and a predetermined action support function such as a secretary function based on a user request. Action support control unit 212, object image processing unit 213, object audio control unit 214, position information management unit 215, storage unit 220 for storing various programs and data, and communication for controlling communication by connecting to external devices via a network connection An I / F unit 230 and an anthropomorphic dialogue processing unit 240 that converts data exchange with the user into a dialogue format are provided.

システム制御部210は、各ユーザのウェアラブル情報表示端末(100A、100B)から受信したユーザの要請入力に基づき、指定された行動支援機能を実行するように各部の制御を行う。   The system control unit 210 controls each unit to execute a designated action support function based on a user request input received from each user's wearable information display terminal (100A, 100B).

データ検索部211は、ネットワークサーバを探索して文字、音声、及び画像の情報データを提供する。行動支援制御部212は、各ユーザの周囲状況や過去の応答履歴等に基づく学習データベースを参照して所定の行動支援機能を実行する制御を行う。オブジェクト画像処理部213は、ユーザからの選択入力に基づき実空間でユーザと対話する擬人化オブジェクトの画像データを生成し、システム利用状況に応じてオブジェクト画像の更新処理を行う。オブジェクト音声制御部214は、ユーザからの選択入力に基づき擬人化オブジェクトの音声を設定し、システム利用状況に応じてオブジェクト音声の更新処理を行う。位置情報管理部215は、ユーザが着用するウェアラブル情報表示端末から送信された各種のセンシングデータ及び画像データに基づき、所在場所を特定し、位置情報データを各部に提供する。   The data search unit 211 searches the network server and provides character, voice, and image information data. The action support control unit 212 performs control to execute a predetermined action support function with reference to a learning database based on each user's surrounding situation, past response history, and the like. The object image processing unit 213 generates image data of an anthropomorphic object that interacts with the user in the real space based on the selection input from the user, and updates the object image according to the system usage status. The object sound control unit 214 sets the sound of the anthropomorphic object based on the selection input from the user, and performs the object sound update process according to the system usage status. The location information management unit 215 specifies a location based on various sensing data and image data transmitted from the wearable information display terminal worn by the user, and provides location information data to each unit.

記憶部220は、本システム全般及び各部等が利用する各種プログラム及びデータを格納する情報記憶部と、ユーザごとのシステム利用情報及び後述するユーザ興味リストを格納する検索データ記憶部260とを含む。通信I/F部230は、ネットワーク接続された各ウェアラブル情報表示端末及び外部サーバとの通信を制御する。擬人対話処理部240は、通信I/F部230とデータ検索部211及び行動支援制御部212との間に連結されて各ウェアラブル情報表示端末との応答を対話形式に変換する。   The storage unit 220 includes an information storage unit that stores various programs and data used by the entire system and each unit, and a search data storage unit 260 that stores system usage information for each user and a user interest list described later. The communication I / F unit 230 controls communication with each wearable information display terminal connected to the network and an external server. The anthropomorphic dialogue processing unit 240 is connected between the communication I / F unit 230, the data search unit 211, and the action support control unit 212, and converts a response with each wearable information display terminal into an interactive format.

以下、管理サーバ200の各構成要素の構成及び機能を詳しく説明する。   Hereinafter, the configuration and function of each component of the management server 200 will be described in detail.

データ検索部211及び行動支援制御部212は、個別に図示しないが、データ処理及び各処理部との連携動作を制御するプロセッサ(CPU)及び当該CPUにデータバスや制御バス等のバスラインで接続されたROM及びRAM等で構成される。データ検索部211及び行動支援制御部212は互いに接続されており、互いの処理データを取得することができる。ROMは、CPUで制御を行うための各種データやプログラムが予め格納されたリードオンリーメモリであり、RAMは、CPUがワーキングメモリとして使用するランダムアクセスメモリである。   Although not shown separately, the data search unit 211 and the action support control unit 212 are connected to a processor (CPU) that controls data processing and cooperative operation with each processing unit and a bus line such as a data bus or a control bus. ROM, RAM, and the like. The data search unit 211 and the action support control unit 212 are connected to each other and can acquire each other's processing data. The ROM is a read-only memory in which various data and programs for control by the CPU are stored in advance, and the RAM is a random access memory that the CPU uses as a working memory.

データ検索部211及び行動支援制御部212を構成するCPU及びCPUにバス接続されたROM及びRAMは、管理サーバ全体を共通に制御する一組の汎用プロセッサ(CPU)及び汎用プロセッサにバス接続されたROM及びRAMで構成し得る。なお、汎用プロセッサは、マルチコアで構成されて、各コアにデータ検索部211及び行動支援制御部212のデータ処理を分担して実行させることも可能である。さらに、データ検索部211及び行動支援制御部212は、処理を高速化するため、それぞれの専用プロセッサ(CPU)がROMに格納された各種プログラムを読み込んで各種処理を実行する構成とすることも可能である。   The CPU and ROM and RAM connected to the CPU constituting the data search unit 211 and the action support control unit 212 are connected to a set of general-purpose processors (CPU) and general-purpose processors that control the entire management server in common. It can be composed of ROM and RAM. Note that the general-purpose processor is configured by multi-cores, and each core can share and execute data processing of the data search unit 211 and the action support control unit 212. Further, the data search unit 211 and the action support control unit 212 may be configured such that each dedicated processor (CPU) reads various programs stored in the ROM and executes various processes in order to speed up the process. It is.

データ検索部211には、システム制御部210を介して検索データ記憶部260が接続され、各ユーザのウェアラブル情報表示端末(100A、100B)から送信された位置検出データが通信I/F部230を介して入力される。行動支援制御部212には、システム制御部210を介して情報記憶部250が接続され、各ウェアラブル情報表示端末(100A、100B)から送信された音声データ及び画像データが通信I/F部を介して入力される。   A search data storage unit 260 is connected to the data search unit 211 via the system control unit 210, and position detection data transmitted from each user's wearable information display terminals (100 </ b> A, 100 </ b> B) is transmitted to the communication I / F unit 230. Is input via. An information storage unit 250 is connected to the action support control unit 212 via the system control unit 210, and audio data and image data transmitted from each wearable information display terminal (100A, 100B) are transmitted via the communication I / F unit. Is input.

管理サーバ200は、記録媒体駆動装置270にセットされた外部記録媒体からコンピュータプログラムや各種データを読み込んで、情報記憶部250、検索データ記憶部260、及び図示しないハードディスク等のその他の記憶装置に格納し、それぞれの記憶部から必要なプログラム及びデータをRAMに読み込んで(ロードして)実行する。また、必要なプログラム等を記録媒体駆動装置270からRAMに直接読み込んで実行するようにしてもよい。   The management server 200 reads a computer program and various data from an external recording medium set in the recording medium driving device 270 and stores it in the information storage unit 250, the search data storage unit 260, and other storage devices such as a hard disk (not shown). Then, necessary programs and data are read from the respective storage units into the RAM and executed. Further, a necessary program or the like may be directly read from the recording medium driving device 270 into the RAM and executed.

通信I/F部230には、ネットワークを介して複数のユーザのウェアラブル情報表示端末(100A、100B)が接続される。また、入力装置235が接続される。オブジェクト画像処理部213は、データ検索部211及び行動支援制御部212に接続されて、所定の更新処理がされたオブジェクト画像データに両部で実行された処理の結果データを対応付けて、通信I/F部230を介して各ウェアラブル情報表示端末(100A、100B)の画像表示部30Mに送信する。   A plurality of wearable information display terminals (100A, 100B) of a plurality of users are connected to the communication I / F unit 230 via a network. An input device 235 is connected. The object image processing unit 213 is connected to the data search unit 211 and the action support control unit 212, associates the result data of the processing executed in both units with the object image data subjected to the predetermined update processing, and communicates with the communication I The data is transmitted to the image display unit 30M of each wearable information display terminal (100A, 100B) via the / F unit 230.

通信I/F部230は、各ウェアラブル情報表示端末からのネットワークを介したアクセス要求に応答して要請(指令)や各種データの送受信を含む通信を制御する。また、通信I/F部230は、各ユーザのウェアラブル情報表示端末からの通信の他に、地図、交通情報などの公共情報に関するデータなどを提供するネットワークサーバとの通信や、広告や店舗等の商業的情報を提供するネットワークサーバとの通信を行う。   The communication I / F unit 230 controls communication including transmission / reception of requests (commands) and various data in response to an access request from each wearable information display terminal via the network. In addition to communication from each user's wearable information display terminal, the communication I / F unit 230 communicates with a network server that provides data related to public information such as maps and traffic information, advertisements, stores, etc. Communicate with network servers that provide commercial information.

入力装置235は、本発明のウェアラブル情報表示端末を備えるシステムの管理者が、管理サーバに指令や問い合わせなどを入力するための手段である。入力装置235には、タッチパネル、キーボード、マウス、ライトペン、ジョイスティックなどの各種の装置が使用可能である。   The input device 235 is a means for an administrator of a system including the wearable information display terminal of the present invention to input a command or an inquiry to the management server. As the input device 235, various devices such as a touch panel, a keyboard, a mouse, a light pen, and a joystick can be used.

擬人対話処理部240は、音声認識、語彙解析、及び音声合成機能を有し、ウェアラブル情報表示端末から受信した音声データからユーザの要請(指令)を特定して、データ検索部211又は行動支援制御部212に送信する。また、データ検索部211又は行動支援制御部212による所定の処理結果のテキスト出力データを、擬人化オブジェクトの音声データに変換して通信I/F部230に送信する。   The anthropomorphic dialogue processing unit 240 has voice recognition, vocabulary analysis, and voice synthesis functions, specifies a user request (command) from voice data received from the wearable information display terminal, and searches the data search unit 211 or action support control. To the unit 212. Further, the text output data of a predetermined processing result by the data search unit 211 or the action support control unit 212 is converted into voice data of anthropomorphic object and transmitted to the communication I / F unit 230.

情報記憶部250には、本実施形態による行動支援機能を実行するために必要な各種データ(プログラムを含む)が格納される。また、擬人対話処理部240を制御して、推論や知識表現等を含む人工知能機能を実行させるプログラムが格納される。情報記憶部250は、管理サーバの記憶部220内に配置されるか又は管理サーバとは別のデータサーバに設けられる。   The information storage unit 250 stores various data (including programs) necessary for executing the action support function according to the present embodiment. Also stored is a program that controls the anthropomorphic dialogue processing unit 240 to execute artificial intelligence functions including inference, knowledge expression, and the like. The information storage unit 250 is disposed in the storage unit 220 of the management server or is provided in a data server different from the management server.

記録媒体駆動装置270は、コンピュータプログラムを外部のコンピュータ読み取り可能な記録媒体から読み込むのに使用される。ここで、コンピュータ読み取り可能な記録媒体に記録されているコンピュータプログラムには、各種のプログラムやデータ等が含まれる。また、記録媒体駆動装置270は、各種コンピュータ読み取り可能な記録媒体からコンピュータプログラムを読み込む他に、記録媒体が書き込み可能な記録媒体である場合には、データ検索部211や行動支援制御部212のRAMや記憶部220内に格納された各種データ等をその記録媒体に書き込むことが可能である。   The recording medium driving device 270 is used to read a computer program from an external computer-readable recording medium. Here, the computer program recorded on the computer-readable recording medium includes various programs and data. In addition to reading computer programs from various computer-readable recording media, the recording medium driving device 270 also stores the RAM of the data search unit 211 and the action support control unit 212 when the recording medium is a writable recording medium. In addition, various data stored in the storage unit 220 can be written to the recording medium.

以下で、情報記憶部250に格納されるプログラム及びデータの詳細を説明する。   The details of the program and data stored in the information storage unit 250 will be described below.

図7に示すように、情報記憶部250には、行動支援プログラム251、プログラム選択テーブル252、学習項目データ253、応答データ254、オブジェクト表現データ255、及びその他のデータが格納される。学習項目データ253及び応答データ254は、ユーザの要請や応答によってバーチャル秘書が学習した結果を含むデータである。従って、学習項目データ253及び応答データ254は、ユーザ毎にそれぞれのデータが格納・更新(学習)される。オブジェクト表現データ255は、擬人化オブジェクトの容姿や音声を生成するためのデータであって、各種の画像データ並びに音源及び音声データが含まれる。   As shown in FIG. 7, the information storage unit 250 stores an action support program 251, a program selection table 252, learning item data 253, response data 254, object expression data 255, and other data. The learning item data 253 and the response data 254 are data including a result of learning by the virtual secretary according to a user request or response. Accordingly, the learning item data 253 and the response data 254 are stored / updated (learned) for each user. The object expression data 255 is data for generating the appearance and sound of the anthropomorphic object, and includes various image data, sound source, and sound data.

オブジェクト表現データ255に格納されるオブジェクト画像データに設定される容姿は、一般化された人間(男性、女性)の容姿の他に、例えば、犬、猫、サル等の動物の実物像の容姿や人間的に図案化(イラスト化)した動物の容姿、またロボット的な容姿や、特定のキャラクタの容姿等がひな形として格納され、各ユーザのウェアラブル情報表示端末からの選択入力に基づき、ユーザの好みに応じて選択することができる。また、擬人化オブジェクトの年齢は、一定である必要はなく、行動支援システムの学習機能の一部として、最初は子供の容姿で設定し、利用経過と共に成長して容姿が変化していく(大人の容姿に変化していく)ように更新可能にプログラミングし得る。   Appearances set in the object image data stored in the object expression data 255 include, for example, appearances of real images of animals such as dogs, cats, monkeys, etc., in addition to generalized human (male, female) appearances. The human-designed (illustrated) animal appearance, robot-like appearance, specific character appearance, etc. are stored as templates, and based on the selection input from each user's wearable information display terminal, the user's You can choose according to your preference. In addition, the age of anthropomorphic objects does not have to be constant. As part of the learning function of the behavior support system, the appearance of a child is initially set, and the appearance changes as the usage progresses (adults) It can be programmed to be updatable so that it changes.

具体的に、擬人化オブジェクトの成長は、通算の通信データ量Dが下記数式1に示すしきい値Dt、すなわち、所定の通信データ量D1の整数倍に到達する毎に、段階的に変化する構成にすることで、使用履歴に基づく不要データの選別を通じて、ユーザーごとに最適な方法が学習され、人工知能による行動支援の機能的な成長に連動させることができる。 Specifically, the growth of the anthropomorphic object changes step by step every time the total communication data amount D reaches the threshold value Dt m shown in the following formula 1, that is, an integral multiple of the predetermined communication data amount D1. With this configuration, an optimum method is learned for each user through selection of unnecessary data based on usage history, and can be linked to the functional growth of behavior support by artificial intelligence.

[数1]
Dt=m×D1
(ここで、mは1以上の整数、D1は予め設定された所定の通信データ量である)
[Equation 1]
Dt m = m × D1
(Here, m is an integer of 1 or more, and D1 is a predetermined communication data amount set in advance)

例えば、使用開始時に小学生の姿の擬人化オブジェクトが設定された場合、通算の通信データ量Dが、m=1に対応するしきい値Dt(=D1)に到達する(D≧D1)と、擬人化オブジェクトの姿が、小学生から中学生に変化し、その後、通算の通信データ量Dが、m=2に対応するしきい値Dt(=2D1)に到達するまでの間、つまり、D1≦D<2D1の区間は、中学生の姿が維持され、Dがしきい値Dtに到達する(D≧2D1)と、中学生から高校生に変化し、以後、同様にして段階的に変化する。 For example, when an anthropomorphic object of an elementary school student is set at the start of use, the total communication data amount D reaches a threshold value Dt 1 (= D1) corresponding to m = 1 (D ≧ D1). The figure of the personified object changes from the elementary school student to the junior high school student, and then the total communication data amount D reaches the threshold value Dt 2 (= 2D1) corresponding to m = 2, that is, D1. In the section of ≦ D <2D1, the appearance of the junior high school student is maintained, and when D reaches the threshold value Dt 2 (D ≧ 2D1), the junior high school student changes to the high school student, and thereafter changes in a stepwise manner in the same manner.

なお、オブジェクトの画像データには、各ユーザがウェアラブル情報表示端末のカメラで撮影した画像を管理サーバに備えられた画像処理プログラムでアニメ化した画像データを使用することも可能である。 It should be noted that the image data of the object may be image data obtained by animating an image photographed by each user with the camera of the wearable information display terminal using an image processing program provided in the management server.

行動支援プログラム251には、秘書機能等のユーザの行動を支援するための各種処理プログラムや、擬人化されたオブジェクトとユーザとがコミュニケーションする場合の細かな行動を各ユーザのウェアラブル情報表示端末の画像表示部30Mに画像表示させると共にその行動に対応した会話を各ユーザのウェアラブル情報表示端末のスピーカー86から出力させるためのコミュニケーションプログラムが格納されている。   The behavior support program 251 includes various processing programs for supporting the user's behavior such as a secretary function, and detailed actions when the personified object and the user communicate with each other. A communication program for displaying an image on the display unit 30M and outputting a conversation corresponding to the action from the speaker 86 of each user's wearable information display terminal is stored.

また、行動支援処理プログラムには、スケジュール管理、情報検索、経路案内、自発的情報提供などを実行するサブプログラムが含まれ、ユーザからの要請入力に対する処理実行結果のデータ出力は、コミュニケーションプログラムによって擬人化されたオブジェクトと対話する形態で各ユーザのウェアラブル情報表示端末に送信される。これらの処理は、管理サーバ全体を共通に制御する一組の汎用プロセッサ(CPU)により実行される人工知能プログラムによって制御される。   In addition, the action support processing program includes subprograms for executing schedule management, information retrieval, route guidance, voluntary information provision, and the like. The information is transmitted to the wearable information display terminal of each user in a form of interacting with the converted object. These processes are controlled by an artificial intelligence program executed by a set of general-purpose processors (CPUs) that commonly control the entire management server.

コミュニケーションプログラムは、複数種類の音声が選択可能であり、ユーザは擬人化されたオブジェクトの容姿の選択と併せて、所望の音声を選択することができる。擬人化されたオブジェクトの音声には、男性の音声、女性の音声、子供の音声、機械的な音声、動物的な音声、特定の声優や俳優の音声、特定のキャラクタの音声等があり、ユーザは、これらの中から、ウェアラブル情報表示端末からの選択入力によって予め選択する。なお、これらの音声及び容姿の選択は、適時変更することが可能である。   The communication program can select a plurality of types of sounds, and the user can select a desired sound together with the selection of the appearance of the personified object. The voices of anthropomorphic objects include male voices, female voices, child voices, mechanical voices, animal voices, voices of specific voice actors and actors, voices of specific characters, etc. Are selected in advance by selection input from the wearable information display terminal. Note that the selection of these voices and appearances can be changed as needed.

上述した管理サーバ200の情報記憶部250に格納される各種プログラム及びデータは、各個人のウェアラブル情報表示端末からのアクセスに応答して、認証された各個人のウェアラブル情報表示端末に送信され、それぞれのウェアラブル情報表示端末の記憶部120に格納してもよい。なお、ウェアラブル情報表示端末と管理サーバとの間でのデータ管理方法は、これに限定されるものではなく、管理サーバに格納した個人毎の各種データを利用に応じて各個人のウェアラブル情報表示端末にダウンロード、アップロード、又は更新する方法など、ウェアラブル情報表示端末の記憶部のメモリ容量に応じて多様に設定が可能である。   The various programs and data stored in the information storage unit 250 of the management server 200 described above are transmitted to each authenticated wearable information display terminal in response to access from each individual wearable information display terminal. May be stored in the storage unit 120 of the wearable information display terminal. The data management method between the wearable information display terminal and the management server is not limited to this, and each person's wearable information display terminal is used in accordance with the use of various individual data stored in the management server. Various methods can be set according to the memory capacity of the storage unit of the wearable information display terminal, such as a method for downloading, uploading, or updating.

図8は、行動支援プログラムのプログラム選択テーブルの一例を示す図である。   FIG. 8 is a diagram illustrating an example of a program selection table of an action support program.

ウェアラブル情報表示端末又は管理サーバの記憶部(120、220)に格納される個人別プログラム選択テーブル(152、252は)、行動支援プログラム(151、251)に格納されているサブプログラムをユーザ毎に選択するためのテーブルである。プログラム選択テーブル(152、252)は、個人毎のサブプログラム利用頻度、サブプログラムの起動方法、及び各サブプログラムに対応する個人の学習項目データ(153、253)と応答データ(154、254)のファイル識別子(ID)が登録される。   The individual program selection table (152, 252) stored in the storage unit (120, 220) of the wearable information display terminal or the management server, and the subprogram stored in the action support program (151, 251) for each user. It is a table for selecting. The program selection table (152, 252) includes subprogram usage frequency for each individual, a subprogram activation method, and individual learning item data (153, 253) and response data (154, 254) corresponding to each subprogram. A file identifier (ID) is registered.

ウェアラブル情報表示端末の中央制御部110は、ユーザからの要請入力に応答して、支援機能制御部112に要請入力に対応するサブプログラムを起動して実行するよう制御する。要請入力は、例えば、ユーザの発する音声によりウェアラブル情報表示端末のマイク88を介して音声データとして入力され、ウェアラブル情報表示端末の支援機能制御部112は、擬人対話処理部111で処理された音声入力データの音声認識及び語彙解析結果に基づいて、対応するサブプログラムを選択して実行する。この際、中央制御部110は、ユーザの発する所定の音声又はウェアラブル情報表示端末の多軸センサ92で検出した所定のユーザの動きをトリガーとして、拡張現実画像処理部113に、画像表示部30Mに擬人化されたオブジェクトを表示するように制御する。言語や動作に基づくユーザからの要請入力に対応するサブプログラムの実行及び制御は、中央制御部110で実行されるウェアラブル情報表示端末に実装された人工知能プログラムによって、具現される。   In response to a request input from the user, the central control unit 110 of the wearable information display terminal controls the support function control unit 112 to start and execute a subprogram corresponding to the request input. The request input is, for example, input as voice data through a microphone 88 of the wearable information display terminal by a voice uttered by the user, and the support function control unit 112 of the wearable information display terminal performs the voice input processed by the anthropomorphic dialogue processing unit 111 Based on the speech recognition and lexical analysis results of the data, the corresponding subprogram is selected and executed. At this time, the central control unit 110 uses the predetermined user movement detected by the multi-axis sensor 92 of the user's predetermined voice or wearable information display terminal as a trigger to the augmented reality image processing unit 113 and the image display unit 30M. Control to display anthropomorphic objects. The execution and control of the subprogram corresponding to the request input from the user based on the language and the operation is realized by an artificial intelligence program installed in the wearable information display terminal executed by the central control unit 110.

また、音声画像認識部140によりウェアラブル情報表示端末のビデオカメラ部で撮影中の画像に予め設定された所定の対象物が認識されると、ウェアラブル情報表示端末は、自発的に該当するサブプログラム、例えば、検索プログラムを起動するよう設定することも可能である。具体的に、中央制御部110は、実行中の人工知能プログラムにより、ウェアラブル情報表示端末の多軸センサ92で検出したユーザの頭部の動きに対応するセンシングデータを分析し、ユーザの視線が、特定の一地点を捉えて固定され、所定の時間、例えば、3秒間が経過した場合、ユーザの視線に対応するビデオカメラ部で撮影された対象物にユーザが興味を示していると判断し、当該対象物を興味リストとして、検索データ記憶部160に記憶する。そして、検索プログラムを起動して、当該対象物に関連する情報をインターネットで検索するよう制御する。なお、ユーザの視線が、動いている対象物を3秒以上注視した状態で追尾した場合、当該対象物が再びユーザの視線上に登場した場合、追尾を継続するよう制御することも可能である。   In addition, when a predetermined object preset in an image being captured by the video camera unit of the wearable information display terminal is recognized by the audio image recognition unit 140, the wearable information display terminal voluntarily corresponds to the subprogram, For example, it is possible to set to start a search program. Specifically, the central control unit 110 analyzes sensing data corresponding to the movement of the user's head detected by the multi-axis sensor 92 of the wearable information display terminal by the running artificial intelligence program, and the user's line of sight is When a specific point is captured and fixed and a predetermined time, for example, 3 seconds elapses, it is determined that the user is interested in the object photographed by the video camera unit corresponding to the user's line of sight, The object is stored in the search data storage unit 160 as an interest list. And a search program is started and it controls to search the information relevant to the said target object on the internet. In addition, when the user's line of sight tracks a moving object while gazing for 3 seconds or longer, the tracking can be controlled to continue when the object appears on the user's line of sight again. .

一方、行動支援プログラムを管理サーバで実行させる構成とすることも可能である。すなわち、管理サーバ200は、各ユーザのウェアラブル情報表示端末から受信した要請入力に応答して、該当するサブプログラムを起動する。要請入力は、例えば、ユーザの発する音声によりウェアラブル情報表示端末のマイクを介して音声データとして送信され、管理サーバは、受信した音声入力データの音声認識及び語彙解析結果に基づいて、対応するサブプログラムを選択して起動する。   On the other hand, it is also possible to adopt a configuration in which the action support program is executed by the management server. That is, the management server 200 activates a corresponding subprogram in response to a request input received from each user's wearable information display terminal. The request input is transmitted as voice data via a microphone of the wearable information display terminal, for example, by voice uttered by the user, and the management server corresponds to the subprogram corresponding to the voice recognition and lexical analysis results of the received voice input data. Select to start.

また、各ユーザのウェアラブル情報表示端末から受信した位置データ又は画像データに基づいて、管理サーバは、人工知能プログラムにより自発的に該当するサブプログラムを起動し得る。この場合、高いコンピュータ処理能力が求められる音声認識やウェッブ検索などの行動支援プログラムを管理サーバ側で実行させるため、ウェアラブル情報表示端末のCPU性能が低くても、良好な応答性を具現し得る。   Moreover, based on the position data or image data received from each user's wearable information display terminal, the management server can start the corresponding subprogram voluntarily by the artificial intelligence program. In this case, since an action support program such as voice recognition or web search requiring high computer processing capability is executed on the management server side, good responsiveness can be realized even if the wearable information display terminal has low CPU performance.

管理サーバ200は、ユーザのウェアラブル情報表示端末から受信したユーザの要請入力の支援内容を人工知能プログラムにより判断して、行動支援プログラムによる行動支援を実行するか、または人間によるコンシェルジュサポートを行う外部の支援サイトに接続するかを決定する。例えば、ユーザの要請入力の支援内容が、人との交渉を要する事項である場合は、人間によるコンシェルジュサポートを行う外部の支援サイトにユーザのウェアラブル情報表示端末を接続し、ユーザの個人スケジュールを照会する等の登録済の情報を検索して表示する場合は、本システムが保有する機能を実行してユーザの要請に対応する。   The management server 200 determines the support content of the user's request input received from the user's wearable information display terminal by using the artificial intelligence program and executes the action support by the action support program or performs external concierge support by humans. Decide whether to connect to the support site. For example, if the user's request input support is a matter that requires negotiation with a person, the user's wearable information display terminal is connected to an external support site that provides human concierge support, and the user's personal schedule is inquired. When the registered information such as “Yes” is retrieved and displayed, the function possessed by this system is executed to respond to the user's request.

図9は、本実施形態の行動支援プログラムが利用する学習項目データの一例を示す図であり、図10は、本実施形態の行動支援プログラムが利用する応答データの一例を示す図である。   FIG. 9 is a diagram illustrating an example of learning item data used by the behavior support program of the present embodiment, and FIG. 10 is a diagram illustrating an example of response data used by the behavior support program of the present embodiment.

学習項目データ253と応答データ254は共に行動支援プログラムの学習機能に基づき、格納又は更新される個人毎の履歴データであり、図9及び図10は、それぞれの構成例を概念的に示すものである。   Both the learning item data 253 and the response data 254 are history data for each individual stored or updated based on the learning function of the action support program. FIGS. 9 and 10 conceptually show examples of the respective configurations. is there.

図9に示すように、学習項目データ253には、図7に示すプログラム選択テーブル252の各サブプログラムが参照する検索条件を決定する入力語が頻出順に格納され、検索条件により選択された入力語に関連性の高い言葉が対応付けられている。これにより、サブプログラムは、先行して検索を実行し、ユーザへの応答性を向上させることができる。   As shown in FIG. 9, in the learning item data 253, input words for determining search conditions referred to by each subprogram of the program selection table 252 shown in FIG. Are associated with highly relevant words. Thereby, the subprogram can execute a search in advance and improve the responsiveness to the user.

学習項目データ253に格納されるその他のデータとしては、例えば、ユーザやその関係者の誕生日(ユーザが入力する項目)、祝祭日とそのいわれ、ひな祭り、クリスマス、バレンタインデー等のイベント日などが格納される。各イベント日に応じた特別メニューのコミュニケーションプログラムも用意されており、例えば、行動支援プログラムは、注目情報紹介サブプログラムを自発的に起動して、クリスマスシーズンにはサンタクロースに変装した擬人化されたオブジェクトの容姿でユーザの関心度の高い情報を紹介する。   Other data stored in the learning item data 253 includes, for example, birthdays of the user and related persons (items to be input by the user), national holidays and their so-called holidays, event days such as Hina Matsuri, Christmas, Valentine's Day, etc. Is done. There is also a special menu communication program for each event day. For example, the action support program voluntarily starts the attention information introduction subprogram, and the personified object disguised as Santa Claus during the Christmas season Introducing information that is highly interested in users.

図10に示すように、応答データ254には、擬人化されたオブジェクトの行為に対するユーザの応答の履歴が、ユーザ応答を学習項目とする各サブプログラム毎に格納される。例えば、あるユーザの応答データは、図7のサブプログラム番号S1を実行した場合、最新の応答日時と応答内容が格納され、図7に示すように、提供情報が、受容、無視、及び拒否された結果に基づいて、受容順位を更新し、ユーザに興味のある広告情報が提供されるように利用される。ユーザの応答内容については、ウェアラブル情報表示端末のマイク26から入力されるユーザの音声に対する音声認識の結果や、同端末のセンサで検出されたユーザの動作による入力結果から判断され得る。なお、本実施形態ではユーザの応答を受容、無視、及び拒絶の3つのパターンに分類しているが、これに限定されない。   As shown in FIG. 10, the response data 254 stores a history of user responses to the act of anthropomorphic objects for each subprogram whose learning item is a user response. For example, when the subprogram number S1 in FIG. 7 is executed as the response data of a certain user, the latest response date and time and the response content are stored, and the provided information is accepted, ignored, and rejected as shown in FIG. Based on the result, the acceptance rank is updated, and the advertisement information that is of interest to the user is provided. The content of the user's response can be determined from the result of speech recognition for the user's voice input from the microphone 26 of the wearable information display terminal or the input result by the user's operation detected by the sensor of the terminal. In the present embodiment, user responses are classified into three patterns of accepting, ignoring, and rejecting, but the present invention is not limited to this.

また、応答データ254は、サブプログラムの実行する処理内容に応じて、ユーザの応答内容が設定される。擬人化されたオブジェクトの自発的提案や会話に対するユーザの応答が、拒否(いらない)や無視(又は無応答)であった場合、行動支援プログラムは、対応するサブプログラムを自発的に起動しない設定がなされる。   The response data 254 is set with the response content of the user according to the processing content executed by the subprogram. If the user's response to an anthropomorphic object's voluntary proposal or conversation is rejected (don't need) or ignored (or no response), the behavior support program is set not to start the corresponding subprogram voluntarily. Made.

図11は、図6に示す検索データ記憶部に格納されるデータファイルの構成を示す図である。   FIG. 11 is a diagram showing a configuration of a data file stored in the search data storage unit shown in FIG.

図11に示すように、検索データ記憶部260には、ユーザのウェアラブル情報表示端末を予め提携した情報提供事業者のデータベースに接続するための事業者情報ファイル261、経路案内等で使用される各種データファイルとして、通信地域データファイル262、描画地図データファイル263、探索データファイル264、写真データファイル265が格納される。   As shown in FIG. 11, in the search data storage unit 260, there are various types of information used in a provider information file 261 for connecting a user's wearable information display terminal to a database of an information provider that has previously partnered, route guidance, and the like. A communication area data file 262, a drawing map data file 263, a search data file 264, and a photo data file 265 are stored as data files.

事業者情報ファイル261は、例えば、検索アシスタントを提供するサーバ、またナビゲーションサービス、辞書データベース、通販ウェブサイトなどを提供する予め提携した事業者のデータサーバ等に接続するための情報である。   The provider information file 261 is information for connecting to a server that provides a search assistant, a data server of a previously affiliated provider that provides a navigation service, a dictionary database, a mail order website, and the like.

通信地域データファイル262には、ウェアラブル情報表示端末が管理サーバと通信できる地域をウェアラブル情報表示端末の画像表示部30Mに表示したり、その通信できる地域を経路探索の際に使用するための通信地域データが格納されている。通信地域データファイル262に格納される内容は、ウェアラブル情報表示端末の使用可能な地域の拡大や縮小に伴って、最新のデータに更新できるように構成される。   In the communication area data file 262, an area where the wearable information display terminal can communicate with the management server is displayed on the image display unit 30M of the wearable information display terminal, or a communication area for using the communicable area when searching for a route. Data is stored. The content stored in the communication area data file 262 is configured so that it can be updated to the latest data as the area where the wearable information display terminal can be used is expanded or reduced.

描画地図データファイル263には、ウェアラブル情報表示端末の画像表示部30Mに描画される描画地図データが格納されている。この描画地図データは、階層化された地図、例えば最上位層から日本、関東地方、東京、神田といった階層ごとの地図データが格納されている。最下位層の地図データは、実空間に近似可能な仮想3D形態の画像データで構成され得る。   The drawing map data file 263 stores drawing map data to be drawn on the image display unit 30M of the wearable information display terminal. The drawing map data stores a hierarchical map, for example, map data for each hierarchy such as Japan, Kanto region, Tokyo, Kanda from the highest layer. The map data of the lowest layer can be configured by image data in a virtual 3D form that can be approximated to real space.

探索データファイル264には、ユーザが興味を有すると判断されたビデオカメラ部による撮影画像からなる興味リスト、経路探索により生成された経路を構成する交差点列データ、ノード列データなどが格納されている。交差点列データは、交差点名、交差点番号、その交差点の特徴的風景を写した写真番号、曲がる角、距離等の情報からなる。また、ノード列データは、そのノードの位置を表す東経、北緯などの情報からなる。   The search data file 264 stores an interest list made up of images taken by the video camera unit that the user is determined to be interested in, intersection sequence data constituting the route generated by the route search, node sequence data, and the like. . The intersection string data includes information such as an intersection name, an intersection number, a photo number showing a characteristic landscape of the intersection, a turning angle, and a distance. The node string data includes information such as east longitude and north latitude indicating the position of the node.

写真データファイル265には、各交差点や直進中に見える特徴的な風景等を撮影した写真が、その写真番号と対応してディジタル、アナログ、またはネガフィルムの形式で格納されている。なお、描画地図データファイル263、探索データファイル264、及び写真データファイル265は、予め提携した情報提供事業者のデータベースを利用することができる。   In the photo data file 265, photographs obtained by photographing characteristic intersections and the like seen at each intersection and straight ahead are stored in a digital, analog, or negative film format corresponding to the photograph number. Note that the drawing map data file 263, the search data file 264, and the photo data file 265 can use a database of information providers that have partnered in advance.

以下、本発明の一実施形態による行動支援システムの動作について説明する。この実施形態では、行動支援プログラムを管理サーバで実行させる構成の例について説明する。   Hereinafter, the operation of the action support system according to the embodiment of the present invention will be described. In this embodiment, an example of a configuration in which an action support program is executed by a management server will be described.

図12は、本実施形態による行動支援処理のメイン動作を示すフローチャートである。管理サーバ200のシステム制御部210は、各ウェアラブル情報表示端末からのアクセス要求を受信すると、アクセス要求とともに受信したユーザ識別データを、予め登録されて記憶部に格納された認証用データに基づいて認証する(ステップS310)。ユーザの認証に成功すると、認証されたユーザに対する初期設定を行う。初期設定としては、データ検索部211及び行動支援制御部212のそれぞれのRAM内に、各処理用のワークエリアを設定し、認証されたユーザ個人のプログラム選択テーブル252を記憶部220から読み出してRAMにロードする(ステップS320)。   FIG. 12 is a flowchart showing the main operation of the action support process according to this embodiment. When receiving the access request from each wearable information display terminal, the system control unit 210 of the management server 200 authenticates the user identification data received together with the access request based on the authentication data registered in advance and stored in the storage unit. (Step S310). If the user authentication is successful, the initial setting for the authenticated user is performed. As an initial setting, a work area for each process is set in each of the RAMs of the data search unit 211 and the action support control unit 212, and the program selection table 252 of the authenticated user is read from the storage unit 220 and stored in the RAM. (Step S320).

次に、システム制御部210は、位置情報管理部215に、ウェアラブル情報表示端末の多軸センサ92から供給される検出データ及びビデオカメラ部83で撮像した画像データから当該ウェアラブル情報表示端末の現在位置等を検出するように制御する。そして、検出したユーザの位置データをRAM内の所定エリアに格納する(ステップS330)。   Next, the system control unit 210 sends the current position of the wearable information display terminal to the position information management unit 215 from the detection data supplied from the multi-axis sensor 92 of the wearable information display terminal and the image data captured by the video camera unit 83. And so on. Then, the detected position data of the user is stored in a predetermined area in the RAM (step S330).

その後、人工知能プログラムを実行させて、ウェアラブル情報表示端末の音声入力を利用したユーザからの指示入力を受信する。システム制御部210は、受信した音声データ及び多軸センサのセンシングデータに基づき、擬人対話処理部240によりユーザの要請(指令)を特定し、特定されたユーザの要請(指令)を、データ検索部211又は行動支援制御部212で実行するよう制御する(ステップS340)。   Thereafter, the artificial intelligence program is executed to receive an instruction input from the user using the voice input of the wearable information display terminal. The system control unit 210 identifies a user request (command) by the anthropomorphic dialogue processing unit 240 based on the received voice data and multi-axis sensor sensing data, and the identified user request (command) 211 or the action support control unit 212 is controlled to execute (step S340).

具体的に、ウェアラブル情報表示端末を装着したユーザが、周囲を見回す動作をした後、同端末のマイク88に、「この辺にレストランは?」とつぶやくと、システム制御部210は、ユーザの動きと音声入力に基づいて、ユーザの要請を「周辺のレストランを探せ」の意と判定し、判定した要請内容を音声データに変換してユーザに送信し、確認を求める。これにユーザが、例えば、「はい」と応答すると、システム制御部210は、データ検索部211又は行動支援制御部212に、ユーザ位置情報に基づき、周辺のレストラン情報を検索して、該当するレストランを地図画像上に表示するように画像データを生成して、擬人化されたオブジェクトの画像データとともにウェアラブル情報表示端末に送信する。   Specifically, after the user wearing the wearable information display terminal performs an operation of looking around, the system controller 210 tweets “What is the restaurant?” To the microphone 88 of the terminal. Based on the voice input, the user's request is determined to mean “find nearby restaurants”, and the determined request content is converted into voice data and transmitted to the user for confirmation. When the user responds, for example, to “Yes”, the system control unit 210 searches the nearby restaurant information based on the user location information in the data search unit 211 or the behavior support control unit 212, and the corresponding restaurant. Is generated so as to be displayed on the map image, and transmitted to the wearable information display terminal together with the image data of the anthropomorphic object.

そして、ユーザから実行結果に満足したことを示す指令を受信したかを判断する(ステップS350)。ユーザから実行結果に不満である又は別途の処理を実行する指令を受信すると、システム制御部210は、ステップS340に戻って、所定の行動支援機能を実行するよう制御し、ユーザから実行結果に満足したか又は当該処理の終了を指示する指令を受信するまで繰り返す。   Then, it is determined whether a command indicating that the execution result is satisfied is received from the user (step S350). Upon receiving a command from the user that is unsatisfactory about the execution result or to execute a separate process, the system control unit 210 returns to step S340 to control the execution of the predetermined action support function, and the user is satisfied with the execution result. Or until it receives an instruction to end the process.

システム制御部210は、ユーザから実行結果に満足したか又は当該処理の終了を指示する指令を受信すると、情報記憶部250の学習項目データ253と応答データ254をチェックして、擬人化されたオブジェクトがこれまでに学習してきた過去の状態(学習データ)を把握する。そして、実行した処理結果とチェックした過去の学習データとに基づき、学習項目データ253及び応答データ254を更新する(ステップS360)。システム制御部210は、今回のバーチャル秘書プログラムに関するデータを蓄積することで、擬人化されたオブジェクトに学習をさせる。   When the system control unit 210 is satisfied with the execution result from the user or receives a command for instructing the end of the processing, the system control unit 210 checks the learning item data 253 and the response data 254 in the information storage unit 250 to obtain an anthropomorphic object. Grasp the past state (learning data) that has been learned so far. Then, the learning item data 253 and the response data 254 are updated based on the executed processing result and the checked past learning data (step S360). The system control unit 210 causes the anthropomorphic object to learn by accumulating data related to the current virtual secretary program.

上述したように、本発明によれば、ユーザは、動作と言語を組み合わせた入力形態を利用できるので、短い会話で指示や諾否の入力が可能となり、人前や公共の場で、秘書システムを利用しやすくなる。
また、本発明によるウェアラブル情報表示端末及びこれを備えるシステムは、ウェアラブル情報表示端末が備える各種センサ及びカメラを通して入力部から得られるユーザの生体情報、運動情報、位置情報を用い、これらの情報が予め設定された所定の条件を満たすとユーザの意図に最も近い処理を選択して実行する機能を有し、これを具現するための、ユーザの直感的動作をセンシングデータに変換し、当該センシングデータを分析し、分析結果に基づく処理を実行する手段を備えることで、ユーザに有用な情報を的確かつ速やかに提供できる。
As described above, according to the present invention, the user can use an input form that combines actions and languages, so it is possible to input instructions and acceptance / rejection in a short conversation, and the secretary system can be used in public or public places. It becomes easy to do.
In addition, the wearable information display terminal and the system including the wearable information display terminal according to the present invention use the biological information, exercise information, and position information of the user obtained from the input unit through various sensors and cameras provided in the wearable information display terminal. It has a function to select and execute the process closest to the user's intention when the set predetermined condition is satisfied, and converts the intuitive operation of the user for realizing this into sensing data. By providing means for analyzing and executing processing based on the analysis result, useful information can be provided to the user accurately and promptly.

以上のサブプログラム決定・対話型バーチャル秘書の利用・学習の各処理が終了すると、システム制御部210は、当該ウェアラブル情報表示端末からの送信データ量を求めて利用者情報記憶部250内のユーザ毎に準備された課金情報データ部に蓄積する。バーチャル秘書システムの管理者は、課金情報データ部に蓄積された送信データ量に基づいて、システム利用料を各ユーザに請求する。なお、課金の方法は、これに限定されず、管理サーバとのデータ送受信量又はアクセス回数など、バーチャル秘書システムの管理者とユーザとの間で所定の算出基準を設定することが可能である。   When the above processes for determining the subprogram and using / learning the interactive virtual secretary are completed, the system control unit 210 obtains the amount of data transmitted from the wearable information display terminal for each user in the user information storage unit 250. Is stored in the billing information data part prepared in the above. The administrator of the virtual secretary system charges each user for a system usage fee based on the amount of transmission data stored in the billing information data section. Note that the accounting method is not limited to this, and it is possible to set a predetermined calculation standard between the administrator of the virtual secretary system and the user, such as the data transmission / reception amount or the number of accesses to the management server.

以上、本発明の実施形態について図面を参照しながら詳細に説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の技術的範囲から逸脱しない範囲内で多様に変更実施することが可能である。   As mentioned above, although embodiment of this invention was described in detail, referring drawings, this invention is not limited to the above-mentioned embodiment, In the range which does not deviate from the technical scope of this invention, it changes variously. It is possible to implement.

1 システム
2 ネットワーク
10 画像表示ユニット
10a 第1収納室
10b 第2収納室
10M 入力部
11 支持部材
11a、11b 支持板
15 筐体
16 接続用フランジ
20 本体ユニット
20a 筐体
20b 連結部材
30 表示光学系
30M 画像表示部
31 光源
32 集光レンズ
33 画像表示素子
34 印刷回路基板
35 バッテリー
40 接眼光学系
40a 第1収納室
40b 第2収納室
41 プリズム
42 接眼レンズ
44 プロテクト板
71 中央処理装置(CPU)
73 画像処理プロセッサ(GPU)
81 フラッシュメモリチップ
82 SRAMコンポーネント
83 ビデオカメラ部
84 オーディオ処理IC
85 無線通信用LSIモジュール
86 スピーカー
87 タッチバッド
88 マイク
89 無線通信部
91 カメラ(インカメラ)
92 多軸センサ
100 ウェアラブル情報表示端末
110 中央制御部
111、240 擬人対話処理部
112 支援機能制御部
113 拡張現実画像処理部
114 音声制御部
115 位置情報処理部
120、220 記憶部
130 入出力I/F部
140 音声画像認識部
150、250 情報記憶部
151、251 行動支援プログラム
152、252 プログラム選択テーブル
153、253 学習項目データ
154、254 応答データ
155、255 オブジェクト表現データ
160、260 検索データ記憶部
200 管理サーバ
210 システム制御部
211 データ検索部
212 行動支援制御部
213 オブジェクト画像処理部
214 オブジェクト音声制御部
215 位置情報管理部
230 通信インターフェイス(I/F)部
235 入力装置
261 事業者情報ファイル
262 通信地域データファイル
263 描画地図データファイル
264 探索データファイル
265 写真データファイル
270 記録媒体駆動装置
DESCRIPTION OF SYMBOLS 1 System 2 Network 10 Image display unit 10a 1st storage chamber 10b 2nd storage chamber 10M Input part 11 Support member 11a, 11b Support plate 15 Housing | casing 16 Connection flange 20 Main body unit 20a Housing | casing 20b Connecting member 30 Display optical system 30M Image display unit 31 Light source 32 Condensing lens 33 Image display element 34 Printed circuit board 35 Battery 40 Eyepiece optical system 40a First storage chamber 40b Second storage chamber 41 Prism 42 Eyepiece 44 Protection plate 71 Central processing unit (CPU)
73 Image processor (GPU)
81 Flash memory chip 82 SRAM component 83 Video camera unit 84 Audio processing IC
85 LSI module for wireless communication 86 Speaker 87 Touchpad 88 Microphone 89 Wireless communication unit 91 Camera (in-camera)
92 Multi-axis sensor 100 Wearable information display terminal 110 Central control unit 111, 240 Anthropomorphic dialogue processing unit 112 Support function control unit 113 Augmented reality image processing unit 114 Voice control unit 115 Position information processing unit 120, 220 Storage unit 130 Input / output I / O F unit 140 voice image recognition unit 150, 250 information storage unit 151, 251 action support program 152, 252 program selection table 153, 253 learning item data 154, 254 response data 155, 255 object expression data 160, 260 search data storage unit 200 Management server 210 System control unit 211 Data search unit 212 Action support control unit 213 Object image processing unit 214 Object audio control unit 215 Location information management unit 230 Communication interface (I / F) unit 235 Input device 261 Operator information file 262 Communication area data file 263 Drawing map data file 264 Search data file 265 Photo data file 270 Recording medium drive device

Claims (14)

ユーザの視界内に情報及びオブジェクトを表示するウェアラブル情報表示端末であって、
少なくともカメラ、マイク、並びにXYZの3軸のそれぞれに対して加速度、角速度、及び地磁気を検出する複数の多軸センサを含む入力部と、
前記オブジェクトの表現データを格納する記憶部と、
前記オブジェクトを実空間の座標系に合わせて表示させる表示制御部と、
前記オブジェクトをユーザの視界内に表示する情報表示部と、
音声出力部と、
通信部と、を備え、
前記表示制御部は、前記オブジェクトの表現データを、前記複数の多軸センサで検出された前記ウェアラブル情報表示端末の向き、傾き、及び動きに応じて、質量、重力加速度、運動エネルギー保存則、及び慣性力を含む地球環境下における物理法則に従う変換規則に基づいて、前記オブジェクトの音声、サイズ、及び動きに変換し、ユーザの視線方向に前記変換されたオブジェクトの一部または全体を拡張現実(AR:Augmented Reality)で表示させることを特徴とするウェアラブル情報表示端末。
A wearable information display terminal that displays information and objects in the user's field of view,
An input unit including a plurality of multi-axis sensors that detect acceleration, angular velocity, and geomagnetism for each of at least three axes of a camera, a microphone, and XYZ;
A storage unit for storing expression data of the object;
A display control unit for displaying the object in accordance with a coordinate system of real space;
An information display unit for displaying the object in the user's field of view;
An audio output unit;
A communication unit,
The display control unit is configured to display the representation data of the object according to the orientation, inclination, and movement of the wearable information display terminal detected by the plurality of multi-axis sensors. Based on the conversion rules according to the physical laws in the global environment including the inertial force, the object is converted into sound, size, and movement, and a part or the whole of the converted object in the user's line-of-sight direction is augmented reality (AR). : Wearable information display terminal characterized by displaying with Augmented Reality).
前記オブジェクトは、前記複数の多軸センサで検出された前記ウェアラブル情報表示端末を装着したユーザの視線方向、移動方向、及び動きのセンシングデータに基づいて、現実の背景画像に重畳して実空間の座標系の所定の位置に視認されるように前記画像表示部に表示されることを特徴とする請求項1に記載のウェアラブル情報表示端末。   The object is superimposed on a real background image based on sensing data of a gaze direction, a moving direction, and a motion of a user wearing the wearable information display terminal detected by the plurality of multi-axis sensors. The wearable information display terminal according to claim 1, wherein the wearable information display terminal is displayed on the image display unit so as to be visually recognized at a predetermined position in a coordinate system. ユーザの視界内に情報及びオブジェクトを表示するウェアラブル情報表示端末であって、
少なくともカメラ、マイク、並びにXYZの3軸のそれぞれに対して加速度、角速度、及び地磁気を検出する複数の多軸センサを含む入力部と、
前記オブジェクトの表現データを格納する記憶部と、
前記オブジェクトを実空間の座標系に合わせて表示させる表示制御部と、
前記オブジェクトをユーザの視界内に表示する情報表示部と、
音声出力部と、
通信部と、を備え、
人工知能(AI:Artificial Intelligence)機能を有して、ユーザ毎にカスタマイズされた、行動を支援する手段をさらに備え、
前記行動を支援する手段は、使用履歴に基づく不要データの選別を通じて、ユーザの個人的選好に適合する支援項目及び支援方法を学習し、前記行動を支援する手段の人工知能の精度を継続的に向上させる手段を含み、
前記人工知能の機能的な成長及び前記オブジェクトの外見上の変化は、前記ウェアラブル情報表示端末のカメラで撮影されたユーザ視線方向の画像から読み取られる実空間の環境情報または前記複数の多軸センサで検出されたユーザの運動情報、位置情報、及び前記使用履歴に対応する通信データ量に連動して外見上の表現データを変更するかまたは補間して生成された画像データへの変化を含み、ユーザの視線方向に前記画像データの一部または全てが拡張現実で表示されることを特徴とするウェアラブル情報表示端末。
A wearable information display terminal that displays information and objects in the user's field of view,
An input unit including a plurality of multi-axis sensors that detect acceleration, angular velocity, and geomagnetism for each of at least three axes of a camera, a microphone, and XYZ;
A storage unit for storing expression data of the object;
A display control unit for displaying the object in accordance with a coordinate system of real space;
An information display unit for displaying the object in the user's field of view;
An audio output unit;
A communication unit,
It further has a means for supporting behavior, which has an artificial intelligence (AI) function and is customized for each user,
The means for supporting the behavior learns the support items and the support method suitable for the user's personal preference through the selection of unnecessary data based on the usage history, and continuously improves the accuracy of the artificial intelligence of the means for supporting the behavior. Including means to improve,
The functional growth of the artificial intelligence and the change in the appearance of the object are detected by the environment information in the real space read from the image in the user's line-of-sight direction taken by the camera of the wearable information display terminal or the plurality of multi-axis sensors. Including changes to the image data generated by changing or interpolating the apparent expression data in conjunction with the detected user's exercise information, position information, and the amount of communication data corresponding to the usage history, A wearable information display terminal, wherein a part or all of the image data is displayed in augmented reality in the viewing direction.
前記オブジェクトの外見上の変化は、通算の通信データ量Dが下記数式1に示す所定の通信データ量の倍数であるしきい値Dtに到達する毎に、段階的に変化することを特徴とする請求項1または3に記載のウェアラブル情報表示端末。
[数1]
Dt=m×D1
(ここで、mは1以上の整数であり、D1は予め設定された所定の通信データ量である)
Change in appearance of the object, every time communication data amount D of total reaches the threshold Dt m is a multiple of a predetermined communication data amount shown in the following Equation 1, and characterized in that changes stepwise The wearable information display terminal according to claim 1 or 3.
[Equation 1]
Dt m = m × D1
(Here, m is an integer of 1 or more, and D1 is a predetermined communication data amount set in advance)
ユーザの周辺状況またはユーザ入力に基づいて、前記人工知能によりユーザの個人選好に適合する行動を支援する手段を判定し、前記判定に基づいて行動支援プログラムによる行動支援を実行するか、またはコンシェルジュサポートを行う外部の支援サイトに前記ウェアラブル情報表示端末を接続するかを選択する手段をさらに備え、
前記選択する手段は、ユーザからの選択入力により接続先を切り替えるか、またはユーザのオーダー数が所定の数値を超えた場合もしくはシステムによる回答が一定数量以下に絞り込めない場合に、強制的に外部のコンシェルジュサポートに接続する手段を備えることを特徴とする請求項3に記載のウェアラブル情報表示端末。
Based on the user's surroundings or user input, the artificial intelligence determines a means for supporting the action that matches the user's personal preference, and based on the determination, action support by the action support program is executed, or concierge support Further comprising means for selecting whether to connect the wearable information display terminal to an external support site
The means for selecting is forcibly external when the connection destination is switched by a selection input from the user, or when the number of orders of the user exceeds a predetermined numerical value or when the answer by the system cannot be narrowed down to a certain number or less. The wearable information display terminal according to claim 3, further comprising means for connecting to the concierge support.
前記表示制御部は、人間の知覚視野角と、オブジェクトとの相対位置及び距離とに応じて、描画の停止または拡張現実で表示するための画像変換処理を停止して、画像データの演算処理に必要なメモリ使用量を制御するようにオブジェクトの表示制御を行うことを特徴とする請求項1乃至4のいずれか一項に記載のウェアラブル情報表示端末。   The display control unit stops drawing conversion or image conversion processing for displaying in augmented reality according to a human perceived viewing angle and a relative position and distance to an object, and calculates image data. The wearable information display terminal according to any one of claims 1 to 4, wherein display control of an object is performed so as to control a necessary memory usage amount. 請求項1乃至3のいずれか一項に記載のウェアラブル情報表示端末及び管理サーバで構成されるシステムであって、前記ウェアラブル情報表示端末は、ネットワークを介して接続された管理サーバまたは前記ウェアラブル情報表示端末に含まれる所定の機能が実行されるように構成されることを特徴とするウェアラブル情報表示端末を備えるシステム。   A system comprising the wearable information display terminal according to any one of claims 1 to 3 and a management server, wherein the wearable information display terminal is a management server or the wearable information display connected via a network. A system comprising a wearable information display terminal configured to execute a predetermined function included in a terminal. 前記管理サーバまたは前記ウェアラブル情報表示端末は、
ユーザ毎の個人識別データ、過去の利用履歴データ、個人選択された設定情報、及びオブジェクトの表現データを保管する情報記憶部と、
前記ウェアラブル情報表示端末の入力部から受信した要求入力に基づいて所定の機能を実現させるための制御部と、
前記ウェアラブル情報表示端末の入力部から受信したセンシングデータ、画像データに基づく当該端末の位置データ、及び視線方向の画像データを獲得する位置検出部と、
所定のアルゴリズムを利用して前記獲得された位置データ及び視線方向の画像データ並びに前記情報記憶部に保管されたユーザ毎の過去の当該システム利用履歴データに基づき、前記ウェアラブル情報表示端末を装着しているユーザに提供する関連情報をネットワークサーバから収集するデータ検索部と、
前記ウェアラブル情報表示端末上で作り出されて実空間のユーザと対話するオブジェクトをユーザに表示するための画像データを生成する拡張現実画像処理部と、
前記所定の機能を実現させた結果またはユーザに提供する関連情報を前記オブジェクトの画像データとともに所定の表示形態で前記ウェアラブル情報表示端末に表示させるように制御する画像処理部とを備え、
前記管理サーバまたはウェアラブル情報表示端末は、各ユーザの過去の利用履歴データに基づいて前記所定の機能及びオブジェクトの構成データをユーザ毎に更新することを特徴とする請求項7に記載のウェアラブル情報表示端末を備えるシステム。
The management server or the wearable information display terminal is
An information storage unit for storing personal identification data for each user, past usage history data, personally selected setting information, and object expression data;
A control unit for realizing a predetermined function based on a request input received from the input unit of the wearable information display terminal;
Sensing data received from the input unit of the wearable information display terminal, position data of the terminal based on the image data, and a position detection unit for acquiring image data in the line-of-sight direction;
The wearable information display terminal is mounted based on the acquired position data and image data in the line-of-sight direction using a predetermined algorithm and the system usage history data for each user stored in the information storage unit. A data search unit that collects related information to be provided to existing users from a network server;
An augmented reality image processing unit that generates image data for displaying to the user an object that is created on the wearable information display terminal and interacts with the user in real space;
An image processing unit that controls the display of the result of realizing the predetermined function or the related information provided to the user together with the image data of the object on the wearable information display terminal in a predetermined display form;
The wearable information display according to claim 7, wherein the management server or the wearable information display terminal updates the predetermined function and object configuration data for each user based on past usage history data of each user. A system comprising a terminal.
前記ウェアラブル情報表示端末から前記管理サーバに送信されたデータ量に基づいて、前記識別されたユーザ毎にシステム利用料の課金データを更新することを特徴とする請求項7に記載のウェアラブル情報表示端末を備えるシステム。   8. The wearable information display terminal according to claim 7, wherein billing data of a system usage fee is updated for each identified user based on a data amount transmitted from the wearable information display terminal to the management server. A system comprising: 前記ウェアラブル情報表示端末の入力部は、個人認証のための生体情報データを取得するセンサをさらに有し、
前記管理サーバは、前記ウェアラブル情報表示端末の入力部から受信した前記生体情報データに基づき、前記ウェアラブル情報表示端末を装着しているユーザを認証して、前記認証されたユーザに前記情報記憶部へのアクセスを許可することを特徴とする請求項7に記載のウェアラブル情報表示端末を備えるシステム。
The input unit of the wearable information display terminal further includes a sensor that acquires biometric information data for personal authentication,
The management server authenticates a user wearing the wearable information display terminal based on the biological information data received from the input unit of the wearable information display terminal, and sends the authenticated user to the information storage unit. The system comprising the wearable information display terminal according to claim 7, wherein the access is permitted.
前記オブジェクトの表現データは、前記オブジェクトの外観、表情、及び所作を表示する画像データと前記オブジェクトの音声データとを含むことを特徴とする請求項7に記載のウェアラブル情報表示端末を備えるシステム。   8. The system having a wearable information display terminal according to claim 7, wherein the expression data of the object includes image data for displaying an appearance, a facial expression, and an action of the object and sound data of the object. 前記オブジェクトは、前記ウェアラブル情報表示端末を装着したユーザの視界内で等身大に視認されるように表示されることを特徴とする請求項7に記載のウェアラブル情報表示端末を備えるシステム。   The system including the wearable information display terminal according to claim 7, wherein the object is displayed so as to be viewed in a life-size manner within a field of view of a user wearing the wearable information display terminal. 前記ウェアラブル情報表示端末は、前記ウェアラブル情報表示端末を装着したユーザの使用状態に応じて異なる動作モードに設定され、
前記異なる動作モードは、前記入力部のカメラ、マイク、タッチパネル、または多軸センサが動作する状態である通常モード並びに前記入力部のカメラ、マイク、タッチパネル、または多軸センサが停止状態であるプライバシーモードを含むことを特徴とする請求項7に記載のウェアラブル情報表示端末を備えるシステム。
The wearable information display terminal is set to a different operation mode according to a use state of a user wearing the wearable information display terminal,
The different operation modes include a normal mode in which the camera, microphone, touch panel, or multi-axis sensor of the input unit operates, and a privacy mode in which the camera, microphone, touch panel, or multi-axis sensor of the input unit is in a stopped state. The system comprising the wearable information display terminal according to claim 7.
複数の前記ウェアラブル情報表示端末が前記システムを相互利用する場合、第1の使用者のウェアラブル情報表示端末に保有されて第1の使用者が視認しているオブジェクトデータを第2の使用者のウェアラブル情報表示端末に表示する際に、第2の使用者のウェアラブル情報表示端末に表示されるオブジェクトデータを、前記第1及び第2の使用者のウェアラブル情報表示端末間の直接的なデータ交換またはサーバを介したデータ交換によって転送することを特徴とする請求項7に記載のウェアラブル情報表示端末を備えるシステム。   When a plurality of the wearable information display terminals mutually use the system, the second user's wearable object data held in the wearable information display terminal of the first user and viewed by the first user When data is displayed on the information display terminal, object data displayed on the wearable information display terminal of the second user is directly exchanged between the first and second user wearable information display terminals or a server. The system comprising the wearable information display terminal according to claim 7, wherein the data is transferred by data exchange via a network.
JP2016238874A 2016-12-08 2016-12-08 Wearable information display terminal and system including the same Pending JP2018097437A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016238874A JP2018097437A (en) 2016-12-08 2016-12-08 Wearable information display terminal and system including the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016238874A JP2018097437A (en) 2016-12-08 2016-12-08 Wearable information display terminal and system including the same

Publications (1)

Publication Number Publication Date
JP2018097437A true JP2018097437A (en) 2018-06-21

Family

ID=62633295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016238874A Pending JP2018097437A (en) 2016-12-08 2016-12-08 Wearable information display terminal and system including the same

Country Status (1)

Country Link
JP (1) JP2018097437A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020026871A1 (en) * 2018-07-31 2020-02-06 株式会社 情報システムエンジニアリング Information providing system and information providing method
WO2020032239A1 (en) * 2018-08-09 2020-02-13 株式会社ジオクリエイツ Information output device, design assistance system, information output method, and information output program
WO2020059157A1 (en) * 2018-09-20 2020-03-26 株式会社ソニー・インタラクティブエンタテインメント Display system, program, display method, and head-mounted device
KR20200087332A (en) * 2018-12-28 2020-07-21 주식회사 딥엑스 Method for providing shopping information on each product and electronic device for executing the method
WO2020166372A1 (en) * 2019-02-15 2020-08-20 ソニー株式会社 Data processing device and display control method
JP2021100231A (en) * 2019-12-24 2021-07-01 湯田 秋夫 Ai assistant in glasses and storage aid for image recognition function
CN114760440A (en) * 2022-03-22 2022-07-15 浙江大学 Visual monitoring glasses
US11520823B2 (en) 2019-03-29 2022-12-06 Information System Engineering Inc. Information providing system and information providing method
US11520822B2 (en) 2019-03-29 2022-12-06 Information System Engineering Inc. Information providing system and information providing method
US11651023B2 (en) 2019-03-29 2023-05-16 Information System Engineering Inc. Information providing system
JP7360775B2 (en) 2020-11-16 2023-10-13 Kddi株式会社 Smart glasses, program and display control method
WO2024034825A1 (en) * 2022-08-08 2024-02-15 삼성전자주식회사 Method and device for determining content to instruct ar device to display
JP7453192B2 (en) 2021-09-27 2024-03-19 Kddi株式会社 Mobile device, program and method for presenting information based on object recognition according to user's dynamic state

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276610A (en) * 1999-03-26 2000-10-06 Mr System Kenkyusho:Kk User interface method, information processor and program storing medium
JP2002251236A (en) * 2001-02-22 2002-09-06 Mitsui & Co Ltd Network service system
US20140015858A1 (en) * 2012-07-13 2014-01-16 ClearWorld Media Augmented reality system
JP2014174589A (en) * 2013-03-06 2014-09-22 Mega Chips Corp Augmented reality system, program and augmented reality provision method
JP2014203175A (en) * 2013-04-02 2014-10-27 キヤノン株式会社 Information processing device, information processing method, and program
JP2015166816A (en) * 2014-03-04 2015-09-24 富士通株式会社 Display device, display control program, and display control method
US20160041388A1 (en) * 2014-08-11 2016-02-11 Seiko Epson Corporation Head mounted display, information system, control method for head mounted display, and computer program
WO2016117061A1 (en) * 2015-01-22 2016-07-28 株式会社野村総合研究所 Wearable terminal and information processing system using same

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276610A (en) * 1999-03-26 2000-10-06 Mr System Kenkyusho:Kk User interface method, information processor and program storing medium
JP2002251236A (en) * 2001-02-22 2002-09-06 Mitsui & Co Ltd Network service system
US20140015858A1 (en) * 2012-07-13 2014-01-16 ClearWorld Media Augmented reality system
JP2014174589A (en) * 2013-03-06 2014-09-22 Mega Chips Corp Augmented reality system, program and augmented reality provision method
JP2014203175A (en) * 2013-04-02 2014-10-27 キヤノン株式会社 Information processing device, information processing method, and program
JP2015166816A (en) * 2014-03-04 2015-09-24 富士通株式会社 Display device, display control program, and display control method
US20160041388A1 (en) * 2014-08-11 2016-02-11 Seiko Epson Corporation Head mounted display, information system, control method for head mounted display, and computer program
WO2016117061A1 (en) * 2015-01-22 2016-07-28 株式会社野村総合研究所 Wearable terminal and information processing system using same

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
穴吹まほろ、外1名: ""複合現実空間に存在する擬人化エージェントの実現"", 情報処理学会論文誌, vol. 第42巻,第7号, JPN6020037948, July 2001 (2001-07-01), JP, pages 1957 - 1966, ISSN: 0004362417 *

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020021287A (en) * 2018-07-31 2020-02-06 株式会社 情報システムエンジニアリング System and method for providing information
WO2020026871A1 (en) * 2018-07-31 2020-02-06 株式会社 情報システムエンジニアリング Information providing system and information providing method
US11341714B2 (en) 2018-07-31 2022-05-24 Information System Engineering Inc. Information service system and information service method
US11798597B2 (en) 2018-08-09 2023-10-24 Geocreates, Inc. Information output apparatus, information output method and design support system
WO2020032239A1 (en) * 2018-08-09 2020-02-13 株式会社ジオクリエイツ Information output device, design assistance system, information output method, and information output program
WO2020059157A1 (en) * 2018-09-20 2020-03-26 株式会社ソニー・インタラクティブエンタテインメント Display system, program, display method, and head-mounted device
US11906740B2 (en) 2018-09-20 2024-02-20 Sony Interactive Entertainment Inc. Display system, program, display method, and head mounted device
KR20200087332A (en) * 2018-12-28 2020-07-21 주식회사 딥엑스 Method for providing shopping information on each product and electronic device for executing the method
KR102151006B1 (en) * 2018-12-28 2020-09-02 주식회사 딥엑스 Method for providing shopping information on each product and electronic device for executing the method
CN113316799A (en) * 2018-12-28 2021-08-27 蒂普爱可斯有限公司 Method for providing shopping information per individual product and electronic device for performing the same
WO2020166372A1 (en) * 2019-02-15 2020-08-20 ソニー株式会社 Data processing device and display control method
US11520823B2 (en) 2019-03-29 2022-12-06 Information System Engineering Inc. Information providing system and information providing method
US11520822B2 (en) 2019-03-29 2022-12-06 Information System Engineering Inc. Information providing system and information providing method
US11651023B2 (en) 2019-03-29 2023-05-16 Information System Engineering Inc. Information providing system
US11934446B2 (en) 2019-03-29 2024-03-19 Information System Engineering Inc. Information providing system
JP2021100231A (en) * 2019-12-24 2021-07-01 湯田 秋夫 Ai assistant in glasses and storage aid for image recognition function
JP7360775B2 (en) 2020-11-16 2023-10-13 Kddi株式会社 Smart glasses, program and display control method
JP7453192B2 (en) 2021-09-27 2024-03-19 Kddi株式会社 Mobile device, program and method for presenting information based on object recognition according to user's dynamic state
CN114760440A (en) * 2022-03-22 2022-07-15 浙江大学 Visual monitoring glasses
WO2024034825A1 (en) * 2022-08-08 2024-02-15 삼성전자주식회사 Method and device for determining content to instruct ar device to display

Similar Documents

Publication Publication Date Title
JP2018097437A (en) Wearable information display terminal and system including the same
US10132633B2 (en) User controlled real object disappearance in a mixed reality display
CN104919398B (en) The vision system of wearable Behavior-based control
US9285871B2 (en) Personal audio/visual system for providing an adaptable augmented reality environment
US9696547B2 (en) Mixed reality system learned input and functions
RU2670784C2 (en) Orientation and visualization of virtual object
US9229231B2 (en) Updating printed content with personalized virtual data
US20160086382A1 (en) Providing location occupancy analysis via a mixed reality device
US9182815B2 (en) Making static printed content dynamic with virtual data
US9035970B2 (en) Constraint based information inference
US9390561B2 (en) Personal holographic billboard
US20130083007A1 (en) Changing experience using personal a/v system
US20150220231A1 (en) Synchronizing virtual actor&#39;s performances to a speaker&#39;s voice
Manduchi et al. (Computer) vision without sight
CN105009039A (en) Direct hologram manipulation using IMU
JP5714855B2 (en) Image generation system, program, and information storage medium
US20130083008A1 (en) Enriched experience using personal a/v system
US20130307855A1 (en) Holographic story telling
JP2019535059A (en) Sensory eyewear
US20140160157A1 (en) People-triggered holographic reminders
US20130342564A1 (en) Configured virtual environments
US20140002495A1 (en) Multi-node poster location
CN103917913A (en) Method to autofocus on near-eye display
CN103076875A (en) Personal audio/visual system with holographic objects
JP2018082363A (en) Head-mounted display device and method for controlling the same, and computer program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20180117

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210629

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20211019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20211019

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220104