JP2022187072A - Wearable device - Google Patents

Wearable device Download PDF

Info

Publication number
JP2022187072A
JP2022187072A JP2021094880A JP2021094880A JP2022187072A JP 2022187072 A JP2022187072 A JP 2022187072A JP 2021094880 A JP2021094880 A JP 2021094880A JP 2021094880 A JP2021094880 A JP 2021094880A JP 2022187072 A JP2022187072 A JP 2022187072A
Authority
JP
Japan
Prior art keywords
interlocutor
processing unit
wearable device
line
wearer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021094880A
Other languages
Japanese (ja)
Inventor
永吾 稲葉
Eigo Inaba
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Corp
Original Assignee
Yazaki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Corp filed Critical Yazaki Corp
Priority to JP2021094880A priority Critical patent/JP2022187072A/en
Publication of JP2022187072A publication Critical patent/JP2022187072A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To provide a wearable device capable of properly assisting communication.SOLUTION: A wearable device 1 includes: a display body 10 capable of displaying information in a visual field of a wearer 100 while being worn on a head 102 of a human body 101; a voice input unit 60 that is provided in the display body 10 and is capable of inputting a voice of a dialogist; and a processing unit 80 that is provided in the display body 10, and can perform processing of converting a voice input by the voice input unit 60 into visual information and processing of causing the converted visual information to be displayed on the display body. As a result, the wearable device 1 has an effect of being able to appropriately assist communication.SELECTED DRAWING: Figure 1

Description

本発明は、ウェアラブル機器に関する。 The present invention relates to wearable devices.

従来のウェアラブル機器として、例えば、特許文献1には、視聴用のキャプションを表示するシステムが開示されている。このシステムは、異なるスペクトル範囲と実質的に相補的な偏光とによって、異なるカラーの少なくとも1つにより少なくとも2つのキャプションを表示するディスプレイを有する。 As a conventional wearable device, for example, Patent Literature 1 discloses a system for displaying captions for viewing. The system has a display displaying at least two captions with at least one of different colors with different spectral ranges and substantially complementary polarizations.

特表2014-508962号公報Japanese Patent Publication No. 2014-508962

ところで、このようなウェアラブル機器は、例えば、聴覚障害者のコミュニケーションの補助等の用途での使用も望まれている。 By the way, such wearable devices are also desired to be used for purposes such as assisting communication for hearing-impaired persons, for example.

本発明は、上記の事情に鑑みてなされたものであって、適正にコミュニケーションを補助することができるウェアラブル機器を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a wearable device capable of appropriately assisting communication.

上記目的を達成するために、本発明のウェアラブル機器は、人体の頭部に装着された状態で、装着者の視界に情報を表示可能である表示器本体と、前記表示器本体に設けられ、対話者の音声を入力可能である音声入力部と、前記表示器本体に設けられ、前記音声入力部によって入力された前記音声を視覚情報に変換する処理、及び、変換した当該視覚情報を前記表示器本体に表示させる処理を実行可能である処理部とを備えることを特徴とする。 In order to achieve the above object, the wearable device of the present invention includes a display body capable of displaying information in the field of view of the wearer when worn on the head of a human body, and provided in the display body, a voice input unit capable of inputting the voice of the interlocutor; a process of converting the voice input by the voice input unit provided in the display body into visual information; and displaying the converted visual information. and a processing unit capable of executing processing for displaying on the device main body.

本発明に係るウェアラブル機器は、音声入力部によって入力された対話者の音声を、処理部による処理に応じて視覚情報に変換する。そして、ウェアラブル機器は、処理部による処理に応じて、頭部に装着された状態で装着者の視界に情報を表示可能である表示器本体に当該視覚情報を表示させる。この結果、ウェアラブル機器は、適正にコミュニケーションを補助することができる、という効果を奏する。 The wearable device according to the present invention converts the interlocutor's voice input by the voice input unit into visual information according to the processing by the processing unit. Then, the wearable device displays the visual information on the display main body, which is capable of displaying information in the field of view of the wearer when the wearable device is worn on the head, according to the processing by the processing unit. As a result, the wearable device has the effect of being able to properly assist communication.

図1は、実施形態に係るウェアラブル機器の概略構成を表す模式図である。FIG. 1 is a schematic diagram showing a schematic configuration of a wearable device according to an embodiment. 図2は、実施形態に係るウェアラブル機器の概略構成を表すブロック図である。FIG. 2 is a block diagram showing a schematic configuration of the wearable device according to the embodiment; 図3は、実施形態に係るウェアラブル機器における表示の一例を表す模式図である。FIG. 3 is a schematic diagram illustrating an example of display in the wearable device according to the embodiment; 図4は、実施形態に係るウェアラブル機器における視線検出について説明する模式図である。FIG. 4 is a schematic diagram illustrating line-of-sight detection in the wearable device according to the embodiment. 図5は、実施形態に係るウェアラブル機器における視線検出について説明する模式図である。FIG. 5 is a schematic diagram illustrating line-of-sight detection in the wearable device according to the embodiment. 図6は、実施形態に係るウェアラブル機器における輻輳角と距離との関係について説明する模式図である。FIG. 6 is a schematic diagram illustrating the relationship between the angle of convergence and the distance in the wearable device according to the embodiment. 図7は、実施形態に係るウェアラブル機器における輻輳角と距離との関係について説明する模式図である。FIG. 7 is a schematic diagram explaining the relationship between the convergence angle and the distance in the wearable device according to the embodiment. 図8は、実施形態に係るウェアラブル機器における輻輳角と距離との関係について説明する模式図である。FIG. 8 is a schematic diagram explaining the relationship between the convergence angle and the distance in the wearable device according to the embodiment. 図9は、対話者との距離とマイクの指向角との関係の傾向を説明する模式図である。FIG. 9 is a schematic diagram illustrating the tendency of the relationship between the distance to the interlocutor and the directivity angle of the microphone. 図10は、対話者との距離とマイクの指向角との関係の傾向を説明する模式図である。FIG. 10 is a schematic diagram illustrating the tendency of the relationship between the distance to the interlocutor and the directivity angle of the microphone. 図11は、実施形態に係るウェアラブル機器における対話者との距離とマイクの指向角との関係を説明する模式図である。FIG. 11 is a schematic diagram illustrating the relationship between the distance to the interlocutor and the directivity angle of the microphone in the wearable device according to the embodiment. 図12は、実施形態に係るウェアラブル機器における対話者との距離とマイクの指向角との関係を説明する模式図である。FIG. 12 is a schematic diagram illustrating the relationship between the distance to the interlocutor and the directivity angle of the microphone in the wearable device according to the embodiment. 図13は、実施形態に係るウェアラブル機器におけるマイクの指向角の算出方法の一例を説明する模式図である。FIG. 13 is a schematic diagram illustrating an example of a method of calculating the directivity angle of the microphone in the wearable device according to the embodiment; 図14は、実施形態に係るウェアラブル機器における対話者との距離とマイクの指向角との関係を説明する表図である。FIG. 14 is a table for explaining the relationship between the distance to the interlocutor and the directivity angle of the microphone in the wearable device according to the embodiment. 図15は、実施形態に係る実施形態に係るウェアラブル機器の処理部によって行われる処理の一例を示すフローチャートである。15 is a flowchart illustrating an example of processing performed by a processing unit of the wearable device according to the embodiment; FIG. 図16は、実施形態に係る実施形態に係るウェアラブル機器の処理部によって行われる処理の一例を示すフローチャートである。16 is a flowchart illustrating an example of processing performed by a processing unit of the wearable device according to the embodiment; FIG. 図17は、実施形態に係る実施形態に係るウェアラブル機器の処理部によって行われる処理の一例を示すフローチャートである。17 is a flowchart illustrating an example of processing performed by a processing unit of the wearable device according to the embodiment; FIG. 図18は、変形例に係るウェアラブル機器の処理部によって行われる処理の一例を示すフローチャートである。18 is a flowchart illustrating an example of processing performed by the processing unit of the wearable device according to the modification; FIG. 図19は、変形例に係るウェアラブル機器の処理部によって行われる処理の一例を示すフローチャートである。19 is a flowchart illustrating an example of processing performed by the processing unit of the wearable device according to the modification; FIG. 図20は、変形例に係るウェアラブル機器における対話者との距離の算出方法の一例を説明する模式図である。FIG. 20 is a schematic diagram illustrating an example of a method of calculating the distance to the interlocutor in the wearable device according to the modification. 図21は、変形例に係るウェアラブル機器における表示の一例を表す模式図である。FIG. 21 is a schematic diagram showing an example of display in the wearable device according to the modification.

以下に、本発明に係る実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。 EMBODIMENT OF THE INVENTION Below, embodiment which concerns on this invention is described in detail based on drawing. In addition, this invention is not limited by this embodiment. In addition, components in the following embodiments include components that can be easily replaced by those skilled in the art, or components that are substantially the same.

[実施形態]
図1、図2、図3に示す本実施形態のウェアラブル機器1は、人体101の頭部102に装着され、装着者100の視界に種々の情報を表示するスマートグラスを構成するものである。本実施形態のウェアラブル機器1は、集音した音声を視覚情報VIに変換し、当該変換した視覚情報VIを装着者100の視界に表示することで、聴覚障害者のコミュニケーションを適正に補助することができるツールを実現する。典型的には、本実施形態のウェアラブル機器1は、視線検出機能、音声認識機能、及び、情報表示機能を有し、装着者100の視線を検出し、視線の方向に位置する対話者200(図6等参照)の音声を認識して、スマートグラスの表面に字幕等による視覚情報VIを表示させる。以下、図1を参照してウェアラブル機器1の各構成について詳細に説明する。
[Embodiment]
The wearable device 1 of the present embodiment shown in FIGS. 1, 2, and 3 constitutes smart glasses that are worn on the head 102 of the human body 101 and display various information in the visual field of the wearer 100. FIG. The wearable device 1 of the present embodiment converts the collected sound into visual information VI and displays the converted visual information VI in the field of view of the wearer 100, thereby appropriately assisting the communication of the hearing impaired. Realize a tool that can Typically, the wearable device 1 of this embodiment has a line-of-sight detection function, a voice recognition function, and an information display function, detects the line of sight of the wearer 100, and detects the line of sight of the interlocutor 200 ( 6, etc.), and displays visual information VI such as subtitles on the surface of the smart glasses. Hereinafter, each configuration of the wearable device 1 will be described in detail with reference to FIG.

具体的には、ウェアラブル機器1は、図1、図2に示すように、表示器本体10と、電源20と、装着センサ30と、視線検出部としての視線検出センサ40と、外向きカメラ50と、音声入力部としてのマイク60と、記憶部70と、処理部80とを備える。電源20、装着センサ30、視線検出センサ40、外向きカメラ50、マイク60、記憶部70、及び、処理部80は、表示器本体10に設けられ、相互に通信可能に接続されている。 Specifically, as shown in FIGS. 1 and 2, the wearable device 1 includes a display main body 10, a power supply 20, an attached sensor 30, a line-of-sight detection sensor 40 as a line-of-sight detection unit, and an outward facing camera 50. , a microphone 60 as an audio input unit, a storage unit 70 and a processing unit 80 . The power source 20, the mounting sensor 30, the line-of-sight detection sensor 40, the outward facing camera 50, the microphone 60, the storage section 70, and the processing section 80 are provided in the display main body 10 and connected so as to be able to communicate with each other.

表示器本体10は、人体101の頭部102に装着可能なヘッドマウントディスプレイ(HMD)方式のメガネ型表示デバイスである。表示器本体10は、人体101の頭部102に装着された状態で、装着者100の視界に情報を表示可能である。 The display main body 10 is a head-mounted display (HMD) type glasses type display device that can be worn on the head 102 of the human body 101 . The display main body 10 can display information in the visual field of the wearer 100 while being worn on the head 102 of the human body 101 .

具体的には、表示器本体10は、透明ディスプレイ11、及び、フレーム12を含んで構成される。 Specifically, the display body 10 includes a transparent display 11 and a frame 12 .

透明ディスプレイ11は、視覚情報VIを表示可能であり、ウェアラブル機器1における視覚情報VIの表示面を構成する。透明ディスプレイ11は、当該透明ディスプレイ11越しに背景を視認可能な程度に高い透明性を有している。透明ディスプレイ11は、例えば、液晶ディスプレイ、有機ELディスプレイ等によって構成される。ここでは、透明ディスプレイ11は、装着者100の右の眼球103Rに対応した右ディスプレイ11R、及び、装着者100の左の眼球103Lに対応した左ディスプレイ11Lを含んで構成される。 The transparent display 11 can display the visual information VI, and constitutes the display surface of the visual information VI in the wearable device 1 . The transparent display 11 has such high transparency that the background can be seen through the transparent display 11 . The transparent display 11 is configured by, for example, a liquid crystal display, an organic EL display, or the like. Here, the transparent display 11 includes a right display 11R corresponding to the wearer's 100 right eyeball 103R and a left display 11L corresponding to the wearer's 100 left eyeball 103L.

フレーム12は、人体101の頭部102に装着され、透明ディスプレイ11を装着者100の視界に支持する構造体であり、弦や枠等を含んで構成される。フレーム12は、右ディスプレイ11Rを装着者100の右の眼球103Rと対向する位置に支持し、左ディスプレイ11Lを装着者100の左の眼球103Lと対向する位置に支持する。フレーム12は、ウェアラブル機器1を構成する電源20、装着センサ30、視線検出センサ40、外向きカメラ50、マイク60、記憶部70、処理部80等の各部が組み付けられる。 The frame 12 is a structure that is mounted on the head 102 of the human body 101 and supports the transparent display 11 in the visual field of the wearer 100, and includes strings, a frame, and the like. The frame 12 supports the right display 11R at a position facing the wearer's 100 right eyeball 103R, and supports the left display 11L at a position facing the wearer's 100 left eyeball 103L. The frame 12 is assembled with the power source 20 , the wearable sensor 30 , the line-of-sight sensor 40 , the outward camera 50 , the microphone 60 , the storage unit 70 , the processing unit 80 , etc., which constitute the wearable device 1 .

上記構成により、表示器本体10は、フレーム12が人体101の頭部102に装着された状態で、透明ディスプレイ11越しの背景に重畳させて当該透明ディスプレイ11上に視覚情報VIを表示することで、当該視覚情報VIを装着者100の視界に表示可能である。図3に例示するように、透明ディスプレイ11によって装着者100の視界に表示する視覚情報VIは、例えば、対話者200(図6等参照)の音声に対応した文字列(テキスト)を表す文字画像情報VI1を含む。なお、透明ディスプレイ11は、上記に限らず、例えば、網膜投射型のディスプレイ等によって構成されてもよい。 With the above configuration, the display main body 10 displays the visual information VI on the transparent display 11 in a state where the frame 12 is attached to the head 102 of the human body 101, superimposed on the background through the transparent display 11. , the visual information VI can be displayed in the field of view of the wearer 100 . As illustrated in FIG. 3, the visual information VI displayed in the visual field of the wearer 100 by the transparent display 11 is, for example, a character image representing a character string (text) corresponding to the voice of the interlocutor 200 (see FIG. 6, etc.). Contains information VI1. Note that the transparent display 11 is not limited to the above, and may be configured by, for example, a retinal projection type display or the like.

電源20は、ウェアラブル機器1の電力源である。電源20は、リチウムイオン電池等の充放電可能な二次電池等を含んで構成され、ウェアラブル機器1内の各部に対して電力を供給する。 A power source 20 is a power source for the wearable device 1 . The power supply 20 includes a chargeable/dischargeable secondary battery such as a lithium ion battery, and supplies power to each unit in the wearable device 1 .

装着センサ30は、ウェアラブル機器1が人体101の頭部102に装着されていることを検出可能な検出器である。装着センサ30は、例えば、温度検知や発汗検知を行う検出器によって構成される。装着センサ30は、温度検知や発汗検知に基づいてフレーム12が装着者100の頭部102に触れていることを検出することで、ウェアラブル機器1が頭部102に装着されていることを検出する。 The wearing sensor 30 is a detector capable of detecting that the wearable device 1 is worn on the head 102 of the human body 101 . The wearing sensor 30 is configured by, for example, a detector that detects temperature and perspiration. The wearing sensor 30 detects that the wearable device 1 is worn on the head 102 of the wearer 100 by detecting that the frame 12 is in contact with the head 102 of the wearer 100 based on temperature detection and perspiration detection. .

視線検出センサ40は、装着者100の視線を検出可能な検出器である。視線検出センサ40は、例えば、フレーム12の中央の弦部分に設けられる。視線検出センサ40は、例えば、図4に例示するように、内向きカメラ41によって構成される。内向きカメラ41は、装着者100の眼球103L、103Rを撮像可能な撮像器である。視線検出センサ40を構成する内向きカメラ41は、図5に示すように、眼球103L、103Rの瞳孔103aとプルキニエ像(角膜表面における反射光)103bを検出することで、瞳孔-角膜反射法により装着者100の視線検出を可能とする。なお、視線検出センサ40は、上記に限らず、例えば、フレーム12の中央の弦部分に内蔵され眼球運動に伴う目の周りの電位差を検出することで、装着者100の視線検出を行う眼電位センサによって構成されてもよい。 The line-of-sight detection sensor 40 is a detector capable of detecting the line of sight of the wearer 100 . The line-of-sight detection sensor 40 is provided, for example, on a string portion in the center of the frame 12 . The line-of-sight detection sensor 40 is configured by, for example, an inward camera 41 as illustrated in FIG. 4 . The inward facing camera 41 is an imaging device capable of imaging the eyeballs 103L and 103R of the wearer 100 . As shown in FIG. 5, the inward facing camera 41 that constitutes the line of sight detection sensor 40 detects the pupils 103a of the eyeballs 103L and 103R and the Purkinje image (reflected light on the corneal surface) 103b, thereby detecting the The line of sight of the wearer 100 can be detected. Note that the line-of-sight detection sensor 40 is not limited to the above. It may be configured by a sensor.

外向きカメラ50は、装着者100の眼球103L、103R側とは反対側を撮像可能な撮像器である。言い換えれば、外向きカメラ50は、透明ディスプレイ11越しに装着者100の視線が向う側を撮像する。外向きカメラ50は、例えば、フレーム12の端部に設けられる。 The outward facing camera 50 is an imaging device capable of imaging the side opposite to the eyeballs 103L and 103R of the wearer 100 . In other words, the outward facing camera 50 captures the side of the wearer's 100 line of sight through the transparent display 11 . An outward facing camera 50 is provided, for example, at an end of the frame 12 .

マイク60は、対話者200の音声を入力可能な集音器である。マイク60は、集音方向、及び、指向角α(図11等参照)を変更可能な指向性マイクである。ここで、指向角αとは、集音可能な角度範囲を表し、小さいほど当該角度範囲が狭いことを表し、大きいほど当該角度範囲が広いことを表す。マイク60は、例えば、2チャンネル話者追尾型マイクロホンアレーを用いることができる。 Microphone 60 is a sound collector capable of inputting voice of interlocutor 200 . The microphone 60 is a directional microphone that can change the sound collecting direction and the directivity angle α (see FIG. 11, etc.). Here, the directivity angle α represents an angle range in which sound can be collected. The microphone 60 can use, for example, a two-channel speaker-tracking microphone array.

記憶部70は、各種データ(情報)を記憶する記憶回路である。記憶部70は、例えば、ウェアラブル機器1が各種の機能を実現するためのプログラムを記憶する。記憶部70に記憶されるプログラムには、透明ディスプレイ11を機能させるプログラム、電源20を機能させるプログラム、装着センサ30を機能させるプログラム、視線検出センサ40を機能させるプログラム、外向きカメラ50を機能させるプログラム、マイク60を機能させるプログラム、処理部80を機能させるプログラム等が含まれる。また、記憶部70は、処理部80での各種処理に必要なデータ、透明ディスプレイ11で表示するデータ等の各種データを記憶する。記憶部70は、処理部80等によってこれらの各種データが必要に応じて読み出される。なお、記憶部70は、ネットワークを介してウェアラブル機器1に接続されたクラウドサーバ等により実現されてもよい。 The storage unit 70 is a storage circuit that stores various data (information). The storage unit 70 stores, for example, programs for the wearable device 1 to implement various functions. The programs stored in the storage unit 70 include a program that causes the transparent display 11 to function, a program that causes the power source 20 to function, a program that causes the mounting sensor 30 to function, a program that causes the line-of-sight detection sensor 40 to function, and a program that causes the outward facing camera 50 to function. A program, a program that causes the microphone 60 to function, a program that causes the processing section 80 to function, and the like are included. The storage unit 70 also stores various data such as data required for various processes in the processing unit 80 and data to be displayed on the transparent display 11 . These various data are read from the storage unit 70 by the processing unit 80 or the like as necessary. Note that the storage unit 70 may be realized by a cloud server or the like connected to the wearable device 1 via a network.

処理部80は、ウェアラブル機器1における各種処理機能を実現する処理回路である。処理部80は、例えば、プロセッサによって実現される。プロセッサとは、例えば、CPU(Central Processing Unit)等の回路を意味する。処理部80は、例えば、記憶部70から読み込んだプログラムを実行することにより、各処理機能を実現する。 The processing unit 80 is a processing circuit that implements various processing functions in the wearable device 1 . The processing unit 80 is implemented by, for example, a processor. A processor means a circuit such as a CPU (Central Processing Unit), for example. The processing unit 80 implements each processing function by executing a program read from the storage unit 70, for example.

本実施形態に係る処理部80は、マイク60によって入力された音声を視覚情報VIに変換し、変換した当該視覚情報VIを表示器本体10の透明ディスプレイ11に表示させる各種処理を行うための機能を有している。また、本実施形態の処理部80は、視線検出センサ40によって検出された装着者100の視線に基づいて対話者200を特定し、特定された対話者200の位置に基づいてマイク60による集音における指向角αを可変とする各種処理を行うための機能を有している。 The processing unit 80 according to the present embodiment is a function for performing various kinds of processing for converting voice input by the microphone 60 into visual information VI and displaying the converted visual information VI on the transparent display 11 of the display main body 10. have. In addition, the processing unit 80 of the present embodiment identifies the interlocutor 200 based on the line of sight of the wearer 100 detected by the line of sight detection sensor 40, and collects sound with the microphone 60 based on the identified position of the interlocutor 200. It has a function for performing various processes for making the directivity angle α variable.

具体的には、本実施形態の処理部80は、上記各種処理機能を実現するために、機能概念的に、装着検出処理部81、電源制御処理部82、視線検出処理部83、対話者特定処理部84、指向角設定処理部85、音声入力処理部86、変換処理部87、及び、表示制御処理部88を含んで構成される。処理部80は、例えば、記憶部70から読み込んだプログラムを実行することにより、これら装着検出処理部81、電源制御処理部82、視線検出処理部83、対話者特定処理部84、指向角設定処理部85、音声入力処理部86、変換処理部87、及び、表示制御処理部88の各処理機能を実現する。 Specifically, in order to realize the various processing functions described above, the processing unit 80 of the present embodiment functionally conceptually includes an attachment detection processing unit 81, a power supply control processing unit 82, a line-of-sight detection processing unit 83, and an interlocutor identification unit. It includes a processing unit 84 , a directivity angle setting processing unit 85 , a voice input processing unit 86 , a conversion processing unit 87 and a display control processing unit 88 . The processing unit 80 executes a program read from the storage unit 70, for example, to perform the wearing detection processing unit 81, the power supply control processing unit 82, the line-of-sight detection processing unit 83, the interlocutor identification processing unit 84, and the orientation angle setting processing. Each processing function of the unit 85, the voice input processing unit 86, the conversion processing unit 87, and the display control processing unit 88 is realized.

装着検出処理部81は、ウェアラブル機器1が人体101の頭部102に装着されていることを判定する処理を実行可能な機能を有する部分である。装着検出処理部81は、装着センサ30による検出結果に基づいて、ウェアラブル機器1が頭部102に装着されていることを判定する。 The wearing detection processing unit 81 is a part having a function capable of executing processing for determining whether the wearable device 1 is worn on the head 102 of the human body 101 . The wearing detection processing unit 81 determines that the wearable device 1 is worn on the head 102 based on the detection result of the wearing sensor 30 .

電源制御処理部82は、電源20を制御する処理を実行可能な機能を有する部分である。電源制御処理部82は、装着検出処理部81によってウェアラブル機器1が頭部102に装着されていると判定された場合、ウェアラブル機器1の電源20をONとする。一方、電源制御処理部82は、装着検出処理部81によってウェアラブル機器1が頭部102に装着されていないと判定された場合、ウェアラブル機器1の電源20をOFF(最小限の待機状態)とする。この処理により、ウェアラブル機器1は、消費電力を削減することができる。 The power control processing unit 82 is a part having a function capable of executing processing for controlling the power source 20 . When the wearing detection processing unit 81 determines that the wearable device 1 is worn on the head 102 , the power control processing unit 82 turns on the power source 20 of the wearable device 1 . On the other hand, when the wearing detection processing unit 81 determines that the wearable device 1 is not worn on the head 102, the power supply control processing unit 82 turns off the power supply 20 of the wearable device 1 (minimum standby state). . By this processing, the wearable device 1 can reduce power consumption.

視線検出処理部83は、ウェアラブル機器1を装着した装着者100の視線を検出する処理を実行可能な機能を有する部分である。視線検出処理部83は、視線検出センサ40による検出結果に基づいて、装着者100の視線を検出する。ここでは、視線検出処理部83は、視線検出センサ40を構成する内向きカメラ41によって撮像された眼球103L、103Rの画像から瞳孔103a、プルキニエ像103bの位置を検出する。そして、視線検出処理部83は、これら瞳孔103a、プルキニエ像103bの位置に基づいて瞳孔-角膜反射法により装着者100の視線の方向を検出する。 The line-of-sight detection processing unit 83 is a part having a function capable of executing processing for detecting the line of sight of the wearer 100 wearing the wearable device 1 . The line-of-sight detection processing unit 83 detects the line of sight of the wearer 100 based on the detection result of the line-of-sight detection sensor 40 . Here, the line-of-sight detection processing unit 83 detects the positions of the pupil 103a and the Purkinje image 103b from the images of the eyeballs 103L and 103R captured by the inward-looking camera 41 that constitutes the line-of-sight detection sensor 40 . Based on the positions of the pupil 103a and the Purkinje image 103b, the line-of-sight detection processing unit 83 detects the direction of the line of sight of the wearer 100 by the pupil-corneal reflection method.

対話者特定処理部84は、視線検出センサ40によって検出され視線検出処理部83によって処理された装着者100の視線に基づいて対話者200を特定する処理を実行可能な機能を有する部分である。ここでは、対話者特定処理部84は、例えば、人物が人物と話をする場合、一定時間、対話者200を見る傾向を利用し、装着者100の視線が所定時間(例えば、2秒以上)停留した人物を対話者200として特定する。 The interlocutor identification processing unit 84 has a function capable of executing processing for identifying the interlocutor 200 based on the line of sight of the wearer 100 detected by the line of sight detection sensor 40 and processed by the line of sight detection processing unit 83 . Here, for example, when a person talks to a person, the interlocutor identification processing unit 84 utilizes the tendency of the person to look at the interlocutor 200 for a certain period of time, and the line of sight of the wearer 100 is maintained for a certain period of time (for example, two seconds or more). The stopped person is specified as the interlocutor 200 .

本実施形態の対話者特定処理部84は、一例として、装着者100の視線に加えて、外向きカメラ50によって撮像された当該視線が向う側の画像に基づいて対話者200を特定する。対話者特定処理部84は、外向きカメラ50によって撮像された画像から人物を検出し、検出した人物から装着者100の視線の方向に位置する人物を特定する。そして、対話者特定処理部84は、装着者100の視線が当該特定した人物に所定時間(例えば、2秒以上)滞留した場合に、当該人物を対話者200として特定する。 As an example, the interlocutor identification processing unit 84 of the present embodiment identifies the interlocutor 200 based on the line of sight of the wearer 100 and the image of the side to which the line of sight is captured by the outward facing camera 50 . The interlocutor identification processing unit 84 detects a person from the image captured by the outward facing camera 50 and identifies a person positioned in the line of sight of the wearer 100 from the detected person. Then, the interlocutor identification processing unit 84 identifies the person as the interlocutor 200 when the line of sight of the wearer 100 stays at the identified person for a predetermined time (for example, two seconds or longer).

また、本実施形態の対話者特定処理部84は、特定した対話者200の位置に基づいて当該対話者200までの距離を推定する。ここでいう対話者200までの距離とは、装着者100と対話者200との距離であり、概略的には、特定された対話者200とマイク60との距離にも相当する。 Further, the interlocutor identification processing unit 84 of the present embodiment estimates the distance to the interlocutor 200 based on the position of the identified interlocutor 200 . The distance to the interlocutor 200 here is the distance between the wearer 100 and the interlocutor 200 , and roughly corresponds to the distance between the identified interlocutor 200 and the microphone 60 .

ここでは、対話者特定処理部84は、一例として、図6、図7、図8に示すように、視線検出センサ40によって検出され視線検出処理部83によって処理された装着者100の視線に基づいて装着者100の輻輳角θを算出し、算出した当該輻輳角θに基づいて対話者200までの距離Dを推定する。 Here, as an example, the interlocutor identification processing unit 84 is based on the line of sight of the wearer 100 detected by the line of sight detection sensor 40 and processed by the line of sight detection processing unit 83, as shown in FIGS. of the wearer 100 is calculated, and the distance D to the interlocutor 200 is estimated based on the calculated convergence angle θ.

ここでいう装着者100の輻輳角θとは、図6、図7、図8に示すように、装着者100の左の眼球103Lの視線と右の眼球103Rの視線とがなす角度である。なお、この図6、図7、図8中には、瞳孔103aと共に中心窩103cも図示している。対話者特定処理部84は、視線検出センサ40によって検出され視線検出処理部83によって処理された左の眼球103Lの視線の方向と右の眼球103Rの視線の方向とに基づいて装着者100の当該輻輳角θを算出する。なお、視線に基づいて算出される輻輳角θは、装着者100によって個人差があるので、ウェアラブル機器1の使用にあたっては適宜キャリブレーションを実施しておくことが好ましい。 The angle of convergence θ of the wearer 100 referred to here is the angle between the line of sight of the left eyeball 103L and the line of sight of the right eyeball 103R of the wearer 100, as shown in FIGS. 6, 7 and 8 also show the pupil 103a and the central fovea 103c. The interlocutor identification processing unit 84 identifies the subject of the wearer 100 based on the direction of the line of sight of the left eyeball 103L and the direction of the line of sight of the right eyeball 103R detected by the line of sight detection sensor 40 and processed by the line of sight detection processing unit 83. Calculate the convergence angle θ. Note that since the convergence angle θ calculated based on the line of sight varies from person to person depending on the wearer 100, it is preferable to perform calibration as appropriate when using the wearable device 1 .

ここで、図6、図7、図8に示すように、人体は、近くの対話者(物体)200を視る場合、すなわち、対話者200までの距離Dが相対的に短い場合に輻輳角θが相対的に大きくなる傾向にある。逆に、人体は、遠くの対話者(物体)200を視る場合、すなわち、対話者200までの距離Dが相対的に長い場合に輻輳角θが相対的に小さくなる傾向にある。 Here, as shown in FIGS. 6, 7, and 8, when the human body sees a nearby interlocutor (object) 200, that is, when the distance D to the interlocutor 200 is relatively short, the convergence angle θ tends to be relatively large. Conversely, the human body tends to have a relatively small convergence angle θ when viewing a distant interlocutor (object) 200, that is, when the distance D to the interlocutor 200 is relatively long.

対話者特定処理部84は、図6、図7、図8に示すような対話者200までの距離Dと輻輳角θとの傾向を利用し、算出した輻輳角θに基づいて対話者200までの距離Dを推定する。例えば、ウェアラブル機器1は、対話者200までの距離Dと輻輳角θとの傾向を表す数式やテーブルを記憶部70に予め記憶しておく。そして、対話者特定処理部84は、当該数式や当該テーブルに基づいて、輻輳角θから対話者200までの距離Dを算出する。 The interlocutor identification processing unit 84 uses the tendency of the distance D to the interlocutor 200 and the convergence angle θ as shown in FIGS. Estimate the distance D of For example, the wearable device 1 pre-stores in the storage unit 70 a mathematical expression or a table representing the tendency of the distance D to the interlocutor 200 and the convergence angle θ. Then, the interlocutor identification processing unit 84 calculates the distance D to the interlocutor 200 from the convergence angle θ based on the formula and the table.

指向角設定処理部85は、対話者特定処理部84によって特定された対話者200の位置に基づいてマイク60による集音における指向角αを可変とする処理を実行可能な機能を有する部分である。 The directivity angle setting processing unit 85 is a part having a function capable of executing processing for varying the directivity angle α in sound collection by the microphone 60 based on the position of the interlocutor 200 specified by the interlocutor specifying processing unit 84. .

ここで、図9、図10を参照して、対話者200の位置にかかわらず、マイク60の指向角αを固定とした場合について説明する。例えば、マイク60は、図9に例示するように、装着者100からの距離Dが相対的に短く当該装着者100の近くに位置する対話者200Aの肩幅(例えば45~46cm程度)にあわせて指向角αを相対的に大きな値に設定した場合を仮定する。この場合、マイク60は、装着者100からの距離Dが相対的に長く当該装着者100から離れて位置する対話者200Bの音声を集音するに際には、周囲のノイズ(例えば、周囲の人物の音声等)を拾い易い傾向となる。逆に、マイク60は、図10に例示するように、装着者100からの距離Dが相対的に長く当該装着者100から離れて位置する対話者200Bの肩幅にあわせて指向角αを相対的に小さな値に設定した場合を仮定する。この場合、マイク60は、装着者100からの距離Dが相対的に短く当該装着者100の近くに位置する対話者200Aの音声を集音するに際には、対話者200Aの音声を拾い難い傾向となる。 Here, a case where the directivity angle α of the microphone 60 is fixed regardless of the position of the interlocutor 200 will be described with reference to FIGS. 9 and 10. FIG. For example, as illustrated in FIG. 9, the microphone 60 is adapted to the shoulder width (for example, about 45 to 46 cm) of the interlocutor 200A located near the wearer 100 whose distance D from the wearer 100 is relatively short. Assume that the directivity angle α is set to a relatively large value. In this case, when the microphone 60 collects the voice of the interlocutor 200B, who is located away from the wearer 100 at a relatively long distance D from the wearer 100, ambient noise (for example, voice of a person, etc.). Conversely, as illustrated in FIG. 10, the microphone 60 has a relatively long directivity angle α according to the shoulder width of the interlocutor 200B, who is positioned away from the wearer 100 and whose distance D from the wearer 100 is relatively long. is set to a small value. In this case, when the microphone 60 collects the voice of the interlocutor 200A located near the wearer 100 at a relatively short distance D from the wearer 100, it is difficult for the microphone 60 to pick up the voice of the interlocutor 200A. become a trend.

本実施形態の指向角設定処理部85は、マイク60による集音において、対話者200までの距離Dに応じてより好ましい指向角αが異なる、という上記のような傾向に基づいて、マイク60の指向角αを変化させる。すなわちここでは、指向角設定処理部85は、上記のような傾向に基づいて、対話者200の位置に応じて、マイク60の集音方向、及び、指向角αを設定する。この処理により、指向角設定処理部85は、マイク60を介した音声認識率を向上させる。 The directivity angle setting processing unit 85 of the present embodiment, in sound collection by the microphone 60, is based on the above-described tendency that the preferable directivity angle α differs depending on the distance D to the interlocutor 200. Change the directivity angle α. That is, here, the directivity angle setting processing unit 85 sets the sound collecting direction of the microphone 60 and the directivity angle α according to the position of the interlocutor 200 based on the above tendency. By this processing, the directivity angle setting processing unit 85 improves the speech recognition rate through the microphone 60 .

より具体的には、指向角設定処理部85は、上記のような傾向に基づいて、対話者200までの距離Dに応じてマイク60の指向角αを設定する。指向角設定処理部85は、図11、図12に示すように、特定された対話者200とマイク60との距離Dが相対的に長いほど、指向角αを相対的に小さくし、特定された対話者200とマイク60との距離Dが相対的に短いほど、指向角αを相対的に大きくする。 More specifically, the directivity angle setting processing unit 85 sets the directivity angle α of the microphone 60 according to the distance D to the interlocutor 200 based on the above tendency. As shown in FIGS. 11 and 12 , the directivity angle setting processing unit 85 relatively decreases the directivity angle α as the distance D between the identified interlocutor 200 and the microphone 60 is relatively long. The directivity angle α is relatively increased as the distance D between the interlocutor 200 and the microphone 60 is relatively shorter.

人物の肩幅の範囲を全て集音対象範囲に入れるとすると、必要となる指向角αは、上述したようにその人物(対話者200)までの距離Dに応じて変わり、例えば、図13に例示するように、下記の数式(1)を用いて距離Dに応じて定まる。

tan(α/2)=肩幅/2×1/D ・・・ (1)
Assuming that the entire shoulder width range of a person is included in the sound collection target range, the required directivity angle α varies according to the distance D to the person (interlocutor 200) as described above. is determined according to the distance D using the following formula (1).

tan(α/2)=shoulder width/2×1/D (1)

図14は、対話者200までの距離Dと、当該距離Dにおける好適な指向角αとの関係の一例を表した表図である。人物の肩幅は、45~46cm程度と略一定なので、例えば、肩幅を固定値=45cmと仮定すると、指向角αは、距離Dが0.45mである場合は53.1度程度、距離Dが1.2mである場合は21.2度程度、距離Dが3.5mである場合は7.36度程度にとなる。 FIG. 14 is a table showing an example of the relationship between the distance D to the interlocutor 200 and the preferred directivity angle α at the distance D. As shown in FIG. Since the shoulder width of a person is approximately constant at about 45 to 46 cm, for example, assuming that the shoulder width is a fixed value of 45 cm, the directivity angle α is about 53.1 degrees when the distance D is 0.45 m, and the distance D is about 53.1 degrees. When the distance D is 1.2 m, it is about 21.2 degrees, and when the distance D is 3.5 m, it is about 7.36 degrees.

例えば、ウェアラブル機器1は、対話者200までの距離Dと指向角αとの上記のような傾向を表す数式やテーブルを記憶部70に予め記憶しておく。そして、指向角設定処理部85は、当該数式や当該テーブルに基づいて、対話者200までの距離Dから指向角αを算出、設定する。指向角設定処理部85は、距離Dに応じて指向角αをリニアに変更して設定してもよいが、ここでは、距離Dに応じて上記の3つの指向角αを段階的に変更して設定する。 For example, the wearable device 1 pre-stores in the storage unit 70 mathematical formulas and tables representing the above tendencies of the distance D to the interlocutor 200 and the directivity angle α. Then, the directivity angle setting processing unit 85 calculates and sets the directivity angle α from the distance D to the interlocutor 200 based on the formula and the table. The directivity angle setting processing unit 85 may change and set the directivity angle α linearly according to the distance D, but here, the three directivity angles α are changed stepwise according to the distance D. to set.

そして、指向角設定処理部85は、視線の方向、対話者200の位置、距離D等に応じて集音方向、指向角αを設定し、当該設定した集音方向、指向角αに応じた動作指令をマイク60に入力し、当該マイク60を設定した集音方向、指向角αで集音させる。 Then, the directivity angle setting processing unit 85 sets the sound collection direction and the directivity angle α according to the direction of the line of sight, the position of the interlocutor 200, the distance D, etc., and sets the sound collection direction and the directivity angle α An operation command is input to the microphone 60, and the microphone 60 is caused to collect sound in the set sound collection direction and directivity angle α.

この処理により、ウェアラブル機器1は、図11に示すように、装着者100からの距離Dが相対的に短く当該装着者100の近くに位置する対話者200Aの音声を集音するに際には、指向角αが相対的に大きく設定される。これにより、ウェアラブル機器1は、対話者200Aの音声を拾い易くすることができる。一方、ウェアラブル機器1は、図12に示すように、装着者100からの距離Dが相対的に長く当該装着者100から離れて位置する対話者200Bの音声を集音するに際には、指向角αが相対的に小さく設定される。これにより、ウェアラブル機器1は、対話者200Bの周囲のノイズ(例えば、周囲の人物の音声等)を拾い難くすることができる。 As a result of this processing, the wearable device 1, as shown in FIG. , the directivity angle α is set relatively large. Thereby, the wearable device 1 can easily pick up the voice of the interlocutor 200A. On the other hand, as shown in FIG. 12 , when the wearable device 1 collects the voice of the interlocutor 200B who is located away from the wearer 100 at a relatively long distance D from the wearer 100, the directional The angle α is set relatively small. As a result, the wearable device 1 can make it difficult to pick up noise around the interlocutor 200B (for example, voices of people around).

音声入力処理部86は、マイク60を制御し当該マイク60によって音声を入力する処理を実行可能な機能を有する部分である。音声入力処理部86は、指向角設定処理部85によって設定された集音方向、指向角αでマイク60によって集音する。音声入力処理部86は、マイク60によって集音した集音データを一旦記憶回部70に記憶させるようにしてもよい。 The voice input processing unit 86 is a part having a function capable of executing processing for controlling the microphone 60 and inputting voice through the microphone 60 . The voice input processing unit 86 collects sound with the microphone 60 in the sound collection direction and the directivity angle α set by the directivity angle setting processing unit 85 . The voice input processing unit 86 may temporarily store the collected sound data collected by the microphone 60 in the storage unit 70 .

変換処理部87は、マイク60によって入力された音声を視覚情報VIに変換する処理を実行可能な機能を有する部分である。変換処理部87は、指向角設定処理部85によって設定された集音方向、指向角αでマイク60によって集音された音から、音声認識機能(音声認識エンジン)によって対話者200の音声を認識する。そして、変換処理部87は、音声認識した対話者200の音声を視覚情報VIに変換する。ここでは、変換処理部87は、音声認識した対話者200の音声を、対話者200の音声に対応した文字列(テキスト)に変換し、図3に例示したように、視覚情報VIとして、当該文字列を表す文字画像情報VI1を生成する。変換処理部87は、生成した視覚情報VI、ここでは、文字画像情報VI1を一旦記憶回部70に記憶させるようにしてもよい。 The conversion processing unit 87 is a part having a function capable of executing a process of converting voice input by the microphone 60 into visual information VI. The conversion processing unit 87 recognizes the voice of the interlocutor 200 by a voice recognition function (voice recognition engine) from the sound collected by the microphone 60 at the sound collection direction and the directivity angle α set by the directivity angle setting processing unit 85. do. Then, the conversion processing unit 87 converts the recognized voice of the interlocutor 200 into visual information VI. Here, the conversion processing unit 87 converts the voice-recognized voice of the interlocutor 200 into a character string (text) corresponding to the voice of the interlocutor 200, and as illustrated in FIG. Character image information VI1 representing a character string is generated. The conversion processing unit 87 may cause the storage unit 70 to temporarily store the generated visual information VI, here, the character image information VI1.

表示制御処理部88は、変換処理部87によって変換した視覚情報VIを表示器本体10の透明ディスプレイ11に表示させる処理を実行可能な機能を有する部分である。表示制御処理部88は、図3に例示するように、対話者200の音声に対応した視覚情報VIとして、当該音声に対応した文字列を表す文字画像情報VI1を、透明ディスプレイ11によって装着者100の視界に表示させ、対話者200の音声を字幕表示させる。 The display control processing section 88 is a section having a function capable of executing processing for displaying the visual information VI converted by the conversion processing section 87 on the transparent display 11 of the display main body 10 . As illustrated in FIG. 3, the display control processing unit 88 displays character image information VI1 representing a character string corresponding to the voice of the interlocutor 200 as visual information VI corresponding to the voice of the interlocutor 200 through the transparent display 11 to the wearer 100. , and the voice of the interlocutor 200 is subtitled.

次に、図15、図16、図17のフローチャート図を参照して、ウェアラブル機器1おける処理手順について説明する。 Next, a processing procedure in the wearable device 1 will be described with reference to flowcharts of FIGS. 15, 16, and 17. FIG.

まず、図15に示すように、処理部80の装着検出処理部81は、装着センサ30による検出結果に基づいて、装着者100がウェアラブル機器(スマートグラス)1を外したか否か、言い換えれば、ウェアラブル機器1が頭部102に装着されているか否かを判定する(ステップS1)。 First, as shown in FIG. 15, the wearing detection processing unit 81 of the processing unit 80 determines whether or not the wearer 100 has removed the wearable device (smart glasses) 1 based on the detection result of the wearing sensor 30. In other words, , determines whether or not the wearable device 1 is worn on the head 102 (step S1).

処理部80の電源制御処理部82は、装着検出処理部81によって装着者100がウェアラブル機器1を外したと判定された場合(ステップS1:Yes)、言い換えれば、ウェアラブル機器1が頭部102に装着されていないと判定された場合、電源20をOFF(最小限の待機状態)とし、この処理を終了する。 When the wearing detection processing unit 81 determines that the wearer 100 has removed the wearable device 1 (step S1: Yes), in other words, the power control processing unit 82 of the processing unit 80 detects that the wearable device 1 is attached to the head 102. If it is determined that the device is not attached, the power supply 20 is turned off (minimum standby state), and this process ends.

処理部80の視線検出処理部83は、装着検出処理部81によって装着者100がウェアラブル機器1を外していないと判定された場合(ステップS1:No)、言い換えれば、ウェアラブル機器1が頭部102に装着されていると判定された場合、視線検出センサ40による検出結果に基づいて、装着者100の視線を検出したか否かを判定する(ステップS2)。 When the wearing detection processing unit 81 determines that the wearer 100 has not removed the wearable device 1 (step S1: No), in other words, the line-of-sight detection processing unit 83 of the processing unit 80 detects that the wearable device 1 is on the head 102 If it is determined that the wearer 100 has been worn, it is determined whether or not the line of sight of the wearer 100 has been detected based on the detection result of the line of sight detection sensor 40 (step S2).

処理部80は、視線検出処理部83によって装着者100の視線を検出していないと判定された場合(ステップS2:No)、ステップS1に戻って以降の処理を繰り返し実行する。 When the line-of-sight detection processing unit 83 determines that the line-of-sight of the wearer 100 is not detected (step S2: No), the processing unit 80 returns to step S1 and repeats the subsequent processes.

視線検出処理部83は、装着者100の視線を検出したと判定された場合(ステップS2:Yes)、視線検出センサ40による検出結果に基づいて、入力された視線から当該視線の方向を取得する(ステップS3)。 When it is determined that the line of sight of the wearer 100 is detected (step S2: Yes), the line of sight detection processing unit 83 acquires the direction of the line of sight from the input line of sight based on the detection result of the line of sight detection sensor 40. (Step S3).

次に、処理部80の対話者特定処理部84は、視線検出処理部83によって処理された装着者100の視線の方向と、外向きカメラ50によって撮像された画像とに基づいて、当該画像から特定される人物に視線が2秒以上滞留したか否かを判定する(ステップS4)。 Next, the interlocutor identification processing unit 84 of the processing unit 80, based on the line-of-sight direction of the wearer 100 processed by the line-of-sight detection processing unit 83 and the image captured by the outward facing camera 50, It is determined whether or not the line of sight has stayed on the specified person for two seconds or more (step S4).

処理部80は、対話者特定処理部84によって画像から特定される人物に視線が2秒以上滞留していないと判定された場合(ステップS4:No)、ステップS2に戻って以降の処理を繰り返し実行する。 When the interlocutor identification processing unit 84 determines that the line of sight of the person identified from the image has not stayed for two seconds or more (step S4: No), the processing unit 80 returns to step S2 and repeats the subsequent processing. Run.

対話者特定処理部84は、画像から特定される人物に視線が2秒以上滞留したと判定した場合(ステップS4:Yes)、当該人物を対話者200として特定する(ステップS5)。 When the interlocutor identification processing unit 84 determines that the person identified from the image has been gazed at for two seconds or more (step S4: Yes), the interlocutor identification processing unit 84 identifies the person as the interlocutor 200 (step S5).

次に、対話者特定処理部84は、視線検出センサ40による検出結果に基づいて、入力された視線から装着者100の輻輳角θを取得する(ステップS6)。対話者特定処理部84は、左の眼球103Lの視線の方向と右の眼球103Rの視線の方向とに基づいて装着者100の輻輳角θを算出、取得する。 Next, the interlocutor identification processing unit 84 acquires the convergence angle θ of the wearer 100 from the input line of sight based on the detection result of the line of sight detection sensor 40 (step S6). The interlocutor identification processing unit 84 calculates and acquires the convergence angle θ of the wearer 100 based on the direction of the line of sight of the left eyeball 103L and the direction of the line of sight of the right eyeball 103R.

次に、対話者特定処理部84は、取得した装着者100の輻輳角θに基づいて対話者200までの距離Dを推定する(ステップS7)。対話者特定処理部84は、例えば、記憶部70に記憶されている数式やテーブルに基づいて、輻輳角θから対話者200までの距離Dを算出、推定する。 Next, the interlocutor identification processing unit 84 estimates the distance D to the interlocutor 200 based on the obtained convergence angle θ of the wearer 100 (step S7). The interlocutor identification processing unit 84 calculates and estimates the distance D to the interlocutor 200 from the angle of convergence θ based on, for example, mathematical formulas and tables stored in the storage unit 70 .

次に、指向角設定処理部85は、対話者特定処理部84によって推定された対話者200までの距離Dに基づいてマイク60の指向角αを決定する(ステップS8)。指向角設定処理部85は、例えば、記憶部70に記憶されている数式やテーブルに基づいて、対話者200までの距離Dからマイク60の指向角αを決定する。なお、この指向角αの決定フローについては、図17で一例を後述する。 Next, the directivity angle setting processing unit 85 determines the directivity angle α of the microphone 60 based on the distance D to the interlocutor 200 estimated by the interlocutor identification processing unit 84 (step S8). The directivity angle setting processing unit 85 determines the directivity angle α of the microphone 60 from the distance D to the interlocutor 200 based on, for example, mathematical formulas and tables stored in the storage unit 70 . An example of the flow for determining the directivity angle α will be described later with reference to FIG. 17 .

そして、指向角設定処理部85は、視線の方向、対話者200の位置、距離D等に基づいて取得した集音方向、指向角αに応じた動作指令をマイク60に入力する(ステップS9)。 Then, the directivity angle setting processing unit 85 inputs to the microphone 60 an operation command corresponding to the sound collecting direction and the directivity angle α obtained based on the line-of-sight direction, the position of the interlocutor 200, the distance D, etc. (step S9). .

そして、処理部80の音声入力処理部86は、指向角設定処理部85によって設定された集音方向にマイク60を向け、指向角設定処理部85によって設定された指向角αで集音させる(ステップS10)。 Then, the voice input processing unit 86 of the processing unit 80 directs the microphone 60 in the sound collection direction set by the directivity angle setting processing unit 85, and collects sound at the directivity angle α set by the directivity angle setting processing unit 85 ( step S10).

次に、処理部80の変換処理部87は、マイク60によって入力された音声を取得し、公知の音声認識エンジンに入力する(ステップS11)。 Next, the conversion processing unit 87 of the processing unit 80 acquires the voice input by the microphone 60 and inputs it to a known voice recognition engine (step S11).

そして、変換処理部87は、音声認識を実行して、集音された音から対話者200の音声を認識し、音声認識した対話者200の音声を文字列(テキスト)に変換し、視覚情報VIとして、当該文字列を表す文字画像情報VI1を生成する(ステップS12)。 Then, the conversion processing unit 87 performs speech recognition, recognizes the speech of the interlocutor 200 from the collected sound, converts the speech-recognized speech of the interlocutor 200 into a character string (text), and converts the speech into visual information. Character image information VI1 representing the character string is generated as VI (step S12).

次に、処理部80の表示制御処理部88は、変換処理部87によって変換した視覚情報VI、ここでは、音声認識の結果として、文字列を表す文字画像情報VI1を表示器本体10の透明ディスプレイ11に出力し表示させる(ステップS13)。 Next, the display control processing unit 88 of the processing unit 80 converts the visual information VI converted by the conversion processing unit 87, here, character image information VI1 representing a character string as a result of speech recognition, into the transparent display of the display main body 10. 11 for display (step S13).

ここでは、表示制御処理部88は、図16に示すように、出力する文字列を所定文字数、例えば、20文字ごとに区切り(ステップS14)、透明ディスプレイ11上で当該文字列を出力する位置を決定する(ステップS15)。 Here, as shown in FIG. 16, the display control processing unit 88 divides the character string to be output by a predetermined number of characters, for example, every 20 characters (step S14), and determines the output position of the character string on the transparent display 11. Determine (step S15).

そして、表示制御処理部88は、現在、透明ディスプレイ11上に出力されている20文字を消し(ステップS16)、次に20文字に区切られた文字列を表す文字画像情報VI1を透明ディスプレイ11上の決められた位置に出力する(ステップS17)。 Then, the display control processing unit 88 erases the 20 characters currently being output on the transparent display 11 (step S16), and then displays the character image information VI1 representing the character string divided into 20 characters on the transparent display 11. is output to the determined position (step S17).

そして、表示制御処理部88は、出力する文字がもうないか否かを判定し(ステップS18)、出力する文字がまだあると判定した場合(ステップS18:No)、ステップS16に戻って以降の処理を繰り返し実行する。処理部80は、表示制御処理部88によって出力する文字がもうないと判定された場合(ステップS18:Yes)、図15のステップS1に戻って以降の処理を繰り返し実行する。 Then, the display control processing unit 88 determines whether or not there are any more characters to be output (step S18), and if it is determined that there are more characters to be output (step S18: No), the process returns to step S16 to perform subsequent operations. Execute the process repeatedly. When the display control processing unit 88 determines that there are no more characters to output (step S18: Yes), the processing unit 80 returns to step S1 in FIG. 15 and repeats the subsequent processing.

次に、図17を参照して、ステップS8の指向角αの決定フローの一例について説明する。 Next, an example of the flow for determining the directivity angle α in step S8 will be described with reference to FIG.

この場合まず、指向角設定処理部85は、ステップS7で対話者特定処理部84によって輻輳角θに基づいて推定された対話者200までの距離Dが3.5m以上であるかを判定する(ステップS21)。 In this case, the directivity angle setting processing unit 85 first determines whether the distance D to the interlocutor 200 estimated based on the convergence angle θ by the interlocutor identification processing unit 84 in step S7 is 3.5 m or more ( step S21).

指向角設定処理部85は、対話者200までの距離Dが3.5m以上であると判定した場合(ステップS21:Yes)、マイク60の指向角αを7.36度に決定し(ステップS22)、当該決定フローを終了する。 When the directivity angle setting processing unit 85 determines that the distance D to the interlocutor 200 is 3.5 m or more (step S21: Yes), the directivity angle setting processing unit 85 determines the directivity angle α of the microphone 60 to be 7.36 degrees (step S22 ), ending the decision flow.

指向角設定処理部85は、対話者200までの距離Dが3.5m未満であると判定した場合(ステップS21:No)、対話者200までの距離Dが1.2m以上3.5m未満であるかを判定する(ステップS23)。 When the directivity angle setting processing unit 85 determines that the distance D to the interlocutor 200 is less than 3.5 m (step S21: No), the distance D to the interlocutor 200 is 1.2 m or more and less than 3.5 m. It is determined whether there is (step S23).

指向角設定処理部85は、対話者200までの距離Dが1.2m以上3.5m未満であると判定した場合(ステップS23:Yes)、マイク60の指向角αを21.2度に決定し(ステップS24)、当該決定フローを終了する。 When the directivity angle setting processing unit 85 determines that the distance D to the interlocutor 200 is 1.2 m or more and less than 3.5 m (step S23: Yes), the directivity angle α of the microphone 60 is set to 21.2 degrees. (step S24), and the determination flow ends.

指向角設定処理部85は、対話者200までの距離Dが1.2m未満であると判定した場合(ステップS24:No)、対話者200までの距離Dが0.45m以上1.2m未満であるかを判定する(ステップS25)。 When the directivity angle setting processing unit 85 determines that the distance D to the interlocutor 200 is less than 1.2 m (step S24: No), the distance D to the interlocutor 200 is 0.45 m or more and less than 1.2 m. It is determined whether or not there is (step S25).

指向角設定処理部85は、対話者200までの距離Dが0.45m以上1.2m未満であると判定した場合(ステップS25:Yes)、マイク60の指向角αを53.1度に決定し(ステップS26)、当該決定フローを終了する。 When the directivity angle setting processing unit 85 determines that the distance D to the interlocutor 200 is 0.45 m or more and less than 1.2 m (step S25: Yes), the directivity angle α of the microphone 60 is set to 53.1 degrees. (step S26), and the determination flow ends.

指向角設定処理部85は、対話者200までの距離Dが0.45m未満であると判定した場合(ステップS25:No)、現状の指向角α(典型的には最大の指向角α)を維持したまま、当該決定フローを終了する。 When the orientation angle setting processing unit 85 determines that the distance D to the interlocutor 200 is less than 0.45 m (step S25: No), the orientation angle setting processing unit 85 sets the current orientation angle α (typically the maximum orientation angle α) to Terminate the decision flow while maintaining.

以上で説明したウェアラブル機器1は、マイク60によって入力された対話者200の音声を、処理部80による処理に応じて視覚情報VIに変換する。そして、ウェアラブル機器1は、処理部80による処理に応じて、頭部102に装着された状態で装着者100の視界に情報を表示可能である表示器本体10に当該視覚情報VIを表示させる。この結果、ウェアラブル機器1は、例えば、聴覚障害者が対話者200の言葉を読み取るために当該対話者200の口元に視線を集中させなくても、リアルタイムに対話者200の会話内容を知ることができる。 The wearable device 1 described above converts the voice of the interlocutor 200 input by the microphone 60 into visual information VI according to the processing by the processing unit 80 . Then, the wearable device 1 displays the visual information VI on the display main body 10 that can display information in the field of view of the wearer 100 while being worn on the head 102 according to the processing by the processing unit 80 . As a result, the wearable device 1 can, for example, know the conversation content of the interlocutor 200 in real time without concentrating the line of sight on the mouth of the interlocutor 200 to read the words of the interlocutor 200. can.

以上のように、ウェアラブル機器1は、例えば、通訳者等によらずに、適正にコミュニケーションを補助することができる。この結果、ウェアラブル機器1は、例えば、聴覚障害者におけるコミュニケーションの負担を緩和することができ、聴覚障害者の生活福祉を向上させることができる。 As described above, the wearable device 1 can appropriately assist communication, for example, without relying on an interpreter or the like. As a result, the wearable device 1 can, for example, alleviate the burden of communication on the hearing-impaired person, and improve the welfare of the hearing-impaired person.

また、以上で説明したウェアラブル機器1は、処理部80が視線検出センサ40によって検出された装着者100の視線に基づいて対話者200を特定し、特定された対話者200の位置に基づいてマイク60による集音における指向角αを可変とする処理を実行する。この処理により、ウェアラブル機器1は、特定した対話者200の位置に応じた適切な指向角αでマイク60による集音を行うことができるので、対話者200の位置にかかわらず音声認識率を向上させることができる。この結果、ウェアラブル機器1は、対話者200の位置にかかわらずより適正にコミュニケーションを補助することができる。 Further, in the wearable device 1 described above, the processing unit 80 identifies the interlocutor 200 based on the line of sight of the wearer 100 detected by the line-of-sight detection sensor 40, and based on the identified position of the interlocutor 200, the microphone A process for making the directivity angle α variable in sound collection by 60 is executed. With this processing, the wearable device 1 can collect sound with the microphone 60 at an appropriate directivity angle α according to the position of the identified interlocutor 200, so the speech recognition rate is improved regardless of the position of the interlocutor 200. can be made As a result, wearable device 1 can assist communication more appropriately regardless of the position of interlocutor 200 .

より具体的には、以上で説明したウェアラブル機器1は、処理部80が対話者200とマイク60との距離Dが相対的に長いほど、指向角αを相対的に小さくし、当該距離Dが相対的に短いほど、指向角αを相対的に大きくする。この処理により、ウェアラブル機器1は、装着者100からの距離Dが相対的に短く当該装着者100の近くに位置する対話者200の音声を集音するに際には、当該対話者200の音声を拾い易くすることができる。一方、ウェアラブル機器1は、装着者100からの距離Dが相対的に長く当該装着者100から離れて位置する対話者200の音声を集音するに際には、当該対話者200の周囲のノイズ(例えば、周囲の人物の音声等)を拾い難くすることができる。この結果、ウェアラブル機器1は、上記のように対話者200がいずれの位置にいる場合であっても、周囲の他の人物の音声等のノイズを拾い難くし、当該対話者200の音声を拾い易くすることができる。これにより、ウェアラブル機器1は、上記のように、対話者200の位置にかかわらずより適正にコミュニケーションを補助することができる。 More specifically, in the wearable device 1 described above, the processing unit 80 relatively decreases the directivity angle α as the distance D between the interlocutor 200 and the microphone 60 becomes relatively longer, and the distance D becomes The relatively shorter the beam, the larger the directivity angle α. With this processing, when the wearable device 1 collects the voice of the interlocutor 200 located near the wearer 100 at a relatively short distance D from the wearer 100, the voice of the interlocutor 200 is can be made easier to pick up. On the other hand, when the wearable device 1 collects the voice of the interlocutor 200 who is located away from the wearer 100 at a relatively long distance D from the wearer 100, the noise around the interlocutor 200 (For example, voices of surrounding people, etc.) can be made difficult to pick up. As a result, the wearable device 1 makes it difficult for the wearable device 1 to pick up noise such as the voices of other people in the surroundings, regardless of the position of the interlocutor 200 as described above, and picks up the voice of the interlocutor 200. can be made easier. Thereby, the wearable device 1 can assist communication more appropriately regardless of the position of the interlocutor 200 as described above.

ここでは、以上で説明したウェアラブル機器1は、視覚情報VIとして対話者200の音声に対応した文字列(テキスト)を表す文字画像情報VI1を含む。これにより、ウェアラブル機器1は、対話者200の音声に対応した文字列を表す文字画像情報VI1を、表示器本体10によって装着者100の視界に視覚情報VIとして表示させ、対話者200の音声を字幕表示させることができる。 Here, the wearable device 1 described above includes character image information VI1 representing a character string (text) corresponding to the voice of the interlocutor 200 as the visual information VI. As a result, the wearable device 1 causes the display body 10 to display the character image information VI1 representing the character string corresponding to the voice of the interlocutor 200 in the field of view of the wearer 100 as visual information VI, thereby reproducing the voice of the interlocutor 200. Subtitles can be displayed.

なお、上述した本発明の実施形態に係るウェアラブル機器は、上述した実施形態に限定されず、特許請求の範囲に記載された範囲で種々の変更が可能である。 The wearable device according to the embodiment of the present invention described above is not limited to the embodiment described above, and various modifications are possible within the scope of the claims.

以上の説明では、対話者特定処理部84は、視線検出センサ40によって検出された装着者100の視線に基づいて輻輳角θを算出し、算出した当該輻輳角θに基づいて対話者200までの距離Dを推定するものとして説明したがこれ限らない。対話者特定処理部84は、例えば、図18、図19、図20に示すように、輻輳角θに基づかずに、外向きカメラ50によって撮像された画像に基づいて人物の大きさ等から対話者200までの距離Dを推定してもよい。 In the above description, the interlocutor identification processing unit 84 calculates the convergence angle θ based on the line of sight of the wearer 100 detected by the line of sight detection sensor 40, and based on the calculated convergence angle θ Although it has been described as estimating the distance D, the present invention is not limited to this. For example, as shown in FIGS. 18, 19, and 20, the interlocutor identification processing unit 84 is not based on the convergence angle θ, but based on the image captured by the outward facing camera 50. A distance D to the person 200 may be estimated.

この場合、対話者特定処理部84は、図18に示すように、対話者200を特定した後(ステップS5)、外向きカメラ50によって撮像された画像において、対話者200の肩幅の画面上の大きさから当該対話者200までの距離Dを算出、推定し、指向角設定処理部85は、当該距離Dからマイク60の指向角αを決定する(ステップS6A)。 In this case, as shown in FIG. 18, after identifying the interlocutor 200 (step S5), the interlocutor identification processing unit 84, in the image captured by the outward facing camera 50, the shoulder width of the interlocutor 200 on the screen. The distance D to the interlocutor 200 is calculated and estimated from the size, and the directivity angle setting processing unit 85 determines the directivity angle α of the microphone 60 from the distance D (step S6A).

具体的には、対話者特定処理部84は、図19の指向角αの決定フローに例示するように、外向きカメラ50によって撮像された画像から対話者200に相当する人物を検出し、外向きカメラ50のイメージセンサ上の肩幅Wの大きさに相当するpixel値W1を検出する(ステップS20A)。 Specifically, the interlocutor identification processing unit 84 detects a person corresponding to the interlocutor 200 from the image captured by the outward facing camera 50, as illustrated in the flow of determining the orientation angle α in FIG. A pixel value W1 corresponding to the size of the shoulder width W on the image sensor of the orientation camera 50 is detected (step S20A).

ここで、上述したように、人物の肩幅Wは、45~46cm程度と略一定なので、例えば、肩幅を固定値=45cmと仮定すると、図20に示すように、対話者特定処理部84は、対話者200の肩幅Wについて、外向きカメラ50のイメージセンサ上のpixel値W1を検出することで、対話者200までの距離Dを算出、推定することができる。 Here, as described above, since the shoulder width W of the person is approximately constant at about 45 to 46 cm, for example, assuming that the shoulder width is a fixed value of 45 cm, as shown in FIG. For the shoulder width W of the interlocutor 200, the distance D to the interlocutor 200 can be calculated and estimated by detecting the pixel value W1 on the image sensor of the outward facing camera 50. FIG.

例えば、外向きカメラ50のイメージセンサのサイズを1/3インチ、画素数をVGA(640×480)、焦点距離F=2mmとすると、水平方向の撮影範囲D1は、対話者200までの距離Dに応じて、下記の数式(2)により求まる。

D1=4.8mm(イメージセンサの幅)×D/F ・・・ (2)
For example, if the size of the image sensor of the outward camera 50 is ⅓ inch, the number of pixels is VGA (640×480), and the focal length is F=2 mm, the horizontal shooting range D1 is the distance D to the interlocutor 200. is determined by the following formula (2).

D1=4.8 mm (width of image sensor)×D/F (2)

そして、対話者200までの距離Dが0.45mである場合、水平方向の撮影範囲D1は、上記の数式(2)より、D1=4.8mm×0.45m/2mm=1.08mとなるので、pixel値W1は、下記の比例式(3)の関係となる。

0.45m:1.08m=W1:640pixel ・・・ (3)

これにより、対話者200までの距離Dが0.45mである場合は、W1=267pixelとなる。
When the distance D to the interlocutor 200 is 0.45 m, the horizontal shooting range D1 is D1=4.8 mm×0.45 m/2 mm=1.08 m according to the above formula (2). Therefore, the pixel value W1 has the relationship of the following proportional expression (3).

0.45m: 1.08m = W1: 640 pixels (3)

Accordingly, when the distance D to the interlocutor 200 is 0.45 m, W1=267 pixels.

同様にして、対話者200までの距離Dが1.2mである場合、水平方向の撮影範囲D1は、上記の数式(2)より、D1=4.8mm×1.2m/2mm=2.88mとなるので、pixel値W1は、下記の比例式(4)の関係となる。

0.45m:2.88m=W1:640pixel ・・・ (4)

これにより、対話者200までの距離Dが1.2mである場合は、W1=100pixelとなる。
Similarly, when the distance D to the interlocutor 200 is 1.2 m, the horizontal shooting range D1 is D1=4.8 mm×1.2 m/2 mm=2.88 m from the above formula (2). Therefore, the pixel value W1 has the relationship of the following proportional expression (4).

0.45m: 2.88m = W1: 640 pixels (4)

Accordingly, when the distance D to the interlocutor 200 is 1.2 m, W1=100 pixels.

また、対話者200までの距離Dが3.5mである場合、水平方向の撮影範囲D1は、上記の数式(2)より、D1=4.8mm×3.5m/2mm=8.4mとなるので、pixel値W1は、下記の比例式(5)の関係となる。

0.45m:8.4m=W1:640pixel ・・・ (5)

これにより、対話者200までの距離Dが3.5mである場合は、W1=34.3pixelとなる。
Further, when the distance D to the interlocutor 200 is 3.5 m, the horizontal shooting range D1 is D1=4.8 mm×3.5 m/2 mm=8.4 m according to the above formula (2). Therefore, the pixel value W1 has the relation of the following proportional expression (5).

0.45m: 8.4m = W1: 640 pixels (5)

Accordingly, when the distance D to the interlocutor 200 is 3.5 m, W1=34.3 pixels.

以上を用いて、対話者特定処理部84は、外向きカメラ50の画像認識結果から求めた画像上の肩幅Wの大きさから、距離Dを推定することが可能である。 Using the above, the interlocutor identification processing unit 84 can estimate the distance D from the size of the shoulder width W on the image obtained from the image recognition result of the outward facing camera 50 .

ここでは、対話者特定処理部84は、ステップS20Aの後、ステップS20Aで検出した肩幅Wの大きさに相当するpixel値W1が34.3pixel以下であるか否かを判定する(ステップS21A)。 Here, after step S20A, the interlocutor identification processing unit 84 determines whether or not the pixel value W1 corresponding to the shoulder width W detected in step S20A is 34.3 pixels or less (step S21A).

対話者特定処理部84は、pixel値W1が34.3pixel以下であると判定した場合(ステップS21A:Yes)、対話者200までの距離Dが3.5m以上であるものと判定する。そして、指向角設定処理部85は、マイク60の指向角αを7.36度に決定し(ステップS22A)、当該決定フローを終了する。 When determining that the pixel value W1 is 34.3 pixels or less (step S21A: Yes), the interlocutor identification processing unit 84 determines that the distance D to the interlocutor 200 is 3.5 m or more. The directivity angle setting processor 85 then determines the directivity angle α of the microphone 60 to be 7.36 degrees (step S22A), and terminates the determination flow.

対話者特定処理部84は、pixel値W1が34.3pixelより大きいと判定した場合(ステップS21A:No)、当該pixel値W1が34.3pixelより大きく100pixel以下であるか否かを判定する(ステップS23A)。 When the interlocutor identification processing unit 84 determines that the pixel value W1 is greater than 34.3 pixels (step S21A: No), it determines whether the pixel value W1 is greater than 34.3 pixels and equal to or less than 100 pixels (step S23A).

対話者特定処理部84は、pixel値W1が34.3pixelより大きく100pixel以下であると判定した場合(ステップS23A:Yes)、対話者200までの距離Dが1.2m以上3.5m未満であるものと判定する。そして、指向角設定処理部85は、マイク60の指向角αを21.2度に決定し(ステップS24A)、当該決定フローを終了する。 When the interlocutor identification processing unit 84 determines that the pixel value W1 is greater than 34.3 pixels and equal to or less than 100 pixels (step S23A: Yes), the distance D to the interlocutor 200 is 1.2 m or more and less than 3.5 m. judge as a thing. The directivity angle setting processor 85 then determines the directivity angle α of the microphone 60 to be 21.2 degrees (step S24A), and terminates the determination flow.

対話者特定処理部84は、pixel値W1が100pixelより大きいと判定した場合(ステップS23A:No)、当該pixel値W1が100pixelより大きく267pixel以下であるか否かを判定する(ステップS25A)。 When the interlocutor identification processing unit 84 determines that the pixel value W1 is greater than 100 pixels (step S23A: No), it determines whether the pixel value W1 is greater than 100 pixels and equal to or less than 267 pixels (step S25A).

対話者特定処理部84は、pixel値W1が100pixelより大きく267pixel以下であると判定した場合(ステップS25A:Yes)、対話者200までの距離Dが0.45m以上1.2m未満であるものと判定する。そして、指向角設定処理部85は、マイク60の指向角αを53.1度に決定し(ステップS26A)、当該決定フローを終了する。 When the interlocutor identification processing unit 84 determines that the pixel value W1 is greater than 100 pixels and equal to or less than 267 pixels (step S25A: Yes), the interlocutor identification processing unit 84 determines that the distance D to the interlocutor 200 is 0.45 m or more and less than 1.2 m. judge. The directivity angle setting processing unit 85 then determines the directivity angle α of the microphone 60 to be 53.1 degrees (step S26A), and terminates the determination flow.

対話者特定処理部84は、pixel値W1が267pixelより大きいと判定した場合(ステップS25A:No)、対話者200までの距離Dが0.45m未満であると判定し、指向角設定処理部85は、現状の指向角α(典型的には最大の指向角α)を維持したまま、当該決定フローを終了する。 When the interlocutor identification processing unit 84 determines that the pixel value W1 is greater than 267 pixels (step S25A: No), the interlocutor identification processing unit 84 determines that the distance D to the interlocutor 200 is less than 0.45 m. terminates the decision flow while maintaining the current directivity angle α (typically the maximum directivity angle α).

以上のように、ウェアラブル機器1は、外向きカメラ50によって撮像された画像に基づいて対話者200までの距離Dを推定し、当該距離Dに基づいてマイク60の指向角αを設定することもできる。この場合であっても、ウェアラブル機器1は、対話者200の位置にかかわらず音声認識率を向上させることができ、より適正にコミュニケーションを補助することができる。 As described above, the wearable device 1 may estimate the distance D to the interlocutor 200 based on the image captured by the outward facing camera 50, and set the directivity angle α of the microphone 60 based on the distance D. can. Even in this case, the wearable device 1 can improve the speech recognition rate regardless of the position of the interlocutor 200, and can assist communication more appropriately.

また、以上の説明では、対話者特定処理部84は、一例として、装着者100の視線に加えて、外向きカメラ50によって撮像された画像に基づいて対話者200を特定するものとして説明したがこれに限らない。対話者特定処理部84は、外向きカメラ50によって撮像された画像を用いず、視線検出センサ40を介して視線検出処理部83によって検出された装着者100の視線の方向や当該視線の方向に応じた輻輳角θに基づいて対話者200の位置の特定や距離Dの推定を簡略化して行うようにしてもよい。例えば、対話者特定処理部84は、視線の方向や輻輳角θが所定時間、変化しない場合に、このときの視線の方向や輻輳角θに基づいて対話者200の位置の特定や距離Dの推定を行うことができる。この場合、ウェアラブル機器1は、外向きカメラ50を備えない構成であってもよい。 Further, in the above description, as an example, the interlocutor identification processing unit 84 identifies the interlocutor 200 based on the image captured by the outward facing camera 50 in addition to the line of sight of the wearer 100. It is not limited to this. The interlocutor identification processing unit 84 detects the direction of the line of sight of the wearer 100 detected by the line of sight detection processing unit 83 via the line of sight detection sensor 40 without using the image captured by the outward facing camera 50, and determines the direction of the line of sight of the wearer 100. The identification of the position of the interlocutor 200 and the estimation of the distance D may be simplified based on the corresponding convergence angle θ. For example, when the line-of-sight direction and the convergence angle θ do not change for a predetermined time, the interlocutor identification processing unit 84 identifies the position of the interlocutor 200 and determines the distance D based on the line-of-sight direction and the convergence angle θ at this time. Estimates can be made. In this case, the wearable device 1 may be configured without the outward facing camera 50 .

また、以上の説明では、ウェアラブル機器1は、装着者100の視線を検出して対話者200の位置を特定するものとして説明したが、そもそも、装着者100の視線検出を行わない構成であってもよい。この場合、ウェアラブル機器1は、視線検出センサ40を備えない構成であってもよく、処理部80は、対話者200までの距離Dにかかわらずマイク60の指向角αを固定してマイク60による集音を行うようにしてもよい。 Further, in the above description, the wearable device 1 detects the line of sight of the wearer 100 and specifies the position of the interlocutor 200. good too. In this case, the wearable device 1 may be configured without the line-of-sight detection sensor 40, and the processing unit 80 fixes the directivity angle α of the microphone 60 regardless of the distance D to the interlocutor 200, and You may make it collect sound.

また、以上の説明では、透明ディスプレイ11によって装着者100の視界に表示する視覚情報VIは、文字画像情報VI1を含むものとして説明したがこれ限らない。当該視覚情報VIは、例えば、図21に示すように、対話者200の音声に対応した手話を表す手話動画像情報VI2を含むものであってもよい。この場合、変換処理部87は、音声認識した対話者200の音声を、対話者200の音声に対応した手話に関する情報に変換し、視覚情報VIとして、当該手話を表す手話動画像情報VI2を生成する。表示制御処理部88は、対話者200の音声に対応した視覚情報VIとして、当該音声に対応した手話を表す手話動画像情報VI2を、透明ディスプレイ11によって装着者100の視界に表示させる。これにより、ウェアラブル機器1は、対話者200の音声に対応した手話を表す手話動画像情報VI2を、表示器本体10によって装着者100の視界に視覚情報VIとして表示させ、例えば、手話通訳ロボットをオーバーレイ表示させることができる。 Further, in the above description, the visual information VI displayed in the field of view of the wearer 100 by the transparent display 11 is described as including the character image information VI1, but is not limited to this. The visual information VI may include, for example, sign language moving image information VI2 representing sign language corresponding to the voice of the interlocutor 200, as shown in FIG. In this case, the conversion processing unit 87 converts the speech of the interlocutor 200 that has undergone speech recognition into information on sign language corresponding to the speech of the interlocutor 200, and generates sign language moving image information VI2 representing the sign language as visual information VI. do. The display control processing unit 88 causes the transparent display 11 to display the sign language video image information VI2 representing the sign language corresponding to the voice as the visual information VI corresponding to the voice of the interlocutor 200 in the visual field of the wearer 100 . As a result, the wearable device 1 causes the display body 10 to display the sign language moving image information VI2 representing the sign language corresponding to the voice of the interlocutor 200 as visual information VI in the field of vision of the wearer 100. For example, the sign language interpretation robot is displayed. Can be overlaid.

以上で説明した処理部80は、単一のプロセッサによって各処理機能が実現されるものとして説明したがこれに限らない。処理部80は、複数の独立したプロセッサを組み合わせて各プロセッサがプログラムを実行することにより各処理機能が実現されてもよい。また、処理部80が有する処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。また、処理部80が有する処理機能は、その全部又は任意の一部をプログラムにて実現してもよく、また、ワイヤードロジック等によるハードウェアとして実現してもよい。 Although the processing unit 80 described above has been described as one in which each processing function is realized by a single processor, the processing unit 80 is not limited to this. The processing unit 80 may realize each processing function by combining a plurality of independent processors and having each processor execute a program. Also, the processing functions of the processing unit 80 may be appropriately distributed or integrated in a single or a plurality of processing circuits and implemented. Further, the processing functions of the processing unit 80 may be implemented entirely or in part by a program, or may be implemented by hardware such as wired logic.

本実施形態に係るウェアラブル機器は、以上で説明した実施形態、変形例の構成要素を適宜組み合わせることで構成してもよい。 The wearable device according to this embodiment may be configured by appropriately combining the constituent elements of the embodiments and modifications described above.

1 ウェアラブル機器
10 表示器本体
11 透明ディスプレイ
11L 左ディスプレイ
11R 右ディスプレイ
12 フレーム
20 電源
30 装着センサ
40 視線検出センサ(視線検出部)
41 内向きカメラ
50 外向きカメラ
60 マイク(音声入力部)
70 記憶部
80 処理部
81 装着検出処理部
82 電源制御処理部
83 視線検出処理部
84 対話者特定処理部
85 指向角設定処理部
86 音声入力処理部
87 変換処理部
88 表示制御処理部
100 装着者
101 人体
102 頭部
200、200A、200B 対話者
D 距離
VI 視覚情報
VI1 文字画像情報
VI2 手話動画像情報
α 指向角
θ 輻輳角
1 wearable device 10 display main body 11 transparent display 11L left display 11R right display 12 frame 20 power supply 30 wearing sensor 40 line-of-sight detection sensor (line-of-sight detection unit)
41 Inward camera 50 Outward camera 60 Microphone (audio input unit)
70 storage unit 80 processing unit 81 wearing detection processing unit 82 power supply control processing unit 83 line-of-sight detection processing unit 84 interlocutor identification processing unit 85 directional angle setting processing unit 86 voice input processing unit 87 conversion processing unit 88 display control processing unit 100 wearer 101 human body 102 head 200, 200A, 200B interlocutor D distance VI visual information VI1 character image information VI2 sign language video image information α orientation angle θ angle of convergence

Claims (5)

人体の頭部に装着された状態で、装着者の視界に情報を表示可能である表示器本体と、
前記表示器本体に設けられ、対話者の音声を入力可能である音声入力部と、
前記表示器本体に設けられ、前記音声入力部によって入力された前記音声を視覚情報に変換する処理、及び、変換した当該視覚情報を前記表示器本体に表示させる処理を実行可能である処理部とを備えることを特徴とする、
ウェアラブル機器。
a display body that can display information in the wearer's field of vision when worn on the head of the human body;
a voice input unit provided in the display body and capable of inputting voice of the interlocutor;
a processing unit provided in the display main body and capable of executing processing of converting the voice input by the voice input unit into visual information, and processing of displaying the converted visual information on the display main body; characterized by comprising
wearable devices.
前記表示器本体に設けられ、前記装着者の視線を検出可能である視線検出部を備え、
前記処理部は、前記視線検出部によって検出された前記装着者の視線に基づいて前記対話者を特定する処理、及び、特定された前記対話者の位置に基づいて前記音声入力部による集音における指向角を可変とする処理を実行可能である、
請求項1に記載のウェアラブル機器。
A line-of-sight detection unit provided in the display body and capable of detecting the line of sight of the wearer,
The processing unit performs a process of identifying the interlocutor based on the line of sight of the wearer detected by the line of sight detection unit, and performing sound collection by the voice input unit based on the identified position of the interlocutor. It is possible to execute processing that makes the directivity angle variable,
The wearable device according to claim 1.
前記処理部は、特定された前記対話者と前記音声入力部との距離が相対的に長いほど、前記指向角を相対的に小さくし、前記距離が相対的に短いほど、前記指向角を相対的に大きくする、
請求項2に記載のウェアラブル機器。
The processing unit relatively decreases the directivity angle as the distance between the identified interlocutor and the voice input unit is relatively longer, and decreases the directivity angle as the distance is relatively shorter. make it bigger
The wearable device according to claim 2.
前記視覚情報は、前記音声に対応した文字列を表す文字画像情報を含む、
請求項1乃至請求項3のいずれか1項に記載のウェアラブル機器。
The visual information includes character image information representing a character string corresponding to the voice,
The wearable device according to any one of claims 1 to 3.
前記視覚情報は、前記音声に対応した手話を表す手話動画像情報を含む、
請求項1乃至請求項4のいずれか1項に記載のウェアラブル機器。
wherein the visual information includes sign language moving image information representing sign language corresponding to the voice;
The wearable device according to any one of claims 1 to 4.
JP2021094880A 2021-06-07 2021-06-07 Wearable device Pending JP2022187072A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021094880A JP2022187072A (en) 2021-06-07 2021-06-07 Wearable device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021094880A JP2022187072A (en) 2021-06-07 2021-06-07 Wearable device

Publications (1)

Publication Number Publication Date
JP2022187072A true JP2022187072A (en) 2022-12-19

Family

ID=84525503

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021094880A Pending JP2022187072A (en) 2021-06-07 2021-06-07 Wearable device

Country Status (1)

Country Link
JP (1) JP2022187072A (en)

Similar Documents

Publication Publication Date Title
US10656424B2 (en) Information display terminal, information display system, and information display method
CN108519676B (en) Head-wearing type vision-aiding device
US11579837B2 (en) Audio profile for personalized audio enhancement
US20120259638A1 (en) Apparatus and method for determining relevance of input speech
CN104090371B (en) A kind of 3D glasses and 3D display systems
US11487354B2 (en) Information processing apparatus, information processing method, and program
CN112666705A (en) Eye movement tracking device and eye movement tracking method
US11157078B2 (en) Information processing apparatus, information processing method, and program
CN114365510A (en) Selecting spatial positioning for audio personalization
KR20130059827A (en) Glasses type camera using by pupil tracker
WO2018220963A1 (en) Information processing device, information processing method, and program
CN113303791A (en) Online self-service physical examination system for motor vehicle driver, mobile terminal and storage medium
WO2021230180A1 (en) Information processing device, display device, presentation method, and program
US11281893B2 (en) Method and device for modifying the affective visual information in the field of vision of an user
CN106598259B (en) A kind of input method of headset equipment, loader and VR helmet
JP2023174820A (en) Wearable apparatus and display method
JP2022187072A (en) Wearable device
US11231591B2 (en) Information processing apparatus, information processing method, and program
WO2020170758A1 (en) Recognition device, wearable character recognition device, recognition method, and recognition program
JP2022108194A (en) Image projection method, image projection device, unmanned aircraft and image projection program
JP2009106325A (en) Communication induction system
US20230065296A1 (en) Eye-tracking using embedded electrodes in a wearable device
US20230308753A1 (en) Camera system for focusing on and tracking objects
JP2022101328A (en) Image projection method, image projection device, unmanned aerial vehicle, and image projection program
JP2022113973A (en) Display method, display device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240416