JP2022187072A - Wearable device - Google Patents
Wearable device Download PDFInfo
- Publication number
- JP2022187072A JP2022187072A JP2021094880A JP2021094880A JP2022187072A JP 2022187072 A JP2022187072 A JP 2022187072A JP 2021094880 A JP2021094880 A JP 2021094880A JP 2021094880 A JP2021094880 A JP 2021094880A JP 2022187072 A JP2022187072 A JP 2022187072A
- Authority
- JP
- Japan
- Prior art keywords
- interlocutor
- processing unit
- wearable device
- line
- wearer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 claims abstract description 43
- 238000001514 detection method Methods 0.000 claims description 62
- 238000000034 method Methods 0.000 claims description 13
- 230000007423 decrease Effects 0.000 claims description 4
- 238000004891 communication Methods 0.000 abstract description 11
- 230000000694 effects Effects 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 30
- 210000003128 head Anatomy 0.000 description 19
- 238000010586 diagram Methods 0.000 description 15
- 210000005252 bulbus oculi Anatomy 0.000 description 14
- 238000006243 chemical reaction Methods 0.000 description 13
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 208000032041 Hearing impaired Diseases 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 210000001747 pupil Anatomy 0.000 description 4
- 102220615152 Calcyphosin_S25A_mutation Human genes 0.000 description 3
- 102220465380 NF-kappa-B inhibitor beta_S23A_mutation Human genes 0.000 description 3
- 102220585520 T cell receptor gamma constant 1_S20A_mutation Human genes 0.000 description 3
- 102220585521 T cell receptor gamma constant 1_S21A_mutation Human genes 0.000 description 3
- 239000004984 smart glass Substances 0.000 description 3
- 102220615148 Calcyphosin_S24A_mutation Human genes 0.000 description 1
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 102220471545 Single-stranded DNA cytosine deaminase_S26A_mutation Human genes 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910001416 lithium ion Inorganic materials 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 238000001028 reflection method Methods 0.000 description 1
- 230000004270 retinal projection Effects 0.000 description 1
- 102220070930 rs794728599 Human genes 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、ウェアラブル機器に関する。 The present invention relates to wearable devices.
従来のウェアラブル機器として、例えば、特許文献1には、視聴用のキャプションを表示するシステムが開示されている。このシステムは、異なるスペクトル範囲と実質的に相補的な偏光とによって、異なるカラーの少なくとも1つにより少なくとも2つのキャプションを表示するディスプレイを有する。
As a conventional wearable device, for example,
ところで、このようなウェアラブル機器は、例えば、聴覚障害者のコミュニケーションの補助等の用途での使用も望まれている。 By the way, such wearable devices are also desired to be used for purposes such as assisting communication for hearing-impaired persons, for example.
本発明は、上記の事情に鑑みてなされたものであって、適正にコミュニケーションを補助することができるウェアラブル機器を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a wearable device capable of appropriately assisting communication.
上記目的を達成するために、本発明のウェアラブル機器は、人体の頭部に装着された状態で、装着者の視界に情報を表示可能である表示器本体と、前記表示器本体に設けられ、対話者の音声を入力可能である音声入力部と、前記表示器本体に設けられ、前記音声入力部によって入力された前記音声を視覚情報に変換する処理、及び、変換した当該視覚情報を前記表示器本体に表示させる処理を実行可能である処理部とを備えることを特徴とする。 In order to achieve the above object, the wearable device of the present invention includes a display body capable of displaying information in the field of view of the wearer when worn on the head of a human body, and provided in the display body, a voice input unit capable of inputting the voice of the interlocutor; a process of converting the voice input by the voice input unit provided in the display body into visual information; and displaying the converted visual information. and a processing unit capable of executing processing for displaying on the device main body.
本発明に係るウェアラブル機器は、音声入力部によって入力された対話者の音声を、処理部による処理に応じて視覚情報に変換する。そして、ウェアラブル機器は、処理部による処理に応じて、頭部に装着された状態で装着者の視界に情報を表示可能である表示器本体に当該視覚情報を表示させる。この結果、ウェアラブル機器は、適正にコミュニケーションを補助することができる、という効果を奏する。 The wearable device according to the present invention converts the interlocutor's voice input by the voice input unit into visual information according to the processing by the processing unit. Then, the wearable device displays the visual information on the display main body, which is capable of displaying information in the field of view of the wearer when the wearable device is worn on the head, according to the processing by the processing unit. As a result, the wearable device has the effect of being able to properly assist communication.
以下に、本発明に係る実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。 EMBODIMENT OF THE INVENTION Below, embodiment which concerns on this invention is described in detail based on drawing. In addition, this invention is not limited by this embodiment. In addition, components in the following embodiments include components that can be easily replaced by those skilled in the art, or components that are substantially the same.
[実施形態]
図1、図2、図3に示す本実施形態のウェアラブル機器1は、人体101の頭部102に装着され、装着者100の視界に種々の情報を表示するスマートグラスを構成するものである。本実施形態のウェアラブル機器1は、集音した音声を視覚情報VIに変換し、当該変換した視覚情報VIを装着者100の視界に表示することで、聴覚障害者のコミュニケーションを適正に補助することができるツールを実現する。典型的には、本実施形態のウェアラブル機器1は、視線検出機能、音声認識機能、及び、情報表示機能を有し、装着者100の視線を検出し、視線の方向に位置する対話者200(図6等参照)の音声を認識して、スマートグラスの表面に字幕等による視覚情報VIを表示させる。以下、図1を参照してウェアラブル機器1の各構成について詳細に説明する。
[Embodiment]
The
具体的には、ウェアラブル機器1は、図1、図2に示すように、表示器本体10と、電源20と、装着センサ30と、視線検出部としての視線検出センサ40と、外向きカメラ50と、音声入力部としてのマイク60と、記憶部70と、処理部80とを備える。電源20、装着センサ30、視線検出センサ40、外向きカメラ50、マイク60、記憶部70、及び、処理部80は、表示器本体10に設けられ、相互に通信可能に接続されている。
Specifically, as shown in FIGS. 1 and 2, the
表示器本体10は、人体101の頭部102に装着可能なヘッドマウントディスプレイ(HMD)方式のメガネ型表示デバイスである。表示器本体10は、人体101の頭部102に装着された状態で、装着者100の視界に情報を表示可能である。
The display
具体的には、表示器本体10は、透明ディスプレイ11、及び、フレーム12を含んで構成される。
Specifically, the
透明ディスプレイ11は、視覚情報VIを表示可能であり、ウェアラブル機器1における視覚情報VIの表示面を構成する。透明ディスプレイ11は、当該透明ディスプレイ11越しに背景を視認可能な程度に高い透明性を有している。透明ディスプレイ11は、例えば、液晶ディスプレイ、有機ELディスプレイ等によって構成される。ここでは、透明ディスプレイ11は、装着者100の右の眼球103Rに対応した右ディスプレイ11R、及び、装着者100の左の眼球103Lに対応した左ディスプレイ11Lを含んで構成される。
The
フレーム12は、人体101の頭部102に装着され、透明ディスプレイ11を装着者100の視界に支持する構造体であり、弦や枠等を含んで構成される。フレーム12は、右ディスプレイ11Rを装着者100の右の眼球103Rと対向する位置に支持し、左ディスプレイ11Lを装着者100の左の眼球103Lと対向する位置に支持する。フレーム12は、ウェアラブル機器1を構成する電源20、装着センサ30、視線検出センサ40、外向きカメラ50、マイク60、記憶部70、処理部80等の各部が組み付けられる。
The
上記構成により、表示器本体10は、フレーム12が人体101の頭部102に装着された状態で、透明ディスプレイ11越しの背景に重畳させて当該透明ディスプレイ11上に視覚情報VIを表示することで、当該視覚情報VIを装着者100の視界に表示可能である。図3に例示するように、透明ディスプレイ11によって装着者100の視界に表示する視覚情報VIは、例えば、対話者200(図6等参照)の音声に対応した文字列(テキスト)を表す文字画像情報VI1を含む。なお、透明ディスプレイ11は、上記に限らず、例えば、網膜投射型のディスプレイ等によって構成されてもよい。
With the above configuration, the display
電源20は、ウェアラブル機器1の電力源である。電源20は、リチウムイオン電池等の充放電可能な二次電池等を含んで構成され、ウェアラブル機器1内の各部に対して電力を供給する。
A
装着センサ30は、ウェアラブル機器1が人体101の頭部102に装着されていることを検出可能な検出器である。装着センサ30は、例えば、温度検知や発汗検知を行う検出器によって構成される。装着センサ30は、温度検知や発汗検知に基づいてフレーム12が装着者100の頭部102に触れていることを検出することで、ウェアラブル機器1が頭部102に装着されていることを検出する。
The wearing
視線検出センサ40は、装着者100の視線を検出可能な検出器である。視線検出センサ40は、例えば、フレーム12の中央の弦部分に設けられる。視線検出センサ40は、例えば、図4に例示するように、内向きカメラ41によって構成される。内向きカメラ41は、装着者100の眼球103L、103Rを撮像可能な撮像器である。視線検出センサ40を構成する内向きカメラ41は、図5に示すように、眼球103L、103Rの瞳孔103aとプルキニエ像(角膜表面における反射光)103bを検出することで、瞳孔-角膜反射法により装着者100の視線検出を可能とする。なお、視線検出センサ40は、上記に限らず、例えば、フレーム12の中央の弦部分に内蔵され眼球運動に伴う目の周りの電位差を検出することで、装着者100の視線検出を行う眼電位センサによって構成されてもよい。
The line-of-
外向きカメラ50は、装着者100の眼球103L、103R側とは反対側を撮像可能な撮像器である。言い換えれば、外向きカメラ50は、透明ディスプレイ11越しに装着者100の視線が向う側を撮像する。外向きカメラ50は、例えば、フレーム12の端部に設けられる。
The outward facing
マイク60は、対話者200の音声を入力可能な集音器である。マイク60は、集音方向、及び、指向角α(図11等参照)を変更可能な指向性マイクである。ここで、指向角αとは、集音可能な角度範囲を表し、小さいほど当該角度範囲が狭いことを表し、大きいほど当該角度範囲が広いことを表す。マイク60は、例えば、2チャンネル話者追尾型マイクロホンアレーを用いることができる。
記憶部70は、各種データ(情報)を記憶する記憶回路である。記憶部70は、例えば、ウェアラブル機器1が各種の機能を実現するためのプログラムを記憶する。記憶部70に記憶されるプログラムには、透明ディスプレイ11を機能させるプログラム、電源20を機能させるプログラム、装着センサ30を機能させるプログラム、視線検出センサ40を機能させるプログラム、外向きカメラ50を機能させるプログラム、マイク60を機能させるプログラム、処理部80を機能させるプログラム等が含まれる。また、記憶部70は、処理部80での各種処理に必要なデータ、透明ディスプレイ11で表示するデータ等の各種データを記憶する。記憶部70は、処理部80等によってこれらの各種データが必要に応じて読み出される。なお、記憶部70は、ネットワークを介してウェアラブル機器1に接続されたクラウドサーバ等により実現されてもよい。
The
処理部80は、ウェアラブル機器1における各種処理機能を実現する処理回路である。処理部80は、例えば、プロセッサによって実現される。プロセッサとは、例えば、CPU(Central Processing Unit)等の回路を意味する。処理部80は、例えば、記憶部70から読み込んだプログラムを実行することにより、各処理機能を実現する。
The
本実施形態に係る処理部80は、マイク60によって入力された音声を視覚情報VIに変換し、変換した当該視覚情報VIを表示器本体10の透明ディスプレイ11に表示させる各種処理を行うための機能を有している。また、本実施形態の処理部80は、視線検出センサ40によって検出された装着者100の視線に基づいて対話者200を特定し、特定された対話者200の位置に基づいてマイク60による集音における指向角αを可変とする各種処理を行うための機能を有している。
The
具体的には、本実施形態の処理部80は、上記各種処理機能を実現するために、機能概念的に、装着検出処理部81、電源制御処理部82、視線検出処理部83、対話者特定処理部84、指向角設定処理部85、音声入力処理部86、変換処理部87、及び、表示制御処理部88を含んで構成される。処理部80は、例えば、記憶部70から読み込んだプログラムを実行することにより、これら装着検出処理部81、電源制御処理部82、視線検出処理部83、対話者特定処理部84、指向角設定処理部85、音声入力処理部86、変換処理部87、及び、表示制御処理部88の各処理機能を実現する。
Specifically, in order to realize the various processing functions described above, the
装着検出処理部81は、ウェアラブル機器1が人体101の頭部102に装着されていることを判定する処理を実行可能な機能を有する部分である。装着検出処理部81は、装着センサ30による検出結果に基づいて、ウェアラブル機器1が頭部102に装着されていることを判定する。
The wearing
電源制御処理部82は、電源20を制御する処理を実行可能な機能を有する部分である。電源制御処理部82は、装着検出処理部81によってウェアラブル機器1が頭部102に装着されていると判定された場合、ウェアラブル機器1の電源20をONとする。一方、電源制御処理部82は、装着検出処理部81によってウェアラブル機器1が頭部102に装着されていないと判定された場合、ウェアラブル機器1の電源20をOFF(最小限の待機状態)とする。この処理により、ウェアラブル機器1は、消費電力を削減することができる。
The power
視線検出処理部83は、ウェアラブル機器1を装着した装着者100の視線を検出する処理を実行可能な機能を有する部分である。視線検出処理部83は、視線検出センサ40による検出結果に基づいて、装着者100の視線を検出する。ここでは、視線検出処理部83は、視線検出センサ40を構成する内向きカメラ41によって撮像された眼球103L、103Rの画像から瞳孔103a、プルキニエ像103bの位置を検出する。そして、視線検出処理部83は、これら瞳孔103a、プルキニエ像103bの位置に基づいて瞳孔-角膜反射法により装着者100の視線の方向を検出する。
The line-of-sight
対話者特定処理部84は、視線検出センサ40によって検出され視線検出処理部83によって処理された装着者100の視線に基づいて対話者200を特定する処理を実行可能な機能を有する部分である。ここでは、対話者特定処理部84は、例えば、人物が人物と話をする場合、一定時間、対話者200を見る傾向を利用し、装着者100の視線が所定時間(例えば、2秒以上)停留した人物を対話者200として特定する。
The interlocutor
本実施形態の対話者特定処理部84は、一例として、装着者100の視線に加えて、外向きカメラ50によって撮像された当該視線が向う側の画像に基づいて対話者200を特定する。対話者特定処理部84は、外向きカメラ50によって撮像された画像から人物を検出し、検出した人物から装着者100の視線の方向に位置する人物を特定する。そして、対話者特定処理部84は、装着者100の視線が当該特定した人物に所定時間(例えば、2秒以上)滞留した場合に、当該人物を対話者200として特定する。
As an example, the interlocutor
また、本実施形態の対話者特定処理部84は、特定した対話者200の位置に基づいて当該対話者200までの距離を推定する。ここでいう対話者200までの距離とは、装着者100と対話者200との距離であり、概略的には、特定された対話者200とマイク60との距離にも相当する。
Further, the interlocutor
ここでは、対話者特定処理部84は、一例として、図6、図7、図8に示すように、視線検出センサ40によって検出され視線検出処理部83によって処理された装着者100の視線に基づいて装着者100の輻輳角θを算出し、算出した当該輻輳角θに基づいて対話者200までの距離Dを推定する。
Here, as an example, the interlocutor
ここでいう装着者100の輻輳角θとは、図6、図7、図8に示すように、装着者100の左の眼球103Lの視線と右の眼球103Rの視線とがなす角度である。なお、この図6、図7、図8中には、瞳孔103aと共に中心窩103cも図示している。対話者特定処理部84は、視線検出センサ40によって検出され視線検出処理部83によって処理された左の眼球103Lの視線の方向と右の眼球103Rの視線の方向とに基づいて装着者100の当該輻輳角θを算出する。なお、視線に基づいて算出される輻輳角θは、装着者100によって個人差があるので、ウェアラブル機器1の使用にあたっては適宜キャリブレーションを実施しておくことが好ましい。
The angle of convergence θ of the
ここで、図6、図7、図8に示すように、人体は、近くの対話者(物体)200を視る場合、すなわち、対話者200までの距離Dが相対的に短い場合に輻輳角θが相対的に大きくなる傾向にある。逆に、人体は、遠くの対話者(物体)200を視る場合、すなわち、対話者200までの距離Dが相対的に長い場合に輻輳角θが相対的に小さくなる傾向にある。
Here, as shown in FIGS. 6, 7, and 8, when the human body sees a nearby interlocutor (object) 200, that is, when the distance D to the
対話者特定処理部84は、図6、図7、図8に示すような対話者200までの距離Dと輻輳角θとの傾向を利用し、算出した輻輳角θに基づいて対話者200までの距離Dを推定する。例えば、ウェアラブル機器1は、対話者200までの距離Dと輻輳角θとの傾向を表す数式やテーブルを記憶部70に予め記憶しておく。そして、対話者特定処理部84は、当該数式や当該テーブルに基づいて、輻輳角θから対話者200までの距離Dを算出する。
The interlocutor
指向角設定処理部85は、対話者特定処理部84によって特定された対話者200の位置に基づいてマイク60による集音における指向角αを可変とする処理を実行可能な機能を有する部分である。
The directivity angle setting
ここで、図9、図10を参照して、対話者200の位置にかかわらず、マイク60の指向角αを固定とした場合について説明する。例えば、マイク60は、図9に例示するように、装着者100からの距離Dが相対的に短く当該装着者100の近くに位置する対話者200Aの肩幅(例えば45~46cm程度)にあわせて指向角αを相対的に大きな値に設定した場合を仮定する。この場合、マイク60は、装着者100からの距離Dが相対的に長く当該装着者100から離れて位置する対話者200Bの音声を集音するに際には、周囲のノイズ(例えば、周囲の人物の音声等)を拾い易い傾向となる。逆に、マイク60は、図10に例示するように、装着者100からの距離Dが相対的に長く当該装着者100から離れて位置する対話者200Bの肩幅にあわせて指向角αを相対的に小さな値に設定した場合を仮定する。この場合、マイク60は、装着者100からの距離Dが相対的に短く当該装着者100の近くに位置する対話者200Aの音声を集音するに際には、対話者200Aの音声を拾い難い傾向となる。
Here, a case where the directivity angle α of the
本実施形態の指向角設定処理部85は、マイク60による集音において、対話者200までの距離Dに応じてより好ましい指向角αが異なる、という上記のような傾向に基づいて、マイク60の指向角αを変化させる。すなわちここでは、指向角設定処理部85は、上記のような傾向に基づいて、対話者200の位置に応じて、マイク60の集音方向、及び、指向角αを設定する。この処理により、指向角設定処理部85は、マイク60を介した音声認識率を向上させる。
The directivity angle setting
より具体的には、指向角設定処理部85は、上記のような傾向に基づいて、対話者200までの距離Dに応じてマイク60の指向角αを設定する。指向角設定処理部85は、図11、図12に示すように、特定された対話者200とマイク60との距離Dが相対的に長いほど、指向角αを相対的に小さくし、特定された対話者200とマイク60との距離Dが相対的に短いほど、指向角αを相対的に大きくする。
More specifically, the directivity angle setting
人物の肩幅の範囲を全て集音対象範囲に入れるとすると、必要となる指向角αは、上述したようにその人物(対話者200)までの距離Dに応じて変わり、例えば、図13に例示するように、下記の数式(1)を用いて距離Dに応じて定まる。
tan(α/2)=肩幅/2×1/D ・・・ (1)
Assuming that the entire shoulder width range of a person is included in the sound collection target range, the required directivity angle α varies according to the distance D to the person (interlocutor 200) as described above. is determined according to the distance D using the following formula (1).
tan(α/2)=shoulder width/2×1/D (1)
図14は、対話者200までの距離Dと、当該距離Dにおける好適な指向角αとの関係の一例を表した表図である。人物の肩幅は、45~46cm程度と略一定なので、例えば、肩幅を固定値=45cmと仮定すると、指向角αは、距離Dが0.45mである場合は53.1度程度、距離Dが1.2mである場合は21.2度程度、距離Dが3.5mである場合は7.36度程度にとなる。
FIG. 14 is a table showing an example of the relationship between the distance D to the
例えば、ウェアラブル機器1は、対話者200までの距離Dと指向角αとの上記のような傾向を表す数式やテーブルを記憶部70に予め記憶しておく。そして、指向角設定処理部85は、当該数式や当該テーブルに基づいて、対話者200までの距離Dから指向角αを算出、設定する。指向角設定処理部85は、距離Dに応じて指向角αをリニアに変更して設定してもよいが、ここでは、距離Dに応じて上記の3つの指向角αを段階的に変更して設定する。
For example, the
そして、指向角設定処理部85は、視線の方向、対話者200の位置、距離D等に応じて集音方向、指向角αを設定し、当該設定した集音方向、指向角αに応じた動作指令をマイク60に入力し、当該マイク60を設定した集音方向、指向角αで集音させる。
Then, the directivity angle setting
この処理により、ウェアラブル機器1は、図11に示すように、装着者100からの距離Dが相対的に短く当該装着者100の近くに位置する対話者200Aの音声を集音するに際には、指向角αが相対的に大きく設定される。これにより、ウェアラブル機器1は、対話者200Aの音声を拾い易くすることができる。一方、ウェアラブル機器1は、図12に示すように、装着者100からの距離Dが相対的に長く当該装着者100から離れて位置する対話者200Bの音声を集音するに際には、指向角αが相対的に小さく設定される。これにより、ウェアラブル機器1は、対話者200Bの周囲のノイズ(例えば、周囲の人物の音声等)を拾い難くすることができる。
As a result of this processing, the
音声入力処理部86は、マイク60を制御し当該マイク60によって音声を入力する処理を実行可能な機能を有する部分である。音声入力処理部86は、指向角設定処理部85によって設定された集音方向、指向角αでマイク60によって集音する。音声入力処理部86は、マイク60によって集音した集音データを一旦記憶回部70に記憶させるようにしてもよい。
The voice
変換処理部87は、マイク60によって入力された音声を視覚情報VIに変換する処理を実行可能な機能を有する部分である。変換処理部87は、指向角設定処理部85によって設定された集音方向、指向角αでマイク60によって集音された音から、音声認識機能(音声認識エンジン)によって対話者200の音声を認識する。そして、変換処理部87は、音声認識した対話者200の音声を視覚情報VIに変換する。ここでは、変換処理部87は、音声認識した対話者200の音声を、対話者200の音声に対応した文字列(テキスト)に変換し、図3に例示したように、視覚情報VIとして、当該文字列を表す文字画像情報VI1を生成する。変換処理部87は、生成した視覚情報VI、ここでは、文字画像情報VI1を一旦記憶回部70に記憶させるようにしてもよい。
The
表示制御処理部88は、変換処理部87によって変換した視覚情報VIを表示器本体10の透明ディスプレイ11に表示させる処理を実行可能な機能を有する部分である。表示制御処理部88は、図3に例示するように、対話者200の音声に対応した視覚情報VIとして、当該音声に対応した文字列を表す文字画像情報VI1を、透明ディスプレイ11によって装着者100の視界に表示させ、対話者200の音声を字幕表示させる。
The display
次に、図15、図16、図17のフローチャート図を参照して、ウェアラブル機器1おける処理手順について説明する。
Next, a processing procedure in the
まず、図15に示すように、処理部80の装着検出処理部81は、装着センサ30による検出結果に基づいて、装着者100がウェアラブル機器(スマートグラス)1を外したか否か、言い換えれば、ウェアラブル機器1が頭部102に装着されているか否かを判定する(ステップS1)。
First, as shown in FIG. 15, the wearing
処理部80の電源制御処理部82は、装着検出処理部81によって装着者100がウェアラブル機器1を外したと判定された場合(ステップS1:Yes)、言い換えれば、ウェアラブル機器1が頭部102に装着されていないと判定された場合、電源20をOFF(最小限の待機状態)とし、この処理を終了する。
When the wearing
処理部80の視線検出処理部83は、装着検出処理部81によって装着者100がウェアラブル機器1を外していないと判定された場合(ステップS1:No)、言い換えれば、ウェアラブル機器1が頭部102に装着されていると判定された場合、視線検出センサ40による検出結果に基づいて、装着者100の視線を検出したか否かを判定する(ステップS2)。
When the wearing
処理部80は、視線検出処理部83によって装着者100の視線を検出していないと判定された場合(ステップS2:No)、ステップS1に戻って以降の処理を繰り返し実行する。
When the line-of-sight
視線検出処理部83は、装着者100の視線を検出したと判定された場合(ステップS2:Yes)、視線検出センサ40による検出結果に基づいて、入力された視線から当該視線の方向を取得する(ステップS3)。
When it is determined that the line of sight of the
次に、処理部80の対話者特定処理部84は、視線検出処理部83によって処理された装着者100の視線の方向と、外向きカメラ50によって撮像された画像とに基づいて、当該画像から特定される人物に視線が2秒以上滞留したか否かを判定する(ステップS4)。
Next, the interlocutor
処理部80は、対話者特定処理部84によって画像から特定される人物に視線が2秒以上滞留していないと判定された場合(ステップS4:No)、ステップS2に戻って以降の処理を繰り返し実行する。
When the interlocutor
対話者特定処理部84は、画像から特定される人物に視線が2秒以上滞留したと判定した場合(ステップS4:Yes)、当該人物を対話者200として特定する(ステップS5)。
When the interlocutor
次に、対話者特定処理部84は、視線検出センサ40による検出結果に基づいて、入力された視線から装着者100の輻輳角θを取得する(ステップS6)。対話者特定処理部84は、左の眼球103Lの視線の方向と右の眼球103Rの視線の方向とに基づいて装着者100の輻輳角θを算出、取得する。
Next, the interlocutor
次に、対話者特定処理部84は、取得した装着者100の輻輳角θに基づいて対話者200までの距離Dを推定する(ステップS7)。対話者特定処理部84は、例えば、記憶部70に記憶されている数式やテーブルに基づいて、輻輳角θから対話者200までの距離Dを算出、推定する。
Next, the interlocutor
次に、指向角設定処理部85は、対話者特定処理部84によって推定された対話者200までの距離Dに基づいてマイク60の指向角αを決定する(ステップS8)。指向角設定処理部85は、例えば、記憶部70に記憶されている数式やテーブルに基づいて、対話者200までの距離Dからマイク60の指向角αを決定する。なお、この指向角αの決定フローについては、図17で一例を後述する。
Next, the directivity angle setting
そして、指向角設定処理部85は、視線の方向、対話者200の位置、距離D等に基づいて取得した集音方向、指向角αに応じた動作指令をマイク60に入力する(ステップS9)。
Then, the directivity angle setting
そして、処理部80の音声入力処理部86は、指向角設定処理部85によって設定された集音方向にマイク60を向け、指向角設定処理部85によって設定された指向角αで集音させる(ステップS10)。
Then, the voice
次に、処理部80の変換処理部87は、マイク60によって入力された音声を取得し、公知の音声認識エンジンに入力する(ステップS11)。
Next, the
そして、変換処理部87は、音声認識を実行して、集音された音から対話者200の音声を認識し、音声認識した対話者200の音声を文字列(テキスト)に変換し、視覚情報VIとして、当該文字列を表す文字画像情報VI1を生成する(ステップS12)。
Then, the
次に、処理部80の表示制御処理部88は、変換処理部87によって変換した視覚情報VI、ここでは、音声認識の結果として、文字列を表す文字画像情報VI1を表示器本体10の透明ディスプレイ11に出力し表示させる(ステップS13)。
Next, the display
ここでは、表示制御処理部88は、図16に示すように、出力する文字列を所定文字数、例えば、20文字ごとに区切り(ステップS14)、透明ディスプレイ11上で当該文字列を出力する位置を決定する(ステップS15)。
Here, as shown in FIG. 16, the display
そして、表示制御処理部88は、現在、透明ディスプレイ11上に出力されている20文字を消し(ステップS16)、次に20文字に区切られた文字列を表す文字画像情報VI1を透明ディスプレイ11上の決められた位置に出力する(ステップS17)。
Then, the display
そして、表示制御処理部88は、出力する文字がもうないか否かを判定し(ステップS18)、出力する文字がまだあると判定した場合(ステップS18:No)、ステップS16に戻って以降の処理を繰り返し実行する。処理部80は、表示制御処理部88によって出力する文字がもうないと判定された場合(ステップS18:Yes)、図15のステップS1に戻って以降の処理を繰り返し実行する。
Then, the display
次に、図17を参照して、ステップS8の指向角αの決定フローの一例について説明する。 Next, an example of the flow for determining the directivity angle α in step S8 will be described with reference to FIG.
この場合まず、指向角設定処理部85は、ステップS7で対話者特定処理部84によって輻輳角θに基づいて推定された対話者200までの距離Dが3.5m以上であるかを判定する(ステップS21)。
In this case, the directivity angle setting
指向角設定処理部85は、対話者200までの距離Dが3.5m以上であると判定した場合(ステップS21:Yes)、マイク60の指向角αを7.36度に決定し(ステップS22)、当該決定フローを終了する。
When the directivity angle setting
指向角設定処理部85は、対話者200までの距離Dが3.5m未満であると判定した場合(ステップS21:No)、対話者200までの距離Dが1.2m以上3.5m未満であるかを判定する(ステップS23)。
When the directivity angle setting
指向角設定処理部85は、対話者200までの距離Dが1.2m以上3.5m未満であると判定した場合(ステップS23:Yes)、マイク60の指向角αを21.2度に決定し(ステップS24)、当該決定フローを終了する。
When the directivity angle setting
指向角設定処理部85は、対話者200までの距離Dが1.2m未満であると判定した場合(ステップS24:No)、対話者200までの距離Dが0.45m以上1.2m未満であるかを判定する(ステップS25)。
When the directivity angle setting
指向角設定処理部85は、対話者200までの距離Dが0.45m以上1.2m未満であると判定した場合(ステップS25:Yes)、マイク60の指向角αを53.1度に決定し(ステップS26)、当該決定フローを終了する。
When the directivity angle setting
指向角設定処理部85は、対話者200までの距離Dが0.45m未満であると判定した場合(ステップS25:No)、現状の指向角α(典型的には最大の指向角α)を維持したまま、当該決定フローを終了する。
When the orientation angle setting
以上で説明したウェアラブル機器1は、マイク60によって入力された対話者200の音声を、処理部80による処理に応じて視覚情報VIに変換する。そして、ウェアラブル機器1は、処理部80による処理に応じて、頭部102に装着された状態で装着者100の視界に情報を表示可能である表示器本体10に当該視覚情報VIを表示させる。この結果、ウェアラブル機器1は、例えば、聴覚障害者が対話者200の言葉を読み取るために当該対話者200の口元に視線を集中させなくても、リアルタイムに対話者200の会話内容を知ることができる。
The
以上のように、ウェアラブル機器1は、例えば、通訳者等によらずに、適正にコミュニケーションを補助することができる。この結果、ウェアラブル機器1は、例えば、聴覚障害者におけるコミュニケーションの負担を緩和することができ、聴覚障害者の生活福祉を向上させることができる。
As described above, the
また、以上で説明したウェアラブル機器1は、処理部80が視線検出センサ40によって検出された装着者100の視線に基づいて対話者200を特定し、特定された対話者200の位置に基づいてマイク60による集音における指向角αを可変とする処理を実行する。この処理により、ウェアラブル機器1は、特定した対話者200の位置に応じた適切な指向角αでマイク60による集音を行うことができるので、対話者200の位置にかかわらず音声認識率を向上させることができる。この結果、ウェアラブル機器1は、対話者200の位置にかかわらずより適正にコミュニケーションを補助することができる。
Further, in the
より具体的には、以上で説明したウェアラブル機器1は、処理部80が対話者200とマイク60との距離Dが相対的に長いほど、指向角αを相対的に小さくし、当該距離Dが相対的に短いほど、指向角αを相対的に大きくする。この処理により、ウェアラブル機器1は、装着者100からの距離Dが相対的に短く当該装着者100の近くに位置する対話者200の音声を集音するに際には、当該対話者200の音声を拾い易くすることができる。一方、ウェアラブル機器1は、装着者100からの距離Dが相対的に長く当該装着者100から離れて位置する対話者200の音声を集音するに際には、当該対話者200の周囲のノイズ(例えば、周囲の人物の音声等)を拾い難くすることができる。この結果、ウェアラブル機器1は、上記のように対話者200がいずれの位置にいる場合であっても、周囲の他の人物の音声等のノイズを拾い難くし、当該対話者200の音声を拾い易くすることができる。これにより、ウェアラブル機器1は、上記のように、対話者200の位置にかかわらずより適正にコミュニケーションを補助することができる。
More specifically, in the
ここでは、以上で説明したウェアラブル機器1は、視覚情報VIとして対話者200の音声に対応した文字列(テキスト)を表す文字画像情報VI1を含む。これにより、ウェアラブル機器1は、対話者200の音声に対応した文字列を表す文字画像情報VI1を、表示器本体10によって装着者100の視界に視覚情報VIとして表示させ、対話者200の音声を字幕表示させることができる。
Here, the
なお、上述した本発明の実施形態に係るウェアラブル機器は、上述した実施形態に限定されず、特許請求の範囲に記載された範囲で種々の変更が可能である。 The wearable device according to the embodiment of the present invention described above is not limited to the embodiment described above, and various modifications are possible within the scope of the claims.
以上の説明では、対話者特定処理部84は、視線検出センサ40によって検出された装着者100の視線に基づいて輻輳角θを算出し、算出した当該輻輳角θに基づいて対話者200までの距離Dを推定するものとして説明したがこれ限らない。対話者特定処理部84は、例えば、図18、図19、図20に示すように、輻輳角θに基づかずに、外向きカメラ50によって撮像された画像に基づいて人物の大きさ等から対話者200までの距離Dを推定してもよい。
In the above description, the interlocutor
この場合、対話者特定処理部84は、図18に示すように、対話者200を特定した後(ステップS5)、外向きカメラ50によって撮像された画像において、対話者200の肩幅の画面上の大きさから当該対話者200までの距離Dを算出、推定し、指向角設定処理部85は、当該距離Dからマイク60の指向角αを決定する(ステップS6A)。
In this case, as shown in FIG. 18, after identifying the interlocutor 200 (step S5), the interlocutor
具体的には、対話者特定処理部84は、図19の指向角αの決定フローに例示するように、外向きカメラ50によって撮像された画像から対話者200に相当する人物を検出し、外向きカメラ50のイメージセンサ上の肩幅Wの大きさに相当するpixel値W1を検出する(ステップS20A)。
Specifically, the interlocutor
ここで、上述したように、人物の肩幅Wは、45~46cm程度と略一定なので、例えば、肩幅を固定値=45cmと仮定すると、図20に示すように、対話者特定処理部84は、対話者200の肩幅Wについて、外向きカメラ50のイメージセンサ上のpixel値W1を検出することで、対話者200までの距離Dを算出、推定することができる。
Here, as described above, since the shoulder width W of the person is approximately constant at about 45 to 46 cm, for example, assuming that the shoulder width is a fixed value of 45 cm, as shown in FIG. For the shoulder width W of the
例えば、外向きカメラ50のイメージセンサのサイズを1/3インチ、画素数をVGA(640×480)、焦点距離F=2mmとすると、水平方向の撮影範囲D1は、対話者200までの距離Dに応じて、下記の数式(2)により求まる。
D1=4.8mm(イメージセンサの幅)×D/F ・・・ (2)
For example, if the size of the image sensor of the
D1=4.8 mm (width of image sensor)×D/F (2)
そして、対話者200までの距離Dが0.45mである場合、水平方向の撮影範囲D1は、上記の数式(2)より、D1=4.8mm×0.45m/2mm=1.08mとなるので、pixel値W1は、下記の比例式(3)の関係となる。
0.45m:1.08m=W1:640pixel ・・・ (3)
これにより、対話者200までの距離Dが0.45mである場合は、W1=267pixelとなる。
When the distance D to the
0.45m: 1.08m = W1: 640 pixels (3)
Accordingly, when the distance D to the
同様にして、対話者200までの距離Dが1.2mである場合、水平方向の撮影範囲D1は、上記の数式(2)より、D1=4.8mm×1.2m/2mm=2.88mとなるので、pixel値W1は、下記の比例式(4)の関係となる。
0.45m:2.88m=W1:640pixel ・・・ (4)
これにより、対話者200までの距離Dが1.2mである場合は、W1=100pixelとなる。
Similarly, when the distance D to the
0.45m: 2.88m = W1: 640 pixels (4)
Accordingly, when the distance D to the
また、対話者200までの距離Dが3.5mである場合、水平方向の撮影範囲D1は、上記の数式(2)より、D1=4.8mm×3.5m/2mm=8.4mとなるので、pixel値W1は、下記の比例式(5)の関係となる。
0.45m:8.4m=W1:640pixel ・・・ (5)
これにより、対話者200までの距離Dが3.5mである場合は、W1=34.3pixelとなる。
Further, when the distance D to the
0.45m: 8.4m = W1: 640 pixels (5)
Accordingly, when the distance D to the
以上を用いて、対話者特定処理部84は、外向きカメラ50の画像認識結果から求めた画像上の肩幅Wの大きさから、距離Dを推定することが可能である。
Using the above, the interlocutor
ここでは、対話者特定処理部84は、ステップS20Aの後、ステップS20Aで検出した肩幅Wの大きさに相当するpixel値W1が34.3pixel以下であるか否かを判定する(ステップS21A)。
Here, after step S20A, the interlocutor
対話者特定処理部84は、pixel値W1が34.3pixel以下であると判定した場合(ステップS21A:Yes)、対話者200までの距離Dが3.5m以上であるものと判定する。そして、指向角設定処理部85は、マイク60の指向角αを7.36度に決定し(ステップS22A)、当該決定フローを終了する。
When determining that the pixel value W1 is 34.3 pixels or less (step S21A: Yes), the interlocutor
対話者特定処理部84は、pixel値W1が34.3pixelより大きいと判定した場合(ステップS21A:No)、当該pixel値W1が34.3pixelより大きく100pixel以下であるか否かを判定する(ステップS23A)。
When the interlocutor
対話者特定処理部84は、pixel値W1が34.3pixelより大きく100pixel以下であると判定した場合(ステップS23A:Yes)、対話者200までの距離Dが1.2m以上3.5m未満であるものと判定する。そして、指向角設定処理部85は、マイク60の指向角αを21.2度に決定し(ステップS24A)、当該決定フローを終了する。
When the interlocutor
対話者特定処理部84は、pixel値W1が100pixelより大きいと判定した場合(ステップS23A:No)、当該pixel値W1が100pixelより大きく267pixel以下であるか否かを判定する(ステップS25A)。
When the interlocutor
対話者特定処理部84は、pixel値W1が100pixelより大きく267pixel以下であると判定した場合(ステップS25A:Yes)、対話者200までの距離Dが0.45m以上1.2m未満であるものと判定する。そして、指向角設定処理部85は、マイク60の指向角αを53.1度に決定し(ステップS26A)、当該決定フローを終了する。
When the interlocutor
対話者特定処理部84は、pixel値W1が267pixelより大きいと判定した場合(ステップS25A:No)、対話者200までの距離Dが0.45m未満であると判定し、指向角設定処理部85は、現状の指向角α(典型的には最大の指向角α)を維持したまま、当該決定フローを終了する。
When the interlocutor
以上のように、ウェアラブル機器1は、外向きカメラ50によって撮像された画像に基づいて対話者200までの距離Dを推定し、当該距離Dに基づいてマイク60の指向角αを設定することもできる。この場合であっても、ウェアラブル機器1は、対話者200の位置にかかわらず音声認識率を向上させることができ、より適正にコミュニケーションを補助することができる。
As described above, the
また、以上の説明では、対話者特定処理部84は、一例として、装着者100の視線に加えて、外向きカメラ50によって撮像された画像に基づいて対話者200を特定するものとして説明したがこれに限らない。対話者特定処理部84は、外向きカメラ50によって撮像された画像を用いず、視線検出センサ40を介して視線検出処理部83によって検出された装着者100の視線の方向や当該視線の方向に応じた輻輳角θに基づいて対話者200の位置の特定や距離Dの推定を簡略化して行うようにしてもよい。例えば、対話者特定処理部84は、視線の方向や輻輳角θが所定時間、変化しない場合に、このときの視線の方向や輻輳角θに基づいて対話者200の位置の特定や距離Dの推定を行うことができる。この場合、ウェアラブル機器1は、外向きカメラ50を備えない構成であってもよい。
Further, in the above description, as an example, the interlocutor
また、以上の説明では、ウェアラブル機器1は、装着者100の視線を検出して対話者200の位置を特定するものとして説明したが、そもそも、装着者100の視線検出を行わない構成であってもよい。この場合、ウェアラブル機器1は、視線検出センサ40を備えない構成であってもよく、処理部80は、対話者200までの距離Dにかかわらずマイク60の指向角αを固定してマイク60による集音を行うようにしてもよい。
Further, in the above description, the
また、以上の説明では、透明ディスプレイ11によって装着者100の視界に表示する視覚情報VIは、文字画像情報VI1を含むものとして説明したがこれ限らない。当該視覚情報VIは、例えば、図21に示すように、対話者200の音声に対応した手話を表す手話動画像情報VI2を含むものであってもよい。この場合、変換処理部87は、音声認識した対話者200の音声を、対話者200の音声に対応した手話に関する情報に変換し、視覚情報VIとして、当該手話を表す手話動画像情報VI2を生成する。表示制御処理部88は、対話者200の音声に対応した視覚情報VIとして、当該音声に対応した手話を表す手話動画像情報VI2を、透明ディスプレイ11によって装着者100の視界に表示させる。これにより、ウェアラブル機器1は、対話者200の音声に対応した手話を表す手話動画像情報VI2を、表示器本体10によって装着者100の視界に視覚情報VIとして表示させ、例えば、手話通訳ロボットをオーバーレイ表示させることができる。
Further, in the above description, the visual information VI displayed in the field of view of the
以上で説明した処理部80は、単一のプロセッサによって各処理機能が実現されるものとして説明したがこれに限らない。処理部80は、複数の独立したプロセッサを組み合わせて各プロセッサがプログラムを実行することにより各処理機能が実現されてもよい。また、処理部80が有する処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。また、処理部80が有する処理機能は、その全部又は任意の一部をプログラムにて実現してもよく、また、ワイヤードロジック等によるハードウェアとして実現してもよい。
Although the
本実施形態に係るウェアラブル機器は、以上で説明した実施形態、変形例の構成要素を適宜組み合わせることで構成してもよい。 The wearable device according to this embodiment may be configured by appropriately combining the constituent elements of the embodiments and modifications described above.
1 ウェアラブル機器
10 表示器本体
11 透明ディスプレイ
11L 左ディスプレイ
11R 右ディスプレイ
12 フレーム
20 電源
30 装着センサ
40 視線検出センサ(視線検出部)
41 内向きカメラ
50 外向きカメラ
60 マイク(音声入力部)
70 記憶部
80 処理部
81 装着検出処理部
82 電源制御処理部
83 視線検出処理部
84 対話者特定処理部
85 指向角設定処理部
86 音声入力処理部
87 変換処理部
88 表示制御処理部
100 装着者
101 人体
102 頭部
200、200A、200B 対話者
D 距離
VI 視覚情報
VI1 文字画像情報
VI2 手話動画像情報
α 指向角
θ 輻輳角
1
41
70
Claims (5)
前記表示器本体に設けられ、対話者の音声を入力可能である音声入力部と、
前記表示器本体に設けられ、前記音声入力部によって入力された前記音声を視覚情報に変換する処理、及び、変換した当該視覚情報を前記表示器本体に表示させる処理を実行可能である処理部とを備えることを特徴とする、
ウェアラブル機器。 a display body that can display information in the wearer's field of vision when worn on the head of the human body;
a voice input unit provided in the display body and capable of inputting voice of the interlocutor;
a processing unit provided in the display main body and capable of executing processing of converting the voice input by the voice input unit into visual information, and processing of displaying the converted visual information on the display main body; characterized by comprising
wearable devices.
前記処理部は、前記視線検出部によって検出された前記装着者の視線に基づいて前記対話者を特定する処理、及び、特定された前記対話者の位置に基づいて前記音声入力部による集音における指向角を可変とする処理を実行可能である、
請求項1に記載のウェアラブル機器。 A line-of-sight detection unit provided in the display body and capable of detecting the line of sight of the wearer,
The processing unit performs a process of identifying the interlocutor based on the line of sight of the wearer detected by the line of sight detection unit, and performing sound collection by the voice input unit based on the identified position of the interlocutor. It is possible to execute processing that makes the directivity angle variable,
The wearable device according to claim 1.
請求項2に記載のウェアラブル機器。 The processing unit relatively decreases the directivity angle as the distance between the identified interlocutor and the voice input unit is relatively longer, and decreases the directivity angle as the distance is relatively shorter. make it bigger
The wearable device according to claim 2.
請求項1乃至請求項3のいずれか1項に記載のウェアラブル機器。 The visual information includes character image information representing a character string corresponding to the voice,
The wearable device according to any one of claims 1 to 3.
請求項1乃至請求項4のいずれか1項に記載のウェアラブル機器。 wherein the visual information includes sign language moving image information representing sign language corresponding to the voice;
The wearable device according to any one of claims 1 to 4.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021094880A JP2022187072A (en) | 2021-06-07 | 2021-06-07 | Wearable device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021094880A JP2022187072A (en) | 2021-06-07 | 2021-06-07 | Wearable device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022187072A true JP2022187072A (en) | 2022-12-19 |
Family
ID=84525503
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021094880A Pending JP2022187072A (en) | 2021-06-07 | 2021-06-07 | Wearable device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022187072A (en) |
-
2021
- 2021-06-07 JP JP2021094880A patent/JP2022187072A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10656424B2 (en) | Information display terminal, information display system, and information display method | |
CN108519676B (en) | Head-wearing type vision-aiding device | |
US11579837B2 (en) | Audio profile for personalized audio enhancement | |
US20120259638A1 (en) | Apparatus and method for determining relevance of input speech | |
CN104090371B (en) | A kind of 3D glasses and 3D display systems | |
US11487354B2 (en) | Information processing apparatus, information processing method, and program | |
CN112666705A (en) | Eye movement tracking device and eye movement tracking method | |
US11157078B2 (en) | Information processing apparatus, information processing method, and program | |
CN114365510A (en) | Selecting spatial positioning for audio personalization | |
KR20130059827A (en) | Glasses type camera using by pupil tracker | |
WO2018220963A1 (en) | Information processing device, information processing method, and program | |
CN113303791A (en) | Online self-service physical examination system for motor vehicle driver, mobile terminal and storage medium | |
WO2021230180A1 (en) | Information processing device, display device, presentation method, and program | |
US11281893B2 (en) | Method and device for modifying the affective visual information in the field of vision of an user | |
CN106598259B (en) | A kind of input method of headset equipment, loader and VR helmet | |
JP2023174820A (en) | Wearable apparatus and display method | |
JP2022187072A (en) | Wearable device | |
US11231591B2 (en) | Information processing apparatus, information processing method, and program | |
WO2020170758A1 (en) | Recognition device, wearable character recognition device, recognition method, and recognition program | |
JP2022108194A (en) | Image projection method, image projection device, unmanned aircraft and image projection program | |
JP2009106325A (en) | Communication induction system | |
US20230065296A1 (en) | Eye-tracking using embedded electrodes in a wearable device | |
US20230308753A1 (en) | Camera system for focusing on and tracking objects | |
JP2022101328A (en) | Image projection method, image projection device, unmanned aerial vehicle, and image projection program | |
JP2022113973A (en) | Display method, display device, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240416 |