JP2022079067A - スマートグラス、プログラム及び表示制御方法 - Google Patents
スマートグラス、プログラム及び表示制御方法 Download PDFInfo
- Publication number
- JP2022079067A JP2022079067A JP2020190020A JP2020190020A JP2022079067A JP 2022079067 A JP2022079067 A JP 2022079067A JP 2020190020 A JP2020190020 A JP 2020190020A JP 2020190020 A JP2020190020 A JP 2020190020A JP 2022079067 A JP2022079067 A JP 2022079067A
- Authority
- JP
- Japan
- Prior art keywords
- display
- user
- display information
- face area
- size
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000004984 smart glass Substances 0.000 title claims abstract description 62
- 238000000034 method Methods 0.000 title claims abstract description 14
- 238000004891 communication Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 8
- 230000015572 biosynthetic process Effects 0.000 claims description 5
- 238000003786 synthesis reaction Methods 0.000 claims description 5
- 210000000988 bone and bone Anatomy 0.000 claims description 4
- 238000001514 detection method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 208000024891 symptom Diseases 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 229940079593 drug Drugs 0.000 description 4
- 239000003814 drug Substances 0.000 description 4
- 235000012054 meals Nutrition 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000003287 bathing Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 230000029142 excretion Effects 0.000 description 3
- 230000036571 hydration Effects 0.000 description 3
- 238000006703 hydration reaction Methods 0.000 description 3
- 230000007774 longterm Effects 0.000 description 3
- 238000011282 treatment Methods 0.000 description 3
- 230000036772 blood pressure Effects 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000003862 health status Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000004270 retinal projection Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
Description
ユーザID(識別子)に応じた表示情報を予め記憶した表示情報記憶手段と、
映像から、人の顔領域を認識し、当該顔領域のサイズを検出し、当該顔領域からユーザIDを特定する顔認識手段と、
顔領域のサイズが第1の所定範囲以上となる場合、特定されたユーザIDに応じた表示情報をディスプレイに表示する表示制御手段と
を有することを特徴とする。
表示情報は、文字、画像及び/又は映像であってもよい。
現在位置を検知するセンシング手段を更に有し、
表示情報記憶手段は、位置に応じた表示情報を更に記憶しており、
表示制御手段は、顔領域(バウンディングボックス)のサイズが第1の所定範囲よりも小さい場合、検知された現在位置に応じた表示情報をディスプレイに表示する
ことも好ましい。
表示情報記憶手段は、
各ユーザIDについて、位置及び時間帯の組毎に応じた表示情報と、
各位置について、時間帯に応じた表示情報と
を記憶しており、
表示制御手段は、認識された顔領域のサイズが、
第1の所定範囲以上となる場合、ユーザID、現在位置及び時間帯に応じた表示情報をディスプレイに表示し、
第1の所定範囲よりも小さい場合、現在位置及び時間帯に応じた表示情報をディスプレイに表示する
ことも好ましい。
装着元ユーザの聴覚へ音声を出力するスピーカを更に有し、
表示制御手段は、認識された顔領域のサイズが第2の所定範囲よりも小さい場合、ディスプレイに表示すべき表示情報が文字である場合、音声合成によって音声に変換し、当該音声をスピーカから出力する
ことも好ましい。
スピーカは、骨伝導スピーカであってもよい。
顔認識手段によって認識された人の顔領域のサイズが大きいほど、当該人と装着元ユーザとの間の距離が近く、サイズが小さいほど、当該人と装着元ユーザとの間の距離が遠く、
顔領域のサイズの第1の所定範囲は、当該人と装着元ユーザとの間の距離に基づくものである
ことも好ましい。
装着元ユーザが移動可能な周辺環境に、位置に応じて無線タグが配置されており、
表示制御手段は、
位置毎に、無線タグのMACアドレス及び/又はタグIDを記憶した位置テーブルを有し、
複数の無線タグを検出した際に、電波強度が最も強い無線信号を受信する無線タグのMACアドレス及び/又はタグIDから、位置テーブルを用いて位置を特定するか、
又は、電波強度が強い順に無線信号を受信する3つの無線タグのMACアドレス及び/又はタグIDから、位置テーブルを用いて三角測量によって位置を特定する
ことも好ましい。
無線ネットワークを介してサーバに接続する無線通信インタフェースを更に有し、
表示情報記憶手段は、無線通信ネットワークを介してサーバから、ユーザIDに応じた表示情報を予め受信する
ことも好ましい。
ユーザIDに応じた表示情報を予め記憶した表示情報記憶手段と、
映像から、人の顔領域を認識し、当該顔領域のサイズを検出し、当該顔領域からユーザIDを特定する顔認識手段と、
顔領域のサイズが第1の所定範囲以上となる場合、特定されたユーザIDに応じた表示情報をディスプレイに表示する表示制御手段と
してコンピュータを機能させることを特徴とする。
スマートグラスは、
ユーザIDに応じた表示情報を予め記憶した表示情報記憶部を有し、
映像から、人の顔領域を認識し、当該顔領域のサイズを検出し、当該顔領域からユーザIDを特定する第1のステップと、
顔領域のサイズが第1の所定範囲以上となる場合、特定されたユーザIDに応じた表示情報をディスプレイに表示する第2のステップと
を実行することを特徴とする。
図1によれば、スマートグラス1は、ハードウェアとして、ディスプレイ101と、カメラ102と、スピーカ103と、センシング部104と、無線通信インタフェース105とを有する。
ディスプレイ101は、特定の表示情報を、装着元ユーザの視界に映し出す。表示情報としては、一般的には文字であるが、勿論、画像や映像であってもよい。
カメラ102は、装着元ユーザにおける視界先の映像を撮影する。映像には、視界先ユーザが映り込む場合もあれば、視界先にユーザが存在せずに施設設備のみが映り込む場合もある。
スピーカ103は、音声信号を、装着元ユーザの聴覚へ発声する。音声信号は、ディスプレイ101への表示情報が文字である場合、その文字を音声合成によって変換したものである。また、スピーカ103は、骨電動スピーカであってもよい。装着元ユーザのこめかみに接して振動させることによって、装着元ユーザに聴覚的に文字を認識させることができる。これによって、視界先ユーザに聞こえることなく、装着元ユーザに文字を認識させることができる。
センシング部104は、例えばBluetooth(登録商標)であって、BLE(Bluetooth Low Energy)タグから発信される無線信号を受信する。BLEタグは、装着元ユーザが移動する施設内の各箇所に予め配置されているとする。これによって、スマートグラス1は、現在位置を検知することができる。
無線通信インタフェース105は、無線LANのアクセスポイント又は携帯電話網の基地局を介して、インターネットに接続されたユーザ管理サーバ2と通信する。ユーザ管理サーバ2は、スマートグラス1のディスプレイ101への表示情報を、ユーザ毎に管理するものである。
このとき、介護者から見ると、スマートグラス1を介した視界に、被介護者Aさんが見えると同時に、その被介護者Aさんの「個人情報」が映り込むように表示されている。個人情報としては、例えば被介護者Aさんの介護に必要な症状などの情報である。
これによって、介護者は、被介護者Aさんが視界に入った時点で直ぐに、被介護者Aさんに対して適切な声かけをすることができる。
顔認識部11は、映像から人の顔領域を認識し、当該顔領域のサイズを検出し、当該顔領域からユーザID(IDentifier、識別子)を特定する。特定されたユーザIDは、表示制御部12へ出力される。
図4によれば、顔認識部11の処理機能として、顔領域検出部111と、顔特徴検出部112と、ユーザ特徴量蓄積部110と、高速識別器113とを有する。
顔領域検出部111は、カメラ102によって撮影された映像フレームの画像から、顔領域(例えばバウンディングボックス)を切り出す。具体的には、R-CNN(Regions with Convolutional Neural Networks)やSSD(Single Shot Multibox Detector)を用いる。
R-CNNは、四角形の顔領域を畳み込みニューラルネットワークの特徴と組み合わせて、顔領域のサブセットを検出する(領域提案)。次に、領域提案からCNN特徴量を抽出する。そして、CNN特徴量を用いて予め学習したサポートベクタマシンによって、領域提案のバウンディングボックスを調整する。
SSDは、機械学習を用いた一般物体検知のアルゴリズムであって、デフォルトボックス(default boxes)という長方形の枠(バウンディングボックス)を決定する。1枚の画像上に、大きさの異なるデフォルトボックスを多数重畳させ、そのボックス毎に予測値を計算する。各デフォルトボックスについて、自身が物体からどのくらい離れていて、どのくらい大きさが異なるのか、とする位置の予測をすることができる。
(S2)顔特徴検出部112は、切り出された顔領域を、顔認識モデルを用いて、128/256/512次元の特徴量(ユークリッド距離)に変換する。距離が近いほど、同一人物と認識することができる。また、同一人物の顔画像として、Anchor(怒り),Positive(肯定),Negative(否定)の3つ組(Triplet)を作成し、Triplet Lossを最小にするように学習したものであってもよい。
顔認識モデルとしては、具体的にはGoogle(登録商標)のFacenet(登録商標)アルゴリズムを用いることもできる。これによって、顔領域から多次元ベクトルの特徴量に変換することができる。
ユーザ特徴量蓄積部110は、識別すべき実際のユーザの顔画像の特徴量を予め蓄積したものである。例えば施設内に入居する被介護者の顔画像の特徴量であってもよい。ユーザ特徴量蓄積部110に蓄積されたユーザのみが、識別対象となる。
高速識別器113は、ユーザ特徴量蓄積部110を用いて、ユーザの顔の特徴量の集合と照合し、最も距離が短い又は所定閾値以下となる特徴量となるユーザIDを特定する。
表示情報記憶部120は、ユーザID毎の表示情報を予め記憶したものである。
「表示情報」としては、スマートトグラス1のディスプレイに表示可能な情報であって、「文字」であることが好ましい。勿論、それに限られず、画像又は映像であってもよい。
また、表示情報記憶部120は、無線通信インタフェース105を介して、ユーザ管理サーバ2から、ユーザID毎の表示情報を予めダウンロードして蓄積する。予めダウンロードしておくことによって、スマートグラス1をスタンドアロンで機能させることができる。勿論、表示情報記憶部120は、無線通信インタフェース105を介して常時、ユーザ管理サーバ2に接続されて通信可能なものであってもよい。
(顔認識部11によってユーザIDを特定できた場合)
・時間帯に応じたユーザ毎の個人情報
・時間帯及び位置に応じたユーザ毎の個人情報
(顔認識部11によってユーザIDを特定できない場合)
・位置に応じた情報
・時間帯及び位置に応じた情報
表示制御部12は、顔領域のサイズが第1の所定範囲以上となる場合、特定されたユーザIDに応じた表示情報を、ディスプレイ101に表示する。
顔認識部11によって認識された視界先ユーザの顔領域のサイズは、以下のように判断される。
(1)顔領域のサイズが大きいほど、視界先ユーザと装着元ユーザとの間の距離が近い。
(2)顔領域のサイズが小さいほど、視界先ユーザと装着元ユーザとの間の距離が遠い。
そのために、閾値となる顔領域のサイズの第1の所定範囲は、視界先ユーザと装着元ユーザとの間の距離に基づくものである。
(1)認識された顔領域のサイズが第1の所定範囲以上となる場合、ユーザID、現在位置及び時間帯に応じた表示情報をディスプレイ101に表示する。
(2)認識された顔領域のサイズが第1の所定範囲よりも小さい場合、検知された現在位置に応じた表示情報をディスプレイ101に表示する。このとき、現在位置に加えて、更に時間帯に応じた表示情報を表示することも好ましい。
[基本情報]:名前、年齢、要介護度、生年月日、部屋番号
[行動情報]:起床時間、食事有無、水分補給有無、服薬有無
[申し送り]:健康状態、体温、血圧、脈拍、症状、服薬情報、リハビリ情報
これに対し、スマートグラス1の表示制御部12は、位置テーブルを有する。
「位置テーブル」は、位置毎に、無線タグのMACアドレス及び/又はタグIDを記憶したものである。
[タグID][MACアドレス]:位置区分、部屋番号、室内位置区分
スマートグラス1の装着元ユーザの現在位置は、以下のいずれかの方法で特定される。
(1)複数の無線タグを検出した際に、電波強度が最も強い無線信号を受信する無線タグのMACアドレス及び/又はタグIDから、位置テーブルを用いて位置を特定する。
(2)電波強度(RSSI(Received Signal Strength Indication))が強い順に無線信号を受信する3つの無線タグのMAC(Media Access Control)アドレス及び/又はタグIDから、位置テーブルを用いて三角測量によって位置を特定する。
(基本情報)
氏名、年齢、介護度、生年月日、部屋番号、ケアプラン
(行動情報)
起床時間、食事(済/未)、水分補給(済/未)、服薬(済/未)、
***(有/無)、入浴(済/未)、
(申し送り情報)
健康状態、体温、血圧(上・下)、脈拍、処置情報、症状、治療情報、
未***日数、***時刻、***異常(有/無)、朝/昼/夜食時刻、朝/昼/夜食量、
水分補給時刻、水分量、服薬時刻、入浴時刻、入浴異常(有/無)
時間帯に限らず、装着元ユーザから見て視界先ユーザが存在しているとする。このとき、顔領域のサイズが第1の所定範囲以上となって、ユーザIDが特定されている場合、図7の表示項目Aが表示対象となる。一方で、顔領域のサイズが第1の所定範囲よりも小さい場合、図7の表示項目B(氏名のみ)が表示対象となる。
朝の時間帯であって、装着元ユーザから見て視界先ユーザが存在していないとする。ここで、装着元ユーザについて、現在位置が「トイレ・風呂」である場合、表示項目Cが表示対象となり、現在位置が「寝室」である場合、表示項目Dが表示対象となる。
昼の時間帯であって、装着元ユーザから見て視界先ユーザが存在していないとする。ここで、装着元ユーザについて、現在位置が「トイレ・風呂」である場合、表示項目Eが表示対象となり、現在位置が「寝室」である場合、表示項目Fが表示対象となる。
夜の時間帯であって、装着元ユーザから見て視界先ユーザが存在していないとする。ここで、装着元ユーザについて、現在位置が「トイレ・風呂」である場合、表示項目Gが表示対象となり、現在位置が「寝室」である場合、表示項目Hが表示対象となる。
図8(b)によれば、装着元ユーザから見て、視界先ユーザが存在しない。また、装着元ユーザは、現在、部屋201号室のトイレ・風呂に位置しているとする。このとき、図7の表示項目を用いて、時間帯及び位置に応じた表示項目がディスプレイ101に表示されている。
図8(c)によれば、装着元ユーザから見て、視界先ユーザが存在しない。また、装着元ユーザは、現在、部屋201号室の寝室に位置しているとする。このとき、図7の表示項目を用いて、時間帯及び位置に応じた表示項目がディスプレイ101に表示されている。
顔領域のサイズについて、第2の所定範囲は、第1の所定範囲と同じであってもよいし、第1の所定範囲よりも大きくても小さくてもよい。
また、音声合成については、IoT・組み込み向けマイコンボード単体に搭載されるような、軽量な日本語音声読み上げ機能を用いる。但し、人名など同形異音語については、読み仮名を付与することで適切に読上げ可能となるように制御する。例えば「小原さん」の場合、「コハラ」「オハラ」「オバラ」など多様な読み方が想定されるためである。
このように、装着元ユーザと視界先ユーザとの間の距離に応じて、装着元ユーザに対する情報の提示方法を動的に変化させることができる。
このような適用は、例えば介護施設の場合、介護者(装着元ユーザ)と被介護者(視界先ユーザ)とが対面する際に、近い距離では直接的に会話する場合が多いため、音声でスピーカ103から発声させると、介護者の注意力を分散させる恐れがあるためである。
また、視界先に被介護者が存在しなくても、施設内に配置されたBLEタグによって、現在位置に応じた情報を直ぐに認識することができる。
本発明のスマートグラスは、介護作業支援ARシステムや不審者検出システム(学校・保育園など)にも適用することができる。
101 ディスプレイ
102 カメラ
103 スピーカ、骨電動スピーカ
104 センシング部
105 無線通信インタフェース
11 顔認識部
110 ユーザ特徴量蓄積部
111 顔領域検出部
112 顔特徴検出部
113 高速識別器
12 表示制御部
120 表示情報記憶部
2 ユーザ管理サーバ
Claims (11)
- 視線先の映像を撮影するカメラと、装着元ユーザの視界に表示情報を映し出すディスプレイとを有するシースルー型のスマートグラスにおいて、
ユーザID(識別子)に応じた表示情報を予め記憶した表示情報記憶手段と、
映像から、人の顔領域を認識し、当該顔領域のサイズを検出し、当該顔領域からユーザIDを特定する顔認識手段と、
顔領域のサイズが第1の所定範囲以上となる場合、特定されたユーザIDに応じた表示情報をディスプレイに表示する表示制御手段と
を有することを特徴とするスマートグラス。 - 表示情報は、文字、画像及び/又は映像である
ことを特徴とする請求項1に記載のスマートグラス。 - 現在位置を検知するセンシング手段を更に有し、
表示情報記憶手段は、位置に応じた表示情報を更に記憶しており、
表示制御手段は、顔領域(バウンディングボックス)のサイズが第1の所定範囲よりも小さい場合、検知された現在位置に応じた表示情報をディスプレイに表示する
ことを特徴とする請求項1又は2に記載のスマートグラス。 - 表示情報記憶手段は、
各ユーザIDについて、位置及び時間帯の組毎に応じた表示情報と、
各位置について、時間帯に応じた表示情報と
を記憶しており、
表示制御手段は、認識された顔領域のサイズが、
第1の所定範囲以上となる場合、ユーザID、現在位置及び時間帯に応じた表示情報をディスプレイに表示し、
第1の所定範囲よりも小さい場合、現在位置及び時間帯に応じた表示情報をディスプレイに表示する
ことを特徴とする請求項1から3のいずれか1項に記載のスマートグラス。 - 装着元ユーザの聴覚へ音声を出力するスピーカを更に有し、
表示制御手段は、認識された顔領域のサイズが第2の所定範囲よりも小さい場合、ディスプレイに表示すべき表示情報が文字である場合、音声合成によって音声に変換し、当該音声をスピーカから出力する
ことを特徴とする請求項1から4のいずれか1項に記載のスマートグラス。 - スピーカは、骨伝導スピーカである
ことを特徴とする請求項5に記載のスマートグラス。 - 顔認識手段によって認識された人の顔領域のサイズが大きいほど、当該人と装着元ユーザとの間の距離が近く、サイズが小さいほど、当該人と装着元ユーザとの間の距離が遠く、
顔領域のサイズの第1の所定範囲は、当該人と装着元ユーザとの間の距離に基づくものである
ことを特徴とする請求項1から6のいずれか1項に記載のスマートグラス。 - 装着元ユーザが移動可能な周辺環境に、位置に応じて無線タグが配置されており、
表示制御手段は、
位置毎に、無線タグのMACアドレス及び/又はタグIDを記憶した位置テーブルを有し、
複数の無線タグを検出した際に、電波強度が最も強い無線信号を受信する無線タグのMACアドレス及び/又はタグIDから、位置テーブルを用いて位置を特定するか、
又は、電波強度が強い順に無線信号を受信する3つの無線タグのMACアドレス及び/又はタグIDから、位置テーブルを用いて三角測量によって位置を特定する
ことを特徴とする請求項1から7のいずれか1項に記載のスマートグラス。 - 無線ネットワークを介してサーバに接続する無線通信インタフェースを更に有し、
表示情報記憶手段は、無線通信ネットワークを介してサーバから、ユーザIDに応じた表示情報を予め受信する
ことを特徴とする請求項1から8のいずれか1項に記載のスマートグラス。 - 視線先の映像を撮影するカメラと、装着元ユーザの視界に表示情報を映し出すディスプレイとを有するシースルー型のスマートグラスに搭載されたコンピュータを機能させるプログラムにおいて、
ユーザIDに応じた表示情報を予め記憶した表示情報記憶手段と、
映像から、人の顔領域を認識し、当該顔領域のサイズを検出し、当該顔領域からユーザIDを特定する顔認識手段と、
顔領域のサイズが第1の所定範囲以上となる場合、特定されたユーザIDに応じた表示情報をディスプレイに表示する表示制御手段と
してコンピュータを機能させることを特徴とするスマートグラスのプログラム。 - 視線先の映像を撮影するカメラと、装着元ユーザの視界に表示情報を映し出すディスプレイとを有するシースルー型のスマートグラスの表示制御方法において、
スマートグラスは、
ユーザIDに応じた表示情報を予め記憶した表示情報記憶部を有し、
映像から、人の顔領域を認識し、当該顔領域のサイズを検出し、当該顔領域からユーザIDを特定する第1のステップと、
顔領域のサイズが第1の所定範囲以上となる場合、特定されたユーザIDに応じた表示情報をディスプレイに表示する第2のステップと
を実行することを特徴とするスマートグラスの表示制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020190020A JP7360775B2 (ja) | 2020-11-16 | 2020-11-16 | スマートグラス、プログラム及び表示制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020190020A JP7360775B2 (ja) | 2020-11-16 | 2020-11-16 | スマートグラス、プログラム及び表示制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022079067A true JP2022079067A (ja) | 2022-05-26 |
JP7360775B2 JP7360775B2 (ja) | 2023-10-13 |
Family
ID=81707432
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020190020A Active JP7360775B2 (ja) | 2020-11-16 | 2020-11-16 | スマートグラス、プログラム及び表示制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7360775B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116301391A (zh) * | 2023-05-26 | 2023-06-23 | 深圳鸿祥源科技有限公司 | 基于数据分析的智能平板显示调节*** |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000357177A (ja) * | 1999-06-16 | 2000-12-26 | Ichikawa Jin Shoji Kk | 店舗内の動線把握システム |
JP2006221541A (ja) * | 2005-02-14 | 2006-08-24 | Nec System Technologies Ltd | 関心情報生成装置、関心情報生成システム、および関心情報生成プログラム |
JP2010016432A (ja) * | 2008-07-01 | 2010-01-21 | Olympus Corp | デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体 |
JP2012060240A (ja) * | 2010-09-06 | 2012-03-22 | Sony Corp | 画像処理装置、プログラム及び画像処理方法 |
JP2013140438A (ja) * | 2011-12-28 | 2013-07-18 | Canon Inc | 画像処理装置、撮像装置、制御方法、及びプログラム |
JP2015088096A (ja) * | 2013-11-01 | 2015-05-07 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置および情報処理方法 |
JP2016506565A (ja) * | 2012-12-11 | 2016-03-03 | マイクロソフト テクノロジー ライセンシング,エルエルシー | 人間トリガのホログラフィックリマインダ |
JP2017085204A (ja) * | 2015-10-23 | 2017-05-18 | キヤノン株式会社 | メタデータの登録制御 |
JP2018097437A (ja) * | 2016-12-08 | 2018-06-21 | 株式会社テレパシージャパン | ウェアラブル情報表示端末及びこれを備えるシステム |
JP2018106579A (ja) * | 2016-12-28 | 2018-07-05 | 株式会社コロプラ | 情報提供方法、プログラム、および、情報提供装置 |
JP2019057057A (ja) * | 2017-09-20 | 2019-04-11 | 富士ゼロックス株式会社 | 情報処理装置、情報処理システム及びプログラム |
JP2019061557A (ja) * | 2017-09-27 | 2019-04-18 | 富士ゼロックス株式会社 | 情報処理装置、情報処理システム及びプログラム |
JP2019151452A (ja) * | 2018-03-02 | 2019-09-12 | 日本電産株式会社 | 物品の管理システム |
JP2020091690A (ja) * | 2018-12-06 | 2020-06-11 | 学校法人東京電機大学 | 表示システム及び表示方法 |
-
2020
- 2020-11-16 JP JP2020190020A patent/JP7360775B2/ja active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000357177A (ja) * | 1999-06-16 | 2000-12-26 | Ichikawa Jin Shoji Kk | 店舗内の動線把握システム |
JP2006221541A (ja) * | 2005-02-14 | 2006-08-24 | Nec System Technologies Ltd | 関心情報生成装置、関心情報生成システム、および関心情報生成プログラム |
JP2010016432A (ja) * | 2008-07-01 | 2010-01-21 | Olympus Corp | デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体 |
JP2012060240A (ja) * | 2010-09-06 | 2012-03-22 | Sony Corp | 画像処理装置、プログラム及び画像処理方法 |
JP2013140438A (ja) * | 2011-12-28 | 2013-07-18 | Canon Inc | 画像処理装置、撮像装置、制御方法、及びプログラム |
JP2016506565A (ja) * | 2012-12-11 | 2016-03-03 | マイクロソフト テクノロジー ライセンシング,エルエルシー | 人間トリガのホログラフィックリマインダ |
JP2015088096A (ja) * | 2013-11-01 | 2015-05-07 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置および情報処理方法 |
JP2017085204A (ja) * | 2015-10-23 | 2017-05-18 | キヤノン株式会社 | メタデータの登録制御 |
JP2018097437A (ja) * | 2016-12-08 | 2018-06-21 | 株式会社テレパシージャパン | ウェアラブル情報表示端末及びこれを備えるシステム |
JP2018106579A (ja) * | 2016-12-28 | 2018-07-05 | 株式会社コロプラ | 情報提供方法、プログラム、および、情報提供装置 |
JP2019057057A (ja) * | 2017-09-20 | 2019-04-11 | 富士ゼロックス株式会社 | 情報処理装置、情報処理システム及びプログラム |
JP2019061557A (ja) * | 2017-09-27 | 2019-04-18 | 富士ゼロックス株式会社 | 情報処理装置、情報処理システム及びプログラム |
JP2019151452A (ja) * | 2018-03-02 | 2019-09-12 | 日本電産株式会社 | 物品の管理システム |
JP2020091690A (ja) * | 2018-12-06 | 2020-06-11 | 学校法人東京電機大学 | 表示システム及び表示方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116301391A (zh) * | 2023-05-26 | 2023-06-23 | 深圳鸿祥源科技有限公司 | 基于数据分析的智能平板显示调节*** |
CN116301391B (zh) * | 2023-05-26 | 2023-08-04 | 深圳鸿祥源科技有限公司 | 基于数据分析的智能平板显示调节*** |
Also Published As
Publication number | Publication date |
---|---|
JP7360775B2 (ja) | 2023-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10311746B2 (en) | Wearable apparatus and method for monitoring posture | |
US8937650B2 (en) | Systems and methods for performing a triggered action | |
CN107230476A (zh) | 一种自然的人机语音交互方法和*** | |
CN107658016B (zh) | 用于老年保健陪伴的Nounou智能监护*** | |
CN104952447A (zh) | 一种老龄人安康服务智能穿戴设备及语音识别方法 | |
US20200221218A1 (en) | Systems and methods for directing audio output of a wearable apparatus | |
KR101584685B1 (ko) | 시청 데이터를 이용한 기억 보조 방법 | |
US11875571B2 (en) | Smart hearing assistance in monitored property | |
Palaghias et al. | A survey on mobile social signal processing | |
JP7360775B2 (ja) | スマートグラス、プログラム及び表示制御方法 | |
Gacem et al. | Smart assistive glasses for Alzheimer's patients | |
CN107895101A (zh) | 用于老年保健陪伴的Nounou智能监护装置 | |
JP7026105B2 (ja) | サービス提供システム | |
JP7453192B2 (ja) | ユーザの動的状態に応じて物体認識に基づく情報を提示する携帯装置、プログラム及び方法 | |
US11227148B2 (en) | Information processing apparatus, information processing method, information processing program, and information processing system | |
US11493959B2 (en) | Wearable apparatus and methods for providing transcription and/or summary | |
Suresh et al. | Intelligent & Smart Navigation System for Visually Impaired Friends | |
CN113380383A (zh) | 一种医疗监护方法、装置和终端 | |
Bhati et al. | CAPture: a vision assistive cap for people with visual impairment | |
JP7453193B2 (ja) | ユーザの周辺状況に連動して音声合成に基づく音声を制御する携帯装置、プログラム及び方法 | |
Zeng et al. | SHECS: A Local Smart Hands-free Elderly Care Support System on Smart AR Glasses with AI Technology | |
Trouva | The mobile phone as a platform for assisting the independent living of aging people | |
TWI829493B (zh) | 具隱私保護的危安行為與語意之辨識系統與方法 | |
WO2023182022A1 (ja) | 情報処理装置、情報処理方法、端末装置及び出力方法 | |
EP3882894B1 (en) | Seeing aid for a visually impaired individual |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230815 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230824 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230915 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230929 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230929 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7360775 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |