JP2019107414A - 歩行支援装置 - Google Patents

歩行支援装置 Download PDF

Info

Publication number
JP2019107414A
JP2019107414A JP2017244182A JP2017244182A JP2019107414A JP 2019107414 A JP2019107414 A JP 2019107414A JP 2017244182 A JP2017244182 A JP 2017244182A JP 2017244182 A JP2017244182 A JP 2017244182A JP 2019107414 A JP2019107414 A JP 2019107414A
Authority
JP
Japan
Prior art keywords
information
support device
walking support
user
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017244182A
Other languages
English (en)
Inventor
穂積 正男
Masao Hozumi
正男 穂積
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2017244182A priority Critical patent/JP2019107414A/ja
Priority to CN201810538147.4A priority patent/CN109938972A/zh
Publication of JP2019107414A publication Critical patent/JP2019107414A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Navigation (AREA)
  • Details Of Audible-Bandwidth Transducers (AREA)
  • Traffic Control Systems (AREA)
  • Rehabilitation Tools (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

【課題】視覚障害者が目的地まで安全かつ容易に到達することができる歩行支援装置を提供する。【解決手段】歩行支援装置1の利用者は、まず、マイク2に対して、目的地に係る音声情報を発声する。そして、歩行支援装置1は、音声情報が入力されたと判定する処理を行い、歩行支援装置1は、音声情報を解析する処理を行い、音声情報を認識した場合には、目的地情報を設定する。そして、歩行支援装置1は、GPS3により利用者の現在位置情報を取得し、カメラ5により監視情報を設定し、現在位置情報と、目的地情報に基づいて、経路情報を設定する。そして、歩行支援装置1は、設定された経路情報と、監視情報を骨伝導スピーカ6bに出力するとともに、外部から集められた音を増幅し、イヤホン6dに出力する処理を行う。【選択図】図1

Description

本発明は、利用者の歩行を支援する歩行支援装置に関するものである。
従来では、視覚障害者の歩行を支援するために、視覚障害者と、その周辺に存在する物体との距離を視覚障害者に対して報知することにより、視覚障害者の歩行を支援する歩行支援装置が知られている(例えば、特許文献1)。
このような歩行支援装置は、発光素子と、受光素子からなる光センサを備えており、発光素子が発光してから、受光素子が物体により反射された光を受光するまでの時間に基づいて、物体との距離を計測し、第1報知音を出力することとなる。そして、第1報知音を出力してから計測された物体との距離に対応する時間が経過した後、第1報知音の出音を停止して第2報知音を出力する。これにより、視覚障害者と、その周辺に存在する物体との距離を視覚障害者に対してリアルタイムに報知することができる。
特開2006−276595号公報
しかしながら、特許文献1に開示されているような歩行支援装置において、視覚障害者は、視覚障害者と、その周辺に存在する物体との距離を認識することができるので、安全に歩行することができるものの、目的地まで到達するのが困難であるという問題点があった。
本発明は、このような問題点に鑑み、視覚障害者が目的地まで安全かつ容易に到達することができる歩行支援装置を提供することを目的とする。
このような課題を解決するために、本発明に係る歩行支援装置は、利用者の音声情報を入力する音声情報入力手段と、現在の位置情報を取得する位置情報取得手段と、前記位置情報取得手段により取得された前記位置情報と、前記音声情報入力手段により入力された前記音声情報とに基づいて、目的地までの経路情報を設定する経路情報設定手段と、利用者の前方を監視することにより、監視情報を生成する監視情報生成手段と、前記監視情報生成手段により生成された前記監視情報、及び前記経路情報設定手段により設定された前記経路情報を出力する情報出力手段と、を備え、前記情報出力手段は、耳介と頭皮との間に挟んで装着される本体部と、前記監視情報、及び前記経路情報が出力される第1出力部と、外部から集められた音を増幅し、出力する第2出力部と、により構成されていることを特徴とする。
また、前記歩行支援装置は、衣類状の形状からなり、右肩部に設けられた右肩振動部と、左肩部に設けられた左肩振動部と、を更に備え、前記情報出力手段は、前記利用者を右方向に案内する場合には、前記右肩振動部を振動させる制御を行うとともに、前記利用者を左方向に案内する場合には、前記左肩振動部を振動させる制御を行うことを特徴とする。
本発明によれば、視覚障害者が目的地まで容易に到達することができる歩行支援装置を提供することができる。
第1実施形態における歩行支援装置の外観図の一例を示す図である。 第1実施形態におけるカメラの固定方法の一例を示す図である。 第1実施形態における長袖部の取付方法の一例を示す図である。 第1実施形態における補聴器の具体的態様の一例を示す図である。 第1実施形態におけるブロック図の一例を示す図である。 第1実施形態におけるメイン処理の一例を示す図である。 第1実施形態における音声情報入力時処理の一例を示す図である。 第1実施形態における歩行支援装置の装着態様の一例を示す図である。 第2実施形態における歩行支援装置の外観図の一例を示す図である。 第3実施形態における歩行支援装置の外観図の一例を示す図である。
(第1実施形態)
まず、図1〜図4を用いて、本発明における歩行支援装置1の第1実施形態について具体的に説明を行う。
(歩行支援装置1の外観)
図1を用いて、歩行支援装置1の外観について説明を行う。なお、図1(A)は、第1実施形態における歩行支援装置1の正面図の一例を示す図であって、図1(B)は、第1実施形態における歩行支援装置1の背面図の一例を示す図である。
(歩行支援装置1)
歩行支援装置1は、ノースリーブの衣類状の形状となっており、利用者の歩行を支援するためのものである。また、歩行支援装置1は、防水加工が施されており、雨の日や、雪の日に利用した場合であっても、耐え得るものとなっている。
なお、第1実施形態における歩行支援装置1は、ノースリーブの衣類状の形状となっているが、これに限定されることはなく、適宜設定可能である。例えば、眼鏡型の形状や、他の形状であってもよい。
(マイク2)
マイク2は、利用者の音声情報を入力するために設けられている。また、第1実施形態におけるマイク2は、右側マイク2aと、左側マイク2bにより構成されている。そして、マイク2は、利用者の音声情報を認識し易いように、歩行支援装置1の正面中央に設けられている。ここで、本実施形態におけるマイク2は、利用者の音声情報を認識し易いように、感度の高いコンデンサマイクが用いられる。なお、コンデンサマイクの特質上、感度が高い利点があるものの、振動や湿気に弱いため、天候が雨の場合に適していないという問題点がある。このため、コンデンサマイクと比較して、丈夫で湿度に強いダイナミックマイクを用いることとしてもよい。なお、マイク2は、骨伝導マイクであってもよい。
(GPS3)
GPS3は、歩行支援装置1の利用者の現在位置を取得するために設けられている。具体的には、GPS3は、全地球測位システムから信号を受信する受信機を備えており、歩行支援装置1の利用者の地図上における現在位置を取得するために設けられている。また、GPS3は、マイク2よりも上部に設けられている。
(制御装置4)
制御装置4は、補聴器6の動作を制御するために設けられている。また、制御装置4は、CPU4a、ROM4b、RAM4c、及び人工知能4dが内部バス4eを介して接続されている。
(カメラ5)
カメラ5は、歩行支援装置1の利用者の前方を監視するために設けられている。また、第1実施形態におけるカメラ5は、右側カメラ5aと、左側カメラ5bとにより構成されており、GPS3の下方に設けられている。ここで、本発明におけるカメラ5は、光に対して感度が高く、画質に優れているCCDカメラとなっている。なお、カメラ5は、CCDカメラではなく、CMOSカメラ等であってもよい。
また、本実施形態におけるカメラ5は、前方に突出して設けられている。これにより、カメラ5が歩行支援装置1の前面に対して平行である場合と比較して、カメラ5の視野角を広くすることができる。特に、カメラ5を前方に突出させた場合には、歩行支援装置1の利用者の上方、正面、及び足元まで監視することができるので、視覚障害者が歩行支援装置1を利用した場合に、安全に歩行することができる。
なお、第1実施形態において、右側カメラ5aと、左側カメラ5bは、それぞれが前方に突出して設けられているが、右側カメラ5aと、左側カメラ5bのそれぞれが異なる方向に傾斜されていてもよい。これにより、カメラ5の視野角を広くすることができる。なお、カメラ5を可動可能に設けることとしてもよい。
また、第1実施形態において、カメラ5は、複数設けられているが、これに限定されることはなく、単数であってもよい。
(補聴器6)
補聴器6は、歩行支援装置1の利用者に対して、音声情報を出力するために設けられている。また、補聴器6は、難聴である利用者が音を認識し易くするために設けられている。なお、補聴器6については、後で図4を用いて詳述する。
ここで、本実施形態において、歩行支援装置1に設けられている補聴器6は、単数となっている。これにより、補聴器6を複数設けた場合と比較して安価で歩行支援装置1を提供することができる。
(電力供給装置7)
電力供給装置7は、歩行支援装置1に電力を供給するために設けられている。また、電力供給装置7は、歩行支援装置1の襟部に設けられている。ここで、電力供給装置7は、バッテリー(図示せず)と、アダプタ挿入口(図示せず)とにより構成されており、このアダプタ挿入口にアダプタ(図示せず)を挿入してバッテリーが充電されることとなる。
ここで、本実施形態において、歩行支援装置1は、難燃性素材により構成されている。これにより、電力供給装置7が熱を帯びて、歩行支援装置1が燃えてしまうことを防止することができる。なお、歩行支援装置1は、少なくとも、電力供給装置7と接する面が難燃性素材により構成されていればよい。また、歩行支援装置1は、難燃性素材ではなく、防炎性素材であってもよい。
(ファスナー部8)
ファスナー部8は、第1実施形態における歩行支援装置1に後述の長袖部13を取り付けるために設けられている。また、ファスナー部8は、後述の右側長袖部13aが取り付けられる右側ファスナー部8aと、後述の左側長袖部13bが取り付けられる左側ファスナー部8bにより構成されており、具体的には後述するが、長袖部13を取り付けることで、気温が低い季節であっても利用することができる。
(送信装置9)
送信装置9は、歩行支援装置1の情報を外部に送信するために設けられており、歩行支援装置1の右肩部に設けられている。具体的には、送信装置9は、歩行支援装置1の外部に現在位置情報等を送信するために設けられている。
(受信装置10)
受信装置10は、外部からの情報を歩行支援装置1に受信するために設けられており、歩行支援装置1の左肩部に設けられている。具体的には、受信装置10は、震災等に関する外部情報を受信するために設けられている。
(ドローストリング部11)
ドローストリング部11は、利用者が歩行支援装置1を利用する際に、ウエスト部分を調節可能に設けられている。具体的には、ドローストリング部11に設けられている紐(図示せず)を引くことで、ウエスト部分を絞めることができる。
(カメラ5の固定方法)
次に、図2を用いて、カメラ5の固定方法について説明を行う。なお、図2は、カメラ5の固定方法の一例を示す図である。
(固定板12)
固定板12は、カメラ5を取り付けるために設けられている。また、固定板12は、右側カメラ5aを取り付けるための右側固定板12aと、左側カメラ5bを取り付けるための左側固定板12bとにより構成されている。ここで、右側カメラ5aは、右側固定板12aに取り付けられた状態で、歩行支援装置1に取り付けられる。また、左側カメラ5bは、左側固定板12bに取り付けられた状態で、歩行支援装置1に取り付けられる。
なお、カメラ5と、固定板12を被覆する被覆部を設け、この被覆部からカメラ5のレンズ部を露出させた状態で、歩行支援装置1に取り付けることとしてもよいし、歩行支援装置1にポケットを設け、ポケットの内部にカメラ5が取り付けられた固定板12を入れ、ポケットからカメラ5のレンズ部分を露出させることとしてもよい。これにより、歩行支援装置1を雨の日に利用する場合であっても、カメラ5や、固定板12が雨に濡れてしまうことを極力防止することができる。
(長袖部13の取付方法)
次に、図3を用いて、長袖部13の取付方法について説明を行う。なお、図3は、長袖部13の取付方法の一例を示す図である。
(長袖部13)
長袖部13は、図1に示したノースリーブの衣類状の形状をした歩行支援装置1を、長袖の衣類状の形状をした歩行支援装置1にするために設けられている。また、長袖部13は、右側長袖部13aと、左側長袖部13bとにより構成されている。
(取付金具14)
取付金具14は、歩行支援装置1のファスナー部8に対して長袖部を取り付けるために設けられている。また、取付金具14は、右側取付金具14aと、左側取付金具14bにより構成されている。
ここで、右側ファスナー部8aと、右側長袖部13aは、右側取付金具14aにより取り付けられ、左側ファスナー部8bと、左側長袖部13bは、左側取付金具14bにより取り付けられることとなる。
(補聴器6の具体的態様)
次に、図4を用いて、補聴器6の具体的態様について説明を行う。なお、図4は、補聴器6の具体的態様の一例を示す図である。
本実施形態における補聴器6は、本体部6aと、骨伝導スピーカ6bと、イヤホンジャック6cと、イヤホン6dとにより構成されている。
(本体部6a)
本体部6aは、利用者が歩行支援装置1を利用する際に、耳介と頭皮との間に挟んで装着するために設けられている。ここで、本実施形態において、本体部6aは、外部からの音を集めるマイク部と、マイク部により集めた音の増幅、及び加工を行うアンプ部を備えている。なお、本実施形態において、本体部6aは、防水加工が施されている。
(骨伝導スピーカ6b)
骨伝導スピーカ6bは、歩行支援装置1の利用者に対して、音声情報を出力するために設けられている。ここで、骨伝導スピーカ6bにより、外耳や中耳を経由することなく、内耳のうずまき管に直接音の振動を伝達し、リンパ液中に浮かぶ聴覚神経が揺れることで音が聞こえることとなる。
(イヤホンジャック6c)
イヤホンジャック6cは、イヤホン6dを挿入するために設けられている。ここで、補聴器6の本体部6aにイヤホンジャック6cを設けることにより、イヤホン6dが故障した場合であっても、イヤホン6dを交換するだけで済むので、補聴器6全体を交換する場合と比較して修理費用が安価で済む。
(イヤホン6d)
イヤホン6dは、本体部6aに設けられているアンプ部により増幅、及び加工が行われた音を出力するために設けられている。
このように、本実施形態において、補聴器6は、骨伝導スピーカ6bにより音声情報を出力するとともに、外部からの音をイヤホン6dにより出力することとなる。なお、骨伝導スピーカ6bを設けずに、音声情報と、外部からの音をイヤホン6dにより出力することとしてもよい。
(歩行支援装置1のブロック図)
次に、図5を用いて、歩行支援装置1のブロック図について説明を行う。なお、図5は、歩行支援装置1のブロック図の一例を示す図である。
本実施形態では、制御装置4に対して、マイク2、GPS3、カメラ5、補聴器6、電力供給装置7、送信装置9、及び受信装置10が接続されている。
(CPU4a)
CPU4aは、ROM4bに記憶されているプログラムを読み込み、所定の演算処理を行うために設けられている。
(ROM4b)
ROM4bは、CPU4aにより実行されるプログラム等を記憶するために設けられている。
(RAM4c)
RAM4cは、CPU4aによるプログラムの実行により決定された各種データを記憶するために設けられている。
(人工知能4d)
人工知能4dは、歩行支援装置1の利用者を安全かつ効率的に目的地まで到達させることを可能とするために設けられている。具体的には、人工知能4dは、カメラ5により撮影された物体が、歩行支援装置1の利用者の歩行の障害になることを推論する処理等を行う。
(内部バス4e)
内部バス4eは、CPU4a、ROM4b、RAM4c、及び人工知能4dを接続するために設けられている。
なお、本実施形態において、補聴器6は、電力供給装置7により電力が供給されることとなっているが、これに限定されることはなく、補聴器6の本体部6aに電力供給部を設けることとしてもよい。
(歩行支援装置1におけるメイン処理)
次に、図6を用いて、歩行支援装置1におけるメイン処理について説明を行う。なお、図6は、歩行支援装置1におけるメイン処理の一例を示す図である。
(ステップS1)
ステップS1において、CPU4aは、音声情報が入力されたか否かを判定する処理を行う。具体的には、CPU4aは、まず、右側マイク2aにより音声情報が入力されたか否かを判定する処理を行い、右側マイク2aにより音声情報が入力された場合には、音声情報が入力されたと判定し(ステップS1=YES)、右側マイク2aにより音声情報が入力されていない場合には、左側マイク2bにより音声情報が入力されたか否かを判定する処理を行い、左側マイク2bにより音声情報が入力された場合には、音声情報が入力されたと判定し(ステップS1=YES)、左側マイク2bにより音声情報が入力されなかった場合には、音声情報が入力されていないと判定する(ステップS1=NO)こととなる。そして、音声情報が入力されたと判定された場合には(ステップS1=YES)、ステップS2に処理を移行し、音声情報が入力されていないと判定された場合には(ステップS1=NO)、ステップS3に処理を移行する。
(ステップS2)
ステップS2において、CPU4aは、後で図7を用いて詳述する音声情報入力時処理を行う。当該処理において、入力された音声情報を記憶する処理等を行う。そして、ステップS2の処理が終了すると、ステップS3に処理を移行する。
(ステップS3)
ステップS3において、CPU4aは、位置情報更新処理を行う。具体的には、CPU4aは、まず、GPS3に基づいて、進行方位と推定現在位置の算出を行う。次に、CPU4aは、GPS3に基づいて、現在位置を算出する処理を行う。そして、推定現在位置から、現在位置までの距離が所定距離以上離れているか否かを判定する処理を行い、所定距離以上離れていると判定された場合には、現在位置に係る情報を現在位置情報としてRAM4cに記憶する処理を行う。一方で、所定距離以上離れていないと判定された場合には、推定現在位置に係る情報を現在位置情報としてRAM4cに記憶する処理を行う。そして、ステップS3の処理が終了すると、ステップS4に処理を移行する。
(ステップS4)
ステップS4において、CPU4aは、監視情報生成処理を行う。具体的には、CPU4aは、まず、右側カメラ5aにより撮影された撮影情報と、左側カメラ5bにより撮影された撮影情報をRAM4cに記憶する処理を行う。次に、CPU4aは、人工知能4dを用いて、RAM4cに記憶されている監視情報から、歩行支援装置1の利用者の歩行の障害になることを推論する処理を行い、当該推論の結果、歩行支援装置1の利用者の歩行の障害になると推論された場合には、監視情報をRAM4cに記憶する処理を行う。そして、ステップS4の処理が終了すると、ステップS5に処理を移行する。
(ステップS5)
ステップS5において、CPU4aは、経路情報設定処理を行う。具体的には、CPU4aは、RAM4cに記憶されている目的地情報と、RAM4cに記憶されている現在位置情報に基づいて、経路情報をRAM4cに設定する処理を行う。そして、ステップS5の処理が終了すると、ステップS6に処理を移行する。
(ステップS6)
ステップS6において、CPU4aは、人工知能学習処理を行う。具体的には、CPU4aは、人工知能4dにより推論した音声情報を学習する処理や、推論した監視情報を学習する処理を行う。そして、ステップS6の処理が終了すると、ステップS7に処理を移行する。
(ステップS7)
ステップS7において、CPU4aは、情報受信処理を行う。具体的には、CPU4aは、外部情報を受信する処理を行い、当該受信した外部情報をRAM4cに記憶する処理を行う。そして、ステップS7の処理が終了すると、ステップS8に処理を移行する。
(ステップS8)
ステップS8において、CPU4aは、情報送信処理を行う。具体的には、CPU4aは、歩行支援装置1により取得した情報を外部に対して送信する処理を行う。そして、ステップS8の処理が終了すると、ステップS9に処理を移行する。
(ステップS9)
ステップS9において、CPU4aは、情報出力処理を行う。具体的には、CPU4aは、ステップS4の監視情報生成処理により生成された監視情報と、ステップS5の経路情報設定処理により設定された経路情報を骨伝導スピーカ6bに出力する処理を行う。そして、ステップS9の処理が終了すると、ステップS1に処理を移行する。
(音声情報入力時処理)
次に、図7を用いて、音声情報入力時処理について説明を行う。なお、図7は、音声情報入力時処理のサブルーチンの一例を示す図である。
(ステップS11)
ステップS11において、CPU4aは、音声情報解析処理を行う。具体的には、CPU4aは、人工知能4dを用いて、音声情報を推論することにより、マイク2から入力された音声情報を解析する処理を行う。そして、ステップS11の処理が終了すると、ステップS12に処理を移行する。
なお、右側マイク2aから入力された音声情報と、左側マイク2bから入力された音声情報を合成し、人工知能4dは、合成された音声情報を推論することとしてもよい。これにより、音声情報の認識制度を向上させることができる。
(ステップS12)
ステップS12において、CPU4aは、音声情報を認識したか否かを判定する処理を行う。具体的には、CPU4aは、ステップS11の音声情報解析処理により、マイク2から入力された音声情報を認識したか否かを判定する処理を行う。そして、音声情報を認識したと判定された場合には(ステップS12=YES)、ステップS13に処理を移行し、音声情報が認識されていないと判定された場合には(ステップS12=NO)、ステップS14に処理を移行する。
(ステップS13)
ステップS13において、CPU4aは、各種設定記憶処理を行う。具体的には、CPU4aは、ステップS11の音声情報解析処理により解析された音声情報を目的地情報として、RAM4cに記憶する処理等を行う。そして、ステップS13の処理が終了すると、音声情報入力時処理のサブルーチンを終了し、歩行支援装置1におけるメイン処理のステップS3に処理を移行する。
(ステップS14)
ステップS14において、CPU4aは、エラー情報記憶処理を行う。具体的には、CPU4aは、ステップS11の音声情報解析処理により音声情報を解析することができなかったため(ステップS12=NO)、エラー情報をRAM4cに記憶する処理を行う。そして、ステップS14の処理が終了すると、音声情報入力時処理のサブルーチンを終了し、歩行支援装置1におけるメイン処理のステップS3に処理を移行する。
(第1実施形態の第1利用態様)
次に、第1実施形態の第1利用態様について説明を行う。
歩行支援装置1の利用者は、まず、マイク2に対して、目的地に係る音声情報を発声する。そうすると、CPU4aは、音声情報が入力されたと判定する処理を行う(ステップS1=YES)。そして、CPU4aは、音声情報を解析する処理を行い(ステップS11)、音声情報を認識した場合(ステップS12=YES)には、目的地情報を設定する(ステップS13)。
そして、CPU4aは、GPS3により利用者の現在位置情報を取得し(ステップS3)、カメラ5により監視情報を設定し(ステップS4)、現在位置情報と、目的地情報に基づいて、経路情報を設定する(ステップS5)。そして、CPU4aは、設定された経路情報と、監視情報を骨伝導スピーカ6bに出力する処理を行う(ステップS9)。
一方で、CPU4aは、音声情報を解析する処理を行い(ステップS11)、音声情報を認識することができなかった場合(ステップS12=NO)には、エラー情報を記憶する(ステップS14)。そして、CPU4aは、設定されたエラー情報を骨伝導スピーカ6bに出力する処理を行う(ステップS9)。
(第1実施形態の第2利用態様)
次に、第1実施形態の第2利用態様について説明を行う。
歩行支援装置1の利用者は、まず、マイク2に対して、歩行の障害になる物体があった旨の音声情報を発声する。そうすると、CPU4aは、音声情報が入力されたと判定する処理を行う(ステップS1=YES)。そして、CPU4aは、音声情報を解析する処理を行い(ステップS11)、音声情報を認識した場合(ステップS12=YES)には、歩行の障害になる物体がある旨の情報をRAM4cに記憶する処理を行う(ステップS13)。
そして、CPU4aは、GPS3により利用者の現在位置情報を取得し(ステップS3)、カメラ5により監視情報を設定する(ステップS4)。そして、CPU4aは、人工知能4dを用いて、現在位置情報と、監視情報に基づいて、歩行の障害になる物体を推論し、学習する処理を行う(ステップS6)。そして、CPU4aは、歩行の障害になる物体がある旨の情報を骨伝導スピーカ6bにより出力する処理を行う(ステップS9)。
(第1実施形態の第3利用態様)
次に、第1実施形態の第3利用態様について説明を行う。
第1実施形態の第3利用形態においては、より具体的な利用場面についての説明を行う。
例えば、歩行支援装置1の利用者が、信号の手前を歩いているとする。そうすると、CPU4aは、GPS3により利用者の現在位置情報を取得し(ステップS3)、カメラ5により監視情報を設定する(ステップS4)。この際に、人工知能4dを用いて、信号が歩行の障害になると推論されることとなる。そして、CPU4aは、人工知能4dを用いて、信号が歩行の障害になることを学習する処理を行い(ステップS6)、歩行の障害になる信号がある旨の情報を骨伝導スピーカ6bにより出力する処理を行う(ステップS9)。
ここで、より具体的には、歩行支援装置1の利用者から信号までの距離が所定の距離となった場合に、「あと約○歩先に信号があります。」といった音声が骨伝導スピーカ6bにより出力されることとなる。この場合において、CPU4aは、人工知能4dを用いて、カメラ5により撮影した情報と、GPS3により更新されている現在位置情報に基づいて、信号までの距離(歩数)を推論することとなる。これにより、「あと約○メートル先に信号があります。」といった音声により、信号までの距離をそのまま骨伝導スピーカ6bに出力するよりも、視覚に障害を持つ歩行支援装置1の利用者にとって解り易い報知を行うことができる。
なお、他にも、「止まって下さい。信号の手前です。」といった音声や、「横断歩道を渡り始めました。」といった音声、「横断歩道を渡っております。」と言った音声、「横断歩道を渡り終わりました。」といった音声が骨伝導スピーカ6bにより出力されることとなる。
次に、歩行支援装置1の利用者が、駅の構内を歩いているとする。そうすると、CPU4aは、GPS3により利用者の現在位置情報を取得し(ステップS3)、カメラ5により監視情報を設定する(ステップS4)。この際に、人工知能4dを用いて、点字ブロックが歩行の障害になると推論されることとなる。そして、CPU4aは、人工知能4dを用いて、点字ブロックが歩行の障害になると学習する処理を行う(ステップS6)。そして、CPU4aは、歩行の障害になる点字ブロックがある旨の情報を骨伝導スピーカ6bにより出力する処理を行う(ステップS9)。
ここで、より具体的には、歩行支援装置1の利用者から点字ブロックまでの距離が所定の距離となった場合に、「注意して下さい。あと左側約○歩先に点字ブロックがあります。」といった音声が骨伝導スピーカ6bにより出力されることとなる。この場合において、CPU4aは、人工知能4dを用いて、カメラ5により撮影した情報と、GPS3により更新されている現在位置情報に基づいて、点字ブロックまでの距離(歩数)を推論することとなる。これにより、「あと約○メートル先に点字ブロックがあります」といった音声を骨伝導スピーカ6bに出力するよりも、視覚に障害を持つ歩行支援装置1の利用者にとって解り易い報知を行うことができる。
なお、他にも、「あと○歩で登り階段です」といった音声や、「あと○歩で下り階段です」といった音声、「あと○歩で改札口です」といった音声が骨伝導スピーカ6bにより出力されることとなる。
(第1実施形態の第4利用態様)
次に、第1実施形態の第4利用態様について説明を行う。
まず、歩行支援装置1の利用者は、まず、マイク2に対して、例えば、迷子になったので、迎えに来て欲しい旨の音声情報を発声したとする。この際に、利用者は、歩行支援装置1の外部に送信する宛先情報を発声することとなる。そうすると、CPU4aは、音声情報が入力されたと判定する処理を行う(ステップS1=YES)。そして、CPU4aは、音声情報を解析する処理を行い(ステップS11)、音声情報を認識した場合(ステップS12=YES)には、歩行支援装置1の外部に送信するための送信情報を設定する(ステップS13)。ここでいう「送信情報」とは、迷子になったので、迎えに来て欲しい旨の情報と、GPS3により取得された現在位置情報と、宛先に関する情報が含まれる。
そして、CPU4aは、設定された宛先に対して、現在位置情報と、迷子になったので、迎えに来て欲しい旨の情報を送信する(ステップS8)。これにより、送信情報を受信した者は、迷子になった歩行支援装置1の利用者を迎えに行くことができる。
なお、設定された宛先に対して、迷子になったので、迎えに来て欲しい旨の情報を送信する際に、カメラ5により撮影した情報を併せて送信することとしてもよい。これにより、撮影した情報を見た者は、現在位置情報を見ることなく、歩行支援装置1の利用者を迎えに行くことができる場合がある。
(第1実施形態の第5利用態様)
次に、第1実施形態の第5利用態様について説明を行う。
まず、第2実施形態における歩行支援装置1に、震災に関する情報を受信したとする(ステップS7)。そうすると、CPU4aは、RAM4cに記憶されている目的地情報を書き換える処理を行う。具体的には、CPU4aは、RAM4cに記憶されている現在位置情報に基づいて、現在位置から近い避難場所を検索する処理を行う。そして、CPU4aは、検索された避難場所を目的地情報としてRAM4cに記憶する処理を行う。
次に、CPU4aは、RAM4cに記憶されている現在位置情報と、目的地情報に基づいて、経路情報を設定し(ステップS5)、監視情報と、経路情報を骨伝導スピーカ6bに出力する処理を行う(ステップS7)。これらの処理により、歩行支援装置1の利用者を避難場所まで案内することができる。
(歩行支援装置1の装着態様)
次に、図8を用いて、歩行支援装置1の装着態様について説明を行う。なお、図8は、歩行支援装置1の装着態様の一例を示す図である。
まず、利用者は、歩行支援装置1を着用し、ボタンを留める。次に、補聴器6の本体部6aを耳介と頭皮との間に挟んで装着する。そして、補聴器6のイヤホン6dを耳穴に装着する。そして、ドローストリング部11に設けられている紐を引くことで、ウエスト部分を絞めてウエスト部分を調整する。
一方で、着用している歩行支援装置1を脱ぐ場合には、まず、ドローストリング部11に設けられている紐を緩め、装着している補聴器6を取り外す。そして、留めてあるボタンを外し、歩行支援装置1を脱ぐ。
(第2実施形態)
次に、図9を用いて、第2実施形態について説明を行う。なお、図9(A)は、第2実施形態における歩行支援装置1の正面図の一例を示す図であって、図9(B)は、第2実施形態における歩行支援装置1の背面図の一例を示す図である。
第1実施形態における歩行支援装置1は、ノースリーブの衣類状の形状となっているのに対して、第2実施形態における歩行支援装置1は、帽子が付いた長袖の衣類状の形状となっている。
また、第2実施形態における歩行支援装置1は、正面部分に設けられた正面振動部15と、背面部分に設けられた背面振動部16と、右肩部分に設けられた右肩振動部17と、左肩部分に設けられた左肩振動部18が設けられている。
また、第2実施形態における歩行支援装置1の左腕部分には、言語選択ボタン19が設けられている。
(正面振動部15)
正面振動部15は、歩行支援装置1の正面に設けられており、歩行支援装置1の利用者を前方向に案内するために設けられている。具体的には、CPU4aは、利用者を前方向に誘導する際に、正面振動部15を振動させる制御を行うことにより、歩行支援装置1の利用者を前方に案内する。なお、正面振動部15は、歩行支援装置1の正面に設けられていれば、どのような位置に設けられていてもよい。
(背面振動部16)
背面振動部16は、歩行支援装置1の背面に設けられており、歩行支援装置1の利用者を後方向に案内するために設けられている。具体的には、CPU4aは、利用者を後方向に誘導する際に、背面振動部16を振動させる制御を行うことにより、歩行支援装置1の利用者を後方向に案内する。なお、背面振動部16は、歩行支援装置1の背面に設けられていれば、どのような位置に設けられていてもよい。
(右肩振動部17)
右肩振動部17は、歩行支援装置1の右肩に設けられており、歩行支援装置1の利用者を右方向に案内するために設けられている。具体的には、CPU4aは、利用者を右方向に誘導する際に、右肩振動部17を振動させる制御を行うことにより、歩行支援装置1の利用者を右方向に案内する。なお、右肩振動部17は、歩行支援装置1の右側に設けられていれば、どのような位置に設けられていてもよい。例えば、右腕に設けられていてもよい。
(左肩振動部18)
左肩振動部18は、歩行支援装置1の左肩に設けられており、歩行支援装置1の利用者を左方向に案内するために設けられている。具体的には、CPU4aは、利用者を左方向に誘導する際に、左肩振動部18を振動させる制御を行うことにより、歩行支援装置1の利用者を左方向に案内する。なお、左肩振動部18は、歩行支援装置1の左側に設けられていれば、どのような位置に設けられていてもよい。例えば、左腕に設けられていてもよい。
(言語選択ボタン19)
言語選択ボタン19は、第2実施形態における歩行支援装置1の左腕部分に設けられており、日本語と英語を切り替えるために設けられている。具体的には、歩行支援装置1は、言語の初期値として日本語が選択されている。そして、日本語が選択されている状態において、歩行支援装置1の利用者が言語選択ボタン19を操作することにより、日本語から英語に切り替える制御が行われる。一方で、英語が選択されている状態において、歩行支援装置1の利用者が言語選択ボタン19を操作することにより、英語から日本語に切り替える制御が行われる。なお、言語選択ボタン19が設けられる位置は、適宜設定可能である。
なお、第2実施形態においては、言語選択ボタン19を操作することにより、日本語と英語を選択可能であるが、他の言語を選択可能としてもよい。例えば、フランス語、イタリア語、スペイン語、ポルトガル語、中国語等を選択可能としてもよい。
(第2実施形態における第1利用態様)
次に、第2実施形態の第1利用態様について説明を行う。
歩行支援装置1の利用者は、まず、マイク2に対して、目的地に係る音声情報を発声する。そうすると、CPU4aは、音声情報が入力されたと判定する処理を行う(ステップS1=YES)。そして、CPU4aは、音声情報を解析する処理を行い(ステップS11)、音声情報を認識した場合(ステップS12=YES)には、目的地情報を設定する(ステップS13)。
そして、CPU4aは、GPS3により利用者の現在位置情報を取得し(ステップS3)、カメラ5により監視情報を設定し(ステップS4)、現在位置情報と、目的地情報に基づいて、経路情報を設定する(ステップS5)。そして、CPU4aは、設定された経路情報と、監視情報を骨伝導スピーカ6bに出力する処理を行う(ステップS9)。
ここで、CPU4aは、ステップS9の情報出力処理において、設定された経路情報と、監視情報を骨伝導スピーカ6bに出力する際に、正面振動部15、背面振動部16、右肩振動部17、左肩振動部18を振動させる制御を行う。具体的には、歩行支援装置1の利用者を前方向に案内する場合においては、正面振動部15を振動させる制御を行い、歩行支援装置1の利用者を後方向に案内する場合においては、背面振動部16を振動させる制御を行い、歩行支援装置1の利用者を右方向に案内する場合においては、右肩振動部17を振動させる制御を行い、歩行支援装置1の利用者を左方向に案内する場合においては、左肩振動部18を振動させる制御を行う。
また、歩行支援装置1の利用者の歩行を停止させたい場合においては、正面振動部15、背面振動部16、右肩振動部17、及び左肩振動部18を同時に振動させる制御を行う。
また、第2実施形態における歩行支援装置1は、帽子を被った状態で、補聴器6を装着することができるので、雨の日や、雪の日であっても、補聴器6が濡れてしまうことを防止することができる。
(第2実施形態における第2利用態様)
次に、第2実施形態の第2利用態様について説明を行う。
歩行支援装置1の利用者は、まず、マイク2に対して、目的地に係る音声情報を発声する。そうすると、CPU4aは、音声情報が入力されたと判定する処理を行う(ステップS1=YES)。そして、CPU4aは、言語選択ボタン19により設定されている言語に基づいて、音声情報を解析する処理を行い(ステップS11)、音声情報を認識した場合(ステップS12=YES)には、目的地情報を設定する(ステップS13)。
そして、CPU4aは、GPS3により利用者の現在位置情報を取得し(ステップS3)、カメラ5により監視情報を設定し(ステップS4)、現在位置情報と、目的地情報に基づいて、経路情報を設定する(ステップS5)。そして、CPU4aは、言語選択ボタン19により設定されている言語に基づいて、設定された経路情報と、監視情報を骨伝導スピーカ6bに出力する処理を行う(ステップS9)。
(第3実施形態)
次に、図10を用いて、第3実施形態について説明を行う。なお、図10(A)は、第3実施形態における歩行支援装置1の正面図の一例を示す図であって、図10(B)は、第3実施形態における歩行支援装置1の背面図の一例を示す図である。
第3実施形態における歩行支援装置1は、補聴器6と、第2補聴器20が設けられている。
(第2補聴器20)
第2補聴器20は、補聴器6と同様に、歩行支援装置1の利用者に対して、音声情報を出力するために設けられている。また、第2補聴器20は、難聴である利用者が音を認識し易くするために設けられている。
また、第2補聴器20は、補聴器6と同様に、第2補聴器本体部20a(図示せず)と、第2補聴器骨伝導スピーカ20b(図示せず)と、第2補聴器イヤホンジャック20c(図示せず)と、第2補聴器イヤホン20d(図示せず)とにより構成されている。
(第2補聴器本体部20a)
第2補聴器本体部20aは、利用者が歩行支援装置1を利用する際に、耳介と頭皮との間に挟んで装着するために設けられている。ここで、本実施形態において、第2補聴器本体部20aは、外部からの音を集めるマイク部と、マイク部により集めた音の増幅、及び加工を行うアンプ部を備えている。なお、本実施形態において、第2補聴器本体部20aは、防水加工が施されている。
(第2補聴器骨伝導スピーカ20b)
第2補聴器骨伝導スピーカ20bは、歩行支援装置1の利用者に対して、音声情報を出力するために設けられている。ここで、第2補聴器骨伝導スピーカ20bにより、外耳や中耳を経由することなく、内耳のうずまき管に直接音の振動を伝達し、リンパ液中に浮かぶ聴覚神経が揺れることで音が聞こえることとなる。
(第2補聴器イヤホンジャック20c)
第2補聴器イヤホンジャック20cは、第2補聴器イヤホン20dを挿入するために設けられている。ここで、第2補聴器20の第2補聴器本体部20aに第2補聴器イヤホンジャック20cを設けることにより、第2補聴器イヤホン20dが故障した場合であっても、第2補聴器イヤホン20dを交換するだけで済むので、第2補聴器20全体を交換する場合と比較して修理費用が安価で済む。
(第2補聴器イヤホン20d)
第2補聴器イヤホン20dは、第2補聴器本体部20aに設けられているアンプ部により増幅、及び加工が行われた音を出力するために設けられている。
なお、第3実施形態においては、補聴器6と、第2補聴器20とが、それぞれ別のコネクタにより制御装置4に接続されているが、これに限定されることはなく、二股に分かれた一本のコネクタを用いることとしてもよい。これにより、制御装置4に接続するコネクタが一本となる。
このように、第3実施形態において、第2補聴器20は、第2補聴器骨伝導スピーカ20bにより音声情報を出力するとともに、外部からの音を第2補聴器イヤホン20dにより出力することとなる。なお、第2補聴器骨伝導スピーカ20bを設けずに、音声情報と、外部からの音を第2補聴器イヤホン20dにより出力することとしてもよい。
また、第3実施形態においては、補聴器6が利用者の左耳に装着されることとなり、第2補聴器20が利用者の右耳に装着されることとなる。これにより、両耳が難聴である場合であっても、歩行支援装置1の利用が可能となる。
このように、本発明によれば、GPS3により取得した経路情報と、カメラ5により撮影された情報を骨伝導スピーカ6bに出力することとなる。これにより、歩行支援装置1の利用者は、視覚に障害がある場合であっても、目的地まで容易に到達することができる。
また、本発明によれば、本体部6aに設けられているアンプ部により増幅、及び加工が行われた音が、イヤホン6dに出力されることとなるので、利用者が難聴である場合であっても、音を認識し易くすることができる。
また、本発明において、歩行支援装置1は、衣類状の形状からなり、右肩振動部17と、左肩振動部18が設けられており、利用者を右方向に案内する場合には、右肩振動部17を振動させる制御を行うとともに、利用者を左方向に案内する場合には、左肩振動部18を振動させる制御を行うので、歩行支援装置1の利用者が、目が見えず、かつ耳が聞こえない場合であっても、目的地まで案内することができる。
なお、本実施形態において、「マイク2」は、本発明の「音声情報入力手段」を構成する。
また、本実施形態において、「GPS3」は、本発明の「位置情報取得手段」を構成する。
また、本実施形態において、「制御装置4」は、本発明の「経路情報設定手段」を構成する。
また、本実施形態において、「カメラ5」は、本発明の「監視情報生成手段」を構成する。
また、本実施形態において、「補聴器6」は、本発明の「情報出力手段」を構成する。
また、本実施形態において、「本体部6a」は、本発明の「本体部」を構成する。
また、本実施形態において、「骨伝導スピーカ6b」は、本発明の「第1出力部」を構成する。
また、本実施形態において、「イヤホン6d」は、本発明の「第2出力部」を構成する。
なお、本実施形態において、「右肩振動部17」は、本発明の「右肩振動部」を構成する。
また、本実施形態において、「左肩振動部18」は、本発明の「左肩振動部」を構成する。
なお、上記実施形態や変形例で示した事項は、あくまで一例に過ぎず、本発明の範囲を逸脱しない範囲で、適宜変更可能である。
1 歩行支援装置
2 マイク
2a 右側マイク
2b 左側マイク
3 GPS
3a 右側GPS
3b 左側GPS
4 制御装置
4a CPU
4b ROM
4c RAM
4d 人工知能
4e 内部バス
5 カメラ
5a 右側カメラ
5b 左側カメラ
6 補聴器
6a 本体部
6b 骨伝導スピーカ
6c イヤホンジャック
6d イヤホン
7 電力供給装置
8 ファスナー部
8a 右側ファスナー部
8b 左側ファスナー部
9 送信装置
10 受信装置
11 ドローストリング部
12 固定板
12a 右側固定板
12b 左側固定板
13 長袖部
13a 右側長袖部
13b 左側長袖部
14 取付金具
14a 右側取付金具
14b 左側取付金具
15 正面振動部
16 背面振動部
17 右肩振動部
18 左肩振動部
19 言語選択ボタン
20 第2補聴器
20a 第2補聴器本体部
20b 第2補聴器骨伝導スピーカ
20c 第2補聴器イヤホンジャック
20d 第2補聴器イヤホン
このような課題を解決するために、本発明に係る歩行支援装置は、利用者の音声情報を入力する音声情報入力手段と、現在の位置情報を取得する位置情報取得手段と、前記位置情報取得手段により取得された前記位置情報と、前記音声情報入力手段により入力された前記音声情報とに基づいて、目的地までの経路情報を設定する経路情報設定手段と、利用者の前方を監視することにより、監視情報を生成する監視情報生成手段と、前記監視情報生成手段により生成された前記監視情報、及び前記経路情報設定手段により設定された前記経路情報を出力する情報出力手段と、震災に関する外部情報を受信する外部情報受信手段と、を備え、前記情報出力手段は、耳介と頭皮との間に挟んで装着される本体部と、前記監視情報、及び前記経路情報が出力される第1出力部と、外部から集められた音を増幅し、出力する第2出力部と、により構成されており、前記経路情報設定手段は、前記外部情報受信手段により前記外部情報を受信した場合に、目的地を避難場所に書き換えることを特徴とする。

Claims (2)

  1. 利用者の音声情報を入力する音声情報入力手段と、
    現在の位置情報を取得する位置情報取得手段と、
    前記位置情報取得手段により取得された前記位置情報と、前記音声情報入力手段により入力された前記音声情報とに基づいて、目的地までの経路情報を設定する経路情報設定手段と、
    利用者の前方を監視することにより、監視情報を生成する監視情報生成手段と、
    前記監視情報生成手段により生成された前記監視情報、及び前記経路情報設定手段により設定された前記経路情報を出力する情報出力手段と、
    を備え、
    前記情報出力手段は、
    耳介と頭皮との間に挟んで装着される本体部と、
    前記監視情報、及び前記経路情報が出力される第1出力部と、
    外部から集められた音を増幅し、出力する第2出力部と、
    により構成されていることを特徴とする歩行支援装置。
  2. 前記歩行支援装置は、
    衣類状の形状からなり、
    右肩部に設けられた右肩振動部と、
    左肩部に設けられた左肩振動部と、
    を更に備え、
    前記情報出力手段は、
    前記利用者を右方向に案内する場合には、前記右肩振動部を振動させる制御を行うとともに、前記利用者を左方向に案内する場合には、前記左肩振動部を振動させる制御を行うことを特徴とする請求項1に記載の歩行支援装置。
JP2017244182A 2017-12-20 2017-12-20 歩行支援装置 Pending JP2019107414A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017244182A JP2019107414A (ja) 2017-12-20 2017-12-20 歩行支援装置
CN201810538147.4A CN109938972A (zh) 2017-12-20 2018-05-30 行走辅助装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017244182A JP2019107414A (ja) 2017-12-20 2017-12-20 歩行支援装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019154007A Division JP2019213923A (ja) 2019-08-26 2019-08-26 歩行支援装置

Publications (1)

Publication Number Publication Date
JP2019107414A true JP2019107414A (ja) 2019-07-04

Family

ID=67006304

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017244182A Pending JP2019107414A (ja) 2017-12-20 2017-12-20 歩行支援装置

Country Status (2)

Country Link
JP (1) JP2019107414A (ja)
CN (1) CN109938972A (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003098953A (ja) * 2001-09-25 2003-04-04 Ricoh Co Ltd 視覚障害者支援システム、該システムの機能を実現するプログラム及び記録媒体
JP2014137752A (ja) * 2013-01-17 2014-07-28 Jb Craft:Kk 視覚障害者用の歩行誘導システム、視覚障害者用の歩行誘導方法、サーバ及び該サーバで実行することが可能なコンピュータプログラム
JP2016067855A (ja) * 2014-09-22 2016-05-09 達鋭 橋本 視覚障害者用歩行案内装置
WO2016199248A1 (ja) * 2015-06-10 2016-12-15 日立マクセル株式会社 情報提示システム及び情報提示方法
US20170249810A1 (en) * 2016-02-26 2017-08-31 At&T Intellectual Property I, L.P. Notification system with haptic feedback garment and methods for use therewith

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005009110A1 (de) * 2005-01-13 2006-07-27 Siemens Ag Vorrichtung zur Vermittlung von Umgebungsinformationen an einen sehbehinderten Menschen
CN203029570U (zh) * 2013-01-12 2013-07-03 洪熙熙 多功能拐杖
CN103385795B (zh) * 2013-07-18 2015-07-08 杭州微感科技有限公司 基于运动传感器的导盲眼镜及其工作方法
US9618611B2 (en) * 2014-09-24 2017-04-11 Nxp B.V. Personal radar assistance
CN205181733U (zh) * 2015-03-30 2016-04-27 深圳赛米加科技有限公司 穿戴式导盲装置及其位置终端
EP3427255A4 (en) * 2016-03-07 2019-11-20 Wicab, INC. OBJECT DETECTION, ANALYSIS AND ALARM SYSTEM FOR USE IN THE PROVISION OF VISUAL INFORMATION FOR BLIND
CN107157717A (zh) * 2016-03-07 2017-09-15 维看公司 用于向盲人提供视觉信息的物体检测、分析及提示***
CN205964412U (zh) * 2016-05-17 2017-02-22 浙江工商大学 智能导盲背包
CN107007437A (zh) * 2017-03-31 2017-08-04 北京邮电大学 交互式盲人辅助方法及设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003098953A (ja) * 2001-09-25 2003-04-04 Ricoh Co Ltd 視覚障害者支援システム、該システムの機能を実現するプログラム及び記録媒体
JP2014137752A (ja) * 2013-01-17 2014-07-28 Jb Craft:Kk 視覚障害者用の歩行誘導システム、視覚障害者用の歩行誘導方法、サーバ及び該サーバで実行することが可能なコンピュータプログラム
JP2016067855A (ja) * 2014-09-22 2016-05-09 達鋭 橋本 視覚障害者用歩行案内装置
WO2016199248A1 (ja) * 2015-06-10 2016-12-15 日立マクセル株式会社 情報提示システム及び情報提示方法
US20170249810A1 (en) * 2016-02-26 2017-08-31 At&T Intellectual Property I, L.P. Notification system with haptic feedback garment and methods for use therewith

Also Published As

Publication number Publication date
CN109938972A (zh) 2019-06-28

Similar Documents

Publication Publication Date Title
US9576460B2 (en) Wearable smart device for hazard detection and warning based on image and audio data
KR101250929B1 (ko) 진동패턴 알림 기능을 가지는 양귀 삽입형 보청기
CN108683972B (zh) 声音处理***
US9805619B2 (en) Intelligent glasses for the visually impaired
WO2016099052A1 (ko) 시각장애인을 위한 3차원 장애물 안내장치와 이를 이용한 주위 정보 안내시스템 및 그 방법
WO2016086440A1 (zh) 针对全盲人群的可穿戴式引导设备
KR20100123036A (ko) 보행 보조 장치
JP6326573B2 (ja) 多機能イヤホンによる自律型アシスタントシステム
WO2015169072A1 (zh) 盲人眼镜
KR101885473B1 (ko) 시각 장애인 보조용 스마트 글래스
US20140146974A1 (en) Method and system for testing a hearing device from a remote location
KR102351584B1 (ko) 시각장애인을 위한 길안내 서비스 시스템
KR20190111262A (ko) 시각 장애인을 위한 장애물 거리 측정 단말기
JP2022542747A (ja) ヒアスルーオーディオシステムのためのイヤプラグアセンブリ
JP2022526702A (ja) 盲人及び視覚障害者用の立体音響装置
Vítek et al. New possibilities for blind people navigation
US3183312A (en) Method and apparatus for improving hearing
JP2019213923A (ja) 歩行支援装置
JP2019040005A (ja) 読み上げシステム及び読み上げ方法
KR20190004490A (ko) 보행 안내 시스템
JP2019107414A (ja) 歩行支援装置
TW201731307A (zh) 聽力輔助系統及電子裝置
KR20130031423A (ko) 시각장애인을 위한 움직임센서 및 근접센서를 이용하여 촉각신호로 변환되는 시스템
KR20130131511A (ko) 시각 장애인용 안내장치
KR20160000897A (ko) Ble 기반의 손목형 안내기기를 이용한 시각장애인용 보행안내시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190111

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190528