JP6522527B2 - 画像及びオーディオデータに基づいた危険の検出及び警告用のウェアラブルスマート装置 - Google Patents

画像及びオーディオデータに基づいた危険の検出及び警告用のウェアラブルスマート装置 Download PDF

Info

Publication number
JP6522527B2
JP6522527B2 JP2016001519A JP2016001519A JP6522527B2 JP 6522527 B2 JP6522527 B2 JP 6522527B2 JP 2016001519 A JP2016001519 A JP 2016001519A JP 2016001519 A JP2016001519 A JP 2016001519A JP 6522527 B2 JP6522527 B2 JP 6522527B2
Authority
JP
Japan
Prior art keywords
hazard
processor
data
audio data
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016001519A
Other languages
English (en)
Other versions
JP2016186786A (ja
Inventor
ダヤル ラジーブ
ダヤル ラジーブ
Original Assignee
トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド
トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド, トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド filed Critical トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド
Publication of JP2016186786A publication Critical patent/JP2016186786A/ja
Application granted granted Critical
Publication of JP6522527B2 publication Critical patent/JP6522527B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/06Walking aids for blind persons
    • A61H3/061Walking aids for blind persons with electronic detecting or guiding means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3691Retrieval, searching and output of information related to real-time traffic, weather, or environmental conditions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/06Walking aids for blind persons
    • A61H3/061Walking aids for blind persons with electronic detecting or guiding means
    • A61H2003/063Walking aids for blind persons with electronic detecting or guiding means with tactile perception
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/01Constructive details
    • A61H2201/0173Means for preventing injuries
    • A61H2201/0184Means for preventing injuries by raising an alarm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/16Physical interface with patient
    • A61H2201/1602Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
    • A61H2201/1609Neck
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/16Physical interface with patient
    • A61H2201/1602Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
    • A61H2201/165Wearable interfaces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5007Control means thereof computer controlled
    • A61H2201/501Control means thereof computer controlled connected to external computer devices or networks
    • A61H2201/5012Control means thereof computer controlled connected to external computer devices or networks using the internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5023Interfaces to the user
    • A61H2201/5043Displays
    • A61H2201/5046Touch screens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5023Interfaces to the user
    • A61H2201/5048Audio interfaces, e.g. voice or music controlled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5064Position sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5082Temperature sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5089Gas sensors, e.g. for oxygen or CO2
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5092Optical sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5097Control means thereof wireless

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Rehabilitation Therapy (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Pain & Pain Management (AREA)
  • Epidemiology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Atmospheric Sciences (AREA)
  • Ecology (AREA)
  • Environmental & Geological Engineering (AREA)
  • Environmental Sciences (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本開示は、画像データ及びオーディオデータに基づいて危険(ハザード)についてユーザーに警告するウェアラブルスマート装置に関する。
特定の人々、例えば盲目の又は聴覚障害を有する人は感覚能力の欠如に起因し、且つ/又は、例えば騒々しい工場内の労働者は極端な環境に起因し、特定の環境において特定の不利な状態におかれる場合がある。これらの人々は、自身の環境において、すべての感覚を有する又は静かな環境にある人と同じようにして特定の情報を検出することはできない。従って、これらの人々は、自身の失われた又は弱化した感覚に起因し、危険な状況が自身の環境において発生した場合にその危険な状況に気付かない場合があり、且つ、自身の周囲の危険或いは危険が近づいていることを検出できないことに起因して、相対的に高い危険のリスクを有する状態となる場合がある。失われた又は弱化した感覚には、多くの場合に、視覚及び聴覚が含まれる。
ウェアラブルカメラは、多くの場合、ユーザーの同一又は類似の視点又は視界(Field Of View:FOV)から、ユーザーの経験を記録し且つ文書化する。この経験は、視覚及び/又は聴覚を失った又は弱い人が検出できないデータを検出する、カメラ及び/又はマイクロフォンによって記録されてもよい。しかしながら、これらの装置は受動型の記録装置であり、且つ、一般に、FOV内のシーンに関するリアルタイム処理及び情報を提供しない。従って、カメラ及びマイクロフォンによってキャプチャされたデータを、環境に関するユーザーの認識を補完するために使用することはできない。
従って、ユーザーの環境に対応したデータを検出すると共に、そのデータを弱化した又は失われた感覚を有するユーザーが検出しうるフィードバックに変換する、ウェアラブル装置に対するニーズが存在している。
本明細書には、危険警告情報を提供するウェアラブルスマート装置について記述されている。ウェアラブルスマート装置は、潜在的な危険に関係するオーディオデータを検出するように構成された、マイクロフォンを含む。ウェアラブルスマート装置は、更に、潜在的な危険に関係する画像データを検出するように構成された、カメラを含む。ウェアラブルスマート装置は更にプロセッサを含み、このプロセッサは、マイクロフォン及びカメラに結合されると共に、検出されたオーディオデータ又は検出された画像データのうちの少なくとも1つに基づいて、その潜在的な危険が実際の危険を示しているか否かを決定するように構成されている。
又、本明細書には、危険警告を提供するスマートネックレスについても記述されている。スマートネックレスは、第1端部と、第2端部と、を有する上部部分を含む。又、スマートネックレスは、上部部分の第1端部に結合された第1下部部分をも含む。又、スマートネックレスは、上部部分の第2端部に結合された第2下部部分をも含む。又、スマートネックレスは、第1下部部分、第2下部部分、又は上部部分上において位置決めされると共に潜在的な危険に関係するーディオデータを検出するように構成された、少なくとも1つのマイクロフォンをも含む。又、スマートネックレスは、第1下部部分又は第2下部部分上において位置決めされると共に、潜在的な危険に関係する画像データを検出するように構成された、カメラをも含む。又、スマートネックレスは、カメラ及び少なくとも1つのマイクロフォンに結合されると共に、検出されたオーディデータ及び検出された画像データに基づいて潜在的な危険が実際の危険を示しているか否かを決定するように構成された、プロセッサをも含む。
又、本明細書には、ウェアラブルスマート装置のユーザーに対して危険警告を提供する方法についても記述されている。この方法は、少なくとも2つのマイクロフォンにより、潜在的な危険に関係すると共に音量情報を含むオーディオデータを検出するステップを含む。又、この方法は、カメラにより、潜在的な危険に関係する画像データを検出するステップをも含む。又、この方法は、プロセッサにより、検出されたオーディオ及び検出された画像データに基づいて潜在的な危険が実際の危険を示すか否かを決定する、ステップをも含む。
又、本明細書には、ウェアラブルスマート装置のユーザーに対して危険警告を提供する方法についても記述されている。この方法は、メモリ内に危険場所を記憶するステップを含む。又、この方法は、GPS、IMU、カメラ、又はマイクロフォンのうちの少なくとも2つにより、場所データを検出するステップをも含む。又、この方法は、プロセッサにより、ウェアラブルスマート装置の現在の場所を決定するステップをも含む。又、この方法は、プロセッサにより、現在の場所が危険場所から既定の距離内にあることを決定するステップをも含む。又、この方法は、プロセッサにより、現在の場所が危険場所から既定の距離内にあることに応答して、ユーザーに提供されるフィードバックデータを決定するステップをも含む。
本発明のその他のシステム、方法、特徴、及び利点については、以下の図面及び詳細な説明を参照した際に、当業者に明らかとなろう。このようなすべての更なるシステム、方法、特徴、及び利点は、この説明に含まれるべく、本発明の範囲に含まれるべく、且つ、添付の請求項によって保護されるべく、意図されている。図面に示されているコンポーネント部品は、必ずしも縮尺が正確ではなく、且つ、本発明の重要な特徴を相対的に良好に示すべく、誇張されている場合がある。添付図面においては、異なる図面のすべてを通じて、同一の参照符号により、同一の部分を表記している。
本発明の一実施形態に係るウェアラブルスマート装置のブロックダイアグラムである。 本発明の一実施形態に係るスマートネックレスの正面図を示す。 本発明の一実施形態に係る図2のスマートネックレスの背面図を示す。 本発明の一実施形態に係る、ユーザーを安全監視すると共に危険についてユーザーに警告するウェアラブルスマート装置によって実行される、例示用の方法を示す。 本発明の一実施形態に係る、危険に関係するコンフィデンス値及び危険に関係する深刻さレベルを含む特定の場所に関係する様々な危険情報を記憶する、例示用のデータベースを示す。 本発明の一実施形態に係る、画像データ、オーディオデータ、及びベース深刻さレベルを危険の様々なタイプと関連付ける、別の例示用のデータベースを示す。 本発明の一実施形態に係る、様々な深刻さレベルファクタをその深刻さレベルに対応した調節と関連付ける、例示用のデータベースを示す。 本発明の一実施形態に係る、既知の危険の検出音量を危険までの推定距離と関連付ける、例示用のデータベースを示す。 本発明の一実施形態に係る図4に示されている方法に類似した方法を使用する図1に示されているウェアラブルスマート装置に類似した、例示用のウェアラブルスマート装置を示す。 本発明の一実施形態に係る、図4に示されている方法に類似した方法を利用する図9のウェアラブルスマート装置の別の例を示す。 本発明の一実施形態に係る、発散データに基づいてユーザーを安全監視すると共に危険についてユーザーに警告するべくウェアラブルスマート装置によって実行されうる、別の例示用の方法を示す。 本発明の一実施形態に係る、図11に示されている方法の例示用の使用法を示す。
本明細書において記述されているウェアラブルスマート装置及び方法は、ユーザーの環境に対応したデータを検出し、危険が環境内に存在していることを決定し、且つ、ユーザーが危険を回避するか又はこれに関する対策を実行できるフィードバックを提供する。ウェアラブルスマート装置は、視覚及び/又は聴覚障害を有するユーザーにより、使用されうる。更には、ウェアラブルスマート装置は、騒々しい工場、薄暗い照明及び視認性を有する仕事場、混雑した仕事場、建設現場などのような極端な又は困難な環境において働くユーザーにより、使用されうる。又、それぞれの危険は、深刻さレベル及びコンフィデンスレベルに割り当てられてもよい。深刻さレベルは、危険によって提示される危険の尤度、危険によって提示される危険の程度、ユーザーに対する危険の近接性、又はこれらに類似したものに対応している。コンフィデンスレベルとは、危険がその場所において依然として存在していることに関する推定されたコンフィデンスである。
環境に対応したデータには、ユーザーの弱化した又は失われた視覚及び/又は聴覚の感覚を補完しうる画像データ及びオーディオデータの両方が含まれうる。ウェアラブルスマート装置及び方法は、(1つのセンサが危険を検出できない際を含む)ユーザー環境における潜在的な危険の検出の安定性及び精度の向上、それぞれの危険の深刻さレベル及び/又はコンフィデンスレベルを決定する能力、及び識別されていない状況又は物体が危険を示すか否かを決定する能力などのいくつかの利益及び利点を提供する。ウェアラブル装置及び方法は、危険までの距離を決定する能力及び危険までの方向を決定する能力を含む更なる利益及び利点を提供する。
例示用のウェアラブルスマート装置は、ユーザーの環境に対応したオーディオ及び画像データを検出する能力を有するマイクロフォン及びカメラの両方を含む。マイクロフォンは、危険までの方向及び/又は距離が検出されうるように、ステレオオーディオデータを検出する能力を有する複数のマイクロフォンを含んでもよい。カメラは、危険までの方向及び又は距離が検出されうるように、ステレオカメラペアを含んでもよい。又、ウェアラブルスマート装置は、カメラ及び/又はマイクロフォンとの関連において作動した際に、ユーザーの場所に対応した非常に正確な場所データを検出するべく使用されうるGPS及び/又はIMUを含んでもよい。
又、ウェアラブルスマート装置は、場所データ、オーディオデータ、及び画像データに対応した危険情報の複数のデータベースを記憶するメモリを含んでもよい。又は、メモリは、検出されたファクタを危険の深刻さレベルの調節に対して関連付けるデータベースと、距離情報に伴う識別されたオーディオ音響の対応した音量のデータベースと、を含んでもよい。又、ウェアラブルスマート装置は、検出されたオーディオ及び画像データをデータベースと比較することにより、危険データを検出された画像データ、オーディオデータ、及び場所データとマッチングさせる能力を有するプロセッサをも含む。又、プロセッサは、検出された危険の深刻さを決定する能力を有してもよい。
一実装形態においては、且つ、図1を参照すれば、ウェアラブルスマート装置100は、センサアレイ120、インターフェイスアレイ130、及びコンポーネントアレイ140と通信するオンボード処理アレイ110を含む。オンボード処理アレイ110、センサアレイ120、インターフェイスアレイ130、及びコンポーネントアレイ140は、図1のブロックダイアグラムにおいて、ウェアラブルスマート装置100のコンポーネントを視覚的に組織化するための例示用のグループ分けであると共に限定を目的としたものはなく、従って、必ずしもなんらかの物理的なグループ分けを表すものではない。更には、特定の実装形態は、図1に示されているものよりも多くの又は少ない数のコンポーネントを有してもよい。
オンボード処理アレイ110は、プロセッサ111と、メモリ112と、を含む。プロセッサ111は、例えばARMプロセッサ、DSPプロセッサ、分散プロセッサ、又は中央処理のその他の形態の、コンピュータプロセッサであってもよい。プロセッサ111は、ウェアラブルスマート装置100上において位置決めされてもよく、リモートプロセッサであってもよく、或いは、ローカル及びリモートプロセッサのペアであってもよい。
メモリ112は、RAM又はその他の揮発性又は不揮発性メモリ、一時的ではないメモリ、或いは、ハードディスクドライブ、半導体ディスクドライブ、ハイブリッドディスクドライブなどのデータストレージ装置、或いは、その他の適切なデータストレージのうちの1つ又は任意の組合せであってもよい。メモリ112は、メモリ112内に読み込まれうると共にプロセッサ111によって実行されうる機械可読命令を更に記憶してもよい。プロセッサ111と同様に、メモリ112は、ウェアラブルスマート装置100上において位置決めされてもよく、ウェアラブルスマート装置100からリモート状態において位置決めされてもよく、或いは、ローカル及びリモートメモリのペアであってもよい。
センサアレイ120は、ステレオカメラ121、カメラ122、慣性計測装置(Inertial Measurement Unit:IMU)123、全地球測位システム(Global Positioning System:GPS)124、及びセンサ125を含む。ステレオカメラ121は、ステレオ距離だけオフセットされた2つのカメラを有するステレオカメラペアであってもよい。ステレオ距離は、2つのカメラについて最適化されてもよい。ウェアラブルスマート装置100は、ステレオカメラ121の複数のペアを有してもよい。カメラ122は、ステレオカメラペアの一部ではないカメラ又はその他の光学センサであってもよい。いくつかの実施形態においては、カメラ122は、ステレオカメラのペア121とは反対のウェアラブルスマート装置100の側において位置決めされてもよく、且つ/又は、ユーザーの背後のエリアのデータを提供するべくユーザーの首の背後などの必要とされる場所に配置されてもよい。
いくつかの実施形態においては、プロセッサ111は、ステレオカメラ121及び/又はカメラ122の焦点を変更する能力を有してもよい。これは、FOVを変更するべく、回転やターンなどを実行するように、ステレオカメラ121及び/又はカメラ122に結合されているアクチュエータに対して命令するステップを含んでもよい。又、プロセッサ111は、ウェアラブルスマート装置100から特定の距離における画像データを検出するべく、ステレオカメラ121及び/又はカメラ122の焦点を変更する能力を有してもよい。
IMU123は、加速度計、ジャイロスコープ、磁気計、又はこれらに類似したもののうちの1つ又は複数を更に有しうるIMUであってもよい。GPS124は、1つ又は複数のGPS装置であってもよい。センサ125は、センサアレイ120の残りの部分との関連において環境に関する更なる情報を提供する1つ又は複数のセンサであってもよい。センサ125は、カメラ、温度センサ、気圧センサ、水分又は湿度センサ、ガス検出器、又はその他の化学薬品センサ、音響センサ、pHセンサ、煙検出器、金属検出器、光量計、高度計、深さゲージ、コンパス、放射線センサ、モーション検出器、光センサ、又はその他のセンサのうちの1つ又は複数であってもよい。
インターフェイスアレイ130は、マイクロフォン131、スピーカ132、振動装置133、入力装置134、及びディスプレイ135を含む。マイクロフォン131は、音声起動/コマンド又はその他の音声動作などの音響をユーザーから検出する能力を有するマイクロフォン又はその他の装置であってもよく、且つ、ウェアラブルスマート装置100と統合されてもよく、或いは、その外部にあってもよい。いくつかの実施形態においては、マイクロフォン131は、ウェアラブルスマート装置100の環境のオーディオデータを検出する能力を有する、複数のマイクロフォンを含んでもよい。更には、マイクロフォン131は、特定の音響の音量を検出する能力を有してもよい。マイクロフォン131は、マイクロフォン131によって検出されたデータを使用して音響の発生源までの距離及び音響の発生源の方向を決定しうるように、所定の距離だけ、分離されていてもよい。
スピーカ132は、音響及び/又は振動を生成する能力を有する1つ又は複数のスピーカ又はその他の装置であってもよい。振動装置133は、触覚及び接触出力を提供する能力を有する振動モーター又はアクチュエータであってもよい。又、特定の実装形態においては、振動装置133は、スピーカ132と振動装置133が同一のものとなりうるように又は統合されうるように、音響を生成する能力を有してもよい。
振動装置133は、ステレオ触覚フィードバックをユーザーに対して提供するべく、ウェアラブルスマート装置100の左側部分内において左側振動モーターを含んでもよく、且つ、ウェアラブルスマート装置100の右側部分内において右側振動モーターを含んでもよい。左側部分上の振動パターンは、右側部分上の振動パターンと異なっていてもよい。この結果、左側/右側振動パターンの異なる組合せにより、(左側及び右側振動の両方において同一パターンを出力するのとは対照的に)更に多くの種類の有用な情報をユーザーに対して伝達することができる。例えば、右側には存在しない左側における特定の振動パターンを使用することにより、ユーザーが左に向く必要があることをユーザーに対して通知してもよい。この結果、有利には、右側振動とは異なりうる左側振動を使用することにより、触覚フィードバックの様々な組合せが可能となる。
入力装置134は、タッチセンサ及び/又は1つ又は複数のボタンなどの入力装置であってもよい。例えば、入力装置134は、それぞれのボタンがウェアラブルスマート装置100の異なる活動に対応するように、複数のボタンであってもよい。様々な実施形態においては、「入力装置」という用語が、マイクロフォン、1つ又は複数のボタン、タッチパッド、タッチスクリーン、又はこれらに類似したものを意味しうるように、マイクロフォン131は、入力装置と見なされてもよい。
ディスプレイ135は、ウェアラブルスマート装置100に統合された又はウェアラブルスマート装置100に対して無線で接続されたディスプレイであってもよい。ディスプレイ135は、ステレオカメラ121及び/又はカメラ122からの視覚データを表示する能力を有してもよい。その他の実装形態においては、ディスプレイ135は、1つ又は複数のLED又は類似の光源などの別の視覚警報装置であってもよい。様々な実施形態においては、入力装置134及びディスプレイ135は、タッチスクリーンなどのように、同一であってもよく、或いは、統合されてもよい。
コンポーネントアレイ140は、電池141と、アンテナ142と、入出力ポート(I/Oポート)143と、を含む。電池141は、ウェアラブルスマート装置100に電力供給する能力を有する電池又はその他の電源であってもよい。電池141は、充電用の接続ポートを有してもよく、或いは、誘導充電を通じたものなどのように、無線充電されてもよい。アンテナ142は、無線通信を送受信する能力を有する1つ又は複数のアンテナであってもよい。例えば、アンテナ142は、Bluetooth(登録商標)又はWiFiアンテアであってもよく、高周波識別(Radio Frequency Identification:RFID)アンテナ又は読取器であってもよく、且つ/又は、近距離通信(Near Field Communiction:NFC)ユニットであってもよい。I/Oポート143は、更なる周辺装置を接続するための1つ又は複数のポートであってもよい。例えば、I/Oポート143は、ヘッドフォンジャック、データポート、又はこれらに類似したものであってもよい。
アンテナ142及び/又はI/Oポート143により、ウェアラブルスマート装置100は、スマートネックレスに対する更新、マップ情報、又は特定の用途用のその他の関連する情報などのデータダウンロードと、状態更新及び更新済みのマップ情報などのデータアップロートと、のために、別の装置又はネットワークに接続することができる。更には、アンテナ142及び/又はI/Oポート143により、ウェアラブルスマート装置100は、演算の分散又はリソースの共有のために、その他のウェアラブルスマート装置と通信することもできる。
本明細書において記述されているウェアラブルスマート装置100は、一般に、スタンドアロン装置である。但し、その他の実装形態においては、ウェアラブルスマート装置100は、その他の装置との関連において動作するように構成又は最適化されてもよい。例えば、スマートフォン、タブレット、又はその他のモバイル装置は、リソース及び処理の共有のために、ウェアラブルスマート装置100に対して無線接続されてもよい。モバイル装置は、ウェアラブルスマート装置100用のディスプレイユニットとして機能してもよい。ウェアラブルスマート装置100は、モバイル装置又はその他のスマートネックレスとやり取りするための特定のプロトコルを更に有してもよい。更には、ウェアラブルスマート装置100は、インターネット上において、クラウドなどのリモート処理及び/又はリモートストレージに接続してもよい。
ウェアラブルスマート装置100は、ユーザーによるウェアラブルスマート装置100の装用を許容する1つ又は複数の特徴を含む。いくつかの実施形態においては、ウェアラブルスマート装置100は、ネックレス、イヤフォン、眼鏡、スマートウォッチ、スマートクリップ、又はこれらに類似したものとして実装されてもよい。例えば、ネックレスは、ユーザーの首又は肩上において垂らして掛けるようにしてもよく、眼鏡は、ユーザーの鼻及び/又は耳上に置かれてもよく、スマートウォッチは、ユーザーの首又は手首の周りに装用されてもよく、スマートクリップは、ユーザー上に又はユーザーの衣類上にクリップ留めされてもよい。ウェアラブルスマート装置100は、ユーザーに警告するべく、ユーザーの周りの物体を認識する能力を有する。例えば、ウェアラブルスマート装置100は、環境の認識及び危険な状況の警告を支援するべく、盲目の人物によって使用されてもよい。ウェアラブルスマート装置100は、ステレオカメラ121からの画像データ、カメラ122からの画像データ、及び/又はマイクロフォン131からのオーディオデータを含む入力に基づいて、ユーザーオーディオ及び/又は触覚フィードバックをスピーカ132及び/又は振動装置133を通じて提供してもよい。
メモリ112は、危険の検出を支援すると共に危険警報をユーザーに対して提供するためのマップ情報又はデータを記憶してもよい。マップデータは、アンテナ142を通じて無線で予め読み込まれてもよく、ダウンロードされてもよく、或いは、建物の入口の近傍に掲示された又は以前の遭遇及び記録から構築された建物マップをキャプチャするなどにより、視覚的に決定されてもよい。マップデータは、エッジを有するネットワークダイアグラムなどのように、抽象的なものであってもよく、或いは、特徴を有する一連の座標であってもよい。マップデータは、ユーザーにとって関心のある地点を含んでもよく、且つ、ユーザーが場所を変更するのに伴って、ステレオカメラ121及び/又はカメラ122は、更なる関心の地点を受動的に認識すると共にマップデータを更新してもよい。いくつかの実施形態においては、マップデータは、オーディオ情報によって更新されてもよい。例えば、工場は、常に同一の雑音を同一の周波数及び音量において出力しうる。ウェアラブルスマート装置100は、場所と関連し且つ雑音の周波数及び音量を含むオーディオデータにより、マップを更新してもよい。
屋内場所などの特定の場所においては、スタンドアロンのGPSユニットが、ユーザーの非常に正確な場所を決定するための十分な情報を提供しない場合がある。ウェアラブルスマート装置100は、ウェアラブルスマート装置100の正確な場所を決定するべく、ステレオカメラ121、カメラ122、IMU123、GPS124、センサ125、マイクロフォン131、及び/又はアンテナ142から検出されたデータを使用してもよい。ウェアラブルスマート装置100は、例えば、階段、出口、及び洗面所を認識してもよく、且つ、これらの場所をメモリ112内において適切に記憶してもよい。その他の記憶されている場所データ又はその他のデータは、潜在的な危険、周辺構造物の説明、代替ルート、及びその他の場所を含んでもよい。更なるデータ及び関心地点は、Bluetooth(登録商標)又はその他の無線ネットワークを通じて、モバイル装置及びその他の装置、ソーシャルネットワーク、或いは、クラウドに、ダウンロード及び/又はアップロードすることができる。
図2は、正面から(即ち、Z軸に沿って)観察されたスマートネックレス200(又は、盲人支援ネックレス)の一実施形態を示している。スマートネックレス200内のコンポーネントの形状及び相対位置を示すべく、XYZ軸が示されている。図2に示されているウェアラブルスマート装置は、ウェアラブルスマート装置の一実施形態である。当業者は、ウェアラブルスマート装置がその他の形状及び構成を有しうることを理解するであろう。
スマートネックレス200は、上部部分201と、右側部分208と、左側部分209と、を含む。スマートネックレス200は、ユーザーの首の周りにおいて装用されることを要する。装用された際に、上部部分201は、人物の首の背後に置かれてもよい。右側部分208は、スマートネックレス200の右側端部215Aがユーザーの右側胸部上又はその上方において位置決めされるように、ユーザーの右側肩部上において延在してもよい。同様に、左側部分209は、スマートネックレス200の左側端部215Bがユーザーの胸部の左側上において又はその上方において位置決めされるように、ユーザーの左側肩部上において延在してもよい。
右側部分208は、右側中間部分202Aと、下部右側部分204Aと、ボタン部分206と、を含んでもよい。いくつかの実施形態においては、右側部分208は、右側中間部分202A、下部右側部分204A、及び/又はボタン部分206に分離されていなくてもよい。
上部部分は、中間部270と、左側端部272Bと、右側端部272Aと、を有してもよい。上部部分201は、中間及び下部部分がユーザーの肩上において延在しうるように、中間部270において実質的にまっすぐであってもよく、且つ、中間部270と端部272の間において湾曲していてもよい。左側端部272B及び右側端部272Aに向かう曲線は、ユーザーの首及び肩に実質的に似たようなものになっていてもよい。この設計により、上部部分201は、ユーザーの首上に快適に置かれる。上部部分201は、剛性を有してもよく、これは、上部部分201が通常の圧力下において屈曲したり又は曲がったりしないことを意味している。この結果、損傷の懸念を伴うことなしに、電池、プロセッサ、メモリ、又はこれらに類似したものなどの影響を受けやすいコンポーネントを上部部分201内に収容することができる。上部部分201は、コンポーネントが上部部分201内において収容されうるように、少なくとも部分的に中空であってもよい。
ここで、コンポーネントがスマートネックレスの一部分上において位置決めされる場合には、コンポーネントは、その部分を基準として内部に位置してもよく、コンポーネントは、その部分を基準として部分的に内部に位置すると共に部分的に外部に位置してもよく、或いは、コンポーネントは、その部分の外部に位置すると共にその部分に対して結合されてもよい。
右側中間部分202Aは、上部部分201の右側端部272Aに結合された上部端部203Aと、下部端部205Aと、を含む。左側中間部分202Bは、上部部分201の側左端部272Bに結合された上部端部203Bと、下部端部205Bと、を含む。中間部分202は、上部部分201に対して永久的に結合されてもよく、或いは、上部部分201に対して着脱自在に結合されてもよい。スマートネックレス200の各部分が着脱自在に1つに結合される際には、接続は、各部分が通常の装用条件下において外れないようなものであってもよい。
中間部分202は、湾曲していてもよい。この結果、中間部分202は、ユーザーの首及び/又は肩に圧接状態に置かれる。いくつかの実施形態においては、中間部分202は、ゴム、シリコーン、又はこれらに類似したものなどの半剛性材料から構築されてもよい。半剛性材料は、特定の力が印加された状態に屈曲するか又は曲がりうるが、力が除去された際には、そのオリジナルの形状に復帰することになる。半剛性材料により、中間部分202は、ユーザーの肩の輪郭に準拠することができる。従って、中間部分202の半剛性材料により、スマートネックレス200は、異なるユーザーに対して快適にフィットすることができる。
右側中間部分202Aは、スピーカ232Aと、振動装置233Aと、を含んでもよい。左側中間部分202Bも、同様に、スピーカ232Bと、振動装置233Bと、を含んでもよい。スピーカ及び/又は振動装置をユーザーの両側に設けることにより、ステレオ情報をユーザーに対して提供することができる。例えば、振動装置233Aによる振動は、ユーザーが右に曲がることを要することを通知してもよく、且つ、振動装置233Bによる振動は、ユーザーが左に曲がることを要することを通知してもよい。この代わりに、振動装置233A上の振動は、ユーザーがユーザーの右側に過剰に遠くに移動しており、且つ、従って、左に曲がるべきであることを通知してもよく、且つ、振動装置233Bによる振動は、ユーザーが右に曲がるべきであることを通知してよい。
下部右側部分204Aは、右側中間部分202Aの下部端部205Aに結合された上部端部207Aと、下部端部210Aと、を含む。下部右側部分204Aは、右側中間部分202Aに対して永久的に結合されてもよく、或いは、右側中間部分202Aに対して着脱自在に結合されてもよい。
下部右側部分204Aは、実質的にまっすぐであってもよい。右側端部215Aに近接した状態において、下部右側部分204Aは、X方向において、相対的に大きくなっていてもよい。この結果、スマートネックレスの右側端部215Aに向かって位置決めされるべく、ボタンなどのコンポーネント用の更なる表面積が得られる。下部右側部分204Aは、剛性材料から構築されてもよい。剛性材料は、コンポーネントが下部右側部分204A内において収容されうるように、少なくとも部分的に中空であってもよく、或いは、空洞を含んでいてもよい。
下部右側部分204Aは、カメラ222A及びマイクロフォン231Aを含んでもよい。カメラ222Aは、限定を伴うことなしに、可視光スペクトル、赤外スペクトル、近紫外スペクトルなどを含む任意の光スペクトルの画像データを検出する能力を有する単一のカメラであってもよい。マイクロフォン231Aは、オーディオ情報を検出するように適合されてもよい。例えば、マイクロフォン231Aは、ユーザーの発話、別の人物の発話、ユーザーの環境に関係するオーディオデータ、並びに、これらに類似したものを検出してもよい。更には、マイクロフォン231Aは、様々な周波数の音響を検出すると共に/又は音量を検出するように適合されてもよい。
下部左側部分204Bは、左側中間部分202Bの下部端部205Bに結合された上部端部207Bと、スマートネックレス200の左側端部215Bと同一である下部端部210Bと、を含む。下部左側部分204Bは、左側中間部分202Bに対して永久的に結合されてもよく、或いは、左側中間部分202Bに対して着脱自在に結合されてもよい。
下部左側部分204Bは、下部右側部分204Aに類似したものであってもよい。下部左側部分204Bは、左側端部215Bに接近するのに伴って、X方向において、相対的に大きくなっていてもよい。この結果、更なる外部において取り付けられたコンポーネントのための相対的に大きな表面積及び/又は内部コンポーネントを収容するための相対的に大きな容積を得てもよい。下部左側部分204Bは、剛性材料から構築されてもよく、且つ、コンポーネントが下部左側部分204B内において収容されうるように、少なくとも部分的に中空であってもよい。
下部左側部分204Bは、ステレオカメラのペア221を含んでもよい。ステレオカメラ221Aは、左側中間部分202Bに近接して配置されていてもよく、別のステレオカメラ221Bは、左側端部215Bに近接して配置されている。ステレオカメラのペア221は、距離217だけ、相互に分離されてもよい。距離217は、最適な距離に基づいて選択されてもよい。例えば、深さ情報が5〜10FT(1.5m〜3m)において最も重要であると決定された場合には、距離217は、深さ情報が10〜15FT(3m〜4.5m)において最も重要であると決定された場合よりも、小さくてもよい。
ステレオカメラ221A及びステレオカメラ221Bは、約120度の範囲において画像データを検出しうるように、広角カメラであってもよい。ステレオカメラ221は、限定を伴うことなしに、可視光スペクトル、赤外スペクトル、近紫外スペクトルなどを含む様々な光スペクトルにおいて画像データを検出する能力を有していてもよい。
又、下部左側部分204Bは、光センサ225を含んでもよい。様々な実施形態においては、単一の装置は、光センサ225と、ステレオカメラ221Bと、を有してもよい。様々な実施形態においては、下部左側部分204Bは、光センサ225とステレオカメラ221Bの両方が同一の空洞内に配置されるような空洞を含む。様々な実施形態においては、光センサ225及びステレオカメラ221Bは、スマートネックレス200上の別個の場所に配置されてもよい。様々な実施形態においては、光センサ225は、ウェアラブルスマート装置100のそれぞれのカメラ及びステレオカメラに対して結合されている。カメラと光センサ225の間の結合により、それぞれのカメラは、それぞれのカメラが最適な品質の画像データを検出しうるように、光センサ225によって検知される周辺光量に基づいて、その光に対する感度を調節できるようになっていてもよい。様々な実施形態においては、プロセッサは、プロセッサが、検出された周辺光に基づいてカメラから受け取られる画像データを調節しうるように、光センサ225に対して結合されてもよい。
又、下部左側部分204Bは、マイクロフォン231Bを含んでもよい。マイクロフォン231Bは、オーディオ情報を検出するように適合されてもよい。例えば、マイクロフォン231Bは、ユーザーの発話、別の人物の発話、ユーザーの環境に関係するオーディオデータ、及び環境からの雑音を検出してもよい。更には、マイクロフォン231Bは、様々な周波数を検出すると共に/又は音量を検出するように適合されてもよい。マイクロフォン231A及びマイクロフォン231Bは、マイクロフォン231A及びマイクロフォン231Bから受け取ったデータを使用して音響の発生源の方向及び/又はそれまでの距離を決定しうるように、相互に離隔している。マイクロフォンは、2分の1インチ〜12インチ(1.27cm〜30.48cm)の任意の距離だけ、離隔してもよい。この情報を使用することにより、スマートネックレス200の警告又はその他の機能を支援してもよい。
下部右側部分204Aと右側端部215Aの間には、ボタン部分206が存在してもよい。ボタン部分206は、下部右側部分204Aの下部端部210Aに結合された上部端部213と、スマートネックレス200の右側端部215Aと同一である下部端部214と、を有する。
下部右側部分204Aは、ボタン部分206に対して永久的に結合されてもよく、或いは、ボタン部分206に対して着脱自在に結合されてもよい。様々な実施形態においては、下部右側部分204A及びボタン部分206は、単一の部分であると共に/又は、ボタン部分206は、単に、下部右側部分204Aの延長部であってもよい。様々な実施形態においては、ボタン部分206は、新しい又は更新されたボタン部分がスマートネックレス200に装着されうるように、着脱自在である。この結果、新しいボタン部分の包含により、機能をスマートネックレス200に追加してもよい。ボタン部分206は、少なくとも部分的に中空であると共に剛性の材料から構築されてもよく、且つ、ボタン部分は、コンポーネントを収容してもよい。ボタン部分206は、少なくとも1つのボタン又はその他の入力装置252を含んでもよい。入力装置252は、スマートネックレス200の動作モードを選択するべく、スマートネックレス200の設定を変更するべく、或いは、これらに類似したことを実行するべく、ユーザーによって使用されてもよい。
図3は、背後又は後部からの(即ち、Z軸に沿った)図2のスマートネックレス200を示している。図3においては、スマートネックレス200は、図2に示されているものとは反対のZ軸の側から示されている。
スマートネックレスの上部部分201は、電池241を含んでもよい。様々な実施形態においては、電池241は、X軸上において、上部部分201内においてセンタリングされてもよい。電池241は、電池が電力をスマートネックレス200内のすべての電気コンポーネントに対して提供しうるように、スマートネックレス200内のすべての電子装置に結合されてもよい。
又、上部部分201は、プロセッサ211を含んでもよい。プロセッサ211は、スマートネックレス200のすべての電子コンポーネントに結合されてもよく、且つ、電子コンポーネントとの間において入力を受け取ると共に出力を提供するように、適合されてもよい。プロセッサ211は、ステレオカメラ221、カメラ222、マイクロフォン231、IMU223、GPS124、及び/又は光センサ225から受け取った入力に基づいて危険データを決定するように適合されてもよい。
又、上部部分201は、メモリ212を含んでもよい。メモリ212は、プロセッサ211がメモリ212からのデータを記憶及び取得できるように、プロセッサ211に結合されてもよい。メモリ212及びプロセッサ211は、上部部分201の同一の側又は反対の側に配置されてもよい。上部部分201の重さの分布が、X方向に沿って上部部分201の中間においてセンタリングされることが好ましい。この結果、上部部分201の重みがユーザー上において均一に分散されることにより、スマートネックレス200の快適性が向上することになる。
上部部分201は、カメラ222Bと、マイクロフォン231Cと、を含んでもよい。カメラ222Bは、限定を伴うことなしに、可視光スペクトル、赤外スペクトル、近紫外スペクトルなどを含む任意の光スペクトルの画像データを検出する能力を有する単一のカメラであってもよい。カメラ222Bは、ユーザーの背後の画像データを検出するように適合されてもよい。マイクロフォン231Cは、オーディオ情報を検出するように適合されてもよい。例えば、マイクロフォン231Cは、ユーザーの発話、別の人物の発話、ユーザーの環境に関係するオーディオデータ、及び環境からの雑音を検出してもよい。更には、マイクロフォン231Cは、様々な周波数及び音量を検出するように適合されてもよい。マイクロフォン231Cから受け取ったデータをマイクロフォン231A及びマイクロフォン231Bから受け取ったデータとの関連において使用することにより、音響の発生源の方向及び/又はそれまでの距離を決定してもよい。マイクロフォン231Cは、スマートネックレス200の背後に由来するオーディオデータを相対的に良好に検出するように適合されてもよい。
下部左側部分204Bは、IMU123に類似したIMU223を含んでもよい。下部右側部分204Aは、GPS124に類似したGPS224を含んでもよい。
下部左側部分204Bは、凹部260と、コネクタ261と、充電接点262と、を含んでもよい。様々な実施形態においては、充電接点262は、凹部260内において位置決めされてもよい。充電接点262は、充電接点262が電力を受け取ると共にその電力を記憶のために電池241に転送するように、電池241に対して結合されてもよい。充電接点262は、磁気充電、誘導充電、直接充電、又はこれらに類似したものを介して電力を受け取るように適合されてもよい。様々な実施形態においては、充電接点262は、電力に加えて又はその代わりに、電子データが充電接点262を介して転送されうるように、プロセッサ211に結合されてもよい。
中間部分202は、図2に示されているもの以外の更なるコンポーネントを含んでもよく、或いは、そうでなくてもよい。更なるコンポーネントが中間部分202内に存在しない場合には、下部部分204を上部部分201に対して電気的に結合するべく、接続270A及び接続270Bが中間部分202内に存在してもよい。接続270は、データバス、電源ライン、或いは、任意のその他の電気接続を含んでもよい。いくつかの実施形態においては、接続270は、下部部分204と上部部分201の間の無線接続により、置換されてもよい。
スマートネックレス200は、左側中間部分202B内に延在したアンテナ242を有してもよい。アンテナ242は、プロセッサ211がアンテナ242を介して無線信号を送受信しうるように、プロセッサ211に対して結合されてもよい。
アンテナ242は、クラウド290、モバイル装置292、ラップトップ、タブレット、又はこれらに類似したものなどのスマートネックレス200からはリモート状態にある1つ又は複数の装置に対して無線結合されてもよい。様々な実施形態においては、クラウド290は、スマートネックレス200が利用しうるストレージ及び/又は処理を含んでもよい。例えば、スマートネックレス200は、クラウドがデータを記憶するか又はデータを処理するように、特定のデータをクラウド290に対して送信してもよい。スマートネックレス200は、記憶及び/又は処理されたデータを後からクラウド290から取得してもよい。様々な実施形態においては、スマートネックレス200は、プロセッサ211などにより、いくつかの機能をローカルに実行するように設計されており、且つ、その他の機能がクラウド200などによってリモートで実行されるように、設計されている。
モバイル装置292は、モバイル装置292がスマートネックレス200のためにいくつかの処理及びストレージ機能を実行しうるように、スマートネックレス200に対して結合されてもよい。又、モバイル装置292は、モバイル装置292がいくつかのストレージ及び/又は処理機能を実行すると共に更なるストレージ及び/又は処理機能をクラウド290に送信しうるように、クラウド290に対して接続されてもよい。様々な実施形態においては、処理及び/又はストレージは、スマートネックレス200、モバイル装置292、及びクラウド290の任意の組合せにより、実行されてもよい。
スマートネックレス200などのスマートネックレスの使用は、その他のウェアラブルスマート装置よりも有利でありうる。スマートネックレスは、一般に、ユーザーが、通常、オーディオ及び画像データを検出することになるユーザーの頭部近傍において位置決めされる。更には、大部分の人々は、自身の頭部近傍において相対的に良好な検知能力を有する。従って、スマートネックレスによって提供されるオーディオ及び触覚フィードバックは、ユーザーにより、頭部近傍のエリアから相対的に容易に検出されることになる。最後に、スマートネックレスは、ユーザーの首の周りにおいてループすると共にユーザーの肩部上において位置決めされていることから、スマートネックレスが偶発的にその人物から外れる尤度が低減される。
図4は、ユーザーを安全監視すると共に危険についてユーザーに警告するべく、ウェアラブルスマート装置100又はスマートネックレス200などのウェアラブルスマート装置によって実行されうる、例示用の方法400を示している。方法400は、ブロック402において始まっており、ここで、ウェアラブルスマート装置100は、ウェアラブルスマート装置100の現在の場所の場所データを検出し、且つ、メモリ112内において現在の場所と関連付けられた危険データのルックアップを実行している。ウェアラブルスマート装置100の現在の場所は、センサアレイ120及び/又はマイクロフォン131によって検出されるデータに基づいて決定されてもよい。いくつかの実施形態においては、プロセッサ111は、GPS124によって検出されたデータを使用してウェアラブルスマート装置100の概略場所を決定してもよい。ステレオカメラ121、カメラ122、センサ125、及び/又はマイクロフォン131によって受け取られたデータを使用することにより、GPS124によって検出されたデータを補完又は置換してもよい。ウェアラブルスマート装置100が移動するのに伴って、IMU123が動きを検出してもよい。次いで、プロセッサ111は、この検出された動きを使用してウェアラブルスマート装置100の現在の場所を更新してもよい。この結果、ウェアラブルスマート装置100は、1FT(0.3m)以内、5FT(1.5m)以内、又は10FT(3m)以内などのように、現在の場所を正確に決定することができる。
プロセッサ111に結合されたデータベースは、場所情報と、複数の場所に関する危険情報と、を含んでもよい。プロセッサ111は、ウェアラブルスマート装置100の検出された現在の場所をデータベースと比較し、潜在的な危険がウェアラブルスマート装置100の現在の場所において又はその既定の距離内に存在しているかどうかを決定してもよい。データベースは、ローカルデータベースであってもよく、リモートデータベースであってもよく、或いは、これらの組合せであってもよい。いくつかの実施形態においては、ウェアラブルスマート装置100は、リモートデータベースによって補完されるローカルデータベースを記憶している。例えば、ウェアラブルスマート装置100がネットワークに接続された際に、ウェアラブルスマート装置100は、リモート装置から、危険及び場所情報を含むデータベースをダウンロードしてもよく、且つ、データベースをメモリ112内において記憶してもよい。ウェアラブルスマート装置100は、ネットワークに定期的に又はこれに類似した方式によって接続されるたびに、更新済みのデータベース情報を取得してもよい。
ブロック404において、プロセッサ111は、危険情報が、ウェアラブルスマート装置100の現在の場所と関連付けられているかどうか、或いは、ウェアラブルスマート装置100から既定の距離内にあるかどうか、を決定してもよい。メモリ112がウェアラブルスマート装置100の既定の距離内において危険情報を含んでいない場合には、方法400は、ブロック406及びブロック408に進む。
ブロック406において、オーディオデータがマイクロフォン131によって検出されている。このオーディオデータは、ウェアラブルスマート装置100の環境内の特定の物体又は物品に関係する発話データ及び雑音データを含んでもよい。マイクロフォン131によって検出される任意のオーディオデータは、潜在的に、危険と関連付けられてもよい。従って、オーディオデータをメモリ112内のデータと比較することにより、そのデータが危険と関連付けられているかどうかを決定してもよい。例えば、検出されたオーディオデータは、車両の音響、チェーンソーの音響、人々のグループの音響、或いは、これらに類似したものに対応していてもよい。
騒々しい工場の環境においては、人間は、周辺雑音下において接近する危険を聴取する能力を有していない場合がある。プロセッサ111は、周辺雑音をフィルタリングによって除去して任意の潜在的なオーディオデータを決定する能力を有してもよく、且つ、オーディオデータに基づいてフィードバックをユーザーに提供する能力を有してもよい。いくつかの実施形態においては、プロセッサ111は、周辺雑音を検出すると共に以前に検出された周辺雑音に基づいて潜在的な危険オーディオデータをフィルタリングによって取得する能力を有してもよい。いくつかの実施形態においては、プロセッサ111は、低域通過、帯域通過、高域通過フィルタ、及び/又はこれらに類似したものを含んでもよく、且つ、検出された周辺雑音に基づいて適用するべき1つ又は複数のフィルタを決定してもよく、且つ/又は、共通的な危険及び周辺雑音の周波数パターンに基づいて、1つ又は複数のフィルタが既定されてもよい。
ブロック408において、画像データが、ステレオカメラ121及び/又はカメラ122によって検出されている。いくつかの実施形態においては、画像データは、ウェアラブルスマート装置100からすべての方向において検出されてもよく、或いは、ウェアラブルスマート装置100の1つ又は複数の既定のエリア内において検出されてもよい。ブロック408において検出された画像データは、ブロック406におけるオーディオデータと同一の方法により、潜在的な危険データを含みうる。プロセッサ111は、オーディオデータと類似した方式により、画像をフィルタリングする能力を有してもよい。
ブロック410において、ステレオカメラ121、カメラ122、及び/又はマイクロフォン131が、任意の潜在的な危険データに向かって方向付け及び/又は合焦されてもよい。プロセッサ111は、オーディオデータ及び/又は画像データに基づいて潜在的な危険の場所を決定してもよく、且つ、センサをその場所に対して合焦させてもよい。例えば、マイクロフォン131は、潜在的な危険に対応したオーディオデータを検出してもよい。マイクロフォン131は、複数のマイクロフォンを含んでもよいことから、マイクロフォン131によって検出されたデータに基づいて、オーディオデータの発生源の方向を決定してもよい。これに応答して、ステレオカメラ121及び/又はカメラ122をオーディオデータの方向において合焦させてもよい。又、いくつかの実施形態においては、マイクロフォン131が、オーディオデータの発生源の方向において合焦された状態となってもよい。いくつかの実施形態においては、カメラ122及び/又はステレオカメラ121が、まず、潜在的な危険データを検出してもよく、次いで、マイクロフォン131が、画像データに向かって合焦されてもよい。
ブロック412において、プロセッサ111は、マイクロフォン131、ステレオカメラ121、カメラ122、及び/又はセンサ125のうちから、最高品質のデータを検出したセンサを決定してもよい。高品質とは、データの障害物(例えば、ステレオカメラ121とデータの発生源の間の経路内の障害物)の欠如、最も正確なデータ(即ち、カメラ122ではなく、ステレオカメラ121を選択可能であり、その理由は、ステレオカメラ121によれば、深さ情報を決定可能であるからである)、メモリ112内の物体とマッチングした1つのタイプのデータ(即ち、画像データではなく、オーディオデータに対応したマッチングが見出される)、或いは、これらに類似したものに関するものであってもよい。最高品質データは、プロセッサ111によって使用される唯一のデータであってもよく、最高品質データには、相対的に低い品質のデータよりも大きな重みが付与されてもよく、或いは、すべてのデータに対して等しい重みが付与されてもよい。
ブロック414において、潜在的な危険データをメモリ112内のデータと比較することにより、潜在的な危険データが危険と関連しているかどうかを決定している。比較は、様々な方式で実行されてもよい。メモリ112は、様々な危険に関係する画像及び/又はオーディオデータを記憶してもよい。いくつかの実施形態においては、プロセッサ111は、検出された画像及び/又はオーディオデータをメモリ内の危険データと比較してマッチングが発生するかどうかを決定してもよい。いくつかの実施形態においては、プロセッサ111は、画像データ及び/又はオーディオデータをメモリ112内の場所に関係するデータと比較し、現在検出されているデータと以前に記憶されているデータの間に発散(divergence)が存在しているかどうかを決定してもよい。この発散方法については、図11及び図12を参照し、更に詳しく後述することとする。
ブロック416において、プロセッサ111は、マイクロフォン131、ステレオカメラ121、及び/又はカメラ122からの検出データがメモリ112内の危険データとマッチングしているかどうかを決定している。
ブロック416においてマッチングが見出された場合には、プロセッサ111は、ブロック420において、危険の深刻さを決定してもよい。深刻さは、危険によって提示される危険尤度、危険によって提示される危険度、ウェアラブルスマート装置100までの危険の近さ、又はこれらに類似したものに対応したものであってもよい。それぞれの危険は、深刻さ等級と関連付けられてもよい。例えば、ウェアラブルスマート装置100に向かって直接的に移動している車両は、ウェアラブルスマート装置100の移動の方向にはない道路内の窪みよりも大きな深刻さ等級を有してもよい。深刻さ等級については、図5〜図7を参照して後述することとする。
ブロック416においてマッチングが見出されない場合には、プロセッサ111は、ブロック418において、危険が存在しているとファクタが通知しているかどうかを決定してもよい。ファクタとは、潜在的な危険が、危険性を有するのか、或いは、そうでないのかに関する任意の通知であってもよい。プロセッサ111は、検出されたデータをメモリ内に記憶されているデータと比較することにより、ファクタが危険を通知しているかどうかを決定してもよい。特定の数及びタイプのファクタが充足された場合に、プロセッサ111は、潜在的な危険データが危険を通知していると決定してもよい。ファクタは、深刻さレベルに対する調節を含んでもよい。深刻さが既定の深刻さレベルに到達した場合に、プロセッサ111は、潜在的危険データが危険を通知していると決定してもよい。ブロック418において、危険が存在しているとファクタが通知していない場合には、方法400は、ブロック402に戻り、ここで、場所データが検出されると共にメモリ112内のデータベースと比較される。
ファクタが危険を通知している場合には、方法400は、プロセッサ111が危険の深刻さレベルを決定するブロック420に進んでもよい。いくつかの実施形態においては、深刻さレベルは、検出されたデータをファクタと比較することにより、決定されてもよい。ファクタのうちのいくつかは、危険の欠如を通知しており、且つ、いくつかは、危険の存在を通知してもよい。従って、ブロック416において、マッチングが見出されることが可能であり、且つ、危険が存在していないとプロセッサ111が決定することができる。
ブロック422において、危険データがウェアラブルスマート装置100のユーザーに対してフィードバックとして提供されてもよい。フィードバックは、スピーカ132、振動装置133、及び/又はディスプレイ135を介して提供されてもよい。データは、危険を表現/識別すると共に/又は危険の場所を通知する発話データ、振動データ、又は画像データであってもよい。いくつかの実施形態においては、危険の周りのナビゲーション命令を提供するデータが、スピーカ132、振動装置133、及び/又はディスプレイ135によって提供されてもよい。スピーカ132は、ユーザーを危険の周りにおいて導く発話データを提供してもよく、且つ/又は、スピーカ132及び/又は振動装置133は、ウェアラブルスマート装置100のいずれかの側において、ユーザーが危険の周りにおいてナビゲートするための命令を通知する特定のトーン及び/又は振動を提供してもよい。例えば、左側振動装置は、振動することにより、危険を回避するべく、ユーザーが左に移動するべきであると通知してもよい。いくつかの実施形態においては、右側振動装置は、振動することにより、危険を回避するべく、ユーザーが右への移動を回避するべきであると共に左に移動するべきであると通知してもよい。
更には、振動を使用することにより、危険の存在をユーザーに対して通知することもできる。これは、ユーザーが弱化した聴力を有するか又は危険且つ騒々しい環境内において働いている際に、特に有用である。これらのタイプのユーザーは、可聴フィードバックを聴取しない場合があり、従って、触覚フィードバックが、彼らが受け取ることができる唯一のフィードバックである場合がある。更には、これらのユーザーの場合には、危険決定における検出オーディオデータの包含が、場合によっては、その他のユーザーの場合よりも更に重要である。聴力が弱化した人物及び騒々しい環境にある人物は、接近する危険を聴取しない場合がある。従って、ウェアラブルスマート装置100は、オーディオデータを検出すると共にオーディオデータを触覚フィードバックに変換することにより、彼らの耳として機能してもよい。
いくつかの実施形態においては、ウェアラブルスマート装置100は、オーディオ及び/又は触覚フィードバックを提供するべきかどうかを決定するように適合されてもよい。プロセッサ111は、マイクロフォン131によって検出されたオーディオデータに基づいて、周囲の環境の音量を決定してもよい。検出された音量が特定のレベルを上回っている場合には、ユーザーがオーディオフィードバックを聴取する尤度が低い場合があることから、プロセッサ111は、振動フィードバックが好ましいと決定してもよい。これは、工場内の労働者などの特定のユーザーの場合に、極めて有用であり、その理由は、彼らが、相対的に静かな環境においては、オーディオフィードバックを選好する場合があり、且つ、相対的に騒々しい環境においては、触覚フィードバックを選好する場合があるからである。
いくつかの実施形態においては、ウェアラブルスマート装置100は、危険の深刻さが特定のレベルを上回っているとプロセッサ111が決定した場合にのみ、出力データを提供してもよい。この深刻さのレベルは、ウェアラブルスマート装置100内にプログラミングされてもよく、且つ/又は、ウェアラブルスマート装置100のユーザーによって選択されてもよい。いくつかの実施形態においては、ウェアラブルスマート装置100は、深刻さレベルに基づいて異なるデータを出力している。例えば、相対的に低い深刻さレベルを提示する危険よりも、相対的に高い深刻さレベルを提示する危険の場合に、相対的に強力な振動及び/又は音量の出力が提供されてもよい。いくつかの実施形態においては、ウェアラブルスマート装置100は、相対的に高い深刻さレベルの危険の周りにおけるナビゲーション命令を出力してもよく、且つ、相対的に低い深刻さレベルの危険については、警告するのみであってもよい。
ブロック424において、プロセッサ111は、危険データにより、メモリ112を更新してもよい。メモリ112内の更新は、危険のタイプ、危険の深刻さ、及び/又は危険の場所を含んでもよい。いくつかの実施形態においては、危険に関係するオーディオ及び/又は画像データがメモリ112内において記憶されてもよい。この結果、ウェアラブルスマート装置100及び/又は別のウェアラブルスマート装置は、後から、記憶されている危険データにアクセスしてもよく、且つ、その存在について認知してもよい。
いくつかの実施形態においては、ウェアラブルスマート装置100は、危険データにより、リモートデータベースを更新してもよい。この結果、その他のウェアラブルスマート装置がデータを受け取ることが可能であり、これにより、複数のウェアラブルスマート装置による危険情報の共有リソースの開発及びアクセスが可能となる。
図5は、メモリ112内に記憶されうる例示用のデータベース500を示している。本明細書において記述されている任意のデータベースは、ウェアラブルスマート装置100のローカルメモリ上において記憶されてもよく、且つ/又は、ウェアラブルスマート装置100からはリモート状態において記憶されてもよく、且つ、アンテナ142及び/又はI/Oポート143を介してアクセスされてもよい。任意のデータベースが、ウェアラブルスマート装置100のみにより、或いは、ウェアラブルスマート装置100とその他のウェアラブルスマート装置の組合せにより、アクセス可能であってもよい。
データベース500は、場所情報、危険タイプ、危険が依然として存在していることに関するコンフィデンス、及び危険に関係する深刻さレベルを記憶している。第1列501は、場所情報を含む。第2列502は、それぞれの場所に関係する危険タイプを列挙している。第3列504は、危険がその場所において依然として存在していることに関する推定されたコンフィデンスを含む。第4列506は、それぞれの危険に関係する深刻さレベルを表している。データベース500は、図5に示されているものよりも多くの又は少ない情報を含んでもよい。いくつかの実施形態においては、データベース500は、コンフィデンス値及び/又は深刻さレベルを含んでいなくてもよい。いくつかの実施形態においては、データベース500は、危険が特定の場所において存在していることを通知するのみであってもよく、且つ、危険に関するなんらの詳細をも含んでいない。
危険タイプは、危険が特定の場所に存在しているという通知などの抽象的な危険情報から、危険の形状、危険の説明、危険のサイズ情報、又はこれらに類似したものなどの非常に詳細な情報まで、様々であってもよい。
コンフィデンス情報は、特定のエントリの更新以降の時間の長さ、危険のタイプ、データがデータベース500内に記憶された際のデータの精度、危険が依然として存在しているのか又は修復済みであるのかのいずれを報告が示しているのかどうか、危険が依然として存在しているのか又は除去済みであるのかを別のウェアラブルスマート装置が検出したのかどうか、或いは、これらに類似したものに基づいて決定されてもよい。
深刻さレベルは、危険によって提示される潜在的な危険量(負傷が危険によって引き起こされる尤度、危険が発生した場合の負傷の深刻さ、又はこれらに類似したもの)に関係するものであってもよい。ウェアラブルスマート装置100は、任意の数の深刻さレベルを含んでもよい。図5に示されている実施形態においては、ウェアラブルスマート装置100は、5つの深刻さレベルを含み、この場合に、1が最小深刻レベルであり、且つ、5が最大深刻レベルである。深刻さレベルは、危険のタイプ、危険によって課される危険、コンフィデンス値、及び/又は様々なファクタに基づいて決定されてもよい。ファクタについては、図7を参照して後述することとする。
いくつかの実施形態においては、データベース500は、修復作業者によるアクセスが可能であってもよい。修復作業者は、データベース500内に含まれている危険を修復してもよく、且つ、相応してエントリを編集してもよい。
第1エントリ508は、データベース500内の例示用のエントリを示している。第1列501において、データベース500は、危険の場所が場所1であることを通知している。場所1は、座標値、基準点からの相対位置、特定の画像データ及び/又はオーディオデータに関係するアドレス、又はこれらに類似したものとして記憶されてもよい。
第2列502において示されているように、危険タイプは、歩道上の低い枝などの危険の詳細を表している。いくつかの実施形態においては、データベース500は、低い枝の高さ又はその他の情報を通知してもよい。プロセッサ111は、地面との関係におけるウェアラブルスマート装置100の高さと地面との関係におけるブランチの高さの比較に基づいて、危険データを出力するかどうかを決定してもよい。いくつかの実施形態においては、データベース500は、低い枝に関係するサイズ情報を含んでもよい。
第3列504において示されているように、第1エントリ508は、50%という記憶されたコンフィデンス値を有する。コンフィデンス値は、ユーザーに対する危険の尤度(即ち、危険によってユーザーが負傷する50%の可能性が存在していること)、危険が存在する尤度(即ち、危険が存在する50%の可能性が存在していること)、又はこれらに類似したものを通知してもよい。コンフィデンス値は、低い枝が除去済みであることを通知する修復情報を記憶されているデータが含んでいるかどうか、チェーンソーが低い枝の近傍において検出済みであると以前に記憶されているデータが通知しているかどうか、その他のウェアラブルスマート装置が同一の危険情報をデータベース500にアップロードしたかどうか、枝が依然として存在しているか又は除去済みであることをその他のウェアラブルスマート装置が通知しているかどうか、或いは、これらに類似したものなどのような様々なファクタに基づいて決定されてもよい。
第4列506において示されているように、第1エントリ508は、4という深刻さレベルと関連付けられている。4の深刻さレベルは、ユーザーが危険に気が付いていない場合には、低い枝が負傷の大きな可能性を提示することを通知しうる。深刻さレベルに関する更なる詳細について、図6及び図7を参照して説明することとする。
第2エントリ510、第3エントリ512、及び第4エントリ514は、データベース500内に記憶されているその他の例示用のエントリを示している。
図6は、画像データ、オーディオデータ、及びベース深刻さレベルを様々なタイプの危険と関連付ける別の例示用のデータベース600を示している。データベース600は、危険のタイプを通知する第1列602と、危険に関係する画像データを含む第2列604と、危険に関係するオーディオデータを含む第3列606と、危険のベース深刻さレベルを通知する第4列608と、を含む。
第1列602は、様々なタイプの危険を含んでもよい。プロセッサ111は、検出されたデータ及び/又はウェアラブルスマート装置100に対する更新に基づいて、更なるタイプの危険を含むことにより、データベース600を更新してもよい。危険情報は、危険のタイプのラベルを含んでもよい。いくつかの実施形態においては、危険情報は、図5の列502と同様の危険の説明を含む。
第2列604は、危険のそれぞれのタイプに関係する画像データを含んでもよい。このデータは、ステレオカメラ121及び/又はカメラ122により、予め検出されてもよい。いくつかの実施形態においては、第2列604は、データベース600内にプログラミングされた物体形状データを含んでもよい。例えば、危険がオートバイである場合には、画像データは、ステレオカメラ121及び/又はカメラ122が2つの車輪と1つのエンジンを含む画像データを検出した際に、この画像データがオートバイに対応しているとプロセッサ111が決定しうるように、1つのエンジンと共に結合された2つの車輪を含んでもよい。いくつかの実施形態においては、特定のタイプの危険に関係する画像データは、マッチングを目的として複数の画像を含んでもよい。例えば、自動車用のエントリは、クーペに対応した1つ又は複数の形状、SUVに対応した1つ又は複数の形状、スポーツカーに対応した1つ又は複数の形状、又はこれらに類似したものを含んでもよい。
第3列606は、危険のタイプに対応したオーディオデータを含む。例えば、オーディオデータは、オートバイに関係する周波数パターン及び/又は特定の音響を含んでもよい。プロセッサ111は、検出されたオーディオデータを第3列606内の記憶されているオーディオデータと比較することにより、検出されたオーディオデータが特定のタイプの危険を通知しているかどうかを決定してもよい。
第4列608は、危険のベース深刻さレベルを通知している。ベース深刻さレベルは、危険の深刻さレベルのオリジナルの推定値を表してもよい。図7を参照して後述するように、ベース深刻さレベルは、様々なファクタに基づいて調節されてもよい。
第1エントリ610は、オートバイの危険に対応している。第2列604において、オートバイに対応した画像データが記憶されてもよい。第3列606において、データベース600は、オートバイに関係する周波数パターンを含んでもよい。周波数パターン情報は、オートバイエンジンの基本及び/又は調和周波数を含んでもよい。又、第3列606は、オートバイエンジンの音響を通知するオーディオデータを含んでもよい。オーディオデータは、オートバイエンジンの予め録音されたオーディオクリップであってもよく、或いは、オートバイエンジンの音響の表現であってもよい。第4列608において、データベース600は、オートバイの危険が、3というベース深刻さレベルと関連していることを通知している。
第2エントリ612、第3エントリ614、第4エントリ616、及び第5エントリ618は、データベース600内のその他の例示用のエントリを示している。
いくつかの実施形態においては、データベース600は、未知の危険エントリ620を含んでもよい。画像データ又はオーディオデータが検出されたが、データベース600内の危険とマッチングしていない場合に、画像又はオーディオデータは、未知の危険エントリ620と関連付けられてもよい。第4列において、未知の物体のベース深刻さレベルは、0という深刻さレベルと関連付けられてもよい。
図7は、様々なファクタを深刻さレベルに対する対応した調節と関連付ける例示用のデータベース700を示している。ファクタのいくつかは、既知であるのか又は未知であるのかを問わず、すべての危険のために決定される必要がある。いくつかのファクタは、識別されていない危険とのみ関連付けられてもよい。例えば、識別されている危険の場合には、サイズ情報は、ベース深刻さレベルの決定に内蔵されていてもよく、従って、深刻さレベルは、検出されたサイズに基づいて調節されなくてもよい。但し、当業者は、図7に示されている任意のファクタ又は深刻さレベルの調節は、例示を目的としたものに過ぎないことを理解するであろう。
第1列702は、ファクタが、すべての危険に対して適用されるべきであるのか、又は識別されていない危険に対してのみ適用されるべきであるのかに対応している。又、いくつかの実施形態においては、データベース700は、識別されている危険に対してのみ適用されるべきファクタを含んでもよい。いくつかの実施形態においては、データベース700は、識別されていない危険、識別されている危険、又はこれらの両方に対してのみ適用されるべきファクタを含んでもよい。
第2列704は、様々な深刻さレベルファクタを示している。深刻さレベルファクタが特定の危険に対して適用されるかどうかは、メモリ内において記憶されると共に第2列704内において列挙されているデータに対するステレオカメラ121、カメラ122、及び/又はマイクロフォン131から検出されたデータの比較に基づいて決定されてもよい。例えば、プロセッサ111は、ステレオカメラ121、カメラ122、及び/又はマイクロフォン131によって検出されたデータに基づいて危険までの距離を決定してもよく、且つ、距離情報をファクタと比較することにより、検出された距離が第2列704内のエントリとマッチングしているかどうかを決定してもよい。
第3列706は、ファクタに基づいた深刻さレベルの調節に対応している。それぞれの危険の深刻さレベルは、深刻さレベルファクタとのマッチングに基づいて調節されてもよい。
第1列702は、すべての物体に対応する第1グループ708と、識別されていない物体に対してのみ対応する第2グループ710と、を含む。第1グループ708は、検出された物体がウェアラブルスマート装置100の5FT(1.5m)以内に存在しているという決定に対応したファクタ712を含む。このファクタ712が充足された場合に、危険の深刻さレベルは、深刻さレベルの半分だけ、増大されてもよい。又、第1グループ708は、物体が、ウェアラブルスマート装置100の10FT(3m)以内に存在しているという決定に対応したファクタ714を含み、これは、深刻さレベルの調節と関連付けられてはいない。データベース700は、すべての危険に関係する更なる例示用のファクタを含んでいる。
第2グループ710は、検出された物体のサイズが1立方FT(0.028立方メートル)を上回っていることを通知するファクタ726を含む。このファクタが充足されている場合には、セキュリティレベルは、1つのレベルの半分だけ、調節されてもよい。又、第2グループ710は、物体が、サイズにおいて5立方FT(0.14立方メートル)を上回っているという決定に対応したファクタ728をも含み、これは、1という深刻さレベルの調節と関連付けられている。データベース700は、識別されていない危険に関係する更なる例示用のファクタを含んでいる。
図8は、検出された危険の音量に基づいて危険までの推定距離を決定するべく、プロセッサ111によって利用されうる例示用のデータベース800を示している。データベース800は、特定の危険に対応した第1列802、危険の様々な音量に対応した第2列804、及び検出音量に基づいた危険までの推定距離に対応した第3列806を含んでもよい。第1危険であるオートバイグループ808は、30デシベル未満の音量に対応した第1エントリ810と関連付けられている。第3列806は、音量が30デシベル未満である場合には、オートバイまでの推定距離が50FT(15m)超であることを示している。又、オートバイグループ808は、30〜40デシベルの範囲に対応すると共に推定距離が35(10.5m)FT〜50FT(15m)であることを示すオートバイグループエントリ812をも含む。データベース800は、オートバイグループ808及びチェーンソー824に関係するその他の例示用のエントリを示している。
データベース800を使用するべく、プロセッサ111は、マイクロフォン131からオーディオデータを受け取ってもよい。データベース600を使用することにより、プロセッサ111は、オーディオデータに基づいて危険のタイプを決定してもよい。危険のタイプがプロセッサ111によって決定された際に、プロセッサ111は、マイクロフォン131によって検出された危険の音量をデータベース800と比較して危険までの推定距離を決定してもよい。
図9は、方法400に類似した方法を利用するウェアラブルスマート装置100に類似した例示用のウェアラブルスマート装置900を示している。図9に示されている例においては、ウェアラブルスマート装置900のユーザー(そして、ウェアラブルスマート装置900)は、通り902に隣接した歩道904を移動している。歩道904に隣接した樹木906は、場所912において歩道904の上方において空中に位置した低い垂れ下がった枝907を含む。
ウェアラブルスマート装置900が歩道904を移動すると共に場所910に到達するのに伴って、ウェアラブルスマート装置900のマイクロフォンは、サラサラと音を立てる樹木906の葉っぱを検出しうる。次いで、ウェアラブルスマート装置900のカメラ及び/又はステレオカメラをサラサラと音を立てる葉っぱの音響に向かって方向付けしてもよい。カメラは、低い垂れ下がった枝907に向かって合焦されるのに伴って、低い垂れ下がった枝に対応した画像データを検出する。低く垂れ下がった枝907は、大きな音響を生成しないことから、プロセッサ111は、マイクロフォンよりも高品質のデータをカメラが検出するものと決定してもよい。
画像データ及びオーディオデータをデータベース600などのデータベースと比較することにより、検出されたデータがメモリ112内の記憶されている危険データとマッチングしているかどうかを決定してもよい。データベース600が、樹木の枝に対応した第3エントリ614を含んでいることから、プロセッサ111は、マッチングを見出し、且つ、検出されたデータが樹木の枝に対応していると通知する。データベース600を使用することにより、プロセッサ111は、低い垂れ下がった枝907が、1というベース深刻さレベルに対応していると決定してもよい。
次いで、画像データ及びオーディオデータをデータベース700などのデータベースと比較することにより、いずれのファクタが充足されているのかを、もしあれば、決定してもよい。場所910において、ウェアラブルスマート装置900は、低い垂れ下がった枝907の10FT(3m)以内に位置している。この結果、1というベース深刻さレベルは、調節されない。但し、ウェアラブルスマート装置900は、低い垂れ下がった枝907に接近しつつあり、これにより、低い垂れ下がった枝907とウェアラブルスマート装置900の間の相対的な距離が減少することになる。この結果、1つのレベルの半分だけ、深刻さレベルが増大する。低い垂れ下がった枝907が歩道904の直接上方において位置決めされていることから、ウェアラブルスマート装置900は、低い垂れ下がった枝907がウェアラブルスマート装置100に対して直接的に接近しつつあるものと決定してもよく、これにより、深刻さレベルが1だけ増大する。この時点において、ウェアラブルスマート装置900は、低い垂れ下がった枝907の危険を通知するデータをスピーカ及び/又は振動装置を介してユーザーに出力してもよい。又、いくつかの実施形態においては、ウェアラブルスマート装置900は、低い垂れ下がった枝907の周りにおいてユーザーを導くためのナビゲーション命令を提供してもよい。
次いで、ウェアラブルスマート装置900は、場所912における低い垂れ下がった枝907の危険を含むように、データベース500などのデータベースを更新してもよい。深刻さレベルが2.5であることから、ウェアラブルスマート装置900が2.5以上の深刻さレベルを有する危険についてユーザーに警告するように設計されている場合には、ウェアラブルスマート装置900は、危険についてユーザーに警告してもよい。
ウェアラブルスマート装置900が場所914に到達するのに伴って、ウェアラブルスマート装置900のプロセッサ111は、検出された場所データをデータベース500などのデータベースと比較することにより、なんらかの危険が場所914において又はその近傍において存在しているかどうかを決定してもよい。この結果、プロセッサ111は、場所914の近傍の場所915が、カバーされていない窪み908に対応していると決定してもよい。次いで、プロセッサ111は、データベース500内のエントリ及びファクタに基づいてカバーされていない窪み908の深刻さレベルを決定してもよく、且つ、危険のタイプ及び危険の深刻さレベルに基づいて危険データを出力してもよい。又、ウェアラブルスマート装置900は、更なる画像及びオーディオデータを検出してもよく、且つ、データをデータベース600などのデータベースと比較することにより、危険を検証すると共に/又は更なる危険を検出してもよい。
図10は、方法400に類似した方法を利用したウェアラブルスマート装置900の別の例を示している。図10において、ウェアラブルスマート装置900は、歩道904上の場所910において留まっている。オートバイ905が場所912に接近しつつあってもよい。ウェアラブルスマート装置900の1つ又は複数のマイクロフォンは、オートバイ905に対応したオーディオデータを検出しうる。又、ウェアラブルスマート装置900のマイクロフォンは、プロセッサ111が検出音量に基づいてオートバイ905までの距離を決定しうるように、オートバイ905の音量を検出してもよい。
オートバイ905が場所911に接近するのに伴って、ウェアラブルスマート装置900によって検出される画像データは、低品質しか有していない場合があり、その理由は、ウェアラブルスマート装置900が、後方に対向したカメラを含んでいない場合があるからである。従って、マイクロフォンが、カメラよりも高品質のデータを提供しうる。オーディオデータ及び画像データをデータベース600などのデータベースと比較することにより、場所911における物体がオートバイ905であると決定してもよい。次いで、ウェアラブルスマート装置900のプロセッサ111は、検出されたデータをデータベース700内において列挙されている深刻さレベルファクタと比較し、深刻さレベルを決定してもよい。この時点において、相対的に大きな重みをマイクロフォンによって検出されたデータに対して付与してもよい。
オートバイ905が場所912に到達するのに伴って、画像データが、オーディオデータよりも高品質を有しうる。この結果、ウェアラブルスマート装置900は、マイクロフォンからのものよりもカメラから検出されたデータに相対的に大きな力点を置いてもよい。オートバイ905がウェアラブルスマート装置900との関係において場所を変更するのに伴って、オートバイ906の深刻さレベルが連続的に更新されてもよい。オートバイが、既定の深刻さレベル、ウェアラブルスマート装置900からの距離、又はこれらに類似したものに到達した際に、ウェアラブルスマート装置900は、オートバイ905によって提示される危険を通知する警告を出力してもよい。
図11は、ユーザーを安全監視すると共に危険についてユーザーに警告するべくウェアラブルスマート装置100によって実行されうる別の例示用の方法1100を示している。プロセスは、ブロック1102において始まっており、ここでは、センサアレイ120を使用することにより、新しいデータがウェアラブルスマート装置100によって検出されている。このデータは、視覚データ(通り、歩道、人々)、位置データ(ユーザーの場所、移動の方向)、オーディオデータ(移動する自動車の音響、サイレン、アラームなど)、又は任意のその他のデータなどのセンサアレイ120によって検出される任意のデータを含んでもよい。ブロック1104において、この新しいデータがメモリ112内において記憶されている。
ブロック1106において、この新しいデータがメモリ112内において記録されているデータと比較されている。メモリ112内において記録されているデータは、ウェアラブルスマート装置100及び/又は別のウェアラブルスマート装置によってキャプチャされたデータを含んでもよい。いくつかの実施形態においては、メモリ112は、メモリ112内において記録されているデータが別のウェアラブルスマート装置によって検出されうるように、複数のウェアラブルスマート装置によるアクセスが可能なデータベースを含む。又、メモリ112内において記録されているデータは、現在の時刻以前の数ミリ秒、数秒、又は数分などように、現在の時刻以前の時点において同一の場所又はその近傍においてキャプチャされたデータを含んでもよい。
ブロック1108において、新しいデータとメモリ112内において記録されているデータの間において発散が検出されるかどうかが決定されている。この発散は、以前には検出されなかった新しい物体がウェアラブルスマート装置100の視野内に存在していることを通知するデータを含んでもよい。又、発散は、以前には存在していた物体が視野内にもはや存在していないことを通知するデータを含んでもよい。又、発散は、警察のサイレン、オートバイ、又はこれらに類似したものなどの新しい音響を含んでもよい。
発散が新しいデータ内において検出された場合には、ブロック1110において、この発散に基づいて、第2データがインターフェイスアレイ130を介してユーザーに対して出力されてもよい。発散が歩道の真ん中の岩を含んでいると仮定しよう。岩を有する画像と岩を有していない画像の間における発散の検出に応答して、ウェアラブルスマート装置100は、データをユーザーに提供することにより、発散を通知してもよい。例えば、ウェアラブルスマート装置100は、スピーカ132を使用することにより、岩の形状にマッチングした物体が、ユーザーから特定の距離及び/又は方向において存在していることをユーザーに対して通知してもよい。この代わりに、又はこれに加えて、ウェアラブルスマート装置100は、岩の距離及び/又は方向を示す触覚フィードバックをユーザーに対して提供してもよい。
ブロック1112において、発散がテキストを含んでいるかどうかが決定されている。例えば、発散は、テキストを含むサイン又は警察のテープであってもよい。プロセッサ111は、新しい検出されたデータをテキスト文字の形状を通知するデータと比較することによってこの決定を実施し、なんらかのマッチングが存在しているかどうかを決定してもよい。
発散がテキストを含んでいると決定された場合には、ブロック1114において、ウェアラブルスマート装置100は、発散のテキストに基づいてインターフェイスアレイ130を介してユーザーにデータを出力してもよい。データは、発散のテキストのコンテンツを通知するオーディオデータを含んでもよい。
ブロック1116において、発散が危険を提示しているかどうかが決定されている。メモリ112は、発散が危険であるかどうかを決定するべく、検出されたデータと比較されうる記憶されているデータを有してもよい、例えば、メモリ112は、特定の危険に関係する視覚及び/又はオーディオデータを含んでもよく、且つ、マッチングが生成された場合に、プロセッサは、発散が危険であると決定してもよい。例えば、メモリ112は、警告サインの形状及び言葉による警告に関係する視覚データを含んでもよく、且つ、このデータは、危険のインジケータである。
別の例として、危険な物体を表すデータを有する代わりに、メモリ112は、状況データを記憶してもよい。例えば、ウェアラブルスマート装置100は、大きな物体が、ユーザーが歩いている歩道の真ん中に存在している場合に、その物体が危険を提示しうることを認識しうる。状況データの別の例は、所定のエリアの視覚データが予め検知及び記憶されており、且つ、そのエリアの視覚データがそのエリアの現在の検知において大きく異なっている場合に、危険が存在しうることをウェアラブルスマート装置100が認識しうるというものである。
発散が危険を提示していると決定された場合に、ブロック1118において、ウェアラブルスマート装置100は、インターフェイスアレイ130を介してユーザーに警告してもよい。警告は、危険の存在と危険の場所をユーザーに対して通知するスピーカ132を介したオーディオ出力を含んでもよい。又、警告は、危険のタイプ及び/又は危険の深刻さを含んでもよい。ウェアラブルスマート装置100が、「歩道の窪み」と記された警告サインを検出した際に、ウェアラブルスマート装置100は、データをユーザーに出力することにより、窪みが歩道に存在していることをユーザーに通知してもよい。又、ウェアラブルスマート装置100は、危険の場所を検出するのに伴って、それらの危険の場所についてユーザーに通知してもよい。いくつかの実施形態においては、ウェアラブルスマート装置100は、危険情報を通知する振動データを振動装置133を介してユーザーに提供してもよい。
ブロック1120において、ブロック1116内において決定された任意の危険情報がメモリ112内に記憶される。この結果、ウェアラブルスマート装置100は、メモリ112内の場所の比較及びルックアップにより、危険の場所及びタイプを容易に決定することができる。いくつかの実施形態においては、危険情報は、クラウド内において記憶されており、且つ、その他のウェアラブルスマート装置によるアクセスが可能である。この結果、危険場所のデータ及び情報のデータベースの生成及び複数のウェアラブルスマート装置によるアクセスが可能となる。
図12は、図11の方法1100の例示用の使用法を示している。図12のフレーム1250内において、ウェアラブルスマート装置100のユーザー1256は、歩道に沿って歩いている。メモリ112は、歩道に沿った以前の移動の際にセンサアレイ120によって検出されたデータを含んでおり、これは、なんらの危険情報をも含んでいない。
フレーム1252においては、ユーザーの移動の方向における歩道上に危険1258が存在している。危険は、警告サイン1260のみならず、2つの警告又はオレンジコーン1562をも含む。危険がウェアラブルスマート装置100の視野内に位置している際に、ウェアラブルスマート装置100は、検出されたデータを記憶されているデータと比較してもよい。プロセッサ111は、危険が発散であると決定してもよく、且つ、プロセッサ11は、発散に基づいてデータをユーザー1256に対して提供してもよい。データは、2つのコーン1562の説明、警告サイン1260が存在しているという事実、並びに、任意のその他の方向転換データを含んでもよい。又、ウェアラブルスマート装置100は、方向転換がテキストを含んでいると決定してもよい。ウェアラブルスマート装置100は、ユーザーに対するテキストの読み上げなどのように、テキストに基づいたデータをユーザー1256に対して提供してもよい。
ウェアラブルスマート装置100は、警告サイン1560及び/又は警告コーン1562が危険を提示していると決定してもよい。次いで、ウェアラブルスマート装置100は、危険1258が存在していることを通知するデータをユーザー1256に対して提供してもよい。ウェアラブルスマート装置100は、危険1258のタイプ及び/又は場所を通知するオーディオ及び/又は触覚データをユーザー1256に対して出力してもよい。
フレーム1254において、ユーザーは、ウェアラブルスマート装置100からのオーディオ及び/又は触覚出力を利用することにより、危険1258の周りにおいてナビゲートしてもよい。危険は、ユーザー1256の右側に位置している。従って、ウェアラブルスマート装置100は、左側よりも右側において多く振動し、これにより、危険が右側に位置していることを通知してもよく、或いは、右側よりも左側において多く振動し、これにより、ユーザーが左側に移動するべきであることを通知してもよい。
以上、方法/システムの例示用の実施形態について、例示を目的としたスタイルで開示した。従って、全体を通じて利用されている用語は、非限定的な方式で理解することを要する。当業者には、本明細書の教示内容に対する小規模な変更が想起されるであろうが、本明細書について付与される特許の範囲に含まれるべく意図されているのは、本明細書が寄与する当技術分野の進歩の範囲に合理的に含まれるそのようなすべての実施形態であり、且つ、この範囲は、添付の請求項及びその均等物に鑑みた場合を除き、制限されるものではないことを理解されたい。

Claims (19)

  1. 危険警告情報を提供するウェアラブルスマート装置であって、
    潜在的危険に関係すると共に音量情報を含むオーディオデータを検出するように構成されたマイクロフォンと、
    前記潜在的危険に関係する画像データを検出するように構成されたカメラと、
    前記マイクロフォン及び前記カメラに結合されると共に前記潜在的危険が実際の危険を提示するかどうかを、前記検出されたオーディオデータ及び前記検出された画像データに基づいて決定するように構成された、プロセッサと、
    を有する装置であって、
    前記プロセッサは、前記検出された画像データ又は前記検出されたオーディオデータのいずれが相対的に高い品質を有しているのかを決定し、
    前記潜在的危険が前記実際の危険を示すか否かを決定することは、相対的に高い品質を有する前記検出された画像データ及び前記検出されたオーディオデータのいずれかに対して相対的に大きな重みを提供することにより、実行される、
    装置
  2. 請求項1に記載の装置において、前記プロセッサに結合されると共に少なくとも1つの危険に関係するメモリオーディオデータ及びメモリ画像データを記憶するように構成された、メモリを更に有し、且つ、前記プロセッサは、前記検出されたオーディオデータ又は前記検出された画像データのうちの少なくとも1つを、前記メモリオーディオデータ又は前記メモリ画像データのうちの少なくとも1つと比較することにより、前記潜在的危険が前記実際の危険を示すか否かを決定するように構成されている、ウェアラブルスマート装置。
  3. 請求項1に記載の装置において、IMU及びGPSを更に有し、且つ、前記プロセッサは、前記GPS、前記IMU、前記検出されたオーディオデータ、及び前記検出された画像データのうちの少なくとも2つに基づいて現在の場所を決定するように更に構成されている、ウェアラブルスマート装置。
  4. 請求項3に記載の装置において、前記プロセッサに結合されると共に記憶されている場所及び前記記憶されている場所に関係する少なくとも1つの危険を記憶するように構成されたメモリを更に有し、且つ、前記プロセッサは、前記記憶されている場所に対する前記現在の場所の比較に基づいて、前記少なくとも1つの危険が危険を示すか否かを決定するように更に構成されている、ウェアラブルスマート装置。
  5. 請求項1に記載の装置において、前記マイクロフォンは、離隔した2つのマイクロフォンを含み、且つ、前記プロセッサは、前記検出されたオーディオデータに基づいて前記潜在的危険の方向を決定するように更に構成されている、ウェアラブルスマート装置。
  6. 請求項5に記載の装置において、前記プロセッサは、前記潜在的危険の前記方向の決定に応答して、前記潜在的危険の前記方向に向かって合焦するように前記カメラに対して指示するように更に構成されている、ウェアラブルスマート装置。
  7. 請求項1に記載の装置において、前記プロセッサは、前記検出されたオーディオデータの音量に基づいて、前記潜在的危険までの距離を決定するように更に構成されている、ウェアラブルスマート装置。
  8. 請求項1に記載の装置において、前記プロセッサは、少なくとも1つのファクタに基づいて前記潜在的危険の深刻さレベルを決定するように更に構成されている、ウェアラブルスマート装置。
  9. 請求項8に記載の装置において、前記少なくとも1つのファクタは、前記潜在的危険までの距離、前記潜在的危険が接近しつつあるかどうか、前記潜在的危険のサイズ、又は前記潜在的危険の音量を含む、ウェアラブルスマート装置。
  10. 危険警告を提供するスマートネックレスであって、
    第1端部及び第2端部を有する上部部分と、
    前記上部部分の前記第1端部に結合された第1下部部分と、
    前記上部部分の前記第2端部に結合された第2下部部分と、
    前記第1下部部分、前記第2下部部分、又は前記上部部分上において位置決めされると共に潜在的危険に関係するオーディオデータを検出するように構成された少なくとも1つのマイクロフォンと、
    前記第1下部部分又は前記第2下部部分上において位置決めされると共に前記潜在的危険に関係する画像データを検出するように構成されたカメラと、
    前記カメラ及び前記少なくとも1つのマイクロフォンに結合されると共に前記潜在的危険が実際の危険を提示するかどうかを前記検出されたオーディオデータ及び前記検出された画像データに基づいて決定するように構成された、プロセッサと、
    を有するスマートネックレスであって、
    前記プロセッサは、前記検出された画像データ又は前記検出されたオーディオデータのいずれが相対的に高い品質を有しているのかを決定し、
    前記潜在的危険が前記実際の危険を示すか否かを決定することは、相対的に高い品質を有する前記検出された画像データ及び前記検出されたオーディオデータのいずれかに対して相対的に大きな重みを提供することにより、実行される、
    スマートネックレス
  11. 請求項10に記載のスマートネックレスにおいて、前記プロセッサに結合されると共に少なくとも1つの危険に関係するメモリオーディオデータ及びメモリ画像データを記憶す
    るように構成されたメモリを更に有し、且つ、前記プロセッサは、前記検出されたオーディオデータ及び前記検出された画像データを前記メモリオーディオデータ及び前記メモリ画像データと比較することにより、前記潜在的危険が前記実際の危険を示すか否かを決定するように構成されている、スマートネックレス。
  12. 請求項10に記載のスマートネックレスにおいて、前記少なくとも1つのマイクロフォンは、2つのマイクロフォンを含み、且つ、前記プロセッサは、前記検出されたオーディオデータに基づいて前記潜在的危険の方向を決定するように更に構成されている、スマートネックレス。
  13. 請求項12に記載のスマートネックレスにおいて、前記プロセッサは、前記潜在的危険の前記方向の決定に応答して、前記潜在的危険の前記方向に向かって前記カメラを合焦させるように更に構成されている、スマートネックレス。
  14. 請求項10に記載のスマートネックレスにおいて、前記プロセッサは、前記検出されたオーディオデータの音量に基づいて、前記潜在的危険までの距離を決定するように更に構成されている、スマートネックレス。
  15. 請求項10に記載のスマートネックレスにおいて、前記プロセッサは、前記潜在的危険までの距離、前記潜在的危険が接近しつつあるのかどうか、前記潜在的危険のサイズ、又は前記潜在的危険の音量のうちの少なくとも1つに基づいて、前記潜在的危険の深刻さレベルを決定するように更に構成されている、スマートネックレス。
  16. ウェアラブルスマート装置のユーザーに対して危険警告を提供する方法であって、
    少なくとも2つのマイクロフォンにより、潜在的危険に関係すると共に音量情報を含むオーディオデータを検出するステップと、
    カメラにより、前記潜在的危険に関係する画像データを検出するステップと、
    プロセッサにより、前記潜在的危険が実際の危険を提示するかどうかを前記検出されたオーディオデータ及び前記検出された画像データに基づいて決定するステップと、
    を有するであって、
    プロセッサにより、前記検出された画像データ又は前記検出されたオーディオデータのいずれが相対的に高い品質を有しているのかを決定するステップを更に有し、且つ、前記潜在的危険が前記実際の危険を示すか否かを決定するステップは、相対的に高い品質を有する前記検出された画像データ及び前記検出されたオーディオデータのいずれかに対して相対的に大きな重みを提供することにより、実行される、方法
  17. 請求項16に記載の方法において、メモリ内において、少なくとも1つの危険に関係する記憶されたオーディオデータ及び記憶された画像データを記憶するステップを更に有し、且つ、前記潜在的危険が前記実際の危険を示すか否かを決定するステップは、前記記憶されたオーディオデータ及び前記記憶された画像データに対する前記検出されたオーディオデータ及び前記検出された画像データの比較に基づいている、方法。
  18. 請求項16に記載の方法において、
    メモリ内において、危険の場所を記憶するステップと、
    GPS、IMU、カメラ、又はマイクロフォンのうちの少なくとも2つにより、場所デ
    ータを検出するステップと、
    プロセッサにより、前記ウェアラブルスマート装置の現在の場所を決定するステップと

    前記プロセッサにより、前記現在の場所が前記危険の前記場所の既定の距離以内にある
    と決定するステップと、
    前記プロセッサにより、前記現在の場所が前記危険の前記場所の前記既定の距離以内に
    あることに応答し、前記ユーザーに提供されるフィードバックデータを決定するステップ
    と、
    更に有する方法。
  19. 請求項18に記載の方法において、振動装置のペアにより、前記フィードバックデータ
    に基づいて触覚フォードバックを生成するステップを更に有する、方法。
JP2016001519A 2015-01-21 2016-01-07 画像及びオーディオデータに基づいた危険の検出及び警告用のウェアラブルスマート装置 Expired - Fee Related JP6522527B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/601,506 2015-01-21
US14/601,506 US9576460B2 (en) 2015-01-21 2015-01-21 Wearable smart device for hazard detection and warning based on image and audio data

Publications (2)

Publication Number Publication Date
JP2016186786A JP2016186786A (ja) 2016-10-27
JP6522527B2 true JP6522527B2 (ja) 2019-05-29

Family

ID=56408247

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016001519A Expired - Fee Related JP6522527B2 (ja) 2015-01-21 2016-01-07 画像及びオーディオデータに基づいた危険の検出及び警告用のウェアラブルスマート装置

Country Status (2)

Country Link
US (1) US9576460B2 (ja)
JP (1) JP6522527B2 (ja)

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10600245B1 (en) * 2014-05-28 2020-03-24 Lucasfilm Entertainment Company Ltd. Navigating a virtual environment of a media content item
US9897459B2 (en) * 2014-12-24 2018-02-20 Zoll Medical Corporation Systems and methods of determining locations of medical devices relative to wearable devices
US10275029B2 (en) * 2015-06-22 2019-04-30 Accenture Global Solutions Limited Directional and awareness guidance device
US9703864B2 (en) 2015-07-23 2017-07-11 At&T Intellectual Property I, L.P. Directional location of sound sources
US9726503B2 (en) * 2015-07-30 2017-08-08 Toyota Motor Engineering & Manufacturing North America, Inc. User-worn devices, systems, and methods for directing a user in an emergency
US9793939B2 (en) * 2015-08-05 2017-10-17 International Business Machines Corporation Automatic self-protection for a portable electronic device
US10438609B2 (en) * 2016-01-14 2019-10-08 George Brandon Foshee System and device for audio translation to tactile response
US9912798B2 (en) * 2016-03-17 2018-03-06 Sandisk Technologies Llc Wearable device with receptacle to receive an audio device and method of operating same
KR101862337B1 (ko) * 2016-03-24 2018-05-31 주식회사 닷 정보 출력 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
US20170303052A1 (en) * 2016-04-18 2017-10-19 Olive Devices LLC Wearable auditory feedback device
US10362429B2 (en) 2016-04-28 2019-07-23 California Institute Of Technology Systems and methods for generating spatial sound information relevant to real-world environments
US20180284735A1 (en) 2016-05-09 2018-10-04 StrongForce IoT Portfolio 2016, LLC Methods and systems for industrial internet of things data collection in a network sensitive upstream oil and gas environment
US11327475B2 (en) 2016-05-09 2022-05-10 Strong Force Iot Portfolio 2016, Llc Methods and systems for intelligent collection and analysis of vehicle data
US11774944B2 (en) 2016-05-09 2023-10-03 Strong Force Iot Portfolio 2016, Llc Methods and systems for the industrial internet of things
US11237546B2 (en) 2016-06-15 2022-02-01 Strong Force loT Portfolio 2016, LLC Method and system of modifying a data collection trajectory for vehicles
GB2554113A (en) * 2016-06-19 2018-03-28 Charles Dewhurst David System for presenting items
US10561519B2 (en) * 2016-07-20 2020-02-18 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable computing device having a curved back to reduce pressure on vertebrae
US11354997B2 (en) * 2016-11-30 2022-06-07 Meliah Kearse Proximity warning assembly
US10679669B2 (en) * 2017-01-18 2020-06-09 Microsoft Technology Licensing, Llc Automatic narration of signal segment
KR101869973B1 (ko) * 2017-05-19 2018-06-21 주식회사 씨밀레테크 이동경로를 제공하는 진동밴드
KR101823632B1 (ko) * 2017-05-19 2018-01-30 주식회사 씨밀레테크 진동 네비게이션 시스템
US20180345501A1 (en) * 2017-06-01 2018-12-06 Monroe Solutions Group Inc. Systems and methods for establishing telepresence of a remote user
WO2019016132A1 (en) * 2017-07-20 2019-01-24 Philips Lighting Holding B.V. DEVICE FOR POSITIONING INFORMATION AT A LOCATION IN AN IMAGE
US11442445B2 (en) 2017-08-02 2022-09-13 Strong Force Iot Portfolio 2016, Llc Data collection systems and methods with alternate routing of input channels
US10613494B2 (en) * 2017-09-25 2020-04-07 Ademco Inc. Systems, methods, and devices for detecting a value corresponding to an ambient condition and generating an alert responsive to the value
DE102018204260B4 (de) * 2018-03-20 2019-11-21 Zf Friedrichshafen Ag Auswerteeinrichtung, Vorrichtung, Verfahren und Computerprogrammprodukt für eine hörgeschädigte Person zur umgebungsabhängigen Wahrnehmung eines Schallereignisses
US10743140B2 (en) 2018-05-16 2020-08-11 International Business Machines Corporation Smart location alert system
CN108846992A (zh) * 2018-05-22 2018-11-20 东北大学秦皇岛分校 一种能够对听障人士进行安全预警的方法及装置
US11567632B2 (en) 2018-07-03 2023-01-31 Apple Inc. Systems and methods for exploring a geographic region
JP7285690B2 (ja) * 2018-08-28 2023-06-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、情報処理装置及びプログラム
US10834501B2 (en) * 2018-08-28 2020-11-10 Panasonic Intellectual Property Corporation Of America Information processing method, information processing device, and recording medium
US11487351B2 (en) * 2018-11-23 2022-11-01 International Business Machines Corporation Intelligent directing system in an internet of things (IoT) computing environment
US10997417B2 (en) * 2018-12-16 2021-05-04 Remone Birch Wearable environmental monitoring system
CN109813317B (zh) * 2019-01-30 2023-05-26 京东方科技集团股份有限公司 一种避障方法、电子设备及虚拟现实设备
SE543224C2 (en) * 2019-03-01 2020-10-27 Hoevding Sverige Ab Accident prevention system comprising a wearable airbag system and methods therefore
US11170639B2 (en) * 2019-03-05 2021-11-09 University Of Massachusetts Transportation threat detection system
CN112414424B (zh) * 2019-08-20 2023-11-28 信扬科技(佛山)有限公司 盲人导航方法及盲人导航装置
TWI736955B (zh) * 2019-08-20 2021-08-21 新煒科技有限公司 盲人導航方法及盲人導航裝置
EP4048980A4 (en) * 2019-10-22 2023-08-09 Telefonaktiebolaget LM Ericsson (publ.) NAVIGATION METHOD AND APPARATUS
JP6853589B1 (ja) * 2019-11-13 2021-03-31 Fairy Devices株式会社 首掛け型装置
EP4078551A1 (en) * 2019-12-18 2022-10-26 Koninklijke Philips N.V. System and method for performing mobility management using haptic guidance
US20210398409A1 (en) * 2020-04-13 2021-12-23 Akul Sri Datta Hazard detection system
WO2021230049A1 (ja) * 2020-05-12 2021-11-18 株式会社Nttドコモ 情報通知システム
US11768083B2 (en) 2020-05-15 2023-09-26 Apple Inc. User interfaces for providing navigation directions
US11846515B2 (en) 2020-06-11 2023-12-19 Apple Inc. User interfaces for customized navigation routes
US11792315B2 (en) 2020-07-20 2023-10-17 Nitin Seshadri Advanced eyesight device for visually impaired
US11879745B2 (en) * 2020-07-20 2024-01-23 Ford Global Technologies, Llc Systems and methods for facilitating a final leg of a journey
US11626001B1 (en) * 2020-07-28 2023-04-11 United Services Automobile Association (Usaa) Wearable system for detection of environmental hazards
JP2022105941A (ja) * 2021-01-05 2022-07-15 菱洋エレクトロ株式会社 触覚刺激を与える身体装着具
JP7023022B1 (ja) * 2021-02-04 2022-02-21 Fairy Devices株式会社 首掛け型装置及び遠隔作業支援システム
US20220390248A1 (en) 2021-06-07 2022-12-08 Apple Inc. User interfaces for maps and navigation
US11328582B1 (en) 2021-07-07 2022-05-10 T-Mobile Usa, Inc. Enhanced hazard detection device configured with security and communications capabilities
WO2023034445A1 (en) * 2021-09-01 2023-03-09 Western Power Sports, Llc Helmet for monitoring rider condition
WO2023095344A1 (ja) * 2021-11-29 2023-06-01 日本電気株式会社 障害物検出装置、障害物検出方法、及び非一時的なコンピュータ可読媒体
WO2023176145A1 (ja) * 2022-03-18 2023-09-21 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
DE102022203017A1 (de) 2022-03-28 2023-09-28 Robert Bosch Gesellschaft mit beschränkter Haftung Überwachungsvorrichtung, Verfahren zum Betreiben einer Überwachungsvorrichtung, Computerprogramm und Speichermedium
WO2024071694A1 (ko) * 2022-09-30 2024-04-04 삼성전자 주식회사 위험을 감지하는 전자 장치, 그의 동작 방법 및 프로그램을 저장하는 저장 매체

Family Cites Families (387)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4520501A (en) 1982-10-19 1985-05-28 Ear Three Systems Manufacturing Company Speech presentation system and method
AT380355B (de) 1983-10-17 1986-05-12 Hirsch Hermann Leder Kunstst Informationssystem
HU197469B (en) 1987-10-23 1989-03-28 Laszlo Holakovszky Spectacle like, wearable on head stereoscopic reproductor of the image
US5047952A (en) 1988-10-14 1991-09-10 The Board Of Trustee Of The Leland Stanford Junior University Communication system for deaf, deaf-blind, or non-vocal individuals using instrumented glove
US6701296B1 (en) 1988-10-14 2004-03-02 James F. Kramer Strain-sensing goniometers, systems, and recognition algorithms
US5097856A (en) 1991-01-14 1992-03-24 Chi Sheng Hsieh Electronic talking stick for the blind
US5265272A (en) 1991-08-12 1993-11-23 Motorola, Inc. Modular wrist band antenna
JP3435175B2 (ja) 1992-09-03 2003-08-11 株式会社日立製作所 手話学習装置
US5659764A (en) 1993-02-25 1997-08-19 Hitachi, Ltd. Sign language generation apparatus and sign language translation apparatus
US5543802A (en) 1993-03-01 1996-08-06 Motorola, Inc. Position/navigation device and method
GB9315448D0 (en) 1993-07-26 1993-09-08 Rank Xerox Ltd Recording and retrieval of information relevant to the activities of a user
WO1995004440A1 (en) 1993-07-28 1995-02-09 Board Of Regents, The University Of Texas System Remotely controlled, infrared beacon system for guiding the visually impaired
US5463428A (en) 1994-02-08 1995-10-31 Stereographics Corporation Wireless active eyewear for stereoscopic applications
US5956630A (en) 1994-07-07 1999-09-21 Mackey; Ray C. Radio necklace
US5508699A (en) 1994-10-25 1996-04-16 Silverman; Hildy S. Identifier/locator device for visually impaired
US5733127A (en) 1995-05-01 1998-03-31 Mecum; Robert Charles Touch perceptible floor plan map and method for use
US5568127A (en) * 1995-10-27 1996-10-22 Richard M. Bang Drowsiness warning device and neck support
DE19542678A1 (de) 1995-11-16 1997-05-22 Jens Schrader Orientierungshilfe
US5701356A (en) 1995-12-05 1997-12-23 Hm Electronics Neck engageable transducer support assembly and method of using same
US5636038A (en) 1996-06-24 1997-06-03 Lynt; Ingrid H. Apparatus for converting visual images into tactile representations for use by a person who is visually impaired
GB9614837D0 (en) 1996-07-12 1996-09-04 Rank Xerox Ltd Interactive desktop system with multiple image capture and display modes
US5872744A (en) 1996-07-31 1999-02-16 Motorola, Inc. Battery arrangement for a wrist-carried radiotelephone
WO1999023524A1 (en) * 1997-10-30 1999-05-14 The Microoptical Corporation Eyeglass interface system
WO1999025152A2 (en) 1997-11-07 1999-05-20 Via, Inc. Interactive devices and methods
CA2233047C (en) 1998-02-02 2000-09-26 Steve Mann Wearable camera system with viewfinder means
US6229901B1 (en) 1998-03-05 2001-05-08 Nils Peter Mickelson Auditory feedback device
DE69908574D1 (de) 1998-03-25 2003-07-10 Mann W Stephan G Tragbares kamerasystem mit visiermittel
US6199010B1 (en) 1998-05-04 2001-03-06 Lucent Technologies, Inc. Wireless telecommunications system that provides navigational assistance to travelers
US5982286A (en) 1998-05-15 1999-11-09 Vanmoor; Arthur Object detecting apparatus
US6009577A (en) 1998-06-05 2000-01-04 Day; Judy A. Transformable travel pillow
US6055048A (en) 1998-08-07 2000-04-25 The United States Of America As Represented By The United States National Aeronautics And Space Administration Optical-to-tactile translator
WO2000010073A1 (en) 1998-08-14 2000-02-24 Via, Inc. Mobile robotic snake
US6466232B1 (en) 1998-12-18 2002-10-15 Tangis Corporation Method and system for controlling presentation of information to a user based on the user's condition
AU3774900A (en) 1998-12-18 2000-07-12 Louise Fourie Communication device
JP3623127B2 (ja) 1998-12-25 2005-02-23 松下電器産業株式会社 ヘッドホン装置
US6825875B1 (en) 1999-01-05 2004-11-30 Interval Research Corporation Hybrid recording unit including portable video recorder and auxillary device
US6230135B1 (en) 1999-02-02 2001-05-08 Shannon A. Ramsay Tactile communication apparatus and method
US6920229B2 (en) 1999-05-10 2005-07-19 Peter V. Boesen Earpiece with an inertial sensor
JP3791249B2 (ja) 1999-07-12 2006-06-28 株式会社日立製作所 携帯端末
US6594370B1 (en) 1999-07-16 2003-07-15 James C. Anderson Wireless personal communication apparatus in the form of a necklace
AU5629200A (en) 1999-07-30 2001-02-19 David Rollo Personal tour guide system
US6542623B1 (en) 1999-09-07 2003-04-01 Shmuel Kahn Portable braille computer device
US6619836B1 (en) 1999-11-11 2003-09-16 The Swatch Group Management Services Ag Electronic wristwatch including a printed circuit incorporated in a flexible wristband
US6323807B1 (en) 2000-02-17 2001-11-27 Mitsubishi Electric Research Laboratories, Inc. Indoor navigation with wearable passive sensors
AU2001243377A1 (en) 2000-02-28 2001-09-12 Zi Corporation Of America System and method for using real-world images for providing routing directions
HRP20000212A2 (en) 2000-04-13 2001-12-31 Nikolić Robert A modular telecommunication and pda unit
JP2001304908A (ja) 2000-04-26 2001-10-31 Denso Corp 車椅子利用者用ナビゲーション装置及び車椅子利用者用ナビゲーションシステム
US6230349B1 (en) 2000-05-03 2001-05-15 Abbye M. Silver Travel pillow
KR100405636B1 (ko) 2000-05-23 2003-11-15 이성환 시각 장애인용 착용 가능 보행 안내 장치 및 방법
DE10035154A1 (de) 2000-07-19 2002-01-31 Siemens Ag Armband für ein elektronisches Gerät
AU2001286450A1 (en) 2000-08-12 2002-02-25 Georgia Tech Research Corporation A system and method for capturing an image
US8224078B2 (en) 2000-11-06 2012-07-17 Nant Holdings Ip, Llc Image capture and identification system and process
EP1333883B1 (en) 2000-11-16 2006-08-16 Polyvalor, S.E.C. Body electronic implant and artificial vision system thereof
US20020067282A1 (en) 2000-12-06 2002-06-06 Moskowitz Paul Andrew Communication system for the disabled
US6826477B2 (en) 2001-04-23 2004-11-30 Ecole Polytechnique Federale De Lausanne (Epfl) Pedestrian navigation method and apparatus operative in a dead reckoning mode
US6834373B2 (en) 2001-04-24 2004-12-21 International Business Machines Corporation System and method for non-visually presenting multi-part information pages using a combination of sonifications and tactile feedback
US6839667B2 (en) 2001-05-16 2005-01-04 International Business Machines Corporation Method of speech recognition by presenting N-best word candidates
TW496645U (en) 2001-05-18 2002-07-21 Jin-Yang Wang Hanging rack for transmitting and receiving
GB2378776A (en) 2001-05-22 2003-02-19 Canon Kk Apparatus and method for managing a multi-modal interface in which the inputs feedback on each other
GB2376868B (en) 2001-06-29 2004-10-27 Nokia Corp A neck strap
US7069215B1 (en) 2001-07-12 2006-06-27 At&T Corp. Systems and methods for extracting meaning from multimodal inputs using finite-state devices
GB2378301A (en) * 2001-07-31 2003-02-05 Hewlett Packard Co Personal object recognition system for visually impaired persons
CA2460836A1 (en) 2001-09-18 2003-03-27 Karen Gourgey Tactile graphic-based interactive overlay assembly and computer system for the visually impaired
US6857775B1 (en) 2001-11-09 2005-02-22 Nike, Inc. Timepiece with integral molded wristband
FR2834801A1 (fr) 2002-01-14 2003-07-18 Oleg Tretiakoff Dispositif portatif pour la photographie des pages d'un livre
EP1488197A1 (en) 2002-03-20 2004-12-22 Visuaide Inc. Wireless handheld navigation system for visually impaired pedestrians
US7308314B2 (en) 2002-06-06 2007-12-11 Advanced Medical Electronics Method and apparatus for sensory substitution, vision prosthesis, or low-vision enhancement utilizing thermal sensing
US7598976B2 (en) 2002-06-13 2009-10-06 I See Tech Ltd. Method and apparatus for a multisensor imaging and scene interpretation system to aid the visually impaired
US6842692B2 (en) 2002-07-02 2005-01-11 The United States Of America As Represented By The Department Of Veterans Affairs Computer-controlled power wheelchair navigation system
US7428429B2 (en) 2002-08-14 2008-09-23 Sync1 Llc Hands-free personal communication device
US6774788B1 (en) 2002-10-07 2004-08-10 Thomas J. Balfe Navigation device for use by the visually impaired
US8494859B2 (en) 2002-10-15 2013-07-23 Gh, Llc Universal processing system and methods for production of outputs accessible by people with disabilities
US7228275B1 (en) 2002-10-21 2007-06-05 Toyota Infotechnology Center Co., Ltd. Speech recognition system having multiple speech recognizers
AU2003290791A1 (en) 2002-11-14 2004-06-15 Donnelly Corporation Imaging system for vehicle
EP2348281A1 (en) 2003-02-28 2011-07-27 Navitime Japan Co., Ltd. Walker navigation device and program
JP4542036B2 (ja) 2003-03-28 2010-09-08 学校法人東京理科大学 着用形関節駆動装置
GB0310885D0 (en) 2003-05-13 2003-06-18 Walker Guy F H 3G cellular mobile communication personal security eyewitness device with remote data storage acting as a crime prevention tool
US20100109918A1 (en) 2003-07-02 2010-05-06 Raanan Liebermann Devices for use by deaf and/or blind people
KR100556232B1 (ko) 2003-07-23 2006-03-03 국립암센터 이격조절이 가능한 양안구조 복강경
US7565295B1 (en) 2003-08-28 2009-07-21 The George Washington University Method and apparatus for translating hand gestures
JP2005165778A (ja) * 2003-12-03 2005-06-23 Canon Inc 頭部装着型表示装置、及びその制御方法
US20050208457A1 (en) 2004-01-05 2005-09-22 Wolfgang Fink Digital object recognition audio-assistant for the visually impaired
EP1721237B1 (en) 2004-02-27 2012-08-29 Simon Richard Daniel Wearable modular interface strap
EP1741044B1 (en) 2004-03-27 2011-09-14 Harvey Koselka Autonomous personal service robot
US7627142B2 (en) 2004-04-02 2009-12-01 K-Nfb Reading Technology, Inc. Gesture processing with low resolution images with high resolution processing for optical character recognition for a reading machine
JP4441674B2 (ja) 2004-04-02 2010-03-31 セイコーエプソン株式会社 点字ラベル作成システム、点字ラベル作成方法、及び、点字ラベル作成プログラム
US7659915B2 (en) 2004-04-02 2010-02-09 K-Nfb Reading Technology, Inc. Portable reading device with mode processing
USD513997S1 (en) 2004-05-03 2006-01-31 Nike, Inc. Watch
CN100578149C (zh) 2004-05-12 2010-01-06 吉峰贵司 信息处理设备、便携式装置、以及信息处理方法
US20070182812A1 (en) 2004-05-19 2007-08-09 Ritchey Kurtis J Panoramic image-based virtual reality/telepresence audio-visual system and method
US7460953B2 (en) 2004-06-30 2008-12-02 Navteq North America, Llc Method of operating a navigation system using images
US20060028550A1 (en) 2004-08-06 2006-02-09 Palmer Robert G Jr Surveillance system and method
US7843488B2 (en) 2004-08-09 2010-11-30 Stapleton John J Vision thermalization for sightless and visually impaired
JP2006054504A (ja) 2004-08-09 2006-02-23 Olympus Corp 画像生成方法および装置
WO2006028354A1 (en) 2004-09-09 2006-03-16 People And People Co., Ltd. System and its method for guiding voice information by playing contents file in user's terminal
JP2006094251A (ja) * 2004-09-27 2006-04-06 Konica Minolta Photo Imaging Inc 監視カメラおよび監視システム
GB0422295D0 (en) 2004-10-07 2004-11-10 Ibm System and method for data entry
LU91115B1 (en) 2004-10-26 2006-04-27 European Community Navigation system for disabled persons, in particular visually impaired persons
USD522300S1 (en) 2004-12-09 2006-06-06 Integral Orthopedics Inc. Travel pillow
US20060129308A1 (en) 2004-12-10 2006-06-15 Lawrence Kates Management and navigation system for the blind
US7356473B2 (en) 2005-01-21 2008-04-08 Lawrence Kates Management and assistance system for the deaf
US20060177086A1 (en) 2005-02-08 2006-08-10 Rye Ryan P Tubular, flexible wireless communication device
US7353034B2 (en) 2005-04-04 2008-04-01 X One, Inc. Location sharing and tracking using mobile phones or other wireless devices
US8836580B2 (en) 2005-05-09 2014-09-16 Ehud Mendelson RF proximity tags providing indoor and outdoor navigation and method of use
FR2885251B1 (fr) 2005-04-27 2010-01-29 Masfrand Olivier Marie Fran De Dispositif portable et interactif polyvalent de reconnaissance et de restitution vocale de caracteres, de formes, de couleurs et de luminosite pour deficients ou handicapes visuels
US7496445B2 (en) 2005-04-27 2009-02-24 Proxemics, Llc Wayfinding
US7299034B2 (en) 2005-06-21 2007-11-20 Lawrence Kates System and method for wearable electronics
US20060292533A1 (en) 2005-06-22 2006-12-28 Selod Omar F System and method for gait training
US8138907B2 (en) 2005-08-11 2012-03-20 University Of South Florida Travel assistant device
WO2007027738A2 (en) 2005-08-29 2007-03-08 Evryx Technologies, Inc. Interactivity via mobile image recognition
US20070052672A1 (en) 2005-09-08 2007-03-08 Swisscom Mobile Ag Communication device, system and method
GB2430258A (en) 2005-09-17 2007-03-21 Cracol Developments Ltd A combined GPS and compass used for indicating the directioion of a specified location
WO2007041295A2 (en) 2005-09-30 2007-04-12 Irobot Corporation Companion robot for personal interaction
US7733224B2 (en) * 2006-06-30 2010-06-08 Bao Tran Mesh network personal emergency response appliance
US20070248238A1 (en) * 2005-12-13 2007-10-25 Abreu Marcio M Biologically fit wearable electronics apparatus and methods
US20080120029A1 (en) 2006-02-16 2008-05-22 Zelek John S Wearable tactile navigation system
US20130218456A1 (en) 2006-02-16 2013-08-22 John S. Zelek Wearable tactile navigation system
US7848512B2 (en) 2006-03-27 2010-12-07 Kurt Eldracher Personal audio device accessory
US7864991B2 (en) 2006-04-06 2011-01-04 Espre Solutions Inc. System and method for assisting a visually impaired individual
KR100786965B1 (ko) 2006-05-16 2007-12-17 동국대학교 산학협력단 밀리미터파 수동 영상 시스템과 위성항법장치를 통합한시각 장애인용 물체 인식 장치
US7656290B2 (en) 2006-06-26 2010-02-02 Gene Fein Location system
KR20090037887A (ko) 2006-07-10 2009-04-16 아리아 엔터프라이시스, 인크. 휴대용 모듈형 다-기능 통신 디바이스
US7501958B2 (en) 2006-07-12 2009-03-10 Innovalarm Corporation Strobe light alarm detection and alert system
US7812709B2 (en) 2006-07-15 2010-10-12 Andrew Peter Davis Office communication system
GB2440583A (en) 2006-08-04 2008-02-06 Guide Dogs For The Blind Ass A portable route planning and object identification device for the visually impaired
US8239032B2 (en) 2006-08-29 2012-08-07 David Charles Dewhurst Audiotactile vision substitution system
CA2601662A1 (en) 2006-09-18 2008-03-18 Matthias Mullenborn Wireless interface for programming hearing assistance devices
WO2008035993A1 (en) 2006-09-19 2008-03-27 Multi Watch Limited Mounting apparatus
WO2008036325A2 (en) 2006-09-20 2008-03-27 Regents Of The University Of Minnesota Indoor navigation system and method
US7543934B2 (en) 2006-09-20 2009-06-09 Ipventures, Inc. Eyeglasses with activity monitoring and acoustic dampening
JP2008096868A (ja) 2006-10-16 2008-04-24 Sony Corp 撮像表示装置、撮像表示方法
WO2008127316A1 (en) 2006-11-22 2008-10-23 Chornenky T E Security and monitoring apparatus
US8382480B2 (en) 2006-12-14 2013-02-26 Verizon Patent And Licensing Inc. Apparatus and method for presenting and controllably scrolling Braille text
US7484847B2 (en) 2007-01-02 2009-02-03 Hind-Sight Industries, Inc. Eyeglasses having integrated telescoping video camera and video display
US20080166006A1 (en) 2007-01-06 2008-07-10 Apple Inc Light diffuser
US8588464B2 (en) * 2007-01-12 2013-11-19 International Business Machines Corporation Assisting a vision-impaired user with navigation based on a 3D captured image stream
US20080174676A1 (en) * 2007-01-24 2008-07-24 Squilla John R Producing enhanced photographic products from images captured at known events
US20080198222A1 (en) 2007-02-02 2008-08-21 Sanjay Gowda System and method for tele-presence
GB0702461D0 (en) 2007-02-08 2007-03-21 Genie Toys Plc Toy in the form of a doll
US7938756B2 (en) 2007-02-10 2011-05-10 Roy Rodetsky Powered mobile lifting, gait training and omnidirectional rolling apparatus and method
KR20080080688A (ko) 2007-02-22 2008-09-05 강일호 시각장애인용 생활정보 서비스 시스템
US7417592B1 (en) 2007-02-27 2008-08-26 Cheng Uei Precision Industry Co., Ltd. Portable audio wireless communication device
US7463188B1 (en) 2007-04-03 2008-12-09 Eride, Inc. Wireless CPU GPS application
US8930458B2 (en) 2007-04-04 2015-01-06 Pathfinders International, Llc GPS pathfinder cell phone and method
US20080251110A1 (en) 2007-04-12 2008-10-16 Giuseppe Pede Walking Aid for a Visually Disabled Person
US8594387B2 (en) 2007-04-23 2013-11-26 Intel-Ge Care Innovations Llc Text capture and presentation device
US10613355B2 (en) 2007-05-04 2020-04-07 E-Vision, Llc Moisture-resistant eye wear
US8855719B2 (en) 2009-05-08 2014-10-07 Kopin Corporation Wireless hands-free computing headset with detachable accessories controllable by motion, body gesture and/or vocal commands
US8414246B2 (en) 2007-06-06 2013-04-09 Cycogs, Llc Modular hybrid snake arm
US20090012788A1 (en) 2007-07-03 2009-01-08 Jason Andre Gilbert Sign language translation system
FR2918745B1 (fr) 2007-07-12 2009-09-18 Commissariat Energie Atomique Dispositif d'assistance a la navigation d'une personne
US7949157B2 (en) 2007-08-10 2011-05-24 Nitin Afzulpurkar Interpreting sign language gestures
JP2009049568A (ja) * 2007-08-15 2009-03-05 Fujifilm Corp 通報方法および通報システム
US8537227B2 (en) 2007-09-04 2013-09-17 International Business Machines Corporation Using a display associated with an imaging device to provide instructions to the subjects being recorded
JP2009061547A (ja) 2007-09-06 2009-03-26 Olympus Corp ロボット制御システム、ロボット、プログラム及び情報記憶媒体
US7682303B2 (en) 2007-10-02 2010-03-23 Sonitus Medical, Inc. Methods and apparatus for transmitting vibrations
WO2009046315A2 (en) 2007-10-03 2009-04-09 Conair Corporation Neck massaging device
EP2208354A4 (en) 2007-10-10 2010-12-22 Gerard Dirk Smits IMAGE PROJECTOR WITH REFLECTIVE LIGHT TRACKING
US8005263B2 (en) 2007-10-26 2011-08-23 Honda Motor Co., Ltd. Hand sign recognition using label assignment
US20090122161A1 (en) 2007-11-08 2009-05-14 Technical Vision Inc. Image to sound conversion device
US20090122648A1 (en) 2007-11-12 2009-05-14 Trustees Of Boston University Acoustic mobility aid for the visually impaired
US8090532B2 (en) 2007-12-14 2012-01-03 Microsoft Corporation Pedestrian route production
US8123660B2 (en) 2007-12-28 2012-02-28 Immersion Corporation Method and apparatus for providing communications with haptic cues
US20130085935A1 (en) 2008-01-18 2013-04-04 Mitek Systems Systems and methods for mobile image capture and remittance processing
US8786675B2 (en) 2008-01-23 2014-07-22 Michael F. Deering Systems using eye mounted displays
US8554464B2 (en) 2008-04-30 2013-10-08 K-Nfb Reading Technology, Inc. Navigation using portable reading machine
JP2010012529A (ja) 2008-07-01 2010-01-21 Oki Electric Ind Co Ltd ロボット
US8364481B2 (en) 2008-07-02 2013-01-29 Google Inc. Speech recognition with parallel recognition tasks
US20100041378A1 (en) 2008-08-14 2010-02-18 Ralph Aceves System and method for automatically generating a user profile from location information
CN201260746Y (zh) 2008-10-17 2009-06-24 天津三星电子有限公司 带有gps定位语音导航功能的轮椅
AT507455A1 (de) 2008-10-30 2010-05-15 Care Tec Gmbh Verfahren zur eingabe von daten
CN103119512A (zh) 2008-11-02 2013-05-22 大卫·乔姆 近眼式显示***和装置
KR20100055254A (ko) 2008-11-17 2010-05-26 엘지전자 주식회사 이동 단말기의 poi 정보 제공 방법 및 그 장치
US8538688B2 (en) 2008-11-18 2013-09-17 Nokia Corporation User generated pedestrian and indoor shortcut routes for navigation systems
US8979774B2 (en) 2009-01-13 2015-03-17 Robert Bosch Gmbh Activity monitoring device and method
US8243166B2 (en) 2009-01-20 2012-08-14 Lockheed Martin Corporation Automatic detection of blocked field-of-view in camera systems
US20100182242A1 (en) 2009-01-22 2010-07-22 Gregory Fields Method and apparatus for braille input on a portable electronic device
US9569001B2 (en) 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface
US9683850B2 (en) 2009-02-03 2017-06-20 Telenav, Inc. Method for navigation using adaptive coverage
JP2010182193A (ja) 2009-02-06 2010-08-19 Takao Hayashi 携帯電話ロボット
US8494507B1 (en) 2009-02-16 2013-07-23 Handhold Adaptive, LLC Adaptive, portable, multi-sensory aid for the disabled
CN103763472B (zh) 2009-02-19 2017-03-01 奥林巴斯株式会社 照相机、佩戴型图像显示装置、摄影***以及摄影方法
US8560267B2 (en) 2009-09-15 2013-10-15 Imetrikus, Inc. Identifying one or more activities of an animate or inanimate object
KR20110131247A (ko) 2009-02-27 2011-12-06 파운데이션 프로덕션, 엘엘씨 헤드셋 기반 원격통신 플랫폼
JP2012520491A (ja) 2009-03-16 2012-09-06 トムトム ポルスカ エスペー・ゾオ 高度情報を使用してデジタル地図を更新する方法
WO2010108047A2 (en) 2009-03-18 2010-09-23 Intouch Graphics, Inc. Systems, methods, and software for providing orientation and wayfinding data to blind travelers
ITPV20090004A1 (it) 2009-03-27 2010-09-28 Promogreen Com Srl Sistema per localizzazione e addestramento
TWM364901U (en) 2009-04-17 2009-09-11 Aiptek Int Inc Suspender with transmission line function
CN101527093A (zh) 2009-04-22 2009-09-09 邓毅华 支持盲文输入的数码终端及其盲文输入的方法
US20100292917A1 (en) 2009-05-13 2010-11-18 International Business Machines Corporation System and method for guiding a user through a surrounding environment
CN101886928A (zh) 2009-05-14 2010-11-17 深圳富泰宏精密工业有限公司 具有导盲功能的便携式电子装置
US20100308999A1 (en) 2009-06-05 2010-12-09 Chornenky Todd E Security and monitoring apparatus
USD609818S1 (en) 2009-06-09 2010-02-09 Fka Distributing Co. Shiatsu neck massager
US9370459B2 (en) * 2009-06-19 2016-06-21 Andrew Mahoney System and method for alerting visually impaired users of nearby objects
US8836532B2 (en) 2009-07-16 2014-09-16 Gentex Corporation Notification appliance and method thereof
US20110020771A1 (en) 2009-07-23 2011-01-27 Rea Ryan M Electronic braille typing interface
CN201440733U (zh) 2009-07-31 2010-04-21 深圳市同洲电子股份有限公司 一种适用于语言障碍人士的移动通话终端
US8797141B2 (en) 2009-08-20 2014-08-05 Trimble Navigation Limited Reverse RFID location system
US9201143B2 (en) 2009-08-29 2015-12-01 Echo-Sense Inc. Assisted guidance navigation
CN101647745B (zh) 2009-09-18 2011-01-19 上海交通大学 带座椅的助行机器人
KR101092820B1 (ko) 2009-09-22 2011-12-12 현대자동차주식회사 립리딩과 음성 인식 통합 멀티모달 인터페이스 시스템
US8606316B2 (en) 2009-10-21 2013-12-10 Xerox Corporation Portable blind aid device
JP4547040B1 (ja) 2009-10-27 2010-09-22 パナソニック株式会社 表示画像切替装置及び表示画像切替方法
US8351868B2 (en) 2009-11-20 2013-01-08 Motorola Solutions, Inc. Radio status indicator
US9267801B2 (en) 2009-12-09 2016-02-23 Qualcomm Incorporated Method and apparatus for reducing instructions in an indoor navigation environment
CN102104670B (zh) 2009-12-17 2014-03-05 深圳富泰宏精密工业有限公司 手语识别***及方法
USD625427S1 (en) 2010-01-22 2010-10-12 James Lee Back and shoulder massager
WO2011097226A1 (en) 2010-02-02 2011-08-11 Kopin Corporation Wireless hands-free computing headset with detachable accessories controllable by motion, body gesture and/or vocal commands
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US20120194552A1 (en) 2010-02-28 2012-08-02 Osterhout Group, Inc. Ar glasses with predictive control of external device based on event input
WO2011106797A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece
US20120249797A1 (en) * 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US8964298B2 (en) 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
US20120206335A1 (en) 2010-02-28 2012-08-16 Osterhout Group, Inc. Ar glasses with event, sensor, and user action based direct control of external devices with feedback
EP2368455A1 (en) 2010-03-18 2011-09-28 novero GmbH Body wearable chain with display means
US20120069511A1 (en) 2010-03-22 2012-03-22 Azera Paule S Data storage unit having clasping feature
CN102907008B (zh) * 2010-03-25 2015-09-30 锐沙·塔加维 用于颈部的触觉通信装置
EP2371339A1 (en) 2010-04-02 2011-10-05 POZOR 360 d.o.o. Surroundings recognition & describing device for blind people
CN101803988B (zh) 2010-04-14 2011-06-29 华中科技大学 多功能智能助立助行康复机器人
US8629651B2 (en) 2010-04-27 2014-01-14 Callpod, Inc. Portable wireless charging device
DE212010000134U1 (de) 2010-04-28 2012-04-24 Torus Medical Ltd. Vorrichtung zur Erstreckung eines Schlauches
US8538687B2 (en) 2010-05-04 2013-09-17 Honeywell International Inc. System for guidance and navigation in a building
CN102939791B (zh) 2010-05-17 2015-09-23 塔塔咨询服务有限公司 用于具有听觉、言语和视觉障碍的人的手持式通信辅助器
US20130245396A1 (en) 2010-06-07 2013-09-19 Affectiva, Inc. Mental state analysis using wearable-camera devices
EP2395495A3 (en) 2010-06-11 2015-03-25 Tata Consultancy Services Ltd. Hand-held navigation aid for individuals with visual impairment
US9004330B2 (en) 2010-06-28 2015-04-14 Shawn White Electronic device holder
CN102316193B (zh) 2010-07-06 2015-05-27 希姆通信息技术(上海)有限公司 手机及导盲方法
US8892118B2 (en) 2010-07-23 2014-11-18 Qualcomm Incorporated Methods and apparatuses for use in providing position assistance data to mobile stations
US8418705B2 (en) 2010-07-30 2013-04-16 Toyota Motor Engineering & Manufacturing North America, Inc. Robotic cane devices
US8814019B2 (en) 2010-08-17 2014-08-26 Black Diamond Advanced Technology, Llc Reconfigurable electrical wired cumberbund
US8743145B1 (en) 2010-08-26 2014-06-03 Amazon Technologies, Inc. Visual overlay for augmenting reality
US8676274B2 (en) 2010-08-27 2014-03-18 At&T Intellectual Property I, L.P. Devices, systems, and methods for notification of events on a wireless communication device
KR20120020212A (ko) 2010-08-27 2012-03-08 김가영 네비게이션이 내장된 장애인용 지팡이
EP2629737B1 (en) 2010-09-24 2016-07-13 Heptagon Micro Optics Pte. Ltd. White cane with integrated electronic travel aid using 3d tof sensor
US8719014B2 (en) 2010-09-27 2014-05-06 Apple Inc. Electronic device with text error correction based on voice recognition data
USD649655S1 (en) 2010-10-01 2011-11-29 Brookstone Purchasing, Inc. Neck and shoulder massager
US9418675B2 (en) 2010-10-04 2016-08-16 LI Creative Technologies, Inc. Wearable communication system with noise cancellation
US8174931B2 (en) 2010-10-08 2012-05-08 HJ Laboratories, LLC Apparatus and method for providing indoor location, position, or tracking of a mobile computer using building information
US7963294B1 (en) 2010-10-10 2011-06-21 Trout William G Assistive walker apparatus
US20120143495A1 (en) 2010-10-14 2012-06-07 The University Of North Texas Methods and systems for indoor navigation
US20120092161A1 (en) 2010-10-18 2012-04-19 Smartwatch, Inc. Systems and methods for notifying proximal community members of an emergency or event
US9053095B2 (en) 2010-10-31 2015-06-09 Speech Morphing, Inc. Speech morphing communication system
US9286884B2 (en) 2010-11-12 2016-03-15 Semantic Compaction Systems, Inc. Sequenced multi-meaning tactile symbols useable to produce synthetic plural word messages including words, phrases and sentences
CA2720886A1 (en) 2010-11-12 2012-05-12 Crosswing Inc. Customizable virtual presence system
WO2012068280A1 (en) 2010-11-16 2012-05-24 Echo-Sense Inc. Remote guidance system
US8676623B2 (en) 2010-11-18 2014-03-18 Navteq B.V. Building directory aided navigation
US8694251B2 (en) 2010-11-25 2014-04-08 Texas Instruments Incorporated Attitude estimation for pedestrian navigation using low cost mems accelerometer in mobile applications, and processing methods, apparatus and systems
US8924218B2 (en) 2010-11-29 2014-12-30 Greg L. Corpier Automated personal assistance system
GB201020616D0 (en) 2010-12-06 2011-01-19 Univ Ariel Res & Dev Co Ltd Device for imparting distance information
US8970699B2 (en) * 2010-12-22 2015-03-03 Verizon Patent And Licensing Inc. Methods and systems for automobile security monitoring
US8634852B2 (en) 2011-01-04 2014-01-21 Qualcomm Incorporated Camera enabled headset for navigation
USD656480S1 (en) 2011-01-05 2012-03-27 VIZIO Inc. Headphone assembly
WO2012092667A1 (en) 2011-01-08 2012-07-12 Jibestream Inc. Interactive information, wayfinding and message targeting devices, systems and methods
NO20111323A1 (no) 2011-01-09 2012-07-10 Anne-Lise Rabben Retningselement
WO2012108203A1 (ja) 2011-02-10 2012-08-16 京セラ株式会社 電子機器及び電子機器の制御方法
US20120207356A1 (en) * 2011-02-10 2012-08-16 Murphy William A Targeted content acquisition using image analysis
US20130271584A1 (en) 2011-02-17 2013-10-17 Orcam Technologies Ltd. User wearable visual assistance device
US8743856B2 (en) 2011-02-23 2014-06-03 Lg Electronics Inc. Wireless charging of mobile device
GB201103200D0 (en) * 2011-02-24 2011-04-13 Isis Innovation An optical device for the visually impaired
IL211481A0 (en) 2011-02-28 2011-06-30 David Eduard Sitbon A survival necklace
US20120232430A1 (en) 2011-03-10 2012-09-13 Patrick Boissy Universal actigraphic device and method of use therefor
WO2012125924A2 (en) 2011-03-17 2012-09-20 Coactive Drive Corporation Asymmetric and general vibration waveforms from multiple synchronized vibration actuators
USD674501S1 (en) 2011-04-01 2013-01-15 Brookstone Purchasing, Inc. Neck massager
US20130131985A1 (en) 2011-04-11 2013-05-23 James D. Weiland Wearable electronic image acquisition and enhancement system and method for image acquisition and visual enhancement
US8588972B2 (en) 2011-04-17 2013-11-19 Hei Tao Fung Method for creating low-cost interactive entertainment robots
US8797386B2 (en) 2011-04-22 2014-08-05 Microsoft Corporation Augmented auditory perception for the visually impaired
DE102011076891B4 (de) 2011-06-01 2016-01-28 Deutsches Zentrum für Luft- und Raumfahrt e.V. Orientierungshilfe für Personen mit eingeschränktem Sehvermögen
US20120316884A1 (en) 2011-06-10 2012-12-13 Curtis Instruments, Inc. Wheelchair System Having Voice Activated Menu Navigation And Auditory Feedback
JP2013003048A (ja) 2011-06-20 2013-01-07 Sony Corp 経路探索装置、経路探索方法、及びプログラム
US8786680B2 (en) 2011-06-21 2014-07-22 Disney Enterprises, Inc. Motion capture from body mounted cameras
US20130002452A1 (en) 2011-07-01 2013-01-03 David Lauren Light-weight, portable, and wireless navigator for determining when a user who is visually-impaired and/or poorly-oriented can safely cross a street, with or without a traffic light, and know his/her exact location at any given time, and given correct and detailed guidance for translocation
CN102323819B (zh) 2011-07-26 2013-06-19 重庆邮电大学 一种基于协调控制的智能轮椅室外导航方法
EP2738960A4 (en) 2011-07-27 2015-06-03 Fujitsu Ltd WIRELESS COMMUNICATION SYSTEM AND WIRELESS COMMUNICATION DEVICE
DE102011080056B4 (de) 2011-07-28 2015-04-23 Erhard Mayer Gehhilfe
US8768071B2 (en) 2011-08-02 2014-07-01 Toyota Motor Engineering & Manufacturing North America, Inc. Object category recognition methods and robots utilizing the same
ES2397903B2 (es) 2011-08-05 2014-03-24 Kaparazoom Slu Pizarra de escritura y dibujo para personas ciegas o con discapacidad visual
US8803699B2 (en) * 2011-08-18 2014-08-12 George Brandon Foshee Object detection device
US20130046541A1 (en) 2011-08-19 2013-02-21 Ronald L. Klein Apparatus for assisting visually impaired persons to identify persons and objects and method for operation thereof
EP2751775B1 (en) 2011-08-30 2016-07-06 Monash University System and method for processing sensor data for the visually impaired
US9271068B2 (en) 2011-09-13 2016-02-23 Tara Chand Singhal Apparatus and method for a wireless extension collar device for altering operational mode of mobile and fixed end-user wireless devices by voice commands
US20140251396A1 (en) 2011-09-30 2014-09-11 Indian Institute Of Technology Of Kharagpur Venucane: An Electronic Travel Aid for Visually Impaired and Blind People
WO2013054257A1 (en) 2011-10-09 2013-04-18 The Medical Research, Infrastructure and Health Services Fund of the Tel Aviv Medical Center Virtual reality for movement disorder diagnosis and/or treatment
EP2581856A1 (fr) 2011-10-12 2013-04-17 Thierry Magnenat Bracelet ou collier à éléments interchangeables
WO2013065042A1 (en) 2011-11-02 2013-05-10 Ronen Shai Generating and using a location fingerprinting map
US9389431B2 (en) * 2011-11-04 2016-07-12 Massachusetts Eye & Ear Infirmary Contextual image stabilization
US9571723B2 (en) 2011-11-18 2017-02-14 National Science Foundation Automatic detection by a wearable camera
US9368028B2 (en) * 2011-12-01 2016-06-14 Microsoft Technology Licensing, Llc Determining threats based on information from road-based devices in a transportation-related context
US8768141B2 (en) 2011-12-02 2014-07-01 Eric Chan Video camera band and system
US9702707B2 (en) 2011-12-22 2017-07-11 AppLabz, LLC Systems, methods, and apparatus for providing indoor navigation using optical floor sensors
DE102012000587A1 (de) 2012-01-13 2013-07-18 Technische Universität München Gehhilfe
US9228846B2 (en) 2012-01-18 2016-01-05 International Business Machines Corporation Generating routes
KR20130091908A (ko) 2012-02-09 2013-08-20 한국전자통신연구원 실내 네비게이션 서비스 제공 장치 및 그 방법
JP2013169611A (ja) 2012-02-20 2013-09-02 Vstone Kk ロボットシステムおよびロボット
DE102012202614C5 (de) 2012-02-21 2018-11-08 Karlsruher Institut Für Technologie (Kit) Häusliche Hilfsvorrichtung
US8708223B2 (en) 2012-03-01 2014-04-29 Elwha Llc Systems and methods for scanning a user environment and evaluating data of interest
US8909534B1 (en) 2012-03-09 2014-12-09 Google Inc. Speech recognition training
US9082239B2 (en) 2012-03-14 2015-07-14 Flextronics Ap, Llc Intelligent vehicle for assisting vehicle occupants
US9539164B2 (en) 2012-03-20 2017-01-10 Xerox Corporation System for indoor guidance with mobility assistance
CN202547659U (zh) 2012-03-21 2012-11-21 山东科技大学 一种盲人用导航仪
US20130250078A1 (en) 2012-03-26 2013-09-26 Technology Dynamics Inc. Visual aid
SG193669A1 (en) 2012-03-30 2013-10-30 Teck Seng Toh Mobile spectacle phone
CN102631280A (zh) 2012-04-18 2012-08-15 东南大学 一种基于无线传感器网络及振动反馈的穿戴式导盲装置
US9494427B2 (en) 2012-04-25 2016-11-15 Tyrell Gray System and method for providing a directional interface
US9081079B2 (en) 2012-05-02 2015-07-14 Qualcomm Incorporated Adaptive updating of indoor navigation assistance data for use by a mobile device
US9210413B2 (en) 2012-05-15 2015-12-08 Imagine Mobile Augmented Reality Ltd System worn by a moving user for fully augmenting reality by anchoring virtual objects
GB2502549A (en) 2012-05-30 2013-12-04 Ibm Navigation system
US8836910B2 (en) 2012-06-04 2014-09-16 James A. Cashin Light and sound monitor
WO2013186574A2 (en) 2012-06-14 2013-12-19 Zone V Ltd Mobile computing device for blind or low-vision users
US20140031977A1 (en) 2012-07-27 2014-01-30 Engineering Services Inc. Modular mobile robot
WO2014022230A2 (en) 2012-07-30 2014-02-06 Fish Robert D Electronic personal companion
US9335175B2 (en) 2012-08-15 2016-05-10 Google Inc. Crowd-sourcing indoor locations
CN202722736U (zh) 2012-09-03 2013-02-13 大连职业技术学院 多用导航定位项链
CA2884771C (en) 2012-09-10 2021-06-29 Aemass, Inc. Multi-dimensional data capture of an environment using plural devices
US9076450B1 (en) 2012-09-21 2015-07-07 Amazon Technologies, Inc. Directed audio for speech recognition
US10234941B2 (en) 2012-10-04 2019-03-19 Microsoft Technology Licensing, Llc Wearable sensor for tracking articulated body-parts
US20140100773A1 (en) 2012-10-07 2014-04-10 Practical Intellect, Llc Method of Assistance for the Visually Impaired
GB2507097A (en) 2012-10-19 2014-04-23 Sony Corp Providing customised supplementary content to a personal user device
US9953618B2 (en) 2012-11-02 2018-04-24 Qualcomm Incorporated Using a plurality of sensors for mapping and localization
US9384679B2 (en) 2012-11-14 2016-07-05 Ishraq ALALAWI System, method and computer program product to assist the visually impaired in navigation
US9081385B1 (en) 2012-12-21 2015-07-14 Google Inc. Lane boundary detection using images
TWM454043U (zh) 2012-12-24 2013-05-21 Hon Hai Prec Ind Co Ltd 具有nfc功能的可擕式電子裝置
WO2014106085A1 (en) * 2012-12-27 2014-07-03 Research Foundation Of The City University Of New York Wearable navigation assistance for the vision-impaired
EP2940893B1 (en) 2012-12-27 2021-05-19 Panasonic Intellectual Property Corporation of America Information communication method
KR101281806B1 (ko) 2012-12-28 2013-07-04 (주) 퓨처로봇 퍼스널 로봇
AT513882A2 (de) 2013-01-08 2014-08-15 Pajestka Kevin Vorrichtung zur Detektierung einer Umgebung
US9190058B2 (en) 2013-01-25 2015-11-17 Microsoft Technology Licensing, Llc Using visual cues to disambiguate speech inputs
CN105101903B (zh) 2013-02-04 2018-08-24 儿童国家医疗中心 混合控制外科机器人***
EP2983972A4 (en) 2013-02-07 2017-01-25 Northeastern University Cyclist monitoring and recommender system
JP6437927B2 (ja) 2013-03-04 2018-12-12 プレジデント アンド フェローズ オブ ハーバード カレッジ ハード部品を有するソフトロボットの磁気アセンブリ
US9911361B2 (en) 2013-03-10 2018-03-06 OrCam Technologies, Ltd. Apparatus and method for analyzing images
US9025016B2 (en) 2013-03-15 2015-05-05 Orcam Technologies Ltd. Systems and methods for audible facial recognition
US9489372B2 (en) 2013-03-15 2016-11-08 Apple Inc. Web-based spell checker
CA3187490A1 (en) 2013-03-15 2014-09-18 Interaxon Inc. Wearable computing apparatus and method
US9631930B2 (en) 2013-03-15 2017-04-25 Apple Inc. Warning for frequently traveled trips based on traffic
WO2014172378A1 (en) 2013-04-18 2014-10-23 Kyte Accessories, Llc Wearable electronic accessories
US20140313040A1 (en) 2013-04-23 2014-10-23 John Richard Wright, SR. Tactile and Visual Smoke Detector System
US9304588B2 (en) 2013-05-14 2016-04-05 Thieab AlDossary Tactile communication apparatus
US20140369541A1 (en) 2013-05-17 2014-12-18 Michael Miskin Wearable Portable Speaker System For Mobile Electronic Devices
JP2014227065A (ja) 2013-05-23 2014-12-08 船井電機株式会社 手動推進車両
CN103445920A (zh) 2013-05-24 2013-12-18 河南省佰腾电子科技有限公司 一种多功能轮椅扶手
USD721673S1 (en) 2013-06-18 2015-01-27 Lg Electronics Inc. Bluetooth headset
US20140379336A1 (en) 2013-06-20 2014-12-25 Atul Bhatnagar Ear-based wearable networking device, system, and method
WO2015006196A1 (en) 2013-07-11 2015-01-15 Mophie, Inc. Method and system for communicatively coupling a wearable computer with one or more non-wearable computers
US9442522B2 (en) 2013-07-11 2016-09-13 Kevin Alan Tussy Accessory for wearable computer
KR102157313B1 (ko) 2013-09-03 2020-10-23 삼성전자주식회사 촬영된 영상을 이용하여 객체를 인식하는 방법 및 컴퓨터 판독 가능한 기록 매체
US9749233B2 (en) 2013-09-13 2017-08-29 Facebook, Inc. Techniques for smart data routing
US10405786B2 (en) 2013-10-09 2019-09-10 Nedim T. SAHIN Systems, environment and methods for evaluation and management of autism spectrum disorder using a wearable data collection device
US20150109107A1 (en) 2013-10-20 2015-04-23 VenGo, LLC System for Holding Multiple RFIDs in a Wearable Device
US9304205B2 (en) 2013-10-31 2016-04-05 Garmin Switzerland Gmbh Distance calibration by event points
WO2015065418A1 (en) 2013-10-31 2015-05-07 Intel Corporation Virtual breadcrumbs for indoor location wayfinding
US20150125831A1 (en) 2013-11-07 2015-05-07 Srijit Chandrashekhar Nair Tactile Pin Array Device
US20170134819A9 (en) 2013-11-19 2017-05-11 Sap Se Apparatus and Method for Context-based Storage and Retrieval of Multimedia Content
US9230430B2 (en) 2013-11-27 2016-01-05 Google Inc. Detecting removal of wearable authentication device
WO2015088490A1 (en) 2013-12-10 2015-06-18 Intel Corporation System and method for indoor geolocation and mapping
ITMI20132171A1 (it) 2013-12-20 2015-06-21 Davide Macagnano Rilevatore indossabile per il rilevamento di parametri legati ad una attività motoria
US9915545B2 (en) 2014-01-14 2018-03-13 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
US9629774B2 (en) 2014-01-14 2017-04-25 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
US9578307B2 (en) * 2014-01-14 2017-02-21 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
US10248856B2 (en) * 2014-01-14 2019-04-02 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
US10024679B2 (en) * 2014-01-14 2018-07-17 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
USD727194S1 (en) 2014-01-21 2015-04-21 Wimo Labs LLC Bracelet
US9140554B2 (en) 2014-01-24 2015-09-22 Microsoft Technology Licensing, Llc Audio navigation assistance
US9668367B2 (en) 2014-02-04 2017-05-30 Microsoft Technology Licensing, Llc Wearable computing systems
EP3110606B1 (en) 2014-02-24 2021-09-15 Sony Group Corporation Smart wearable devices and methods for automatically configuring capabilities with biology and environment capture sensors
US20150256977A1 (en) 2014-03-04 2015-09-10 Apple Inc. Determining Activity Paths from Anonymous Application Usage Data and Motion Activity
JP1516137S (ja) 2014-03-05 2015-01-26
US9968197B2 (en) 2014-03-11 2018-05-15 Cabeau, Inc. Travel pillow
US9965974B2 (en) 2014-03-11 2018-05-08 Technologies Humanware Inc. Portable device with virtual tactile keyboard and refreshable Braille display
US9677840B2 (en) 2014-03-14 2017-06-13 Lineweight Llc Augmented reality simulator
US9922307B2 (en) 2014-03-31 2018-03-20 Elwha Llc Quantified-self machines, circuits and interfaces reflexively related to food
US20160042228A1 (en) 2014-04-14 2016-02-11 Motionsavvy, Inc. Systems and methods for recognition and translation of gestures
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US20150330787A1 (en) 2014-05-19 2015-11-19 Joseph Cioffi Systems, Methods and Software for Redirecting Blind Travelers Using Dynamic Wayfinding Orientation and Wayfinding Data
US11184580B2 (en) * 2014-05-22 2021-11-23 Microsoft Technology Licensing, Llc Automatically curating video to fit display time
US9355547B2 (en) 2014-05-22 2016-05-31 International Business Machines Corporation Identifying a change in a home environment
US9548622B2 (en) 2014-06-16 2017-01-17 Wistron Corporation Wirelessly charging a mobile device and utilizing the mobile device as a power source
US9497592B2 (en) 2014-07-03 2016-11-15 Qualcomm Incorporated Techniques for determining movements based on sensor measurements from a plurality of mobile devices co-located with a person
US10341544B2 (en) 2014-07-23 2019-07-02 Orcam Technologies Ltd. Determining a matching score between users of wearable camera systems
USD738238S1 (en) 2014-08-14 2015-09-08 Tosense, Inc. Neck-worn biometric sensor
USD736741S1 (en) 2014-09-15 2015-08-18 What's Good LLC Ear muffs with built-in speakers and control module
EP3007029B1 (en) 2014-10-07 2017-12-27 LG Electronics Inc. Mobile terminal and wearable device
US9232366B1 (en) 2014-10-15 2016-01-05 Motorola Solutions, Inc. Dual-watch collar-wearable communication device
USD756959S1 (en) 2014-10-21 2016-05-24 Lg Electronics Inc. Wireless headset
USD756958S1 (en) 2014-10-21 2016-05-24 Lg Electronics Inc. Wireless headset
EP3218850A4 (en) 2014-11-10 2018-06-27 Visionize LLC Methods and apparatus for vision enhancement
USD742535S1 (en) 2015-01-23 2015-11-03 Lover Health Science And Technology Co., Ltd. Sexual stimulation device
KR20160123613A (ko) 2015-04-16 2016-10-26 엘지전자 주식회사 로봇 청소기

Also Published As

Publication number Publication date
US9576460B2 (en) 2017-02-21
JP2016186786A (ja) 2016-10-27
US20160210834A1 (en) 2016-07-21

Similar Documents

Publication Publication Date Title
JP6522527B2 (ja) 画像及びオーディオデータに基づいた危険の検出及び警告用のウェアラブルスマート装置
US9915545B2 (en) Smart necklace with stereo vision and onboard processing
US9629774B2 (en) Smart necklace with stereo vision and onboard processing
US8744113B1 (en) Communication eyewear assembly with zone of safety capability
US9677901B2 (en) System and method for providing navigation instructions at optimal times
US9508269B2 (en) Remote guidance system
US9805619B2 (en) Intelligent glasses for the visually impaired
US8995678B2 (en) Tactile-based guidance system
JP2017536595A (ja) 歩行者情報システム
KR101892190B1 (ko) 시각장애인을 위한 스마트 안경 및 그 활용 방법
KR102351584B1 (ko) 시각장애인을 위한 길안내 서비스 시스템
WO2016199248A1 (ja) 情報提示システム及び情報提示方法
CN102573542A (zh) 用于通知定位信息的***
JP2018078398A (ja) 多機能イヤホンによる自律型アシスタントシステム
WO2017216629A1 (en) Systems and methods for directing audio output of a wearable apparatus
CN107209205A (zh) 重心移动力设备
TWI618418B (zh) 聽力輔助系統及電子裝置
TWI637361B (zh) 事件檢測方法、具有事件檢測機制的電子系統以及配件
JP6760898B2 (ja) 情報処理装置及び情報処理システム
KR20160000897A (ko) Ble 기반의 손목형 안내기기를 이용한 시각장애인용 보행안내시스템
KR101655820B1 (ko) 스마트 글래스를 이용한 도착시간 알림 시스템 및 그 방법
KR101598466B1 (ko) 청각장애인용 안전보조시스템
KR101613022B1 (ko) 착용형 햅틱 장치 및 그것을 이용한 보행 안내 정보 제공 방법
US20180218589A1 (en) Eyeglass Tracking System and Method
KR102334319B1 (ko) 증강 현실 표시 장치를 이용한 청각 정보의 시각 변환 및 전달 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180406

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190424

R150 Certificate of patent or registration of utility model

Ref document number: 6522527

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees