JP2016184089A - 情報認識装置、ナビゲーションシステム、ナビゲーション方法及びプログラム - Google Patents

情報認識装置、ナビゲーションシステム、ナビゲーション方法及びプログラム Download PDF

Info

Publication number
JP2016184089A
JP2016184089A JP2015064216A JP2015064216A JP2016184089A JP 2016184089 A JP2016184089 A JP 2016184089A JP 2015064216 A JP2015064216 A JP 2015064216A JP 2015064216 A JP2015064216 A JP 2015064216A JP 2016184089 A JP2016184089 A JP 2016184089A
Authority
JP
Japan
Prior art keywords
information
unit
user
image
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015064216A
Other languages
English (en)
Inventor
義訓 白神
Yoshinori Shiragami
義訓 白神
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Platforms Ltd
Original Assignee
NEC Platforms Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Platforms Ltd filed Critical NEC Platforms Ltd
Priority to JP2015064216A priority Critical patent/JP2016184089A/ja
Publication of JP2016184089A publication Critical patent/JP2016184089A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Rehabilitation Tools (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】
使用者が必要とする情報を明瞭に提示する情報認識装置等を提供する。
【解決手段】
情報認識装置は、画像に含まれる少なくとも一つの所定の領域を抽出する抽出手段と、使用者の動作に関する情報に基づいて、少なくとも一つの所定の領域のうち、使用者に着目されている領域を特定する特定手段と、特定部にて特定された所定の領域に含まれる情報を認識する認識手段とを備える。
【選択図】 図1

Description

本発明は、情報認識装置、ナビゲーションシステム、ナビゲーション方法及びプログラムに関する。
視覚障害者等が移動する際には、周囲の状況を把握できるように、何らかの補助となる装置等が必要となる場合がある。この場合の装置等の一例として、撮像装置等にて周囲の状況を撮像し、撮像された画像に含まれる文字、物体、人物等を認識して、当該視覚障害者に認識した情報を提供する装置が考えられる。
特許文献1には、視覚障害者用歩行支援システム等に関する技術が記載されている。特許文献1に記載の視覚障害者用歩行支援システムは、視覚障害者にとって現在位置に関する情報や行先に関する情報を把握可能な文字情報を、ステレオ画像取込器によって撮像されたステレオ画像から抽出する。そして、特許文献1に記載の視覚障害者用歩行支援システムは、その文字情報から得られる意味内容を情報伝達器が音声情報または触覚情報によって発する。
特許文献2には、空間情報聴覚化装置に関する技術が記載されている。特許文献2に記載の空間情報聴覚化装置は、撮像装置の画像データに基づいて、少なくとも予め決められた三次元空間内に存在するものの三次元座標データを取得する空間情報取込手段を備える。また、特許文献2に記載の空間情報聴覚化装置は、この三次元座標データに基づいて、物を認識する空間情報認識手段と、空間情報認識手段の認識結果に基づいて、物に関する立体音響を出力する立体音響出力手段とを有する。
特許文献3には、注視対象物推定装置に関する技術が記載されている。特許文献3に記載の注視対象物推定装置は、データ取得部により、ある時刻の画像、車両位置、視線を取得し、注視位置判定部により注視位置を判定し、対象物検出部で画像から看板を示す対象物領域を検出する。また、特許文献3に記載の注視対象物推定装置は、遡及範囲決定部で遡及範囲を決定し、対処物領域追跡部で、遡及範囲の各時刻に撮影された画像から対象物領域を追跡する。そして、特許文献3に記載の注視対象物推定装置は、追跡位置・注視位置比較部で、追跡された対象物領域のある時刻における位置と当該時刻における注視位置とを比較して、搭乗者が看板を注視していたか否かを判定する。
特開2001−318594号公報 特開2003−23699号公報 特開2013−200837号公報
上述した特許文献に記載された技術では、画像データ等に多数の情報が含まれる場合に、いずれを認識対象とするかに関して言及がなされていない。しかしながら、上述した特許文献に記載された技術を用いた装置等の使用者にとって、画像データ等に含まれる情報の全てを認識する必要がない場合がある。すなわち、上述した各特許文献に記載された技術では、これらの技術の使用者が実際に必要とする情報を提示することについて、必ずしも考慮がなされていない。
本発明は、上記課題を解決するためになされたものであって、使用者が必要とする情報を提示する情報認識装置等を提供することを主たる目的とする。
本発明の一態様における情報認識装置は、画像に含まれる少なくとも一つの所定の領域を抽出する抽出手段と、使用者の動作に関する情報に基づいて、少なくとも一つの所定の領域のうち、使用者に着目されている領域を特定する特定手段と、特定部にて特定された所定の領域に含まれる情報を認識する認識手段とを備える。
また、本発明の一態様におけるナビゲーションシステムは、上述の情報認識装置と、画像を撮像する撮像手段と、使用者の動作を検知する検知手段と、情報認識装置が備える抽出手段にて抽出された少なくとも一つの所定の領域に関する情報と、情報認識装置が備える認識部にて認識された情報とを少なくとも出力する出力手段とを備える。
また、本発明の一態様における情報認識方法は、画像に含まれる少なくとも一つの所定の領域を抽出し、使用者の動作に関する情報に基づいて、少なくとも一つの所定の領域のうち、使用者に着目されている領域を特定し、特定された所定の領域に含まれる情報を認識する。
また、本発明の一態様におけるプログラムは、コンピュータに、画像に含まれる少なくとも一つの所定の領域を抽出する処理と、使用者の動作に関する情報に基づいて、少なくとも一つの所定の領域のうち、使用者に着目されている領域を特定する処理と、特定手段にて特定された所定の領域に含まれる情報を認識する処理とを実行させる。
本発明によると、利用者が必要とする情報を明瞭に提示する情報認識装置等を提供することができる。
本発明の第1の実施形態における情報認識装置の構成を示す図である。 本発明の第1の実施形態における情報認識装置を有するナビゲーションシステムの構成を示す図である。 本発明の第1の実施形態における情報認識装置において抽出及び認識される情報等を示す図である。 本発明の第1の実施形態における情報認識装置の動作の一例を示すフローチャートである。 本発明の第1の実施形態の変形例における情報認識装置の構成を示す図である。 本発明の第2の実施形態における情報認識装置の構成を示す図である。 本発明の各実施形態における情報認識装置を実現する情報処理装置の一構成例を示す図である。
本発明の各実施形態について、添付の図面を参照して説明する。なお、本発明の実施形態において、各装置の各構成要素は、機能単位のブロックを示している。各装置の各構成要素は、例えば図7に示すような情報処理装置500とソフトウェアとの任意の組み合わせにより実現することができる。情報処理装置500は、一例として、以下のような構成を含む。
・CPU(Central Processing Unit)501
・ROM(Read Only Memory)502
・RAM(Ramdom Access Memory)503
・RAM503にロードされるプログラム504
・プログラム504を格納する記憶装置505
・記録媒体506の読み書きを行うドライブ装置507
・ネットワーク509と接続する通信インターフェース508
・データの入出力を行う入出力インターフェース510
・各構成要素を接続するバス511
各装置の実現方法には様々な変形例がある。例えば、各装置は、専用の装置として実現することができる。また、各装置は、複数の装置の組み合わせにより実現することができる。
(第1の実施形態)
まず、本発明の第1の実施形態について説明する。図1は、本発明の第1の実施形態における情報認識装置の構成を示す図である。図2は、本発明の第1の実施形態における情報認識装置を有するナビゲーションシステムの構成を示す図である。図3は、本発明の第1の実施形態における情報認識装置において抽出及び認識される情報等を示す図である。図4は、本発明の第1の実施形態における情報認識装置の動作の一例を示すフローチャートである。図5は、本発明の第1の変形例における情報認識装置の構成を示す図である。
図1に示すとおり、本発明の第1の実施形態における情報認識装置100は、抽出部110と、特定部120と、認識部130とを備える。抽出部110は、画像に含まれる少なくとも一つの所定の領域を抽出する。特定部120は、使用者の動作に関する情報に基づいて、少なくとも一つの所定の領域のうち、使用者に着目されている領域を特定する。認識部130は、特定部120にて特定された所定の領域に含まれる情報を認識する。
また、本実施形態における情報認識装置100を含むナビゲーションシステム10が構成される。図2に示すとおり、ナビゲーションシステム10は、情報認識装置100と、撮像部11と、検知部12と、出力部13とを有する。情報認識装置100は、上述した情報認識装置100又はその変形例等である。撮像部11は、画像を撮像する。検知部12は、使用者の動作を検知する。出力部13は、情報認識装置100が備える抽出部110にて抽出された少なくとも一つの所定の領域に関する情報と、情報認識装置100が備える認識部にて認識された情報とを少なくとも出力する。
この情報認識装置100を有するナビゲーションシステム10は、一例として、全盲者を含む視覚障害者が移動する場合等に用いられる。すなわち、ナビゲーションシステム10の使用者は、例えば自身が移動する場合等において、このナビゲーションシステム10を、当該使用者の周囲にある看板や標識(以下「看板等」とする)に記載されている文字や、物体、人物等を認識する際に用いる。
本発明の各実施形態において、使用者とは、当該情報認識装置100を使用する者である。また、使用者は、上述したナビゲーションシステム10等の情報認識装置100を備える任意の装置やシステムを使用する者であってもよい。以下、情報認識装置100及びナビゲーションシステム10等の情報認識装置100を備える任意の装置やシステムをまとめて「情報認識装置100等」と称する。
なお、本発明の各実施形態における情報認識装置100等の使用者は、視覚障害者であることが想定されているが、視覚障害者には限られない。
続いて、図1を用いて、本発明の第1の実施形態における情報認識装置100の各構成要素について説明する。
抽出部110は、上述のように、画像に含まれる少なくとも一つの所定の領域を抽出する。抽出部110は、例えば、ナビゲーションシステム10が有する撮像部11にて撮像された画像を用いる。ただし、抽出部110は、その他の任意の手段で得られた画像を用いてもよい。所定の領域は、例えば情報認識装置100等の使用者の意図等に基づいて、後述する認識部130において、その領域に含まれる情報の認識が行われる対象の候補となる領域である。
抽出部110は、予め定められた任意の条件に基づいて、画像に含まれる上述した所定の領域を抽出する。すなわち、抽出部110は、予め定められた形状や色を含む種々の条件に合致する領域を、所定の領域として抽出する。抽出部110にて用いられる条件は、後述する認識部130にて認識が行われる対象等に応じて定められる。
より詳しくは、認識部130が看板等に書かれた文字を認識する場合には、看板等又は看板等に描かれた模様等の形状、看板等又は看板等に書かれた文字や模様の色等が条件として用いられる。すなわち、この場合に抽出部110は、画像におけるこれらの条件を満たす一つ以上の所定の領域を抽出する。なお、抽出部110において用いられる条件は、これ以外の条件を用いて所定の領域を抽出してもよい。
抽出部110は、所定の領域を抽出した場合に、当該所定の領域の内容(つまり、その領域に書かれた文字の内容等)に関する認識は行わなくてもよい。すなわち、抽出部110は、画像における予め定められた任意の条件を満たすような領域の有無のみを分析して、このような所定の領域を抽出してもよい。このようにすることで、抽出部110にて必要とされる処理を少なくすることが可能となる。
抽出部110にて抽出された結果は、例えば情報認識装置100等の使用者における視覚障害の程度等に応じた態様にて適宜出力部13等に出力される。認識された結果として出力される内容は後述する。
図3(A)は、抽出部110にて用いられる画像の一例である。図3(A)に示す例では、文字が書かれた看板等が含まれている。抽出部110は、例えば、この看板のうち、色や形状などの条件等に基づいて、これらの条件を満たす看板を所定の領域として抽出する。
抽出部110にて抽出された結果は、例えば図3(B)のように表される。この結果は、後述するナビゲーションシステム10が有する出力部13等を介して出力される。図3(B)に示す例では、図3(A)に示す画像に含まれる看板のうち、抽出部110にて抽出された看板の位置に応じて、当該看板が存在することを示す印が付されている。図3(B)に示す例では、図3(A)に含まれる「松山」及び「愛媛」と書かれた看板が所定の領域として抽出されている。すなわち、図3(B)に示す例では、図3(A)における「松山」及び「愛媛」と書かれた看板の位置に応じて2か所に印が付されている。
なお、抽出部110において所定の領域を抽出するための手法としては、任意の画像認識の手法が用いられる。また、この場合に用いられる画像は、後に認識部130において情報の認識が行われる候補となる領域が多く含まれるよう、相対的に広い画角にて撮像された画像が用いられることが好ましい。
特定部120は、抽出部110にて抽出された少なくとも一つの所定の領域のうち、使用者に着目されている領域を特定する。この場合に、特定部120は、使用者の動作に関する情報に基づいて、使用者に着目されている領域を特定する。使用者の動作に関する情報は、例えば、ナビゲーションシステム10が有する検知部12にて検知される。ただし、特定部120は、使用者の動作に関する情報を任意の方法で検知することができる。
特定部120は、使用者が所定の領域のいずれかを着目しているか否か、及び使用者が所定の領域のいずれかを着目している場合に、所定の領域のいずれを着目しているか否か等を判断して、使用者に着目されている所定の領域を特定する。
これらの判断を行うために、特定部120は、例えば、ナビゲーションシステム10が有する検知部12からの情報を用いて、使用者が歩行しながら情報認識装置100等を使用している場合に、歩行を停止したこと検出をする。このようにして、特定部120は、使用者が所定の領域のいずれかを着目していることを特定する。
また、ナビゲーションシステム10が有する出力部13がタッチパネル等の検知部12を備える場合には、特定部120は、出力部13にて出力された情報のいずれを指し示すかを検知部12にて検出してもよい。すなわち、出力部13にて、図3(B)のように情報が表されている場合、特定部120は、使用者が図3(B)に示す2か所の印のどちらかを指し示すかを検知部12にて検知して、使用者に着目されている所定の領域を特定してもよい。
更に、特定部120は、使用者が、ナビゲーションシステム10に備えられている撮像部11を抽出部110にて抽出された少なくとも一つの所定の領域のいずれかに対応する方向に向けているかを検出してもよい。同様に、特定部120は、ナビゲーションシステム10が備える出力部12等に抽出された少なくとも所定の領域に関する情報が出力されている場合に、使用者がその情報のいずれかを指し示すことを検出してもよい。
その他、特定部120は、上述した所定の領域のいずれかに関する認識が情報認識装置100等にて実行されることへの期待を示す使用者の任意の動作を検出して、使用者に着目されている所定の領域を特定してもよい。また、特定部120は、上記説明した手法を組み合わせて、使用者に着目されている所定の領域を特定してもよい。
認識部130は、抽出部110にて抽出された少なくとも一つの所定の領域のうち、特定部120にて特定された所定の領域に含まれる情報を認識する。
所定の領域に看板等が含まれる場合、認識部130は、所定の領域に含まれる情報として、当該看板等に記載された文字を認識する。所定の領域に物体や人物が含まれる場合、認識部130は、所定の領域に含まれる情報として、所定の領域に含まれる物体や人物に関する認識を行ってもよい。認識部130は、所定の領域に含まれる情報として、情報認識装置100等の使用者が必要とするその他の任意の対象を認識してもよい。
また、認識部130にて認識された結果は、ナビゲーションシステム10が備える出力部13等を介して適宜外部に出力される。この場合には、認識部130が看板等に記載された文字を認識する場合は、認識した文字情報が出力部13等を介して適宜外部に出力される。また、認識部130が物体や人物を認識する場合は、例えば認識された物体や人物の名称等が文字情報として出力部13等を介して適宜外部に出力される。
認識部130は、新たな画像に基づいて、当該所定の領域に含まれる情報を認識してもよい。この場合には、新たな画像は、例えばナビゲーションシステム10が備える撮像部11にて、当該所定の領域が主となるように撮像されることで得られる。このようにして得られた画像を用いることで、認識部130は、高い精度で当該所定の領域に含まれる情報を認識することが可能となる。
なお、認識部130は、先に抽出部110にて少なくとも一つの所定の領域を抽出する場合に用いられた画像を用いてもよい。この場合には、認識部130は、当該画像から特定部120にて特定された所定の領域を切出された画像を用いて、当該所定の領域に含まれる情報を認識してもよい。
いずれの場合においても、認識部130は、特定部120にて特定された所定の領域以外の領域に関する認識を行わなくてもよい。このようにすることで、認識部130にて必要とされる処理の量を少なくすることが可能となる。また、使用者は、例えば認識の候補となる看板等が多数存在する(すなわち、上述した任意の条件を満たすような領域が多い)場合でも、情報認識装置100等を用いることで、当該使用者が所望する情報のみが認識されることが可能となる。
なお、抽出部110において所定の領域を抽出するための手法としては、対象に応じて、一般的に用いられている任意の文字認識等の手法が適宜用いられる。
図3(C)は、図3(A)又は図3(B)に示す例に対して、抽出部110が認識を行った場合の例を示す。図3(B)に示す例では、所定の領域として2か所の領域が抽出部110にて抽出されている。そして、特定部120が、図3(B)に示す2か所の印のうちの右側を使用者が着目する領域として特定した場合を想定する。
この場合に、認識部130は、当該領域には「松山」との文字が書かれていると認識する。この結果は、ナビゲーションシステム10が有する出力部13にて文字情報として出力される。出力部13は、例えばこの結果を点字で出力する。
続いて、図4を用いて、本発明の第1の実施形態における情報認識装置100の動作について説明する。
最初に、抽出部110は、例えばナビゲーションシステム10が有する撮像部11等にて撮像された画像に含まれる所定の領域を抽出するように、画像を解析する(ステップS101)。
続いて、抽出部110は、ステップS101における画像の解析結果に基づいて、画像に少なくとも一つ所定の領域が含まれているかを判断する(ステップS102)。画像に所定の領域が含まれている場合には、抽出部110は、当該所定の領域を抽出する(ステップS103)。ステップS102において、画像に所定の領域が含まれていないと判断される(又は、画像に所定の領域が含まれていると判断できない)場合には、抽出部110は、ステップS101に戻って画像の解析を繰り返す。
続いて、特定部120は、使用者の動作に関する情報に基づいて、上述した所定の領域のうち使用者に着目されている領域があるか否かを判断する(ステップS104)。そして、特定部120は、使用者に着目されている領域があると判断した場合には、当該領域を使用者が着目している領域として特定する(ステップS105)。特定部120は、使用者に着目されている領域がないと判断した(又は、使用者に着目されている領域があると判断できない)場合には、情報認識装置110は、ステップS101に戻り、再度抽出部110における画像の解析の動作を行う。
そして、特定部120にて使用者が着目している領域が特定されると、認識部130は、当該領域に含まれる情報の認識を行う(ステップS106)。認識部130にて認識された結果は、上述のように、ナビゲーションシステム10が有する出力部13等を介して適宜使用者に対して出力される。
以上のとおり、本実施形態における情報認識装置100は、画像から抽出された少なくとも一つの所定の領域のうち、使用者に着目されていると特定されている領域に含まれる情報を認識する。使用者が着目していない情報の認識が行われることは、使用者にとって価値がない場合がある。また、必ずしも必要としていない多数の情報が提示されることで、使用者が煩わしさを感じる可能性がある。これに対して、本実施形態における情報認識装置100は、その使用者が必要としている情報のみを認識して使用者に提供することを可能とする。したがって、本実施形態における情報認識装置100は、使用者が必要とする情報を明瞭に提示することができる。
また、本実施形態における情報認識装置100は、上述した所定の領域のうち、使用者に着目されていると特定されない領域に含まれる情報の認識を行わなくともよい。すなわち、本実施形態における情報認識装置100では、抽出部110にて用いられる画像の一部に対して認識部130にて認識が行われる。したがって、本実施形態における情報認識装置100は、処理能力の低い情報処理装置等を用いて実現されることが可能となる。
(本実施形態における情報認識装置を有するナビゲーションシステムの例)
続いて、本実施形態における情報認識装置100を有するナビゲーションシステム10の例を説明する。
上述のように、ナビゲーションシステム10は、情報認識装置100と、撮像部11と、検知部12と、出力部13とを有する。撮像部11は、画像を撮像する。検知部12は、使用者の動作を検知する。出力手段部は、情報認識装置が備える抽出部110にて抽出された少なくとも一つの所定の領域に関する情報と、情報認識装置100が備える認識部130にて認識された情報とを少なくとも出力する。
撮像部11は、ナビゲーションシステム10の使用者の周囲の画像を撮像する。撮像部11は、CMOS(Complementary metal−oxide−semiconductor)やCCD(Charge Coupled Device)等の撮像素子を備えた任意のカメラにて実現される。
撮像部11は、使用者の視線と同期して使用者が向く方向を撮像する構造、又は、撮像する方向を使用者の視線と同期する構造を有することが好ましい。一例として、撮像部11は、使用者の頭部に装着される構成とされる。また、撮像部11は、ズームやオートフォーカス等の機構、又は使用者の視線や使用者が向く方向と異なる方向へ視界を変更可能とする機構等を備えているが好ましい。撮像部11がこれらの構造や機構を備えることで、情報認識装置100において、使用者が必要とする情報を精度よく認識することが可能となる。
撮像部11にて撮像された画像は、情報認識装置100における各構成要素にて用いられる。
検知部12は、ナビゲーションシステム10の使用者の動作を検知する。検知部12は、例えば、使用者の動きを検出する加速度センサ等の任意の種類のセンサや、使用者の視線を検出するセンサ等を用いて実現される。また、検知部12は、撮像部11にて撮像されている画像に基づいて使用者の動作を検知してもよい。例えば、撮像部11にて撮像される画像の時間的な変化に基づいて、検知部12は、使用者の動作を検知してもよい。
この他に、後述する出力部13が例えばタッチパネル式の表示装置等であれば、そのタッチパネルが検知部12として用いられてもよい。すなわち、検知部12は、タッチパネルへの入力動作に基づいて、使用者の動作を検知してもよい。この場合には、例えば出力部13が複数の文字を表示している場合に、検知部12は、いずれの文字が指定されているかを検知する。
検知部12にて検知された使用者の動作は、情報認識装置100における特定部120にて、少なくとも一つの所定の領域から使用者に着目されている領域を特定する場合に用いられる。
なお、検知部12として、複数のセンサ等が組み合わせて用いられてもよい。この場合には、検知部12として、同一の種類のセンサが組み合わせて用いられてもよいし、上述した異なる種類のセンサ等が組み合わせて用いられてもよい。情報認識装置100における特定部120は、検知部12として用いられる複数のセンサ等にて検知された使用者の動作に基づいて、使用者に着目されている所定の領域を特定する。
出力部13は、情報認識装置100が備える抽出部110にて抽出された所定の領域に関する情報と、情報認識装置100が備える認識部130にて認識された情報等を出力する。すなわち、出力部13は、図3(A)から図3(C)の各々に示されているような形式にて、上述した情報等を出力する。
出力部13としては、例えば、点字を表示できるような任意の装置が用いられる。出力部13は、視覚障害の程度によっては、一般的な液晶ディスプレイ等のディスプレイで実現されてもよい。また、出力部13は、音声を発する構成を備えてもよい。すなわち、出力部13は、所定の領域に関する情報や、使用者が着目する領域に含まれる情報を音声にて出力してもよい。出力部13は、使用者の視覚その他の状態に応じて、適切な装置が用いられる。
なお、ナビゲーションシステム10においては、情報認識装置100は、例えばスマートフォンやタブレット等をはじめとする携帯端末にて実現される。この場合には、情報認識装置100は、これらの携帯端末に備えられているCPUにて実行されるアプリケーションとして実現されてもよい。また、当該携帯端末に備えられているディスプレイやスピーカーが出力部13として用いられる。そして、当該携帯端末に備えられている加速度センサ等が検知部12として用いられる。
また、情報認識装置100は、使用者が携帯可能な大きさである専用の端末装置等として実現されてもよい。
以上のように、本実施形態におけるナビゲーションシステム10は、情報認識装置100を備える。したがって、ナビゲーションシステム10は、情報認識装置10と同様に、利用者が必要とする情報を明瞭に提示することができる。
(第1の実施形態の変形例)
本実施形態における情報認識装置100やナビゲーションシステム10には、種々の変形例が考えられる。
本実施形態において、認識部130にて行われる所定の領域に含まれる情報の認識は、情報認識装置100の外部に設けられているサーバ等で実行されてもよい。この場合には、情報認識装置100は、図5に示すように、外部の装置との通信を行う通信部140を備えてもよい。通信部140は、外部の装置にて処理が実行される場合に、所定の必要となる情報の送受信を行う。通信部140は、例えば使用者が任意の場所にて情報認識装置100等を利用できるよう、無線にて情報の送受信を行う。
この変形例において、認識部130は、通信部140を介して所定の領域に含まれる情報を上述したサーバ等に送信し、かつ、上述したサーバ等にて実行された認識の結果を、通信部140を介して受信する。そして、認識部130は、当該受信した認識の結果を外部へ適宜出力する。
また、通信部140に代えて、又は通信部140と共に、ナビゲーションシステム10が通信部140に相当する構成を備えてもよい。
このような構成とすることで、情報認識装置100の認識部130等にて行われる処理を削減することが可能となる。その結果、情報認識装置100に対して要求される性能を低くすることが可能となる。
なお、本変形例においては、抽出部110又は特定部120にて行われる処理が、外部のサーバ等で実行されてもよい。この場合には、通信部140は、これらの処理にて必要となる情報の送受信を行う。
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。図6は、本発明の第2の実施形態における情報認識装置の構成を示す図である。
図6に示すように、本発明の第2の実施形態における情報認識装置200は、抽出部110と、特定部120と、認識部130と、調整部150とを備える。抽出部110、特定部120及び認識部130は、それぞれ本発明の第1の実施形態における情報認識装置100に含まれる要素と同様の構成を備える。調整部150は、特定部120にて特定された所定の領域について、画像に関する調整を行う。
また、本発明の第1の実施形態と同様にして、本実施形態における情報認識装置200を用いるナビゲーションシステム10が構成される。
調整部150は、特定部120にて特定された所定の領域について、認識部130における認識の精度が高まるように当該領域の画像に関する調整を行う。すなわち、調整部150は、認識の対象である所定の領域が明確になった画像を得るように画像に関する調整を行う。
調整部150は、一例として、ナビゲーションシステム10が備える撮像部11の動作を制御する。すなわち、調整部150は、特定部120にて特定された所定の領域を撮影するように、撮像部11を制御する。例えば、調整部150は、所定の領域が明確に撮像されるように撮像部11のレンズをズームするよう制御する。また、調整部150は、所定の領域に対してピントが合うように撮像部11のフォーカスを制御する。この場合には、認識部130は、調整部150にて撮像部11が調整された後に新たに撮像された画像を用いて、所定の領域に含まれる情報を認識する。調整部150がこのような制御を行うことで、撮像部11にて性能の高い撮像素子やレンズ等が用いられていない場合であっても、認識部130は、高い精度で所定の領域に含まれる情報の認識を行うことが可能となる。
また、調整部150は、認識部130にて認識が容易に行われるように、特定部120にて特定された所定の領域に関する画像処理を行ってもよい。例えば、調整部150は、文字や物体等の当該所定の領域の内容に応じて、その内容を明確にするような任意の画像処理を実行する。調整部150がこのような処理を行うことで、撮像部11がズーム等の複雑な機構を備えていない場合であっても、認識部130は、高い精度で所定の領域に含まれる情報の認識を行うことが可能となる。
なお、調整部150は、ナビゲーションシステム10が備える撮像部11にて新たに撮像された画像に関して画像処理を行ってもよいし、抽出部110にて用いられた画像に対して画像処理を行ってもよい。いずれの場合においても、このようにすることで、認識部130は、認識の対象となる所定の領域が明確に表された画像を用いて、認識を行うことが可能となる。
以上のように、本発明の第2の実施形態における情報認識装置200は、調整部150を備える。調整部150は、ナビゲーションシステム10が備える撮像部11の動作を制御する等を行って、特定部120にて特定された所定の領域について、画像に関する調整を行う。このようにすることで、認識部130は、認識の対象である所定の領域が明確になった画像を用いて、当該所定の領域に含まれる情報の認識を行う。したがって、本実施形態における情報認識装置200は、当該所定の領域に含まれる情報を高い精度で認識することができる。また、本実施形態における情報認識装置200を有するナビゲーションシステム10は、本実施形態における情報認識装置200と同様の効果を奏する。
なお、本発明の第1の実施形態における情報認識装置100の変形例は、本実施形態における情報認識装置200においても適宜組み合わせて用いられる。
以上、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。また、各実施形態における構成は、本発明のスコープを逸脱しない限りにおいて、互いに組み合わせることが可能である。
10 ナビゲーションシステム
11 撮像部
12 検知部
13 出力部
100、200 情報認識装置
110 抽出部
120 特定部
130 認識部
140 通信部
150 調整部
500 情報処理装置
501 CPU
502 ROM
503 RAM
504 プログラム
505 記憶装置
506 記録媒体
507 ドライブ装置
508 通信インターフェース
509 ネットワーク
510 入出力インターフェース
511 バス

Claims (10)

  1. 画像に含まれる少なくとも一つの所定の領域を抽出する抽出手段と、
    使用者の動作に関する情報に基づいて、前記少なくとも一つの所定の領域のうち、前記使用者に着目されている領域を特定する特定手段と、
    前記特定手段にて特定された前記所定の領域に含まれる情報を認識する認識手段とを備える、情報認識装置。
  2. 前記抽出手段は、予め定めら得た色に基づいて、前記少なくとも一つの所定の領域を抽出する、請求項1に記載の情報認識装置。
  3. 前記抽出手段は、予め定められた形状に基づいて、前記少なくとも一つの所定の領域を抽出する、請求項1又は2に記載の情報認識装置。
  4. 前記特定手段は、前記使用者が前記少なくとも一つの所定の領域を指し示す動作に関する情報に基づいて、前記使用者に着目されている領域を特定する、請求項1から3のいずれか一項に記載の情報認識装置。
  5. 前記特定手段は、前記使用者が歩行しているか否かを示す動作に関する情報に基づいて、前記使用者に着目されている領域を特定する、請求項1から4のいずれか一項に記載の情報認識装置。
  6. 前記特定手段にて特定された前記少なくとも一つの所定の領域について、前記画像に関する調整を行う調整手段を備える、請求項1から5のいずれか一項に記載の情報認識装置。
  7. 請求項1から6のいずれか一項に記載の情報認識装置と、
    前記画像を撮像する撮像手段と、
    前記使用者の動作を検知する検知手段と、
    前記情報認識装置が備える前記抽出手段にて抽出された前記少なくとも一つの所定の領域に関する情報と、前記情報認識装置が備える前記認識手段にて認識された情報とを少なくとも出力する出力手段とを備える、ナビゲーションシステム。
  8. 前記情報認識装置の前記調整手段は、前記撮像手段の動作を制御して前記画像に関する調整を行う、請求項7に記載のナビゲーションシステム。
  9. 画像に含まれる少なくとも一つの所定の領域を抽出し、
    使用者の動作に関する情報に基づいて、前記少なくとも一つの所定の領域のうち、前記使用者に着目されている領域を特定し、
    特定された前記所定の領域に含まれる情報を認識する、情報認識方法。
  10. コンピュータに、
    画像に含まれる少なくとも一つの所定の領域を抽出する処理と、
    使用者の動作に関する情報に基づいて、前記少なくとも一つの所定の領域のうち、前記使用者に着目されている領域を特定する処理と、
    前記特定手段にて特定された前記所定の領域に含まれる情報を認識する処理とを実行させる、プログラム。
JP2015064216A 2015-03-26 2015-03-26 情報認識装置、ナビゲーションシステム、ナビゲーション方法及びプログラム Pending JP2016184089A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015064216A JP2016184089A (ja) 2015-03-26 2015-03-26 情報認識装置、ナビゲーションシステム、ナビゲーション方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015064216A JP2016184089A (ja) 2015-03-26 2015-03-26 情報認識装置、ナビゲーションシステム、ナビゲーション方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2016184089A true JP2016184089A (ja) 2016-10-20

Family

ID=57241865

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015064216A Pending JP2016184089A (ja) 2015-03-26 2015-03-26 情報認識装置、ナビゲーションシステム、ナビゲーション方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2016184089A (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001318594A (ja) * 2000-05-11 2001-11-16 Kumamoto Technopolis Foundation 視覚障害者用歩行支援システムおよび情報記録媒体
JP2005182306A (ja) * 2003-12-17 2005-07-07 Denso Corp 車両用表示装置
JP2006172215A (ja) * 2004-12-16 2006-06-29 Fuji Photo Film Co Ltd 運転支援システム
JP4939316B2 (ja) * 2007-06-20 2012-05-23 パイオニア株式会社 停止判断装置、ナビゲーション装置、停止判断方法、停止判断プログラムおよび記録媒体
JP2012154669A (ja) * 2011-01-24 2012-08-16 Clarion Co Ltd 車載装置とそのバイアス学習方法
WO2013161028A1 (ja) * 2012-04-26 2013-10-31 パイオニア株式会社 画像表示装置、ナビゲーション装置、画像表示方法、画像表示プログラム、及び記録媒体

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001318594A (ja) * 2000-05-11 2001-11-16 Kumamoto Technopolis Foundation 視覚障害者用歩行支援システムおよび情報記録媒体
JP2005182306A (ja) * 2003-12-17 2005-07-07 Denso Corp 車両用表示装置
JP2006172215A (ja) * 2004-12-16 2006-06-29 Fuji Photo Film Co Ltd 運転支援システム
JP4939316B2 (ja) * 2007-06-20 2012-05-23 パイオニア株式会社 停止判断装置、ナビゲーション装置、停止判断方法、停止判断プログラムおよび記録媒体
JP2012154669A (ja) * 2011-01-24 2012-08-16 Clarion Co Ltd 車載装置とそのバイアス学習方法
WO2013161028A1 (ja) * 2012-04-26 2013-10-31 パイオニア株式会社 画像表示装置、ナビゲーション装置、画像表示方法、画像表示プログラム、及び記録媒体
JPWO2013161028A1 (ja) * 2012-04-26 2015-12-21 パイオニア株式会社 画像表示装置、画像表示方法、画像表示プログラム、及び記録媒体

Similar Documents

Publication Publication Date Title
US10592763B2 (en) Apparatus and method for using background change to determine context
US10265218B2 (en) Object recognition and presentation for the visually impaired
US9807300B2 (en) Display apparatus for generating a background image and control method thereof
KR101603017B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
US9912859B2 (en) Focusing control device, imaging device, focusing control method, and focusing control program
JP5765019B2 (ja) 表示制御装置、表示制御方法、およびプログラム
EP3407302B1 (en) Information processing device, information processing method, and recording medium
CN109684980B (zh) 自动阅卷方法及装置
KR102560689B1 (ko) Ar 객체를 표시하기 위한 장치 및 방법
US9536161B1 (en) Visual and audio recognition for scene change events
US9529428B1 (en) Using head movement to adjust focus on content of a display
CN103916592A (zh) 用于在具有照相机的便携式终端中拍摄肖像的设备和方法
KR102443214B1 (ko) 영상처리장치 및 그 제어방법
US20140112554A1 (en) User recognition and confirmation device and method, and central control system for vehicles using the same
JP2012103789A (ja) オブジェクト表示装置及びオブジェクト表示方法
Jain et al. Visual assistance for blind using image processing
EP3381180B1 (en) Photographing device and method of controlling the same
KR20200076170A (ko) 스마트 안경을 이용한 시각 장애인 보조 시스템 및 방법
US20180220066A1 (en) Electronic apparatus, operating method of electronic apparatus, and non-transitory computer-readable recording medium
US9262689B1 (en) Optimizing pre-processing times for faster response
KR101360999B1 (ko) 증강현실 기반의 실시간 데이터 제공 방법 및 이를 이용한 휴대단말기
US20140176689A1 (en) Apparatus and method for assisting the visually impaired in object recognition
JP2013038454A (ja) 画像処理装置および方法、並びにプログラム
KR20150086840A (ko) 복수개의 카메라를 이용한 휴대 장치 및 제어방법
EP2831702B1 (en) Information processing device, information processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191010

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200324