JP6605442B2 - 情報提供装置および情報提供方法 - Google Patents

情報提供装置および情報提供方法 Download PDF

Info

Publication number
JP6605442B2
JP6605442B2 JP2016253721A JP2016253721A JP6605442B2 JP 6605442 B2 JP6605442 B2 JP 6605442B2 JP 2016253721 A JP2016253721 A JP 2016253721A JP 2016253721 A JP2016253721 A JP 2016253721A JP 6605442 B2 JP6605442 B2 JP 6605442B2
Authority
JP
Japan
Prior art keywords
emotion
user
unit
information
information providing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016253721A
Other languages
English (en)
Other versions
JP2018106528A (ja
Inventor
里志 羽根田
誠 山村
貴正 宇田川
聖 小野寺
隆一 木全
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2016253721A priority Critical patent/JP6605442B2/ja
Priority to CN201780080899.4A priority patent/CN110114740B/zh
Priority to US16/473,290 priority patent/US10839663B2/en
Priority to PCT/JP2017/044776 priority patent/WO2018123600A1/ja
Priority to EP17888025.8A priority patent/EP3550452A4/en
Publication of JP2018106528A publication Critical patent/JP2018106528A/ja
Application granted granted Critical
Publication of JP6605442B2 publication Critical patent/JP6605442B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B7/00Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00
    • G08B7/06Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00 using electric transmission, e.g. involving audible and visible signalling through the use of sound and light sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、生物に関する情報をユーザが容易に認識可能な態様で提供する情報提供装置および情報提供方法に関する。
従来より、撮影画像に含まれる動物や植物等の生物に関する情報をユーザに提供するようにした装置が知られている(例えば特許文献1参照)。この特許文献1記載の装置では、予め撮影された撮影画像のうちのユーザにより指定された領域内に存在する生物の特徴部を抽出し、その特徴部から図鑑データベースを参照して生物を特定し、特定された生物に対応する情報をユーザ端末に出力する。
特開2015−80154号公報
ところで、例えば屋外においてユーザが有害な生物に遭遇した場合には、その有害性の情報をユーザが容易に認識可能な態様で提供することが好ましいが、上記特許文献1記載の装置は、この点について何ら提案するものではない。
本発明の一態様は、ユーザの近傍に位置またはユーザが装着する機器を用いてユーザに生物に関する情報を提供する情報提供装置であり、外界の生物を認識する生物認識部と、生物認識部で認識された生物の有害度を検知する有害度検知部と、有害度検知部により検知された有害度に応じて、機器が有すると想定される感情を生成する感情生成部と、感情生成部で生成された感情をユーザが認識可能な態様で出力する感情出力部と、を備える。
本発明の他の態様は、ユーザの近傍に位置またはユーザが装着する機器を用いてユーザに生物に関する情報を提供する情報提供方法であり、コンピュータによりそれぞれ実行される、外界の生物を認識する生物認識ステップと生物認識ステップで認識された生物の有害度を検知する有害度検知ステップと有害度検知ステップで検知された有害度に応じて、機器が有すると想定される感情を生成する感情生成ステップと感情生成ステップで生成された感情をユーザが認識可能な態様で出力する感情出力ステップと、を含む。
本発明によれば、生物の有害性の情報をユーザが容易に認識可能な態様で提供することができる。
本発明の第1の実施形態に係る情報提供装置を構成する機器の一例であるウェアラブル機器の概略構成を示す斜視図。 図1の情報提供装置の概略構成を示すブロック図。 図2の制御ユニットで実行される処理の一例を示すフローチャート。 本発明の第2の実施形態に係る情報提供装置を構成する機器の一例である作業機の概略構成を示す側面図。 図4の情報提供装置の概略構成を示すブロック図。 図4の作業機により作業を行う作業領域の一例を示す平面図。 作業機と処理装置とにより情報提供装置を構成する例を示す図。
−第1の実施形態−
以下、図1〜図3を参照して本発明の第1の実施形態について説明する。図1は、本発明の第1の実施形態に係る情報提供装置100を構成する機器の一例であるウェアラブル機器1の概略構成を示す斜視図である。この情報提供装置100は、外界の生物を認識し、その生物の有害度に応じた情報を、機器を介してユーザに提供するものである。
図1に示すように、ウェアラブル機器1は、ユーザの頭部に装着される眼鏡型のフレーム2と、フレーム2に取り付けられる左眼用および右眼用の一対の表示部3とを有し、全体が眼鏡型に形成される。なお、フレーム2には、カメラ、マイク、スピーカ、通信ユニットおよびコントロールユニット等も取り付けられる(図2参照)。
表示部3は、ウェアラブル機器1が装着された状態において、ユーザの眼の直前、すなわち一般的な眼鏡のレンズの位置に配置される。表示部3には、例えば透過型のカラー液晶パネルが用いられ、その透過率を制御することで透明または半透明の透過状態とすることができる。表示部3を透過状態とすることで、ユーザは、一般の眼鏡と同様、表示部3を通して周囲を直接視認することができ、ユーザ自身が直接生物を観察できる。
表示部3には、ユーザの視界に重ね合わせて各種情報を表示することができる。例えばウェアラブル機器1が有すると想定される感情(機器感情)を、キャラクターの画像を用いて表示することができる。表示部3には、カメラやマイクにより認識された生物に関する情報を表示することもできる。
図2は、図1の情報提供装置100の概略構成を示すブロック図である。図2に示すように、制御ユニット10には、表示部3の他、入力部4と、カメラ5と、マイク6と、スピーカ7と、通信ユニット8とが接続される。なお、図示は省略するが、ウェアラブル機器1には電源部等も設けられる。
入力部4は、ユーザにより操作される各種操作部材、例えば電源のオンやウェアラブル機器1の設定等を行う各種スイッチを含む。入力部4を介して、ウェアラブル機器1が使用される地域(例えば国名や県名)、周囲の環境(例えば田畑、川、海など)、季節や気候等の使用条件を設定することができる。
カメラ5は、CCDセンサやCMOSセンサ等の撮像素子を有し、例えば表示部3の上部に、ユーザの視線と一致するように外向きに取り付けられる。このため、カメラ5は、表示部3を介したユーザの視界に相当する範囲の撮影画像を取得する。
マイク6は、ユーザの発話した音声を取得する。マイク6を介して入力された音声信号は、制御ユニット内の図示しない音声認識部で処理され、ユーザの発話した内容が認識される。
スピーカ7は、例えばマイク6を介してユーザから音声出力の要求があったとき、その要求に応答してユーザに音声を出力する。スピーカ7は、ユーザからの音声出力の要求がなくても、制御ユニット10からの指令により自動的に音声を出力することもできる。スピーカ7は、機器感情に応じた音声を出力することができ、例えばユーザの耳に装着されるイヤホン型として構成することができる。
通信ユニット8は、例えば無線LANを介して、あるいはインターネット回線等の無線公衆回線を介して外部機器との間で通信を行うものである。
制御ユニット10は、CPU,ROM,RAM、その他の周辺回路などを有する演算処理装置を含んで構成される。制御ユニット10は、機能的構成として、生物情報記憶部11と、生物認識部12と、生物情報提供部13と、有害度検知部14と、感情生成部15と、感情出力部16とを有する。
生物情報記憶部11は、外界に存在する動物および植物等の生物に関する情報(生物情報)を記憶するデータベースを構成する。記憶される生物情報には、生物の名称、種別、外観形状、鳴き声、生息域や分布域、有害度に関する情報(有害度情報)等が含まれる。有害度情報には、有害か無害かの情報だけでなく、その生物がどの程度有害であるかといった有害の程度を表す情報を含み、有害度情報は生物毎に記憶される。
有害度は例えばレベルA,B、Cの3段階に分類でき、レベルAが最も有害度が高く、レベルCが最も有害度が低い。具体的には、有毒な生物、または触れるとあるいは接近すると痛みを与えるような生物は、最も有害度が高いためレベルAに分類される。有毒ではなく痛みも与えないが、触れるとにおいや汚れがつくなどの悪影響を与える生物は、レベルBに分類される。レベルA,Bに分類されない他の生物は、無害である、あるいは有害度が小さいため、レベルCに分類される。換言すると、有害度が予め定めた閾値を越えると、有害度はレベルAまたはレベルBに分類され、有害度が閾値以下のとき、有害度はレベルCに分類され。
生物認識部12は、カメラ5とマイク6からの信号に基づいて、ユーザの近傍に存在する外界の生物を認識する。具体的には、カメラ5により取得された画像に、生物情報記憶部11に記憶された生物の外観に対応するものが含まれているか否か、およびマイク6により取得された音声(鳴き声)に、生物情報記憶部11に記憶された生物の音声に対応するものが含まれているか否かを、画像の特徴部と音声の特徴部とを抽出して判定する。この場合、入力部4を介して入力された現在地の情報(地域や環境など)や気候の情報等、ウェアラブル機器1の使用条件により、生物情報記憶部11からの検索対象に絞り込みをかけるようにすれば、生物の検索が容易となる。
生物情報提供部13は、生物認識部12で認識された生物に対応する情報を生物情報記憶部11から読み込み、表示部3に出力する。これにより、認識された生物の名称や種別等の生物情報が表示部3に表示され、生物情報をユーザに提供することができる。なお、生物情報を、スピーカ7を介して音声で出力することもできる。
有害度検知部14は、予め生物情報記憶部11に記憶された生物毎の有害度(レベルA,B,C)を参照し、生物認識部12で認識された生物の有害度を検知する。
感情生成部15は、有害度検知部14により検知された有害度に応じて、ウェアラブル機器1が有すると想定される感情(機器感情)を生成する。例えばPlutchikの感情の輪を用いて、機器感情を8つの基本感情(期待、喜び、受容、不安、驚き、悲しみ、嫌悪、怒り)と、隣り合う2つの感情の組み合わせによる応用感情とに分類し、感情の輪のいずれかのパターンに当てはめることで機器感情を生成する。具体的には、有害度がレベルCであるときは、喜びなどの好適な感情(快感情)を、有害度がレベルA,Bであるときは、嫌悪などの不快な感情(不快感情)を生成する。さらに、有害度がレベルAのときは、レベルBのときよりも不快感情の程度を強める。また、有害度がレベルCであり、かつ、珍しいあるいはかわいらしい生物が認識された場合には、快感情の程度を強める。
感情出力部16は、感情生成部15で生成された感情に応じて変化するキャラクター画像を表示部3に表示させる。すなわち、キャラクター画像に対応する画像信号を生成し、表示部3に出力する。キャラクター画像としては、人や動物等を模したキャラクターの表情のみを表す表情画像や、キャラクターの全身を表す全身画像を用いることができる。例えば快感情に対してはキャラクターの喜びの表情を示す表情画像を、不快感情に対してはキャラクターの嫌悪の表情を示す表情画像を、表示部3に表示させる。このとき、快感情が強いほど、キャラクターの喜びの表情を強調し、反対に、不快感情が強いほど、嫌悪の表情を強調して表示させる。
感情生成部15で生成された感情に応じて、キャラクター画像のデザインだけでなく色を変更してもよい。例えば感情生成部15で生成された不快感情が強いほど、警報としての意味を強めるために、画像の色を赤色に近づけるようにしてもよい。快感情を暖色系で、不快感情を寒色系で表示するようにしてもよい。この場合、快感情が強いほど暖色系の色を強め、不快感情が強いほど寒色系の色を強めるようにしてもよい。感情生成部15で生成された感情に応じて、点滅や点灯等、キャラクター画像の表示パターンを変更してもよい。
感情出力部16は、感情生成部15で生成された感情に応じた音声をスピーカ7から出力させることもできる。すなわち、感情に応じた音声信号を生成し、スピーカ7に出力することもできる。これにより、例えば有害度がレベルAである等、不快感情が所定レベルに達すると、スピーカ7から「危ない」などの音声やブザーなどの警報音を出力させることができる。
図3は、予め記憶されたプログラムに従い、制御ユニット10で実行される処理の一例を示すフローチャートである。このフローチャートに示す処理は、例えばウェアラブル機器1の電源オンにより開始される。
まず、ステップS1で、生物認識部12での処理により、カメラ5およびマイク6からの信号に基づいて、生物情報記憶部11の情報を参照することにより生物が認識されたか否かを判定する。ステップS1の処理は肯定されるまで繰り返され、ステップS1で肯定されると、ステップS2に進む。ステップS2では、認識された生物に対応する生物情報を生物情報記憶部11から読み込み、表示部3またはスピーカ7に出力する。
次いで、ステップS3で、ステップS1で認識された生物の有害度を生物情報記憶部11から読み込み、有害度を検知する。次いで、ステップS4で、検知された有害度に応じて、ウェアラブル機器1が有すると想定される機器感情(快感情、不快感情など)を生成する。次いで、ステップS5で、生成された感情に対応するキャラクター画像の画像信号を生成し、画像信号を表示部3に出力する。これにより表示部3にキャラクター画像が表示される。ステップS5では、生成された感情に対応する音声信号を生成し、これをスピーカ7に出力することもできる。
本実施形態に係る情報提供装置の動作の一例をより具体的に説明する。ウェアラブル機器1がユーザ(例えば子供)に装着されている状態において、ユーザが屋外で珍しい動物(虫など)や植物を発見すると、ウェアラブル機器1は、カメラ画像やマイク音声を介してその生物を認識し(ステップS1)、その生物に対応する生物情報を、表示部3あるいはスピーカ7を介してユーザに出力する(ステップS2)。これによりユーザは、その生物の名称や種別等を、実物を見ながら認識することができ、ウェアラブル機器1を学習道具として用いることができる。
このとき、認識された生物が有害なものであると、ウェアラブル機器1が有すると想定される不快感情(例えば嫌悪感)を表すキャラクター画像が表示部3に表示され、あるいは不快感情を表す音声がスピーカ7から出力される(ステップS5)。これによりユーザは、ステップS2で提供される生物情報を仮に認識しなくても、生物の有害性を容易に認識することが可能となる。特に、ユーザが子供である場合、ウェアラブル機器1の感情を、キャラクター画像等を用いて出力することで、子供は生物の有害性を直感的に認識可能となる。その結果、ユーザは生物に触れるなどの不適切な行為を避けるようになり、ウェアラブル機器1の有用性が高まる。すなわち、初めて目にする生物の有害性についての知識がない場合であっても、ユーザは安心して屋外で行動することができる。
一方、例えば認識された生物が無害であり、かつ、かわいらしい生物であると、ウェアラブル機器1が有する仮想の快感情(例えば喜び)を表すキャラクター画像が表示部3に表示され、あるいは快感情を表す音声がスピーカ7から出力される(ステップS5)。これによりユーザは、ウェアラブル機器1と快感情を共有するようになり、ユーザの機器1に対する満足度が高まる。
本実施形態によれば以下のような作用効果を奏することができる。
(1)情報提供装置100は、ユーザが装着するウェアラブル機器1を用いてユーザに生物に関する情報を提供する(図1)。この情報提供装置100は、外界の生物を認識する生物認識部12と、生物認識部12で認識された生物の有害度を検知する有害度検知部14と、有害度検知部14により検知された有害度に応じて、ウェアラブル機器1が有すると想定される感情を生成する感情生成部15と、感情生成部15で生成された感情をユーザが認識可能な態様で出力する感情出力部16と、を備える(図2)。この構成により、ユーザが有害な生物に遭遇した場合に、ユーザに伝達されるウェアラブル機器1の感情が変化するため、生物の有害性の情報をユーザが容易に認識可能な態様で提供することができる。
(2)ウェアラブル機器1は表示部3を有する(図1)。感情出力部16は、感情生成部15で生成された感情に応じて変化するキャラクター画像を表示部3に表示させる(ステップS5)。このため、ユーザは年齢に拘らず、キャラクター画像の表情の変化等を見ながら、生物の有害性を容易に認識することができる。
(3)ウェアラブル機器1はスピーカ7を有する(図2)。感情出力部16は、感情生成部15で生成された感情に応じた音声をスピーカ7から出力させる(ステップS5)。これにより、簡易な構成によって、ユーザは生物の有害性を即座に判断することが可能となる。
(4)感情生成部15は、有害度検知部14により閾値を超える有害度が検知されると、すなわちレベルAまたはレベルBの有害度が検知されると、嫌悪的な機器感情を生成する(ステップS4)。このように有害度が高いときに嫌悪的な機器感情を生成することで、生物の有害度と機器感情とが良好に対応付けられ、ユーザは機器感情を介して生物の有害度を良好に認識することができる。
(5)情報提供装置100は、生物認識部12で認識された生物の情報を提供する生物情報提供部13をさらに備える(図2)。これによりユーザは初めて目にする生物の種別等を把握することができ、ウェアラブル機器1を学習道具として好適に用いることができる。
(6)ウェアラブル機器1には、カメラ5とマイク6とが設けられる(図2)。これによりウェアラブル機器1(生物認識部12)は、外観形状や鳴き声等からユーザの近傍に存在する生物を認識することが可能となる。
(7)情報提供装置100としてユーザに装着されるウェアラブル機器1を用いるので(図1)、ユーザの目や耳による生物の認識範囲とウェアラブル機器1による生物の認識範囲とを一致させることができ、生物の有害度等の情報をユーザに適切に提供することができる。
(8)ユーザが装着するウェアラブル機器1を用いてユーザに生物に関する情報を提供する情報提供方法として、外界の生物を認識し(ステップS1)、認識された生物の有害度を検知し(ステップS3)、検知された有害度に応じて、ウェアラブル機器1が有すると想定される感情を生成し(ステップS4)、生成された感情をユーザが認識可能な態様で出力するようにした(ステップS5)。これにより、生物の有害性の情報をユーザが容易に認識可能な態様で提供することができる。
−第2の実施形態-
図4〜図6を参照して本発明の第2の実施形態について説明する。以下では、第1の実施形態との相違点を主に説明する。第1の実施形態では、ウェアラブル機器1を用いてユーザに生物に関する情報を提供するようにしたが、第2の実施形態では、ユーザの近傍に位置する機器(例えばユーザの近傍で作業を行う作業機)を用いて、ユーザに生物に関する情報を提供する。
図4は、本発明の第2の実施形態に係る情報提供装置100Aを構成する機器の一例である作業機1Aの概略構成を示す側面図である。この作業機1Aは、作業領域を自律走行して芝刈り作業を行う芝刈り機である。
図4に示すように、作業機1Aは、車体21と、左右一対の前輪22および後輪23とを備え、ユーザ自身が手で持って搬送可能な重量および寸法を有する。一例を挙げると、作業機1Aの全長は500mm程度、全幅は300mm程度、高さは300mm程度である。車体21の底面からは、地面(芝地)GRに向けて回転軸24に支持された芝刈り用の円盤形状のブレード25が突設され、作業機1Aは、ブレード25の回転により、地面GRを走行しながら芝刈り作業を行うことができる。車体21の前端部には、車体21に搭載されたバッテリを充填するための充電端子26が設けられる。
図5は、図4の情報提供装置100Aの概略構成を示すブロック図である。なお、図5において、図2と実質的に同一の構成を有するものには同一の符号を付す。図5に示すように、作業機1Aは、ウェアラブル機器1(図2)と同様、制御ユニット10と、制御ユニット10にそれぞれ接続された表示部3、入力部4、カメラ5、マイク6、スピーカ7、および通信ユニット8とを有する。さらに作業機1Aは、制御ユニット10にそれぞれ接続されたセンサ群27、作業用アクチュエータ28、走行用アクチュエータ29、バッテリ31、および充電ユニット32を有し、これらは全て車体21に搭載される。なお、表示部3は、車体21の上面等、ユーザが見やすい位置に配置される。
センサ群27は、車幅方向に離間して配置された一対の磁気センサ27aを含み、磁気センサ27aにより磁界強度が検出される。なお、図示は省略するが、センサ群27は、作業機1Aの高さ方向の軸線回りに生じる角速度を検出するYawセンサ、作業機1Aに作用する加速度を検出するGセンサ、作業機1Aの方位を検出する方位センサ、作業機1Aと障害物との接触の有無を検出する接触センサ、左右の後輪23の車輪速を検出する車輪速センサ、作業機1Aの位置を検出するGPSセンサ、およびバッテリ31の残電圧を検出する電圧センサ等も含む。
作業用アクチュエータ28は、回転軸24に連結された電動モータにより構成され、作業用アクチュエータ28の駆動によりブレード25が回転駆動される。走行用アクチュエータ29は、左右の後輪23の左右内側に配置されて、左右の後輪23を独立に駆動する一対の電動モータにより構成される。左右の後輪23の回転に速度差を生じさせることで、作業機1Aは任意の方向に旋回することができる。バッテリ31は、作業機1Aの各電気部品に電力を供給するための電力源として用いられる。充電ユニット32は、充電端子26を介して供給された電力をバッテリ31に蓄電する。
制御ユニット10は、機能的構成として、生物情報記憶部11、生物認識部12、生物情報提供部13、有害度検知部14、感情生成部15、および感情出力部16の他、作業機制御部17を有する。作業機制御部17は、作業用アクチュエータ28と走行用アクチュエータ29とに制御信号を出力し、作業機1Aの動作を制御する。
以上のように構成された作業機1Aは、予め定められた作業領域内を自律走行して作業を行う。図6は、作業領域ARの一例を示す平面図である。作業領域ARは、予め庭に敷設(例えば地面から所定深さに埋設)されたエリアワイヤ33によって画定され、エリアワイヤ33により作業機1Aの走行範囲が規定される。エリアワイヤ33に電流が流されることで、作業領域ARに磁界が発生する。作業領域ARの磁界強度は、磁気センサ27aにより検出される。
磁界強度は、エリアワイヤ33からの距離に応じて変化する。制御ユニット10は、磁気センサ27aからの信号に基づき、作業機1Aがエリアワイヤ33に到達したか否かを判定する。そして、エリアワイヤ33に到達したと判定すると、走行用アクチュエータ29に制御信号を出力し、図6の矢印Aに示すように、作業機1Aを作業領域ARの内側に向けて旋回させ、これにより作業機1Aが作業領域AR内を自律走行する。このとき制御ユニット10は、作業用アクチュエータ28にも制御信号を出力し、これにより作業機1Aは、作業領域AR内を走行しながら自動的に芝刈り作業を行う。なお、エリアワイヤ33上には、バッテリ31を充電するための充電ステーション34が配置される。
なお、以上では、エリアワイヤ33を敷設して作業領域ARを設定するとともに、磁気センサ27aからの信号により作業機1A(制御ユニット10)が作業領域ARを認識しながら作業を行うようにしたが、作業領域の設定および認識の手法は上述したものに限らない。例えば、通信ユニット8を介して制御ユニット10がビーコン信号等を受信し、この受信信号を用いて作業領域を認識することにより、作業領域で作業を行うようにしてもよい。予め制御ユニット10のメモリに作業領域のマップを記憶し、GPSセンサ等により自位置を検出しながら、作業領域で作業を行うようにしてもよい。すなわち、エリアワイヤ33以外の作業領域設定部を用いて作業領域を設定するとともに、磁気センサ以外の位置検出器を用いて作業領域を認識し、作業を行うようにしても良い。
作業機1Aは、自律走行しながら作業を行う通常の作業モードとは別に、図6の矢印Bで示すように、カメラ5で検出されたユーザ200を追従して走行する追従走行モードで動作することができる。例えば追従走行モードにおいて、作業機1Aはカメラ5またはマイク6を介して生物を認識すると、その生物の有害度に応じた機器感情を生成する。そして、生物情報とともに機器感情に応じたキャラクター画像を表示部3に表示する。あるいは、機器感情に応じた音声をスピーカ7から出力する。これによりユーザ200は作業機1Aが有する機器感情を認識することができる。
このように第2の実施形態では、作業機1Aを用いて情報提供装置100Aを構成するとともに、作業領域ARを自律走行しながら芝刈り作業を行う芝刈り機を作業機1Aとして構成した。これにより、外界の生物の有害度に関する情報を、作業機1Aを介してユーザに最適に提供することができる。すなわち、作業機1Aは、屋外においてユーザの近傍で用いられるため、ユーザが発見した生物を作業機1Aは容易に認識することが可能である。したがって、作業機1Aが認識した生物の有害度に応じて作業機1Aの感情を生成し、この機器感情をキャラクター画像等の形態で出力することで、生物の有害性に関する情報をユーザは容易に認識することができる。
なお、上記第1の実施形態では、ユーザが装着する眼鏡型のウェアラブル機器1を用いてユーザに生物に関する情報を提供するようにしたが、ウェアラブル機器は眼鏡型に限らず、種々のもの(例えば腕時計型や首からぶら下げるタイプ等)を用いることができる。上記第2の実施形態では、ユーザの近傍で作業を行う作業機(芝刈り機)1Aを用いてユーザに生物に関する情報を提供するようにしたが、芝刈り機以外の作業機、あるいは作業機以外の走行可能な移動体を用いることもできる。すなわち、情報提供装置として、ユーザの近傍に位置またはユーザが装着する種々の機器を用いてユーザに生物に関する情報を提供することができる。
上記実施形態では、ウェアラブル機器1および作業機1A等の機器単体により情報提供装置100,100Aを構成したが、複数の機器を用いて情報提供装置を構成することもできる。図7は、その一例を示す図である。図7では、作業機1Aと処理装置101とにより情報提供装置100Bが構成される。処理装置101は、制御ユニット、記憶部、通信ユニット等を有し、作業機1Aと処理装置101とが通信ユニットを介して互いに無線通信可能に構成される。このような構成によれば、作業機1Aの制御ユニット10が必要に応じて処理装置101からデータを取得することができる。したがって、制御ユニット10の一部を処理装置101に設けることができ、制御ユニット10の構成を簡素化できる。なお、ウェアラブル機器1と処理装置101とにより情報提供装置を構成することもできる。
上記実施形態では、撮像装置としてのカメラ5と集音装置としてのマイク6からの信号に基づいて、生物認識部12が外界の生物を認識するようにしたが、生物認識部の構成はこれに限らない。例えばサーモグラフィや臭覚センサ等、他の検出器からの信号に基づいて外界の生物を認識するようにしてもよい。撮像装置や集音装置を、表示部を有する機器本体とは別に設けるようにしてもよい。上記実施形態では、予め生物情報記憶部11に記憶された情報に基づき、有害度検知部14が生物認識部12で認識された生物の有害度(レベルA〜レベルC)を検知するようにしたが、このようなレベルによらずに有害度を検知するようにしてもよく、有害度検知部の構成は上述したものに限らない。
上記実施形態では、有害度検知部14により検知された有害度に応じて感情生成部15がウェアラブル機器1や作業機1Aが有する感情を生成するようにしたが、有害度だけでなく、例えばユーザの年齢や性別等を考慮し、ユーザが喜ぶと想定される生物が認識された場合に、ユーザと共有しうる感情(快感情等)を生成するようにしてもよく、感情生成部の構成は上述したものに限らない。上記実施形態では、Plutchikの感情の輪を用いて機器感情を生成するようにしたが、感情の生成の手法はこれに限らない。例えば、単に不快感情(嫌悪的な感情)と他の感情(例えば快感情)の2パターンに機器感情を分類するようにしてもよい。
上記実施形態では、感情生成部15で生成された感情を表示部3およびスピーカ7に出力するようにしたが、ユーザが認識可能な出力するのであれば、表示部やスピーカ(音声出力部)以外に出力するようにしてもよく、感情出力部の構成は上述したものに限らない。上記実施形態では、機器感情に応じて変化するキャラクター画像を表示部3に表示させるようにしたが、機器感情に応じて変化する他の画像を表示するようにしてもよい。上記実施形態では、生物情報提供部13が生物認識部12で認識された生物の情報を提供するようにしたが、生物情報提供部を省略することもできる。
すなわち、以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態と変形例の1つまたは複数を任意に組み合わせることも可能である。
1 ウェアラブル機器、1A 作業機、3 表示部、5 カメラ、6 マイク、7 スピーカ、12 生物認識部、13 生物情報提供部、14 有害度検知部、15 感情生成部、16 感情出力部、100、100A、100B 情報提供装置

Claims (9)

  1. ユーザの近傍に位置またはユーザが装着する機器を用いてユーザに生物に関する情報を提供する情報提供装置であって、
    外界の生物を認識する生物認識部と、
    前記生物認識部で認識された生物の有害度を検知する有害度検知部と、
    前記有害度検知部により検知された有害度に応じて、前記機器が有すると想定される感情を生成する感情生成部と、
    前記感情生成部で生成された感情をユーザが認識可能な態様で出力する感情出力部と、を備えることを特徴とする情報提供装置。
  2. 請求項1に記載の情報提供装置において、
    前記機器は表示部を有し、
    前記感情出力部は、前記感情生成部で生成された感情に応じて変化するキャラクター画像を前記表示部に表示させることを特徴とする情報提供装置。
  3. 請求項1または2に記載の情報提供装置において、
    前記機器は音声出力部を有し、
    前記感情出力部は、前記感情生成部で生成された感情に応じた音声を前記音声出力部から出力させることを特徴とする情報提供装置。
  4. 請求項1〜3のいずれか1項に記載の情報提供装置において、
    前記感情生成部は、前記有害度検知部により閾値を超える有害度が検知されると、嫌悪的な感情を生成することを特徴とする情報提供装置。
  5. 請求項1〜4のいずれか1項に記載の情報提供装置において、
    前記生物認識部で認識された生物の情報を提供する生物情報提供部をさらに備えることを特徴とする情報提供装置。
  6. 請求項1〜5のいずれか1項に記載の情報提供装置において、
    前記生物認識部は、前記機器に設けられた撮像装置および集音装置の少なくとも1つを有することを特徴とする情報提供装置。
  7. 請求項1〜6のいずれか1項に記載の情報提供装置において、
    前記機器は、ユーザに装着されるウェアラブル機器であることを特徴とする情報提供装置。
  8. 請求項1〜6のいずれか1項に記載の情報提供装置において、
    前記機器は、作業領域を自律走行しながら作業を行う作業機であることを特徴とする情報提供装置。
  9. ユーザの近傍に位置またはユーザが装着する機器を用いてユーザに生物に関する情報を提供する情報提供方法であって、
    コンピュータによりそれぞれ実行される、
    外界の生物を認識する生物認識ステップと
    前記生物認識ステップで認識された生物の有害度を検知する有害度検知ステップと
    前記有害度検知ステップで検知された有害度に応じて、前記機器が有すると想定される感情を生成する感情生成ステップと
    前記感情生成ステップで生成された感情をユーザが認識可能な態様で出力する感情出力ステップと、を含むことを特徴とする情報提供方法。
JP2016253721A 2016-12-27 2016-12-27 情報提供装置および情報提供方法 Active JP6605442B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2016253721A JP6605442B2 (ja) 2016-12-27 2016-12-27 情報提供装置および情報提供方法
CN201780080899.4A CN110114740B (zh) 2016-12-27 2017-12-13 信息提供装置以及信息提供方法
US16/473,290 US10839663B2 (en) 2016-12-27 2017-12-13 Information providing apparatus and information providing method
PCT/JP2017/044776 WO2018123600A1 (ja) 2016-12-27 2017-12-13 情報提供装置および情報提供方法
EP17888025.8A EP3550452A4 (en) 2016-12-27 2017-12-13 INFORMATION PROVIDING DEVICE AND INFORMATION PROVIDING METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016253721A JP6605442B2 (ja) 2016-12-27 2016-12-27 情報提供装置および情報提供方法

Publications (2)

Publication Number Publication Date
JP2018106528A JP2018106528A (ja) 2018-07-05
JP6605442B2 true JP6605442B2 (ja) 2019-11-13

Family

ID=62708001

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016253721A Active JP6605442B2 (ja) 2016-12-27 2016-12-27 情報提供装置および情報提供方法

Country Status (5)

Country Link
US (1) US10839663B2 (ja)
EP (1) EP3550452A4 (ja)
JP (1) JP6605442B2 (ja)
CN (1) CN110114740B (ja)
WO (1) WO2018123600A1 (ja)

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000032361A1 (fr) * 1998-11-30 2000-06-08 Sony Corporation Robot, procede de commande de robot et support d'enregistrement de programme
JP3848076B2 (ja) * 1999-11-18 2006-11-22 株式会社東芝 仮想生物システム及び仮想生物システムにおけるパタン学習方法
JP2007003450A (ja) * 2005-06-27 2007-01-11 Fujinon Corp 有害生物検知装置および方法
JP4173901B2 (ja) 2006-05-19 2008-10-29 本田技研工業株式会社 車両周辺監視装置
US8340438B2 (en) * 2009-12-17 2012-12-25 Deere & Company Automated tagging for landmark identification
US9235990B2 (en) * 2011-11-25 2016-01-12 Honda Motor Co., Ltd. Vehicle periphery monitoring device
JP5809972B2 (ja) * 2011-12-28 2015-11-11 イカリ消毒株式会社 通信装置、通信方法およびプログラム
FR2995170B1 (fr) * 2012-08-28 2014-09-12 Eblatas Dispositif electronique pour equipement de plongee.
CN103530912A (zh) * 2013-09-27 2014-01-22 深圳市迈瑞思智能技术有限公司 一种具有情绪识别功能的考勤***及方法
JP2015080154A (ja) 2013-10-18 2015-04-23 株式会社ニコン 生物情報提供装置および生物情報提供システム
CN103697900A (zh) * 2013-12-10 2014-04-02 郭海锋 一种情感车载机器人通过增强现实进行危险预警的方法
CN103927350A (zh) 2014-04-04 2014-07-16 百度在线网络技术(北京)有限公司 基于智能眼镜的提示方法和装置
CN105632049B (zh) * 2014-11-06 2019-06-14 北京三星通信技术研究有限公司 一种基于可穿戴设备的预警方法和装置
KR20160057837A (ko) * 2014-11-14 2016-05-24 삼성전자주식회사 전자 기기의 사용자 인터페이스 표시 방법 및 장치
JP6527729B2 (ja) * 2015-03-20 2019-06-05 環境機器株式会社 画像処理装置及び画像処理プログラム
KR102320815B1 (ko) * 2015-06-12 2021-11-02 삼성전자주식회사 전자 장치 및 그 제어 방법
KR20170015112A (ko) * 2015-07-30 2017-02-08 삼성전자주식회사 자율 주행 차량 및 그의 동작 방법
EP3298874B1 (en) * 2016-09-22 2020-07-01 Honda Research Institute Europe GmbH Robotic gardening device and method for controlling the same

Also Published As

Publication number Publication date
CN110114740A (zh) 2019-08-09
JP2018106528A (ja) 2018-07-05
EP3550452A1 (en) 2019-10-09
WO2018123600A1 (ja) 2018-07-05
US10839663B2 (en) 2020-11-17
US20200143650A1 (en) 2020-05-07
CN110114740B (zh) 2022-10-18
EP3550452A4 (en) 2019-11-27

Similar Documents

Publication Publication Date Title
US9316502B2 (en) Intelligent mobility aid device and method of navigating and providing assistance to a user thereof
US10248856B2 (en) Smart necklace with stereo vision and onboard processing
Hu et al. An overview of assistive devices for blind and visually impaired people
EP2677982B1 (en) An optical device for the visually impaired
JP6959176B2 (ja) ビークルにおいて拡張現実を使用して準備完了度を維持しつつ用心度の低下を軽減するためのシステム及び方法
JP6798106B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20160078278A1 (en) Wearable eyeglasses for providing social and environmental awareness
US11148294B2 (en) Autonomously acting robot that maintains a natural distance
US20200206940A1 (en) Autonomously acting robot that stares at companion
WO2015108882A1 (en) Smart necklace with stereo vision and onboard processing
JP2017529521A (ja) 社会的且つ環境的認識を提供する装用可能イヤピース
EP3695888A1 (en) Privacy-sensitive consumer cameras coupled to augmented reality systems
WO2018123598A1 (ja) 感情改善装置および感情改善方法
US20200319472A1 (en) Information processing apparatus, information processing method, and program
Sharma et al. International journal of engineering sciences & research technology a review on obstacle detection and vision
JP2015066624A (ja) ロボット制御システム、ロボット制御プログラムおよび説明ロボット
JP6605442B2 (ja) 情報提供装置および情報提供方法
JP2007130691A (ja) コミュニケーションロボット
JP2019152953A (ja) 視覚支援装置
WO2020188626A1 (ja) 視覚支援装置
CN118235101A (zh) 利用个人移动***的增强现实增强的游戏性
JP2016022537A (ja) ロボット
Chaudhary et al. State of art on wearable device to assist visually impaired person navigation in outdoor environment
JP7247901B2 (ja) 移動体制御装置、移動体制御方法、およびプログラム
US20210298231A1 (en) Autonomous work machine, autonomous work setting method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191016

R150 Certificate of patent or registration of utility model

Ref document number: 6605442

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150