JP2004357915A - センシング玩具 - Google Patents

センシング玩具 Download PDF

Info

Publication number
JP2004357915A
JP2004357915A JP2003159593A JP2003159593A JP2004357915A JP 2004357915 A JP2004357915 A JP 2004357915A JP 2003159593 A JP2003159593 A JP 2003159593A JP 2003159593 A JP2003159593 A JP 2003159593A JP 2004357915 A JP2004357915 A JP 2004357915A
Authority
JP
Japan
Prior art keywords
sensing
toy
information
person
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003159593A
Other languages
English (en)
Inventor
Satoshi Sato
智 佐藤
Kazuo Nobori
一生 登
Shusaku Okamoto
修作 岡本
Yoshihiko Matsukawa
善彦 松川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2003159593A priority Critical patent/JP2004357915A/ja
Publication of JP2004357915A publication Critical patent/JP2004357915A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Toys (AREA)

Abstract

【課題】人に関する情報を、その人に違和感を与えることなく検出する一方で、その検出の確度の向上を図り、その検出結果を利用して人の生活環境を向上させるアプリケーションを実行する。
【解決手段】センシング対象に情報検出の実行を意識させることなく、センシング対象に対して情報検出の実行に関連する働きかけを行う働きかけ手段110 を備え、センシング手段120 は、センシング対象が、働きかけ手段110 による働きかけに応じることによって検出の確度が高まった状態になったときに、センシング対象に関する情報の検出を行う。
【選択図】 図1

Description

【0001】
【発明の属する技術分野】
本発明は、人に関する情報の検出を行う玩具に関する。
【0002】
【従来の技術】
従来より、一般家庭内において人の識別を行い、その識別結果に応じて家庭内の各機器の制御を行うシステムが知られている(例えば、特許文献1参照)。
【0003】
また、一般家庭用のロボットであって、顔認証により人の識別を行うロボットも知られている(例えば、特許文献2参照)。
【0004】
【特許文献1】
特開2002−278639号公報
【特許文献2】
特開2002−304629号公報
【0005】
【発明が解決しようとする課題】
このように近年、生活空間(人が活動を行う空間であって、一般家庭、オフィス、ホテル、店舗及び病院等を含む)において、人に関する情報を検出する要求が高まっている。ところが、こうした情報を検出するセンシング手段によって、情報の検出が行われることに対して、人は違和感を感じる場合がある。このため、違和感を与えることなく人に関する情報の検出を行いたいという要求がある。
【0006】
しかしながら、センシング手段による検出の確度(検出結果の確かさの度合い)を高めようとすれば、人は、センシング手段による検出が可能な状態となるように行動したり、検出の回数が増えるように行動したりする必要がある。例えば、接触型のセンシング手段によって情報の検出が行われるときには、人はそのセンシング手段を確実に触れなければならず、また例えばカメラで顔画像を撮像するときのように、非接触型のセンシング手段によって情報の検出が行われるときにも、カメラが顔を正面から捕らえるように、人が移動をしなければならない。このためセンシング対象である人は、情報の検出が行われることを意識せざるを得ない。
【0007】
従って、人に関する情報を検出する場合において、人の違和感の低減と、検出の確度の向上とは相反する要求となってしまう。
【0008】
本発明は、このような事情に鑑みてなされたものであり、その目的とするところは、人に関する情報を、その人に違和感を与えることなく検出する一方で、その検出の確度の向上を図ることにあり、さらには、その検出結果を利用して人の生活環境を向上させるアプリケーションを実行することにある。
【0009】
【課題を解決するための手段】
本発明のセンシング玩具は、人に関する情報の検出を行う玩具である。
【0010】
このセンシング玩具は、人に関する情報の検出を行うセンシング手段と、上記センシング手段のセンシング対象に情報検出の実行を意識させることなく、上記センシング対象に対して情報検出の実行に関連する働きかけを行う働きかけ手段と、を備える。そして、上記センシング手段は、上記センシング対象が、上記働きかけ手段による働きかけに応じることによって検出の確度が高まった状態になったときに、当該センシング対象に関する情報の検出を行う。
【0011】
この構成によると、働きかけ手段は、センシング対象に対して、情報検出の実行に関連する働きかけを行う。この働きかけは、センシング対象に情報検出の実行を意識させることがないものである。
【0012】
そして、上記センシング対象が、働きかけに応じることによって検出の確度が高まった状態になったときに、センシング手段は、そのセンシング対象に関する情報の検出を行う。
【0013】
センシング対象は働きかけ手段の働きかけに応じるだけであるため、センシング対象は情報検出の実行を意識しない。これにより、違和感の軽減が図られる。一方、センシング対象が働きかけに応じることによって検出の確度が高まった状態になるため、センシング手段により確実かつ精度よく情報が検出される。
【0014】
上記働きかけ手段は、センシング対象に対して、音、動作、表示による働きかけを行えばよい。
【0015】
本発明の他のセンシング玩具は、人に関する情報の検出を行うセンシング手段と、上記センシング手段のセンシング対象に情報検出の実行を意識させることなく、上記センシング手段のセンシング態様を変更させるセンシング態様変更手段と、を備える。そして、上記センシング態様変更手段は、上記センシング対象の行動予測に基づいて、該センシング対象が予測した行動をとったときに検出の確度が高まる位置に、上記センシング手段の位置を予め移動させる。
【0016】
この構成によると、センシング態様変更手段は、センシング対象の行動予測に基づいてセンシング手段の位置を移動させる。こうして、センシング対象に情報検出の実行を意識させることなく、センシング手段のセンシング態様が変更される。
【0017】
そして、上記センシング対象が予測された行動をとって、検出の確度が高まった状態になったときに、上記センシング手段が、そのセンシング対象に関する情報の検出を行う。
【0018】
このように、センシング対象は、情報検出のための行動をとる必要がなく、情報検出を意識せずに振舞っていれば、センシング玩具側がその行動を予測して検出の確度が高まる状態にする。このため、センシング対象は、情報検出の実行を意識することがないため、センシング対象の違和感が軽減される。一方、検出の確度が高まった状態で情報の検出が行われるため、確実かつ精度よく情報が検出される。
【0019】
上記センシング態様変更手段は、人の習慣に基づいてセンシング対象の行動を予測すればよい。
【0020】
上記センシング手段は、人の状態情報を検出し、上記センシング玩具は、該センシング手段による状態情報の検出結果に応じて設備の制御を行う制御手段をさらに備えてもよい。
【0021】
また、上記センシング手段は、人の識別情報を検出し、上記センシング玩具は、該センシング手段による識別情報の検出結果に基づいてセンシング対象の識別を行う識別手段をさらに備えてもよい。
【0022】
さらに、上記センシング玩具は、上記識別手段の識別結果に応じて、設備の制御を行う制御手段をさらに備えてもよい。
【0023】
上記センシング手段は、上記識別手段の識別結果を受けてセンシング対象の状態情報の検出を行うようにしてもよい。
【0024】
上記センシング手段は、所定の空間内における人の位置を検出した位置検出情報を受けて、当該人をセンシング対象に設定すればよい。
【0025】
上記センシング玩具は、センシング手段の検出結果を外部に送信する送信手段をさらに備えてもよい。
【0026】
本発明のさらに他のセンシング玩具は、人に関する情報の検出を行うセンシング手段と、上記センシング手段のセンシング対象に情報検出の実行を意識させることなく、上記センシング手段による検出の確度を高める確度向上手段とを備える。
【0027】
本発明のさらに他のセンシング玩具は、人に関する情報の検出を行うセンシング手段と、予め設定された行動プログラムに従って玩具行動の制御を行う制御手段と、を備え、上記センシング手段は、上記制御手段が玩具行動の制御を実行しているときに、人に関する情報の検出を行う。
【0028】
【発明の実施の形態】
以下、本発明の実施の形態について、図面を参照しながら説明する。
【0029】
−実施形態1−
本発明に係るセンシング玩具は、人に関する情報を検出するものであり、特に、一般家庭、オフィス、ホテル、店舗及び病院等の、人が活動を行う空間(生活空間)において、その生活空間内に存在する人をセンシング対象とする。このセンシング玩具が検出する人に関する情報としては、人の状態情報(例えば、体温、脈拍、感情等を含む)と、人の識別情報(認証処理によって人の識別を行うための情報であって、顔画像、虹彩画像、声紋データ等を含む)との2種類がある。こうして、センシング玩具によって検出された人に関する情報は、各種のアプリケーションに利用される。
【0030】
本実施形態では、一般家庭をセンシング玩具の行動範囲とし、以下では、その一般家庭内の空間(建物全体、又は建物内の特定の部屋)を家庭空間と呼ぶ。
【0031】
図1は、本実施形態に係るセンシング玩具100 の構成を示していて、このセンシング玩具100 には、センシング玩具100 のセンシング対象となる人の存在を検出するセンシング対象検出手段200 と、センシング玩具100 によって検出された情報に基づいて制御される設備300 とのそれぞれが接続されている。
【0032】
ここで、上記センシング玩具100 の構成について説明する前に、センシング対象検出手段200 及び設備300 について説明する。
【0033】
(センシング対象検出手段)
センシング対象検出手段200 は、センシング玩具100 の行動範囲(本実施形態では、家庭空間内)において、センシング玩具100 の検出対象(人)の存在を検出するものである。
【0034】
特定の空間内に存在する人を検出する一般的な方法として、カメラ画像を用いた背景差分法がある。センシング対象検出手段200 は、画像センサを用いるものに構成することができる。具体的に、画像センサを用いたセンシング対象検出手段200 は、部屋の天井や壁等に固定したカメラを備えていて、そのカメラが撮像したカメラ画像によって、室内の人や物の検出を行うように構成される。
【0035】
ここで、背景差分法とは、背景としてのモデル画像を予め用意しておき、現在のカメラ画像と上記モデル画像との差分を取ることによって、対象を検出する方法である。
【0036】
本システムにおけるセンシング対象検出手段200 は、家庭空間内の人の存在を検出することが目的であるため、モデル画像としては、家庭空間内の状況変動が少ない場合は、その家庭空間内に人が存在していないときに撮像した画像を用いればよい。尚、家庭空間内の状況変動が激しい場合は、所定の時間間隔を空けて撮影された複数の画像を平均して得られた画像を、モデル画像として用いればよい。
【0037】
具体的に、背景差分法による人の検出方法について、図2を参照しながら説明する。ここで、図2(a)はモデル画像の例を示す図であり、図2(b)はある時点でカメラが撮影した画像(入力画像)を示す図であり、図2(c)は、入力画像からモデル画像を差し引くことによって得られた背景差分画像の例を示す図である。図2(c)から分かるように、背景差分画像では、入力画像とモデル画像との差のある部分が浮き出てくる(同図の網掛け部分参照)。このため、その浮き出た部分(差分値部分)のみを取り出すことで家庭空間内に存在する人を検出することができる。こうして検出した人の、家庭空間内における位置は、そのカメラ画像における差分値部分の位置に基づいて、一般的な手法により演算することが可能である。
【0038】
尚、ここでは、センシング対象検出手段200 を、家庭空間内に設置したカメラによって構成したが、カメラは家庭空間に設置しなくても、その他の物(例えば本センシング玩具100 とは異なる玩具等)にカメラを設置することによって構成することも可能である。
【0039】
また、センシング対象検出手段200 を、センシング玩具100 にカメラを取り付けることによって構成してもよい。この場合は、センシング玩具100 が、対象検出手段200 を有することになる。
【0040】
また、センシング対象検出手段200 は、カメラ画像を利用したものに限らず、例えば赤外線センサ、温度センサ、音センサ等を用いて人の存在を検出するものとしてもよい。
【0041】
(設備)
センシング玩具100 の検出結果に応じて制御される設備300 としては、種々のものが存在する。例えば、家庭空間の空調を行う空調装置(いわゆるエアコンディショナーの他に、ストーブ等の暖房器具を含む)、家庭空間に設けられている窓の開閉を行う窓開閉装置、家庭空間内に音楽を流す音響装置、家庭空間内に各種の香りを拡げる芳香装置、電話やインターネットを介して外部との通信を行う通信装置、が一例として挙げられる。この設備300 の具体的な制御については後述する。
【0042】
(センシング玩具)
センシング玩具100 は、図1に示すように、センシング対象検出手段200 の検出結果を受けて、後述する各手段を制御する制御手段101 と、センシング対象に関する情報を検出するセンシング手段120 と、上記センシング手段120 の検出結果に基づいて人(センシング対象)の識別を行う識別手段103 と、上記センシング手段120 の検出結果に応じて上記設備300 の制御を行う設備制御手段104 と、センシング玩具100 自体を移動させる移動手段105 と、センシング玩具100 自体の動作を行う動作手段106 と、表示を行う表示手段107 と、音を出力する発音手段108 と、を備えている。
【0043】
上記動作手段106 、表示手段107 、発音手段108 及び制御手段101 によって、後述するように、センシング対象に対する働きかけを行う働きかけ手段110 が構成される。
【0044】
上記各手段について詳細に説明すると、上記動作手段106 は、各種の動作(発光を含む)を行うことによって、センシング対象に対する働きかけを行う手段であり、表示手段107 は、表示を行うことによって、センシング対象に対する働きかけを行う手段であり、発音手段108 は、音(言葉や音楽を含む)を出力することによって、センシング対象に対する働きかけを行う手段である。この発音手段108 は、各種の音声データを予め有していて、その音声データを選択して出力する構成としてもよいし、音声合成技術を利用して、波形合成を行うことにより種々の音声を出力する構成としてもよい。この発声手段が出力する音としては、後述するように「こっちをみて」や「こんにちわ」等の話言葉や、猫の鳴き声、クラクション音等がある。
【0045】
また、上記制御手段101 は、予め設定された行動プログラムに従って、上記動作手段106 、表示手段107 、及び発音手段108 を制御し、それによって、玩具行動の制御を行う。この玩具行動は、センシング玩具100 が玩具として行う行動であり、その行動自体は、センシング対象に対する働きかけの際の行動と略同じである。例えば、後述するように、人型の玩具150 やロボット型の玩具170 では、人に握手を求める動作や表示、「握手をして下さい」「こっちをみて」「こんにちわ」等の人への呼びかけに係る音声の出力、腕部を振る動作、はそれぞれ玩具行動の一例である。また、猫型の玩具160 では、「にゃーにゃー」という猫の鳴き声の出力、首・尾・脚を動かすことによる猫が人にじゃれるような動作、はそれぞれ玩具行動の一例である。さらに、車型の玩具180 やヘリコプター型の玩具190 における、「こっちを見て!」という文章の表示、クラクション音の出力、ヘッドライトの点灯・点滅、はそれぞれ玩具行動の一例である。
【0046】
上記制御手段101 は、こうした玩具行動を適宜のタイミングで実行する。従って、センシング対象に関する情報の検出を行わないときでも、センシング玩具の玩具行動は実行される。
【0047】
上記移動手段105 は、センシング玩具100 自体を移動させる手段であり、この移動手段105 は省略することが可能である。つまり、センシング玩具100 は移動するものであってもよいし、移動しないものであってもよい。
【0048】
こうしたセンシング玩具100 の外観形状は、種々のものを採用することができる。具体例としては、図3〜5に示す動物型玩具(図3は人型玩具、図4は猫型玩具、図5はロボット型玩具である)や、図6,7に示す乗り物型玩具(図6は車型玩具、図7はヘリコプター型玩具)が挙げられる。尚、センシング玩具100 の外観形状はこれに限るものではない。
【0049】
各図に示すセンシング玩具100 の構成について説明すると、図3に示す人型玩具150 は、頭部151 、胴部152 、2つの腕部153 、2つの脚部154 を備えている。移動手段105 は、脚部154 によって構成され、この玩具150 は2足歩行型に構成されている。動作手段107 は、頭部151 、腕部153 によって構成される。これにより、人型玩具150 は、腕を振ったり、センシング対象と握手したりする動作を行うように構成される。また、表示手段106 (表示部106a)が胴部152 に設けられ、発音手段108 (スピーカ108a)が頭部151 に設けられている。
【0050】
図4に示す猫型玩具160 は、頭部161 、胴部162 、4つの脚部163 、尾部164 を備えている。移動手段105 は脚部163 によって構成され、この玩具160 は4足歩行型に構成されている。動作手段107 は頭部161 、脚部163 及び尾部164 によって構成される。これにより、猫型玩具160 は、首をかしげたり、尾を振ったり、前後脚を動かしたりする動作を行うように構成される。また、発音手段108 (108a)が頭部161 に設けられている。尚、図例の猫型玩具160 では、表示手段106 が省略されている。
【0051】
図5に示すロボット型玩具170 は、頭部171 、胴部172 、腕部173 、無限軌道部174 (キャタピラ)を備えている。移動手段105 は無限軌道部174 によって構成され、動作手段107 は頭部171 、腕部173 によって構成されている。また、表示手段106 (106a)が胴部172 に設けられ、発音手段108 (108a)が頭部171 に設けられている。
【0052】
また、図6に示す車型玩具180 では、移動手段105 は、車輪181 によって構成され、動作手段107 は、玩具180 の前面に設けられた発光を行うヘッドライト182 によって構成される。この車型玩具180 では、表示手段106 はフロントガラス183 部分に設ければよい。例えばフロントガラス183 部分をCRTや液晶ディスプレイによって構成してもよいし、後述するように、フロントガラス183 をハーフミラーにして、このフロントガラス183 を投影機のスクリーンとしてもよい。また、発音手段108 は車体内部に設けられている。
【0053】
図7に示すヘリコプター型玩具190 では、移動手段105 は回転翼191 によって構成され、この玩具190 は、回転翼191 の駆動によって空中を飛行することで移動する。また、表示手段106 は、車型玩具180 と同様に、フロントガラス192 部分に設ければよい。また、発音手段108 は機体内に設けられている。尚、図例のヘリコプター型玩具190 では、動作手段107 は省略されている。
【0054】
このように、上記働きかけ手段110 を構成する動作手段105 、表示手段106 、発音手段107 は全て必要ではなく、センシング玩具100 の外観形状に応じて適宜省略すればよい。
【0055】
このセンシング玩具100 は、図8に示すように、家庭空間内に配置され、必要に応じて空間内を移動し、その空間内に存在する人に関する情報を検出する。
【0056】
センシング玩具100 において、家庭空間内に存在する人に関する情報の検出は、センシング手段120 及び働きかけ手段110 によって行われ、検出結果を利用したアプリケーションの実行は、設備制御手段104 及び働きかけ手段110 によって行われる。そこで先ず、センシング手段120 及び働きかけ手段110 による人に関する情報の検出の様々な形態について説明し、その後に、設備制御手段104 及び働きかけ手段110 による各種アプリケーションの実行について説明する。
【0057】
(人に関する情報の検出)
本実施形態に係るセンシング玩具100 が備えるセンシング手段120 は、接触型のセンシング手段121 と、非接触型のセンシング手段122 ,123 とに大別することができる。
【0058】
この内、接触型のセンシング手段121 は、センシング対象に触れることで、そのセンシング対象に関する情報を検出するものであり、この接触型のセンシング手段121 が検出するものとしては、人の体温、脈拍、接触した部分の湿り気、血圧、血糖値等の状態情報、及び指紋等の識別情報が一例として挙げられる。この内、血糖値の検出を行う接触型のセンシング手段121 は、人に接触しているときに微量の血液を採取して血糖値の検出を行うように構成すればよい。
【0059】
一方、非接触型のセンシング手段122 ,123 は、センシング対象に触れることなく、そのセンシング対象に関する情報を検出するものであり、画像センサ122 (カメラ)及び音センサ123 (マイクロフォン)が具体例として挙げられる。
【0060】
この内、画像センサ122 が検出する情報としては、人の顔画像、虹彩画像等が具体例として挙げられる。顔画像を状態情報として用いれば人の感情の検出や顔色の検出に利用することができる。また、顔画像を識別情報として用いれば、顔認証に利用することができる。
【0061】
音センサ123 が検出するものとしては、人の発声が挙げられる。こうして検出した人の発声は識別情報として、声紋認証に利用することができる。
【0062】
尚、非接触型のセンシング手段としては、人の手や指の静脈パターンを検出するものも挙げられる。こうして検出した静脈パターンは識別情報として、静脈認証に利用することができる。
【0063】
以下、接触型のセンシング手段121 によるセンシング対象に関する情報の検出手法と、非接触型のセンシング手段として、画像センサ122 によるセンシング対象に関する情報の検出手法と、音センサ123 によるセンシング対象に関する情報の検出手法とについて、説明する。
【0064】
(接触型のセンシング手段による検出手法)
センシング手段が接触型であるときには、センシング玩具100 の形態としては、図3に示す人型玩具150 や、図5に示すロボット型玩具170 を採用することができる。この場合に、接触型のセンシング手段121 は腕部153 ,173 (特に人の手に相当する部分)に設けることが好ましい。また、図4に示す猫型玩具160 を採用することも可能であり、この場合は、胴部162 (首の後ろや、あごの下、背中、お腹の位置)に、接触型のセンシング手段121 を設けることが好ましい。つまり、接触型のセンシング手段121 は、センシング玩具100 の形態に応じて、人が触れる確率の高い位置に配置することが好ましい。
【0065】
センシング手段が接触型であるときには、働きかけ手段110 は、センシング対象がセンシング手段121 を触れるようにこのセンシング対象に対する働きかけを行う。以下、腕部153 に接触型のセンシング手段121 を設けた人型(又はロボット型)のセンシング玩具150 による情報の検出手法について具体的に説明する。
【0066】
家庭空間内に人が存在するときには、センシング対象検出手段200 によってその人の存在が検出され、それと共に、その人の家庭空間内における位置が検出される。センシング対象検出手段200 は、その検出結果をセンシング玩具100 に送る。このときに送られるデータは、人の現在位置である。
【0067】
センシング玩具100 の制御手段101 は、センシング対象検出手段200 の検出結果を受けて、その人をセンシング対象に設定して、情報の検出を行う。そのために先ず、制御手段101 は移動手段105 の制御を行い、センシング玩具100 の位置がそのセンシング対象の近傍位置となるように、センシング玩具100 を移動させる。
【0068】
こうして、センシング対象の近傍位置まで移動をすれば、制御手段101 は、表示手段106 の制御を行い、胴部152 に設けた表示部106aに握手することを促す画像(例えば図9参照)を表示させる。尚、こうした画像に代えて「握手をして下さい」という文章を表示部106aに表示してもよい。また、制御手段101 は、発音手段108 の制御を行い、「握手をして下さい」という音声を出力させる。さらに、制御手段101 は、動作手段107 の制御を行い、図3に示すように、腕部153 を斜め前方に位置付けて握手を求めるような動作をさせる。このようにして働きかけ手段110 は、表示、音、動作によって握手をすることを促す働きかけを、センシング対象に対して行う。
【0069】
人型センシング玩具150 からのこうした働きかけを受けた人(センシング対象)は、人型玩具150 の、手に相当する部分を握る動作を行うことになる。これにより、センシング対象の手が腕部153 に設けられた接触型のセンシング手段121 と接触することになる。こうして、センシング手段121 は、検出の確度が高まった状態で、そのセンシング対象の体温、脈拍、手の湿り気、指紋、血圧、血糖値等を検出することが可能になる。
【0070】
一方、胴部162 に接触型のセンシング手段121 を設けた猫型のセンシング玩具160 では、制御手段101 は、発音手段108 の制御を行い、例えば「にゃーにゃー」という猫の鳴き声を出力させる。また、制御手段101 は動作手段107 の制御を行い、玩具160 の首、尾、脚を動かすことによって、猫が人にじゃれるような動作をさせる。
【0071】
働きかけ手段110 が、こうした音、動作による働きかけをセンシング対象に対して行うことにより、センシング対象が猫型玩具160 の胴部162 を撫でたりすることが期待される。これにより、センシング対象の手がその胴部162 に設けられた接触型のセンシング手段121 と接触することになり、そのセンシング手段121 は、検出の確度が高まった状態でそのセンシング対象に関する情報を検出することが可能になる。
【0072】
(画像センサによる検出手法)
センシング手段が画像センサ(カメラ122 )であるときには、センシング玩具100 の形態としては、図3〜7に示す人型150 、猫型160 、ロボット型170 、車型180 、ヘリコプター型190 のいずれの型も採用することができる。この内、人型、猫型、ロボット型玩具150 ,160 ,170 では、カメラ122は頭部151 ,161 ,171 (顔に相当する部分)に設けることが好ましい。
【0073】
また、車型やヘリコプター型玩具180 ,190 では、カメラ122 はフロントガラス183 ,192 の内側に設けることが好ましい。ここで、上記フロントガラス183 ,192 をハーフミラーにしたときには、図10に示すように、このフロントガラス183 ,192 を投影機400 のスクリーンとして利用する一方で、カメラ122 は、このフロントガラス183 ,192 を介して外部を撮像することが可能になる。
【0074】
センシング手段がカメラ122 であり、特にそのカメラ画像を顔認証や虹彩認証に利用するときには、働きかけ手段110 は、カメラ122 がセンシング対象の顔を正面から捕らえることができるように、そのセンシング対象に対する働きかけを行う。以下、頭部151 にカメラ122 を設けた人型のセンシング玩具150 による情報の検出手法について具体的に説明する。尚、ロボット型のセンシング玩具170 でも同様である。
【0075】
上述したように、家庭空間内に人が存在するときには、センシング対象検出手段200 によってその人の家庭空間内における位置が検出され、その検出結果は、センシング対象検出手段200 からセンシング玩具100 に送られる。
【0076】
センシング対象検出手段200 の検出結果を受けた制御手段101 は、その人をセンシング対象に設定しかつ、移動手段105 を制御することによって、センシング対象の近傍位置まで移動をする。そして、上記制御手段101 は発音手段108 の制御を行い、例えば「こっちをみて」や「こんにちわ」という音声を出力する。こうした呼びかけ(働きかけ)をセンシング対象に対して行うことにより、そのセンシング対象はその音声が発せられた方に顔を向けることになる。人は音が聞こえたときに、その音が出力された方向を見る傾向があるためである。また、人は顔であると認識できる部分が存在するときには、その部分を自然と見つめるという傾向を有している。このため、音声が出力された方向に顔を向けたセンシング対象は、そこに存在する人型(又はロボット型)玩具150 の頭部151 を見つめることになる。こうして、人型玩具150 の頭部151 に設けられたカメラ122 は、センシング対象の顔を正面から撮像することが可能になる。つまり、センシング手段122 は、検出の確度が高まった状態で、情報の検出を行うことになる。
【0077】
尚、センシング対象の顔画像を、さらに撮像する必要があるときには、制御手段101 は発音手段108 を制御することによってさらに別の言葉を出力し、それによって、センシング対象への呼びかけを継続させてもよい。こうすることで、センシング対象の顔がセンシング玩具150 の方向に向けた状態を比較的長時間維持することが可能になり、センシング対象の顔を正面から撮像する回数が増大して、検出精度の向上が図られる。
【0078】
上記制御手段101 は、上述したような発音手段108 の制御に代えて、又は発音手段108 の制御と共に、動作手段107 の制御を行ってもよい。つまり、カメラ122 が設けられた頭部151 の近傍で腕部153 を振る動作をさせてもよい。人は動いているものがあるときは、そのものを見つめる傾向があるため、こうすることでも、人型玩具150 の頭部151 に設けられたカメラ122 は、センシング対象の顔を正面から撮像することが可能になる。この場合に、カメラ122 は頭部151 ではなく、動作させる腕部153 に設けてもよい。
【0079】
尚、動作手段107 として、カメラ122 の近傍位置、又はカメラ位置に発光体(LED)を配置し、その発光体を点滅させる動作を行うことによっても、同様の効果が得られる。
【0080】
また、働きかけ手段110 は、上述したように、センシング対象に対して握手を促すような働きかけを行ってもよい。これに応じて、センシング対象がセンシング玩具150 の手に相当する部分を握ると、センシング対象はセンシング玩具150 に対して相対することになる。これにより、人型玩具150 の頭部151 に設けられたカメラ122 は、センシング対象の顔を正面から撮像することが可能になる。
【0081】
一方、猫型のセンシング玩具160 においては、制御手段101 は発音手段108 の制御を行い、例えば「にゃーにゃー」という猫の鳴き声を出力させる。こうした音による働きかけを行うことにより、センシング対象は音声を出力した猫型センシング玩具160 の方向に顔を向けて、このセンシング玩具160 を見つめることになる。これにより、猫型センシング玩具160 の頭部161 に設けたカメラ122 は、センシング対象の顔を正面から撮像することが可能になる。
【0082】
また、制御手段101 は動作手段107 の制御を行うことで、例えば首をかしげたり、尾を振ったりする動作をさせてもよい。こうした動作による働きかけを行うことによっても、センシング対象は猫型センシング玩具160 の方向に顔を向けて、このセンシング玩具160 を見つめることになり、センシング対象の顔を正面からカメラ122 によって撮像することが可能になる。
【0083】
また、フロントガラス183 ,192 内側にカメラ122 を設けた車型やヘリコプター型のセンシング玩具180 ,190 においては、制御手段101 は表示手段106 の制御を行い、例えば図11に示すように、フロントガラス183 に「こっちを見て!」という文章を表示させる。文章が表示されているときは、人はその文章を読もうとする。このため、こうした表示による働きかけを行うことで、センシング対象はフロントガラス183 の方に顔を向けて、そのフロントガラス183 を見つめることになる。このときに、フロントガラス183 内側に設けたカメラ122 によって、センシング対象の顔を正面から撮像することが可能になる。
【0084】
尚、車型玩具180 においては、制御手段101 は発音手段108 の制御を行うことで、例えば「ブーブー」というクラクション音を出力させたり、動作手段107 の制御を行うことで、ヘッドライト182 を点灯・点滅させたりしてもよい。こうした音又は動作による働きかけをセンシング対象に対して行うことにより、センシング対象が、センシング玩具180 の方に顔を向けることが期待される。
【0085】
また、人型及びロボット型玩具150 ,170 においても、制御手段101 が表示手段106 の制御を行うことで、その表示部106aに文章を表示させたときには、センシング対象が、センシング玩具150 ,170 の方に顔を向けることが期待される。このときに、カメラ122 は頭部151 ,171 に設けてもよいし、胴部152 ,172 (表示部106a)に設けてもよい。
【0086】
(音センサによる検出手法)
センシング手段が音センサ(マイクロフォン123 )であるときには、センシング玩具100 の形態としては、図3に示す人型150 又は図5に示すロボット型170 を採用することが好ましい。この内、人型150 、ロボット型玩具170 では、マイクロフォン123 は頭部151 ,171 (特に耳に相当する部分)に設けることが好ましい。
【0087】
センシング手段がマイクロフォン123 であって、センシング手段123 が検出した人の声を声紋認証に利用するときには、検出した音声にノイズが存在すると認証精度が低下してしまう。このため、働きかけ手段110 は、マイクロフォン123 の近傍で発声させるようにセンシング対象に働きかけ、それによって、検出した音声のSN比が高くなるようにする。
【0088】
尚、声紋認証には、予め登録している文脈を発声させることによって認証を行う文脈依存型と、任意の文脈を発声させることによって認証を行う文脈独立型の2つの形式が存在するが、いずれの型の声紋認証も採用することが可能である。以下、頭部151 にマイクロフォン123 を設けた人型のセンシング玩具150 による情報の検出手法について具体的に説明する。尚、ロボット型のセンシング玩具170 でも同様である。またここでは、文脈依存型の認証を行うものとし、登録される文脈はセンシング対象の名前であるとする。
【0089】
上述したように、家庭空間内に人が存在するときには、センシング対象検出手段200 によってその人の家庭空間内における位置が検出され、その検出結果は、センシング対象検出手段200 からセンシング玩具100 に送られる。
【0090】
センシング対象検出手段200 の検出結果を受けた制御手段101 は移動手段105 の制御を行い、それによって、センシング対象の近傍位置となるようにセンシング玩具150 を移動させる。
【0091】
そして、センシング対象の近傍位置まで移動をすれば、制御手段101 は、発音手段の制御を行う。これにより、例えば「名前をそっと教えて」という音声を出力する。このときに、制御手段101 は動作手段107 の制御を行い、手を耳にかざすような動作をさせてもよい。
【0092】
こうした音による働きかけ(及び動作による働きかけ)をセンシング対象に対して行うことにより、そのセンシング対象は、センシング玩具150 の頭部151 の近傍で自分の名前を発声することになる。人型の玩具150 が「そっと教えて」という言葉を発することにより、センシング対象は、その人型の玩具150 の耳元で発生するように誘導されるためである。その結果、センシング玩具150 の頭部151 に設けられたマイクロフォン123 によって、センシング対象の音声をSN比の高い状態で検出することができる。
【0093】
尚、発音手段108 が出力する音声は、人が耳元で自分の名前を発声することを促すものであればどのようなものであってもよい。
【0094】
また、例えば、発音手段108 に「握手をしようよ」という音声を出力させることで、センシング対象がセンシング玩具150 の腕部153 を握るように誘導し、これによって、センシング対象をマイクロフォン123 の近傍にまで移動させた後に、「名前は?」等の音声を出力させることによっても、センシング対象の音声をSN比の高い状態で検出することができる。
【0095】
尚、文脈独立型の声紋認証を行う場合には、センシング対象が発声する文脈に制限がないため、例えば発音手段108 に「秘密のお話をしようよ」という音声を出力させてもよい。こうした働きかけを行うことで、センシング対象がセンシング玩具150 の頭部151 の近傍で発声することが期待でき、それによって、センシング対象の音声をSN比の高い状態で検出することができる。
【0096】
このように、マイクロフォン123 の近傍で発声させるようにセンシング対象に働きかけを行った場合であっても、例えば雑音源(家庭空間では、例えばテレビ等が挙げられる)が近傍にあるときには、音声の検出精度が低下してしまう虞がある。そこで、働きかけ手段110 は、雑音源の少ない位置にセンシング対象を移動させる働きかけを行うようにしてもよい。
【0097】
具体的には、制御手段101 は発音手段108 の制御を行い、例えば「こっちで話そうよ」という音声を出力させると共に、移動手段105 の制御を行い、センシング玩具150 を雑音源の少ない位置まで移動させる。こうすることで、センシング対象は、センシング玩具150 の後を追って移動し、結果として、センシング対象を雑音源の少ない位置に誘導することが可能になる。こうした状態で、センシング対象の音声を検出する。このときは、上述したように、マイクロフォン123 の近傍で発声させるように、センシング対象に対する働きかけをさらに行ってもよいし、働きかけは行わなくてもよい。
【0098】
以上のように、センシング玩具100 が様々な玩具行動を行っているときに(行っている最中に)、センシング手段120 はセンシング対象に関する情報を検出するが、この玩具行動は、センシング対象に対する働きかけとなっている。そうして、その働きかけにより検出の確度が高まった状態において、センシング手段120 はセンシング対象に関する様々な情報を検出するようにしている。
【0099】
(アプリケーションの実行)
制御手段101 は、上記センシング手段120 によって検出されたセンシング対象に関する情報(状態情報及び識別情報)を受けて、各種アプリケーションの実行を行う。
【0100】
以下、制御手段101 によって実行されるアプリケーションについて説明する。
【0101】
(状態情報の検出に伴うアプリケーション)
上述したように、接触型のセンシング手段121 によって、センシング対象の体温、脈拍、手の湿り気が検出されたときには、制御手段101 は、設備制御手段104 に対して、空調装置の制御、窓開閉装置による窓の開閉制御を実行させ、それによって、家庭空間内の空調を行う。例えば、センシング対象の体温が所定よりも低いときには空調装置を制御することによって、家庭空間内の温度を上げるようにしてもよい。
【0102】
また、脈拍や湿り気の検出結果に基づいてセンシング対象が緊張状態にあるか否かを判断することが可能であるため、制御手段101 は、センシング対象の状態情報に基づいて、そのセンシング対象が緊張状態にあるか否かを判断する。そして、緊張状態にあると判断したときには、設備制御手段104 に、音響装置や芳香装置の制御を実行させる。これにより、家庭空間内に気持ちを落ち着かせる音楽を流させたり、気持ちを落ち着かせる香りを流させたりする。
【0103】
さらに、人の顔を構成する各パーツの動きを感情ごとに分類しパターンマッチングを行うことで顔画像から感情を認識する公知の方法を採用すれば、制御手段101 は、カメラ122 によって撮像したセンシング対象の顔画像に基づいて、そのセンシング対象の感情(喜怒哀楽)を検出することができる。そこで、制御手段101 は、カメラ122 が撮像した顔画像に基づいて、そのセンシング対象の感情を検出し、それに応じて設備制御手段104 に 音響装置や芳香装置の制御を実行させる。これによって、センシング対象の感情に応じた音楽を家庭空間内に出力したり、その感情に応じた芳香を家庭空間内に流したりする。
【0104】
検出したセンシング対象の感情に応じて、センシング玩具自体の行動パターンを変えてもよい。例えばセンシング対象の感情が哀であるときには、制御手段101 は発音手段108 を制御することによって、センシング対象を元気付けるような言葉を出力させてもよい。
【0105】
センシング手段120 は、センシング対象の行動に同期したタイミングで、そのセンシング対象に関する情報を検出してもよい。例えば、センシング対象が帰宅したタイミング、就寝するタイミング、起床するタイミングで、センシング対象に関する情報を検出してもよい。センシング玩具100 と時計(目覚まし時計)とを連動させることによって、センシング玩具100 は、センシング対象の起床予定時刻の情報が得られる。そこで、その情報に基づいて、センシング玩具100 はセンシング対象に関する情報の検出を行えば、センシング対象が起床したタイミングでの検出が可能になる。尚、センシング玩具100 自体に、アラーム機能を備えるようにしてもよい。また、センシング対象検出手段200 が、人が玄関を通過して家の中に入ったことを検出したタイミングで、センシング玩具100 は、そのセンシング対象に関する情報の検出を行えば、センシング対象が帰宅したタイミングでの検出が可能になる。さらに、寝室の電灯が消灯したタイミングで、そのセンシング対象に関する情報の検出を行えば、センシング対象が就寝するタイミングでの検出が可能になる。
【0106】
センシング対象の行動に同期したタイミングで検出を行う場合には、制御手段101 は、センシング手段120 の検出タイミングに応じたアプリケーションの実行を行ってもよい。
【0107】
例えば、センシング対象が起床したタイミングで、センシング手段120 が情報の検出する場合は、センシング手段120 によって検出されたセンシング対象の体温、脈拍、手の湿り気、顔色に基づいて、制御手段101 は、そのセンシング対象の体調を判断する。
【0108】
センシング対象の起床時に体調が良いと判断されるときには、制御手段101 は、設備制御手段104 に、家庭空間内の電灯を点灯制御を実行させたり、空調装置の制御を実行させたり、窓開閉装置の制御を実行させたり、テレビやラジオのスイッチ制御を実行させたりする。こうして、センシング対象の起床に応じた環境を整える。
【0109】
また、制御手段101 は、センシング玩具100 がセンシング対象の起床を促す動作を行うように、発音手段108 や、動作手段107 を制御してもよい。例えば、猫型のセンシング玩具160 であれば、発音手段108 に「にゃーにゃー」といった音声を出力させたり、動作手段107 の制御によって、センシング対象に顔を摺り寄せる動作をさせたり、布団を引っ張る動作をさせたりしてもよい。
【0110】
一方、センシング対象の起床時に体調が悪いと判断されるときには、制御手段101 は、設備制御手段104 に通信装置の制御を実行させる、これにより、病院に、電話やインターネットを介してその状態を通知して、病院に対して処方を求めるようにする。このときに、制御手段101 は、センシング手段120 に対して、病院側からの要求に応じてセンシング対象の状態情報をさらに検出させ、その検出結果を病院側にフィードバックするようにしてもよい。例えば病院側から、喉内のカメラ画像が要求されたときには、その画像をカメラ122 で撮像して送信したり、聴診のために体内音が要求されたときに、その音をマイクロフォン123 で検出して送信したりすればよい。こうした状態情報の検出は、センシング玩具が自動的に行ってもよいし、センシング対象(人)がセンシング玩具100 を用いて要求された情報を検出してもよい。
【0111】
その結果、安静にする必要があるときには、制御手段101 は、設備制御手段104 に通信装置の制御を実行させ、それによって、学校や会社に、電話やインターネットを介してその旨を通知させてもよい。
【0112】
(識別情報の検出に伴うアプリケーション)
センシング手段120 によってセンシング対象の識別情報が検出されたときには、制御手段101 は、識別手段103 にそのセンシング対象の識別を実行させる。識別手段103 は、上記センシング手段120 によって検出された識別情報に基づいて、顔認証、虹彩認証、指紋認証、又は静脈認証のバイオメトリクス認証を行い、それによって、センシング対象の識別を行う。
【0113】
この識別手段103 による識別結果を受けて、制御手段101 は、設備制御手段104 に対し、識別したセンシング対象に応じた設備300 の制御を実行させる。設備制御手段104 は、データベース109 (図1参照)を参照しながら設備300 の制御を行う。
【0114】
具体的に、上記データベース109 には、個人毎に好みの室温を予め登録しておく。設備制御手段104 は、データベース109 を参照することにより識別した個人の好みの室温になるように、空調装置や窓開閉装置の制御を行う。例えばセンシング対象がお父さんであったときには、データベース109 に登録されているお父さんの好みの室温を参照し、その室温となるように空調装置及び窓開閉装置を制御する。
【0115】
また、上記データベース109 に、帰宅時や、起床時等の行動タイミングにおける各個人の行動パターンを登録しておくことにより、その行動パターンに応じた設備の制御が実現する。
【0116】
例えば、上記データベース109 に、お父さんの帰宅時の行動パターンとして、玄関から自分の部屋(お父さんの部屋)に行った後で、お風呂に入るという行動パターンが登録されていれば、設備制御手段104 は、玄関からお父さんの部屋までの経路上の電灯を点灯させる制御を行うと共に、お父さんの部屋の空調装置の制御を行い、さらに、お風呂の準備をすべく給湯装置の制御を行う。また、帰宅したセンシング対象が子供であるときには、設備制御手段104 は、データベース109 に登録されている子供の帰宅時の行動パターンを参照し、それによって、例えば食事の用意をすべく電子レンジを制御して食品の温めを行う。
【0117】
このように、識別手段103 による識別結果に応じて設備300 の制御を行うときにも、センシング対象の状態情報に応じて各設備300 の制御を行ってもよい。例えば、帰宅したお父さんの体温を検出し、その体温に応じてお風呂のお湯の温度を調節する、等を行ってもよい。
【0118】
さらに、データベース109 に、各個人の外出時の持ち物リストを登録しておけば、外出しようとするセンシング対象の識別を行うことによって、データベース109 に登録されている持ち物リストを、そのセンシング対象に提示する(例えば表示部106aにリストを表示してもよいし、発音手段によってリストを読み上げるようにしてもよい)ことが可能になる。
【0119】
また、識別手段103 による識別結果を受けて、制御手段101 は、その識別した個人の好みに応じてセンシング玩具100 自体の行動パターンを変えてもよい。例えばデータベース109 に各個人の好みを登録しておくことで、識別したセンシング対象が騒がしいことを嫌う傾向にあるときには、センシング玩具100 は、発音手段108 による音の出力を抑制し、動作手段107 による動作や表示手段106 による表示によってセンシング対象に対する働きかけ(玩具行動)を行うようにする。一方で、識別したセンシング対象が騒がしいことを好む傾向にあるときには、センシング玩具100 は、発音手段108 や移動手段105 によって、センシング対象に対して積極的な働きかけを行うようにする。
【0120】
また、センシング対象が子供であるか大人であるかに応じて、発音手段108 によって出力する音声(言葉)を変えたり、表示手段106 によって表示する内容を変更させたりしてもよい。
【0121】
また、センシング玩具100 の識別手段103 は認証を行うことから、その認証結果を家庭空間内の各設備300 におけるユーザ認証に利用してもよい。つまり、センシング玩具100 による認証(識別)を行うことによって、家庭空間内の全ての設備300 のユーザ認証が完了するようにしてもよい。こうすることで、家庭空間内の各設備一つ一つについて認証処理を行う必要がなくなり、しかも、センシング玩具100 による認証は、人(センシング対象)が意識することなく行われるため、認証処理の煩わしさが解消される。
【0122】
(識別情報の検出と状態情報の検出との組み合わせによるアプリケーション)
センシング手段120 によってセンシング対象の識別情報を検出し、識別手段103 によってセンシング対象の識別を行った後に、制御手段101 は、センシング手段120 に対してその識別したセンシング対象の状態情報を検出させてもよい。こうすることで、各個人毎に、体温、脈拍、血圧、血糖値等の履歴を管理することが可能になる。また、制御手段101 は、設備制御手段104 に、通信装置を制御させて、これらのデータを病院に送信させてもよい。こうすることで、データの提供を受けた病院においてデータ解析が可能になる。
【0123】
また、センシング玩具100 の制御手段101 がデータの解析を行い、その解析結果から人の体調を判断し、それに応じて薬の処方を行ったり、体調に応じた食事を提案したりしてもよい。これは、データベース109 に薬や食事に関する情報を蓄積しておき、データ解析の結果に応じて必要な情報をデータベースから抽出すればよい。
【0124】
−実施形態2−
実施形態1のセンシング玩具100 は、働きかけ手段110 を備えていて、その働きかけ手段110 がセンシング対象に対する働きかけを行うことによって、検出の確度が高まった状態にしたが、実施形態2のセンシング玩具500 は、図12に示すように、センシング対象の状態に応じて、検出の確度が高まった状態となるように、センシング手段120 のセンシング態様を変更させるセンシング態様変更手段112 を備える。
【0125】
上記センシング態様変更手段112 は、制御手段101 と、移動手段105 と、行動予測手段111とから構成される。
【0126】
尚、実施形態2のセンシング玩具500 において、実施形態1のセンシング玩具100 を同じ手段については、同一の符号を付してその詳細な説明は省略する。また、このセンシング玩具500 の人に関する情報の検出態様は、実施形態1のセンシング玩具100 とは異なるが、アプリケーションの実行態様は、実施形態1のセンシング玩具100 と同じであるため、ここではその説明は省略する。
【0127】
実施形態2に係るセンシング玩具500 のセンシング手段120 は、非接触型とすることが好ましい。以下、実施形態2に係るセンシング玩具500 の検出手法について、「その1」〜「その3」に分けて説明する。
【0128】
(その1)
その1は、センシング手段がカメラ122 であるときの例であり、センシング玩具500 の形態としては、図3〜7に示す人型150 、猫型160 、ロボット型170 、車型180 、ヘリコプター型190 のいずれの型も採用することができる。
【0129】
上述したように、センシング手段がカメラ122 であるときに、検出の確度を高めるには、センシング対象の顔を正面から撮像することが必要となる。そこで、センシング態様変更手段112 は、センシング対象の顔の向きに応じてセンシング玩具500 を移動させる。
【0130】
以下、頭部151 にカメラ122 を設けた人型のセンシング玩具150 による情報の検出手法について、図13を参照しながら具体的に説明する。尚、猫型160 、ロボット型170 、車型180 ヘリコプター型190 のセンシング玩具170 でも検出手法は略同じである。
【0131】
上述したように、家庭空間内に人が存在するときには、センシング対象検出手段200 によってその人の家庭空間内における位置が検出される。実施形態2ではさらに、上記センシング対象検出手段200 は、センシング対象の顔の向きを検出する。人の顔の向きを検出する手法としては種々の方法が存在する。その一つは、先ず人の頭部を検出し、その検出した頭部領域から目、鼻、口、耳等の顔を構成する各パーツを、パターンマッチングによって求め、その位置関係から顔の向きを検出する方法である。尚、人の頭部を検出する方法としては、人の頭部が丸いことを利用する公知の方法がある。具体的には、カメラ画像において、Hough変換によって円形領域を検出し、それによって、人の頭部を検出する方法である。
【0132】
また、皮膚の色が肌色であるということを利用して、頭部領域における肌色の領域を抽出することで、顔の向きを検出してもよい。尚、頭部領域を抽出しなくても、顔を構成する各パーツを直接求めることで顔の向きを判断してもよい。
【0133】
こうして、家庭空間内におけるセンシング対象の位置、及びその顔の向きを検出すれば、センシング対象検出手段200 は、その情報をセンシング玩具500 に送信する。
【0134】
センシング対象検出手段200 の検出結果を受けた制御手段101 は、その人をセンシング対象に設定しかつ、移動手段105 を制御することによって、センシング対象の近傍位置まで移動をする。この移動の際には、センシング対象に対して最短距離で近づく経路ではなく、センシング対象検出手段200 の検出結果に基づいてセンシング対象の顔が向いている方向から、このセンシング対象に接近するような経路を設定する(図13の破線参照)。こうすることで、カメラ122 がセンシング対象の顔を正面から撮像する回数が増大し、それによって、検出の確度を高めることができる。
【0135】
尚、センシング玩具500 を移動させる際には、制御手段101 は発音手段108 を制御することによって、例えば「こんにちわ」等の音声を出力するようにすれば、センシング対象の違和感を軽減させることができ、好ましい。
【0136】
(その2)
「その1」では、センシング態様変更手段112 が、センシング対象の顔の向きに応じてセンシング玩具500 を移動させたが、「その2」では、センシング態様変更手段112 が、センシング対象の行動を予測して、その予測に応じてセンシング玩具500 を移動させる。つまり、人の顔が向く方向を予測して、その予測に基づいてセンシング玩具500 を、予めその人の顔が向く方向に移動させておくのである。
【0137】
センシング対象の行動は、人の習慣に基づいて予測することができる。センシング対象の行動を最も容易に予測することができるのは、その帰宅時である。帰宅した人は、その後、靴を脱いで家に上がる際に玄関の扉を背にして家の中の方に顔を向ける行動をとることが予測される。
【0138】
そこで、センシング対象が帰宅したことを、センシング対象検出手段200 が検出したことを受けて、制御手段101 は、そのセンシング対象が靴を脱いでいるときに移動手段105 を制御することによって、次にセンシング対象が顔を向ける方向、つまり、玄関の扉の方から家の中の方に向かう方向に相対するように、センシング玩具500 を移動させる(図13の一点鎖線参照)。こうすることで、センシング対象が予測した通りに顔の向きを変えれば、カメラ122 はそのセンシング対象の顔を正面から撮像することになる。また、顔画像を撮像する回数も増大することで、検出の確度を高めることができる。
【0139】
(その3)
「その3」は、センシング手段が音センサ123 であるときのセンシング態様変更手段112 の動作に関する。
【0140】
センシング手段が音センサ123 であるときには、上述したように、検出した音声にノイズが存在すると認証精度が低下してしまう。このため、センシング態様変更手段112 は、SN比が高くなるように音センサ123 のセンシング態様を変更する。
【0141】
具体的には、音センサ123 を、指向性を有するマイクロフォンや、マイクロフォンアレイで構成する。こうして、音声の取得に指向性を持たせるようにし、センシング対象から発せられた音声のみを検出するようにする。
【0142】
上記制御手段101 は、センシング対象検出手段200 によって検出されたセンシング対象の位置情報に基づいて、そのセンシング対象の方向に音センサ123 の指向性を変化させる。そうして、発音手段108 を制御することにより、センシング対象が発声するように働きかける。例えば「名前を教えて」という音声を出力させてもよい。この場合は、実施形態1とは異なり、センシング対象にマイクロフォン123 の近傍で発声させる必要はない。
【0143】
こうすることで、センシング対象が発声をしたときには、音センサ123 の嗜好性がそのセンシング対象の方向に設定されているため、センシング対象が発した音声を、SN比が高い状態で検出することができる。
【0144】
−実施形態3−
実施形態3は、センシング玩具を用いたセンシングシステムに係る。このセンシングシステムは、図14に示すように、センシング玩具600 と、空間管理サーバ700 と、設備300 とを備え、これらがネットワークを介して互いに接続されて構成されている。
【0145】
上記センシング玩具600 は、センシング手段120 と、働きかけ手段110 と、送受信手段302 とを備える。送受信手段302 は、空間管理サーバ700 や設備300 との間でネットワークを介して種々のデータの送受信を行うものである。
【0146】
センシング手段120 及び働きかけ手段110 の構成は、上記実施形態1と同じであるため、同じ符号を付してここではその説明は省略する。
【0147】
上記空間管理サーバ700 は、家庭空間の管理を行うものであって、制御手段701 と、識別手段103 と、設備制御手段104 とデータベース109 と、送受信手段302 とを備えている。送受信手段302 は、センシング玩具600 に設けられたものと同じであって、センシング玩具600 や設備300 との間でネットワークを介した種々のデータの送受信を行うものである。このため、同一の符号を付すこととする。また、識別手段103 並びに設備制御手段104 及びデータベース109 は、実施形態1,2のセンシング玩具100 ,500 (図1及び図12参照)に設けられていたものと同じであり、同じ符号を付す。識別手段103 は、センシング玩具600 によって検出されたセンシング対象に関する情報に応じて、顔認証、虹彩認証、指紋認証等によってセンシング対象の識別を行うものであり、設備制御手段104 は、センシング対象に関する情報、又は識別手段103 の識別結果に応じて、ネットワークを介して設備300 の制御を行うものである。
【0148】
また、この空間管理サーバ700 には、家庭空間内において、センシング玩具600 のセンシング対象となる人の存在を検出するセンシング対象検出手段200 が接続されていて、上記空間管理サーバ700 は、このセンシング対象検出手段200 の検出結果を、センシング玩具600 に転送する。
【0149】
上記設備300 は、制御手段301 と、送受信手段302 とを備えている。送受信手302 段は、センシング玩具600 に設けられたものと同じであって、空間管理サーバ700 やセンシング玩具600 との間でネットワークを介した種々のデータの送受信を行うものである。このため、同一の符号を付すこととする。また、制御手段301 は、空間管理サーバ700 からの制御信号に応じて、その設備300 の動作を制御するものである。
【0150】
このセンシングシステムの動作について説明すると、先ず、センシング対象検出手段200 が家庭空間内で人の存在を検出すれば、その検出結果が上記空間管理サーバ700 に送られる。空間管理サーバ700 の制御手段701 は、その検出結果を受けて、その情報を送受信手段302 によってセンシング玩具600 に送信する。
【0151】
空間管理サーバ700 からの情報を受信したセンシング玩具600 は、上述したように、働きかけ手段110 によってセンシング対象に対する働きかけを行い、センシング手段120 は、そのセンシング対象が働きかけに応じることで、検出の確度が高まったときにセンシング対象に関する情報の検出を行う。
【0152】
こうして検出した情報は、送受信手段302 によって空間管理サーバ700 に送られる。空間管理サーバ700 の制御手段701 は、必要に応じて識別手段103 にセンシング対象の識別をさせる。また、設備制御手段104 に設備300 の制御を実行させるべく、設備制御コマンドを作成させる。作成された設備制御コマンドは、空間管理サーバ700 から設備300 にネットワークを介して送信され、その設備制御コマンドを受信した設備300 の制御手段301 は、それに応じた設備300 の制御を実行する。
【0153】
尚、センシングシステムのセンシング玩具は、センシング手段120 と、センシング態様変更手段112 と、送受信手段302 とを備えるものとしてもよい。
【0154】
以上説明したように,本発明のセンシング玩具100 ,600 は、人に関する情報の検出を行う玩具であって、人に関する情報の検出を行うセンシング手段120 と、上記センシング手段のセンシング対象に情報検出の実行を意識させることなく、上記センシング対象に対して情報検出の実行に関連する働きかけを行う働きかけ手段110 と、を備える。
【0155】
そして、上記センシング手段120 は、上記センシング対象が、上記働きかけ手段110 による働きかけに応じることによって検出の確度が高まった状態になったときに、当該センシング対象に関する情報の検出を行う。つまり、働きかけ手段110 は、センシング対象を検出の確度が高まる状態に誘導する。
【0156】
これにより、働きかけ手段110 が、センシング対象に対して情報検出の実行に関連する働きかけを行い、上記センシング対象がその働きかけに応じれば、検出の確度が高まった状態となる。この状態で、センシング手段120 が情報の検出を行うため、情報を確実かつ精度よく検出することができる。
【0157】
一方、働きかけ手段110 の働きかけは、握手をすることを求めたり、挨拶をしたりするものであるため、センシング対象に情報検出の実行を意識させることがないものである。このように、情報検出の実行についての直接的な働きかけ(例えば、「センサを触れてください」といった音声を出力することにより、センシング対象に情報検出の実行を明示して、接触型のセンシング手段に触れさせる働きかけ)とは異なり、情報検出の実行についての間接的な働きかけ(働きかけ自体は情報検出の実行とは関連しないが、センシング対象がその働きかけに応じることによって情報検出の実行に関連することになる働きかけ)を行うことにより、センシング対象に情報検出の実行を意識させることがない。こうして、人の違和感の低減と、検出の確度の向上とを両立させることができる。
【0158】
また、人に関する情報を検出するものが玩具であることによって、一般家庭を含む生活空間内で人に与える違和感を軽減することができる。
【0159】
上記働きかけ手段110 は、センシング対象に対して、音、動作,及び/又は表示による働きかけを行うことにより、センシング対象に、効果的な働きかけを行うことができる。
【0160】
また、本発明の他のセンシング玩具500 は、人に関する情報の検出を行うセンシング手段120 と、上記センシング手段120 のセンシング対象に情報検出の実行を意識させることなく、上記センシング手段120 のセンシング態様を変更させるセンシング態様変更手段112 と、を備える。そして、上記センシング態様変更手段112 は、上記センシング対象の行動予測に基づいて、該センシング対象が予測した行動をとったときに検出の確度が高まる位置に、上記センシング手段120 の位置を予め移動させる。
【0161】
これにより、センシング態様変更手段112 が、検出の確度が高まるであろう位置にセンシング手段120 の位置を予め移動させ、センシング対象が予測された行動をとったときに、言い換えると検出の確度が高まったときに、センシング手段120 がセンシング対象に関する情報を検出する。このため、情報を確実かつ精度よく検出することができる。
【0162】
また、センシング態様変更手段112 は、センシング対象の行動を予測してセンシング手段120 の位置を移動させるため、センシング対象は、情報検出の実行を意識することなく振舞っていればよく、情報検出の確度が高まるように、センシング対象側が行動する必要はない。その結果、センシング対象の違和感を軽減することができ、人の違和感の低減と、検出の確度の向上とを両立することができる。
【0163】
また、上記センシング態様変更手段は、人の習慣に基づいてセンシング対象の行動を予測するため、その予測を的確に行うことができる。
【0164】
上記センシング玩具100 ,500 は、上記センシング手段120 が検出した人の状態情報に応じて設備300 の制御を行う制御手段101 (設備制御手段104 )をさらに備えることで、生活環境を快適にすることができる。
【0165】
また、センシング玩具100 ,500 は、上記センシング手段120 が検出した人の識別情報に基づいてセンシング対象の識別を行う識別手段103 をさらに備えることで、センシング対象を特定することができる。
【0166】
このときに、その識別手段103 の識別結果に応じて、設備300 の制御を行う制御手段101 (設備制御手段103 ,データベース109 )をさらに備えることで、特定した各個人に最適な生活環境を作り出すことができる。
【0167】
また、センシング手段120 は、識別手段103 の識別結果を受けてセンシング対象の状態情報(体温、脈拍、接触した部分の湿り気、血圧、血糖値)の検出を行うことにより、個人毎に、その状態を管理することができる。
【0168】
上記センシング手段120 は、センシング対象検出手段200 によって検出された人の位置情報を受けて、当該人をセンシング対象に設定することにより、センシング手段120 は、センシング対象検出手段200 が人を検出する毎に、その人をセンシング対象として、情報の検出を行うことになる。このように、センシング玩具100 ,500 ,600 側が、センシング対象に対して自発的に情報の検出を行うため、センシング対象側は意識しなくても必要な情報が自動的に検出される。こうして、例えば状態情報(体温等)の情報の管理を的確に行うことができる。
【0169】
上記センシング手段120 の検出結果を外部に送信する送信手段(送受信手段302 )をさらに備えることにより、センシングシステムに最適なセンシング玩具600 が構成される。
【0170】
本発明のさらに他のセンシング玩具は、人に関する情報の検出を行う玩具であって、人に関する情報の検出を行うセンシング手段120 と、上記センシング手段のセンシング対象に情報検出の実行を意識させることなく、上記センシング手段による検出の確度を高める確度向上手段110 ,112 とを備える。
【0171】
この確度向上手段110 ,112 によって、人に関する情報を検出する場合において、人の違和感の低減と、検出の確度の向上とを両立させることができる。
【0172】
本発明のさらに他のセンシング玩具は、人に関する情報の検出を行うセンシング手段120 と、予め設定された行動プログラムに従って玩具行動の制御を行う制御手段101 と、を備え、上記センシング手段120 は、上記制御手段101 が玩具行動の制御を実行しているときに、人に関する情報の検出を行う。
【0173】
この構成によると、制御手段101 が玩具行動の制御を実行しているとき、つまり、センシング玩具が、玩具としての行動を行っているときに、センシング手段120 は人に関する情報を検出するため、人に情報検出の実行を意識させることなく、その人に関する情報を検出することが可能になる。
【0174】
また、上記センシング手段120 は、上記制御手段101 が玩具行動の制御を実行している最中であって、検出の確度が高まった状態になったときに、人に関する情報の検出を行うようにしてもよい。こうすることで、人の違和感の低減と、検出の確度の向上とを両立させることができる。
【0175】
−他の実施形態−
尚、上記各実施形態では、一般家庭内を対象としてセンシング玩具について説明したが、センシング玩具は、一般家庭内に限らず、オフィス、ホテル、店舗、病院、工場等において利用することも可能である。
【0176】
また、上記各実施形態で説明したセンシング玩具の構成は、例えば作業用ロボットや介護用ロボットに適用することも可能である。こうしたロボットでは、検出したセンシング対象に関する情報(状態情報又は識別情報)に基づいて、種々の作業を行うように構成すればよい。
【0177】
例えば、作業用又は介護用ロボットでは、センシング対象の起床時にそのセンシング対象の体温や手の湿り気等を検出した結果に応じて、シーツの洗濯作業を行ったり、布団を干す作業を行ったりしてもよい。
【0178】
【発明の効果】
以上説明したように、本発明によるセンシング玩具によると、働きかけ手段や、センシング態様変更手段によって、センシング対象に情報検出を意識させることなく、検出の確度が高まった状態を作りだすことができるため、人の違和感の低減と、検出の確度の向上とを両立させることができる。
【0179】
また、(設備)制御手段や、識別手段が、検出した情報を利用して種々のアプリケーションを実行することにより、センシング対象が存在する空間内の環境を向上させることができる。
【図面の簡単な説明】
【図1】実施形態1に係るセンシング玩具の構成の一例を示すブロック図である。
【図2】背景差分法の原理を示す説明図である。
【図3】人型のセンシング玩具の形態の一例を示す図である。
【図4】猫型のセンシング玩具の形態の一例を示す図である。
【図5】ロボット型のセンシング玩具の形態の一例を示す図である。
【図6】車型のセンシング玩具の形態の一例を示す図である。
【図7】ヘリコプター型のセンシング玩具の形態の一例を示す図である。
【図8】センシング玩具が生活空間内に配置されたときの様子を示す図である。
【図9】センシング玩具の表示部に表示される画面の一例を示す図である。
【図10】ハーフミラーを用いたときの表示手段とセンシング手段との構成を示す説明図である。
【図11】表示部に表示をしている状態の車型玩具を示す図である。
【図12】実施形態2に係るセンシング玩具の構成の一例を示すブロック図である。
【図13】センシング態様変更手段によって設定される玩具の移動経路の例を示す説明図である。
【図14】実施形態3に係るセンシングシステムの構成の一例を示すブロック図である。
【符号の説明】
100・・・センシング玩具
500・・・センシング玩具
600・・・センシング玩具
101・・・制御手段
103・・・識別手段
104・・・設備制御手段(制御手段)
106・・・動作手段
107・・・表示手段
108・・・発音手段
109・・・データベース
110・・・働きかけ手段(確度向上手段)
112・・・センシング態様変更手段(確度向上手段)
120・・・センシング手段
200・・・センシング対象検出手段
300・・・設備
302・・・送受信手段(送信手段)

Claims (14)

  1. 人に関する情報の検出を行うセンシング玩具であって、
    人に関する情報の検出を行うセンシング手段と、
    上記センシング手段のセンシング対象に情報検出の実行を意識させることなく、上記センシング対象に対して情報検出の実行に関連する働きかけを行う働きかけ手段と、を備え、
    上記センシング手段は、上記センシング対象が、上記働きかけ手段による働きかけに応じることによって検出の確度が高まった状態になったときに、当該センシング対象に関する情報の検出を行うセンシング玩具。
  2. 請求項1において、
    働きかけ手段は、センシング対象に対して、音による働きかけを行うセンシング玩具。
  3. 請求項1において、
    働きかけ手段は、センシング対象に対して、動作による働きかけを行うセンシング玩具。
  4. 請求項1において、
    働きかけ手段は、センシング対象に対して、表示による働きかけを行うセンシング玩具。
  5. 人に関する情報の検出を行うセンシング玩具であって、
    人に関する情報の検出を行うセンシング手段と、
    上記センシング手段のセンシング対象に情報検出の実行を意識させることなく、上記センシング手段のセンシング態様を変更させるセンシング態様変更手段と、を備え、
    上記センシング態様変更手段は、上記センシング対象の行動予測に基づいて、該センシング対象が予測した行動をとったときに検出の確度が高まる位置に、上記センシング手段の位置を予め移動させるセンシング玩具。
  6. 請求項5において、
    センシング態様変更手段は、人の習慣に基づいてセンシング対象の行動を予測するセンシング玩具。
  7. 請求項1又は請求項5において、
    センシング手段は、人の状態情報を検出し、
    上記センシング手段による状態情報の検出結果に応じて設備の制御を行う制御手段をさらに備えるセンシング玩具。
  8. 請求項1又は請求項5において、
    センシング手段は、人の識別情報を検出し、
    上記センシング手段による識別情報の検出結果に基づいてセンシング対象の識別を行う識別手段をさらに備えるセンシング玩具。
  9. 請求項8において、
    識別手段の識別結果に応じて、設備の制御を行う制御手段をさらに備えるセンシング玩具。
  10. 請求項8において、
    センシング手段は、識別手段の識別結果を受けてセンシング対象の状態情報の検出を行うセンシング玩具。
  11. 請求項1又は請求項5において、
    センシング手段は、所定の空間内における人の位置を検出した位置検出情報を受けて、当該人をセンシング対象に設定するセンシング玩具。
  12. 請求項1又は請求項5において、
    センシング手段の検出結果を外部に送信する送信手段をさらに備えるセンシング玩具。
  13. 人に関する情報の検出を行うセンシング玩具であって、
    人に関する情報の検出を行うセンシング手段と、
    上記センシング手段のセンシング対象に情報検出の実行を意識させることなく、上記センシング手段による検出の確度を高める確度向上手段とを備えるセンシング玩具。
  14. 人に関する情報の検出を行うセンシング玩具であって、
    人に関する情報の検出を行うセンシング手段と、
    予め設定された行動プログラムに従って玩具行動の制御を行う制御手段と、を備え、
    上記センシング手段は、上記制御手段が玩具行動の制御を実行しているときに、人に関する情報の検出を行うセンシング玩具。
JP2003159593A 2003-06-04 2003-06-04 センシング玩具 Pending JP2004357915A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003159593A JP2004357915A (ja) 2003-06-04 2003-06-04 センシング玩具

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003159593A JP2004357915A (ja) 2003-06-04 2003-06-04 センシング玩具

Publications (1)

Publication Number Publication Date
JP2004357915A true JP2004357915A (ja) 2004-12-24

Family

ID=34052612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003159593A Pending JP2004357915A (ja) 2003-06-04 2003-06-04 センシング玩具

Country Status (1)

Country Link
JP (1) JP2004357915A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005305631A (ja) * 2004-03-25 2005-11-04 Nec Corp ロボットおよびその制御方法
US7539556B2 (en) 2004-01-09 2009-05-26 Honda Motor Co., Ltd. Face image acquisition method and face image acquisition system
JP2009183538A (ja) * 2008-02-07 2009-08-20 Saitama Univ 自律移動車椅子
JP2010510895A (ja) * 2006-11-30 2010-04-08 韓國電子通信研究院 ロボットの姿勢検出装置及びその方法
WO2013052644A1 (en) 2011-10-04 2013-04-11 Children's Medical Center Coporation Emotional control methods and apparatus
JP2017010516A (ja) * 2015-06-24 2017-01-12 百度在線網絡技術(北京)有限公司 人工知能に基づくヒューマンコンピュータインターアクションの方法、装置及び端末機器
US10835188B2 (en) 2016-09-23 2020-11-17 Casio Computer Co., Ltd. Robot providing health support with communication, robot control method, and non-transitory recording medium
JP2021021852A (ja) * 2019-07-29 2021-02-18 シャープ株式会社 音声認識装置、電子機器、制御方法および制御プログラム
JP2021036993A (ja) * 2019-08-31 2021-03-11 学校法人拓殖大学 バイタルサイン測定ロボット

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7539556B2 (en) 2004-01-09 2009-05-26 Honda Motor Co., Ltd. Face image acquisition method and face image acquisition system
JP2005305631A (ja) * 2004-03-25 2005-11-04 Nec Corp ロボットおよびその制御方法
JP4595436B2 (ja) * 2004-03-25 2010-12-08 日本電気株式会社 ロボット、その制御方法及び制御用プログラム
US8376803B2 (en) 2004-03-25 2013-02-19 Nec Corporation Child-care robot and a method of controlling the robot
JP2010510895A (ja) * 2006-11-30 2010-04-08 韓國電子通信研究院 ロボットの姿勢検出装置及びその方法
JP2009183538A (ja) * 2008-02-07 2009-08-20 Saitama Univ 自律移動車椅子
WO2013052644A1 (en) 2011-10-04 2013-04-11 Children's Medical Center Coporation Emotional control methods and apparatus
JP2014528806A (ja) * 2011-10-04 2014-10-30 チルドレンズ メディカル センター コーポレーション 感情制御方法および装置
EP2763763A4 (en) * 2011-10-04 2015-07-22 Childrens Medical Center METHOD AND DEVICE FOR EMOTIONAL CONTROL
JP2017010516A (ja) * 2015-06-24 2017-01-12 百度在線網絡技術(北京)有限公司 人工知能に基づくヒューマンコンピュータインターアクションの方法、装置及び端末機器
US10835188B2 (en) 2016-09-23 2020-11-17 Casio Computer Co., Ltd. Robot providing health support with communication, robot control method, and non-transitory recording medium
JP2021021852A (ja) * 2019-07-29 2021-02-18 シャープ株式会社 音声認識装置、電子機器、制御方法および制御プログラム
JP2021036993A (ja) * 2019-08-31 2021-03-11 学校法人拓殖大学 バイタルサイン測定ロボット

Similar Documents

Publication Publication Date Title
JP7320239B2 (ja) 音源の方向を認識するロボット
CN109475781B (zh) 理解物理接触的行为自主型机器人
JP6409206B2 (ja) お出迎え行動する自律行動型ロボット
JP6402320B2 (ja) 人見知りする自律行動型ロボット
JP6472113B2 (ja) 自然な距離感を保つ自律行動型ロボットおよびプログラム
JP7400923B2 (ja) 情報処理装置および情報処理方法
JP7205148B2 (ja) ロボット、制御方法、及び、プログラム
JP2004357915A (ja) センシング玩具
US11938625B2 (en) Information processing apparatus, information processing method, and program
US11511410B2 (en) Artificial intelligence (AI) robot and control method thereof
US20220288791A1 (en) Information processing device, information processing method, and program
JP7296626B2 (ja) 情報処理装置及びプログラム
KR102519599B1 (ko) 멀티모달 기반의 인터랙션 로봇, 및 그 제어 방법
WO2019088160A1 (ja) 反射行動を実行可能な自律行動型ロボット
JP2020091636A (ja) 音声対話装置の制御方法
WO2021085175A1 (ja) 自律移動体、情報処理方法、プログラム、及び、情報処理装置
US11687049B2 (en) Information processing apparatus and non-transitory computer readable medium storing program
WO2020202540A1 (ja) 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法
Puehn et al. Design of a low-cost social robot: Towards personalized human-robot interaction
JP2004017185A (ja) ロボット制御装置
US20220413795A1 (en) Autonomous mobile body, information processing method, program, and information processing apparatus
KR200386045Y1 (ko) 임베디드 시스템기반의 감정표현 휴먼노이드 로봇
JP2004046400A (ja) ロボットの発話方法
JP2022157245A (ja) システム等
JP2003190651A (ja) 疑似生物機器