JP6781460B2 - 遠隔遊び支援システム、方法およびプログラム - Google Patents

遠隔遊び支援システム、方法およびプログラム Download PDF

Info

Publication number
JP6781460B2
JP6781460B2 JP2016225250A JP2016225250A JP6781460B2 JP 6781460 B2 JP6781460 B2 JP 6781460B2 JP 2016225250 A JP2016225250 A JP 2016225250A JP 2016225250 A JP2016225250 A JP 2016225250A JP 6781460 B2 JP6781460 B2 JP 6781460B2
Authority
JP
Japan
Prior art keywords
play
data
personality
mental state
video chat
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016225250A
Other languages
English (en)
Other versions
JP2018081631A (ja
Inventor
長井 隆行
隆行 長井
阿部 香澄
香澄 阿部
侑輝 濱田
侑輝 濱田
智絵 日永田
智絵 日永田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
THE UNIVERSITY OF ELECTRO-COMUNICATINS
Original Assignee
THE UNIVERSITY OF ELECTRO-COMUNICATINS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by THE UNIVERSITY OF ELECTRO-COMUNICATINS filed Critical THE UNIVERSITY OF ELECTRO-COMUNICATINS
Priority to JP2016225250A priority Critical patent/JP6781460B2/ja
Publication of JP2018081631A publication Critical patent/JP2018081631A/ja
Application granted granted Critical
Publication of JP6781460B2 publication Critical patent/JP6781460B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、遠隔遊び支援システム、心的状態・性格推定システム、遊び推定システム、方法およびプログラムに関する。
子育てをしている家庭においては、例えば家事の間だけでも誰かに子供(乳幼児)の相手をしてもらえたら助かるという状況が多々ある。一方で、祖父母(子供から見て)は子供(孫)とのコミュニケーションを欲している場合が多いが、遠方に住んでいる場合には頻繁に会いに行くわけにもいかないというのが現実である。そこで、昨今のIT(情報通信技術)を活用した解決が望まれる。
本発明者は、ビデオチャット等を用いた、乳幼児が集中しやすく、長期的に飽きにくいコミュニケーション手法を研究してきているが、乳幼児を考慮した工夫だけではなく、遠隔から相手をする祖父母等に対する支援も必要であることが判明してきた。
例えば、祖父の中には、自分自身の子育て期には多忙で子供と遊ぶ経験をもてず、孫とどう遊んでいいかわかならい人もいる。実際、孫と遊びたい祖父母は多いが、祖父の多くは、祖母よりも孫と長く遊ぶのが苦手である(非特許文献1等を参照)。子供との遊び方を知りたいといったニーズにこたえるために、市場には子供との遊び方のノウハウ本や遊び方講座などが存在する。しかし、子供と遊んでいる最中にコツを再確認できるわけではない。実際に子供と遊んでいて遊びが滞ってしまい、どうしたらよいか正に悩んでいるときに、適切なアドバイスを得ることはできない。また、対面状況では遊びが得意な祖母でも、ビデオチャット等を介しての遠隔での遊びには慣れておらず、遊び続けるのが難しいという場合もある。このような「長く遊べない」「遊び方がわからない」という状況に対し、遊びの継続を支援する技術が必要とされる。
一方、軽度認知症患者同士でテレビ電話を行う際に対話を持続させる技術が開示されているが(特許文献1等を参照)、乳幼児等の子供を対象としたものではなく、子供と祖父母等によるビデオチャット等に適用することはできない。
特開2011−97531号公報
ミーテWEBアンケート「祖父母と絵本」、調査期間:2012年7月、回答数:280件(0〜6歳児をもつ親、84%が核家族)、http://mi-te.jp/contents/cafe/11-7-1837/
上述したように、子供と大人がビデオチャットでコミュニケーションする場合に、大人側に対する遊びの支援が望まれるが、従来そのような技術は存在しなかった。
本発明は上記の従来の問題点に鑑み提案されたものであり、その目的とするところは、子供と大人がビデオチャットでコミュニケーションする場合に、長く遊びを続けられるよう、遊びの提案を行えるようにすることにある。
上記の課題を解決するため、本発明にあっては、ビデオチャットロボットを使用する子供を監視する各種センサの信号に基づいて子供の振る舞いの特徴量を取得する特徴量取得手段と、振る舞いと心的状態および性格との関係を機械学習した第1のデータに基づいて、前記特徴量から心的状態および性格を推定する第1の識別手段と、心的状態および性格と遊び種類との関係を機械学習した第2のデータに基づいて、前記第1の識別手段により推定された心的状態および性格から遊び種類を推定する第2の識別手段と、前記第2の識別手段により推定された遊び種類を前記ビデオチャットロボットの通信相手の端末装置に表示する遊び提案手段とを備える。
本発明にあっては、子供と大人がビデオチャットでコミュニケーションする場合に、長く遊びを続けられるよう、遊びの提案を行うことができる。
本発明の一実施形態にかかるシステムの構成例を示す図である。 ビデオチャットロボットの外観構成例を示す図である。 ビデオチャットロボットの情報処理にかかるハードウェア構成例を示す図である。 手渡し遊びの操作例を示す図(その1)である。 手渡し遊びの操作例を示す図(その2)である。 手渡し遊びの操作例を示す図(その3)である。 各装置の機能構成例を示す図である。 特徴量データおよび遊び状況データの構造例を示す図である。 遊び一覧テーブルの例を示す図である。 学習結果データの構造例を示す図である。 心的状態評価データおよび性格評価データの構造例を示す図である。 実施形態の処理例を示すシーケンス図(その1)である。 実施形態の処理例を示すシーケンス図(その2)である。 端末装置に表示される画面例を示す図である。
以下、本発明の好適な実施形態につき説明する。
<システム構成>
図1は本発明の一実施形態にかかるシステムの構成例を示す図である。図1において、主に子供(乳幼児)が使用するビデオチャットロボット1と、学習フェーズにおいて子供の父母等が評価内容を入力する端末装置2と、主に祖父母等の通信相手が使用する端末装置3とが、インターネット等のネットワークNを介して接続可能になっている。なお、父母等による評価内容をオフラインで取得する場合には、端末装置2は不要となる。また、学習フェーズにおいて、ビデオチャットロボット1および端末装置2から情報を取得して機械学習を行い、ビデオチャットロボット1で使用される識別用データを生成する識別用データ生成サーバ4がネットワークNに接続されている。更に、必要に応じて、ビデオチャットロボット1と端末装置3との間のビデオチャットを中継する運用サーバ5がネットワークNに接続される。
なお、学習フェーズにおいて用いられるビデオチャットロボット1および端末装置3と、実際の運用フェーズにおいて用いられるそれらを区別なく示しているが、学習の際には開発側の協力者ユーザ(父母、子供、祖父母等)がビデオチャットロボット1および端末装置3を使用し、運用時には一般のユーザがそれらを使用することとなる。
図2はビデオチャットロボット1の外観構成例を示す図である。図2において、ビデオチャットロボット1は、頭部筐体11と胴部筐体16とを備えている。頭部筐体11には、前面に画面部12が設けられるとともに、画面部12の上部にはカメラ13が設けられ、画面部12の両側にはスピーカ14が設けられ、下部にはマイク15が設けられている。胴部筐体16には、手を模し、物品が載置可能な状態と、物品が取り込まれて隠された状態とを有するハンド17が設けられている。また、画面部12には操作入力のためのタッチパネルを設けることができるとともに、筐体には周囲の人や物との距離を検出する距離センサや筐体への接触を検出するタッチセンサ等を備えることもできる。更に、ビデオチャットロボット1には、利用者(子供)に追従して利用者の正面を向くための自走機構や回転機構を設けることができる。利用者の認識は、カメラ13やその他のセンサによる顔認識や色認識等で行うことができる。
図3はビデオチャットロボット1の情報処理にかかるハードウェア構成例を示す図である。図3において、ビデオチャットロボット1は、バス1000を介して相互に接続されたCPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003、HDD(Hard Disk Drive)/SSD(Solid State Drive)1004、接続I/F(Interface)1005、通信I/F1006を備えている。
CPU1001は、RAM1003をワークエリアとしてROM1002またはHDD/SSD1004等に格納されたプログラムを実行することで、ビデオチャットロボット1の動作を統括的に制御する。接続I/F1005は、カメラ1007、距離センサ1008、マイク1009、スピーカ1010、タッチパネル1011、タッチセンサ1012、載置センサ1013、モータ1014とのインタフェースである。通信I/F1006は、ネットワークを介して他の情報処理装置(端末装置3、識別用データ生成サーバ4、運用サーバ5等)と通信を行うためのインタフェースである。ビデオチャットロボット1の機能は、CPU1001において所定のプログラムが実行されることで実現される。プログラムは、記録媒体を経由して取得されるものでもよいし、ネットワークを経由して取得されるものでもよいし、ROM組込でもよい。
ビデオチャットロボット1によれば、音声と映像によるビデオチャットにより、普通の会話のほか、歌(いっしょに歌を歌う)、本(本を読み聞かせる)、おいでおいで、かくれんぼ等の遊びを行うことができる。また、ビデオチャットロボット1に特別に設けられたハンド等の機構により手渡し遊びを行うことができる。
図4〜図6はビデオチャットロボット1による手渡し遊びの操作例を示す図である。図4(a)は、子供CHがビデオチャットロボット1のハンド17に物品OBJを載置しようとしている状態を示している。図4(b)は、その際の祖父GF側の端末装置3において表示される画面例を示しており、主画面には物品OBJを持った子供CHの映像が表示されており、副画面には祖父GF本人の映像(ビデオチャットロボット1側に表示されている映像)が表示されている。
図5(a)は、ビデオチャットロボット1においてハンド17がそれまでの開状態から閉状態となったことで、物品OBJが隠されて見えなくなり、画面部12に祖父GFとともに物品OBJの画像(合成画像)が表示された状態を示している。これにより、子供CHは、自分が渡した物品OBJが祖父GFに渡ったと認識する。また、図5(b)は、その際の祖父GF側の端末装置3において表示される画面例を示しており、主画面には子供CHの映像が表示されており、副画面には祖父GF本人の映像と物品OBJの画像が表示されている。
図6(a)は、祖父GFが物品返却の操作(該当ボタンの押下等)を行ったことで、祖父GF側の端末装置3の副画面から物品OBJが消えた状態を示している。また、図6(b)は、ビデオチャットロボット1のハンド17が開状態となって、物品OBJが再び見えるようになった状態を示している。これにより、子供CHは、物品OBJが祖父GFから戻ってきたと認識する。
図7は図1に示した各装置の機能構成例を示す図である。図7において、ビデオチャットロボット1は、ビデオチャット部101とハンド制御部102と映像制御部103と特徴量算出部104と遊び状況判定部105とデータ送信部106とデータ受信部107と学習結果データ108、109と第1の識別部110と第2の識別部111と目標値生成部112と遊び提案部113とを備えている。
ビデオチャット部101は、ビデオチャットロボット1側でのビデオチャットについての処理を実行する機能を有している。ハンド制御部102は、ビデオチャットロボット1に備えられたハンド17(図2)を制御する機能を有している。映像制御部103は、ハンド17の制御に連動してビデオチャット上の映像を制御するとともに、遊びの提案の表示を制御する機能を有している。なお、ハンドの制御等に連動したビデオチャット上の映像の制御を端末装置3側または運用サーバ5側で行う場合には、映像制御部103は不要となる。
特徴量算出部104は、各種の入力デバイス(図3に示したカメラ1007、距離センサ1008、マイク1009、スピーカ1010、タッチパネル1011、タッチセンサ1012、載置センサ1013等)からの信号に応じ、ビデオチャットロボット1の前にいる子供の振る舞いの特徴量を算出し、特徴量データを出力する機能を有している。特徴量は、子供が現時点で遊びに満足しているか(満足度)や、相手の祖父母等に対して親密さを感じているか(親密度)といった心的状態と、適した遊びを見つけるための子供の性格を判断するために用いられる。満足度は遊びに対して短期的に影響が出るが、親密度は中長期的に影響が出る。例えば、ある時点でそのときにやっている遊びに満足はしていないが(満足度は低い)、親密度が高ければ、また遊んでくれる可能性が高い。また、ここでの性格は、子供の定性的なものではなく、その時々の気分により変化するものとして扱っている。
特徴量データとしては、例えば、ビデオチャットロボット1の前にいる子供のビデオチャットロボット1からの距離の値やその変動幅、時間的な変動傾向等の距離特徴量と、子供のビデオチャットロボット1方向を基準とした視線方向やその変動幅、時間的な変動傾向等の視線特徴量と、子供の表情から認識される笑顔度やその変動幅、時間的な変動傾向等の笑顔特徴量とを用いている。なお、特徴量算出部104は、遊び状況判定部105で判定される遊び状況を考慮して特徴量の算出を行う。例えば、遊び状況が「かけっこ」の最中には子供とビデオチャットロボット1との距離は必然的に遠くなり、満足度・親密度や性格を判断するには適当でないため、距離の情報を対象から除外するといった処理を行う。図8(a)は特徴量データの構造例を示しており、計測したビデオチャットロボット1を識別するためのロボットIDと、計測日時を示すタイムスタンプと、距離特徴量と、視線特徴量と、笑顔特徴量とを含んでいる。
図7に戻り、遊び状況判定部105は、各種の入力デバイス(図3に示したカメラ1007、距離センサ1008、マイク1009、スピーカ1010、タッチパネル1011、タッチセンサ1012、載置センサ1013等)からの信号に応じ、遊び状況(何の遊びが行われているか、あるいは何も行われていないか)を判定する機能を有している。遊びの状況の判定は、子供の周囲にいる操作者や遠隔の祖父母等による操作入力(例えば、前述した手渡し遊びを選んだ、終了を選んだという情報等)、ビデオチャットロボット1の周辺を写すカメラ画像に基づく情報(一般物体認識による付近のおもちゃの有無や子供の存在等)、タッチセンサからの情報(子供やおもちゃがビデオチャットロボット1に触れているかどうか等)等により行われる。各種の遊びを行っている際や遊びをしていない際に得られる各種の入力デバイスの信号の状態と、観察者が判定した遊びの種類の情報を取得し、機械学習により学習データを取得し、その学習データに基づいて識別器により判定を行うようにしてもよい。図8(b)は遊び状況データの構造例を示しており、判定を行ったビデオチャットロボット1を識別するためのロボットIDと、判定日時を示すタイムスタンプと、遊びの種類を識別する遊びIDとを含んでいる。遊びIDは、図9に示すような、予め定義された遊びの種類に対応した識別情報である。
図7に戻り、データ送信部106は、学習フェーズにおいて、特徴量算出部104から出力される特徴量データと遊び状況判定部105から出力される遊び状況データとを、所定期間(例えば、10分)毎または所定のタイミング(収集終了時に一括等)で、識別用データ生成サーバ4に送信する機能を有している。また、データ送信部106は、運用フェーズにおいて、再学習のためのデータ(遊び状況判定部105から出力される特徴量データと第1の識別部110から出力される推定結果データ)とを識別用データ生成サーバ4に送信する機能も有している。
データ受信部107は、識別用データ生成サーバ4で機械学習により生成された識別用の学習結果データを受信し、学習結果データ108、109としてビデオチャットロボット1内に保存する機能を有している。なお、識別用データ生成サーバ4からオンラインで受信する場合に限らず、メモリデバイス等を用いたオフラインによるデータの受け渡しとしてもよい。学習結果データ108は、特徴量データにより表される振る舞いから、心的状態および性格を推定するためのデータであり、第1の識別部110により使用される。学習結果データ109は、心的状態および性格から遊び(遊びの状況、遊びの種類)を推定するためのデータであり、第2の識別部111により使用される。図10(a)は振る舞いから心的状態および性格を推定するための学習結果データの構造例を示し、図10(b)は心的状態および性格から遊びを推定するための学習結果データの構造例を示している。いずれも、入力となる変数を出力の値に写像するための関数の係数等が含まれている。
図7に戻り、第1の識別部110は、運用フェーズにおいて、学習結果データ108を使用し、特徴量算出部104の出力である特徴量データから心的状態および性格を推定して出力する機能を有している。出力される心的状態は、学習時に用いられる心的状態評価データに対応し、満足度または親密度を示す値(例えば、最も小さい「1」から最高の「3」までの3段階の値)を用いる。なお、満足度または親密度は、いずれか一方を用いてもよいし、両者を混合したものとしてもよい。また、満足度または親密度を別々に学習して2組の学習結果データを生成しておき、運用フェーズにおいていずれかの学習結果データを選択可能としてもよい。出力される性格は、学習時に用いられる性格評価データに対応し、例えば、BigFive(性格の主要5因子)における外向性得点を示す値(例えば、最も小さい「1」から最高の「3」までの3段階の値)を用いる。
第2の識別部111は、運用フェーズにおいて、学習結果データ109を使用し、第1の識別部110の出力(推定結果)である心的状態および性格の値と、目標値生成部112の出力する目標値とから、遊びを推定して出力する機能を有している。後述するように、振る舞いから心的状態および性格への学習は、各所定時間内の特徴量データと各所定時間経過時の父母等による評価とから行われるが、心的状態および性格から遊びへの学習は、ある時点の父母等による評価と、それから所定時間経過時の父母等による評価と、所定時間内の遊び状況とから行われる。そのため、遊びを推定するためには、現時点の心的状態および性格の値と、所定時間経過後の目標とする心的状態および性格の値とを与える。目標値生成部112は、第1の識別部110の出力(推定結果)である心的状態および性格の値に対し、例えば、心的状態の満足度や親密度を高い値(3段階の場合は「2」以上の値)に変更して目標値を生成する。
遊び提案部113は、第1の識別部110により推定された心的状態から満足度等が低い場合に、第2の識別部111により推定された遊びをビデオチャットの相手方である祖父母等に提案する機能を有している。ここでは、映像制御部103またはビデオチャット部101に提案内容を通知することで、相手方の端末装置3に遊びの提案のための表示を行うようにしている。また、遊び提案部113は、遊びの提案を行う頻度を状況に応じて変化させることができる。例えば、操作者の音声入力があまりなく、操作入力が少なく、子供の満足度が低い場合、操作者が何をして遊べばいいのかわからず戸惑っている状態と考えられる。そのため、遊びを高頻度で提案する。反対に、子供の満足度が高い場合は、操作者が上手に遊べているため、遊びを低頻度で提案する。このように提案頻度を変化させることで、操作者が遊び提案を利用して子供と遊ぶうちに、自然と遊び方を会得し、遊びの提案がなくても遊べるようになることが期待される。更に、操作者の遊び慣れを加速するために、利用履歴等に基づいて利用経験が増えるに応じ、遊びの提案のタイミングを遅らせたり、遊びの提案を行うべきタイミングであってもランダムに提案を行わないといった制御を行ってもよい。
一方、評価入力用の端末装置2は、心的状態評価入力部21と性格評価入力部22とデータ送信部23とを備えている。心的状態評価入力部21は、学習フェーズにおいて、子供を観察している父母等から、ビデオチャットをしている子供の心的状態(満足度、親密度等)の評価(例えば、3段階)を所定時間(例えば、10分)毎に入力する機能を有している。性格評価入力部22は、学習フェーズにおいて、子供を観察している父母等から、ビデオチャットをしている子供の性格の評価(例えば、3段階)を所定時間(例えば、10分)毎に入力する機能を有している。データ送信部23は、学習フェーズにおいて、心的状態評価入力部21および性格評価入力部22で入力されたデータを、所定期間(例えば、10分)毎または所定のタイミング(収集終了時に一括等)で、識別用データ生成サーバ4に送信する機能を有している。図11(a)は心的状態評価データの構造例を示しており、観察対象の子供が使用しているビデオチャットロボット1を識別するためのロボットIDと、評価日時を示すタイムスタンプと、心的状態評価値とを含んでいる。図11(b)は性格評価データの構造例を示しており、観察対象の子供が使用しているビデオチャットロボット1を識別するためのロボットIDと、評価日時を示すタイムスタンプと、性格評価値とを含んでいる。
図7に戻り、ビデオチャット用の端末装置3は、ビデオチャット部31と映像制御部32とを備えている。ビデオチャット部31は、端末装置3側でのビデオチャットについての処理を実行する機能を有している。映像制御部32は、ビデオチャットロボット1のハンドの制御に連動してビデオチャット上の映像を制御するとともに、遊びの提案の表示を制御する機能を有している。なお、ビデオチャットロボット1のハンドの制御に連動したビデオチャット上の映像の制御等をビデオチャットロボット1側または運用サーバ5側で行う場合には、映像制御部32は不要となる。ビデオチャットロボット1の映像制御部103と端末装置3の映像制御部32とで、連携してビデオチャット上の映像の制御を行ってもよい。
一方、識別用データ生成サーバ4は、データ受信部41とデータ蓄積部42と機械学習部43と学習結果データ44、45とデータ送信部46とを備えている。データ受信部41は、学習フェーズにおいて、ビデオチャットロボット1のデータ送信部106から特徴量データと遊び状況データとを受信してデータ蓄積部42に格納するとともに、端末装置2のデータ送信部23から心的状態評価データと性格評価データを受信してデータ蓄積部42に格納する機能を有している。また、データ受信部41は、運用フェーズにおいて、ビデオチャットロボット1のデータ送信部106から再学習のためのデータ(遊び状況判定部105から出力される特徴量データと第1の識別部110から出力される推定結果データ)とを受信して識別用データ生成サーバ4に格納する機能を有している。データ蓄積部42には、受信されたそれらのデータ(データ構造については上述)がそのまま格納される。
機械学習部43は、学習フェーズにおいて、1つまたは複数のビデオチャットロボット1における種々の状況下での複数(多数)のデータが蓄積された後の所定のタイミングで、データ蓄積部42からデータを読み出して2種類の機械学習を行い、振る舞いから心的状態および性格を推定するための学習結果データ44と、心的状態および性格から遊びを推定するための学習結果データ45とを生成する機能を有している。また、運用フェーズにおいて、機械学習部43は、再学習のために、データ蓄積部42からデータを読み出し、心的状態および性格から遊びを推定するための学習結果データ45を再生成する機能も有している。機械学習の処理内容については後述する。学習結果データ44、45は、図10に示したものと同様である。
図7に戻り、データ送信部46は、生成された学習結果データ44、45をオンラインまたはオフラインでビデオチャットロボット1のデータ受信部107に受け渡す機能を有している。
運用サーバ5は、ビデオチャット制御部51と映像制御部52とログ取得部53とを備えている。ビデオチャット制御部51は、ビデオチャットロボット1と端末装置3の間のビデオチャットを制御する機能を有している。映像制御部52は、ビデオチャットロボット1のハンドの制御に連動してビデオチャット上の映像を制御するとともに、遊びの提案の表示を制御する機能を有している。ログ取得部53は、ビデオチャットロボット1と端末装置3の動作ログを取得する機能を有している。
なお、端末装置2、端末装置3、識別用データ生成サーバ4、運用サーバ5は一般的なコンピュータのハードウェア構成を備えている。また、ビデオチャット用の端末装置3は、カメラ、マイク、モニタ、スピーカ等の映像・音声の入出力機能を備えている。
<動作>
図12は上記の実施形態の学習フェーズにおける処理例を示している。図12において、学習の協力者である父母の観察下で子供が使用するビデオチャットロボット1と祖父母等が使用する端末装置3との間で、一般的な手順に従ってビデオチャットが開始されているとする(ステップS101)。なお、運用サーバ5を介在しない場合について説明するが、運用サーバ5を介在する場合は、ビデオチャットが運用サーバ5により中継される点と、ビデオチャット上の映像への表示の制御がどの装置で行うかが異なる。
その後、ビデオチャットロボット1において、所定時間(例えば、10分)毎に、特徴量算出部104は特徴量を算出して特徴量データを出力し、遊び状況判定部105は遊び状況を判定して遊び状況データを出力する(ステップS102)。
また、並行して、端末装置2において、同じ所定時間毎に、心的状態評価入力部21および性格評価入力部22は、父母等から心的状態と性格の評価を入力する(ステップS103)。なお、端末装置2を用いずに、回答シート等に記入する態様としてもよい。この場合、回答シート等の回収後に担当者がデータ化し、識別用データ生成サーバ4に入力することとなる。
その後、ビデオチャットロボット1のデータ送信部106は、特徴量算出部104から出力される特徴量データと遊び状況判定部105から出力される遊び状況データとを、所定期間毎または所定のタイミング(収集終了時に一括等)で、識別用データ生成サーバ4に送信する(ステップS104)。識別用データ生成サーバ4のデータ受信部41は、受信したデータをデータ蓄積部42に格納する(ステップS105)。
また、端末装置2のデータ送信部23は、心的状態評価入力部21および性格評価入力部22で入力されたデータを、所定期間毎または所定のタイミング(収集終了時に一括等)で、識別用データ生成サーバ4に送信する(ステップS106)。識別用データ生成サーバ4のデータ受信部41は、受信したデータをデータ蓄積部42に格納する(ステップS107)。
その後、識別用データ生成サーバ4の機械学習部43は、1つまたは複数のビデオチャットロボット1における種々の状況下での複数(多数)のデータが蓄積された後の所定のタイミングで、データ蓄積部42からデータを読み出す(ステップS111)。
そして、機械学習部43は、2種類の機械学習を行い、振る舞いから心的状態および性格を推定するための学習結果データ44と、心的状態および性格から遊びを推定するための学習結果データ45とを生成する(ステップS112)。すなわち、機械学習部43は、各所定時間内の特徴量データと各所定時間経過時の父母等による心的状態評価データおよび性格評価データとから、心的状態評価データおよび性格評価データを正解ラベル(推定される側の変数に対応)にして機械学習を行い、振る舞いから心的状態および性格への学習結果データ44を生成する。また、機械学習部43は、ある時点の父母等による心的状態評価データおよび性格評価データと、それから所定時間経過時の父母等による心的状態評価データおよび性格評価データと、その所定時間内の遊び状況データとから遊び状況データを正解ラベルにして機械学習を行い、心的状態および性格から遊びへの学習結果データ45を生成する。
そして、データ送信部46は、生成された学習結果データ44、45をオンラインまたはオフラインでビデオチャットロボット1のデータ受信部107に受け渡す(ステップS113)。ビデオチャットロボット1のデータ受信部107は、受け渡されたデータを学習結果データ108、109としてビデオチャットロボット1内に登録する(ステップS114)。
次に、図13は上記の実施形態の運用フェーズにおける処理例を示している。図13において、一般ユーザの子供が使用するビデオチャットロボット1と祖父母等が使用する端末装置3との間で、一般的な手順に従ってビデオチャットが開始されているとする(ステップS201)。
その後、ビデオチャットロボット1において、所定時間(例えば、10分)毎に、特徴量算出部104は特徴量を算出して特徴量データを出力し、遊び状況判定部105は遊び状況を判定して遊び状況データを出力する(ステップS202)。なお、遊びの推定および提案のリアルタイム性を向上させるために、処理可能な時間毎に過去の所定時間(例えば、10分)についての特徴量の算出と遊び状況の判定を逐次に行うようにしてもよい。
次いで、第1の識別部110は、学習結果データ108を使用し、特徴量算出部104の出力である特徴量データから心的状態および性格を推定して出力する(ステップS203)。
次いで、第2の識別部111は、学習結果データ109を使用し、第1の識別部110の出力(推定結果)である心的状態および性格の値と、目標値生成部112の出力する目標値とから、遊びを推定して出力する(ステップS204)。
そして、遊び提案部113は、第1の識別部110により推定された心的状態から満足度等が低いか否かにより、遊び提案の可否を判断する(ステップS205)。
そして、遊び提案部113は、満足度等が低く、遊び提案が必要であると判断した場合、映像制御部103により遊び提案内容をビデオチャット部101のビデオチャットの映像に合成する(ステップS206)。これにより、推定された遊びがビデオチャットの相手方である祖父母等の使用する端末装置3において表示される(ステップS207)。図14は端末装置3に表示される画面例を示す図であり、子供CHの映像(主画面)と祖父GFの映像(副画面)の他に、画面の左上に「歌」「本」といった遊び提案表示ADが行われている。なお、遊びを示すアイコンと文字による遊び名とを示しているが、いずれか一方でもよい。表示する順序は推定の確度が高い順にしてもよいし、上位所定数の遊びについて推定の確度を考慮せずに表示してもよい。祖父母等は、この中から好きな任意の遊びを選択することができる。また、提案される遊びは一定時間が経過するか、現在の遊びの状況が替わると、新たに算出されて表示される。
図13に戻り、データ送信部106は、再学習のためのデータ(遊び状況判定部105から出力される特徴量データと第1の識別部110から出力される推定結果データ)を識別用データ生成サーバ4に送信する(ステップS208)。識別用データ生成サーバ4のデータ受信部41は、受信したデータを識別用データ生成サーバ4に格納する(ステップS209)。
その後、識別用データ生成サーバ4の機械学習部43は、再学習のために、データ蓄積部42からデータを読み出し(ステップS211)、心的状態および性格から遊びを推定するための学習結果データ45を再生成する(ステップS212)。
なお、運用フェーズにおいて、新たな遊びを遊び一覧テーブル(図9)に追加した上でデータ収集を行い、上記の再学習を行うことで、追加した新たな遊びに対応した遊びの提案を行えるようにすることができる。
そして、データ送信部46は、再生成された学習結果データ45をオンラインまたはオフラインでビデオチャットロボット1のデータ受信部107に受け渡す(ステップS213)。ビデオチャットロボット1のデータ受信部107は、受け渡されたデータを学習結果データ109としてビデオチャットロボット1内に登録する(ステップS214)。
<変形例>
上述した実施形態では、「学習」(学習結果データの生成)については識別用データ生成サーバ4側で行い、「運用」(目標値生成およびそれに基づく遊びの提案)はビデオチャットロボット1側で行う場合について説明したが、これに限られない。例えば、ビデオチャットロボット1側で「学習」を行う構成としてもよい。この場合、機械学習部43がビデオチャットロボット1に設けられることになる。また、評価に用いられる端末装置2や、ビデオチャットの相手方で用いられる端末装置3で「学習」を行う構成としてもよい。また、「運用」における識別についても、ビデオチャットロボット1側ではなく、運用サーバ5側で行ってもよい。
<総括>
以上説明したように、本実施形態によれば、子供と大人がビデオチャットでコミュニケーションする場合に、長く遊びを続けられるよう、遊びの提案を行うことができる。
単純な物の受け渡しなどが子供とは"遊び"になるが、これに慣れず、遊び方に困る人がいる。あるいは、対面では子供と遊び慣れている人でも、ビデオチャットを使った遠隔保育では慣れないという人も出てくる。「子供との遊び方がよくわからない」あるいは「対面でなく、ビデオチャットを通しての遊びは難しい」という操作者でも、遊び提案機能によって次に行う遊びの例が示されるので、それを選んで行っていけば、次にいったい何をすればいいかと迷うことなく、スムーズに、長く子供と遊び続けることが可能である。
また、子供の振る舞いを表す特徴量データと、父母等による評価データとに基づいて、振る舞いと心的状態および性格との関係の機械学習を行うため、ビデオチャットロボットの前で動き回りながら遊ぶ子供についても正確な推定を行うことができる。
以上、本発明の好適な実施の形態により本発明を説明した。ここでは特定の具体例を示して本発明を説明したが、特許請求の範囲に定義された本発明の広範な趣旨および範囲から逸脱することなく、これら具体例に様々な修正および変更を加えることができることは明らかである。すなわち、具体例の詳細および添付の図面により本発明が限定されるものと解釈してはならない。
1 ビデオチャットロボット
11 頭部筐体
12 画面部
13 カメラ
14 スピーカ
15 マイク
16 胴部筐体
17 ハンド
101 ビデオチャット部
102 ハンド制御部
103 映像制御部
104 特徴量算出部
105 遊び状況判定部
106 データ送信部
107 データ受信部
108、109 学習結果データ
110 第1の識別部
111 第2の識別部
112 目標値生成部
113 遊び提案部
2 端末装置
21 心的状態評価入力部
22 性格評価入力部
23 データ送信部
3 端末装置
31 ビデオチャット部
32 映像制御部
4 識別用データ生成サーバ
41 データ受信部
42 データ蓄積部
43 機械学習部
44、45 学習結果データ
46 データ送信部
5 運用サーバ
51 ビデオチャット制御部
52 映像制御部
53 ログ取得部
N ネットワーク

Claims (5)

  1. ビデオチャットロボットを使用する子供を監視する各種センサの信号に基づいて子供の振る舞いの特徴量を取得する特徴量取得手段と、
    振る舞いと心的状態および性格との関係を機械学習した第1のデータに基づいて、前記特徴量から心的状態および性格を推定する第1の識別手段と、
    心的状態および性格と遊び種類との関係を機械学習した第2のデータに基づいて、前記第1の識別手段により推定された心的状態および性格から遊び種類を推定する第2の識別手段と、
    前記第2の識別手段により推定された遊び種類を前記ビデオチャットロボットの通信相手の端末装置に表示する遊び提案手段と
    を備えたことを特徴とする遠隔遊び支援システム。
  2. 子供の振る舞いの特徴量のデータと、該振る舞いに際しての観察者による心的状態および性格の評価のデータとに基づき、振る舞いと心的状態および性格との関係を機械学習して前記第1のデータを生成し、
    子供の遊び内容のデータと、該遊び内容に際しての観察者による心的状態および性格の評価のデータとに基づき、心的状態および性格と遊び種類との関係を機械学習して前記第2のデータを生成する、
    機械学習手段
    を備えたことを特徴とする請求項1に記載の遠隔遊び支援システム。
  3. 前記機械学習手段は、ビデオチャットの運用に際して取得された子供の遊び内容のデータと、該遊び内容に際して前記第1の識別手段により推定された心的状態および性格のデータとに基づき、心的状態および性格と遊び種類との関係を機械学習し直して前記第2のデータを更新する
    ことを特徴とする請求項2に記載の遠隔遊び支援システム。
  4. ビデオチャットロボットを使用する子供を監視する各種センサの信号に基づいて子供の振る舞いの特徴量を取得し、
    振る舞いと心的状態および性格との関係を機械学習した第1のデータに基づいて、前記特徴量から心的状態および性格を推定し、
    推定された心的状態および性格から、心的状態および性格と遊び種類との関係を機械学習した第2のデータに基づいて、遊び種類を推定し、
    推定された遊び種類を前記ビデオチャットロボットの通信相手の端末装置に表示する、
    処理をコンピュータが実行することを特徴とする遠隔遊び支援方法。
  5. ビデオチャットロボットを使用する子供を監視する各種センサの信号に基づいて子供の振る舞いの特徴量を取得し、
    振る舞いと心的状態および性格との関係を機械学習した第1のデータに基づいて、前記特徴量から心的状態および性格を推定し、
    推定された心的状態および性格から、心的状態および性格と遊び種類との関係を機械学習した第2のデータに基づいて、遊び種類を推定し、
    推定された遊び種類を前記ビデオチャットロボットの通信相手の端末装置に表示する、
    処理をコンピュータに実行させることを特徴とする遠隔遊び支援プログラム。
JP2016225250A 2016-11-18 2016-11-18 遠隔遊び支援システム、方法およびプログラム Active JP6781460B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016225250A JP6781460B2 (ja) 2016-11-18 2016-11-18 遠隔遊び支援システム、方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016225250A JP6781460B2 (ja) 2016-11-18 2016-11-18 遠隔遊び支援システム、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2018081631A JP2018081631A (ja) 2018-05-24
JP6781460B2 true JP6781460B2 (ja) 2020-11-04

Family

ID=62198939

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016225250A Active JP6781460B2 (ja) 2016-11-18 2016-11-18 遠隔遊び支援システム、方法およびプログラム

Country Status (1)

Country Link
JP (1) JP6781460B2 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1762095A1 (en) * 2004-06-17 2007-03-14 Koninklijke Philips Electronics N.V. Personalized summaries using personality attributes
US9106958B2 (en) * 2011-02-27 2015-08-11 Affectiva, Inc. Video recommendation based on affect
KR102011495B1 (ko) * 2012-11-09 2019-08-16 삼성전자 주식회사 사용자의 심리 상태 판단 장치 및 방법

Also Published As

Publication number Publication date
JP2018081631A (ja) 2018-05-24

Similar Documents

Publication Publication Date Title
KR102334942B1 (ko) 돌봄 로봇을 위한 데이터 처리 방법 및 장치
CN110780707B (zh) 信息处理设备、信息处理方法与计算机可读介质
JP7254772B2 (ja) ロボットインタラクションのための方法及びデバイス
CN102598084B (zh) 远程通信***和方法
EP3007452A1 (en) Display controller, display control method, and computer program
US20180040317A1 (en) Information processing device, information processing method, and program
JP6040745B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム及びコンテンツ提供システム
JP6889464B2 (ja) チャットシステム、管理装置、端末装置、宛先選択支援方法および宛先選択支援プログラム
US20200357504A1 (en) Information processing apparatus, information processing method, and recording medium
JP2021018408A (ja) 学習システム、学習講義提供方法、およびプログラム
JP6302381B2 (ja) 操作支援装置、操作支援方法及び操作支援プログラム
JP6781460B2 (ja) 遠隔遊び支援システム、方法およびプログラム
US20200301398A1 (en) Information processing device, information processing method, and program
US20160271498A1 (en) System and method for modifying human behavior through use of gaming applications
JP7307576B2 (ja) プログラム及び情報処理装置
JPWO2019087854A1 (ja) 片付け支援システム、片付け支援方法およびプログラム
JP7418975B2 (ja) 情報処理装置
JP7379996B2 (ja) 情報処理システム、情報処理装置、方法およびプログラム
JP5919182B2 (ja) ユーザモニタリング装置およびその動作方法
KR20170061051A (ko) 웨어러블 디바이스 및 웨어러블 디바이스의 제어방법
JP7290977B2 (ja) プログラム及び情報処理装置
CN112424731A (zh) 信息处理设备,信息处理方法和程序
JP2019087155A (ja) 支援装置、システム、及びプログラム
US20240220752A1 (en) Artificial Reality System for Code Recognition and Health Metrics
US11991437B2 (en) Robot, control processing method, and non-transitory computer readable recording medium storing control processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201009

R150 Certificate of patent or registration of utility model

Ref document number: 6781460

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150