JP2011020258A - 感性モデル装置、感性モデルの性向学習装置及び方法 - Google Patents

感性モデル装置、感性モデルの性向学習装置及び方法 Download PDF

Info

Publication number
JP2011020258A
JP2011020258A JP2010151724A JP2010151724A JP2011020258A JP 2011020258 A JP2011020258 A JP 2011020258A JP 2010151724 A JP2010151724 A JP 2010151724A JP 2010151724 A JP2010151724 A JP 2010151724A JP 2011020258 A JP2011020258 A JP 2011020258A
Authority
JP
Japan
Prior art keywords
information
propensity
emotion
response
generated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010151724A
Other languages
English (en)
Other versions
JP2011020258A5 (ja
Inventor
Hyun-Ryong Jung
玄 龍 鄭
Chien Ming Huang
チェン−ミン ファン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Georgia Tech Research Institute
Georgia Tech Research Corp
Original Assignee
Samsung Electronics Co Ltd
Georgia Tech Research Institute
Georgia Tech Research Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd, Georgia Tech Research Institute, Georgia Tech Research Corp filed Critical Samsung Electronics Co Ltd
Publication of JP2011020258A publication Critical patent/JP2011020258A/ja
Publication of JP2011020258A5 publication Critical patent/JP2011020258A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/40Data acquisition and logging

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Manipulator (AREA)
  • Feedback Control In General (AREA)

Abstract

【課題】 感性モデルの性向特性を適応的に変化させる装置及び方法を提供する。
【解決手段】 本発明の一態様による感性モデル装置は、性向情報を有している。そして、この性向情報に基づいて感情を生成し、該生成された感情に応じて特定の行動を取ることが可能である。本発明の一態様によって、性向情報は、行動に対するユーザ応答によって適応的に変更される。したがって、ユーザとの相互作用によって感性モデルが能動的に反応しうる。
【選択図】 図1

Description

本発明は、ロボット、仮想キャラクターなどに適用される感情要素(affective component)に関する。
最近、人と類似に行動する感性ロボットに対する関心が高まりつつある。このような感性ロボットは、人と同じではないが、外部刺激に対して感情を感じ、その感情に応じて行動することが可能である。このために、このような感性ロボットには、感情要素が備えられることが一般的である。
感情要素は、固定的で変わらない性向(Personality)と外部刺激によって変わる感性(Emotion)などで構成される。例えば、感性は、性向に基づいてセンサー入力(Sensor Input)と知覚特性(Perceptual Feature)とによって変更されうる。
人の場合、生活をしながら、教育を通じて、または周りの環境によって性向が変わる。すなわち、学習がなされる。それで、他人との交流(Interaction)をさらに円滑にし、また周りの環境にさらによく適応できるようになる。
しかし、感性ロボットなどに適用される感情要素は、固定的で変わらない性向を使うために、感性ロボットがいくら人間と類似に行動するとしても、実際の環境では不自然で単純な反応をする。
本発明が解決しようとする課題は、ユーザ応答に基づいて適応的に性向が変更される感性モデル装置、及び感性モデルの性向を適応的に学習させる装置及び方法を提供することである。
本発明の一態様による感性モデル装置は、性向情報を保存し、性向情報に応じて感情情報を生成する感情生成部と、生成された感情情報に基づいて、動作を決定する動作情報を選択する動作選択部と、選択された動作情報に応じて決定された動作に対応するユーザ応答を受信するユーザ応答受信部と、受信されたユーザ応答を用いて、性向情報についての学習パラメータを生成し、該生成された学習パラメータを用いて、性向情報を更新する性向更新部と、を含みうる。
本発明の一態様による感性モデルの性向学習装置は、性向情報に応じて生成された感情情報及び感情情報に基づいて選択された動作情報に対応するユーザ応答を保存する第1メモリ部と、生成された感情情報と性向情報との間の依存関係を定める依存情報を保存する第2メモリ部と、生成された感情情報及び依存情報を用いて更新対象となる性向情報を選択し、ユーザ応答を用いて、選択された性向情報についての学習パラメータを生成し、該生成された学習パラメータを用いて、選択された性向情報を更新する学習制御部と、を含みうる。
本発明の一態様によって、ユーザ応答は、強度を有する陽性応答及び陰性応答に分類されうる。また、性向情報は、性向の特性及び特性別の性向の強度で構成され、学習パラメータは、特性別の性向の強度を調節する利得と定義されうる。
一方、本発明の一態様による感性モデルの性向学習方法は、性向情報に基づいて外部刺激に対する感情情報を生成する段階と、性向情報と生成された感情情報との間の依存関係を定める依存情報及び生成された感情情報を提供する段階と、生成された感情情報に基づいて、動作を決定する動作情報を選択する段階と、選択された動作情報に応じて決定された動作に対応するユーザ応答を受信する段階と、生成された感情情報及び依存情報を用いて更新対象となる性向情報を選択し、受信されたユーザ応答を用いて、選択された性向情報についての学習パラメータを生成し、該生成された学習パラメータを用いて、選択された性向情報を更新する段階と、を含みうる。
また、本発明の他の態様による感性モデルの性向学習方法は、生成された感情情報、及び性向情報と生成された感情情報との間の依存関係を定める依存情報を用いて更新対象となる性向情報の性向特性を選択する段階と、生成された感情情報に応じて選択された動作に対応するユーザ応答を用いて、前記選択された性向特性についての学習パラメータを生成する段階と、該生成された学習パラメータを用いて、選択された性向特性の強度を更新する段階と、を含みうる。
本発明の一実施形態による感性モデル装置の構成を示す図である。 本発明の一実施形態による感性モデル装置の動作を示す図である。 本発明の一実施形態による感性モデルの性向学習装置の構成を示す図である。 本発明の一実施形態によるユーザ応答分類ツリーを示す図である。 本発明の一実施形態による感性モデルの性向学習方法を示すフローチャートである。 本発明の一実施形態による感性モデルの性向学習方法を示すフローチャートである。 本発明の一実施形態による感性モデルシステムを示す図である。
以下、添付した図面を参照して、本発明の実施のための具体的な例を詳しく説明する。
図1は、本発明の一実施形態による感性モデル装置の構成を示す図である。図1を参照すると、本実施形態による感性モデル装置100は、外部の刺激に応じて特定の感情を感じ、その感情に応じて特定の表情、行動または動作を行うシステムになりうる。例えば、感性モデル装置100は、外部刺激に反応するヒューマノイド、ペットロボット、3次元仮想キャラクターを表示する各種端末などになりうる。
図1で、感性モデル装置100は、感情生成部101、動作選択部102、ユーザ応答受信部103、及び性向更新部104を含みうる。
感情生成部101は、性向情報(personality information)を保存し、性向情報に基づいて外部刺激に対する感情情報(emotion information)を生成する。ここで、外部刺激は、各種センサー、カメラなどから取得された外部環境の認識結果になりうる。
例えば、感性モデル装置100が、ペットロボットであり、ユーザがペットロボットを撫でる場合、感情生成部101は、ユーザの手助けによって幸福感を表わす感情パラメータ(emotion parameter)を生成することが可能である。本実施形態で、感情情報とは、特定の感情状態を表わす感情パラメータになりうる。
生成される感情情報は、保存された性向情報に依存することができる。我々は、性向に応じて感情表現の程度が異なるということを経験的に分かっている。例えば、内気な人と外向的な人とに同量のストレス(stress)を与える場合、外向的な人の方がストレスに対する拒否表現がより強力であり得る。
本実施形態による感性モデル装置100は、このような性向情報を有しており、性向情報は、感情生成部101に保存されている。したがって、同一のペットロボットでも感情生成部101に保存されている性向情報が異なれば、同じ刺激に対して他の感情情報が生成されうる。
本実施形態で、このような性向情報と感情情報との間の依存関係を依存情報(dependency information)と指称することが可能である。すなわち、依存情報は、性向情報に基づいて或る感情情報を生成するときに使われる論理流れまたは制約規定などになりうる。
動作選択部102は、生成された感情情報に応じて特定の動作情報(motion information)を選択し、該選択された動作情報に応じて感性モデル装置100を動作させる。動作情報は、感性モデル装置100が取る行動パターンを決定する動作パラメータになりうる。すなわち、本実施形態で、感性モデル装置100の特定の行動は動作情報に応じて決定され、動作情報は感情情報に応じて選択され、感情情報は性向情報と依存関係にあるということが分かる。
ユーザ応答受信部103は、選択された動作情報に応じた特定の動作に対応するユーザ応答を受信する。例えば、ペットロボットがしっぽを振りながら吠えるように動作情報が選択される場合、ユーザは上手だったと賞賛するか、うるさいと罰を与えることができる。この際、ユーザの賞賛または罰などがユーザ応答になり、このユーザ応答は、特定の強度を有する陽性応答または陰性応答に分類されうる。
性向更新部104は、感情生成部101から性向情報と感情情報との間の依存情報を受信し、動作選択部102から選択された動作情報及び選択された動作情報を誘発した感情情報を受信し、ユーザ応答受信部103からユーザ応答を受信する。或いは、感情情報は、感情生成部101から提供されてもよい。
性向更新部104は、受信された感情情報と依存情報とに基づいて更新対象となる性向情報を特定することが可能である。そして、受信されたユーザ応答を用いて、特定された性向情報についての学習パラメータを計算し、該計算された学習パラメータを用いて、特定された性向情報を更新することが可能である。
本実施形態で、性向情報は、外向性(Extroversion)、開放性(Openness)、誠実性(Conscientiousness)、同調性(Agreeableness)、神経症(Neuroticism)などの性向特性とそれぞれの性向特性に対する強度で構成することができる。例えば、性向更新部104は、受信された感情情報と依存情報とを用いて性向情報を構成する性向特性を選択することが可能であり、計算された学習パラメータを用いて、選択された性向特性の強度を調節することが可能である。この際、学習パラメータは、性向特性に対する強度を調節する利得(gain)と定義されうる。
図2は、本発明の一実施形態による感性モデル装置の動作を示す図である。図2を参照すると、本実施形態による感性モデル装置は、性向情報201を有している。性向情報201は、外向性、開放性、誠実性、同調性、神経症などの性向特性とそれぞれの性向特性に対する特性強度で区分されうる。性向情報201は、感情生成部101に保存されうる。
本実施形態で、感性モデル装置は、子犬型ペットロボットと仮定する。
子犬型ペットロボットに備えられた感情生成部101は、外部から或る刺激が受信されると、該受信された刺激及び性向情報201に基づいて感情情報202を生成する。例えば、ユーザが子犬型ペットロボットを撫でた場合、感情生成部101は、Happy[3]のような感情パラメータを生成することが可能である。Happy[3]は、感情の種類であって、幸福感とその強度として3を意味することができる。この際、生成される感情情報は、性向情報によって変わり、このような依存関係を依存情報206として表わすことができるということは前述した通りである。
動作選択部102は、感情生成部101の感情情報202に基づいて子犬型ペットロボットが取る動作を決定する動作情報203を選択する。例えば、動作選択部102は、behavior A_[3]、behavior B_[2]などの動作パラメータを選択することが可能である。behavior A_[3]は、しっぽを振る動作と振る速度とを表わし、behavior B_[2]は、吠える動作と吠える音との大きさを表わすことができる。したがって、behavior A_[3]及びbehavior B_[2]が選択される場合、子犬型ペットロボットがしっぽを3の速度で振りながら2の音で吠えることが可能である。
ユーザ応答受信部103は、ユーザ応答204を受信し、これを性向更新部104に伝達する。この際、ユーザ応答204は、特定の強度(または、値)を有する陽性応答または陰性応答に分類されうる。例えば、肯定的な反応は陽性応答になり、否定的な反応は陰性応答になりうる。そして、それぞれの応答が有する強度は、肯定的な程度または否定的な程度として表わすことができる。もし、子犬型ペットロボットがしっぽを振りながら吠えた時、ユーザがうるさいと罰を与える場合、ユーザ応答は、−3のような陰性応答に分類されうる。ユーザ応答は、性向更新部104を通じ、所定の応答分類ツリーを参照して分類されうる。
性向更新部104は、ユーザ応答204を用いて学習パラメータ205を生成し、該生成された学習パラメータを用いて性向情報201を更新する。学習パラメータ205は、性向情報201の特性強度を調節する利得Gになりうる。ここで、添字iは性向特性を表わし、どの性向特性に対する特性強度を調節するかは、生成された感情情報202と依存情報206とに基づいて定められうる。例えば、前記の例のように、子犬型ペットロボットがしっぽを振りながら吠えた時、ユーザが罰を与える場合、最初にHappy[3]という感情情報202を決定した性向情報の性向特性が選択され、該選択された性向特性の特性強度が調節されうる。例えば、Happy[3]という感情情報を誘発した原因が外向性にあれば、学習パラメータ205は、外向性の特性強度を低めるのに使われることができる。
したがって、再び同一の刺激、すなわち、ユーザが子犬型ペットロボットを撫でた時、性向情報201が適応的に変更されたために、以前と異なる感情情報が生成され、これにより、子犬型ペットロボットは、しっぽだけ振って吠えないか、吠えたとしても小さな音でしか吠えないようにすることが可能である。
図3は、本発明の一実施形態による感性モデルの性向学習装置の構成を示す図である。図3を参照すると、本実施形態による性向更新部104は、第1メモリ部301、第2メモリ部302、及び学習制御部303を含みうる。
第1メモリ部301は、現在の動作情報、現在の動作情報を決定した感情情報、現在の動作情報に対応するユーザ応答を保存するワーキングメモリまたは短期保存メモリになりうる。例えば、図2で、現在の動作情報は参照番号203に、現在の動作情報を決定した感情情報は参照番号202に、現在の動作情報に対応するユーザ応答は参照番号204にそれぞれ対応させることができる。動作情報は、動作選択部102から受信され、感情情報は、動作選択部102または感情生成部101から受信されうる。そして、ユーザ応答は、ユーザ応答受信部103から受信され、負数または正数の特定の値の形態で保存されうる。
第2メモリ部302は、性向情報と感情情報との間の依存情報及びユーザ応答を分類するのに使われる応答分類ツリーを保存する長期保存メモリになりうる。この際、依存情報は、感情生成部101から受信されて保存されうる。
学習制御部303は、第1メモリ部301に保存された感情情報及び第2メモリ部302に保存された依存情報を参照して、如何なる性向情報を更新するかを決定する。例えば、図2で、性向情報201の性向特性に対応するインデックス(Index)番号を選択することが可能である。
そして、学習制御部303は、第1メモリ部301に保存されたユーザ応答を用いて学習パラメータを生成する。
例えば、学習パラメータは、次のように計算されうる。
Figure 2011020258
式(1)で、Gは、学習パラメータを表わす。そして、xは、ユーザ応答を表わす。例えば、xは、−3、−2、1、3、4などのように、特定の強度を有する陽性応答または陰性応答になりうる。iは、更新対象となる性向情報、すなわち、図2から選択されたインデックス番号に対応する性向特性になりうる。aは、学習パラメータによって性向情報が変更される範囲を表わし、この値が大きいほど性向情報の変化の範囲が大きくなる。sは、学習率(learning rate)を表わし、この値によって学習速度が調節される。rは、ユーザ応答が肯定的である場合、すなわち、ユーザ応答が正数の反応値を有する場合、偶数(例えば、2)に設定され、ユーザ応答が否定的である場合、すなわち、ユーザ応答が負数の反応値を有する場合、奇数(例えば、1)に設定される値である。
式(1)を参照すると、利得関数は、シグモイド関数(sigmoid function)であるためにx値によって急激に変化するが、xが一定範囲を外れれば、利得値が特定の値に収斂することが分かる。
そして、学習制御部303は、生成された学習パラメータを用いて性向情報を更新することが可能である。例えば、学習制御部303は、選択された性向特性の強度を次のように調節することが可能である。
`=P+G(x) (2)
式(2)で、Pは、初期の性向情報を表わし、P`は、更新された性向情報を表わす。例えば、Pは、i番目の性向特性に対する特性強度になりうる。
このように、性向情報がユーザ応答に応じて適応的に変更されることが可能であり、変更された性向情報は、生成される感情情報及び感情情報に応じて誘発される行動パターンに影響を及ぼすことが分かる。
図4は、本発明の一実施形態による応答分類ツリーを示す図である。図4で示された分類ツリー400は、図3の第2メモリ部302に保存されており、学習制御部303は、分類ツリー400を用いて式(1)のx値、すなわち、ユーザ応答を数値的に表現することが可能である。
図4を参照すると、学習制御部303は、ユーザ応答受信部103からユーザ応答を受信し、分類ツリー400を参照して、受信されたユーザ応答がサウンド応答であるか、非サウンド応答であるかを区分する。サウンド応答である場合、音声分析またはテキスト分析を通じて反応値を決定することが可能であり、非サウンド応答である場合、画像分析を通じて反応値を決定することが可能である。
反応値は、負数または正数になり、否定的な応答に対しては負数の反応値がマッピングされ、肯定的な応答に対しては正数の反応値がマッピングされる。
例えば、本実施形態による感性モデル装置100が、或る動作を取った時、ユーザが、これに対して“Good job”と応答すれば、“+2”のような反応値が生成されることが分かる。この反応値は、式(1)でx値として使われる。
図5及び図6は、本発明の一実施形態による感性モデル装置の性向学習方法を示すフローチャートである。
図5を参照すると、まず、性向情報に応じて外部刺激に対する感情情報を生成する(501)。例えば、感情生成部101が、特定の感情パラメータを生成することが可能である。
そして、生成された感情情報と依存情報とを提供する(502)。例えば、感情生成部101が、生成された感情パラメータ、及び、生成された感情パラメータと性向情報との間の依存情報を性向更新部104に伝送することが可能である。
そして、生成された感情情報に応じて動作情報を選択する(503)。例えば、動作選択部102が、感情生成部101から、生成された感情パラメータを受信し、該受信された感情パラメータに基づいて特定の動作パラメータを選択することが可能である。或いは、選択された動作情報が性向更新部104に伝送されてもよい。
そして、選択された動作情報による特定の動作に対応するユーザ応答を受信する(504)。例えば、ユーザ応答受信部103がユーザ応答を受信し、該受信されたユーザ応答を性向更新部104に伝送することが可能である。
そして、受信されたユーザ応答に基づいて性向情報を更新する(505)。例えば、性向更新部104が、感情生成部101に保存されている性向情報を更新することが可能である。
性向情報を更新する過程をさらに具体的に説明すれば、図6のようである。図6を参照すると、まず、更新対象となる性向特性を選択する(601)。例えば、学習制御部303が、第1メモリ部301に保存されている感情情報及び第2メモリ部302に保存されている依存情報を用いて式(1)のi値を決定することが可能である。感情情報及び依存情報は、図5の段階502を通じてそれぞれのメモリ部301、302に保存されうる。
そして、ユーザ応答に基づいて学習パラメータを計算する(602)。例えば、学習制御部303が、第1メモリ部301に保存されているユーザ応答を用いて式(1)のx値を決定し、利得(G(x))を計算することが可能である。この際、x値は、学習制御部303が、第2メモリ部302に保存されている応答分類ツリーを参照して、受信されたユーザ応答を特定の値にマッピングさせて決定することが可能である。ユーザ応答は、図5の段階504を通じて第1メモリ部301に保存されていることが可能である。
そして、計算された学習パラメータを用いて、選択された性向特性の強度を更新する(603)。例えば、学習制御部303が、式(2)を通じて性向情報を更新することが可能である。
したがって、本実施形態による感性モデルは、ユーザとの相互作用が増加するほど、所望の形態の性向を形成することが可能である。例えば、初期に性向特性の外向性(Extraversion)が高い値に設定されており、話を多くするロボット(Robot)があり、ユーザは無口な(Reserved)ロボットを所望する場合、ロボットはユーザから否定応答(Negative Response)を受け、外向性の値が減る。そして、外向性に依存する感性も値が低くなり、また行動(Behavior)の強度も低くなって、所望の形態のロボットを構成させうる。
図7は、本発明の一実施形態による感性モデルシステムを示す図である。図7を参照すると、本実施形態によるシステム700は、サーバ703と多数の感性デバイス701、702とを含む。それぞれの感性デバイス701、702は、前述した感性モデル装置100であり、サーバ703と通信可能に連結される。そして、サーバ703は、感性デバイス701、702の性向情報を保存することが可能であり、それぞれの感性デバイス701、702は、サーバ703に保存された性向情報を共有することが可能である。
例えば、ユーザがデバイス1(701)と相互作用をすれば、サーバ703に保存された性向情報が更新されうる。引き続き、ユーザがデバイス2(702)を利用する場合、更新された性向情報に基づいて動作が決定され、この動作に対するユーザ応答によって性向情報が再更新されうる。これにより、ユーザが有しているデバイスの性向が同様になるようにすることが可能となる。
その他にも、デバイス1(701)を使う者が数名である場合、サーバ703が、各ユーザ別に性向情報を管理することも可能である。
一方、本発明の実施形態は、コンピュータで読み取り可能な記録媒体にコンピュータで読み取り可能なコードとして具現されうる。コンピュータで読み取り可能な記録媒体は、コンピュータシステムによって読み取られるデータが保存されるあらゆる種類の記録装置を含む。
コンピュータで読み取り可能な記録媒体の例としては、ROM、RAM、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ保存装置などがあり、また、キャリアウェーブ(例えば、インターネットを通じる伝送)の形態で具現するものを含む。また、コンピュータで読み取り可能な記録媒体は、ネットワークで連結されたコンピュータシステムに分散されて、分散方式でコンピュータが読み取り可能なコードとして保存されて実行可能となる。そして、本発明を具現するための機能的な(functional)プログラム、コード及びコードセグメントは、本発明が属する技術分野のプログラマーによって容易に推論されうる。
以上、本発明の実施のための具体的な例を説明した。前述した実施形態は、本発明を例示的に説明するためのものであって、本発明の権利範囲が特定の実施形態に限定されることはない。
本発明は、感性モデル装置、感性モデルの性向学習装置及び方法関連の技術分野に適用可能である。

Claims (14)

  1. 性向情報を保存し、前記性向情報に応じて感情情報を生成する感情生成部と、
    前記生成された感情情報に基づいて、動作を決定する動作情報を選択する動作選択部と、
    前記選択された動作情報によって決定される動作に対応するユーザ応答を受信するユーザ応答受信部と、
    前記受信されたユーザ応答を用いて、前記性向情報についての学習パラメータを生成し、前記生成された学習パラメータを用いて、前記性向情報を更新する性向更新部と、
    を含むことを特徴とする感性モデル装置。
  2. 前記感情生成部が、前記性向情報と前記生成された感情情報との間の依存関係を定める依存情報を前記性向更新部に提供し、前記感情生成部または前記動作選択部が、前記生成された感情情報を前記性向更新部に提供することを特徴とする請求項1に記載の感性モデル装置。
  3. 前記性向更新部は、提供された前記生成された感情情報及び前記依存情報を用いて更新対象となる性向情報を選択し、前記受信されたユーザ応答を用いて、前記選択された性向情報についての前記学習パラメータを生成し、前記生成された学習パラメータを用いて、前記選択された性向情報を更新することを特徴とする請求項2に記載の感性モデル装置。
  4. 前記ユーザ応答は、強度を有する陽性応答及び陰性応答に分類され、
    前記性向更新部は、前記ユーザ応答を分類するための応答分類ツリーを参照して、前記ユーザ応答を前記陽性応答または前記陰性応答に分類することを特徴とする請求項1に記載の感性モデル装置。
  5. 前記性向情報は、性向の特性及び特性別の性向の強度を含み、
    前記学習パラメータは、前記特性別の性向の強度を調節する利得として定められることを特徴とする請求項1に記載の感性モデル装置。
  6. 性向情報に応じて生成された感情情報及び前記感情情報に基づいて選択された動作情報に対応するユーザ応答を保存する第1メモリ部と、
    前記生成された感情情報と前記性向情報との間の依存関係を定める依存情報を保存する第2メモリ部と、
    前記生成された感情情報及び前記依存情報を用いて更新対象となる性向情報を選択し、前記ユーザ応答を用いて、前記選択された性向情報についての学習パラメータを生成し、前記生成された学習パラメータを用いて、前記選択された性向情報を更新する学習制御部と、
    を含むことを特徴とする感性モデルの性向学習装置。
  7. 前記ユーザ応答は、強度を有する陽性応答及び陰性応答に分類され、
    前記第2メモリ部は、前記ユーザ応答を分類するための応答分類ツリーをさらに保存することを特徴とする請求項6に記載の感性モデルの性向学習装置。
  8. 前記学習制御部は、前記応答分類ツリーを参照して、前記ユーザ応答を前記陽性応答または前記陰性応答に分類することを特徴とする請求項7に記載の感性モデルの性向学習装置。
  9. 前記性向情報は、性向の特性及び特性別の性向の強度を含み、
    前記学習パラメータは、前記特性別の性向の強度を調節する利得として定義されることを特徴とする請求項6に記載の感性モデルの性向学習装置。
  10. 性向情報に応じて外部刺激に対する感情情報を生成する段階と、
    前記性向情報と前記生成された感情情報との間の依存関係を定める依存情報及び前記生成された感情情報を提供する段階と、
    前記生成された感情情報に基づいて、動作を決定する動作情報を選択する段階と、
    前記選択された動作情報によって決定された動作に対応するユーザ応答を受信する段階と、
    前記生成された感情情報及び前記依存情報を用いて更新対象となる性向情報を選択し、前記受信されたユーザ応答を用いて、前記選択された性向情報についての学習パラメータを生成し、前記生成された学習パラメータを用いて、前記選択された性向情報を更新する段階と、
    を含むことを特徴とする感性モデルの性向学習方法。
  11. 前記性向情報を更新する段階は、前記受信されたユーザ応答を、強度を有する陽性応答または陰性応答に分類する過程を含むことを特徴とする請求項10に記載の感性モデルの性向学習方法。
  12. 前記性向情報は、性向の特性及び特性別の性向の強度を含み、
    前記学習パラメータは、前記特性別の性向の強度を調節する利得として定義されることを特徴とする請求項10に記載の感性モデルの性向学習方法。
  13. 生成された感情情報、及び性向情報と前記生成された感情情報との間の依存関係を定める依存情報を用いて更新対象となる性向情報の性向特性を選択する段階と、
    前記生成された感情情報に応じて選択された動作に対応するユーザ応答を用いて、前記選択された性向特性についての学習パラメータを生成する段階と、
    前記生成された学習パラメータを用いて、前記選択された性向特性の強度を更新する段階と、
    を含むことを特徴とする感性モデル装置の性向学習方法。
  14. 前記学習パラメータを生成する段階は、前記ユーザ応答を、強度を有する陽性応答または陰性応答に分類する過程を含むことを特徴とする請求項13に記載の感性モデル装置の性向学習方法。
JP2010151724A 2009-07-02 2010-07-02 感性モデル装置、感性モデルの性向学習装置及び方法 Pending JP2011020258A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090060401A KR20110002757A (ko) 2009-07-02 2009-07-02 감성 모델 장치, 감성 모델의 성향 학습 장치 및 방법

Publications (2)

Publication Number Publication Date
JP2011020258A true JP2011020258A (ja) 2011-02-03
JP2011020258A5 JP2011020258A5 (ja) 2013-08-15

Family

ID=43413171

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010151724A Pending JP2011020258A (ja) 2009-07-02 2010-07-02 感性モデル装置、感性モデルの性向学習装置及び方法

Country Status (3)

Country Link
US (1) US8494982B2 (ja)
JP (1) JP2011020258A (ja)
KR (1) KR20110002757A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013027937A (ja) * 2011-07-26 2013-02-07 Fujitsu Ltd ロボット制御装置、ロボットシステム、ロボット装置の行動制御方法、及びプログラム
JP2014074997A (ja) * 2012-10-03 2014-04-24 Korea Inst Of Industrial Technology 人工感情学習装置及び方法

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101678018B1 (ko) * 2010-01-22 2016-11-22 삼성전자주식회사 감성 모델 장치 및 감성 모델 장치의 행동 결정 방법
US9796095B1 (en) 2012-08-15 2017-10-24 Hanson Robokind And Intelligent Bots, Llc System and method for controlling intelligent animated characters
US9104231B2 (en) 2012-09-27 2015-08-11 Microsoft Technology Licensing, Llc Mood-actuated device
US9104467B2 (en) 2012-10-14 2015-08-11 Ari M Frank Utilizing eye tracking to reduce power consumption involved in measuring affective response
US9477993B2 (en) 2012-10-14 2016-10-25 Ari M Frank Training a predictor of emotional response based on explicit voting on content and eye tracking to verify attention
US9046884B2 (en) * 2012-12-31 2015-06-02 Microsoft Technology Licensing, Llc Mood-actuated device
US20140288704A1 (en) * 2013-03-14 2014-09-25 Hanson Robokind And Intelligent Bots, Llc System and Method for Controlling Behavior of a Robotic Character
US9788777B1 (en) * 2013-08-12 2017-10-17 The Neilsen Company (US), LLC Methods and apparatus to identify a mood of media
KR20160004851A (ko) * 2014-07-04 2016-01-13 지유철 단말기로부터 제공되는 사용자의 상태정보를 활용하는 제어스테이션 및 이를 포함하는 제어시스템
JPWO2016092924A1 (ja) * 2014-12-09 2017-09-14 ソニー株式会社 情報処理装置、制御方法、およびプログラム
US10997226B2 (en) 2015-05-21 2021-05-04 Microsoft Technology Licensing, Llc Crafting a response based on sentiment identification
US10025775B2 (en) 2015-09-04 2018-07-17 Conduent Business Services, Llc Emotion, mood and personality inference in real-time environments
CN205734951U (zh) * 2015-12-17 2016-11-30 深圳市知加力科技开发有限公司 具有肢体语言能力的机器人
JP6726388B2 (ja) * 2016-03-16 2020-07-22 富士ゼロックス株式会社 ロボット制御システム
CN105867633B (zh) * 2016-04-26 2019-09-27 北京光年无限科技有限公司 面向智能机器人的信息处理方法及***
WO2018006380A1 (zh) * 2016-07-07 2018-01-11 深圳狗尾草智能科技有限公司 一种机器人人机交互***、装置和方法
CN106200959B (zh) * 2016-07-08 2019-01-22 北京光年无限科技有限公司 面向智能机器人的信息处理方法及***
EP3525141B1 (en) * 2016-11-16 2021-03-24 Honda Motor Co., Ltd. Emotion inference device and emotion inference system
CN108115678B (zh) * 2016-11-28 2020-10-23 深圳光启合众科技有限公司 机器人及其动作控制方法和装置
US10850398B2 (en) * 2017-05-11 2020-12-01 Misty Robotics, Inc. Infinite robot personalities
CN110457721A (zh) * 2018-05-07 2019-11-15 中国石油化工股份有限公司 基于全局参数敏感性分析的化工安全操作域确定方法
JP7076357B2 (ja) * 2018-10-30 2022-05-27 本田技研工業株式会社 感情推定装置
CN111506711A (zh) * 2019-01-14 2020-08-07 北京京东尚科信息技术有限公司 一种智能客服应答方法和装置
CN111461153B (zh) * 2019-01-22 2023-08-04 刘宏军 人群特征深度学习方法
JP7283495B2 (ja) * 2021-03-16 2023-05-30 カシオ計算機株式会社 機器の制御装置、機器の制御方法及びプログラム
CN113524179A (zh) * 2021-07-05 2021-10-22 上海仙塔智能科技有限公司 基于情绪累积数值的控制方法、装置、设备以及介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003340760A (ja) * 2002-05-20 2003-12-02 Sony Corp ロボット装置およびロボット制御方法、記録媒体、並びにプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6185534B1 (en) * 1998-03-23 2001-02-06 Microsoft Corporation Modeling emotion and personality in a computer user interface
US6249780B1 (en) * 1998-08-06 2001-06-19 Yamaha Hatsudoki Kabushiki Kaisha Control system for controlling object using pseudo-emotions and pseudo-personality generated in the object
US6731307B1 (en) 2000-10-30 2004-05-04 Koninklije Philips Electronics N.V. User interface/entertainment device that simulates personal interaction and responds to user's mental state and/or personality
US20030167167A1 (en) 2002-02-26 2003-09-04 Li Gong Intelligent personal assistants
JP2005238422A (ja) 2004-02-27 2005-09-08 Sony Corp ロボット装置、並びにその状態遷移モデル構築方法及び行動制御方法
KR100595821B1 (ko) 2004-09-20 2006-07-03 한국과학기술원 로봇의 감성합성장치 및 방법
US20060248461A1 (en) * 2005-04-29 2006-11-02 Omron Corporation Socially intelligent agent software
US7944448B2 (en) * 2005-06-14 2011-05-17 Omron Corporation Apparatus and method for socially intelligent virtual entity
TWI430189B (zh) * 2009-11-10 2014-03-11 Inst Information Industry 訊息擬真處理系統、裝置及方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003340760A (ja) * 2002-05-20 2003-12-02 Sony Corp ロボット装置およびロボット制御方法、記録媒体、並びにプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013027937A (ja) * 2011-07-26 2013-02-07 Fujitsu Ltd ロボット制御装置、ロボットシステム、ロボット装置の行動制御方法、及びプログラム
JP2014074997A (ja) * 2012-10-03 2014-04-24 Korea Inst Of Industrial Technology 人工感情学習装置及び方法

Also Published As

Publication number Publication date
US8494982B2 (en) 2013-07-23
KR20110002757A (ko) 2011-01-10
US20110004577A1 (en) 2011-01-06

Similar Documents

Publication Publication Date Title
JP2011020258A (ja) 感性モデル装置、感性モデルの性向学習装置及び方法
KR101678018B1 (ko) 감성 모델 장치 및 감성 모델 장치의 행동 결정 방법
JP6446126B2 (ja) 処理システム及びプログラム
KR20070061054A (ko) 복수의 감정 생성 로봇 및 로봇에서 복수의 감정 생성 방법
WO2021135812A1 (zh) 一种情绪信息的处理方法及装置
CN114630738B (zh) 用于模拟感测数据和创建感知的***和方法
US20210132685A1 (en) Apparatus control device, method of controlling apparatus, and non-transitory recording medium
JP2021153680A (ja) 機器の制御装置、機器、機器の制御方法及びプログラム
CN113460060B (zh) 驾驶员疲劳程度评估***、控制方法及存储介质
Van Oijen et al. Scalable perception for BDI-agents embodied in virtual environments
KR20100070773A (ko) 성격 변화 장치 및 그 방법과, 그를 이용한 행동 다양화 장치 및 그 방법과, 그 로봇 시스템
Herrero et al. A human based perception model for cooperative intelligent virtual agents
JP7414735B2 (ja) 複数のロボットエフェクターを制御するための方法
JP6990472B1 (ja) 人とコミュニケーションを行うシステム及びそのためのプログラム
Heudin Evolutionary virtual agent
KR100578071B1 (ko) 퍼스널 로봇의 감정 관리기 및 방법, 그를 이용한 감성합성 장치 및 그 방법
JP2004348721A (ja) 2つの異なる複雑性レベルにおけるシミュレーション
Colombo et al. The adaptive affective loop: how AI agents can generate empathetic systemic experiences
Novikova Designing emotionally expressive behaviour: Intelligibility and predictability in human-robot interaction
Torres et al. The ANIMUS Project: a framework for the creation of interactive creatures in immersed environments
JP5491599B2 (ja) 人工感情を表現するための内部状態算出装置および方法ならびに記録媒体
Lee et al. Human robot social interaction framework based on emotional episodic memory
Torres et al. A perception and selective attention system for synthetic creatures
Patrick et al. The virtual little albert experiment: Creating conditioned emotion response in virtual agents
JP2001209779A (ja) 仮想生物システム及び仮想生物システムにおけるパタン学習方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130701

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140415

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140924