JP5227362B2 - エモーションエンジン、エモーションエンジン・システムおよび電子デバイスの制御方法 - Google Patents

エモーションエンジン、エモーションエンジン・システムおよび電子デバイスの制御方法 Download PDF

Info

Publication number
JP5227362B2
JP5227362B2 JP2010096023A JP2010096023A JP5227362B2 JP 5227362 B2 JP5227362 B2 JP 5227362B2 JP 2010096023 A JP2010096023 A JP 2010096023A JP 2010096023 A JP2010096023 A JP 2010096023A JP 5227362 B2 JP5227362 B2 JP 5227362B2
Authority
JP
Japan
Prior art keywords
behavior
emotion
mode
detection signal
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010096023A
Other languages
English (en)
Other versions
JP2011115932A (ja
Inventor
▲呉▼立偉
Original Assignee
群聯電子股▲ふん▼有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 群聯電子股▲ふん▼有限公司 filed Critical 群聯電子股▲ふん▼有限公司
Publication of JP2011115932A publication Critical patent/JP2011115932A/ja
Application granted granted Critical
Publication of JP5227362B2 publication Critical patent/JP5227362B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Manipulator (AREA)
  • Toys (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、システムおよびその制御方法に関するものであり、特に、電子デバイス制御システムおよびその制御方法に関するものである。
近年、人工知能を有する電子デバイスが開発され、市場に導入された。その結果、感情技術(emotion technology)の開発にますます重点が置かれるようになった。例えば、ロボットとして使用される電子デバイスの感情技術は、常にロボット工学(robotics)における独特の技術であり、情報工学と制御工学の統合技術である。
詳しく説明すると、感情技術の核心概念は、感情空間(emotion space)の実現であり、異なったアルゴリズムと疑似構造によって、生命体に似た感覚および相互作用能力をロボットに与えるもので、厳格な外観および単純で静的な相互作用によってしか疑似感覚を表現できない従来のロボットとは大幅に異なる。そのため、感情技術は、機敏で有意義な相互作用能力を備えた無生命の機械システムを提供して、ロボットの感情を表現することができるため、機械システムが相互作用している間にぎこちなくならない。
しかしながら、ロボット工学における感情技術の開発には、これまで多くの問題が存在してきた。制御システムの制御ユニットは、大量の情報を統合するだけでなく、高レベルの人工知能アルゴリズムを適用して情報を処理しなければならない。そのため、従来の技術では、市場の需要を満たすことのできる製造コストの低いエモーションエンジンを作り上げるのは困難であった。
したがって、本発明は、電子デバイスの製造コストを下げ、且つ電子デバイスがロボットの場合に、電子デバイスの性格をリアルに表現することのできるエモーションエンジンを提供することを目的とする。
本発明は、また、電子デバイスの製造コストを下げ、且つ電子デバイスがロボットの場合に、電子デバイスの性格をリアルに表現することのできるエモーションエンジン・システムを提供することを目的とする。
本発明は、さらに、電子デバイスがロボットの場合に、電子デバイスの性格をリアルに表現することのできる電子デバイスの制御方法を提供することを目的とする。
本発明のある実施形態中、電子デバイスに適用し、且つ行動制御ユニットを備えたエモーションエンジンを提供する。行動制御ユニットは、タイミング信号および誘発検出信号を受信し、第1行動モードおよび第2行動モードを提供する感情模擬ユニットを備える。行動制御ユニットは、タイミング信号、誘発検出信号、および第1行動モードに基づいて、第2行動モードに対応する行動データを決定する。第1行動モードおよび第2行動モードは、それぞれ複数の行動データのうちの少なくとも1つに対応する。
本発明の別の実施形態中、電子デバイスに適用するエモーションエンジン・システムを提供する。エモーションエンジン・システムは、行動制御ユニットと、検出ユニットと、時間ユニットと、行動データバンクとを備える。行動制御ユニットは、第1行動モードおよび第2行動モードを提供する感情模擬ユニットを備える。検出ユニットは、行動制御ユニットに接続され、検出ユニットがイネーブル(enable)になった時に、行動制御ユニットに対して誘発検出信号または初期検出信号を生成する。時間ユニットは、行動制御ユニットに接続されて、行動制御ユニットに対してタイミング信号を生成する。行動データバンクは、行動制御ユニットに接続されて、複数の行動データを保存し、第1行動モードおよび第2行動モードは、それぞれ行動データのうちの少なくとも1つに対応する。行動制御ユニットは、タイミング信号、誘発検出信号、および第1行動モードに基づいて、第2行動モードに対応する行動データを決定する。
本発明のある実施形態中、感情模擬ユニットは、さらに、ランダム信号を生成し、行動制御ユニットは、タイミング信号、誘発検出信号、第1行動モード、およびランダム信号に基づいて、第2行動モードに対応する行動データを決定する。
本発明のある実施形態中、行動制御ユニットは、タイミング信号および初期検出信号のうちの少なくとも1つに基づいて、第1行動モードに対応する行動データを決定する。
本発明のある実施形態中、エモーションエンジン・システムは、さらに、周辺装置駆動ユニットを備え、初期検出信号は、電力信号である。行動制御ユニットは、初期検出信号を受信した後、第1行動モードを提供して、第1行動モードを実行するよう周辺装置駆動ユニットを駆動する。
本発明のある実施形態中、行動制御ユニットは、第2行動モードに対応する行動データを決定した後、第2行動モードを実行するよう周辺装置駆動ユニットを駆動する。
本発明のある実施形態中、タイミング信号は、初期検出信号を受信してから誘発検出信号を受信するまでの時間長情報、または電子デバイスのシステム年齢情報を含む。
本発明のある実施形態中、感情模擬ユニットは、仮想空間(virtual sapce)における感情ポイントおよび複数のシナリオポイント(scenario point)を生成し、各シナリオポイントは、対応する座標および対応する行動モードを有する。感情ポイントは、タイミング信号、誘発検出信号、および第1行動モードに基づいて、古い座標から新しい座標へ移動し、感情模擬ユニットは、新しい座標に基づいて、対応するシナリオポイントを決定し、第2行動モードに対応する行動データを決定する。
本発明のある実施形態中、行動データバンクに保存された行動データは、画像データと、音声データと、運動行動データとを含む。
本発明のさらに別の実施形態中、電子デバイスの制御方法を提供する。この制御方法は、以下のステップを含む。第1行動モードを提供する。電子デバイスの検出ユニットがイネーブルになった時に、誘発検出信号を生成する。タイミング信号を生成する。タイミング信号、誘発検出信号、および第1行動モードに基づいて、第2行動モードに対応する行動データを決定する。
本発明のある実施形態中、制御方法は、さらに、ランダム信号を生成することと、タイミング信号、誘発検出信号、第1行動モード、およびランダム信号に基づいて、第2行動モードに対応する行動データを決定することとを含む。
本発明のある実施形態中、制御方法は、さらに、初期検出信号に基づいて、第1行動モードに対応する行動データを決定することを含む。
本発明のある実施形態中、タイミング信号は、初期検出信号を受信してから誘発検出信号を受信するまでの時間長情報、または電子デバイスのシステム年齢情報を含む。
本発明のある実施形態中、制御方法は、さらに、誘発検出信号のタイプを分析することを含む。
本発明のある実施形態中、第1行動モードを提供するステップは、電力信号を受信した後に、第1行動モードを提供することと、第1行動モードを実行することとを含む。
本発明のある実施形態中、電子デバイスの周辺装置駆動ユニットは、第2行動モードに対応する行動データを決定した後に、第2行動モードを実行するよう駆動される。
本発明のある実施形態中、第2行動モードに対応する行動データを決定するステップは、仮想空間における感情ポイントおよび複数のシナリオポイントを生成することを含み、感情ポイントは、タイミング信号、誘発検出信号、および第1行動モードに基づいて移動し、第2行動モードに対応する行動データは、感情ポイントに最も近いシナリオポイントに対応する。
本発明のある実施形態中、制御方法は、さらに、以下のステップを含む。第1行動モード、タイミング信号、および誘発検出信号に基づいて、対応する感情ベクトル(emotion vector)を得る。感情ベクトルに基づいて、仮想空間における感情ポイントの座標を修正する。感情ポイントに最も近いシナリオポイントを決定し、シナリオポイントに基づいて、第2行動モードに対応する行動データを決定する。
本発明のある実施形態中、制御方法は、さらに、収束ポイントを提供することと、感情ベクトルに基づいて仮想空間における感情ポイントの座標を修正するステップにおいて、感情ポイントを収束ポイントに向かって移動させるための回帰力を提供することを含む。
本発明のある実施形態中、収束ポイントの座標は、タイミング信号に基づいて変動する。
本発明のある実施形態中、仮想空間は、複数の軸を有する多次元空間であり、行動制御ユニットは、ベクトル演算によって、新しい座標に対応するシナリオポイントを決定し、仮想空間の軸は、それぞれ電子デバイスの異なる情動行動を表す。
本発明のある実施形態中、シナリオポイントに基づいて第2行動モードに対応する行動データを決定するステップは、システム年齢情報およびシナリオポイントに基づいて、第2行動モードに対応する行動データを提供することを含む。
以上述べたように、本発明の実施形態は、電子デバイスの製造コストを下げ、且つ電子デバイスをロボットとして応用した場合に、電子デバイスの性格をリアルに表現することのできるエモーションエンジンおよびエモーションエンジン・システムを提供する。また、エモーションエンジンおよびエモーションエンジン・システムは、モジュラー構造を有し、特定の外観またはデザインを有する電子デバイスに限定されない。さらに、本発明の実施形態は、リアルタイムの感情演算および感情ポイントの概念を適用した電子デバイスの制御方法を提供するため、電子デバイスをロボットとして応用した時に、電子デバイスの性格をリアルに表現することができる。それによって、製造コストが下がるため、電子デバイスの市場競争力が上がる。
本発明の上記及び他の目的、特徴、および利点をより分かり易くするため、図面と併せた幾つかの実施形態を以下に説明する。
本発明の実施形態に係るエモーションエンジン・システムの図である。 図1のエモーションエンジン・システムを詳細に示した図である。 仮想空間(virtual space)におけるロボットの情動反応を示した図である。 本発明の実施形態に係る電子デバイスの制御方法のフローチャートである。 ステップS407を詳細に示したフローチャートである。
以下、本発明の好ましい実施形態を添付の図面を参照してさらに詳細に説明する。各図面および関連説明において、同一または類似する構成要素には、同一の参照番号を使用する。
図1は、本発明の実施形態に係るエモーションエンジン・システムの図である。図1を参照すると、本実施例において、エモーションエンジン・システム100は、行動制御ユニット110と、検出ユニット120と、時間ユニット150と、行動データバンク140と、周辺装置駆動ユニット130とを備える。行動制御ユニット110は、段階制御ユニット(phase control unit)111と、感情模擬ユニット113とを備える。検出ユニット120、時間ユニット150、および行動データバンク140は、それぞれ行動制御ユニット110に接続され、行動制御ユニット110が第1行動モードおよび第2行動モードを提供するのを助ける。
本実施形態中、エモーションエンジン・システム100は、ロボットまたは電子ペット(図示せず)のような情動反応を有する電子デバイスに適用される。本発明の各実施形態では、電子デバイスの例としてロボットを挙げて説明するが、本発明はこれに限定されない。ロボットの情動反応は、ロボットとユーザーの間の相互作用において生じる反応メカニズム、時間ユニット150によって設定される行動表現、または外部状況の必要に応じて生成される対応行動である。
以下に、エモーションエンジン・システム100の操作について、実施形態を参照して詳細に説明する。
本実施形態中、段階制御ユニット111および感情模擬ユニット113は、1つまたは複数の制御回路において、ファームウェア(firmware)、ハードウェア、またはソフトウェアの形式で実施される。例えば、複数の制御指令をプログラムメモリ(例えば、読み出し専用メモリ(ROM))に記録して、プログラムメモリをマイクロプロセッサに接続することによって、段階制御ユニット111および感情模擬ユニット113を有する行動制御ユニット110が形成される。エモーションエンジン・システム100が作動中の時、マイクロプロセッサによって段階制御ユニット111および感情模擬ユニット113の制御指令が実行され、本実施形態のエモーションエンジン管理メカニズムが完成する。
行動制御ユニット110が初期検出信号を受信した時、行動制御ユニット110は、第1行動モードを提供して、第1行動モードを執行するよう周辺装置駆動ユニット130を駆動する。初期検出信号は、電力信号、または他の駆動信号であってもよい。ロボットが表現する行動モードは、一般モード、能動的事件(active event)モード、受動的事件(passive event)モード、睡眠モード、起床モード、およびランダム行動モードのうちの1つであるが、本発明はこれらに限定されない。例えば、行動制御ユニット110は、ロボットの電源を入れた時に起床モードを提供するため、ロボットの行動または状態は、生命体が行う動作のように、より鮮明でリアルになる。
本実施形態中、検出ユニット120は、行動制御ユニット110に接続される。ロボットが刺激を受けた時、検出ユニット120がイネーブルになり、行動制御ユニット110に対して誘発検出信号を生成する。例えば、ロボットとユーザーが互いに相互作用した時、検出ユニット120は、ロボットとユーザーの間の相互作用に基づいて、行動制御ユニット110に対して誘発検出信号を生成する。例えば、ユーザーがロボットを触ったり、叩いたり、揺らしたり、殴ったりした時、検出ユニット120によって生成された誘発検出信号に基づいて、行動制御ユニット110がユーザーの行動のタイプを決定し、ロボットに対応する情動反応(例えば、喜び、怒り、悲しみ等)を表現させる。
時間ユニット150は、行動制御ユニット110に接続される。本実施形態において、時間ユニット150は、生物時計(bio-clock)時間表152を備える。生物時計時間表152は、ロボットのシステム年齢情報を記録して、一定の期間内に行動制御ユニット110に対してタイミング信号を生成するため、行動制御ユニット110は、ロボットの異なる生命段階に基づいて、ユーザーと相互作用するようロボットを制御することができる。また、行動制御ユニット110が初期検出信号および誘発検出信号を受信した後、時間ユニット150は、時間長情報(行動制御ユニット110が初期検出信号を受信してから、行動制御ユニット110が誘発検出信号を受信するまでの期間)を行動制御ユニット110に提供して、行動制御ユニット110が第2行動モードに対応する行動データを決定するのを助ける。
このようにして、エモーションエンジン・システム100の行動制御ユニット110は、ロボットの生物時計および生命段階に基づいて、生命体の行動に似たロボットの行動をリアルに表現することができる。
本実施形態中、行動データバンク140は、複数の行動データを保存し、ロボットの行動モードは、それぞれ行動データのうちの少なくとも1つに対応する。感情技術において、異なる行動データの1片は、仮想空間の座標システムにおいて異なる位置に対応し、仮想空間は、感情空間の実現である。ここで、仮想空間は、二次元(2D)空間、三次元(2D)空間、または他次元空間であり、行動データバンク140に保存された行動データは、画像データ、音声データ、および運動行動データを含むが、本発明はこれらに限定されない。
本実施形態中、行動制御ユニット110は、タイミング信号、誘発検出信号、および第1行動モードに基づいて、第2行動モードに対応する行動データを決定する。例えば、エモーションエンジン・システム100の時間ユニット150は、正午にタイミング信号を発するため、それに応じて、ロボットが行動を生成し、ユーザーに摂食要求を発する。5分後に、ユーザーがロボットに食事を与える。検出ユニット120は、それから、食事を受け取るための誘発検出信号を行動制御ユニット110に発するため、それに応じて、行動制御ユニット110は、対応する情動反応を表現するようロボットを制御する。例えば、ユーザーが十分な食事を与えなかった場合、行動制御ユニット110は、怒りの情動反応を表現するようロボットを制御する。反対の場合、行動制御ユニット110は、満足した反応を表現するようロボットを制御する。ここで、時間ユニット150が正午に発したタイミング信号は、初期検出信号であり、それに応じてユーザーに摂食要求を発するロボットの行動は、第1行動モードである。次に、ロボットは、ユーザーから食事を受け取るまで5分間待つ。この5分間待つこともタイミング信号であり、食事を与える信号は誘発検出信号である。このように、摂食の信号を受信した後、行動制御ユニット110は、摂食要求、待ち時間、および食事の量の計算結果または分析に基づいて、満足、怒り、またはもっと食事を与えるよう要求する情動反応を生成することを決定する。ここで、対応する情動反応は、第2行動モードに対応する。そのため、行動制御ユニット110は、タイミング信号、誘発検出信号、および第1行動モードに基づいて、第2行動モードに対応する行動データを決定する。
さらに、別の実施形態について説明する。例えば、午後11時にロボットを叩く。1分後に、再度ロボットを叩く。この場合、ロボットは、怒りの情動反応を表現する。しかし、1時間後に再度叩いた場合、最初に叩いた時から長時間が経過して、最初に叩かれて生じた怒りの感情が静まっているため、ロボットは怒らない。また、ロボットの生物時計が睡眠時間であることを示すと、ロボットの情動反応は、少し怒りっぽくなる。
上述した実施形態からわかるように、タイミング信号(つまり、初期検出信号を受信してから誘発検出信号を受信するまでの時間長情報)、誘発検出信号、および第1行動モードは、第2行動モードに対応する行動データの決定に影響を及ぼす。
本実施形態中、行動制御ユニット110は、また、電力信号を受信した時に、第1行動モードを提供する。例えば、行動制御ユニット110は、何もしないか、または挨拶をするようロボットを制御する。しかしながら、他の実施形態において、行動制御ユニット110は、タイミング信号または誘発検出信号に基づいて、第1行動モードに対応する行動データを決定して、第1行動モードを実行するようロボットを駆動することもできる。すなわち、第1行動モードに対応する行動データは、ロボットの電源を入れた時に設定した行動データのみに限定されず、タイミング信号または誘発検出信号に基づいて決定することもできる。
詳しく説明すると、本実施形態において、行動制御ユニット110は、感情模擬ユニット113を備える。
感情模擬ユニット113は、感情ポイントおよび複数のシナリオポイントを有する仮想空間を生成する。感情ポイントおよびシナリオポイントは、それぞれ仮想空間の座標ポイントに対応する。感情ポイントは、タイミング信号および初期検出信号に基づいて移動する。行動制御ユニット110は、感情ポイントの新しい位置に最も近いシナリオポイントを見つけて、第1行動モードを決定する。また、感情ポイントは、第1行動モード、タイミング信号、および誘発検出信号に基づいて、別の座標ポイントへ移動する。この場合、行動制御ユニット110は、もう一度、感情ポイントの新しい位置に最も近いシナリオポイントを見つけて、第2行動モードに対応する行動データを決定する。ここで、行動データバンク140に保存された行動データは、それぞれ仮想空間における異なるシナリオポイントに対応する。つまり、各シナリオポイントは、仮想空間の座標ポイントに対応し、感情ポイントは、異なる信号に基づいて、仮想空間内で移動する。また、感情模擬ユニット113は、数学的アルゴリズム(mathematical algorithm)によって、感情ポイントに最も近いシナリオポイントを獲得し、第2行動モードに対応する行動データを決定する。この状況については、本発明の別の実施形態を参照して、以下にさらに説明する。
別の実施形態中、感情模擬ユニット113は、さらに、ランダム信号を生成する。感情ポイントは、ランダム信号にも基づいて移動するため、ロボットは、外部の信号に対する情動反応だけでなく、ロボットの内部の心情変化も表現する。そのため、多様化および個人化された行動モードが生成される。また、別の実施形態において、行動制御ユニット110は、タイミング信号、誘発検出信号、第1行動モード、およびランダム信号に基づいて、第2行動モードに対応する行動データを決定する。同様に、行動制御ユニット110は、また、タイミング信号、初期検出信号、およびランダム信号に対応する行動データを決定する。
さらに別の実施形態中、行動制御ユニット110は、さらに、段階制御ユニット111を備える。段階制御ユニット111は、時間ユニット150によって提供されたタイミング信号に基づいて、行動制御ユニット110によって提供された第1行動モードおよび第2行動モードに対応する行動データを調整する。タイミング信号は、ロボットが成年期であるか、または幼年期であるかを表示する。ロボットは、異なる生命段階の時、同じ誘発検出信号に対して異なる情動反応を有する。例えば、成年期のロボットは、叩かれた時、激しい怒りの情動反応を表現するが、幼年期のロボットは、怒りと悲しみの情動反応を表現する。
図2は、図1のエモーションエンジン・システムを詳細に示した図である。図2を参照すると、本実施形態において、段階制御ユニット111は、児童タイミングモジュール114と、成人タイミングモジュール118とを備える。タイミングモジュールのそれぞれは、複数の行動モードを有する。例えば、児童タイミングモード114は、一般モード114aと、能動的事件モード114bと、受動的事件モード114cと、睡眠モード114eと、起床モード114eと、ランダム行動モード114fとを有する。同様にして、成人タイミングモジュール118も、上述したモードを有する。
詳しく説明すると、段階制御ユニット111は、ロボットのシステム年齢に基づいて、異なる生命段階の生命体によって表現された行動または状態のように、異なるタイミングモジュールにおけるロボットの行動をリアルに表現する。例えば、エモーションエンジン・システム100が起動されると、ロボットの生命段階は、時間ユニット150の生物時計時間表152に記録されたロボットのシステム年齢に基づいて、初期状態112から児童タイミングモジュール114に入り、対応する行動モードを実行する。その後、ロボットのシステム年齢の増加とともに、成長/転換インターフェース116によって、段階制御ユニット111のタイミングモジュールが成人タイミングモジュール118に切り換わる。
児童タイミングモジュール114において、段階制御ユニット111は、ランダムに、または時間ユニット150から受信したタイミング信号に基づいて、ロボットの行動を制御する。例えば、段階制御ユニット111は、能動的事件モード114bを実行した時、ユーザーに能動的要求を発するようロボットを制御して、能動的要求を満たすよう要求する。本実施形態において、ロボットがユーザーに能動的要求を発して、能動的要求を満たすよう要求する事件は、例えば、ロボットが、予め設定された、またはランダムな時間の後に空腹を感じ、それに応じて摂食要求を発することや、ロボットが食事の後に排尿要求を発することである。また、能動的事件モード114bは、段階制御ユニット111が本や新聞を読むようロボットを制御することでもいい。
また、受動的事件モード114cを実行している間、段階制御ユニット111は、ロボットによって受動的に受け取った行動状態に対応する反応を表現するようロボットを制御する。例えば、ロボットを触ったり、倒したり、叩いたりした時、段階制御ユニット111は、生物時計時間表152に記録されたロボットのシステム年齢、および感情模擬ユニット113のシナリオポイントに基づいて、嬉しい、痛い、または楽しい外観を表現するようロボットを制御する。さらに、ランダム行動モード114fにおいて、段階制御ユニット111は、遊戯モードや放浪モードのような様々なランダム行動モードを実行するようロボットを制御する。本実施形態において、段階制御ユニット111が児童タイミングモード114に切り換わった時、段階制御ユニット111は、生物時計時間表152に記録されたロボットの生物時計に基づいて、一般モード114a、睡眠モード114d、および起床モード114eを実行するようロボットを制御する。
その後、ロボットのシステム年齢の増加とともに、成長/転換インターフェース116によって、段階制御ユニット111のタイミングモジュールが成人タイミングモジュール118に切り換わる。同様にして、成人タイミングモジュール118において、段階制御ユニット111は、また、独立して、または感情模擬ユニット113と一緒に周辺装置駆動ユニット130を駆動して、異なる行動モードに対応する異なる情動反応を表現するようロボットを制御する。注意すべきこととして、成人タイミングモジュール118において、ロボットが表現する異なる行動モードに対応する情動反応は、児童タイミングモード114のロボットが表現する情動反応と異なる。例えば、ロボットは、睡眠モード118dにおいて、睡眠モード114dの時よりも短い睡眠時間を要求し、起床モード118eにおいて、起床モード114eの時よりも短い間ベッドに寝ている。しかしながら、本発明はこれに限定されない。他の実施形態において、異なるタイミングモジュールの行動モードは、異なる生命段階の生命体によって表現される対応行動および状態に基づいて、微調整を行うことができる。
そのため、段階制御ユニット111は、仮想空間を共有することによって異なるタイミングモジュールの情動反応を生成し、周辺装置駆動ユニット130を駆動することによって周辺システムを制御することができる。したがって、段階制御ユニット111は、異なる生命段階の生命体によって表現される対応行為および状態のように、ロボットのシステム年齢に基づいて、異なるタイミングモジュールにおけるロボットの行動をリアルに表現することができる。
図2を参照すると、本実施形態において、時間ユニット150は、ロボットのシステム年齢および生物時計を記録するための生物時計時間表152を備え、タイミング信号に基づいて段階制御ユニット111のタイミングモジュールを切り換えることができる。また、生物時計時間表152は、異なる生命段階の生命体によって表現された行動や状態を模倣する模倣生命サイクル(emulational life cycle)と、生命体の日常行動を模倣する生物時計サイクル(biological clock cycle)を記録する。本実施形態において、模倣生命サイクルおよび生物時計サイクルは、生物時計時間表152に予め記憶されるが、本発明はこれに限定されない。
時間ユニット150は、システム年齢と模倣生命サイクルの間の関係に基づいて、段階制御ユニット111のタイミングモジュールを切り換える。例えば、時間ユニット150は、システム年齢の増加とともに、段階制御ユニット111のタイミングモジュールを、児童タイミングモジュール114から成人タイミングモジュール118へ切り換える。詳しく説明すると、エモーションエンジン・システム100を起動した後、生物時計時間表152に記録されるロボットのシステム年齢は0である。その後、生物時計時間表152は、時間の経過とともに、ロボットのシステム年齢を記録し続ける。例えば、生物時計時間表152に記録されたロボットのシステム年齢は、実際に1日が経過すると、1になる。したがって、ロボットのシステム年齢は、2日が経過すると2になり、3日が経過すると3…というように増加するが、本発明はこれに限定されない。
次に、時間ユニット150は、システム年齢と模倣生命サイクルの間の関係に基づいて、段階制御ユニット111のタイミングモジュールを切り換える。例えば、ロボットのシステム年齢が20の時にロボットが成人期に入るよう模倣生命サイクルを設定した場合、時間ユニット150は、実際に20日が経過した時に、段階制御ユニット111のタイミングモジュールを成人タイミングモジュール118に切り換える。したがって、ロボットのシステム年齢の増加とともに、段階制御ユニット111のタイミングモジュールは、成長/転換インターフェース116によって、成人タイミングモジュール118に切り換わる。
また、時間ユニット150からタイミング信号を受信している間、段階制御ユニット111は、ロボットの生物時計と生物時計サイクルの間の関係に基づいて、上述した行動モードの中の対応する1つを実行するようロボットを制御する。詳しく説明すると、起床モードが午前7時に実行されるよう生物時計サイクルを設定した場合、タイミングユニット150は、実際に午前7時になった時に、タイミング信号を段階制御ユニット111に提供するため、段階制御ユニット111は、起床モードを実行するようロボットを制御する。同様にして、睡眠モードが午後7時に実行されるよう生物時計サイクルを設定した場合、段階制御ユニット111は、実際に午後7時になった時に、タイミング信号に基づいて、睡眠モードを実行するようロボットを制御する。ユーザーは、ロボットが特定の時間に上述した行動モードの中の対応する1つを実行するよう生物時計サイクルにおいて予め設定することができる。
したがって、エモーションエンジン・システム100は、システム年齢と模倣生命サイクルの間の関係、および生物時計と生物時計サイクルの間の関係に基づいて、異なるタイミングモジュールにおけるロボットの行動をリアルに表現し、特定の時間に予め設定した行動モード(例えば、異なる生命段階で生命体が表現する状態、および生命体の異なる時間に対応する生理的行動)を実行するようロボットを制御することができる。
本実施形態中、検出ユニット120は、異なるイネーブル信号を検出または感知して、対応する初期検出信号または誘発検出信号を行動制御ユニット110に提供する。検出ユニット120は、接触検出モジュール120aと、音声検出/位置決めモジュール120bと、ウォブル検出モジュール120cとを備える。
周辺装置駆動ユニット130は、行動制御ユニット110によって制御され、対応する操作を実行するよう周辺機器を駆動する。周辺装置駆動ユニット130は、モータ制御ユニット130aと、マルチメディア制御ユニット130bとを備える。
例えば、ユーザーがロボットの周りで拍手の音を出した時、検出ユニット120の音声検出/位置決めモジュール120bがイネーブルになり、拍手の音を出したユーザーの位置を検出して、行動制御ユニット110に検出信号を発する。それに応じて、行動制御ユニット110は、検出した位置に向かってロボットが動くようにモータ制御ユニット130aを駆動する。その後、ロボットが拍手の音を出したユーザーの位置に到着した時、マルチメディア制御ユニット130bは、予め設定した音声を発してユーザーと相互作用するようロボットを駆動する。ここで、ユーザーがロボットに触ったり、ロボットを揺らしたりした時、接触検出モジュール120aまたはウォブル検出モジュール120cが、行動制御ユニット110に対応する検出信号を発するため、行動制御ユニット110は、ロボットがユーザーとさらに相互作用するようマルチメディア制御ユニットを駆動する。
行動データバンク140は、各タイミングモジュールの行動モードに対応する行動データ、およびロボットの情動反応に対応する行動データを保存する。行動データは、それぞれ仮想空間における複数のシナリオポイントに対応する。また、行動データバンク140に保存される行動データは、画像データ、音声データ、または運動行動データを含む。本実施形態において、画像データは、発光ダイオード画素(LED pixel)のドットアレイであってもよい。音声データは、異なる場面に関連する音響効果情報であってもよく、メディアチップによって、異なる状況変化の要求を満たすよう調整される。運動行動データは、種々のモータステップ角(motor step angle)または軌跡に関する情報であってもよい。
詳しく説明すると、本実施形態において、行動データバンク140は、児童タイミングモジュール114の行動モードに対応する画像データ、音声データ、および運動行動データを保存する。そのため、行動制御ユニット110が周辺装置駆動ユニット130によって異なる行動モードを実行するようロボットを制御した時、ロボットは、行動データバンク140に保存された行動データ140aに基づいて、対応する情動反応を表現するため、エモーションエンジン・システム100は、ロボットの行動をリアルに表現することができる。同様にして、行動データバンク140は、また、成人タイミングモジュール118の行動モードに対応する行動データ140bを保存するため、成人タイミングモジュール118のロボットの行動も、リアルに表現される。
このことからわかるように、本実施形態の行動制御ユニット110は、タイミング信号および初期検出信号に基づいて、第1行動モードに対応する行動データを決定する、あるいは、タイミング信号、誘発検出信号、および第1行動モードに基づいて、第2行動モードに対応する行動データを決定することができる。
図3は、仮想空間におけるロボットの情動反応を示した図である。図2および図3を参照すると、本実施形態において、仮想空間は、行動制御ユニット110によって生成された三次元空間であり、仮想空間の軸は、それぞれロボットの愉快度(pleasantness)、覚醒度(arousal)、および確実度(certainty)を表し、模擬生命体の感情のスカラー値(scalar value)を表現する。しかしながら、本発明はこれに限定されず、仮想空間は、二次元空間でも、多次元空間でもよい。また、別の実施形態において、軸は、怒り、悲しみ、混乱、知力の度合、または他の異なる情動行動を表してもよい。
注意すべきこととして、仮想空間において、軸APC(Arousal, Pleasantness, Certainty)は心理学的概念を示すもので、仮想空間における模擬生命体の異なる感情ポイントは異なる座標ポイントを有し、各感情ポイントSは異なる行動モードに対応する。また、仮想空間において、感情ポイントSは、ロボットの現在の情緒状態を表す。例えば、ロボットがユーザーと相互作用した時、ロボットの情動反応は、感情ポイントの位置に影響を及ぼす。また、エモーションエンジン・システム100の生物時計によって設定された行動、および外部の状況に反応して生成された対応行動は、全て感情ポイントの位置に影響を及ぼす。
ここで、行動データバンク140に保存された行動データは、それぞれ仮想空間における複数のシナリオポイントQに対応する。本実施形態において、感情ポイントSは、区間半径Rの範囲内でオフセットをランダムに生成して、感情ポイントSとともに移動するランダム振動区間を形成するため、ロボットの情動反応がぎこちなくなりすぎない。したがって、時間の経過とともに、行動制御ユニット110の感情模擬ユニット113は、仮想空間に移動軌跡Tを形成するようロボットの情動反応を制御して、異なる状況における生命体の情動反応を模倣する。詳しく説明すると、感情模擬ユニット113は、全ての外部環境の変化に応じて数値計算を行い、仮想空間に感情ベクトルを生成して感情ポイントSを押すことによって、模擬生命体の感情変化を模倣する。ここで、外部環境の変化は、タイミング信号、初期検出信号、誘発検出信号、第1行動モード、およびランダム信号を量子化(quantizing)することによって得られるが、本発明はこれに限定されない。
別の実施形態中、行動制御ユニット110によって生成された仮想空間は、さらに、収束ポイントPを含む。収束ポイントPは、仮想空間の原点または任意の座標ポイントに配置され、ロボットの性格を表す。例えば、収束ポイントPの座標が比較的大きな愉快度と確実度を有する場合、ロボットは、外交的で合理的な性格を持つ。反対に、収束ポイントPの座標が比較的小さな愉快度と比較的大きな確実度を有する場合、ロボットは、堅苦しく頑固な性格を持つ。ここで、収束ポイントPは、リアルタイムで仮想の回帰力(regression force)を提供する。つまり、収束ポイントPは、タイミング信号に基づいて、回帰力を提供する。ロボットが検出信号を受信する前、感情ポイントSは、収束ポイントPに向かって移動し、外部の刺激を受けていない時に、ロボットの情動反応が徐々にロボットの元の性格に戻るという状況を模倣する。ロボットが刺激を受けた時、収束ポイントPは、行動制御ユニット110に回帰力を提供して、適切な行動モードを決定し、異なる性格を有するロボットが同じ事件を受け取った時に、異なる情動反応を生成する。つまり、初期検出信号の受信と誘発検出信号の受信の間の時間長情報は、収束ポイントPの回帰力によって、第2行動モードに対応する行動データにも影響を及ぼす。
さらに別の実施形態中、模擬生命体の感情性格を多様化するため、行動制御ユニット110は、さらに、通常の間隔で、または不規則なパターンで移動するよう収束ポイントPを制御して、ロボットの性格に向かって収束する特徴を達成する。例えば、行動制御ユニット110は、時間ユニット150の情報に基づいて、予め定められた生物周期(biological period)の間に、愉快度、覚醒度、確実度の低い座標ポイントに収束ポイントPを移動する。あるいは、行動制御ユニット110は、ロボットの幼年期または成年期の間に異なる座標位置に移動するよう収束ポイントPを制御する。このようにして、行動制御ユニット110は、生命体に似た感情的外観をロボットに表現させる。
さらに詳しく説明すると、ロボットが刺激を受けた時、感情模擬ユニット113が刺激に基づいて感情ポイントSに感情ベクトルVを生成して、収束ポイントPが感情ポイントSに回帰力Fを提供するため、感情ポイントSは、他の座標ポイントに移動する。次に、感情模擬ユニット113は、現時点において感情ポイントSに最も近いシナリオポイントQはどれであるかを判断して、実行すべき行動モードを決定する。
本実施形態中、仮想空間において、シナリオポイントQは、特定感情の表現特徴を記録する。特定感情の表現特徴は、例えば、ロボットが嬉しい、興奮した、怖い、または悲しい時のロボット行動である。
例えば、ユーザーがロボットの周りで拍手の音を出した時、拍手の音は、行動性制御ユニット110によって、外部の刺激またはユーザーとの相互作用とみなされる。それから、ロボットの情動反応は、仮想空間における感情ポイントSから始まり、感情模擬ユニット113の演算によって、感情ポイントSは、時間の経過とともに移動軌跡を形成する。情動演算の過程中、感情ポイントSは、感情ポイントSとシナリオポイントQの間の最も近い距離に基づいて、ロボットの現在の情動反応を選択する。その後、ロボットの感情は、収束ポイントPの回帰力Fによって回復する。
上述した過程中、ロボットが再度刺激を受け、それに応じて、特定の情動反応を表現する可能性がある。例えば、最初の拍手の音によって刺激を受けた時、ロボットは嬉しい感情を表現するが、情動演算の過程中、別の拍手の音によって刺激を受けた時、ロボットは、困った、または呆れた感情を表現する。
本実施形態中、感情模擬ユニット113は、ロボットが刺激を受けなくても、情動操作を実行することができるため、ロボットは多様化された情動反応を表現することができ、あまりぎこちなくならない。
また、本実施形態中、行動データバンク140に保存された行動データを増やすことによって、仮想空間におけるシナリオポイントを増加させ、ロボットの性格に変化をもたらすことができる。また、行動データバンク140に保存された行動データは、相互から独立することができ、索引検索ユニット140cによって、仮想空間に各状況索引関係が標記される。行動データバンク140は、異なる行動および情動反応に基づいて行動データを分類し、段階制御ユニット111の要求に基づいて対応する行動データに切り換えることができる。
上述した実施形態に基づいて、電子デバイスの制御方法について以下に説明する。図4は、本発明の実施形態に係る電子デバイスの制御方法のフローチャートである。本実施形態において、制御方法は、情動反応を有するロボットに適用される。制御方法は、以下のステップを含む。
まず、ステップS401において、行動制御ユニット110によって、第1行動モードを提供する。ここで、行動制御ユニット110は、いったん電源が入ると、初期検出信号を受信して、予め設定された第1行動モードを提供する。本実施形態において、初期検出信号は、例えば、電力信号であるが、本発明はこれに限定されない。
次に、ステップS403において、検出ユニット120がイネーブルになった時に、行動制御ユニット110に誘発検出信号を生成する。ここで、エモーションエンジン・システム100は、検出ユニット120によって環境情報を取得し、外部環境から受け取った相互作用行動のタイプを識別する。つまり、ロボットが外部の刺激を受けた時、検出ユニット120がイネーブルになる。
その後、ステップS405において、時間ユニット150によって行動制御ユニット110にタイミング信号を生成して、段階制御ユニット111のタイミングモジュール、または第2行動モードを決定する他の情報を切り換える。ここで、第2行動モードを決定する他の情報とは、初期検出信号を受信してから誘発検出信号を受信するまでの間の時間長情報である。他の実施形態において、ステップS403の前にステップS405を実行して、タイミング信号を提供してもよい。
次に、ステップS407において、タイミング信号、誘発検出信号、および第1行動モードに基づいて、第2行動モードに対応する行動データを決定する。ここで、第2行動モードに対応する行動データは、感情模擬ユニット113の情動演算によって決定される。つまり、ロボットの現在の情動反応は、感情模擬ユニット113の情動演算によって決定される。
最後に、ステップS409において、周辺装置駆動ユニット130を駆動して、第2行動モードを実行する。その後、収束ポイントPの回帰力Fによって、感情ポイントSが収束ポイントPに向かって移動する。
別の実施形態中、ランダム信号をさらに生成して、タイミング信号、誘発検出信号、第1行動モード、およびランダム信号に基づいて、第2行動モードに対応する行動データを決定する。
図5は、ステップS407を詳細に示したフローチャートである。図5を参照すると、ステップS501において、行動制御ユニット110によって、タイミング信号および誘発検出信号を受信する。それから、ステップS503において、感情模擬ユニット113の情動演算によって、第1行動モード、タイミング信号、および誘発検出信号のタイプおよび強度に基づいて、対応する感情ベクトルVおよび対応する回帰力Fを得る。次に、ステップS505において、感情模擬ユニット113によって提供されたランダム信号に基づいて、古い座標にある感情ポイントSを移動し、ステップS507に示すように、感情ポイントSの新しい座標を得る。その後、ステップS509において、感情模擬ユニット113によって、感情ポイントSの新しい座標に最も近いシナリオポイントを見つけて、段階制御ユニット111にシナリオポイントを提供する。ステップS511において、現在のタイミングおよびシナリオポイントに基づいて、段階制御ユニット111によって、ロボットの現在の情動反応を提供する。
言及すべきこととして、第1行動モードに対応する行動データは、ロボットの電源を入れた時に設定した行動データだけでなく、タイミング信号または初期検出信号に基づいても決定される。
以上のように、本発明の実施形態は、電子デバイスの性格をリアルに描写および表現することのできるエモーションエンジンおよびエモーションエンジン・システムを提供し、且つモジュラー構造を備えているため、エモーションエンジンおよびエモーションエンジン・システムを応用する場合に、特定の外観やデザインを有する電子デバイスのみに限定されない。また、本発明の実施形態は、リアルタイムの情動演算および収束ポイントの概念を適用した電子デバイスの制御方法を提供するため、電子デバイスの性格をリアルに描写および表現することができる。
以上のごとく、この発明を実施形態により開示したが、もとより、この発明を限定するためのものではなく、当業者であれば容易に理解できるように、この発明の技術思想の範囲内において、適当な変更ならびに修正が当然なされうるものであるから、その特許権保護の範囲は、特許請求の範囲および、それと均等な領域を基準として定めなければならない。
100 エモーションエンジン・システム
110 行動制御ユニット
111 段階制御ユニット
112 初期状態
113 感情模擬ユニット
114 児童タイミングモジュール
116 成長/転換インターフェース
118 成人タイミングモジュール
114a〜f、118a〜f 行動モード
120 検出ユニット
120a 接触検出モジュール
120b 音声検出/位置決めモジュール
120c ウォブル検出モジュール
130 周辺装置駆動ユニット
130a モータ制御ユニット
130b マルチメディア制御ユニット
140 行動データバンク
140a 児童タイミングモジュールの行動データ
140b 成人タイミングモジュールの行動データ
140c 索引検索ユニット
150 時間ユニット
152 生物時計時間表
S401、S403、S405、S407、S409 ステップ
S501、S503、S505、S507、S509、S511 ステップ
F 回帰力
P 収束ポイント
Q シナリオポイント
R 区間半径
S 感情ポイント
T 移動軌跡
V 感情ベクトル

Claims (18)

  1. 電子デバイスに適用するエモーションエンジンであって、
    前記エモーションエンジンが、
    タイミング信号および誘発検出信号を受信して、第1行動モードおよび第2行動モードを提供する感情模擬ユニットを備え、前記タイミング信号、前記誘発検出信号、および前記第1行動モードに基づいて、前記第2行動モードに対応する行動データを決定する行動制御ユニットを備え、
    前記第1行動モードおよび前記第2行動モードが、それぞれ複数の行動データのうちの少なくとも1つに対応し、
    前記感情模擬ユニットが、さらに、ランダム信号を生成し、前記行動制御ユニットが、前記タイミング信号、前記誘発検出信号、前記第1行動モード、および前記ランダム信号に基づいて、前記第2行動モードに対応する前記行動データを決定し、
    前記感情模擬ユニットが、仮想空間における感情ポイントおよび複数のシナリオポイントを生成し、前記シナリオポイントのそれぞれが、対応する座標および対応する行動モードを有し、前記感情ポイントが、前記タイミング信号、前記誘発検出信号、および前記第1行動モードに基づいて、古い座標から新しい座標へ移動し、前記感情模擬ユニットが、前記新しい座標に基づいて、前記対応するシナリオポイントを獲得し、前記第2行動モードに対応する前記行動データを決定し、
    前記感情模擬ユニットが、さらに、収束ポイントを生成し、前記感情ポイントが、前記タイミング信号、前記誘発検出信号、および前記第1行動モードに基づいて、古い座標から新しい座標へ移動するとき、前記収束ポイントは前記感情ポイントに対して回帰力を提供し、前記感情ポイントが対応する座標を変動するエモーションエンジン。
  2. 前記行動制御ユニットが、さらに、初期検出信号に基づいて、前記第1行動モードに対応する前記行動データを決定する請求項1記載のエモーションエンジン。
  3. 前記タイミング信号が、前記初期検出信号を受信してから前記誘発検出信号を受信するまでの時間長情報、または前記電子デバイスのシステム年齢情報を含む請求項2記載のエモーションエンジン。
  4. 前記初期検出信号が、電力信号であり、前記行動制御ユニットが、前記初期検出信号を受信した後、前記第1行動モードを提供して、前記第1行動モードを実行するよう周辺装置駆動ユニットを駆動する請求項2記載のエモーションエンジン。
  5. 前記行動制御ユニットが、さらに、前記第2行動モードに対応する前記行動データを決定した後、前記第2行動モードを実行するよう周辺装置駆動ユニットを駆動する請求項1記載のエモーションエンジン。
  6. 電子デバイスに適用するエモーションエンジン・システムであって、前記エモーションエンジン・システムが、
    第1行動モードおよび第2行動モードを提供する感情模擬ユニットを備えた行動制御ユニットと、
    前記行動制御ユニットに接続され、前記検出ユニットがイネーブルになった時に、前記行動制御ユニットに誘発検出信号または初期検出信号を生成する検出ユニットと、
    前記行動制御ユニットに接続され、前記行動制御ユニットにタイミング信号を生成する時間ユニットと、
    前記行動制御ユニットに接続され、複数の行動データを保存する行動データバンクとを備え、
    前記第1行動モードおよび前記第2行動モードが、それぞれ前記行動データのうちの少なくとも1つに対応し、前記行動制御ユニットが、前記タイミング信号、前記誘発検出信号、および前記第1行動モードに基づいて、前記第2行動モードに対応する前記行動データを決定し、
    前記感情模擬ユニットが、さらに、ランダム信号を生成し、前記行動制御ユニットが、前記タイミング信号、前記誘発検出信号、前記第1行動モード、および前記ランダム信号に基づいて、前記第2行動モードに対応する前記行動データを決定し、
    前記感情模擬ユニットが、仮想空間における感情ポイントおよび複数のシナリオポイントを生成し、前記シナリオポイントのそれぞれが、対応する座標および対応する行動モードを有し、前記感情ポイントが、前記タイミング信号、前記誘発検出信号、および前記第1行動モードに基づいて、古い座標から新しい座標へ移動し、前記感情模擬ユニットが、前記新しい座標に基づいて、前記対応するシナリオポイントを獲得し、前記第2行動モードに対応する前記行動データを決定し、
    前記感情模擬ユニットが、さらに、収束ポイントを生成し、前記感情ポイントが、前記タイミング信号、前記誘発検出信号、および前記第1行動モードに基づいて、古い座標から新しい座標へ移動するとき、前記収束ポイントは前記感情ポイントに対して回帰力を提供し、前記感情ポイントが対応する座標を変動するエモーションエンジン・システム。
  7. 前記行動制御ユニットが、前記タイミング信号および前記初期検出信号のうちの少なくとも1つに基づいて、前記第1行動モードに対応する前記行動データを決定する請求項6記載のエモーションエンジン・システム。
  8. 周辺装置駆動ユニットをさらに備え、前記初期検出信号が、電力信号であり、前記行動制御ユニットが、前記初期検出信号を受信した後、前記第1行動モードを提供して、前記第1行動モードを実行するよう前記周辺装置駆動ユニットを駆動する請求項6記載のエモーションエンジン・システム。
  9. 前記行動制御ユニットが、前記第2行動モードに対応する前記行動データを決定した後、前記第2行動モードを実行するよう前記周辺装置駆動ユニットを駆動する請求項8記載のエモーションエンジン・システム。
  10. エモーションエンジンを備えた電子デバイスに適用する電子デバイスの制御方法であって、
    第1行動モードを提供することと、
    前記電子デバイスの検出ユニットがイネーブルになった時に、誘発検出信号を生成することと、
    タイミング信号を生成することと、
    前記タイミング信号、前記誘発検出信号、および前記第1行動モードに基づいて、第2行動モードに対応する行動データを決定することとを含み
    ランダム信号を生成することと、前記タイミング信号、前記誘発検出信号、前記第1行動モード、および前記ランダム信号に基づいて、前記第2行動モードに対応する前記行動データを決定することとさらに含み、
    前記第2行動モードに対応する前記行動データを決定する前記ステップが、
    仮想空間における感情ポイントおよび複数のシナリオポイントを生成することを含み、
    前記感情ポイントが、前記タイミング信号、前記誘発検出信号、および前記第1行動モードに基づいて移動し、前記第2行動モードに対応する前記行動データが、前記感情ポイントに最も近い前記シナリオポイントに対応し、
    前記感情ポイントが、前記タイミング信号、前記誘発検出信号、および前記第1行動モードに基づいて移動することは、
    前記第1行動モード、前記タイミング信号、および前記誘発検出信号に基づいて、対応する感情ベクトルを得ることと、
    前記感情ベクトルに基づいて、前記仮想空間における前記感情ポイントの座標を修正することと、
    前記感情ポイントに最も近い前記シナリオポイントを決定することと、
    前記決定されたシナリオポイントに基づいて、前記第2行動モードに対応する前記行動データを決定することとを含み、
    収束ポイントを提供することと、前記感情ベクトルに基づいて前記仮想空間における前記感情ポイントの前記座標を修正する前記ステップにおいて、前記感情ポイントを前記収束ポイントに向かって移動させるための回帰力を提供することと、を、さらに含む電子デバイスの制御方法。
  11. 初期検出信号に基づいて、前記第1行動モードに対応する前記行動データを決定することをさらに含む請求項10記載の電子デバイスの制御方法。
  12. 前記タイミング信号が、前記初期検出信号を受信してから前記誘発検出信号を受信するまでの時間長情報、または前記電子デバイスのシステム年齢情報を含む請求項11記載の電子デバイスの制御方法。
  13. 前記誘発検出信号のタイプを分析することをさらに含む請求項12記載の電子デバイスの制御方法。
  14. 前記第1行動モードを提供する前記ステップが、
    電力信号を受信した後に前記第1行動モードを提供することと、
    前記第1行動モードを実行することと
    を含む請求項10記載の電子デバイスの制御方法。
  15. 前記電子デバイスの周辺装置駆動ユニットが、前記第2行動モードに対応する前記行動データが決定された後、前記第2行動モードを実行するよう駆動される請求項10記載の電子デバイスの制御方法。
  16. 前記収束ポイントの座標が、前記タイミング信号に基づいて変化する請求項10記載の電子デバイスの制御方法。
  17. 前記仮想空間が、複数の軸を有する多次元空間であり、前記新しい座標に対応する前記シナリオポイントが、ベクトル演算によって得られ、前記仮想空間の前記軸が、それぞれ前記電子デバイスの異なる情動行動を表す請求項10記載の電子デバイスの制御方法。
  18. 前記決定されたシナリオポイントに基づいて前記第2行動モードに対応する前記行動データを決定する前記ステップが、システム年齢情報および前記決定されたシナリオポイントに基づいて、前記第2行動モードに対応する前記行動データを提供することを含む請求項10記載の電子デバイスの制御方法。
JP2010096023A 2009-12-02 2010-04-19 エモーションエンジン、エモーションエンジン・システムおよび電子デバイスの制御方法 Active JP5227362B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW098141218 2009-12-02
TW098141218A TWI413938B (zh) 2009-12-02 2009-12-02 情感引擎、情感引擎系統及電子裝置的控制方法

Publications (2)

Publication Number Publication Date
JP2011115932A JP2011115932A (ja) 2011-06-16
JP5227362B2 true JP5227362B2 (ja) 2013-07-03

Family

ID=44069586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010096023A Active JP5227362B2 (ja) 2009-12-02 2010-04-19 エモーションエンジン、エモーションエンジン・システムおよび電子デバイスの制御方法

Country Status (3)

Country Link
US (1) US8306929B2 (ja)
JP (1) JP5227362B2 (ja)
TW (1) TWI413938B (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101678018B1 (ko) 2010-01-22 2016-11-22 삼성전자주식회사 감성 모델 장치 및 감성 모델 장치의 행동 결정 방법
US10157342B1 (en) * 2010-07-11 2018-12-18 Nam Kim Systems and methods for transforming sensory input into actions by a machine having self-awareness
US9796095B1 (en) 2012-08-15 2017-10-24 Hanson Robokind And Intelligent Bots, Llc System and method for controlling intelligent animated characters
JP5491599B2 (ja) * 2012-09-28 2014-05-14 コリア インスティチュート オブ インダストリアル テクノロジー 人工感情を表現するための内部状態算出装置および方法ならびに記録媒体
CN105389735B (zh) * 2015-11-18 2021-05-18 重庆理工大学 一种基于spfa算法的多动机情感生成方法
CN205734951U (zh) * 2015-12-17 2016-11-30 深圳市知加力科技开发有限公司 具有肢体语言能力的机器人
JP6851871B2 (ja) * 2016-03-30 2021-03-31 光吉 俊二 意思創発装置、意思創発方法および意思創発プログラム
CN107053191B (zh) * 2016-12-31 2020-05-08 华为技术有限公司 一种机器人,服务器及人机互动方法

Family Cites Families (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091412A (ja) * 1996-07-25 1998-04-10 Toshiba Corp 表示部品選択装置及び表示部品選択方法
US6243375B1 (en) * 1996-11-08 2001-06-05 Gregory J. Speicher Internet-audiotext electronic communications system with multimedia based matching
US6301560B1 (en) * 1998-01-05 2001-10-09 Microsoft Corporation Discrete speech recognition system with ballooning active grammar
JPH11212934A (ja) * 1998-01-23 1999-08-06 Sony Corp 情報処理装置および方法、並びに提供媒体
JP3514372B2 (ja) * 1999-06-04 2004-03-31 日本電気株式会社 マルチモーダル対話装置
US6275806B1 (en) * 1999-08-31 2001-08-14 Andersen Consulting, Llp System method and article of manufacture for detecting emotion in voice signals by utilizing statistics for voice signal parameters
US6807574B1 (en) * 1999-10-22 2004-10-19 Tellme Networks, Inc. Method and apparatus for content personalization over a telephone interface
US7376586B1 (en) * 1999-10-22 2008-05-20 Microsoft Corporation Method and apparatus for electronic commerce using a telephone interface
JP2001157980A (ja) 1999-11-30 2001-06-12 Sony Corp ロボット装置及びその制御方法
JP2002049385A (ja) 2000-08-07 2002-02-15 Yamaha Motor Co Ltd 音声合成装置、疑似感情表現装置及び音声合成方法
US20020092019A1 (en) * 2000-09-08 2002-07-11 Dwight Marcus Method and apparatus for creation, distribution, assembly and verification of media
JP2002307354A (ja) * 2000-11-07 2002-10-23 Sega Toys:Kk 電子玩具
CA2436940C (en) * 2000-12-01 2010-07-06 The Trustees Of Columbia University In The City Of New York A method and system for voice activating web pages
EP1262844A1 (en) 2001-06-01 2002-12-04 Sony International (Europe) GmbH Method for controlling a man-machine-interface unit
US6604021B2 (en) * 2001-06-21 2003-08-05 Advanced Telecommunications Research Institute International Communication robot
US7752326B2 (en) * 2001-08-20 2010-07-06 Masterobjects, Inc. System and method for utilizing asynchronous client server communication objects
JP2003089077A (ja) 2001-09-12 2003-03-25 Toshiba Corp ロボット
JP4266552B2 (ja) * 2001-10-16 2009-05-20 日本電気株式会社 ロボット装置及びその制御方法
JP2003191187A (ja) * 2001-12-21 2003-07-08 Sony Corp ロボット装置及びその制御方法
JP2003205179A (ja) * 2002-01-10 2003-07-22 Fuji Photo Film Co Ltd ペット型ロボット
US9015297B2 (en) * 2002-01-15 2015-04-21 Avaya Inc. Communication application server for converged communication services
US7315613B2 (en) * 2002-03-11 2008-01-01 International Business Machines Corporation Multi-modal messaging
JP2003305677A (ja) * 2002-04-11 2003-10-28 Sony Corp ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
US7398209B2 (en) * 2002-06-03 2008-07-08 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
JP2004174642A (ja) 2002-11-26 2004-06-24 Matsushita Electric Ind Co Ltd 無線通信システム、携帯電話機用プログラム、ロボット装置、並びに、ロボット装置用プログラム
US7003464B2 (en) * 2003-01-09 2006-02-21 Motorola, Inc. Dialog recognition and control in a voice browser
US20040179039A1 (en) * 2003-03-03 2004-09-16 Blattner Patrick D. Using avatars to communicate
US7966188B2 (en) * 2003-05-20 2011-06-21 Nuance Communications, Inc. Method of enhancing voice interactions using visual messages
US7356472B2 (en) * 2003-12-11 2008-04-08 International Business Machines Corporation Enabling speech within a multimodal program using markup
JP4244812B2 (ja) * 2004-01-16 2009-03-25 ソニー株式会社 行動制御システム及びロボット装置の行動制御方法
US8549501B2 (en) * 2004-06-07 2013-10-01 International Business Machines Corporation Framework for generating mixed-mode operations in loop-level simdization
US7487085B2 (en) * 2004-08-24 2009-02-03 International Business Machines Corporation Method and system of building a grammar rule with baseforms generated dynamically from user utterances
US7509659B2 (en) * 2004-11-18 2009-03-24 International Business Machines Corporation Programming portal applications
US7564945B2 (en) * 2005-02-11 2009-07-21 University Of Florida Research Foundation, Inc. System including computed tomography device for image guided treatment
US20060287865A1 (en) * 2005-06-16 2006-12-21 Cross Charles W Jr Establishing a multimodal application voice
US8090584B2 (en) * 2005-06-16 2012-01-03 Nuance Communications, Inc. Modifying a grammar of a hierarchical multimodal menu in dependence upon speech command frequency
US20060288309A1 (en) * 2005-06-16 2006-12-21 Cross Charles W Jr Displaying available menu choices in a multimodal browser
US7917365B2 (en) * 2005-06-16 2011-03-29 Nuance Communications, Inc. Synchronizing visual and speech events in a multimodal application
US20070274297A1 (en) * 2006-05-10 2007-11-29 Cross Charles W Jr Streaming audio from a full-duplex network through a half-duplex device
US9208785B2 (en) * 2006-05-10 2015-12-08 Nuance Communications, Inc. Synchronizing distributed speech recognition
US7848314B2 (en) * 2006-05-10 2010-12-07 Nuance Communications, Inc. VOIP barge-in support for half-duplex DSR client on a full-duplex network
US8332218B2 (en) * 2006-06-13 2012-12-11 Nuance Communications, Inc. Context-based grammars for automated speech recognition
US7676371B2 (en) * 2006-06-13 2010-03-09 Nuance Communications, Inc. Oral modification of an ASR lexicon of an ASR engine
US8374874B2 (en) * 2006-09-11 2013-02-12 Nuance Communications, Inc. Establishing a multimodal personality for a multimodal application in dependence upon attributes of user interaction
US8145493B2 (en) * 2006-09-11 2012-03-27 Nuance Communications, Inc. Establishing a preferred mode of interaction between a user and a multimodal application
US7957976B2 (en) * 2006-09-12 2011-06-07 Nuance Communications, Inc. Establishing a multimodal advertising personality for a sponsor of a multimodal application
US8086463B2 (en) * 2006-09-12 2011-12-27 Nuance Communications, Inc. Dynamically generating a vocal help prompt in a multimodal application
US8073697B2 (en) * 2006-09-12 2011-12-06 International Business Machines Corporation Establishing a multimodal personality for a multimodal application
US7827033B2 (en) * 2006-12-06 2010-11-02 Nuance Communications, Inc. Enabling grammars in web page frames
TW200824762A (en) * 2006-12-15 2008-06-16 Inventec Corp Electronic pet system reacted according to user's behavior and method thereof and record medium
US8612230B2 (en) * 2007-01-03 2013-12-17 Nuance Communications, Inc. Automatic speech recognition with a selection list
US8069047B2 (en) * 2007-02-12 2011-11-29 Nuance Communications, Inc. Dynamically defining a VoiceXML grammar in an X+V page of a multimodal application
US7801728B2 (en) * 2007-02-26 2010-09-21 Nuance Communications, Inc. Document session replay for multimodal applications
US20080208586A1 (en) * 2007-02-27 2008-08-28 Soonthorn Ativanichayaphong Enabling Natural Language Understanding In An X+V Page Of A Multimodal Application
US8938392B2 (en) * 2007-02-27 2015-01-20 Nuance Communications, Inc. Configuring a speech engine for a multimodal application based on location
US7809575B2 (en) * 2007-02-27 2010-10-05 Nuance Communications, Inc. Enabling global grammars for a particular multimodal application
US7822608B2 (en) * 2007-02-27 2010-10-26 Nuance Communications, Inc. Disambiguating a speech recognition grammar in a multimodal application
US20080208594A1 (en) * 2007-02-27 2008-08-28 Cross Charles W Effecting Functions On A Multimodal Telephony Device
US9208783B2 (en) * 2007-02-27 2015-12-08 Nuance Communications, Inc. Altering behavior of a multimodal application based on location
US7840409B2 (en) * 2007-02-27 2010-11-23 Nuance Communications, Inc. Ordering recognition results produced by an automatic speech recognition engine for a multimodal application
US20080208589A1 (en) * 2007-02-27 2008-08-28 Cross Charles W Presenting Supplemental Content For Digital Media Using A Multimodal Application
US8713542B2 (en) * 2007-02-27 2014-04-29 Nuance Communications, Inc. Pausing a VoiceXML dialog of a multimodal application
US8843376B2 (en) * 2007-03-13 2014-09-23 Nuance Communications, Inc. Speech-enabled web content searching using a multimodal browser
US7945851B2 (en) * 2007-03-14 2011-05-17 Nuance Communications, Inc. Enabling dynamic voiceXML in an X+V page of a multimodal application
US8670987B2 (en) * 2007-03-20 2014-03-11 Nuance Communications, Inc. Automatic speech recognition with dynamic grammar rules
US8515757B2 (en) * 2007-03-20 2013-08-20 Nuance Communications, Inc. Indexing digitized speech with words represented in the digitized speech
US20080235029A1 (en) * 2007-03-23 2008-09-25 Cross Charles W Speech-Enabled Predictive Text Selection For A Multimodal Application
US8909532B2 (en) * 2007-03-23 2014-12-09 Nuance Communications, Inc. Supporting multi-lingual user interaction with a multimodal application
JP5228351B2 (ja) * 2007-03-28 2013-07-03 Toto株式会社 手洗装置
US8788620B2 (en) * 2007-04-04 2014-07-22 International Business Machines Corporation Web service support for a multimodal client processing a multimodal application
US8862475B2 (en) * 2007-04-12 2014-10-14 Nuance Communications, Inc. Speech-enabled content navigation and control of a distributed multimodal browser
US8725513B2 (en) * 2007-04-12 2014-05-13 Nuance Communications, Inc. Providing expressive user interaction with a multimodal application
TW200941236A (en) * 2008-03-27 2009-10-01 Univ Chienkuo Technology Simulated teaching system for emulated intelligent robot

Also Published As

Publication number Publication date
US20110131165A1 (en) 2011-06-02
TWI413938B (zh) 2013-11-01
US8306929B2 (en) 2012-11-06
TW201120770A (en) 2011-06-16
JP2011115932A (ja) 2011-06-16

Similar Documents

Publication Publication Date Title
JP5227362B2 (ja) エモーションエンジン、エモーションエンジン・システムおよび電子デバイスの制御方法
CN102103707B (zh) 情感引擎、情感引擎***及电子装置的控制方法
CN109789550B (zh) 基于小说或表演中的先前角色描绘的社交机器人的控制
EP1508409A1 (en) Robot device and robot control method
WO2001039932A1 (fr) Robot, son procede de commande et procede d'appreciation du caractere du robot
WO2002032629A1 (en) Robot device and behavior control method for robot device
JP2006110707A (ja) ロボット装置
Katsuno et al. Haptic creatures: tactile affect and human-robot intimacy in Japan
JP4296736B2 (ja) ロボット装置
JP2003305677A (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
WO2002030629A1 (fr) Appareil robot, systeme d"affichage d"information et procede d"affichage d"information
JP2007125629A (ja) ロボット装置及びその行動制御方法
JP2003340760A (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
Tzafestas et al. Zoomorphic sociorobots
JP2002205289A (ja) ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置
JP2001157980A (ja) ロボット装置及びその制御方法
JP2002120183A (ja) ロボット装置及びロボット装置の入力情報検出方法
JP2001334482A (ja) ロボット装置及びロボット装置の行動決定方法
JP2001157979A (ja) ロボット装置及びその制御方法
JP2001157982A (ja) ロボット装置及びその制御方法
KR20160087613A (ko) 상호작용 훈련 장치와 방법, 그리고 그 시스템
WO2023037608A1 (ja) 自律移動体、情報処理方法、及び、プログラム
JP2003305674A (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
WO2023037609A1 (ja) 自律移動体、情報処理方法、及び、プログラム
JP2002116100A (ja) 接触検出センサ及び玩具

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120731

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20120813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130315

R150 Certificate of patent or registration of utility model

Ref document number: 5227362

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160322

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250