JP2003340761A - Robot device and robot device control method - Google Patents

Robot device and robot device control method

Info

Publication number
JP2003340761A
JP2003340761A JP2002148114A JP2002148114A JP2003340761A JP 2003340761 A JP2003340761 A JP 2003340761A JP 2002148114 A JP2002148114 A JP 2002148114A JP 2002148114 A JP2002148114 A JP 2002148114A JP 2003340761 A JP2003340761 A JP 2003340761A
Authority
JP
Japan
Prior art keywords
execution
command
action
expression
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002148114A
Other languages
Japanese (ja)
Inventor
Noriaki Sakabe
典昭 坂部
Takahisa Ogami
隆久 大上
Tatsunori Kato
龍憲 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002148114A priority Critical patent/JP2003340761A/en
Publication of JP2003340761A publication Critical patent/JP2003340761A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)
  • Feedback Control In General (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a robot device for determining the execution situation of an action or an expression in advance, performing parallel execution of the action or the expression, shortening the execution time of commands sequential in issue, and reliably performing a command to be simultaneously performed. <P>SOLUTION: An action selection unit 101 issues an action and expression meaning command to command the meaning of the action and the expression of the action of the robot device. An action and expression command control unit 102 receives the action and expression meaning command, and converts it into an action and expression performing command. An action and expression execution control unit 103 receives the action and expression execution command, and decomposes it into a control command for each control unit of the robot device. A module control unit 104 receives the control command, decomposes it into a command to each module of the robot device, and issues it to each module. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明はロボット装置に関
し、特に、別々の動作や表現を並行あるいは逐次実行す
るロボット装置、及び長時間連続して実行する動作や表
現と短時間実行する動作や表現とを競合する動作や表現
リソースを含んだ別々の実行指令で実現するロボット装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot apparatus, and more particularly, to a robot apparatus that executes separate operations and expressions in parallel or sequentially, and operations and expressions that are continuously executed for a long time and operations and expressions that are executed for a short time. The present invention relates to a robot apparatus that realizes different execution commands including competing actions and expression resources.

【0002】また、本発明はロボット装置の制御方法に
関し、特に、別々の動作や表現を並行あるいは逐次実行
するロボット装置の制御方法、及び長時間連続して実行
する動作や表現と短時間実行する動作や表現とを競合す
る動作や表現リソースを含んだ別々の実行指令で実現す
るロボット装置の制御方法に関する。
The present invention also relates to a method of controlling a robot apparatus, and more particularly, to a method of controlling a robot apparatus that executes different operations and expressions in parallel or sequentially, and operations and expressions that are continuously executed for a long time and a short time. The present invention relates to a control method for a robot apparatus that is realized by separate execution commands that include a resource for an action or expression that competes with an action or expression.

【0003】[0003]

【従来の技術】電気的若しくは磁気的な作用を用いて人
間の動作に似せた運動を行う機械装置のことを「ロボッ
ト」という。ロボットの語源は、スラブ語の"ROBO
TA(奴隷機械)"に由来すると言われている。わが国で
は、ロボットが普及し始めたのは1960年代末からで
あるが、その多くは、工場における生産作業の自動化・
無人化などを目的としたマニピュレータや搬送ロボット
などの産業用ロボット(industrial robot)であった。
2. Description of the Related Art A mechanical device that makes a motion similar to a human motion by using an electrical or magnetic action is called a "robot". The origin of the robot is the Slavic word "ROBO".
It is said that it is derived from "TA (slave machine)." In Japan, robots began to be popular since the end of the 1960s, but most of them are automation of production work in factories.
It was an industrial robot such as a manipulator and a transfer robot for the purpose of unmanned operation.

【0004】最近では、イヌやネコ、クマのように4足
歩行の動物の身体メカニズムやその動作を模したペット
型ロボット、あるいは、ヒトやサルなどの2足直立歩行
を行う動物の身体メカニズムや動作を模した「人間形」
若しくは「人間型」のロボット(humanoid robot)な
ど、脚式移動ロボットの構造やその安定歩行制御に関す
る研究開発が進展し、実用化への期待も高まってきてい
る。これら脚式移動ロボットは、クローラ式ロボットに
比し不安定で姿勢制御や歩行制御が難しくなるが、階段
の昇降や障害物の乗り越えなど、柔軟な歩行・走行動作
を実現できるという点で優れている。
Recently, the body mechanism of a four-legged animal such as a dog, a cat, and a bear, a pet robot imitating its movement, or a body mechanism of an animal such as a human or a monkey that walks upright on two legs is used. "Humanoid" that imitates movement
Alternatively, research and development on the structure of legged mobile robots such as "humanoid robots" and their stable walking control have progressed, and expectations for their practical application are increasing. These legged mobile robots are more unstable than crawler robots, making posture control and walking control difficult, but they are superior in that they can realize flexible walking and running operations such as climbing stairs and climbing over obstacles. There is.

【0005】アーム式ロボットのように、ある特定の場
所に植設して用いるような据置きタイプのロボットは、
部品の組立・選別作業など固定的・局所的な作業空間で
のみ活動する。これに対し、移動式のロボットは、作業
空間は非限定的であり、所定の経路上または無経路上を
自在に移動して、所定の若しくは任意の人的作業を代行
したり、ヒトやイヌあるいはその他の生命体に置き換わ
る種々のサービスを提供することができる。
Stationary type robots, such as arm type robots, which are implanted in a specific place and used,
Work only in fixed and local work spaces such as assembly and selection of parts. On the other hand, a mobile robot has a non-limitative work space, and can freely move on a predetermined route or on a non-route to perform a predetermined or arbitrary human work on behalf of a human or a dog. Alternatively, various services that replace other life forms can be provided.

【0006】脚式移動ロボットの用途の1つとして、産
業活動・生産活動等における各種の難作業の代行が挙げ
られる。例えば、原子力発電プラントや火力発電プラン
ト、石油化学プラントにおけるメンテナンス作業、製造
工場における部品の搬送・組立作業、高層ビルにおける
清掃、火災現場その他における救助といったような危険
作業・難作業の代行などである。
[0006] One of the uses of the legged mobile robot is to perform various difficult tasks on behalf of industrial activities and production activities. For example, maintenance work in nuclear power plants, thermal power plants, and petrochemical plants, parts transportation / assembly work in manufacturing plants, cleaning in high-rise buildings, agency of dangerous work / difficult work such as rescue at fire sites and the like. .

【0007】また、脚式移動ロボットの他の用途とし
て、上述の作業支援というよりも、生活密着型、すなわ
ち人間との「共生」あるいは「エンターティンメント」
という用途が挙げられる。この種のロボットは、ヒトあ
るいはイヌ(ペット)、クマなどの比較的知性の高い脚
式歩行動物の動作メカニズムや四肢を利用した豊かな感
情表現を忠実に再現する。また、あらかじめ入力された
動作パターンを単に忠実に実行するだけではなく、ユー
ザ(あるいは他のロボット)から受ける言葉や態度
(「褒める」とか「叱る」、「叩く」など)に対して動
的に対応した、生き生きとした応答表現を実現すること
も要求される。
Further, as another application of the legged mobile robot, rather than the above-mentioned work support, it is a life-oriented type, that is, "symbiosis" or "entertainment" with humans.
There are uses. This kind of robot faithfully reproduces the motion mechanism of humans, dogs (pets), bears and other relatively intelligent legged walking animals and the rich emotional expression using the limbs. In addition to simply faithfully executing the pre-entered motion pattern, it also dynamically responds to the words and attitudes received from the user (or other robot) (such as "praise", "scrib", "hit", etc.). It is also required to realize corresponding and lively response expressions.

【0008】従来の玩具機械は、ユーザ操作と応答動作
との関係が固定的であり、玩具の動作をユーザの好みに
合わせて変更することはできない。この結果、ユーザは
同じ動作しか繰り返さない玩具をやがては飽きてしまう
ことになる。
In the conventional toy machine, the relationship between the user operation and the response motion is fixed, and the motion of the toy cannot be changed according to the user's preference. As a result, the user eventually gets tired of the toy that repeats only the same operation.

【0009】これに対し、自律動作を行うインテリジェ
ントなロボットは、一般に、外界の情報を認識してそれ
に対して自身の行動を反映させる機能を持っている。具
体的にインテリジェントなロボットは、外部環境からの
音声や画像、触覚などの入力情報に基づいて感情モデル
や本能モデルを変化させて動作を決定することにより、
自律的な思考及び動作制御を実現する。すなわち、ロボ
ットが感情モデルや本能モデルを用意することにより、
より高度な知的レベルで人間とのリアリスティックなコ
ミュニケーションを実現することも可能となる。
On the other hand, an intelligent robot which autonomously operates generally has a function of recognizing external information and reflecting its own behavior on it. Specifically, the intelligent robot changes the emotional model and the instinct model based on the input information such as voice, image, and tactile sense from the external environment to determine the motion,
Realize autonomous thinking and motion control. That is, the robot prepares an emotional model and an instinct model,
It is also possible to realize realistic communication with humans at a higher intellectual level.

【0010】このようなインテリジェントなロボットに
おいて、自身の行動を反映させるには、ロボットの内部
状況や外部状況から行動を選択し、動作や表現の意味に
関する動作・表現意味指令を発行し、この動作・表現意
味指令の実行完了信号を確認して次の行動を選択してい
た。例えば、内部状況や外部状況から怒りの行動を選択
し、「怒る」という動作・表現意味指令を発行したとき
には、この「怒る」という動作・表現意味指令の実行完
了信号を確認してから次の行動、例えば「歩く」を選択
していた。
In such an intelligent robot, in order to reflect the action of the robot itself, the action is selected from the internal situation and the external situation of the robot, the action / expression meaning command regarding the meaning of the action or expression is issued, and this action is performed.・ The next action was selected by checking the execution completion signal of the expression meaning command. For example, when an angry action is selected from the internal situation or the external situation and the action / expression meaning command of "get angry" is issued, after confirming the execution completion signal of the action / expression meaning command of "get angry", Action, for example "walk" was selected.

【0011】また、ロボットの動作や表現において、長
時間連続して実行するものと、短時間実行するものと
を、競合する動作・表現リソースを含んだ別々の実行指
令で実現する技術として、行動選択時にそれぞれの動作
・表現意味指令の実行状況を判断して、次の行動を選択
する技術があった。
In addition, as a technique for realizing a robot motion or expression that is continuously executed for a long time and one that is executed for a short time by different execution commands including competing motion / expression resources, an action is described. There was a technology to judge the execution status of each action / expression meaning command at the time of selection and select the next action.

【0012】[0012]

【発明が解決しようとする課題】ところで、前述したよ
うに、動作・表現意味指令の実行完了信号を確認して次
の行動を選択していた方法では、動作または表現を並行
実行するのが困難であった。
By the way, as described above, in the method of confirming the execution completion signal of the action / expression meaning command and selecting the next action, it is difficult to execute the action or the expression in parallel. Met.

【0013】また、従来から、一度の行動選択時に、複
数の動作・表現意味指令を続けて送ることにより、並行
実行させる方法も考えられたが、ロボットの動作や表現
リソースの使用状況によって、動作・表現意味指令を並
行実行できず、片方もしくは両方の指令が実行されない
虞があった。
Conventionally, a method has been considered in which, when a single action is selected, a plurality of actions / expression meaning commands are sent in succession to execute the actions in parallel. -There was a risk that one or both commands could not be executed because the expression meaning commands could not be executed in parallel.

【0014】また、長時間連続して実行する表現や行動
と、短時間実行する表現や行動を、競合する動作・表現
リソースを含んだ別々の実行指令で実現するために、行
動選択時にそれぞれの動作・表現意味指令の実行状況を
判断して、次の行動を選択する方法では、動作・表現意
味指令によっては、長時間連続して実行する指令が、短
時間実行する指令によって中断されるたびに、再度指令
を発行しなければならず、管理が複雑で処理負荷が高か
くなることがあった。
Further, in order to realize an expression or action to be executed continuously for a long time and an expression or action to be executed for a short time by separate execution commands including competing action / expression resources, each action or command is selected at the time of action selection. In the method of selecting the next action by judging the execution status of the action / expression meaning command, depending on the action / expression meaning command, a command that is continuously executed for a long time is interrupted by a command that is executed for a short time. In addition, the command must be issued again, and the management is complicated and the processing load may be high.

【0015】本発明は、前記実情に鑑みてなされたもの
であり、事前の動作または表現の実行状況を判断して、
動作または表現を並行実行することができ、よって、発
行に順番がある指令の実行時間を短縮でき、また、同時
に実行させたい指令を、確実に実行させることができる
ロボット装置及びロボット装置の制御方法の提供を目的
とする。
The present invention has been made in view of the above circumstances, and judges the execution status of a motion or expression in advance,
A robot apparatus and a robot apparatus control method capable of executing operations or expressions in parallel, thus shortening the execution time of commands that are issued in order and reliably executing the commands that are desired to be executed simultaneously For the purpose of providing.

【0016】また、本発明は、前記実情に鑑みたもので
あり、ロボット装置の動作・表現において、長時間連続
して実行するものと、短時間実行するものとを、競合す
る動作・表現リソースを含んだ別々の実行指令で実現す
る場合に、実ロボット装置での動作・表現の状態と、行
動選択における外部状況、内部状況の判断とを明確にわ
けることができ、その結果、行動選択における状態管理
が簡易となるとともに、不要な通知が減り、システム全
体の付加を軽減することができるロボット装置及びロボ
ット装置の制御方法の提供を目的とする。
Further, the present invention has been made in view of the above circumstances, and in the operation / expression of the robot device, an operation / expression resource in which a long-time continuous execution and a short-time execution are competing. When it is realized by separate execution commands including, it is possible to clearly separate the state of the motion / expression in the real robot device and the judgment of the external situation and the internal situation in the action selection. An object of the present invention is to provide a robot apparatus and a control method of the robot apparatus that can simplify state management, reduce unnecessary notifications, and reduce the addition of the entire system.

【0017】[0017]

【課題を解決するための手段】本発明に係るロボット装
置は、前記課題を解決するために、内部状況、外部状況
を評価し、その評価結果に基づいて行動を選択し、その
行動の動作や表現の意味を指令する意味指令を発行する
行動選択手段と、前記行動選択手段が発行した前記意味
指令を受けて動作や表現の実行指令へと変換するととも
に、前記意味指令の実行状況を管理し、前記行動選択手
段へ通知する指令管理手段と、前記指令管理手段が前記
意味指令から変換した動作や表現の実行指令を受け、ロ
ボット装置の制御管理単位ごとに制御指令へと分解する
とともに、前記実行指令の実行状況を管理して前記指令
管理手段へ通知する実行管理手段と、前記実行管理手段
がロボット装置の制御管理単位ごとに分解した制御指令
を受けとり、各モジュールへの指令へと分解して各モジ
ュールに発行するとともに、前記制御指令の実行状況を
管理し、前記実行管理手段へ通知するモジュール制御管
理手段とを備え、別々の動作や表現を並行あるいは逐次
実行する。
In order to solve the above-mentioned problems, a robot apparatus according to the present invention evaluates an internal situation and an external situation, selects an action based on the evaluation result, and determines the action of the action. An action selection unit that issues a semantic command that commands the meaning of an expression, and receives the semantic command issued by the action selection unit and converts it into an operation or expression execution command, and manages the execution status of the semantic command. A command management means for notifying the action selection means, and a command management means for receiving an execution command for an operation or expression converted from the semantic command, and decomposing into control commands for each control management unit of the robot device, and Execution management means for managing the execution status of the execution command and notifying the command management means, and the execution management means for receiving the control command disassembled for each control management unit of the robot apparatus, and executing each command. Module control management means for managing the execution status of the control command and notifying the execution management means while disassembling it into commands for each module and issuing it to each module. Run.

【0018】このロボット装置にあって、前記実行管理
手段は、各モジュール制御管理手段へ制御指令を発行す
る直前に、前記指令管理手段に実行開始通知を行い、各
ロボット装置の制御管理単位からの実行完了通知がそろ
ったとき、全てが正しく実行されている場合は実行完了
通知(成功)を行い、また、途中で終了した場合は、実
行完了通知(失敗)を行って、前記指令管理手段に前記
実行指令の実行状況を通知する。
In this robot apparatus, the execution management means sends an execution start notification to the command management means immediately before issuing a control command to each module control management means, and the control management unit of each robot apparatus sends the execution start notification. When the execution completion notifications are complete, if all are executed correctly, execution completion notification (success) is given, and if they are completed in the middle, execution completion notification (failure) is given to the command management means. The execution status of the execution instruction is notified.

【0019】そして、前記行動選択手段は、前記指令管
理手段から前記意味指令の実行状況通知を受けて、ロボ
ット装置の内部状況、外部状況を評価し、行動を選択決
定する。
Then, the action selecting means receives the execution state notification of the meaning instruction from the instruction managing means, evaluates the internal state and the external state of the robot apparatus, and selects and decides the action.

【0020】本発明に係るロボット装置の制御方法は、
前記課題を解決するために、ロボット装置の内部状況や
外部状況を評価し、その評価結果に基づいた行動を選択
し、その行動の動作や表現の意味を指令する意味指令を
発行する行動選択工程と、前記行動選択工程が発行した
前記意味指令を、その時点での他の意味指令の実行状況
と照合し、ロボット装置の動作や表現の実行指令へと変
換するとともに、前記意味指令の実行状況を管理し、前
記行動選択工程へ通知する指令管理工程と、前記指令管
理工程からの前記実行指令をもとに、ロボット装置の制
御管理単位ごとへの制御指令へと分解するとともに、制
御指令を発行できる状態にあるかどうかを確認する実行
管理工程と、前記実行管理工程がロボット装置の制御管
理単位ごとに分解した制御指令を受けとり、ロボット装
置の各モジュールへの指令へと分解して各モジュールに
発行するとともに、前記制御指令の実行状況を管理し、
前記実行管理手段へ通知するモジュール制御管理工程と
を備え、ロボット装置に別々の動作や表現を、並行ある
いは逐次実行させる。
The control method of the robot apparatus according to the present invention is
In order to solve the above-mentioned problems, an action selecting step of evaluating an internal situation or an external situation of the robot apparatus, selecting an action based on the evaluation result, and issuing a semantic instruction for instructing the action of the action or the meaning of the expression And the meaning command issued by the action selection step is compared with the execution status of other meaning commands at that time, and converted into the execution command of the operation or expression of the robot device, and the execution status of the meaning command. Based on the command management process for notifying the action selection process and the command execution process from the command management process, the control command is decomposed into control commands for each control management unit of the robot device. Each module of the robot device receives an execution management process for confirming whether or not it is ready to be issued, and a control command decomposed by the execution management process for each control management unit of the robot device. It decomposes into the command as well as issued to each module, and manages the execution status of the control command,
A module control management step of notifying the execution management means is provided to cause the robot apparatus to execute different operations and expressions in parallel or sequentially.

【0021】このロボット装置の制御方法にあって、前
記実行管理工程は、各モジュール制御管理工程へ制御指
令を発行する直前に、実行開始通知を行い、各ロボット
装置の制御管理単位からの実行完了通知がそろったと
き、全てが正しく実行されている場合は実行完了通知
(成功)を行い、また、途中で終了した場合は、実行完
了通知(失敗)を行って、前記指令管理工程に前記実行
指令の実行状況を通知する。そして、前記行動選択工程
は、前記指令管理工程から前記意味指令の実行状況通知
を受けて、ロボット装置の内部状況、外部状況を評価
し、行動を選択決定する。
In this robot apparatus control method, the execution management step issues an execution start notification immediately before issuing a control command to each module control management step, and execution completion from the control management unit of each robot apparatus. When all the notifications are complete, if all is executed correctly, execution completion notification (success) is given, and if it is completed in the middle, execution completion notification (failure) is given and the execution is executed in the command management step. Notify the execution status of the command. Then, the action selection step receives the execution state notification of the meaning instruction from the instruction management step, evaluates the internal state and the external state of the robot apparatus, and selects and determines an action.

【0022】本発明に係るロボット装置は、前記課題を
解決するために、内部状況、外部状況を評価し、その評
価結果に基づいてロボット装置の行動を選択し、動作や
表現の意味を指令する意味指令を発行する行動選択手段
と、前記行動選択手段が発行した前記意味指令を受けと
り、ロボット装置の動作や表現の実行指令へと変換して
発行するとともに、前記意味指令の実行状況を管理し、
前記行動選択手段へ通知する指令管理手段と、前記指令
管理手段からロボット装置の動作や表現の実行指令を受
けとり、ロボット装置の制御管理単位ごとに制御指令へ
と分解し発行するとともに、動作や表現の実行指令の実
行状況を管理し、前記指令管理部へ通知する実行管理手
段と、 前記実行管理手段から制御指令を受け、ロボッ
ト装置の各モジュールへの指令へと分解し発行するとと
もに、制御指令の実行状況を管理し、前記実行管理手段
へ通知するモジュール制御管理手段とを備え、長時間連
続して実行する動作や表現と、短時間実行する動作や表
現とを、競合する動作や表現リソースを含んだ別々の実
行指令で実現する。
In order to solve the above-mentioned problems, the robot apparatus according to the present invention evaluates the internal situation and the external situation, selects the action of the robot apparatus based on the evaluation result, and commands the meaning of the action or expression. The action selecting means that issues a semantic command and the semantic command issued by the action selecting means are received, converted into an execution command of the operation or expression of the robot device and issued, and the execution status of the semantic command is managed. ,
A command management unit for notifying the action selecting unit and an execution command for the operation or expression of the robot device from the command management unit are decomposed into control commands for each control management unit of the robot device and issued, and the operation or expression is performed. Managing the execution status of the execution command and notifying the command management unit, and receiving a control command from the execution management unit, decomposing into a command to each module of the robot device and issuing the command. A module control management unit that manages the execution status of the above and notifies the execution management unit of the same, and the operation and the expression resource that conflict with the operation and the expression that are continuously executed for a long time and the operation and the expression that are executed for a short time. It is realized by separate execution commands including.

【0023】このロボット装置にあって、前記実行管理
手段は、前記指令管理手段に、各モジュールへ制御指令
を発行する直前に、実行開始通知を行い、各ロボット装
置の制御管理単位からの実行完了通知がそろったとき、
全てが正しく実行されている場合は実行完了通知(成
功)を行い、また、途中で終了した場合は、実行完了通
知(失敗)を行う。また、前記指令管理手段は、前記実
行管理手段から前記実行指令の実行状況を受けて、前記
実行指令の再発行をするかどうかを判断する。そして、
前記行動選択手段は、前記意味指令の実行状況通知、あ
るいはロボット装置のその他の内部状況、外部状況を評
価し、行動を選択決定する。
In this robot apparatus, the execution management means gives an execution start notification to the command management means immediately before issuing a control command to each module, and execution completion from the control management unit of each robot apparatus. When the notifications are complete,
If everything is executed correctly, execution completion notification (success) is given, and if it is completed halfway, execution completion notification (failure) is given. Further, the command management unit receives the execution status of the execution command from the execution management unit and determines whether to reissue the execution command. And
The action selection means evaluates an execution state notification of the meaning command, or other internal state and external state of the robot apparatus, and selects and determines an action.

【0024】本発明に係るロボット装置の制御方法は、
前記課題を解決するために、ロボット装置の内部状況、
外部状況を評価し、その評価結果に基づいてロボット装
置の行動を選択し、動作や表現の意味を指令する意味指
令を発行する行動選択工程と、前記行動選択工程が発行
した前記意味指令を受けとり、その時点での他の意味指
令の実行状況と照合し、ロボット装置の動作や表現の実
行指令へと変換するとともに、前記意味指令の実行状況
を管理し、前記行動選択工程へ通知する指令管理工程
と、前記指令管理手段からロボット装置の動作や表現の
実行指令を受けとり、ロボット装置の制御管理単位ごと
に制御指令へと分解するとともに、制御指令を発行でき
る状態にあるかどうかを確認する実行管理工程と、前記
実行管理手段から制御指令を受け、ロボット装置の各モ
ジュールへの指令へと分解し発行するとともに、制御指
令の実行状況を管理し、前記実行管理工程へ通知するモ
ジュール制御管理工程とを備え、長時間連続して実行す
る動作や表現と、短時間実行する動作や表現とを、競合
する動作や表現リソースを含んだ別々の実行指令で実現
する。
The control method of the robot apparatus according to the present invention is
In order to solve the above-mentioned problems, the internal condition of the robot device,
An action selection step of evaluating an external situation, selecting an action of the robot apparatus based on the evaluation result, and issuing a semantic instruction for instructing the meaning of an action or expression, and receiving the semantic instruction issued by the action selection step. , Command management for checking the execution status of other semantic commands at that time, converting to the execution command of the operation or expression of the robot device, managing the execution status of the semantic command, and notifying the action selection step Execution of receiving a step and an execution command of the operation or expression of the robot device from the command management means, decomposing into control commands for each control management unit of the robot device, and confirming whether or not the control command can be issued Receives control commands from the management process and the execution management means, decomposes and issues the commands to each module of the robot device, and manages the execution status of control commands , A module control management step of notifying the execution management step, and a separate execution including a competing operation or expression resource for an operation or expression to be continuously executed for a long time and an operation or expression to be executed for a short time Achieve by command.

【0025】このロボット装置の制御方法にあって、前
記実行管理工程は、前記指令管理工程に、各モジュール
へ制御指令を発行する直前に、実行開始通知を行い、各
ロボット装置の制御管理単位からの実行完了通知がそろ
ったとき、全てが正しく実行されている場合は実行完了
通知(成功)を行い、また、途中で終了した場合は、実
行完了通知(失敗)を行う。また、前記指令管理工程
は、前記実行管理工程から前記実行指令の実行状況を受
けて、前記実行指令の再発行をするかどうかを判断す
る。そして、前記行動選択工程は、前記意味指令の実行
状況通知、あるいはロボット装置のその他の内部状況、
外部状況を評価し、行動を選択決定する。
In this robot apparatus control method, the execution management step sends an execution start notification to the command management step immediately before issuing a control command to each module, and the control management unit of each robot apparatus is notified. When all the execution completion notifications are complete, the execution completion notification (success) is given if all are executed correctly, and the execution completion notification (failure) is given if all are completed in the middle. In addition, the command management process receives the execution status of the execution command from the execution management process and determines whether to reissue the execution command. Then, the action selection step is a notification of the execution status of the meaning command, or other internal status of the robot device,
Evaluate external conditions and make decisions on actions.

【0026】[0026]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照しながら説明する。先ず、第1の実施の形
態は、4足歩行タイプのエンターテインメントロボット
装置であり、内部状況や外部状況を評価し、ロボット装
置の行動を選択する。特に、別々の動作や表現を、並行
あるいは逐次実行することのできるロボット装置であ
る。このロボット装置の外観の具体例、回路構成などに
ついては後述する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. First, the first embodiment is an entertainment robot apparatus of a four-legged walking type, which evaluates an internal situation and an external situation and selects an action of the robot apparatus. In particular, it is a robot device that can execute different operations and expressions in parallel or sequentially. A specific example of the appearance of the robot device, a circuit configuration, and the like will be described later.

【0027】先ず、図1を参照して第1の実施の形態の
ロボット装置が備える行動制御システム100について
説明する。この行動制御システム100は、第1の実施
の形態のロボット装置に採用され、内部状況や外部状況
を評価し、ロボット装置の行動を制御する。
First, an action control system 100 included in the robot apparatus according to the first embodiment will be described with reference to FIG. This behavior control system 100 is adopted in the robot apparatus of the first embodiment, evaluates the internal situation and the external situation, and controls the behavior of the robot apparatus.

【0028】この行動制御システム100は、ロボット
装置の行動の動作や表現の意味を指令する動作・表現意
味指令C1を発行する行動選択手段である行動選択部1
01と、前記動作・表現意味指令C1を受けて動作・表
現実行指令C2へと変換する指令管理手段である動作・
表現指令管理部102と、前記動作・表現実行指令C2
を受け、ロボット装置の制御管理単位ごとに制御指令C
3へと分解する実行管理手段である動作・表現実行管理
部103と、前記制御指令を受け取りロボット装置の各
モジュールへの指令へと分解して各モジュールに発行す
るモジュール制御管理手段である複数のモジュール制御
管理部104とからなる。
The action control system 100 is an action selecting unit 1 which is an action selecting means for issuing an action / expression meaning command C1 for instructing the action of the robot apparatus and the meaning of the expression.
01 and the operation / expression meaning command C1, which is a command management means for converting the command into a motion / expression execution command C2.
Expression command management unit 102 and the operation / expression execution command C2
Control command C for each control management unit of the robot device
3. The operation / expression execution management unit 103, which is an execution management unit that is decomposed into 3, and a plurality of module control management units, which receives the control command and decomposes it into commands for each module of the robot apparatus and issues the command to each module. The module control management unit 104.

【0029】行動選択部101は、ロボット装置の内部
状況や外部状況を評価し、その評価結果に基づいた行動
を選択し、その行動の動作や表現の意味を指令する動作
・表現意味指令C1を発行する。ロボット装置の内部状
況には、行動選択部101から発行した動作・表現意味
指令の実行状況も含まれる。
The action selecting unit 101 evaluates the internal state and the external state of the robot apparatus, selects an action based on the evaluation result, and issues an action / expression meaning command C1 for instructing the action or expression meaning of the action. Issue. The internal situation of the robot apparatus also includes the execution situation of the action / expression meaning command issued from the action selecting unit 101.

【0030】動作・表現指令管理部102は、行動選択
部101が発行した前記動作・表現意味指令C1を受け
て、その時点での他の意味指令の実行状況と照合し、ロ
ボット装置の動作・表現実行指令C2へと変換するとと
もに、動作・表現意味指令の実行状況を管理し、行動選
択部101へ通知する(F1,F2,F5)。
The action / expression command management unit 102 receives the action / expression meaning command C1 issued by the action selection unit 101, compares it with the execution status of other meaning commands at that time, and determines the action / operation of the robot device. The expression execution command C2 is converted, the execution status of the action / expression meaning command is managed, and the action selection unit 101 is notified (F1, F2, F5).

【0031】動作・表現実行管理部103は、動作・表
現指令管理部102から前記動作・表現実行指令C2を
受け、ロボット装置の制御管理単位ごとに制御指令C3
へと分解するとともに、前記動作・表現実行指令の実行
状況を管理して動作・表現指令管理部102へ通知する
(R,N1,F4)。
The motion / expression execution management unit 103 receives the motion / expression execution command C2 from the motion / expression command management unit 102 and receives a control command C3 for each control management unit of the robot apparatus.
In addition, the execution status of the operation / expression execution command is managed and notified to the operation / expression command management unit 102 (R, N1, F4).

【0032】複数のモジュール制御管理部104は、動
作・表現実行管理部103がロボット装置の制御管理単
位ごとに分解した制御指令C3を受けとり、ロボット装
置の各モジュールへの指令へと分解して各モジュールに
発行するとともに、前記制御指令の実行状況を管理し、
動作・表現実行管理部103へ通知する(F2,F
3)。
The plurality of module control management units 104 receive the control command C3 decomposed by the operation / expression execution management unit 103 for each control management unit of the robot device, decompose the control command C3 into commands for each module of the robot device, and divide each command. While issuing to the module, manage the execution status of the control command,
Notify the action / expression execution management unit 103 (F2, F
3).

【0033】次に、図2を用いて行動制御システム10
0のシーケンスを説明する。ロボット装置に対し、例え
ば「ボールを発見したら、通知し、ボールを見ながら、
立ち上がり、歩行する」という課題があるとする。
Next, the behavior control system 10 will be described with reference to FIG.
The sequence of 0 will be described. For example, "If you find the ball, you will be notified, and while watching the ball,
Stand up and walk ”.

【0034】これに対応して、それぞれ「発見したこと
を表現する」、「ボールを見続ける」、「立ち上が
る」、「歩行する」という動作・表現意味指令がある。
Corresponding to this, there are motion / expression meaning commands for "expressing what was discovered", "keep watching the ball", "stand up", and "walk", respectively.

【0035】行動選択部101は、ボールが見えている
という外部状況をもとに、「発見したことを表現する」
動作・表現意味指令C1を動作・表現指令管理部102
に発行する。
The action selection unit 101 "expresses the discovery" based on the external situation in which the ball is visible.
The action / expression meaning command C1 is assigned to the action / expression command management unit 102
To publish.

【0036】動作・表現指令管理部102は、その時点
での他の意味指令の実行状況と照合し、実行可能な実ロ
ボット装置での動作・表現実行指令を検索し、例えば、
「LEDを光らせ、音を出す」動作・表現実行指令C2
を動作・表現実行管理部103に発行する。もし、その
時点で実行可能な実ロボット装置での動作・表現実行指
令を発行できない場合は、意味指令の実行状況として行
動選択部101に即時実行完了(失敗)F1を通知す
る。
The motion / expression command management unit 102 collates with the execution status of other semantic commands at that time, and searches for a motion / expression execution command in the real robot device that can be executed.
"Activate LED and make sound" operation / expression execution command C2
Is issued to the action / expression execution management unit 103. If the action / expression execution command in the real robot apparatus that can be executed at that time cannot be issued, the action selection unit 101 is notified of immediate execution completion (failure) F1 as the execution status of the meaning command.

【0037】動作・表現実行管理部103は、動作・表
現実行指令C2を受け取ったことを動作・表現指令管理
部102に知らせる(R)。また、それまでの各モジュ
ール制御管理部104からの制御指令実行情報F2か
ら、「LEDを光らせ、音を出す」動作・表現実行指令
C2を実行する準備ができているかどうかを判断する。
The motion / expression execution management unit 103 informs the motion / expression command management unit 102 that the motion / expression execution command C2 has been received (R). Also, it is determined from the control command execution information F2 from each module control management unit 104 up to that point whether or not the operation / expression execution command C2 of “light up LED and emit sound” is ready.

【0038】実行準備ができている場合、動作・表現実
行管理部103は、動作・表現指令管理部102に対
し、実行開始通知N1を行う。また、「LEDを光ら
せ、音を出す」動作・表現実行指令C2をロボット装置
の制御単位ごとに、「LEDを光らせる」制御指令C3
−1と、「音を出す」制御指令C3−2とに分解する。
また、その分解した指令を各モジュール制御管理部10
4に通知する。
When the execution / preparation execution management unit 103 is ready for execution, the operation / expression execution management unit 103 issues an execution start notification N1 to the operation / expression instruction management unit 102. In addition, an operation / expression execution command C2 that "lights an LED and emits a sound" is a control command C3 that "lights an LED" for each control unit of the robot apparatus.
-1 and a control command C3-2 that "produces a sound" are disassembled.
Further, the decomposed command is sent to each module control management unit 10
Notify 4.

【0039】各モジュール制御管理部104は、各制御
指令C3−1、C3−2を各アクチュエータのコントロ
ーラに発行し、動作・表現実行管理部103に実行完了
(成功)F3を通知する。
Each module control management unit 104 issues each control command C3-1 and C3-2 to the controller of each actuator, and notifies the operation / expression execution management unit 103 of execution completion (success) F3.

【0040】動作・表現指令管理部102は、「LED
を光らせ、音を出す」動作・表現実行指令C2に対する
実行開始通知N1を受けて、行動選択部101に「発見
したことを表現する」動作・表現意味指令C1の実行開
始N2を通知する。
The operation / expression command management unit 102 displays the "LED
In response to the execution start notification N1 for the action / expression execution command C2, the action selection unit 101 is notified of the execution start N2 of the action / expression meaning command C1 “expressing the discovery”.

【0041】行動選択部101は、「発見したことを表
現する」動作・表現意味指令C1に対する実行開始N2
を受けて、次の動作・表現意味指令である「ボールを見
続ける」動作・表現意味指令C4を動作・表現指令管理
部102に発行する。
The action selection unit 101 starts execution N2 for the action / expression meaning command C1 "expressing the discovery".
In response, a motion / expression meaning command C4, which is the next motion / expression meaning command, "keep looking at the ball" is issued to the motion / expression command management unit 102.

【0042】動作・表現指令管理部102は、その時点
で実行可能な実ロボット装置での動作・表現実行指令を
検索し、例えば、「カメラが付いている頭部分をボール
の方向に向け続ける」動作・表現実行指令C2’を前記
C2のように動作・表現実行管理部103に発行する。
The motion / expression command management unit 102 searches for a motion / expression execution command in the actual robot apparatus that can be executed at that time, and, for example, "continues to direct the head part with the camera toward the ball". The action / expression execution command C2 ′ is issued to the action / expression execution management unit 103 as in C2.

【0043】もし、その時点で実行可能な実ロボット装
置での動作・表現実行指令を発行できない場合は、意味
指令の実行状況として行動選択部101に即時実行完了
(失敗)F1’を通知する。
If the action / expression execution command in the real robot device that can be executed at that time cannot be issued, the action selection unit 101 is notified of immediate execution completion (failure) F1 'as the execution status of the meaning command.

【0044】動作・表現実行管理部103は、動作・表
現実行指令C2’を受け取ったことを動作・表現指令管
理部102に知らせる(R)。また、それまでの各モジ
ュール制御管理部104からの制御指令実行情報F2’
から、「カメラが付いている頭部分をボールの方向に向
け続ける」動作・表現実行指令C2’を実行する準備が
できているかどうかを判断する。
The motion / expression execution management unit 103 notifies the motion / expression command management unit 102 that the motion / expression execution command C2 'has been received (R). In addition, the control command execution information F2 ′ from each module control management unit 104 until then
From the above, it is determined whether or not it is ready to execute the action / expression execution command C2 ′ “keep the head part with the camera facing toward the ball”.

【0045】実行準備ができている場合、動作・表現実
行管理部103は、動作・表現指令管理部102に対
し、実行開始通知N1’を行う。また、「カメラが付い
ている頭部分をボールの方向に向け続ける」動作・表現
実行指令C2’をロボット装置の制御単位ごとに、いく
つかの制御指令に分解する。また、その分解した指令を
各モジュール制御管理部104に通知する。
If the execution / preparation execution management unit 103 is ready for execution, the operation / expression execution management unit 103 issues an execution start notification N1 'to the operation / expression instruction management unit 102. Also, the action / expression execution command C2 ′ “continue to direct the head part with the camera toward the ball” is decomposed into several control commands for each control unit of the robot apparatus. Further, the decomposed command is notified to each module control management unit 104.

【0046】各モジュール制御管理部104は、各制御
指令を各アクチュエータのコントローラに発行し、動作
・表現実行管理部103に実行完了(成功)F3’を通
知する。
Each module control management unit 104 issues each control command to the controller of each actuator, and notifies the operation / expression execution management unit 103 of execution completion (success) F3 '.

【0047】動作・表現指令管理部102は、「カメラ
が付いている頭部分をボールの方向に向け続ける」動作
・表現実行指令C2’に対する実行開始通知N1’を受
けて、行動選択部101に「ボールを見続ける」動作・
表現意味指令C4(C1’)の実行開始N2’を通知す
る。
The motion / expression command management unit 102 receives the execution start notification N1 'for the motion / expression execution command C2'"continue to direct the head part with the camera toward the ball", and then the action selection unit 101 receives it. "Keep watching the ball" action
The execution start N2 'of the expression meaning command C4 (C1') is notified.

【0048】行動選択部101は、「ボールを見続け
る」動作・表現意味指令C4に対する実行開始N2’を
受けて、次の動作・表現意味指令を発行する。
The action selection unit 101 receives the execution start N2 'for the action / expression meaning command C4 "keep looking at the ball" and issues the next action / expression meaning command.

【0049】以下、「発見したことを表現する」と同様
に処理し、行動選択部は順次、「立ち上がる」、「歩行
する」動作・表現意味指令を発行する。
Thereafter, the processing is performed in the same manner as in "expressing what has been found", and the action selecting section sequentially issues motion / expression meaning commands of "stand up" and "walk".

【0050】以上の処理により、ロボット装置は、ボー
ルを発見した後、「LEDを光らせ、音を出し」ながら
「ボールを見続け」、そのまま「立ち上がり」、「歩行
する」ことができる。
Through the above processing, the robot apparatus can “keep on watching the ball” while “lighting the LED and making a sound”, “stand up”, and “walk” after finding the ball.

【0051】なお、動作・表現実行管理部103は、そ
れまでの各モジュール制御管理部104からの制御指令
実行情報F2から、例えば「LEDを光らせ、音を出
す」動作・表現実行指令C2を実行する準備ができてい
ないと判断した場合には、図3に示すシーケンスにより
処理を進める。
The operation / expression execution management unit 103 executes, for example, the operation / expression execution command C2 "lights LED, emits sound" from the control command execution information F2 from each module control management unit 104 up to that point. If it is determined that it is not ready to perform, the process proceeds according to the sequence shown in FIG.

【0052】実行準備ができていない場合、例えば、そ
の時点で音を出している場合は、動作・表現実行管理部
103は、音を制御するモジュール制御管理部104に
対し、「音を出すのを中止する」制御指令C5を発行す
る。また、「音を出すのを中止する」制御指令C5の実
行完了(成功)通知F6を受けて、再度、「LEDを光
らせ、音を出す」動作・表現実行指令を実行する準備が
できているかどうかを判断する。
When the execution preparation is not ready, for example, when the sound is produced at that time, the action / expression execution management unit 103 informs the module control management unit 104 which controls the sound, “produce a sound. Control command C5 is issued. In addition, in response to the execution completion (success) notification F6 of the "stop producing sound" control command C5, is it ready to execute the "light up LED and emit sound" operation / expression execution command again? Determine whether

【0053】ここで、実行準備ができていると判断すれ
ば、動作・表現実行管理部103は、動作・表現指令管
理部102に対し、実行開始通知N3を行う。また、
「LEDを光らせ、音を出す」動作・表現実行指令C2
をロボット装置の制御単位ごとに、「LEDを光らせ
る」制御指令C6−1と、「音を出す」制御指令C6−
2とに分解する。また、その分解した指令を各モジュー
ル制御管理部104に通知する。
If it is determined that the operation / expression execution management section 103 is ready for execution, the operation / expression execution management section 103 issues an execution start notification N3 to the operation / expression command management section 102. Also,
"Activate LED and make sound" operation / expression execution command C2
For each control unit of the robot apparatus, a control command C6-1 "lights an LED" and a control command C6-
Decomposes into 2 and. Further, the decomposed command is notified to each module control management unit 104.

【0054】各モジュール制御管理部104は、各制御
指令C6−1、C6−2を各アクチュエータのコントロ
ーラに発行し、動作・表現実行管理部103に実行完了
(成功)F7を通知する。
Each module control management unit 104 issues each control command C6-1 and C6-2 to the controller of each actuator, and notifies the operation / expression execution management unit 103 of execution completion (success) F7.

【0055】動作・表現指令管理部102は、「LED
を光らせ、音を出す」動作・表現実行指令C2に対する
実行開始通知N3を受けて、行動選択部101に「発見
したことを表現する」動作・表現意味指令C1の実行開
始N4を通知する。
The operation / expression command management unit 102 uses the "LED
In response to the execution start notification N3 for the action / expression execution command C2, the action selection unit 101 is notified of the execution start N4 of the action / expression meaning command C1 “expressing the discovery”.

【0056】行動選択部101は、「発見したことを表
現する」動作・表現意味指令C1に対する実行開始N4
を受けて、次の動作・表現意味指令である「ボールを見
続ける」動作・表現意味指令C7を動作・表現指令管理
部102に発行する。
The action selecting section 101 starts the execution N4 for the action / expression meaning command C1 "expressing the discovery".
In response, the action / expression command management unit 102 issues the next action / expression command, which is “keep watching the ball” action / expression command C7.

【0057】動作・表現指令管理部102は、その時点
で実行可能な実ロボット装置での動作・表現実行指令を
検索し、例えば、「カメラが付いている頭部分をボール
の方向に向け続ける」動作・表現実行指令C2’を前記
C2のように動作・表現実行管理部103に発行する。
The motion / expression command management unit 102 retrieves a motion / expression execution command in the actual robot device that can be executed at that time, and, for example, "continues to point the head part with the camera toward the ball." The action / expression execution command C2 ′ is issued to the action / expression execution management unit 103 as in C2.

【0058】従来であれば、各モジュール制御管理部1
04から動作・表現実行管理部103及び動作・表現指
令管理部102を経て行動選択部101まで、実行完了
(成功)F3、F4及びF5や、F7,F8及びF9が
通知されるのを待って、行動選択部101にて次の動作
・表現意味指令を出していた。
Conventionally, each module control management unit 1
From 04 to the action selection unit 101 through the action / expression execution management unit 103 and the action / expression command management unit 102, waiting for notification of execution completion (success) F3, F4 and F5, F7, F8 and F9. The action selection unit 101 has issued the next action / expression meaning command.

【0059】これに対して行動制御システム100は、
「発見したことを表現する」動作・表現意味指令C1の
実行開始N2、N4が行動選択部101に通知されたタ
イミングで次の動作・表現意味指令を出すことができる
ので、ロボット装置に発見したことを表現する動作と並
行してボールを見続ける動作を行わせることができるの
である。
On the other hand, the behavior control system 100
Since the next operation / expression meaning command can be issued at the timing when the action selecting unit 101 is notified of the execution start N2, N4 of the "expressing the discovery" operation / expression meaning command C1, the operation / expression meaning command C1 was found in the robot device. It is possible to make the player continue to watch the ball in parallel with the motion of expressing that.

【0060】すなわち、行動制御システム100は、動
作表現実行管理部103にて、実ロボット装置の動作・
表現指令をもとに、ロボット装置の制御管理単位ごとへ
の制御指令へと分解し発行するに際し、以下の、動作・
表現実行指令の実行状況を通知する。先ず、各モジュー
ル制御管理部への制御指令を発行する直前に、実行開始
通知を行う(1)。また、各ロボット装置の制御管理単
位からの実行完了通知がそろったとき、全てが正しく実
行されている場合を実行完了通知(成功)を行う
(2)。また、各ロボット装置の制御管理単位からの実
行完了通知がそろわず、途中で終了した場合は、実行完
了通知(失敗)を行う。
That is, in the action control system 100, the action expression execution management unit 103 causes the action / actuation of the actual robot device.
When disassembling and issuing the control command for each control management unit of the robot device based on the expression command,
Notify the execution status of the expression execution command. First, immediately before issuing a control command to each module control management unit, an execution start notification is given (1). Further, when the execution completion notifications from the control management units of the respective robot devices are complete, the execution completion notification (success) is issued when all are correctly executed (2). Further, if the execution completion notifications from the control management units of the respective robot devices are not available and the processing ends in the middle, an execution completion notification (failure) is given.

【0061】動作表現指令管理部102は、動作・表現
実行指令の実行状況を受けて、動作・表現意味指令の実
行状況を通知する。また、行動選択部101は、動作・
表現意味指令の実行状況通知を受けて、ロボット装置の
内部状況、外部状況を評価し、行動を選択する。
The motion expression command management unit 102 receives the execution status of the motion / expression execution command and notifies the execution status of the motion / expression meaning command. In addition, the action selection unit 101
In response to the notification of the execution status of the expression meaning command, the internal status and the external status of the robot device are evaluated and the action is selected.

【0062】このとき、行動選択部101は、それまで
の動作・表現意味指令の実行開始通知信号によって次の
行動を選択・決定することにより、別々の動作や表現
を、並行実行させることができる。
At this time, the action selecting unit 101 can execute different actions and expressions in parallel by selecting and deciding the next action in response to the execution start notification signal of the action / expression meaning command so far. .

【0063】次に、前記図1〜図3を用いて説明した行
動制御システム100を備える、第1の実施の形態のロ
ボット装置の外観、回路等について詳細に説明する。
Next, the appearance, circuit, etc. of the robot apparatus according to the first embodiment, which includes the behavior control system 100 described with reference to FIGS. 1 to 3, will be described in detail.

【0064】図4に示すように、本実施の形態によるロ
ボット装置1は、4足歩行の脚式移動ロボットであり、
胴体部ユニット2の前後左右にそれぞれ脚部ユニット3
A,3B,3C,3Dが連結されると共に、胴体部ユニ
ット2の前端部に頭部ユニット4が連結されて構成され
ている。
As shown in FIG. 4, the robot apparatus 1 according to the present embodiment is a quadrupedal legged mobile robot,
The leg units 3 are provided on the front, rear, left and right of the body unit 2, respectively.
A, 3B, 3C and 3D are connected, and a head unit 4 is connected to the front end of the body unit 2.

【0065】胴体部ユニット2には、図5に示すよう
に、CPU10、DRAM(DynamicRandom Access Mem
ory)11、フラッシュROM(Read 0nly Memory)1
2、PC(Personal Computer)カードインターフェー
ス回路13及び信号処理回路14が内部バス15を介し
て相互に接続されることにより形成されたコントロール
部16と、このロボット装置1の動力源としてのバッテ
リ17とが収納されている。また、胴体部ユニット2に
は、ロボット装置1の向きや動きの加速度を検出するた
めの角速度センサ18及び加速度センサ19なども収納
されている。
As shown in FIG. 5, the body unit 2 includes a CPU 10 and a DRAM (Dynamic Random Access Mem).
ory) 11, Flash ROM (Read 0nly Memory) 1
2. A control unit 16 formed by connecting a PC (Personal Computer) card interface circuit 13 and a signal processing circuit 14 to each other via an internal bus 15, and a battery 17 as a power source of the robot apparatus 1. Is stored. Further, the body unit 2 also houses an angular velocity sensor 18, an acceleration sensor 19 and the like for detecting the acceleration of the direction and movement of the robot apparatus 1.

【0066】また、頭部ユニット4には、外部の状況を
撮像するとともに、周囲の明るさを検出するためのCC
D(Charge Coupled Device)カメラ20と、前後に倒
すといった使用者からの物理的な働きかけを検出するた
めのタッチセンサ21と、前方に位置する物体までの距
離を測定するための距離センサ22と、外部音を集音す
るためのマイクロホン23と、各種音声を出力するため
のスピーカ24と、頭部ユニット4内に格納可能とされ
たヘッドライト25と、ロボット装置1の「目」に相当
するLED(Light Emitting Diode)(図示せず)など
がそれぞれ所定位置に配置されている。なお、ロボット
装置1においては、タッチセンサ21以外にも、胴体部
ユニット2及び頭部ユニット4の所定位置に複数のタッ
チセンサが配置されている。例えば頭部に付いているタ
ッチセンサを、ユーザが撫でたときには、頭部センサを
撫でられたという内部状況が評価される。
Further, the head unit 4 is provided with a CC for picking up an image of an external situation and detecting ambient brightness.
A D (Charge Coupled Device) camera 20, a touch sensor 21 for detecting a physical action from the user such as tilting forward and backward, a distance sensor 22 for measuring a distance to an object located in front, A microphone 23 for collecting an external sound, a speaker 24 for outputting various sounds, a headlight 25 that can be stored in the head unit 4, and an LED corresponding to an "eye" of the robot apparatus 1. (Light Emitting Diode) (not shown) and the like are arranged at predetermined positions. In the robot device 1, in addition to the touch sensor 21, a plurality of touch sensors are arranged at predetermined positions of the body unit 2 and the head unit 4. For example, when the user strokes the touch sensor attached to the head, the internal situation in which the head sensor is stroked is evaluated.

【0067】さらに、各脚部ユニット3A〜3Dの関節
部分や各脚部ユニット3A〜3D及び胴体部ユニット2
の各連結部分、並びに頭部ユニット4及び胴体部ユニッ
ト2の連結部分などにはそれぞれ自由度数分のアクチュ
エータ26〜26及びポテンショメータ27〜2
が配設されている。例えば、アクチュエータ26
〜26はサーボモータを構成として有している。サー
ボモータの駆動により、脚部ユニット3A〜3Dが制御
されて、目標の姿勢或いは動作に遷移する。もちろん、
歩行動作もサーボモータの駆動により制御された脚部ユ
ニット3A〜3Dの接地面に対する自在な動きにより成
される。特に、このロボット装置1では、歩行パターン
を切り換えて多様な歩行動作を実現するときのつなぎ動
作を、サーボモータの駆動に基づく脚部ユニット3A〜
3Dの動きと、胴体部ユニット2の動きを制御して実行
する。
Furthermore, joints of the leg units 3A to 3D
Part or each leg unit 3A to 3D and body unit 2
Of the head unit 4 and the body unit
Each of the connecting parts of g.
Eta 261~ 26nAnd potentiometer 271~ 2
7nIs provided. For example, the actuator 26 1
~ 26nHas a servo motor as a component. Sir
The leg units 3A to 3D are controlled by the drive of the bomotor.
Then, the target posture or motion is changed. of course,
Walking motion is controlled by the drive of the servo motor.
Performed by freely moving the knits 3A to 3D with respect to the ground contact surface.
To be done. In particular, in this robot device 1, the walking pattern
Movement when switching between different types to achieve various walking movements
The work is based on the drive of the servomotor, the leg unit 3A ~
Controlled execution of 3D movement and movement of body unit 2
To do.

【0068】そして、これら角速度センサ18、加速度
センサ19、タッチセンサ21、距離センサ22、マイ
クロホン23、スピーカ24、及び各ポテンショメータ
27 〜27などの各種センサ並びにヘッドライト2
5、LED及び各アクチュエータ26 〜26は、
それぞれ対応するハブ28〜28を介してコントロ
ール部16の信号処理回路14と接続され、CCDカメ
ラ20及びバッテリ17は、それぞれ信号処理回路14
と直接接続されている。
The angular velocity sensor 18 and the acceleration
Sensor 19, Touch sensor 21, Distance sensor 22, My
Chlophon 23, speaker 24, and potentiometers
27 1~ 27nVarious sensors and headlight 2
5, LED and each actuator 261 ~ 26nIs
The corresponding hub 281~ 28nThrough contro
Connected to the signal processing circuit 14 of the video camera 16 and connected to the CCD camera.
20 and the battery 17 are respectively the signal processing circuit 14
Is directly connected to.

【0069】信号処理回路l4は、上述の各センサから
供給されるセンサデータや画像データ及び音声データを
順次取り込み、これらをそれぞれ内部バス15を介して
DRAM11内の所定位置に順次格納する。また信号処
理回路14は、これと共にバッテリ17から供給される
バッテリ残量を表すバッテリ残量データを順次取り込
み、これをDRAM11内の所定位置に格納する。
The signal processing circuit 14 sequentially takes in sensor data, image data, and audio data supplied from each of the above-mentioned sensors, and sequentially stores them in a predetermined position in the DRAM 11 via the internal bus 15. Further, the signal processing circuit 14 also sequentially takes in the battery remaining amount data representing the remaining battery amount supplied from the battery 17, and stores it in a predetermined position in the DRAM 11.

【0070】このようにしてDRAM11に格納された
各センサデータ、画像データ、音声データ及びバッテリ
残量データは、この後CPU10がこのロボット装置1
の動作制御を行う際に利用される。
The sensor data, the image data, the audio data, and the battery remaining amount data thus stored in the DRAM 11 are then processed by the CPU 10 by the robot device 1.
It is used to control the operation of.

【0071】実際上CPU10は、ロボット装置1の電
源が投入された初期時、胴体部ユニット2の図示しない
PCカードスロットに装填されたメモリカード29又は
フラッシュROM12に格納された制御プログラムをP
Cカードインターフェース回路13を介して又は直接読
み出し、これをDRAM11に格納する。この制御プロ
グラムをCPU10が実行することによって、前記図1
〜図3を用いて説明した行動制御システム100が構築
されることになる。
Actually, the CPU 10 executes the control program stored in the memory card 29 or the flash ROM 12 loaded in the PC card slot (not shown) of the body unit 2 at the initial stage when the power of the robot apparatus 1 is turned on.
The data is read out via the C card interface circuit 13 or directly and stored in the DRAM 11. When the CPU 10 executes this control program,
~ The action control system 100 described with reference to Fig. 3 is constructed.

【0072】また、CPU10は、この後上述のように
信号処理回路14よりDRAM11に順次格納される各
センサデータ、画像データ、音声データ及びバッテリ残
量データに基づいて自己及び周囲の状況や、使用者から
の指示及び働きかけの有無などを判断する。
Further, the CPU 10 thereafter uses the signal processing circuit 14 to sequentially store the data in the DRAM 11 in the DRAM 11 as described above, based on the sensor data, the image data, the audio data, and the battery residual amount data, and the surrounding conditions and the usage. Judging whether or not there is an instruction from a person or working on it.

【0073】そして、ロボット装置1は、CPU10が
前記制御プログラムを実行することによって構築した行
動制御システム100に基づいて続く行動を決定すると
共に、当該決定結果に基づいて必要なアクチュエータ2
〜26を駆動させることにより、頭部ユニット4
を上下左右に振らせたり、各脚部ユニット3A〜3Dを
駆動させて歩行させるなどの行動を行わせる。
Then, the robot apparatus 1 determines the subsequent action based on the action control system 100 constructed by the CPU 10 executing the control program, and the necessary actuator 2 based on the determination result.
6 1 by driving the ~ 26 n, the head unit 4
Is swung up and down, left and right, or each leg unit 3A to 3D is driven to walk.

【0074】また、この際CPU10は、必要に応じて
音声データを生成し、これを信号処理回路14を介して
音声信号としてスピーカ24に与えることにより当該音
声信号に基づく音声を外部に出力させたり、上述のLE
Dを点灯、消灯又は点滅させる。また、CPU10は、
後述するように、CCDカメラ20を用いて周囲の明る
さを検出させ、その検出結果に応じてヘッドライト25
を点灯させる。
Further, at this time, the CPU 10 generates voice data as needed and outputs it to the speaker 24 via the signal processing circuit 14 as a voice signal to output a voice based on the voice signal to the outside. , LE mentioned above
Turn on, turn off, or blink D. Also, the CPU 10
As will be described later, the ambient brightness is detected using the CCD camera 20, and the headlight 25 is detected according to the detection result.
Light up.

【0075】このようにしてこのロボット装置1におい
ては、自己及び周囲の状況(内部状況及び外部状況)
や、使用者からの指示及び働きかけに応じて自律的に行
動し得るようになされている。
In this way, in this robot apparatus 1, the situation of the self and surroundings (internal situation and external situation)
Also, it is designed to be able to act autonomously in response to instructions and actions from the user.

【0076】次に、前記行動制御システム100を構築
するための制御プログラムのソフトウェア構成について
説明する。ロボット装置1における上述の制御プログラ
ムのソフトウェア構成は、図6に示すようになる。この
図6において、デバイス・ドライバ・レイヤ30は、こ
の制御プログラムの最下位層に位置し、複数のデバイス
・ドライバからなるデバイス・ドライバ・セット31か
ら構成されている。この場合、各デバイス・ドライバ
は、CCDカメラ20(図5)やタイマ等の通常のコン
ピュータで用いられるハードウェアに直接アクセスする
ことを許されたオブジェクトであり、対応するハードウ
ェアからの割り込みを受けて処理を行う。
Next, the software configuration of the control program for constructing the behavior control system 100 will be described. The software configuration of the control program in the robot apparatus 1 is as shown in FIG. In FIG. 6, the device driver layer 30 is located at the lowest layer of this control program and is composed of a device driver set 31 composed of a plurality of device drivers. In this case, each device driver is an object that is allowed to directly access hardware used in a normal computer such as the CCD camera 20 (FIG. 5) and a timer, and receives an interrupt from the corresponding hardware. Perform processing.

【0077】また、ロボティック・サーバ・オブジェク
ト32は、デバイス・ドライバ・レイヤ30の上位に位
置し、例えば上述の各種センサやアクチュエータ25
〜25等のハードウェアにアクセスするためのインタ
ーフェースを提供するソフトウェア群でなるバーチャル
・ロボット33と、電源の切換えなどを管理するソフト
ウェア群でなるバワーマネージャ34と、他の種々のデ
バイス・ドライバを管理するソフトウェア群でなるデバ
イス・ドライバ・マネージャ35と、ロボット装置1の
機構を管理するソフトウェア群でなるデザインド・ロボ
ット36とから構成されている。
The robotic server object 32 is located above the device driver layer 30, and for example, the above-mentioned various sensors and actuators 25 1
A virtual robot 33 comprising a software group that provides an interface for accessing the hardware, such as to 25 n, a bus word manager 34 made of a software suite for managing the power supply switching, the other various device drivers A device driver manager 35, which is a software group for managing, and a designed robot 36, which is a software group for managing the mechanism of the robot apparatus 1, are configured.

【0078】マネージャ・オブジェクト37は、オブジ
ェクト・マネージャ38及びサービス・マネージャ39
から構成されている。オブジェクト・マネージャ38
は、ロボティック・サーバ・オブジェクト32、ミドル
・ウェア・レイヤ40、及びアプリケーション・レイヤ
41に含まれる各ソフトウェア群の起動や終了を管理す
るソフトウェア群であり、サービス・マネージャ39
は、メモリカード29(図5)に格納されたコネクショ
ンファイルに記述されている各オブジェクト間の接続情
報に基づいて各オブジェクトの接続を管理するソフトウ
ェア群である。
The manager object 37 includes an object manager 38 and a service manager 39.
It consists of Object manager 38
Is a software group that manages activation and termination of each software group included in the robotic server object 32, the middleware layer 40, and the application layer 41.
Is a software group that manages the connection of each object based on the connection information between each object described in the connection file stored in the memory card 29 (FIG. 5).

【0079】ミドル・ウェア・レイヤ40は、ロボティ
ック・サーバ・オブジェクト32の上位層に位置し、画
像処理や音声処理などのこのロボット装置1の基本的な
機能を提供するソフトウェア群から構成されている。
The middleware layer 40 is located in the upper layer of the robotic server object 32, and is composed of a software group which provides basic functions of the robot apparatus 1 such as image processing and voice processing. There is.

【0080】また、アプリケーション・レイヤ41は、
ミドル・ウェア・レイヤ40の上位層に位置し、当該ミ
ドル・ウェア・レイヤ40を構成する各ソフトウェア群
によって処理された処理結果に基づいてロボット装置1
の行動を決定するためのソフトウェア群から構成されて
いる。
Further, the application layer 41 is
The robot device 1 is located in the upper layer of the middle wear layer 40 and is based on the processing result processed by each software group that constitutes the middle wear layer 40.
It is composed of a group of software for determining the behavior of.

【0081】なお、ミドル・ウェア・レイヤ40及びア
プリケーション・レイヤ41の具体なソフトウェア構成
をそれぞれ図7、図8に示す。
The concrete software configurations of the middleware layer 40 and the application layer 41 are shown in FIGS. 7 and 8, respectively.

【0082】ミドル・ウェア・レイヤ40は、図7に示
すように、騒音検出用、温度検出用、明るさ検出用、音
階認識用、距離検出用、姿勢検出用、タッチセンサ用、
動き検出用及び色認識用の各信号処理モジュール50〜
58並びに入力セマンティクスコンバータモジュール5
9などを有する認識系60と、出力セマンティクスコン
バータモジュール68並びに姿勢管理用、トラッキング
用、モーション再生用、歩行用、転倒復帰用、ライト点
灯用及び音再生用の各信号処理モジュール61〜67な
どを有する出力系69とから構成されている。
The middle wear layer 40, as shown in FIG. 7, for noise detection, temperature detection, brightness detection, scale recognition, distance detection, posture detection, touch sensor,
Each signal processing module 50 for motion detection and color recognition
58 and input semantics converter module 5
A recognition system 60 having 9 or the like, an output semantics converter module 68, and signal processing modules 61 to 67 for posture management, tracking, motion reproduction, walking, fall recovery, light lighting and sound reproduction. The output system 69 has.

【0083】認識系60の各信号処理モジュール50〜
58は、ロボティック・サーバ・オブジェクト32のバ
ーチャル・ロボット33によりDRAM11(図5)か
ら読み出される各センサデータや画像データ及び音声デ
ータのうちの対応するデータを取り込み、当該データに
基づいて所定の処理を施して、処理結果を入力セマンテ
ィクスコンバータモジュール59に与える。ここで、例
えば、バーチャル・ロボット33は、所定の通信規約に
よって、信号の授受或いは変換をする部分として構成さ
れている。
Each signal processing module 50 of the recognition system 60
Reference numeral 58 captures corresponding data of each sensor data, image data and audio data read from the DRAM 11 (FIG. 5) by the virtual robot 33 of the robotic server object 32, and performs a predetermined process based on the data. And the processing result is given to the input semantics converter module 59. Here, for example, the virtual robot 33 is configured as a part that transmits and receives or converts signals according to a predetermined communication protocol.

【0084】入力セマンティクスコンバータモジュール
59は、これら各信号処理モジュール50〜58から与
えられる処理結果に基づいて、「うるさい」、「暑
い」、「明るい」、「ボールを検出した」、「転倒を検
出した」、「撫でられた」、「叩かれた」、「ドミソの
音階が聞こえた」、「動く物体を検出した」又は「障害
物を検出した」などの自己及び周囲の状況(内部状況及
び外部状況)や、使用者からの指令及び働きかけを認識
し、認識結果をアプリケーション・レイヤ41(図7)
に出力する。
The input semantics converter module 59 detects "noisy", "hot", "bright", "ball detected", and "fall" based on the processing results given from the respective signal processing modules 50 to 58. Yes, “stabbed”, “struck”, “hearing Domiso scale”, “moving object detected”, or “obstacle detected” such as self and surroundings (internal and The external layer) and commands and actions from the user are recognized, and the recognition result is recognized by the application layer 41 (FIG. 7).
Output to.

【0085】アプリケーション・レイヤ4lは、図8に
示すように、行動モデルライブラリ70、行動切換モジ
ュール71、学習モジュール72、感情モデル73及び
本能モデル74の5つのモジュールから構成されてい
る。
As shown in FIG. 8, the application layer 4l is composed of five modules: a behavior model library 70, a behavior switching module 71, a learning module 72, an emotion model 73 and an instinct model 74.

【0086】行動モデルライブラリ70には、図9に示
すように、「バッテリ残量が少なくなった場合」、「転
倒復帰する」、「障害物を回避する場合」、「感情を表
現する場合」、「ボールを検出した場合」などの予め選
択されたいくつかの条件項目にそれぞれ対応させて、そ
れぞれ独立した行動モデル70〜70が設けられて
いる。
In the behavior model library 70, as shown in FIG. 9, "when the battery level is low", "when the vehicle falls back", "when the obstacle is avoided", and "when the emotion is expressed". , "When a ball is detected" and the like, corresponding to some preselected condition items, independent action models 70 1 to 70 n are provided.

【0087】そして、これら行動モデル70〜70
は、それぞれ入力セマンティクスコンバータモジュール
59から認識結果が与えられたときや、最後の認識結果
が与えられてから一定時間が経過したときなどに、必要
に応じて後述のように感情モデル73に保持されている
対応する情動のパラメータ値や、本能モデル74に保持
されている対応する欲求のパラメータ値を参照しながら
続く行動をそれぞれ決定し、決定結果を行動切換モジュ
ール71に出力する。
Then, these behavior models 70 1 to 70 n
Are stored in the emotion model 73 as described later, as needed, when a recognition result is given from the input semantics converter module 59, or when a certain time has passed since the last recognition result was given. The subsequent action is determined with reference to the corresponding emotional parameter value and the corresponding desire parameter value held in the instinct model 74, and the determination result is output to the action switching module 71.

【0088】なお、この実施の形態の場合、各行動モデ
ル70〜70は、次の行動を決定する手法として、
図10に示すような1つのノード(状態)NODE
NODEから他のどのノードNODE〜NODE
に遷移するかを各ノードNODE〜NODEに間を
接続するアークARC〜ARCに対してそれぞれ設
定された遷移確率P〜Pに基づいて確率的に決定す
る有限確率オートマトンと呼ばれるアルゴリズムを用い
る。
In the case of this embodiment, each of the behavior models 70 1 to 70 n has the following method for determining the next behavior.
One node (state) NODE 0- as shown in FIG.
From NODE n to any other node NODE 0 to NODE n
It is called a finite-probability automaton that determines probabilistically based on the transition probabilities P 1 to P n set for the arcs ARC 1 to ARC n that connect the nodes NODE 0 to NODE n , respectively. Use an algorithm.

【0089】具体的に、各行動モデル70〜70
は、それぞれ自己の行動モデル70〜70を形成
するノードNODE〜NODEにそれぞれ対応させ
て、これらノードNODE〜NODEごとに図11
に示すような状態遷移表80を有している。
Specifically, each behavior model 70 1 to 70
n are each respectively made to correspond to the node NODE 0 ~NODE n to form a self-behavior model 70 1 to 70 n, Fig each of these nodes NODE 0 ~NODE n 11
It has a state transition table 80 as shown in FIG.

【0090】この状態遷移表80では、そのノードNO
DE〜NODEにおいて遷移条件とする入力イベン
ト(認識結果)が「入力イベント名」の列に優先順に列
記され、その遷移条件についてのさらなる条件が「デー
タ名」及び「データ範囲」の列における対応する行に記
述されている。
In this state transition table 80, the node NO.
Input events (recognition results) that are transition conditions in DE 0 to NODE n are listed in order of priority in the column of “input event name”, and further conditions regarding the transition conditions are listed in the columns of “data name” and “data range”. It is described in the corresponding line.

【0091】したがって、図11の状態遷移表80で表
されるノードNODE100では、「ボールを検出(B
ALL)」という認識結果が与えられた場合に、当該認
識結果と共に与えられるそのボールの「大きさ(SIZ
E)」が「0から1000」の範囲であることや、「障害物
を検出(OBSTACLE)」という認識結果が与えら
れた場合に、当該認識結果と共に与えられるその障害物
までの「距離(DISTANCE)」が「0から100」の
範囲であることが他のノードに遷移するための条件とな
っている。
Therefore, in the node NODE 100 represented by the state transition table 80 of FIG. 11, "ball detection (B
"ALL)", the "size (SIZ) of the ball given together with the recognition result is given.
E) ”is in the range of“ 0 to 1000 ”, or when a recognition result of“ obstacle detection (OBSTACE) ”is given, the“ distance (DISTANCE) to the obstacle given together with the recognition result is given. ) ”Is in the range of“ 0 to 100 ”is a condition for transition to another node.

【0092】また、このノードNODE100では、認
識結果の入力がない場合においても、行動モデル70
〜70が周期的に参照する感情モデル73及び本能モ
デル74にそれぞれ保持された各情動及び各欲求のパラ
メータ値のうち、感情モデル73に保持された「喜び
(JOY)」、「驚き(SURPRISE)」若しくは
「悲しみ(SUDNESS)」のいずれかのパラメータ
値が「50から100」の範囲であるときには他のノードに
遷移することができるようになっている。
Further, in this node NODE 100 , even if there is no recognition result input, the behavior model 70 1
Among the parameter values of each emotion and each desire retained in the emotion model 73 and the instinct model 74 that are periodically referred to by ~ 70 n , “joy” and “surprise” retained in the emotion model 73. ) ”Or“ SODESS ”parameter value is in the range of“ 50 to 100 ”, it is possible to transit to another node.

【0093】また、状態遷移表80では、「他のノード
ヘの遷移確率」の欄における「遷移先ノード」の行にそ
のノードNODE〜 NODEから遷移できるノー
ド名が列記されていると共に、「入力イベント名」、
「データ値」及び「データの範囲」の列に記述された全
ての条件が揃ったときに遷移できる他の各ノードNOD
〜NODEへの遷移確率が「他のノードヘの遷移
確率」の欄内の対応する箇所にそれぞれ記述され、その
ノードNODE〜NODEに遷移する際に出力すべ
き行動が「他のノードヘの遷移確率」の欄における「出
力行動」の行に記述されている。なお、「他のノードヘ
の遷移確率」の欄における各行の確率の和は100
[%]となっている。
Further, in the state transition table 80, the node names that can transit from the nodes NODE 0 to NODE n are listed in the row of “transition destination node” in the column of “transition probability to other node”, and “ Input event name ",
Each other node NOD that can transit when all the conditions described in the columns of "data value" and "data range" are met
The transition probabilities from E 0 to NODE n are respectively described in the corresponding locations in the “transition probabilities to other nodes” section, and the action to be output when transitioning to the nodes NODE 0 to NODE n is “other It is described in the row of “output action” in the column of “transition probability to node”. In addition, the sum of the probabilities of each row in the column of "probability of transition to other node" is 100.
It is [%].

【0094】したがって、図11の状態遷移表80で表
されるノードNODE100では、例えば「ボールを検
出(BALL)」し、そのボールの「SIZE(大き
さ)」が「0から1000」の範囲であるという認識結果が
与えられた場合には、「30[%]」の確率で「ノードN
ODE120(node 120)」に遷移でき、そのとき「A
CTION1」の行動が出力されることとなる。
Therefore, in the node NODE 100 represented by the state transition table 80 of FIG. 11, for example, "a ball is detected (BALL)" and the "SIZE" of the ball is in the range of "0 to 1000". If the recognition result that is, is given, there is a probability of "30 [%]"
ODE 120 (node 120) ", at that time" A
The action of “CATION 1” will be output.

【0095】各行動モデル70〜70は、それぞれ
このような状態遷移表80として記述されたノードNO
DE〜 NODEがいくつも繋がるようにして構成
されており、入力セマンティクスコンバータモジュール
59から認識結果が与えられたときなどに、対応するノ
ードNODE〜NODEの状態遷移表を利用して確
率的に次の行動を決定し、決定結果を行動切換モジュー
ル71に出力するようになされている。
Each of the behavior models 70 1 to 70 n has a node NO described as such a state transition table 80.
The DE 0 to NODE n are configured to be connected in a number, and when the recognition result is given from the input semantics converter module 59, the probability is calculated by using the state transition table of the corresponding nodes NODE 0 to NODE n. Next, the next action is determined, and the determination result is output to the action switching module 71.

【0096】図8に示す行動切換モジュール71は、行
動モデルライブラリ70の各行動モデル70〜70
からそれぞれ出力される行動のうち、予め定められた優
先順位の高い行動モデル70〜70から出力された
行動を選択し、当該行動を実行すべき旨のコマンド(以
下、これを行動コマンドという。)をミドル・ウェア・
レイヤ40の出力セマンティクスコンバータモジュール
68に送出する。なお、この実施の形態においては、図
9において下側に表記された行動モデル70〜70
ほど優先順位が高く設定されている。
The action switching module 71 shown in FIG. 8 includes action models 70 1 to 70 n in the action model library 70.
Of the actions output from the action models 70 1 to 70 n having a predetermined high priority, a command indicating that the action should be executed (hereinafter, referred to as an action command). .) Middleware
It is sent to the output semantics converter module 68 of the layer 40. In this embodiment, the behavior models 70 1 to 70 n shown on the lower side in FIG.
The higher the priority, the higher the priority.

【0097】また、行動切換モジュール71は、行動完
了後に出力セマンティクスコンバータモジュール68か
ら与えられる行動完了情報に基づいて、その行動が完了
したことを学習モジュール72、感情モデル73及び本
能モデル74に通知する。
Further, the action switching module 71 notifies the learning module 72, the emotion model 73, and the instinct model 74 that the action is completed based on the action completion information given from the output semantics converter module 68 after the action is completed. .

【0098】一方、学習モジュール72は、入力セマン
ティクスコンバータモジュール59から与えられる認識
結果のうち、「叩かれた」や「撫でられた」など、使用
者からの働きかけとして受けた教示の認識結果を入力す
る。
On the other hand, the learning module 72 inputs the recognition result of the teaching received as an action from the user such as “struck” or “stabbed” among the recognition results given from the input semantics converter module 59. To do.

【0099】そして、学習モジュール72は、この認識
結果及び行動切換モジュール71からの通知に基づい
て、「叩かれた(叱られた)」ときにはその行動の発現
確率を低下させ、「撫でられた(誉められた)」ときに
はその行動の発現確率を上昇させるように、行動モデル
ライブラリ70における対応する行動モデル70〜7
の対応する遷移確率を変更する。
Then, based on the recognition result and the notification from the action switching module 71, the learning module 72 lowers the probability of occurrence of the action when "struck (scored)" and "stabbed ( Praise) ”, the corresponding behavior models 70 1 to 7 in the behavior model library 70 so as to increase the occurrence probability of the behavior.
Modify the corresponding transition probabilities of 0 n .

【0100】他方、感情モデル73は、「喜び(jo
y)」、「悲しみ(sadness)」、「怒り(anger)」、
「驚き(surprise)」、「嫌悪(disgust)」及び「恐
れ(fear)」の合計6つの情動について、各情動ごとに
その情動の強さを表すパラメータを保持している。そし
て、感情モデル73は、これら各情動のパラメータ値
を、それぞれ入力セマンティクスコンバータモジュール
59から与えられる「叩かれた」及び「撫でられた」な
どの特定の認識結果と、経過時間及び行動切換モジュー
ル71からの通知などに基づいて周期的に更新する。
On the other hand, the emotion model 73 is "joy (jo
y) ”,“ sadness ”,“ anger ”,
With respect to a total of six emotions of “surprise”, “disgust” and “fear”, each emotion holds a parameter indicating the strength of the emotion. Then, the emotion model 73 gives specific recognition results such as “struck” and “stabbed” given from the input semantics converter module 59 to the parameter values of these emotions, the elapsed time and the action switching module 71. It is updated periodically based on notifications from etc.

【0101】具体的には、感情モデル73は、入力セマ
ンティクスコンバータモジュール59から与えられる認
識結果と、そのときのロボット装置1の行動と、前回更
新してからの経過時間などに基づいて所定の演算式によ
り算出されるそのときのその情動の変動量を△E
[t]、現在のその情動のパラメータ値をE[t]、そ
の情動の感度を表す係数をkとして、(1)式によっ
て次の周期におけるその情動のパラメータ値E[t+
1]を算出し、これを現在のその情動のパラメータ値E
[t]と置き換えるようにしてその情動のパラメータ値
を更新する。また、感情モデル73は、これと同様にし
て全ての情動のパラメータ値を更新する。
Specifically, the emotion model 73 is subjected to a predetermined calculation based on the recognition result given from the input semantics converter module 59, the action of the robot apparatus 1 at that time, the elapsed time from the last update, and the like. ΔE is the amount of change in emotion at that time calculated by the formula
[T], E [t] of the current parameter value of the emotion, the coefficient representing the sensitivity of the emotion as k e, (1) the parameter value of the emotion in a next period by equation E [t +
1] is calculated, and this is used as the current parameter value E of the emotion.
The parameter value of the emotion is updated by replacing it with [t]. The emotion model 73 updates the parameter values of all emotions in the same manner.

【0102】[0102]

【数1】 [Equation 1]

【0103】なお、各認識結果や出力セマンティクスコ
ンバータモジュール68からの通知が各情動のパラメー
タ値の変動量△E[t]にどの程度の影響を与えるかは
予め決められており、例えば「叩かれた」といった認識
結果は「怒り」の情動のパラメータ値の変動量△E
[t]に大きな影響を与え、「撫でられた」といった認
識結果は「喜び」の情動のパラメータ値の変動量△E
[t]に大きな影響を与えるようになっている。
The degree of influence of each recognition result or the notification from the output semantics converter module 68 on the variation amount ΔE [t] of the parameter value of each emotion is predetermined, and for example, “beating The recognition result such as “ta” is the variation amount ΔE of the parameter value of the emotion of “anger”
[T] has a great influence, and the recognition result such as “struck” is the variation amount ΔE of the parameter value of the emotion of “joy”.
It has a great influence on [t].

【0104】ここで、出力セマンティクスコンバータモ
ジュール68からの通知とは、いわゆる行動のフィード
バック情報(行動完了情報)であり、行動の出現結果の
情報であり、感情モデル73は、このような情報によっ
ても感情を変化させる。これは、例えば、「吠える」と
いった行動により怒りの感情レベルが下がるといったよ
うなことである。なお、出力セマンティクスコンバータ
モジュール68からの通知は、上述した学習モジュール
72にも入力されており、学習モジュール72は、その
通知に基づいて行動モデル70〜70の対応する遷
移確率を変更する。
Here, the notification from the output semantics converter module 68 is so-called action feedback information (action completion information), which is information about the appearance result of the action, and the emotion model 73 is also based on such information. Change emotions. This is, for example, that the behavior level of anger is lowered by the action of "barking". The notification from the output semantics converter module 68 is also input to the learning module 72 described above, and the learning module 72 changes the corresponding transition probabilities of the behavior models 70 1 to 70 n based on the notification.

【0105】なお、行動結果のフィードバックは、行動
切換モジュレータ71の出力(感情が付加された行動)
によりなされるものであってもよい。
The feedback of the action result is output from the action switching modulator 71 (action added with emotion).
May be made by

【0106】一方、本能モデル74は、「運動欲(exer
cise)」、「愛情欲(affection)」、「食欲(appetit
e)」及び「好奇心(curiosity)」の互いに独立した4
つの欲求について、これら欲求ごとにその欲求の強さを
表すパラメータを保持している。そして、本能モデル7
4は、これらの欲求のパラメータ値を、それぞれ入力セ
マンティクスコンバータモジュール59から与えられる
認識結果や、経過時間及び行動切換モジュール71から
の通知などに基づいて周期的に更新する。
On the other hand, the instinct model 74 is "exercise desire (exer
cise), “affection”, “appetite”
e) ”and“ curiosity ”independent of each other 4
For each desire, a parameter representing the strength of the desire is held for each of these desires. And instinct model 7
4 periodically updates the parameter values of these desires based on the recognition result given from the input semantics converter module 59, the elapsed time, the notification from the action switching module 71, and the like.

【0107】具体的には、本能モデル74は、「運動
欲」、「愛情欲」及び「好奇心」については、認識結
果、経過時間及び出力セマンティクスコンバータモジュ
ール68からの通知などに基づいて所定の演算式により
算出されるそのときのその欲求の変動量をΔI[k]、
現在のその欲求のパラメータ値をI[k]、その欲求の
感度を表す係数kとして、所定周期で(2)式を用い
て次の周期におけるその欲求のパラメータ値I[k+
1]を算出し、この演算結果を現在のその欲求のパラメ
ータ値I[k]と置き換えるようにしてその欲求のパラ
メータ値を更新する。また、本能モデル74は、これと
同様にして「食欲」を除く各欲求のパラメータ値を更新
する。
Specifically, the instinct model 74 determines the "motility", "love" and "curiosity" based on the recognition result, the elapsed time, the notification from the output semantics converter module 68, and the like. The fluctuation amount of the desire at that time calculated by the arithmetic expression is ΔI [k],
Assuming that the current parameter value of the desire is I [k] and the coefficient k i representing the sensitivity of the desire, the parameter value I [k + of the desire in the next period is calculated using the equation (2) in a predetermined period.
1] is calculated, and the calculation result is replaced with the current parameter value I [k] of the desire, and the parameter value of the desire is updated. Further, the instinct model 74 updates the parameter value of each desire except "appetite" in the same manner.

【0108】[0108]

【数2】 [Equation 2]

【0109】なお、認識結果及び出力セマンティクスコ
ンバータモジュール68からの通知などが各欲求のパラ
メータ値の変動量△I[k]にどの程度の影響を与える
かは予め決められており、例えば出力セマンティクスコ
ンバータモジュール68からの通知は、「疲れ」のパラ
メータ値の変動量△I[k]に大きな影響を与えるよう
になっている。
The degree of influence of the recognition result and the notification from the output semantics converter module 68 on the fluctuation amount ΔI [k] of the parameter value of each desire is predetermined, and for example, the output semantics converter is used. The notification from the module 68 has a great influence on the variation amount ΔI [k] of the parameter value of “fatigue”.

【0110】なお、このロボット装置1においては、各
情動及び各欲求(本能)のパラメータ値がそれぞれ0か
ら100までの範囲で変動するように規制されており、ま
た係数k、kの値も各情動及び各欲求ごとに個別に
設定されている。
In this robot apparatus 1, the parameter values of each emotion and each desire (instinct) are regulated so as to vary in the range of 0 to 100, and the values of the coefficients k e and k i are regulated. Is also set individually for each emotion and each desire.

【0111】一方、ミドル・ウェア・レイヤ40の出力
セマンティクスコンバータモジュール68は、図7に示
すように、上述のようにしてアプリケーション・レイヤ
41の行動切換モジュール71から与えられる「前
進」、「喜ぶ」、「鳴く」又は「トラッキング(ボール
を追いかける)」といった抽象的な行動コマンドを出力
系69の対応する信号処理モジュール61〜67に与え
る。
On the other hand, the output semantics converter module 68 of the middleware layer 40, as shown in FIG. 7, is "forward" and "happy" given from the action switching module 71 of the application layer 41 as described above. , "Cry" or "tracking (chasing the ball)" is given to the corresponding signal processing modules 61 to 67 of the output system 69.

【0112】そしてこれら信号処理モジュール61〜6
7は、行動コマンドが与えられると当該行動コマンドに
基づいて、その行動を行うために対応するアクチュエー
タ25〜25(図5)に与えるべきサーボ指令値
や、スピーカ24(図5)から出力する音の音声データ
及び又は「目」のLEDに与える駆動データを生成し、
これらのデータをロボティック・サーバ・オブジェクト
32のバーチャル・ロボット33及び信号処理回路14
(図5)を順次介して対応するアクチュエータ25
25又はスピーカ24又はLEDに順次送出する。
Then, these signal processing modules 61 to 6
When an action command is given, 7 is a servo command value to be given to the corresponding actuators 25 1 to 25 n (FIG. 5) to perform the action based on the action command, and output from the speaker 24 (FIG. 5). Generates sound data of the sound to be played and / or drive data to be given to the LEDs of the "eye",
These data are stored in the virtual robot 33 of the robotic server object 32 and the signal processing circuit 14.
(FIG. 5) through corresponding actuators 25 1 to
25n or the speaker 24 or LED is sequentially sent.

【0113】以上に説明した、ミドル・ウェア・レイヤ
40と、アプリケーション・レイヤ41と、バーチャル
ロボット33により、本発明の実施の形態のロボット装
置1が内蔵するロボット装置の行動制御システム100
が構築される。
By the middleware layer 40, the application layer 41, and the virtual robot 33 described above, the behavior control system 100 for the robot apparatus built in the robot apparatus 1 according to the embodiment of the present invention.
Is built.

【0114】ミドル・ウェア・レイヤ40内の認識系6
0の騒音検出用、温度検出用、明るさ検出用、音階認識
用、距離検出用、姿勢検出用、タッチセンサ用、動き検
出用及び色認識用の各信号処理モジュール50〜58
は、処理結果を入力セマンティクスコンバータモジュー
ル59に与える。
Recognition system 6 in middleware layer 40
0 noise detection, temperature detection, brightness detection, scale recognition, distance detection, posture detection, touch sensor, motion detection, and color recognition signal processing modules 50 to 58.
Provides the processing result to the input semantics converter module 59.

【0115】入力セマンティクスコンバータモジュール
59は、これら各信号処理モジュール50〜58から与
えられる処理結果に基づいて、「うるさい」、「暑
い」、「明るい」、「ボールを検出した」、「転倒を検
出した」、「撫でられた」、「叩かれた」、「ドミソの
音階が聞こえた」、「動く物体を検出した」又は「障害
物を検出した」などの自己及び周囲の状況(内部状況及
び外部状況)や、使用者からの指令及び働きかけを認識
し、認識結果をアプリケーション・レイヤ41(図7)
に出力する。
The input semantics converter module 59 detects "noisy", "hot", "bright", "ball detected", and "fall" based on the processing results given from the respective signal processing modules 50 to 58. Yes, “stabbed”, “struck”, “hearing Domiso scale”, “moving object detected”, or “obstacle detected” such as self and surroundings (internal and The external layer) and commands and actions from the user are recognized, and the recognition result is recognized by the application layer 41 (FIG. 7).
Output to.

【0116】アプリケーション・レイヤ41の行動モデ
ルライブラリ70、行動切換モジュール71、学習モジ
ュール72、感情モデル73及び本能モデル74の5つ
のモジュールは、行動制御システム100の行動選択部
101に相当する。
The five modules of the action model library 70 of the application layer 41, the action switching module 71, the learning module 72, the emotion model 73, and the instinct model 74 correspond to the action selecting unit 101 of the action control system 100.

【0117】特に、行動モデルライブラリ70は、入力
セマンティクスコンバータモジュール59から認識結果
が与えられたときに、必要に応じて感情モデル73に保
持されている対応する情動のパラメータ値や、本能モデ
ル74に保持されている対応する欲求のパラメータ値を
参照しながら続く行動をそれぞれ決定し、決定結果を行
動切換モジュール71に出力する。具体的に、各行動モ
デル70〜70は、入力セマンティクスコンバータ
モジュール59から認識結果が与えられたときなどに、
対応するノードNODE〜NODEの状態遷移表を
利用して確率的に次の行動を決定し、決定結果を行動切
換モジュール71に出力する。
In particular, the behavior model library 70, when the recognition result is given from the input semantics converter module 59, stores the corresponding emotional parameter value held in the emotion model 73 and the instinct model 74 as necessary. The subsequent actions are determined with reference to the corresponding parameter values of the desires, and the determination result is output to the action switching module 71. Specifically, each of the behavior models 70 1 to 70 n receives, for example, a recognition result from the input semantics converter module 59,
The next action is stochastically determined using the state transition table of the corresponding nodes NODE 0 to NODE n , and the determination result is output to the action switching module 71.

【0118】この動向切換モジュール71は、行動制御
システム100の動作・表現指令管理部102に相当す
る。行動切換モジュール71は、行動モデルライブラリ
70の各行動モデル70〜70からそれぞれ出力さ
れる行動のうち、予め定められた優先順位の高い行動モ
デル70〜70から出力された行動を選択し、当該
行動を実行すべき旨のコマンド(行動コマンド又は動作
・表現実行指定)をミドル・ウェア・レイヤ40の出力
セマンティクスコンバータモジュール68に送出する。
The trend switching module 71 corresponds to the operation / expression command management unit 102 of the behavior control system 100. Action switching module 71, selects the behavior of, which is outputted from the pre-high-determined priority behavior model 70 1 to 70 n of actions respectively output from the behavior model 70 1 to 70 n of the action model library 70 Then, the command indicating that the action should be executed (action command or action / expression execution designation) is sent to the output semantics converter module 68 of the middleware layer 40.

【0119】出力セマンティクスコンバータモジュール
68は、行動制御システム100の動作・表現実行管理
部103に相当する。アプリケーション・レイヤ41の
行動切換モジュール71から与えられる「前進」、「喜
ぶ」、「鳴く」又は「トラッキング(ボールを追いかけ
る)」といった前記動作・表現実行指令を、前記制御指
令に分解して出力系69の対応する信号処理モジュール
61〜67に与える。
The output semantics converter module 68 corresponds to the operation / expression execution management unit 103 of the behavior control system 100. An output system that decomposes the action / expression execution command such as “forward”, “pleasing”, “squealing” or “tracking (following the ball)” given from the action switching module 71 of the application layer 41 into the control command. To 69 corresponding signal processing modules 61-67.

【0120】信号処理モジュール61〜67は、行動制
御システム100のモジュール制御管理部104に相当
する。これら信号処理モジュール61〜67は、前記動
作・表現実行指令から分解された制御指令に基づいて、
その行動を行うために対応するアクチュエータ25
25(図5)に与えるべきサーボ指令値や、スピーカ
24(図5)から出力する音の音声データ及び又は
「目」のLEDに与える駆動データを生成し、これらの
データをロボティック・サーバ・オブジェクト32のバ
ーチャル・ロボット33及び信号処理回路14(図5)
を順次介して対応するアクチュエータ25〜25
はスピーカ24又はLEDに順次送出する。
The signal processing modules 61 to 67 correspond to the module control management unit 104 of the behavior control system 100. These signal processing modules 61 to 67, based on the control command decomposed from the operation / expression execution command,
The corresponding actuator 25 1 to perform that action
The servo command value to be given to 25 n (FIG. 5), the voice data of the sound output from the speaker 24 (FIG. 5) and / or the drive data given to the “eye” LED are generated, and these data are generated by the robotic server. The virtual robot 33 of the object 32 and the signal processing circuit 14 (FIG. 5)
Are sequentially transmitted to the corresponding actuators 25 1 to 25 n, the speaker 24, or the LED.

【0121】出力セマンティクスコンバータ68は、信
号処理モジュール61〜67に前記制御指令を発行する
に際し、以下の、動作・表現実行指令の実行状況を通知
する。先ず、各信号モジュール61〜67への制御指令
を発行する直前に、実行開始通知を行う(1)。また、
各ロボット装置の制御管理単位からの実行完了通知がそ
ろったとき、全てが正しく実行されている場合を実行完
了通知(成功)を行う(2)。また、各ロボット装置の
制御管理単位からの実行完了通知がそろわず、途中で終
了した場合は、実行完了通知(失敗)を行う。
When issuing the control command to the signal processing modules 61 to 67, the output semantics converter 68 notifies the following execution status of the operation / expression execution command. First, immediately before issuing a control command to each of the signal modules 61 to 67, an execution start notification is given (1). Also,
When the execution completion notifications from the control management units of the respective robot devices are complete, the execution completion notification (success) is given when all are correctly executed (2). Further, if the execution completion notifications from the control management units of the respective robot devices are not available and the processing ends in the middle, an execution completion notification (failure) is given.

【0122】動作表現指令管理部102に相当した行動
切換部71は、動作・表現実行指令の実行状況を受け
て、動作・表現意味指令の実行状況を通知する。また、
行動選択部101に相当する行動ライブラリー70は、
動作・表現意味指令の実行状況通知を受けて、ロボット
装置の内部状況、外部状況を評価し、次の行動を選択す
る。
The action switching unit 71 corresponding to the action expression instruction management unit 102 receives the execution status of the action / expression execution command and notifies the execution status of the action / expression meaning command. Also,
The action library 70 corresponding to the action selection unit 101 is
Upon receiving the notification of the execution status of the action / expression meaning command, the internal status and the external status of the robot device are evaluated and the next action is selected.

【0123】このとき、行動選択部101である行動ラ
イブラリー70は、それまでの動作・表現意味指令の実
行開始通知信号によって次の行動を選択・決定すること
により、別々の動作や表現を、並行実行させることがで
きる。
At this time, the action library 70, which is the action selection unit 101, selects and determines the next action in response to the execution start notification signal of the action / expression meaning command so far, thereby selecting different actions and expressions. Can be executed in parallel.

【0124】つまり、行動制御システム100を備える
ロボット装置1は、事前の動作又は表現の実行情報を判
断して、動作または表現を並行実行することができる。
これによって、発行に順番がある指令の実行時間を短縮
でき、また、同時に実行させたい指令を、確実に実行さ
せることができる。
In other words, the robot apparatus 1 including the behavior control system 100 can judge the execution information of the motion or expression in advance and execute the motion or expression in parallel.
As a result, it is possible to reduce the execution time of the commands that are issued in order, and to reliably execute the commands that are desired to be executed simultaneously.

【0125】次に、第2の実施の形態について説明す
る。この第2の実施の形態も、4足歩行タイプのエンタ
ーテインメントロボット装置であり、内部状況や外部状
況を評価し、ロボット装置の行動を選択する。特に、長
時間連続して実行する動作・表現と、短時間実行する動
作・表現とを、競合する動作・表現リソースを含んだ別
々の実行指令で実現するロボット装置である。このロボ
ット装置の外観の、回路構成などについては図4〜図1
1を用いて説明した通りである。
Next, a second embodiment will be described. The second embodiment is also an entertainment robot apparatus of a four-legged walking type, which evaluates the internal situation and the external situation and selects the action of the robot apparatus. In particular, it is a robot apparatus that realizes an operation / expression that is continuously executed for a long time and an operation / expression that is executed for a short time with different execution commands including competing operation / expression resources. The external appearance of this robot apparatus, the circuit configuration, etc. are shown in FIGS.
This is as described using 1.

【0126】内部状況や外部状況を評価し、ロボット装
置の行動を制御する行動制御システム110の機能が前
記第1の実施の形態のロボット装置の行動制御システム
100と異なっている。
The function of the action control system 110 for evaluating the internal state and the external state and controlling the action of the robot apparatus is different from that of the action control system 100 of the robot apparatus of the first embodiment.

【0127】図12に示すように、この行動制御システ
ム110は、ロボットの動作・表現において、長時間連
続して実行するものと、短時間実行するものとを、競合
する動作・表現リソースを含んだ別々の実行指令で実現
するものであり、ロボット装置の行動の動作や表現の意
味を指令する動作・表現意味指令C11を発行する行動
選択手段である行動選択部111と、前記動作・表現意
味指令C11を受けて動作・表現実行指令C12へと変
換する指令管理手段である動作・表現指令管理部112
と、前記動作・表現実行指令C12を受け、ロボット装
置の制御管理単位ごとに制御指令C13へと分解する実
行管理手段である動作・表現実行管理部113と、前記
制御指令C13を受け取りロボット装置の各モジュール
への指令へと分解して各モジュールに発行するモジュー
ル制御管理手段であるモジュール制御管理部114とか
らなる。
As shown in FIG. 12, the behavior control system 110 includes, in motions / expressions of a robot, motions / expressions resources that compete with each other for long-time continuous execution and short-time executions. The action / selection unit 111, which is a action selection unit that issues the action / expression meaning command C11 for instructing the action or expression meaning of the robot apparatus, and the action / expression meaning. The operation / expression command management unit 112, which is command management means for receiving the command C11 and converting it into the operation / expression execution command C12.
And an action / expression execution management unit 113, which is an execution management unit that receives the action / expression execution command C12 and decomposes it into control commands C13 for each control management unit of the robot device, and receives the control command C13 and receives the control command C13. A module control management unit 114, which is a module control management unit that decomposes the command into each module and issues it to each module.

【0128】行動選択部111は、ロボット装置の内部
状況や外部状況を評価し、その評価結果に基づいた行動
を選択し、その行動の動作や表現の意味を指令する動作
・表現意味指令C11を発行する。ロボット装置の内部
状況には、行動選択部101から発行した動作・表現意
味指令の実行状況も含まれる。
The action selecting section 111 evaluates the internal situation and the external situation of the robot apparatus, selects an action based on the evaluation result, and gives an action / expression meaning command C11 for instructing the action or meaning of the action. Issue. The internal situation of the robot apparatus also includes the execution situation of the action / expression meaning command issued from the action selecting unit 101.

【0129】動作・表現指令管理部112は、行動選択
部111が発行した前記動作・表現意味指令C11を受
けて、その時点での他の意味指令の実行状況と照合し、
ロボット装置の動作・表現実行指令C12へと変換する
とともに、動作・表現意味指令の実行状況を管理し、行
動選択部111へ通知する(F11,N12,F14,
F19)。実ロボット装置の動作・表現実行指令C12
を発行できる場合は発行する。発行できない場合は、意
味指令の実行状況として、即時実行完了(失敗)を通知
する。
The action / expression command management unit 112 receives the action / expression meaning command C11 issued by the action selection unit 111, and compares it with the execution status of other meaning commands at that time,
The operation / expression execution command C12 of the robot device is converted, and the execution status of the operation / expression meaning command is managed and notified to the action selection unit 111 (F11, N12, F14,
F19). Operation / Expression execution command C12 of real robot device
If it can be issued, issue it. If it cannot be issued, immediate execution completion (failure) is notified as the execution status of the meaning command.

【0130】動作・表現実行管理部113は、動作・表
現指令管理部112から前記動作・表現実行指令C12
を受け、ロボット装置の制御管理単位ごとに制御指令C
13へと分解するとともに、前記動作・表現実行指令C
12の実行状況を管理して動作・表現指令管理部112
へ通知する(N11,F15,N13,F18)。
The motion / expression execution management unit 113 receives the motion / expression execution command C12 from the motion / expression command management unit 112.
Control command C for each control management unit of the robot device
13 and the operation / expression execution command C
The operation / expression command management unit 112 manages the execution status of 12
To (N11, F15, N13, F18).

【0131】複数のモジュール制御管理部114は、動
作・表現実行管理部113がロボット装置の制御管理単
位ごとに分解した制御指令C13を受けとり、ロボット
装置の各モジュールへの指令へと分解して各モジュール
に発行するとともに、前記制御指令の実行状況を管理
し、動作・表現実行管理部113へ通知する(F12,
F13,F16,F17)。
The plurality of module control management units 114 receive the control command C13 decomposed by the operation / expression execution management unit 113 for each control management unit of the robot apparatus, decompose into control commands C13 for each module of the robot apparatus, and divide them into respective commands. It is issued to the module and manages the execution status of the control command and notifies the operation / expression execution management unit 113 (F12,
F13, F16, F17).

【0132】次に、図13を用いて行動制御システム1
10のシーケンスを説明する。例えば、ロボット装置の
内部状態、例えば「怒っている」を、あるリソース、例
えばLEDを使って内部状態が変わるまで表現し、か
つ、例えばどこかのセンサに対する入力、例えば「頭部
センサをなでた」がありその反応をLEDと音を使って
表現する、という課題があるとする。
Next, the behavior control system 1 will be described with reference to FIG.
The sequence of 10 will be described. For example, an internal state of the robot device, for example, "angry" is expressed using a resource, for example, an LED, until the internal state changes, and an input to, for example, a sensor somewhere, for example, "a head sensor is stroked. It is said that there is a problem of expressing the reaction using LEDs and sounds.

【0133】行動選択部111は、ロボット装置の内部
状態「怒っている」をもとに、「怒っている」動作・表
現意味指令C11に長時間連続して行うという属性を付
加し、動作・表現指令管理部112に発行する。
The action selection unit 111 adds an attribute of performing continuously for a long time to the "angry" action / expression meaning command C11 based on the internal state of the robot apparatus "angry", and It is issued to the expression command management unit 112.

【0134】動作・表現指令管理部112は、その時点
で実行可能な実ロボット装置での動作・表現実行指令を
検索し、例えば、「LEDを光らせる」動作・表現実行
指令C12を動作・表現実行管理部113に発行する。
もし、その時点で実行可能な実ロボット装置での動作・
表現実行指令を発行できない場合は、意味指令の実行状
況として行動選択部111に即時実行完了(失敗)F1
1を通知する。
The operation / expression instruction management unit 112 searches for an operation / expression execution instruction in the actual robot device that can be executed at that time, and executes, for example, an operation / expression execution instruction C12 of "light LED". It is issued to the management unit 113.
If it is possible to perform an action with an actual robot device at that time,
When the expression execution command cannot be issued, the execution status of the meaning command is immediately executed and the action selection unit 111 completes (fails) F1.
Notify 1.

【0135】動作・表現実行管理部113は、動作・表
現実行指令C12を受け取ったことを動作・表現指令管
理部102に知らせる(R)。また、それまでの各モジ
ュール制御管理部114からの制御指令実行状況F12
から、「LEDを光らせる」動作・表現実行指令C12
を実行する準備ができているかどうかを判断する。
The motion / expression execution management unit 113 notifies the motion / expression execution management unit 102 that the motion / expression execution command C12 has been received (R). In addition, the control command execution status F12 from each module control management unit 114 until then
From, "Activate LED" operation / expression execution command C12
To determine if you are ready to run.

【0136】実行準備ができている場合、動作・表現実
行管理部113は、動作・表現指令管理部112に対
し、実行開始通知N11を行う。また、「LEDを光ら
せる」動作・表現実行指令C12を制御指令C13とし
て該当するモジュール制御管理部114に通知する。
If the execution / preparation execution management unit 113 is ready for execution, the operation / expression execution management unit 113 sends an execution start notification N11 to the operation / expression instruction management unit 112. Also, the operation / expression execution command C12 of “lighting the LED” is notified to the corresponding module control management unit 114 as a control command C13.

【0137】各モジュール制御管理部114は、制御指
令C13を各アクチュエータのコントローラに発行す
る。各アクチュエータのコントローラへの制御指令C1
3を処理し終えたら、動作・表現実行管理部113に実
行完了(成功)F13を通知する。
Each module control management section 114 issues a control command C13 to the controller of each actuator. Control command C1 to controller of each actuator
When processing of 3 is completed, the operation / expression execution management unit 113 is notified of execution completion (success) F13.

【0138】ここで、もし実行準備ができていない場
合、例えば、その時点で同じLEDを光らせている場合
は、動作・表現実行管理部113は、該当LEDを制御
するモジュール制御管理部114に対し、「該当LED
を光らせるのを中止する」制御指令を発行するととも
に、動作・表現指令管理部112に対し、それまでLE
Dを光らせていた指令について、実行完了(失敗)を通
知する。また、「該当LEDを光らせるのを中止する」
制御指令の実行完了(成功)通知を受けて、再度、「L
EDを光らせる」動作・表現実行指令を実行する準備が
できているかどうかを判断する。
Here, if the execution preparation is not ready, for example, if the same LED is lit at that time, the operation / expression execution management unit 113 instructs the module control management unit 114 that controls the corresponding LED. , "Applicable LED
The control command is issued, and the operation / expression command management unit 112 is instructed to LE until then.
The execution completion (failure) is notified about the instruction that was illuminating D. Also, "stop illuminating the corresponding LED"
After receiving the notification of the completion (success) of execution of the control command,
It is determined whether or not the action / expression execution command for turning on the ED is ready to be executed.

【0139】動作・表現指令管理部112は、「LED
を光らる」動作・表現実行指令C12に対する実行開始
通知N11を受けて、行動選択部111に「怒ってい
る」動作・表現意味指令C11の実行開始N12を通知
する。また、「怒っている」動作・表現意味指令C11
に該当する「LEDを光らせる」動作・表現実行指令C
12を実行中状態とする。
The operation / expression command management unit 112 displays the "LED
In response to the execution start notification N11 for the action / expression execution command C12, the action selection unit 111 is notified of the execution start N12 of the “angry” action / expression meaning command C11. Also, "angry" action / expression meaning command C11
Action / Expression execution command C that "lights the LED" corresponding to
12 is in the running state.

【0140】行動選択部111は、「怒っている」動作
・表現意味指令C11に対する実行開始N12を受け
て、「怒っている」動作・表現意味指令C11が長時間
実行されていると判断する。
Upon receiving the execution start N12 for the "angry" motion / expression meaning command C11, the action selecting unit 111 determines that the "angry" motion / expression meaning command C11 has been executed for a long time.

【0141】この状態で、「頭部センサをなでた」場
合、行動選択部111は、ロボットの外部状況として
「頭部センサをなでられた」を評価し、次の行動「なで
られたことに対する反応」動作・表現意味指令C14を
発行する。
In this state, in the case of "stroking the head sensor", the action selecting section 111 evaluates "stroking the head sensor" as the external condition of the robot, and the next action "stroking". A "reaction to something" action / expression meaning command C14 is issued.

【0142】動作・表現指令管理部112は、その時点
で実行可能な実ロボット装置での動作・表現実行指令を
検索し、例えば、「LEDを光らせ音をだす」動作・表
現実行指令C15を動作・表現実行管理部113に発行
する。
The motion / expression command management unit 112 searches for a motion / expression execution command in the actual robot device that can be executed at that time, and operates the motion / expression execution command C15, for example, "make LED emit sound". Issued to the expression execution management unit 113.

【0143】このとき、既にLEDを光らせているの
で、動作・表現実行管理部113は、該当LEDを制御
するモジュール制御管理部114に対し、「該当LED
を光らせるのを中止する」制御指令C16を発行すると
ともに、動作・表現指令管理部112に対し、それまで
LEDを光らせていた指令について、実行完了(失敗)
F15を通知する。また、「該当LEDを光らせるのを
中止する」制御指令の実行完了(成功)通知F16を受
けて、再度「LEDを光らせ音を出す」動作・表現実行
指令を実行する準備ができているかどうかを判断する。
At this time, since the LED has already been turned on, the operation / expression execution management unit 113 informs the module control management unit 114 which controls the corresponding LED, "the corresponding LED.
The control command C16 is issued, and the operation / expression command management unit 112 completes the execution of the command that has lit the LED until then (failure).
Notify F15. In addition, in response to the notification of completion (success) F16 of execution of the control command "stop emitting the corresponding LED", whether the operation / expression execution command "make the LED emit sound" is ready to be executed again is displayed. to decide.

【0144】動作・表現実行管理部113は、「LED
を光らせ音を出す」動作・表現実行指令を実行する準備
を確認し、動作表現指令管理部112に対し、実行開始
通知N13を行う。また、「LEDを光らせ音を出す」
動作・表現実行指令C15をロボットの制御単位ごと
に、「LEDを光らせる」制御指令C17−1と、「音
を出す」制御指令C17−2とに分解する。また、分解
した制御指令を各モジュール制御管理部114に通知す
る。
The operation / expression execution management unit 113 displays the "LED
Confirm the preparation for execution of the action / expression execution command, and issue an execution start notification N13 to the operation expression command management unit 112. Also, "make the LED shine and make a sound"
The action / expression execution command C15 is decomposed into a control command C17-1 for "lighting an LED" and a control command C17-2 for "making a sound" for each control unit of the robot. In addition, each module control management unit 114 is notified of the decomposed control command.

【0145】各モジュール制御管理部114は、各制御
指令を各アクチュエータのコントローラに発行する。各
アクチュエータのコントローラへの制御指令を処理し終
えたら、動作・表現実行管理部に実行完了(成功)F1
7を通知する。
Each module control management section 114 issues each control command to the controller of each actuator. After processing the control command to the controller of each actuator, the operation / expression execution management unit completes execution (success) F1.
Notify 7.

【0146】動作・表現実行管理部113は、各モジュ
ール制御管理部114からの実行完了(成功)通知F1
7を受けて、「LEDを光らせ音を出す」動作・表現実
行指令C15に対する実行完了(成功)F18を、動作
・表現指令管理部112へ通知する。
The operation / expression execution management unit 113 notifies the execution completion (success) notification F1 from each module control management unit 114.
In response to step 7, the action / expression command management unit 112 is notified of execution completion (success) F18 for the action / expression execution command C15 of "lighting the LED and producing sound".

【0147】動作・表現指令管理部112は、(1)
「怒っている」動作・表現意味指令C11に該当する
「LEDを光らせる」動作・表現実行指令C12が実行
完了(失敗)F15したこと、(2)「怒っている」動
作・表現意味指令C11に該当する「LEDを光らせ
る」動作・表現実行指令C12は、長時間連続して行う
という属性が付加されていたこと、(3)後発の「撫で
られたことに対する反応」動作・表現意味指令C14に
該当する「LEDを光らせ音を出す」動作・表現実行指
令C15が完了(成功)F18したこと、の3点から、
「怒っている」動作・表現意味指令C11に該当する
「LEDを光らせる」動作・表現実行指令C18を再発
行する必要があると判断する。
The operation / expression command management unit 112 (1)
Execution completion (failure) of the "light LED" action / expression execution command C12 corresponding to the "angry" action / expression meaning command C11 has been completed (F15); The corresponding "light LED" action / expression execution command C12 has the attribute that it is continuously performed for a long time, and (3) the subsequent "reaction to stroking" action / expression meaning command C14. From the three points, that is, the operation / expression execution command C15 is completed (successful) F18, which corresponds to “light up LED and make sound”.
It is determined that the "light LED" action / expression execution command C18 corresponding to the "angry" action / expression meaning command C11 needs to be reissued.

【0148】動作・表現指令管理部112は、他に発行
しなければいけない指令がないなど、再発行する準備が
整っている場合は、「怒っている」動作・表現意味指令
C11に該当する「LEDを光らせる」動作・表現実行
指令C18(Re)を発行する。
The action / expression command management unit 112 corresponds to the "angry" action / expression meaning command C11 when it is ready to be reissued because there is no other command to be issued. Issue an operation / expression execution command C18 (Re) that "lights the LED".

【0149】この後の動作・表現実行管理部113、モ
ジュール制御管理部114の処理は、前述した動作・表
現実行指令C12を受け取り、Rを返し、制御指令実行
状況F12から実行準備ができたいるか否かを判断し、
できていれば実行開始通知N11を動作・表現指令管理
部112に通知し、制御指令C13をモジュール制御管
理部114に通知し、・・・となる。
In the subsequent processing of the operation / expression execution management unit 113 and the module control management unit 114, whether the operation / expression execution command C12 described above is received, R is returned, and the execution is ready from the control command execution status F12. Determine whether or not
If possible, the execution start notification N11 is notified to the operation / expression command management unit 112, the control command C13 is notified to the module control management unit 114, and so on.

【0150】その後、行動選択部111は、ロボット装
置の内部状態が、例えば「喜んでいる」に変わると、
「喜んでいる」動作・表現意味指令C14’に長時間連
続して行うという属性を付加し、動作・表現指令管理部
112に発行する。
After that, the action selecting section 111 changes the internal state of the robot apparatus to, for example, "happy".
The "pleasing" action / expression meaning command C14 'is added with an attribute of being continuously performed for a long time, and is issued to the action / expression command management unit 112.

【0151】動作・表現指令管理部112は、その時点
で実行可能な実ロボットでの動作・表現実行指令を検索
し、例えば、「LEDを光らせる」動作・表現実行指令
C15’を選択する。また、その時点で、同様に長時間
連続して行うという属性を付加した指令、この場合、
「怒っている」動作・表現意味指令C11に該当する
「LEDを光らせる」動作・表現実行指令C18が実行
中であることを判断し、「怒っている」動作・表現意味
指令C11に対する実行完了(失敗)を行動選択部11
1に通知するとともに、「喜んでいる」動作・表現意味
指令に該当する「LEDを光らせる」動作・表現実行指
令C15’を動作・表現実行管理部113に通知する。
The motion / expression command management unit 112 searches for a motion / expression execution command for the actual robot that can be executed at that time, and selects, for example, the “light LED” motion / expression execution command C15 ′. In addition, at that time, a command with an attribute that it is continuously performed for a long time, in this case,
It is determined that the "light LED" operation / expression execution command C18 corresponding to the "angry" operation / expression meaning command C11 is being executed, and execution of the "angry" operation / expression meaning command C11 is completed ( Failure) to action selection unit 11
1 is notified, and the operation / expression execution management unit 113 is notified of an operation / expression execution command C15 ′ that “lights an LED” corresponding to the “pleasant” operation / expression meaning command.

【0152】以下、「怒っている」動作・表現意味指令
C11に該当する「LEDを光らせる」動作・表現実行
指令C12と同様に処理する。
Hereinafter, the same processing is performed as the "light up LED" operation / expression execution command C12 corresponding to the "angry" operation / expression meaning command C11.

【0153】従来であれば、行動選択部が発行する動作
・表現意味指令によっては、長時間連続して実行する指
令が、短時間実行する指令によって中断されるたびに、
再度指令を発行しなければならず、管理が複雑で処理負
荷が高かくなることがあった。
Conventionally, depending on the action / expression meaning command issued by the action selection unit, every time a command that is continuously executed for a long time is interrupted by a command that is executed for a short time,
Since the command had to be issued again, the management was complicated and the processing load was sometimes high.

【0154】これに対して行動制御システム110は、
動作・表現実行管理部113が、各モジュール制御管理
部114へ制御指令を発行する直前に、実行開始通知を
動作・表現指令管理部112に出し、また、各ロボット
装置の制御管理単位からの実行完了通知がそろったと
き、全てが正しく実行されている場合は実行完了通知
(成功)を動作・表現指令管理部112に出す。もし、
このとき、途中で終了した場合は、実行完了通知(失
敗)を出す。
On the other hand, the behavior control system 110
The motion / expression execution management unit 113 issues an execution start notification to the motion / expression command management unit 112 immediately before issuing a control command to each module control management unit 114, and executes from the control management unit of each robot device. When all of the completion notifications are complete, if all are correctly executed, an execution completion notification (success) is issued to the operation / expression command management unit 112. if,
At this time, if the processing is terminated halfway, an execution completion notification (failure) is issued.

【0155】したがって、動作・表現指令管理部112
は、動作・表現意味指令の実行状況通知を受けて、動作
・表現実行指令の再発行をするかどうかを判断する。再
発行する場合は、ロボットの制御管理単位ごとへの制御
指令へと分解するとともに、制御指令を発行できる状態
にあるかどうかの確認処理を再度行う。再発行しない場
合は、動作・表現意味指令の実行状況を行動選択部11
1に通知する。
Therefore, the motion / expression command management unit 112
Receives the notification of the execution status of the action / expression meaning command and determines whether to reissue the action / expression meaning command. When it is reissued, it is decomposed into control commands for each control management unit of the robot, and the process of confirming whether or not the control command can be issued is performed again. If it is not reissued, the execution status of the action / expression meaning command is determined by the action selection unit 11
Notify 1.

【0156】このため、行動選択部111は、動作・表
現意味指令の実行状況通知、あるいはその他のロボット
装置の内部状況、外部状況を評価し、行動を選択決定す
る。
For this reason, the action selection unit 111 evaluates the execution state notification of the action / expression meaning command, or the internal state and the external state of the robot device, and selects and determines the action.

【0157】このような行動制御システム110を内蔵
するロボット装置は、前述した図4〜図11に示す外
観、回路構成などを備えている。
A robot apparatus incorporating such a behavior control system 110 has the appearance, circuit configuration, etc. shown in FIGS. 4 to 11 described above.

【0158】動作・表現行動管理部113に相当する出
力セマンティクスコンバータモジュール68は、各モジ
ュール制御管理部114に相当する信号処理モジュール
61〜67へ制御指令を発行する直前に、実行開始通知
を動作・表現指令管理部112に相当する行動切換部7
1に出し、また、各ロボット装置の制御管理単位からの
実行完了通知がそろったとき、全てが正しく実行されて
いる場合は実行完了通知(成功)を行動切換部71に出
す。もし、このとき、途中で終了した場合は、実行完了
通知(失敗)を出す。
The output semantics converter module 68 corresponding to the operation / expression behavior management unit 113 operates the execution start notification immediately before issuing the control command to the signal processing modules 61 to 67 corresponding to the respective module control management units 114. Action switching unit 7 corresponding to expression command management unit 112
In addition, when the execution completion notifications from the control management units of the respective robot devices are complete, if all are correctly executed, an execution completion notification (success) is issued to the action switching unit 71. At this time, if the process ends in the middle, an execution completion notification (failure) is issued.

【0159】したがって、行動切換部71は、動作・表
現意味指令の実行状況通知を受けて、動作・表現実行指
令の再発行をするかどうかを判断する。再発行する場合
は、ロボットの制御管理単位ごとへの制御指令へと分解
するとともに、制御指令を発行できる状態にあるかどう
かの確認処理を再度行う。再発行しない場合は、動作・
表現意味指令の実行状況を行動選択部111である例え
ば行動ライブラリー70等に通知する。
Therefore, the action switching unit 71 receives the execution status notification of the action / expression meaning command and determines whether to reissue the action / expression execution command. When it is reissued, it is decomposed into control commands for each control management unit of the robot, and the process of confirming whether or not the control command can be issued is performed again. If you do not reissue, the operation
The execution status of the expression meaning command is notified to the action selection unit 111, such as the action library 70.

【0160】これにより第2の実施の形態のロボット装
置は、動作・表現において、長時間連続して実行するも
のと、短時間実行するものとを、競合する動作・表現リ
ソースを含んだ別々の実行指令で実現する場合に、実ロ
ボットでの動作・表現の状態と、行動選択における外部
状況、内部状況の判断とを明確にわけることができる。
その結果、行動選択における状態管理が簡易となるとと
もに、不要な通知が減り、システム全体の付加を軽減す
ることができる。
As a result, the robot apparatus according to the second embodiment separates, in motions / expressions, those that are continuously executed for a long time and those that are executed for a short time by different motion / expression resources including competing motion / expression resources. When it is realized by the execution command, it is possible to clearly separate the state of the motion / expression in the real robot and the judgment of the external situation and the internal situation in the action selection.
As a result, state management in action selection is simplified, unnecessary notifications are reduced, and addition of the entire system can be reduced.

【0161】なお、前記実施の形態は、4足歩行タイプ
のエンターティンメントロボット装置としたが、自律型
のロボット装置であれば2足歩行タイプのロボット装置
でもよい。
Although the above embodiment has been described as a four-legged walking type entertainment robot device, a two-legged walking type robot device may be used as long as it is an autonomous robot device.

【0162】[0162]

【発明の効果】本発明に係るロボット装置にあって、実
行管理手段は各モジュール制御管理手段へ制御指令を発
行する直前に、指令管理手段に実行開始通知を行い、各
ロボット装置の制御管理単位からの実行完了通知がそろ
ったとき、全てが正しく実行されている場合は実行完了
通知(成功)を行い、また、途中で終了した場合は、実
行完了通知(失敗)を行って、指令管理手段に実行指令
の実行状況を通知する。そして、行動選択手段は、指令
管理手段から意味指令の実行状況通知を受けて、ロボッ
ト装置の内部状況、外部状況を評価し、行動を選択決定
するので、事前の動作または表現の実行状況を判断し
て、動作または表現を並行実行することができ、よっ
て、発行に順番がある指令の実行時間を短縮でき、ま
た、同時に実行させたい指令を、確実に実行させること
ができる。
In the robot apparatus according to the present invention, the execution management means sends an execution start notification to the command management means immediately before issuing the control command to each module control management means, and the control management unit of each robot apparatus. When all of the execution completion notifications from the are complete, the execution completion notification (success) is issued if all are executed correctly, and the execution completion notification (failure) is issued if all are completed in the middle, and the command management means Notify the execution status of the execution command to. Then, the action selection means receives the notification of the execution status of the semantic command from the command management means, evaluates the internal status and the external status of the robot apparatus, and selects and determines the behavior, so that the execution status of the motion or expression in advance is determined. Then, the operation or expression can be executed in parallel, so that it is possible to reduce the execution time of the commands that are issued in order, and it is possible to surely execute the commands that are desired to be executed at the same time.

【0163】本発明に係るロボット装置の制御方法にあ
って、実行管理工程は各モジュール制御管理工程へ制御
指令を発行する直前に、指令管理工程に実行開始通知を
行い、各ロボット装置の制御管理単位からの実行完了通
知がそろったとき、全てが正しく実行されている場合は
実行完了通知(成功)を行い、また、途中で終了した場
合は、実行完了通知(失敗)を行って、指令管理工程に
実行指令の実行状況を通知する。そして、行動選択工程
は、指令管理工程から意味指令の実行状況通知を受け
て、ロボット装置の内部状況、外部状況を評価し、行動
を選択決定するので、事前の動作または表現の実行状況
を判断して、動作または表現を並行実行することがで
き、よって、発行に順番がある指令の実行時間を短縮で
き、また、同時に実行させたい指令を、確実に実行させ
ることができる。
In the robot apparatus control method according to the present invention, the execution management process notifies the command management process of execution start immediately before issuing the control command to each module control management process, and the control management of each robot device is performed. When all the execution completion notifications from the unit are received, execution completion notification (success) is issued if all are executed correctly, and execution completion notification (failure) is issued if all are completed in the middle, and command management Notify the process of the execution status of the execution command. Then, the action selection step receives the notification of the execution status of the semantic command from the command management step, evaluates the internal status and external status of the robot device, and selects and determines the activity, so the execution status of the action or expression is determined in advance. Then, the operation or expression can be executed in parallel, so that it is possible to reduce the execution time of the commands that are issued in order, and it is possible to surely execute the commands that are desired to be executed at the same time.

【0164】本発明に係るロボット装置にあって、実行
管理手段は、指令管理手段に、各モジュールへ制御指令
を発行する直前に、実行開始通知を行い、各ロボット装
置の制御管理単位からの実行完了通知がそろったとき、
全てが正しく実行されている場合は実行完了通知(成
功)を行い、また、途中で終了した場合は、実行完了通
知(失敗)を行う。また、指令管理手段は、実行管理手
段から実行指令の実行状況を受けて、実行指令の再発行
をするかどうかを判断する。そして、行動選択手段は、
意味指令の実行状況通知、あるいはロボット装置のその
他の内部状況、外部状況を評価し、行動を選択決定する
ので、ロボット装置の動作・表現において、長時間連続
して実行するものと、短時間実行するものとを、競合す
る動作・表現リソースを含んだ別々の実行指令で実現す
る場合に、実ロボット装置での動作・表現の状態と、行
動選択における外部状況、内部状況の判断とを明確にわ
けることができ、その結果、行動選択における状態管理
が簡易となるとともに、不要な通知が減り、システム全
体の付加を軽減することができる。
In the robot apparatus according to the present invention, the execution management means gives an execution start notification to the command management means immediately before issuing the control command to each module, and the execution from the control management unit of each robot apparatus. When the completion notices are complete,
If everything is executed correctly, execution completion notification (success) is given, and if it is completed halfway, execution completion notification (failure) is given. In addition, the command management unit receives the execution status of the execution command from the execution management unit and determines whether to reissue the execution command. And the action selection means is
Since the execution status notification of the meaning command or other internal and external status of the robot device is evaluated and the action is selected and decided, in the action / expression of the robot device, long-time continuous execution and short-time execution Clarify the state of the action / expression in the real robot device and the judgment of the external situation and the internal situation in the action selection, when different things are realized by separate execution commands including competing action / expression resources. As a result, the state management in action selection is simplified, unnecessary notifications are reduced, and the addition of the entire system can be reduced.

【0165】本発明に係るロボット装置の制御方法にあ
って、実行管理工程は、指令管理工程に、各モジュール
へ制御指令を発行する直前に、実行開始通知を行い、各
ロボット装置の制御管理単位からの実行完了通知がそろ
ったとき、全てが正しく実行されている場合は実行完了
通知(成功)を行い、また、途中で終了した場合は、実
行完了通知(失敗)を行う。また、指令管理工程は、実
行管理工程から実行指令の実行状況を受けて、実行指令
の再発行をするかどうかを判断する。そして、行動選択
工程は、意味指令の実行状況通知、あるいはロボット装
置のその他の内部状況、外部状況を評価し、行動を選択
決定するので、ロボット装置の動作・表現において、長
時間連続して実行するものと、短時間実行するものと
を、競合する動作・表現リソースを含んだ別々の実行指
令で実現する場合に、実ロボット装置での動作・表現の
状態と、行動選択における外部状況、内部状況の判断と
を明確にわけることができ、その結果、行動選択におけ
る状態管理が簡易となるとともに、不要な通知が減り、
システム全体の付加を軽減することができる。
In the robot apparatus control method according to the present invention, the execution management step issues an execution start notification to the command management step immediately before issuing a control command to each module, and the control management unit of each robot apparatus. When all of the execution completion notifications from (1) to (3) are complete, the execution completion notification (success) is performed if all are executed correctly, and the execution completion notification (failure) is performed if all are completed in the middle. In addition, the command management process receives the execution status of the execution command from the execution management process and determines whether to reissue the execution command. The action selection step evaluates the execution status notification of the semantic command or other internal and external situations of the robot device and selects and determines the action. To realize what to do and what to execute for a short time with separate execution commands that include competing motion and expression resources, the state of motion and expression in the actual robot device, the external situation in the action selection, the internal It is possible to clearly separate the judgment of the situation, and as a result, the state management in the action selection becomes simple and unnecessary notifications are reduced.
The addition of the whole system can be reduced.

【図面の簡単な説明】[Brief description of drawings]

【図1】第1の実施の形態のロボット装置が備える行動
制御システム100の構成を示す図である。
FIG. 1 is a diagram showing a configuration of an action control system 100 included in a robot device according to a first embodiment.

【図2】前記行動制御システム100のシーケンス図で
ある。
FIG. 2 is a sequence diagram of the behavior control system 100.

【図3】前記行動制御システム100のシーケンス図で
ある。
FIG. 3 is a sequence diagram of the behavior control system 100.

【図4】ロボット装置の外観構成を示す斜視図である。FIG. 4 is a perspective view showing an external configuration of a robot apparatus.

【図5】同ロボット装置の回路構成を示すブロック図で
ある。
FIG. 5 is a block diagram showing a circuit configuration of the robot apparatus.

【図6】同ロボット装置のソフトウェア構成を示すブロ
ック図である。
FIG. 6 is a block diagram showing a software configuration of the robot apparatus.

【図7】同ロボット装置のソフトウェア構成におけるミ
ドル・ウェア・レイヤの構成を示すブロック図である。
FIG. 7 is a block diagram showing a configuration of a middle wear layer in a software configuration of the robot apparatus.

【図8】同ロボット装置のソフトウェア構成におけるア
プリケーション・レイヤの構成を示すブロック図であ
る。
FIG. 8 is a block diagram showing a configuration of an application layer in a software configuration of the robot apparatus.

【図9】同アプリケーション・レイヤの行動モデルライ
ブラリの構成を示すブロック図である。
FIG. 9 is a block diagram showing a configuration of a behavior model library of the application layer.

【図10】同ロボット装置の行動決定のための情報とな
る有限確率オートマトンを説明するために使用した図で
ある。
FIG. 10 is a diagram used for explaining a finite probability automaton which is information for determining an action of the robot apparatus.

【図11】有限確率オートマトンの各ノードに用意され
た状態遷移表を示す図である。
FIG. 11 is a diagram showing a state transition table prepared in each node of the finite probability automaton.

【図12】第2の実施の形態のロボット装置が備える行
動制御システム110の構成を示す図である。
FIG. 12 is a diagram showing a configuration of an action control system 110 included in the robot device according to the second embodiment.

【図13】前記行動制御システム110のシーケンス図
である。
FIG. 13 is a sequence diagram of the behavior control system 110.

【符号の説明】[Explanation of symbols]

100,110 行動制御システム、101,111
行動選択部、102,112 動作・表現指令管理部、
103,113 動作・表現実行管理部、104,11
4 モジュール制御管理部
100,110 behavior control system, 101,111
Action selection unit, 102, 112 action / expression command management unit,
103/113 operation / expression execution management unit, 104, 11
4 module control management section

───────────────────────────────────────────────────── フロントページの続き (72)発明者 加藤 龍憲 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 2C150 CA02 DA05 DA24 DA25 DA26 DA27 DA28 DF03 DF04 DF06 DF33 ED10 ED39 ED42 ED52 EF07 EF16 EF17 EF22 EF23 EF29 EF33 EF36 3C007 AS36 CS08 KS23 KS24 KS31 KS36 KS39 KT01 LV12 MT14 WA04 WA14 WB15 WB16 WB26 5H004 GA26 GB16 KD52    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Ryuken Kato             6-735 Kita-Shinagawa, Shinagawa-ku, Tokyo Soni             -Inside the corporation F-term (reference) 2C150 CA02 DA05 DA24 DA25 DA26                       DA27 DA28 DF03 DF04 DF06                       DF33 ED10 ED39 ED42 ED52                       EF07 EF16 EF17 EF22 EF23                       EF29 EF33 EF36                 3C007 AS36 CS08 KS23 KS24 KS31                       KS36 KS39 KT01 LV12 MT14                       WA04 WA14 WB15 WB16 WB26                 5H004 GA26 GB16 KD52

Claims (18)

【特許請求の範囲】[Claims] 【請求項1】 内部状況、外部状況を評価し、その評価
結果に基づいて行動を選択し、その行動の動作や表現の
意味を指令する意味指令を発行する行動選択手段と、 前記行動選択手段が発行した前記意味指令を受けて動作
や表現の実行指令へと変換するとともに、前記意味指令
の実行状況を管理し、前記行動選択手段へ通知する指令
管理手段と、 前記指令管理手段が前記意味指令から変換した動作や表
現の実行指令を受け、ロボット装置の制御管理単位ごと
に制御指令へと分解するとともに、前記実行指令の実行
状況を管理して前記指令管理手段へ通知する実行管理手
段と、 前記実行管理手段がロボット装置の制御管理単位ごとに
分解した制御指令を受けとり、各モジュールへの指令へ
と分解して各モジュールに発行するとともに、前記制御
指令の実行状況を管理し、前記実行管理手段へ通知する
モジュール制御管理手段とを備え、 別々の動作や表現を並行あるいは逐次実行することを特
徴とするロボット装置。
1. An action selecting means for evaluating an internal situation and an external situation, selecting an action based on the evaluation result, and issuing a semantic instruction for instructing the action of the action or the meaning of the expression, and the action selecting means. The command management unit that receives the semantic command issued by the above and converts it into an execution command of an operation or expression, manages the execution status of the semantic command, and notifies the action selection unit, and the command management unit Execution management means for receiving the execution command of the operation or expression converted from the command, breaking it down into control commands for each control management unit of the robot device, managing the execution status of the execution command, and notifying the command management means. The execution management unit receives a control command decomposed for each control management unit of the robot apparatus, decomposes it into commands for each module and issues the command to each module, and A robot apparatus comprising: a module control management unit that manages the execution status of a command and notifies the execution management unit of the command, and executes different operations and expressions in parallel or sequentially.
【請求項2】 前記指令管理手段は前記実行指令を発行
できる場合は発行し、発行できない場合は意味指令の実
行状況として即時実行失敗完了通知を前記行動選択手段
に行うことを特徴とする請求項1記載のロボット装置。
2. The command management means issues the execution command when it can be issued, and when it cannot, issues an immediate execution failure completion notification to the action selection means as the execution status of the meaning command. 1. The robot apparatus according to 1.
【請求項3】 前記実行管理手段は、各モジュール制御
管理手段へ制御指令を発行する直前に、前記指令管理手
段に実行開始通知を行い、各ロボット装置の制御管理単
位からの実行完了通知がそろったとき、全てが正しく実
行されている場合は実行成功完了通知を行い、また、途
中で終了した場合は、実行失敗完了通知を行って、前記
指令管理手段に前記実行指令の実行状況を通知すること
を特徴とする請求項1記載のロボット装置。
3. The execution management means sends an execution start notification to the command management means immediately before issuing a control command to each module control management means, and a completion notification of execution from the control management unit of each robot apparatus is collected. When all of them are executed correctly, the execution success completion notification is given, and when the execution is finished halfway, the execution failure completion notification is given and the execution status of the execution command is notified to the command management means. The robot apparatus according to claim 1, wherein:
【請求項4】 前記行動選択手段は、前記指令管理手段
から前記意味指令の実行状況通知を受けて、ロボット装
置の内部状況、外部状況を評価し、行動を選択決定する
ことを特徴とする請求項3記載のロボット装置。
4. The behavior selecting means receives the execution status notification of the meaning command from the command managing means, evaluates the internal status and the external status of the robot apparatus, and selects and determines the behavior. Item 3. The robot apparatus according to Item 3.
【請求項5】 前記行動選択手段は、それまでの前記意
味指令の実行開始通知信号によって次の行動を選択・決
定することにより、別々の動作や表現を、並行実行させ
ることを特徴とする請求項4記載のロボット装置。
5. The action selecting means executes different actions and expressions in parallel by selecting and deciding the next action according to the execution start notification signal of the meaning command until then. The robot apparatus according to Item 4.
【請求項6】 ロボット装置の内部状況や外部状況を評
価し、その評価結果に基づいた行動を選択し、その行動
の動作や表現の意味を指令する意味指令を発行する行動
選択工程と、 前記行動選択工程が発行した前記意味指令を、その時点
での他の意味指令の実行状況と照合し、ロボット装置の
動作や表現の実行指令へと変換するとともに、前記意味
指令の実行状況を管理し、前記行動選択工程へ通知する
指令管理工程と、 前記指令管理工程からの前記実行指令をもとに、ロボッ
ト装置の制御管理単位ごとへの制御指令へと分解すると
ともに、制御指令を発行できる状態にあるかどうかを確
認する実行管理工程と、 前記実行管理工程がロボット装置の制御管理単位ごとに
分解した制御指令を受けとり、ロボット装置の各モジュ
ールへの指令へと分解して各モジュールに発行するとと
もに、前記制御指令の実行状況を管理し、前記実行管理
手段へ通知するモジュール制御管理工程とを備え、 ロボット装置に別々の動作や表現を、並行あるいは逐次
実行させることを特徴とするロボット装置の制御方法。
6. An action selection step of evaluating an internal state and an external state of the robot apparatus, selecting an action based on the evaluation result, and issuing a semantic instruction for instructing the action of the action or the meaning of the expression, The semantic command issued by the action selection step is collated with the execution status of other semantic commands at that time, converted into an execution command of the operation or expression of the robot device, and the execution status of the semantic command is managed. A state in which a command management process for notifying the action selection process and a control command for each control management unit of the robot device can be decomposed and issued based on the execution command from the command management process And an execution management step for confirming whether or not the control command is decomposed for each control management unit of the robot apparatus, and a command for each module of the robot apparatus is received. A module control management step of disassembling and issuing to each module, managing the execution status of the control command, and notifying the execution management means, and causing the robot apparatus to execute separate operations and expressions in parallel or sequentially A method for controlling a robot apparatus, comprising:
【請求項7】 前記指令管理工程はロボット装置の前記
実行指令を発行できる場合は発行し、発行できない場合
は意味指令の実行状況として即時実行失敗完了通知を前
記行動選択工程に行うことを特徴とする請求項6記載の
ロボット装置の制御方法。
7. The command management step is to issue the execution command of the robot apparatus if it can be issued, and if it cannot, issue an immediate execution failure completion notification to the action selection step as an execution status of the meaning command. The method of controlling the robot apparatus according to claim 6.
【請求項8】 前記実行管理工程は、各モジュール制御
管理工程へ制御指令を発行する直前に、実行開始通知を
行い、各ロボット装置の制御管理単位からの実行完了通
知がそろったとき、全てが正しく実行されている場合は
実行成功完了通知を行い、また、途中で終了した場合
は、実行失敗完了通知を行って、前記指令管理工程に前
記実行指令の実行状況を通知することを特徴とする請求
項6記載のロボット装置の制御方法。
8. The execution management process sends an execution start notification immediately before issuing a control command to each module control management process, and when the execution completion notifications from the control management unit of each robot device are complete, all If the execution is correctly executed, the execution success completion notification is performed, and if the execution is terminated halfway, the execution failure completion notification is performed, and the execution status of the execution instruction is notified to the instruction management step. The control method of the robot apparatus according to claim 6.
【請求項9】 前記行動選択工程は、前記指令管理工程
から前記意味指令の実行状況通知を受けて、ロボット装
置の内部状況、外部状況を評価し、行動を選択決定する
ことを特徴とする請求項8記載のロボット装置の制御方
法。
9. The behavior selecting step receives the notification of the execution status of the meaning command from the command managing step, evaluates the internal status and the external status of the robot apparatus, and selects and determines the activity. Item 9. A method for controlling a robot apparatus according to Item 8.
【請求項10】 前記行動選択工程は、それまでの前記
意味指令の実行開始通知信号によって次の行動を選択・
決定することにより、別々の動作や表現を、並行実行さ
せることを特徴とする請求項9記載のロボット装置の制
御方法。
10. The action selecting step selects the next action according to the execution start notification signal of the meaning command until then.
10. The control method of the robot apparatus according to claim 9, wherein different operations and expressions are executed in parallel by the determination.
【請求項11】 内部状況、外部状況を評価し、その評
価結果に基づいてロボット装置の行動を選択し、動作や
表現の意味を指令する意味指令を発行する行動選択手段
と、 前記行動選択手段が発行した前記意味指令を受けとり、
ロボット装置の動作や表現の実行指令へと変換して発行
するとともに、前記意味指令の実行状況を管理し、前記
行動選択手段へ通知する指令管理手段と、 前記指令管理手段からロボット装置の動作や表現の実行
指令を受けとり、ロボット装置の制御管理単位ごとに制
御指令へと分解し発行するとともに、動作や表現の実行
指令の実行状況を管理し、前記指令管理部へ通知する実
行管理手段と、 前記実行管理手段から制御指令を受け、ロボット装置の
各モジュールへの指令へと分解し発行するとともに、制
御指令の実行状況を管理し、前記実行管理手段へ通知す
るモジュール制御管理手段とを備え、 長時間連続して実行する動作や表現と、短時間実行する
動作や表現とを、競合する動作や表現リソースを含んだ
別々の実行指令で実現することを特徴とするロボット装
置。
11. An action selecting unit that evaluates an internal condition and an external condition, selects an action of a robot apparatus based on the evaluation result, and issues a semantic command to instruct the meaning of the action or expression, and the action selecting unit. Received the meaning command issued by
A command management unit that converts and issues the execution command of the operation or expression of the robot device, manages the execution status of the meaning command, and notifies the action selection unit, and the operation of the robot device from the command management unit. An execution management unit that receives an execution command of the expression, decomposes and issues the control command for each control management unit of the robot device, manages the execution status of the operation or the execution command of the expression, and notifies the command management unit, A module control management unit that receives a control command from the execution management unit, decomposes and issues the command to each module of the robot apparatus, manages the execution status of the control command, and notifies the execution management unit, To realize the operation or expression to be executed continuously for a long time and the operation or expression to be executed for a short time by separate execution commands including competing operation or expression resources. Robot device according to claim.
【請求項12】 前記実行管理手段は、前記指令管理手
段に、各モジュールへ制御指令を発行する直前に、実行
開始通知を行い、各ロボット装置の制御管理単位からの
実行完了通知がそろったとき、全てが正しく実行されて
いる場合は実行成功完了通知を行い、また、途中で終了
した場合は、実行完了失敗通知を行うことを特徴とする
請求項11記載のロボット装置。
12. The execution management means sends an execution start notification to the command management means immediately before issuing a control command to each module, and when the execution completion notification from the control management unit of each robot device is complete. 12. The robot apparatus according to claim 11, wherein if all of them are correctly executed, a successful execution completion notification is given, and if they are completed halfway, an execution completion failure notification is given.
【請求項13】 前記指令管理手段は、前記実行管理手
段から前記実行指令の実行状況を受けて、前記実行指令
の再発行をするかどうかを判断することを特徴とする請
求項12記載のロボット装置。
13. The robot according to claim 12, wherein the command management unit receives the execution status of the execution command from the execution management unit and determines whether to reissue the execution command. apparatus.
【請求項14】 前記行動選択手段は、前記意味指令の
実行状況通知、あるいはロボット装置のその他の内部状
況、外部状況を評価し、行動を選択決定することを特徴
とする請求項11記載のロボット装置。
14. The robot according to claim 11, wherein the action selection means evaluates a notification of the execution state of the meaning command or other internal and external states of the robot apparatus, and selects and determines an action. apparatus.
【請求項15】 ロボット装置の内部状況、外部状況を
評価し、その評価結果に基づいてロボット装置の行動を
選択し、動作や表現の意味を指令する意味指令を発行す
る行動選択工程と、 前記行動選択工程が発行した前記意味指令を受けとり、
その時点での他の意味指令の実行状況と照合し、ロボッ
ト装置の動作や表現の実行指令へと変換するとともに、
前記意味指令の実行状況を管理し、前記行動選択工程へ
通知する指令管理工程と、 前記指令管理手段からロボット装置の動作や表現の実行
指令を受けとり、ロボット装置の制御管理単位ごとに制
御指令へと分解するとともに、制御指令を発行できる状
態にあるかどうかを確認する実行管理工程と、 前記実行管理手段から制御指令を受け、ロボット装置の
各モジュールへの指令へと分解し発行するとともに、制
御指令の実行状況を管理し、前記実行管理工程へ通知す
るモジュール制御管理工程とを備え、 長時間連続して実行する動作や表現と、短時間実行する
動作や表現とを、競合する動作や表現リソースを含んだ
別々の実行指令で実現することを特徴とするロボット装
置の制御方法。
15. An action selecting step of evaluating an internal situation and an external situation of a robot apparatus, selecting an action of the robot apparatus based on the evaluation result, and issuing a semantic instruction for instructing a meaning of an action or expression. Receiving the meaning command issued by the action selection process,
While collating with the execution status of other semantic commands at that time, and converting to the execution command of the operation or expression of the robot device,
A command management step of managing the execution status of the meaning command and notifying the action selection step, and an execution command of the operation or expression of the robot device from the command management means, and making a control command for each control management unit of the robot device. And an execution management step of confirming whether or not a control command can be issued, and a control command from the execution management means, decomposed into a command to each module of the robot apparatus, issued, and controlled. A module control management process that manages the execution status of commands and notifies the execution management process is performed, and a motion or expression that continuously executes for a long time and a motion or expression that executes for a short time compete with each other. A method for controlling a robot apparatus, characterized by being realized by separate execution commands including resources.
【請求項16】 前記実行管理工程は、前記指令管理工
程に、各モジュールへ制御指令を発行する直前に、実行
開始通知を行い、各ロボット装置の制御管理単位からの
実行完了通知がそろったとき、全てが正しく実行されて
いる場合は実行成功完了通知を行い、また、途中で終了
した場合は、実行失敗完了通知を行うことを特徴とする
請求項15記載のロボット装置の制御方法。
16. The execution management step sends an execution start notification to the command management step immediately before issuing a control command to each module, and when the execution completion notification is received from the control management unit of each robot apparatus. 16. The method for controlling a robot apparatus according to claim 15, wherein if all of them are correctly executed, a successful execution completion notification is given, and if they are completed halfway, an unsuccessful execution completion notification is given.
【請求項17】 前記指令管理工程は、前記実行管理工
程から前記実行指令の実行状況を受けて、前記実行指令
の再発行をするかどうかを判断することを特徴とする請
求項16記載のロボット装置の制御方法。
17. The robot according to claim 16, wherein the instruction management step determines whether or not to reissue the execution instruction in response to the execution status of the execution instruction from the execution management step. Device control method.
【請求項18】 前記行動選択工程は、前記意味指令の
実行状況通知、あるいはロボット装置のその他の内部状
況、外部状況を評価し、行動を選択決定することを特徴
とする請求項15記載のロボット装置の制御方法。
18. The robot according to claim 15, wherein the action selecting step evaluates a notification of execution status of the meaning command, or other internal and external conditions of the robot apparatus, and selects and determines an action. Device control method.
JP2002148114A 2002-05-22 2002-05-22 Robot device and robot device control method Withdrawn JP2003340761A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002148114A JP2003340761A (en) 2002-05-22 2002-05-22 Robot device and robot device control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002148114A JP2003340761A (en) 2002-05-22 2002-05-22 Robot device and robot device control method

Publications (1)

Publication Number Publication Date
JP2003340761A true JP2003340761A (en) 2003-12-02

Family

ID=29766826

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002148114A Withdrawn JP2003340761A (en) 2002-05-22 2002-05-22 Robot device and robot device control method

Country Status (1)

Country Link
JP (1) JP2003340761A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006239849A (en) * 2005-03-07 2006-09-14 Nippon Telegr & Teleph Corp <Ntt> Robot control system
CN100360204C (en) * 2005-06-16 2008-01-09 上海交通大学 Control system of intelligent perform robot based on multi-processor cooperation
CN114466732A (en) * 2019-10-14 2022-05-10 波士顿动力公司 Robot dance

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006239849A (en) * 2005-03-07 2006-09-14 Nippon Telegr & Teleph Corp <Ntt> Robot control system
CN100360204C (en) * 2005-06-16 2008-01-09 上海交通大学 Control system of intelligent perform robot based on multi-processor cooperation
CN114466732A (en) * 2019-10-14 2022-05-10 波士顿动力公司 Robot dance
JP2022550242A (en) * 2019-10-14 2022-12-01 ボストン ダイナミクス,インコーポレイテッド robot choreographer

Similar Documents

Publication Publication Date Title
JP2003039363A (en) Robot device, action learning method therefor, action learning program thereof, and program recording medium
JP2002239963A (en) Robot device and its action control method, program, and recoding medium of robot device
KR20030007533A (en) Operational control method, program, and recording media for robot device, and robot device
WO2002030627A1 (en) Robot control system and method for installing software for robot control
JP2010149277A (en) Robot device and motion control method
JP2005193331A (en) Robot device and its emotional expression method
US20080058988A1 (en) Robots with autonomous behavior
JP2006110707A (en) Robot device
JP2003159674A (en) Robot system, external force detecting method and program for the system, and calibration method and program for the system
JP2004298975A (en) Robot device and obstacle searching method
WO2002030630A1 (en) Robot apparatus and robot apparatus motion control method
JP2004034169A (en) Leg type moving robot device, and moving control method for leg type moving robot device
JP2003340761A (en) Robot device and robot device control method
JP4449372B2 (en) Robot apparatus and behavior control method thereof
JP2004130427A (en) Robot device and method for controling operation of robot device
JP2004066381A (en) Robot device
JP2002205289A (en) Action control method for robot device, program, recording medium and robot device
JP2002120183A (en) Robot device and input information detecting method for robot device
JP2003136439A (en) Robot device, and method and program for controlling gait of robot device
JP2001157979A (en) Robot device, and control method thereof
JP2001154707A (en) Robot device and its controlling method
JP2001157980A (en) Robot device, and control method thereof
JP2001157982A (en) Robot device and control method thereof
JP2001157981A (en) Robot device and control method thereof
JP4379052B2 (en) Moving object detection apparatus, moving object detection method, and robot apparatus

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050802