JP2002120174A - Authoring system, authoring method and storage medium - Google Patents

Authoring system, authoring method and storage medium

Info

Publication number
JP2002120174A
JP2002120174A JP2000311126A JP2000311126A JP2002120174A JP 2002120174 A JP2002120174 A JP 2002120174A JP 2000311126 A JP2000311126 A JP 2000311126A JP 2000311126 A JP2000311126 A JP 2000311126A JP 2002120174 A JP2002120174 A JP 2002120174A
Authority
JP
Japan
Prior art keywords
behavior
editing
action
user
authoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000311126A
Other languages
Japanese (ja)
Other versions
JP4670136B2 (en
Inventor
Reizo Konno
玲三 今野
Satoko Ogure
聡子 尾暮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000311126A priority Critical patent/JP4670136B2/en
Publication of JP2002120174A publication Critical patent/JP2002120174A/en
Application granted granted Critical
Publication of JP4670136B2 publication Critical patent/JP4670136B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To support creating and editing for a series of command/data for describing a prescribed operation pattern of a robot. SOLUTION: The action of a robot is formed by combination of a motion file, a sound file and an LED operation file synchronized with one another on the time axis. The action is made by parts, and arranged on a computer display, and the connecting relationship between the actions is regulated by GUI operation on the display, whereby the behavior of the robot is created and edited by sense of a flowchart editor. The behavior includes the order of reproducing an action, conditional branch and a loop.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、所定のシナリオに
従ったデータの作成・編集を支援するためのオーサリン
グ・システム及びオーサリング方法に係り、特に、ロボ
ットの所定の動作パターンを記述する一連のコマンド/
データの作成・編集を支援するオーサリング・システム
及びオーサリング方法に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an authoring system and an authoring method for supporting creation and editing of data according to a predetermined scenario, and more particularly to a series of commands for describing a predetermined operation pattern of a robot. /
The present invention relates to an authoring system and an authoring method that support creation and editing of data.

【0002】更に詳しくは、本発明は、ロボットの動作
状態を規定する部品の集合を用いて動作パターンの作成
・編集を支援するオーサリング・システム及びオーサリ
ング方法に係り、特に、各関節アクチュエータの動作な
ど1以上の時系列データの組み合わせからなるロボット
のアクションを部品化してコンピュータ・ディスプレイ
上に配置するとともに、各アクションの結合関係をディ
スプレイ上のGUI操作により規定することでロボット
のビヘイビアの作成・編集を行うことができるオーサリ
ング・システム及びオーサリング方法に関する。
More specifically, the present invention relates to an authoring system and an authoring method for supporting creation and editing of an operation pattern using a set of parts that define an operation state of a robot, and more particularly, to an operation of each joint actuator. Robot actions composed of one or more combinations of time series data are made into parts and placed on a computer display, and the connection relation of each action is defined by GUI operation on the display to create and edit the behavior of the robot. An authoring system and an authoring method that can be performed.

【0003】[0003]

【従来の技術】電気的若しくは磁気的な作用を用いて人
間の動作に似せた運動を行う機械装置のことを「ロボッ
ト」という。ロボットの語源は、スラブ語のROBOT
A(奴隷機械)に由来すると言われている。わが国では、
ロボットが普及し始めたのは1960年代末からである
が、その多くは、工場における生産作業の自動化・無人
化などを目的としたマニピュレータや搬送ロボットなど
の産業用ロボット(industrial robot)であった。
2. Description of the Related Art A mechanical device that performs a motion similar to a human motion by using an electric or magnetic action is called a "robot". The origin of the robot is ROBOT in Slavic language
It is said to be from A (slave machine). In our country,
Robots began to spread from the late 1960s, but most of them were industrial robots such as manipulators and transfer robots for the purpose of automation and unmanned production work in factories. .

【0004】最近では、イヌやネコのように4足歩行の
動物の身体メカニズムやその動作を模したペット型ロボ
ット、あるいは、ヒトやサルなどの2足直立歩行を行う
動物の身体メカニズムや動作を模した「人間形」若しく
は「人間型」のロボット(humanoid robot)など、脚式
移動ロボットの構造やその安定歩行制御に関する研究開
発が進展し、実用化への期待も高まってきている。これ
ら脚式移動ロボットは、クローラ式ロボットに比し不安
定で姿勢制御や歩行制御が難しくなるが、階段の昇降や
障害物の乗り越え等、柔軟な歩行・走行動作を実現でき
るという点で優れている。
Recently, a pet-type robot that simulates the body mechanism and operation of a four-legged animal such as a dog or a cat, or the body mechanism and motion of an animal such as a human or monkey that walks upright on two legs has been developed. Research and development on the structure of a legged mobile robot such as a simulated "humanoid" or "humanoid" robot (humanoid robot) and its stable walking control have been progressing, and expectations for its practical use have increased. These legged mobile robots are unstable compared to crawler type robots, making posture control and walking control difficult.However, they are excellent in that they can realize flexible walking and running operations such as climbing stairs and climbing over obstacles. I have.

【0005】アーム式ロボットのように、ある特定の場
所に植設して用いるような据置きタイプのロボットは、
部品の組立・選別作業など固定的・局所的な作業空間で
のみ活動する。これに対し、移動式のロボットは、作業
空間は非限定的であり、所定の経路上または無経路上を
自在に移動して、所定の若しくは任意の人的作業を代行
したり、ヒトやイヌあるいはその他の生命体に置き換わ
る種々のサービスを提供することができる。
[0005] A stationary type robot, such as an arm type robot, which is implanted and used in a specific place,
Active only in fixed and local work spaces such as parts assembly and sorting work. On the other hand, the mobile robot has a work space that is not limited, and can freely move on a predetermined route or on a non-route to perform a predetermined or arbitrary human work, or perform a human or dog operation. Alternatively, various services that replace other living things can be provided.

【0006】脚式移動ロボットの用途の1つとして、産
業活動・生産活動等における各種の難作業の代行が挙げ
られる。例えば、原子力発電プラントや火力発電プラン
ト、石油化学プラントにおけるメンテナンス作業、製造
工場における部品の搬送・組立作業、高層ビルにおける
清掃、火災現場その他における救助といったような危険
作業・難作業の代行などである。
One of the uses of the legged mobile robot is to perform various difficult tasks in industrial activities and production activities. For example, maintenance work in nuclear power plants, thermal power plants, petrochemical plants, transport and assembly of parts in manufacturing factories, cleaning in high-rise buildings, rescue work in fire spots and other dangerous and difficult tasks, etc. .

【0007】また、脚式移動ロボットの他の用途とし
て、上述の作業支援というよりも、生活密着型、すなわ
ち人間との「共生」あるいは「エンターティンメント」
という用途が挙げられる。この種のロボットは、ヒトあ
るいはイヌ(ペット)などの比較的知性の高い脚式歩行
動物の動作メカニズムや四肢を利用した豊かな感情表現
をエミュレートする。また、予め入力された動作パター
ンを単に忠実に実行するだけではなく、相手の言葉や態
度(「褒める」とか「叱る」、「叩く」など)に対して
動的に対応した、生き生きとした応答表現を実現するこ
とも要求される。
Further, as another application of the legged mobile robot, rather than the above-described work support, it is more closely related to life, that is, "symbiosis" or "entertainment" with humans.
Is used. This type of robot emulates the motion mechanism of a relatively intelligent legged walking animal such as a human or a dog (pet) or rich emotional expression using limbs. In addition to simply executing the pre-input motion pattern faithfully, a lively response that dynamically responds to the opponent's words and attitudes (eg, “praise”, “scold”, “slap”, etc.) Realization of expression is also required.

【0008】従来の玩具機械は、ユーザ操作と応答動作
との関係が固定的であり、玩具の動作をユーザの好みに
合わせて変更することはできない。この結果、ユーザは
同じ動作しか繰り返さない玩具をやがては飽きてしまう
ことになる。
In the conventional toy machine, the relationship between the user operation and the response operation is fixed, and the operation of the toy cannot be changed according to the user's preference. As a result, the user eventually gets tired of the toy that repeats only the same operation.

【0009】これに対し、インテリジェントなロボット
は、動作に起因する行動モデルや学習モデルを備えてお
り、外部からの音声や画像、触覚などの入力情報に基づ
いてモデルを変化させて動作を決定することにより、自
律的な思考及び動作制御を実現する。ロボットが感情モ
デルや本能モデルを用意することにより、ロボット自身
の感情や本能に従った自律的な行動を表出することがで
きる。また、ロボットが画像入力装置や音声入出力装置
を装備し、画像認識処理や音声認識処理を行うことによ
り、より高度な知的レベルで人間とのリアリスティック
なコミュニケーションを実現することも可能となる。
On the other hand, an intelligent robot has an action model or a learning model caused by an action, and determines an action by changing the model based on input information such as a voice, an image, and a tactile sense from the outside. This realizes autonomous thinking and motion control. When the robot prepares an emotion model or an instinct model, the robot can express an autonomous action according to the emotion or instinct of the robot itself. In addition, by equipping the robot with an image input device and a voice input / output device and performing image recognition processing and voice recognition processing, it is possible to realize realistic communication with humans at a higher intelligent level. .

【0010】また、ユーザ操作などの外部からの刺激を
検出したことに応答してこのモデルを変更する、すなわ
ち「学習効果」を付与することによって、ユーザにとっ
て飽きない又は好みに適応した動作パターンを提供する
ことができる。
In addition, by changing this model in response to detection of an external stimulus such as a user operation or the like, that is, by imparting a “learning effect”, an operation pattern that the user does not get tired of or adapts to his / her taste can be obtained. Can be provided.

【0011】昨今の脚式移動ロボットは高い情報処理能
力を備えており、ロボットそのものを一種の計算機シス
テムとして捉えることができる。したがって、ロボット
上で実現される動作パターン、あるいは、複数の基本的
な動作パターンの組合せによって構成される高度且つ複
雑な一連の動作シーケンスは、コンピュータ・プログラ
ミングと同様の作業によって構築される。
Recent legged mobile robots have high information processing ability, and can be regarded as a kind of computer system. Accordingly, an operation pattern realized on the robot, or a sophisticated and complex series of operation sequences constituted by a combination of a plurality of basic operation patterns is constructed by the same operation as computer programming.

【0012】また、今後ますますロボットの普及率が高
まり、産業界のみならず一般家庭や日常生活にもロボッ
トが深く浸透していくことが予想される。とりわけ、エ
ンターティンメント性を追求する製品に関しては、コン
ピュータやコンピュータ・プログラミングに関する高度
な知識を持たない一般消費者層がロボットを購入して使
用するケースが多いと予想される。
In addition, it is expected that the use of robots will further increase in the future, and that the robots will penetrate not only into the industrial world but also into ordinary households and everyday life. In particular, with regard to products that pursue entertainment, it is expected that the general consumer who does not have advanced knowledge of computers and computer programming often purchases and uses robots.

【0013】したがって、このような一般ユーザにとっ
ても、ロボットの動作シーケンスを対話的な処理により
比較的容易且つ効率的に作成・編集することを支援する
ためのツール、すなわちオーサリング・システムを提供
することが好ましいと考えられる。
[0013] Therefore, even for such a general user, there is provided a tool for supporting creation and editing of an operation sequence of a robot relatively easily and efficiently by interactive processing, that is, an authoring system. Is considered preferable.

【0014】[0014]

【発明が解決しようとする課題】本発明の目的は、所定
のシナリオに従ったデータの作成・編集を支援すること
ができる、優れたオーサリング・システム及びオーサリ
ング方法を提供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to provide an excellent authoring system and an excellent authoring method which can support creation and editing of data according to a predetermined scenario.

【0015】本発明の更なる目的は、ロボットなどの多
関節構造体の所定の動作パターンを記述する一連のコマ
ンド/データの作成・編集を支援することができる、優
れたオーサリング・システム及びオーサリング方法を提
供することにある。
A further object of the present invention is to provide an excellent authoring system and an excellent authoring method capable of supporting creation and editing of a series of commands / data describing a predetermined operation pattern of an articulated structure such as a robot. Is to provide.

【0016】本発明の更なる目的は、ロボットの動作状
態を規定する部品の集合を用いて動作パターンの作成・
編集を支援することができる、優れたオーサリング・シ
ステム及びオーサリング方法を提供することにある。
A further object of the present invention is to create an operation pattern by using a set of parts for defining an operation state of a robot.
An object of the present invention is to provide an excellent authoring system and an authoring method capable of supporting editing.

【0017】本発明の更なる目的は、各関節アクチュエ
ータの動作など1以上の時系列データの組み合わせから
なるロボットのアクションを部品化してコンピュータ・
ディスプレイ上に配置するとともに、各アクションの結
合関係をディスプレイ上のGUI操作により規定するこ
とでロボットのビヘイビアの作成・編集を行うことがで
きる、優れたオーサリング・システム及びオーサリング
方法を提供することにある。
A further object of the present invention is to make a robot action composed of a combination of one or more time-series data such as the operation of each joint actuator into a computer / computer.
An object of the present invention is to provide an excellent authoring system and an excellent authoring method capable of arranging on a display and defining a connection relationship between actions by a GUI operation on the display to create and edit a behavior of a robot. .

【0018】[0018]

【課題を解決するための手段及び作用】本発明は、上記
課題を参酌してなされたものであり、その第1の側面
は、多関節構造体のビヘイビアの作成・編集を支援する
ためのオーサリング・システム又は方法であって、ユー
ザから操作画面を介して入力されるコマンドやデータを
受容するユーザ入力部又はステップと、ユーザに対して
前記他関節構造体のビヘイビアを作成・編集するための
作業場を操作画面上で提供するユーザ提示部又はステッ
プと、操作画面上におけるユーザ入力に基づいてビヘイ
ビアの構成要素どうしの接続関係を形成して、ビヘイビ
アを規定するプログラムを生成するプログラム生成部又
はステップと、を具備することを特徴とするオーサリン
グ・システム又は方法である。
SUMMARY OF THE INVENTION The present invention has been made in consideration of the above problems, and a first aspect of the present invention is directed to authoring for supporting creation and editing of a behavior of an articulated structure. A system or method, a user input unit or step for receiving a command or data input from a user via an operation screen, and a workplace for creating / editing the behavior of the other joint structure for the user A user presentation unit or step that provides on the operation screen, and a program generation unit or step that forms a connection relationship between the constituent elements of the behavior based on the user input on the operation screen and generates a program that defines the behavior. And an authoring system or method.

【0019】但し、ここで言う「システム」とは、複数
の装置(又は特定の機能を実現する機能モジュール)が
論理的に集合した物のことを言い、各装置や機能モジュ
ールが単一の筐体内にあるか否かは特に問わない。
However, the term “system” as used herein refers to a logical collection of a plurality of devices (or function modules that realize specific functions), and each device or function module is a single case. It does not matter whether it is in the body or not.

【0020】また、ビヘイビアの構成要素には、アクシ
ョン、複数のアクションを組み合わせたグループ、分
岐、終端を含めることができる。
The constituent elements of the behavior can include an action, a group obtained by combining a plurality of actions, a branch, and a terminal.

【0021】また、アクションは、多関節構造体の各関
節の時系列的な動作を記述したモーション・データと、
アクションの再生と時間的に同期して音声出力されるサ
ウンド・データと、アクションの再生と時間的に同期し
て表示出力される表示インジケータの点灯/消滅動作を
記述したインジケータ表示データとを、時間軸上で同期
的に組み合わせることによって構成される。
The action includes motion data describing the time-series operation of each joint of the multi-joint structure;
The sound data that is output as sound in time synchronization with the reproduction of the action and the indicator display data describing the lighting / extinguishing operation of the display indicator that is displayed and output in synchronization with the reproduction of the action are recorded in time. It is configured by combining them synchronously on the axis.

【0022】本発明の第1の側面に係るオーサリング・
システム又は方法によれば、アクションを部品化してコ
ンピュータ・ディスプレイ上に配置するとともに、各ア
クションの結合関係をディスプレイ上のGUI操作によ
り規定することで、フローチャート・エディタの感覚で
ロボットのビヘイビアの作成・編集を行うことができ
る。また、ビヘイビアは、アクションの再生順序や、条
件分岐、ループを含めることができる。
The authoring method according to the first aspect of the present invention
According to the system or the method, actions are made into parts and arranged on a computer display, and the connection relation of each action is defined by a GUI operation on the display. Can edit. In addition, the behavior can include an action reproduction order, a conditional branch, and a loop.

【0023】前記ユーザ提示部又はステップは、ビヘイ
ビアの各構成要素間の接続関係をフローチャート編集形
式で提示することにより、プログラムに関する知識が深
くない一般しょうひ社葬のユーザであっても、GUI画
面操作に従って比較的容易にビヘイビアを作成・編集す
ることができる。
[0023] The user presenting unit or step presents the connection relationship between the constituent elements of the behavior in a flow chart editing format, so that even a user of a general burial company who does not have much knowledge of a program can use a GUI screen. Behaviors can be created and edited relatively easily according to the operation.

【0024】前記ユーザ提示部又はステップは、ビヘイ
ビアの各構成要素の詳細な属性情報を設定する属性設定
画面をユーザに提供するようにしてもよい。
[0024] The user presenting unit or step may provide an attribute setting screen for setting detailed attribute information of each component of the behavior to the user.

【0025】また、本発明の第2の側面は、多関節構造
体のビヘイビアの作成・編集を支援するための処理をコ
ンピュータ・システム上で実行するように記述されたコ
ンピュータ・ソフトウェアをコンピュータ可読形式で物
理的に格納した記憶媒体であって、前記コンピュータ・
ソフトウェアは、ユーザから操作画面を介して入力され
るコマンドやデータを受容するユーザ入力ステップと、
ユーザに対して前記他関節構造体のビヘイビアを作成・
編集するための作業場を操作画面上で提供するユーザ提
示ステップと、操作画面上におけるユーザ入力に基づい
てビヘイビアの構成要素どうしの接続関係を形成して、
ビヘイビアを規定するプログラムを生成するプログラム
生成ステップと、を具備することを特徴とする記憶媒体
である。
According to a second aspect of the present invention, there is provided a computer readable format for executing computer software for executing processing for supporting creation / editing of a behavior of an articulated structure on a computer system. A storage medium physically stored in the computer;
The software includes a user input step of receiving a command or data input from the user via the operation screen,
Create the behavior of the other joint structure for the user
A user presenting step of providing a workplace for editing on an operation screen, and forming a connection relationship between constituent elements of the behavior based on a user input on the operation screen,
A program generating step of generating a program defining behaviors.

【0026】本発明の第2の側面に係る記憶媒体は、例
えば、様々なプログラム・コードを実行可能な汎用性の
コンピュータ・システムに対して、コンピュータ・ソフ
トウェアをコンピュータ可読な形式で物理的に提供する
媒体である。このような媒体は、例えば、CD(Compac
t Disc)やFD(Floppy Disc)、MO(Magneto-Optic
al disc)などの着脱自在で可搬性の記憶媒体である。
あるいは、ネットワーク(ネットワークは無線、有線の
区別を問わない)などの伝送媒体などを経由してコンピ
ュータ・ソフトウェアを特定のコンピュータ・システム
にコンピュータ可読形式で提供することも技術的に可能
である。
The storage medium according to the second aspect of the present invention physically provides computer software in a computer-readable format, for example, to a general-purpose computer system capable of executing various program codes. It is a medium to do. Such a medium is, for example, a CD (Compac
t Disc), FD (Floppy Disc), MO (Magneto-Optic)
al disc) is a removable and portable storage medium.
Alternatively, it is technically possible to provide computer software to a specific computer system in a computer-readable form via a transmission medium such as a network (a network may be either wireless or wired).

【0027】このような記憶媒体は、コンピュータ・シ
ステム上で所定のコンピュータ・ソフトウェアの機能を
実現するための、コンピュータ・ソフトウェアと記憶媒
体との構造上又は機能上の協働的関係を定義したもので
ある。換言すれば、本発明の第2の側面に係る記憶媒体
を介して所定のコンピュータ・ソフトウェアをコンピュ
ータ・システムにインストールすることによって、コン
ピュータ・システム上では協働的作用が発揮され、本発
明の第1の側面に係るオーサリング・システム及びオー
サリング方法と同様の作用効果を得ることができる。
Such a storage medium defines a structural or functional cooperative relationship between the computer software and the storage medium in order to realize predetermined computer software functions on a computer system. It is. In other words, by installing predetermined computer software into the computer system via the storage medium according to the second aspect of the present invention, a cooperative action is exerted on the computer system, and the second aspect of the present invention is realized. The same operation and effect as those of the authoring system and the authoring method according to one aspect can be obtained.

【0028】本発明のさらに他の目的、特徴や利点は、
後述する本発明の実施例や添付する図面に基づくより詳
細な説明によって明らかになるであろう。
Still other objects, features and advantages of the present invention are:
It will become apparent from the following more detailed description based on the embodiments of the present invention and the accompanying drawings.

【0029】[0029]

【発明の実施の形態】以下、図面を参照しながら本発明
の実施例を詳解する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0030】A.ロボットの構成 図1には、本発明を実施に供される、四肢による脚式歩
行を行う移動ロボット1の外観構成を示している。図示
の通り、該ロボット1は、四肢を有する動物の形状や構
造をモデルにして構成された多関節型の移動ロボットで
ある。とりわけ本実施例の移動ロボット1は、愛玩動物
の代表例であるイヌの形状及び構造を模してデザインさ
れたペット型ロボットという側面を有し、例えば人間の
住環境において人間と共存するとともに、ユーザ操作に
応答した動作表現することができる。
A. The diagram 1 of a robot, the present invention is subjected to an illustrates an external configuration of the mobile robot 1 to perform a legged walking by limb. As shown in the figure, the robot 1 is a multi-joint type mobile robot configured based on the shape and structure of an animal having limbs. In particular, the mobile robot 1 of the present embodiment has the aspect of a pet type robot designed to imitate the shape and structure of a dog, which is a typical example of a pet animal, and coexists with humans in a human living environment, for example. An action can be expressed in response to a user operation.

【0031】移動ロボット1は、胴体部ユニット2と、
頭部ユニット3と、尻尾4と、四肢すなわち脚部ユニッ
ト6A〜6Dで構成される。
The mobile robot 1 has a body unit 2 and
It is composed of a head unit 3, a tail 4, and limbs, that is, leg units 6A to 6D.

【0032】頭部ユニット3は、ロール、ピッチ及びヨ
ーの各軸方向(図示)の自由度を持つ首関節7を介し
て、胴体部ユニット2の略前上端に配設されている。ま
た、頭部ユニット3には、イヌの「目」に相当するCC
D(Charge Coupled Device:電荷結合素子)カメラ1
5と、「耳」に相当するマイクロフォン16と、「口」
に相当するスピーカ17と、触感に相当するタッチセン
サ18と、複数のLEDインジケータ19が搭載されて
いる。これら以外にも、生体の五感を構成するセンサを
含んでいても構わない。
The head unit 3 is disposed substantially at the upper front end of the body unit 2 via a neck joint 7 having degrees of freedom in the axial directions (illustration) of roll, pitch and yaw. Also, the head unit 3 has a CC corresponding to a dog's “eye”.
D (Charge Coupled Device) Camera 1
5, microphone 16 corresponding to "ear", and "mouth"
, A touch sensor 18 corresponding to a tactile sensation, and a plurality of LED indicators 19 are mounted. In addition to these, sensors constituting the five senses of a living body may be included.

【0033】尻尾4は、ロール及びピッチ軸の自由度を
持つ尻尾関節8を介して、胴体部ユニット2の略後上端
に湾曲若しくは揺動自在に取り付けられている。
The tail 4 is attached to a substantially rear upper end of the body unit 2 via a tail joint 8 having a degree of freedom of a roll and a pitch axis so as to bend or swing freely.

【0034】脚部ユニット6A及び6Bは前足を構成
し、脚部ユニット6C及び6Dは後足を構成する。各脚
部ユニット6A〜6Dは、それぞれ、大腿部ユニット9
A〜9D及び脛部ユニット10A〜10Dの組み合わせ
で構成され、胴体部ユニット2の底面の前後左右の各隅
部に取り付けられている。大腿部ユニット9A〜9D
は、ロール、ピッチ、ヨーの各軸の自由度を持つ股関節
11A〜11Dによって、胴体部ユニット2の各々の所
定部位に連結されている。また、大腿部ユニット9A〜
9Dと脛部ユニット10A〜10Dの間は、ロール及び
ピッチ軸の自由度を持つ膝関節12A〜12Dによって
連結されている。
The leg units 6A and 6B constitute the forefoot, and the leg units 6C and 6D constitute the rear foot. The leg units 6A to 6D are respectively connected to the thigh unit 9
A to 9D and a combination of the shin unit 10A to 10D are attached to the front, rear, left and right corners of the bottom surface of the body unit 2. Thigh units 9A to 9D
Are connected to respective predetermined parts of the body unit 2 by hip joints 11A to 11D having degrees of freedom of roll, pitch and yaw axes. Also, the thigh unit 9A-
The 9D and the shin units 10A to 10D are connected by knee joints 12A to 12D having degrees of freedom of roll and pitch axes.

【0035】図示のように構成された脚式移動ロボット
1は、後述する制御部からの指令により各関節アクチュ
エータを駆動することによって、例えば、頭部ユニット
3を上下左右に振らせたり、尻尾4を振らせたり、各足
部ユニット6A〜6Dを同期協調的に駆動させて歩行や
走行などの動作を実現することができる。
The legged mobile robot 1 configured as shown in the figure drives, for example, each joint actuator in response to a command from a control unit to be described later to swing the head unit 3 up, down, left and right, or to move the tail unit 4. Or the foot units 6A to 6D can be driven synchronously and cooperatively to realize an operation such as walking or running.

【0036】なお、移動ロボット1の関節自由度は、実
際には各軸毎に配備され関節アクチュエータ(図示しな
い)の回転駆動によって提供される。また、脚式移動ロ
ボット1が持つ関節自由度の個数は任意であり、本発明
の要旨を限定するものではない。
The degrees of freedom of the joints of the mobile robot 1 are actually provided for each axis by rotation of a joint actuator (not shown). Further, the number of degrees of freedom of the joints possessed by the legged mobile robot 1 is arbitrary, and does not limit the gist of the present invention.

【0037】図2には、移動ロボット1の電気・制御系
統の構成図を模式的に示している。同図に示すように、
移動ロボット1は、全体の動作の統括的制御やその他の
データ処理を行う制御部20と、入出力部40と、駆動
部50と、電源部60とで構成される。以下、各部につ
いて説明する。
FIG. 2 schematically shows a configuration diagram of an electric / control system of the mobile robot 1. As shown in the figure,
The mobile robot 1 includes a control unit 20 that performs overall control of the entire operation and other data processing, an input / output unit 40, a driving unit 50, and a power supply unit 60. Hereinafter, each unit will be described.

【0038】入出力部40は、入力部として移動ロボッ
ト1の目に相当するCCDカメラ15や、耳に相当する
マイクロフォン16、触感に相当するタッチセンサ1
8、あるいは五感に相当するその他の各種のセンサを含
む。また、出力部として、口に相当するスピーカ17、
あるいは点滅の組み合わせや点灯のタイミングにより顔
の表情を形成するLEDインジケータ19などを装備し
ている。これら出力部は、脚などによる機械運動パター
ン以外の形式で移動ロボット1からのユーザ・フィード
バックを表現することができる。
The input / output unit 40 includes a CCD camera 15 corresponding to an eye of the mobile robot 1, a microphone 16 corresponding to an ear, and a touch sensor 1 corresponding to a tactile sensation.
8 or other various sensors corresponding to the five senses. As an output unit, a speaker 17 corresponding to a mouth,
Alternatively, an LED indicator 19 that forms a facial expression based on a combination of blinking and lighting timing is provided. These output units can express the user feedback from the mobile robot 1 in a form other than the mechanical movement pattern by the legs or the like.

【0039】移動ロボット1は、カメラ15を含むこと
で、作業空間上に存在する任意の物体の形状や色彩を認
識することができる。また、移動ロボット1は、カメラ
のような視覚手段の他に、赤外線、音波、超音波、電波
などの発信波を受信する受信装置をさらに備えていても
よい。この場合、各伝送波を検知するセンサ出力に基づ
いて発信源からの位置や向きを計測することができる。
The mobile robot 1 including the camera 15 can recognize the shape and color of an arbitrary object existing in the work space. In addition, the mobile robot 1 may further include a receiving device that receives a transmission wave such as an infrared ray, a sound wave, an ultrasonic wave, or a radio wave, in addition to a visual unit such as a camera. In this case, the position and the direction from the transmission source can be measured based on the sensor output for detecting each transmission wave.

【0040】駆動部50は、制御部20が指令する所定
の運動パターンに従って移動ロボット1の機械運動を実
現する機能ブロックであり、首関節7、尻尾関節8、股
関節11A〜11D、膝関節12A〜12Dなどのそれ
ぞれの関節におけるロール、ピッチ、ヨーなど各軸毎に
設けられた駆動ユニットで構成される。図示の例では、
移動ロボット1はn個の関節自由度を有し、したがって
駆動部50はn個の駆動ユニットで構成される。各駆動
ユニットは、所定軸回りの回転動作を行うモータ51
と、モータ51の回転位置を検出するエンコーダ52
と、エンコーダ52の出力に基づいてモータ51の回転
位置や回転速度を適応的に制御するドライバ53の組み
合わせで構成される。
The driving section 50 is a functional block for realizing the mechanical movement of the mobile robot 1 according to a predetermined movement pattern instructed by the control section 20, and includes a neck joint 7, a tail joint 8, hip joints 11A to 11D, and knee joints 12A to It is composed of a drive unit provided for each axis such as roll, pitch and yaw in each joint such as 12D. In the example shown,
The mobile robot 1 has n degrees of freedom in joints, and thus the driving unit 50 is composed of n driving units. Each drive unit includes a motor 51 that performs a rotation operation about a predetermined axis.
And an encoder 52 for detecting the rotational position of the motor 51
And a driver 53 that adaptively controls the rotational position and rotational speed of the motor 51 based on the output of the encoder 52.

【0041】電源部60は、その字義通り、移動ロボッ
ト1内の各電気回路等に対して給電を行う機能モジュー
ルである。本実施例に係る移動ロボット1は、バッテリ
を用いた自律駆動式であり、電源部60は、充電バッテ
リ61と、充電バッテリ61の充放電状態を管理する充
放電制御部62とで構成される。
The power supply unit 60 is a functional module that supplies power to each electric circuit and the like in the mobile robot 1 as the name implies. The mobile robot 1 according to the present embodiment is of an autonomous driving type using a battery, and a power supply unit 60 includes a charge battery 61 and a charge / discharge control unit 62 that manages a charge / discharge state of the charge battery 61. .

【0042】充電バッテリ61は、例えば、複数本のニ
ッケル・カドミウム電池セルをカートリッジ式にパッケ
ージ化した「バッテリ・パック」の形態で構成される。
The rechargeable battery 61 is configured, for example, in the form of a “battery pack” in which a plurality of nickel-cadmium battery cells are packaged in a cartridge type.

【0043】また、充放電制御部62は、バッテリ61
の端子電圧や充電/放電電流量、バッテリ61の周囲温
度などを測定することでバッテリ61の残存容量を把握
し、充電の開始時期や終了時期などを決定するようにな
っている。充放電制御部62が決定する充電の開始及び
終了時期は制御部20に通知され、移動ロボット1が充
電オペレーションを開始及び終了するためのトリガとな
る。
The charge / discharge control unit 62 includes a battery 61
By measuring the terminal voltage, the amount of charge / discharge current, the ambient temperature of the battery 61, and the like, the remaining capacity of the battery 61 is grasped, and the start time and end time of charging are determined. The start and end timings of charging determined by the charge / discharge control unit 62 are notified to the control unit 20, and serve as triggers for the mobile robot 1 to start and end charging operations.

【0044】制御部20は、「頭脳」に相当し、例えば
移動ロボット1の頭部ユニット3あるいは胴体部ユニッ
ト2に搭載される。
The control unit 20 corresponds to the “brain”, and is mounted on, for example, the head unit 3 or the body unit 2 of the mobile robot 1.

【0045】図3には、制御部20の構成をさらに詳細
に図解している。同図に示すように、制御部20は、メ
イン・コントローラとしてのCPU(Central Processi
ng Unit)21が、メモリその他の各回路コンポーネン
トや周辺機器とバス接続された構成となっている。バス
27は、データ・バス、アドレス・バス、コントロール・
バスなどを含む共通信号伝送路である。バス27上の各
装置にはそれぞれに固有のアドレス(メモリ・アドレス
又はI/Oアドレス)が割り当てられている。CPU2
1は、アドレス指定することによってバス28上の特定
の装置と通信することができる。
FIG. 3 illustrates the configuration of the control unit 20 in more detail. As shown in FIG. 1, the control unit 20 includes a CPU (Central Process
ng Unit) 21 is connected to a memory and other circuit components and peripheral devices via a bus. The bus 27 includes a data bus, an address bus, and a control bus.
This is a common signal transmission path including a bus and the like. Each device on the bus 27 is assigned a unique address (memory address or I / O address). CPU2
1 can communicate with a particular device on bus 28 by addressing.

【0046】RAM(Random Access Memory)22は、
DRAM(Dynamic RAM)などの揮発性メモリで構成さ
れた書き込み可能メモリであり、CPU21が実行する
プログラム・コードをロードしたり、実行プログラムに
よる作業データの一時的な保存のために使用される。
The RAM (Random Access Memory) 22
This is a writable memory composed of a volatile memory such as a DRAM (Dynamic RAM), and is used for loading a program code to be executed by the CPU 21 and temporarily storing work data by the execution program.

【0047】ROM(Read Only Memory)23は、プロ
グラムやデータを恒久的に格納する読み出し専用メモリ
である。ROM23に格納されるプログラム・コードに
は、移動ロボット1の電源投入時に実行する自己診断テ
スト・プログラムや、移動ロボット1の動作を規定する
動作制御プログラムなどが挙げられる。
The ROM (Read Only Memory) 23 is a read-only memory for permanently storing programs and data. The program codes stored in the ROM 23 include a self-diagnosis test program to be executed when the power of the mobile robot 1 is turned on, an operation control program for defining the operation of the mobile robot 1, and the like.

【0048】ロボット1の制御プログラムには、カメラ
15やマイクロフォン16などのセンサ入力を処理する
「センサ入力処理プログラム」、センサ入力と所定の動
作モデルとに基づいて移動ロボット1の行動すなわち運
動パターンを生成する「行動命令プログラム」、生成さ
れた運動パターンに従って各モータの駆動やスピーカ1
7の音声出力などを制御する「駆動制御プログラム」な
どが含まれる。生成される運動パターンには、通常の歩
行運動や走行運動以外に、「お手」、「お預け」、「お
座り」や、「ワンワン」などの動物の鳴き声の発声など
エンターティンメント性の高い動作を含んでいてもよ
い。
The control program of the robot 1 includes a "sensor input processing program" for processing sensor inputs such as the camera 15 and the microphone 16, and the behavior, that is, the movement pattern of the mobile robot 1 based on the sensor inputs and a predetermined operation model. The "action instruction program" to be generated, the driving of each motor and the speaker 1 according to the generated movement pattern
7 includes a “drive control program” for controlling audio output and the like. In addition to normal walking and running movements, the generated movement patterns have a high level of entertainment, such as vocalizations of animals such as "hands,""deposits,""sittingdown," and "wanwan." Actions may be included.

【0049】また、ロボット1のその他の制御プログラ
ムとして、オーサリング・ツールを用いて作成・編集さ
れた各種の行動シーケンス・プログラムが含まれる。オ
ーサリング・ツールは、例えばロボット1外部に設置さ
れたコンピュータ・システム上で所定のソフトウェア実
行環境下で起動する。但し、オーサリング・ツール並び
に該ツール上で作成・編集されるプログラムついては後
に詳解する。
Other control programs for the robot 1 include various action sequence programs created and edited using an authoring tool. The authoring tool is activated, for example, on a computer system installed outside the robot 1 under a predetermined software execution environment. However, the authoring tool and the program created / edited on the tool will be described later in detail.

【0050】不揮発性メモリ24は、例えばEEPRO
M(Electrically Erasable and Programmable ROM)の
ように、電気的に消去再書き込みが可能なメモリ素子で
構成され、逐次更新すべきデータを不揮発的に保持する
ために使用される。逐次更新すべきデータには、例え
ば、製造番号や暗号鍵などのセキュリティ情報や、移動
ロボット1の行動パターンを規定する各種モデルなどが
挙げられる。
The nonvolatile memory 24 is, for example, an EEPROM.
A memory element such as M (Electrically Erasable and Programmable ROM), which is electrically erasable and rewritable, is used to hold data to be sequentially updated in a nonvolatile manner. The data to be sequentially updated includes, for example, security information such as a serial number and an encryption key, and various models that define the behavior pattern of the mobile robot 1.

【0051】インターフェース25は、制御部20外の
機器と相互接続し、データ交換を可能にするための装置
である。インターフェース25は、例えば、カメラ15
やマイクロフォン16、スピーカ17との間でデータ入
出力を行う。また、インターフェース25は、駆動部5
0内の各ドライバ53−1…との間でデータやコマンド
の入出力を行う。
The interface 25 is a device for interconnecting with devices outside the control unit 20 and enabling data exchange. The interface 25 is, for example, the camera 15
And data input / output with the microphone 16 and the speaker 17. Further, the interface 25 includes the driving unit 5
Data and commands are input / output to / from each of the drivers 53-1 within.

【0052】また、インターフェース25は、RS(Re
commended Standard)−232Cなどのシリアル・イン
ターフェース、IEEE(Institute of Electrical an
d electronics Engineers)1284などのパラレル・
インターフェース、USB(Universal Serial Bus)イ
ンターフェース、i−Link(IEEE1394)イ
ンターフェース、SCSI(Small Computer System In
terface)インターフェース、メモリ・カード・インタ
ーフェースなどのような、コンピュータの周辺機器接続
用の汎用インターフェースを備え、ローカル接続された
外部機器との間でプログラムやデータの移動を行うよう
にしてもよい。
The interface 25 is connected to the RS (Re
serial interface such as commended Standard) -232C, IEEE (Institute of Electrical
d electronics Engineers)
Interface, USB (Universal Serial Bus) interface, i-Link (IEEE1394) interface, SCSI (Small Computer System In)
A general-purpose interface for connecting peripheral devices of a computer, such as a terface interface and a memory card interface, may be used to transfer programs and data to and from a locally connected external device.

【0053】また、インターフェース25の他の例とし
て、赤外線通信(IrDA)インターフェースを備え、
外部機器と無線通信を行うようにしてもよい。
As another example of the interface 25, an infrared communication (IrDA) interface is provided.
Wireless communication with an external device may be performed.

【0054】さらに、制御部20は、無線通信インター
フェース26やネットワーク・インターフェース・カー
ド(NIC)27などを含み、"bluetooth"
や".11B"のような近接無線通信、あるいはLAN
(Local Area Network:例えばEthernet)やインターネ
ットを経由して、外部のホスト・コンピュータ100と
データ通信を行うことができる。
Further, the control unit 20 includes a wireless communication interface 26, a network interface card (NIC) 27, and the like, and “bluetooth”.
Wireless communication such as ".11B" or LAN
(Local Area Network: Ethernet, for example) and data communication with an external host computer 100 via the Internet.

【0055】このような移動ロボット1とホストコンピ
ュータ100間におけるデータ通信の1つの目的は、ロ
ボット1外部(すなわち遠隔)のコンピュータ資源を用
いて、移動ロボット1の複雑な動作制御を演算したり、
リモート・コントロールすることである。
One purpose of such data communication between the mobile robot 1 and the host computer 100 is to use a computer resource outside (ie, remote from) the robot 1 to calculate complicated operation control of the mobile robot 1 or
Remote control.

【0056】また、該データ通信の他の目的は、動作モ
デルやその他のプログラム・コードなどロボット1の動
作制御に必要なデータやプログラムを、ネットワーク経
由で遠隔の装置から移動ロボット1に供給することにあ
る。
Another object of the data communication is to supply data and programs necessary for operation control of the robot 1 such as an operation model and other program codes from a remote device to the mobile robot 1 via a network. It is in.

【0057】また、該データ通信の他の目的は、ホスト
・コンピュータ100上でオーサリング・ツール(後
述)を用いて作成・編集したロボット動作制御用プログ
ラムのダウンロードや、このような動作制御用プログラ
ムのホスト・コンピュータ100とロボット1との協働
的動作によるリアルタイムのデバッグ処理である。
Another purpose of the data communication is to download a robot operation control program created and edited using an authoring tool (described later) on the host computer 100, and to download such an operation control program. This is a real-time debugging process by a cooperative operation between the host computer 100 and the robot 1.

【0058】制御部20は、テンキー及び/又はアルフ
ァベット・キーからなるキーボード29を備えておいて
もよい。キーボード29は、ロボット1の作業現場にお
いてユーザが直接的なコマンド入力のために使用する
他、パスワードなどの所有者認証情報の入力に用いられ
る。
The control unit 20 may include a keyboard 29 composed of numeric keys and / or alphabet keys. The keyboard 29 is used not only by a user for direct command input at the work site of the robot 1 but also for input of owner authentication information such as a password.

【0059】本実施例に係る移動ロボット1は、制御部
20が所定の動作制御プログラムを実行することによっ
て、自律的(すなわち人手が介在しない)な動作を行う
ことができる。また、画像入力(すなわちカメラ1
5)、音声入力(すなわちマイク16)、タッチセンサ
18などの人間や動物の五感に相当する入力装置を備え
るとともに、これら外部入力に応答した理性的又は感情
的な行動を実行するインテリジェンスを備えている。
The mobile robot 1 according to the present embodiment can perform an autonomous (ie, no human intervention) operation by the control unit 20 executing a predetermined operation control program. In addition, image input (that is, camera 1
5), input devices corresponding to the five senses of humans and animals, such as voice input (ie, microphone 16) and touch sensor 18, and intelligence for executing rational or emotional actions in response to these external inputs. I have.

【0060】図1〜図3に示すように構成された移動ロ
ボット1は、以下のような特徴がある。すなわち、
The mobile robot 1 configured as shown in FIGS. 1 to 3 has the following features. That is,

【0061】(1)ある姿勢から他の姿勢へ遷移するよ
うに指示されたとき、各姿勢間を直接に遷移せず、あら
かじめ用意された無理のない中間的な姿勢を経由して遷
移することができる。 (2)姿勢遷移で任意の姿勢に到達したときに通知を受
け取ることができる。 (3)頭部、足部、尻尾部などの各ユニット単位で姿勢
を独立して管理しながら姿勢制御することができる。す
なわち、ロボット1の全体の姿勢とは別に各ユニット毎
に姿勢を管理することができる。 (4)動作命令の動作の詳細を示すためのパラメータを
渡すことができる。
(1) When instructed to make a transition from a certain posture to another posture, do not make a direct transition between each posture, but make a transition via a reasonable intermediate posture prepared in advance. Can be. (2) A notification can be received when an arbitrary posture is reached in the posture transition. (3) The posture can be controlled while controlling the posture independently for each unit such as the head, the foot, and the tail. That is, the posture of each unit can be managed separately from the overall posture of the robot 1. (4) Parameters for indicating the details of the operation of the operation instruction can be passed.

【0062】図3に示すように、本実施例に係る移動ロ
ボット1は、ネットワーク経由で外部のホスト・コンピ
ュータ100と相互接続されている。あるいは、ホスト
・コンピュータ100とは、無線通信(例えば、blu
etoothや.11B近距離無線データ通信)やその
他の通信手段によって接続されていてもよい。
As shown in FIG. 3, the mobile robot 1 according to the present embodiment is interconnected with an external host computer 100 via a network. Alternatively, wireless communication (for example, blue)
Ethooth and. 11B short-range wireless data communication) or other communication means.

【0063】ホスト・コンピュータ100上では、所定
のソフトウェア実行環境が構築され、該環境下では、オ
ーサリング・ツールを起動して、ロボット1の動作シー
ケンスを対話的な処理により比較的容易且つ効率的に作
成・編集することができる。但し、オーサリング・ツール
の詳細については後述する。
On the host computer 100, a predetermined software execution environment is constructed. Under this environment, the authoring tool is started, and the operation sequence of the robot 1 is relatively easily and efficiently executed by interactive processing. Can be created and edited. However, details of the authoring tool will be described later.

【0064】図4には、ホスト・コンピュータ100の
ハードウェア構成例を模式的に図解している。以下、コ
ンピュータ100内の各部について説明する。
FIG. 4 schematically illustrates a hardware configuration example of the host computer 100. Hereinafter, each unit in the computer 100 will be described.

【0065】システム100のメイン・コントローラで
あるCPU(Central Processing Unit)101は、オ
ペレーティング・システム(OS)の制御下で、各種の
アプリケーションを実行するようになっている。OS
は、より好ましくはGUI(Graphical User Interfac
e)環境を提供するが、例えば、UNIX(登録商
標)、又は、米Microsoft社のWindows
98/NTでよい。
A CPU (Central Processing Unit) 101, which is a main controller of the system 100, executes various applications under the control of an operating system (OS). OS
Is more preferably a GUI (Graphical User Interface)
e) Provide the environment, for example, UNIX (registered trademark) or Microsoft Windows
98 / NT may be used.

【0066】図示の通り、CPU101は、バス107
によって他の機器類(後述)と相互接続されている。バ
ス107上の各機器にはそれぞれ固有のメモリ・アドレ
ス又はI/Oアドレスが付与されており、CPU101
はこれらアドレスによって特定の機器へのアクセスが可
能となっている。バス107は、データ・バス、アドレ
ス・バス、コントロール・バスを含んだ共通信号伝送路
であるが、その一例はPCI(Peripheral Component I
nterconnect)バスである。
As shown in FIG.
Are interconnected with other devices (described later). Each device on the bus 107 is assigned a unique memory address or I / O address.
These addresses allow access to specific devices. The bus 107 is a common signal transmission path including a data bus, an address bus, and a control bus, and one example is a PCI (Peripheral Component I).
nterconnect) bus.

【0067】メモリ102は、プロセッサ101におい
て実行されるプログラム・コードを格納したり、実行中
の作業データを一時保管するために使用される記憶装置
である。同図に示すメモリ102は、不揮発及び揮発メ
モリ双方を含むものと理解されたい。
The memory 102 is a storage device used for storing a program code to be executed in the processor 101 and temporarily storing work data being executed. It should be understood that the memory 102 shown in the figure includes both non-volatile and volatile memories.

【0068】ディスプレイ・コントローラ103は、C
PU101が発行する描画命令を実際に処理するための
専用コントローラであり、例えばSVGA(Super Vide
o Graphic Array)又はXGA(eXtended Graphic Arra
y)相当のビットマップ描画機能をサポートする。ディ
スプレイ・コントローラ103において処理された描画
データは、例えばフレーム・バッファ(図示しない)に
一旦書き込まれた後、表示装置111に画面出力され
る。表示装置111は、例えば、CRT(Cathode Ray
Tube)ディスプレイや、液晶表示ディスプレイ(Liquid
Crystal Display)などである。
The display controller 103 uses C
A dedicated controller for actually processing a drawing command issued by the PU 101, for example, an SVGA (Super Video)
o Graphic Array) or XGA (eXtended Graphic Arra)
y) Support a considerable bitmap drawing function. The drawing data processed by the display controller 103 is temporarily written to, for example, a frame buffer (not shown) and then output to the display device 111 on the screen. The display device 111 is, for example, a CRT (Cathode Ray).
Tube) display and liquid crystal display (Liquid
Crystal Display).

【0069】入力機器インターフェース104は、キー
ボード112やマウス113などのユーザ入力機器をシ
ステム100に接続するための装置である。入力機器イ
ンターフェース104は、キーボード112によるキー
入力又はマウス113を介した座標指示入力に応答し
て、CPU101に対して割り込みを発生する。
The input device interface 104 is a device for connecting user input devices such as a keyboard 112 and a mouse 113 to the system 100. The input device interface 104 generates an interrupt for the CPU 101 in response to a key input from the keyboard 112 or a coordinate instruction input via the mouse 113.

【0070】ネットワーク・インターフェース105
は、Ethernetなどの所定の通信プロトコルに従
って、システム100をLAN(Local Area Network)
などのネットワークに接続したり、あるいはbluet
oothや.11Bのような近距離無線データ通信に接
続することができる。ネットワーク・インターフェース
105は、一般に、LANアダプタ・カードの形態で提
供され、マザーボード(図示しない)上のPCIバス・
スロットの装着して用いられる。
Network interface 105
Connects the system 100 to a LAN (Local Area Network) according to a predetermined communication protocol such as Ethernet.
Connect to a network such as
oooth and. It can be connected to short-range wireless data communication such as 11B. The network interface 105 is generally provided in the form of a LAN adapter card and includes a PCI bus on a motherboard (not shown).
It is used by mounting a slot.

【0071】図3に示す例では、ホスト・コンピュータ
100は、無線データ通信やネットワーク経由でロボッ
ト1と相互接続されているが、勿論、他の通信手段やデ
ータ移動手段によって両者が接続されていてもよい。例
えば、メモリ・カード(メモリ・スティック)のような
記録メディアを介してデータの交換や移動を行うように
してもよい。
In the example shown in FIG. 3, the host computer 100 is interconnected with the robot 1 via wireless data communication or a network. Of course, both are connected by other communication means or data moving means. Is also good. For example, data exchange and movement may be performed via a recording medium such as a memory card (memory stick).

【0072】またネットワーク上では、複数のホスト・
コンピュータ(図示しない)がトランスペアレントな状
態で接続され、分散コンピューティング環境が構築され
ている。ネットワーク上では、ソフトウェア・プログラ
ムやデータ・コンテンツなどの配信が行われる。例え
ば、本実施例に係るオーサリング・ツールや、該オーサ
リング・ツールで作成・編集したロボット用行動シーケ
ンス・プログラム(さらには、行動シーケンスの素とな
るアクション・ファイル、モーション・ファイル、サウン
ド・ファイル、LED動作ファイル)などを、ネットワ
ーク経由で配信することができる。また、このようなプ
ログラム/データのネットワーク配信サービスを有料又
は無料で行ってもよい。
On the network, a plurality of hosts
Computers (not shown) are connected in a transparent state, and a distributed computing environment is constructed. Distribution of software programs, data contents, and the like is performed on the network. For example, the authoring tool according to the present embodiment, a robot action sequence program created and edited by the authoring tool (further, an action file, motion file, sound file, LED, Operation files) can be distributed via a network. Further, such a program / data network distribution service may be provided for a fee or free of charge.

【0073】外部機器インターフェース106は、ハー
ド・ディスク・ドライブ(HDD)114やメディア・ド
ライブ115などの外部装置をシステム100に接続す
るための装置である。外部機器インターフェース106
は、例えば、IDE(Integrated Drive Electronics)
やSCSI(Small Computer System Interface)など
のインターフェース規格に準拠する。
The external device interface 106 is a device for connecting an external device such as a hard disk drive (HDD) 114 or a media drive 115 to the system 100. External device interface 106
Is, for example, IDE (Integrated Drive Electronics)
And SCSI (Small Computer System Interface).

【0074】HDD114は、記憶担体としての磁気デ
ィスクを固定的に搭載した外部記憶装置であり(周
知)、記憶容量やデータ転送速度などの点で他の外部記
憶装置よりも優れている。ソフトウェア・プログラムを
実行可能な状態でHDD116上に置くことをプログラ
ムのシステムへの「インストール」と呼ぶ。通常、HD
D114には、プロセッサ511が実行すべきオペレー
ティング・システムのプログラム・コードや、アプリケー
ション・プログラム、デバイス・ドライバなどが不揮発的
に格納されている。例えば、本実施例に係るオーサリン
グ・ツールや、該オーサリング・ツールを用いて作成・
編集したロボット用行動シーケンス・プログラム(さら
には、行動シーケンスの素となるアクション・ファイ
ル、モーション・ファイル、サウンド・ファイル、LE
D動作ファイルなど)を、HDD114上にインストー
ルすることができる。
The HDD 114 is an external storage device on which a magnetic disk as a storage carrier is fixedly mounted (well-known), and is superior to other external storage devices in terms of storage capacity, data transfer speed, and the like. Placing a software program on the HDD 116 in an executable state is called “installing” the program in the system. Usually HD
D114 stores in a non-volatile manner program codes of an operating system to be executed by the processor 511, application programs, device drivers, and the like. For example, the authoring tool according to the present embodiment, and the authoring tool
The action sequence program for the edited robot (and the action file, motion file, sound file, LE
D operation file) can be installed on the HDD 114.

【0075】また、メディア・ドライブ115は、CD
(Compact Disc)やMO(Magneto-Optical disc)、D
VD(Digital Versatile Disc)などの可搬型メディア
を装填して、データ記録面にアクセスするための装置で
ある。
The media drive 115 stores a CD
(Compact Disc), MO (Magneto-Optical disc), D
This is a device for loading a portable medium such as a VD (Digital Versatile Disc) and accessing a data recording surface.

【0076】可搬型メディアは、主として、ソフトウェ
ア・プログラムやデータ・ファイルなどをコンピュータ可
読形式のデータとしてバックアップすることや、これら
をシステム間で移動(すなわち販売・流通・配布を含む)
する目的で使用される。例えば、本実施例に係るオーサ
リング・ツールや、該オーサリング・ツールを用いて作
成したロボット用行動シーケンス・プログラム(さらに
は、行動シーケンスとなるアクション・ファイル、モー
ション・ファイル、サウンド・ファイル、LED動作ファ
イル)などを、これら可搬型メディアを利用して機器間
で物理的に流通・配布することができる。
The portable media mainly backs up software programs, data files, and the like as computer-readable data, and transfers them between systems (that is, includes sales, distribution, and distribution).
Used for the purpose. For example, the authoring tool according to the present embodiment, an action sequence program for a robot created by using the authoring tool (an action file, a motion file, a sound file, and an LED action file serving as an action sequence) ) Can be physically distributed and distributed between devices using these portable media.

【0077】なお、図4に示すようなホスト・コンピュ
ータ100の一例は、米IBM社のパーソナル・コンピ
ュータ"PC/AT(Personal Computer/Advanced Tech
nology)"の互換機又は後継機である。勿論、他のアー
キテクチャを備えた計算機システムを、本実施形態に係
るホスト・コンピュータ100として適用することも可
能である。
An example of the host computer 100 as shown in FIG. 4 is a personal computer "PC / AT" (Personal Computer / Advanced Tech) of IBM Corporation.
or a successor to “nology”. Of course, a computer system having another architecture can be applied as the host computer 100 according to the present embodiment.

【0078】B.オーサリング・システムの構成 本実施例では、ロボット1の所定の動作パターンを記述
する一連のコマンド/データからなる動作制御プログラ
ムを、ホスト・コンピュータ100上で起動したオーサ
リング・ツールを用いて作成・編集することができる。
また、このオーサリング・ツールを用いて作成・編集し
た動作制御プログラムを、例えばbluetooth
や.11Bなどの無線通信手段を用いてロボット1側に
転送して、ホスト・コンピュータ100とロボット1と
の協働的動作によりデバッグ処理を行うようになってい
る。すなわち、ホスト・コンピュータ100とロボット
1間の有機的な結合により、移動ロボット1の動作制御
プログラムの作成・編集を支援するためのオーサリング
・システムが構築されている訳である。
B. Configuration of Authoring System In the present embodiment, an operation control program including a series of commands / data describing a predetermined operation pattern of the robot 1 is created and edited using an authoring tool started on the host computer 100. be able to.
Also, an operation control program created and edited using the authoring tool can be copied to, for example, Bluetooth.
And. The data is transferred to the robot 1 using a wireless communication means such as 11B, and debug processing is performed by a cooperative operation between the host computer 100 and the robot 1. That is, the authoring system for supporting the creation / editing of the operation control program of the mobile robot 1 is constructed by the organic connection between the host computer 100 and the robot 1.

【0079】図5には、オーサリング・システムの全体
構成を模式的に図解している。
FIG. 5 schematically illustrates the entire configuration of the authoring system.

【0080】ホスト・コンピュータ100側では、ユー
ザは、オーサリング・ツールが提供するGUI(Graphi
cal User Interface)画面を用いてマウス操作により移
動ロボット1の規定の行動シーケンスを作成・編集する
ことができる(但し、行動シーケンス作成用のGUI画
面並びに該GUI画面上での編集操作の詳細については
後述に譲る)。あるいは、ユーザは、通常のテキスト・
エディタなどを用いて、スクリプト形式(例えばC言語
などの高級言語形式)でロボット1の動作制御プログラ
ムを作成・編集することができる。
On the host computer 100 side, the user operates a GUI (Graphic) provided by the authoring tool.
The user can create and edit a prescribed action sequence of the mobile robot 1 by operating a mouse using a cal user interface (however, a GUI screen for creating an action sequence and details of an editing operation on the GUI screen are described below). Will be described later). Alternatively, the user can
Using an editor or the like, an operation control program of the robot 1 can be created and edited in a script format (for example, a high-level language format such as C language).

【0081】オーサリング・ツールは、ユーザがGUI
画面上で作成・編集した行動シーケンスや、テキスト・
エディタ上で作成・編集したスクリプト形式の動作制御
プログラムを、"RCODE"と呼ばれるアセンブラに類
似する形式のニーモニック・コードに変換する。
The authoring tool allows the user to use a GUI
Action sequences created and edited on the screen, text
The script-based operation control program created and edited on the editor is converted into a mnemonic code called "RCODE" in a format similar to an assembler.

【0082】ここで言うRCODEとは、簡単なコマン
ドを用いてロボット1を制御するように策定されたプロ
グラム言語である。RCODEは、"IF"や"GO"など
の基本的な制御構造も備えているので、ロボット制御用
最低水準スクリプト言語としても使用することができ
る。
The RCODE mentioned here is a programming language designed to control the robot 1 using simple commands. Since RCODE also has a basic control structure such as "IF" or "GO", it can be used as a minimum level script language for robot control.

【0083】ホスト・コンピュータ100上で作成・編
集されたRCODE動作制御プログラムは、例えば、メ
モリ・スティックなどのメディアを利用してロボット1
側に移動することができる。また、RCODE動作制御
プログラムのデバッグ時には、RCODEプログラムを
1行ごとに取り出して、暗号化して、bluetoot
hや.11Bなどの無線通信手段を利用してロボット1
側に逐次転送するようになっている。
The RCODE operation control program created / edited on the host computer 100 is stored in the robot 1 using a medium such as a memory stick.
Can move to the side. Also, when debugging the RCODE operation control program, the RCODE program is extracted line by line, encrypted, and
h and. Robot 1 using wireless communication means such as 11B
Side.

【0084】他方、ロボット1側では、RCODEなど
で記述された動作制御プログラムの実行及びデバッグ環
境として、インタープリタ/デバッガと、ミドルウェア
と、ドライバと、オペレーティング・システム(OS)
とを備えている。
On the other hand, on the robot 1 side, an interpreter / debugger, middleware, a driver, and an operating system (OS) are used as an environment for executing and debugging an operation control program described in RCODE or the like.
And

【0085】インタープリタは、RCODE形式で記述
されたプログラムを1行ずつ読み込んで解釈して実行す
る高水準言語プログラムである。但し、デバッグ時など
において、ホスト・コンピュータ100側から暗号化さ
れた形式でRCODEプログラムが送信される場合に
は、インタープリタは、これを一旦復号化してから解釈
・実行を行う必要がある。
The interpreter is a high-level language program that reads, interprets, and executes a program described in the RCODE format line by line. However, when the RCODE program is transmitted from the host computer 100 in an encrypted format at the time of debugging or the like, the interpreter needs to decrypt the RCODE program once and then interpret and execute it.

【0086】デバッガは、RCODEプログラム中の誤
り(バグ)を発見して、修正する作業を支援するプログ
ラムである。すなわち、デバッガによれば、プログラム
を指定した行で実行を止めたり、そのときのメモリや変
数の内容を参照することができる。
[0086] The debugger is a program that assists in finding and correcting an error (bug) in the RCODE program. That is, according to the debugger, execution of the program can be stopped at the specified line, and the contents of the memory and variables at that time can be referred to.

【0087】ミドルウェアは、ロボット1の基本的な機
能を提供するソフトウェア・モジュールの集まりであ
り、各モジュールの構成はロボット1の機械的・電気的
な特性や仕様、形状などハードウェア属性の影響を受け
る。ミドルウェアは、機能的に、認識系のミドルウェア
と出力系のミドルウェアに大別される。
The middleware is a group of software modules that provide basic functions of the robot 1. The configuration of each module is influenced by hardware attributes such as mechanical and electrical characteristics, specifications, and shape of the robot 1. receive. Middleware is functionally classified into middleware for recognition and middleware for output.

【0088】認識系のミドルウェアは、画像データや音
声データ、その他のセンサから得られる検出データな
ど、ハードウェアからの生データを仮想ロボット経由で
受け取ってこれらを処理するエンジンである。すなわ
ち、各種入力情報に基づき、音声認識、距離検出、姿勢
検出、接触、動き検出、色認識などの処理を行い、認識
結果を得る。認識結果は、上位のアプリケーション層
(行動シーケンス・プログラム)に通知される。
The recognition middleware is an engine that receives raw data from hardware, such as image data, audio data, and other detection data obtained from sensors, via a virtual robot and processes them. That is, based on various types of input information, processes such as voice recognition, distance detection, posture detection, contact, motion detection, and color recognition are performed, and a recognition result is obtained. The recognition result is notified to an upper application layer (behavior sequence program).

【0089】一方、出力系のミドルウェアでは、歩行、
動きの再生、出力音の合成、LEDインジケータの点滅
制御などの機能を提供する。すなわち、アプリケーショ
ン層において立案された行動計画を受け取って、ロボッ
ト1の各機能毎にロボットの各ジョイントのサーボ指令
値や出力音、出力光(LED)、出力音声などを生成し
て、ロボット1上で実演する。
On the other hand, in the output middleware, walking,
It provides functions such as motion reproduction, output sound synthesis, and LED indicator blink control. That is, the robot receives the action plan drafted in the application layer, generates a servo command value of each joint of the robot, an output sound, an output light (LED), an output sound, and the like for each function of the robot 1, and generates Demonstration at

【0090】ドライバは、各関節アクチュエータやその
他のハードウェアの操作を行うためのプログラム・コー
ドである。
The driver is a program code for operating each joint actuator and other hardware.

【0091】本実施例では、ミドルウェア並びにドライ
バは、オブジェクト指向プログラムによって実装されて
いる。オブジェクト指向に基づくソフトウェアは、基本
的に、データとそのデータに対する処理手続きとを一体
化させた「オブジェクト」というモジュール単位で扱わ
れる。また、必要に応じて複数のオブジェクトを作成し
たり組み合わせることで1つのソフトウェアが完成す
る。一般に、オブジェクト指向プログラミングによれ
ば、ソフトウェアの開発と保守が効率化されると考えら
れている。
In this embodiment, the middleware and the driver are implemented by an object-oriented program. Software based on object orientation is basically handled in units of modules called "objects" that integrate data and processing procedures for the data. One software is completed by creating and combining a plurality of objects as needed. It is generally thought that object-oriented programming makes software development and maintenance more efficient.

【0092】オペレーティング・システム(OS)は、
これらオブジェクト間のデータ通信の管理や、その他の
プログラム実行に関する制御を行う。OSもオブジェク
ト指向プログラムにより実装される。
The operating system (OS) is
It manages data communication between these objects and controls other programs. The OS is also implemented by an object-oriented program.

【0093】C.オーサリング・ツールを用いたロボッ
ト用動作プログラムの作成・編集 本実施例に係るオーサリング・ツールを用いて作成され
た動作シナリオは、「ビヘイビア」の作成・編集と、
「アクション」の作成・編集とで成り立つ。ビヘイビア
やアクションを制作するために必要となる情報は、「プ
ロジェクト」と呼ばれるファイルにまとめて管理され
る。
C. Robots using authoring tools
Creating and editing operation programs for operation The operation scenario created using the authoring tool according to the present embodiment includes creation and editing of “behaviors”,
It consists of creating and editing "actions". The information needed to create behaviors and actions is managed in a file called a "project."

【0094】アクションは、時間軸上で同期がとられた
モーション・ファイルとサウンド・ファイルとLED動
作ファイルという各コンテンツを統合することによって
構成される。1つのアクション・ファイルは、概ね10
秒程度で再生されるコマンド(「セマンティックス」と
も呼ぶ)である。
The action is configured by integrating the contents of the motion file, the sound file, and the LED operation file synchronized on the time axis. One action file is roughly 10
This is a command (also called "semantics") reproduced in about a second.

【0095】モーション・ファイルは、移動ロボット1
の各関節アクチュエータの動作を規定するファイルであ
る。本実施例では、GUI編集画面上で、移動ロボット
1に所望のポーズをとらせた様子を描写した2以上のキ
ーフレームを時系列的に配置することによって、モーシ
ョンを規定することができる(後述)。
The motion file is stored in the mobile robot 1
Is a file that specifies the operation of each joint actuator. In the present embodiment, a motion can be defined by arranging two or more key frames depicting a state in which the mobile robot 1 takes a desired pose on the GUI editing screen in a time-series manner (described later). ).

【0096】サウンド・ファイルは、スピーカ17を介
して音声出力するための音響データであり、例えばMI
DI(Musical Instrumental Digital Interface)やW
AVE形式のファイルとして構成される。例えば、MI
DI形式で記述された音響ファイルは、音そのものの情
報としてではなく、大きさ、長さ、音色や効果といった
演奏情報を数値データに変換して音楽を表現することが
できる。本実施例では、GUI編集画面を介して、音響
を構成するMIDI形式の各数値データを操作すること
によって演奏情報を編集することができる(後述)。
The sound file is sound data for outputting sound through the speaker 17, and is, for example, MI file.
DI (Musical Instrumental Digital Interface) and W
It is configured as an AVE format file. For example, MI
The sound file described in the DI format can express music by converting performance information such as a size, a length, a timbre and an effect into numerical data, not as information of a sound itself. In the present embodiment, the performance information can be edited by operating each numerical data in the MIDI format constituting the sound via the GUI editing screen (described later).

【0097】LED動作ファイルは、複数のLEDイン
ジケータ19の点灯動作の組み合わせや点滅のタイミン
グを規定するためのデータであり、顔の表情を形成する
ことを目的として利用される。本実施例では、LED動
作ファイルはMIDI形式で記述され、GUI編集画面
を介してLED動作ファイルを自在に編集することがで
きる(後述)。
The LED operation file is data for defining a combination of lighting operations of the plurality of LED indicators 19 and timing of blinking, and is used for forming a facial expression. In this embodiment, the LED operation file is described in the MIDI format, and the LED operation file can be freely edited via the GUI editing screen (described later).

【0098】本実施例では、後述するように、GUI形
式のアクション編集画面上でタイムラインを利用するこ
とによって、モーション、サウンド、LED動作などの各
コンテンツ間の同期を用意にとることができるアクショ
ン編集のための作業環境が提供される。また、各コンテ
ンツを個々のデータとして処理することができる他、他
のコンテンツと統合した形式すなわちアクションの形式
としても取り扱うことができる。
In this embodiment, as will be described later, by using a timeline on an action editing screen in a GUI format, an action which can easily synchronize each content such as motion, sound, LED operation, etc. A working environment for editing is provided. In addition, each content can be processed as individual data, and can also be handled as a form integrated with other contents, that is, an action form.

【0099】「ビヘイビア」とは、2以上のコマンドす
なわちアクションを並べていくことにより構成される、
移動ロボット1の振る舞いを規定するファイルである
(図6を参照のこと)。アクションはスタートからエン
ドまで一方向で再生される。これに対して、ビヘイビア
は、アクションを再生する順序を規定することができ
る。さらに、条件や確率に基づいた分岐や(図7を参照
のこと)、複数のコマンドすなわちアクションをボック
ス化してサブルーチンを定義することができる(図8を
参照のこと)。したがって、ビヘイビアは、アクション
に比し、移動ロボット1のより高度で複雑な行動シーケ
ンスを記述することができる。
"Behavior" is constituted by arranging two or more commands, that is, actions.
This is a file that defines the behavior of the mobile robot 1 (see FIG. 6). Actions are played in one direction from start to end. In contrast, behaviors can define the order in which actions are played. In addition, subroutines can be defined by branching based on conditions or probabilities (see FIG. 7), and by boxing a plurality of commands or actions (see FIG. 8). Therefore, the behavior can describe a more sophisticated and complicated action sequence of the mobile robot 1 than the action.

【0100】プロジェクトは、移動ロボット1のコンフ
ィギュレーション(CPC:Configured Peripheral Co
mponent)と、オーサリング・システム上で制作される
ビヘイビア・ファイル及びアクション・ファイルの参照
リストを保持する。また、プロジェクトは、アクション
・ファイルを制作するために必要な素材(コンテンツ)
・ファイル(すなわち、モーション、サウンド、LED
動作)の参照リストも保持する。ここで言うコンフィギ
ュレーションとは、胴体、頭部、脚部などのロボット1
の物理コンポーネントの組み合わせからなるハードウェ
ア構成情報が設定されている。
The project is a configuration of the mobile robot 1 (CPC: Configured Peripheral Co.).
mponent) and a reference list of behavior files and action files created on the authoring system. In addition, the project consists of the materials (contents) required to produce the action file.
File (ie motion, sound, LED)
The reference list of the operation is also held. The configuration referred to here is the robot 1 such as the torso, head, and legs.
Hardware configuration information that is a combination of the physical components described above.

【0101】プロジェクト編集時には、図34に示すよ
うな「プロジェクト・ウィンドウ」が表示される。図示
の通り、プロジェクト・ウィンドウ内には、ビヘイビア
の編集並びにアクションの編集に使用される、ビヘイビ
ア・ファイル、アクション・ファイル、モーション・フ
ァイル、サウンド・ファイル、LED動作ファイルなど
の各ファイルのリストがツリー形式で表示されるように
なっている。
At the time of project editing, a “project window” as shown in FIG. 34 is displayed. As shown in the figure, the project window contains a list of files such as behavior files, action files, motion files, sound files, and LED operation files that are used for editing behaviors and actions. It is displayed in the format.

【0102】本実施例に係るオーサリング・システム
は、機能的には、モーション、サウンド、LED動作な
どの各コンテンツからなるコマンドすなわちアクション
を編集する「アクション編集サブシステム」と、2以上
のコマンドすなわちアクションを並べていくことにより
ロボットのビヘイビアを編集する「ビヘイビア編集サブ
システム」とで構成される。
Functionally, the authoring system according to the present embodiment has an “action editing subsystem” for editing a command, ie, an action composed of each content such as motion, sound, LED operation, etc., and two or more commands, ie, actions. And a "behavior editing subsystem" that edits the behavior of the robot.

【0103】C−1.アクション編集サブシステム アクション編集サブシステムは、ロボットの行動シーケ
ンスすなわちビヘイビアで使用される個々のアクション
を作成・編集するためのサブシステムである。
C-1. Action Editing Subsystem The action editing subsystem is a subsystem for creating and editing individual actions used in a robot action sequence, that is, a behavior.

【0104】アクションは、アクションを実行するため
の時間的な長さを持ち、初期ポーズと最終ポーズを規定
する。実行時間内でのロボットの動き(モーション)
と、サウンドと、LED動作などを設定により、アクシ
ョンが構成される。アクションを規定するファイルのこ
とを「アクション・ファイル」と呼ぶ。アクションが使
用するモーション、サウンド、LED動作などのコンテ
ンツはファイル外からの読み込みでもよい。
The action has a time length for executing the action, and defines an initial pose and a final pose. The motion of the robot within the execution time (motion)
, Sound, LED operation and the like constitute an action. A file that defines an action is called an “action file”. Content such as motion, sound, and LED operation used by the action may be read from outside the file.

【0105】後述するように、本実施例におけるアクシ
ョン編集は時間軸上に従った編集を中心としたグラフィ
カルなユーザ・インターフェース、すなわち「アクショ
ン・エディタ」を採用する。アクション編集の中で、モ
ーションを規定するポーズの3D編集、サウンド、LE
D動作など各コンテンツの編集を行う。これらのコンテ
ンツは時系列データであり、アクション編集サブシステ
ムは、各コンテンツを表示するチャンネルを2次元的な
タイムライン形式のタイム・テーブル上で時間軸に沿っ
て配置して表示するようにしているので、各時系列デー
タ間での同期を視覚的に確認しながら作成・編集するこ
とができる。
As will be described later, the action editing in this embodiment employs a graphical user interface centering on editing along the time axis, that is, an “action editor”. In action editing, 3D editing of poses that define motion, sound, LE
Edit each content such as D operation. These contents are time-series data, and the action editing subsystem arranges and displays channels for displaying each content along a time axis on a two-dimensional timeline format time table. Therefore, it is possible to create and edit the data while visually confirming the synchronization between the respective time-series data.

【0106】図9には、アクション編集サブシステムの
機能構成を模式的に示している。同図に示すように、本
実施例に係るアクション編集サブシステムは、特にアク
ションの編集向けにデザインされたものであり、アクシ
ョン編集部と、キーフレーム編集部と、モーション編集
部と、サウンド編集部と、LED動作編集部と、これら
各機能モジュールによるユーザの編集作業をGUI画面
による対話形式で実現するユーザ・インターフェース制
御部とで構成される。
FIG. 9 schematically shows the functional configuration of the action editing subsystem. As shown in the figure, the action editing subsystem according to the present embodiment is specifically designed for editing an action, and includes an action editing unit, a key frame editing unit, a motion editing unit, and a sound editing unit. , An LED operation editing unit, and a user interface control unit for realizing a user's editing work using these functional modules in an interactive manner on a GUI screen.

【0107】アクション編集部は、モーション・ファイ
ルとサウンド・ファイルとLED動作ファイルとを時間
軸上で同期がとられる形式で編集を行うための機能モジ
ュールである。アクション編集部は、ユーザ・インター
フェース制御部を介して、移動ロボット1の時間軸に沿
った関節動作(モーション)と、サウンド及びLED動
作のタイミングを設定するためのアクション編集ウィン
ドウをユーザに提示する。アクション編集ウィンドウ
は、各種のファイルを時間軸上で設定するためのタイム
ライン形式のテーブルからなる編集領域を備えている。
The action editing unit is a functional module for editing a motion file, a sound file, and an LED operation file in a format synchronized on a time axis. The action editing unit presents to the user, via the user interface control unit, an action editing window for setting the joint motion (motion) of the mobile robot 1 along the time axis and the timing of the sound and the LED operation. The action editing window has an editing area including a table in a timeline format for setting various files on a time axis.

【0108】キーフレーム編集部は、キーフレーム、す
なわちモーションを実行する移動ロボットの該当する時
刻におけるポーズを描写した画像フレームを編集するた
めの機能モジュールである。キーフレーム編集部は、ア
クション編集部に対するユーザ操作に応答して呼び出さ
れ、アクション編集ウィンドウ上で開かれるキーフレー
ム・チャンネルを介してユーザによる編集作業を受容す
る。キーフレーム・チャンネルでは、時間軸上の該当す
る各場所にキーフレームを表すサムネイルが置かれる。
The key frame editing unit is a functional module for editing a key frame, that is, an image frame depicting a pose of a mobile robot executing a motion at a corresponding time. The key frame editing unit is called in response to a user operation on the action editing unit, and receives a user's editing work via a key frame channel opened on the action editing window. In the key frame channel, thumbnails representing key frames are placed at corresponding locations on the time axis.

【0109】モーション編集部は、モーションすなわち
移動ロボットを構成する各関節アクチュエータの時系列
的な動作を編集するための機能モジュールである。モー
ション編集部は、アクション編集部に対するユーザ操作
に応答して呼び出され、アクション編集ウィンドウ上で
開かれるモーション・チャンネルを介してユーザによる
編集作業を受容する。モーション・チャンネルでは、各
関節アクチュエータの時系列的な動作を記述する各タイ
ミングチャートが、生体モデルに従ってツリー状にリス
トアップ(ツリー・ビュー)される。
The motion editing unit is a functional module for editing a motion, that is, a time-series operation of each joint actuator constituting the mobile robot. The motion editing unit is called in response to a user operation on the action editing unit, and receives an editing operation by the user via a motion channel opened on the action editing window. In the motion channel, each timing chart describing the time-series operation of each joint actuator is listed up (tree view) according to a biological model.

【0110】サウンド編集部は、アクションの構成要素
の1つであるサウンドの詳細を設定するための機能モジ
ュールである。本実施例では、サウンドは、MIDI形
式又はWAVE形式で扱われる。サウンド編集部は、ユ
ーザ・インターフェース制御部を介して、時間軸上に沿
ってサウンドの詳細を設定するためのサウンド詳細ウィ
ンドウをユーザに提示する。サウンド詳細ウィンドウ
は、横方向の時間軸と、縦方向のチャンネルで構成され
る2次元のタイムライン形式のテーブルからなる編集領
域を備えている(後述)。
The sound editing unit is a functional module for setting details of a sound which is one of the components of the action. In this embodiment, the sound is handled in the MIDI format or the WAVE format. The sound editing unit presents a user with a sound detail window for setting sound details along the time axis via the user interface control unit. The sound detail window has an editing area composed of a two-dimensional timeline format table including a horizontal time axis and a vertical channel (described later).

【0111】LED動作編集部は、アクションの構成要
素の1つであるLED動作の詳細を設定するための機能
モジュールである。本実施例では、LED動作は、MI
DI形式で扱われる。LED動作編集部は、ユーザ・イ
ンターフェース制御部を介して、時間軸上に沿ってLE
D動作の詳細を設定するためのLED詳細ウィンドウを
ユーザに提示する。LED詳細ウィンドウは、横方向の
時間軸と、縦方向のチャンネルで構成される2次元のタ
イムライン形式のテーブルからなる編集領域を備えてい
る(後述)。
The LED operation editing unit is a functional module for setting details of an LED operation which is one of the components of an action. In the present embodiment, the LED operation
Handled in DI format. The LED operation editing unit controls the LE along the time axis via the user interface control unit.
An LED detail window for setting details of the D operation is presented to the user. The LED detail window has an editing area consisting of a two-dimensional timeline format table composed of a horizontal time axis and a vertical channel (described later).

【0112】ユーザ・インターフェース制御部は、プロ
ジェクト編集時にはプロジェクト・ウィンドウ(前述)
をユーザに提示するようになっている。
When editing a project, the user interface control section controls the project window (described above).
Is presented to the user.

【0113】また、ユーザ・インターフェース制御部
は、各編集ウィンドウを介したユーザ指示に応答して、
ビヘイビア・ファイル、アクション・ファイル、モーショ
ン・ファイル,サウンド・ファイル、LED動作ファイル
を管理する各ファイル・システム(又はデータベース)
にアクセスできるようになっている。
The user interface control unit responds to a user instruction through each editing window,
Each file system (or database) that manages behavior files, action files, motion files, sound files, and LED operation files
Is accessible.

【0114】図10には、アクション編集ウィンドウの
構成を概略的に示している。このアクション編集ウィン
ドウ上では、移動ロボット1の時間軸に沿った関節動作
(モーション)と、サウンド及びLED動作のタイミン
グを設定することができる。該編集ウィンドウでの編集
結果は、拡張子"act"を持つアクション・ファイルとし
て保存される。
FIG. 10 schematically shows the structure of the action editing window. On this action editing window, it is possible to set the timing of the joint operation (motion) along with the time axis of the mobile robot 1 and the sound and LED operations. The result of editing in the editing window is stored as an action file having the extension “act”.

【0115】図示の通り、アクション編集ウィンドウの
編集領域は、横方向の時間軸と、縦方向のチャンネルで
構成される2次元のタイムライン形式のテーブルであ
る。タイムライン・テーブル内には、時間ルーラと、キ
ーフレーム・チャンネルと、モーション・チャンネル
と、サウンド・チャンネルと、LED動作チャンネルで
構成される。
As shown in the figure, the editing area of the action editing window is a two-dimensional timeline format table including a horizontal time axis and a vertical channel. The timeline table includes a time ruler, a key frame channel, a motion channel, a sound channel, and an LED operation channel.

【0116】時間ルーラは、単位切り替えラジオ・ボタ
ンを利用して、実時間表示とのフレーム数表示とを切り
替えることができる(図10に示す例では実時間表示が
選択されている)。実時間表示の目盛の単位は、秒:ミ
リ秒(各2桁)表示とする。
The time ruler can be switched between real time display and frame number display by using the unit switching radio button (in the example shown in FIG. 10, the real time display is selected). The unit of the scale of the real time display is a second: millisecond (each two digits) display.

【0117】時間ルーラは、単位切り替えラジオ・ボタ
ンの他に、終了時刻フィールドとカレント時刻表示フィ
ールドを含んでいる。
The time ruler includes an end time field and a current time display field in addition to the unit switching radio button.

【0118】終了時刻フィールドには、編集中のアクシ
ョンの終了時刻(すなわち動作時間)を示す時刻数値が
表示される(図示の例では"09:40"(=9秒40)が表
示されている)。また、カレント時刻表示フィールドに
は、カレント位置の時刻数値が表示される(図示の例で
は"04:60"(=4秒60)が表示されている)。これら
のフィールドは編集可能なテキスト・フィールドであ
り、意味のある時刻数字が入力されると、それが終了時
刻になって最終キーフレームが移動したり、あるいはそ
の位置にカレント時刻が移動する。
In the end time field, a time value indicating the end time (ie, operation time) of the action being edited is displayed (“09:40” (= 9 seconds 40) in the illustrated example). ). In the current time display field, a time value at the current position is displayed (“04:60” (= 4 seconds 60) is displayed in the illustrated example). These fields are editable text fields, and when a meaningful time digit is entered, it becomes the end time and the last key frame moves, or the current time moves to that position.

【0119】編集領域内では、時刻表示ラインとして、
「キーフレーム・ライン」と、「最終時刻表示ライン」
と、「カレント時刻ライン」がそれぞれ表示される。
In the editing area, as a time display line,
"Key frame line" and "Last time display line"
And "current time line" are displayed.

【0120】各キーフレームの時刻を示すキーフレーム
・ラインが、各チャンネル上を交差する形で表示される
ようにしている。したがって、ユーザは、モーション、
サウンド、LED動作という各コンテンツの間での同期
を目視で確認しながら編集作業を行うことができる。
A key frame line indicating the time of each key frame is displayed so as to cross each channel. Thus, the user has motion,
The editing operation can be performed while visually checking the synchronization between the contents such as sound and LED operation.

【0121】また、編集中のアクションの終了時刻を示
す終了時刻ラインが各チャンネル上を交差する形で表示
するようにしているので、ユーザは編集対象となる時間
の範囲を視覚的に理解することができる。終了時刻ライ
ンを最終ポーズ・キーフレーム・ラインととらえることも
できる。
Further, since the end time line indicating the end time of the action being edited is displayed so as to cross each channel, the user can visually understand the range of time to be edited. Can be. The end time line can be regarded as the last pause key frame line.

【0122】また、現在時刻を示すカレント時刻ライン
が各チャンネル上を交差する形で表示するようにしてい
る。基本的に、いずれかのチャンネルの上をクリックす
ると、その位置にカレント時刻が移動する。
The current time line indicating the current time is displayed so as to cross each channel. Basically, clicking on any channel will move the current time to that position.

【0123】キーフレーム・チャンネルは、時間ルーラ
が規定する時間軸に従ってキーフレームを表示するため
の領域である。
A key frame channel is an area for displaying a key frame according to a time axis defined by a time ruler.

【0124】図10に示す例では、キーフレーム・チャ
ンネルは、開閉操作可能である。図11には、キーフレ
ーム・チャンネルを開いた状態(キーフレーム詳細チャ
ンネル)のアクション編集ウィンドウを示している。キ
ーフレーム・チャンネルでは、時間軸上の該当する各場
所にキーフレームを表すサムネイルが置かれる。ここで
言う「キーフレーム」とは、モーションを実行する移動
ロボットの該当する時刻におけるポーズを描写した画像
フレームのことである。
In the example shown in FIG. 10, the key frame channel can be opened and closed. FIG. 11 shows an action editing window in a state where the key frame channel is opened (key frame detail channel). In the key frame channel, thumbnails representing key frames are placed at corresponding locations on the time axis. Here, the “key frame” is an image frame depicting a pose of a mobile robot executing a motion at a corresponding time.

【0125】初期ポーズと最終ポーズは、それぞれキー
フレーム・チャンネルの初めと終わりに位置する特別な
キーフレームである。最初と最後のキーフレームはあら
かじめ置かれている。
The initial and final poses are special keyframes located at the beginning and end of the keyframe channel, respectively. The first and last keyframes are pre-positioned.

【0126】キーフレーム・チャンネル上で、キーフレ
ームが配置されていない時間では、この時間を挟む両端
のキーフレームによって補間されるフレーム(以下で
は、「補間フレーム」とも言う)が再生されることにな
る。補間フレームはキーフレーム上では表示されない。
本実施例に係るオーサリング・システムでは、キーフレ
ーム・チャンネル上に各キーフレームを配置すると、各
キーフレームで記述されたポーズを円滑につなぎ合わせ
るようなモーションが、コンピュータ処理により自動生
成される。また、3Dモデルの重心を各キーフレームで
設定して、3Dモデルの見た目上の動きを実機に近いも
のにすることができる。
At a time when no key frame is arranged on the key frame channel, a frame (hereinafter, also referred to as an “interpolated frame”) interpolated by the key frames at both ends sandwiching this time is reproduced. Become. Interpolated frames are not displayed on key frames.
In the authoring system according to the present embodiment, when each key frame is arranged on a key frame channel, a motion that smoothly connects poses described in each key frame is automatically generated by computer processing. Also, by setting the center of gravity of the 3D model at each key frame, the apparent movement of the 3D model can be made closer to that of the actual machine.

【0127】各キーフレームは、サムネイルの左端がキ
ーフレームの時刻となるように、キーフレーム・チャン
ネル上に配置される。また、サムネイルを時間軸に沿っ
て左右にドラッグすることで、キーフレームラインが追
従して移動し、該当するキーフレームの時刻を変更する
ことができる。また、最終ポーズのキーフレームの伸縮
は、アクションの全体時間の伸縮となる。
Each key frame is arranged on a key frame channel such that the left end of the thumbnail is the time of the key frame. Also, by dragging the thumbnail to the left or right along the time axis, the key frame line moves following and the time of the corresponding key frame can be changed. In addition, expansion and contraction of the key frame of the final pose is expansion and contraction of the entire action time.

【0128】サムネイルをダブル・クリックすると、該
当するポーズのポーズ編集ウィンドウが開いて、ポーズ
を編集することができる。但し、初期ポーズと最終ポー
ズは編集対象外であり、これらをダブルクリックしても
ポーズ編集ウィンドウは開かない。
When the thumbnail is double-clicked, a pose editing window for the corresponding pose is opened, and the pose can be edited. However, the initial pose and the final pose are not to be edited, and double-clicking them does not open the pose editing window.

【0129】モーション・チャンネルは、時間ルーラが
規定する時間軸に沿ってモーションの内容を編集・表示
するための領域である。
The motion channel is an area for editing and displaying the contents of motion along a time axis defined by a time ruler.

【0130】本実施例では、モーション・チャンネル
は、開閉操作可能である。図12には、モーション・チ
ャンネルを開いた状態(モーション詳細チャンネル)の
アクション編集ウィンドウを示している。モーション
は、移動ロボット1を構成する各関節アクチュエータの
動作によって定義される。モーション・チャンネルで
は、各関節アクチュエータの時系列的な動作を記述する
各タイミングチャートが、生体モデルに従ってツリー状
にリストアップ(ツリー・ビュー)される。
In this embodiment, the motion channel can be opened and closed. FIG. 12 shows an action editing window with the motion channel opened (motion detail channel). The motion is defined by the operation of each joint actuator constituting the mobile robot 1. In the motion channel, each timing chart describing the time-series operation of each joint actuator is listed up (tree view) according to a biological model.

【0131】それぞれのタイミングチャート上の折れ線
グラフは、該当する関節アクチュエータの動きすなわち
回転角度の時間的変化を示している。キーフレーム・ラ
インと折れ線との交差するポイントを上下にドラッグす
ることによって、該当する関節アクチュエータの当該時
間における設定値を変更することができる。また、この
ようなドラッグ操作の結果、キーフレーム・ラインに該
当するポーズも変化し、キーフレームの内容も自動更新
される。
The line graphs on the respective timing charts show the movement of the corresponding joint actuator, that is, the temporal change of the rotation angle. By dragging the point where the key frame line intersects with the polygonal line up and down, the set value of the corresponding joint actuator at the time can be changed. As a result of such a drag operation, the pose corresponding to the key frame line also changes, and the content of the key frame is automatically updated.

【0132】サウンド・チャンネルは、時間ルーラが規
定する時間軸に沿ってサウンド・データを表示するため
の領域である。本実施例では、アクション編集ウィンド
ウからは独立した「サウンド詳細ウィンドウ」を開い
て、該ウィンドウ上でMIDI形式のサウンド・データ
をGUI操作によって編集することができる。
A sound channel is an area for displaying sound data along a time axis defined by a time ruler. In the present embodiment, a "sound detail window" independent of the action editing window is opened, and MIDI-format sound data can be edited on the window by GUI operation.

【0133】LED動作チャンネルは、時間ルーラが規
定する時間軸に沿ってLED動作データを表示するため
の領域である。本実施例では、アクション編集ウィンド
ウからは独立した「LED詳細ウィンドウ」を開いて、
該ウィンドウ上でMIDI形式のLED動作データをG
UI操作で編集することができる。
The LED operation channel is an area for displaying LED operation data along a time axis defined by a time ruler. In this embodiment, an “LED detail window” independent of the action editing window is opened,
In the window, the LED operation data in MIDI format
It can be edited by UI operation.

【0134】図13には、MIDI形式のサウンド・フ
ァイルを編集するためのサウンド詳細ウィンドウの構成
を概略的に示している。図示の通り、このサウンド詳細
ウィンドウの編集領域は、横方向の時間軸と、縦方向の
チャンネルで構成される2次元のタイムライン形式のテ
ーブルである。タイムライン・テーブル内は、時間ルー
ラと、キーフレーム・チャンネルと、スコア・チャンネ
ルと、ベロシティ・チャンネルとで構成される。
FIG. 13 schematically shows the structure of a sound detail window for editing a MIDI sound file. As shown in the figure, the editing area of the sound detail window is a two-dimensional timeline format table including a horizontal time axis and a vertical channel. The timeline table includes a time ruler, a key frame channel, a score channel, and a velocity channel.

【0135】時間ルーラは、単位切り替えラジオ・ボタ
ンを利用して、実時間表示とのフレーム数表示とを切り
替えることができる(図13に示す例では実時間表示が
選択されている)。時間ルーラには、単位切り替えラジ
オ・ボタンの他に、終了時刻フィールドとカレント時刻
表示フィールドを含んでいる。終了時刻フィールドに
は、編集中のアクションの終了時刻を示す時刻数値が表
示され、カレント時刻表示フィールドには、カレント位
置の時刻数値が表示される。これらのフィールドに意味
のある時刻数字が入力されると、それが終了時刻になっ
て最終キーフレームが移動したり、あるいはその位置に
カレント時刻が移動する。
The time ruler can be switched between a real time display and a frame number display by using a unit switching radio button (the real time display is selected in the example shown in FIG. 13). The time ruler includes an end time field and a current time display field in addition to a unit switching radio button. The end time field displays a time value indicating the end time of the action being edited, and the current time display field displays the time value at the current position. When a meaningful time numeral is entered in these fields, it becomes the end time, and the last key frame moves, or the current time moves to that position.

【0136】編集領域内では、時刻表示ラインとして、
「キーフレーム・ライン」と、「最終時刻表示ライン」
と、「カレント時刻ライン」がそれぞれ表示される。各
キーフレーム(後述)の時刻を示すキーフレーム・ライ
ンが、各チャンネル上を交差する形で表示されており、
ユーザは、キーフレームとの同期を目視で確認しながら
MIDIサウンドの編集作業を行うことができる。ま
た、編集中のアクションの終了時刻を示す終了時刻ライ
ンが各チャンネル上を交差する形で表示するようにして
いるので、ユーザは編集対象となる時間の範囲を視覚的
に理解することができる。また、現在時刻を示すカレン
ト時刻ラインが各チャンネル上を交差する形で表示する
ようにしている。基本的に、いずれかのチャンネルの上
をクリックすると、その位置にカレント時刻が移動す
る。
In the editing area, as a time display line,
"Key frame line" and "Last time display line"
And "current time line" are displayed. Key frame lines indicating the time of each key frame (described later) are displayed crossing over each channel,
The user can edit the MIDI sound while visually checking the synchronization with the key frame. In addition, since the end time line indicating the end time of the action being edited is displayed so as to intersect each channel, the user can visually understand the range of time to be edited. In addition, the current time line indicating the current time is displayed so as to cross each channel. Basically, clicking on any channel will move the current time to that position.

【0137】キーフレーム・チャンネルでは、時間ルー
ラが規定する時間軸に沿ってアクション編集ウィンドウ
から取得したキーフレーム位置が表示される。
In the key frame channel, the key frame position obtained from the action editing window is displayed along the time axis defined by the time ruler.

【0138】スコア・チャンネルは、GUI操作によっ
てMIDIサウンドを編集するための領域であり、ピア
ノ鍵盤(但し、移動ロボット1のモデルによってその有
効音域は相違する)と、時間軸方向の基本グリッドによ
って構成される。
The score channel is an area for editing MIDI sound by GUI operation, and is composed of a piano keyboard (the effective range of which differs depending on the model of the mobile robot 1) and a basic grid in the time axis direction. Is done.

【0139】ピアノ鍵盤では、ピアノ鍵盤のイメージ表
示により移動ロボット1のハードウェア仕様などで許容
される最大音域を表示するようになっている(あるい
は、再生可能な音域を明るく表示し、それ以外をグレー
表示するようにしてもよい)。基本となるCキー部分に
は、C3、C4などの絶対音の高さを表示する
In the piano keyboard, the maximum range allowed by the hardware specifications of the mobile robot 1 is displayed by displaying the image of the piano keyboard (or the reproducible range is displayed brightly, and the rest is displayed brightly). It may be displayed in gray). In the basic C key portion, the absolute pitch of C3, C4, etc. is displayed.

【0140】スコア部分には、設定された四分音符の時
間幅のグリッドが表示される。また、拍子で設定された
値(前述)によって、2グリッド(すなわち2拍子)、
3グリッド(3拍子)、4グリッド(4拍子)のライン
が強調される。
In the score portion, a grid of the set quarter note time width is displayed. Also, depending on the value set in time signature (described above), two grids (that is, two time signatures),
Lines of 3 grids (3 beats) and 4 grids (4 beats) are emphasized.

【0141】スコア・チャンネル上には、時間軸の基準
となる音長と、ピアノ・キーの高さによってスコアが構
成される。1つの桝目を「セル」と呼ぶ。音のあるセル
には色が付く。但し、一音のみの再生モデルの場合、同
じ時間軸上の異なる音階には音は置けない。また、空の
(すなわち色が付いていない)セルをクリックすると、
選択されている音符マークの長さの音が置かれる。同一
時間上の他の高さに音が存在するとき、音はクリックさ
れた高さに置き換わる。既に音が存在するセルがクリッ
クされると、その音が除かれる。
On the score channel, a score is constituted by a reference pitch on the time axis and a pitch of a piano key. One cell is called a “cell”. Cells with sound are colored. However, in the case of a reproduction model of only one sound, no sound can be placed on different scales on the same time axis. If you click on an empty (ie uncolored) cell,
A note with the length of the selected note mark is placed. When a sound is present at another height at the same time, the sound will be replaced by the clicked height. Clicking on a cell that already has a sound will remove that sound.

【0142】ピアノ鍵盤の左側の領域に、16分音符、
八分音符、四分音符、二分音符、全音符、付点八分音
符、付点四分音符、付点二分音符などの音符マークを表
示しておく。これら音符マークは互いに排他的な選択状
態を持ち、常にいずれか1つのみが選択されるものとす
る。また、マウス・クリック操作により選択アイテムが
変化する。
A sixteenth note,
Note marks such as eighth note, quarter note, half note, whole note, dotted eighth note, dotted quarter note, dotted half note, etc. are displayed. These note marks have mutually exclusive selection states, and only one of them is always selected. Also, the selected item changes by a mouse click operation.

【0143】ベロシティ・チャンネルは、各音毎のベロ
シティの強さを表示する領域である。図13に示す例で
は、音の強さは棒グラフで表示されるが、折れ線グラフ
で表示してもよい。各節点での音の強さは、棒グラフの
最上端をドラッグすることによった調整することができ
る。デフォルトでは最大音量が設定されている。
The velocity channel is an area for displaying the intensity of velocity for each sound. In the example shown in FIG. 13, the sound intensity is displayed as a bar graph, but may be displayed as a line graph. The intensity of the sound at each node can be adjusted by dragging the top edge of the bar graph. By default, the maximum volume is set.

【0144】また、図14には、WAVE形式のサウン
ド・ファイルを表示するためのサウンド詳細ウィンドウ
の構成を概略的に示している。図示の通り、サウンド詳
細ウィンドウは、タイトル・バーと、メニュー・バー
と、WAVE形式サウンド・ファイルの編集領域は、横
方向の時間軸と、縦方向のチャンネルで構成される2次
元のタイムライン形式のテーブルである。タイムライン
・テーブル内は、時間ルーラと、キーフレーム・チャン
ネルと、WAVEチャンネルとで構成される。
FIG. 14 schematically shows the structure of a sound detail window for displaying a WAVE-format sound file. As shown in the figure, the sound details window has a title bar, a menu bar, and a WAVE format sound file editing area has a two-dimensional timeline format including a horizontal time axis and a vertical channel. It is a table. The timeline table includes a time ruler, a key frame channel, and a WAVE channel.

【0145】時間ルーラは、単位切り替えラジオ・ボタ
ンを利用して、実時間表示とのフレーム数表示とを切り
替えることができる。
The time ruler can be switched between a real time display and a frame number display using a unit switching radio button.

【0146】終了時刻フィールドには、編集中のアクシ
ョンの終了時刻(すなわち動作時間)を示す時刻数値が
表示される。また、カレント時刻表示フィールドには、
カレント位置の時刻数値が表示される。これらのフィー
ルドに意味のある時刻数字が入力されるとそれが終了時
刻になって最終キーフレームが移動したり、あるいはそ
の位置にカレント時刻が移動する。
In the end time field, a time value indicating the end time (ie, operation time) of the action being edited is displayed. In the current time display field,
The time value at the current position is displayed. When a meaningful time numeral is entered in these fields, it becomes the end time and the last key frame moves, or the current time moves to that position.

【0147】編集領域内では、時刻表示ラインとして、
「キーフレーム・ライン」と、「最終時刻表示ライン」
と、「カレント時刻ライン」がそれぞれ表示される。各
キーフレームの時刻を示すキーフレーム・ラインが、各
チャンネル上を交差する形で表示されており、ユーザ
は、キーフレームとの同期を目視で確認しながらWAV
Eサウンドの編集作業を行うことができる。また、編集
中のアクションの終了時刻を示す終了時刻ラインが各チ
ャンネル上を交差する形で表示するようにしているの
で、ユーザは編集対象となる時間の範囲を視覚的に理解
することができる。また、現在時刻を示すカレント時刻
ラインが各チャンネル上を交差する形で表示するように
している。基本的に、いずれかのチャンネルの上をクリ
ックすると、その位置にカレント時刻が移動する。
In the editing area, as a time display line,
"Key frame line" and "Last time display line"
And "current time line" are displayed. A key frame line indicating the time of each key frame is displayed so as to intersect on each channel. The user can visually check the synchronization with the key frame while watching the WAV.
E sound editing work can be performed. In addition, since the end time line indicating the end time of the action being edited is displayed so as to intersect each channel, the user can visually understand the range of time to be edited. In addition, the current time line indicating the current time is displayed so as to cross each channel. Basically, clicking on any channel will move the current time to that position.

【0148】キーフレーム・チャンネルでは、時間ルー
ラが規定する時間軸に沿ってアクション編集ウィンドウ
から取得したキーフレーム位置が表示される。
In the key frame channel, the key frame position obtained from the action editing window is displayed along the time axis defined by the time ruler.

【0149】WAVEチャンネルでは、図14に示すよ
うに、WAVE形式のサウンド・ファイルの中身が波形
として表示される。
In the WAVE channel, as shown in FIG. 14, the contents of a WAVE-format sound file are displayed as a waveform.

【0150】また、図15には、MIDI形式で記述さ
れたLED動作ファイルを表示して編集するためのLE
D詳細ウィンドウの構成を概略的に示している。図示の
通り、サウンド詳細ウィンドウの編集領域は、横方向の
時間軸と、縦方向のチャンネルで構成される2次元のタ
イムライン形式のテーブルである。タイムライン・テー
ブル内は、時間ルーラと、キーフレーム・チャンネル
と、スコア・チャンネルとで構成される。
FIG. 15 shows an LE for displaying and editing an LED operation file described in the MIDI format.
D schematically shows the configuration of a detail window. As shown in the figure, the edit area of the sound detail window is a two-dimensional timeline format table including a horizontal time axis and a vertical channel. The timeline table includes a time ruler, a key frame channel, and a score channel.

【0151】時間ルーラは、単位切り替えラジオ・ボタ
ンを利用して、実時間表示とのフレーム数表示とを切り
替えることができる。時間ルーラは、単位切り替えラジ
オ・ボタンの他に、終了時刻フィールドとカレント時刻
表示フィールドを含んでいる。終了時刻フィールドに
は、編集中のアクションの終了時刻を示す時刻数値が表
示される。また、カレント時刻表示フィールドには、カ
レント位置の時刻数値が表示される。これらのフィール
ドに意味のある時刻数字が入力されると、それが終了時
刻になって最終キーフレームが移動したり、あるいはそ
の位置にカレント時刻が移動する。
The time ruler can be switched between a real time display and a frame number display using a unit switching radio button. The time ruler includes an end time field and a current time display field in addition to a unit switching radio button. In the end time field, a time value indicating the end time of the action being edited is displayed. In the current time display field, a time value at the current position is displayed. When a meaningful time numeral is entered in these fields, it becomes the end time, and the last key frame moves, or the current time moves to that position.

【0152】編集領域内では、時刻表示ラインとして、
「キーフレーム・ライン」と、「最終時刻表示ライン」
と、「カレント時刻ライン」がそれぞれ表示される。各
キーフレームの時刻を示すキーフレーム・ラインが、各
チャンネル上を交差する形で表示されており、ユーザ
は、キーフレームとの同期を目視で確認しながらMID
I形式で記述されたLED動作の編集作業を行うことが
できる。また、編集中のアクションの終了時刻を示す終
了時刻ラインが各チャンネル上を交差する形で表示する
ようにしているので、ユーザは編集対象となる時間の範
囲を視覚的に理解することができる。また、現在時刻を
示すカレント時刻ラインが各チャンネル上を交差する形
で表示するようにしている。基本的に、いずれかのチャ
ンネルの上をクリックすると、その位置にカレント時刻
が移動する。
In the editing area, as a time display line,
"Key frame line" and "Last time display line"
And "current time line" are displayed. A key frame line indicating the time of each key frame is displayed so as to intersect on each channel, and the user checks the MID while visually checking the synchronization with the key frame.
The editing operation of the LED operation described in the I format can be performed. In addition, since the end time line indicating the end time of the action being edited is displayed so as to intersect each channel, the user can visually understand the range of time to be edited. In addition, the current time line indicating the current time is displayed so as to cross each channel. Basically, clicking on any channel will move the current time to that position.

【0153】キーフレーム・チャンネルでは、時間ルー
ラが規定する時間軸に沿ってアクション編集ウィンドウ
から取得したキーフレーム位置が表示される。
In the key frame channel, the key frame position obtained from the action editing window is displayed along the time axis defined by the time ruler.

【0154】スコア・チャンネルは、GUI操作によっ
てMIDI形式で記述されるLED動作を編集するため
の領域であり、移動ロボット1本体上でLEDを配置し
た部位のリストと、時間軸方向の基本グリッドによって
構成される。本実施例では、でこ(でこぴん)と、右目
αと、左目αと、右目βと、左目βと、右目γと、左目
γと、しっぽαと、しっぽβの各部位にLEDが配置さ
れている。
The score channel is an area for editing an LED operation described in a MIDI format by a GUI operation, and is composed of a list of parts where LEDs are arranged on the main body of the mobile robot 1 and a basic grid in the time axis direction. Be composed. In the present embodiment, LEDs are provided at each part of the body, the right eye α, the left eye α, the right eye β, the left eye β, the right eye γ, the left eye γ, the tail α, and the tail β. Are located.

【0155】スコア・チャンネル上には、時間軸上に各
部位のLEDの点灯状況を表示することによって各部位
リスト毎のスコアが構成される。1つの桝目を「セル」
と呼ぶ。時間軸上でLEDが点灯する部位に相当する位
置のセルには、その色や点灯強度に応じた色が付く。
On the score channel, a score for each part list is formed by displaying the LED lighting status of each part on the time axis. One cell is a cell
Call. A cell at a position corresponding to a portion where the LED is lit on the time axis is colored according to the color or the lighting intensity.

【0156】スコア・チャンネルの左横には、LED部
位ビジュアルが表示されている。これは、変更可能なL
EDの各部位をグラフィック表現したものである。
On the left side of the score channel, an LED site visual is displayed. This is a changeable L
This is a graphic representation of each part of the ED.

【0157】また、LED部位ビジュアルの下方にはベ
ロシティ・マークが表示されている。ベロシティ・マーク
は、上昇、最高位キープ、下降などの種類を表示したマ
ークである。これらのマークは、互いに排他的な選択状
態を持ち、常にどれか1つが選ばれている。また、マウ
ス・クリックによって、選択アイテムが変化する。
A velocity mark is displayed below the LED part visual. The velocity mark is a mark indicating a type such as ascending, keeping at the highest position, and descending. These marks have mutually exclusive selection states, and one of them is always selected. Also, the selected item changes with a mouse click.

【0158】本実施例に係るアクション編集サブシステ
ムは、上述のアクション編集ウィンドウ(図10を参照
のこと)上で編集したアクションの内容を視覚的に確認
するために、プレビュー・ウィンドウを用意している。
The action editing subsystem according to the present embodiment prepares a preview window in order to visually confirm the contents of the action edited on the above-mentioned action editing window (see FIG. 10). I have.

【0159】図16には、プレビュー・ウィンドウの構
成を概略的に示している。同図に示すように、プレビュ
ー・ウィンドウは、「3Dビュー」と、「3D表示切り
替えボタン群」と、「カレント時刻フィールド」と、
「再生ボタン群」とで構成される。
FIG. 16 schematically shows the structure of the preview window. As shown in the figure, the preview window includes “3D view”, “3D display switching button group”, “current time field”,
It consists of a “play button group”.

【0160】3Dビューには、コンピュータ・グラフィ
ックス処理により生成された3次元移動ロボット1の映
像が常に表示される。このビュー上でドラッグすること
により、視線方向を移動させて、ビューの見え方を変え
ることができる。また、図示しないが、2以上の視点か
ら3Dモデルを同時にプレビューできるように構成して
もよい。また、ビューの動きは、3D表示切り替えボタ
ン群上でのユーザ入力操作と連動する。
In the 3D view, an image of the three-dimensional mobile robot 1 generated by the computer graphics processing is always displayed. By dragging on this view, the line of sight can be moved to change the appearance of the view. Although not shown, the 3D model may be configured to be previewed simultaneously from two or more viewpoints. The movement of the view is linked with a user input operation on the 3D display switching button group.

【0161】モーションの3D表示を作成処理する際
に、3Dモデルにより各部位どうしの衝突(collisio
n)や各関節の駆動速度のチェック機能を備えていても
よい。また、3Dモデルの重心を各キーフレームで設定
して、3Dモデルの見た目上の動きを実機に近いものに
することができる。
In the process of creating a 3D display of a motion, a collision between respective parts (collisio
n) or a function for checking the driving speed of each joint may be provided. Also, by setting the center of gravity of the 3D model at each key frame, the apparent movement of the 3D model can be made closer to that of the actual machine.

【0162】また、3Dビューの右側には、LED動作
を表示するためのLED動作プレビュー領域が配設され
ている。このプレビュー領域では、上述した3Dビュー
上の移動ロボット1の動きと同期させて、移動ロボット
1のLEDが点滅する様子を表示するようになってい
る。
Further, on the right side of the 3D view, an LED operation preview area for displaying the LED operation is provided. In this preview area, a state in which the LED of the mobile robot 1 blinks is displayed in synchronization with the movement of the mobile robot 1 on the 3D view described above.

【0163】3D表示切り替えボタン群には、「回
転」、「ズームイン/アウト」、「パン」、「ホーム位
置」という各ボタンが配設されている。ユーザは、これ
らのボタンをクリック操作することにより、3Dビュー
内におけるロボットに対する視線方向を変更することが
できる。
In the group of 3D display switching buttons, buttons such as “rotate”, “zoom in / out”, “pan”, and “home position” are provided. The user can change the viewing direction of the robot in the 3D view by clicking these buttons.

【0164】例えば、回転ボタンをクリックすると、回
転モードになり、以降3Dビューをドラッグすると、3
Dビュー内の移動ロボット1が回転する。また、ズーム
イン/アウト・ボタンをクリックすると、ズーム・モード
になり、以降3Dビューを上下にドラッグすると、3D
ビュー内の移動ロボット1がズームイン/アウトする。
また、パン・ボタンをクリックすると、3Dビューはパ
ン・モードになり、以降3Dビューを上下左右にドラッ
グすると3Dビューがパンすなわち高速移動する。ま
た、ホーム位置ボタンをクリックすると、移動ロボット
1の3次元表示がデフォルトのビューすなわちデフォル
トの視線方向から見た状態に戻る。
For example, when the rotation button is clicked, the mode becomes the rotation mode.
The mobile robot 1 in the D view rotates. Clicking the zoom-in / out button switches to zoom mode, and then dragging the 3D view up or down to 3D view
The mobile robot 1 in the view zooms in / out.
Also, when the pan button is clicked, the 3D view enters the pan mode. Thereafter, when the 3D view is dragged up, down, left, and right, the 3D view pans, that is, moves at high speed. When the home position button is clicked, the three-dimensional display of the mobile robot 1 returns to the default view, that is, the state viewed from the default line-of-sight direction.

【0165】カレント時刻フィールドには、3Dビュー
に表示されている描画内容のカレント時刻が表示され
る。このフィールドに時刻として意味のある文字が入力
されると、3Dビューの表示は該当する時刻のフレーム
に切り替わる。また、カレントの時刻位置を相対的にビ
ジュアル表示するようになっている。
In the current time field, the current time of the drawing content displayed in the 3D view is displayed. When a character having a meaningful time is input to this field, the display of the 3D view is switched to a frame at the corresponding time. In addition, the current time position is relatively visually displayed.

【0166】再生ボタン群には、「フレームの巻き戻
し」、「前のキーフレーム」、「プレイ/ストップ」、
「フレームのコマ送り」、「フレーム送り」、「ループ
再生」という各ボタンが配設されている。
The play button group includes “rewind frame”, “previous key frame”, “play / stop”,
Buttons such as “frame forward”, “frame forward”, and “loop playback” are provided.

【0167】「フレームの巻き戻し」をクリックする
と、3Dビューの表示が最初のフレームに戻る。「前の
キーフレーム」をクリックすると、3Dビューの表示が
カレント位置から直前のキーフレームに飛ぶ。また、
「プレイ/ストップ」をクリックすると、3Dビュー表
示の再生を開始又は停止する(プレイ中は、プレイ/ス
トップ・ボタンはストップとなり、ストップ中はプレイ
として作用する)。また、「フレームのコマ送り」は、
3Dビュー表示の再生中のみ有効であり、クリックされ
ると1フレーム分がコマ送りされる。また、「フレーム
送り」をクリックすると、3Dビューの表示が最後のフ
レームに進む。また、「ループ再生」をクリックする
と、3Dビューの表示がループ再生される。
[0167] When "Rewind frame" is clicked, the display of the 3D view returns to the first frame. Clicking on "previous key frame" causes the display of the 3D view to jump from the current position to the immediately preceding key frame. Also,
Clicking on "play / stop" starts or stops playback of the 3D view display (during play, the play / stop button is stopped, and during stop, it acts as play). In addition, “frame advance”
This is effective only during the reproduction of the 3D view display. When clicked, one frame is advanced. Also, when "frame forward" is clicked, the display of the 3D view advances to the last frame. When "loop playback" is clicked, the display of the 3D view is played back in a loop.

【0168】また、本実施例に係るアクション編集サブ
システムは、移動ロボット1の3次元的なポーズを、ド
ラッグを基調とするGUI操作により編集するためにポ
ーズ・ウィンドウを用意している。ポーズ・ウィンドウ上
で編集されるポーズは、例えば、モーションを構成する
キーフレームとして利用することができる。
The action editing subsystem according to the present embodiment has a pose window for editing a three-dimensional pose of the mobile robot 1 by a GUI operation based on dragging. The pose edited on the pose window can be used, for example, as a key frame constituting a motion.

【0169】図17には、ポーズ・ウィンドウの構成を
概略的に示している。このポーズ・ウィンドウ上では、
移動ロボット1を構成する各関節アクチュエータの回転
角度をGUI操作により直接指示して、所望のポーズを
簡易に指定することができる。ポーズ・ウィンドウは、
実体表示領域と、リスト指定領域と、設定値領域と、3
D表示領域と、3D表示切替ボタン群と、表示切り替え
ポップアップとで構成される。
FIG. 17 schematically shows the structure of the pause window. On this pause window,
By directly instructing the rotation angle of each joint actuator constituting the mobile robot 1 by a GUI operation, a desired pose can be easily designated. The pause window is
Entity display area, list designation area, set value area, 3
It comprises a D display area, a 3D display switching button group, and a display switching pop-up.

【0170】実体指定領域では、移動ロボット1の展開
平面図を表示され編集可能部位をユーザに選択させる。
選択された部位は、リスト指定の項目が選択されて、3
D表示上で強調表示又はブリンクされ、設定値エリアの
内容が切り替わる。
In the entity designation area, a developed plan view of the mobile robot 1 is displayed, and the user can select an editable part.
For the selected part, the item specified in the list is selected and 3
The content is highlighted or blinked on the D display and the contents of the set value area are switched.

【0171】リスト指定領域では、移動ロボット1の編
集可能部位とその設定値がリストとして表示される。ユ
ーザはこのリストの中から特定の部位を選択すると、実
体指定領域では該当する部位が強調表示され、3D表示
領域では強調表示又はブリンクされ、設定値領域の内容
が切り替わる。
In the list designation area, editable parts of the mobile robot 1 and their set values are displayed as a list. When the user selects a specific part from this list, the corresponding part is highlighted in the entity designation area, highlighted or blinked in the 3D display area, and the contents of the setting value area are switched.

【0172】設定値領域では、各編集可能部位の設定部
位名称、設定値、設定可能最小値並びに最大値が一覧表
示されている。ユーザがある特定の部位を選択するとそ
の内容が切り替わる。設定値は、入力可能フィールドで
直接キー入力することができる。角度の表現は円弧表現
とし、指定用のラインをドラッグすることによって設定
値を変更することができる。
In the set value area, set part names, set values, settable minimum values and maximum values of each editable part are displayed in a list. When the user selects a specific part, the content is switched. The set value can be directly keyed in the input enabled field. The angle is represented by an arc, and the set value can be changed by dragging the designation line.

【0173】3D表示領域では、3Dグラフィックスに
より生成された移動ロボット1の全身画像が地面ととも
に描画される。ユーザは、この3D表示から該当する部
位をクリックすることにより、その部位を選択すること
ができ、選択部位は強調表示される。さらに、選択部位
をドラッグすることにより、設定値を直接切り替えるこ
とができる。
In the 3D display area, a whole body image of the mobile robot 1 generated by 3D graphics is drawn together with the ground. The user can select the site by clicking the corresponding site from the 3D display, and the selected site is highlighted. Further, by dragging the selected part, the set value can be directly switched.

【0174】3D表示領域における表示内容は3D表示
切り替えボタンと連動しており、この3D表示領域のビ
ュー上をドラッグすることによりビューの見え方すなわ
ち視線方向を変えることができる。
The display contents in the 3D display area are linked with the 3D display switching button. By dragging the view of the 3D display area, the view appearance, that is, the line of sight can be changed.

【0175】3D表示切り替えボタン群には、「回
転」、「ズームイン/アウト」、「パン」、「ホーム位
置」という各ボタンが配設されている。ユーザは、これ
らのボタンをクリック操作することにより、3D表示領
域内の視線方向を変更することができる。
In the group of 3D display switching buttons, buttons such as “rotate”, “zoom in / out”, “pan”, and “home position” are provided. The user can change the viewing direction in the 3D display area by clicking these buttons.

【0176】例えば、回転ボタンをクリックすると、回
転モードになり、以降3D表示領域をドラッグすると3
D表示領域内の移動ロボット1が回転する。また、ズー
ムイン/アウト・ボタンをクリックすると、ズーム・モー
ドになり、以降3D表示領域を上下にドラッグすると3
D表示領域内で移動ロボット1がズームイン/アウトす
る。また、パン・ボタンをクリックするとパン・モードに
なり、以降3D表示領域を上下左右にドラッグすると3
D表示領域内で移動ロボット1がパンすなわち高速移動
する。また、ホーム位置ボタンをクリックすると、移動
ロボット1の3次元表示がデフォルトの視線方向から見
た状態に戻る。
For example, when the rotation button is clicked, the mode becomes the rotation mode.
The mobile robot 1 in the D display area rotates. Clicking the zoom-in / out button switches to the zoom mode. After that, dragging the 3D display area up or down causes a 3D display area.
The mobile robot 1 zooms in / out in the D display area. Clicking the pan button switches to pan mode, and then dragging the 3D display area up, down, left, and right
The mobile robot 1 pans, that is, moves at high speed in the D display area. When the home position button is clicked, the three-dimensional display of the mobile robot 1 returns to the state viewed from the default line of sight.

【0177】ポーズ・ウィンドウには、「OK」ボタン
と「キャンセル」ボタンが用意されている。OKボタン
をクリックすると、該ウィンドウ内におけるすべての編
集項目を有効にして、このウィンドウを閉じる。他方、
キャンセル・ボタンをクリックするとすべての編集項目
を無効にしてこのウィンドウを閉じる(周知)。
In the pause window, an "OK" button and a "Cancel" button are prepared. When the OK button is clicked, all the editing items in the window are enabled, and the window is closed. On the other hand,
Clicking the cancel button invalidates all editing items and closes this window (well-known).

【0178】また、本実施例に係るアクション編集サブ
システムは、モーション・チャンネルで編集されたモー
ション、あるいはポーヴ・ウィンドウにより編集された
各ポーズをキーフレームとしたモーションをプレビュー
するためのモーション・プレビューワを用意している。
図18には、モーション・プレビューワの構成を概略的
に示している。
Further, the action editing subsystem according to the present embodiment includes a motion previewer for previewing a motion edited by a motion channel or a motion having each pose edited by a pove window as a key frame. Are prepared.
FIG. 18 schematically shows the configuration of the motion previewer.

【0179】モーション・プレビューワ上では、モーシ
ョンをプレビューするとともに、アクション編集ウィン
ドウにペーストするために、ポーズをコピーすることが
許容される。
On the motion previewer, it is permitted to copy a pose for previewing a motion and pasting it into an action editing window.

【0180】モーション・プレビューワ上では、モーシ
ョンを構成する1以上のキーフレームすなわちポーズの
サムネイルを表示するようになっている。キーフレーム
の配列は、例えば、モーション再生時の時系列に従う。
On the motion previewer, thumbnails of one or more key frames constituting a motion, ie, poses, are displayed. The arrangement of the key frames follows, for example, a time series at the time of motion reproduction.

【0181】C−2.ビヘイビア編集サブシステム ビヘイビア編集サブシステムは、ロボットの行動シーケ
ンスすなわちビヘイビアを作成・編集するためのサブシ
ステムである。
C-2. Behavior editing subsystem The behavior editing subsystem is a subsystem for creating and editing a behavior sequence of a robot, that is, a behavior.

【0182】図6〜図8を参照しながら既に説明したよ
うに、ロボットの行動シーケンスすなわちビヘイビア
は、2以上のコマンドすなわちアクションを並べていく
ことによって構成される。アクションはスタートからエ
ンドまで一方向で再生される。これに対して、ビヘイビ
アは、アクションを再生する順序を規定することができ
る。さらに、センサからの入力などに基づいて条件判断
を実行し、アクション起動の流れを分岐させることがで
きる。また、複数のアクションやブランチをグループ化
してサブルーチンとして機能させることにより、複雑な
ビヘイビアの作成・編集作業を容易で効率的にすること
ができる。
As described above with reference to FIGS. 6 to 8, the action sequence of the robot, that is, the behavior, is configured by arranging two or more commands, that is, actions. Actions are played in one direction from start to end. In contrast, behaviors can define the order in which actions are played. Further, a condition determination can be performed based on an input from a sensor or the like, and the action activation flow can be branched. In addition, by grouping a plurality of actions and branches to function as a subroutine, it is possible to easily and efficiently create and edit complicated behaviors.

【0183】ビヘイビアを規定するファイルのことを
「ビヘイビア・ファイル」と呼ぶ。ビヘイビアにおいて
使用するアクションの内容を、ファイル参照しても、あ
るいは読み込むようにしてもよい。
A file that defines a behavior is called a “behavior file”. The contents of the action used in the behavior may be referred to or read from a file.

【0184】本実施例におけるビヘイビア編集サブシス
テムは、使用するアクションを部品化してマウス操作に
より取り扱うことができるグラフィカルなユーザ・イン
ターフェース、すなわち「ビヘイビア・エディタ」を採
用する。ビヘイビアはその部品である2以上のアクショ
ンを配列することにって構成されることから、ビヘイビ
ア・エディタは、外見的にはフローチャート・エディタ
の形式を採用する。ビヘイビア・エディタ画面上では、
アクション間の連結に条件判断を形成したり、ループを
形成したり、複数のアクションの配列をグループ化し部
品として定義することができる。但し、ビヘイビア・エ
ディタが提供するビヘイビア編集画面の詳細について
は、後述に譲る。
The behavior editing subsystem in this embodiment employs a graphical user interface that can handle the action to be used as a component and operate with a mouse, that is, a “behavior editor”. Since the behavior is constituted by arranging two or more actions as its parts, the behavior editor externally adopts the form of a flowchart editor. On the behavior editor screen,
It is possible to form a condition judgment, form a loop, or group an array of a plurality of actions and define them as components. However, the details of the behavior editing screen provided by the behavior editor will be described later.

【0185】図19には、ビヘイビア編集サブシステム
の機能構成を模式的に示している。同図に示すように、
本実施例に係るビヘイビア編集サブシステムは、特にビ
ヘイビアの編集向けにデザインされたものであり、ビヘ
イビア編集部と、これら各機能モジュールによるユーザ
の編集作業をGUI画面による対話形式で実現するユー
ザ・インターフェース制御部とで構成される。
FIG. 19 schematically shows the functional configuration of the behavior editing subsystem. As shown in the figure,
The behavior editing subsystem according to the present embodiment is designed especially for behavior editing, and includes a behavior editing unit and a user interface for realizing a user editing operation using each of these functional modules in an interactive manner on a GUI screen. And a control unit.

【0186】ビヘイビア編集部は、アクション編集サブ
システムにおいて作成されたアクションを部品として、
複数のアクションを配列することにより(図6〜8を参
照のこと)、1つのビヘイビアを完成させる。
The behavior editing unit uses the action created in the action editing subsystem as a component,
By arranging a plurality of actions (see FIGS. 6 to 8), one behavior is completed.

【0187】ビヘイビア編集部は、意図する動作すなわ
ちアクションを表すボックスをライブラリから選択する
ことができる。ライブラリからのアクションの選択はア
クション選択部を介して行われる。アクション選択部の
起動により、画面上にはアクション設定ウィンドウがポ
ップアップ表示される。アクション設定ウィンドウ(後
述)上では、アクションの詳細を対話形式で指定するこ
とができる。指定されたアクションは、編集画面上では
ボックスとして配置される。
The behavior editing unit can select a box representing an intended operation, that is, an action from the library. Selection of an action from the library is performed via an action selection unit. By activating the action selection unit, an action setting window is displayed in a pop-up on the screen. On an action setting window (described later), details of the action can be specified in an interactive manner. The specified action is arranged as a box on the edit screen.

【0188】複数のアクションの配列をグループ化し
て、部品として定義する場合には、グループ登録部を呼
び出すことによって行われる。グループ登録部の起動に
より、画面上にはグループ設定ウィンドウがポップアッ
プ表示され、グループの詳細を対話形式で指定すること
ができる。グループは、グループ登録部を介してライブ
ラリ内に登録され、以後はアクションと同様に、ビヘイ
ビアを構成する部品として取り扱うことができ、編集画
面上ではボックスとして表示される。
In the case where an array of a plurality of actions is grouped and defined as a component, this is performed by calling a group registration unit. When the group registration unit is activated, a group setting window is displayed in a pop-up on the screen, and the details of the group can be specified interactively. The group is registered in the library via the group registration unit, and thereafter can be handled as a component of the behavior, similarly to the action, and is displayed as a box on the editing screen.

【0189】ビヘイビアは、アクションどうしの単なる
連結の他、後続の複数のアクションへの分岐並びに分岐
のための条件判断を含んだり、アクションのループを形
成することができる。
A behavior can include a branch to a plurality of subsequent actions, a condition judgment for the branch, and a loop of actions, in addition to a simple connection between actions.

【0190】アクションを接続する場合、接続側並びに
被接続側それぞれのアクションに対して接続用の端子を
形成する。端子の形成は、端子設定部によって行われ
る。端子設定部を起動することにより、編集画面上では
端子設定ウィンドウがポップアップ表示され、端子の詳
細を指定することができる。また、ビヘイビア編集画面
上では、ボックスの端子どうしをドラッグすることによ
り該当するアクションどうしを連結することができる。
When connecting an action, a connection terminal is formed for each action on the connection side and the connected side. The terminals are formed by a terminal setting unit. By activating the terminal setting unit, a terminal setting window pops up on the edit screen, and the details of the terminal can be specified. Also, on the behavior editing screen, the corresponding actions can be connected by dragging the terminals of the box.

【0191】あるアクションが複数のアクションへの分
岐を設定する場合、分岐設定部を呼び出す。分岐設定部
の起動により、編集画面上には分岐設定ウィンドウがポ
ップアップ表示され、分岐の詳細を指定することができ
る。
When a certain action sets a branch to a plurality of actions, the branch setting section is called. By starting the branch setting unit, a branch setting window is displayed in a pop-up on the editing screen, and the details of the branch can be designated.

【0192】あるアクションが後続のアクションへ進む
ための条件を設定する場合、条件設定部を呼び出す。条
件設定部の起動により、編集画面上には条件設定ウィン
ドウがポップアップ表示され、条件判断の詳細を指定す
ることができる。
When setting a condition for a certain action to proceed to a subsequent action, the condition setting unit is called. When the condition setting unit is started, a condition setting window is displayed in a pop-up on the editing screen, and the details of the condition determination can be specified.

【0193】ユーザ・インターフェース制御部によっ
て、ビヘイビア編集ウィンドウがコンピュータ画面上に
提示される。このビヘイビア編集ウィンドウ上では、基
本的には、ビヘイビアの構成要素であるアクションを表
すボックスを、分岐端子を用いて接続していくことによ
り、全体としてある所定の機能を実現するプログラムを
組むことができる。接続関係が形成された複数のアクシ
ョンをグループとして登録し、グループを表すボックス
を、アクション・ボックスと同様に部品化して、ビヘイ
ビア編集ウィンドウ上で取り扱うことができる。ビヘイ
ビア編集ウィンドウは、外見上はフローチャート・エデ
ィタの形式を採用する。
The behavior editing window is presented on the computer screen by the user interface control unit. Basically, on this behavior editing window, you can build a program that realizes a certain predetermined function as a whole by connecting the boxes representing the actions that are the constituent elements of the behavior using the branch terminals. it can. A plurality of actions in which a connection relationship is formed can be registered as a group, and a box representing the group can be made into a component like an action box and handled on the behavior editing window. The behavior editing window has the appearance of a flowchart editor.

【0194】図20には、ビヘイビア編集ウィンドウの
構成を概略的に示している。
FIG. 20 schematically shows the structure of the behavior editing window.

【0195】図示の通り、ビヘイビア編集ウィンドウ
は、タイトル・バーと、メニュー・バーと、ツール・バ
ーと、アクションやグループを分岐端子によって接続し
てフローチャート編集様式でプログラムを編集すること
ができる編集領域とで構成される。
As shown in the figure, the behavior editing window has an editing area in which a title bar, a menu bar, a tool bar, an action or a group are connected by branch terminals, and a program can be edited in a flowchart editing style. It is composed of

【0196】メニュー・バーには「ファイル」、「編
集」、「オブジェクト」、「ツール」、「表示倍率」、
「ヘルプ」という各メニューが用意されている。
In the menu bar, “File”, “Edit”, “Object”, “Tool”, “Display magnification”,
Each menu called "Help" is prepared.

【0197】メニュー「ファイル」を選択すると、さら
に「新規ビヘイビア」、「ビヘイビアを開く」、「ビヘ
イビア保存」、「ビヘイビア新規保存」、並びに、「閉
じる」という各サブ・メニューからなるプルダウン・メニ
ューが出現する(図21を参照のこと)。
When the menu “File” is selected, a pull-down menu including sub menus “New behavior”, “Open behavior”, “Save behavior”, “Save new behavior”, and “Close” is further displayed. Appears (see FIG. 21).

【0198】サブメニュー「新規ビヘイビア」を選択す
ると、新規のビヘイビアを生成する。既に未保存のアク
ションが開かれている場合、そのビヘイビアを保存する
かどうかの確認をユーザにプロンプトするダイアログ
(図示しない)が出現する。
When the submenu “New behavior” is selected, a new behavior is generated. If an unsaved action has already been opened, a dialog (not shown) appears that prompts the user to confirm whether to save the behavior.

【0199】サブメニュー「ビヘイビアを開く」を選択
すると、既存のビヘイビア・ファイルを開く。既に未保
存のビヘイビアが開かれている場合、そのビヘイビアを
保存するかどうかの確認をユーザにプロンプトするダイ
アログが出現する(同上)。
When the “open behavior” submenu is selected, an existing behavior file is opened. If an unsaved behavior is already open, a dialog appears asking the user to confirm whether to save the behavior (Id.).

【0200】サブメニュー「ビヘイビア保存」を選択す
ると、該当するビヘイビア・ファイルを上書き保存す
る。未保存ファイルの場合、ビヘイビア新規保存(後
述)と同様、ファイル設定ダイアログが出現して、ファ
イル名の入力をユーザにプロンプトする。
When the sub-menu “save behavior” is selected, the corresponding behavior file is overwritten and saved. In the case of an unsaved file, a file setting dialog box appears to prompt the user to enter a file name, as in the behavior new save (described later).

【0201】サブメニュー「ビヘイビア新規保存」を選
択すると、ファイル設定ダイアログ(図示しない)が出
現して、ファイル名の入力をユーザにプロンプトする。
When the sub-menu “new behavior save” is selected, a file setting dialog (not shown) appears and prompts the user to input a file name.

【0202】サブメニュー「閉じる」を選択すると、起
動中のビヘイビア編集ウィンドウを閉じる。該ウィンド
ウ内のビヘイビア・ファイルが未保存の場合には、ダイ
アログが出現して、これを保存するかどうかの確認をユ
ーザにプロンプトする(同上)。
When the sub-menu “close” is selected, the activated behavior editing window is closed. If the behavior file in the window has not been saved, a dialog appears, prompting the user to confirm whether to save it (Id.).

【0203】また、メニュー「編集」を選択すると、さ
らに「元に戻す」、「切り取り」、「コピー」、「上書
き貼り付け」、「挿入貼り付け」、並びに、「削除」と
いう各サブ・メニューからなるプルダウン・メニューが出
現する(図22を参照のこと)。
When the menu “Edit” is selected, the sub menus “Undo”, “Cut”, “Copy”, “Overwrite paste”, “Insert paste”, and “Delete” are further displayed. Appears (see FIG. 22).

【0204】サブメニュー「元に戻す」を選択すると、
直近の操作から順にアンドゥー処理が行われる。
When the sub-menu "undo" is selected,
Undo processing is performed sequentially from the most recent operation.

【0205】サブメニュー「切り取り」を選択すると、
選択されたオブジェクトがカットされる。カットされた
データは、実際にはクリップボード内に一時的に保管さ
れる。
When the submenu "Cut" is selected,
The selected object is cut. The cut data is actually temporarily stored in the clipboard.

【0206】サブメニュー「コピー」を選択すると、選
択されたオブジェクトがコピーされる。コピーされたデ
ータは、実際にはクリップボード内に一時的に保管され
る。
When the submenu "copy" is selected, the selected object is copied. The copied data is actually temporarily stored in the clipboard.

【0207】サブメニュー「上書き貼り付け」を選択す
ると、クリップボードに保管されているオブジェクトが
ビヘイビア編集領域上にペーストされる。
When the submenu "paste overwrite" is selected, the object stored on the clipboard is pasted on the behavior editing area.

【0208】サブメニュー「削除」を選択すると、選択
されたオブジェクトが削除される。
When the submenu "Delete" is selected, the selected object is deleted.

【0209】メニュー「オブジェクト」は、ビヘイビア
編集領域上に、プログラム編集用の部品となるオブジェ
クトを置いたり、設置したオブジェクトに対する操作を
行うための機能を提供する。プログラム編集用の部品と
は、ボックス化されたアクション、ブランチ、グルー
プ、あるいはこれらボックス間を接続するためのターミ
ナル(分岐端子)である。これらオブジェクトは、フロ
ーチャートの構成要素となる。
[0209] The menu "Object" provides a function for placing an object serving as a part for program editing on the behavior editing area and for operating the placed object. The parts for program editing are boxed actions, branches, groups, or terminals (branch terminals) for connecting these boxes. These objects are components of a flowchart.

【0210】メニュー「オブジェクト」を選択すると、
さらに「アクションを置く」、「新規ブランチを置
く」、「新規グループを置く」、「新規ターミナルを置
く」、並びに、「プロパティ」という各サブ・メニュー
からなるプルダウン・メニューが出現する(図23を参
照のこと)。
When the menu "Object" is selected,
Further, a pull-down menu including submenus “Place an action”, “Place a new branch”, “Place a new group”, “Place a new terminal”, and “Properties” appears (see FIG. 23). See).

【0211】サブメニュー「アクションを置く」を選択
すると、ファイル選択ダイアログ(図示しない)が出現
して、アクション・ファイルの選択をユーザにプロンプ
トする。選択されたアクションは、オブジェクトすなわ
ち「アクション・ボックス」として、ビヘイビア編集領
域上に置かれる。そのアクションは、同時に自動的にプ
ロジェクト・ウィンドウ(前述)に登録される。
When the submenu "Place an action" is selected, a file selection dialog (not shown) appears to prompt the user to select an action file. The selected action is placed on the behavior editing area as an object or "action box." The action is automatically registered in the project window (described above) at the same time.

【0212】サブメニュー「新規ブランチを置く」を選
択すると、新規のブランチを生成して、これに対応する
オブジェクトすなわち「ブランチ・ボックス」をビヘイ
ビア編集領域上に置く。新規のブランチにはデフォルト
の名前が付けられ、ユーザはこれを適当な名前に変更す
ることができる。
When the submenu "Place a new branch" is selected, a new branch is generated, and an object corresponding to the new branch, that is, a "branch box" is placed on the behavior editing area. The new branch is given a default name, which the user can change to a suitable name.

【0213】サブメニュー「新規グループを置く」を選
択すると、新規のグループを生成して、これに対応する
オブジェクトすなわち「グループ・ボックス」をビヘイ
ビア編集領域上に置く。新規のグループにはデフォルト
の名前が付けられ、ユーザはこれを適当な名前に変更す
ることができる。
When the submenu "Place a new group" is selected, a new group is generated and an object corresponding to the new group, that is, a "group box" is placed on the behavior editing area. The new group has a default name, which the user can change to a suitable name.

【0214】サブメニュー「新規ターミナルを置く」を
選択すると、新規のターミナルを生成して、これをビヘ
イビア編集領域上に置く。新規のターミナルにはデフォ
ルトの名前が付けられ、ユーザはこれを適当な名前に変
更することができる。
When the submenu “Place a new terminal” is selected, a new terminal is created and placed on the behavior editing area. New terminals are given a default name, which the user can change to a suitable name.

【0215】サブメニュー「プロパティ」を選択する
と、選択されているオブジェクトのプロパティ・ダイア
ログが出現する。ユーザは、このダイアログ内で該当す
るオブジェクトのプロパティを設定することができる。
但し、プロパティ・ダイアログに関しては後述する。
When the sub-menu “Properties” is selected, a property dialog of the selected object appears. The user can set the properties of the object in this dialog.
However, the property dialog will be described later.

【0216】なお、オブジェクト・メニューの各サブメ
ニュー項目と同様の機能は、ツール・バー(後述)上で
も提供される。
[0216] The same functions as those of the submenu items of the object menu are also provided on a tool bar (described later).

【0217】メニュー「ツール」は、「アローツー
ル」、「結線ツール」、「線切りツール」などのサブメ
ニューを用意する。各サブメニューを用意すると、該当
する機能が呼び出される。これらサブメニューと同じ機
能は、ツール・バー上のツール・ボックスとして配設さ
れている(後述)。
The menu "tool" provides submenus such as "arrow tool", "connection tool", and "line cutting tool". When each submenu is prepared, the corresponding function is called. The same functions as these submenus are provided as a tool box on the tool bar (described later).

【0218】また、メニュー「表示倍率」は、ビヘイビ
ア編集領域の表示倍率を選択するためのメニュー項目で
ある。本実施例では、1/4,1/2,等倍,2倍,4
倍,8倍を選択肢として用意している。
The menu "display magnification" is a menu item for selecting the display magnification of the behavior editing area. In the present embodiment, 1/4, 1/2, 1: 1, 2x, 4x
Double and eight times are available as options.

【0219】また、メニュー「ヘルプ」には、トピック
やサポート・ウェブ、バージョン情報などのサブメニュ
ーが含まれている(周知)。
[0219] The menu "help" includes submenus such as topics, support web pages, and version information (well-known).

【0220】ツール・バー内には、「アローツール」、
「結線ツール」、「線切りツール」、「ルーペ」、「ご
み箱」などの頻繁に使用する機能を瞬時に呼び出すため
のツール・ボックスと、「アクション」、「グルー
プ」、「ブランチ」、「ターミナル」などのビヘイビア
編集領域に置くべき部品すなわちオブジェクトを呼び出
すためのオブジェクト・ボックスが配設されている。
[0220] In the tool bar, "arrow tool",
Toolbox for instantly calling frequently used functions such as "Connection tool", "Line cutting tool", "Loupe" and "Trash", and "Action", "Group", "Branch" and "Terminal" And an object box for calling a part, that is, an object to be placed in the behavior editing area.

【0221】ツール・ボックス「アローツール」を指定
すると、ビヘイビア編集領域内におけるマウス操作が、
通常モード、すなわちオブジェクトを移動させるモード
になる。
When the tool box “Arrow Tool” is specified, the mouse operation in the behavior editing area
The mode is the normal mode, that is, the mode for moving the object.

【0222】ツール・ボックス「結線ツール」を指定す
ると、ビヘイビア編集領域内におけるマウス操作が、結
線モード、すなわちオブジェクトどうしを結線するモー
ドになる。
When the tool box "connection tool" is designated, the mouse operation in the behavior editing area is set to a connection mode, that is, a mode for connecting objects.

【0223】ツール・ボックス「線切りツール」を指定
すると、ビヘイビア編集領域以内におけるマウス操作
が、線切りモード、すなわちオブジェクト間の結線を切
断するモードになる。
When the tool box "line cutting tool" is designated, mouse operation within the behavior editing area is set to a line cutting mode, that is, a mode for cutting a connection between objects.

【0224】ツール・ボックス「ルーペ」を指定する
と、マウスがクリックされた時点を一段階ずつ拡大表示
する。また、コントロール・キーを押下しながらルーペ
をクリックすると、一段階ずつ縮小表示する。表示倍率
範囲は、メニュー「表示倍率」内で用意されるサブメニ
ュー項目(前述)に従う。
When the tool box "Loupe" is designated, the time point at which the mouse is clicked is enlarged and displayed step by step. Clicking on the loupe while holding down the control key will zoom out one step at a time. The display magnification range follows the submenu items (described above) prepared in the menu “display magnification”.

【0225】ツール・ボックス「ごみ箱」を指定する
と、マウスがクリックされたオブジェクトをビヘイビア
編集領域から削除することができる。
When the tool box "trash box" is designated, the object whose mouse is clicked can be deleted from the behavior editing area.

【0226】各ツール・ボックス「アローツール」、
「結線ツール」、「線切りツール」、「ルーペ」は、排
他的に選択される。
Each tool box "arrow tool",
The “connection tool”, “line cutting tool”, and “loupe” are exclusively selected.

【0227】ボックス「アクション」をツール・バーか
らビヘイビア編集領域内にドラッグすることにより、ド
ラッグ先には新規のアクション・ボックスが置かれる。
これと同時に、この新規アクションの詳細を設定するた
めのプロパティ・ダイアログが画面上に出現する。
By dragging the box “Action” from the tool bar into the behavior editing area, a new action box is placed at the drag destination.
At the same time, a property dialog for setting the details of this new action appears on the screen.

【0228】図24には、アクション・ボックスの詳細
を指定するためのプロパティ・ダイアログを図解してい
る。このアクション設定用のプロパティ・ダイアログ
は、ツール・バー内のアクション・ボックスをビヘイビ
ア編集領域にドラッグすることによって呼び出される
他、メニュー「オブジェクト」のサブメニュー項目「プ
ロパティ」を経由して起動することができる。
FIG. 24 illustrates a property dialog for designating details of an action box. This property dialog for setting actions is invoked by dragging the action box in the tool bar to the behavior editing area, and can be activated via the submenu item "Properties" of the menu "Object". it can.

【0229】ユーザは、図示のダイアログ上で、名前フ
ィールドに文字列を入力することによってアクション・
ボックスの名前を指定することができる。また、コメン
ト・フィールド上に、このアクション・ボックスに関す
るコメントを記入することができる。
The user inputs the character string in the name field on the dialog shown in FIG.
You can specify the name of the box. In addition, a comment on this action box can be entered in the comment field.

【0230】さらに、Action、Part、Sou
nd、Volume#などのコンボボックス内に、RC
ODEのコマンド名やコマンド・パラメータを直接入力
するか、又は、該ボックスの右端の▼ボタンを押して出
現するリスト・ボックス(図示しない)から所望のコマ
ンド又はコマンド・パラメータを選択することによっ
て、1行すなわち1ステップ分のRCODEコマンドを
設定することができる。
Further, Action, Part, Sou
nd, Volume #, etc. in the combo box, RC
One line is input by directly inputting the command name or command parameter of the ODE, or by selecting a desired command or command parameter from a list box (not shown) appearing by pressing a button at the right end of the box. That is, an RCODE command for one step can be set.

【0231】これらAction、Part、Soun
d、Volume#などのコンボボックスを利用して1
ステップ分のRCODEコマンドを設定し、さらに[追
加(A)]ボタンをクリックすると、コマンド・リスト
上に順次登録される。
These Action, Part, and Sound
d, 1 using a combo box such as Volume #
When the RCODE commands for the steps are set and the [Add (A)] button is further clicked, the commands are sequentially registered on the command list.

【0232】また、このコマンド・リスト上で所定の行
を選択してから、[変更(M)]ボタンをクリックする
ことによって、当該行は変更対象となり、その設定内容
がAction、Part、Sound、Volume
#などの各コンボボックスに表示される。また、このコ
マンド・リスト上で所定の行を選択してから、[削除
(D)]ボタンをクリックすることによって、当該行を
コマンド・リストから削除することができる。
By selecting a predetermined line on the command list and then clicking the [Change (M)] button, the line becomes a change target, and the setting contents are Action, Part, Sound, Volume
It is displayed in each combo box such as #. Further, by selecting a predetermined line on this command list and then clicking the [Delete (D)] button, the line can be deleted from the command list.

【0233】そして、このダイアログ上で動作ボックス
の詳細の指定を完了すると、[閉じる(C)]ボタンを
クリックすることによって、画面を介した指定内容がR
CODEで記述された処理ルーチンとして登録されると
ともに、このダイアログは閉じる。
When the specification of the details of the operation box is completed on this dialog box, by clicking the [Close (C)] button, the specified content via the screen is changed
This dialog is closed as well as being registered as a processing routine described in CODE.

【0234】また、ボックス「ブランチ」をツール・バ
ーからビヘイビア編集領域内にドラッグすることによ
り、ドラッグ先には新規のブランチ・ボックスが置かれ
る。これと同時に、この新規ブランチの詳細を設定する
ためのプロパティ・ダイアログが画面上に出現する。
By dragging the box “Branch” from the tool bar into the behavior editing area, a new branch box is placed at the drag destination. At the same time, a property dialog for setting the details of the new branch appears on the screen.

【0235】図25には、ブランチ・ボックスの詳細を
指定するためのプロパティ・ダイアログを図解してい
る。このブランチ設定用のプロパティ・ダイアログは、
ツール・バー内のブランチ・ボックスをビヘイビア編集
領域にドラッグすることによって呼び出される他、メニ
ュー「オブジェクト」のサブメニュー項目「プロパテ
ィ」を経由して起動することができる。
FIG. 25 illustrates a property dialog for designating details of a branch box. The properties dialog for this branch configuration is
In addition to being invoked by dragging the branch box in the toolbar to the behavior editing area, it can be invoked via the sub-menu item "Properties" of the menu "Object".

【0236】ユーザは、図示のダイアログ上で、名前フ
ィールドに文字列を入力することによってブランチ・ボ
ックスの名前を指定することができる。図示の例では、
当該分岐ボックスの名前として「モード分岐」が記入さ
れている。また、コメント・フィールド上に、該ブラン
チ・ボックスに関するコメントを記入することができ
る。
The user can specify the name of the branch box by inputting a character string in the name field on the illustrated dialog box. In the example shown,
“Mode branch” is entered as the name of the branch box. Further, a comment on the branch box can be entered on the comment field.

【0237】さらに、Type、Variableなど
のコンボボックス内に、RCODEのコマンド名やコマ
ンド・パラメータを直接入力するか、又は、該ボックス
の右端の▼ボタンを押して出現するリスト・ボックス
(図示しない)から所望のコマンド又はコマンド・パラ
メータを選択することによって、当該分岐ボックスの条
件判断を記述するRCODEコマンドを設定することが
できる。
Further, a command name or command parameter of RCODE is directly input into a combo box such as Type or Variable, or a list box (not shown) which appears by pressing a ▼ button at the right end of the box. By selecting a desired command or command parameter, an RCODE command describing the condition determination of the branch box can be set.

【0238】これらType、Variableなどの
コンボボックスを利用して分岐条件のRCODEコマン
ドを設定し、さらに[追加(A)]ボタンをクリックす
ると、コマンド・リスト上に順次登録される。
When an RCODE command for a branch condition is set using a combo box such as Type or Variable, and the [Add (A)] button is further clicked, the command is sequentially registered on the command list.

【0239】また、このコマンド・リスト上で所定の行
を選択してから、[変更(M)]ボタンをクリックする
ことによって、当該行は変更対象となり、その設定内容
がType、Variableなどの各コンボボックス
に表示される。また、このコマンド・リスト上で所定の
行を選択してから、[削除(D)]ボタンをクリックす
ることによって、当該行をコマンド・リストから削除す
ることができる。
By selecting a predetermined line on the command list and then clicking the [Change (M)] button, the line becomes an object to be changed, and the set contents are changed to Type, Variable, etc. Displayed in the combo box. Further, by selecting a predetermined line on this command list and then clicking the [Delete (D)] button, the line can be deleted from the command list.

【0240】そして、このダイアログ上でブランチ・ボ
ックスの詳細の指定を完了すると、[閉じる(C)]ボ
タンをクリックすることによって、指定内容がRCOD
Eで記述された処理ルーチンとして登録されるととも
に、ダイアログは閉じる。
When the specification of the details of the branch box is completed on this dialog, by clicking the [Close (C)] button, the specified content becomes RCOD.
It is registered as the processing routine described in E, and the dialog is closed.

【0241】ブランチ・ボックスを利用することによ
り、センサ入力やユーザ変数値に応じて処理を分岐させ
ることができる。
By using the branch box, processing can be branched in accordance with a sensor input or a user variable value.

【0242】また、ボックス「グループ」をツール・バ
ーからビヘイビア編集領域内にドラッグすることによ
り、ドラッグ先には新規のグループ・ボックスが置かれ
る。これと同時に、この新規グループの詳細を設定する
ためのプロパティ・ダイアログが画面上に出現する。
By dragging the box “Group” from the tool bar into the behavior editing area, a new group box is placed at the drag destination. At the same time, a property dialog for setting the details of this new group appears on the screen.

【0243】図26には、グループ・ボックスの詳細を
指定するためのプロパティ・ダイアログを図解してい
る。このグループ設定用のプロパティ・ダイアログは、
ツール・バー内のアクション・ボックスをビヘイビア編
集領域にドラッグすることによって呼び出される他、メ
ニュー「オブジェクト」のサブメニュー項目「プロパテ
ィ」を経由して起動することができる。
FIG. 26 illustrates a property dialog for designating the details of the group box. The property dialog for this group setting is
In addition to being invoked by dragging the action box in the toolbar to the behavior editing area, it can be invoked via the submenu item "Properties" of the menu "Object".

【0244】同図に示すダイアログ上では、グループ名
と、ビヘイビア編集領域内でグループ・ボックスに与え
られる(表示される)名前を設定することができる。
On the dialog shown in the figure, a group name and a name given (displayed) to the group box in the behavior editing area can be set.

【0245】また、ボックス「ターミナル」をツール・
バーからビヘイビア編集領域内にドラッグすることによ
り、ドラッグ先には新規のターミナル・ボックスが置か
れる。これと同時に、この新規ターミナルの詳細を設定
するためのプロパティ・ダイアログが画面上に出現す
る。
Also, the box “Terminal” is used for tool /
Dragging from the bar into the behavior editing area places a new terminal box at the destination. At the same time, a property dialog for setting the details of this new terminal appears on the screen.

【0246】図27には、ターミナル・ボックスの詳細
を指定するためのプロパティ・ダイアログを図解してい
る。このターミナル設定用のプロパティ・ダイアログ
は、ツール・バー内のターミナル・ボックスをビヘイビ
ア編集領域にドラッグすることによって呼び出される
他、メニュー「オブジェクト」のサブメニュー項目「プ
ロパティ」を経由して起動することができる。同図に示
すダイアログ上では、ターミナルに与えられる(表示さ
れる)名前を設定することができる。
FIG. 27 illustrates a property dialog for specifying the details of the terminal box. This property dialog for terminal settings is invoked by dragging the terminal box in the tool bar to the behavior editing area, and can be invoked via the sub-menu item "Properties" of the menu "Object". it can. On the dialog shown in the figure, the name given (displayed) to the terminal can be set.

【0247】ツール・バー内の結線ツールをクリックす
ることにより、ビヘイビア編集領域内の各ボックス間を
接続することができることは既に述べた通りである。ボ
ックス間を接続する際には接続の許可/不許可を判断す
るための条件を設定することができる。判断条件を設定
したい場合には、条件(Condition)を設定するための
ダイアログを呼び出せばよい。
As described above, each box in the behavior editing area can be connected by clicking the connection tool in the tool bar. When connecting between boxes, a condition for judging permission / non-permission of connection can be set. If a user wants to set a judgment condition, a dialog for setting a condition may be called.

【0248】図28には、接続条件の詳細を指定するた
めのプロパティ・ダイアログを図解している。この条件
設定用のプロパティ・ダイアログは、例えば、メニュー
「オブジェクト」のサブメニュー項目「プロパティ」を
経由して起動することができる。このダイアログ内で
は、論理積(AND)、論理和(OR)などを用いた複
数の条件(図示の例では最大4個の条件)の組み合わせ
を接続条件として設定することができる。
FIG. 28 illustrates a property dialog for designating details of connection conditions. The property dialog for setting conditions can be activated, for example, via a submenu item “property” of the menu “object”. In this dialog, a combination of a plurality of conditions (in the illustrated example, up to four conditions) using logical product (AND), logical sum (OR), and the like can be set as connection conditions.

【0249】次いで、ビヘイビア編集領域内でのプログ
ラム編集処理について説明する。
Next, the program editing processing in the behavior editing area will be described.

【0250】該編集領域内では、各オブジェクトのドラ
ッグ・アンド・ドロップ操作が許容されている。アクシ
ョンやグループ、ブランチなどの各オブジェクトは「ボ
ックス」という形式で部品化されており、ユーザは、各
ボックスやボックス間のドラッグ・アンド・ドロップ操
作により、ボックス間の接続や切断を繰り返す作業を通
じて、ボックスの連結関係により記述される、全体とし
てある機能を実現するプログラムを組むことができる。
編集作業は、外見上はフローチャート・エディタの形式
を採用する。
In the editing area, a drag and drop operation of each object is allowed. Each object such as action, group, branch, etc. is made up of parts in the form of "box", and the user can repeatedly connect and disconnect between boxes by dragging and dropping each box and box. A program that realizes a certain function as a whole described by the connection relation of boxes can be set.
The editing work apparently adopts the format of a flowchart editor.

【0251】図20に示したような新規ビヘイビア編集
ウィンドウ上で、ターミナル・ボックスのドラッグ・ア
ンド・ドロップ操作により、プログラムやルーチンの開
始を示す端子"START"、並びに、プログラムやルー
チンの終了を示す端子"RETURN"を置くことができ
る(図29)。
In a new behavior editing window as shown in FIG. 20, a terminal "START" indicating the start of a program or a routine and an end of the program or a routine are indicated by a drag and drop operation of a terminal box. A terminal "RETURN" can be placed (FIG. 29).

【0252】ターミナル・ボックスをビヘイビア編集領
域上にドロップすることに連動して、図27に示したよ
うなプロパティ・ダイアログが起動して、端子の詳細を
設定することができる。
In conjunction with dropping the terminal box on the behavior editing area, a property dialog as shown in FIG. 27 is activated, and the details of the terminal can be set.

【0253】RETURNは、プログラムやルーチンの
出力端子を意味し、図示の通り、1つのプログラムやル
ーチンが複数の出力端子を備えていてもよい。
RETURN means an output terminal of a program or a routine. As shown, one program or routine may have a plurality of output terminals.

【0254】アクション・ボックスやブランチ・ボック
スを、ツール・バーからビヘイビア編集領域にドラッグ
・アンド・ドロップすることによって、ビヘイビア編集
領域上にアクション・ボックス並びにブランチ・ボック
スを置くことができる。この際、アクションやブランチ
の詳細を設定するためのプロパティ・ダイアログ(図2
4及び図25を参照のこと)がポップアップ表示され
る。各プロパティ・ダイアログ上で、アクション・ボッ
クスに割り当てるアクションの名前を指定したり、グル
ープ・ボックスに割り当てるグループの名前を指定した
り、新規ブランチ・ボックスに名前を与えたりすること
ができる。図30には、ビヘイビア編集領域上に、アク
ション・ボックスやグループ・ボックスブランチ・ボッ
クスを配置した様子を示している。
By dragging and dropping an action box or a branch box from the tool bar to the behavior editing area, the action box and the branch box can be placed on the behavior editing area. At this time, a property dialog (Figure 2) for setting details of actions and branches
4 and FIG. 25) are pop-up displayed. On each properties dialog, you can specify the name of the action to assign to the action box, specify the name of the group to assign to the group box, and give the new branch box a name. FIG. 30 shows a state in which an action box and a group box branch box are arranged on the behavior editing area.

【0255】図30に示すように各ボックスは、ボック
ス名が表示されたボックス本体と、このボックス本体の
上端に隣接するボックスの入力端子部と、ボックス本体
の下端に隣接する出力端子部とで構成される。
As shown in FIG. 30, each box consists of a box body on which a box name is displayed, an input terminal portion of the box adjacent to the upper end of the box body, and an output terminal portion adjacent to the lower end of the box body. Be composed.

【0256】さらに、ツール・バー内の結線ツールをク
リックすることにより、ビヘイビア編集領域は結線モー
ドとなる。この動作モード下では、あるボックスの出力
端子部と他のボックスの入力端子部の間をドラッグ操作
することによって、ボックス間の接続関係を形成するこ
とができる。
Further, by clicking the connection tool in the tool bar, the behavior editing area enters the connection mode. In this operation mode, the connection between the boxes can be formed by dragging between the output terminal of one box and the input terminal of another box.

【0257】ボックス間を接続する際には接続の許可/
不許可を判断するための条件を設定することができる。
判断条件を設定したい場合には、条件(Condition)を
設定するためのダイアログ(図28を参照のこと)を呼
び出せばよい。
When connecting between boxes, permission for connection /
Conditions for determining rejection can be set.
If the user wants to set a judgment condition, a dialog (see FIG. 28) for setting a condition may be called.

【0258】図31には、ビヘイビア編集領域上に配置
されたアクション・ボックスやグループ・ボックスブラ
ンチ・ボックスなどの各ボックス間に接続関係を形成し
た様子を示している。
FIG. 31 shows a state where a connection relationship is formed between boxes such as an action box and a group box branch box arranged in the behavior editing area.

【0259】使用するボックスの配置並びに各ボックス
間の接続関係を設定することによって、ビヘイビア編集
領域上では、ある所定の機能を実現するプログラム又は
プログラムの一部を構成するルーチンが組まれたことに
なる。ビヘイビア編集領域上では、プログラムやルーチ
ンはフローチャートに類似した形式で表示されるので、
ユーザは、フローチャートを編集する形式で、所望のプ
ログラムやルーチンを悲観的容易且つ直感的に編集する
ことができる訳である。
By setting the arrangement of boxes to be used and the connection relation between the boxes, a program for realizing a predetermined function or a routine constituting a part of the program is set in the behavior editing area. Become. In the behavior editing area, programs and routines are displayed in a format similar to a flowchart,
In other words, the user can easily and intuitively edit a desired program or routine in a format for editing the flowchart.

【0260】ビヘイビア編集領域上でフローチャート状
に組まれたルーチンをグループとして登録することによ
り、これをアクションや既存のグループなどと同様に部
品すなわちオブジェクトとして扱うことが可能となる。
例えば他の(上位の)プログラムやルーチンを構築する
際に、新たに登録したグループを使用することができ
る。
By registering routines arranged in a flowchart on the behavior editing area as a group, it is possible to treat the routine as a component, that is, an object in the same manner as an action or an existing group.
For example, when building another (upper) program or routine, a newly registered group can be used.

【0261】例えば、図31に示したようなビヘイビア
編集領域上で形成されたプログラム又はルーチンをグル
ープ化することもできる。
For example, programs or routines formed on the behavior editing area as shown in FIG. 31 can be grouped.

【0262】図32には、図31に示したビヘイビア編
集領域上で形成されたプログラム又はルーチンをグルー
プ化したグループ・ボックスをビヘイビア編集領域に配
置した様子を示している。例えば、このグループに対し
て"Group_012"なるグループ名を与えたとする。図31
からも分かるように、Group_012は、1個の入力端子と
3個の出力端子を備えている。
FIG. 32 shows a state in which a group box in which programs or routines formed on the behavior editing area shown in FIG. 31 are grouped is arranged in the behavior editing area. For example, assume that a group name "Group_012" is given to this group. FIG.
As can be seen from the above, Group_012 has one input terminal and three output terminals.

【0263】ビヘイビア編集領域上にアクションやグル
ープ、ブランチなど他のオブジェクト・ボックスを配置
して、これらボックスとGroup_012とを端子で接続する
ことにより、Group_012を部品の一部すなわちルーチン
として利用したプログラム(図示しない)を組むことが
できる。
By arranging other object boxes such as actions, groups, and branches on the behavior editing area and connecting these boxes to Group_012 by terminals, a program using Group_012 as a part of parts, that is, a routine ( (Not shown).

【0264】また、一旦編集・登録したグループの詳細
をビヘイビア編集領域に開いて、さらに編集作業を行う
ことができる。図33には、図32に示したグループ・
ボックスを開いた様子を図解している。
Further, the details of the group once edited and registered can be opened in the behavior editing area, and further editing work can be performed. FIG. 33 shows the group / group shown in FIG.
This illustrates the box opened.

【0265】[追補]以上、特定の実施例を参照しなが
ら、本発明について詳解してきた。しかしながら、本発
明の要旨を逸脱しない範囲で当業者が該実施例の修正や
代用を成し得ることは自明である。
[Supplement] The present invention has been described in detail with reference to the specific embodiments. However, it is obvious that those skilled in the art can modify or substitute the embodiment without departing from the spirit of the present invention.

【0266】本実施例では、イヌを模した4足歩行を行
うペット型ロボットを例に挙げて本発明に係るオーサリ
ング・システムについて詳解したが、本発明の要旨はこ
れに限定されない。例えば、ヒューマノイド・ロボット
のような2足の脚式移動ロボットや、あるいは脚式以外
の移動型ロボットに対しても、同様に本発明を適用する
ことができることを充分理解されたい。
In the present embodiment, the authoring system according to the present invention has been described in detail with reference to a pet-type robot that performs a quadrupedal walking simulating a dog, but the gist of the present invention is not limited to this. For example, it is to be fully understood that the present invention can be similarly applied to a two-legged mobile robot such as a humanoid robot or a mobile robot other than a legged mobile robot.

【0267】また、本明細書の[特許請求の範囲]の欄
に記載される「多関節構造体」は、脚式ロボットを始め
とする多関節型ロボットのような物理的な機械装置には
限定されない。例えば、コンピュータ・グラフィックス
により生成されるキャラクタを用いたアニメーションの
動作シーケンスの作成・編集のために、本発明に係るオ
ーサリング・システムを適用することも可能である。
Further, the “articulated structure” described in the “Claims” section of this specification is applicable to a physical mechanical device such as an articulated robot such as a legged robot. Not limited. For example, the authoring system according to the present invention can be applied to create and edit an animation motion sequence using characters generated by computer graphics.

【0268】要するに、例示という形態で本発明を開示
してきたのであり、限定的に解釈されるべきではない。
本発明の要旨を判断するためには、冒頭に記載した特許
請求の範囲の欄を参酌すべきである。
In short, the present invention has been disclosed by way of example, and should not be construed as limiting.
In order to determine the gist of the present invention, the claims described at the beginning should be considered.

【0269】[0269]

【発明の効果】以上詳記したように、本発明によれば、
所定のシナリオに従ったデータの作成・編集を支援する
ことができる、優れたオーサリング・システム及びオー
サリング方法を提供することができる。
As described above in detail, according to the present invention,
An excellent authoring system and an excellent authoring method that can support creation and editing of data according to a predetermined scenario can be provided.

【0270】また、本発明によれば、ロボットの所定の
動作パターンを記述する一連のコマンド/データの作成
・編集を支援することができる、優れたオーサリング・
システム及びオーサリング方法を提供することができ
る。
Further, according to the present invention, an excellent authoring / writing system which can support creation / editing of a series of commands / data describing a predetermined operation pattern of a robot.
A system and authoring method can be provided.

【0271】また、本発明によれば、ロボットの動作状
態を規定する部品の集合を用いて動作パターンの作成・
編集を支援することができる、優れたオーサリング・シ
ステム及びオーサリング方法を提供することができる。
Further, according to the present invention, it is possible to create an operation pattern by using a set of parts for defining an operation state of a robot.
An excellent authoring system and an authoring method that can support editing can be provided.

【0272】また、本発明によれば、各関節アクチュエ
ータの動作など1以上の時系列データの組み合わせから
なるロボットのアクションを部品化してコンピュータ・
ディスプレイ上に配置するとともに、各アクションの結
合関係をディスプレイ上のGUI操作により規定するこ
とでロボットのビヘイビアの作成・編集を行うことがで
きる、優れたオーサリング・システム及びオーサリング
方法を提供することができる。
Also, according to the present invention, the action of the robot, which is a combination of one or more time series data such as the operation of each joint actuator, is made into a
It is possible to provide an excellent authoring system and an excellent authoring method that can create and edit a behavior of a robot by arranging the actions on a display and defining a connection relationship of each action by a GUI operation on the display. .

【0273】本発明に係るオーサリング・システム及び
オーサリング方法によれば、ロボットを始めとする多関
節構造体を新しい遊びとして扱うことができるツールを
提供することができる。本発明によれば、コンピュータ
・プログラミングに関する高度な知識がなくとも、ロボ
ットを始めとする多関節構造体の行動をプログラムする
ことができ、簡単にコンテンツを作成することができ
る。例えば、ユーザは、多関節構造体を表現するための
ツールとして使用することができ、言い換えれば、ロボ
ットが提供するワールドを拡張することができる。
According to the authoring system and the authoring method according to the present invention, it is possible to provide a tool that can treat a robot or other articulated structure as a new play. ADVANTAGE OF THE INVENTION According to this invention, even if there is no advanced knowledge about computer programming, the action of the articulated structure including a robot can be programmed, and content can be created easily. For example, a user can use it as a tool for representing an articulated structure, in other words, expand the world provided by a robot.

【0274】本発明に係るオーサリング・システム及び
オーサリング方法によれば、ユーザは、GUI操作を介
して、フローチャート・エディタ形式で多関節構造体の
行動シーケンスに関するプログラミングを行うことがで
きる。さらに、ライブラリを豊富に取り揃えることによ
って、GUI画面上でのプログラミング作業をさらに簡
単で効率的なものにすることができる。
According to the authoring system and the authoring method according to the present invention, the user can program the action sequence of the multi-joint structure in the form of a flowchart editor via the GUI operation. Further, by providing a rich library, programming work on the GUI screen can be made simpler and more efficient.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を実施に供される四肢による脚式歩行を
行う移動ロボット1の外観構成を示した図である。
FIG. 1 is a diagram illustrating an external configuration of a mobile robot 1 that performs legged walking with limbs according to an embodiment of the present invention.

【図2】移動ロボット1の電気・制御系統の構成図を模
式的に示した図である。
FIG. 2 is a diagram schematically showing a configuration diagram of an electric / control system of the mobile robot 1.

【図3】制御部20の構成をさらに詳細に示した図であ
る。
FIG. 3 is a diagram illustrating the configuration of a control unit 20 in further detail.

【図4】ホスト・コンピュータ100のハードウェア構
成例を模式的に示した図である。
FIG. 4 is a diagram schematically illustrating an example of a hardware configuration of a host computer 100.

【図5】本実施例に係るオーサリング・システムの全体
構成を模式的に示した図である。
FIG. 5 is a diagram schematically illustrating an overall configuration of the authoring system according to the embodiment.

【図6】2以上のコマンドすなわちアクションを並べて
いくことによりロボットのビヘイビアを構成する様子を
示した図である。
FIG. 6 is a diagram showing how a robot behavior is configured by arranging two or more commands, that is, actions.

【図7】条件や確率に基づいた分岐をビヘイビアの中に
含めた様子を示した図である。
FIG. 7 is a diagram illustrating a state in which a branch based on a condition or a probability is included in a behavior.

【図8】複数のコマンドすなわちアクションをボックス
化してサブルーチンを定義した様子を示した図である。
FIG. 8 is a diagram showing a state in which a plurality of commands, that is, actions, are boxed to define a subroutine.

【図9】アクション編集サブシステムの機能構成を模式
的に示したブロック図である。
FIG. 9 is a block diagram schematically showing a functional configuration of an action editing subsystem.

【図10】アクション編集ウィンドウの構成を概略的に
示した図である。
FIG. 10 is a diagram schematically showing a configuration of an action editing window.

【図11】キーフレーム・チャンネルを開いた状態(キ
ーフレーム詳細チャンネル)のアクション編集ウィンド
ウを示した図である。
FIG. 11 is a diagram showing an action editing window in a state where a key frame channel is opened (key frame detail channel).

【図12】モーション・チャンネルを開いた状態(モー
ション詳細チャンネル)のアクション編集ウィンドウを
示した図である。
FIG. 12 is a diagram showing an action editing window in a state where a motion channel is opened (motion detail channel).

【図13】MIDI形式のサウンド・ファイルを編集す
るためのサウンド詳細ウィンドウの構成を概略的に示し
た図である。
FIG. 13 is a diagram schematically showing a configuration of a sound detail window for editing a MIDI sound file.

【図14】WAVE形式のサウンド・ファイルを表示す
るためのサウンド詳細ウィンドウの構成を概略的に示し
た図である。
FIG. 14 is a diagram schematically showing a configuration of a sound details window for displaying a WAVE-format sound file.

【図15】MIDI形式で記述されたLED動作ファイ
ルを表示して編集するためのLED詳細ウィンドウの構
成を概略的に示した図である。
FIG. 15 is a diagram schematically showing a configuration of an LED detail window for displaying and editing an LED operation file described in a MIDI format.

【図16】プレビュー・ウィンドウの構成を概略的に示
した図である。
FIG. 16 is a diagram schematically showing a configuration of a preview window.

【図17】ポーズ・ウィンドウの構成を概略的に示した
図である。
FIG. 17 is a diagram schematically showing a configuration of a pause window.

【図18】モーション・プレビューワの構成を概略的に
示した図である。
FIG. 18 is a diagram schematically showing a configuration of a motion previewer.

【図19】ビヘイビア編集サブシステムの機能構成を模
式的に示した図である。
FIG. 19 is a diagram schematically showing a functional configuration of a behavior editing subsystem.

【図20】ビヘイビア編集ウィンドウの構成を概略的に
示した図である。
FIG. 20 is a diagram schematically showing a configuration of a behavior editing window.

【図21】ビヘイビア編集ウィンドウ内のメニュー「フ
ァイル」のサブメニュー項目を示した図である。
FIG. 21 is a diagram showing submenu items of a menu “File” in a behavior editing window.

【図22】ビヘイビア編集ウィンドウ内のメニュー「編
集」のサブメニュー項目を示した図である。
FIG. 22 is a diagram showing submenu items of a menu “edit” in a behavior editing window.

【図23】ビヘイビア編集ウィンドウ内のメニュー「オ
ブジェクト」のサブメニュー項目を示した図である。
FIG. 23 is a diagram showing submenu items of a menu “object” in the behavior editing window.

【図24】アクション・ボックスの詳細を指定するため
のプロパティ・ダイアログを示した図である。
FIG. 24 is a diagram showing a property dialog for designating details of an action box.

【図25】ブランチ・ボックスの詳細を指定するための
プロパティ・ダイアログを示した図である。
FIG. 25 is a diagram showing a property dialog for designating details of a branch box.

【図26】グループ・ボックスの詳細を指定するための
プロパティ・ダイアログを示した図である。
FIG. 26 is a diagram showing a property dialog for specifying details of a group box.

【図27】ターミナル・ボックスの詳細を指定するため
のプロパティ・ダイアログを示した図である。
FIG. 27 is a diagram illustrating a property dialog for specifying details of a terminal box.

【図28】条件判断の詳細を指定するためのプロパティ
・ダイアログを示した図である。
FIG. 28 is a diagram showing a property dialog for specifying details of a condition determination.

【図29】ビヘイビア編集領域上にターミナルを置いた
様子を示した図である。
FIG. 29 is a diagram showing a state where a terminal is placed on the behavior editing area.

【図30】ビヘイビア編集領域上にアクション・ボック
スやブランチ・ボックスを配置した様子を示した図であ
る。
FIG. 30 is a diagram showing a state where an action box and a branch box are arranged on the behavior editing area.

【図31】ビヘイビア編集領域上に配置されたアクショ
ン・ボックスやグループ・ボックスブランチ・ボックス
などの各ボックス間に接続関係を形成した様子を示した
図である。
FIG. 31 is a diagram showing a state in which a connection relationship is formed between boxes such as an action box and a group box branch box arranged on the behavior editing area.

【図32】図31に示したビヘイビア編集領域上で形成
されたプログラム又はルーチンをグループ化したグルー
プ・ボックスをビヘイビア編集領域に配置した様子を示
した図である。
FIG. 32 is a diagram showing a state where a group box in which programs or routines formed on the behavior editing area shown in FIG. 31 are grouped is arranged in the behavior editing area.

【図33】図32に示したグループ・ボックスを開いた
様子を示した図である。
FIG. 33 is a diagram showing a state where the group box shown in FIG. 32 is opened.

【図34】プロジェクト・ウィンドウを示した図であ
る。
FIG. 34 is a diagram showing a project window.

【符号の説明】[Explanation of symbols]

1…移動ロボット 2…胴体部ユニット 3…頭部ユニット 4…尻尾 6A〜6D…脚部ユニット 7…首関節 8…尻尾関節 9A〜9D…大腿部ユニット 10A〜10D…脛部ユニット 11A〜11D…股関節 12A〜12D…膝関節 15…CCDカメラ 16…マイクロフォン 17…スピーカ 18…タッチセンサ 19…LEDインジケータ 20…制御部 21…CPU 22…RAM 23…ROM 24…不揮発メモリ 25…インターフェース 26…無線通信インターフェース 27…ネットワーク・インターフェース・カード 28…バス 29…キーボード 40…入出力部 50…駆動部 51…モータ 52…エンコーダ 53…ドライバ DESCRIPTION OF SYMBOLS 1 ... Mobile robot 2 ... Torso unit 3 ... Head unit 4 ... Tail 6A-6D ... Leg unit 7 ... Neck joint 8 ... Tail joint 9A-9D ... Thigh unit 10A-10D ... Tibial unit 11A-11D ... hip joints 12A to 12D ... knee joints 15 ... CCD camera 16 ... microphone 17 ... speaker 18 ... touch sensor 19 ... LED indicator 20 ... control unit 21 ... CPU 22 ... RAM 23 ... ROM 24 ... nonvolatile memory 25 ... interface 26 ... wireless communication Interface 27 Network interface card 28 Bus 29 Keyboard 40 Input / output unit 50 Drive unit 51 Motor 52 Encoder 53 Driver

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C150 CA02 DA05 DA24 DA26 DA27 DA28 DF03 DF04 DF33 ED42 ED52 EF07 EF16 EF23 EF29 EF33 EF36 3F059 AA00 BA00 BB06 DA05 DB04 DC00 DC01 FC14 5H269 AB33 EE11 JJ04 JJ09 JJ20 QD05 QE10  ──────────────────────────────────────────────────続 き Continued on the front page F-term (reference) 2C150 CA02 DA05 DA24 DA26 DA27 DA28 DF03 DF04 DF33 ED42 ED52 EF07 EF16 EF23 EF29 EF33 EF36 3F059 AA00 BA00 BB06 DA05 DB04 DC00 DC01 FC14 5H269 AB33 EE11 JJ10 Q05 Q09

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】多関節構造体のビヘイビアの作成・編集を
支援するためのオーサリング・システムであって、 ユーザから操作画面を介して入力されるコマンドやデー
タを受容するユーザ入力部と、 ユーザに対して前記他関節構造体のビヘイビアを作成・
編集するための作業場を操作画面上で提供するユーザ提
示部と、 操作画面上におけるユーザ入力に基づいてビヘイビアの
構成要素どうしの接続関係を形成して、ビヘイビアを規
定するプログラムを生成するプログラム生成部と、を具
備することを特徴とするオーサリング・システム。
An authoring system for supporting creation and editing of a behavior of an articulated structure, comprising: a user input unit for receiving a command or data input from a user via an operation screen; Create the behavior of the other joint structure
A user presentation unit that provides a workplace for editing on an operation screen; and a program generation unit that forms a connection relationship between constituent elements of the behavior based on a user input on the operation screen and generates a program that defines the behavior. And an authoring system comprising:
【請求項2】ビヘイビアの構成要素は、アクション、複
数のアクションを組み合わせたグループ、分岐、終端を
含むことを特徴とする請求項1に記載のオーサリング・
システム。
2. The authoring / writing system according to claim 1, wherein the constituent elements of the behavior include an action, a group obtained by combining a plurality of actions, a branch, and a terminal.
system.
【請求項3】アクションは多関節構造体の各関節の時系
列的な動作を記述したモーション・データを含むことを
特徴とする請求項2に記載のオーサリング・システム。
3. The authoring system according to claim 2, wherein the action includes motion data describing a time-series operation of each joint of the articulated structure.
【請求項4】アクションはアクションの再生と時間的に
同期して音声出力されるサウンド・データを含むことを
特徴とする請求項2に記載のオーサリング・システム。
4. The authoring system according to claim 2, wherein the action includes sound data that is output as sound in synchronization with the reproduction of the action.
【請求項5】アクションはアクションの再生と時間的に
同期して表示出力される表示インジケータの点灯/消滅
動作を記述したインジケータ表示データを含むことを特
徴とする請求項2に記載のオーサリング・システム。
5. The authoring system according to claim 2, wherein the action includes indicator display data describing an on / off operation of a display indicator which is displayed and output in synchronization with the reproduction of the action. .
【請求項6】前記ユーザ提示部はビヘイビアの各構成要
素間の接続関係をフローチャート編集形式で提示するこ
とを特徴とする請求項1に記載のオーサリング・システ
ム。
6. The authoring system according to claim 1, wherein the user presenting unit presents a connection relation between the respective constituent elements of the behavior in a flowchart editing format.
【請求項7】前記ユーザ提示部は、ビヘイビアの各構成
要素の詳細な属性情報を設定する属性設定画面をユーザ
に提供することを特徴とする請求項1に記載のオーサリ
ング・システム。
7. The authoring system according to claim 1, wherein the user presentation unit provides a user with an attribute setting screen for setting detailed attribute information of each component of the behavior.
【請求項8】多関節構造体のビヘイビアの作成・編集を
支援するためのオーサリング方法であって、 ユーザから操作画面を介して入力されるコマンドやデー
タを受容するユーザ入力ステップと、 ユーザに対して前記他関節構造体のビヘイビアを作成・
編集するための作業場を操作画面上で提供するユーザ提
示ステップと、 操作画面上におけるユーザ入力に基づいてビヘイビアの
構成要素どうしの接続関係を形成して、ビヘイビアを規
定するプログラムを生成するプログラム生成ステップ
と、を具備することを特徴とするオーサリング方法。
8. An authoring method for supporting creation and editing of a behavior of an articulated structure, comprising: a user input step of receiving a command or data input from a user via an operation screen; To create the behavior of the other joint structure
A user presenting step of providing a workplace for editing on an operation screen, and a program generating step of forming a connection relationship between constituent elements of the behavior based on a user input on the operation screen to generate a program defining the behavior And an authoring method.
【請求項9】ビヘイビアの構成要素は、アクション、複
数のアクションを組み合わせたグループ、分岐、終端を
含むことを特徴とする請求項8に記載のオーサリング方
法。
9. The authoring method according to claim 8, wherein the constituent elements of the behavior include an action, a group obtained by combining a plurality of actions, a branch, and an end.
【請求項10】アクションは多関節構造体の各関節の時
系列的な動作を記述したモーション・データを含むこと
を特徴とする請求項9に記載のオーサリング方法。
10. The authoring method according to claim 9, wherein the action includes motion data describing a time-series operation of each joint of the multi-joint structure.
【請求項11】アクションはアクションの再生と時間的
に同期して音声出力されるサウンド・データを含むこと
を特徴とする請求項9に記載のオーサリング方法。
11. The authoring method according to claim 9, wherein the action includes sound data that is output as audio in synchronization with the reproduction of the action.
【請求項12】アクションはアクションの再生と時間的
に同期して表示出力される表示インジケータの点灯/消
滅動作を記述したインジケータ表示データを含むことを
特徴とする請求項9に記載のオーサリング方法。
12. The authoring method according to claim 9, wherein the action includes indicator display data describing a lighting / extinguishing operation of a display indicator displayed and output in synchronization with the reproduction of the action.
【請求項13】前記ユーザ提示ステップではビヘイビア
の各構成要素間の接続関係をフローチャート編集形式で
提示することを特徴とする請求項8に記載のオーサリン
グ方法。
13. The authoring method according to claim 8, wherein in the user presenting step, the connection relation between the constituent elements of the behavior is presented in a flowchart editing format.
【請求項14】前記ユーザ提示ステップでは、ビヘイビ
アの各構成要素の詳細な属性情報を設定する属性設定画
面をユーザに提供することを特徴とする請求項8に記載
のオーサリング方法。
14. The authoring method according to claim 8, wherein in the user presenting step, an attribute setting screen for setting detailed attribute information of each component of the behavior is provided to the user.
【請求項15】多関節構造体のビヘイビアの作成・編集
を支援するための処理をコンピュータ・システム上で実
行するように記述されたコンピュータ・ソフトウェアを
コンピュータ可読形式で物理的に格納した記憶媒体であ
って、前記コンピュータ・ソフトウェアは、 ユーザから操作画面を介して入力されるコマンドやデー
タを受容するユーザ入力ステップと、 ユーザに対して前記他関節構造体のビヘイビアを作成・
編集するための作業場を操作画面上で提供するユーザ提
示ステップと、 操作画面上におけるユーザ入力に基づいてビヘイビアの
構成要素どうしの接続関係を形成して、ビヘイビアを規
定するプログラムを生成するプログラム生成ステップ
と、を具備することを特徴とする記憶媒体。
15. A storage medium physically storing computer software in a computer readable format, which is written to execute a process for supporting creation / editing of a behavior of an articulated structure on a computer system. The computer software includes a user input step of receiving a command or data input from a user via an operation screen, and creating a behavior of the other joint structure for a user.
A user presenting step of providing a workplace for editing on an operation screen, and a program generating step of forming a connection relationship between constituent elements of the behavior based on a user input on the operation screen to generate a program defining the behavior And a storage medium comprising:
JP2000311126A 2000-10-11 2000-10-11 Authoring system, authoring method, and storage medium Expired - Fee Related JP4670136B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000311126A JP4670136B2 (en) 2000-10-11 2000-10-11 Authoring system, authoring method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000311126A JP4670136B2 (en) 2000-10-11 2000-10-11 Authoring system, authoring method, and storage medium

Publications (2)

Publication Number Publication Date
JP2002120174A true JP2002120174A (en) 2002-04-23
JP4670136B2 JP4670136B2 (en) 2011-04-13

Family

ID=18790948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000311126A Expired - Fee Related JP4670136B2 (en) 2000-10-11 2000-10-11 Authoring system, authoring method, and storage medium

Country Status (1)

Country Link
JP (1) JP4670136B2 (en)

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005014242A1 (en) * 2003-08-12 2005-02-17 Advanced Telecommunications Research Institute International Communication robot control system
JP2005194977A (en) * 2004-01-09 2005-07-21 Hino Motors Ltd Device and method for testing transient characteristic of internal combustion engine
JP2005195542A (en) * 2004-01-09 2005-07-21 Hino Motors Ltd Transient test device and method for engine
JP2008518286A (en) * 2004-09-09 2008-05-29 ソニー エレクトロニクス インコーポレーテッド Method and apparatus for authoring declarative content for remote platforms
WO2008076907A2 (en) * 2006-12-14 2008-06-26 The Jellyvision Lab, Inc. System and method for controlling actions within a programming environment
JP2008307662A (en) * 2007-06-15 2008-12-25 Fujitsu Ltd Robot system, editor terminal and editor program
WO2009107358A1 (en) * 2008-02-28 2009-09-03 パナソニック株式会社 Control apparatus and control method for a robot arm, robot, control program for a robot arm, and electronic integrated circuit for controlling a robot arm
JP2010089248A (en) * 2008-10-09 2010-04-22 National Chiao Tung Univ Glove puppet manipulating system
WO2010136427A1 (en) * 2009-05-26 2010-12-02 Aldebaran Robotics System and method for editing and controlling the behaviour of a movable robot
JP2011000655A (en) * 2009-06-17 2011-01-06 Advanced Telecommunication Research Institute International Communication robot development supporting apparatus
WO2011036865A1 (en) * 2009-09-28 2011-03-31 パナソニック株式会社 Control device and control method for robot arm, robot, control program for robot arm, and integrated electronic circuit for controlling robot arm
CN102156452A (en) * 2009-12-14 2011-08-17 智能娱乐机器人株式会社 Robot synchronizing apparatus and method for same
US8127238B2 (en) 2006-12-14 2012-02-28 The Jellyvision Lab, Inc. System and method for controlling actions within a programming environment
JP2012066376A (en) * 2010-09-22 2012-04-05 Gm Global Technology Operations Inc Concurrent path planning with one or more humanoid robots
US8276058B2 (en) 2007-02-08 2012-09-25 The Jellyvision Lab, Inc. Method of automatically populating and generating flowerchart cells
JP2012232363A (en) * 2011-04-28 2012-11-29 Seiko Epson Corp Robot control system, robot system and program
US8464169B2 (en) 2002-01-02 2013-06-11 The Jellyvision Lab, Inc. Methods for identifying cells in a path in a flowchart and for synchronizing graphical and textual views of a flowchart
US8521709B2 (en) 2006-10-31 2013-08-27 The Jellyvision Lab, Inc. Methods for preloading media assets
JP2013208681A (en) * 2012-03-30 2013-10-10 Fujitsu Ltd Interaction device and interaction control program
JP2014028284A (en) * 2008-07-18 2014-02-13 Hydrae Ltd Interactive toy
JP2014117781A (en) * 2012-12-18 2014-06-30 Yaskawa Electric Corp Teaching data creation device, robot system, and teaching data creation method
CN103970087A (en) * 2013-01-30 2014-08-06 发那科株式会社 Operating program writing system
JP2015525137A (en) * 2012-06-01 2015-09-03 アルデバラン ロボティクス Method and system for generating contextual behavior of a mobile robot performed in real time
JP6067905B1 (en) * 2016-03-18 2017-01-25 M−Solutions株式会社 Robot control program generation system
JP2017170607A (en) * 2016-03-22 2017-09-28 ペキン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science And Technology Co., Ltd. Artificial intelligence based-robot debug system
US9833897B2 (en) 2011-09-28 2017-12-05 Universal Robots A/S Calibration and programming of robots
US10195746B2 (en) 2014-09-26 2019-02-05 Teradyne, Inc. Grasping gripper
JP2019521449A (en) * 2016-03-31 2019-07-25 ジボ インコーポレイテッド Persistent Companion Device Configuration and Deployment Platform
US10399232B2 (en) 2014-03-04 2019-09-03 Universal Robots A/S Safety system for industrial robot
WO2020021818A1 (en) 2018-07-27 2020-01-30 シチズン時計株式会社 Program generation system, program, and generation terminal device
WO2020118730A1 (en) * 2018-12-14 2020-06-18 中国科学院深圳先进技术研究院 Compliance control method and apparatus for robot, device, and storage medium
JP2020168666A (en) * 2019-04-01 2020-10-15 株式会社安川電機 Programming support device, robot system, and programming support method
US10850393B2 (en) 2015-07-08 2020-12-01 Universal Robots A/S Method for extending end user programming of an industrial robot with third party contributions
WO2021260898A1 (en) * 2020-06-25 2021-12-30 株式会社日立ハイテク Robot teaching device and method for teaching work
JP2022100572A (en) * 2020-12-24 2022-07-06 株式会社Avad Program execution system, controller, and control program
US11474510B2 (en) 2016-04-12 2022-10-18 Universal Robots A/S Programming a robot by demonstration
US11822355B2 (en) 2010-11-16 2023-11-21 Universal Robot A/S Programmable robot

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106471572B (en) * 2016-07-07 2019-09-03 深圳狗尾草智能科技有限公司 Method, system and the robot of a kind of simultaneous voice and virtual acting

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08314524A (en) * 1995-05-22 1996-11-29 Ricoh Elemex Corp Control method for robot and robot system
JP2000153478A (en) * 1998-09-03 2000-06-06 Ricoh Elemex Corp Robot system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08314524A (en) * 1995-05-22 1996-11-29 Ricoh Elemex Corp Control method for robot and robot system
JP2000153478A (en) * 1998-09-03 2000-06-06 Ricoh Elemex Corp Robot system

Cited By (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8464169B2 (en) 2002-01-02 2013-06-11 The Jellyvision Lab, Inc. Methods for identifying cells in a path in a flowchart and for synchronizing graphical and textual views of a flowchart
US7689319B2 (en) 2003-08-12 2010-03-30 Advanced Telecommunications Research Institute International Communication robot control system
JPWO2005014242A1 (en) * 2003-08-12 2006-09-28 株式会社国際電気通信基礎技術研究所 Communication robot control system
CN100436082C (en) * 2003-08-12 2008-11-26 株式会社国际电气通信基础技术研究所 Communication robot control system
WO2005014242A1 (en) * 2003-08-12 2005-02-17 Advanced Telecommunications Research Institute International Communication robot control system
JP2005194977A (en) * 2004-01-09 2005-07-21 Hino Motors Ltd Device and method for testing transient characteristic of internal combustion engine
JP2005195542A (en) * 2004-01-09 2005-07-21 Hino Motors Ltd Transient test device and method for engine
JP2008518286A (en) * 2004-09-09 2008-05-29 ソニー エレクトロニクス インコーポレーテッド Method and apparatus for authoring declarative content for remote platforms
US8521709B2 (en) 2006-10-31 2013-08-27 The Jellyvision Lab, Inc. Methods for preloading media assets
WO2008076907A3 (en) * 2006-12-14 2008-09-12 Jellyvision Lab Inc System and method for controlling actions within a programming environment
US8127238B2 (en) 2006-12-14 2012-02-28 The Jellyvision Lab, Inc. System and method for controlling actions within a programming environment
WO2008076907A2 (en) * 2006-12-14 2008-06-26 The Jellyvision Lab, Inc. System and method for controlling actions within a programming environment
US8276058B2 (en) 2007-02-08 2012-09-25 The Jellyvision Lab, Inc. Method of automatically populating and generating flowerchart cells
JP2008307662A (en) * 2007-06-15 2008-12-25 Fujitsu Ltd Robot system, editor terminal and editor program
JP4531123B2 (en) * 2008-02-28 2010-08-25 パナソニック株式会社 Robot arm control device and control method, robot, robot arm control program, and integrated electronic circuit for robot arm control
JP4531126B2 (en) * 2008-02-28 2010-08-25 パナソニック株式会社 Robot arm control device and control method, robot, robot arm control program, and integrated electronic circuit for robot arm control
US8175749B2 (en) 2008-02-28 2012-05-08 Panasonic Corporation Control apparatus and control method for robot arm, robot, control program for robot arm, and integrated electronic circuit for controlling robot arm
JPWO2009107358A1 (en) * 2008-02-28 2011-06-30 パナソニック株式会社 Robot arm control device and control method, robot, robot arm control program, and integrated electronic circuit for robot arm control
WO2009107358A1 (en) * 2008-02-28 2009-09-03 パナソニック株式会社 Control apparatus and control method for a robot arm, robot, control program for a robot arm, and electronic integrated circuit for controlling a robot arm
JP2010137357A (en) * 2008-02-28 2010-06-24 Panasonic Corp Control apparatus and control method for robot arm, robot, control program for robot arm, and integrated electronic circuit for controlling robot arm
CN102152313B (en) * 2008-02-28 2012-12-12 松下电器产业株式会社 Control apparatus and control method for a robot arm, robot, control program for a robot arm, and electronic integrated circuit for controlling a robot arm
US8170719B2 (en) 2008-02-28 2012-05-01 Panasonic Corporation Control apparatus and control method for robot arm, robot, control program for robot arm, and integrated electronic circuit for controlling robot arm
JP2014028284A (en) * 2008-07-18 2014-02-13 Hydrae Ltd Interactive toy
US8571707B2 (en) 2008-10-09 2013-10-29 National Chiao Tung University Glove puppet manipulating system
JP2010089248A (en) * 2008-10-09 2010-04-22 National Chiao Tung Univ Glove puppet manipulating system
FR2946160A1 (en) * 2009-05-26 2010-12-03 Aldebaran Robotics SYSTEM AND METHOD FOR EDIT AND ORDER BEHAVIOR OF A MOBILE ROBOT.
CN102448678A (en) * 2009-05-26 2012-05-09 奥尔德巴伦机器人公司 System and method for editing and controlling the behavior of a movable robot
US9333651B2 (en) 2009-05-26 2016-05-10 Aldebaran Robotics S.A System and method for editing and controlling the behavior of a mobile robot
WO2010136427A1 (en) * 2009-05-26 2010-12-02 Aldebaran Robotics System and method for editing and controlling the behaviour of a movable robot
JP2012528015A (en) * 2009-05-26 2012-11-12 オルドウバラン、ロボティクス System and method for editing and controlling mobile robot behavior
JP2011000655A (en) * 2009-06-17 2011-01-06 Advanced Telecommunication Research Institute International Communication robot development supporting apparatus
US8290621B2 (en) 2009-09-28 2012-10-16 Panasonic Corporation Control apparatus and control method for robot arm, robot, control program for robot arm, and robot arm control-purpose integrated electronic circuit
WO2011036865A1 (en) * 2009-09-28 2011-03-31 パナソニック株式会社 Control device and control method for robot arm, robot, control program for robot arm, and integrated electronic circuit for controlling robot arm
US8175750B2 (en) 2009-09-28 2012-05-08 Panasonic Corporation Control apparatus and control method for robot arm, robot, control program for robot arm, and robot arm control-purpose integrated electronic circuit
CN102156452A (en) * 2009-12-14 2011-08-17 智能娱乐机器人株式会社 Robot synchronizing apparatus and method for same
JP2012066376A (en) * 2010-09-22 2012-04-05 Gm Global Technology Operations Inc Concurrent path planning with one or more humanoid robots
US8731714B2 (en) 2010-09-22 2014-05-20 GM Global Technology Operations LLC Concurrent path planning with one or more humanoid robots
US11822355B2 (en) 2010-11-16 2023-11-21 Universal Robot A/S Programmable robot
JP2012232363A (en) * 2011-04-28 2012-11-29 Seiko Epson Corp Robot control system, robot system and program
US9833897B2 (en) 2011-09-28 2017-12-05 Universal Robots A/S Calibration and programming of robots
JP2013208681A (en) * 2012-03-30 2013-10-10 Fujitsu Ltd Interaction device and interaction control program
JP2015525137A (en) * 2012-06-01 2015-09-03 アルデバラン ロボティクス Method and system for generating contextual behavior of a mobile robot performed in real time
JP2014117781A (en) * 2012-12-18 2014-06-30 Yaskawa Electric Corp Teaching data creation device, robot system, and teaching data creation method
US9248574B2 (en) 2012-12-18 2016-02-02 Kabushiki Kaisha Yaskawa Denki Teaching data generator, robot system, and method for generating teaching data
CN103970087A (en) * 2013-01-30 2014-08-06 发那科株式会社 Operating program writing system
CN103970087B (en) * 2013-01-30 2016-03-02 发那科株式会社 Operation program generating apparatus
US9676101B2 (en) 2013-01-30 2017-06-13 Fanuc Corporation Operating program writing system
JP2014144523A (en) * 2013-01-30 2014-08-14 Fanuc Ltd Operating program creation device
US10399232B2 (en) 2014-03-04 2019-09-03 Universal Robots A/S Safety system for industrial robot
US10195746B2 (en) 2014-09-26 2019-02-05 Teradyne, Inc. Grasping gripper
US10850393B2 (en) 2015-07-08 2020-12-01 Universal Robots A/S Method for extending end user programming of an industrial robot with third party contributions
JP6067905B1 (en) * 2016-03-18 2017-01-25 M−Solutions株式会社 Robot control program generation system
JP2017170607A (en) * 2016-03-22 2017-09-28 ペキン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science And Technology Co., Ltd. Artificial intelligence based-robot debug system
JP2019521449A (en) * 2016-03-31 2019-07-25 ジボ インコーポレイテッド Persistent Companion Device Configuration and Deployment Platform
US11474510B2 (en) 2016-04-12 2022-10-18 Universal Robots A/S Programming a robot by demonstration
US11243518B2 (en) 2018-07-27 2022-02-08 Citizen Watch Co., Ltd. Computer program production system, computer program, and production terminal instrument
WO2020021818A1 (en) 2018-07-27 2020-01-30 シチズン時計株式会社 Program generation system, program, and generation terminal device
WO2020118730A1 (en) * 2018-12-14 2020-06-18 中国科学院深圳先进技术研究院 Compliance control method and apparatus for robot, device, and storage medium
JP2020168666A (en) * 2019-04-01 2020-10-15 株式会社安川電機 Programming support device, robot system, and programming support method
US11413752B2 (en) 2019-04-01 2022-08-16 Kabushiki Kaisha Yaskawa Denki Programming assistance for robots
WO2021260898A1 (en) * 2020-06-25 2021-12-30 株式会社日立ハイテク Robot teaching device and method for teaching work
JP7454046B2 (en) 2020-06-25 2024-03-21 株式会社日立ハイテク Robot teaching device and work teaching method
JP2022100572A (en) * 2020-12-24 2022-07-06 株式会社Avad Program execution system, controller, and control program
JP7444407B2 (en) 2020-12-24 2024-03-06 株式会社Avad Program execution system, control device and control program

Also Published As

Publication number Publication date
JP4670136B2 (en) 2011-04-13

Similar Documents

Publication Publication Date Title
JP4765155B2 (en) Authoring system, authoring method, and storage medium
JP4670136B2 (en) Authoring system, authoring method, and storage medium
US6470235B2 (en) Authoring system and method, and storage medium used therewith
Pot et al. Choregraphe: a graphical tool for humanoid robot programming
Biggs et al. A survey of robot programming systems
JP2012528015A (en) System and method for editing and controlling mobile robot behavior
EP1610221A1 (en) Information providing device, method, and information providing system
AU700204B2 (en) Installation and method for controlling a movable apparatus
JP2000506637A (en) Biological animation and simulation technology
JPH0520044A (en) User interface device
US20030066050A1 (en) Method and system for programming devices using finite state machine descriptions
CN110490958B (en) Animation drawing method, device, terminal and storage medium
JP6319772B2 (en) Method and system for generating contextual behavior of a mobile robot performed in real time
Briggs An essential introduction to Maya character rigging
WO2001050362A1 (en) Purchase system and method, order accepting device and method, and computer program
Cannavò et al. A visual editing tool supporting the production of 3D interactive graphics assets for public exhibitions
Young et al. Style by demonstration: teaching interactive movement style to robots
JP2004318862A (en) Information providing device and method, and information providing system
JPH0668063A (en) Virtual living thing system
Besari et al. Preliminary design of interactive visual mobile programming on educational robot ADROIT V1
US20200254358A1 (en) Terminal for action robot and method of operating the same
JP2001191274A (en) Data holding device, robot device, modification device and modification method
Redondo Verdú et al. Mixed reality for industrial robot programming
TWI301940B (en)
Breazeal et al. Public anemone: an organic robot creature

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101005

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110103

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140128

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees