JP2000271350A - Insect robot - Google Patents

Insect robot

Info

Publication number
JP2000271350A
JP2000271350A JP11124699A JP12469999A JP2000271350A JP 2000271350 A JP2000271350 A JP 2000271350A JP 11124699 A JP11124699 A JP 11124699A JP 12469999 A JP12469999 A JP 12469999A JP 2000271350 A JP2000271350 A JP 2000271350A
Authority
JP
Japan
Prior art keywords
action
inter
individual
action unit
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11124699A
Other languages
Japanese (ja)
Other versions
JP3983416B2 (en
Inventor
Yoshinori Haga
義典 芳賀
Keiichi Kazami
敬一 風見
Yuji Sawajiri
雄二 澤尻
Shinichi Suda
慎一 須田
Masahiro Sato
真啓 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Co Ltd
Original Assignee
Bandai Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Co Ltd filed Critical Bandai Co Ltd
Priority to JP12469999A priority Critical patent/JP3983416B2/en
Publication of JP2000271350A publication Critical patent/JP2000271350A/en
Application granted granted Critical
Publication of JP3983416B2 publication Critical patent/JP3983416B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Toys (AREA)
  • Feedback Control In General (AREA)

Abstract

PROBLEM TO BE SOLVED: To make it possible to express insect-like actions by driving actuators in such a manner as to execute the actions regulated by action units selected according to an environmental condition for the duration time of the actions. SOLUTION: The obstruction existing within the action space is irradiated from left side and right side light emitting diodes 2a and 2b and the reflected rays are sensitized as environment signals by a phototransistor 3 which outputs an obstruction state signal as the environment state signal. A cadmium sulfide cell 4 sensitizes the external light in the action space, thereby setting an input parameter indicating the brightness in the action space. A microcomputer 10 regulates one kind among advance, retreat, right swivel, left swivel and stop as the kind of the action of the insect robot, regulates the duration time and execution speed of the action and drives electric motors as the actuators 13 and 14 for the duration time of the prescribed action at a duty ratio corresponding to the execution speed of the action.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、アクション空間
内で自律して、6足走行などの昆虫らいし挙動を呈する
ことで、昆虫の生態を模擬するようにした趣味性の昆虫
ロボットに関連し、とくに、アクション空間内の明る
さ、障害物などの環境状態や自己の個体に接近する他の
個体の種類に反応して、あたかも昆虫生態であるかのよ
うな生々しい運動を表現するようにした改良に関するも
のである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a hobby insect robot which simulates insect ecology by exhibiting insect-like behavior such as six-legged running autonomously in an action space. In particular, responding to the brightness in the action space, environmental conditions such as obstacles, and the types of other individuals approaching the individual, to express vivid movement as if it were insect ecology It is related to the improvements made.

【0002】[0002]

【従来の技術】アクション空間内で自律して6足走行す
ることで、昆虫の生態を模擬するようにした昆虫ロボッ
ト自体は玩具として愛好されており、そのような従前の
昆虫ロボットは、例えば、特開平8−57159号によ
っても開示され、バンダイ製「6足歩行カブテリオス」
としても公然実施されている。アクション空間内の環境
状態に反応して挙動を開始し、或いは挙動を変更するよ
うにした玩具ロボットも盛んに愛好されており、そのよ
うな従前の玩具ロボットは、例えば、特開平5−337
86号によっても開示され、タカラ製「フラワーロッ
ク」としても公然実施されている。アクション空間内の
他の個体を識別して挙動を変更するようにした玩具ロボ
ットもすでに公知公用であり、そのような従前の玩具ロ
ボットは、特開平9−7553号によっても開示され、
トミー社製「ファービー」としても公然実施されてい
る。
2. Description of the Related Art Insect robots, which simulate the ecology of insects by autonomously traveling six feet in an action space, are loved as toys, and such conventional insect robots include, for example, It is also disclosed by JP-A-8-57159, and manufactured by Bandai, "Six-legged Cubterios".
It is also openly implemented. Toy robots that start or change their behavior in response to an environmental condition in the action space are also very popular. Such conventional toy robots are disclosed, for example, in Japanese Patent Application Laid-Open No. 5-337.
No. 86, which is also publicly implemented as Takara “Flower Rock”. Toy robots that identify other individuals in the action space and change their behavior are already known and publicly used, and such conventional toy robots are also disclosed in Japanese Patent Application Laid-Open No. 9-7553.
It is also openly implemented as Tommy "Farby".

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従前の
玩具ロボットにあっては、ロボット内に搭載されたマイ
クロコンピュータで一連のプログラムを実行する過程
で、各種センサーにより検出される環境状態や個体識別
の情報をマイクロコンピュータに取り込んで、一連のプ
ログラム総体の中で、これらの情報を処理することで、
本質的にロボット全体の動きを、これらの情報に基づく
別の全体の動きに切り換えるものであったので、切り換
えられるべき別の全体の動きの種類数は、実際には、極
めて限られたものとなり、その結果、環境状態に反応し
て、或いは、他の個体を識別して、種々多様な行動パタ
ンの組み合わせで挙動を起こす昆虫生態を模擬するに
は、行動パタンの切り換わりが単調に過ぎて昆虫らしい
生々しい行動を表現するのが困難であり、行動パタンの
切り換えを多種、多様なもに改善しようとすれば、勢
い、コンピュータプログラムが、複雑高度で大規模なも
のにならざるを得ないという問題点があった。このよう
な問題を解決するのが請求項1〜8記載の発明の課題で
ある。
However, in a conventional toy robot, in a process of executing a series of programs by a microcomputer mounted in the robot, environmental conditions detected by various sensors and individual identification are detected. By taking information into a microcomputer and processing this information in a series of programs,
Since essentially the entire robot movement was switched to another overall movement based on this information, the number of different overall movement types to be switched is actually extremely limited. As a result, in order to simulate insect ecology that responds to environmental conditions or identifies other individuals and behaves in various combinations of behavioral patterns, the switching of behavioral patterns is too monotonous. It is difficult to express fresh behavior like insects, and if we try to improve the switching of behavior patterns to various and diverse things, the momentum and computer programs will have to be complex, sophisticated and large-scale There was a problem. It is an object of the present invention to solve such a problem.

【0004】[0004]

【課題を解決するための手段】上記従前装置における環
境状態依存や個体識別依存の行動パタンの単調さの問題
点に鑑み、請求項1〜5記載の発明は、環境状態に応じ
て、複数のアクションユニットの中から、所定の1つの
アクションユニットを選択することにより、請求項6〜
7記載の発明は、他の個体に特有の相手識別情報に基づ
いて、複数の個体間応待アクションユニットの中から、
所定の1つの個体間応待アクションユニットを選択する
ことにより、請求項8記載の発明は、アクションユニッ
トと個体間応待アクションユニットの選択時の優先順位
に従って、「臆病者」タイプアクションユニットや「猪
突猛進」タイプアクションユニットを選択することによ
り、上記問題点を解決して、コンピュータプログラムの
複雑高度化と大規模化を伴うことなしに、環境状態や個
体識別に反応して、多種多様の行動パタンの組み合わせ
を実現することで、昆虫らしい生々しい動きを表現でき
る優れた昆虫ロボットを提供するものである。
SUMMARY OF THE INVENTION In view of the problem of the monotonous behavior of the behavioral pattern depending on the environmental state and the individual identification in the prior art apparatus, the invention according to claims 1 to 5 has a plurality of functions according to the environmental state. Claim 6-By selecting one predetermined action unit from the action units,
The invention described in Item 7 is based on the partner identification information unique to another individual, from among a plurality of inter-individual waiting action units,
By selecting a predetermined one inter-individual waiting action unit, the invention according to claim 8 provides a "coward" type action unit or a "invasion" in accordance with the priority when the action unit and the inter-individual waiting action unit are selected. By selecting the type action unit, the above problems can be solved, and the computer program can respond to environmental conditions and individual identification without complicated and large-scale computer programs. By realizing the combination, an excellent insect robot capable of expressing a vivid movement like an insect is provided.

【0005】[0005]

【作用】請求項1〜5記載の発明の構成は、環境状態検
出手段Aが、アクション空間内に存在する障害物を検出
して、障害状態信号を環境状態信号として出力し、アク
ション空間内の明るさを検出して、明るさ状態信号を環
境状態信号として出力し、複数のアクションユニット手
段Bの各々が、昆虫ロボットのアクションの種類とし
て、昆虫ロボットの「前進」「後退」「右旋回」「左旋
回」「停止」のうちの1種類を規定し、その1種類のア
クションの持続時間とその1種類のアクションの実行速
度とを規定し、アクションユニット選択手段Cが、アク
ションユニット手段Bごとに予め設定された優先順位に
従って、複数のアクションユニット手段Bの中から所定
の1つのアクションユニット手段Bを選択し、アクショ
ンユニット実行手段Dが、アクションの種類としての
「前進」「後退」「右旋回」「左旋回」「停止」のうち
の1種類のアクションに予め対応付けられた「正転」
「逆転」「停止」のうちのいずれかの運転モードで、ア
クチュエータ13、14としての電動機を所定アクショ
ンの持続時間だけアクションの実行速度に対応するデュ
ーティ比で駆動し、脚部手段8、9が、アクションユニ
ット実行手段Dにより駆動されるアクチュエータ13、
14により付勢されて、所定のアクションを所定のアク
ションの持続時間だけ昆虫ロボットに表現させる運動を
するように作用する。
According to the structure of the invention as set forth in claims 1 to 5, the environmental state detecting means A detects an obstacle existing in the action space and outputs a failure state signal as an environmental state signal. The brightness is detected and a brightness status signal is output as an environmental status signal. Each of the plurality of action unit means B determines the type of action of the insect robot as “forward”, “retreat”, “turn right” of the insect robot. , "Turn left" and "stop", the duration of the one type of action and the execution speed of the one type of action are specified, and the action unit selecting means C A predetermined one of the plurality of action unit means B is selected according to a priority set in advance for each of the plurality of action unit means B, and the action unit execution means is selected. But, as a kind of action, "forward", "back", "right turn", "left turn" previously associated to one type of action of the "stop", "forward"
In one of the operation modes of “reverse rotation” and “stop”, the electric motors as the actuators 13 and 14 are driven for the duration of the predetermined action at a duty ratio corresponding to the action execution speed, and the leg means 8 and 9 are driven. , An actuator 13 driven by the action unit executing means D,
It is energized by 14 and acts to make the insect robot express a predetermined action for a predetermined duration of action.

【0006】請求項6〜7記載の発明の構成は、フェロ
モン信号発信手段Eが、アクション空間内に自己の個体
に特有に予め設定された自己識別情報を表すフェロモン
信号を発信フェロモン信号として発信し、フェロモン信
号受信手段Fが、アクション空間内に存在する他の昆虫
ロボットのフェロモン信号発信手段Eから発信される、
他の個体に特有に予め設定された相手識別情報を表すフ
ェロモン信号を受信フェロモン信号として受信し、個体
間応待関係識別手段Gが、受信された受信フェロモン信
号により表される相手識別情報と自己識別情報とに基づ
いて、自己の個体と所定の他の個体の間に予め設定され
ている個体間応待関係を識別し、複数の個体間応待アク
ションユニット手段Hの各々が、自己の個体の個体間応
待アクションの種類として、昆虫ロボットの「前進」
「威嚇」「挨拶」「逃避」のうちの1種類を規定し、そ
の1種類の個体間応待アクションの持続時間とその1種
類の個体間応待アクションの実行速度とを規定し、個体
間応待アクションユニット選択手段Iが、個体間応待関
係識別手段Gにより識別された個体間応待関係に基づい
て、複数の個体間応待アクションユニット手段Hの中か
ら所定の1つの個体間応待アクションユニット手段Hを
選択し、個体間応待アクションユニット実行手段Jが、
個体間応待アクションユニット選択手段Iにより選択さ
れた個体間応待アクションユニット手段Hで規定される
所定の個体間応待アクションを所定の個体間応待アクシ
ョンの持続時間だけ実行するように、アクチュエータ1
3、14を駆動し、脚部手段8、9が、個体間応待アク
ションユニット実行手段Jにより駆動されるアクチュエ
ータ13、14により付勢されて、所定の個体間応待ア
クションを所定の個体間応待アクションの持続時間だけ
昆虫ロボットに表現させる運動をするように作用する。
According to a sixth aspect of the invention, the pheromone signal transmitting means E transmits a pheromone signal representing self-identification information preset in the action space uniquely to the individual as the transmitted pheromone signal. , A pheromone signal receiving means F is transmitted from a pheromone signal transmitting means E of another insect robot existing in the action space.
A pheromone signal representing partner identification information preset in advance for another individual is received as a reception pheromone signal, and the inter-individual waiting-for-relationship identification means G performs identification with partner identification information represented by the received reception pheromone signal. Based on the information, a predetermined inter-individual hospitality relationship between the own individual and a predetermined other individual is identified, and each of the plurality of inter-individual hospitality action unit means H is provided between the individual of the own individual. “Advance” of insect robots as a type of waiting action
It defines one type of "intimidation", "greeting", and "escape", and specifies the duration of the one type of inter-individual waiting action and the execution speed of the one type of inter-individual waiting action. The unit selecting means I selects one predetermined inter-individual waiting action unit H from a plurality of inter-individual waiting action units H based on the inter-individual waiting relation identified by the inter-individual waiting relation identifying means G. The inter-individual waiting action unit executing means J
The actuator 1 is configured to execute the predetermined inter-individual waiting action defined by the inter-individual waiting action unit H selected by the inter-individual waiting action unit selecting means I for the duration of the predetermined inter-individual waiting action.
3 and 14, the leg means 8 and 9 are urged by the actuators 13 and 14 driven by the inter-individual waiting action unit executing means J to perform the predetermined inter-individual waiting action. Acts to make the insect robot express for the duration of.

【0007】請求項8記載の発明の構成は、アクション
ユニット選択手段Cとしての「臆病者」タイプアクショ
ンユニット選択手段が、アクションユニット手段Bと個
体間応待アクションユニット手段Hごとに、予め「臆病
者」タイプに設定された優先順位に従って、複数のアク
ションユニット手段Bと複数の個体間応待アクションユ
ニット手段Hの中から、所定の1つのアクションユニッ
ト手段B若しくは所定の1つの個体間応待アクションユ
ニット手段Hを選択するように作用し、アクションユニ
ット選択手段Cとしての「猪突猛進」タイプアクション
ユニット選択手段が、アクションユニット手段Bと個体
間応待アクションユニット手段Hごとに、予め「猪突猛
進」タイプに設定された優先順位に従って、複数のアク
ションユニット手段Bと複数の個体間応待アクションユ
ニット手段Hの中から、所定の1つのアクションユニッ
ト手段B若しくは所定の1つの個体間応待アクションユ
ニット手段Hを選択するように作用する。
[0008] In the configuration of the invention described in claim 8, the "timid person" type action unit selecting means as the action unit selecting means C is provided in advance for each of the action unit means B and the inter-individual waiting action unit means H. Out of a plurality of action unit means B and a plurality of inter-individual waiting action unit means H in accordance with the priority order set in the "type", a predetermined one action unit means B or a predetermined one inter-individual waiting action unit means H The action unit selection means is set in advance to the "Inrush" type for each of the action unit means B and the inter-individual waiting action unit means H. Multiple action units according to their priorities From a B and a plurality of inter-individual waiting on action unit means H, acts to select a waiting on action unit means H between a predetermined one action unit means B or a predetermined one individual.

【0008】[0008]

【実施の形態】図1〜図10を参照しながら、この発明
の実施の形態を以下に説明する。この発明の実施の形態
である昆虫ロボットの平面外観を示す図1Aと側面外観
を示す図1Bにおいて、昆虫様筺体1の図上右端に現れ
る頭部1aには、昆虫ロボットの前進方向に臨んで左右
に1対の発光ダイオード2a、2bがフェロモン信号発
信手段Eと障害物検出用の環境状態検出手段Aの発信部
との共用手段として装着されており、頭部1aの正面に
は、前進方向に臨んで中央に1個のフォトトランジスタ
3がフェロモン信号受信手段Fと障害物検出用の環境状
態検出手段Aの受信部との共用手段として装着されてお
り、さらに頭部1aの上面には、上方に臨んで中央に1
個の硫化カドミニュウセルなどの光感受性素子4が明る
さ検出用の環境状態検出手段Aとして装着されている。
なお、頭部1aの上面で、光感受性素子4に対して前進
方向左右に並んで設けられた1対の発光ダイオード5
a、5bはイルミネーション装飾用のものである。昆虫
用筐体1の両側面には、片側3個づつで、同速連動する
1対6個の脚動輪6a、6b、6c、7a、7b、7c
が回転自在に軸止されている。片側3個の脚動輪6a、
6b、6cを抽出して説明すると、各脚動輪の円周上の
位相角度を異にする各別の箇所に針金状の脚骨8が設け
られている。即ち、ここでの針金状の3本の脚骨8、
8、8は、その各別の基部8a、8b、8cが、3個の
脚動輪6a、6b、6cの円周上の位相角度を異にする
各別の箇所に植設されていて、昆虫ロボットの前進方向
に臨んで右側外方に(図1A中で下方に)張り出し、中
間部分でフォーシングされて、片側の脚部手段8を構成
している。反対側の針金状の3本の脚骨9、9、9も、
全く同様にして反対側の脚部手段9を構成している。こ
の場合、片側3本づつの脚骨は、一体的に同速連動する
が、一方側の脚部手段8と反対側の脚部手段9は、互い
に独立に運動可能である。そして、一方側の3本の脚骨
8、8、8の基部8a、8b、8cと反対側の3本の脚
骨9、9、9の基部9a、9b、9cとの間で互いに対
向する脚骨の基部どうしも、脚動輪の円周上の位相角度
を異にする箇所に植設されることで、各脚骨の中間部で
のフォーミングと相俟って、両側の脚動輪6a、6b、
6c、7a、7b、7cの回転に合わせて、各脚骨の各
基部が位相角度を異にして回転する際に、両脚部手段
8、9全体の動きにより、昆虫生態の歩行挙動がもっと
もらしく模倣されて、表現されるものである。電気的ハ
ードウエアの構成を示す図2において、マイクロコンピ
ュータ10の入力ポート#2INには、フォトトランジ
スタ3が、検出回路と一体化された駆動用の増幅回路3
aを介して接続されており、入力ポート#1INには、
検出回路に組み込まれた硫化カドミニウムセル4が接続
されている。さらに、マイクロコンピュータ10の出力
ポート#1outには、駆動回路に組み込まれた左側発
光ダイオード2aが接続され、出力ポート#2outに
は、駆動回路に組み込まれた右側発光ダイオード2bが
接続され、出力ポート#3out、#4outには、各
別に、駆動回路に組み込まれた左右の装飾用発光ダイオ
ード5a、5bが接続されている。さらに、1対の出力
ポート#5out、#6outには、市販のモータドラ
イバユニット11(例えば、三洋電機製LB1638
M)の1対の入力端子IN1、IN2が接続され、別の
1対の出力ポート#7out、#8outには、もう1
つの同種のモータドライバユニット12の1対の入力端
子IN1、IN2が接続されている。これら1対のモー
タドライバユニット11、12には、該ユニットによ
り、電源からの供電が制御される1対の電動機、即ち、
左側脚動輪7a、7b、7cを回転駆動するための左側
電動機13と右側脚動輪6a、6b、6cを回転駆動す
るための右側電動機14が、アクチュエータとして接続
されている。各別のモータドライバユニット11、12
は、1対の入力端子IN1、IN2に対してマイクロコ
ンピュータから論理値「1」(HIと略記する)又は論
理値「0」(LOWと略記する)で表される並列2ビッ
トの符号が入力されると、その2ビットの論理値に対応
させて、各別の電動機を「正転」「逆転」「停止」の運
転モードで駆動することができるものであり、その場合
の1対の入力端子IN1、IN2の論理値と運転モード
との関係は、図3に示されるとおりである。そして、こ
のようなモータドライバユニット11、12による電動
機制御では、「停止」の運転モードを周期的に配置しな
がら、それの実時間上の密度を制御することで、電動機
への給電のデュティ比を制御し、これにより、電動機の
回転速度を制御することができるものである。このよう
なハードウエアの構成上のマイクロコンピュータ10に
より実行されるプログラムのフローを以下に説明する。
Embodiments of the present invention will be described below with reference to FIGS. In FIG. 1A showing a planar appearance and FIG. 1B showing a side appearance of an insect robot according to an embodiment of the present invention, a head 1a appearing at the right end of the insect-like casing 1 in the drawing faces the forward direction of the insect robot. A pair of light emitting diodes 2a and 2b are mounted on the left and right as common means for the pheromone signal transmitting means E and the transmitting section of the environmental condition detecting means A for obstacle detection. One phototransistor 3 is mounted in the center as a common means for the pheromone signal receiving means F and the receiving part of the environmental state detecting means A for obstacle detection, and further, on the upper surface of the head 1a, Facing upward and 1 in the center
A plurality of photosensitive elements 4 such as cadmium sulfide cells are mounted as environmental condition detecting means A for detecting brightness.
It should be noted that a pair of light emitting diodes 5 provided on the upper surface of the head 1a and arranged side by side with respect to the photosensitive element 4 in the forward and left directions.
a and 5b are for illumination decoration. On both side surfaces of the insect casing 1, three pairs of one side, one to six leg driving wheels 6a, 6b, 6c, 7a, 7b, 7c interlocking at the same speed.
Is rotatably fixed to the shaft. Three leg driving wheels 6a on one side,
Explaining the extraction of 6b and 6c, wire-shaped leg bones 8 are provided at different positions on the circumference of each leg driving wheel at different phase angles. That is, three wire-like leg bones 8 here,
8 and 8, the different base portions 8a, 8b and 8c are implanted at different positions on the circumference of the three leg driving wheels 6a, 6b and 6c at different phase angles, respectively. The robot extends forward to the right side (downward in FIG. 1A) facing the forward direction of the robot, and is forked at an intermediate portion to form one leg unit 8. The other three wire-like legs 9, 9, 9 on the other side
The opposite leg means 9 is constructed in exactly the same way. In this case, the three leg bones on one side are integrally moved at the same speed, but the leg means 8 on one side and the leg means 9 on the opposite side can move independently of each other. The bases 8a, 8b, 8c of the three leg bones 8, 8, 8 on one side and the bases 9a, 9b, 9c of the three leg bones 9, 9, 9 on the opposite side are opposed to each other. The bases of the leg bones are also implanted at locations where the phase angles on the circumference of the leg driving wheel are different, and together with the forming at the intermediate portion of each leg bone, the leg driving wheels 6a on both sides are used. 6b,
When each base of each leg rotates at a different phase angle in accordance with the rotation of 6c, 7a, 7b, and 7c, the walking behavior of insect ecology becomes plausible due to the movement of both leg means 8, 9 as a whole. It is imitated and expressed. In FIG. 2 showing the configuration of the electrical hardware, a phototransistor 3 is connected to an input port # 2IN of the microcomputer 10 by a drive amplifier circuit 3 integrated with a detection circuit.
a, and the input port # 1IN
A cadmium sulfide cell 4 incorporated in the detection circuit is connected. Further, the output port # 1out of the microcomputer 10 is connected to the left light emitting diode 2a incorporated in the drive circuit, the output port # 2out is connected to the right light emitting diode 2b incorporated in the drive circuit, and the output port The # 3out and # 4out are respectively connected to the left and right decorative light emitting diodes 5a and 5b incorporated in the drive circuit. Further, a commercially available motor driver unit 11 (for example, LB1638 manufactured by Sanyo Electric) is connected to the pair of output ports # 5out and # 6out.
M) are connected to a pair of input terminals IN1 and IN2, and another pair of output ports # 7out and # 8out are connected to another one.
A pair of input terminals IN1 and IN2 of two identical motor driver units 12 are connected. Each of the pair of motor driver units 11 and 12 has a pair of electric motors whose supply from a power source is controlled by the unit, namely, a pair of motors.
A left electric motor 13 for rotationally driving the left leg driven wheels 7a, 7b, 7c and a right electric motor 14 for rotationally driving the right leg driven wheels 6a, 6b, 6c are connected as actuators. Each separate motor driver unit 11, 12
Is a parallel 2-bit code represented by a logical value "1" (abbreviated as HI) or a logical value "0" (abbreviated as LOW) from a microcomputer to a pair of input terminals IN1 and IN2. Then, each of the other motors can be driven in the operation mode of "forward rotation", "reverse rotation", and "stop" in accordance with the logical value of the two bits. The relationship between the logic values of the terminals IN1 and IN2 and the operation mode is as shown in FIG. In such motor control by the motor driver units 11 and 12, the duty ratio of power supply to the motor is controlled by controlling the real-time density while periodically arranging the "stop" operation modes. , Whereby the rotation speed of the electric motor can be controlled. The flow of a program executed by the microcomputer 10 having such a hardware configuration will be described below.

【0009】メインフローチャートを示す図4におい
て、マイクロコンピュータ10は、プログラムの実行を
開始すると(図4中a)、タイマーや各種変数値を計数
するための内部レジスタ類をリセットすることで、初期
条件の設定を行ったうえで(図4中b)、フェロモン信
号受信手段Fと個体間応待関係識別手段Gを実現すべ
く、後に詳述されるフェロモン信号受信処理(図4中
c)のためのサブルーチンに飛んで、該サブルーチンの
実行により、受信フェロモン信号を処理することで、他
の個体に特有に予め設定された相手識別情報と自己の個
体に特有に予め設定された自己識別情報とに基づく個体
間応待関係としての「弱種」「強種」「同種」の関係を
表す「pheromone」の入力パラメータを設定し
た後にリターンして、ソフトウエア的に実現される内部
のタイマーが100msの動作基準時間の経過を判別し
(図4中d)、動作基準時間の経過以前で、判別結果
(図4中d)がNoの場合には、フェロモン信号受信処
理を継続的に実行し、動作基準時間の経過直後の動作基
準時点で判別結果(図4中d)がYesに転ずると、次
のステップの処理に移行する。これにより、以降の処理
は、100msの間隔の動作基準時点ごとの間欠動作と
して実行されてることになる。動作基準時点に到達する
と、マイクロコンピュータ10は、タイマーをリセット
して(図4中e)から、フェロモン信号発信手段Eを実
現すべく、フェロモン信号発信処理(図4中f)を実行
する。このフェロモン信号発信処理では、1ビット10
0μsの3ビット単位で1文字(識別符号上の1ビッ
ト)が定義された識別符号上8ビット構成の符号によ
り、自己の個体に特有に予め設定された自己識別情報を
表す発信フェロモン信号を形成するようにマイクロコン
ピュータ10は、1対の出力ポート#1out#2ou
tから、例えば、図5に示されるような3ビット×8ビ
ット=24ビット構成の符号列を3回づつ左側発光ダイ
オード2aと右側発光ダイオード2bの双方に対して出
力して、これらを点滅させる。図5例示のものは、自己
識別情報として、自己の個体がAタイプ、Bタイプ、C
タイプのいずれに属するかというタイプ区別情報を取り
扱っているが、自己の個体を唯一に特定する氏名のよう
な識別情報をもここで取り扱えるのは、勿論のことであ
る。図4に戻って、マイクロコンピュータ10は、続い
て、環境状態検出手段Aを実現する中で、後に詳述され
る入力パラメータ設定処理(図4中g)のためのサブル
ーチンに飛んで、該サブルーチンの実行により、左側発
光ダイオード2aと右側発光ダイオード2bから、各別
に、アクション空間内に存在する障害物に対して照射さ
れて、そこから反射された光線をフォトトランジスタ3
が障害物対応の環境状態信号として、感受することで、
左側発光ダイオード2aからの光線の感受、即ち、昆虫
ロボットの前進方向に臨んで左側視野での障害物の存在
を表す「lft eye」の入力パラメータと、右側発
光ダイオード2bからの光線の感受、即ち、右側視野で
の障害物の存在を表す「right eye」の入力パ
ラメータを各別に設定し、さらに、硫化カドミニウムセ
ル4が明るさ(暗さ)対応の環境状態信号として、アク
ション空間内の外光を感受することで、アクション空間
内の明るさ(暗さ)を表す「dark」の入力パラメー
タを設定した後にリターンして、現在実行中のアクショ
ンプログラムユニットで規定されるアクションユニット
を特徴付けるべく予め設定されている持続時間を表す
「action time」の出力パラメータが0まで
減少したかどうかを判別し(図4中h)、0までの減少
により判別結果(図4中h)がYesの場合には、アク
ションユニット選択手段Cを実現すべく、後に詳述され
るアクションプログラムユニット選択処理(図4中i)
のサブルーチンに飛んで、複数のアクションプログラム
ユニットの実行により実現される複数のアクションユニ
ット手段Bとしての複数のアクションユニットの中から
所与の選択判別アルゴリズムに従って、所定の1つのア
クションユニットを実現するための所定の1つのアクシ
ョンプログラムユニットを選択することで、アクション
ユニット選択手段Cを実現した後にリターンして、アク
ションユニット実行手段Dを実現すべく、そのサブルー
チンで選択されたアクションプログラムユニットの実行
処理(図4中j)に移行し、次いで、アクションプログ
ラムユニットの実行処理(図4中j)により実行最中の
アクションプログラムユニットで規定されるアクション
ユニットを表す「now action」の入力パラメ
ータを設定し(図4中k)、続いて、持続時間を表す
「actiontime」の出力パラメータから「1」
を減算(図3中l)したうえで、図4中dの判別処理に
戻って、さらなる100msの経過後に到来する次の動
作基準時点を待つ。このような処理フロー(図4中h〜
l)の実行により、所定の1つのアクションプログラム
ユニットが一旦選択されると(図4中i)、そのアクシ
ョンプログラムについて指定された持続時間が経過する
までは、図4中hの判別結果がNoに留まるので、新た
なアクションプログラムユニットの選択(図4中i)が
行われずに、図3中iの処理で選択されたアクションプ
ログラムユニットが継続して実行され、その継続実行の
アクションプログラムユニットに指定された持続時間が
経過して、「action time」の出力パラメー
タが0まで減少する(図4中h)と、その後の100m
s間隔の動作基準時点で(図4中d)、新たなアクショ
ンプログラムユニットが選択されて(図4中i)、その
アクションプログラムユニットを表すように「now
action」の入力パラメータが書き換えられる(図
4中l)ものである。
In FIG. 4 showing the main flowchart, when the microcomputer 10 starts executing the program (a in FIG. 4), the microcomputer 10 resets a timer and internal registers for counting various variable values, thereby setting an initial condition. (B in FIG. 4), and a pheromone signal reception process (c in FIG. 4) described later in detail to realize the pheromone signal receiving means F and the inter-individual waiting relationship identification means G. By jumping to a subroutine and processing the received pheromone signal by executing the subroutine, based on the partner identification information preset in advance for another individual and the self identification information preset in advance for the individual. After setting the input parameters of “pheromone” representing the relationship between “weak species”, “strong species” and “same species” as the inter-individual waiting relationship, return An internal timer realized as software determines the elapse of the operation reference time of 100 ms (d in FIG. 4), and before the elapse of the operation reference time, if the determination result (d in FIG. 4) is No, The pheromone signal receiving process is continuously executed, and when the determination result (d in FIG. 4) turns to Yes at the operation reference time immediately after the elapse of the operation reference time, the process proceeds to the next step. As a result, the subsequent processing is executed as an intermittent operation at each operation reference time point at intervals of 100 ms. When the operation reference point is reached, the microcomputer 10 resets the timer (e in FIG. 4), and then executes a pheromone signal transmission process (f in FIG. 4) to realize the pheromone signal transmission means E. In this pheromone signal transmission processing, one bit 10
A transmission pheromone signal representing self-identification information that is preset in a unique manner is formed by an 8-bit code on an identification code in which one character (1 bit on the identification code) is defined in 3-bit units of 0 μs. The microcomputer 10 has a pair of output ports # 1 out # 2 out
From t, for example, a code string having a configuration of 3 bits × 8 bits = 24 bits as shown in FIG. 5 is output to the left light emitting diode 2a and the right light emitting diode 2b three times at a time, and these are blinked. . In the example illustrated in FIG. 5, as the self-identification information, the own individual is A type, B type, C type.
Although the type distinction information of which type belongs is handled, it goes without saying that identification information such as a name that uniquely identifies the own individual can also be handled here. Returning to FIG. 4, the microcomputer 10 subsequently jumps to a subroutine for input parameter setting processing (g in FIG. 4), which will be described in detail later, while implementing the environmental state detecting means A. , The left light emitting diode 2a and the right light emitting diode 2b individually irradiate an obstacle existing in the action space and reflect the light reflected therefrom by the phototransistor 3
Is sensed as an environmental condition signal for obstacles,
Sensing of the light beam from the left light emitting diode 2a, that is, the input parameter of "lft eye" representing the presence of an obstacle in the left visual field facing the forward direction of the insect robot, and sensing of the light beam from the right light emitting diode 2b, , Input parameters of “right eye” representing the presence of an obstacle in the right visual field are individually set, and the cadmium sulfide cell 4 outputs an external light in the action space as an environmental state signal corresponding to brightness (darkness). And returns after setting an input parameter of “dark” representing the brightness (darkness) in the action space, and presets to characterize the action unit defined by the currently executing action program unit. Determines whether the output parameter of "action time", which indicates the duration being performed, has decreased to 0 (H in FIG. 4), when the determination result (h in FIG. 4) is “Yes” due to the decrease to 0, an action program unit selection process (FIG. Middle i)
In order to realize a predetermined one action unit from a plurality of action units as a plurality of action unit means B realized by executing a plurality of action program units in accordance with a given selection determination algorithm. By selecting one of the predetermined action program units, the program returns after implementing the action unit selection means C, and executes the action program unit selected by the subroutine (implementation processing) in order to implement the action unit execution means D. The process moves to j) in FIG. 4 and then sets an input parameter of “now action” representing an action unit defined by the action program unit being executed by the execution process of the action program unit (j in FIG. 4) ( FIG. Middle k), and then “1” from the output parameter of “actiontime” representing the duration.
Is subtracted (1 in FIG. 3), and the process returns to the determination processing in d in FIG. 4 to wait for the next operation reference time point after another 100 ms has elapsed. Such a processing flow (h in FIG. 4)
Once a predetermined one action program unit is selected by executing 1) (i in FIG. 4), the determination result in h in FIG. 4 is No until the duration specified for the action program elapses. Therefore, the selection of a new action program unit (i in FIG. 4) is not performed, and the action program unit selected in the process of i in FIG. 3 is continuously executed. After the specified duration elapses and the output parameter of “action time” decreases to 0 (h in FIG. 4), 100 m thereafter
At the operation reference time point of the s interval (d in FIG. 4), a new action program unit is selected (i in FIG. 4), and “now” is represented so as to represent the action program unit.
The input parameter of "action" is rewritten (l in FIG. 4).

【0010】以上のメインフローチャートの処理によれ
ば、マイクロコンピュータ10は、フェロモン信号発信
処理(図4中f)と、後に詳述されるフェロモン信号受
信処理(図4中c)との協働により、左側発光ダイオー
ド2aと右側発光ダイオード2bとフォトトランジスタ
3に働きかけて、フェロモン信号発信手段Eとフェロモ
ン信号受信手段Fとを実現したうえで、発信フェロモン
信号により表される自己識別情報と受信フェロモン信号
により表される相手識別情報とに基づく、自己の個体と
他の個体の間での個体間応待関係としての「弱種」「強
種」「同種」の関係を表す「pheromone」の入
力パラメータを設定することで、個体間応待関係識別手
段Gを実現し、後に詳述される入力パラメータ設定処理
(図4中g)により、左側発光ダイオード2aと右側発
光ダイオード2bとフォトトランジスタ3と硫化カドミ
ニウムセル4に働きかけて、障害物対応ないし明るさ
(暗さ)対応の環境状態検出手段Aを実現したうえで、
障害物が左側の視野内に存在することを表す「left
eye」の入力パラメータと、障害物が右側の視野内
に存在することを表す「right eye」の入力パ
ラメータと、アクション空間内の明るさ(暗さ)を表す
「daek」の入力パラメータを設定し、「now a
ction」の入力パラメータ設定処理(図4中l)に
より、現在実行中のアクションプログラムユニットを表
す「now action」の入力パラメータを設定
し、これにより、総じて、「pheromon」「le
fet eye」「right eye」「dark」
「now action」という5個の入力パラメータ
を設定したうえで、その設定済みの5個の入力パラメー
タを判断要素として、アクションプログラムユニットの
論理的優先順位の指定により規定される選択判断アルゴ
リズムに従って、複数のアクションプログラムユニット
の中から所定の1つアクションプログラムユニットを選
択するようにしたアクションプログラムユニット選択処
理(図4中i)のサブルーチンを実行することで、複数
のアクションユニットの中から所定の1つのアクション
ユニットを選択するアクションユニット選択手段Cを実
現するものである。ここでのアクションプログラムユニ
ット選択処理(図4中i)のサブルーチンを図6A、図
6Bのフローチャートと図7の入出力パラメータ対応図
を参照しながら以下に説明する。
According to the processing of the main flowchart, the microcomputer 10 cooperates with the pheromone signal transmission processing (f in FIG. 4) and the pheromone signal reception processing (c in FIG. 4) described in detail later. , By acting on the left light emitting diode 2a, the right light emitting diode 2b, and the phototransistor 3 to realize the pheromone signal transmitting means E and the pheromone signal receiving means F, the self-identification information represented by the transmitted pheromone signal and the received pheromone signal. Based on the partner identification information represented by the following, the input parameters of "pheromone" representing the relationship between "weak species", "strong species" and "same species" as inter-individual waiting relationships between the individual and other individuals. By setting, the inter-individual waiting relationship identification means G is realized, and the input parameter setting processing (g in FIG. 4) described later in detail. , The left light emitting diode 2a and the right light emitting diode 2b and a phototransistor 3 works on the cadmium sulfide cell 4, the obstacle corresponding to the brightness (darkness) after having realized the corresponding environmental condition detecting means A,
"Left" indicating that the obstacle is in the left field of view
The input parameter “eye”, the input parameter “right eye” indicating that the obstacle is present in the right visual field, and the input parameter “daek” indicating the brightness (darkness) in the action space are set. , "Now a
In the input parameter setting process of “action” (l in FIG. 4), the input parameter of “now action” representing the currently executed action program unit is set, whereby the “pheromone” and “le” are set as a whole.
"fet eye", "right eye", "dark"
After setting five input parameters “now action”, the set five input parameters are used as judgment elements in accordance with a selection judgment algorithm defined by designating the logical priority of the action program unit. By executing a subroutine of an action program unit selection process (i in FIG. 4) in which a predetermined one action program unit is selected from among the action program units, a predetermined one of the plurality of action units is selected. This implements action unit selection means C for selecting an action unit. The subroutine of the action program unit selection process (i in FIG. 4) will be described below with reference to the flowcharts of FIGS. 6A and 6B and the input / output parameter correspondence diagram of FIG.

【0011】ここに、図7のアクションプログラムユニ
ットごとの入出力パラメータ対応図は、アクションプロ
グラムユニットA〜Iの各々について、所定のアクショ
ンプログラムユニットが図6A、6Bのフローチャート
に沿うアクションプログラムユニット選択処理により選
択されるようにして実現されるアクションユニット選択
手段Cにおいて、所定のアクションプログラムユニット
による所定の1つのアクションユニットが選択されるた
めの判断要素としての上述の5つの入力パラメータの状
態を左側の一覧表に整理したものであり、それに突き合
わせる形で、右側に配置された一覧表には、ここで選択
されたアクションプログラムユニットを図4のメインフ
ロー中のアクションプログラムユニット実行処理(図4
中j)で実行することにより実現されるアクションユニ
ット実行手段Dにおいて実現されるべき所定のアクショ
ンユニットを特徴付けるところの3個の出力パラメー
タ、即ち、アクションの種類を表す「action」の
出力パラメータと、その1種類のアクションの持続時間
を表す「action time」の出力パラメータ
と、その1種類のアクションの実行速度(デューティ
比)を表す「duty」の出力パラメータが列記されて
いる。
Here, the input / output parameter correspondence diagram for each action program unit in FIG. 7 shows that, for each of the action program units A to I, a predetermined action program unit performs an action program unit selection process along the flowcharts in FIGS. 6A and 6B. In the action unit selecting means C realized by selecting the above, the state of the above-mentioned five input parameters as a judgment factor for selecting a predetermined one action unit by a predetermined action program unit is shown on the left side. The action program unit selected here is arranged in a list, and the action program unit selected here is executed in the action program unit execution process (FIG. 4) in the main flow of FIG.
J), three output parameters characterizing a predetermined action unit to be realized in the action unit execution means D realized by executing in j), that is, an output parameter of “action” representing the type of action; An output parameter of “action time” indicating the duration of the one type of action and an output parameter of “duty” indicating the execution speed (duty ratio) of the one type of action are listed.

【0012】図6Aに戻って、アクションプログラムユ
ニット選択処理のサブルーチンを開始(図6A中a)し
たマイクロコンピュータ10は、先ず、無条件で、図7
のアクションプログラムユニットA(前進)の行の表示
に従って、アクションユニットAを特徴付けるところ
の、アクションの種類を表す「action」の出力パ
ラメータとして「前進」を設定し(図6A中b)、同様
に、アクションの持続時間を表す「action ti
me」の出力パラメータとして「10」(100μsの
動作基準時間×10=1000μsを意味する)を設定
し(図6A中c)、同様に、アクションの実行速度を表
す「duty」の出力パラメータとして「60%」を設
定する(図6A中d)。次いで、マイクロコンピュータ
10は、図7のアクションプログラムユニットB(右旋
回)の行の表示に従って、「lefreye」の入力パ
ラメータが「1」であるかどうか、即ち、左側の視野内
に障害物が存在するかどうかを判別し(図6A中e)、
「left eye」の入力パラメータが「1」であっ
て、判別結果(図6A中e)がYesの場合には、同様
にして、同図同行の右側の一覧表の部分の表示に従っ
て、出力パラメータを各別に設定するが、「left
eye」の入力パラメータが「0」であって、即ち、左
側の視野内に障害物の存在がなく、判別結果(図6A中
e)がNoの場合には、ここでの出力パラメータの設
定、即ち、新しい出力パラメータ値への更新記憶を行わ
ずに次ぎの判断処理に移行してゆく。従って、ここでの
判断要素としての5個の入力パラメータの各々について
の判別結果(例えば、図6A中e)がYesであり、以
降の残りの入力パラメータについての判別結果がNoで
あれば、そのような最後の判別処理において設定された
出力パラメータが選択されたアクションユニットを特徴
付けるものとして残留し、逆の言い方をすれば、ここで
の判断要素としの5個の入力パラメータについての判別
結果(例えば、図6A中e)がNoの場合には、それに
先行する処理(例えば、図6A中bcd)により設定さ
れた出力パラメータが選択されたアクションユニットを
特徴付けるものとして残留するのであり、かくして、時
系列上遅れて処理される判断要素の方が判別結果をより
高い論理的優先順位で支配することになる。
Returning to FIG. 6A, the microcomputer 10 that has started the action program unit selection processing subroutine (a in FIG. 6A) first unconditionally
According to the display of the row of the action program unit A (forward), “forward” is set as an output parameter of “action” representing the type of action, which characterizes the action unit A (b in FIG. 6A). "Action ti" representing the duration of the action
As an output parameter of “me”, “10” (operation reference time of 100 μs × 10 = 1000 μs) is set (c in FIG. 6A), and similarly, as an output parameter of “duty” representing the execution speed of the action, 60% "(d in FIG. 6A). Next, the microcomputer 10 determines whether the input parameter of “refreye” is “1” according to the display of the row of the action program unit B (turn right) in FIG. It is determined whether it exists (e in FIG. 6A),
When the input parameter of “left eye” is “1” and the determination result (e in FIG. 6A) is Yes, the output parameter is similarly set according to the display of the list on the right side of FIG. Are set individually, but "left
If the input parameter of “eye” is “0”, that is, if there is no obstacle in the left visual field and the determination result (e in FIG. 6A) is No, the output parameter setting here is performed. That is, the process shifts to the next determination processing without performing the update storage to the new output parameter value. Therefore, if the determination result (e.g., e in FIG. 6A) for each of the five input parameters as the determination element here is Yes and the determination result for the remaining input parameters thereafter is No, The output parameters set in such a final determination process remain as characterizing the selected action unit, in other words, the determination results for the five input parameters as the determination elements here (for example, , E) in FIG. 6A is No, the output parameter set by the preceding process (eg, bcd in FIG. 6A) remains as characterizing the selected action unit, and thus the time series The judgment element processed with an upper delay dominate the judgment result with a higher logical priority.

【0013】続いて、マイクロコンピュータ10は、図
7のアクションプログラムユニットC(左旋回)の行の
表示に従って、「right eye」の入力パラメー
タが「1」であるかどうか、即ち、右側の視野内に障害
物が存在するかどうかを判別し(図6A中g)、判別結
果が「1」の場合には、同様にして、同図同行の右側の
一覧表の部分の表示に従って、出力パラメータを各別に
設定する(図6A中h)が、判別結果(図6A中g)が
Noの場合には、出力パラメータの更新記憶を行わず
に、後続の判断要素の処理に移行し、図7のアクション
プログラムユニットD(後退)の行の表示に従って、
「left eye」と「rlght eye」の双方
の入力パラメータが共に「1」であるかどうか、即ち、
視野内の目前に障害物が存在するかどうかを判別し(図
6中i)、判別結果がYesの場合には、同様にして、
同図同行の右側の一覧表の部分の表示に従って、出力パ
ラメータを各別に設定する(図6A中、j)が、判別結
果(図6A中i)がNoの場合には、出力パラメータの
更新記憶を行われずに、後続の判断要素の処理に移行
し、図7のアクションプログラムユニットG(挨拶)の
行の表示に従って、個体間応待アクションユニット選択
手段Iを実現すべく、「phereomone」の入力
パラメータが「同種」に設定されていて、かつ、「le
ft eye」と「right eye」の双方の入力
パラメータが共に「1」であるかどうか、即ち、「同
種」の他の個体が視野内の目前に存在するかどうかを判
別し(図6A中k)し、判別結果がYesの場合には、
同様にして、同図同行の右側の一覧表の部分の表示に従
って、個体間応待アクションユニット手段Hを実現する
中で、出力パラメータを各別に設定する(図6A中l)
が、判別結果(図6A中k)がNoの場合には、出力パ
ラメータの更新記憶を行わずに、後続の判断要素の処理
に移行し、図7のアクションプログラムユニットF(威
嚇)の行の表示に従って、個体間応待アクションユニッ
ト選択手段Iを実現すべく、「phereomone」
の入力パラメータが「弱種」に設定されていて、かつ、
「left eye」と「right eye」の双方
の入力パラメータが共に「1」であるかどうか、即ち、
「弱種」の他の個体が視野内の目前に存在するかどうか
を判別し(図6B中m)し、判別結果がYesの場合に
は、同様にして、同図同行の右側の一覧表の部分の表示
に従って、個体間応待アクションユニット手段Hを実現
する中で、出力パラメータを各別に設定する(図6B中
n)が、判別結果(図6B中m)がNoの場合には、出
力パラメータの更新記憶を行わずに、後続の判断要素の
処理に移行し、図7のアクションプログラムユニットH
(逃避)の行の表示に従って、個体間応待アクションユ
ニット選択手段Iを実現すべく、「phereomon
e」の入力パラメータが「強種」に設定されているかど
うか、即ち、「強種」の他の個体が前方に存在するかど
うかを判別し(図6B中o)し、判別結果がYesの場
合には、同様にして、同図同行の右側の一覧表の部分の
表示に従って、個体間応待アクションユニット手段Hを
実現する中で、出力パラメータを各別に設定する(図6
B中p)が、判別結果(図6B中o)がNoの場合に
は、出力パラメータの更新記憶を行わずに、後続の判断
要素の処理に移行し、図7のアクションプログラムユニ
ットE(ジタバタ)の行の表示に従って、「now a
ction」の入力パラメータが「1」であり、かつ、
「left eye」と「rlght eye」の双方
の入力パラメータが共に「1」であるかどうか、即ち、
停止中の状態下で、視野内の目前に障害物が存在するか
どうかを判別(図6B中q)し、判別結果がYesの場
合には、同様にして、同図同行の右側の一覧表の部分の
表示に従って、出力パラメータを各別に設定する(図6
B中r)が、判別結果(図6B中q)がNoの場合に
は、出力パラメータの更新記憶を行わずに、後続の判断
要素の処理に移行し、図7のアクションプログラムユニ
ットI(停止)の行の表示に従って、「dark」の入
力パラメータが「1」であるかどうか、即ち、アクショ
ン空間内が暗いかどうかを判別(図6B中s)し、判別
結果がYesの場合には、同様にして、同図同行の右側
の一覧表の部分の表示に従って、出力パラメータを各別
に設定する(図6B中t)が、判別結果(図6B中s)
がNoの場合には、出力パラメータの更新記憶を行わず
に、選択されたアクションプログラムユニットを特徴付
けるところの、出力パラメータに対して出力パラメータ
変換処理(図6B中u)を実行することで、後続のアク
ションプログラムユニット実行処理(図4中j)におい
て、アクチュエータとしての電動機13、14を駆動す
るためのモータドライバユニット11、12の制御に好
適なアクチュエータ対応のパラメータを確保してから、
メインルーチンにリターンする(図6B中v)。
Subsequently, the microcomputer 10 determines whether or not the input parameter of “right eye” is “1” according to the display of the row of the action program unit C (turn left) in FIG. (G in FIG. 6A), and if the determination result is “1”, the output parameter is similarly changed according to the display of the list on the right side of FIG. Each of the parameters is set individually (h in FIG. 6A), but when the determination result (g in FIG. 6A) is No, the process proceeds to the processing of the subsequent determination element without updating and storing the output parameter, and According to the display of the line of the action program unit D (retreat),
Whether both the input parameters of “left eye” and “rght eye” are “1”, that is,
It is determined whether there is an obstacle in front of the visual field (i in FIG. 6), and if the determination result is Yes, similarly,
Output parameters are individually set according to the display of the list on the right side of the same row in the same figure (j in FIG. 6A), but when the determination result (i in FIG. 6A) is No, the output parameter is updated and stored. Is not performed, the process proceeds to the processing of the subsequent determination element, and according to the display of the row of the action program unit G (greeting) in FIG. Is set to “Homogeneous” and “le
It is determined whether both the input parameters of “ft eye” and “right eye” are both “1”, that is, whether another individual of the same species is present in front of the visual field (k in FIG. 6A). ) And if the determination result is Yes,
Similarly, according to the display of the list on the right side of the same row in the same figure, the output parameters are individually set in the inter-individual waiting action unit means H (l in FIG. 6A).
However, if the determination result (k in FIG. 6A) is No, the process shifts to the processing of the subsequent determination element without updating and storing the output parameter, and the line of the action program unit F (intimidation) in FIG. In accordance with the display, to realize the inter-individual waiting action unit selecting means I, "phereophone"
Input parameter is set to "weak", and
Whether both input parameters of “left eye” and “right eye” are “1”, that is,
It is determined whether or not another individual of the “weak species” is present in the field of view (m in FIG. 6B). If the determination result is Yes, similarly, the list on the right side of the same row in FIG. In realizing the inter-individual waiting action unit means H according to the display of the part, the output parameters are individually set (n in FIG. 6B), but if the determination result (m in FIG. 6B) is No, the output is set. Without updating and storing the parameters, the process proceeds to the processing of the subsequent judgment element, and the action program unit H in FIG.
In accordance with the display of the (Escape) line, to realize the inter-individual waiting action unit selection means I, "Phereomon
e) is set to “strong”, that is, it is determined whether another individual of “strong” is present ahead (o in FIG. 6B), and the determination result is “Yes”. In this case, similarly, the output parameters are individually set in the realization of the inter-individual waiting action unit means H in accordance with the display of the list on the right side of the same row in FIG.
If (p in B) is No in the determination result (o in FIG. 6B), the processing shifts to the processing of the subsequent determination element without updating and storing the output parameter, and the action program unit E (jitter-battery) in FIG. )), According to the display of the line “now a
ction ”is“ 1 ”, and
Whether both the input parameters of “left eye” and “rght eye” are “1”, that is,
Under the stopped state, it is determined whether or not an obstacle is present in front of the visual field (q in FIG. 6B). If the determination result is Yes, similarly, a list on the right side of the same row in FIG. The output parameters are individually set according to the display of the portion (FIG. 6).
If (r in B) is No in the determination result (q in FIG. 6B), the process proceeds to the processing of the subsequent determination element without updating and storing the output parameter, and the action program unit I (stop) in FIG. ), It is determined whether the input parameter of “dark” is “1”, that is, whether or not the action space is dark (s in FIG. 6B). If the determination result is Yes, Similarly, the output parameters are individually set (t in FIG. 6B) in accordance with the display of the list on the right side of the same row in the same figure, but the determination result (s in FIG. 6B)
Is No, the output parameter conversion process (u in FIG. 6B) is performed on the output parameter, which characterizes the selected action program unit, without performing the update storage of the output parameter. In the action program unit execution process (j in FIG. 4), after securing parameters for actuators suitable for controlling the motor driver units 11 and 12 for driving the electric motors 13 and 14 as actuators,
Return to the main routine (v in FIG. 6B).

【0014】総括的なアクションユニット選択手段Cを
実現すべく実行されるところの、上記のアクションプロ
グラムユニット選択処理(図6A、6B)にあっては、
設定済みの5個の入力パラメータを判断要素として、複
数のアクションプログラムユニットの中から、所定の1
つのアクションプログラムユニットを選択する際に、複
数のアクションプログラムユニットの論理的優先順位の
指定により規定される選択判断アルゴリズムに従う点で
特徴付けられているものである。ここでの選択処理(図
6A、6B)の実例の場合、図7に示されるように、9
種類のアクションプログラムユニットA〜Iを図6A、
6Bのフローチャートにおいて、アクションプログラム
ユニットごとの判断要素をユニットA→B→C→D→G
→F→H→E→Iの処理順序で実行することで、逆順の
ユニットI→E→H→F→G→D→C→B→Aの論理的
優先順位が指定され、これにより、アクションプログラ
ムユニットの選択判断アルゴリズムが形成される。そし
て、ここで形成される選択判断アルゴリズムは、複数の
アクションプログラムユニットの時系列上の逐次的実行
配列を支配することで、逐次的に実行される各別のアク
ションプログラムユニットにより規定され、「acti
on」「action time」「duty」の3個
の出力パラメータによって特徴付けられる各別のアクシ
ョンユニットの時系列上の逐次的配列を結局のところ支
配し、これにより、複数のアクションユニットの時系列
上のつながりの総体という表現で昆虫ロボットの性格付
けを行うものである。かくて、ここでの複数のアクショ
ンプログラムユニットの時系列上の逐次的実行配列で規
定される複数のアクションユニットの時系列上のつなが
りの総体は、一例として、「臆病者タイプ」と俗称され
るような性格を表現しているが、複数のアクションプロ
グラムの種類揃えと、それらの時系列上の逐次的実行配
列いかによって、種々の性格付けが可能であることは論
を待ない。例えば、別の選択処理(図8A、8B)の実
例の場合、図9に示されるように、8種類のアクション
プログラムユニットA〜Hを図8A、8Bのフローチャ
ートにおいて、アクションプログラムユニットごとの判
断要素をユニットA→B→C→D→E→F→G→Hの処
理順序で実行することで、逆順のユニットH→G→F→
E→D→C→B→Aの論理的優先順位が指定され、これ
により、別の選択判断アルゴリズムが形成される。かく
て、ここでの複数のアクションプログラムユニットの時
系列上の逐次的実行配列で規定される複数のアクション
プログラムユニットの時系列上のつながりの総体は、別
の一例として、「猪突猛進タイプ」と俗称されるような
性格を表現している。さらに、これらのタイプ別の性格
付けに関しては、選択判断アルゴリズム自体のほか、採
用可能な複数のアクションプログラムの各々により規定
される各別のアクションユニットを特徴付けるところの
出力パラメータの種類と分量によっても、きめ細かに調
整可能であることは言うまでもない。
In the above-described action program unit selection processing (FIGS. 6A and 6B), which is executed to realize general action unit selection means C,
A predetermined one of a plurality of action program units is determined using the five input parameters that have been set as judgment elements.
When one action program unit is selected, it is characterized in that it follows a selection decision algorithm defined by designating logical priorities of a plurality of action program units. In the case of the actual example of the selection processing (FIGS. 6A and 6B) here, as shown in FIG.
FIG. 6A shows the types of action program units A to I,
In the flowchart of FIG. 6B, the judgment elements for each action program unit are represented by units A → B → C → D → G
By executing in the processing order of → F → H → E → I, the logical priorities of units I → E → H → F → G → D → C → B → A in the reverse order are designated, whereby the action is performed. A program unit selection decision algorithm is formed. The selection decision algorithm formed here is defined by each of the action program units that are sequentially executed by controlling the sequential execution sequence of the plurality of action program units in time series, and is defined as “acti”.
on, "action time", and "duty" dominate the sequential sequence on the time series of each other action unit, which is characterized by three output parameters, whereby the time series of a plurality of action units Insect robots are characterized by the expression "total of connections". Thus, the total of the chronological connection of the plurality of action units defined by the sequential execution sequence of the chronological sequence of the plurality of action program units is commonly referred to as a “timid type” as an example. Although such a character is expressed, it is not a matter of course that various characteristics are possible depending on the kind of a plurality of action programs and the sequential execution arrangement in a time series. For example, in the case of an example of another selection process (FIGS. 8A and 8B), as shown in FIG. 9, eight types of action program units A to H are determined in the flowcharts of FIGS. Are executed in the processing order of the units A → B → C → D → E → F → G → H, so that the units H → G → F →
Logical priorities of E → D → C → B → A are specified, thereby forming another selection decision algorithm. Thus, the total of the chronological connection of a plurality of action program units defined by the chronological execution sequence of the plurality of action program units here is, as another example, the “inrush rush type”. It expresses a personality. Furthermore, regarding these types of personality ratings, in addition to the selection judgment algorithm itself, the type and quantity of output parameters that characterize each separate action unit defined by each of a plurality of action programs that can be adopted, Needless to say, it can be finely adjusted.

【0015】ここでの実施の形態としてのアクションプ
ログラムユニット選択処理(図6A、6B、図8A、8
B)のプログラム自体は、昆虫ロボットの製作時に、個
体ごとの性格付けに応じたソフトウエア構成として固定
的に組み込まれているものであるが、製作時に固定的に
組み込まれていなければならない特段の理由もないの
で、各別の性格付けに応じて予め用意されているアクシ
ョンプログラムユニット選択処理のプログラムをROM
に格納しておいて、このようなROMを事後的に各別の
個体に対して装着ないし交換することで、事後的にプロ
グラムの書き込みないし書き換えを行ってもよいし、パ
ーソナルコンピュータなどの外部装置から通信線経由で
事後的、遠隔的に各別の個体に対してプログラムを転送
して格納してもよい。
The action program unit selection processing according to the embodiment (FIGS. 6A and 6B, FIGS. 8A and 8)
The program (B) itself is fixedly incorporated as a software configuration according to the personality rating of each individual at the time of manufacturing the insect robot. Since there is no reason, the action program unit selection processing program prepared in advance according to each
The program may be written or rewritten ex post facto by attaching or replacing such a ROM to each other afterwards, or an external device such as a personal computer. Alternatively, the program may be transferred to and stored separately from each other individually and remotely via a communication line.

【0016】図6Bに戻って、アクションプログラムユ
ニット選択処理の最終ステップの処理として実行される
出力パラメータ変換処理(図6B中u)は、リターン
(図6B中v)後のメインフローで個体間応待アクショ
ンユニット実行手段Jを含むアクションユニット実行手
段Dを実現すべく実行されるアクションプログラムユニ
ット実行処理(図4中j)において、モータドライバユ
ニット11、12を制御するのに好適なアクチュエータ
対応のパラメータを確保すべく、各別のアクションプロ
グラムユニットの選択により規定されるアクションユニ
ットを特徴付けるところの「action」「acti
on time」「duty」の3個の出力パラメータ
のうちの「action」をそのようなアクチュエータ
対応のパラメータに変換するものである。即ち、図10
A〜10Cのアクション/モータ制御対応関係説明図に
示されるように、「action」の出力パラメータの
種類(内容)は、昆虫ロボットの挙動単位の観点から、
「前進」「右旋回」「左旋回」「後退」「ジタバタ」
「威嚇」「挨拶」「逃避」「停止」に区分されている
が、かかる区分の挙動単位を左側脚動輪7a、7b、7
cを回転駆動するためのアクチュエータとしての左側電
動機13(図2)と、右側脚動輪8a。8b、8cを回
転駆動するためのアクチュエータとしての右側電動機1
4(図2)の各々における「正転」「逆転」「停止」の
運転モードに関係付けるのがここに言うアクチュエータ
対応のパラメータへの変換ということである。このよう
なアクチュエータ対応のパラメータと「action」
「duty」の出力パラメータの双方に基づいて、既述
の図3に示されるような定義入力論理値対応の「正転」
「逆転」「停止」の運転モードで、「action t
ime」の出力パラメータ値で表される持続時間の分だ
け、「duty」の出力パラメータ値で表される回転速
度で両電動機13、14を駆動制御するのに、マイクロ
コンピュータ10の1対の出力ポート#5out、#6
outから左側モードドライブユニット11(図2)の
1対の入力端子IN1、IN2に対して、そして、別の
1対の出力ポート#7out、#8outから右側モー
タドライブユニット12(図2)の1対の入力端子IN
1、IN2に対して入力されるべき論理値の時系列上の
遷移について、左右の脚部手段8、9の動きと、その結
果として表現される昆虫ロボット自体の挙動単位との対
応関係において説明する説明図が図10A、10B、1
0Cである。ここで図4に戻って、フェロモン信号受信
処理(図4中c)のサブルーチンに飛んだマイクロコン
ピュータ10は、フェロモン信号受信処理を開始し(図
11中a)、他の個体からのフェロモン信号を受信した
かどうかを判別(図11中b)するが、この場合、マイ
クロコンピュータ10は、フォトトランジスタ3(図
2)が光電的に感受する受信フェロモン信号を増幅回路
3a経由で入力ポート#2INに取り込んで、該信号の
存否を判別する。ここでの判別結果(図11中b)がN
oの場合には、マイクロコンピュータ10は、メインフ
ローにリターンして(図11中e)、100ms間隔の
動作基準時点の到来まで繰り返して(図4中d)、フェ
ロモン信号の受信判別(図11中b)を実行する。一
方、フェロモン信号が受信されて、ここでの判別結果
(図11中b)がYesに転ずると、マイクロコンピュ
ータ10は、種別の識別処理を実行することで、個体間
応待関係識別手段Gを実現すべく、他の個体から受信さ
れた受信フェロモン信号により表される相手識別情報、
典型的には、既述の図5に例示されるような「Aタイ
プ」「Bタイプ」「Cタイプ」のタイプ区分情報と、自
己の個体に固有に予め設定されている自己識別情報、典
型的には、同様に、図5に例示されるような自己のタイ
プ区分情報に基づいて、自己の個体と他の個体の間に予
め設定されている個体間応待関係、典型的には、図12
に示されるような、「タイプ」どうしの間で定義される
「強種」「弱種」「同種」の個体間応待関係を識別し
て、これを「pheromone」の入力パラメータと
して設定して(図11中d)からメインフローにリター
ンする(図11中e)。ここでの個体間応待関係として
は、「タイプ」どうしの間で定義される「強種」「弱
種」「同種」のものが例示されているが、その例に限ら
れることはなく、「タイプ」どうしの間でのものとして
は、「雄」「雌」の個体間応待関係であってもよいし、
個体どうしを唯一に特定するものとしては、「雄親」
「雌親」「子供#1」「子供#2」の個体間応待関係で
も、「番(つが)い」の個体間応待関係でもよい。さす
れば、「強種」や「弱種」の個体間応待関係に特徴付け
られて出現する「逃避」や「威嚇」の挙動単位が別の挙
動単位に置き換えられるのは、生き物の生態に照らして
当然の事柄である。
Returning to FIG. 6B, the output parameter conversion processing (u in FIG. 6B) executed as the last step of the action program unit selection processing is an inter-individual waiting in the main flow after the return (v in FIG. 6B). In the action program unit execution processing (j in FIG. 4) executed to realize the action unit execution means D including the action unit execution means J, parameters corresponding to actuators suitable for controlling the motor driver units 11 and 12 are set. To ensure, "action" and "acti" characterize the action units defined by the selection of each separate action program unit.
“action” of the three output parameters “on time” and “duty” is converted into such a parameter corresponding to the actuator. That is, FIG.
As shown in the action / motor control correspondence diagram of A to 10C, the type (content) of the output parameter of “action” is determined from the viewpoint of the behavior unit of the insect robot.
"Forward", "Right turn", "Left turn", "Retreat", "Jitter"
It is divided into “intimidating”, “greeting”, “escape” and “stop”, and the behavior units of such divisions are left leg driving wheels 7a, 7b, 7
a left electric motor 13 (FIG. 2) as an actuator for rotationally driving c, and a right leg driving wheel 8a. Right motor 1 as an actuator for rotationally driving 8b, 8c
4 (FIG. 2) is related to the operation mode of “forward rotation”, “reverse rotation”, and “stop” in this case. Parameters for such actuators and "action"
Based on both the output parameters of “duty”, “forward rotation” corresponding to the defined input logical value as shown in FIG.
In the operation mode of “reverse rotation” and “stop”, “action t
In order to drive and control both electric motors 13 and 14 at the rotation speed represented by the output parameter value of “duty” by the duration represented by the output parameter value of “im”, a pair of outputs of the microcomputer 10 are used. Port # 5out, # 6
out to a pair of input terminals IN1 and IN2 of the left mode drive unit 11 (FIG. 2), and another pair of output ports # 7out and # 8out to a pair of the right motor drive unit 12 (FIG. 2). Input terminal IN
1. The transition of the logical value to be input to IN2 in the time series will be described in terms of the correspondence between the movement of the left and right leg means 8, 9 and the behavior unit of the insect robot itself expressed as a result. 10A, 10B, 1
0C. Here, returning to FIG. 4, the microcomputer 10 jumped to the subroutine of the pheromone signal receiving process (c in FIG. 4) starts the pheromone signal receiving process (a in FIG. 11) and transmits the pheromone signal from another individual. It is determined whether or not it has been received (b in FIG. 11). In this case, the microcomputer 10 sends the received pheromone signal, which is photoelectrically sensed by the phototransistor 3 (FIG. 2), to the input port # 2IN via the amplifier circuit 3a. Then, the presence or absence of the signal is determined. The determination result (b in FIG. 11) is N
In the case of o, the microcomputer 10 returns to the main flow (e in FIG. 11) and repeats until the operation reference time at 100 ms intervals arrives (d in FIG. 4) to determine whether the pheromone signal is received (FIG. 11). Execute the middle b). On the other hand, if the pheromone signal is received and the determination result (b in FIG. 11) turns to Yes, the microcomputer 10 executes the type identification processing to realize the inter-individual waiting-relationship identification means G. To identify, the other party identification information represented by the received pheromone signal received from other individuals,
Typically, type classification information such as “A type”, “B type” and “C type” as illustrated in FIG. Similarly, based on the type classification information of the self as exemplified in FIG. 5, similarly, a predetermined inter-individual waiting relationship between the self individual and another individual, typically, 12
As shown in the above, the inter-individual waiting relationship between "strong", "weak", and "same" defined between "types" is identified, and this is set as an input parameter of "pheromone" ( The process returns from d) in FIG. 11 to the main flow (e in FIG. 11). Here, the inter-individual entertainment relationship is exemplified by "strong", "weak", and "same" defined between "types", but is not limited thereto. The type of "type" may be a "male" or "female" relationship between individuals,
The only thing that uniquely identifies individuals is "sire"
The inter-individual waiting relationship between “female parent”, “child # 1”, and “child # 2” or the inter-individual waiting relationship between “turn” is acceptable. Then, the behavioral unit of "escape" and "intimidation", which is characterized by the waiting relationship between individuals of "strong" and "weak", is replaced with another behavioral unit, because the ecology of living creatures That is a matter of course.

【0017】再び図4に戻って、入力パラメータ設定処
理(図4中g)のサブルーチンに飛んだマイクロコンピ
ュータ10は、入力パラメータ設定処理を開始し(図1
3中a)、左側発光ダイオード2aを点灯し(図13中
b)てから、反射光を受光しているかどうかを判別(図
13中c)するが、この場合、マイクロコンピュータ1
0は、出力ポート#1outから左側発光ダイオード2
a(図2)に駆動信号を送り、反射光を感受するフォト
トランジスタ3により検出される障害状態信号を障害物
対応の環境状態信号として増幅回路3a経由で入力ポー
ト#2INに取り込んで、障害状態信号の存否を判別す
る。反射光が受光されて、判別結果(図11中c)がY
esの場合には、「left eye」の入力パラメー
タとして「1」を設定し(図11中d)、一方、反射光
が受光されずに、判別結果(図11中c)がN0の場合
には、「left eye」の入力パラメータとして
「0」を設定して(図11中e)から、左側発光ダイオ
ードを消灯する(図11中f)。
Returning to FIG. 4, the microcomputer 10 jumped to the subroutine of the input parameter setting process (g in FIG. 4) starts the input parameter setting process (FIG. 1).
3), the left light emitting diode 2a is turned on (b in FIG. 13), and then it is determined whether or not reflected light is received (c in FIG. 13). In this case, the microcomputer 1
0 is output from the output port # 1out to the left light emitting diode 2
a (FIG. 2), a failure state signal detected by the phototransistor 3 that senses reflected light is taken into the input port # 2IN via the amplifier circuit 3a as an environmental state signal corresponding to the obstacle, and the failure state is detected. The presence or absence of a signal is determined. The reflected light is received, and the determination result (c in FIG. 11) is Y
In the case of es, “1” is set as the input parameter of “left eye” (d in FIG. 11), and if the reflected light is not received and the determination result (c in FIG. 11) is N0, Sets "0" as an input parameter of "left eye" (e in FIG. 11), and then turns off the left light emitting diode (f in FIG. 11).

【0018】次いで、マイクロコンピュータ10は、同
様にして、右側発光ダイオード2bを点灯し(図13中
g)てから、反射光を受光しているかどうかを判別(図
13中h)し、反射光が受光されて、判別結果(図13
中h)がYesの場合には、「right eye」の
入力パラメータとして「1」を設定し(図13中i)、
一方、反射光が受光されずに、判別結果(図11中h)
がNoの場合には、「right eye」の入力パラ
メータとして「0」を設定して(図13中j)から、右
側発光ダイオードを消灯する(図13中k)。続いて、
マイクロコンピュータ10は、硫化カドミニウムセル4
からの感受信号を明るさ(暗さ)対応の環境状態信号と
して入力ポート#1INに取り込んで、環境状態信号の
存否を判別する。外光が感受されずに判別結果(図13
中l)がYesの場合には、「dark」の入力パラメ
ータとして「1」を設定し(図13中m)、一方、外光
が感受されて、判別結果(図13中l)がNoの場合に
は、「dark」の入力パラメータとして「0」を設定
して(図13中n)から、メインフローにリターンする
(図13中o)。
Next, the microcomputer 10 similarly turns on the right light emitting diode 2b (g in FIG. 13), determines whether or not reflected light is received (h in FIG. 13), and determines whether the reflected light is received. Is received, and the determination result (FIG. 13)
When the middle h) is Yes, “1” is set as an input parameter of “right eye” (i in FIG. 13),
On the other hand, the reflected light is not received, and the determination result (h in FIG. 11)
Is No, "0" is set as an input parameter of "right eye" (j in FIG. 13), and then the right light emitting diode is turned off (k in FIG. 13). continue,
The microcomputer 10 includes a cadmium sulfide cell 4
Is input to input port # 1IN as an environmental state signal corresponding to brightness (darkness), and the presence or absence of an environmental state signal is determined. The discrimination result (FIG. 13)
When the middle l) is Yes, “1” is set as the input parameter of “dark” (m in FIG. 13), while outside light is sensed and the determination result (l in FIG. 13) is No. In this case, “0” is set as an input parameter of “dark” (n in FIG. 13), and then the process returns to the main flow (o in FIG. 13).

【図面の簡単な説明】[Brief description of the drawings]

全図はこの発明の実施の形態に関するものである。 All the drawings relate to embodiments of the present invention.

【図1】外観を示す平面図。FIG. 1 is a plan view showing the appearance.

【図1B】外観を示す側面図。FIG. 1B is a side view showing the appearance.

【図2】電気的ハードウエアの構成を示すブロック図。FIG. 2 is a block diagram showing a configuration of electrical hardware.

【図3】モータドライバユニット11、12における入
力論理値と電動機の運転モードとの関係を説明する説明
図。
FIG. 3 is an explanatory diagram illustrating a relationship between input logical values in motor driver units 11 and 12 and an operation mode of a motor.

【図4】マイクロコンピュータ10で実行されるプログ
ラムのメインフローを示すフローチャート。
FIG. 4 is a flowchart showing a main flow of a program executed by the microcomputer 10;

【図5】発信フェロモン信号の論理値の波形図。FIG. 5 is a waveform diagram of a logical value of a transmission pheromone signal.

【図6A、6B】図4のメインフローにおけるアクショ
ンプログラムユニット選択処理のサブルーチンのフロー
を示すフローチャート。
6A and 6B are flowcharts showing a subroutine flow of an action program unit selection process in the main flow of FIG. 4;

【図7】アクションプログラムユニットごとにおける5
個の入力パラメータと3個の出力パラメータとの対応関
係の1つの配列を示す入出力パラメータ対応図。
FIG. 7 shows 5 in each action program unit.
FIG. 11 is an input / output parameter correspondence diagram showing one array of a correspondence relationship between three input parameters and three output parameters.

【図8A、8B】アクションプログラムユニット選択処
理の別のサブルーチンのフローを示すフローチャート。
8A and 8B are flowcharts showing the flow of another subroutine of action program unit selection processing.

【図9】アクションプログラムユニットごとにおける5
個の入力パラメータと3個の出力パラメータとの対応関
係の別の配列を示す入出力パラメータ対応説明図。
FIG. 9 shows 5 for each action program unit.
FIG. 11 is an input / output parameter correspondence explanatory diagram showing another arrangement of the correspondence between three input parameters and three output parameters.

【図10A、10B、10C】モータドライブユニット
11、12に対する入力論理値の時系列上の遷移と、左
右の脚部手段8、9の動きと、その結果としての昆虫ロ
ボット自体の挙動単位との対応関係を説明する説明図。
FIGS. 10A, 10B, and 10C correspond to transitions of input logical values to the motor drive units 11 and 12 in time series, movements of the left and right leg means 8 and 9, and resultant behavior units of the insect robot itself. FIG. 4 is an explanatory diagram illustrating a relationship.

【図11】フェロモン信号受信処理のサブルーチンのフ
ローを示すフローチャート。
FIG. 11 is a flowchart showing the flow of a subroutine of pheromone signal reception processing.

【図12】「強種」「弱種」「同種」の個体間応待関係
を説明する説明図。
FIG. 12 is an explanatory diagram illustrating an inter-individual waiting relationship between “strong”, “weak”, and “same”.

【図13】入力パラメータ設定処理のサブルーチンのフ
ローを示すフローチャート。
FIG. 13 is a flowchart showing the flow of a subroutine of input parameter setting processing.

【符号の説明】[Explanation of symbols]

1 昆虫様筐体 2a、2b 発光ダイオード 3 フォトトランジスタ 4 硫化カドミニウムセル 5a、5b 発光ダイオード 6a、6b、6c 右側脚動輪 7a、7b、7c 左側脚動輪 8、8、8 右側脚骨 9、9、9 左側脚骨 8、9 脚部手段 10 マイクロコンピュータ DESCRIPTION OF SYMBOLS 1 Insect-like housing 2a, 2b Light emitting diode 3 Phototransistor 4 Cadmium sulfide cell 5a, 5b Light emitting diode 6a, 6b, 6c Right leg wheel 7a, 7b, 7c Left leg wheel 8, 8, 8 Right leg bone 9, 9, 9 Left leg bone 8, 9 Leg means 10 Microcomputer

───────────────────────────────────────────────────── フロントページの続き (72)発明者 澤尻 雄二 栃木県下都賀郡壬生町おもちゃのまち1− 2−9 A203 (72)発明者 須田 慎一 栃木県下都賀郡壬生町おもちゃのまち1− 2−9 A209 (72)発明者 佐藤 真啓 栃木県真岡市中郷233−7 Fターム(参考) 2C150 CA02 DA05 DA27 DA28 EB01 ED08 ED37 ED39 ED52 EF23 EF33 EF36 5H004 GB16 HA07 HB07 HB15 JA05 JB08 KA05 KA22 KB37 MA02 MA05  ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Yuji Sawajiri 1-2-9, Toy Town, Mibu-cho, Shimotsuga-gun, Tochigi A203 (72) Inventor Shinichi Suda 1-2-1-2 Toy Town, Mibu-cho, Shimotsuga, Tochigi 9 A209 (72) Inventor Masahiro Sato 233-7 Nakago, Mato-shi, Tochigi Pref.

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 昆虫ロボットのアクション空間内の環境
状態を検出して、環境状態信号を出力する環境状態検出
手段Aと、少なくとも、昆虫ロボットのアクションの種
類と上記アクションの持続時間とを規定する複数のアク
ションユニット手段Bと、上記環境状態信号に基づい
て、上記複数のアクションユニット手段Bの中から、所
定の1つのアクションユニット手段Bを選択するアクシ
ョンユニット選択手段Cと、上記アクションユニット選
択手段Cにより選択されたアクションユニットで規定さ
れる上記アクションを上記アクションの持続時間だけ実
行するように、アクチュエータを駆動するアクションユ
ニット実行手段Dと、上記アクションユニット実行手段
Dにより駆動されるアクチュエータ13、14により付
勢されて、上記アクションを上記アクションの持続時間
だけ昆虫ロボットに表現させるように運動する脚部手段
8、9とを備えていることを特徴とする昆虫ロボット。
1. An environmental state detecting means A for detecting an environmental state in an action space of an insect robot and outputting an environmental state signal, and at least defining an action type of the insect robot and a duration of the action. A plurality of action unit means B; an action unit selection means C for selecting one predetermined action unit means B from the plurality of action unit means B based on the environmental state signal; C: an action unit executing means for driving an actuator so as to execute the action defined by the action unit selected by C for the duration of the action, and actuators 13 and 14 driven by the action unit executing means D Energized by the above An insect robot comprising: leg means (8, 9) that moves so that the insect robot expresses the action for the duration of the action.
【請求項2】 上記環境状態検出手段Aが、アクション
空間内に存在する障害物を検出して、障害状態信号を環
境状態信号として出力し、アクション空間内の明るさを
検出して、明るさ状態信号を環境状態信号として出力す
る請求項1記載の昆虫ロボット。
2. The environment state detection means A detects an obstacle existing in the action space, outputs a failure state signal as an environment state signal, detects brightness in the action space, and The insect robot according to claim 1, wherein the status signal is output as an environmental status signal.
【請求項3】 上記複数のアクションユニット手段Bの
各々が、昆虫ロボットのアクションの種類として、昆虫
ロボットの「前進」「後退」「右旋回」「左旋回」「停
止」のうちの1種類を規定し、上記1種類のアクション
の持続時間と上記1種類のアクションの実行速度とを規
定する請求項1記載の昆虫ロボット。
3. Each of the plurality of action unit means B is one of the following types of action of the insect robot: “forward”, “retreat”, “turn right”, “turn left”, and “stop”. 2. The insect robot according to claim 1, wherein the insect robot defines a duration of the one type of action and an execution speed of the one type of action.
【請求項4】 上記アクションユニット選択手段Cが、
アクションユニット手段Bごとに予め設定された優先順
位に従って、複数のアクションユニット手段Bの中から
所定の1つのアクションユニット手段Bを選択する請求
項1記載の昆虫ロボット。
4. The action unit selecting means C,
2. The insect robot according to claim 1, wherein a predetermined one action unit means B is selected from the plurality of action unit means B in accordance with a priority order preset for each action unit means B.
【請求項5】 上記アクションユニット実行手段Dが、
上記アクションの種類としての「前進」「後退」「右旋
回」「左旋回」「停止」のうちの1種類のアクションに
予め対応付けられた「正転」「逆転」「停止」のうちの
いずれかの運転モードで上記アクチュエータ13、14
としての電動機を上記アクションの持続時間だけ上記ア
クションの実行速度に対応するデューティ比で駆動する
請求項3記載の昆虫ロボット。
5. The action unit execution means D,
Of the forward action, the reverse action, the right turn action, the left turn action, and the stop action, which correspond to one of the above action types, "forward rotation", "reverse rotation", and "stop". In any one of the operation modes, the actuators 13, 14
4. The insect robot according to claim 3, wherein the electric motor is driven for a duration of the action at a duty ratio corresponding to an execution speed of the action.
【請求項6】 アクション空間内に自己の個体に特有に
予め設定された自己識別情報を表すフェロモン信号を発
信フェロモン信号として発信するフェロモン信号発信手
段Eと、アクション空間内に存在する他の昆虫ロボット
のフェロモン信号発信手段Eから発信される、他の個体
に特有に予め設定された相手識別情報を表すフェロモン
信号を受信フェロモン信号として受信するフェロモン信
号受信手段Fと、受信された上記受信フェロモン信号に
より表される上記相手識別情報と上記自己識別情報とに
基づいて、上記自己の個体と上記他の個体の間に予め設
定されている個体間応待関係を識別する個体間応待関係
識別手段Gと、少なくとも、昆虫ロボットの個体間応待
アクションの種類と上記個体間応待アクションの持続時
間とを規定する複数の個体間応待アクションユニット手
段Hと、上記個体間応待関係識別手段Gにより識別され
た個体間応待関係に基づいて、上記複数の個体間応待ア
クションユニット手段Hの中から所定の1つの個体間応
待アクションユニット手段Hを選択する個体間応待アク
ションユニット選択手段Iと、上記個体間応待アクショ
ンユニット選択手段Iにより選択された個体間応待アク
ションユニットで規定される上記個体間応待アクション
を上記個体間応待アクションの持続時間だけ実行するよ
うに、アクチュエータを駆動する個体間応待アクション
ユニット実行手段Jと、上記個体間応待アクションユニ
ット実行手段Jにより駆動されるアクチュエータ13、
14により付勢されて、上記個体間応待アクションを上
記個体間応待アクションの持続時間だけ昆虫ロボットに
表現させるように運動する脚部手段8、9とをさらに備
えている請求項1記載の昆虫ロボット。
6. A pheromone signal transmitting means E for transmitting, as a transmitted pheromone signal, a pheromone signal representing self-identification information uniquely set in advance in the action space for each individual, and another insect robot existing in the action space. A pheromone signal receiving means F for receiving a pheromone signal, which is transmitted from the pheromone signal transmitting means E of the other individual and represents a predetermined partner identification information specific to another individual as a received pheromone signal, and the received pheromone signal received On the basis of the partner identification information and the self-identification information represented, an inter-individual entertainment relationship identification means G for identifying a preset inter-individual entertainment relationship between the own individual and the other individual, At least a plurality of types that define the type of inter-individual waiting action of the insect robot and the duration of the inter-individual waiting action Of the plurality of inter-individual waiting action unit means H based on the inter-individual waiting action unit means H and the inter-individual waiting relation identified by the inter-individual waiting relation identifying means G. The inter-individual waiting action unit selecting means I for selecting the action unit means H, and the inter-individual waiting action defined by the inter-individual waiting action unit selected by the inter-individual waiting action unit selecting means I, An inter-individual waiting action unit executing means J for driving an actuator, and an actuator 13 driven by the inter-individual waiting action unit executing means J so as to execute for the duration of
The insect robot according to claim 1, further comprising leg means (8, 9) urged by (14) and moving to cause the insect robot to express the inter-individual waiting action for the duration of the inter-individual waiting action. .
【請求項7】 上記複数の個体間応待アクションユニッ
ト手段Hの各々が、自己の個体の個体間応待アクション
の種類として、昆虫ロボットの「前進」「威嚇」「挨
拶」「逃避」のうちの1種類を規定し、上記1種類の個
体間応待アクションの持続時間と上記1種類の個体間応
待アクションの実行速度とを規定する請求項6の昆虫ロ
ボット。
7. Each of the plurality of inter-individual waiting action unit means H may include one of “in advance”, “intimidating”, “greeting”, and “escape” of the insect robot as a type of the inter-individual waiting action of its own individual. 7. The insect robot according to claim 6, wherein types are defined, and a duration of said one type of inter-individual waiting action and an execution speed of said one type of inter-individual waiting action are specified.
【請求項8】 上記アクションユニット選択手段Cに
は、アクションユニット手段Bと個体間応待アクション
ユニット手段Hごとに、予め「臆病者」タイプに設定さ
れた優先順位に従って、複数のアクションユニット手段
Bと複数の個体間応待アクションユニット手段Hの中か
ら、所定の1つのアクションユニット手段若しくは所定
の1つの個体間応待アクションユニット手段を選択する
「臆病者」タイプアクションユニット選択手段I又はア
クションユニット手段Bと個体間応待アクションユニッ
ト手段Hごとに、予め「猪突猛進」タイプに設定された
優先順位に従って、複数のアクションユニット手段Bと
複数の個体間応待アクションユニット手段Hの中から、
所定の1つのアクションユニット手段B若しくは所定の
1つの個体間応待アクションユニット手段Hを選択する
「猪突猛進」タイプアクションユニット選択手段Iが含
まれている請求項6又は7記載の昆虫ロボット。
8. The action unit selecting means C includes a plurality of action unit means B according to a priority order set in advance to a “timid” type for each of the action unit means B and the inter-individual waiting action unit means H. "Coward" type action unit selecting means I or action unit means B for selecting a predetermined one action unit means or a predetermined one interpersonal waiting action unit means from a plurality of inter-individual waiting action unit means H; For each of the inter-individual waiting action unit means H, a plurality of action unit means B and a plurality of inter-individual waiting action unit means H are selected in accordance with the priority order set in advance to the "inrush" type.
8. The insect robot according to claim 6, further comprising a "rushing-in-rush" type action unit selecting means I for selecting one predetermined action unit means B or one predetermined inter-individual waiting action unit means H.
JP12469999A 1999-03-26 1999-03-26 Insect robot Expired - Fee Related JP3983416B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP12469999A JP3983416B2 (en) 1999-03-26 1999-03-26 Insect robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP12469999A JP3983416B2 (en) 1999-03-26 1999-03-26 Insect robot

Publications (2)

Publication Number Publication Date
JP2000271350A true JP2000271350A (en) 2000-10-03
JP3983416B2 JP3983416B2 (en) 2007-09-26

Family

ID=14891914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP12469999A Expired - Fee Related JP3983416B2 (en) 1999-03-26 1999-03-26 Insect robot

Country Status (1)

Country Link
JP (1) JP3983416B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6681150B1 (en) * 1999-11-20 2004-01-20 Bandai Co., Ltd. Insect robot
JP2013094923A (en) * 2011-11-04 2013-05-20 Sugiura Kikai Sekkei Jimusho:Kk Service robot
CN106681149A (en) * 2017-01-11 2017-05-17 浙江大学 Bumblebee robot abdomen swinging control method based on virtual reality and reinforcement learning
WO2020082719A1 (en) * 2018-10-26 2020-04-30 北京工业大学 Head, chest, and abdomen separated bionic hexapod robot

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6681150B1 (en) * 1999-11-20 2004-01-20 Bandai Co., Ltd. Insect robot
JP2013094923A (en) * 2011-11-04 2013-05-20 Sugiura Kikai Sekkei Jimusho:Kk Service robot
CN106681149A (en) * 2017-01-11 2017-05-17 浙江大学 Bumblebee robot abdomen swinging control method based on virtual reality and reinforcement learning
CN106681149B (en) * 2017-01-11 2019-11-19 浙江大学 It is a kind of that abdomen control method is put based on the bumblebee robot of virtual reality and intensified learning
WO2020082719A1 (en) * 2018-10-26 2020-04-30 北京工业大学 Head, chest, and abdomen separated bionic hexapod robot

Also Published As

Publication number Publication date
JP3983416B2 (en) 2007-09-26

Similar Documents

Publication Publication Date Title
JP3986720B2 (en) Insect robot
US9737986B2 (en) Reconfigurable robotic system
US6939192B1 (en) Programmable toy with communication means
US7695338B2 (en) Remote controlled toy
US6889117B2 (en) Robot apparatus and method and system for controlling the action of the robot apparatus
EP1120740B1 (en) Robot device, its control method, and recorded medium
US8845384B2 (en) Interactive play set
CN108898918B (en) Programming education control object device easy for programming education
JP2000271350A (en) Insect robot
JP2002178282A (en) Robot device and its control method
JP4524524B2 (en) Robot apparatus and control method thereof
JP4385281B2 (en) Robot apparatus and control method thereof
JP4419035B2 (en) Robot apparatus and control method thereof
JP4411503B2 (en) Robot apparatus and control method thereof
KR102238167B1 (en) Modular robot system having enhanced assembling convenience
JP2003340761A (en) Robot device and robot device control method
JP3154323U (en) Electric toy
Demetriou et al. The Engino robotics platform (ERP) controller for education
JP2003071765A (en) Robot device and input method therefor
WO2018117394A1 (en) Method for controlling robot
KR200287203Y1 (en) System of Controlling Robot for Education
Lund et al. Robots with Neural Building Blocks
JP2001157984A (en) Robot device and action control method for robot device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050415

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070116

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070319

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20070502

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070502

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070704

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100713

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110713

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110713

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120713

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130713

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees