JP3983416B2 - Insect robot - Google Patents
Insect robot Download PDFInfo
- Publication number
- JP3983416B2 JP3983416B2 JP12469999A JP12469999A JP3983416B2 JP 3983416 B2 JP3983416 B2 JP 3983416B2 JP 12469999 A JP12469999 A JP 12469999A JP 12469999 A JP12469999 A JP 12469999A JP 3983416 B2 JP3983416 B2 JP 3983416B2
- Authority
- JP
- Japan
- Prior art keywords
- action
- inter
- individual
- parameter
- individual waiting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Toys (AREA)
- Feedback Control In General (AREA)
Description
【0001】
【発明の属する技術分野】
この発明は、アクション空間内で自律して、6足走行などの昆虫らいし挙動を呈することで、昆虫の生態を模擬するようにした趣味性の昆虫ロボットに関連し、とくに、アクション空間内の明るさ、障害物などの環境状態や自己の個体に接近する他の個体の種類に反応して、あたかも昆虫生態であるかのような生々しい運動を表現するようにした改良に関するものである。
【0002】
【従来の技術】
アクション空間内で自律して6足走行することで、昆虫の生態を模擬するようにした昆虫ロボット自体は玩具として愛好されており、そのような従前の昆虫ロボットは、例えば、特開平8−57159号によっても開示され、バンダイ製「6足歩行カブテリオス」としても公然実施されている。アクション空間内の環境状態に反応して挙動を開始し、或いは挙動を変更するようにした玩具ロボットも盛んに愛好されており、そのような従前の玩具ロボットは、例えば、特開平5−33786号によっても開示され、タカラ製「フラワーロック」としても公然実施されている。アクション空間内の他の個体を識別して挙動を変更するようにした玩具ロボットもすでに公知公用であり、そのような従前の玩具ロボットは、特開平9−7553号によっても開示され、トミー社製「ファービー」としても公然実施されている。
【0003】
【発明が解決しようとする課題】
しかしながら、従前の玩具ロボットにあっては、ロボット内に搭載されたマイクロコンピュータで一連のプログラムを実行する過程で、各種センサーにより検出される環境状態や個体識別の情報をマイクロコンピュータに取り込んで、一連のプログラム総体の中で、これらの情報を処理することで、本質的にロボット全体の動きを、これらの情報に基づく別の全体の動きに切り換えるものであったので、切り換えられるべき別の全体の動きの種類数は、実際には、極めて限られたものとなり、その結果、環境状態に反応して、或いは、他の個体を識別して、種々多様な行動パタンの組み合わせで挙動を起こす昆虫生態を模擬するには、困難であるという問題点があった。
【0004】
【課題を解決するための手段】
環境状態、および、他の個体に特有の相手識別情報に基づいて、アクションユニットおよび複数の個体間応待アクションユニットの中から、所定の1つのアクションユニットを選択することにより、上記問題点を解決して、環境状態や個体識別に反応して、昆虫らしい生々しい動きを表現できる優れた昆虫ロボットを提供するものである。
【0005】
【作用】
請求項1に係る昆虫ロボットは、制御手段と、制御手段により実行されるプログラムを記憶した記憶手段と、制御手段により制御されるアクチュエータと、当該アクチュエータにより付勢される脚部手段により種々のアクションを表現可能であり、前記昆虫ロボットの前進方向に臨んで発光ダイオードおよびフォトトランジスタが装着されており、前記制御手段は、前記プログラムを実行することにより、前記発光ダイオードを、アクション空間内に自己の個体に特有に予め設定された自己識別情報を表すフェロモン信号を発信フェロモン信号として発信するフェロモン信号発信手段として機能させ、前記フォトトランジスタを、アクション空間内に存在する他の昆虫ロボットのフェロモン信号発信手段から発 信される、他の個体に特有に予め設定された相手識別情報を表すフェロモン信号を受信フェロモン信号として受信するフェロモン信号受信手段として機能させ、前記発光ダイオードから照射される光線の反射光を前記フォトトランジスタにより感受させることにより、前進方向における障害物の存在を検出する障害物対応の環境情報検出手段として機能させ、さらに、前記制御手段は、前記プログラムに基づいて、前記フェロモン信号受信手段により受信フェロモン信号を受信したか否かを判別し、受信フェロモン信号が受信されたと判別された場合は、前記受信フェロモン信号により表される前記相手識別情報と前記自己識別情報とに基づいて、前記自己の個体と前記他の個体の間に予め設定されている個体間応待関係を識別し、個体間応待関係を表す個体間応待関係パラメータを設定し、受信フェロモン信号は受信されなかったと判別された場合は、前記個体間応待関係パラメータを設定せず、その後、前記環境情報検出手段において障害物の存在が検出されたか否かを判別し、前記障害物の存在が検出された場合は、障害物の存在を表す入力パラメータを設定し、また、前記記憶手段には、前記制御手段により前記プログラムに基づいて読み出され、前記アクチュエータを動作させるアクションデータを複数記憶しており、少なくとも当該アクションデータには、前記個体間応待関係パラメータおよび前記入力パラメータがともに設定されている場合に前記制御手段により選択される個体間応待アクションデータと、前記個体間応待関係パラメータが設定されておらず、前記入力パラメータが設定されている場合に前記制御手段により選択されるアクションデータとが含まれており、前記制御手段は、前記プログラムに基づいて、前記個体間応待関係パラメータおよび前記入力パラメータを参照し、前記個体間応待関係パラメータおよび前記入力パラメータがともに設定されている場合は、前記記憶手段に記憶された複数のアクションデータから前記個体間応待アクションデータを選択し、当該個体間応待アクションデータに基づいて、前記アクチュエータを制御し、前記個体間応待関係パラメータが設定されておらず、前記入力パラメータが設定されている場合は、前記記憶手段に記憶された複数のアクションデータから前記アクションデータを選択し、当該アクションデータに基づいて、前記アクチュエータを制御することにより、昆虫らしい生々しい動きを表現するように作用する。
【0006】
請求項2に係る昆虫ロボットは、さらに、前記記憶手段に、前記個体間応待パラメータにより表される個体間応待関係に対応付けられた複数の個体間応待アクションデータを記憶しており、前記制御手段は、前記個体間応待関係パラメータおよび前記入力パラメータがともに設定されている場合は、前記記憶手段に記憶された複数の個体間応待アクションデータから前記個体間応待パラメータにより表される個体間応待関係に対応付けられた個体間応待アクションデータを選択することにより、より昆虫らしい生々しい動きを表現するように作用する。
【0007】
【実施の形態】
図1〜図10を参照しながら、この発明の実施の形態を以下に説明する。この発明の実施の形態である昆虫ロボットの平面外観を示す図1Aと側面外観を示す図1Bにおいて、昆虫様筺体1の図上右端に現れる頭部1aには、昆虫ロボットの前進方向に臨んで左右に1対の発光ダイオード2a、2bがフェロモン信号発信手段Eと障害物検出用の環境状態検出手段Aの発信部との共用手段として装着されており、頭部1aの正面には、前進方向に臨んで中央に1個のフォトトランジスタ3がフェロモン信号受信手段Fと障害物検出用の環境状態検出手段Aの受信部との共用手段として装着されており、さらに頭部1aの上面には、上方に臨んで中央に1個の硫化カドミニュウセルなどの光感受性素子4が明るさ検出用の環境状態検出手段Aとして装着されている。なお、頭部1aの上面で、光感受性素子4に対して前進方向左右に並んで設けられた1対の発光ダイオード5a、5bはイルミネーション装飾用のものである。昆虫用筐体1の両側面には、片側3個づつで、同速連動する1対6個の脚動輪6a、6b、6c、7a、7b、7cが回転自在に軸止されている。片側3個の脚動輪6a、6b、6cを抽出して説明すると、各脚動輪の円周上の位相角度を異にする各別の箇所に針金状の脚骨8が設けられている。即ち、ここでの針金状の3本の脚骨8、8、8は、その各別の基部8a、8b、8cが、3個の脚動輪6a、6b、6cの円周上の位相角度を異にする各別の箇所に植設されていて、昆虫ロボットの前進方向に臨んで右側外方に(図1A中で下方に)張り出し、中間部分でフォーシングされて、片側の脚部手段8を構成している。反対側の針金状の3本の脚骨9、9、9も、全く同様にして反対側の脚部手段9を構成している。この場合、片側3本づつの脚骨は、一体的に同速連動するが、一方側の脚部手段8と反対側の脚部手段9は、互いに独立に運動可能である。そして、一方側の3本の脚骨8、8、8の基部8a、8b、8cと反対側の3本の脚骨9、9、9の基部9a、9b、9cとの間で互いに対向する脚骨の基部どうしも、脚動輪の円周上の位相角度を異にする箇所に植設されることで、各脚骨の中間部でのフォーミングと相俟って、両側の脚動輪6a、6b、6c、7a、7b、7cの回転に合わせて、各脚骨の各基部が位相角度を異にして回転する際に、両脚部手段8、9全体の動きにより、昆虫生態の歩行挙動がもっともらしく模倣されて、表現されるものである。電気的ハードウエアの構成を示す図2において、マイクロコンピュータ10の入力ポート#2INには、フォトトランジスタ3が、検出回路と一体化された駆動用の増幅回路3aを介して接続されており、入力ポート#1INには、検出回路に組み込まれた硫化カドミニウムセル4が接続されている。さらに、マイクロコンピュータ10の出力ポート#1outには、駆動回路に組み込まれた左側発光ダイオード2aが接続され、出力ポート#2outには、駆動回路に組み込まれた右側発光ダイオード2bが接続され、出力ポート#3out、#4outには、各別に、駆動回路に組み込まれた左右の装飾用発光ダイオード5a、5bが接続されている。さらに、1対の出力ポート#5out、#6outには、市販のモータドライバユニット11(例えば、三洋電機製LB1638M)の1対の入力端子IN1、IN2が接続され、別の1対の出力ポート#7out、#8outには、もう1つの同種のモータドライバユニット12の1対の入力端子IN1、IN2が接続されている。これら1対のモータドライバユニット11、12には、該ユニットにより、電源からの供電が制御される1対の電動機、即ち、左側脚動輪7a、7b、7cを回転駆動するための左側電動機13と右側脚動輪6a、6b、6cを回転駆動するための右側電動機14が、アクチュエータとして接続されている。各別のモータドライバユニット11、12は、1対の入力端子IN1、IN2に対してマイクロコンピュータから論理値「1」(HIと略記する)又は論理値「0」(LOWと略記する)で表される並列2ビットの符号が入力されると、その2ビットの論理値に対応させて、各別の電動機を「正転」「逆転」「停止」の運転モードで駆動することができるものであり、その場合の1対の入力端子IN1、IN2の論理値と運転モードとの関係は、図3に示されるとおりである。そして、このようなモータドライバユニット11、12による電動機制御では、「停止」の運転モードを周期的に配置しながら、それの実時間上の密度を制御することで、電動機への給電のデュティ比を制御し、これにより、電動機の回転速度を制御することができるものである。このようなハードウエアの構成上のマイクロコンピュータ10により実行されるプログラムのフローを以下に説明する。
【0008】
メインフローチャートを示す図4において、マイクロコンピュータ10は、プログラムの実行を開始すると(図4中a)、タイマーや各種変数値を計数するための内部レジスタ類をリセットすることで、初期条件の設定を行ったうえで(図4中b)、フェロモン信号受信手段Fと個体間応待関係識別手段Gを実現すべく、後に詳述されるフェロモン信号受信処理(図4中c)のためのサブルーチンに飛んで、該サブルーチンの実行により、受信フェロモン信号を処理することで、他の個体に特有に予め設定された相手識別情報と自己の個体に特有に予め設定された自己識別情報とに基づく個体間応待関係としての「弱種」「強種」「同種」の関係を表す「pheromone」の入力パラメータを設定した後にリターンして、ソフトウエア的に実現される内部のタイマーが100msの動作基準時間の経過を判別し(図4中d)、動作基準時間の経過以前で、判別結果(図4中d)がNoの場合には、フェロモン信号受信処理を継続的に実行し、動作基準時間の経過直後の動作基準時点で判別結果(図4中d)がYesに転ずると、次のステップの処理に移行する。これにより、以降の処理は、100msの間隔の動作基準時点ごとの間欠動作として実行されてることになる。動作基準時点に到達すると、マイクロコンピュータ10は、タイマーをリセットして(図4中e)から、フェロモン信号発信手段Eを実現すべく、フェロモン信号発信処理(図4中f)を実行する。このフェロモン信号発信処理では、1ビット100μsの3ビット単位で1文字(識別符号上の1ビット)が定義された識別符号上8ビット構成の符号により、自己の個体に特有に予め設定された自己識別情報を表す発信フェロモン信号を形成するようにマイクロコンピュータ10は、1対の出力ポート#1out#2outから、例えば、図5に示されるような3ビット×8ビット=24ビット構成の符号列を3回づつ左側発光ダイオード2aと右側発光ダイオード2bの双方に対して出力して、これらを点滅させる。図5例示のものは、自己識別情報として、自己の個体がAタイプ、Bタイプ、Cタイプのいずれに属するかというタイプ区別情報を取り扱っているが、自己の個体を唯一に特定する氏名のような識別情報をもここで取り扱えるのは、勿論のことである。図4に戻って、マイクロコンピュータ10は、続いて、環境状態検出手段Aを実現する中で、後に詳述される入力パラメータ設定処理(図4中g)のためのサブルーチンに飛んで、該サブルーチンの実行により、左側発光ダイオード2aと右側発光ダイオード2bから、各別に、アクション空間内に存在する障害物に対して照射されて、そこから反射された光線をフォトトランジスタ3が障害物対応の環境状態信号として、感受することで、左側発光ダイオード2aからの光線の感受、即ち、昆虫ロボットの前進方向に臨んで左側視野での障害物の存在を表す「lft eye」の入力パラメータと、右側発光ダイオード2bからの光線の感受、即ち、右側視野での障害物の存在を表す「right eye」の入力パラメータを各別に設定し、さらに、硫化カドミニウムセル4が明るさ(暗さ)対応の環境状態信号として、アクション空間内の外光を感受することで、アクション空間内の明るさ(暗さ)を表す「dark」の入力パラメータを設定した後にリターンして、現在実行中のアクションプログラムユニットで規定されるアクションユニットを特徴付けるべく予め設定されている持続時間を表す「action time」の出力パラメータが0まで減少したかどうかを判別し(図4中h)、0までの減少により判別結果(図4中h)がYesの場合には、アクションユニット選択手段Cを実現すべく、後に詳述されるアクションプログラムユニット選択処理(図4中i)のサブルーチンに飛んで、複数のアクションプログラムユニットの実行により実現される複数のアクションユニット手段Bとしての複数のアクションユニットの中から所与の選択判別アルゴリズムに従って、所定の1つのアクションユニットを実現するための所定の1つのアクションプログラムユニットを選択することで、アクションユニット選択手段Cを実現した後にリターンして、アクションユニット実行手段Dを実現すべく、そのサブルーチンで選択されたアクションプログラムユニットの実行処理(図4中j)に移行し、次いで、アクションプログラムユニットの実行処理(図4中j)により実行最中のアクションプログラムユニットで規定されるアクションユニットを表す「now action」の入力パラメータを設定し(図4中k)、続いて、持続時間を表す「actiontime」の出力パラメータから「1」を減算(図3中l)したうえで、図4中dの判別処理に戻って、さらなる100msの経過後に到来する次の動作基準時点を待つ。このような処理フロー(図4中h〜l)の実行により、所定の1つのアクションプログラムユニットが一旦選択されると(図4中i)、そのアクションプログラムについて指定された持続時間が経過するまでは、図4中hの判別結果がNoに留まるので、新たなアクションプログラムユニットの選択(図4中i)が行われずに、図3中iの処理で選択されたアクションプログラムユニットが継続して実行され、その継続実行のアクションプログラムユニットに指定された持続時間が経過して、「action time」の出力パラメータが0まで減少する(図4中h)と、その後の100ms間隔の動作基準時点で(図4中d)、新たなアクションプログラムユニットが選択されて(図4中i)、そのアクションプログラムユニットを表すように「now action」の入力パラメータが書き換えられる(図4中l)ものである。
【0009】
以上のメインフローチャートの処理によれば、マイクロコンピュータ10は、フェロモン信号発信処理(図4中f)と、後に詳述されるフェロモン信号受信処理(図4中c)との協働により、左側発光ダイオード2aと右側発光ダイオード2bとフォトトランジスタ3に働きかけて、フェロモン信号発信手段Eとフェロモン信号受信手段Fとを実現したうえで、発信フェロモン信号により表される自己識別情報と受信フェロモン信号により表される相手識別情報とに基づく、自己の個体と他の個体の間での個体間応待関係としての「弱種」「強種」「同種」の関係を表す「pheromone」の入力パラメータを設定することで、個体間応待関係識別手段Gを実現し、後に詳述される入力パラメータ設定処理(図4中g)により、左側発光ダイオード2aと右側発光ダイオード2bとフォトトランジスタ3と硫化カドミニウムセル4に働きかけて、障害物対応ないし明るさ(暗さ)対応の環境状態検出手段Aを実現したうえで、障害物が左側の視野内に存在することを表す「left eye」の入力パラメータと、障害物が右側の視野内に存在することを表す「right eye」の入力パラメータと、アクション空間内の明るさ(暗さ)を表す「 dark 」の入力パラメータを設定し、「now action」の入力パラメータ設定処理(図4中l)により、現在実行中のアクションプログラムユニットを表す「now action」の入力パラメータを設定し、これにより、総じて、「pheromon」「lefet eye」「right eye」「dark」「now action」という5個の入力パラメータを設定したうえで、その設定済みの5個の入力パラメータを判断要素として、アクションプログラムユニットの論理的優先順位の指定により規定される選択判断アルゴリズムに従って、複数のアクションプログラムユニットの中から所定の1つアクションプログラムユニットを選択するようにしたアクションプログラムユニット選択処理(図4中i)のサブルーチンを実行することで、複数のアクションユニットの中から所定の1つのアクションユニットを選択するアクションユニット選択手段Cを実現するものである。ここでのアクションプログラムユニット選択処理(図4中i)のサブルーチンを図6A、図6Bのフローチャートと図7の入出力パラメータ対応図を参照しながら以下に説明する。
【0010】
ここに、図7のアクションプログラムユニットごとの入出力パラメータ対応図は、アクションプログラムユニットA〜Iの各々について、所定のアクションプログラムユニットが図6A、6Bのフローチャートに沿うアクションプログラムユニット選択処理により選択されるようにして実現されるアクションユニット選択手段Cにおいて、所定のアクションプログラムユニットによる所定の1つのアクションユニットが選択されるための判断要素としての上述の5つの入力パラメータの状態を左側の一覧表に整理したものであり、それに突き合わせる形で、右側に配置された一覧表には、ここで選択されたアクションプログラムユニットを図4のメインフロー中のアクションプログラムユニット実行処理(図4中j)で実行することにより実現されるアクションユニット実行手段Dにおいて実現されるべき所定のアクションユニットを特徴付けるところの3個の出力パラメータ、即ち、アクションの種類を表す「action」の出力パラメータと、その1種類のアクションの持続時間を表す「action time」の出力パラメータと、その1種類のアクションの実行速度(デューティ比)を表す「duty」の出力パラメータが列記されている。
【0011】
図6Aに戻って、アクションプログラムユニット選択処理のサブルーチンを開始(図6A中a)したマイクロコンピュータ10は、先ず、無条件で、図7のアクションプログラムユニットA(前進)の行の表示に従って、アクションユニットAを特徴付けるところの、アクションの種類を表す「action」の出力パラメータとして「前進」を設定し(図6A中b)、同様に、アクションの持続時間を表す「action time」の出力パラメータとして「10」(100μsの動作基準時間×10=1000μsを意味する)を設定し(図6A中c)、同様に、アクションの実行速度を表す「duty」の出力パラメータとして「60%」を設定する(図6A中d)。次いで、マイクロコンピュータ10は、図7のアクションプログラムユニットB(右旋回)の行の表示に従って、「lef t eye」の入力パラメータが「1」であるかどうか、即ち、左側の視野内に障害物が存在するかどうかを判別し(図6A中e)、「left eye」の入力パラメータが「1」であって、判別結果(図6A中e)がYesの場合には、同様にして、同図同行の右側の一覧表の部分の表示に従って、出力パラメータを各別に設定するが、「left eye」の入力パラメータが「0」であって、即ち、左側の視野内に障害物の存在がなく、判別結果(図6A中e)がNoの場合には、ここでの出力パラメータの設定、即ち、新しい出力パラメータ値への更新記憶を行わずに次ぎの判断処理に移行してゆく。従って、ここでの判断要素としての5個の入力パラメータの各々についての判別結果(例えば、図6A中e)がYesであり、以降の残りの入力パラメータについての判別結果がNoであれば、そのような最後の判別処理において設定された出力パラメータが選択されたアクションユニットを特徴付けるものとして残留し、逆の言い方をすれば、ここでの判断要素としの5個の入力パラメータについての判別結果(例えば、図6A中e)がNoの場合には、それに先行する処理(例えば、図6A中bcd)により設定された出力パラメータが選択されたアクションユニットを特徴付けるものとして残留するのであり、かくして、時系列上遅れて処理される判断要素の方が判別結果をより高い論理的優先順位で支配することになる。
【0012】
続いて、マイクロコンピュータ10は、図7のアクションプログラムユニットC(左旋回)の行の表示に従って、「right eye」の入力パラメータが「1」であるかどうか、即ち、右側の視野内に障害物が存在するかどうかを判別し(図6A中g)、判別結果が「1」の場合には、同様にして、同図同行の右側の一覧表の部分の表示に従って、出力パラメータを各別に設定する(図6A中h)が、判別結果(図6A中g)がNoの場合には、出力パラメータの更新記憶を行わずに、後続の判断要素の処理に移行し、図7のアクションプログラムユニットD(後退)の行の表示に従って、「left eye」と「rlght eye」の双方の入力パラメータが共に「1」であるかどうか、即ち、視野内の目前に障害物が存在するかどうかを判別し(図6中i)、判別結果がYesの場合には、同様にして、同図同行の右側の一覧表の部分の表示に従って、出力パラメータを各別に設定する(図6A中、j)が、判別結果(図6A中i)がNoの場合には、出力パラメータの更新記憶を行われずに、後続の判断要素の処理に移行し、図7のアクションプログラムユニットG(挨拶)の行の表示に従って、個体間応待アクションユニット選択手段Iを実現すべく、「phereomone」の入力パラメータが「同種」に設定されていて、かつ、「left eye」と「right eye」の双方の入力パラメータが共に「1」であるかどうか、即ち、「同種」の他の個体が視野内の目前に存在するかどうかを判別し(図6A中k)し、判別結果がYesの場合には、同様にして、同図同行の右側の一覧表の部分の表示に従って、個体間応待アクションユニット手段Hを実現する中で、出力パラメータを各別に設定する(図6A中l)が、判別結果(図6A中k)がNoの場合には、出力パラメータの更新記憶を行わずに、後続の判断要素の処理に移行し、図7のアクションプログラムユニットF(威嚇)の行の表示に従って、個体間応待アクションユニット選択手段Iを実現すべく、「phereomone」の入力パラメータが「弱種」に設定されていて、かつ、「left eye」と「right eye」の双方の入力パラメータが共に「1」であるかどうか、即ち、「弱種」の他の個体が視野内の目前に存在するかどうかを判別し(図6B中m)し、判別結果がYesの場合には、同様にして、同図同行の右側の一覧表の部分の表示に従って、個体間応待アクションユニット手段Hを実現する中で、出力パラメータを各別に設定する(図6B中n)が、判別結果(図6B中m)がNoの場合には、出力パラメータの更新記憶を行わずに、後続の判断要素の処理に移行し、図7のアクションプログラムユニットH(逃避)の行の表示に従って、個体間応待アクションユニット選択手段Iを実現すべく、「phereomone」の入力パラメータが「強種」に設定されているかどうか、即ち、「強種」の他の個体が前方に存在するかどうかを判別し(図6B中o)し、判別結果がYesの場合には、同様にして、同図同行の右側の一覧表の部分の表示に従って、個体間応待アクションユニット手段Hを実現する中で、出力パラメータを各別に設定する(図6B中p)が、判別結果(図6B中o)がNoの場合には、出力パラメータの更新記憶を行わずに、後続の判断要素の処理に移行し、図7のアクションプログラムユニットE(ジタバタ)の行の表示に従って、「now action」の入力パラメータが「1」であり、かつ、「left eye」と「rlght eye」の双方の入力パラメータが共に「1」であるかどうか、即ち、停止中の状態下で、視野内の目前に障害物が存在するかどうかを判別(図6B中q)し、判別結果がYesの場合には、同様にして、同図同行の右側の一覧表の部分の表示に従って、出力パラメータを各別に設定する(図6B中r)が、判別結果(図6B中q)がNoの場合には、出力パラメータの更新記憶を行わずに、後続の判断要素の処理に移行し、図7のアクションプログラムユニットI(停止)の行の表示に従って、「dark」の入力パラメータが「1」であるかどうか、即ち、アクション空間内が暗いかどうかを判別(図6B中s)し、判別結果がYesの場合には、同様にして、同図同行の右側の一覧表の部分の表示に従って、出力パラメータを各別に設定する(図6B中t)が、判別結果(図6B中s)がNoの場合には、出力パラメータの更新記憶を行わずに、選択されたアクションプログラムユニットを特徴付けるところの、出力パラメータに対して出力パラメータ変換処理(図6B中u)を実行することで、後続のアクションプログラムユニット実行処理(図4中j)において、アクチュエータとしての電動機13、14を駆動するためのモータドライバユニット11、12の制御に好適なアクチュエータ対応のパラメータを確保してから、メインルーチンにリターンする(図6B中v)。
【0013】
総括的なアクションユニット選択手段Cを実現すべく実行されるところの、上記のアクションプログラムユニット選択処理(図6A、6B)にあっては、設定済みの5個の入力パラメータを判断要素として、複数のアクションプログラムユニットの中から、所定の1つのアクションプログラムユニットを選択する際に、複数のアクションプログラムユニットの論理的優先順位の指定により規定される選択判断アルゴリズムに従う点で特徴付けられているものである。ここでの選択処理(図6A、6B)の実例の場合、図7に示されるように、9種類のアクションプログラムユニットA〜Iを図6A、6Bのフローチャートにおいて、アクションプログラムユニットごとの判断要素をユニットA→B→C→D→G→F→H→E→Iの処理順序で実行することで、逆順のユニットI→E→H→F→G→D→C→B→Aの論理的優先順位が指定され、これにより、アクションプログラムユニットの選択判断アルゴリズムが形成される。そして、ここで形成される選択判断アルゴリズムは、複数のアクションプログラムユニットの時系列上の逐次的実行配列を支配することで、逐次的に実行される各別のアクションプログラムユニットにより規定され、「action」「action time」「duty」の3個の出力パラメータによって特徴付けられる各別のアクションユニットの時系列上の逐次的配列を結局のところ支配し、これにより、複数のアクションユニットの時系列上のつながりの総体という表現で昆虫ロボットの性格付けを行うものである。かくて、ここでの複数のアクションプログラムユニットの時系列上の逐次的実行配列で規定される複数のアクションユニットの時系列上のつながりの総体は、一例として、「臆病者タイプ」と俗称されるような性格を表現しているが、複数のアクションプログラムの種類揃えと、それらの時系列上の逐次的実行配列いかによって、種々の性格付けが可能であることは論を待ない。例えば、別の選択処理(図8A、8B)の実例の場合、図9に示されるように、8種類のアクションプログラムユニットA〜Hを図8A、8Bのフローチャートにおいて、アクションプログラムユニットごとの判断要素をユニットA→B→C→D→E→F→G→Hの処理順序で実行することで、逆順のユニットH→G→F→E→D→C→B→Aの論理的優先順位が指定され、これにより、別の選択判断アルゴリズムが形成される。かくて、ここでの複数のアクションプログラムユニットの時系列上の逐次的実行配列で規定される複数のアクションプログラムユニットの時系列上のつながりの総体は、別の一例として、「猪突猛進タイプ」と俗称されるような性格を表現している。さらに、これらのタイプ別の性格付けに関しては、選択判断アルゴリズム自体のほか、採用可能な複数のアクションプログラムの各々により規定される各別のアクションユニットを特徴付けるところの出力パラメータの種類と分量によっても、きめ細かに調整可能であることは言うまでもない。
【0014】
ここでの実施の形態としてのアクションプログラムユニット選択処理(図6A、6B、図8A、8B)のプログラム自体は、昆虫ロボットの製作時に、個体ごとの性格付けに応じたソフトウエア構成として固定的に組み込まれているものであるが、製作時に固定的に組み込まれていなければならない特段の理由もないので、各別の性格付けに応じて予め用意されているアクションプログラムユニット選択処理のプログラムをROMに格納しておいて、このようなROMを事後的に各別の個体に対して装着ないし交換することで、事後的にプログラムの書き込みないし書き換えを行ってもよいし、パーソナルコンピュータなどの外部装置から通信線経由で事後的、遠隔的に各別の個体に対してプログラムを転送して格納してもよい。
【0015】
図6Bに戻って、アクションプログラムユニット選択処理の最終ステップの処理として実行される出力パラメータ変換処理(図6B中u)は、リターン(図6B中v)後のメインフローで個体間応待アクションユニット実行手段Jを含むアクションユニット実行手段Dを実現すべく実行されるアクションプログラムユニット実行処理(図4中j)において、モータドライバユニット11、12を制御するのに好適なアクチュエータ対応のパラメータを確保すべく、各別のアクションプログラムユニットの選択により規定されるアクションユニットを特徴付けるところの「action」「action time」「duty」の3個の出力パラメータのうちの「action」をそのようなアクチュエータ対応のパラメータに変換するものである。即ち、図10A〜10Cのアクション/モータ制御対応関係説明図に示されるように、「action」の出力パラメータの種類(内容)は、昆虫ロボットの挙動単位の観点から、「前進」「右旋回」「左旋回」「後退」「ジタバタ」「威嚇」「挨拶」「逃避」「停止」に区分されているが、かかる区分の挙動単位を左側脚動輪7a、7b、7cを回転駆動するためのアクチュエータとしての左側電動機13(図2)と、右側脚動輪8a。8b、8cを回転駆動するためのアクチュエータとしての右側電動機14(図2)の各々における「正転」「逆転」「停止」の運転モードに関係付けるのがここに言うアクチュエータ対応のパラメータへの変換ということである。このようなアクチュエータ対応のパラメータと「action time 」「duty」の出力パラメータの双方に基づいて、既述の図3に示されるような定義入力論理値対応の「正転」「逆転」「停止」の運転モードで、「action time」の出力パラメータ値で表される持続時間の分だけ、「duty」の出力パラメータ値で表される回転速度で両電動機13、14を駆動制御するのに、マイクロコンピュータ10の1対の出力ポート#5out、#6outから左側モータドライブユニット11(図2)の1対の入力端子IN1、IN2に対して、そして、別の1対の出力ポート#7out、#8outから右側モータドライブユニット12(図2)の1対の入力端子IN1、IN2に対して入力されるべき論理値の時系列上の遷移について、左右の脚部手段8、9の動きと、その結果として表現される昆虫ロボット自体の挙動単位との対応関係において説明する説明図が図10A、10B、10Cである。ここで図4に戻って、フェロモン信号受信処理(図4中c)のサブルーチンに飛んだマイクロコンピュータ10は、フェロモン信号受信処理を開始し(図11中a)、他の個体からのフェロモン信号を受信したかどうかを判別(図11中b)するが、この場合、マイクロコンピュータ10は、フォトトランジスタ3(図2)が光電的に感受する受信フェロモン信号を増幅回路3a経由で入力ポート#2INに取り込んで、該信号の存否を判別する。ここでの判別結果(図11中b)がNoの場合には、マイクロコンピュータ10は、メインフローにリターンして(図11中e)、100ms間隔の動作基準時点の到来まで繰り返して(図4中d)、フェロモン信号の受信判別(図11中b)を実行する。一方、フェロモン信号が受信されて、ここでの判別結果(図11中b)がYesに転ずると、マイクロコンピュータ10は、種別の識別処理を実行することで、個体間応待関係識別手段Gを実現すべく、他の個体から受信された受信フェロモン信号により表される相手識別情報、典型的には、既述の図5に例示されるような「Aタイプ」「Bタイプ」「Cタイプ」のタイプ区分情報と、自己の個体に固有に予め設定されている自己識別情報、典型的には、同様に、図5に例示されるような自己のタイプ区分情報に基づいて、自己の個体と他の個体の間に予め設定されている個体間応待関係、典型的には、図12に示されるような、「タイプ」どうしの間で定義される「強種」「弱種」「同種」の個体間応待関係を識別して、これを「pheromone」の入力パラメータとして設定して(図11中d)からメインフローにリターンする(図11中e)。ここでの個体間応待関係としては、「タイプ」どうしの間で定義される「強種」「弱種」「同種」のものが例示されているが、その例に限られることはなく、「タイプ」どうしの間でのものとしては、「雄」「雌」の個体間応待関係であってもよいし、個体どうしを唯一に特定するものとしては、「雄親」「雌親」「子供#1」「子供#2」の個体間応待関係でも、「番(つが)い」の個体間応待関係でもよい。さすれば、「強種」や「弱種」の個体間応待関係に特徴付けられて出現する「逃避」や「威嚇」の挙動単位が別の挙動単位に置き換えられるのは、生き物の生態に照らして当然の事柄である。
【0016】
再び図4に戻って、入力パラメータ設定処理(図4中g)のサブルーチンに飛んだマイクロコンピュータ10は、入力パラメータ設定処理を開始し(図13中a)、左側発光ダイオード2aを点灯し(図13中b)てから、反射光を受光しているかどうかを判別(図13中c)するが、この場合、マイクロコンピュータ10は、出力ポート#1outから左側発光ダイオード2a(図2)に駆動信号を送り、反射光を感受するフォトトランジスタ3により検出される障害状態信号を障害物対応の環境状態信号として増幅回路3a経由で入力ポート#2INに取り込んで、障害状態信号の存否を判別する。反射光が受光されて、判別結果(図11中c)がYesの場合には、「left eye」の入力パラメータとして「1」を設定し(図11中d)、一方、反射光が受光されずに、判別結果(図11中c)がN0の場合には、「left eye」の入力パラメータとして「0」を設定して(図11中e)から、左側発光ダイオードを消灯する(図11中f)。
【0017】
次いで、マイクロコンピュータ10は、同様にして、右側発光ダイオード2bを点灯し(図13中g)てから、反射光を受光しているかどうかを判別(図13中h)し、反射光が受光されて、判別結果(図13中h)がYesの場合には、「right eye」の入力パラメータとして「1」を設定し(図13中i)、一方、反射光が受光されずに、判別結果(図11中h)がNoの場合には、「right eye」の入力パラメータとして「0」を設定して(図13中j)から、右側発光ダイオードを消灯する(図13中k)。続いて、マイクロコンピュータ10は、硫化カドミニウムセル4からの感受信号を明るさ(暗さ)対応の環境状態信号として入力ポート#1INに取り込んで、環境状態信号の存否を判別する。外光が感受されずに判別結果(図13中l)がYesの場合には、「dark」の入力パラメータとして「1」を設定し(図13中m)、一方、外光が感受されて、判別結果(図13中l)がNoの場合には、「dark」の入力パラメータとして「0」を設定して(図13中n)から、メインフローにリターンする(図13中o)。
【図面の簡単な説明】
全図はこの発明の実施の形態に関するものである。
【図1A】外観を示す平面図。
【図1B】外観を示す側面図。
【図2】電気的ハードウエアの構成を示すブロック図。
【図3】モータドライバユニット11、12における入力論理値と電動機の運転モードとの関係を説明する説明図。
【図4】マイクロコンピュータ10で実行されるプログラムのメインフローを示すフローチャート。
【図5】発信フェロモン信号の論理値の波形図
【図6A、図6B】図4のメインフローにおけるアクションプログラムユニット選択処理のサブルーチンのフローを示すフローチャート。
【図7】アクションプログラムユニットごとにおける5個の入力パラメータと3個の出力パラメータとの対応関係の1つの配列を示す入出力パラメータ対応図。
【図8A、8B】アクションプログラムユニット選択処理の別のサブルーチンのフローを示すフローチャート。
【図9】アクションユニットプログラムごとにおける5個の入力パラメータと3個の出力パラメータとの対応関係の別の配列を示す入出力パラメータ対応図。
【図10A、図10B、図10C】モータドライブユニット11、12に対する入力論理値の時系列上の推移と、左右の脚部手段8、9の動きと、その結果としての昆虫ロボット自体の挙動単位との対応関係を説明する説明図。
【図11】フェロモン信号受信処理のサブルーチンのフローを示すフローチャート。
【図12】「強種」「弱種」「同種」の個体間対応関係を説明する説明図。
【図13】入力パラメータ設定処理のサブルーチンのフロを示すフローチャート。
【符号の説明】
1 昆虫様筺体
2a、2b 発光ダイオード
3 フォトトランジスタ
4 硫化カドミニウムセル
5a、5b 発光ダイオード
6a、6b、6c 右側脚動輪
7a、7b、7c 左側脚動輪
8、8、8 右側脚骨
9、9、9 左側脚骨
8、9 脚部手段
10 マイクロコンピュータ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a hobby insect robot that simulates the ecology of insects by exhibiting insect-like behavior such as six-legged running autonomously in the action space. It relates to improvements that express live movements as if they were insect ecology in response to environmental conditions such as brightness and obstacles, and the type of other individuals approaching the individual.
[0002]
[Prior art]
An insect robot that simulates the ecology of insects by autonomously running six legs in an action space is favored as a toy. Such a conventional insect robot is disclosed in, for example, Japanese Patent Laid-Open No. 8-57159. And is also publicly implemented as Bandai's “Six-legged Walkerios”. Toy robots that start or change behavior in response to environmental conditions in the action space are also favored, and such a conventional toy robot is disclosed in, for example, Japanese Patent Laid-Open No. 5-33786. And is also publicly implemented as Takara's “Flower Rock”. A toy robot that identifies another individual in the action space and changes its behavior is already publicly known, and such a conventional toy robot is also disclosed in Japanese Patent Laid-Open No. 9-7553, manufactured by Tommy. It is also publicly implemented as “Furby”.
[0003]
[Problems to be solved by the invention]
However, in the case of a conventional toy robot, in the process of executing a series of programs with a microcomputer mounted in the robot, environmental information detected by various sensors and individual identification information are taken into the microcomputer and a series of programs are executed. By processing these pieces of information in the entire program, the movement of the entire robot is essentially switched to another whole movement based on these pieces of information. In practice, the number of types of movement is extremely limited, and as a result, insect ecology that reacts to environmental conditions or identifies other individuals and causes behavior with various combinations of behavior patterns. Is difficult to simulateRuThere was a problem.
[0004]
[Means for Solving the Problems]
Environmental conditions andBased on partner identification information unique to other individuals,Action units andA predetermined one of a plurality of individual waiting action unitsAction unitBy selecting, the above-mentioned problems are solved, and an excellent insect robot capable of expressing fresh insect-like movement in response to environmental conditions and individual identification is provided.
[0005]
[Action]
The insect robot according to
[0006]
The insect robot according to claim 2 further stores, in the storage means, a plurality of individual waiting action data associated with an individual waiting relationship represented by the individual waiting parameter, and the control means When the inter-individual waiting relationship parameter and the input parameter are both set, the inter-individual waiting relationship represented by the inter-individual waiting parameter is obtained from a plurality of inter-individual waiting action data stored in the storage means. By selecting the inter-individual waiting action data associated with each other, it acts to express a fresh movement that is more like an insect.
[0007]
Embodiment
An embodiment of the present invention will be described below with reference to FIGS. In FIG. 1A showing the planar appearance of the insect robot and FIG. 1B showing the side appearance of the insect robot according to the embodiment of the present invention, the head 1a appearing at the right end of the insect-
[0008]
Show main flowchartFIG.When the
[0009]
According to the processing of the above main flowchart, the
[0010]
here,FIG.The input / output parameter correspondence diagram for each action program unit is realized by selecting a predetermined action program unit for each of the action program units A to I by the action program unit selection process according to the flowcharts of FIGS. 6A and 6B. In the action unit selection means C to be executed, the above-mentioned five input parameter states as the determination elements for selecting one predetermined action unit by the predetermined action program unit are arranged in a list on the left side. The action program unit selected here is displayed in the list arranged on the right side to match it.FIG.Action program unit execution processing in the main flow (FIG.Three output parameters characterizing a predetermined action unit to be realized in the action unit execution means D realized by executing in j), that is, an output parameter of “action” indicating the type of action; An output parameter of “action time” representing the duration of the one type of action and an output parameter of “duty” representing the execution speed (duty ratio) of the one type of action are listed.
[0011]
Returning to FIG. 6A, the
[0012]
Subsequently, the microcomputer 10FIG.In accordance with the display of the row of the action program unit C (left turn), it is determined whether or not the input parameter of “right eye” is “1”, that is, whether an obstacle exists in the right field of view (FIG. G) in 6A) If the determination result is “1”, the output parameters are similarly set according to the display of the list on the right side of the same figure (h in FIG. 6A). If the result (g in FIG. 6A) is No, the process proceeds to the processing of the subsequent determination element without performing update storage of the output parameter,FIG.According to the display of the line of the action program unit D (reverse), whether the input parameters of both “left eye” and “rlight eye” are both “1”, that is, there is an obstacle in front of the visual field (I in FIG. 6), and if the determination result is Yes, output parameters are similarly set in accordance with the display in the list on the right side of the same figure (FIG. 6A). , J), if the determination result (i in FIG. 6A) is No, the output parameter is not updated and stored, and the process proceeds to the subsequent determination element processing.FIG.In accordance with the display of the action program unit G (greeting) line, the input parameter of “pheromone” is set to “same type” and “left eye” is set to realize the inter-individual waiting action unit selection means I It is determined whether or not both input parameters of “right eye” are “1”, that is, whether or not another individual of the “same species” is present in the field of view (k in FIG. 6A). If the result is Yes, the output parameters are set separately in the same manner while realizing the inter-individual waiting action unit means H according to the display of the list on the right side of the same figure (see FIG. 6A). l), when the determination result (k in FIG. 6A) is No, the process proceeds to the process of the subsequent determination element without performing the update storage of the output parameter,FIG.In order to realize the inter-individual waiting action unit selection means I according to the display of the action program unit F (intimidation), the input parameter of “phereomone” is set to “weak” and “left eye” And whether the input parameters of both “right eye” and “right eye” are both “1”, that is, whether another individual of “weak species” is present in the field of view (m in FIG. 6B). When the determination result is Yes, the output parameters are set separately in the same manner in accordance with the display of the part of the list on the right side of the same figure while realizing the inter-individual waiting action unit means H (see FIG. N) in 6B, if the determination result (m in FIG. 6B) is No, the process proceeds to the processing of the subsequent determination element without performing update storage of the output parameter,FIG.In order to realize the inter-individual waiting action unit selection means I according to the display of the action program unit H (escape), whether or not the input parameter of “phereomone” is set to “strong type”, that is, “strong type” In the same manner, according to the display of the part of the list on the right side of the same figure, if the determination result is Yes, When realizing the inter-individual waiting action unit means H, if the output parameter is set separately (p in FIG. 6B) but the determination result (o in FIG. 6B) is No, the output parameter is updated and stored. Instead, move on to the processing of subsequent decision elements,FIG.In accordance with the display of the line of the action program unit E (jitter), the input parameter of “now action” is “1”, and both the input parameters of “left eye” and “rlright eye” are both “1”. It is determined whether there is an obstacle in the visual field in the stopped state (q in FIG. 6B). If the determination result is Yes, the same is done. According to the display of the list on the right side of the same row, output parameters are individually set (r in FIG. 6B). If the determination result (q in FIG. 6B) is No, the output parameters are not updated and stored. To the processing of subsequent decision elements,FIG.In accordance with the display of the line of the action program unit I (stop), it is determined whether or not the input parameter of “dark” is “1”, that is, whether the action space is dark (s in FIG. 6B), and the determination result In the same manner, according to the display of the part of the list on the right side of the same figure, output parameters are set individually (t in FIG. 6B), but the determination result (s in FIG. 6B) is No. In the case of the above, the subsequent action is performed by executing the output parameter conversion process (u in FIG. 6B) for the output parameter that characterizes the selected action program unit without performing update storage of the output parameter. Program unit execution processing (FIG.In step j), after securing a parameter corresponding to the actuator suitable for controlling the
[0013]
In the action program unit selection process (FIGS. 6A and 6B) executed to realize the overall action unit selection means C, a plurality of input parameters that have been set are used as determination elements. When selecting a predetermined one action program unit from among the action program units, it is characterized in that it follows a selection judgment algorithm defined by specifying the logical priority of a plurality of action program units. is there. In the case of the actual example of the selection process (FIGS. 6A and 6B),FIG.As shown in FIG. 6, nine types of action program units A to I are represented in the flowcharts of FIGS. Are executed in the order of processing, the logical priority of units I → E → H → F → G → D → C → B → A in the reverse order is designated, thereby forming an action program unit selection judgment algorithm. Is done. The selection determination algorithm formed here is defined by each action program unit executed sequentially by dominating the sequential execution sequence on the time series of a plurality of action program units. "" Action time "and" duty "are ultimately governed by a sequential sequence on the time series of each other action unit characterized by the three output parameters, and thus on the time series of multiple action units. The character of the insect robot is given by the expression of the whole of the connection. Thus, the total of the time series connection of the plurality of action units defined by the sequential execution sequence on the time series of the plurality of action program units here is commonly called “coward type” as an example. Although such personality is expressed, it is not a matter of course that various personalities can be assigned depending on the types of action programs and the sequential execution sequence on the time series. For example, in the case of an example of another selection process (FIGS. 8A and 8B),FIG.As shown in FIG. 8, eight types of action program units A to H are processed in units A → B → C → D → E → F → G → H in the flowcharts of FIGS. 8A and 8B. By executing in order, the logical priority of units H-> G-> F-> E-> D-> C-> B-> A in the reverse order is specified, thereby forming another selection decision algorithm. Thus, the total of the time series connection of the plurality of action program units defined by the sequential execution sequence on the time series of the plurality of action program units here is, as another example, “猪 rush rush type” It expresses a personality that is commonly known. Furthermore, regarding the type-specific personality, in addition to the selection determination algorithm itself, the type and quantity of output parameters that characterize each individual action unit defined by each of a plurality of action programs that can be adopted, Needless to say, it can be finely adjusted.
[0014]
The program itself of the action program unit selection process (FIGS. 6A, 6B, 8A, and 8B) as the embodiment here is fixed as a software configuration corresponding to the personality of each individual when the insect robot is manufactured. Although there is no special reason that must be fixed at the time of production, the action program unit selection processing program prepared in advance according to each character is stored in the ROM. It is possible to store and store such a ROM for each individual afterwards, so that the program can be written or rewritten later, or from an external device such as a personal computer. The program may be transferred to and stored in each individual object afterwards and remotely via a communication line.
[0015]
Returning to FIG. 6B, the output parameter conversion process (u in FIG. 6B) executed as the final step process of the action program unit selection process is the execution of the inter-individual action unit in the main flow after the return (v in FIG. 6B). In an action program unit execution process (j in FIG. 4) executed to realize the action unit execution means D including the means J, parameters suitable for actuators suitable for controlling the
[0016]
againFIG.Return to the input parameter setting process (FIG.The
[0017]
Next, the
[Brief description of the drawings]
All drawings relate to embodiments of the present invention.
FIG. 1A is a plan view showing an appearance.
FIG. 1B is a side view showing an appearance.
FIG. 2 is a block diagram showing a configuration of electrical hardware.
FIG. 3 is an explanatory diagram for explaining a relationship between an input logical value in the
FIG. 4 is a flowchart showing a main flow of a program executed by the
FIG. 5 is a waveform diagram of the logical value of the outgoing pheromone signal.
6A and 6B are flowcharts showing a flow of a subroutine of action program unit selection processing in the main flow of FIG.
FIG. 7 is an input / output parameter correspondence diagram showing one array of correspondence relationships between five input parameters and three output parameters for each action program unit.
FIGS. 8A and 8B are flowcharts showing the flow of another subroutine of action program unit selection processing; FIGS.
FIG. 9 is an input / output parameter correspondence diagram showing another arrangement of correspondence relationships between five input parameters and three output parameters for each action unit program.
FIGS. 10A, 10B, and 10C are time-series transitions of input logical values for the
FIG. 11 is a flowchart showing a flow of a pheromone signal reception process subroutine;
FIG. 12 is an explanatory diagram for explaining an inter-individual correspondence relationship between “strong species”, “weak species”, and “same species”.
FIG. 13 is a flowchart showing a flow of a subroutine of input parameter setting processing.
[Explanation of symbols]
1 Insect-like body
2a, 2b Light emitting diode
3 Phototransistor
4 Cadmium sulfide cell
5a, 5b Light emitting diode
6a, 6b, 6c Right leg wheel
7a, 7b, 7c Left side wheel
8, 8, 8 Right leg bone
9, 9, 9 Left leg bone
8, 9 Leg means
10 Microcomputer
Claims (2)
前記昆虫ロボットの前進方向に臨んで発光ダイオードおよびフォトトランジスタが装着されており、
前記制御手段は、前記プログラムを実行することにより、
前記発光ダイオードを、アクション空間内に自己の個体に特有に予め設定された自己識別情報を表すフェロモン信号を発信フェロモン信号として発信するフェロモン信号発信手段として機能させ、
前記フォトトランジスタを、アクション空間内に存在する他の昆虫ロボットのフェロモン信号発信手段から発信される、他の個体に特有に予め設定された相手識別情報を表すフェロモン信号を受信フェロモン信号として受信するフェロモン信号受信手段として機能させ、
前記発光ダイオードから照射される光線の反射光を前記フォトトランジスタにより感受させることにより、前進方向における障害物の存在を検出する障害物対応の環境情報検出手段として機能させ、
さらに、前記制御手段は、前記プログラムに基づいて、
前記フェロモン信号受信手段により受信フェロモン信号を受信したか否かを判別し、受信フェロモン信号が受信されたと判別された場合は、前記受信フェロモン信号により表される前記相手識別情報と前記自己識別情報とに基づいて、前記自己の個体と前記他の個体の間に予め設定されている個体間応待関係を識別し、個体間応待関係を表す個体間応待関係パラメータを設定し、
受信フェロモン信号は受信されなかったと判別された場合は、前記個体間応待関係パラメータを設定せず、
その後、前記環境情報検出手段において障害物の存在が検出されたか否かを判別し、前記障害物の存在が検出された場合は、障害物の存在を表す入力パラメータを設定し、
前記記憶手段は、前記制御手段により前記プログラムに基づいて読み出され、前記アクチュエータを動作させるアクションユニットを複数記憶しており、少なくとも当該アクションユニットには、
前記個体間応待関係パラメータおよび前記入力パラメータがともに設定されている場合に前記制御手段により選択される個体間応待アクションユニットと、
前記個体間応待関係パラメータが設定されておらず、前記入力パラメータが設定されている場合に前記制御手段により選択されるアクションユニットと
が含まれており、
前記制御手段は、前記プログラムに基づいて、前記個体間応待関係パラメータおよび前記入力パラメータを参照し、
前記個体間応待関係パラメータおよび前記入力パラメータがともに設定されている場合は、前記記憶手段に記憶された複数のアクションデータから前記個体間応待アクションデータを選択し、当該個体間応待アクションデータに基づいて、前記アクチュエータを制御し、
前記個体間応待関係パラメータが設定されておらず、前記入力パラメータが設定されている場合は、前記記憶手段に記憶された複数のアクションデータから前記アクションデータを選択し、当該アクションデータに基づいて、前記アクチュエータを制御する
ことを特徴とする前記昆虫ロボット。 An insect robot capable of expressing various actions by a control means, a storage means storing a program executed by the control means, an actuator controlled by the control means, and a leg means biased by the actuator ,
A light-emitting diode and a phototransistor are attached facing the forward direction of the insect robot,
The control means executes the program,
Said light emitting diode, to its own individual action space to function as the pheromone signal transmitter for transmitting a transmitting pheromone signal pheromone signal representative of the self-identification information previously set in the specific,
Pheromones for receiving the phototransistor, originating from the pheromone signal transmitter of another insect robots existing in the action space, the pheromone signal representing the other party identification information previously set in particular to other individuals as received pheromone signal to function as a signal receiving means,
By sensing the reflected light of the light beam emitted from the light emitting diode by the phototransistor, it functions as an environmental information detection means corresponding to the obstacle for detecting the presence of the obstacle in the forward direction,
Furthermore, the control means is based on the program,
To determine whether it has received a reception pheromone signal by the pheromone signal receiving means, when the reception pheromone signal is determined to have been received, the destination identification information represented by the received pheromone signal and the self-identification information based on the identifying self individual and inter-individual waiting on the relationship set in advance between the other individuals, to set the inter-individual waiting on relationship parameter indicative of the inter-individual waiting on relationships,
When it is determined that the received pheromone signal has not been received, the inter-individual waiting-related parameter is not set,
Thereafter, it is determined whether or not the presence of an obstacle is detected in the environmental information detection means, and when the presence of the obstacle is detected, an input parameter indicating the presence of the obstacle is set,
The storage means is read based on the program by the control means, and stores a plurality of action units that operate the actuator, and at least the action units include
An inter-individual waiting action unit selected by the control means when both the inter-individual waiting-related parameter and the input parameter are set;
The action unit selected by the control means when the inter-individual waiting-related parameter is not set and the input parameter is set;
Is included,
The control means refers to the inter-individual waiting relationship parameter and the input parameter based on the program,
When the inter-individual waiting-related parameter and the input parameter are both set, the inter-individual waiting action data is selected from a plurality of action data stored in the storage means, and based on the inter-individual waiting action data Control the actuator,
When the inter-individual waiting-related parameter is not set and the input parameter is set, the action data is selected from a plurality of action data stored in the storage unit, and based on the action data, Control the actuator
The insect robot characterized by the above.
前記制御手段は、前記個体間応待関係パラメータおよび前記入力パラメータがともに設定The control means sets both the inter-individual entertainment related parameter and the input parameter. されている場合は、前記記憶手段に記憶された複数の個体間応待アクションデータから前記個体間応待パラメータにより表される個体間応待関係に対応付けられた個体間応待アクションデータを選択するIf it is, the individual waiting action data associated with the individual waiting relationship represented by the individual waiting parameter is selected from the plurality of individual waiting action data stored in the storage means.
ことを特徴とする請求項1記載の昆虫ロボット。The insect robot according to claim 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12469999A JP3983416B2 (en) | 1999-03-26 | 1999-03-26 | Insect robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12469999A JP3983416B2 (en) | 1999-03-26 | 1999-03-26 | Insect robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000271350A JP2000271350A (en) | 2000-10-03 |
JP3983416B2 true JP3983416B2 (en) | 2007-09-26 |
Family
ID=14891914
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP12469999A Expired - Fee Related JP3983416B2 (en) | 1999-03-26 | 1999-03-26 | Insect robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3983416B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3986720B2 (en) * | 1999-11-20 | 2007-10-03 | 株式会社バンダイ | Insect robot |
JP2013094923A (en) * | 2011-11-04 | 2013-05-20 | Sugiura Kikai Sekkei Jimusho:Kk | Service robot |
CN106681149B (en) * | 2017-01-11 | 2019-11-19 | 浙江大学 | It is a kind of that abdomen control method is put based on the bumblebee robot of virtual reality and intensified learning |
CN109367642A (en) * | 2018-10-26 | 2019-02-22 | 北京工业大学 | A kind of bionical hexapod robot of cephalothorax abdomen separate type |
-
1999
- 1999-03-26 JP JP12469999A patent/JP3983416B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2000271350A (en) | 2000-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3986720B2 (en) | Insect robot | |
EP1120740B1 (en) | Robot device, its control method, and recorded medium | |
US20170239811A1 (en) | Reconfigurable robotic system | |
US6939192B1 (en) | Programmable toy with communication means | |
US6697711B2 (en) | Operational control method, program, and recording media for robot device, and robot device | |
EP1146941B1 (en) | A remote controlled toy | |
US6708068B1 (en) | Machine comprised of main module and intercommunicating replaceable modules | |
US6889117B2 (en) | Robot apparatus and method and system for controlling the action of the robot apparatus | |
US20050049752A1 (en) | Robot apparatus, control method for robot apparatus, and toy for robot apparatus | |
JP2004536634A (en) | Robot toy programming | |
JP3983416B2 (en) | Insect robot | |
JP3277500B2 (en) | Robot device | |
JP2004130427A (en) | Robot device and method for controling operation of robot device | |
McLurkin | The ants: a community of microrobots | |
CN211073602U (en) | Multifunctional shell-replaceable robot and decorative shell thereof | |
JP2002120181A (en) | Robot device and control method for it | |
Kaushal et al. | Color‐Coded Light Signals Based Communication for Swarming Behaviors in Mobile Robotic System | |
JP4649806B2 (en) | Robot apparatus and shock absorbing method for robot apparatus | |
JP2001157979A (en) | Robot device, and control method thereof | |
JP2004130426A (en) | Robot device and its operation control method | |
Christensen et al. | The assemble and animate control framework for modular reconfigurable robots | |
JP4385281B2 (en) | Robot apparatus and control method thereof | |
KR200287203Y1 (en) | System of Controlling Robot for Education | |
JP4419035B2 (en) | Robot apparatus and control method thereof | |
JP2002264057A (en) | Robot device, action control method for robot device, program and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050415 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050622 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070116 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070319 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20070502 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20070502 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070502 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070626 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070704 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100713 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110713 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110713 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120713 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130713 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |