JP7335084B2 - Simulation device and program - Google Patents

Simulation device and program Download PDF

Info

Publication number
JP7335084B2
JP7335084B2 JP2019061097A JP2019061097A JP7335084B2 JP 7335084 B2 JP7335084 B2 JP 7335084B2 JP 2019061097 A JP2019061097 A JP 2019061097A JP 2019061097 A JP2019061097 A JP 2019061097A JP 7335084 B2 JP7335084 B2 JP 7335084B2
Authority
JP
Japan
Prior art keywords
simulation
robot
execution
time
desired execution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019061097A
Other languages
Japanese (ja)
Other versions
JP2020157442A (en
Inventor
聡 佐竹
崇行 神田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2019061097A priority Critical patent/JP7335084B2/en
Publication of JP2020157442A publication Critical patent/JP2020157442A/en
Application granted granted Critical
Publication of JP7335084B2 publication Critical patent/JP7335084B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

この発明はシミュレーション装置およびプログラム
に関し、特にたとえば、デバッグ機能を持ったシミュレーション装置およびプログラムに関する。
This invention is a simulation device and program.
In particular, for example, it relates to a simulation device and program with a debugging function.

従来のこの種のシミュレーション装置が非特許文献1、2で開示されている。これらの非特許文献1、2のシミュレーション装置では、センサやアクチュエータをシミュレーションして可視化することによって、人との共存環境におけるロボットの適応をより簡単にシミュレーションすることができる。 Conventional simulation devices of this type are disclosed in Non-Patent Documents 1 and 2. With the simulation devices of these non-patent documents 1 and 2, by simulating and visualizing the sensors and actuators, it is possible to more easily simulate the adaptation of the robot in the coexistence environment with humans.

特許文献1では、本件発明者等は、さらに環境の変化(歩行者や物体の変化など)をシミュレーションすることによって、ロボットの行動決定プログラム(ロボットアプリケーションプログラム)の開発を効率的に行える、シミュレーションシステムを提案している。 In Patent Literature 1, the inventors of the present invention further developed a simulation system that can efficiently develop a robot action determination program (robot application program) by simulating changes in the environment (such as changes in pedestrians and objects). is proposing.

特開2017‐170584(B25J 5/00, B25J 13/00)JP 2017-170584 (B25J 5/00, B25J 13/00)

https://www.openrobots.org/morse/doc/stable/morse.htmlhttps://www.openrobots.org/morse/doc/stable/morse.html http://gazebosim.org/http://gazebosim.org/

街角などで動作するサービスロボットのプログラムは複雑であり、特定の瞬間(たとえばロボットと周囲の歩行者が特定の条件ですれ違った瞬間)にのみ生ずるバグが存在し得る。このような特定の瞬間に生じるバグの原因解明は、シミュレーションだけでは難しく、一般的には、ログファイルを利用する。ログデータにはセンシング情報以外は欠如しているため、開発者には、ログデータへ大量に残されたセンサデータのみから、実世界の状況の様子を想像し、問題解明を行う作業が求められる。特に、特定の瞬間に生じるバグでは、プログラムの内部状態の変化と実世界の状況変化の対応づけをセンサデータのみから想像し、問題の原因を明らかにする作業が必要となる。この作業は困難であり、デバッグに多大な時間を要する。 Programs for service robots that operate on street corners and the like are complicated, and bugs that occur only at specific moments (for example, when the robot and pedestrians pass each other under specific conditions) can exist. It is difficult to clarify the cause of such a bug that occurs at a specific moment only by simulation, and generally log files are used. Since log data lacks anything other than sensing information, developers are required to imagine real-world situations and solve problems based on only the large amount of sensor data left in log data. . Especially for bugs that occur at specific moments, it is necessary to clarify the cause of the problem by imagining the correspondence between changes in the internal state of the program and changes in the real world only from sensor data. This task is difficult and takes a lot of time to debug.

それゆえに、この発明の主たる目的は、新規な、シミュレーション装置およびプログラムを提供することである。 SUMMARY OF THE INVENTION Therefore, a primary object of the present invention is to provide a novel simulation apparatus and program .

この発明の他の目的は、バグの原因追及を容易にし、デバッグを効率的に実行できる、シミュレーション装置およびプログラムを提供することである。 Another object of the present invention is to provide a simulation apparatus and program that facilitates investigation of the cause of bugs and enables efficient execution of debugging.

本発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。 In order to solve the above problems, the present invention employs the following configurations. It should be noted that reference numerals in parentheses, supplementary explanations, etc. indicate the correspondence with the embodiments described later in order to facilitate understanding of the present invention, and do not limit the present invention in any way.

第1の発明は、シミュレーションの1ステップの希望実行速度を手動的に設定できるユーザインタフェースを有し、仮想シミュレーション空間に投入したロボットエージェントおよび人エージェントの行動をシミュレーションし、その仮想シミュレーション空間をディスプレイに表示するシミュレーション装置であって、ユーザインタフェースで設定された希望実行速度を取得する希望実行速度取得手段、シミュレーションの開始時刻および終了時刻に基づく基本実行時間を取得する基本実行時間取得手段、希望実行速度に応じて希望実行周期を計算する希望実行周期計算手段、基本実行時間と希望実行周期を比較してその希望実行周期によってシミュレーションが実行可能かどうか判断する判断手段、および判断手段が実行可能と判断したとき、基本実行時間と希望実行周期に基づくスリープ時間だけスリープさせるスリープ手段を備える、シミュレーション装置である。 A first invention has a user interface capable of manually setting a desired execution speed for one step of a simulation, simulates the actions of a robot agent and a human agent put into a virtual simulation space, and displays the virtual simulation space on a display. A simulation apparatus to be displayed, comprising desired execution speed acquisition means for acquiring a desired execution speed set by a user interface, basic execution time acquisition means for acquiring a basic execution time based on simulation start time and end time, and desired execution speed Desired execution cycle calculation means for calculating a desired execution cycle according to the desired execution cycle, determination means for comparing the basic execution time and the desired execution cycle to determine whether or not the simulation can be executed according to the desired execution cycle, and the determination means determines that the simulation is executable. The simulation apparatus includes sleep means for causing sleep for a sleep time based on a basic execution time and a desired execution cycle when the simulation apparatus is executed.

第1の発明では、シミュレーションシステム(10:実施例において相当する部分を例示する参照符号。以下、同様。)を構成する、シミュレーション装置(16)は、ディスプレイ(105)およびシミュレーションの1ステップの希望実行速度を手動的に設定できるユーザインタフェース(109)を備え、仮想シミュレーション空間(22)に、ロボット(12)および人エージェントを投入する。たとえば、ロボット(12)の動作はロボットシミュレータ(24)がシミュレートし、人エージェントは人シミュレータ(26)がそれぞれシミュレートする。希望実行速度取得手段(S1、S21)がユーザインタフェースで設定された希望実行速度(s’)を取得する。基本実行時間取得手段(S25は)、シミュレーションの開始時刻(time_s)および終了時刻(time_e)に基づく基本実行時間(t)を取得する。希望実行周期計算手段(S27)が、希望実行速度に応じて希望実行周期(p)を計算し、判断手段(S29)は、基本実行時間(t)と希望実行周期(p)を比較して、その希望実行周期によってシミュレーションが実行可能かどうか判断する。そして、判断手段が実行可能と判断したとき、スリープ手段(S17)が、基本実行時間と希望実行周期に基づくスリープ時間、スリープさせるIn the first invention, a simulation device (16) constituting a simulation system (10: reference numerals illustrating corresponding parts in the embodiments; the same shall apply hereinafter) includes a display (105) and one step of simulation. Equipped with a user interface (109) capable of manually setting the execution speed, a robot (12) and a human agent are put into a virtual simulation space (22). For example, the motion of the robot (12) is simulated by the robot simulator (24) and the human agent is simulated by the human simulator (26) respectively. A desired execution speed acquisition means (S1, S21) acquires a desired execution speed (s') set by a user interface. Basic execution time acquisition means (S25) acquires basic execution time (t) based on simulation start time (time_s) and simulation end time (time_e). Desired execution cycle calculation means (S27) calculates a desired execution cycle (p) according to the desired execution speed, and determination means (S29) compares the basic execution time (t) with the desired execution cycle (p). , it is determined whether the simulation can be executed according to the desired execution cycle. Then, when the judging means judges that the execution is possible, the sleeping means (S17) causes the sleep for the sleep time based on the basic execution time and the desired execution cycle.

第1の発明によれば、希望実行速度を手動的に設定することによって、それに応じ1ステップのシミュレーションの実行時間を変更でき、瞬間的に生じるバグの原因追及が容易になり、デバッグを効率的に実行できる。さらに、希望実行速度に応じて必要な時間シミュレーションをスリープさせるので、バグの状況を容易に視認することができる。 According to the first invention, by manually setting the desired execution speed, the execution time of one step of the simulation can be changed accordingly , making it easier to investigate the cause of instantaneously occurring bugs and efficiently debugging. can run to Furthermore, since the simulation is put to sleep for the necessary time according to the desired execution speed, the status of bugs can be easily visually recognized.

第2の発明は、第1の発明に従属するシミュレーション装置であって、希望実行周期および基本実行時間の差に従ってスリープ時間を計算するスリープ時間計算手段をさらに備え、スリープ手段はスリープ時間計算手段が計算したスリープ時間だけスリープさせる A second invention is a simulation apparatus according to the first invention, further comprising sleep time calculation means for calculating a sleep time according to a difference between the desired execution period and the basic execution time, wherein the sleep time calculation means Sleep for the calculated sleep time .

第2の発明では、スリープ時間計算手段(S31)が、希望実行周期および基本実行時間の差(p-t)に従ってスリープ時間を計算する。 In the second invention, the sleep time calculation means (S31) calculates the sleep time according to the difference (pt) between the desired execution period and the basic execution time.

第2の発明によれば、必要なスリープ時間だけスリープさせることができる。 According to the second invention, it is possible to sleep for the necessary sleep time.

第3の発明は、第1または第2の発明に従属するシミュレーション装置であって、判断手段が実行可能と判断しなかったとき、希望実行周期を含むパラメータを実行可能なパラメータに変更するパラメータ変更手段をさらに備えるA third invention is a simulation apparatus according to the first or second invention, wherein when the determining means determines that the simulation is not executable, parameters including a desired execution cycle are changed to executable parameters. Further provide means .

第3の発明では、パラメータ変更手段(S33)が、希望実行周期を含むパラメータを実行可能なパラメータに変更する。 In the third invention, the parameter changing means (S33) changes the parameter including the desired execution cycle to an executable parameter.

第3の発明によれば、実行速度を早くするとき(高速化しすぎた場合)に対処できる。
第4の発明は、シミュレーションの1ステップの希望実行速度を手動的に設定できるユーザインタフェースを有し、仮想シミュレーション空間に投入したロボットエージェントおよび人エージェントの行動をシミュレーションし、その仮想シミュレーション空間をディスプレイに表示するシミュレーション装置のプログラムであって、プログラムはシミュレーション装置のコンピュータを、ユーザインタフェースで設定された希望実行速度を取得する希望実行速度取得手段、シミュレーションの開始時刻および終了時刻に基づく基本実行時間を取得する基本実行時間取得手段、希望実行速度に応じて希望実行周期を計算する希望実行周期計算手段、基本実行時間と希望実行周期を比較してその希望実行周期によってシミュレーションが実行可能かどうか判断する判断手段、および判断手段が実行可能と判断したとき、基本実行時間と希望実行周期に基づくスリープ時間だけスリープさせるスリープ手段として機能させる、シミュレーションプログラムである。
第4の発明においても、第1の発明と同様の効果が期待できる。
According to the third invention, when the execution speed is increased (when the speed is increased too much), it can be dealt with.
A fourth invention has a user interface capable of manually setting a desired execution speed for one step of the simulation, simulates the actions of a robot agent and a human agent put into a virtual simulation space, and displays the virtual simulation space on a display. A program for a simulation device to display, the program comprises a computer of the simulation device, a desired execution speed acquisition means for acquiring a desired execution speed set by a user interface, and a basic execution time based on the start time and end time of the simulation. a desired execution cycle calculating means for calculating a desired execution cycle according to a desired execution speed; and a judgment for comparing the basic execution time and the desired execution cycle to determine whether or not the simulation can be executed with the desired execution cycle. It is a simulation program that functions as a sleep means for sleeping for a sleep time based on a basic execution time and a desired execution cycle when the means and the judgment means judge that the execution is possible.
Also in the fourth invention, the same effects as in the first invention can be expected.

この発明によれば、シミュレーションにおける1ステップを実行する時間を長くすることができるので、特定の瞬間で生じるバグの原因追及が容易になる。そのために、ロボットアプリケーションプログラムのデバッグを効率的に実行できる。 According to this invention, the time for executing one step in the simulation can be lengthened, so it becomes easy to investigate the cause of a bug that occurs at a specific moment. Therefore, robot application programs can be debugged efficiently.

この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of the embodiments with reference to the drawings.

図1はこの発明の一実施例のシミュレーションシステムを示す機能ブロック図である。FIG. 1 is a functional block diagram showing a simulation system of one embodiment of the invention. 図2はこの発明が適用されるロボットの一例を示す図解図である。FIG. 2 is an illustrative view showing one example of a robot to which the present invention is applied. 図3は図2に示すロボットの電気的な構成を示すブロック図である。FIG. 3 is a block diagram showing the electrical configuration of the robot shown in FIG. 2. As shown in FIG. 図4は図1の仮想シミュレーション空間の一例を示す図解図である。4 is an illustrative view showing one example of the virtual simulation space of FIG. 1. FIG. 図5は図4の人シミュレータの詳細を示す機能ブロック図である。FIG. 5 is a functional block diagram showing details of the human simulator of FIG. 図6は人エージェントの基本オブジェクティブモデルの一例を示す図解図である。FIG. 6 is an illustrative view showing one example of a basic objective model of a human agent. 図7は人エージェントの基本オブジェクティブモデルの他の例を示す図解図である。FIG. 7 is an illustrative view showing another example of the basic objective model of the human agent. 図8は人エージェントのオブジェクティブモデルのその他の例を示す図解図である。FIG. 8 is an illustrative view showing another example of the human agent objective model. 図9は図4の仮想シミュレーション空間の一部における人エージェントの移動の一例を示す図解図である。9 is an illustrative view showing an example of movement of a human agent in a part of the virtual simulation space of FIG. 4; FIG. 図11は図1実施例のシミュレーションシステムのオブジェクティブに従った動作の一例を示すフロー図である。FIG. 11 is a flowchart showing an example of the operation according to the objective of the simulation system of FIG. 1 embodiment. 図11は図1実施例の動作を示すフロー図である。FIG. 11 is a flow chart showing the operation of the FIG. 1 embodiment. 図12は減速倍率を入力するためのユーザインタフェースの一例を示す図解図である。FIG. 12 is an illustrative view showing one example of a user interface for inputting a deceleration factor.

図1を参照して、この実施例のシミュレーションシステム10は、ロボット12、ロボット12を遠隔操作する操作装置14およびロボット12をシミュレートしたロボットエージェントや人(歩行者)をシミュレートした人エージェントをシミュレーションするシミュレーション装置16を含む。シミュレーションシステム10において、ロボット12を除いて、1台または2台以上のコンピュータ(プロセサ)によって実現される。 Referring to FIG. 1, a simulation system 10 of this embodiment comprises a robot 12, an operating device 14 for remotely controlling the robot 12, a robot agent simulating the robot 12, and a human agent simulating a person (pedestrian). It includes a simulation device 16 for simulating. The simulation system 10 is implemented by one or more computers (processors), except for the robot 12 .

この実施例のロボット12は、たとえば図2に示すコミュニケーションロボットのように、人との共存環境で活動するロボットである。このようなロボット12は環境の中に存在する人の行動に影響を受けるので、この実施例のシミュレーション装置16では、ロボット12の行動をロボットアプリケーションプログラム(ロボット行動決定プログラム)に従ってシミュレーションする際に、人の行動もシミュレーションすることによって、ロボット12のための安全なロボットアプリケーションプログラムの開発を支援する。 The robot 12 of this embodiment is a robot that works in a coexisting environment with humans, like the communication robot shown in FIG. 2, for example. Since such a robot 12 is affected by the behavior of a person existing in the environment, in the simulation device 16 of this embodiment, when simulating the behavior of the robot 12 according to a robot application program (robot behavior determination program), By also simulating human behavior, the development of safe robot application programs for the robot 12 is aided.

ここで、図2および図3を参照して、この発明の理解に必要な範囲でロボット12の構成について説明する。ロボット12は台車30を含み、台車30の下面にはロボット12を移動させる2つの車輪32および1つの従輪34が設けられる。2つの車輪32は車輪モータ36(図3参照)によってそれぞれ独立に駆動され、台車30すなわちロボット12を前後左右の任意方向に動かすことができる。 Here, with reference to FIGS. 2 and 3, the configuration of the robot 12 will be described to the extent necessary for understanding the present invention. The robot 12 includes a carriage 30 with two wheels 32 and one follower wheel 34 provided on the underside of the carriage 30 for moving the robot 12 . The two wheels 32 are independently driven by wheel motors 36 (see FIG. 3) to move the cart 30, that is, the robot 12, in any direction, forward, backward, leftward, or rightward.

台車30の上には、円柱形のセンサ取り付けパネル38が設けられ、このセンサ取り付けパネル38には、多数の距離センサ40が取り付けられる。これらの距離センサ40は、たとえば赤外線や超音波などを用いてロボット12の周囲の物体(人や障害物など)との距離を測定するものである。 A cylindrical sensor mounting panel 38 is provided on the carriage 30, and a large number of distance sensors 40 are mounted on the sensor mounting panel 38. As shown in FIG. These distance sensors 40 measure the distance to objects (people, obstacles, etc.) around the robot 12 using, for example, infrared rays or ultrasonic waves.

センサ取り付けパネル38の上には、胴体42が直立して設けられる。また、胴体42の前方中央上部(人の胸に相当する位置)には、上述した距離センサ40がさらに設けられ、ロボット12の前方の、主として人との距離を計測する。また、胴体42には、その側面側上端部のほぼ中央から伸びる支柱44が設けられ、支柱44の上には、全方位カメラ46が設けられる。全方位カメラ46は、ロボット12の周囲を撮影するものであり、後述する眼カメラ70とは区別される。この全方位カメラ46としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。 A body 42 is provided upright on the sensor mounting panel 38 . Further, the above-described distance sensor 40 is further provided in the front central upper part of the body 42 (position corresponding to the chest of the person), and measures the distance in front of the robot 12, mainly to the person. Further, the body 42 is provided with a support 44 extending from substantially the center of the side upper end portion thereof, and an omnidirectional camera 46 is provided above the support 44 . The omnidirectional camera 46 captures the surroundings of the robot 12 and is distinguished from the eye camera 70 described later. As the omnidirectional camera 46, for example, a camera using a solid-state imaging device such as CCD or CMOS can be adopted.

胴体42の両側面上端部(人の肩に相当する位置)には、それぞれ、肩関節48Rおよび肩関節48Lによって、上腕50Rおよび上腕50Lが設けられる。図示は省略するが、肩関節48Rおよび肩関節48Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節48Rは、直交する3軸のそれぞれの軸廻りにおいて上腕50Rの角度を制御できる。肩関節48Rの或る軸(ヨー軸)は、上腕50Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。同様にして、肩関節48Lは、直交する3軸のそれぞれの軸廻りにおいて上腕50Lの角度を制御できる。肩関節48Lの或る軸(ヨー軸)は、上腕50Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。 An upper arm 50R and an upper arm 50L are provided on both side upper ends (positions corresponding to human shoulders) of the torso 42 by shoulder joints 48R and 48L, respectively. Although not shown, the shoulder joint 48R and the shoulder joint 48L each have degrees of freedom of three orthogonal axes. That is, the shoulder joint 48R can control the angle of the upper arm 50R around each of the three orthogonal axes. One axis (yaw axis) of the shoulder joint 48R is an axis parallel to the longitudinal direction (or axis) of the upper arm 50R, and the other two axes (pitch axis and roll axis) are perpendicular to that axis from different directions. It is the axis that Similarly, the shoulder joint 48L can control the angle of the upper arm 50L around each of the three orthogonal axes. One axis (yaw axis) of the shoulder joint 48L is an axis parallel to the longitudinal direction (or axis) of the upper arm 50L, and the other two axes (pitch axis and roll axis) are perpendicular to that axis from different directions. It is the axis that

また、上腕50Rおよび上腕50Lのそれぞれの先端には、肘関節52Rおよび肘関節52Lが設けられる。図示は省略するが、肘関節52Rおよび肘関節52Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸回りにおいて前腕54Rおよび前腕54Lの角度を制御できる。 Further, elbow joints 52R and 52L are provided at the distal ends of the upper arms 50R and 50L, respectively. Although not shown, the elbow joint 52R and the elbow joint 52L each have a degree of freedom of one axis, and can control the angles of the forearms 54R and 54L around this axis (pitch axis).

前腕54Rおよび前腕54Lのそれぞれの先端には、人の手に相当するハンド56Rおよびハンド56Lがそれぞれ設けられる。これらのハンド56Rおよび56Lは、詳細な図示は省略するが、開閉可能に構成され、それによってロボット12は、ハンド56Rおよび56Lを用いて物体を把持または挟持することができる。ただし、ハンド56R、56Lの形状は実施例の形状に限らず、人の手に酷似した形状や機能を持たせるようにしてもよい。 Hands 56R and 56L, which correspond to human hands, are provided at the tips of the forearms 54R and 54L, respectively. Although detailed illustration is omitted, these hands 56R and 56L are configured to be openable and closable, whereby the robot 12 can grip or pinch an object using the hands 56R and 56L. However, the shape of the hands 56R and 56L is not limited to the shape of the embodiment, and may be made to have a shape and functions very similar to those of human hands.

また、図示は省略するが、台車30の前面、肩関節48Rと肩関節48Lとを含む肩に相当する部位、上腕50R、上腕50L、前腕54R、前腕54L、ハンド56Rおよびハンド56Lには、それぞれ、接触センサ58(図3で包括的に示す)が設けられる。台車30の前面の接触センサ58は、台車30への人間や他の障害物の接触を検知する。したがって、ロボット12は、その自身の移動中に障害物との接触が有ると、それを検知し、直ちに車輪32の駆動を停止してロボット12の移動を急停止させることができる。また、その他の接触センサ58は、当該各部位に触れたかどうかを検知する。 In addition, although not shown, the front surface of the carriage 30, the portion corresponding to the shoulder including the shoulder joint 48R and the shoulder joint 48L, the upper arm 50R, the upper arm 50L, the forearm 54R, the forearm 54L, the hand 56R and the hand 56L are provided with , a contact sensor 58 (generically shown in FIG. 3) is provided. A contact sensor 58 on the front of the truck 30 detects contact of a person or other obstacle with the truck 30 . Therefore, if the robot 12 comes into contact with an obstacle during its own movement, it can detect it and immediately stop driving the wheels 32 to abruptly stop the movement of the robot 12 . Further, other contact sensors 58 detect whether or not each part is touched.

胴体42の中央上部(人の首に相当する位置)には首関節60が設けられ、さらにその上には頭部62が設けられる。図示は省略するが、首関節60は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット12の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。 A neck joint 60 is provided in the upper central portion of the body 42 (a position corresponding to the human neck), and a head 62 is provided thereon. Although not shown, the neck joint 60 has three degrees of freedom and can be angularly controlled around each of the three axes. One axis (yaw axis) is an axis directed directly above the robot 12 (vertically upward), and the other two axes (pitch axis and roll axis) are orthogonal axes in different directions.

頭部62には、人の口に相当する位置に、スピーカ64が設けられる。スピーカ64は、ロボット12が、それの周辺の人に対して音声によってコミュニケーションをとるために用いられる。また、人の耳に相当する位置には、マイク66Rおよびマイク66Lが設けられる。以下、右のマイク66Rと左のマイク66Lとをまとめてマイク66ということがある。マイク66は、周囲の音、とりわけコミュニケーションを実行する対象である人間の音声を取り込む。 A speaker 64 is provided on the head 62 at a position corresponding to a person's mouth. Speakers 64 are used by robot 12 to communicate audibly to people in its vicinity. A microphone 66R and a microphone 66L are provided at positions corresponding to human ears. Hereinafter, the right microphone 66R and the left microphone 66L may be collectively referred to as the microphone 66. FIG. A microphone 66 captures ambient sounds, especially the human voice with which the communication is being carried out.

さらに、人の目に相当する位置には、右の眼球部68Rおよび左の眼球部68Lが設けられる。右の眼球部68Rおよび左の眼球部68Lは、それぞれ右の眼カメラ70Rおよび左の眼カメラ70Lを含む。以下、右の眼球部68Rと左の眼球部68Lとをまとめて眼球部68ということがある。また、右の眼カメラ70Rと左の眼カメラ70Lとをまとめて眼カメラ70ということがある。 Further, a right eyeball portion 68R and a left eyeball portion 68L are provided at positions corresponding to human eyes. Right eyeball portion 68R and left eyeball portion 68L include right eye camera 70R and left eye camera 70L, respectively. Hereinafter, the right eyeball portion 68R and the left eyeball portion 68L may be collectively referred to as the eyeball portion 68. As shown in FIG. Also, the right eye camera 70R and the left eye camera 70L may be collectively referred to as an eye camera 70. FIG.

眼カメラ70は、ロボット12に接近した人の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。この実施例では、ロボット12は、この眼カメラ70からの映像信号によって、人の左右両目のそれぞれの視線方向(ベクトル)を検出する。 The eye camera 70 photographs the face of a person approaching the robot 12, other parts or objects, and captures the corresponding video signal. In this embodiment, the robot 12 detects the line-of-sight directions (vectors) of each of the left and right eyes of a person from the video signal from the eye camera 70 .

また、眼カメラ70は、上述した全方位カメラ46と同様のカメラを用いることができる。たとえば、眼カメラ70は、眼球部68内に固定され、眼球部68は、眼球支持部(図示せず)を介して頭部62内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部62の上に向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部62の正面側(顔)が向く方向に直交する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部68ないし眼カメラ70の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ64、マイク66および眼カメラ70の設置位置は、当該部位に限定されず、適宜な位置に設けられてよい。 Also, the eye camera 70 can be the same camera as the omnidirectional camera 46 described above. For example, the eye camera 70 is fixed within the eyeball portion 68, and the eyeball portion 68 is attached at a predetermined position within the head 62 via an eyeball support (not shown). Although illustration is omitted, the eyeball supporting portion has two degrees of freedom and can be angularly controlled around each of these axes. For example, one of the two axes is the upward direction axis (yaw axis) of the head 62, and the other is perpendicular to one axis and to the direction in which the front side (face) of the head 62 faces. It is the axis (pitch axis) in the direction to By rotating the eyeball supporting portion around each of these two axes, the eyeball portion 68 or the tip (front) side of the eye camera 70 is displaced, and the camera axis, that is, the line of sight direction is moved. The installation positions of the speaker 64, the microphone 66, and the eye camera 70 described above are not limited to these parts, and may be provided at appropriate positions.

このように、この実施例のロボット12は、車輪32の独立2軸駆動、肩関節48の3自由度(左右で6自由度)、肘関節52の1自由度(左右で2自由度)、首関節60の3自由度および眼球支持部の2自由度(左右で4自由度)の合計17自由度を有する。 As described above, the robot 12 of this embodiment has independent two-axis drive of the wheels 32, three degrees of freedom of the shoulder joints 48 (six degrees of freedom on the left and right), one degree of freedom on the elbow joints 52 (two degrees of freedom on the left and right), It has a total of 17 degrees of freedom, including 3 degrees of freedom of the neck joint 60 and 2 degrees of freedom of the eyeball supporting portion (4 degrees of freedom in left and right).

図3はロボット12の電気的な構成を示すブロック図である。この図3を参照して、ロボット12は、1つまたは2以上のプロセサ80を含む。プロセサ80は、バス82を介して、メモリ84、モータ制御ボード86、センサ入力/出力ボード88および音声入力/出力ボード90に接続される。 FIG. 3 is a block diagram showing the electrical configuration of the robot 12. As shown in FIG. Referring to FIG. 3, robot 12 includes one or more processors 80 . Processor 80 is connected via bus 82 to memory 84 , motor control board 86 , sensor input/output board 88 and audio input/output board 90 .

メモリ84は、図示は省略をするが、ROM、HDDおよびRAMを含む。ROMおよびHDDには、各種プログラムが予め記憶される。 Although not shown, the memory 84 includes ROM, HDD and RAM. Various programs are stored in advance in the ROM and HDD.

モータ制御ボード86は、たとえばDSPで構成され、各腕や首関節60および眼球部68などの各軸モータの駆動を制御する。すなわち、モータ制御ボード86は、プロセサ80からの制御データを受け、右眼球部68Rの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ92」と示す)の回転角度を制御する。同様にして、モータ制御ボード86は、プロセサ80からの制御データを受け、左眼球部68Lの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ94」と示す)の回転角度を制御する。 The motor control board 86 is composed of, for example, a DSP, and controls the driving of each shaft motor of each arm, neck joint 60, eyeball portion 68, and the like. That is, the motor control board 86 receives control data from the processor 80 and controls two motors (in FIG. 3, collectively referred to as "right eyeball motor 92") for controlling the respective angles of the two axes of the right eyeball part 68R. to control the rotation angle of the Similarly, the motor control board 86 receives control data from the processor 80 and controls two motors (collectively referred to as "left eye motor 94" in FIG. 3) for controlling the respective angles of the two axes of the left eyeball 68L. (shown) to control the angle of rotation.

また、モータ制御ボード86は、プロセサ80からの制御データを受け、肩関節48Rの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Rの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ96」と示す)の回転角度を制御する。同様にして、モータ制御ボード86は、プロセサ80からの制御データを受け、肩関節48Lの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Lの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ98」と示す)の回転角度を制御する。 Also, the motor control board 86 receives control data from the processor 80, and controls three motors for controlling the angles of the three orthogonal axes of the shoulder joint 48R and one motor for controlling the angle of the elbow joint 52R. It controls the rotation angles of four motors (shown collectively as "right arm motor 96" in FIG. 3). Similarly, the motor control board 86 receives control data from the processor 80, three motors controlling the angles of the three orthogonal axes of the shoulder joint 48L and one motor controlling the angle of the elbow joint 52L. (collectively referred to as "left arm motor 98" in FIG. 3).

さらに、モータ制御ボード86は、プロセサ80からの制御データを受け、首関節60の直交する3軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ100」と示す)の回転角度を制御する。そして、モータ制御ボード86は、プロセサ80からの制御データを受け、車輪32を駆動する2つのモータ(図3では、まとめて「車輪モータ36」と示す)の回転角度を制御する。 Furthermore, the motor control board 86 receives control data from the processor 80 and controls three motors (collectively referred to as "head motors 100" in FIG. ) to control the rotation angle. The motor control board 86 receives control data from the processor 80 and controls the rotation angles of the two motors that drive the wheels 32 (collectively referred to as "wheel motors 36" in FIG. 3).

モータ制御ボード86にはさらにハンドアクチュエータ101が結合され、モータ制御ボード86は、プロセサ80からの制御データを受け、ハンド56R、56Lの開閉を制御する。 A hand actuator 101 is further coupled to the motor control board 86, and the motor control board 86 receives control data from the processor 80 and controls opening and closing of the hands 56R and 56L.

センサ入力/出力ボード88は、モータ制御ボード86と同様に、DSPで構成され、各センサからの信号を取り込んでプロセサ80に与える。すなわち、距離センサ40のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード88を通じてプロセサ80に入力される。また、全方位カメラ46からの映像信号が、必要に応じてセンサ入力/出力ボード88で所定の処理を施してからプロセサ80に入力される。眼カメラ70からの映像信号も、同様にして、プロセサ80に入力される。また、上述した複数の接触センサ58(図3では、まとめて「接触センサ58」と示す)からの信号がセンサ入力/出力ボード88を介してプロセサ80に与えられる。音声入力/出力ボード90もまた、同様に、DSPで構成され、プロセサ80から与えられる音声合成データに従った音声または声がスピーカ64から出力される。また、マイク66からの音声入力が、音声入力/出力ボード90を介してプロセサ80に与えられる。 The sensor input/output board 88, like the motor control board 86, is composed of a DSP, takes in signals from each sensor, and supplies them to the processor 80. FIG. That is, data relating to the reflection time from each of the range sensors 40 are input to the processor 80 through this sensor input/output board 88 . Also, the video signal from the omnidirectional camera 46 is input to the processor 80 after undergoing predetermined processing by the sensor input/output board 88 as necessary. A video signal from the eye camera 70 is similarly input to the processor 80 . Signals from the plurality of contact sensors 58 (collectively referred to as “contact sensors 58 ” in FIG. 3 ) are provided to processor 80 via sensor input/output board 88 . The voice input/output board 90 is also composed of a DSP in the same way, and the speaker 64 outputs voice according to voice synthesis data given from the processor 80 . Audio input from microphone 66 is also provided to processor 80 via audio input/output board 90 .

また、プロセサ80は、バス82を介して通信LANボード102に接続される。通信LANボード102は、たとえばDSPで構成され、プロセサ80から与えられた送信データを無線通信モジュール104に与え、無線通信モジュール104は送信データを、ネットワークを介してサーバ(図示せず)等に送信する。また、通信LANボード102は、無線通信モジュール104を介してデータを受信し、受信したデータをプロセサ80に与える。 Processor 80 is also connected to communication LAN board 102 via bus 82 . Communication LAN board 102 is composed of a DSP, for example, and provides transmission data given from processor 80 to wireless communication module 104, and wireless communication module 104 transmits the transmission data to a server (not shown) or the like via a network. do. Communication LAN board 102 also receives data via wireless communication module 104 and provides the received data to processor 80 .

なお、実施例のシミュレーションシステム10が適用可能なロボットは、図2および図3に示すロボット12に限定されるものではなく、他の形式、構造のコミュニケーションロボットにもこのシミュレーション装置は適用可能である。 The robot to which the simulation system 10 of the embodiment can be applied is not limited to the robot 12 shown in FIGS. 2 and 3, and this simulation apparatus can also be applied to communication robots of other types and structures. .

図1に戻って、操作装置14は、基本的には1または2以上のコンピュータまたはプロセサによって構成され、そのプロセサのメモリ(図示せず)にロボットアプリケーションプログラム18が設定されていて、そのロボットアプリケーションプログラムがコンピュータからたとえば無線でロボット12またはシミュレーション装置16に与えられる。ロボットアプリケーションプログラム18は、ロボット12に対するアプリケーションプログラムであり、たとえばロボット12を案内ロボットとしとて動作させるときには、そのための動作をロボット12が実行するようなプログラムである。 Returning to FIG. 1, the operation device 14 is basically composed of one or more computers or processors, and a robot application program 18 is set in the memory (not shown) of the processor. A program is given to the robot 12 or simulation device 16 from a computer, for example wirelessly. The robot application program 18 is an application program for the robot 12. For example, when the robot 12 is operated as a guide robot, the robot 12 executes operations for that purpose.

操作装置14のメモリにはさらに、環境データ20を予め記憶している。環境データ20は主として図4に示す仮想シミュレーション空間22の地図データおよびその仮想シミュレーション空間22内での人エージェントの出現率データを含む。環境および環境内のオブジェクトは3次元モデルデータとして表され、3次元仮想空間として視覚化される。 The memory of the operating device 14 further stores environment data 20 in advance. The environment data 20 mainly includes map data of the virtual simulation space 22 shown in FIG. 4 and appearance rate data of human agents within the virtual simulation space 22 . The environment and objects within the environment are represented as 3D model data and visualized as a 3D virtual space.

図4に示す仮想シミュレーション空間22は、図中点線矩形で示す出入口22aを有する3次元閉空間を想定している。この仮想シミュレーション空間22においては黒色太線で示す通路22bが設定されていて、ロボット12や人エージェントはその通路22bや広場などを通行し、またはそこに存在する。これらの通路22bや広場は建物や壁などオブジェクトによって区画され、図中丸印で示す場所で分岐または合流する。 A virtual simulation space 22 shown in FIG. 4 is assumed to be a three-dimensional closed space having an entrance 22a indicated by a dotted-line rectangle in the figure. In this virtual simulation space 22, a passage 22b indicated by a thick black line is set, and the robot 12 and the human agent pass through or exist in the passage 22b , the square, or the like. These passages 22b and plazas are partitioned by objects such as buildings and walls, and diverge or merge at places indicated by circles in the figure.

シミュレーション装置16は、基本的には1または2以上のプロセサないしコンピュータで構成され、ロボット12をシミュレートするロボットシミュレータ24および歩行者のような人エージェントをシミュレートする人シミュレータ26を含み、それぞれのシミュレーション結果が物理エンジン28に入力される。 The simulation device 16 is basically composed of one or more processors or computers, and includes a robot simulator 24 that simulates the robot 12 and a human simulator 26 that simulates a human agent such as a pedestrian. Simulation results are input to the physics engine 28 .

ロボットシミュレータ24は、たとえば先の非特許文献1として例示したMORSEシミュレータであり、このMORSEシミュレータは、ロボット12と同様の、多くのセンサ、アクチュエータおよびロボットのモデルを提供し、そのようなモデル用のAPI(Application Programming Interface)も利用できる。 The robot simulator 24 is, for example, the MORSE simulator exemplified in Non-Patent Document 1 above, and this MORSE simulator provides many sensors, actuators and robot models similar to the robot 12, and a model for such a model. An API (Application Programming Interface) is also available.

センサシミュレーションにおいては、たとえば、カメラ画像の場合には、カメラ視点からの光学的な計算を行い、カメラ視点毎の画像情報を生成する。レーザ距離計の場合には、レーザによるスキャンを模して、センサから各方位へ距離計測を行い、その結果をセンサ値として保存する。 In sensor simulation, for example, in the case of a camera image, optical calculation is performed from the viewpoint of the camera to generate image information for each viewpoint of the camera. In the case of a laser range finder, the distance is measured from the sensor in each direction by simulating laser scanning, and the results are stored as sensor values.

開発者がロボットのためのロボットアプリケーションプログラムを準備するとき、それらのプログラムはこれらのAPIにアクセスしてセンサデータ(たとえば、レーザ距離計からの距離の読み取り)およびアクチュエータへのコマンドの送信(たとえば、移動速度)を行う。 When developers prepare robot application programs for their robots, those programs access these APIs to read sensor data (e.g. reading distances from a laser rangefinder) and to send commands to actuators (e.g. movement speed).

人シミュレータ26は、定期的に新しい歩行者を生成し、それらの位置を更新し、それらがシミュレートされた環境(仮想シミュレーション空間22)を離れるときにそれらを除去する。歩行者すなわち人は、3次元オブジェクトとして表現され、仮想シミュレータ空間22内に配置され、アニメーションエンジンを使用して、その歩行動作がアニメーション化される。 The people simulator 26 periodically creates new pedestrians, updates their positions, and removes them when they leave the simulated environment (virtual simulation space 22). A pedestrian or person is represented as a three-dimensional object, placed in the virtual simulator space 22, and its walking motion is animated using an animation engine.

ただし、人シミュレータ26には図1に示すように環境データ20が与えられるので、人シミュレータ26は、その環境データに含まれる出現率と呼ばれる予め定義された確率で新しい歩行者を周期的に生成する。そして、その歩行者は図4に示す出入口22aの1つに割り当てられ、他の1つに行くように設定される。 However, since the human simulator 26 is provided with environmental data 20 as shown in FIG. 1, the human simulator 26 periodically generates new pedestrians with a predefined probability called the appearance rate contained in the environmental data. do. The pedestrian is then assigned to one of the doorways 22a shown in FIG. 4 and set to go to the other one.

なお、歩行者はしばしばグループとして(家族やカップルのように)生成され、それらがグループで表示される場合、サイズはグループメンバの分布によって定義し、すべてのメンバが同じ目的を共有すると仮定する。 Note that pedestrians are often generated in groups (like families or couples) and when they are displayed in groups, the size is defined by the distribution of group members, assuming that all members share the same purpose.

物理エンジン28は、物理的な力や法則などに基づいて、ロボットや人エージェントがどのような移動経路をたどるかを計算する。詳しくいうと、物理エンジン28は、ロボットシミュレータ24および人シミュレータ26からの各エージェント(ロボット含む)が意図した動きを、仮想シミュレーション空間22(図4)で実行する処理を実行する。このとき、他の障害物、構造物や他のエージェントとの干渉が何もなければ、意図したとおりの動きを生成する。しかしながら、干渉がある場合、物理学法則(力学法則)に従って、各エージェントの実際の動きを処理する。そして、物理エンジン28からは統合したシミュレーションデータが出力される。 The physics engine 28 calculates what kind of movement path the robot or human agent will follow based on physical forces and laws. More specifically, the physics engine 28 performs processing that causes each agent (including robots) from the robot simulator 24 and the human simulator 26 to perform intended movements in the virtual simulation space 22 (FIG. 4). At this time, if there is no interference with other obstacles, structures, or other agents, it will generate the intended movement. However, in the presence of interference, the actual movement of each agent is processed according to the laws of physics (laws of mechanics). Then, the physics engine 28 outputs integrated simulation data.

シミュレーション装置16には、ディスプレイ105設けられていて、このディスプレイ105によって、たとえば図4に示すような仮想シミュレーション空間の画像が、その中に存在するシミュレートされたロボットや人エージェントとともに、表示される。たとえば、人エージェントは、3次元オブジェクトとして表現され、仮想シミュレーション空間22内に配置され、アニメーションエンジンを使用して、その歩行動作がアニメーション化される。ロボットアプリケーションプログラム18の開発者は、そのディスプレイ105に表示された画像で確認しながら、ロボット12の行動決定プログラム(アプリケーションプログラム)を作製し、修正する。 The simulation device 16 is provided with a display 105, which displays an image of a virtual simulation space, such as that shown in FIG. 4, together with simulated robots and human agents present therein. be. For example, a human agent is represented as a three-dimensional object, placed in the virtual simulation space 22, and its walking motion is animated using an animation engine. A developer of the robot application program 18 creates and modifies an action determination program (application program) for the robot 12 while checking the image displayed on the display 105 .

さらに、シミュレーション装置16には入力装置107が付設されている。この入力装置107は、たとえば、キーボードあるいはタッチパネルであってよく、タッチパネルの場合にはディスプレイ105に組み込み、ディスプレイ105をタッチディスプレイとして構成することもできる。入力装置107は、オペレータが後述する希望実行速度s’を設定する際に利用できる。 Furthermore, the simulation device 16 is provided with an input device 107 . This input device 107 may be, for example, a keyboard or a touch panel. In the case of a touch panel, it may be incorporated in the display 105 and the display 105 may be configured as a touch display. The input device 107 can be used when the operator sets a desired execution speed s', which will be described later.

図5を参照して、人シミュレータ26を詳細に説明する。人シミュレータ26は、ロボットシミュレータ24と同様に、シミュレーション装置16のコンピュータないしプロセサによって実現される機能であり、人生成モジュール110を含む。この人生成モジュール110は、上述のように、環境データ20に含まれる出現率データ108に従って新しい歩行者(人エージェント)を、地図データ106が表す、図4に一例を示す仮想シミュレーション空間22内に、周期的に生成する。 The person simulator 26 will be described in detail with reference to FIG. Human simulator 26 , like robot simulator 24 , is a function implemented by the computer or processor of simulation device 16 and includes human generation module 110 . This human generation module 110 creates new pedestrians (human agents) according to the occurrence rate data 108 contained in the environment data 20, as described above, in the virtual simulation space 22 represented by the map data 106, an example of which is shown in FIG. , is generated periodically.

出現率データ108は、シミュレーション装置16の仮想シミュレーション空間22に投入する人エージェントのための、人の形状、すなわち大人、子供、男性、女性などの人の形状(パターン)やそれぞれの人の出現率が予め設定されているデータベースであり、設定された確率で設定された形状の人エージェントが生成される。 Appearance rate data 108 is the shape of a person, that is, the shape (pattern) of an adult, a child, a man, a woman, etc., and the appearance rate of each person for the human agent to be injected into the virtual simulation space 22 of the simulation device 16. is a preset database, and a human agent with a set shape is generated with a set probability.

なお、この出現率データ108では、曜日や時間ごとに異なるデータセットを保持しておき、曜日や時間を指定してシミュレーションできるようにしてもよい。そうすれば、ある時間帯にロボットを動かすとどうなるのかなど、いろいろシミュレーションすることができる。 It should be noted that the appearance rate data 108 may hold different data sets for each day of the week and time so that the simulation can be performed by designating the day of the week and time. By doing so, various simulations can be performed, such as what happens when the robot is moved at a certain time.

ただし、生成される人エージェントがグループを形成することを出現率データ108が示していれば、人生成モジュール110は、シミュレーションパラメータとして設定されているグループメンバデータ112従ったメンバ構成のグループで複数の人エージェントを生成する。 However, if the appearance rate data 108 indicates that the human agents to be generated form a group, the human generation module 110 generates a plurality of human agents in a group having a member configuration according to the group member data 112 set as a simulation parameter. to generate human agents.

移動モジュール114は、人生成モジュール110が生成した人エージェントを、オブジェクティブモデル(Objective Model)116に基づいて、仮想シミュレーション空間22(図4)内を移動させる。ここで、オブジェクティブ(Objective)とは、仮想シミュレーション空間22において、人エージェント(図示せず)の視界にロボットエージェント(図示せず)が入ったときに、人エージェントが示す反応の仕方、つまり人が実空間で実際に執り得る対ロボット行動パターンを規定する命令セットである。この実施例では後述の4つの典型的な反応の態様(オブジェクティブ)をモデルとして設定しておき、移動モジュール114は人エージェントを移動させるとき、そのモデルが示すオブジェクティブに従って移動させる。つまり、オブジェクティブモデル116は、仮想シミュレーション空間においてロボットの存在に対する反応行動を人エージェントに行わせる、第1命令セットとして機能する。これらのオブジェクティブはシミュレーションシステム10の第1メモリ(図示せず)に記憶されている。 Movement module 114 moves the human agent generated by human generation module 110 within virtual simulation space 22 ( FIG. 4 ) based on objective model 116 . Here, the objective is the way a human agent (not shown) reacts when a robot agent (not shown) enters the field of view of the human agent (not shown) in the virtual simulation space 22, that is, the human agent reacts. It is an instruction set that defines the action patterns against robots that can actually be taken in real space. In this embodiment, four typical reaction modes (objectives) described later are set as models, and the movement module 114 moves the human agent according to the objectives indicated by the models. In other words, the objective model 116 functions as a first instruction set that causes the human agent to react to the presence of the robot in the virtual simulation space. These objectives are stored in a first memory (not shown) of simulation system 10 .

なお、このオブジェクティブモデル116に予め設定されている利用可能なオブジェクティブは、たとえば上記第1メモリから読み出してそれらの一覧をたとえばディスプレイ105などに表示するなどして、デバッグしようとする開発者が知ることができる。開発者は、その中の任意のオブジェクティブを選択して、後述のようにスクリプト(122)でそのオブジェクティブを変更(更新)することが可能である。このとき、開発者はシミュレーションシステム10に設けられているキーボードなどの入力装置(図示せず)を用いて、要変更箇所を変更することができる。そして、その変更(更新)されたオブジェクティブもまた第1メモリに記憶される。つまり、オブジェクティブモデル116は,拡張性を有するように設計しているので、別の誰かが更新したオブジェクティブを一覧情報として知ることができる点は、有効である。 The available objectives preset in the objective model 116 can be read out from the first memory and displayed as a list on the display 105, for example, so that the developer who intends to debug can know them. can be done. The developer can select any objective in it and change (update) that objective in the script (122) as described below. At this time, the developer can use an input device (not shown) such as a keyboard provided in the simulation system 10 to change the portion to be changed. The modified (updated) objective is then also stored in the first memory. In other words, since the objective model 116 is designed to have extensibility, it is effective to be able to know objectives updated by someone else as list information.

たとえば、ロボットが自分の視野に入ったときに人が執る行動パターン(オブジェクティブ)として、図6および図7に示す、ロボットと対話するパターンと、ロボットを観察するパターンがある。 For example, as behavior patterns (objectives) that a person takes when a robot comes into his/her field of view, there are a pattern of interacting with the robot and a pattern of observing the robot, as shown in FIGS.

図6は、人(「i」で示す)が自分の視野内にロボット12を発見すると、ロボット12の回りに、ロボット12から停止距離Dstopを隔てて停止し、ロボット12と対話するオブジェクティブを図解している。 FIG. 6 illustrates an objective that stops around robot 12 a stopping distance Dstop from robot 12 and interacts with robot 12 when a person (indicated by "i") discovers robot 12 within his/her field of view. are doing.

図7は、人(「i」で示す)が自分の視野内にロボット12を発見すると、ロボット12の回りに、ロボット12から停止距離Dstopよりもやや大きい観察距離Dobserveを隔てて停止し、ロボット12を観察するオブジェクティブを図解している。 FIG. 7 shows that when a person (indicated by "i") discovers the robot 12 in his field of view, he stops around the robot 12 with an observation distance Dobserve slightly larger than the stopping distance Dstop from the robot 12, and the robot 12 illustrates an objective observing 12;

オブジェクティブとしては、その他、ロボットの傍を通りすぎるオブジェクティブ、およびロボットの傍を減速し、見ながら通りすぎるオブジェクティブがあり、移動モジュール114では、人エージェントがその登録しているどれかのオブジェクティブに従って移動するようにシミュレーションする。 Objectives include other objectives that pass by the robot, and objectives that slow down and pass by the robot while looking at it. In the movement module 114, the human agent moves according to any registered objective. simulate as

ただし、移動モジュール114は、シミュレーションパラメータに含まれるソーシャルフォースモデル(Social Force Model)118およびインタラクションモデル(Interaction with robot model)120からのそれぞれのモデルデータを考慮して、人エージェントの移動をシミュレートする。ソーシャルフォースモデルとは、後述の図8に示すように歩行者どうしがいかに影響して挙動が変わるかということを表すモデルである。たとえば、斥力または反力などとして知られている。 However, the locomotion module 114 simulates locomotion of the human agent taking into account the respective model data from the Social Force Model 118 and the Interaction with robot model 120 included in the simulation parameters. . The social force model is a model that expresses how pedestrians affect each other and behavior changes, as shown in FIG. 8, which will be described later. For example, it is known as repulsion or reaction force.

仮想シミュレーション空間22内において、人エージェントの行動は、他のエージェントから影響されて変化する(たとえば、人同士がぶつからないように避ける、ロボットを見たら近づく、など)。 In the virtual simulation space 22, the human agent's behavior changes under the influence of other agents ( for example, people avoid each other, approach robots when they see them, etc.).

たとえば図8に示すように、2人の人iおよびjは相互に影響して次のステップでの移動位置を決定する場合がある、人エージェントiは本来はdi,jの方向へ移動するのであるが、人エージェントjが人エージェントiに対して角度θi,jの方向に速度vi,jで移動しようとしているため、人エージェントiは、結局d’i,jの方向へ移動することになる。 For example, as shown in FIG. 8, two people i and j may influence each other to determine their movement position in the next step, since human agent i originally moves in the direction of di,j. However, since the human agent j is about to move in the direction of the angle θi,j with the speed vi,j with respect to the human agent i, the human agent i ends up moving in the direction of d'i,j. .

なお、インタラクションモデル120とは、人のロボットとの相互作用のパターンを予め設定しているモデルである。 The interaction model 120 is a model in which patterns of human interaction with the robot are set in advance.

図9は図4に示す仮想シミュレーション環境(空間)の一部を模式的に示していて、仮想シミュレーション空間22は、出入口22aを設けた壁などのオブジェクト124で仕切られた閉空間を想定している。ただし、オブジェクト124はすべて、障害物として地図データ106に書き込まれている。 FIG. 9 schematically shows a part of the virtual simulation environment (space) shown in FIG. there is However, all objects 124 are written in the map data 106 as obstacles.

ロボットシミュレータ24は、環境データ20に含まれるロボット(ロボットエージェント)の位置等のデータに基づいて、ロボットアプリケーションプログラム18に従ったロボットの次のステップでの行動をシミュレーションする。ここで、ロボットアプリケーションプログラム18は、図3のセンサ入力/出力ボード88に入力されるセンサ出力に応じて、各モータすなわちアクチュエータを制御してロボットの行動を決定するプログラムである。 The robot simulator 24 simulates the action of the robot in the next step according to the robot application program 18 based on data such as the position of the robot (robot agent) included in the environment data 20 . Here, the robot application program 18 is a program that controls each motor, that is, actuators, and determines the action of the robot according to the sensor output input to the sensor input/output board 88 of FIG.

図9の例でいえば、ロボットアプリケーションプログラム18は、たとえば図9において、一方の出入口22aからロボット12が仮想シミュレーション空間22に入り、他方の出入口22aから出るまで、通路22bに従って移動させるように設定されている。なお、図9において参照符号126が、シミュレーションのためにこの仮想シミュレーション空間22に投入された人エージェントを示す。 In the example of FIG. 9, the robot application program 18 is set so that the robot 12 enters the virtual simulation space 22 through one doorway 22a and moves along the path 22b until it exits through the other doorway 22a. It is Incidentally, reference numeral 126 in FIG. 9 indicates a human agent put into this virtual simulation space 22 for simulation.

人シミュレータ26はさらに、必要な場合、オブジェクティブモデル116ではなく、スクリプト122に従ってシミュレーションを実行する。オブジェクティブモデル116は上述のように、予め設定した、定型の対ロボット反応パターンであるが、スクリプト122は、シミュレーション装置16すなわち人シミュレータ26に非定型の動作を行わせる命令である。ここで、スクリプトとは、コンピュータが理解できる言語への変換作業を省略して、簡単に解釈実行できるようにした簡易プログラム(命令セット)のことである。ソフトウェアの設計などにおいて、コンピュータに命令を与える際には、通常、人間が普通に読み書きできる言語から、コンピュータが理解できる言語、いわゆる機械語への変換が必要であるが、スクリプトは、そのような変換作業を省略して簡単に解釈実行できるようにした簡易プログラムである。これらのスクリプトは、第2命令セットに該当するが、それらはシミュレーションシステム10の第2メモリ(図示せず)に記憶されている。ただし、第1メモリおよび第2メモリは同じメモリの異なる記憶場所であってよい。 Human simulator 26 also performs simulations according to script 122 rather than objective model 116 when necessary. The objective model 116 is, as described above, a preset, fixed response pattern to the robot, while the script 122 is instructions for causing the simulation device 16, ie, the human simulator 26, to perform non-fixed actions. Here, a script is a simple program (instruction set) that can be easily interpreted and executed without conversion into a computer-readable language. When giving instructions to a computer in software design, etc., it is usually necessary to convert a language that humans can normally read and write into a language that computers can understand, so-called machine language. It is a simple program that can be easily interpreted and executed by omitting the conversion work. Although these scripts fall under the second set of instructions, they are stored in a second memory (not shown) of simulation system 10 . However, the first memory and the second memory may be different memory locations in the same memory.

ここで、まず、図10を参照して、オブジェクティブモデル116に従った図1に示すシミュレーション装置16における動作の一例を説明する。ただし、この図10に示すシミュレーションは、複数のステップ(S3-S17)を1ステップとして実行する。実際的な運用において、シミュレーションの1ステップは最速0.1ミリ秒単位で実行可能であるが、ここでは10ミリ秒単位に設定し、ロボットアプリケーションプログラム18の実行は100ミリ秒単位とすることが可能である。この例の場合、ロボットアプリケーションプログラム18は、シミュレーション装置16による10ステップの実行毎に1度、実行される。つまり、この実施例では、このようにロボットアプリケーションプログラムの周期がシミュレーションの1ステップの実行周期より長い場合を想定している。 Here, first, with reference to FIG. 10, an example of the operation of the simulation device 16 shown in FIG. 1 according to the objective model 116 will be described. However, in the simulation shown in FIG. 10, a plurality of steps (S3-S17) are executed as one step. In practical operation, one step of the simulation can be executed in units of 0.1 milliseconds at the fastest, but here it is possible to set the unit to 10 milliseconds and execute the robot application program 18 in units of 100 milliseconds. It is possible. In this example, the robot application program 18 is executed once every 10 steps executed by the simulation device 16 . In other words, in this embodiment, it is assumed that the period of the robot application program is longer than the execution period of one step of the simulation.

最初のステップS1において、シミュレーション装置16のコンピュータ(以下、単に「コンピュータ」ということがある。)は、一例として図4(および図9)に示す通路22b上を移動するように設定されている、ロボットアプリケーションプログラム18を読み込むとともに、環境データ20を読み込む。すなわち、ロボット12の行動をシミュレーションする図4(および図9)のような仮想シミュレーション空間22の地図データ106および出現率データ108が示す仮想シミュレーション空間22に投入する人エージェントの生成に関するパラメータ(出現頻度、移動経路、グループ人数、大人子供や男女の比率、背の高さなど)および各エージェント(ロボット12を含む)の位置データなどを読み込む。なお、この仮想シミュレーション空間22が、ロボット12および人エージェントとともに、ディスプレイ105に表示される。 In the first step S1, the computer of the simulation device 16 (hereinafter sometimes simply referred to as "computer") is set to move on the passage 22b shown in FIG. 4 (and FIG. 9) as an example. Along with reading the robot application program 18, the environment data 20 is read. That is, parameters (appearance frequency , movement route, number of people in the group, adult/child/male/female ratio, height, etc.) and location data of each agent (including the robot 12). This virtual simulation space 22 is displayed on the display 105 together with the robot 12 and the human agent.

さらに、このステップS1では、シミュレーションの初期化を行う。つまり、実行速度s=1.0、基本実行ステップ数fpsをfps=30.0としてそれぞれ設定する。ただし、fpsは、1秒間に何ステップのシミュレーションを実行するかを示す数値で、この実施例の初期設定では、1秒間に30ステップのシミュレーションを実行するように、設定される。この場合、基本実行周期pはp=1.0×1/fps=1/30(≒0.033)秒となる。 Furthermore, in this step S1, the simulation is initialized. That is, the execution speed s is set to 1.0, and the number of basic execution steps fps is set to fps=30.0. However, fps is a numerical value indicating how many steps of simulation are executed per second, and in the initial setting of this embodiment, it is set so that 30 steps of simulation are executed per second. In this case, the basic execution period p is p=1.0×1/fps=1/30 (≈0.033) seconds.

次のステップS3では、コンピュータは、シミュレーション1ステップの実行周期を計測するために、実行開始時間time_sとして現在のシステム時刻を、たとえばシミュレーション装置16のメモリ(図示せず)に、記憶する。 In the next step S3, the computer stores the current system time as the execution start time time_s in the memory (not shown) of the simulation device 16, for example, in order to measure the execution cycle of one simulation step.

次のステップS5では、人シミュレータ26の人生成モジュール110によって、環境データ20が提示する人エージェントの生成に関する上述のパラメータおよびグループからの人パターンのデータに従って、仮想シミュレーション空間22内で、1または2以上の人エージェントを生成して配置する。 In the next step S5, the human generation module 110 of the human simulator 26 generates 1 or 2 human agents in the virtual simulation space 22 according to the above-mentioned parameters for human agent generation presented by the environment data 20 and the human pattern data from the group. Generate and place more human agents.

ステップS7でコンピュータすなわち人シミュレータ26は、環境データ20が示す現在の人エージェントおよびロボット12の位置に基づいて、そしてオブジェクティブモデル116が示す対ロボット行動パターンに基づいて、人エージェントの次のステップでの行動を決定する。なお、基本的な前述した4つのオブジェクティブの一覧は開発者(操作装置14のオペレータ)が自由にアクセスできる形で提供される。さらに、他のオブジェクティブモデルを採用することもできる。 In step S7, the computer or human simulator 26 determines the next step of the human agent based on the current positions of the human agent and the robot 12 indicated by the environment data 20, and on the behavior pattern for the robot indicated by the objective model 116. Decide on action. A list of the four basic objectives described above is provided in a form that can be freely accessed by the developer (operator of the operation device 14). Additionally, other objective models can be employed.

ステップS9でコンピュータすなわちロボットシミュレータ24は、ロボットアプリケーションプログラム18から1ステップ分の行動命令を受け取り、実行する。ただし、ロボットアプリケーションプログラムの周期がシミュレーションの1ステップの実行周期より長い場合には、このステップS9でロボットシミュレータ24が何もしないこともある。 At step S9, the computer, that is, the robot simulator 24 receives a one-step action instruction from the robot application program 18 and executes it. However, if the period of the robot application program is longer than the execution period of one step of the simulation, the robot simulator 24 may not do anything in step S9.

ロボットの行動としては、たとえば、ロボット12がたとえば搬送ロボットや搭乗型ロボットのように目的地に向かうことが主目的のロボットである場合、他の人々の現在の位置や移動速度から、なるべく他人の移動に干渉しないような移動経路を計算する処理を行う。また、ロボット12が人々にサービス提供することが目的のロボットである場合には、たとえば、ロボットに興味がありそうな人に接近するために、単純な場合では、ロボットの近傍で止まっている人を選択して、その人に向かって進む、また、人々が集まりがちな場所を選んでそのような場所でやってくる人を待ち受ける、また、混雑を起こさないように過度に人々が通る場所には近づかないようにする、といった処理を行ったりする。 As for the behavior of the robot, for example, if the robot 12 is a robot whose main purpose is to go to a destination, such as a carrier robot or a boarding robot, the current positions and movement speeds of other people can be used as much as possible. Perform processing to calculate a movement route that does not interfere with movement. In addition, when the robot 12 is a robot whose purpose is to provide services to people, for example, in order to approach a person who is likely to be interested in the robot, in a simple case, a person standing near the robot choose a place where people tend to gather and wait for the person who comes, and do not approach a place where people pass excessively so as not to cause congestion. We also take steps to prevent it from happening.

ただし、ロボットの行動は、ステップS7で人エージェントの次のステップでの行動を決定しているので、それを考慮して、上述の処理を実行する。そのため、人と共存する実空間で活動するロボットアプリケーションプログラムの当否を、仮想シミュレーション空間内で判断することができる。 However, since the action of the robot determines the action of the human agent in the next step in step S7, the above process is executed in consideration of that. Therefore, it is possible to judge the suitability of a robot application program that operates in a real space coexisting with people in the virtual simulation space.

その後ステップS11で、コンピュータすなわち物理エンジン28において、各エージェントの行動を実現する。詳しくいうと、ステップS11では、先に説明したように、各エージェント(ロボット含む)が意図した動きを仮想シミュレーション空間22内で実施する処理が行われ、他の障害物、構造物や他のエージェントとの干渉が何もなければ、各エージェントは意図したとおりに動く。たとえば、エージェントが1歩前進しようとした場合、その意図通り、エージェントが1歩前進する。 Then, in step S11, the computer, that is, the physics engine 28 implements the actions of each agent. More specifically, in step S11, as described above, each agent (including robots) performs the intended movement within the virtual simulation space 22. Each agent behaves as intended if there is no interference with For example, if the agent tries to take one step forward, the agent takes one step forward as intended.

ところが、干渉がある場合、物理学法則(力学法則)に従って各エージェントの実際の動きが処理される。単純な場合、たとえば壁に向かって進もうとすると、壁に衝突し、それ以上前進できないし、一定の反発係数に従って反力を受ける。エージェント同士の衝突の場合、前進する動きと、反力による移動が重なり合って、たとえば、単純な例を考えると、前進中にたとえば側方から衝突すると、斜め前方へと実際には動くことになる。 However, in the presence of interference, the actual movement of each agent is processed according to the laws of physics (laws of mechanics). In a simple case, for example, if you try to move towards a wall, you will hit the wall, you will not be able to move further, and you will receive a reaction force according to a certain coefficient of restitution. In the case of a collision between agents, the forward movement and the movement due to the reaction force overlap, and for example, if we consider a simple example, if the agent collides from the side while moving forward, it will actually move diagonally forward. .

次のステップS13で、環境データやセンサデータなどを更新する。 In the next step S13, environmental data, sensor data, etc. are updated.

ステップS15では、シミュレーション1ステップの実行周期を計測するために、実行完了時間time_eとして現在のシステム時刻を、たとえばシミュレーション装置16のメモリ(図示せず)に、記憶する。 In step S15, the current system time is stored, for example, in the memory (not shown) of the simulation device 16 as the execution completion time time_e in order to measure the execution period of the simulation 1 step.

さらに、ステップS17で、実行速度に応じて、シミュレーション装置16をスリープさせる。ただし、そのスリープ時間は、後に図11を参照して詳細に説明する。 Furthermore, in step S17, the simulation device 16 is put to sleep according to the execution speed. However, the sleep time will be described later in detail with reference to FIG.

そして、ステップS19でシミュレーションを終了するかどうか判断し、シミュレーションを続行するなら再び先のステップS3に戻り、たとえば行動決定プログラムが終了するなどした場合“YES”が判断され、シミュレーションを終了する。 Then, in step S19, it is determined whether or not to end the simulation, and if the simulation is to be continued, the process returns to the previous step S3.

このように、シミュレーション装置16においてオブジェクティブモデル116に従ってロボットの周囲の人の行動を再現するようにシミュレーションを行い、その状態をディスプレイ105(図1)で確認することにより、ロボットの行動をシミュレーションできるので、ロボットを実空間で実際に動かすことなく、人と共存する実空間で活動するロボットアプリケーションプログラム18の開発を効率的に行うことができる。 In this way, the simulator 16 performs a simulation to reproduce the behavior of people around the robot according to the objective model 116, and by confirming the state on the display 105 (FIG. 1), the behavior of the robot can be simulated. Therefore, it is possible to efficiently develop a robot application program 18 that works in a real space coexisting with people without actually moving the robot in the real space.

上述のシミュレーション動作において、ロボットアプリケーションプログラム18の1ステップのシミュレーションを実行する実行速度sは、一定かつ高速であり、先に説明した瞬間的なバグの再現や検証は困難である。そこで、この実施例では、実行速度sを変更可能にすることによって、たとえば、バグが生じやすい状況でのみシミュレーションを低速で実行することで、プログラムとシミュレートされた状況を同時に視認できるようにし、問題の理解を促進し、効率的なデバッグを可能にする。 In the simulation operation described above, the execution speed s for executing the one-step simulation of the robot application program 18 is constant and high, making it difficult to reproduce and verify the instantaneous bugs described above. Therefore, in this embodiment, by making the execution speed s changeable, for example, the simulation is executed at a low speed only in situations where bugs are likely to occur, so that the program and the simulated situation can be viewed at the same time. Facilitate problem understanding and enable efficient debugging.

図11はこのような実施例の動作を示すフロー図であり、この図11の最初のステップS21では、コンピュータは、オペレータが設定(入力)した、希望実行速度s’を読み取る。 FIG. 11 is a flow chart showing the operation of such an embodiment, and in the first step S21 of FIG. 11, the computer reads the desired execution speed s' set (input) by the operator.

たとえば、図12に示すような入力部111を有するユーザインタフェース109をディスプレイ105に表示する。オペレータは、入力部111に希望実行速度s’を入力する。たとえば、その入力部111にプルダウンメニューを設定し、希望実行速度s’として、たとえば「2」、「3」、「4」、「5」、…のどれかの数値が設定できるようにしておけばよい。あるいは、入力装置107で入力部111に直接数値を入力するようにしてもよい。 For example, a user interface 109 having an input section 111 as shown in FIG. 12 is displayed on the display 105 . The operator inputs the desired execution speed s′ to the input unit 111 . For example, a pull-down menu should be set in the input section 111 so that any numerical value such as "2", "3", "4", "5", . . . can be set as the desired execution speed s'. Just do it. Alternatively, numerical values may be directly input to the input unit 111 using the input device 107 .

なお、このユーザインタフェース109には、さらに、現在の実行速度sと、適用(apply)ボタン113が表示されている。入力部111に希望実行速度s’を入力した後に、この適用ボタン113を操作すると、ステップS21での希望実行速度s’の読取りが可能になる。 The user interface 109 also displays the current execution speed s and an apply button 113 . When the apply button 113 is operated after inputting the desired execution speed s' into the input unit 111, the desired execution speed s' can be read in step S21.

そして、ステップS23で、ステップS21で読み取った希望実行速度s’を、実行速度sとして設定する。 Then, in step S23, the desired execution speed s' read in step S21 is set as the execution speed s.

ステップS25では、コンピュータは、図10を実行する際にコンピュータのメモリに記憶した、実行開始時間time_sとステップS15で記憶した実行完了時間time_eに基づいて、基本実行時間t(=time_e-time_s)を取得する。 In step S25, the computer calculates the basic execution time t (=time_e-time_s) based on the execution start time time_s stored in the memory of the computer when executing FIG. 10 and the execution completion time time_e stored in step S15. get.

次のステップS27で、コンピュータは、希望実行周期pを計算する(p=s×1/fps)。上述のように、ステップS21での初期設定で理想実行ステップ数fpsが「30.0」として設定されているので、先のステップS23で希望実行速度s’をたとえば「3」と設定したときには、希望実行周期pは、3/30.0(=0.1)秒となる。つまり、初期設定による基本実行周期0.033秒に比べて、実行周期が3倍にされる。実行周期が3倍ということは、1ステップ当たりの実行時間が1/3に減速されたことを意味する。この意味で、希望実行速度s’は、減速倍率ということもできる。 At the next step S27, the computer calculates the desired execution period p (p=s.times.1/fps). As described above, the ideal execution step number fps is set to "30.0" in the initial setting in step S21. The desired execution period p is 3/30.0 (=0.1) seconds. In other words, the execution cycle is tripled compared to the default basic execution cycle of 0.033 seconds. Triple the execution period means that the execution time per step is reduced to 1/3. In this sense, the desired execution speed s' can also be called a deceleration factor.

ステップS29では、コンピュータは、その希望実行周期pによってシミュレーションが実行可能かどうか判断する。具体的には、希望実行周期pが基本実行時間t秒(ステップS25)より大きいかどうか(t<p?)を判断する。 At step S29, the computer determines whether or not the simulation can be executed with the desired execution period p. Specifically, it is determined whether or not the desired execution cycle p is greater than the basic execution time t seconds (step S25) (t<p?).

“YES”の場合、すなわち、t<pの場合、コンピュータは、ステップS31で、スリープ時間(p-t)秒を計算し、リターンする。そのスリープ時間に基づいて、先の図10のステップS17において、コンピュータは、シミュレーションをスリープさせる。つまり、このスリープ時間(p-t)だけ、当該ステップのシミュレーションが止まるため、結果的にシミュレーションの実行速度が減速される。そのため、バグが生じやすい状況でのみこのような減速(低速)シミュレーションを実行することで、プログラムとシミュレートされた状況を同時にディスプレイ105で視認することで、問題の理解を促進し、効率的なデバッグを実現することができる。 If "YES", ie, t<p, the computer calculates the sleep time (p−t) seconds in step S31 and returns. Based on the sleep time, the computer puts the simulation to sleep in step S17 of FIG. That is, the simulation of the step is stopped for the sleep time (pt), resulting in a reduction in the execution speed of the simulation. Therefore, by performing such a slowdown (slow) simulation only in bug-prone situations, viewing the program and the simulated situation simultaneously on the display 105 facilitates understanding of the problem and leads to efficient execution. Debugging can be realized.

上で挙げた例でいえば、基本実行時間tが0.01秒であったとすると、スリープ時間は0.1-0.01=0.09秒となり、シミュレーションの次のステップが実行されるまで、0.09秒スリープされる。 In the example given above, if the base execution time t was 0.01 seconds, the sleep time would be 0.1 - 0.01 = 0.09 seconds until the next step of the simulation is executed. , is slept for 0.09 seconds.

ただし、ステップS29で“NO”が判断されたとき、ステップS33で、実行速度sおよび実行周期pを、それぞれ、実行可能な値、s=fps*tおよびp=tとして設定する。 However, when "NO" is determined in step S29, in step S33, the execution speed s and the execution period p are set as executable values, s=fps*t and p=t, respectively.

この実施例では、実行速度を遅くする他、実行速度を早くすることも想定していて、ステップS33は、実行速度を早くするとき(高速化しすぎた場合)を想定した処理を意味する。 In this embodiment, in addition to slowing down the execution speed, it is also assumed to speed up the execution speed, and step S33 means processing assuming that the execution speed is increased (too fast).

シミュレーション装置16内で,3次元モデルの位置変更や、センサプロセスのシミュレーションを行った場合、シミュレーションの最大速度を無限大まで上げることはできず、どうしても、最大速度に限界がある。つまり、図11のステップS33では、最大速度での実行時間を基本実行時間tに制限するために、周期pにtを代入することで、スリープをしないように設定している。そのために、実行速度s=fps×tとし、ステップS27で計算する周期をtとするようにした。したがって、ステップS31で計算されるスリープ時間は「0」(ゼロ)となり、この場合のステップS17(図10)ではスリープされない。 When the position of the three-dimensional model is changed or the sensor process is simulated in the simulation device 16, the maximum speed of the simulation cannot be increased to infinity, and there is a limit to the maximum speed. That is, in step S33 of FIG. 11, in order to limit the execution time at the maximum speed to the basic execution time t, by substituting t for the period p, it is set so as not to sleep. Therefore, the execution speed is set to s=fps×t, and the cycle calculated in step S27 is set to t. Therefore, the sleep time calculated in step S31 is "0" (zero), and sleep is not performed in step S17 (FIG. 10) in this case.

このように、この実施例において、低速実行を必要としないステップは、基本実行周期でシミュレートされる。 Thus, in this embodiment, steps that do not require slow execution are simulated with a basic execution cycle.

なお、実施例で説明した具体的な数値は単なる例示であり、これらに限定されるものではなく、さらに適宜変更可能である。 It should be noted that the specific numerical values described in the examples are merely examples, and are not limited to these, and can be changed as appropriate.

10 …シミュレーションシステム
12 …ロボット
14 …操作装置
16 …シミュレーション装置
18 …ロボットアプリケーションプログラム
22 …仮想シミュレーション空間
24 …ロボットシミュレータ
26 …人シミュレータ
28 …物理エンジン
105…ディスプレイ
107…入力装置
109…ユーザインタフェース
111…入力部
10 ... simulation system 12 ... robot 14 ... operation device 16 ... simulation device 18 ... robot application program 22 ... virtual simulation space 24 ... robot simulator 26 ... human simulator 28 ... physics engine 105 ... display 107 ... input device 109 ... user interface 111 ... Input section

Claims (4)

シミュレーションの1ステップの希望実行速度を手動的に設定できるユーザインタフェースを有し、仮想シミュレーション空間に投入したロボットエージェントおよび人エージェントの行動をシミュレーションし、その仮想シミュレーション空間をディスプレイに表示するシミュレーションシステムであって、
前記ユーザインタフェースで設定された希望実行速度を取得する希望実行速度取得手段、
シミュレーションの開始時刻および終了時刻に基づく基本実行時間を取得する基本実行時間取得手段、
前記希望実行速度に応じて希望実行周期を計算する希望実行周期計算手段、
前記基本実行時間と前記希望実行周期を比較してその希望実行周期によってシミュレーションが実行可能かどうか判断する判断手段、および
前記判断手段が実行可能と判断したとき、前記基本実行時間と前記希望実行周期に基づくスリープ時間だけスリープさせるスリープ手段を備える、シミュレーション装置
A simulation system that has a user interface that can manually set a desired execution speed for one step of simulation, simulates the behavior of a robot agent and a human agent that are put into a virtual simulation space, and displays the virtual simulation space on a display. hand,
Desired execution speed acquisition means for acquiring a desired execution speed set by the user interface;
basic execution time acquisition means for acquiring basic execution time based on simulation start time and end time;
Desired execution cycle calculation means for calculating a desired execution cycle according to the desired execution speed;
determining means for comparing the basic execution time and the desired execution cycle to determine whether or not the simulation can be executed with the desired execution cycle;
A simulation apparatus comprising sleep means for causing sleep for a sleep time based on the basic execution time and the desired execution cycle when the judgment means judges that the simulation is executable.
前記希望実行周期および前記基本実行時間の差に従って前記スリープ時間を計算するスリープ時間計算手段をさらに備え、
前記スリープ手段は前記スリープ時間計算手段が計算した前記スリープ時間だけスリープさせる、請求項1記載のシミュレーション装置
further comprising sleep time calculation means for calculating the sleep time according to the difference between the desired execution cycle and the basic execution time;
2. The simulation apparatus according to claim 1 , wherein said sleep means causes sleep for said sleep time calculated by said sleep time calculation means .
前記判断手段が実行可能と判断しなかったとき、前記希望実行周期を含むパラメータを実行可能なパラメータに変更するパラメータ変更手段をさらに備える、請求項1または2記載のシミュレーション装置3. The simulation apparatus according to claim 1, further comprising parameter changing means for changing parameters including said desired execution period to executable parameters when said determining means determines that said execution is not executable. シミュレーションの1ステップの希望実行速度を手動的に設定できるユーザインタフェースを有し、仮想シミュレーション空間に投入したロボットエージェントおよび人エージェントの行動をシミュレーションし、その仮想シミュレーション空間をディスプレイに表示するシミュレーション装置のプログラムであって、A program for a simulation device that has a user interface that can manually set the desired execution speed for one step of simulation, simulates the actions of a robot agent and a human agent put into a virtual simulation space, and displays the virtual simulation space on a display. and
前記プログラムは前記シミュレーション装置のコンピュータを、The program causes the computer of the simulation device to
前記ユーザインタフェースで設定された希望実行速度を取得する希望実行速度取得手段、Desired execution speed acquisition means for acquiring a desired execution speed set by the user interface;
シミュレーションの開始時刻および終了時刻に基づく基本実行時間を取得する基本実行時間取得手段、basic execution time acquisition means for acquiring basic execution time based on simulation start time and end time;
前記希望実行速度に応じて希望実行周期を計算する希望実行周期計算手段、Desired execution cycle calculation means for calculating a desired execution cycle according to the desired execution speed;
前記基本実行時間と前記希望実行周期を比較してその希望実行周期によってシミュレーションが実行可能かどうか判断する判断手段、およびdetermining means for comparing the basic execution time and the desired execution cycle to determine whether or not the simulation can be executed with the desired execution cycle;
前記判断手段が実行可能と判断したとき、前記基本実行時間と前記希望実行周期に基づくスリープ時間だけスリープさせるスリープ手段として機能させる、シミュレーションプログラム。A simulation program that functions as a sleep means that sleeps for a sleep time based on the basic execution time and the desired execution cycle when the determination means determines that the execution is possible.
JP2019061097A 2019-03-27 2019-03-27 Simulation device and program Active JP7335084B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019061097A JP7335084B2 (en) 2019-03-27 2019-03-27 Simulation device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019061097A JP7335084B2 (en) 2019-03-27 2019-03-27 Simulation device and program

Publications (2)

Publication Number Publication Date
JP2020157442A JP2020157442A (en) 2020-10-01
JP7335084B2 true JP7335084B2 (en) 2023-08-29

Family

ID=72641056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019061097A Active JP7335084B2 (en) 2019-03-27 2019-03-27 Simulation device and program

Country Status (1)

Country Link
JP (1) JP7335084B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113814981B (en) * 2021-10-18 2023-06-20 北京云迹科技股份有限公司 Robot operation method, device, storage medium and robot
WO2024019107A1 (en) * 2022-07-22 2024-01-25 ソニーグループ株式会社 Multiple-robot control method, multiple-robot control device, and multiple-robot control system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5290119B2 (en) 2009-10-16 2013-09-18 株式会社エヌ・ティ・ティ・ドコモ Service providing system and service providing method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05290119A (en) * 1992-04-08 1993-11-05 Matsushita Electric Ind Co Ltd Function and logic simulator
JP6809705B2 (en) * 2016-12-08 2021-01-06 株式会社国際電気通信基礎技術研究所 Simulation system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5290119B2 (en) 2009-10-16 2013-09-18 株式会社エヌ・ティ・ティ・ドコモ Service providing system and service providing method

Also Published As

Publication number Publication date
JP2020157442A (en) 2020-10-01

Similar Documents

Publication Publication Date Title
JP6809705B2 (en) Simulation system
JP6793905B2 (en) Robot behavior simulation device
CN107671857B (en) Three-dimensional simulation platform for operation demonstration and algorithm verification of service robot
CN106313049B (en) A kind of apery mechanical arm motion sensing control system and control method
JP5318623B2 (en) Remote control device and remote control program
EP3547267A1 (en) Robot control system, machine control system, robot control method, machine control method, and recording medium
KR101982420B1 (en) Collision detection
WO2015191910A1 (en) System and method for reinforcing programming education through robotic feedback
JP7335084B2 (en) Simulation device and program
JP2012171024A (en) Robot system
CN109972674B (en) Unmanned excavation system and method under complex construction environment based on natural interaction
WO2017141891A1 (en) Simulation system and game system
Koestler et al. Mobile robot simulation with realistic error models
JP2017170568A (en) Service providing robot system
Das et al. GeroSim: A simulation framework for gesture driven robotic arm control using Intel RealSense
Shindev et al. Exploration of intention expression for robots
JP6142307B2 (en) Attention target estimation system, robot and control program
Akahane et al. Two-handed multi-finger string-based haptic interface SPIDAR-8
JP7258426B2 (en) Simulation system, simulation program and learning device
JP6142306B2 (en) Robot control system, robot, output control program, and output control method
JP6925013B2 (en) Simulation system
JP6908257B2 (en) Robots and robot control programs
US20230100973A1 (en) Human eyes design: first person vr characters for testing inclusive design solutions
JP6841473B2 (en) Guidance robot
WO2022255206A1 (en) Information processing apparatus, information processing method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230817

R150 Certificate of patent or registration of utility model

Ref document number: 7335084

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150