JP7234724B2 - ロボットおよび制御システム - Google Patents

ロボットおよび制御システム Download PDF

Info

Publication number
JP7234724B2
JP7234724B2 JP2019053390A JP2019053390A JP7234724B2 JP 7234724 B2 JP7234724 B2 JP 7234724B2 JP 2019053390 A JP2019053390 A JP 2019053390A JP 2019053390 A JP2019053390 A JP 2019053390A JP 7234724 B2 JP7234724 B2 JP 7234724B2
Authority
JP
Japan
Prior art keywords
robot
moving image
movement
operation instruction
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019053390A
Other languages
English (en)
Other versions
JP2020154811A (ja
Inventor
史紘 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2019053390A priority Critical patent/JP7234724B2/ja
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to EP20711345.7A priority patent/EP3941691A1/en
Priority to PCT/JP2020/008538 priority patent/WO2020189230A1/en
Priority to CN202080021935.1A priority patent/CN113597363B/zh
Priority to US17/434,760 priority patent/US11981036B2/en
Publication of JP2020154811A publication Critical patent/JP2020154811A/ja
Priority to JP2023026247A priority patent/JP7392880B2/ja
Application granted granted Critical
Publication of JP7234724B2 publication Critical patent/JP7234724B2/ja
Priority to JP2023197254A priority patent/JP2024012660A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40146Telepresence, teletaction, sensor feedback from slave to operator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40151Time delay, problems caused by time delay between local and remote

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Description

本発明は、ロボットおよび制御システムに関する。
テレプレゼンス・ロボットと呼ばれる、遠隔からネットワークを経由して操作されるロボットが既に知られている。
このようなロボットにおいては、ネットワークを介するために、データの送受信に伴う遅延が生じることは避けられない。また、操作者が遠隔操作を行う場合には、ロボットが撮影しているリアルタイムの動画像と、操作者が移動指示のための手がかりとして見ている動画像とが遅延によって乖離してしまい、誤操作の原因となることが懸念されている。
また、ロボットに自律的に判断させた上で自動的に動作させるようなロボットも知られている。
しかしながら、このような自律型のロボットでは、操作者からの操作を受け入れる余地が少なく、「操作者が遠隔地の行きたいところへ、操作者自身の意思で操作しながら動作する」というテレプレゼンス・ロボットの特徴が失われてしまうという問題が生じてしまう。
本発明は、以上のような問題点に鑑みてなされたものであり、操作性を維持しながらもネットワーク時差による誤操作の低減を両立可能なロボットの提供を目的とする。
上述した課題を解決するため、本発明のロボットは、周囲の環境を動画像として撮影可能な動画像取得手段と、前記操作指示を受信するための受信部と、前記受信部が受け取った前記操作指示に基づいて当該ロボットの移動目的地を推定する移動目的地推定部と、前記操作指示による前記移動目的地までの移動を、前記操作指示を受信した時点における動画像から得られた前記環境の情報に基づいて自発的に補正する自律制御部と、を有することを特徴とする。
本発明によれば、操作性を維持しながらもネットワーク時差による誤操作の低減を両立可能である。
本発明の実施形態に係るテレプレゼンス・ロボットの制御システムの全体構成の一例を示す図である。 図1に示した移動指示部の構成の一例を示すブロック図である。 図1に示した制御システムの構成の一例を示すブロック図である。 ネットワーク遅延とロボットの取得する動画像と操作指示との遅延関係の一例を示す図である。 図4に示した遅延関係に本実施形態における自律制御を加えた場合の一例を示す図である。 本発明における自律制御部の動作の第1例を示す図である。 本発明における制御システムの制御動作の一例を示す図である。 本発明における自律制御部の動作の第2例を示す図である。 本発明における自律制御部の動作の第3例を示す図である。 本発明における自律制御部の動作の第4例を示す図である。
本発明の実施形態の一例として図1に、操作者Pが操作部10を用いてネットワーク9を介して操作する遠隔操作ロボットたるテレプレゼンス・ロボットTRの制御システム100の全体構成の概念図を示す。
テレプレゼンス・ロボットTRは、動画像取得手段たるカメラ20と、移動可能なように車輪あるいは無端ベルト等を用いて構成された移動部21と、操作部10からの操作指示を受信するための受信部22と、受信部22が受け取った操作指示に基づいてテレプレゼンス・ロボットTRの各部位を制御するための制御部30と、を有している。
操作部10は、操作者Pが操作するために参照する画像あるいは動画を表示する動画像表示部11と、図2に示すような移動方向を指示する複数のボタンを備える移動指示部12と、を有している。
操作部10は、テレプレゼンス・ロボットTRと無線あるいは有線のネットワーク9を介して通信し、データの送受信を行っている。
具体的には、テレプレゼンス・ロボットTRがカメラ20で撮影した動画像が動画像表示部11へと送信され、操作者Pが動画像表示部11を見ながら移動指示部12を用いて行った操作指示がテレプレゼンス・ロボットTRの受信部22へと送信される。
移動指示部12は、例えば前進指示ボタン12a、右折指示ボタン12b、後退指示ボタン12c、左折指示ボタン12d、の4つを備えた移動方向指示部としての機能を有している。
なお、本実施形態では、受信部22を制御部30とは分けて表記しているが、制御部30の中の一機能として受信部22を設けるとしても良く、かかる構成には限定されるものではない。
制御部30は、図3に示すように、受信部22が受け取った操作指示に基づいてテレプレゼンス・ロボットTRの移動目的地を推定する移動目的地推定部31と、操作指示による移動目的地までの移動を、周囲の環境の情報に基づいて自発的に補正する自律制御部32と、を有している。
制御部30はまた、後述するようにカメラ20から動画像が取得されてから、受信部22に当該動画像に基づいた操作者Pの操作指示が受信されるまでの時間である遅延時間tdを測定するための遅延測定部33を有している。
移動目的地推定部31は、受信部22から受け取った操作指示に基づいて、前後左右の何れの方向に移動するかを判断するとともに、後述するように仮の移動目的地Qを推定する。
自律制御部32は、移動目的地推定部31が推定した移動目的地Qと、移動目的地Qまでの移動をカメラ20から得られた周囲の環境の情報とに基づいて、移動部21の移動を制御する。
遅延測定部33は、例えば後述する動画像フレームF1を操作部10へ送信するときに、タイムスタンプ付きの動画像を送信し、操作部10がかかるタイムスタンプ付き動画像を受信した時間との時間差を計測することで、遅延時間を測定する。なお、このような遅延時間の測定は一例に過ぎず、例えばネットワーク9を往復するようなデータを送受信し、送受信に要した時間から計測するものであってもよいし、その他既知のネットワーク上の遅延を計測可能な手段であれば良い。
さて、このような制御システム100を用いる場合は、ネットワーク9の送受信にかかる時間によって、図4に示すようにカメラ20の取得する動画像のフレームと、送受信によって遅延して動画像表示部11に表示される動画像のフレームと、が動画像送受信時間t1だけ遅延するという問題が生じてしまう。
さらに、テレプレゼンス・ロボットTRの受信部22までに操作者Pの操作指示が伝わるまでの時間は、動画像送受信時間t1と、操作者Pが動画像を見てから実際に移動指示部12を用いて操作指示を行うまでの時間である操作判断時間t2と、操作部10から操作指示が受信部22まで届く時間である操作指示送受信時間t3と、の合計である遅延時間tdだけ遅れることとなってしまう。
すなわち、テレプレゼンス・ロボットTRを操作者Pが遠隔から操作しようとすると、図4に示したように、カメラ20によって撮影された動画像のフレームと実際に操作指示を受信して移動を開始するまでの間に、遅延時間td以上の遅延が必ず生じてしまうこととなる。なお、一般的な現在のネットワーク9を用いると、凡そtd=0.3秒~0.4秒程度の遅延が生じることが知られている。
つまり、操作者Pが動画像表示部11に表示されたフレームF1を見て操作指示を送信し、テレプレゼンス・ロボットTRが実際に動作するとき、実際の周囲の環境を表すカメラ20に取得されたフレームF13とは状況が異なる場合が多々あり、カメラ20に取得されたフレームF13におけるテレプレゼンス・ロボットTRの周辺環境に対しては好ましくないような操作指示が成されてしまうことが有り得る。
かかる遅延時間tdは、テレプレゼンス・ロボットTRを遠隔操作する上では0にすることは出来ない上に、テレプレゼンス・ロボットTRを操作する上で、例えば進むべき通路を通り過ぎてしまったり、あるいは急に人や物が障害物として進路上に出てきたときに衝突してしまうなど、意図しない事故や故障の原因になり得てしまう。
また、このような問題を解決するために、操作することなくロボット自体に進路を決定させる方法が考えられるが、単にプログラミングされた自律制御による移動では、操作者Pが思うように動かせないため、例えば任意の場所の見回りを遠隔で行う等の業務が正しく行い難いという問題がある。
本発明は、かかる問題を解決するべく、操作指示による移動目的地Qまでの移動を、カメラ20から得られた動画像に基づいて自発的に補正する自律制御部32を有している。
制御部30はまた、後述するようにカメラ20から動画像が取得されてから、受信部22に当該動画像に基づいた操作者Pの操作指示が受信されるまでの時間である遅延時間tdを測定するための遅延測定部33を有している。
かかる自律制御部32の動作について図5~図7を用いて詳しく説明する。
まず、操作者Pが動画像表示部11の動画像を見て実際に操作指示を出すまでの間には、図4に示した遅延時間tdと同じだけ遅延するとする。
自律制御部32は、受信部22が操作指示Aを受信したタイミングにおけるカメラ20の動画像フレーム(図5では特にフレームF13)を元に、操作指示AをフレームF13に基づいて補正した自律操作13Aを移動部21に指示する。なお、例えば以降に操作指示B~Rを受信した場合にも、図5の通り操作指示B~Rを受信したタイミングにおけるカメラ20の動画像フレーム(F14~F25)を元に自律操作14B~25Mを順次実行する。
このように、動画像フレームF1に基づいて行われた操作指示Aを動画像フレームF13に基づいて補正することによって、自律操作13Aを行うことにより、動画像フレームF1のみに基づいて行われた移動制御Aに直接従った移動を行うよりも最新の動画像フレームF13によって得られた周辺の環境を考慮した精度の良い制御を行うことができる。
また、単に移動制御Aを行う場合に比べて、遅延時間tdの分だけ後の動画像フレームを用いて補正を行うため、遅延時間を考慮した制御を行うことができる。
なお、移動目的地Qまでの移動を行う際の補正は、例えば遅延時間tdに応じて変動するとしても良い。あるいは、遅延時間tdが十分に小さいとみなせるときには、かかる補正値を0として、操作者Pによる指示をそのままテレプレゼンス・ロボットTRが実行するとしても良い。
具体的に、図6(a)に示すような動画像フレームF1が得られたときに、操作者Pが移動指示部12の前方に進むことを意味する前進指示ボタン12aを押下した場合の動作について述べる。
カメラ20が動画像フレームF1を取得すると、テレプレゼンス・ロボットTRが動画像フレームF1を動画像表示部11へと送信する(ステップS101)。
操作者Pは、受信した動画像フレームF1に基づいて、直進したい旨の操作を行うとして移動指示部12の前進指示ボタン12aを押下する(ステップS102)。
受信部22は、かかる前進指示ボタン12aの押下を操作指示として受信する(ステップS103)。
移動目的地推定部31は、受信部22がかかる操作指示を受信すると、移動指示部12の押されたボタンに従って、操作者Pがテレプレゼンス・ロボットTRを動かしたいであろう方向を推定する(ステップS104)。
移動目的地推定部31は、カメラ20によって、操作指示の受信時に取得された図6(b)に示すような動画像のフレームF13から予め設定されたあるいは画像認識等によって区別された進行可能な通路41と、進行不可能な領域外部としての通路外42と、を元に、通路41に沿った方向のうち、前方に相当する方向に移動目的地Qを推定する(ステップS105)。
このとき、図6(b)から明らかなように、押下されたのは前進指示ボタン12aであるが、実際には通路41が左前方に緩やかに曲がっているので、自律制御部32は、動画像フレームF13を元に、前進指示ボタン12aと指示された「前方」への移動を、「左斜め前方」の移動目的地Qへの移動と推定している。
さらに、移動目的地Qが推定されると、かかる移動目的地Qに向かって、自律制御部32が通路41の曲率に沿って移動部21を制御して自律操作13Aによる移動を行う(ステップS106)。
このように、自律制御部32は、受信部22が操作指示を受信したときの動画像フレームF13に基づいて補正を行うことで、移動目的地Qへの移動を行う。
このとき自律制御部32の自律操作13Aは、テレプレゼンス・ロボットTRが移動指示「なし」(ボタンが押下されないまたは新たな操作指示がない)を受信した場合において、推定された移動目的地Qに向かって移動をし続けることが望ましい(ステップS107)。
また、新たな操作指示がない場合には、さらに所定時間以上操作指示がない状態が継続したかどうかについて判定を行う(ステップS108)。
本実施形態において、自律制御部32は、移動目的地Qまでの移動の過程において、所定時間以内だけ操作指示が受信されなくなった場合には移動目的地Qに向かって移動を継続する。
このように、移動指示が無い場合にも、所定時間だけ前の移動目的地Qに向かって移動を行い続けるようにすることで、ネットワーク9の瞬断等の意図しない移動指示の途絶が生じたときにも、移動を継続することでネットワーク9が復帰した時に不都合なく操作を継続することができる。
また、所定時間以上操作指示が停止した際には(ステップS108でYes)テレプレゼンス・ロボットTRの移動を中止するとしても良い(ステップS109)。
このように、操作指示が所定時間以上受信されなくなった場合には停止するように制御することで、ネットワーク9の瞬断ではなく、本格的なネットワーク9の断絶が生じてしまった場合にも、衝突等の事故を未然に防ぐことができる。
さらに、ステップS106において自律操作13Aに基づいて移動を行う際には、操作者Pがかかる移動方向を正確に把握できるように、動画像表示部11に動画像フレームF13を送信する際には、移動目的地Qと自律操作13Aが描くであろう軌道の予測を図6(b)に一点鎖線で示すように表示するとしても良い。
このように、予測される移動方向を表示することで、操作者Pは自身が行った移動操作が正しくテレプレゼンス・ロボットTRに伝わっているかどうかを確認しながら操作することができて、より操作指示の精度向上に寄与する。
また、本実施形態においては、移動目的地Qを単に通路41上であることに基づいて推定したが、例えば移動目的地Qの推定の方法としては、屋内/屋外位置即位情報と遠隔地における地図情報とを紐づけして、地図情報に記載・事前に定義された複数の目的地候補から何れかを選択する方法を取っても良い。
あるいは、テレプレゼンス・ロボットTRに予め、図6(a)(b)に示したような「撮影された動画像」と、押下された「移動指示」と、操作者Pが実際に「移動したい位置(目的地)」と、を一組とした学習用データを収集し、機械学習によって自律制御部32に学習させるとしても良い。
このような機械学習による方法によれば、自律制御部32は、「移動指示」と「動画像」から得られる環境情報と、を入力することで、学習用データで入力された種々のパターンから、最適と思われる移動部21の操作を出力することができる。
また、学習用データを用意するのみならず、実際にテレプレゼンス・ロボットTRを繰り返し操作することで、カメラ20から得られる環境情報としての動画像データと、操作指示とを用いて環境学習させるとしても良い。
移動目的地推定部31と、自律制御部32とは、ステップS107において操作部10からの異なる操作指示を受信部22が受信すると、かかる操作指示に基づいて、繰り返しステップS101~ステップS108の動作を行うことで、継続して操作される。
また、テレプレゼンス・ロボットTRは、新たな操作指示が所定時間以上こない場合には、ステップS109に示したように停止する。
さて、かかる自律制御部32の異なる自律操作の例について、動画像の模式図と操作指示とを合わせて図8~図10に記載する。なお、本実施形態における自律操作13Aは、かかる操作に限定されるものではなく、一例として示すものに過ぎない。
図8には、通路41上に避けるべき障害物としての人物43が居たときの模式図を示す。
図8に示すような動画像フレームF13において、操作者Pが前進指示ボタン12aが押下したときには、移動目的地推定部31は、動画像フレームF13の人物43の手前を移動目的地Qと推定し、例え前進指示ボタン12aが押し続けられていたときにも、人物43の手前で停止する。
このように、前記操作指示を受信した時点における動画像である動画像フレームF13に基づいて人物43を把握することによって、テレプレゼンス・ロボットTRの移動方向に人物43が居る場合には、自律制御部32は移動を停止して人物43との衝突を避けるように自律操作を行う。
また、かかる自律操作は人物43以外にも、通路41上に何かしらの障害物があった場合に停止するような判断を行う場合にも適用可能である。
図9は、前進指示ボタン12aが押下されているために移動方向が不明確な場合を示す模式図である。
図9に示すような動画像フレームF13においては、前方方向には通路41が途切れており、突当りを左折するか右折するかの進行方向が不明確となっている。
かかる動画像フレームF13においては、移動目的地推定部31は、通路41の突端付近を移動目的地Qとして推定し、自律制御部32は移動部21に移動目的地Qに向かって移動した後停止するように指示する。
このように、T字路における左折・右折のようなどちらに移動するのが好ましいか不明確な場合には、自律制御部32は移動目的地Qに向かって移動した後、テレプレゼンス・ロボットTRを停止させる。
また、かかる場合には、操作者Pに動画像フレームF13を送信する際に、左折/右折の指示が必要な旨表示を出して、「操作者Pによる移動指示」の受信を待機し、移動指示Bを受信部22が受信したときに改めて左折/右折の制御を行うとして良い。
なお操作指示Bが行われた場合にも、自律制御部32が操作指示Bを受信部22が受信した時点におけるカメラ20から得られた動画像フレームF26を参照して、自律操作26Bとして移動部21に伝達する。
図10は、右折可能箇所44を通り過ぎた場合の自律移動制御の一例について示す図である。
図10(a)は動画像フレームF1の画像であり、動画像表示部11に表示されたかかる動画像フレームF1を見て操作者Pが右折可能箇所44を発見し、通過した後に移動指示部12の右折指示ボタン12bが押下された場合について考える。
既に述べたように、ネットワーク9の遅延時間tdにより、右折指示が受信部22に受信された時点の動画像フレームF13においては既にテレプレゼンス・ロボットTRは図10(b)に示すように右折可能箇所44を通りすぎてしまっている。
自律制御部32は、図10(a)に示した動画像フレームF1の時点において予め通路41に右折可能箇所があることを認識及び記憶しておく。
受信部22が右折指示を受信すると、移動目的地推定部31が移動目的地Qとして、右側方向に移動目的地Qをかりに設定する。
自律制御部32は、右折可能箇所44があったことを記憶してから遅延時間td以内に右折指示を受けとったときには、当該右折指示が、右折可能箇所44への右折であったと判断して、移動目的地Qを右折可能箇所44へと補正する。
すなわち自律制御部32は、右折可能箇所があったことと、図10(b)に示す動画像フレームF13から当該右折可能箇所を通り過ぎてしまったことと、の2つの環境の情報に基づいて、移動目的地Qを通路41の右折可能箇所44に補正した上で、図10(c)に示すように前方に移動し過ぎた距離だけ後方移動するように自律制御13Aを選択する。また、後方移動の終了後に当該右折指示のために右折するように自律制御26Nを行う。
このように、自律制御部32は、操作指示による移動目的地Qまでの移動を、動画像フレームF13から得られた環境の情報に基づいて自発的に補正する。
かかる構成により、操作者P自身による操作性を維持しながらもネットワーク時差による誤操作の低減を両立可能である。
以上本発明の好ましい実施の形態について説明したが、本発明はかかる特定の実施形態に限定されるものではなく、上述の説明で特に限定していない限り、特許請求の範囲に記載された本発明の趣旨の範囲内において、種々の変形・変更が可能である。
例えば、本実施形態では、テレプレゼンス・ロボットTRとして、移動部21が車輪あるいは無端状ベルトによって駆動されるようなロボットについて説明を行ったが、その他の駆動形態を有するロボットについて本発明を適用しても良い。
また本実施形態では、自律制御部32が移動目的地Qを補正する方法として、機械学習による制御を行う場合について述べたが、テレプレゼンス・ロボットTRが受信部22に移動指示を受けた時点における周囲の環境を考慮して補正する方法であれば、単純に遅延時間tdだけ所定の補正値を加算する等の方法であっても良い。
また、本実施形態では、移動目的地推定部31と自律制御部32とを別体の機能を有する制御部の一構成として記載したが、かかる構成に限定されるものではなく、自律制御部が移動目的地を推定する機能を有しているとしても良い。
本発明の実施の形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施の形態に記載されたものに限定されるものではない。
10 操作部
11 動画像表示部
12 移動指示部
20 動画像取得手段(カメラ)
21 移動部
22 受信部
30 制御部
31 移動目的地推定部
32 自律制御部
100 制御システム
TR ロボット(テレプレゼンス・ロボット)
P 操作者
Q 移動目的地
特開2017-102705号公報 特許第5503052号公報

Claims (8)

  1. ネットワークを介した操作者の操作指示に基づいて移動可能なロボットであって、
    当該ロボットの周囲の環境を動画像として撮影可能な動画像取得手段と、
    前記操作指示を受信するための受信部と、
    前記受信部が受け取った前記操作指示に基づいて当該ロボットの移動目的地を推定する移動目的地推定部と、
    前記操作指示による前記移動目的地までの移動を、前記操作指示を受信した時点における動画像から得られた前記環境の情報に基づいて自発的に補正する自律制御部と、を有することを特徴とするロボット。
  2. 請求項1に記載のロボットであって、
    前記移動目的地は、予め与えられた複数の候補地から選択可能であることを特徴とするロボット。
  3. 請求項1または2に記載のロボットであって、
    前記操作者に送信した動画像を撮影した時点と、前記操作指示を受信した時点と、の時間差を測定するための遅延測定手段を有し、
    前記自律制御部は、前記時間差の量に応じて前記補正の量を変化させることを特徴とするロボット。
  4. 請求項1乃至3の何れか1つに記載のロボットであって、
    前記自律制御部は、予め収集された前記動画像と、前記操作指示と、前記移動目的地とを一組としたデータセットに基づいて機械学習を行うことを特徴とするロボット。
  5. 請求項1乃至4の何れか1つに記載のロボットであって、
    前記自律制御部は、前記移動目的地までの移動の過程において、所定時間だけ前記操作指示が受信されなくなった場合には前記移動を継続することを特徴とするロボット。
  6. 請求項5に記載のロボットであって、
    前記操作指示が前記所定時間以上受信されなくなった場合には停止することを特徴とするロボット。
  7. 請求項1乃至6の何れか1つに記載のロボットであって、
    前記移動目的地推定部は、前記動画像から前記ロボットが移動可能な通路部と、前記ロボットが移動不可能な領域外部とを判別することを特徴とするロボット。
  8. 請求項1乃至7の何れか1つに記載のロボットと、
    前記操作者に前記動画像を表示するための表示手段と、を有し、
    前記動画像に前記自律制御部によって前記補正された移動の予測経路を付加して表示することを特徴とする制御システム。
JP2019053390A 2019-03-20 2019-03-20 ロボットおよび制御システム Active JP7234724B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2019053390A JP7234724B2 (ja) 2019-03-20 2019-03-20 ロボットおよび制御システム
PCT/JP2020/008538 WO2020189230A1 (en) 2019-03-20 2020-02-28 Robot and control system that can reduce the occurrence of incorrect operations due to a time difference in network
CN202080021935.1A CN113597363B (zh) 2019-03-20 2020-02-28 可以减少由于网络的时间差引起的误操作的机器人与控制***
US17/434,760 US11981036B2 (en) 2019-03-20 2020-02-28 Robot and control system
EP20711345.7A EP3941691A1 (en) 2019-03-20 2020-02-28 Robot and control system that can reduce the occurrence of incorrect operations due to a time difference in network
JP2023026247A JP7392880B2 (ja) 2019-03-20 2023-02-22 ロボットおよび制御システム
JP2023197254A JP2024012660A (ja) 2019-03-20 2023-11-21 ロボットおよび制御システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019053390A JP7234724B2 (ja) 2019-03-20 2019-03-20 ロボットおよび制御システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023026247A Division JP7392880B2 (ja) 2019-03-20 2023-02-22 ロボットおよび制御システム

Publications (2)

Publication Number Publication Date
JP2020154811A JP2020154811A (ja) 2020-09-24
JP7234724B2 true JP7234724B2 (ja) 2023-03-08

Family

ID=69811847

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019053390A Active JP7234724B2 (ja) 2019-03-20 2019-03-20 ロボットおよび制御システム
JP2023026247A Active JP7392880B2 (ja) 2019-03-20 2023-02-22 ロボットおよび制御システム
JP2023197254A Pending JP2024012660A (ja) 2019-03-20 2023-11-21 ロボットおよび制御システム

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2023026247A Active JP7392880B2 (ja) 2019-03-20 2023-02-22 ロボットおよび制御システム
JP2023197254A Pending JP2024012660A (ja) 2019-03-20 2023-11-21 ロボットおよび制御システム

Country Status (5)

Country Link
US (1) US11981036B2 (ja)
EP (1) EP3941691A1 (ja)
JP (3) JP7234724B2 (ja)
CN (1) CN113597363B (ja)
WO (1) WO2020189230A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018116385A (ja) 2017-01-17 2018-07-26 トヨタ自動車株式会社 遠隔操縦システム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS553052B2 (ja) 1973-08-13 1980-01-23
JPS602370Y2 (ja) 1978-06-23 1985-01-23 日立建機株式会社 遊星歯車式減速装置
JP3265007B2 (ja) 1992-10-16 2002-03-11 東海旅客鉄道株式会社 鉄道車両空気配管検査装置
JP5306566B2 (ja) 2000-05-01 2013-10-02 アイロボット コーポレーション 移動ロボットを遠隔操作するための方法およびシステム
US7596482B2 (en) 2006-05-25 2009-09-29 Dell Products L.P. System and method to analyze and determine ampacity risks on PCB interconnections
JP2007316966A (ja) * 2006-05-26 2007-12-06 Fujitsu Ltd 移動ロボット、その制御方法及びプログラム
CN1945351B (zh) * 2006-10-21 2010-06-02 中国科学院合肥物质科学研究院 一种机器人导航定位***及导航定位方法
WO2009091536A1 (en) * 2008-01-15 2009-07-23 Roy Sandberg Low latency navigation for visual mapping for a telepresence robot
US20110087371A1 (en) * 2008-06-05 2011-04-14 Roy Benjamin Sandberg Responsive control method and system for a telepresence robot
KR20120043865A (ko) 2010-10-27 2012-05-07 주식회사 케이티 이동통신 단말의 위치정보를 활용한 로봇 인터랙션 서비스 제공 시스템, 방법 및 장치
US9323250B2 (en) * 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
US8718837B2 (en) * 2011-01-28 2014-05-06 Intouch Technologies Interfacing with a mobile telepresence robot
JP5947644B2 (ja) * 2012-07-10 2016-07-06 株式会社Ihiエアロスペース 無人移動体システム
US9144907B2 (en) * 2013-10-24 2015-09-29 Harris Corporation Control synchronization for high-latency teleoperation
US9358685B2 (en) * 2014-02-03 2016-06-07 Brain Corporation Apparatus and methods for control of robot actions based on corrective user inputs
JP2017102705A (ja) 2015-12-02 2017-06-08 株式会社リコー 自律移動装置及び自律移動装置システム
CN107223200B (zh) * 2016-12-30 2023-02-28 达闼机器人股份有限公司 一种导航方法、装置及终端设备
JP6910023B2 (ja) * 2017-03-03 2021-07-28 株式会社Ihiエアロスペース 無人移動体の制御方法
JP7017025B2 (ja) * 2017-03-08 2022-02-08 日本電気株式会社 自律移動ロボット、自律移動ロボットの制御方法および制御プログラム
US11256261B1 (en) * 2018-10-16 2022-02-22 Amazon Technologies, Inc. System for movement of autonomous mobile device
US20210001487A1 (en) * 2019-07-03 2021-01-07 Ricoh Company, Ltd. Information processing apparatus, information processing method, and storage medium
US20220244726A1 (en) * 2019-07-03 2022-08-04 Sony Group Corporation Information processing apparatus, information processing method, and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018116385A (ja) 2017-01-17 2018-07-26 トヨタ自動車株式会社 遠隔操縦システム

Also Published As

Publication number Publication date
CN113597363A (zh) 2021-11-02
JP7392880B2 (ja) 2023-12-06
CN113597363B (zh) 2023-09-01
JP2023054258A (ja) 2023-04-13
US20220161437A1 (en) 2022-05-26
EP3941691A1 (en) 2022-01-26
WO2020189230A1 (en) 2020-09-24
JP2020154811A (ja) 2020-09-24
US11981036B2 (en) 2024-05-14
JP2024012660A (ja) 2024-01-30

Similar Documents

Publication Publication Date Title
US10773715B2 (en) Parking control method and parking control device
JP2019125354A (ja) 情報処理装置、システム、方法、およびプログラム
WO2017077621A1 (ja) 移動体移動システム及び移動経路選択方法
US11110600B2 (en) Airport robot and operation method thereof
TWI615301B (zh) 自動輔助駕駛系統及其方法
US20100174422A1 (en) Point And Go Navigation System And Method
JP2017022433A (ja) 遠隔操縦システム
JP7272825B2 (ja) ロボットシステム
US11513513B2 (en) Method for invoking a teleoperated driving session, apparatus for performing the steps of the method, vehicle and computer program
JP7234724B2 (ja) ロボットおよび制御システム
JP2018019182A (ja) 移動体の遠隔操縦システム
JP7052260B2 (ja) カメラ付き移動体、カメラ付き移動体制御システム、及びプログラム
JP4300060B2 (ja) 監視システム及び監視端末
KR102484773B1 (ko) 로봇 원격 제어 방법 및 시스템
KR20160006496A (ko) 로봇 제어 시스템
CN109129460B (zh) 机器人管理***
US10832178B2 (en) Vehicle boarding confirmation
JP2016173655A (ja) 移動体用制御システム及び移動体の制御方法
Kohana et al. Sphero control system using a web browser
KR102485644B1 (ko) 통신 지연에 강인한 로봇이 주행하는 건물
CN114677833B (zh) 车辆队列的控制方法、车辆队列和存储介质
CN116105761B (zh) 行驶路径的确定方法及装置、存储介质及电子装置
JP7258989B1 (ja) 移動装置、撮像装置、制御方法およびプログラム
JP7062743B2 (ja) ナビゲーション装置、通信装置、ナビゲーション方法、及びナビゲーションプログラム
US20230356754A1 (en) Control Mode Selection And Transitions

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230206

R151 Written notification of patent or utility model registration

Ref document number: 7234724

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151