JP7459253B2 - 撮像システム、ロボットシステム及び撮像システムの制御方法 - Google Patents

撮像システム、ロボットシステム及び撮像システムの制御方法 Download PDF

Info

Publication number
JP7459253B2
JP7459253B2 JP2022531837A JP2022531837A JP7459253B2 JP 7459253 B2 JP7459253 B2 JP 7459253B2 JP 2022531837 A JP2022531837 A JP 2022531837A JP 2022531837 A JP2022531837 A JP 2022531837A JP 7459253 B2 JP7459253 B2 JP 7459253B2
Authority
JP
Japan
Prior art keywords
orientation
end effector
imaging
robot
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022531837A
Other languages
English (en)
Other versions
JPWO2021256464A1 (ja
Inventor
雅幸 掃部
裕和 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Motors Ltd
Original Assignee
Kawasaki Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Jukogyo KK filed Critical Kawasaki Jukogyo KK
Publication of JPWO2021256464A1 publication Critical patent/JPWO2021256464A1/ja
Application granted granted Critical
Publication of JP7459253B2 publication Critical patent/JP7459253B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C13/00Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
    • B64C13/02Initiating means
    • B64C13/16Initiating means actuated automatically, e.g. responsive to gust detectors
    • B64C13/20Initiating means actuated automatically, e.g. responsive to gust detectors using radiated signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/106Change initiated in response to external conditions, e.g. avoidance of elevated terrain or of no-fly zones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/22Command input arrangements
    • G05D1/221Remote-control arrangements
    • G05D1/222Remote-control arrangements operated by humans
    • G05D1/224Output arrangements on the remote controller, e.g. displays, haptics or speakers
    • G05D1/2244Optic
    • G05D1/2247Optic providing the operator with simple or augmented images from one or more cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/656Interaction with payloads or external entities
    • G05D1/689Pointing payloads towards fixed or moving targets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U50/00Propulsion; Power supply
    • B64U50/10Propulsion
    • B64U50/19Propulsion using electrically powered motors

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Signal Processing (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Microelectronics & Electronic Packaging (AREA)

Description

本開示は、撮像システム及びロボットシステムに関する。
従来から、カメラによって撮像された対象物の画像をモニタに表示させつつ、モニタを視認するユーザによるロボットの遠隔操作を受け入れる技術がある。例えば、特許文献1は、姿勢変更可能なカメラを備える無人飛行体であるドローンによって取得される撮像データに基づいて、モニタにロボットの映像を表示させるロボットシステムを開示する。
特開2019-93471号公報
特許文献1のロボットシステムは、ロボットを操作するためのロボット操作器と、ドローンを操作するための飛行体操作器とを備える。例えば、ロボットを動作させつつドローンを移動させる場合、操作者は、ロボット操作器及び飛行体操作器の両方を手で操作する必要があるが、両方の操作を並行することは困難である。
本開示は、撮像装置を搭載する無人飛行体の操作を簡易にする撮像システム及びロボットシステムを提供することを目的とする。
本開示の一態様に係る撮像システムは、無人飛行体と、前記無人飛行体に搭載され、対象物に対して作業を行うロボットを撮像する撮像装置と、前記無人飛行体から遠隔に配置され、前記撮像装置によって撮像された画像を、前記ロボットを操作するユーザに表示する表示装置と、前記撮像装置及び前記無人飛行体の動作を制御する制御装置とを備え、前記制御装置は、前記ロボットの動作に関連する情報である動作関連情報を取得し、前記動作関連情報に対応して前記撮像装置の位置及び向きを変動させるように前記無人飛行体を移動させる。
図1は、例示的な実施の形態に係るロボットシステムの構成の一例を示す斜視図である。 図2は、例示的な実施の形態に係る無人飛行体の構成の一例を示す斜視図である。 図3は、例示的な実施の形態に係る撮像システムの機能的な構成の一例を示すブロック図である。 図4は、例示的な実施の形態に係る撮像システムの動作の一例を示すフローチャートである。 図5は、例示的な実施の形態の変形例1に係るロボットシステムの構成の一例を示す斜視図である。 図6は、変形例1に係る撮像システムの機能的な構成の一例を示すブロック図である。 図7は、変形例1における無人飛行体の飛行の制限エリアの別例を示す斜視図である。 図8は、例示的な実施の形態の変形例2に係るロボットシステムの構成の一例を示す斜視図である。 図9は、変形例2に係る撮像システムの機能的な構成の一例を示すブロック図である。 図10は、変形例2に係る撮像システムの動作の一例を示すフローチャートである。
以下において、本開示の例示的な実施の形態を、図面を参照しつつ説明する。なお、以下で説明する例示的な実施の形態は、いずれも包括的又は具体的な例を示すものである。また、以下の例示的な実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また、添付の図面における各図は、模式的な図であり、必ずしも厳密に図示されたものでない。さらに、各図において、実質的に同一の構成要素に対しては同一の符号を付しており、重複する説明は省略又は簡略化される場合がある。また、本明細書及び請求の範囲では、「装置」とは、1つの装置を意味し得るだけでなく、複数の装置からなるシステムも意味し得る。
[ロボットシステムの構成]
例示的な実施の形態に係るロボットシステム1の構成を説明する。図1は、例示的な実施の形態に係るロボットシステム1の構成の一例を示す斜視図である。図1に示すように、ロボットシステム1は、撮像システム100と、ロボット200と、ロボット操作装置300と、ロボット制御装置400とを備える。撮像システム100は、撮像装置110と、無人飛行体120と、撮像入力装置130と、表示装置140と、撮像制御装置150とを備える。
以下に限定されないが、本例示的な実施の形態では、ロボット200は、産業用ロボットであり、ロボットアーム210と基部220とエンドエフェクタ230とを備える。なお、ロボット200は、サービス用ロボット、医療用ロボット、創薬用ロボット及びヒューマノイドのように他のタイプのロボットであってもよい。サービス用ロボットは、介護、医療、清掃、警備、案内、救助、調理、商品提供等の様々なサービス業で使用されるロボットである。
基部220は、支持面上に固定され、ロボットアーム210を支持する。基部220の支持面は、床面等の不動な面であってもよく、走行装置等の移動可能な装置上の移動可能な面であってもよい。ロボットアーム210は、少なくとも1つの関節211を有し、少なくとも1つの自由度を有する。ロボットアーム210は、各関節211を駆動する関節駆動装置212を有する。関節駆動装置212は、関節211を駆動するための電気モータとしてサーボモータを含む。サーボモータは、当該モータの回転量を検出するエンコーダと、当該モータの電流値を検出する電流センサとを含む。なお、サーボモータにおいて、電流センサは必須ではない。
ロボットアーム210は、ロボットアーム210の先端にエンドエフェクタ230が取り付けられるように構成される。ロボットアーム210は、エンドエフェクタ230の位置及び姿勢を自在に変動させるようにエンドエフェクタ230を動かすことができる。エンドエフェクタ230は、エンドエフェクタ230の用途に応じて把持、吸着、塗料などの液体の吹き付け、溶接、及び、シール剤などの注入等の様々な作用を対象物(「ワーク」とも呼ぶ)Wに加えることができるように構成される。
なお、本例示的な実施の形態では、ロボットアーム210は、6つの回転関節211を有する6自由度の垂直多関節型のロボットアームであるが、これに限定されない。ロボットアーム210の形式は、いかなる型式であってもよく、例えば、水平多関節型、極座標型、円筒座標型又は直角座標型等であってもよい。ロボットアーム210の関節211も、直動関節等のいかなる関節であってもよい。ロボットアーム210の関節211の数量も、5つ以下又は7つ以上等のいかなる数量であってもよい。
ロボット操作装置300は、ロボット200から離れた位置に配置され、ロボット200を遠隔操作するために用いられる。ロボット操作装置300は、ロボット操作装置300を扱うユーザPがロボット200を直接視認できるような位置に配置されてもよく、ユーザPがロボット200を直接視認できないような位置に配置されてもよい。例えば、ロボット操作装置300は、ロボット200が配置される空間から隔離された空間、又は当該空間から離れた位置の空間に配置されてもよい。
ロボット操作装置300は、種々の指令、情報及びデータ等の入力を受け付け、ロボット制御装置400に出力する。例えば、ロボット操作装置300は、ユーザPによる入力を受け付けることができる。例えば、ロボット操作装置300は、他の機器と接続され、当該機器からの入力を受け付けることができる。例えば、ロボット操作装置300は、レバー、ボタン、タッチパネル、ジョイスティック、モーションキャプチャ、カメラ及びマイク等の公知の入力手段を備えてもよい。例えば、ロボット操作装置300は、教示装置の1つであるティーチングペンダント、スマートフォン及びタブレットなどのスマートデバイス、パーソナルコンピュータ、並びに専用端末装置等の端末装置を備えてもよい。例えば、ロボット200がマスター・スレーブ方式で制御される場合、ロボット操作装置300はマスター機を備えてもよい。例えば、マスター機は、ロボットアーム210と同様又は類似する動作を行うことができるように構成されてもよい。
ロボット制御装置400は、ロボット200の動作を制御する。ロボット制御装置400は、ロボット200及びロボット操作装置300と有線通信又は無線通信を介して接続される。なお、いかなる有線通信及び無線通信が用いられてもよい。ロボット制御装置400は、ロボット操作装置300を介して入力される指令、情報及びデータ等を処理する。ロボット制御装置400は、外部の機器と接続され、当該機器から指令、情報及びデータ等の入力を受け付け処理するように構成されてもよい。
例えば、ロボット制御装置400は、上記指令、情報及びデータ等に従って、ロボット200の動作を制御する。ロボット制御装置400は、ロボット200への動力等の供給を制御する。ロボット制御装置400は、ロボット200を管理するための情報等を管理する。例えば、ロボット制御装置400は、ロボットアーム210の関節駆動装置212の駆動、及び、エンドエフェクタ230の駆動を制御する。ロボット制御装置400は、ロボットアーム210にエンドエフェクタ230を移動させるための各関節211の回転駆動量を決定し、決定された回転駆動量に従って各関節駆動装置212を駆動させる。さらに、ロボット制御装置400は、各関節駆動装置212のサーボモータのエンコーダ及び電流センサによって検出される回転量及び電流値をフィードバック情報として用いて各関節211の駆動方向、駆動量、駆動速度、駆動加速度及び駆動トルク等を制御し、それにより、ロボットアーム210にエンドエフェクタ230を所望の位置及び姿勢に移動させ且つエンドエフェクタ230を介して所望の力を作用させる。なお、ロボット制御装置400は、サーボモータの電流値を、サーボモータへの供給電流を制御する回路等の他の手段から取得してもよい。
また、ロボット制御装置400は、種々の指令、情報及びデータ等をロボット操作装置300及び/又は撮像システム100の表示装置140に出力する。例えば、ロボット制御装置400は、種々の指令、情報及びデータ等を表示装置140に視覚的及び/又は聴覚的に提示させる。例えば、ロボット制御装置400は、ロボット200を操作するための画像、ロボット200の状態を示す画像、並びに、ロボット200を管理するための画像等を出力してもよい。
ロボット制御装置400は、コンピュータを備える。さらに、ロボット制御装置400は、ロボット200に供給する電力を制御するための電気回路、ロボット200に供給する空気圧及び液圧等の電力以外の動力を制御するための機器、並びに、ロボット200に供給する冷却水及び塗料等の物質を制御するための機器等を備えてもよい。コンピュータ以外の機器は、ロボット制御装置400と別個に設けられてもよい。
図2は、例示的な実施の形態に係る無人飛行体120の構成の一例を示す斜視図である。図3は、例示的な実施の形態に係る撮像システム100の機能的な構成の一例を示すブロック図である。図1から図3に示すように、撮像システム100の撮像装置110は、無人飛行体120に搭載される。撮像装置110は、デジタル画像の静止画及び/又は動画を撮像するカメラ111と、無人飛行体120上でカメラ111を支持するジンバル112と、カメラ制御装置113とを含む。本例示的な実施の形態では、カメラ111は、単なる可視光カメラであるが、画像内の被写体の位置情報を含む3次元画像を撮像する3次元カメラ等の他のタイプのカメラであってもよい。
ジンバル112は、無人飛行体120に取り付けられ、撮像装置110を搭載するように構成される。ジンバル112は、撮像装置110の向きを自在に変動させるように動作することができる。本例示的な実施の形態では、ジンバル112は、電動であり、駆動のための電気モータを備える。ジンバル112は、無人飛行体120に対して、少なくともヨーイング方向DYと、少なくともピッチング方向DPとに撮像装置110の姿勢を変動させることができてもよい。さらに、ジンバル112は、ローリング方向DRに撮像装置110の姿勢を変動させることができてもよい。以下に限定されないが、撮像装置110の向きは、撮像装置110のカメラの光軸中心の向きであってもよく、具体的には、3次元空間内での光軸中心の3次元の方向であってもよい。例えば、撮像装置110の向きは、撮像装置110の姿勢に対応し得る。また、撮像装置110の位置は、3次元空間内での撮像装置110の3次元の位置であってもよい。
カメラ制御装置113は、カメラ111及びジンバル112の駆動を制御する。カメラ制御装置113は、撮像制御装置150から無線通信を介して受信する情報及び指令等に従ってカメラ111及びジンバル112の駆動を制御し、カメラ111及びジンバル112に当該情報及び指令等に従った動作をさせる。カメラ制御装置113は、カメラ111及びジンバル112の動作結果を示す動作情報を、無線通信を介して撮像制御装置150に送信する。カメラ制御装置113は、後述する無人飛行体120の第1通信器124を用いて撮像制御装置150と無線通信する。カメラ制御装置113は、コンピュータと、カメラ111及びジンバル112に供給する電力を制御するための電気回路とを備える。
無人飛行体120は、搭載している撮像装置110の位置及び向きを自在に変えるように飛行可能である。これに限定されないが、本例示的な実施の形態では、無人飛行体120は、複数の回転翼121、例えば、平面状に配列され且つ当該平面に沿う方向に回転可能である4つの回転翼121を備えるドローンである。ドローンは、水平方向及び鉛直方向を含む任意の方向への飛行、空中での静止飛行、及び、静止飛行状態での任意の向きへの姿勢の移動等を可能である。さらに、無人飛行体120は、各回転翼121を回転駆動する翼駆動装置122と、位置検出装置123と、第1通信器124と、飛行体制御装置125とを備える。
翼駆動装置122の例は、電気モータである。第1通信器124は、無人飛行体120と撮像制御装置150との間で無線通信を行う。具体的には、第1通信器124は、飛行体制御装置125と撮像制御装置150との間の無線通信と、撮像装置110のカメラ制御装置113と撮像制御装置150との間の無線通信とを仲介する。例えば、第1通信器124は、通信回路を含んでもよい。
位置検出装置123は、無人飛行体120の位置及び姿勢を検出し飛行体制御装置125に出力する。位置検出装置123の構成は特に限定されず、無人飛行体120の位置及び姿勢を検出できればよく、例えば、公知の技術であってもよい。例えば、位置検出装置123は、GPS(Global Positioning System;全地球測位システム)を用いる位置推定システム、GPS以外の電波を用いる位置推定システム、画像認識技術を用いる位置推定システム、加速度及び角速度を用いる位置推定システム、その他の位置推定システム、又は、上記位置推定システムの2つ以上の組み合わせ等を備え、当該位置推定システム用いて無人飛行体120の位置及び姿勢を検出するように構成されてもよい。
GPSを用いる位置推定システムとして、GPSと送受信することで無人飛行体120の位置及び姿勢を測位するシステムが例示される。GPS以外の電波を用いる位置推定システムとして、ロボット200が配置される空間内に配置される電波発信機から受信する電波により無人飛行体120の位置及び姿勢を推定するシステムが例示される。画像認識技術を用いる位置推定システムとして、3次元カメラを用いて周囲の物体及び当該物体の位置を画像認識で検出することで、無人飛行体120の位置及び姿勢を推定するシステムが例示される。加速度及び角速度を用いる位置推定システムとして、加速度センサ及び角速度センサの検出結果を用いて無人飛行体120の位置及び姿勢を推定するシステムが例示される。
飛行体制御装置125は、各翼駆動装置122の駆動を制御する。飛行体制御装置125は、第1通信器124を介した無線通信で撮像制御装置150から受信する情報及び指令等に従って各翼駆動装置122の駆動を制御し、無人飛行体120に当該情報及び指令等に従った飛行をさせる。また、飛行体制御装置125は、位置検出装置123によって検出された無人飛行体120の位置及び姿勢の情報を、第1通信器124を介して撮像制御装置150に送信する。飛行体制御装置125は、コンピュータと、各翼駆動装置122に供給する電力を制御するための電気回路とを備える。
なお、無人飛行体120は、位置及び姿勢のうちの少なくとも位置を自在に変更可能に飛行する構成を有すればよい。例えば、無人飛行体120は、交差する方向に回転する2つの回転翼を備えるヘリコプタのような構成を有してもよい。無人飛行体120は、撮像制御装置150の制御に従って飛行動作する。例えば、無人飛行体120は、撮像入力装置130に入力される操作に従って飛行し得る。無人飛行体120は、撮像制御装置150のプログラム制御に従って自動で飛行する、つまり自律飛行することができる。
撮像入力装置130は、撮像システム100を動作させるための入力及び操作等をユーザPから受け付ける。撮像入力装置130は、種々の指令、情報及びデータ等の入力を受け付け、撮像制御装置150に出力する。例えば、撮像入力装置130は、カメラ111、ジンバル112及び無人飛行体120を操作するための入力を受け付け、受け付けた操作の内容を示す操作情報を撮像制御装置150に出力する。撮像入力装置130は、ロボット操作装置300の近傍に配置され、ロボット操作装置300の例示した構成と同様の構成を有してもよい。ロボット操作装置300が撮像入力装置130を含み、撮像入力装置130の機能を兼ねてもよい。撮像入力装置130は入力装置の一例である。
表示装置140は、撮像装置110によって撮像された画像をユーザPに知覚可能に提示する。表示装置140は、ロボット操作装置300の近傍に配置され、撮像装置110から離れた位置に配置される。表示装置140は、ロボット制御装置400から受け取る指令、情報及びデータ等を、ユーザPに知覚可能に提示してもよい。例えば、表示装置140は、液晶ディスプレイ(Liquid Crystal Display)及び有機又は無機ELディスプレイ(Electro-Luminescence Display)等のディスプレイを備え、視覚的な提示をする。表示装置140は、スピーカ等の音声出力装置を備え、聴覚的な提示をしてもよい。表示装置140は、触覚的な提示をするように構成されてもよい。
撮像制御装置150は、撮像装置110、無人飛行体120、撮像入力装置130及び表示装置140と有線通信又は無線通信を介して接続される。なお、いかなる有線通信及び無線通信が用いられてもよい。本例示的な実施の形態では、撮像制御装置150は、無人飛行体120の外部に配置され、撮像装置110及び無人飛行体120と無線通信し、撮像入力装置130及び表示装置140を有線通信する。しかしながら、撮像制御装置150は、無人飛行体120に搭載され、撮像入力装置130及び表示装置140と無線通信してもよい。撮像制御装置150は制御装置の一例である。
上記のような撮像制御装置150は、コンピュータを備える。さらに、撮像制御装置150は、撮像入力装置130及び表示装置140に供給する電力を制御するための電気回路等を備えてもよい。コンピュータ以外の機器は撮像制御装置150と別個に設けられてもよい。撮像制御装置150は、ロボット制御装置400、撮像入力装置130又はロボット操作装置300に組み込まれてもよく、これらと別個に設けられてもよい。
例えば、ロボット制御装置400及び撮像制御装置150のコンピュータは、プロセッサ及びメモリ等を有する回路又は処理回路を含む。回路又は処理回路は、他の装置との指令、情報及びデータ等の送受信を行う。回路又は処理回路は、各種機器からの信号の入力及び各制御対象への制御信号の出力を行う。メモリは、揮発性メモリ及び不揮発性メモリなどの半導体メモリ、ハードディスク及びSSD(Solid State Drive)等の記憶装置で構成される。例えば、メモリは、回路又は処理回路が実行するプログラム、及び各種データ等を記憶する。
回路又は処理回路の機能は、CPU(Central Processing Unit)などのプロセッサ、RAM(Random Access Memory)などの揮発性メモリ及びROM(Read-Only Memory)などの不揮発性メモリ等からなるコンピュータシステムにより実現されてもよい。コンピュータシステムは、CPUがRAMをワークエリアとして用いてROMに記録されたプログラムを実行することによって、回路又は処理回路の機能を実現してもよい。なお、回路又は処理回路の機能の一部又は全部は、上記コンピュータシステムにより実現されてもよく、電子回路又は集積回路等の専用のハードウェア回路により実現されてもよく、上記コンピュータシステム及びハードウェア回路の組み合わせにより実現されてもよい。ロボット制御装置400及び撮像制御装置150は、単一のコンピュータによる集中制御により各処理を実行してもよく、複数のコンピュータの協働による分散制御により各処理を実行してもよい。
例えば、ロボット制御装置400及び撮像制御装置150の各機能は、マイクロコントローラ、MPU(Micro Processing Unit)、LSI(Large Scale Integration:大規模集積回路)、システムLSI、PLC(Programmable Gate Array)及び論理回路等によって実現されてもよい。ロボット制御装置400及び撮像制御装置150それぞれの複数の機能は、個別に1チップ化されてもよく、一部又は全てを含むように1チップ化されてもよい。また、回路は、それぞれ、汎用的な回路でもよく、専用の回路でもよい。LSIとして、LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、LSI内部の回路セルの接続及び/又は設定を再構成可能なリコンフィギュラブルプロセッサ、又は、特定用途向けに複数の機能の回路が1つにまとめられたASIC(Application Specific Integrated Circuit)等が利用されてもよい。
[撮像システムの機能的構成]
撮像システム100の機能的な構成を説明する。図3に示すように、撮像システム100の撮像制御装置150は、駆動制御部151と、位置姿勢演算部152と、表示制御部153と、記憶部154とを機能的構成要素として含み、さらに、第2通信器155を含む。駆動制御部151は、カメラ制御部1511と、飛行体制御部1512とを機能的構成要素として含む。位置姿勢演算部152は、第1検出部1521と、第2検出部1522と、決定部1523とを機能的構成要素として含む。
第2通信器155は、無人飛行体120の第1通信器124と無線通信し、撮像制御装置150と無人飛行体120との間の無線通信を仲介する。例えば、第2通信器155は、通信回路を含んでもよい。
記憶部154の機能は、撮像制御装置150のコンピュータのメモリ等によって実現される。記憶部154以外の撮像制御装置150の機能的構成要素の機能は、コンピュータのプロセッサ等によって実現される。
記憶部154は、種々の情報を記憶し、記憶された情報の読出しを可能にする。例えば、記憶部154は、プログラム及び各種データ等を記憶してもよい。例えば、記憶部154は、撮像システム100の各装置を動作させるためのプログラム、データ及び情報等を記憶してもよい。
位置姿勢演算部152の第1検出部1521は、ロボット200のエンドエフェクタ230の位置及び姿勢を検出し決定部1523に出力する。これに限定されないが、第1検出部1521は、ロボットアーム210の先端部の位置及び姿勢を、エンドエフェクタ230の位置及び姿勢として検出する。第1検出部1521は、ロボット制御装置400から、ロボットアーム210の関節駆動装置212のフィードバック情報を受け取るように構成される。第1検出部1521は、フィードバック情報に含まれる各関節駆動装置212の回転駆動量を用いて、ロボットアーム210とエンドエフェクタ230との接続部分であるロボットアーム210の先端部の位置及び姿勢を演算する。例えば、先端部の位置は、図1に示すような、ロボットアーム210が配置される空間に設定される3次元空間座標系(以下、「第1座標系」とも呼ぶ)を用いて表され得る。第1座標系は、座標軸X1、Y1及びZ1軸で定義される。先端部の姿勢は、図1に示すような先端部に設定される3次元空間座標系(以下、「第2座標系」とも呼ぶ)を用いて表され得る。第2座標系は、座標軸X2、Y2及びZ2軸で定義される。先端部の姿勢は、座標軸X1、Y1及びZ1軸に対する座標軸X2、Y2及びZ2軸の角度を姿勢角として用いて表され得る。ここで、ロボットアーム210の関節駆動装置212のフィードバック情報、及び、エンドエフェクタ230の位置及び姿勢の情報は、動作関連情報の一例である。上記フィードバック情報は、エンドエフェクタ230の位置及び姿勢の情報の一例である。
ここで、動作関連情報は、ロボット200の動作に関連する情報である。動作関連情報は、ロボット200に動作させるための情報、ロボット200が動作した結果を示す情報、又は、これらの両方を含んでもよい。つまり、動作関連情報は、ロボット200の動作を示す情報を含んでもよい。ロボット200に動作させるための情報の例は、ロボット200に動作させるためにロボット操作装置300等に入力される操作の情報、及び、ロボット200に動作させるためにロボット制御装置400からロボット200に出力される目標動作の指令等である。ロボット200が動作した結果を示す情報の例は、ロボット200から出力されるフィードバック情報、及び、センサ等によるロボット200の動作の検出結果等である。ロボット200の動作は、ロボットアーム210の動作、ロボットアーム210の関節の動作、ロボットアーム210の関節駆動装置212の動作、エンドエフェクタ230の位置及び姿勢、エンドエフェクタ230の動作、又は、これらの2つ以上の組み合わせ等を含んでもよい。
第1検出部1521は、ロボットアーム210に動作させるためにロボット操作装置300に入力される操作の情報、ロボットアーム210に動作させるためにロボット制御装置400からロボットアーム210に出力される目標動作の指令、又は、これらの組み合わせを用いて、エンドエフェクタ230の位置及び姿勢を検出してもよい。
なお、エンドエフェクタ230の位置及び姿勢がロボット制御装置400によって演算され、第1検出部1521は、当該位置及び姿勢の演算結果をロボット制御装置400から受け取るように構成されてもよい。
第2検出部1522は、撮像装置110のカメラ111の現状の位置及び姿勢を検出し、決定部1523に出力する。第2検出部1522は、無人飛行体120から無線通信を介して、無人飛行体120の現状の位置及び姿勢の情報と、撮像装置110のカメラ111及びジンバル112の動作情報とを受信する。第2検出部1522は、受信した情報を用いてカメラ111の位置及び姿勢を検出する。カメラ111の位置及び姿勢は第1座標系で表され得る。
決定部1523は、動作関連情報に対応して撮像装置110のカメラ111の目標の位置及び姿勢を決定し、駆動制御部151に出力する。具体的には、決定部1523は、動作関連情報の変化に対応してカメラ111の位置及び姿勢を変化させるように、カメラ111の目標の位置及び姿勢を決定する。例えば、決定部1523は、動作関連情報が示すロボット200の動きに追従するように、カメラ111の目標の位置及び姿勢を決定する。具体的には、決定部1523は、エンドエフェクタ230の位置及び姿勢とカメラ111の位置及び姿勢とが所定の関係である所定相対関係となるように、カメラ111の目標の位置及び姿勢を決定する。
決定部1523は、所定相対関係として、エンドエフェクタ230の位置及び姿勢に対するカメラ111の相対的な位置及び姿勢の関係を示す情報を、記憶部154から読み出す。決定部1523は、上記の所定相対関係の情報と、第1検出部1521から受け取るエンドエフェクタ230の位置及び姿勢の検出結果と、第2検出部1522から受け取るカメラ111の現状の位置及び姿勢の検出結果とを用いて、エンドエフェクタ230の位置及び姿勢の検出結果に対して所定相対関係を満たすようなカメラ111の目標の位置及び姿勢を演算する。目標の位置及び姿勢は第1座標系で表され得る。これにより、エンドエフェクタ230に対するカメラ111の相対的な位置及び姿勢が維持され得る。
ここで、決定部1523は、所定相対関係を、ユーザPによって撮像入力装置130に入力される指令に従って決定する。例えば、エンドエフェクタ230の位置及び姿勢が第1の状態であり、カメラ111の位置及び姿勢が第2の状態であるとき、上記指令が撮像入力装置130に入力されると、決定部1523は、第1の状態と第2の状態との関係を所定相対関係に設定し、エンドエフェクタ230の位置及び姿勢とカメラ111の位置及び姿勢との関係式等の当該関係を表す情報を演算し記憶部154に記憶させる。
また、ユーザPによってカメラ111の位置及び姿勢を移動するための操作が撮像入力装置130に入力された場合、決定部1523は、当該操作の内容を示す操作情報を撮像入力装置130から受け取り、当該操作情報に従って移動させるべきカメラ111の目標の位置及び姿勢を決定する。操作情報とカメラ111の位置及び姿勢との関係の情報は、記憶部154に予め記憶され、決定部1523は当該情報を用いて目標の位置及び姿勢を演算する。操作情報は、動作するロボット200に対して、ユーザPがカメラ111を通じてエンドエフェクタ230等のロボット200の部位を視認するために、ユーザPが実行する操作の情報を含む。
なお、決定部1523は、所定相対関係を用いてカメラ111の目標の位置及び姿勢を決定する制御を実行中に、撮像入力装置130からカメラの111の操作情報を受け取ると、操作情報に従ったカメラ111の目標の位置及び姿勢を決定する制御を優先させてもよい。つまり、決定部1523は、カメラ111の位置及び向きを修正する指令である修正指令として、撮像入力装置130からカメラの111の操作情報を受け付け、所定相対関係に対応するカメラ111の目標の位置及び向きを、当該操作情報に従ったカメラの111の目標の位置及び向きに変動させる。これにより、所定相対関係を用いて決定されるカメラ111の目標の位置及び姿勢が、操作情報に従ったカメラ111の目標の位置及び姿勢によって修正される。つまり、ユーザPは、撮像入力装置130を用いてカメラ111の目標の位置及び姿勢を修正することができる。
なお、決定部1523は、所定相対関係を用いたカメラ111の目標の位置及び姿勢の代わりに操作情報に従ったカメラ111の目標の位置及び姿勢を用いて、操作情報に従ったカメラ111の目標の位置及び姿勢を修正後のカメラ111の目標の位置及び姿勢に決定してもよい。決定部1523は、所定相対関係を用いたカメラ111の目標の位置及び姿勢に操作情報に従ったカメラ111の目標の位置及び姿勢を加えて生成されるカメラ111の目標の位置及び姿勢を、修正後のカメラ111の目標の位置及び姿勢に決定してもよい。
決定部1523は、カメラ111の目標の位置及び向きの修正以降、修正結果を、所定相対関係に対応するカメラ111の目標の位置及び向きの決定に反映してもよい。例えば、決定部1523は、修正結果を反映するように所定相対関係を変更してもよい。又は、決定部1523は、カメラ111の目標の位置及び向きの修正以降、修正結果を所定相対関係に反映せずに、カメラ111の目標の位置及び姿勢を決定してもよい。
駆動制御部151の飛行体制御部1512は、決定部1523から受け取るカメラ111の目標の位置及び姿勢に従ってカメラ111を移動させるための無人飛行体120の動作指令を生成する。飛行体制御部1512は、当該動作指令をカメラ制御部1511及び無人飛行体120の飛行体制御装置125へ出力する。動作指令は、無人飛行体120の目標の位置及び姿勢の指令を含み、当該目標の位置及び姿勢は第1座標系で表され得る。例えば、無人飛行体120の目標の位置は、カメラ111の位置を目標の位置に移動させるための位置であってもよい。無人飛行体120の目標の姿勢は、カメラ111の向きを目標の姿勢に近づけるための姿勢であってもよい。無人飛行体120はドローンであるため、水平方向に回転可能であり、カメラ111の向きを水平方向に変えることができる。
カメラ制御部1511は、決定部1523から受け取るカメラ111の目標の姿勢に従ってカメラ111の姿勢を移動させるためのジンバル112の動作指令を生成する。動作指令は、ジンバル112の各部の動作の指令を含む。カメラ制御部1511は、当該動作指令を無人飛行体120のカメラ制御装置113へ送信する。カメラ制御部1511は、飛行体制御部1512から受け取る無人飛行体120の目標の姿勢の情報と、カメラ111の目標の姿勢の情報とに基づき、無人飛行体120を基準とするカメラ111の目標の姿勢を決定し、当該目標の姿勢を実現するためのジンバル112の各部の動作を決定する。例えば、カメラ制御部1511は、無人飛行体120へのジンバル112の取り付け部を基準とするカメラ111の目標の姿勢を決定する。なお、カメラ111が、カメラ111の位置及び姿勢を移動可能な装置に搭載される場合、カメラ制御部1511は、無人飛行体120を基準とするカメラ111の目標の位置及び姿勢を決定し、カメラ制御装置113へ出力してもよい。
また、カメラ制御部1511は、カメラ111を動作させるための動作指令を生成し、無人飛行体120のカメラ制御装置113へ送信する。動作指令は、カメラ111の撮像の開始及び停止の指令、並びに、カメラ111のズームアップ撮像及びズームバック撮像の指令等を含み得る。
表示制御部153は、撮像装置110によって撮像された画像データを撮像装置110から受信し、表示装置140に当該画像データを出力し当該画像データに対応する画像を表示させる。表示制御部153は、撮像装置110から受信された画像データを画像処理し、画像処理後の画像データを表示装置140に出力してもよい。
[撮像システムの動作]
例示的な実施の形態に係る撮像システム100の動作を説明する。図4は、例示的な実施の形態に係る撮像システム100の動作の一例を示すフローチャートである。まず、ステップS101において、撮像制御装置150は、ロボット200のエンドエフェクタ230と撮像装置110のカメラ111との所定相対関係を決定する初期設定モードで動作する。例えば、撮像制御装置150は、ユーザPによって撮像入力装置130に入力される起動指令に従って、初期設定モードを開始する。
次いで、ステップS102において、撮像制御装置150は、撮像装置110のカメラ111の初期位置及び初期姿勢の決定する指令を受け付ける。具体的には、撮像制御装置150は、撮像装置110及び無人飛行体120を起動し、撮像入力装置130に入力される操作に従って撮像装置110及び無人飛行体120を動作させる。ユーザPは、表示装置140において撮像装置110によって撮像された画像を視認しつつ撮像入力装置130を操作して、無人飛行体120にカメラ111の位置及び姿勢を変動させ、撮像装置110のジンバル112にカメラ111の姿勢を変動させる。例えば、表示装置140にエンドエフェクタ230の所望の画像等の所望の画像が映し出されると、ユーザPは、現状のカメラ111の位置及び姿勢をカメラ111の初期位置及び初期姿勢に決定する指令を撮像入力装置130に入力する。
次いで、ステップS103において、撮像制御装置150は、カメラ111の初期位置及び初期姿勢を決定する。撮像制御装置150は、制御の実行中、無人飛行体120の位置及び姿勢の情報と、カメラ111及びジンバル112の動作情報とを無人飛行体120及び撮像装置110から受信する。撮像制御装置150は、ステップS102でカメラ111の初期位置及び初期姿勢を決定する指令を受け付けたときに検出された無人飛行体120の位置及び姿勢の情報とジンバル112の動作情報とから、カメラ111の位置及び姿勢を検出し、当該位置及び姿勢を初期位置及び初期姿勢に決定する。
次いで、ステップS104において、撮像制御装置150は、エンドエフェクタ230の位置及び姿勢を検出する。撮像制御装置150は、ステップS102でカメラ111の初期位置及び初期姿勢を決定する指令を受け付けると、エンドエフェクタ230の位置及び姿勢の情報として、ロボットアーム210の動作情報を要求する指令をロボット制御装置400に出力する。ロボット制御装置400は、当該動作情報を撮像制御装置150に出力する。ロボットアーム210の動作情報は、ロボットアーム210の各関節駆動装置212で検出される各関節211の回転量の情報である。撮像制御装置150は、ロボットアーム210の動作情報を用いてエンドエフェクタ230の位置及び姿勢を演算する。
次いで、ステップS105において、撮像制御装置150は、カメラ111の初期位置及び初期姿勢の情報と、エンドエフェクタ230の位置及び姿勢の情報とを用いて、所定相対関係を表す関係式等を決定する、つまり、所定相対関係を決定する。撮像制御装置150は、所定相対関係の情報を記憶部154に記憶させる。
次いで、ステップS106において、撮像制御装置150は、初期設定モードを終了し、通常動作モードで動作を開始する。
次いで、ステップS107において、撮像制御装置150は、撮像装置110のカメラ111に撮像動作を開始させる。カメラ111は連続的に動画像を撮像して撮像制御装置150に送信し、撮像制御装置150は当該動画像を表示装置140に表示させる。
次いで、ステップS108において、撮像制御装置150は、ロボット制御装置400にロボットアーム210の動作情報を要求し、当該動作情報をロボット制御装置400から取得する。
次いで、ステップS109において、撮像制御装置150は、エンドエフェクタ230の位置及び姿勢に対して所定相対関係を満たすカメラ111の目標位置及び目標姿勢を決定する。撮像制御装置150は、ロボットアーム210の動作情報を用いて、エンドエフェクタ230の位置及び姿勢を演算する。撮像制御装置150は、エンドエフェクタ230の位置及び姿勢と、記憶部154に記憶される所定相対関係の情報とを用いて、カメラ111の目標位置及び目標姿勢を演算する。
次いで、ステップS110において、撮像制御装置150は、カメラ111を目標位置及び目標姿勢に移動させるための無人飛行体120の目標位置及び目標姿勢とジンバル112の各部の目標動作状態とを決定する。撮像制御装置150は、目標位置及び目標姿勢に無人飛行体120を移動させる動作指令と、目標動作状態にジンバル112を動作させる動作指令とを、無人飛行体120及び撮像装置110に送信する。
次いで、ステップS111において、無人飛行体120は、動作指令に従って目標位置及び目標姿勢に移動し、撮像装置110は、ジンバル112を目標動作状態に動作させる。これにより、カメラ111の位置及び姿勢とエンドエフェクタ230の位置及び姿勢とが相対位置関係を満たす。
次いで、ステップS112において、撮像制御装置150は、ユーザPによって撮像入力装置130にカメラ111の位置及び姿勢を移動する指令である修正指令が入力されたか否かを判定する。撮像制御装置150は、入力済みの場合(ステップS112でYes)にステップS113に進み、未入力の場合(ステップS112でNo)にステップS117に進む。
ステップS113において、撮像制御装置150は、修正指令に従ってカメラ111の位置及び姿勢を移動させるための無人飛行体120の修正目標位置及び修正目標姿勢とジンバル112の各部の修正目標動作状態とを決定する。撮像制御装置150は、修正目標位置及び修正目標姿勢に無人飛行体120を移動させる動作指令である修正動作指令と、修正目標動作状態にジンバル112を動作させる動作指令である修正動作指令とを、無人飛行体120及び撮像装置110に送信する。このとき、撮像制御装置150は、無人飛行体120の位置及び姿勢の情報と、ジンバル112の動作状態の情報とをフィードバック情報として用いて、動作指令を生成してもよい。
次いで、ステップS114において、無人飛行体120は、修正動作指令に従って修正目標位置及び修正目標姿勢に移動し、撮像装置110は、ジンバル112を修正目標動作状態に動作させる。このとき、無人飛行体120及び撮像装置110は、無人飛行体120の位置及び姿勢の情報と、ジンバル112の動作状態の情報とをフィードバック情報として用いて、動作制御を行ってもよい。
次いで、ステップS115において、撮像制御装置150は、ロボット制御装置400にロボットアーム210の動作情報を要求し、当該動作情報をロボット制御装置400から取得する。
次いで、ステップS116において、撮像制御装置150は、ロボットアーム210の動作情報を用いて、エンドエフェクタ230の位置及び姿勢を演算する。撮像制御装置150は、エンドエフェクタ230の位置及び姿勢の情報と、カメラ111の修正目標位置及び修正目標姿勢とを用いて、新たな所定相対関係を表す関係式等を決定する。撮像制御装置150は、記憶部154に記憶される所定相対関係の情報を新たな所定相対関係の情報に変更することで、所定相対関係の情報を更新する。これにより、撮像制御装置150は、以降において、カメラ111の位置及び姿勢とエンドエフェクタ230の位置及び姿勢とが更新後の相対位置関係を満たすように、カメラ111の位置及び姿勢を制御する。
次いで、ステップS117において、撮像制御装置150は、ユーザPによって撮像入力装置130に撮像システム100の動作を終了する指令が入力されたか否かを判定し、入力済みの場合(ステップS117でYes)に一連の処理を終了し、未入力の場合(ステップS117でNo)にステップS108に戻る。
ステップS101からS117の処理によって、撮像制御装置150は、ユーザPが所望する相対位置関係を決定する。撮像制御装置150は、無人飛行体120及びジンバル112の動作を制御することで、カメラ111の位置及び姿勢とエンドエフェクタ230の位置及び姿勢とが相対位置関係を満たすように、カメラ111の位置及び姿勢を制御する。さらに、撮像制御装置150は、撮像入力装置130に入力される操作に従って、相対位置関係を修正する。これにより、撮像制御装置150は、ユーザPにとってより望ましい相対位置関係を決定することができる。
なお、例示的な実施の形態において、撮像制御装置150は、相対位置関係に従った無人飛行体120及びジンバル112の動作の制御中、撮像入力装置130を介してカメラ111の位置及び姿勢の修正指令を受け付けると、修正指令に従って相対位置関係を修正するように構成されるが、これに限定されない。例えば、撮像制御装置150は、修正指令に従ってカメラ111の位置及び姿勢を修正するが、相対位置関係を修正しないように構成されてもよい。この場合、撮像制御装置150は、修正指令に従ってカメラ111の位置及び姿勢を一時的に修正し、その後、既存の相対位置関係に従ってカメラ111の位置及び姿勢を制御する。さらに、撮像制御装置150は、相対位置関係の修正の有無を、撮像入力装置130を介したユーザPの指令に従って決定してもよい。
(変形例1)
例示的な実施の形態の変形例1は、撮像制御装置150Aが無人飛行体120の飛行エリアを制限する点で、例示的な実施の形態と異なる。以下、変形例1について、例示的な実施の形態と異なる点を中心に説明し、例示的な実施の形態と同様の点の説明を適宜省略する。
図5は、例示的な実施の形態の変形例1に係るロボットシステム1の構成の一例を示す斜視図である。図6は、変形例1に係る撮像システム100の機能的な構成の一例を示すブロック図である。図5及び図6に示すように、撮像制御装置150Aは、ロボット200のエンドエフェクタ230と無人飛行体120との距離が第1所定距離L1以上となるように、無人飛行体120の動作を制御する。撮像制御装置150Aは、ロボット200のエンドエフェクタ230と無人飛行体120との距離が第2所定距離L2以下となるように、無人飛行体の動作120を制御する。なお、第2所定距離L2は第1所定距離L1よりも大きい。
さらに、撮像制御装置150Aは、エンドエフェクタ230と無人飛行体120との距離が第1所定距離L1未満となるように無人飛行体120を動作させる必要がある場合、無人飛行体120をエンドエフェクタ230から第1所定距離L1以上で離れて位置させ、撮像装置110にズームアップ撮像をさせる。例えば、撮像制御装置150Aは、撮像入力装置130から、エンドエフェクタ230と無人飛行体120との距離が第1所定距離L1未満になるような指令又は修正指令を受け付けた場合等に、上記制御を実行する。
撮像制御装置150Aは、エンドエフェクタ230と無人飛行体120との距離が第2所定距離L2超となるように無人飛行体120を動作させる必要がある場合、無人飛行体120をエンドエフェクタ230から第2所定距離L2以下で離れて位置させ、撮像装置110にズームバック撮像をさせる。例えば、撮像制御装置150Aは、撮像入力装置130から、エンドエフェクタ230と無人飛行体120との距離が第2所定距離L2超になるような指令又は修正指令を受け付けた場合等に、上記制御を実行する。
よって、撮像制御装置150Aは、エンドエフェクタ230を中心とする半径L1のエリアA1とエンドエフェクタ230を中心とする半径L2のエリアA2との間のエリアA3内に無人飛行体120の位置を保持するように、無人飛行体120の飛行を制御する。これにより、無人飛行体120がロボットアーム210に接近し干渉することと、無人飛行体120がロボットアーム210の周囲の天井及び壁等の物体と干渉することとが抑えられる。
撮像制御装置150Aの位置姿勢演算部152Aは、決定部1523を第1決定部として含み、さらに、第2決定部1524を含む。第1決定部1523は、カメラ111の目標位置及び目標姿勢を決定すると、第2決定部1524に出力する。以下において、第1決定部1523によって決定された「目標位置」及び「目標姿勢」をそれぞれ、「第1目標位置」及び「第1目標姿勢」とも呼ぶ。
第2決定部1524は、第1検出部1521からエンドエフェクタ230の位置及び姿勢の情報を受け取る。第2決定部1524は、カメラ111の第1目標位置とエンドエフェクタ230の位置との距離Lceを演算し、距離Lceと第1所定距離L1との比較と、距離Lceと第2所定距離L2との比較とを実行する。第1所定距離L1及び第2所定距離L2の情報は、記憶部154に予め記憶される。本変形例では、エンドエフェクタ230の位置の基準点は、座標軸X2、Y2及びZ2軸からなる第2座標系の原点であるが、基準点の位置はエンドエフェクタ230のいかなる位置であってもよい。
距離Lceが第1所定距離L1以上第2所定距離L2以下の場合、第2決定部1524は、第1決定を実行する。第1決定では、第2決定部1524は、第1目標位置及び第1目標姿勢をそれぞれ、実行すべきカメラ111の目標位置及び目標姿勢として、第2目標位置及び第2目標姿勢に決定する。
距離Lceが第1所定距離L1未満の場合、第2決定部1524は、第2決定を実行する。第2決定では、第2決定部1524は、カメラ111の第1目標位置とエンドエフェクタ230の位置とを結ぶライン上において、エンドエフェクタ230から第1所定距離L1以上の位置を、カメラ111の第2目標位置に決定する。例えば、第2決定部1524は、第1所定距離L1の位置をカメラ111の第2目標位置に決定する。さらに、第2決定部1524は、第1目標姿勢をカメラ111の第2目標姿勢に決定する。
距離Lceが第2所定距離L2超の場合、第2決定部1524は、第3決定を実行する。第3決定では、第2決定部1524は、カメラ111の第1目標位置とエンドエフェクタ230の位置とを結ぶライン上において、エンドエフェクタ230から第2所定距離L2以下の位置を、カメラ111の第2目標位置に決定する。例えば、第2決定部1524は、第2所定距離L2の位置をカメラ111の第2目標位置に決定する。さらに、第2決定部1524は、第1目標姿勢をカメラ111の第2目標姿勢に決定する。
第2決定部1524は、第1決定から第3決定のうちの実行した決定と、第1目標位置及び第1目標姿勢と、第2目標位置及び第2目標姿勢と、距離Lceとを含む情報を駆動制御部151に出力する。
駆動制御部151の飛行体制御部1512は、第2決定部1524から受け取るカメラ111の第2目標位置及び第2目標姿勢に従ってカメラ111を移動させるための無人飛行体120の動作指令を生成する。飛行体制御部1512は、当該動作指令をカメラ制御部1511及び無人飛行体120の飛行体制御装置125へ出力する。
カメラ制御部1511は、第2決定部1524から受け取るカメラ111の第2目標姿勢に従ってカメラ111の姿勢を移動させるためのジンバル112の動作指令を生成する。さらに、カメラ制御部1511は、第2決定部1524から受け取るカメラ111の第1目標位置及び第2目標位置を用いてカメラ111のズームアップ率又はズームバック率を決定する。
具体的には、第1決定を受け取った場合、カメラ制御部1511は、ズームアップ率及びズームバック率を現状から変更しないことを決定する。
第2決定を受け取った場合、カメラ制御部1511は、カメラ111のズームアップ撮像を決定する。カメラ制御部1511は、第1目標位置と第2目標位置との距離LT12を演算する。カメラ制御部1511は、距離LT12と、第1目標位置とエンドエフェクタ230との距離Lceとを用いて、カメラ111のズームアップ率を決定する。当該ズームアップ率は、カメラ111が第2目標位置で当該ズームアップ率を適用して撮像した画像に表示されるエンドエフェクタ230の像の大きさと、カメラ111が第1目標位置で当該ズームアップ率を適用せずに撮像した画像に表示されるエンドエフェクタ230の像の大きさとが同等となるように決定される。
第3決定を受け取った場合、カメラ制御部1511は、カメラ111のズームバック撮像を決定する。カメラ制御部1511は、第1目標位置と第2目標位置との距離LT12を演算する。カメラ制御部1511は、距離LT12と、第1目標位置とエンドエフェクタ230との距離Lceとを用いて、カメラ111のズームバック率を決定する。当該ズームバック率は、カメラ111が第2目標位置で当該ズームバック率を適用して撮像した画像に表示されるエンドエフェクタ230の像の大きさと、カメラ111が第1目標位置で当該ズームバック率を適用せずに撮像した画像に表示されるエンドエフェクタ230の像の大きさとが同等となるように決定される。
カメラ制御部1511は、カメラ111のズームアップ率及びズームバック率の決定結果を反映したカメラ111の動作指令と、ジンバル112の動作指令とを、無人飛行体120のカメラ制御装置113へ送信する。
上述より、カメラ111は、無人飛行体120が第2目標位置に対応する位置に位置する場合でも、無人飛行体120が第1目標位置に対応する位置に位置する場合と同様の画像を撮像し、表示装置140に表示させることができる。
また、本変形例では、撮像制御装置150Aは、第1所定距離L1及び第2所定距離L2を用いるように構成されるが、これに限定されず、第1所定距離L1及び第2所定距離L2の一方のみを用いるように構成されてもよい。
例えば、第1所定距離L1のみを用いる場合、第2決定部1524は、カメラ111の第1目標位置とエンドエフェクタ230の位置との距離Lceが第1所定距離L1以上の場合に第1決定を実行する。さらに、第2決定部1524は、距離Lceが第1所定距離L1未満の場合に第2決定を実行する。第2決定部1524は、第3決定を実行しない。
例えば、第2所定距離L2のみを用いる場合、第2決定部1524は、距離Lceが第2所定距離L2以下の場合に第1決定を実行する。さらに、第2決定部1524は、距離Lceが第2所定距離L2超の場合に第3決定を実行する。第2決定部1524は、第2決定を実行しない。
第2決定部1524は、エンドエフェクタ230の移動速度に応じて、第1所定距離L1、第2所定距離L2、又は、第1所定距離L1及び第2所定距離L2の両方を、増加又は減少するように構成されてもよい。具体的には、第2決定部1524は、第1所定距離L1のみを増加又は減少してもよく、第2所定距離L2のみを増加又は減少してもよい。第2決定部1524は、第1所定距離L1及び第2所定距離L2の両方を増加又は減少してもよく、この場合、第2決定部1524は、第1所定距離L1及び第2所定距離L2の両方を増加してもよく、第1所定距離L1及び第2所定距離L2の両方を減少してもよく、第1所定距離L1及び第2所定距離L2の一方を増加し、他方を減少してもよい。第1検出部1521によって検出されるエンドエフェクタ230の位置及び姿勢の情報に基づき、第2決定部1524が、エンドエフェクタ230の移動速度を検出してもよい。第1検出部1521がエンドエフェクタ230の移動速度を検出してもよい。
例えば、第2決定部1524は、エンドエフェクタ230の移動速度が増加すると、第1所定距離L1を大きくするように変更し、第2所定距離L2を小さくするように変更してもよい。これにより、無人飛行体120がロボット200及び周囲の物体と接触することがより確実に防がれる。
例えば、第2決定部1524は、エンドエフェクタ230の移動速度が減少すると、第1所定距離L1を小さくするように変更し、第2所定距離L2を大きくするように変更してもよい。これにより、無人飛行体120がエンドエフェクタ230に接近することができる。
例えば、第2決定部1524は、エンドエフェクタ230の移動速度の変化に追従して変動するように、第1所定距離L1及び第2所定距離L2を増減してもよい。又は、第2決定部1524は、エンドエフェクタ230の移動速度と閾値との比較結果に基づき、第1所定距離L1及び第2所定距離L2の増減を決定してもよい。この場合、第2決定部1524は、エンドエフェクタ230の移動速度と複数の閾値とを比較し、段階的に第1所定距離L1及び第2所定距離L2増減してもよい。
また、本変形例では、撮像制御装置150Aは、カメラ111の目標位置とエンドエフェクタ230の位置との関係に基づき、無人飛行体120の飛行エリアを制限するが、これに限定されない。
例えば、図7は、変形例1における無人飛行体120の飛行の制限エリアの別例を示す斜視図である。図7に示すように、撮像制御装置150Aは、ロボット200の可動範囲A4とカメラ111の目標位置との関係に基づき、無人飛行体120が可動範囲A4に侵入しないように飛行エリアを制限してもよい。可動範囲A4は、ロボット200のロボットアーム210が動作可能な範囲である。カメラ111の目標位置が可動範囲A4内に位置する場合、撮像制御装置150Aは、エンドエフェクタ230と無人飛行体120との距離が第1所定距離L1未満となる場合と同様の制御を行ってもよい。
撮像制御装置150Aは、ロボット200の作業範囲A5とカメラ111の目標位置との関係に基づき、無人飛行体120が作業範囲A5に侵入しないように飛行エリアを制限してもよい。作業範囲A5は、ロボット200が所定の作業を実行する際にロボットアーム210が動作し得る範囲である。カメラ111の目標位置が作業範囲A5内に位置する場合、撮像制御装置150Aは、エンドエフェクタ230と無人飛行体120との距離が第1所定距離L1未満となる場合と同様の制御を行ってもよい。
撮像制御装置150Aは、ロボットアーム210とカメラ111の目標位置との関係に基づき、無人飛行体120がロボットアーム210から第3所定距離L3以下のエリアであるアームエリアA6に侵入しないように飛行エリアを制限してもよい。撮像制御装置150Aは、ロボットアーム210の関節駆動装置212のフィードバック情報を用いて、ロボットアーム210の各関節及びその他の各部の位置を検出してもよい。さらに、撮像制御装置150Aは、検出された位置に基づき、アームエリアA6の位置を検出してもよい。
アームエリアA6は、ロボットアーム210の囲むエリアであり、ロボットアーム210の動作に追従して変動する。本例では、アームエリアA6は、ロボットアーム210の各関節211(図1参照)の回転中心軸から第3所定距離L3以下のエリアであるが、これに限定されず、例えば、ロボットアーム210の表面等のロボットアーム210のいかなる部分を基準とするエリアであってもよい。さらに、本例では、アームエリアA6は、ロボットアーム210の全体にわたるエリアであるが、これに限定されず、例えば、エンドエフェクタ230の近傍の一部等のロボットアーム210の少なくとも一部にわたるエリアであってもよい。カメラ111の目標位置がアームエリアA6内に位置する場合、撮像制御装置150Aは、エンドエフェクタ230と無人飛行体120との距離が第1所定距離L1未満となる場合と同様の制御を行ってもよい。
また、撮像制御装置150Aは、第1所定距離L1及び第2所定距離L2を用いて無人飛行体120の飛行エリアを制限する制御と、可動範囲A4を用いて無人飛行体120の飛行エリアを制限する制御と、作業範囲A5を用いて無人飛行体120の飛行エリアを制限する制御と、アームエリアA6を用いて無人飛行体120の飛行エリアを制限する制御とを、別々に実行するように構成されてもよく、これらの制御のうちの2つ以上を組み合わせて実行するように構成されてもよい。
(変形例2)
例示的な実施の形態の変形例2は、撮像システム100がユーザPの頭部Hの動きを検出する動き検出装置160を備え、動き検出装置160によって検出される頭部Hの動きに追従してカメラ111の位置及び姿勢を変動させるように構成される点で、例示的な実施の形態及び変形例1と異なる。以下、変形例2について、例示的な実施の形態及び変形例1と異なる点を中心に説明し、例示的な実施の形態及び変形例1と同様の点の説明を適宜省略する。
図8は、例示的な実施の形態の変形例2に係るロボットシステム1の構成の一例を示す斜視図である。図9は、変形例2に係る撮像システム100の機能的な構成の一例を示すブロック図である。図8及び図9に示すように、撮像システム100は、表示装置として表示装置140Bを備え、さらに動き検出装置160を備える。また、撮像システム100の撮像制御装置150Bは、検出制御部156をさらに含む。
表示装置140Bは、ユーザPの頭部Hに取り付けられるヘッドマウントディスプレイである。本変形例では、ヘッドマウントディスプレイは、ゴーグル状の形状を有し、ヘッドマウントディスプレイのレンズ部分が、画像が表示される表示面を形成する。表示装置140Bは、ユーザPの頭部Hと共に移動することでユーザPの頭部Hの動きに追従して画像を表示する位置及び向きを変えることができる。
なお、表示装置140Bは、ユーザPの頭部Hに取り付けられないように構成されてもよく、この場合、表示装置140Bの表示面の位置、当該表示面の姿勢、又は、当該表示面の位置及び姿勢の両方を変えることができるように構成されてもよく、表示装置140Bの表示面が固定されるように構成されてもよい。
動き検出装置160は、検出装置の一例であり、ユーザPの頭部Hの動きを検出する。動き検出装置160は特に限定されないが、本変形例では、少なくとも1つの赤外線センサ161と、頭部Hに装着される少なくとも1つの赤外線マーカ162とを含む。本変形例では、複数の赤外線センサ161、具体的には、3つの赤外線センサ161がユーザPの周りにユーザPに向けて配置される。3つの赤外線センサ161は、ユーザPの頭部Hから離れた位置に配置される。複数の赤外線マーカ162、具体的には、4つの赤外線マーカ162が頭部H上の異なる位置に配置される。なお、頭部は、人体における首から上の部分を含み、例えば、顔面、頭頂部、側頭部、後頭部等を含み得る。
赤外線マーカ162は、赤外光を出射する。赤外線マーカ162は、赤外線LED(Light Emitting Diode)等の赤外光を自身で発する発光体であってもよく、照射された赤外光を反射する反射体であってもよく、発光体及び反射体の両方を含むように構成されてもよい。赤外線センサ161は、赤外光を受光し、受光される赤外光の方向、強度及び強度分布等を検出することができる。赤外線センサ161は、赤外光の受光のみが可能であるように構成されてもよく、赤外光を自身で発し、当該赤外光の反射光等の赤外光を受光するように構成されてもよい。後者の場合、赤外線センサ161は、赤外線カメラであってもよい。3つの赤外線センサ161を用いて4つの赤外線マーカ162からの赤外光を検出することで、頭部Hの位置及び姿勢等を高精度に検出することが可能である。以下に限定されないが、頭部Hの位置は、3次元空間内での頭部Hの所定の基準点等の3次元の位置であってもよい。頭部Hの姿勢は、頭部Hの正面部分、頭部Hを横切る平面、及び頭部Hの顎から頭頂部を通る軸等の所定の部分、面又は軸の姿勢であってもよく、具体的には、3次元空間内での上記所定の部分、面又は軸の3次元の向きであってもよい。
なお、上記と逆となるように、赤外線センサ161がユーザPの頭部Hに装着され、赤外線マーカ162がユーザPの頭部Hから離れた位置に配置されてもよい。赤外線センサ161及び赤外線マーカ162の位置及び数量は、頭部Hの位置、姿勢、又は、位置及び姿勢の両方等の検出が可能であればよく、特に限定されない。
検出制御部156は、3つの赤外線センサ161の駆動を制御し、3つの赤外線センサ161が4つの赤外線マーカ162からの赤外光を検出する結果を処理して、4つの赤外線マーカ162の3次元の位置及び姿勢を検出する。つまり、検出制御部156は、赤外線マーカ162の3次元の位置及び姿勢を検出することで、ユーザPの頭部Hの位置及び姿勢を検出する。検出制御部156は、頭部Hの位置及び姿勢の情報を位置姿勢演算部152に出力する。
具体的には、3つの赤外線センサ161はそれぞれ、4つの赤外線マーカ162から出射される赤外光を受光する。各赤外線マーカ162から出射される赤外光は、当該赤外線マーカ162に設定されるID等の識別情報と関連付けられている。このため、各赤外線センサ161は、4つの赤外線マーカ162それぞれの赤外光の向き、強度及び強度分布等を検出することができる。検出制御部156は、記憶部154に予め記憶される各赤外線センサ161の3次元の位置及び姿勢の情報と、各赤外線センサ161による4つの赤外線マーカ162の赤外光の検出結果とを用いて、4つの赤外線マーカ162の3次元の位置を検出する。例えば、検出制御部156は、第1座標系に従って、4つの赤外線マーカ162の3次元の位置を検出する。さらに、検出制御部156は、4つの赤外線マーカ162の3次元の位置の情報を用いて、ユーザPの頭部Hの3次元の位置及び姿勢を検出する。例えば、検出制御部156は、ローリング角、ピッチング角及びヨーイング角等の姿勢角を用いて姿勢を表す。
位置姿勢演算部152は、例示的な実施の形態において撮像入力装置130に入力されるカメラ111の位置及び姿勢を移動する指令と同様に、頭部Hの位置及び姿勢の情報をカメラ111の位置及び姿勢を移動する指令として用いて、カメラ111の目標位置及び目標姿勢を決定する。位置姿勢演算部152は、頭部Hの位置及び姿勢の変動量に対応するカメラ111の位置及び姿勢の変動量でカメラ111を移動させるためのカメラ111の目標位置及び目標姿勢を決定する。
例えば、頭部Hの水平方向及び鉛直方向の移動はそれぞれ、カメラ111の水平方向及び鉛直方向の移動に対応付けられる。頭部Hのローリング方向、ピッチング方向及びヨーイング方向の移動はそれぞれ、カメラ111のローリング方向、ピッチング方向及び方向の移動に対応付けられる。
位置姿勢演算部152の決定部1523は、頭部Hの位置及び姿勢の情報からカメラ111の目標位置及び目標姿勢を演算する。例えば、記憶部154は、ユーザPの頭部Hの動きに従って各装置を移動させるための種々のパラメータの関係を記憶する。例えば、頭部Hの位置及び姿勢の変動量とカメラ111の位置及び姿勢の変動量との関係である変動関係が、記憶部154に記憶される。決定部1523は、頭部Hの位置及び姿勢の情報と変動関係とを用いて、頭部Hの動きに追従してカメラ111を移動させるためのカメラ111の目標位置及び目標姿勢を決定する。ここで、頭部Hの位置及び姿勢の情報は、動作するロボット200に対して、ユーザPがカメラ111を通じてエンドエフェクタ230等のロボット200の部位を視認するために、ユーザPが移動させる頭部Hの位置及び姿勢の情報を含む。
決定部1523は、所定相対関係を用いてカメラ111の目標の位置及び姿勢を決定する制御を実行中に、検出制御部156からユーザPの頭部Hの位置及び姿勢の変動を示す情報(以下、「頭部動作情報」とも呼ぶ)を受け取ると、頭部動作情報に従ったカメラ111の目標の位置及び姿勢を決定する制御を優先させてもよい。つまり、決定部1523は、カメラ111の位置及び向きを修正する指令である修正指令として、頭部動作情報を受け付け、所定相対関係に対応するカメラ111の目標の位置及び向きを、頭部動作情報に従ったカメラの111の目標の位置及び向きに変動させる。これにより、所定相対関係を用いて決定されるカメラ111の目標の位置及び姿勢が、頭部Hの位置及び姿勢の変動に従ったカメラ111の目標の位置及び姿勢によって修正される。つまり、ユーザPは、頭部Hを移動させることでカメラ111の目標位置及び目標姿勢を意図する位置及び姿勢に修正することができる。
なお、決定部1523は、所定相対関係を用いたカメラ111の目標の位置及び姿勢の代わりに、頭部動作情報に従ったカメラ111の目標の位置及び姿勢を修正後のカメラ111の目標の位置及び姿勢に決定してもよい。決定部1523は、所定相対関係を用いたカメラ111の目標の位置及び姿勢に頭部動作情報に従ったカメラ111の目標の位置及び姿勢を加えて生成されるカメラ111の目標の位置及び姿勢を、修正後のカメラ111の目標の位置及び姿勢に決定してもよい。
決定部1523は、カメラ111の目標の位置及び向きの修正以降、修正結果を、所定相対関係に対応するカメラ111の目標の位置及び向きの決定に反映してもよい。又は、決定部1523は、カメラ111の目標の位置及び向きの修正以降、修正結果を所定相対関係に反映せずに、カメラ111の目標の位置及び姿勢を決定してもよい。
変形例2に係る撮像システム100の動作を説明する。図10は、変形例2に係る撮像システム100の動作の一例を示すフローチャートである。図10に示すように、まず、ステップS201において、撮像制御装置150Bは、ロボット200のエンドエフェクタ230と撮像装置110のカメラ111との所定相対関係と、カメラ111及びユーザPの頭部Hそれぞれの初期位置及び初期姿勢とを決定する初期設定モードで動作する。
次いで、ステップS202及びS203の処理は、例示的な実施の形態のステップS102及びS103と同様である。
次いで、ステップS204において、撮像制御装置150Bは、ユーザPの頭部Hの初期位置及び初期姿勢を決定する。具体的には、ユーザPは、頭部Hの位置及び姿勢が所望の位置及び姿勢となると、頭部Hの初期位置及び初期姿勢の決定する指令を撮像入力装置130に入力する。撮像制御装置150Bは、動き検出装置160の3つの赤外線センサ161に赤外光の検出動作をさせ、各赤外線センサ161の検出結果を処理し、頭部Hの位置及び姿勢を検出する。撮像制御装置150Bは、検出された頭部Hの位置及び姿勢を、頭部Hの初期位置及び初期姿勢に決定する。
次いで、ステップS205からS212の処理は、例示的な実施の形態のステップS104からS111の処理と同様である。
次いで、ステップS213において、撮像制御装置150Bは、ユーザPによって撮像入力装置130に、頭部Hの動きに追従してカメラ111の位置及び姿勢を修正する指令である修正指令が入力されたか否かを判定する。撮像制御装置150Bは、入力済みの場合(ステップS213でYes)にステップS214に進み、未入力の場合(ステップS213でNo)にステップS222に進む。
ステップS214において、撮像制御装置150Bは、3つの赤外線センサ161に、頭部Hの赤外線マーカ162の赤外光の検出を連続的に実行させる。なお、撮像制御装置150Bは、ステップS207の処理後からステップS213の処理後までのいかなるタイミングでステップS214の処理を開始してもよい。
次いで、ステップS215において、ユーザPは、表示装置140Bを視認しつつ頭部Hを所望の位置及び姿勢に移動させる。例えば、ユーザPは、表示装置140Bに映し出されるエンドエフェクタ230を視たい位置及び姿勢になるように頭部Hを移動させる。撮像制御装置150Bは、各赤外線センサ161の検出結果を処理し、初期位置及び初期姿勢に対するユーザPの頭部Hの位置及び姿勢を検出する。撮像制御装置150Bは、所定の時間間隔で頭部Hの位置及び姿勢を検出する。
次いで、ステップS216において、撮像制御装置150Bは、検出された頭部Hの位置及び姿勢に従ってカメラ111の位置及び姿勢を移動させるためのカメラ111の目標位置及び目標姿勢を、カメラ111の修正目標位置及び修正目標姿勢として決定する。撮像制御装置150Bは、検出された頭部Hの位置及び姿勢の情報と記憶部154に記憶される変動関係とに基づき、カメラ111の修正目標位置及び修正目標姿勢を演算する。
次いで、ステップS217において、撮像制御装置150Bは、カメラ111の修正目標位置及び修正目標姿勢にカメラ111の位置及び姿勢を移動させるための無人飛行体120の修正目標位置及び修正目標姿勢とジンバル112の各部の修正目標動作状態とを決定する。撮像制御装置150Bは、修正目標位置及び修正目標姿勢に無人飛行体120を移動させる修正動作指令と、修正目標動作状態にジンバル112を動作させる修正動作指令とを、無人飛行体120及び撮像装置110に送信する。
次いで、ステップS218において、無人飛行体120は、修正動作指令に従って修正目標位置及び修正目標姿勢に移動し、撮像装置110は、修正動作指令に従ってジンバル112を修正目標動作状態に動作させる。
次いで、ステップS219において、撮像制御装置150Bは、ユーザPによって撮像入力装置130に、修正指令を終了する入力がされたか否かを判定し、入力済みの場合(ステップS219でYes)にステップS220に進み、未入力の場合(ステップS219でNo)にステップS214に戻る。
ステップS220及びS221の処理は、例示的な実施の形態のステップS115及びS116の処理と同様である。
次いで、ステップS222において、撮像制御装置150Bは、ユーザPによって撮像入力装置130に撮像システム100の動作を終了する指令が入力されたか否かを判定し、入力済みの場合(ステップS222でYes)に一連の処理を終了し、未入力の場合(ステップS222でNo)にステップS209に戻る。
ステップS201からS222の処理によって、撮像制御装置150Bは、ユーザPの頭部Hの動きに追従して移動させるカメラ111の位置及び姿勢に基づき、相対位置関係を修正する。よって、ユーザPは、頭部Hを所望の位置及び方向に移動させることによって、ユーザPとってより望ましい相対位置関係を簡易に決定することができる。
なお、変形例2において、撮像制御装置150Bは、相対位置関係に従った無人飛行体120及びジンバル112の動作の制御中、カメラ111の位置及び姿勢の修正指令を受け付けると、ユーザPの頭部Hの動きに追従して移動するカメラ111の位置及び姿勢に対応するように相対位置関係を修正するが、これに限定されない。例えば、撮像制御装置150Bは、頭部Hの動きに追従してカメラ111の位置及び姿勢を修正するが、相対位置関係を修正しないように構成されてもよい。この場合、撮像制御装置150Bは、頭部Hの動きに追従してカメラ111の位置及び姿勢を一時的に修正し、その後、既存の相対位置関係に従ってカメラ111の位置及び姿勢を制御する。さらに、撮像制御装置150Bは、相対位置関係の修正の有無を、撮像入力装置130を介したユーザPの指令に従って決定してもよい。
また、変形例2において、撮像制御装置150Bは、撮像入力装置130を用いた操作に従ってカメラ111の位置及び姿勢を移動させる制御と、ユーザPの頭部Hの動きにカメラ111の位置及び姿勢を追従させる制御とを併用するように構成されてもよい。また、変形例2に係る撮像システム100の構成を変形例1に適用してもよい。
(その他の実施の形態)
以上、本開示の例示的な実施の形態及び変形例について説明したが、本開示は、上記例示的な実施の形態及び変形例に限定されない。すなわち、本開示の範囲内で種々の変形及び改良が可能である。例えば、各種変形を例示的な実施の形態及び変形例に施したもの、及び、異なる例示的な実施の形態及び変形例における構成要素を組み合わせて構築される形態も、本開示の範囲内に含まれる。
例えば、例示的な実施の形態及び変形例において、撮像制御装置150、150A及び150Bは、相対位置関係に従って無人飛行体120及びジンバル112の動作を制御するように構成されるが、これに限定されない。例えば、撮像制御装置150、150A及び150Bは、相対位置関係を用いずに、ユーザPによって撮像入力装置130に入力されるカメラ111の位置及び姿勢の指令に従って、並びに/又は、ユーザPの頭部Hの動きにカメラの111の位置及び姿勢を追従させるように、無人飛行体120及びジンバル112の動作を制御するように構成されてもよい。
また、変形例2において、動き検出装置160は、ユーザPの頭部Hの動きを検出するために赤外線センサ161及び赤外線マーカ162を備えるが、これに限定されず、頭部Hの動きを検出可能ないかなる構成を備えてもよい。
例えば、動き検出装置160は、頭部Hに装着される加速度センサ及び角速度センサを備え、頭部Hの6軸方向の加速度及び角速度を検出してもよい。この場合、撮像制御装置150Bは、加速度センサ及び角速度センサから検出結果を有線通信又は無線通信を介して受信するように構成されてもよい。撮像制御装置150Bは、加速度及び角速度の検出結果を用いて頭部Hの位置及び姿勢を検出してもよい。
又は、動き検出装置160は、頭部Hから離れた位置に配置された3次元カメラを備え、頭部Hの3次元画像を撮像してもよい。3次元画像の各画素の画素値は、当該画素に映し出される被写体までの距離値を示す。この場合、撮像制御装置150Bは、頭部Hのテンプレートを用いたパターンマッチング手法等の画像処理により、3次元画像に映し出される頭部Hの像及び頭部Hの姿勢を検出し、3次元画像の各画素の画素値から頭部Hの位置を検出してもよい。さらに、動き検出装置160は、互いに異なる位置及び向きで配置された複数の3次元カメラを備えてもよい。撮像制御装置150Bは、各3次元カメラの3次元画像を処理することで、頭部Hの3次元モデルを生成してもよい。撮像制御装置150Bは、頭部Hの3次元モデルを用いて頭部Hの位置及び姿勢を検出してもよい。
又は、動き検出装置160は、磁場発生装置と、頭部Hに装着される磁気センサとを備え、磁気センサの位置及び姿勢を検出してもよい。この場合、撮像制御装置150Bは、磁気センサから検出結果を有線通信又は無線通信を介して受信するように構成されてもよい。撮像制御装置150Bは、磁気センサの位置及び姿勢の検出結果を用いて頭部Hの位置及び姿勢を検出してもよい。
また、本開示の技術の各態様例は、以下のように挙げられる。本開示の一態様に係る撮像システムは、無人飛行体と、前記無人飛行体に搭載され、対象物に対して作業を行うロボットを撮像する撮像装置と、前記無人飛行体から遠隔に配置され、前記撮像装置によって撮像された画像を、前記ロボットを操作するユーザに表示する表示装置と、前記撮像装置及び前記無人飛行体の動作を制御する制御装置とを備え、前記制御装置は、前記ロボットの動作に関連する情報である動作関連情報を取得し、前記動作関連情報に対応して前記撮像装置の位置及び向きを変動させるように前記無人飛行体を移動させる。
上記態様によると、撮像システムは、ロボットの操作に関連する動作関連情報を無人飛行体の移動の制御に用いる。これにより、無人飛行体の操作するためのユーザの操作の簡略化及び操作量の低減が可能になる。よって、撮像システムは、撮像装置を搭載する無人飛行体の操作を簡易にすることができる。
本開示の一態様に係る撮像システムにおいて、前記制御装置は、前記動作関連情報として前記ロボットの動作を示す動作情報を取得し、前記動作情報に従って前記撮像装置の位置及び向きを変動させるように前記無人飛行体を移動させてもよい。
上記態様によると、撮像システムは、ロボットの動作情報を無人飛行体の移動の制御に用いる。例えば、撮像システムは、ロボットの動作に追従して移動するように、無人飛行体の移動を制御することができる。これにより、ユーザによる無人飛行体の操作の簡略化及び操作量の低減が可能になる。
本開示の一態様に係る撮像システムは、前記ユーザによる指令の入力を受け付ける入力装置をさらに備え、前記制御装置は、前記撮像装置の位置及び向きを修正する指令である修正指令を前記入力装置を介して受け付け、前記動作関連情報に対応する前記撮像装置の位置及び向きを、前記修正指令に従った前記撮像装置の位置及び向きに変動させるように、前記無人飛行体を移動させてもよい。
上記態様によると、撮像システムは、動作関連情報に対応して撮像装置の位置及び向きを変動させる無人飛行体の移動を、入力装置を介して受け付けられた修正指令に従って修正することができる。撮像システムは、動作関連情報に対応する撮像装置の位置及び向きの代わりに、修正指令に従った撮像装置の位置及び向きを用いてもよく、動作関連情報に対応する撮像装置の位置及び向きに修正指令に従った撮像装置の位置及び向きを加えて生成される撮像装置の位置及び向きを用いてもよい。いずれにおいても、ユーザは、撮像装置の位置及び向きを意図するように修正することができる。
本開示の一態様に係る撮像システムにおいて、前記制御装置は、前記修正指令に従った前記撮像装置の位置及び向きの変動以降、前記修正指令に従った前記撮像装置の位置及び向きの変動結果を、前記動作関連情報に対応する前記撮像装置の位置及び向きに反映してもよい。
上記態様によると、撮像システムは、修正指令に従った修正を、修正以降の無人飛行体の移動の制御に反映することができる。よって、撮像システムは、ユーザの意図を反映しつつ動作関連情報に対応して撮像装置の位置及び向きを変動させるように、無人飛行体を移動させることができる。
本開示の一態様に係る撮像システムは、前記ユーザの頭部の動きを検出する検出装置をさらに備え、前記制御装置は、前記ユーザの頭部の動きの情報を前記検出装置から取得し、前記ユーザの頭部の動きに追従して前記撮像装置の位置及び向きを変動させるように前記無人飛行体を移動させてもよい。
上記態様によると、撮像システムは、ユーザの頭部の動きの情報を無人飛行体の移動の制御に用いる。撮像システムは、動作関連情報に対応する撮像装置の位置及び向きの代わりに、ユーザの頭部の動きに追従した撮像装置の位置及び向きを用いてもよく、動作関連情報に対応する撮像装置の位置及び向きにユーザの頭部の動きに追従した撮像装置の位置及び向きを加えて生成される撮像装置の位置及び向きを用いてもよい。いずれにおいても、ユーザによる無人飛行体の操作の簡略化及び操作量の低減が可能になる。例えば、ユーザは、視ることを意図する方向及び移動量で頭部を移動させることで、撮像装置を対応する方向及び移動量で移動させ、意図する画像を視ることができる。
本開示の一態様に係る撮像システムにおいて、前記ロボットは、エンドエフェクタと前記エンドエフェクタを移動させるロボットアームとを含み、前記制御装置は、前記動作関連情報として前記エンドエフェクタの位置及び向きの情報を取得し、前記エンドエフェクタの位置及び向きに追従して前記撮像装置の位置及び向きを変動させるように前記無人飛行体を移動させてもよい。
上記態様によると、ユーザは、ロボットを操作してエンドエフェクタの位置及び向きを変動させることで、無人飛行体に撮像装置の位置及び向きを変動させることができる。これにより、ユーザによる無人飛行体の操作の簡略化及び操作量の低減が可能になる。例えば、撮像装置がエンドエフェクタを撮像している場合、撮像装置は、エンドエフェクタの位置及び向きの変動に対応して移動するため、撮像装置はエンドエフェクタを継続して撮像し表示装置に映し出すことができる。例えば、定位置からの撮像では、移動するエンドエフェクタがロボットアームに隠れてしまうような場合でも、撮像装置はロボットアームによる干渉を回避してエンドエフェクタを撮像することができる。
本開示の一態様に係る撮像システムにおいて、前記制御装置は、前記エンドエフェクタの位置及び向きの情報に基づき、前記エンドエフェクタと前記無人飛行体との距離が第1所定距離以上となるように、前記無人飛行体の動作を制御してもよい。
上記態様によると、撮像システムは、エンドエフェクタから第1所定距離未満の領域に進入しないように無人飛行体の移動を制御する。よって、撮像システムは、無人飛行体がエンドエフェクタ及びロボットアームと接触することを抑制することができる。
本開示の一態様に係る撮像システムにおいて、前記制御装置は、前記エンドエフェクタと前記無人飛行体との距離が前記第1所定距離未満になる指令を受け付けた場合、前記無人飛行体を前記エンドエフェクタから前記第1所定距離以上で離れて位置させ、前記撮像装置にズームアップ撮像をさせてもよい。
上記態様によると、無人飛行体がエンドエフェクタから第1所定距離未満の目的位置に移動する必要がある場合、撮像システムは、エンドエフェクタから第1所定距離未満の領域内への無人飛行体の進入を抑えつつ、目的位置で撮像した場合と同様の画像を撮像装置に撮像させることができる。
本開示の一態様に係る撮像システムにおいて、前記制御装置は、前記エンドエフェクタの位置及び向きの情報に基づく前記エンドエフェクタの移動速度に応じて、前記第1所定距離を増減してもよい。
上記態様によると、無人飛行体はエンドエフェクタの位置及び向きに追従するように移動するため、無人飛行体の移動速度は、エンドエフェクタの移動速度と同様に増減する。撮像システムは、エンドエフェクタの移動速度に応じて第1所定距離を増減することで、無人飛行体がエンドエフェクタ及びロボットアームと接触することをより確実に防ぐことができる。例えば、エンドエフェクタの移動速度が増加すると、第1所定距離が増加されてもよく、エンドエフェクタの移動速度が減少すると、第1所定距離が減少されてもよい。ロボットがエンドエフェクタを用いて緻密な作業を行う場合、エンドエフェクタの移動速度が低くなる傾向があり、無人飛行体はエンドエフェクタに接近することができる。
本開示の一態様に係る撮像システムにおいて、前記制御装置は、前記エンドエフェクタの位置及び向きの情報に基づき、前記エンドエフェクタと前記無人飛行体との距離が第2所定距離以下となるように、前記無人飛行体の動作を制御してもよい。
上記態様によると、撮像システムは、エンドエフェクタから第2所定距離超の領域に進入しないように無人飛行体の移動を制御する。よって、撮像システムは、無人飛行体が周囲の物体と接触することを抑制することができる。第2所定距離は、第1所定距離よりも大きくてもよい。
本開示の一態様に係る撮像システムにおいて、前記制御装置は、前記エンドエフェクタと前記無人飛行体との距離が前記第2所定距離超になる指令を受け付けた場合、前記無人飛行体を前記エンドエフェクタから前記第2所定距離以下で離れて位置させ、前記撮像装置にズームバック撮像をさせてもよい。
上記態様によると、無人飛行体がエンドエフェクタから第2所定距離超の目的位置に移動する必要がある場合、撮像システムは、エンドエフェクタから第2所定距離超の領域内への無人飛行体の進入を抑えつつ、目的位置で撮像した場合と同様の画像を撮像装置に撮像させることができる。
本開示の一態様に係る撮像システムにおいて、前記制御装置は、前記エンドエフェクタの位置及び向きの情報に基づく前記エンドエフェクタの移動速度に応じて、前記第2所定距離を増減してもよい。
上記態様によると、撮像システムは、エンドエフェクタの移動速度に応じて第2所定距離を増減することで、無人飛行体が周囲の物体と接触することをより確実に防ぐことができる。例えば、エンドエフェクタの移動速度が増加すると、第2所定距離が減少されてもよく、エンドエフェクタの移動速度が減少すると、第2所定距離が増加されてもよい。
本開示の一態様に係るロボットシステムは、本開示の一態様に係る撮像システムと、前記ロボットとを備える。上記態様によると、本開示の一態様に係る撮像システムと同様の効果が得られる。
また、上記で用いた序数、数量等の数字は、全て本開示の技術を具体的に説明するために例示するものであり、本開示は例示された数字に制限されない。また、構成要素間の接続関係は、本開示の技術を具体的に説明するために例示するものであり、本開示の機能を実現する接続関係はこれに限定されない。
本開示は、その本質的な特徴の精神から逸脱することなく、様々なかたちで実施され得るように、本開示の範囲は、明細書の記載よりも添付の請求項によって定義されるため、例示的な実施の形態及び変形例は、例示的なものであって限定的なものではない。請求項及びその範囲内にあるすべての変更、又は、請求項及びその範囲の均等物は、請求項によって包含されることが意図されている。
1 ロボットシステム
100 撮像システム
110 撮像装置
120 無人飛行体
130 撮像入力装置(入力装置)
140,140B 表示装置
150,150A,150B 撮像制御装置(制御装置)
160 動き検出装置(検出装置)
161 赤外線センサ
162 赤外線マーカ
200 ロボット
210 ロボットアーム
230 エンドエフェクタ
H 頭部
P ユーザ

Claims (11)

  1. 無人飛行体と、
    前記無人飛行体に搭載され、対象物に対して作業を行うロボットを撮像する撮像装置と、
    前記無人飛行体から遠隔に配置され、前記撮像装置によって撮像された画像を、前記ロボットを操作するユーザに表示する表示装置と、
    前記撮像装置及び前記無人飛行体の動作を制御する制御装置とを備え、
    前記ロボットは、エンドエフェクタと前記エンドエフェクタを移動させるロボットアームとを含み、
    前記制御装置は、前記ロボットの動作に関連する情報である動作関連情報として、前記エンドエフェクタの位置及び向きの情報を取得し、前記エンドエフェクタの位置及び向きに追従して前記撮像装置の位置及び向きを変動させるように前記無人飛行体を移動させ、
    前記制御装置は、前記エンドエフェクタの位置及び向きの情報に基づき、前記エンドエフェクタと前記無人飛行体との距離が第1所定距離以上となるように、前記無人飛行体の動作を制御し、
    前記制御装置は、前記エンドエフェクタの位置及び向きの情報に基づく前記エンドエフェクタの移動速度に応じて、前記第1所定距離を増減する
    撮像システム。
  2. 前記制御装置は、前記エンドエフェクタと前記無人飛行体との距離が前記第1所定距離未満になる指令を受け付けた場合、前記無人飛行体を前記エンドエフェクタから前記第1所定距離以上で離れて位置させ、前記撮像装置にズームアップ撮像をさせる
    請求項に記載の撮像システム。
  3. 無人飛行体と、
    前記無人飛行体に搭載され、対象物に対して作業を行うロボットを撮像する撮像装置と、
    前記無人飛行体から遠隔に配置され、前記撮像装置によって撮像された画像を、前記ロボットを操作するユーザに表示する表示装置と、
    前記撮像装置及び前記無人飛行体の動作を制御する制御装置とを備え、
    前記ロボットは、エンドエフェクタと前記エンドエフェクタを移動させるロボットアームとを含み、
    前記制御装置は、前記ロボットの動作に関連する情報である動作関連情報として、前記エンドエフェクタの位置及び向きの情報を取得し、前記エンドエフェクタの位置及び向きに追従して前記撮像装置の位置及び向きを変動させるように前記無人飛行体を移動させ、
    前記制御装置は、前記エンドエフェクタの位置及び向きの情報に基づき、前記エンドエフェクタと前記無人飛行体との距離が第2所定距離以下となるように、前記無人飛行体の動作を制御し、
    前記制御装置は、前記エンドエフェクタの位置及び向きの情報に基づく前記エンドエフェクタの移動速度に応じて、前記第2所定距離を増減する
    撮像システム。
  4. 前記制御装置は、前記エンドエフェクタと前記無人飛行体との距離が前記第2所定距離超になる指令を受け付けた場合、前記無人飛行体を前記エンドエフェクタから前記第2所定距離以下で離れて位置させ、前記撮像装置にズームバック撮像をさせる
    請求項に記載の撮像システム。
  5. 前記ユーザによる指令の入力を受け付ける入力装置をさらに備え、
    前記制御装置は、前記撮像装置の位置及び向きを修正する指令である修正指令を前記入力装置を介して受け付け、前記動作関連情報に対応する前記撮像装置の位置及び向きを、
    前記修正指令に従った前記撮像装置の位置及び向きに変動させるように、前記無人飛行体を移動させる
    請求項1からのいずれか一項に記載の撮像システム。
  6. 前記制御装置は、前記修正指令に従った前記撮像装置の位置及び向きの変動以降、前記修正指令に従った前記撮像装置の位置及び向きの変動結果を、前記動作関連情報に対応する前記撮像装置の位置及び向きに反映する
    請求項に記載の撮像システム。
  7. 前記ユーザの頭部の動きを検出する検出装置をさらに備え、
    前記制御装置は、前記ユーザの頭部の動きの情報を前記検出装置から取得し、前記ユーザの頭部の動きに追従して前記撮像装置の位置及び向きを変動させるように前記無人飛行体を移動させる
    請求項1からのいずれか一項に記載の撮像システム。
  8. 記制御装置は、前記エンドエフェクタの位置及び向きと前記撮像装置の位置及び向きとが所定の相対関係を維持するように前記無人飛行体を自律的に移動させる
    請求項1からのいずれか一項に記載の撮像システム。
  9. 請求項1からのいずれか一項に記載の撮像システムと、
    前記ロボットとを備える
    ロボットシステム。
  10. 無人飛行体に搭載され、対象物に対して作業を行うロボットを撮像する撮像装置によって撮像された画像を、前記無人飛行体から遠隔に配置された表示装置を介して、前記ロボットを操作するユーザに表示する撮像システムの制御方法であって、
    エンドエフェクタと前記エンドエフェクタを移動させるロボットアームとを含む前記ロボットの動作に関連する情報である動作関連情報として、前記エンドエフェクタの位置及び向きの情報を取得することと、
    前記エンドエフェクタの位置及び向きに追従して前記撮像装置の位置及び向きを変動させるように前記無人飛行体を移動させる、前記無人飛行体の動作の制御を行うことであって、前記エンドエフェクタの位置及び向きの情報に基づき、前記エンドエフェクタと前記無人飛行体との距離が第1所定距離以上となるように、前記無人飛行体の動作の制御を行うことと、
    前記エンドエフェクタの位置及び向きの情報に基づく前記エンドエフェクタの移動速度に応じて、前記第1所定距離を増減することとを含む
    撮像システムの制御方法。
  11. 無人飛行体に搭載され、対象物に対して作業を行うロボットを撮像する撮像装置によって撮像された画像を、前記無人飛行体から遠隔に配置された表示装置を介して、前記ロボットを操作するユーザに表示する撮像システムの制御方法であって、
    エンドエフェクタと前記エンドエフェクタを移動させるロボットアームとを含む前記ロボットの動作に関連する情報である動作関連情報として、前記エンドエフェクタの位置及び向きの情報を取得することと、
    前記エンドエフェクタの位置及び向きに追従して前記撮像装置の位置及び向きを変動させるように前記無人飛行体を移動させる、前記無人飛行体の動作の制御を行うことであって、前記エンドエフェクタの位置及び向きの情報に基づき、前記エンドエフェクタと前記無人飛行体との距離が第2所定距離以下となるように、前記無人飛行体の動作の制御を行うことと、
    前記エンドエフェクタの位置及び向きの情報に基づく前記エンドエフェクタの移動速度に応じて、前記第2所定距離を増減することとを含む
    撮像システムの制御方法。
JP2022531837A 2020-06-19 2021-06-15 撮像システム、ロボットシステム及び撮像システムの制御方法 Active JP7459253B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020106027 2020-06-19
JP2020106027 2020-06-19
PCT/JP2021/022670 WO2021256464A1 (ja) 2020-06-19 2021-06-15 撮像システム及びロボットシステム

Publications (2)

Publication Number Publication Date
JPWO2021256464A1 JPWO2021256464A1 (ja) 2021-12-23
JP7459253B2 true JP7459253B2 (ja) 2024-04-01

Family

ID=79267959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022531837A Active JP7459253B2 (ja) 2020-06-19 2021-06-15 撮像システム、ロボットシステム及び撮像システムの制御方法

Country Status (5)

Country Link
US (1) US20230239439A1 (ja)
JP (1) JP7459253B2 (ja)
CN (1) CN115697843A (ja)
TW (1) TW202201946A (ja)
WO (1) WO2021256464A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022032206A (ja) * 2020-08-11 2022-02-25 コベルコ建機株式会社 作業支援装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017131194A1 (ja) 2016-01-29 2017-08-03 住友建機株式会社 ショベル及びショベルの周囲を飛行する自律式飛行体
JP2019093471A (ja) 2017-11-22 2019-06-20 川崎重工業株式会社 ロボットシステム及びそれを用いて物を作る方法
US20200015401A1 (en) 2018-07-12 2020-01-16 TerraClear Inc. Object collection system and method
US20200055195A1 (en) 2017-05-03 2020-02-20 Taiga Robotics Corp. Systems and Methods for Remotely Controlling a Robotic Device
US20200104598A1 (en) 2017-05-24 2020-04-02 SZ DJI Technology Co., Ltd. Imaging control method and device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017131194A1 (ja) 2016-01-29 2017-08-03 住友建機株式会社 ショベル及びショベルの周囲を飛行する自律式飛行体
US20200055195A1 (en) 2017-05-03 2020-02-20 Taiga Robotics Corp. Systems and Methods for Remotely Controlling a Robotic Device
US20200104598A1 (en) 2017-05-24 2020-04-02 SZ DJI Technology Co., Ltd. Imaging control method and device
JP2019093471A (ja) 2017-11-22 2019-06-20 川崎重工業株式会社 ロボットシステム及びそれを用いて物を作る方法
US20200015401A1 (en) 2018-07-12 2020-01-16 TerraClear Inc. Object collection system and method

Also Published As

Publication number Publication date
US20230239439A1 (en) 2023-07-27
JPWO2021256464A1 (ja) 2021-12-23
WO2021256464A1 (ja) 2021-12-23
CN115697843A (zh) 2023-02-03
TW202201946A (zh) 2022-01-01

Similar Documents

Publication Publication Date Title
US20200055195A1 (en) Systems and Methods for Remotely Controlling a Robotic Device
JP6567563B2 (ja) 衝突回避および軌道復帰能力を有する人型ロボット
RU2664257C2 (ru) Системы и способы отслеживания местоположения подвижного целевого объекта
US11584004B2 (en) Autonomous object learning by robots triggered by remote operators
US20210387346A1 (en) Humanoid robot for performing maneuvers like humans
US20170348858A1 (en) Multiaxial motion control device and method, in particular control device and method for a robot arm
JP7339806B2 (ja) 制御システム、ロボットシステム及び制御方法
WO2019093282A1 (ja) 環境取得システム
US10232519B2 (en) Robot and method of controlling the same
CN111432991B (zh) 机器人***及使用其制作物品的方法
JP7459253B2 (ja) 撮像システム、ロボットシステム及び撮像システムの制御方法
WO2021073733A1 (en) Method for controlling a device by a human
US11926064B2 (en) Remote control manipulator system and remote control assistance system
WO2021117701A1 (ja) マスタスレーブシステム及び制御方法
JP7478236B2 (ja) 撮像システム及びロボットシステム
JP2003200377A (ja) ロボット,ロボットによる測距方法
WO2023145284A1 (ja) 情報処理装置及び情報処理方法、並びにコンピュータプログラム
Walęcki et al. Control system of a service robot's active head exemplified on visual servoing
CN115922731B (zh) 一种机器人的控制方法以及机器人
US11731278B1 (en) Robot teleoperation using mobile device motion sensors and web standards
US20230245397A1 (en) Information processing method, program, and system
US20220118602A1 (en) Control apparatus for robot, control method for robot, and program
Mariappan et al. A remote navigation methodology for a four wheel rectangular configured holonomic mobile telemedicine robot
JP2023177286A (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム
WO2023163955A1 (en) Techniques for repositioning a computer-assisted system with motion partitioning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240319

R150 Certificate of patent or registration of utility model

Ref document number: 7459253

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150