JP2010128931A - 遠隔操作システムおよび遠隔操作装置 - Google Patents

遠隔操作システムおよび遠隔操作装置 Download PDF

Info

Publication number
JP2010128931A
JP2010128931A JP2008304655A JP2008304655A JP2010128931A JP 2010128931 A JP2010128931 A JP 2010128931A JP 2008304655 A JP2008304655 A JP 2008304655A JP 2008304655 A JP2008304655 A JP 2008304655A JP 2010128931 A JP2010128931 A JP 2010128931A
Authority
JP
Japan
Prior art keywords
image
moving body
virtual viewpoint
remote control
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008304655A
Other languages
English (en)
Other versions
JP5235127B2 (ja
Inventor
Toru Kido
徹 木戸
Yoshihide Takehara
悦秀 竹原
Tomotaka Ito
誠崇 伊藤
Maki Sugimoto
麻樹 杉本
Fumitoshi Matsuno
文俊 松野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Motor Co Ltd
Original Assignee
Yamaha Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Motor Co Ltd filed Critical Yamaha Motor Co Ltd
Priority to JP2008304655A priority Critical patent/JP5235127B2/ja
Priority to US12/625,628 priority patent/US8421797B2/en
Publication of JP2010128931A publication Critical patent/JP2010128931A/ja
Application granted granted Critical
Publication of JP5235127B2 publication Critical patent/JP5235127B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0044Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0259Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】通信速度の低い回線を用いても移動体を容易に遠隔操作できる遠隔操作システムおよび遠隔操作装置を提供する。
【解決手段】遠隔操作システム10に含まれる遠隔操作装置14のCPU44は、移動体12からの過去情報および最新の移動体情報に基づいて過去情報を選択し仮想視点Vを決定する。CPU44は、グローバル座標系GCに、選択された過去情報に基づいて3次元環境画像Kと仮想視点Vとを生成し、最新の移動体情報と移動体モデルMに関するデータとに基づいて移動体モデルMと基準点Bと切り出し中心点とを生成する。CPU44は、仮想視点Vと基準点Bとの距離dに基づいて画角を算出し、3次元環境画像Kと移動体モデルMとを仮想視点Vから切り出し中心点方向に透視投影して得られる投影画像を画角に基づいて切り出して合成画像を生成し、合成画像を所定サイズの表示画像に変換する。その表示画像をモニタ36に表示する。
【選択図】図3

Description

この発明は遠隔操作システムおよび遠隔操作装置に関し、より特定的には、移動体を遠隔操作するための遠隔操作システムおよび遠隔操作装置に関する。
一般に、自動車等の移動体を当該移動体から離れた遠隔操作装置によって遠隔操作する遠隔操作システムが知られている。従来、このような遠隔操作システムにおいて移動体の遠隔操作を容易にするための技術が種々提案されている。その一例として特許文献1には、移動体に設けられるカメラが過去に撮影した環境画像に移動体画像を合成して表示する画像生成システムが開示されている。
特許文献1には、移動体と遠隔操作装置との通信に通信速度の低い(帯域が狭い)通信手段を用いる場合、環境画像を固定した状態で移動体画像を更新することが開示されている。このように環境画像を固定すれば、移動体から遠隔操作装置に送る環境画像の数を削減でき、移動体から遠隔操作装置へのデータ通信量を削減できる。
特開2005−208857号公報
しかし、特許文献1のように環境画像を固定する場合、移動体画像の更新に伴って環境画像上の所定位置から移動体画像が移動することになる。このために、移動体が環境画像を撮影した位置から離れるにつれて移動体画像が環境画像に対して小さくなってしまい、移動体の遠隔操作が困難になるという問題があった。
それゆえに、この発明の主たる目的は、通信速度の低い通信手段を用いても操作者は移動体を容易に遠隔操作することができる、遠隔操作システムおよび遠隔操作装置を提供することである。
上述の目的を達成するために、請求項1に記載の画像処理システムは、移動体と前記移動体を遠隔操作する遠隔操作装置とを備える遠隔操作システムであって、前記移動体は、前記移動体の周囲の環境画像を撮像する撮像手段と、前記移動体および前記撮像手段に関する情報を検出する情報検出手段とを備え、前記遠隔操作装置は、前記情報検出手段の検出結果に基づいて仮想視点を決定する決定手段と、前記撮像手段によって前記仮想視点から撮像された前記環境画像と当該環境画像の撮像時における前記情報検出手段の検出結果とに基づいて、前記環境画像を3次元で表す3次元環境画像と前記仮想視点とを仮想空間に生成する第1生成手段と、前記仮想視点からの前記環境画像の撮像後における前記情報検出手段の検出結果と前記移動体を表す移動体モデルに関するデータとに基づいて、前記移動体モデルと前記移動体の位置を示す基準点と切り出し中心点とを前記仮想空間に生成する第2生成手段と、合成画像に対する前記移動体モデルの大きさの割合が略一定になるように前記仮想視点と前記基準点との距離に基づいて前記仮想視点からの画角を算出する算出手段と、前記3次元環境画像と前記移動体モデルとを前記仮想視点から前記切り出し中心点方向に透視投影して得られる投影画像を、前記仮想視点から前記画角に基づいて切り出して前記合成画像を生成する第3生成手段と、前記合成画像を所定サイズの表示画像に変換する変換手段と、前記表示画像を表示する表示手段とを備える。
請求項2に記載の遠隔操作システムは、請求項1に記載の遠隔操作システムにおいて、前記切り出し中心点は前記基準点の位置に設定されることを特徴とする。
請求項3に記載の遠隔操作システムは、請求項1に記載の遠隔操作システムにおいて、前記切り出し中心点は、前記移動体から前方に所定距離だけ離れた位置に設定されることを特徴とする。
請求項4に記載の遠隔操作装置は、移動体の周囲の環境画像を撮像する撮像手段と、前記移動体および前記撮像手段に関する情報を検出する情報検出手段とを備える移動体、を遠隔操作する遠隔操作装置であって、前記情報検出手段の検出結果に基づいて仮想視点を決定する決定手段と、前記撮像手段によって前記仮想視点から撮像された前記環境画像と当該環境画像の撮像時における前記情報検出手段の検出結果とに基づいて、前記環境画像を3次元で表す3次元環境画像と前記仮想視点とを仮想空間に生成する第1生成手段と、前記仮想視点からの前記環境画像の撮像後における前記情報検出手段の検出結果と前記移動体を表す移動体モデルに関するデータとに基づいて、前記移動体モデルと前記移動体の位置を示す基準点と切り出し中心点とを前記仮想空間に生成する第2生成手段と、合成画像に対する前記移動体モデルの大きさの割合が略一定になるように前記仮想視点と前記基準点との距離に基づいて前記仮想視点からの画角を算出する算出手段と、前記3次元環境画像と前記移動体モデルとを前記仮想視点から前記切り出し中心点方向に透視投影して得られる投影画像を、前記仮想視点から前記画角に基づいて切り出して前記合成画像を生成する第3生成手段と、前記合成画像を所定サイズの表示画像に変換する変換手段と、前記表示画像を表示する表示手段とを備える。
請求項1に記載の遠隔操作システムでは、情報検出手段の検出結果に基づいて仮想視点が決定され、撮像手段によって仮想視点から撮像された環境画像と当該環境画像の撮像時における情報検出手段の検出結果とに基づいて、3次元環境画像と仮想視点とが仮想空間に生成される。また、仮想視点からの環境画像の撮像後における情報検出手段の検出結果と移動体モデルに関するデータとに基づいて、移動体モデルと基準点と切り出し中心点とが仮想空間に生成される。そして、合成画像に対する移動体モデルの大きさの割合が略一定になるように仮想視点と基準点との距離に基づいて仮想視点からの画角が算出される。すなわち、仮想視点から移動体の基準点までの距離が大きくなるほど画角(切り出し範囲)が小さく設定され、一方、仮想視点から基準点までの距離が小さくなるほど画角(切り出し範囲)が大きく設定される。そして、3次元環境画像と移動体モデルとを仮想視点から切り出し中心点方向に透視投影して得られる投影画像が、仮想視点から画角に基づいて切り出されて合成画像が生成される。合成画像は所定サイズの表示画像に変換される。このとき、合成画像のサイズは必要に応じて拡大または縮小される。そして、表示画像が表示手段に表示される。この表示画像中における移動体モデルの大きさは略一定となる。
このような表示画像を連続的に表示することによって、略一定の大きさの移動体モデルが移動する様子を操作者に提示できる。したがって、操作者は、移動体の移動態様を的確に把握でき、移動体を容易に遠隔操作することができる。特に、移動体モデルを複数回更新する間に1つの3次元環境画像を使用することになる通信速度の低い通信手段を用いる場合に有効となる。つまり、通信速度の低い通信手段を用いても操作者は移動体を容易に遠隔操作することができる。請求項4に記載の遠隔操作装置においても同様である。
請求項2に記載の遠隔操作システムでは、移動体の位置を示す基準点を切り出し中心点とすることによって、合成画像の中央に移動体モデルを配置することができる。したがって、仮想視点が更新されても表示画像において移動体モデルの位置が大きく変更することはなく、表示画像において移動体モデルの位置を略一定にできる。このような表示画像を連続的に表示することによって、移動体モデルが違和感なく移動している様子を操作者に提示でき、操作者は、移動体の移動態様をより的確に把握することができ、移動体をさらに容易に遠隔操作することができる。
請求項3に記載の遠隔操作システムでは、切り出し中心点が移動体から前方に所定距離だけ離れた位置に設定されるので、移動体が左折または右折するときには移動体モデルの前方が広く見える表示画像を得ることができる。したがって、操作者は移動体の進行方向の環境を認識しやすくなり移動体をより容易に遠隔操作することができる。
この発明によれば、通信速度の低い通信手段を用いても操作者は移動体を容易に遠隔操作することができる、遠隔操作システムおよび遠隔操作装置が得られる。
以下、図面を参照してこの発明の実施の形態について説明する。
図1はこの発明の一実施形態の遠隔操作システム10を示すブロック図である。図2は移動体12を示す左側面図である。
図1を参照して、遠隔操作システム10は、移動体12と移動体12を遠隔操作するための遠隔操作装置14とを含む。
図2をも参照して、移動体12は、たとえば荒地走行用の4輪バギー車であり農作業や測量等に用いられ、マイクロコンピュータ(以下、マイコンという)16、速度検出器18、カメラ20、測位ユニット22、姿勢センサ24、方位センサ26、ハードディスクドライブ(ハードディスクを含む:以下、HDDという)28、駆動部30および通信機器32を含む。
速度検出器18は、左側の前輪30aの回転軸近傍に記載に取り付けられ、当該回転軸の回転数に基づいて移動体12の速度を検出する。
カメラ20は、移動体12の前面中央部やや上寄りに設けられ、移動体12の前方の環境画像を撮像する。カメラ20はレンズ20aを有するデジタルCCDカメラである。レンズ20aは広角であることが望ましく、この実施形態では画角が180°の全周魚眼レンズが用いられる。これによってカメラ20は広角な画像を撮像できる。ここで、レンズ20aの中心点をカメラ20の視点Aとし、視点Aの位置をカメラ20の位置とする。
測位ユニット22は移動体12の位置を検出するために移動体12の位置を示す基準点Bに設けられる。この実施形態では、基準点Bは、視点Aから水平方向真後ろに引いた直線と2つの後輪30bの中間点を通る垂線との交点に設定される。測位ユニット22は、GPS(Global Positioning System)衛星からの信号を受信することによって基準点Bの位置を検出する。
姿勢センサ24は、たとえば3Dジャイロセンサまたは傾斜センサであり、移動体12の左右の傾き(ロール角)および移動体12の前後の傾き(ピッチ角)を検出する。
方位センサ26は移動体12の前方の向き(方位角)を検出する。
記憶手段であるHDD28は、マイコン16の指示に従って、プログラム、制御用データ、テキストデータおよび画像データ等を、ハードディスクに対して書き込みまた読み出すためのデバイスであり、各種センサによる検出結果、カメラ20によって撮像された環境画像のデータおよび各種プログラム等を記憶(格納)する。
駆動部30は、2つの前輪30aおよび2つの後輪30bのほか、移動体12のステアリングを動かすためのステアリングモータ、スロットルを動かすためのスロットルモータ、ブレーキレバーを動かすためのブレーキモータ等を含む。
通信機器32は、移動体12と遠隔操作装置14とを通信回線Tを介して通信するために用いられる。通信回線Tは無線および有線のいずれであってもよく、たとえば無線LANや携帯電話回線によるデータ通信が行われる。通信回線Tの通信速度は、たとえば250kbps程度である。
マイコン16は、CPU、RAM、ROMおよびクロック等を含み、移動体12の動作を制御する。マイコン16は、たとえば0.02秒毎に測位ユニット22、姿勢センサ24および方位センサ26の検出結果を取得する。これと同時に、マイコン16は、速度検出器18の検出結果に基づいてマイコン16が起動してからの移動体12の累積移動距離を算出する。移動体12の位置、姿勢、向きおよび累積移動距離は、これらを取得したときのデータ取得時刻と合わせて「移動体情報」としてHDD28に記憶されかつ通信機器32から遠隔操作装置14に送信される。また、マイコン16は、たとえば3秒毎に、カメラ20から環境画像の画像データを取得するとともに、当該環境画像の撮像時におけるカメラ情報(カメラ20の位置、姿勢および向きからなる)を取得する。これらの画像データおよびカメラ情報は、当該環境画像の撮像時における移動体12の累積移動距離および撮像時刻とともに、「過去情報」としてHDD28に記憶されかつ通信機器32から遠隔操作装置14に送信される。
この実施形態では、カメラ20は移動体12に固定されており、カメラ20の位置を示す視点Aと移動体12の位置を示す基準点Bとの距離は一定である。したがって、移動体12の位置からカメラ20の位置までの前後、左右および上下方向(ここでは前後方向のみ)の距離分だけ、移動体12の位置からシフトさせた座標位置を、カメラ20の位置として取得することができる。また、カメラ20と移動体12とは姿勢および向きが同じであるので、移動体12の姿勢および向きをそのままカメラ20の姿勢および向きとすることができる。したがって、環境画像の撮像時におけるカメラ情報は、その時刻における移動体情報に基づいて得ることができる。
マイコン16によって駆動部30も制御される。
図1に戻って、遠隔操作装置14について説明する。
遠隔操作装置14は、たとえばパーソナルコンピュータからなるコントロールユニット34、操作者による移動体12の操作を支援するための画像等を表示するためのたとえば液晶モニタからなるモニタ36、操作者が移動体12を操作するための入力機器38、および通信回線Tを介して移動体12の通信機器32と通信するための通信機器40を含む。
コントロールユニット34は、バス42で相互に接続されたCPU44ならびに記憶手段であるROM46、RAM48およびHDD50を含む。
CPU44は、記憶手段であるROM46やHDD50等に記憶された各種のプログラムを実行し、各構成要素に指示を与え、遠隔操作装置14の動作を制御する。
HDD50は、CPU44の指示に従って、プログラム、制御用データ、テキストデータ、画像データ等を、ハードディスクに対して書き込みまた読み出すためのデバイスである。HDD50は、図3に示す動作を実行するための画像処理プログラムや、移動体モデルMに関するデータ、移動体12から送信されてきた過去情報等を記憶(格納)する。
ROM46は、起動用プログラム等を記憶している。起動用プログラムは、コントロールユニット34の電源投入時にCPU44によって実行される。これによって、HDD50に記録されているオペレーティングシステム(OS)等のプログラムがRAM48にロードされ、各種の処理や制御が実行可能となる。
RAM48には、図3に示す動作を実行するための画像処理プログラム等が展開され、このプログラムによる処理結果、処理のための一時データおよび表示用データ(画像データやテキストデータ等)等を保持する。RAM48はCPU44の作業領域として使用される。RAM48上に展開された表示用データは、モニタ36に伝達される。モニタ36は、RAM48からの表示用データに対応する表示内容(画像やテキスト等)を表示する。
入力機器38によって、ステアリング操作、スロットル操作およびブレーキ操作等が行われ、入力機器38による操作に応じた指令が遠隔操作装置14から移動体12に送信される。
この実施形態では、カメラ20が撮像手段に相当する。情報検出手段は、速度検出器18、測位ユニット22、姿勢センサ24および方位センサ26を含む。遠隔操作装置14のCPU44は、決定手段、第1〜第3生成手段、算出手段および変換手段として機能する。モニタ36が表示手段に相当する。
ついで、図3を参照して、遠隔操作システム10の遠隔操作装置14における画像処理動作の一例について説明する。遠隔操作装置14では、走行している移動体12を後方から見た様子をモニタ36に表示するための画像処理が行われる。
まず、遠隔操作装置14のCPU44によって、移動体12からの過去情報が受信されたか否かが判断され(ステップS1)、過去情報が受信されれば当該過去情報がHDD50に記憶され(ステップS3)、ステップS5に進む。一方、ステップS1において過去情報が受信されなければ直接ステップS5に進む。ステップS5では、CPU44によって、現時点での最新の移動体情報が受信されたか否かが判断される。移動体12からの当該移動体情報が受信されていなければステップS1に戻り、一方、当該移動体情報が受信されれば、CPU44によって、当該移動体情報に基づいてHDD50に記憶された過去情報の中から過去情報が選択され仮想視点Vが決定される(ステップS7)。仮想視点Vとは、現在の移動体12の位置の背後に設定される視点をいい、この実施形態では、現時点までの環境画像撮像時の撮像手段の位置(カメラ20の視点Aの位置)の中から選択される。
ここで、過去情報(主に環境画像および仮想視点)の選択方法について図4を参照して説明する。
図4は過去情報の選択方法を説明するための図解図である。図4において、横軸は移動体12の累積移動距離である。白抜き丸で示されたF1,F2およびF3は、過去情報に含まれる累積移動距離を示し、矢印方向に移るほど累積移動距離が大きくなる。累積移動距離がF1,F2およびF3であるときに撮像された環境画像およびカメラ20の視点Aの位置はそれぞれ、過去情報に含まれHDD50に記憶されている。Nは現在の移動体12の位置での累積移動距離であり、図4(b)には図4(a)よりも時間的に後の状態が示されている。
この実施形態では、移動体12の現在位置から所定距離Gだけ(たとえば6m)手前の地点に最も近い位置で得られた過去情報が選択され、この過去情報に含まれる環境画像の撮影ポイントが仮想視点Vとされる。すなわち、ステップS7では、CPU44によって、ステップS5で取得した移動体情報に含まれる累積移動距離Nから所定距離Gを差し引いた距離が求められ、その距離に最も近い累積移動距離を含む過去情報が選択される。
具体的には次のようにして選択される。
図4に示す距離D1およびD2は、数1によって求められる。
図4(a)の時点では、D1<D2であるので、累積移動距離F1を含む過去情報が選択される。すなわち、累積移動距離がF1であるときに撮像された環境画像が選択され、累積移動距離がF1であるときのカメラ20の視点Aの位置が仮想視点Vとして決定される。図4(a)よりも現在の累積移動距離Nが大きくなった図4(b)の時点では、D1>D2であるので、累積移動距離F2を含む過去情報が選択される。すなわち、累積移動距離がF2であるときに撮像された環境画像が選択され、累積移動距離がF2であるときのカメラ20の視点Aの位置が仮想視点Vとして決定される。
図3に戻って、その後、CPU44によって、ステップS7において選択された過去情報に基づいて、環境画像Iに基づく3次元環境画像Kと仮想視点Vとが、仮想空間としてのグローバル座標系GCに生成される(ステップS9)。
この処理について図5から図7を参照して説明する。
図5はカメラ20によって撮像される環境画像Iが表されるy軸とz軸とからなる2次元直交座標系C1を示す図解図である。環境画像Iは、レンズ20a前方の全風景を含む2次元の魚眼画像(円形画像)である。環境画像Iの中心点はカメラ20の視点A(図2参照)に対応している。カメラ撮影中心方向(図6に示す座標系C2におけるx軸方向)は、図5の紙面に直交する方向である。
図6は、2次元の環境画像Iを3次元変換した3次元環境画像Kが表示される3次元直交座標系C2を示す図解図である。座標系C2では、原点Oはカメラ20の視点Aであり、x軸方向はカメラ撮影中心方向、y軸方向はx軸方向が水平方向の1方向であるときにx軸方向に直交する水平方向の他の方向、z軸方向はx軸方向が水平方向の1方向であるときの鉛直方向である。
図7は、仮想空間としてのグローバル座標系GCを示す図解図である。グローバル座標系GCは、X軸、Y軸およびZ軸からなる3次元直交座標系である。グローバル座標系GCの原点Oは、移動体12のマイコン16が起動したときのカメラ20の視点Aの位置である。X軸方向が南北方向、Y軸方向が東西方向、Z軸方向が鉛直方向である。
図5に示す平面形状の環境画像Iは、図6に示す立体形状(ここでは半球状)の3次元環境画像Kに変換されて図7に示すグローバル座標系GCに生成される。座標系C2における3次元環境画像Kの座標P(x,y,z)は、座標系C1における環境画像Iの座標P(py,pz)に基づいて数2によって求められる。P(x,y,z)は、図6に示す半球面(3次元環境画像K)上の点である。
ここで、φは原点Oからy軸プラス方向の線分と線分OPとのなす角度であり、その範囲は0≦φ<2πである。φは(py,pz)とtanの逆関数(arctan)とを用いて求めることができる。また、θは、図6に示すように、原点Oと点Pとを結ぶ線分POとx軸とのなす角度である。3次元環境画像Kの形状は、レンズ20aの特性によって決定される。このことからθは、環境画像Iの座標P(py,pz)に基づいて所定の数式を用いて算出することやHDD50に記憶されているテーブルデータから取得することによって得られる。θは0≦θ≦π/2である。さらに、Lは、図6に示すように、原点Oから点Pまでの距離(3次元環境画像Kの半径)であり、任意の値に設定される。この実施形態では、Lがたとえば10mに設定される。
具体的には、次のようにして座標系C2における3次元環境画像Kの座標P(x,y,z)が求められる。
まず、環境画像Iが座標系C1に配置される。環境画像Iは、その中心点が座標系C1の原点Oに一致するように配置される。そして、環境画像Iを複数(たとえば縦16×横16=256:図5では図面の簡略化のため縦6×横6=36とする)の正方形状の画像片IPに分割し、座標系C1における各画像片IPの頂点の座標P(py,pz)が取得される。つづいて、取得した座標P(py,pz)に基づいて座標系C2における座標P(x,y,z)が数2によって求められる。
このようにして画像片IPの4頂点についてそれぞれ座標系C2における座標P(x,y,z)を求める。そして、座標系C2における画像片IPの4頂点の座標P(x,y,z)がそれぞれ、仮想視点Vからの撮影時の過去情報に含まれるカメラ20の姿勢(ロール角r、ピッチ角p)および向き(方位角y)とカメラ20の位置(xc,yc,zc)とを用いて、グローバル座標系GCにおける座標(xG,yG,zG)に変換される。このような座標変換は、一般に軸周りの回転と平行移動とによって行うことができ、数3によって行われる。
ここで、ロール角r、ピッチ角pおよび方位角yはそれぞれ、オイラー角と呼ばれ、グローバル座標系GCにおける座標系C2のx軸周りの回転角、y軸周りの回転角およびz軸周りの回転角であり、各軸右ねじが進む方向が正である。ロールおよびピッチの原点はグローバル座標系GCの鉛直上方向であり、方位の原点はグローバル座標系GCの真北方向である。
このようにしてグローバル座標系GCにおける画像片IPの4頂点の座標がそれぞれ求められる。すなわちグローバル座標系GCにおける画像片IPの位置が特定される。そして、当該特定された位置に画像片IPが生成(配置)される。この処理を全ての画像片IPについて行うことによって、図7に示すように、グローバル座標系GCの3次元空間に環境画像Iを3次元で表す3次元環境画像Kが生成される。また、3次元環境画像Kの生成とともに、座標系C2の原点Oに位置する仮想視点Vがグローバル座標系GCにおけるカメラ20の位置(xc,yc,zc)に生成される。
このようなステップS9の処理には、一般的に使用できるグラフィックライブラリを用いることができる。この実施形態では、グラフィックライブラリとしてシリコングラフィック社が提供しているOpenGL(登録商標)が用いられる。ステップS9の処理は、OpenGL(登録商標)によって提供される関数{glTexcoord2D(px,py)およびglVertex3D(x,y,z):px,pyは図5に示す座標系C1での座標値であり、x,y,zは図7に示す座標系GCでの座標値である}を用いて一連の動作として行われる。
なお、実際の3次元環境画像Kは、平面形状の画像片IPを繋ぎ合わせることによって、多面体(ここでは256面体)のドーム形状になる。図6および図7には、図面の簡略化のために半球状の3次元環境画像Kが示されている。
図3に戻って、ステップS9の後、CPU44によって、ステップS5において受信された最新の移動体情報およびHDD50に記憶された移動体モデルMに関するデータに基づいて、移動体12を表す移動体モデルM、移動体12の位置を示す基準点Bおよび切り出し中心点W1(図9参照)がグローバル座標系GCに生成される(ステップS11)。
図8は、移動体モデルの生成方法を説明するための図解図である。説明を簡単にするために、図8に示す移動体モデルを立方体形状とする。
図8に示すように、移動体モデルは点群とそれらのうち対応する2点間を結ぶ直線とによって移動体の形状のイメージを表現できる。移動体モデルは3次元直交座標系C3に、移動体モデルの中心が座標系C3の原点に位置し、移動体モデルの前方がx軸方向を向くように配置される。移動体モデルの各頂点には座標値が付与され、たとえば移動体モデルを示す立方体の各辺の長さを2とすると、頂点S1は(1,1,1)、頂点S2は(1,−1,1)として表わすことができる。
そして、立方体の各頂点が、数4によってグローバル座標系GCに座標変換される。
ここで、(xm,ym,zm)は移動体情報から得られるグローバル座標系GCでの移動体12の現在の位置である。(xb,yb,zb)は座標系C3における移動体モデルを構成する点の座標値(座標変換対象となる座標値)である。(xa,ya,za)は(xb,yb,zb)をグローバル座標系GCに座標変換した後の座標値である。r,pおよびyはそれぞれ、移動体情報から得られるグローバル座標系GCでの移動体12の現在のロール角、ピッチ角および方位角であり、この実施形態では、カメラ20のロール角r、ピッチ角pおよび方位角yと同値である。
そして、グローバル座標系GCに座標変換された各頂点を直線で結ぶことによって、立方体の移動体モデルがグローバル座標系GCに生成される。すなわち移動体モデル全体がグローバル座標系の画像に変換される。
実際の移動体モデルMは、点群とそれらのうちの対応する2点間を結ぶ直線とによって移動体12のモデルを形成する。また、実際の移動体モデルMは、その基準点Bが原点Oに位置し、その前方がx軸方向を向きかつその上方がz軸方向を向くように座標系C3に配置される。移動体モデルMに関するデータとしては、少なくとも点群の各点について座標系C3における座標値を付与しておく。ステップS9と同様に数4を用いて点群の各点を座標変換しかつ対応する2点を直線で結ぶことによって、グローバル座標系GCに移動体モデルMを生成できる(図7参照)。
なお、移動体モデルが直線を含まず点群だけで表現される場合には、点群の全ての点の座標値を数4によってグローバル座標系GCに座標変換すればよい。
このようにして移動体モデルMが仮想空間としてのグローバル座標系GCに生成される。また、移動体12の位置を示す基準点Bと投影画像を切り出すときの中心となる切り出し中心点W1とについてもグローバル座標系GCに生成される。この実施形態では、基準点Bと切り出し中心点W1とは同じ位置であり、グローバル座標系GCにおける移動体12の現在の位置(xm,ym,zm)に生成される。
図3に戻って、操作者へ提供する表示画像の中で移動体モデルMの大きさが略一定となるように、CPU44によって仮想視点Vからの画角が算出される(ステップS13)。ここでは、モニタ36の画面(たとえば、縦768ピクセル×横1024ピクセルの画面)に、所定サイズ(たとえば縦480ピクセル×横800ピクセル)の表示画像が表示されるものとする。表示画像のサイズ(たとえば縦480ピクセル×横800ピクセル)に関する情報、および表示画像の縦横比(たとえば縦:横=3:5)に関する情報は、予めHDD50に記憶されている。
図9は、グローバル座標系GCに生成された移動体モデルMを横方向からみた状態を示す図解図である。
図9において、dは仮想視点Vから移動体12の基準点B(現在の移動体12の位置)までの距離、βは仮想視点Vからの縦画角、hは移動体モデルMの高さ、Hは仮想視点Vから縦画角βで切り出したときの距離dの位置(基準点Bを通る縦面)での切り出し幅である。距離dは仮想視点Vの位置と基準点Bの位置とから得ることができる。
図9を参照して、縦画角βの算出方法について説明する。
モニタ36に移動体モデルMが表示されるとき、移動体モデルMの縦サイズを表示画像の縦サイズの一定値k(0<k<1)倍の大きさにするには、k=h/Hの関係が成立すればよい。たとえばk=h/H=0.33である。
また、図9より、d*tan(β/2)=H/2が成立する。
これらの2つの数式より、縦画角βは数5によって求められる。
図9(b)には、図9(a)の状態から移動体12が移動し、仮想視点Vから移動体12の基準点Bまでの距離dが長くなった状態を示す。H,hおよびkは固定値であるが、dが大きくなるので、数5より、図9(b)の縦画角βは図9(a)のそれより小さくなる。
このように縦画角βを設定することによって、表示画像中での移動体モデルMの縦サイズを略一定に保つことができ、縦画角βを固定する場合とは異なり、移動体モデルMが表示画像中ひいてはモニタ36の画面内で小さくなっていくことを防止できる。
図9(b)に示す仮想視点Vと基準点Bとを結ぶ線が、3次元直交座標系C2のx−y平面上にある場合、仮想視点Vからの横画角γは図10に示すようになる。
図10は、グローバル座標系GCに生成された3次元環境画像Kと移動体モデルMとを3次元直交座標系C2のz軸方向のプラス側(図7参照)から見た状態を示す図解図である。図10では、3次元環境画像Kは、仮想視点Vにて撮影された画角180°の半球状の広角画像である。
縦画角βと同様に、横画角γは、表示画像の横サイズに対する移動体モデルMの横サイズの倍率を設定しておくことによって算出できる。また、横画角γは、算出した縦画角βと表示画像の予め設定された縦横比(たとえば縦:横=3:5)とに基づいて算出することもできる。
なお、投影画像の切り出し範囲は、縦画角βに基づく切り出し縦幅および横画角γに基づく切り出し横幅のいずれか一方と、表示画像の縦横比(たとえば縦:横=3:5)とに基づいて決定できる。この実施形態では、縦画角βと表示画像の縦横比とに基づいて投影画像の切り出し範囲が決定される。このことから、ステップS13では横画角γを求める処理を行っていない。
図3に戻って、その後、CPU44によって合成画像が生成される(ステップS15)。
ここでは、ステップS9およびS11においてグローバル座標系GCに生成された3次元環境画像Kと移動体モデルMとを、仮想視点Vから基準点Bに向かって透視投影して投影画像を得て、さらにステップS13で算出された縦画角βと表示画像の縦横比とに基づく切り出し範囲に応じて仮想視点Vから当該投影画像を切り出すことによって、合成画像が得られる。この合成画像では、合成画像に対する移動体モデルMの大きさの割合は略一定である。
合成画像の生成には、一般的に使用できる3次元グラフィックライブラリを用いることができる。この実施形態では、OpenGL(登録商標)とそれをマイクロソフト社のWindows(登録商標)で使用するためにフリーで提供されているgluLookAt関数およびgluPerspective関数を使用した。gluLookAt関数への引数として、グローバル座標系GCでの仮想視点Vの位置と切り出し中心点W1の位置(この実施形態では移動体12の基準点Bと同位置であり、移動体12の現在の位置)とを与え、gluPerspective関数への引数として縦画角βと表示画像の縦横比(たとえば縦:横=3:5)とを与える。これによって、グローバル座標系GCに生成された3次元環境画像Kと移動体モデルMとを含んで透視投影した合成画像を描画できる。
このようにして得られた合成画像をモニタ36に所定サイズ(たとえば、縦480ピクセル×横800ピクセル)で表示できるように、CPU44によって合成画像の大きさが変換され表示画像が得られる(ステップS17)。画角が小さい場合等、合成画像を所定サイズに合わせるために合成画像を拡大する必要がある場合にはデータの補間処理が施される。一方、画角が大きい場合等、合成画像を所定サイズに合わせるために合成画像を縮小する必要がある場合にはデータの間引き処理が施される。この処理には、ニアレストネイバー法、バイリニア法およびバイキュービック法等の周知の方法が用いられる。
この実施形態では、OpenGL(登録商標)とそれをマイクロソフト社のWindows(登録商標)で使用するためにフリーで提供されているglutReshapeWindow(wide,height)関数を使用してニアレストネイバー法によって合成画像が拡大縮小される。引数wideは表示画像の横サイズであり、引数heightは表示画像の縦サイズである。上述のように予め、引数wideはたとえば800ピクセルに設定されており、引数heightはたとえば480ピクセルに設定されている。
そして、得られた所定サイズの表示画像がモニタ36に表示され、操作者に提示される(ステップS19)。
このようなステップS1からS19の処理が0.1秒程度のインターバルで繰り返される。
遠隔操作装置14ひいては遠隔操作システム10によれば、表示画像において略一定の大きさの移動体モデルMを表示できる。また、移動体12の位置を示す基準点Bを切り出し中心点W1とすることによって、合成画像の中央に移動体モデルMを配置することができ、仮想視点Vが更新されても表示画像において移動体モデルMの位置が大きく変更されることはなく、表示画像において移動体モデルMの位置を略一定にできる。このような表示画像を連続的に表示することによって、移動体モデルMが違和感なく移動している様子を操作者に提示でき、操作者は、移動体12の移動態様をより的確に把握することができ、移動体12をさらに容易に遠隔操作することができる。特に、通信回線Tの通信速度が低い場合に有効となる。つまり、通信速度の低い通信回線Tを用いても操作者は移動体12を容易に遠隔操作することができる。
図11(a)は遠隔操作システム10による表示画像の例を示し、図11(b)はこの発明を適用せずに投影画像の切り出し時の画角を一定にした場合の表示画像の例を示す。
図11(b)の例では、移動体が仮想視点から離れるに従い、移動体モデルが描画される大きさが小さくなっていく。それに対して、図11(a)の例では、移動体が仮想視点から離れていく場合でも、表示画像における移動体モデルの大きさおよび位置を略一定にできる。
これは、仮想視点を変更した瞬間も同様である。仮想視点を変更した場合、移動体と仮想視点との距離や位置関係が瞬間的に変化するため、従来手法では、移動体モデルの表示位置が瞬時に表示画像のどこかにジャンプしたり、その大きさも瞬時に大きく変化する可能性がある。実際に移動体の移動時には数秒に一度は仮想視点が変更されることを考慮すると、遠隔操作性が低下することになる。しかし、この発明では仮想視点の変更があった場合でも、表示画像中における移動体モデルの大きさや位置が略一定であるので、操作者はとまどうことがなく遠隔操作することができる。
ついで、図12から図14を参照して、この発明の他の実施形態について説明する。
この実施形態では、表示画像の中心位置となる投影画像の切り出し中心点は、W1ではなくW2となる。それ以外は先の実施形態と同様である。切り出し中心点W2は、移動体12の前方正面に所定距離だけ離れた位置に設定され、たとえば移動体12の位置を示す基準点Bから6m前方に位置する。
この実施形態における画角(縦画角β)の算出は基準点Bを用いて、先の実施形態と同様に行われ、縦画角βは図12に示すようになる。
そして、3次元環境画像Kと移動体モデルMとを仮想視点Vから切り出し中心点W2に向かって透視投影して得られる投影画像が、得られた縦画角βと表示画像の縦横比とに基づく切り出し範囲に応じて切り出されて合成画像が得られる。
図13に示すように移動体モデルMが仮想視点Vを背にして前進する場合には、仮想視点Vと切り出し中心点W2とを結ぶ線上に基準点Bが位置する。したがって、この場合には、先の実施形態と同様に、基準点Bを中心位置とした表示画像が提示されることになる。
しかし、移動体モデルMが曲がるときには、切り出し中心点W2と移動体モデルMとの位置関係から、先の実施形態と比較して、移動体モデルMの進行方向側の画像がより広く操作者に提示される。たとえば移動体モデルMが左に曲がるときには、図14に示すように仮想視点Vと切り出し中心点W2とを結ぶ線を中心線として切り出し範囲が決定される。
したがって、切り出し中心点W2を用いる場合には、仮想視点Vに対する移動体モデルMの向きが変化していくと、それに伴って移動体モデルMの進行方向側の画像が徐々に広く提示されていき、操作者に違和感のない画像を提示でき、操作者は移動体12の進行方向の環境を認識しやすくなり移動体12をより容易に遠隔操作することができる。
その表示画像の例を図15および図16に示す。実際には動画であるが、説明の便宜上略0.5秒間隔の連続静止画で示す。
図15および図16では、移動体モデルMの前方正面の位置にある切り出し中心点W2を表示画像の中心としているので、移動体モデルMの左折動作に従って進行方向である左側が、移動体モデルMの表示位置の急激な変化なく広く表示されていく様子がわかる。
また、図15(a)〜(d)の表示画像と図16(a)〜(d)の表示画像とでは、仮想視点Vの位置が異なる。このように仮想視点Vが切り替えられても、表示画像中での移動体モデルMの位置や大きさにはほとんど違いがないことがわかる。
なお、上述の実施形態では過去情報は距離に基づいて選択されたが、これに限定されない。過去情報は時刻に基づいて上記距離の場合と同様の方法で選択されてもよい。すなわち、過去情報に含まれる撮像時刻と現在時刻から5秒前の時刻とを比較し、当該5秒前の時刻に最も近い撮像時刻に撮影された過去情報を採用するようにしてもよい。また、通信機器32から遠隔操作装置14に送信されてきた過去情報の中から操作者が任意に選択するようにしてもよい。
移動体12に関する情報とカメラ20に関する情報とは別々の検出手段によって検出されてもよい。移動体12および/またはカメラ20の位置、姿勢および方位は、既存の3次元自己位置推定手法によって求められてもよい。
図9では、基準点Bは仮想視点Vと視点Aとを結ぶ線上に位置しているが、これに限定されず、基準点Bは当該線上から多少ずれていてもよく、たとえば2つの後輪30bの中間点に位置していてもよい。この場合、仮想視点Vから基準点Bまでの距離dは図9に示す場合とは多少異なるが、画角の算出には実質的に影響はない。
上述の実施形態では、撮像手段として画角180°のカメラを用いる場合について説明したが、撮像手段はこれに限定されない。撮像手段の画角は大きいほど好ましく、撮像手段としてたとえば画角270°程度のカメラを用いれば、右左折時に表示画像中に環境画像の画像端が表れることを防止できる。
上述の実施形態では、縦画角βを算出し、縦画角βと表示画像の縦横比とに基づいて投影画像の切り出し範囲を決定したが、それに限定されない。横画角γを算出し、横画角γと表示画像の縦横比とに基づいて投影画像の切り出し範囲を決定してもよい。また、縦画角βと横画角γとを算出し、算出した縦画角βと横画角γとに基づいて投影画像の切り出し範囲を決定してもよい。
この発明における移動体は、上述の4輪バギー車に限定されない。移動体の他の例としては、ショベルカー等の建設機械、および船舶等が挙げられる。
この発明の一実施形態の遠隔操作システムを示すブロック図である。 移動体の一例を示す左側面図である。 図1の遠隔操作システムの遠隔操作装置における画像処理動作の一例を示すフロー図である。 過去情報の選択方法を説明するための図解図である。 環境画像が表される2次元直交座標系を示す図解図である。 3次元環境画像が表示される3次元直交座標系を示す図解図である。 仮想空間としてのグローバル座標系を示す図解図である。 移動体モデルの生成方法を説明するための図解図である。 図1の実施形態における縦画角を示す図解図である。 グローバル座標系に生成された3次元環境画像と移動体モデルとを上から見た状態を示す図解図である。 (a)は遠隔操作システムによる表示画像の例を示し、(b)はこの発明を適用せずに投影画像の切り出し時の画角を一定にした場合の表示画像の例を示す。 この発明の他の実施形態における縦画角を示す図解図である。 この発明の他の実施形態において移動体モデルが前進する場合を示す図解図である。 この発明の他の実施形態において移動体モデルが左折する場合を示す図解図である。 この発明の他の実施形態による表示画像の例を示す図解図である。 図15の続きの表示画像の例を示す図解図である。
符号の説明
10 遠隔操作システム
12 移動体
14 遠隔操作装置
16 マイクロコンピュータ
18 速度検出器
20 カメラ
20a レンズ
22 測位ユニット
24 姿勢センサ
26 方位センサ
28,50 ハードディスクドライブ
32,40 通信機器
34 コントロールユニット
36 モニタ
38 入力機器
44 CPU
46 ROM
48 RAM
A カメラの視点
B 移動体の位置を示す基準点
C1 2次元直交座標系
C2,C3 3次元直交座標系
GC グローバル座標系
I 環境画像
K 3次元環境画像
M 移動体モデル
V 仮想視点
W1,W2 切り出し中心点
β 縦画角
γ 横画角

Claims (4)

  1. 移動体と前記移動体を遠隔操作する遠隔操作装置とを備える遠隔操作システムであって、
    前記移動体は、
    前記移動体の周囲の環境画像を撮像する撮像手段と、
    前記移動体および前記撮像手段に関する情報を検出する情報検出手段とを備え、
    前記遠隔操作装置は、
    前記情報検出手段の検出結果に基づいて仮想視点を決定する決定手段と、
    前記撮像手段によって前記仮想視点から撮像された前記環境画像と当該環境画像の撮像時における前記情報検出手段の検出結果とに基づいて、前記環境画像を3次元で表す3次元環境画像と前記仮想視点とを仮想空間に生成する第1生成手段と、
    前記仮想視点からの前記環境画像の撮像後における前記情報検出手段の検出結果と前記移動体を表す移動体モデルに関するデータとに基づいて、前記移動体モデルと前記移動体の位置を示す基準点と切り出し中心点とを前記仮想空間に生成する第2生成手段と、
    合成画像に対する前記移動体モデルの大きさの割合が略一定になるように前記仮想視点と前記基準点との距離に基づいて前記仮想視点からの画角を算出する算出手段と、
    前記3次元環境画像と前記移動体モデルとを前記仮想視点から前記切り出し中心点方向に透視投影して得られる投影画像を、前記仮想視点から前記画角に基づいて切り出して前記合成画像を生成する第3生成手段と、
    前記合成画像を所定サイズの表示画像に変換する変換手段と、
    前記表示画像を表示する表示手段とを備える、遠隔操作システム。
  2. 前記切り出し中心点は前記基準点の位置に設定される、請求項1に記載の遠隔操作システム。
  3. 前記切り出し中心点は、前記移動体から前方に所定距離だけ離れた位置に設定される、請求項1に記載の遠隔操作システム。
  4. 移動体の周囲の環境画像を撮像する撮像手段と、前記移動体および前記撮像手段に関する情報を検出する情報検出手段とを備える移動体、を遠隔操作する遠隔操作装置であって、
    前記情報検出手段の検出結果に基づいて仮想視点を決定する決定手段と、
    前記撮像手段によって前記仮想視点から撮像された前記環境画像と当該環境画像の撮像時における前記情報検出手段の検出結果とに基づいて、前記環境画像を3次元で表す3次元環境画像と前記仮想視点とを仮想空間に生成する第1生成手段と、
    前記仮想視点からの前記環境画像の撮像後における前記情報検出手段の検出結果と前記移動体を表す移動体モデルに関するデータとに基づいて、前記移動体モデルと前記移動体の位置を示す基準点と切り出し中心点とを前記仮想空間に生成する第2生成手段と、
    合成画像に対する前記移動体モデルの大きさの割合が略一定になるように前記仮想視点と前記基準点との距離に基づいて前記仮想視点からの画角を算出する算出手段と、
    前記3次元環境画像と前記移動体モデルとを前記仮想視点から前記切り出し中心点方向に透視投影して得られる投影画像を、前記仮想視点から前記画角に基づいて切り出して前記合成画像を生成する第3生成手段と、
    前記合成画像を所定サイズの表示画像に変換する変換手段と、
    前記表示画像を表示する表示手段とを備える、遠隔操作装置。
JP2008304655A 2008-11-28 2008-11-28 遠隔操作システムおよび遠隔操作装置 Active JP5235127B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008304655A JP5235127B2 (ja) 2008-11-28 2008-11-28 遠隔操作システムおよび遠隔操作装置
US12/625,628 US8421797B2 (en) 2008-11-28 2009-11-25 Remote control system and remote control apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008304655A JP5235127B2 (ja) 2008-11-28 2008-11-28 遠隔操作システムおよび遠隔操作装置

Publications (2)

Publication Number Publication Date
JP2010128931A true JP2010128931A (ja) 2010-06-10
JP5235127B2 JP5235127B2 (ja) 2013-07-10

Family

ID=42222411

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008304655A Active JP5235127B2 (ja) 2008-11-28 2008-11-28 遠隔操作システムおよび遠隔操作装置

Country Status (2)

Country Link
US (1) US8421797B2 (ja)
JP (1) JP5235127B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012252531A (ja) * 2011-06-03 2012-12-20 Nintendo Co Ltd 画像処理プログラム、画像処理装置、画像処理方法および画像処理システム
US9426412B2 (en) * 2011-07-13 2016-08-23 Panasonic Intellectual Property Management Co., Ltd. Rendering device and rendering method
DE102013109622A1 (de) * 2013-09-04 2015-03-05 Claas Kgaa Mbh Verfahren zum externen Steuern eines landwirtschaftlichen Nutzfahrzeuges
DE102014212819A1 (de) * 2014-07-02 2016-01-07 Zf Friedrichshafen Ag Ortspositionsabhängige Darstellung von Fahrzeugumfelddaten auf einer mobilen Einheit
JP2017089139A (ja) * 2015-11-04 2017-05-25 住友建機株式会社 ショベル
CN115514751A (zh) * 2022-08-24 2022-12-23 网易(杭州)网络有限公司 用于挖掘机远程控制的图像获取方法及远程控制***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003150980A (ja) * 2001-11-15 2003-05-23 Square Co Ltd ビデオゲーム装置、ビデオゲームにおけるキャラクタの表示方法、プログラム及び記録媒体
JP2005208857A (ja) * 2004-01-21 2005-08-04 Campus Create Co Ltd 画像生成方法
JP2005230263A (ja) * 2004-02-19 2005-09-02 Nintendo Co Ltd ゲーム装置及びゲームプログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61255413A (ja) 1985-05-09 1986-11-13 Mitsubishi Electric Corp 遠隔操作式走行装置
JPS61267182A (ja) 1985-05-22 1986-11-26 Hitachi Ltd 映像合成方式
JP2634880B2 (ja) 1988-10-24 1997-07-30 富士通株式会社 ロボットの遠隔操作装置
US5185667A (en) 1991-05-13 1993-02-09 Telerobotics International, Inc. Omniview motionless camera orientation system
JPH08305841A (ja) 1994-12-05 1996-11-22 Ritsumeikan 歪曲収差画像補正表示装置
JPH08191487A (ja) 1995-01-10 1996-07-23 Nissin Electric Co Ltd 遠隔操作システム
JPH0962861A (ja) 1995-08-21 1997-03-07 Matsushita Electric Ind Co Ltd パノラマ映像装置
JPH11168754A (ja) 1997-12-03 1999-06-22 Mr System Kenkyusho:Kk 画像の記録方法、画像データベースシステム、画像記録装置及びコンピュータプログラムの記憶媒体
JPH11291991A (ja) 1998-04-03 1999-10-26 Shinshakai System Kenkyusho:Kk 移動体の遠隔操縦システム
JP4100773B2 (ja) 1998-09-04 2008-06-11 富士通株式会社 ロボットの遠隔制御方法及びシステム
JP3384978B2 (ja) 1999-02-16 2003-03-10 株式会社タイトー 課題解決型乗り物ゲーム装置
JP2001114045A (ja) 1999-10-15 2001-04-24 Furukawa Co Ltd 周囲監視装置
JP3432212B2 (ja) * 2001-03-07 2003-08-04 キヤノン株式会社 画像処理装置及び方法
JP4012749B2 (ja) 2002-03-14 2007-11-21 国立大学法人 奈良先端科学技術大学院大学 遠隔操縦システム
JP4560598B2 (ja) * 2003-02-12 2010-10-13 山本光学株式会社 異常探査支援装置
JP2006279648A (ja) 2005-03-30 2006-10-12 National Institute Of Information & Communication Technology ゆらぎ補正による画像表示方法及びその方法を用いた模型自動車等用リモートコントロールシステム
JP2008033438A (ja) 2006-07-26 2008-02-14 Toyota Motor Corp 車両遠隔操作システム
JP2008102620A (ja) 2006-10-17 2008-05-01 Toyota Motor Corp 画像処理装置
DE102008004785B4 (de) * 2008-01-17 2012-06-21 Dräger Safety AG & Co. KGaA System zum Schutz und/oder zur Führung von Personen in Gefahrensituationen

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003150980A (ja) * 2001-11-15 2003-05-23 Square Co Ltd ビデオゲーム装置、ビデオゲームにおけるキャラクタの表示方法、プログラム及び記録媒体
JP2005208857A (ja) * 2004-01-21 2005-08-04 Campus Create Co Ltd 画像生成方法
JP2005230263A (ja) * 2004-02-19 2005-09-02 Nintendo Co Ltd ゲーム装置及びゲームプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200600298009; 城間直司,外5名: '"ロボットの遠隔操作のための過去画像履歴を用いたシーン複合"' 計測自動制御学会論文集 第41巻,第12号, 2005, p.1036-1043, 社団法人計測自動制御学会 *
JPN6012042763; 城間直司,外5名: '"ロボットの遠隔操作のための過去画像履歴を用いたシーン複合"' 計測自動制御学会論文集 第41巻,第12号, 2005, p.1036-1043, 社団法人計測自動制御学会 *

Also Published As

Publication number Publication date
JP5235127B2 (ja) 2013-07-10
US20100134488A1 (en) 2010-06-03
US8421797B2 (en) 2013-04-16

Similar Documents

Publication Publication Date Title
US10848732B2 (en) Free viewpoint movement display device
US6956503B2 (en) Image display apparatus, image display method, measurement apparatus, measurement method, information processing method, information processing apparatus, and identification method
US11270458B2 (en) Image generating device
JP6329343B2 (ja) 画像処理システム、画像処理装置、画像処理プログラム、および画像処理方法
WO2014020663A1 (ja) 地図表示装置
US20240071017A1 (en) Image generating device for generating three-dimensional display data
JP5235127B2 (ja) 遠隔操作システムおよび遠隔操作装置
JP4783620B2 (ja) 3次元データ作成方法及び3次元データ作成装置
JP2002209208A (ja) 画像処理装置及びその方法並びに記憶媒体
JP2016167688A (ja) 画像生成方法、システム、装置、及び端末
JP2007080060A (ja) 対象物特定装置
JP2010041530A (ja) 操縦支援装置
JP2009236844A (ja) ナビゲーション装置、ナビゲーション方法およびナビゲーションプログラム
JP6875196B2 (ja) モバイルプラットフォーム、飛行体、支持装置、携帯端末、撮像補助方法、プログラム、及び記録媒体
JP5174636B2 (ja) 遠隔操作システムおよび遠隔操作装置
JP2008145364A (ja) 経路案内装置
Burkard et al. User-aided global registration method using geospatial 3D data for large-scale mobile outdoor augmented reality
JP4922436B2 (ja) オブジェクト表示装置及びオブジェクト表示方法
JP5513806B2 (ja) 連携表示装置、連携表示方法、及びプログラム
WO2019168061A1 (ja) 情報処理装置、記録媒体、ヘッドマウントディスプレイ、及び、情報処理システム
JP2009239621A (ja) 画像上方位表示方法及び装置並びに写真
JP6029459B2 (ja) 画像合成装置、および画像合成方法
JP2018142340A (ja) 画像生成装置、画像表示システム及び画像生成方法
WO2023188510A1 (ja) 画像処理装置、画像処理方法、及びプログラム
WO2023188511A1 (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130325

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5235127

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160405

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250