JP2007320024A - 移動ロボットの遠隔操縦のための衝突防止システム、装置及び方法 - Google Patents

移動ロボットの遠隔操縦のための衝突防止システム、装置及び方法 Download PDF

Info

Publication number
JP2007320024A
JP2007320024A JP2007027569A JP2007027569A JP2007320024A JP 2007320024 A JP2007320024 A JP 2007320024A JP 2007027569 A JP2007027569 A JP 2007027569A JP 2007027569 A JP2007027569 A JP 2007027569A JP 2007320024 A JP2007320024 A JP 2007320024A
Authority
JP
Japan
Prior art keywords
mobile robot
collision
information
obstacle
remote control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007027569A
Other languages
English (en)
Inventor
Shunko Boku
朴 俊 浩
Yeon-Ho Kim
▲よん▼ ▲ほ▼ 金
Seok-Won Bang
方 錫 元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2007320024A publication Critical patent/JP2007320024A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 移動ロボットの遠隔操縦のための衝突防止システム、装置及び方法を提供する。
【解決手段】 装着されたカメラで撮影した映像データを送信し、受信された制御データにより移動する移動ロボットと、映像データを受信して分析し、分析した結果を画面にディスプレイして移動ロボットに制御データを送信する制御機器と、を備える移動ロボットの遠隔操縦のための衝突防止システム。
【選択図】 図2

Description

本発明は、移動ロボットの遠隔操縦のための衝突防止システム、装置及び方法に係り、さらに詳細には、遠隔地で移動ロボットを制御する制御機器の画面で衝突が予想される障害物にカラーをマッピングし、移動ロボットが障害物に衝突する前に警告音を鳴らすことによって遠隔地で移動ロボットを制御するユーザが障害物を容易に認知できるロボットの遠隔操縦のための衝突防止システム、装置及び方法に関する。
一般的に移動ロボットは、カメラを利用して自身の現在位置及び障害物の位置を検出し、その位置情報を利用して走行及び作業を行う。
最近、移動ロボットの活用分野は、国防、産業現場から家庭に至るまで多様に拡大されるにつれて、移動ロボットの障害物位置把握及び移動ロボットを制御するユーザの障害物認識が重要な関心事となり、これに、いろいろな装置及び方法(例えば、特許文献1及び2)が提示された。
前述したような従来の技術で、移動ロボットは、光を移動ロボットの前面に照射してCCD(電荷結合素子)に結ばれる光の位置及び輝度を利用して障害物との距離を測定するか、遠隔地にあるユーザがモニタを通じてロボットのヘッドアップディスプレイ及びオーバーヘッドマップを見てロボットを遠隔操縦する。
しかし、CCDの視界(Field Of View、以下、FOV)によってカメラを通じて見られる周辺事物の歪曲程度及びカメラを通じて一度に見られる情報の量が変わるために、CCDのFOVが小さい場合、障害物の形態を識別し難く、遠隔地にあるユーザに障害物の情報を知らせ難い。
また、遠隔地のユーザが識別できる形態のオーバーヘッドマップを作成するためには、高コストの距離測定センサーが必要であり、ユーザが持っている移動ロボットを制御する機器の画面が小さな場合、オーバーヘッドマップをディスプレイし難いだけでなくディスプレイされたオーバーヘッドマップ通じてユーザが障害物を認識し難いという短所がある。
米国特許第4905151号公報 米国特許第6845297号公報
本発明は、移動ロボットの遠隔操縦のための衝突防止システム、装置及び方法を通じて遠隔地で移動ロボットを制御する制御機器の画面に移動ロボットと衝突可能性のある障害物にカラーをオーバーラップさせるところにその目的がある。
本発明の他の目的は、遠隔地で移動ロボットを制御する制御機器の画面に移動ロボットと衝突可能性のある障害物にカラーをオーバーラップさせることによって、画面サイズの小さい制御機器でも移動ロボットを制御するユーザが効果的に障害物を認識可能にすることである。
本発明のさらに他の目的は、FOE(Focus Of Expansion:拡張焦点)と移動ロボットの速度を移動ロボット制御機器の画面にアイコンで表示して、ユーザに移動ロボットの移動に関する情報を容易に伝達することである。
本発明のさらに他の目的は、移動ロボットが障害物に衝突する所定の時間前にユーザに警告音を通じて知らせることによって、移動ロボットが障害物に衝突することを効果的に予防することである。
本発明の目的は、以上で言及した目的に制限されず、言及されていない他の目的は下の記載から当業者に明確に理解されうる。
前記目的を達成するために、本発明の実施形態による移動ロボットの遠隔操縦のための衝突防止システムは、装着されたカメラで撮影した映像データを送信し、受信された制御データにより移動する移動ロボットと、前記映像データを受信して分析し、分析した結果を画面にディスプレイして前記移動ロボットに制御データを送信する制御機器と、を備える。
前記目的を達成するために、本発明の実施形態による移動ロボットの遠隔操縦のための衝突防止装置は、移動ロボットの走行方向の映像を所定の時間差で保存して比較する映像処理部と、前記移動ロボットの走行方向に存在する障害物を感知し、前記障害物についての衝突予想情報を提供する障害物感知部と、前記衝突予想情報に基づいて前記障害物の衝突予想領域にマッピングするカラー情報を提供するカラーマッピング部と、を備える。
前記目的を達成するために、本発明の他の実施形態による移動ロボットの遠隔操縦のための衝突防止装置は、移動ロボットから受信した情報に基づいて、画面に見られる障害物に移動ロボットが衝突可能な衝突予想領域をカラーでマッピングするカラーマッピング処理部と、前記受信した情報に基づいて前記画面に前記移動ロボットの進行情報を表示する進行情報表示部と、前記衝突可能な障害物に前記移動ロボットが接近する時、前記受信した情報に基づいて所定の衝突予想時間前に警告音でユーザに警告する警告音発生部と、を備える。
前記目的を達成するために、本発明の実施形態による移動ロボットの遠隔操縦のための衝突防止方法は、移動ロボットに装着されたカメラで撮影した走行方向の映像を所定の時間差で保存して比較する映像処理ステップと、前記移動ロボットの走行方向に存在する障害物を感知して衝突予想情報を提供する障害物感知ステップと、前記衝突予想情報に基づいて前記障害物の衝突予想領域にマッピングするカラー情報を提供するカラーマッピング情報提供ステップと、を備える。
前記目的を達成するために、本発明の他の実施形態による移動ロボットの遠隔操縦のための衝突防止方法は、移動ロボットから受信した情報に基づいて画面に見られる障害物に移動ロボットが衝突可能な衝突予想領域をカラーでマッピングするマッピング処理ステップと、前記受信した情報に基づいて前記画面に前記移動ロボットの進行情報を表示する進行情報表示ステップと、前記衝突可能な障害物に前記移動ロボットが接近する時、前記受信した情報に基づいて所定の衝突予想時間前に警告音でユーザに警告する警告音発生ステップと、を備える。
その他の実施例の具体的な事項は詳細な説明及び図面に含まれている。
本発明の移動ロボットの遠隔操縦のための衝突防止システム、装置及び方法によれば、次のような効果が一つあるいはそれ以上ある。
遠隔地で移動ロボットを制御する制御機器の画面に移動ロボットと衝突可能性のある障害物にカラーをオーバーラップさせることによって、画面サイズの小さい制御機器でも移動ロボットを制御するユーザが効果的に障害物を認識できる。
移動ロボットの速度大きさに対する進行方向を制御機器の画面にアイコン及びベクトルと表示して、ユーザに移動ロボットの移動に関する情報を容易に伝達しうる。
移動ロボットが障害物に衝突する所定時間前にユーザに警告音を通じて知らせて移動ロボットの衝突防止にさらに効果的である。
本発明の利点及び特徴、そしてこれを達成する方法は添付された図面に基づいて詳細に後述されている実施例を参照すれば明確になる。しかし、本発明は以下で開示される実施例に限定されるものではなく、この実施例から外れて多様な形に具現でき、本明細書で説明する実施例は本発明の開示を完全にし、本発明が属する技術分野で当業者に発明の範ちゅうを完全に報せるために提供されるものであり、本発明は請求項及び発明の詳細な説明により定義されるだけである。一方、明細書全体に亙って同一な参照符号は同一な構成要素を示す。
以下、添付された図面を参照して本発明の望ましい実施形態を詳細に説明する。
図1Aないし図1Bは、本発明の実施形態による移動ロボットの遠隔操縦のための衝突防止システムの構成を示す図面である。
本発明の実施形態による移動ロボットの遠隔操縦のための衝突防止システム100は、移動ロボット101及び遠隔地で移動ロボットを制御する制御機器102を備え、移動ロボット101と制御機器102とは、有無線データ通信網103で連結されている。
移動ロボットは101は、装着されたカメラで撮影した進行方向の映像データ及び移動情報を、有無線通信網102を通じて遠隔地の制御機器102に送信し、制御機器102は、移動ロボット101から受信した映像データ及び移動情報を分析し、分析した結果を制御機器102の画面にディスプレイする。
遠隔地にあるユーザは、制御機器102の画面にディスプレイされた映像及び移動情報を見て移動ロボット101を制御できる。
ここで、制御機器102は、移動ロボット101から送信した映像をディスプレイできる画面と移動ロボット101を制御できるキーボードまたはボタンのような方向キーを備えるものであって、移動端末機やコンピュータが制御機器102の例となりうる。
図2は、本発明の実施形態による移動ロボットの遠隔操縦のための衝突防止装置(移動ロボット)の構造を示すブロック図である。
本発明の実施形態による移動ロボットの遠隔操縦のための衝突防止装置200は、装着されたカメラで撮影した走行方向の映像を所定の時間差で保存して比較する映像処理部201、移動ロボット101の走行方向に存在する障害物を感知して衝突予想情報を提供する障害物感知部202、衝突予想情報に基づいて障害物の衝突予想領域にマッピングするカラー情報を提供するカラーマッピング部203、移動ロボット101のホイールの動作を感知して移動速度及び移動方向そして移動距離についての情報を提供するエンコーダ部204、装着されたカメラで撮影した進行方向の映像データ及び移動情報を制御機器102に送信し、移動ロボット101を制御する制御データを制御機器102から受信する送受信部205、各部を制御する制御部206を備える。
本発明の一実施例で使われる“部”という用語は、ソフトウェアまたはFPGA(Field Programmable Gate Array)または注文型半導体(Application Specific Integrated Circuit;ASIC)のようなハードウェア構成要素を意味し、“部”は所定の役割を行う。
しかし、“部”はソフトウェアまたはハードウェアに限定されるものではない。
“部”は、アドレッシング可能な保存媒体に存在すべく構成されても良く、1つまたはそれ以上のプロセッサーを実行させるように構成されても良い。
したがって、一例として“部”は、ソフトウェア構成要素、客体指向ソフトウェア構成要素、クラス構成要素及びタスク構成要素のような構成要素と、プロセス、関数、属性、プロシージャ、サブルーチン、プログラムコードのセグメント、ドライバー、ファームウェア、マイクロコード、回路、データ、データベース、データ構造、テーブル、アレイ、及び変数を含む。
構成要素と“部”から提供される機能は、より少数の構成要素及び“部”で結合されるか、追加的な構成要素と“部”にさらに分離されうる。
図2において、映像処理部201は、移動ロボット101に装着されたカメラで撮影した走行方向の映像を所定の時間差で保存して比較する。
所定(一定)の時差をおいて連続的に入力される映像を分析して対象物体の動きを推定する移動物体追跡技法は、コンピュータビジョン分野及びこれを利用した移動ロボット分野で多くの関心を受けている。
これは、現在フレーム映像処理結果を反復的に次のフレーム処理時に利用することによって、連続的に入力される映像の動き同定や動的物体の分析作業を行なうことである。
このように複数個の映像処理で得られた特徴の差から動き情報を検出する作業では、対象物体の移動方向及び速度が重要な特徴値になり、これを同時にベクトルで表現することをオプティカルフローという。
したがって、対象物体の各点のオプティカルフローを計算することによって対象物体の動きを推定できる。
映像処理部201は、移動ロボット101に装着されたカメラで撮影した走行方向の映像を所定の時間差で保存所(図示せず)に保存して比較し、エンコーダ部204から移動ロボット101の移動速度及び移動方向についての情報を提供されてオプティカルフローを計算する。
移動ロボット101の3次元空間上の動きは、2次元的な移動変位を引き起こすが、もし、移動ロボット101が移動するならば、移動ロボット101の運動は無限大の距離に位置した一点からのオプティカルフローと考えられうる。
2次元映像内の特定点p=(x,y)でオプティカルフローf=(u,v)は、
Figure 2007320024
を通じて計算できる。
(式1)でI、Iは、時間差をおいて得たカメラ映像であり、w、wは、特徴点(x,y)でx、y方向への偏差であり、Wは、偏差の最大大きさである。
また映像処理部201は、FOEを計算する。
FOEは、オプティカルフローを説明しつつ言及した無限大の距離に位置した一点を意味し、2次元映像で任意の一点は、FOEからその点に至る直線に沿って動く。
したがって、独立的に動く移動ロボット101は、自身の運動方向と関連したFOEに連結される。
図3は、オプティカルフローの実施形態であって、典型的なオプティカルフローのパターンを示す図面である。
移動ロボット101が左右の回転なしに前方に直線移動すると仮定すれば、移動ロボット101は、図3に図示された画面に向って接近する。
したがって、オプティカルフローを表現する矢印302がFOE 301と呼ばれる一点から外側に向かっている。
一方、移動ロボット101が図3に図示された画面から遠ざかる場合にはオプティカルフローを表現する矢印302がFOE 301に向かう。
FOEは、2次元映像での運動を3次元実際映像と対応して関連させる主要な役割を担当し、2次元映像でFOEである点P=(X,Y)を通じて計算できる。
Figure 2007320024
(式2)でm、nは、(x,y)からx、y方向への偏差であり、Wは、偏差の最大大きさである。
Φは、(u,v)ベクトルの大きさがtより大きい点の数であり、Sは、これらベクトル方向角の総和である。したがって、これらベクトルがいずれも対称である領域での中心値がFOEとなる。
移動ロボットの遠隔操縦のための衝突防止装置200で、障害物感知部202は、移動ロボット101の走行方向に存在する障害物を感知し、衝突予想情報を提供する。
ここで、衝突予想情報とは、移動ロボット101の移動速度及び移動方向そして進行方向に存在する障害物に移動ロボット101が衝突可能な衝突予想領域情報と、移動ロボット101の障害物への接近時に所定の衝突予想時間前に移動ロボット101を制御する制御機器102から警告音を鳴らせる警告信号情報を含む。
この時、警告音を鳴らせる警告信号情報を、移動ロボット101を制御する制御機器102に伝達する時点はユーザが設定できる。
例えば、ユーザが前述した時点を5秒と設定するならば、移動ロボット101の障害物感知部202は、現在移動ロボット101の速度と進行方向に存在する障害物との距離を計算して、移動ロボット101が障害物に衝突する5秒前に移動ロボットを制御する制御機器102から警告音を鳴らせる。
障害物感知部202は、移動ロボット101の進行方向に存在する障害物に移動ロボット101が衝突可能な衝突予想領域を計算するために、
Figure 2007320024
を通じてTOC(Time Of Contact)τを求める。
(式3)でfは、カメラ焦点距離、(X,Y,Z)は、空間上3次元座標値、
Figure 2007320024
は、3次元速度成分であり、(x,y)は、カメラ映像上の2次元座標値、
Figure 2007320024
は、2次元速度成分であり、τは、TOCである。
また、障害物感知部202は、エンコーダ部204で提供する移動ロボット101の移動速度及び移動方向情報、そして、映像処理部201で計算されたFOEを利用して制御機器102の画面に移動ロボット101の速度大きさ及び進行方向を表示する情報を生成して、制御部206を通じて送受信部205に伝達する。
カラーマッピング部203は、障害物感知部202から提供された衝突予想情報に基づいて障害物の衝突予想領域にマッピングするカラー情報を生成する。
障害物の衝突予想領域にマッピングするカラー情報は、障害物感知部202で計算されたTOCの値によって、所定のカラーの点で表示される。
(式3)を通じて計算されたTOCの値が小さければカラーの点を濃くし、TOCの値が大きければカラーの点を薄くして、TOCの値によって衝突予想領域にマッピングされるカラーの色調を調節し、この情報を制御部206を通じて送受信部205に伝達する。
図4は、本発明の他の実施形態による移動ロボットの遠隔操縦のための衝突防止装置(制御機器)の構造を示すブロック図である。
本発明の他の実施形態による移動ロボットの遠隔操縦のための衝突防止装置400は、移動ロボットから受信した情報に基づいて画面に見られる障害物に移動ロボットが衝突可能な衝突予想領域をカラーでマッピングするカラーマッピング処理部401、受信した情報に基づいて画面に移動ロボットの進行情報を表示する進行情報表示部402、衝突可能な障害物に移動ロボットが接近する時に受信した情報に基づいて所定の衝突予想時間前に警告音でユーザに警告する警告音発生部403、画面にディスプレイする移動ロボット101の情報を移動ロボット101から受信し、移動ロボット101を制御する情報を移動ロボット101に送信する送受信部404、送受信部404から受信した情報を分析して各部を制御する制御部405、画面で該当情報をディスプレイするディスプレイ部406及び移動ロボット101の方向を制御できるようにキーボードやボタンのような方向キーを持つ入力部407を備える。
図1Bに図示されたように、移動ロボット101を制御する制御機器102が本発明の他の実施形態による移動ロボットの遠隔操縦のための衝突防止装置400になりうる。移動ロボットの遠隔操縦のための衝突防止装置400は、送受信部404を通じて移動ロボット101から画面にディスプレイする情報を受信し、制御部405では受信した情報を分析して各部を制御する。ここで、移動ロボット101から受信した情報は、移動ロボットの走行方向の映像データ、FOE、移動ロボット101の移動速度、移動方向、移動ロボットの走行方向に存在する障害物についての衝突警告音情報及び前記衝突予想領域にマッピングするカラー情報を含む。
移動ロボットの遠隔操縦のための衝突防止装置400の進行情報表示部402は移動ロボットのFOEを表示し、移動ロボットの速度大きさと進行方向をアイコン及びオプティカルフローで表示する。
カラーマッピング処理部401では、TOCによるカラーマッピング情報を画面に見られる障害物にマッピングして、小さな画面の制御機器でもユーザが障害物を容易に認知可能にする。
また、警告音発生部403では、移動ロボット101が障害物に衝突する所定時間(秒)前に警告音を鳴らしてユーザが移動ロボット101の障害物衝突をあらかじめ予防できる。
制御機器102の画面に表示された衝突可能な障害物にカラーをマッピングし、事前に警告音を鳴らすことによってユーザは、移動ロボット101の進行方向に存在する障害物をさらに容易に認知して、制御機器102上に位置する入力部407であるキーボードやボタンのような方向キーで移動ロボット101を制御する制御データを、送受信部404を通じて遠隔地の移動ロボット101に送信する。
図5は、本発明の実施形態による移動ロボットの進行方向の映像及び移動ロボットの進行情報が制御機器の画面に表示されたことを示す図面である。
FOE 501がX字アイコンで表示されており、移動ロボットの速度大きさ及び進行方向が三角形のアイコン502で表示されている。
三角形のアイコン502は、移動ロボット101の進行方向によって角度が変更され、移動ロボット101の速度によって三角形のアイコンサイズが変更される。
すなわち、移動ロボットの速度が速ければ三角形のアイコンが長くなり、速度が遅ければ三角形のアイコンが短くなって、遠隔地で移動ロボット101を制御するユーザは三角形アイコン502のサイズを見て、移動ロボット101の移動速度及び進行方向を容易に認知できる。
FOE501の表示アイコンはX字のみに限定されず、X字ではない十字状や星状などその他の多様なアイコンで表示されうる。
三角形アイコン502も三角形のみに限定されず、アイコンの形態はユーザが長さによって移動ロボット101の方向及び速度を容易に認知できることが望ましい。
また、移動ロボットの進行方向に存在する障害物503に衝突予想領域503aがカラーでマッピングされて、制御機器102の画面が小さな場合にも移動ロボット101が衝突する可能性がある障害物503をユーザが容易に認知できる。
図6Aないし図6Cは、本発明の他の実施形態による移動ロボットの進行方向の映像及び移動ロボットの進行情報が制御機器の画面に表示されたことを示す図面である。
図6Aは、移動ロボットが左右に回転せずに直進する状態が制御機器の画面に表示されている。
FOE601aが画面中央に表示されており、移動ロボットの進行方向及び速度を表す三角形のアイコン602aが画面の下段に表示されている。
左右回転のない直進状態であるために、オプティカルフロー603aの形態はFOE 601aを中心に外側に向っており、オプティカルフローを表現する矢印は小さな形態で表示されている。
また、障害物604aに衝突予想領域605aがカラーでマッピングされており、衝突予想可能性によって濃いカラー606aと相対的に薄いカラー607aとで表示されている。
図6Bは、図6Aの状態で移動ロボットが右側に回転して前進する状態が制御機器の画面に表示されている。
FOE602bが図6AのFOE 601aに比べて右側に移動し、右側に回転する角度によって、移動ロボットの進行方向及び速度を表す三角形のアイコン602bが画面下段に表示されている。
オプティカルフロー603bの形態は、FOE 602baを中心に外側に向っており、カラーでマッピングされた障害物604bに衝突予想領域605bが図6Aの衝突予想領域605aに比べて相対的にさらに広く表示されている。
それほど障害物604bに移動ロボット101が近く接近したという意味である。
図6Cは、図6Bに図示された状態で移動ロボットがさらに右側に回転してさらに速く前進する状態が制御機器の画面に表示されている。
FOE603cが障害物604cにさらに近く表示されており、右側に回転する角度によって移動ロボットの進行方向及び速度を表す三角形のアイコン602cが画面下段に表示されている。
図6Bに図示された状態よりさらに速い速度で前進するので、図6Bに図示された三角形のアイコン602bよりさらに長くなった三角形のアイコン603cを見ることができ、オプティカルフロー603cは、FOE 602cを中心に外側に向い、オプティカルフロー603cを表現する矢印は、図6Bのそれより相対的にさらに長くなった。
また障害物604cの衝突予想領域605cは、図6Bの衝突予想領域605bに比べて相対的にさらに広く表示されており、衝突可能性もさらに大きいために、濃いカラーでマッピングされた領域606cがさらに広くなった。
図7は、本発明の実施形態による移動ロボットの遠隔操縦のための衝突防止方法のフローを示す図面であって、図2に図示された装置200を参照して説明する。
停止状態にあった移動ロボット101が動き始めれば、移動ロボット101に装着されたカメラで撮影した走行方向の映像を、制御部206を通じて映像処理部201に伝送し、エンコーダ部204では移動ロボット101のホイールの動作を感知して移動速度及び移動方向についての情報を、制御部206を通じて映像処理部201に伝送する(S701)。
S701後、所定の時間差で移動ロボット101に装着されたカメラで撮影した走行方向の2番目の映像は、制御部206を通じて映像処理部201に伝送され、エンコーダ部204では移動ロボット101のホイールの動作を感知して2番目の映像が伝送された時点の移動速度及び移動方向についての情報を、制御部206を通じて映像処理部201に伝送する(S702)
映像処理部201は、S701〜S702過程を通じて入力された走行方向の映像を保存所(図示せず)に保存して比較し、移動速度及び移動方向についての情報に基づいてオプティカルフローを計算する(S703)。
S703後、映像処理部201はFOEを計算する(S704)。
S704後、障害物感知部202は、移動ロボット101の走行方向に存在する障害物を感知して衝突警告音情報生成及びTOCを計算する(S705)。
S705後、カラーマッピング部203は、S705で計算されたTOCに基づいて衝突可能な障害物にマッピングされるカラーの色調をTOC値によって調節する(S706)。
S701〜S706を通じて獲得した情報は、制御部206を通じて送受信部205に伝えられ、送受信部205は、該当情報を遠隔地にある制御機器102に送信する(S707)。
図8は、本発明の他の実施形態による移動ロボットの遠隔操縦のための衝突防止方法のフローを示す図面であり、図4に図示された装置400を参照して説明する。
送受信部404では、遠隔地にある移動ロボット101から情報を受信して制御部405に伝達する(S801)。
制御部405は、伝達された情報を分析し、走行方向の映像はディスプレイ部406を通じて画面にディスプレイし(S802)、FOE及び移動ロボット101の速度大きさと進行方向を、進行情報表示部402を通じてアイコン及びオプティカルフローで表示する(S803)。
S803の後、カラーマッピング処理部401は、制御部405から衝突可能な障害物にマッピングするカラー情報を伝達されて、TOC値によって定められたカラーの色調を調節してマッピングする(S804)。
S804の後、警告音発生部403では制御部405から伝達された警告音情報を通じて、移動ロボット101が障害物に衝突する所定時間前に警告音を鳴らす(S805)。
S805の後、ユーザは制御機器102の方向キーを使用して障害物に衝突しないように移動ロボットの方向を制御する制御データを、送受信部404を通じて遠隔地にある移動ロボット101に送信する(S806)。
以上、添付図を参照して本発明の実施例を説明したが、本発明が属する技術分野で当業者ならば本発明がその技術的思想や必須特徴を変更せずとも他の具体的な形に実施されうるということが理解できるであろう。したがって、前述した実施例は全ての面で例示的なものであって、限定的なものではないと理解せねばならない。
本発明は、移動ロボットの遠隔操縦の関連技術分野に好適に用いられる。
本発明の実施形態による移動ロボットの遠隔操縦のための衝突防止システムの構成を示す図である。 本発明の実施形態による移動ロボットの遠隔操縦のための衝突防止システムの構成を示す図である。 本発明の実施形態による移動ロボットの遠隔操縦のための衝突防止装置(移動ロボット)の構造を示すブロック図である。 オプティカルフローの実施形態であって、典型的なオプティカルフローのパターンを示す図である。 本発明の他の実施形態による移動ロボットの遠隔操縦のための衝突防止装置(制御機器)の構造を示すブロック図である。 本発明の実施形態による移動ロボットの進行方向の映像及び移動ロボットの進行情報が制御機器の画面に表示されたことを示す図である。 本発明の他の実施形態による移動ロボットの進行方向の映像及び移動ロボットの進行情報が制御機器の画面に表示されたことを示す図である。 本発明の他の実施形態による移動ロボットの進行方向の映像及び移動ロボットの進行情報が制御機器の画面に表示されたことを示す図である。 本発明の他の実施形態による移動ロボットの進行方向の映像及び移動ロボットの進行情報が制御機器の画面に表示されたことを示す図である。 本発明の実施形態による移動ロボットの遠隔操縦のための衝突防止方法のフローを示す図である。 本発明の他の実施形態による移動ロボットの遠隔操縦のための衝突防止方法のフローを示す図である。
符号の説明
201 映像処理部
202 障害物感知部
203 カラーマッピング部
204 エンコーダ部
205 送受信部
206 制御部

Claims (26)

  1. 装着されたカメラで撮影した映像データを送信し、受信された制御データにより移動する移動ロボットと、
    前記映像データを受信して分析し、分析した結果を画面にディスプレイして前記移動ロボットに制御データを送信する制御機器と、を備える移動ロボットの遠隔操縦のための衝突防止システム。
  2. 前記移動ロボット及び前記制御機器は、有線または無線方式のデータ通信網を通じて所定のデータを送信及び受信する請求項1に記載の移動ロボットの遠隔操縦のための衝突防止システム。
  3. 移動ロボットの走行方向の映像を所定の時間差で保存して比較する映像処理部と、
    前記移動ロボットの走行方向に存在する障害物を感知し、前記障害物についての衝突予想情報を提供する障害物感知部と、
    前記衝突予想情報に基づいて前記障害物の衝突予想領域にマッピングするカラー情報を提供するカラーマッピング部と、を備える移動ロボットの遠隔操縦のための衝突防止装置。
  4. 前記移動ロボットの移動速度及び移動方向、そして移動距離についての情報を提供するエンコーダ部をさらに備える請求項3に記載の移動ロボットの遠隔操縦のための衝突防止装置。
  5. 前記走行方向の映像情報、前記衝突予想情報及び前記衝突予想領域にマッピングするカラー情報のうち少なくとも一つを制御機器に送信し、前記移動ロボットを制御する制御データを前記制御機器から受信する送受信部をさらに備える請求項3に記載の移動ロボットの遠隔操縦のための衝突防止装置。
  6. 前記映像処理部は、オプティカルフローを計算する請求項3に記載の移動ロボットの遠隔操縦のための衝突防止装置。
  7. 前記映像処理部は、前記計算されたオプティカルフローを利用してFOEを計算する請求項6に記載の移動ロボットの遠隔操縦のための衝突防止装置。
  8. 前記障害物感知部は、前記移動ロボットの進行方向に存在する障害物に対する移動ロボットのTOCを計算する請求項3に記載の移動ロボットの遠隔操縦のための衝突防止装置。
  9. 前記障害物感知部は、前記TOCを利用して前記障害物移動ロボットが衝突可能な衝突予想領域を計算する請求項8に記載の移動ロボットの遠隔操縦のための衝突防止装置。
  10. 前記障害物感知部は、前記移動ロボットの前記障害物への接近時に所定の衝突予想時間前に移動ロボットを制御する制御機器に警告信号を伝達する請求項3に記載の移動ロボットの遠隔操縦のための衝突防止装置。
  11. 前記警告信号を前記制御機器に伝達する時点は、ユーザが設定可能である請求項10に記載の移動ロボットの遠隔操縦のための衝突防止装置。
  12. 前記カラーマッピング部は、前記障害物感知部のTOC値によって前記衝突予想領域にマッピングされるカラーの色調を調節する請求項3に記載の移動ロボットの遠隔操縦のための衝突防止装置。
  13. 移動ロボットから受信した情報に基づいて、画面に見られる障害物に移動ロボットが衝突可能な衝突予想領域をカラーでマッピングするカラーマッピング処理部と、
    前記受信した情報に基づいて前記画面に前記移動ロボットの進行情報を表示する進行情報表示部と、
    前記衝突可能な障害物に前記移動ロボットが接近する時、前記受信した情報に基づいて所定の衝突予想時間前に警告音でユーザに警告する警告音発生部と、を備える移動ロボットの遠隔操縦のための衝突防止装置。
  14. 前記移動ロボットから受信した情報は、前記移動ロボットの走行方向の映像情報、前記移動ロボットの走行方向に存在する障害物についての衝突予想情報及び前記衝突予想領域にマッピングするカラー情報を含む請求項13に記載の移動ロボットの遠隔操縦のための衝突防止装置。
  15. 前記進行情報表示部は前記移動ロボットのFOEを表示し、前記移動ロボットの速度大きさ及び進行方向をアイコン及びオプティカルフローで表示する請求項13に記載の移動ロボットの遠隔操縦のための衝突防止装置。
  16. 前記衝突予想情報は、前記移動ロボットが前記障害物に衝突する前にユーザに警告する警告音情報を含む請求項13に記載の移動ロボットの遠隔操縦のための衝突防止装置。
  17. 移動ロボットに装着されたカメラで撮影した走行方向の映像を所定の時間差で保存して比較する映像処理ステップと、
    前記移動ロボットの走行方向に存在する障害物を感知して衝突予想情報を提供する障害物感知ステップと、
    前記衝突予想情報に基づいて前記障害物の衝突予想領域にマッピングするカラー情報を提供するカラーマッピング情報提供ステップと、を含む移動ロボットの遠隔操縦のための衝突防止方法。
  18. 前記移動ロボットのホイールの動作を感知して移動速度及び移動距離についての情報を獲得する移動速度及び移動距離獲得ステップをさらに含む請求項17に記載の移動ロボットの遠隔操縦のための衝突防止方法。
  19. 前記映像処理ステップは、オプティカルフローを計算するステップをさらに含む請求項17に記載の移動ロボットの遠隔操縦のための衝突防止方法。
  20. 前記映像処理ステップは、前記計算されたオプティカルフローを利用してFOEを計算するステップをさらに含む請求項19に記載の移動ロボットの遠隔操縦のための衝突防止方法。
  21. 前記障害物感知ステップは、前記移動ロボットの進行方向に存在する障害物に対する移動ロボットのTOCを計算するステップをさらに含む請求項17に記載の移動ロボットの遠隔操縦のための衝突防止方法。
  22. 前記障害物感知ステップは、前記TOCを利用して前記障害物に移動ロボットが衝突可能な衝突予想領域を計算するステップをさらに含む請求項21に記載の移動ロボットの遠隔操縦のための衝突防止方法。
  23. 前記障害物感知ステップは、前記移動ロボットの前記障害物への接近時、所定の衝突予想時間前に移動ロボットを制御する制御機器に警告信号を伝達するステップをさらに含む請求項17に記載の移動ロボットの遠隔操縦のための衝突防止方法。
  24. 前記カラーマッピング情報提供ステップは、前記障害物感知ステップのTOC値によって前記衝突予想領域にマッピングされるカラーの色調を調節するステップをさらに含む請求項17に記載の移動ロボットの遠隔操縦のための衝突防止方法。
  25. 移動ロボットから受信した情報に基づいて画面に見られる障害物に移動ロボットが衝突可能な衝突予想領域をカラーでマッピングするマッピング処理ステップと、
    前記受信した情報に基づいて前記画面に前記移動ロボットの進行情報を表示する進行情報表示ステップと、
    前記衝突可能な障害物に前記移動ロボットが接近する時、前記受信した情報に基づいて所定の衝突予想時間前に警告音でユーザに警告する警告音発生ステップと、を含む移動ロボットの遠隔操縦のための衝突防止方法。
  26. 前記進行情報表示ステップは前記移動ロボットのFOEを表示し、前記移動ロボットの速度大きさと進行方向をアイコン及びオプティカルフローで表示するステップをさらに含む請求項25に記載の移動ロボットの遠隔操縦のための衝突防止方法。
JP2007027569A 2006-06-01 2007-02-07 移動ロボットの遠隔操縦のための衝突防止システム、装置及び方法 Pending JP2007320024A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060049395A KR100791381B1 (ko) 2006-06-01 2006-06-01 이동 로봇의 원격 조종을 위한 충돌방지 시스템, 장치 및방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011209946A Division JP5323910B2 (ja) 2006-06-01 2011-09-26 移動ロボットの遠隔操縦のための衝突防止装置及び方法

Publications (1)

Publication Number Publication Date
JP2007320024A true JP2007320024A (ja) 2007-12-13

Family

ID=38791361

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2007027569A Pending JP2007320024A (ja) 2006-06-01 2007-02-07 移動ロボットの遠隔操縦のための衝突防止システム、装置及び方法
JP2011209946A Active JP5323910B2 (ja) 2006-06-01 2011-09-26 移動ロボットの遠隔操縦のための衝突防止装置及び方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2011209946A Active JP5323910B2 (ja) 2006-06-01 2011-09-26 移動ロボットの遠隔操縦のための衝突防止装置及び方法

Country Status (3)

Country Link
US (1) US7853372B2 (ja)
JP (2) JP2007320024A (ja)
KR (1) KR100791381B1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010061346A (ja) * 2008-09-03 2010-03-18 Ihi Aerospace Co Ltd 遠隔操縦システム
JP2014011518A (ja) * 2012-06-28 2014-01-20 Mitsubishi Heavy Ind Ltd 無線操作式車両の遠隔操作システム

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4577697B2 (ja) * 2007-11-30 2010-11-10 本田技研工業株式会社 移動装置および移動装置システム
JP4328819B2 (ja) * 2007-11-30 2009-09-09 本田技研工業株式会社 移動装置およびその制御プログラム
KR101408657B1 (ko) * 2007-12-18 2014-06-17 삼성전자주식회사 원격 제어 로봇 시스템의 사용자 인터페이스 장치 및 방법
KR100988416B1 (ko) * 2008-06-04 2010-10-18 성균관대학교산학협력단 이동 로봇의 장애물 외곽선 검출 방법, 이동 로봇 및 이동로봇 원격 제어기
KR101553950B1 (ko) 2009-03-02 2015-09-17 엘지전자 주식회사 로봇 청소기 및 그의 위치 검출 방법
KR101151787B1 (ko) * 2009-11-30 2012-05-31 재단법인대구경북과학기술원 조향 결정 성능이 향상된 원격 조종 로봇 시스템 및 이에 사용되는 원격 조종기
WO2011145239A1 (ja) * 2010-05-19 2011-11-24 国立大学法人東京工業大学 位置推定装置、位置推定方法及びプログラム
CA2800372A1 (en) * 2010-05-20 2011-11-24 Irobot Corporation Mobile human interface robot
KR101251184B1 (ko) * 2010-08-05 2013-04-08 서울대학교산학협력단 구동 명령을 이용한 비젼 트래킹 시스템 및 방법
KR101228332B1 (ko) * 2011-03-31 2013-01-31 삼성테크윈 주식회사 감시 시스템
US8919476B2 (en) 2011-07-11 2014-12-30 Holland Moving & Rigging Supplies, Inc. Platform dolly system
KR101324327B1 (ko) * 2011-12-14 2013-10-31 건국대학교 산학협력단 가상 세계를 사용한 무인 이동체 원격 제어 장치 및 방법
JP6069923B2 (ja) * 2012-07-20 2017-02-01 セイコーエプソン株式会社 ロボットシステム、ロボット、ロボット制御装置
PL401996A1 (pl) * 2012-12-11 2014-06-23 Robotics Inventions Spółka Z Ograniczoną Odpowiedzialnością Układ kontroli kolizji robota z przeszkodą, robot wyposażony w taki układ oraz sposób kontroli kolizji robota z przeszkodą
KR102082757B1 (ko) * 2013-07-11 2020-02-28 삼성전자주식회사 청소 로봇 및 그 제어 방법
CN103878634B (zh) * 2014-04-16 2016-08-17 温岭普瑞斯磨床有限公司 机械手防撞结构
KR101487168B1 (ko) * 2014-05-15 2015-02-09 아진산업(주) 지게차량의 안전 관리 시스템
TWI558525B (zh) 2014-12-26 2016-11-21 國立交通大學 機器人及其控制方法
DE102015220495A1 (de) * 2015-10-21 2017-04-27 Kuka Roboter Gmbh Schutzfeldanpassung eines Manipulatorsystems
US10452071B1 (en) * 2016-02-29 2019-10-22 AI Incorporated Obstacle recognition method for autonomous robots
US10788836B2 (en) 2016-02-29 2020-09-29 AI Incorporated Obstacle recognition method for autonomous robots
US11927965B2 (en) 2016-02-29 2024-03-12 AI Incorporated Obstacle recognition method for autonomous robots
US11449061B2 (en) 2016-02-29 2022-09-20 AI Incorporated Obstacle recognition method for autonomous robots
CN106003041B (zh) * 2016-06-17 2018-01-30 浙江理工大学 一种五自由度机械手控制方法
CN106200672B (zh) * 2016-07-19 2019-08-27 深圳北航新兴产业技术研究院 一种基于光流的无人机避障方法
CN109716255A (zh) * 2016-09-18 2019-05-03 深圳市大疆创新科技有限公司 用于操作可移动物体以规避障碍物的方法和***
KR102662949B1 (ko) * 2016-11-24 2024-05-02 엘지전자 주식회사 인공지능 이동 로봇 및 그 제어방법
US11144064B2 (en) * 2017-04-11 2021-10-12 Amicro Semiconductor Co., Ltd. Method for controlling motion of robot based on map prediction
JP2019053426A (ja) * 2017-09-13 2019-04-04 富士ゼロックス株式会社 情報処理装置及びプログラム
WO2019093374A1 (ja) * 2017-11-08 2019-05-16 日本電気株式会社 遠隔制御装置、システム、方法、及びプログラム
KR102466940B1 (ko) * 2018-04-05 2022-11-14 한국전자통신연구원 로봇 주행용 위상 지도 생성 장치 및 방법
CN110365419A (zh) * 2019-07-26 2019-10-22 秒针信息技术有限公司 送餐服务的通信方法及送餐机器人
CN111938513B (zh) * 2020-06-30 2021-11-09 珠海市一微半导体有限公司 一种机器人越障的沿边路径选择方法、芯片及机器人
KR102458952B1 (ko) 2020-12-31 2022-10-26 한국전자통신연구원 다중 센서 정보 lstm 기반의 무인 로봇 충돌 감지/경고 방법 및 시스템
KR20220132241A (ko) * 2021-03-23 2022-09-30 삼성전자주식회사 로봇 및 그 제어 방법
CN113395444A (zh) * 2021-04-25 2021-09-14 戴井之 一种家庭智能监控防盗***
KR102619118B1 (ko) * 2021-12-10 2023-12-29 주식회사 엑스와이지 작업자 선도형 스마트 이송 로봇
CN117047797B (zh) * 2023-08-25 2024-01-30 湖北建科国际工程有限公司 一种施工现场监控机器人

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06337286A (ja) * 1993-05-28 1994-12-06 Mitsubishi Heavy Ind Ltd 移動体用衝突位置予測警報装置
JPH0750769A (ja) * 1993-08-06 1995-02-21 Yazaki Corp 車両用後側方監視方法
JPH11353565A (ja) * 1998-06-09 1999-12-24 Yazaki Corp 車両用衝突警報方法及び装置
JP2002029346A (ja) * 2000-07-14 2002-01-29 Hiroyuki Yokozawa 自動車の運転支援システム及び運転支援プログラムを記録した記録媒体
JP2003330540A (ja) * 2003-03-28 2003-11-21 Sanyo Electric Co Ltd 自走車両
JP2004056763A (ja) * 2002-05-09 2004-02-19 Matsushita Electric Ind Co Ltd 監視装置、監視方法および監視用プログラム
JP2004127182A (ja) * 2002-10-07 2004-04-22 Yazaki Corp 車両用周辺監視装置
JP2005056372A (ja) * 2003-03-26 2005-03-03 Fujitsu Ten Ltd 車両制御装置、車両制御方法および車両制御プログラム
JP2005258792A (ja) * 2004-03-11 2005-09-22 Olympus Corp 画像生成装置、画像生成方法、および画像生成プログラム
JP2006039682A (ja) * 2004-07-22 2006-02-09 Toshiba Tec Corp 自律走行ロボット
JP2006092117A (ja) * 2004-09-22 2006-04-06 Nissan Motor Co Ltd 車両用衝突時間推定装置及び車両用衝突時間推定方法
JP2006099155A (ja) * 2004-09-28 2006-04-13 Nissan Motor Co Ltd 衝突判定装置、および方法
JP2006113858A (ja) * 2004-10-15 2006-04-27 Mitsubishi Heavy Ind Ltd 移動体の遠隔操作支援方法及びシステム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4905151A (en) 1988-03-07 1990-02-27 Transitions Research Corporation One dimensional image visual system for a moving vehicle
DE4414192C2 (de) * 1994-04-22 1996-06-13 Siemens Ag Verfahren zur Ermittlung einer Sicherheitszone um eine selbstbewegliche mobile Einheit
JP4132415B2 (ja) 1999-06-09 2008-08-13 株式会社豊田自動織機 清掃ロボット
US6845297B2 (en) 2000-05-01 2005-01-18 Irobot Corporation Method and system for remote control of mobile robot
JP3843742B2 (ja) * 2001-03-09 2006-11-08 独立行政法人科学技術振興機構 ロボット視聴覚システム
KR100437372B1 (ko) * 2001-04-18 2004-06-25 삼성광주전자 주식회사 이동통신망을 이용한 로봇 청소 시스템
KR100406636B1 (ko) 2001-04-18 2003-11-21 삼성광주전자 주식회사 로봇 청소기와 그 시스템 및 제어방법
KR100485696B1 (ko) 2003-02-07 2005-04-28 삼성광주전자 주식회사 로봇청소기의 위치인식표지 검출방법 및 이 검출방법을적용한 로봇청소기
US20060293786A1 (en) * 2003-08-21 2006-12-28 Tmsuk Co., Ltd. Robot system and remote operation system of robot
JP2005231381A (ja) * 2004-02-17 2005-09-02 Nissan Motor Co Ltd 車両用情報提示装置および方法
JP4539348B2 (ja) * 2004-09-07 2010-09-08 日産自動車株式会社 衝突時間算出装置および障害物検出装置

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06337286A (ja) * 1993-05-28 1994-12-06 Mitsubishi Heavy Ind Ltd 移動体用衝突位置予測警報装置
JPH0750769A (ja) * 1993-08-06 1995-02-21 Yazaki Corp 車両用後側方監視方法
JPH11353565A (ja) * 1998-06-09 1999-12-24 Yazaki Corp 車両用衝突警報方法及び装置
JP2002029346A (ja) * 2000-07-14 2002-01-29 Hiroyuki Yokozawa 自動車の運転支援システム及び運転支援プログラムを記録した記録媒体
JP2004056763A (ja) * 2002-05-09 2004-02-19 Matsushita Electric Ind Co Ltd 監視装置、監視方法および監視用プログラム
JP2004127182A (ja) * 2002-10-07 2004-04-22 Yazaki Corp 車両用周辺監視装置
JP2005056372A (ja) * 2003-03-26 2005-03-03 Fujitsu Ten Ltd 車両制御装置、車両制御方法および車両制御プログラム
JP2003330540A (ja) * 2003-03-28 2003-11-21 Sanyo Electric Co Ltd 自走車両
JP2005258792A (ja) * 2004-03-11 2005-09-22 Olympus Corp 画像生成装置、画像生成方法、および画像生成プログラム
JP2006039682A (ja) * 2004-07-22 2006-02-09 Toshiba Tec Corp 自律走行ロボット
JP2006092117A (ja) * 2004-09-22 2006-04-06 Nissan Motor Co Ltd 車両用衝突時間推定装置及び車両用衝突時間推定方法
JP2006099155A (ja) * 2004-09-28 2006-04-13 Nissan Motor Co Ltd 衝突判定装置、および方法
JP2006113858A (ja) * 2004-10-15 2006-04-27 Mitsubishi Heavy Ind Ltd 移動体の遠隔操作支援方法及びシステム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010061346A (ja) * 2008-09-03 2010-03-18 Ihi Aerospace Co Ltd 遠隔操縦システム
JP2014011518A (ja) * 2012-06-28 2014-01-20 Mitsubishi Heavy Ind Ltd 無線操作式車両の遠隔操作システム

Also Published As

Publication number Publication date
JP5323910B2 (ja) 2013-10-23
KR20070115244A (ko) 2007-12-05
US7853372B2 (en) 2010-12-14
JP2012045706A (ja) 2012-03-08
US20070282531A1 (en) 2007-12-06
KR100791381B1 (ko) 2008-01-07

Similar Documents

Publication Publication Date Title
JP5323910B2 (ja) 移動ロボットの遠隔操縦のための衝突防止装置及び方法
US6172601B1 (en) Three-dimensional scope system with a single camera for vehicles
CN106104203B (zh) 一种移动物体的距离检测方法、装置及飞行器
JP5057936B2 (ja) 鳥瞰画像生成装置および方法
JP5187292B2 (ja) 車両周辺監視装置
KR102151815B1 (ko) 카메라 및 라이다 센서 융합을 이용한 객체 검출 방법 및 그를 위한 장치
JP6548900B2 (ja) 画像生成装置、画像生成方法及びプログラム
JP5418661B2 (ja) 車両周辺監視装置
JP4609603B2 (ja) 3次元情報表示装置および3次元情報表示方法
JP2005024463A (ja) ステレオ広視野画像処理装置
Pundlik et al. Collision detection for visually impaired from a body-mounted camera
JP2011070593A (ja) 車両周辺監視装置
JP2001216520A (ja) 車両用周辺監視装置
KR20180059366A (ko) 가상 현실 기기 상에서의 이미지 줌인 및 줌아웃을 위한 방법 및 장치
JP2007280387A (ja) 物体移動の検出方法及び検出装置
JPH1144533A (ja) 先行車両検出装置
KR20140125596A (ko) 이동형 증강현실 제공 장치 및 그 방법
JP2006027481A (ja) 物体警告装置及び物体警告方法
JP2019188855A (ja) 車両用視認装置
JP2008003696A (ja) 画像処理装置及び画像処理方法
JP2005071041A (ja) 運転者視対象検出装置及び運転者視対象検出システム
WO2021002116A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2007003462A (ja) 視線認識装置、及び視線認識方法
JP2021174089A (ja) 情報処理装置、情報処理システム、情報処理方法およびプログラム
JP2005284797A (ja) 走行安全装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110502

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110926