JP2004086401A - 対象物認識装置および方法 - Google Patents

対象物認識装置および方法 Download PDF

Info

Publication number
JP2004086401A
JP2004086401A JP2002244612A JP2002244612A JP2004086401A JP 2004086401 A JP2004086401 A JP 2004086401A JP 2002244612 A JP2002244612 A JP 2002244612A JP 2002244612 A JP2002244612 A JP 2002244612A JP 2004086401 A JP2004086401 A JP 2004086401A
Authority
JP
Japan
Prior art keywords
unit
image
imaging
lens
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2002244612A
Other languages
English (en)
Other versions
JP2004086401A5 (ja
Inventor
Hiroyuki Hasegawa
長谷川 裕之
Hideki Hama
浜 秀樹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002244612A priority Critical patent/JP2004086401A/ja
Publication of JP2004086401A publication Critical patent/JP2004086401A/ja
Publication of JP2004086401A5 publication Critical patent/JP2004086401A5/ja
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】ロボットに適用することによって、周辺の空間情報を高速で構築することができる。
【解決手段】撮像部6R、6Lからのディジタル映像信号がビデオインタフェース7R、7Lを介してバッファメモリ10R、10Lに書き込まれる。バッファメモリ10R、10Lの出力データがJPEGエンコーダ/メタデータ付加部11R、11Lに供給され、画像データがJPEGデータに変換され、メタデータ、位置情報が付加される。特徴抽出部15R、15Lでは、メモリ14R、14Lに記憶されたJPEGデータから特徴となる様々な情報が抽出される。識別演算部17R、17Lでは、識別辞書18R、18Lに登録されている様々な識別情報と抽出された情報とが照合される。空間マッピング計算部20では、メモリ14RからのJPEGデータと、メモリ14LからのJPEGデータとから同一の対象物が抽出される。
【選択図】  図1

Description

【0001】
【発明の属する技術分野】
この発明は、ロボット装置の視覚装置に用いて好適な対象物認識装置および方法に関する。
【0002】
【従来の技術】
従来のロボット装置(以下、単に「ロボット」と称する)は、視覚装置としてカメラ部を備えたものが一般的である。成人並の大きさのロボットでは、腰下に存在する小人を発見し、移動時にぶつかることを回避し、ロボット自身が凶器とならないようにする必要がある。これは、通常の人間でもよく発生する生活上の事故であり、人間対人間の場合は、大きな問題とならないが、人間対ロボットの場合だと人間の安全確保のために非常に重要な問題となる。
【0003】
また、現状のロボットの歩行速度もモータなどの駆動系の問題で人類の歩行速度並にも達していないが、モータの出力を上げ、歩行速度が上がるのは、時間の問題である。しかしながら、ロボットの視覚機能が人類以下であると、人類の代用として人間と同じ空間内でロボットが活動することに様々な困難が伴うのは、必然的な問題である。
【0004】
【発明が解決しようとする課題】
このようなロボットが、その周囲の広角な範囲の情報を必要とするときには、もっとも明るい開放F値の焦点距離(例えば、ワイド端)にレンズ部を設定して画像を取り込んでいた。このとき、取り込まれた画像中の情報の大きさは、1画素以下になることがあるため、部分々々の画像情報が不足し、詳細な形状や位置を特定することができなかった。このように、レンズ部をワイド端にして取り込んだ画像では、満足する解像度を得ることができない問題があった。
【0005】
そこで、詳細な情報を得るために、もっとも暗い開放F値の焦点距離(例えば、テレ端)側にレンズ部を設定して、取り込んだ画像では、詳細な形状や位置を特定することはできる。しかしながら、この場合、周囲の広角な範囲の空間情報を得ることはできず、その中の一部の空間情報しか得ることができない問題があった。このように、従来のロボットが備えているカメラは、限られた空間に対してのみ動作するものであり、その限られた空間上でのみの制御装置として使用されている。従って、視覚装置として備わっているカメラで撮影された画像に基づいて、ロボットの周囲にある物体をスムーズに捉え、空間情報を構築して、ロボットの動作制御に用いることは困難であった。
【0006】
このようにロボットは、空間情報を持たないため、リアルタイムで情報を検出する必要があり、そのためゆっくりとした移動速度でしか移動できないか、別途センサを備える必要があった。そこで、高速に周辺画像を取り込み、且つ取り込んだ画像が詳細な形状確認ができるほどの解像度(詳細な情報)を備えたカメラ部が望まれている。
【0007】
従って、この発明の目的は、ロボットに適用することによって、周辺の空間情報を高速で構築することができる対象物認識装置および方法を提供することにある。
【0008】
【課題を解決するための手段】
上述した課題を達成するために請求項1に記載の発明は、映像を撮影する第1および第2の撮像手段と、サーボモータを駆動源として第1および第2の撮像手段の撮像方向を変化させる第1および第2の撮像方向可動手段とによって、周囲を撮像する撮像システムを有し、第1および第2の撮像手段から得られた第1および第2の画像データを蓄積する蓄積手段と、蓄積された第1および第2の画像データから対象物を抽出する対象物抽出手段と、抽出された対象物から対象物までの距離を算出し、算出された対象物までの距離から周囲の空間情報を構成する空間構成手段とを有することを特徴とする対象物認識装置である。
【0009】
請求項5に記載の発明は、映像を撮影する第1および第2の撮像手段と、サーボモータを駆動源として第1および第2の撮像手段の撮像方向を変化させる第1および第2の撮像方向可動手段とによって、周囲を撮像する撮像システムを有し、第1および第2の撮像手段から得られた第1および第2の画像データを蓄積するステップと、蓄積された第1および第2の画像データから対象物を抽出するステップと、抽出された対象物から対象物までの距離を算出し、算出された対象物までの距離から周囲の空間情報を構成するステップとを有することを特徴とする対象物認識方法である。
【0010】
この対象物認識装置をロボット装置の視覚装置として使用することによって、周囲の画像を素早く撮影することができるので、対象物までの距離を素早く算出し、素早く空間情報を構築することができる。
【0011】
【発明の実施の形態】
以下、この発明の一実施形態について図面を参照して説明する。図1および図2は、この発明の一実施形態のブロック図を示す。この一実施形態では、参照符号1で示す共通のコントローラバスに対して、右眼ユニット、左目ユニット、およびコンピュータの構成要素が接続されている。なお、右眼側の制御または信号処理を行うブロックには、参照符号の最後に「R」を付し、左眼側の制御または信号処理を行うブロックには、参照符号の最後に「L」を付す。
【0012】
右眼ユニット2Rには、レンズ部3R、フォーカス・ズーム・アイリス制御部4R、トラッキング部5R、撮像部6R、ビデオインタフェース7R、パン部8R、およびチルト部9Rとから構成される。コントローラバス1を介してカメラコントローラCPU(Central Processing Unit)22から供給される制御信号によって、制御される。なお、レンズ部3R、フォーカス・ズーム・アイリス制御部4R、トラッキング部5R、撮像部6R、およびビデオインタフェース7Rは右眼ユニット2Rのカメラ部として、パン部8Rおよびチルト部9R上に設置されている。
【0013】
左眼ユニット2Lには、レンズ部3L、フォーカス・ズーム・アイリス制御部4L、トラッキング部5L、撮像部6L、ビデオインタフェース7L、パン部8L、およびチルト部9Lとから構成される。コントローラバス1を介してカメラコントローラCPU(Central Processing Unit)22から供給される制御信号によって、制御される。なお、レンズ部3L、フォーカス・ズーム・アイリス制御部4L、トラッキング部5L、撮像部6L、およびビデオインタフェース7Lは右眼ユニット2Lのカメラ部として、パン部8Lおよびチルト部9L上に設置されている。
【0014】
パン部8Rおよび8L並びにチルト部9Rおよび9Lは、それぞれ駆動源として例えばステッピングモータを有し、コントローラバス1を介してカメラコントローラCPU22から供給される制御信号に応じてカメラ部をパンまたはチルトさせる。ここで、パンは、水平方向にカメラを回転させることを意味し、チルトは、垂直方向にカメラを回転させることを意味する。一例として、パン角の最大値が180°とされ、チルト角の最大値が50°とされている。
【0015】
後述するように、カメラ部の最大移動範囲内で、チルト角=±15°、パン角=±50°程度の範囲でカメラ部を移動させる。撮像中心を画角分移動させる毎に、シャッターがオンされ、例えば1/60秒または1/30秒の静止画像(以下、適宜「フレーム」と称する)が撮影される。すなわち、カメラ部では動画が撮影され、撮影された動画が1/60秒または1/30秒からなる1枚の静止画像として、後段に供給される。
【0016】
縦方向でM枚(例えば8枚)、横方向でN枚(例えば16枚)の合計(M×N=8×16=128枚)のフレームが順番に撮影され、これらを圧縮する。各フレームが例えばXGA(1024×768 画素)画像である。したがって、128枚のフレームは、重複部分を無視すると、(横方向が1024×16=16,384画素で、縦方向が768×8=6,144画素)の約1億画素の画像を形成する。なお、128枚のフレームを撮影するのに約5秒かかる。そして、この一実施形態では、隣り合うフレームの重複部分は縦横のそれぞれで16画素とされる。
【0017】
フォーカス・ズーム・アイリス制御部4Rおよび4Lは、コントローラバス1を介してコントローラCPU22から供給される制御信号によって制御される。撮像部6Rおよび6Lは、固体撮像素子例えばCCD(Charge Coupled Device)とカメラ信号処理回路とを含む。撮像部6Rおよび6Lからのディジタル映像信号がビデオインタフェース7Rおよび7Lを介してバッファメモリ10Rおよび10Lに書き込まれる。
【0018】
トラッキング部5Rでは、パン部8Rおよびチルト部9Rの動きに対応してレンズ部3Rの所定のレンズをシフトさせて、パン部8Rおよびチルト部9Rの動きが打ち消される。トラッキング部5Lでは、パン部8Lおよびチルト部9Lの動きに対応してレンズ部3Lの所定のレンズをシフトさせて、パン部8Lおよびチルト部9Lの動きが打ち消される。従って、ブレのない1/60秒または1/30秒の静止画像を撮影することができる。
【0019】
バッファメモリ10Rおよび10Lの出力データがJPEG(Joint Photographics Experts Group)エンコーダ/メタデータ付加部11Rおよび11Lに供給され、画像データがJPEGデータに変換される。JPEGは、圧縮方式の1つであって、他の圧縮方式を使用しても良いし、圧縮しないでも良い。
【0020】
右眼ユニット2Rおよび左眼ユニット2Lには、その位置を検出するためのGPS(Global Positioning System)12Rおよび12Lが備えられている。GPS12Rおよび12Lを備えることによって、カメラの設置場所のデータを記録できると共に、カメラの向きを検出し、複数のカメラの向きを連動して制御することが可能となる。GPS12Rおよび12Lは、コントローラバス1を介してカメラコントローラCPU22から供給される制御信号によって制御される。
【0021】
GPS12Rおよび12Lの出力信号がメタデータ生成部13Rおよび13Lに供給され、GPS12Rおよび12Lの測位結果に基づいた位置情報(緯度・経度、方位、高度等の情報)およびメタデータ(時刻、カメラ部のパラメータ(倍率、フォーカス値、アイリス値等)等の情報)が生成される。位置情報およびメタデータがJPEGエンコーダ/メタデータ付加部11Rおよび11Lに供給され、JPEGデータに対して位置情報およびメタデータが付加される。
【0022】
メタデータおよび位置情報が付加されたJPEGデータがメモリ14Rおよび14Lへ記憶される。特徴抽出部15Rおよび15Lでは、メモリ14Rおよび14Lに記憶されたJPEGデータから特徴となる様々な情報が抽出される。例えば、色情報、エッジ情報、および形状などが抽出される。抽出された様々な情報は、識別部16Rおよび16Lへ供給される。
【0023】
識別部16Rは識別演算部17Rおよび識別辞書18Rから構成され、識別部16Lは識別演算部17Lおよび識別辞書18Lから構成される。識別演算部17Rおよび17Lでは、識別辞書18Rおよび18Lに登録されている様々な識別情報と抽出された情報とが照合され、抽出された情報が3次元座標情報に置き換えられる。なお、識別辞書18Rおよび18Lには、例えば球、立方体、円柱、三角錐、円錐、目、鼻、口、耳などの座標情報が登録されている。このように、識別演算部17Rおよび17Lで識別された3次元座標情報は、メモリ14Rおよび14Lへ供給される。
【0024】
メモリ14Rおよび14Lでは、識別部16Rおよび16Lから供給された3次元座標情報がJPEGデータに付加され、3次元座標情報が付加されたJPEGデータは空間情報検出部19へ供給される。
【0025】
空間情報検出部19は、空間マッピング計算部20および距離計算部21から構成される。メモリ14Rおよび14Lから供給されたJPEGデータは、空間マッピング計算部20へ供給される。空間マッピング計算部20では、メモリ14Rから得られたJPEGデータと、メモリ14Lから得られたJPEGデータとから同一の対象物が抽出される。
【0026】
距離計算部21では、カメラ部の角度および抽出された対象物の位置によって抽出された対象物までの距離が測定される。この測定は、任意のタイミングで自動的に行うようにしても良いし、ロボット装置本体のロボット制御部27からI/Oポート23を介して伝達された指示に応じて行うようにしても良い。距離が測定され、空間の位置が特定された対象物は、空間情報としてロボット装置本体を中心点においた自由空間上に対応付けられ、配置される。
【0027】
また、この自由空間上に対応付けられた対象物は、ロボット装置本体の移動に応じて相対的に移動し、移動した位置情報を記録し、空間情報を構築する手法と、ロボット装置本体を含めた絶対的な位置情報として空間情報を構築する手法とがある。そして、この空間上の位置情報はメインメモリ24に格納される。メインメモリ24に格納された位置情報は、I/Oポート23を介してロボット制御部27または外部からの情報の要求に対して送出される。
【0028】
上述したように、コントローラバス1に接続されたカメラコントローラCPU22は、カメラ部のレンズ制御(例えば、フォーカス等)、露出制御(例えば、絞り、ゲイン、電子シャッタースピード等)、白バランス制御、画質制御等を行うと共に、パン部8Rおよび8Lおよびチルト部9Rおよび9Lを制御する。
【0029】
I/Oポート23に対しては、メモリカード25および時計26が接続されている。メモリカード25に対して、メインメモリ30に蓄積されている位置情報およびメタデータが付加されたJPEGデータを書き込むことができる。また、時計26から時刻データが得られる。
【0030】
なお、メインメモリ24は、ハードディスクなどから構成され、右眼ユニット2Rおよび左眼ユニット2Lで撮像され、メタデータおよび位置情報が付加されたJPEGデータ蓄積される。
【0031】
この一実施形態では、バッファメモリ10R、10L、JPEGエンコーダ/メタデータ付加部11R、11L、メモリ14R、14L、特徴抽出部15R、15L、識別部16R、16L、識別演算部17R、17L、識別辞書18R、18Lは、それぞれ右眼側の制御または信号処理を行うブロックおよび左眼側の制御または信号処理を行うブロックを設けているが、それぞれ1つのブロックで右眼側および左眼側の制御または信号処理を行うようにしても良い。
【0032】
次に、図3を用いて、右眼ユニット2Rおよび左眼ユニット2Lによる撮影に関する動作の一例について説明する。なお、説明を容易とするために、右眼ユニット2Rのみの撮影に関する動作の一例について説明する。図3に示すように、右眼ユニット2Rは、パンチルタ部32の雲台にカメラ部31Rが設置され、ホームポジションから撮像方向が可変される。図3において、撮影された(M×N)枚のフレームをカメラ側から見て、各行に対して上から順に1、2、・・・、Mの番号を付し、各列に対して左から順に1、2、・・・、Nの番号を付す。ホームポジションは例えば(1,1)の座標のフレームを撮影する位置とされる。
【0033】
(1,1)の座標位置のフレームを撮影すると、右眼ユニット2Rが下側にチルトされ、(2,1)の座標位置のフレームが撮影され、以下、順に(3,1)・・・・、(M,1)の座標位置のフレームが撮影され、次に第2列の一番上の座標位置(1,2)のフレームが撮影される。以下、各フレームを(M,N)の座標位置のフレームまで撮影する。上述したように、各フレームが他のフレームと16画素分の重複部分を有する。
【0034】
上述したように、各フレームが例えばXGA(1024画素×768画素)画の場合では、128枚のフレームからなる画像は、重複部分を無視すると、(横方向が1024画素×16枚=16,384画素で、縦方向が768画素×8枚=6,144画素)の約1億画素の画像である。従って、高精細な周辺画像を取り込むことができる。
【0035】
図4に、75倍の望遠レンズが右眼ユニット2Rに備えられている場合に、1フレームで撮影できる範囲を示す。右眼ユニット2Rから100m離れた距離にある被写体を撮影する場合には、1フレームで、縦8.7m×横1.17mの範囲を撮影することができる。例えば、カメラ部31Rの撮像素子として、XGA用の撮像素子を用いた場合には、被写体の縦0.87cm×横1.17cmの範囲を約1画素で表すことができる。
【0036】
カメラユニット3から200m離れた距離にある被写体を撮影する場合には、1フレームで、縦1.74m×横2.34mの範囲を撮影することができる。例えば、カメラ部31Rの撮像素子として、XGA用の撮像素子を用いた場合には、被写体の縦1.74cm×横2.34cmの範囲を1画素で表すことができる。
【0037】
カメラユニット3から500m離れた距離にある被写体を撮影する場合には、1フレームで、縦4.36m×横5.84mの範囲を撮影することができる。例えば、カメラ部31Rの撮像素子として、XGA用の撮像素子を用いた場合には、被写体の縦4.36cm×横5.84cmの範囲を1画素で表すことができる。
【0038】
図5および図6を参照して取得した画像データをメインメモリ24等に蓄積する場合のデータ管理方法を説明する。図5に示すように、所定時間間隔で、(M×N)枚のフレームの画像が撮影される。撮影された画像は、圧縮されてメインメモリ24に蓄積される。このとき、M行N列によって各フレームの位置が規定される。例えば(1,1)の位置アドレスによって、右端の最も上のフレームが規定される。
【0039】
各フレームは、図6Aに示すように、この位置アドレスと記録時の時間情報とをファイル名としてメインメモリ24に蓄積される。このとき時間情報は、年月日時分秒で構成される。したがって、各フレームのファイル名は、(年月日時分秒、位置アドレス)となる。
【0040】
さらに、図6Bに示すように、(M×N)枚のフレームで全体的な1枚の画像が形成されることに対応して、ディレクションファイルが規定されている。ディレクションファイルは、(1,1)の位置アドレスを有するフレームのファイル名(すなわち、年月日時分秒、位置アドレス)と同一のデータを持つことで、当該(M×N)枚のフレームの集合を定義する。さらに、このフレームの集合に対する位置情報およびメタデータをディレクションファイルが有する。位置情報およびメタデータは、メタデータ生成部29で生成されたものである。すなわち、緯度・経度、方位、高度等の位置情報と、カメラ部31Rのパラメータ(倍率、フォーカス値、アイリス値等)等のメタデータ情報とをディレクションファイルが有する。
【0041】
図7を参照して、右眼ユニット2Rの動作の実施形態を説明する。この図7は、右眼ユニット2Rを真上から見たときの、カメラ部31Rの平面断面図とする。またここでは、説明を容易とするために、カメラ部31Rには、レンズ部3Rおよび撮像部6Rのみを図示し、このカメラ部31Rを単にパンさせる。
【0042】
カメラ部31Rのパンの中心は、基準円202で示す中心位置とする。この一例では、説明を容易とするため撮像部6Rにおいて被写体の像を結像する面の中心と、基準円202の中心とがずれているが、それぞれが一致するように配置しても何ら問題はない。
【0043】
カメラ部31Rの光線の中心を基準線220で示し、撮影しようとする被写体の撮像中心を撮像中心線210で示す。レンズ部2Rは、レンズ203、204、206、207、およびシフトレンズ(光路可変素子)205から構成される。一例として、レンズ203、204、および206は、その屈折率が1より大きい凸レンズであり、シフトレンズ205およびレンズ207は、その屈折率が1より小さい凸レンズである。
【0044】
なお、このシフトレンズ205は、一例としてレンズと、そのレンズを水平方向に移動させるリニアモータと、レンズを垂直方向に移動させるリニアモータとから構成される。そして、この実施形態では、レンズ自身のことをシフトレンズと称する。
【0045】
この図7では、一例として図7A、図7B、そして図7Cの順番にパンする。まず、図7Aに示すように、基準線220と撮像中心線210とが角度θaとなるときに、被写体の像は光路211aを経由してレンズ203に入射される。
【0046】
レンズ203に入射された被写体の像は、レンズ203の屈折率で屈折され、光路212aを経由してレンズ204に入射される。レンズ204に入射された被写体の像は、レンズ204の屈折率で屈折され、光路213aを経由して被写体の像を撮像部6Rに供給するために位置205aへ移動しているシフトレンズ205に入射される。
【0047】
シフトレンズ205に入射された被写体の像は、シフトレンズ205の屈折率で屈折され、光路214aを経由してレンズ206に入射される。このとき、パン部8Rのサーボモータに供給するパルス数を計数した計数値に対応してシフトレンズ205のリニアモータに所定の電圧が印加され、位置205aにシフトレンズ205を移動させる。
【0048】
レンズ206に入射された被写体の像は、レンズ206の屈折率で屈折され、光路215を経由してレンズ207に入射される。レンズ207に入射された被写体の像は、レンズ207の屈折率で屈折され、光路216を経由して撮像部6Rに入射される。
【0049】
このように、パン部8Rのサーボモータに供給するパルス数を計数した計数値に対応した位置205aにシフトレンズ205を移動させることによって、シフトレンズ205で形成される光路214aを経由して、撮像部6Rに被写体の像を入射させるように、レンズ206に被写体の像が入射される。
【0050】
そして、図7Bに示すように、基準線220と撮像中心線210とが一致するときに、被写体からの像は光路211bを経由してレンズ203に入射される。
【0051】
レンズ203に入射された被写体の像は、レンズ203の屈折率で屈折され、光路212bを経由してレンズ204に入射される。レンズ204に入射された被写体の像は、レンズ204の屈折率で屈折され、光路213bを経由して被写体の像を撮像部6Rに供給するために位置205bへ移動しているシフトレンズ205に入射される。
【0052】
シフトレンズ205に入射された被写体の像は、シフトレンズ205の屈折率で屈折され、光路214bを経由してレンズ206に入射される。このとき、シフトレンズ205のレンズの中心と、基準線220と、撮像中心線210とが一致するようにシフトレンズ205のリニアモータに所定の電圧が印加され、位置205bにシフトレンズ205を移動させる。
【0053】
レンズ206に入射された被写体の像は、レンズ206の屈折率で屈折され、光路215を経由してレンズ207に入射される。レンズ207に入射された被写体の像は、レンズ207の屈折率で屈折され、光路216を経由して撮像部6Rに入射される。
【0054】
このように、シフトレンズ205の中心と、基準線220と、撮像中心線210とが一致する位置205bにシフトレンズ205を移動させることによって、シフトレンズ205で形成される光路214bを経由して、撮像部6Rに被写体の像を入射させるように、レンズ206に被写体の像が入射される。
【0055】
そして、図7Cに示すように、基準線220と撮像中心線210とが角度−θcとなるときに、被写体からの像は光路211cを経由してレンズ203に入射される。
【0056】
レンズ203に入射された被写体の像は、レンズ203の屈折率で屈折され、光路212cを経由してレンズ204に入射される。レンズ204に入射された被写体の像は、レンズ204の屈折率で屈折され、光路213cを経由して被写体の像を撮像部6Rに供給するために位置205cへ移動しているシフトレンズ205に入射される。
【0057】
シフトレンズ205に入射された被写体の像は、シフトレンズ205の屈折率で屈折され、光路214cを経由してレンズ206に入射される。このとき、パン部8Rのサーボモータに供給するパルス数を計数した計数値に対応しててシフトレンズ205のリニアモータに所定の電圧が印加され、位置205cにシフトレンズ205を移動させる。
【0058】
レンズ206に入射された被写体の像は、レンズ206の屈折率で屈折され、光路215を経由してレンズ207に入射される。レンズ207に入射された被写体の像は、レンズ207の屈折率で屈折され、光路216を経由して撮像部6Rに入射される。
【0059】
このように、パン部8Rのサーボモータに供給するパルス数を計数した計数値に対応した位置205cにシフトレンズ205を移動させることによって、シフトレンズ205で形成される光路214cを経由して、撮像部6Rに被写体の像を入射させるように、レンズ206に被写体の像が入射される。
【0060】
この図7に示すようにカメラ部31Rの移動する方向と逆方向になるようにシフトレンズ205を移動させることによって、撮像部6Rで露光される被写体の像を同一にすることができる。
【0061】
この実施形態では、カメラ部31Rで撮影される1画面分を移動するときのパルス数を1サイクルのパルスと称する。そして、カメラ部31Rが移動する方向によって、FWDサイクルおよびREVサイクルの2種類のサイクルがある。この実施形態では、FWDサイクルのときにシフトレンズ205が待機している位置を図7Aに示す位置205aとする。
【0062】
また、FWDサイクルの時にシフトレンズ205が、シフトレンズの位置205aからシフトレンズの位置205c(図7C参照)へ移動する。このとき、一例としてカメラ部31Rを移動させるサーボモータは時間によって制御される。また、カメラ部31Rを移動させるモータにステッピングモータが使用されている場合、出力されるパルス数が計数され、制御される。
【0063】
なお、REVサイクルの時には、FWDサイクルの時の逆の制御となるようにシフトレンズ205が制御される。例えば、カメラ部31Rが図7Cに示すように、基準線220と撮像中心線210とが角度−θcに到達後、1サイクルが終了した時点で、シフトレンズ205は位置205aになるように、シフトレンズ205を移動させるリニアモータに供給する電圧を瞬時に切り替える。
【0064】
シフトレンズ205が位置205aから位置205cへ動き出した後、シフトレンズ205が位置205b(図7B参照)となるときに、撮像部6Rに対してシャッタパルスが出力される。このとき、一例としてシフトレンズ205を水平方向に移動させるリニアモータの駆動電圧によって、シャッタパルスを出力するタイミングが生成される。
【0065】
このように、撮像部6Rが恰も静止状態となるようにシフトレンズ205を制御するためには、カメラ部31Rを動かす3つのパラメータを制御する必要がある。第1のパラメータは、カメラ部31Rの1サイクルが始まってからシフトレンズ205が位置205aから位置205cへ動き始める時間である。第2のパラメータは、カメラ部31Rが位置205aから位置205cへ移動するためにかかる時間である。第3のパラメータは、シフトレンズ205が位置205bとなるときのリニアモータに供給する電圧値である。一般的には、カメラ部31Rを移動させる速度と、シフトレンズ205を移動させる速度とが等しくなるように制御される。
【0066】
また、カメラ部31Rのパンの速度と、画像の取り込みに必要な光量とによって、シフトレンズ205を移動させる速度が変化する。
【0067】
また、この図7A、図7B、および図7Cから、光路214a、214b、および214cは、基準線220と撮像中心線210との角度に対応して位置205a、205b、および205cへ移動されたシフトレンズ205によって、レンズ206に常に一定の被写体の像を入射させることができる。例えば、基準線220と撮像中心線210との角度が求められると、その角度に応じた電圧がシフトレンズ205の位置を移動させる水平方向のリニアモータに印加される。リニアモータに電圧が印加され、所定の位置へ移動したシフトレンズ205によって、レンズ206に一定の被写体の像を入射させる光路214が形成される。
【0068】
また、カメラ部31Rが一定速度でパンしているので、そのパンの速度に合わせて、シフトレンズ205の位置を移動するようにしても良い。例えば、図8に示すシフトレンズ205の水平方向のリニアモータに印加される電圧を、カメラ部31Rの速度対応させて、繰り返すようにしても良い。
【0069】
この図8に示す電圧Vaがシフトレンズ205を移動させる水平方向のリニアモータに印加されると、シフトレンズ205が位置205aに移動する。電圧Vbがシフトレンズ205を移動させる水平方向のリニアモータに印加されると、シフトレンズ205が位置205bに移動する。電圧Vcがシフトレンズ205の水平方向のリニアモータに印加されると、シフトレンズ205が位置205cに移動する。従って、この図8に示す電圧の方向は、シフトレンズ205の水平方向の位置を示す。なお、この図8では、電圧Vbを0Vとしているが、電圧Vcを0Vとするようにして、シフトレンズ205を制御しても良いし、電圧Vaを0Vとするようにして、シフトレンズ205を制御しても良い。
【0070】
図9にカメラ部31Rを移動させながら、3つの撮像範囲を撮影するときの概略図を示す。この図9では、一例としてそれぞれ隣り合う座標位置のフレーム(1,1)、(1,2)、(1,3)が順次取り込まれる。
【0071】
この図9に示すように、図7Aに示すカメラ部31Rの位置のときの光路211aから図7Cに示すカメラ部31Rの位置のときの光路211cまでの期間であれば、同一の被写体の像を撮像部6Rに入射させることができる。従って、撮像部6Rに同一の被写体の像を入射させることができる期間であれば、どのようなタイミングでもフレームを取り込むことができる。このとき、基準円202を中心としてカメラ部31Rは回転し、撮像する方向を変える。
【0072】
カメラ部31Rを一定速度でパンさせながら、例えば(1,1)の座標位置のフレームに続いて、(1,2)の座標位置のフレーム、そして(1,3)の隣り合う座標位置のフレームと連続して取り込む。そのために、カメラ部31Rの回転方向に対応してシフトレンズ205を、例えば位置205aから位置205cまで移動させる。従って、撮像部6Rに同一の被写体の像を入射することができるので、この図9の一例では、シフトレンズ205を移動させている期間に、3つのフレームを取り込むことができる。
【0073】
また、参照符号231で示す隣り合うフレームとの重複部分は、上述したように、例えば縦横のそれぞれで16画素とされる。従って、フレームの一辺の重複部分は、それぞれ8画素とされる。
【0074】
なお、シフトレンズ205を移動させるリニアモータの動作が電圧Vaおよび/またはVc付近では、完璧な線形にはならない。しかしながら、撮像部6Rに同一の被写体の像が入射され、露光されている期間は、シフトレンズ205を移動させるリニアモータが完璧な線形で動作する必要がある。そこで、リニアモータの動作の開始時では、その動作が安定していないため、動作が開始してから動作が安定するまでの一定期間、露光期間を待つ必要がある。従って、完璧な線形となる中心付近、すなわち電圧Vb、(位置205b)を中心とした所定の範囲でフレームを取り込むことによって、より安定した画像を得ることができる。
【0075】
図10Aは、パンチルタ部32にカメラ部31Rを設けた平面断面図であり、図10Bは、カメラ部31Rを横から見た側面断面図である。この図10Bに示すように、カメラ部31Rをチルトさせても、そのチルトされたカメラ部31Rの方向に対応して、シフトレンズ205を所定の方向に移動することによって、同一の被写体の像を撮像部6Rに入射させることができる。
【0076】
ここで、図11を参照して、この右眼ユニット2Rおよび左眼ユニット2Lから対象物までの距離を測定する一例について説明する。この図11は、右眼ユニット2Rのカメラ部31Rおよび左眼ユニット2Lのカメラ部31Lがそれぞれ配置された状態で真上から見たときの平面断面図とする。
【0077】
基準円202Rおよび202Lとの間隔をLとし、対象物231までの距離をXとする。このとき、カメラ部31Rおよび31Lで対象部231を撮像すると、カメラ部31Rは角度θで傾き、カメラ部31Lは角度θで傾く。従って、上述の距離計算部21では、下記の式で対象物231までの距離Xが求められる。
X = L ×( sin θ× sin θ )/sin( θ−θ )
【0078】
そして、図12に示すように、対となるカメラ部31Rおよび31Lで周辺画像が取り込まれる。このとき、取り込んだ方向および角度などの情報も同時に取り込むことによって、周辺に存在する対象物までの距離を任意の時間経過した後であっても画像データから求めることが可能となる。すなわち、画像を取り込んだときに常に対象物までの距離を計算しなくても、必要になった時点で、取り込んだ画像データが蓄積されているメインメモリ24から必要な画像データを読み出すことによって、自分の居る場所と対象物までの距離を空間情報として構築することが可能となる。
【0079】
また、図13に示すように、複数のフォーカスで周辺画像を取り込むようにしても良い。この図13に示す一例では、レンズ部3Rおよび3Lで設定された無限遠に焦点が設定されたフォーカスを「フォーカスA」と称し、フォーカスAより近くに焦点が設定されたフォーカスを「フォーカスB」と称する。フォーカスAおよびBで取り込まれた画像データは、メインメモリ24に蓄積される。そして、対象物に近いフォーカスで取り込まれた画像データが使用され、対象物までの距離が計算され、空間情報として構築される。
【0080】
このように、1つのフォーカスで取り込まれた画像データから対象物までの距離を計算するよりも、複数のフォーカスで取り込まれた画像データの中から最も対象物に近いフォーカスで取り込まれた画像データを使用して、対象物までの距離を計算した方がより精度の高い値を得ることができる。なお、この一例では、2種類のフォーカスで周辺画像を取り込むようにしているが、2種類以上のフォーカスで周辺画像を取り込むようにしても良い。
【0081】
図14を参照して、パンチルタ部32とは異なる移動体にカメラ部31Rを搭載したときの他の実施形態を説明する。ここでは、説明を容易とするために、水平方向にのみカメラ部31Rを移動させる移動体とする。この移動体は、例えばサーボモータの回転運動を直線運動に変えることによって実現することができる。この図14では、一例として(1,1)の座標位置のフレームに続いて、(1,2)の座標位置のフレームを連続して取り込む。
【0082】
参照番号241で示す矢印の方向にカメラ部31Rを一定速度で移動させる。図14Aに示すカメラ部31Rの移動範囲内であれば、移動するカメラ部31Rに対応してシフトレンズ205を移動させることによって、撮像部6Rに同一の被写体の像を入射させることができる。従って、(1,1)の座標位置のフレームを取り込むことができる。
【0083】
そして、カメラ部31Rが移動体によって隣り合う(1,2)の座標位置のフレームを取り込むことが可能な範囲に移動したとき(図14B参照)に、移動するカメラ部31Rに対応してシフトレンズ205を移動させることによって、撮像部6Rに同一の被写体の像を入射させることができる。従って、(1,2)の座標位置のフレームが取り込まれる。
【0084】
このように、カメラ部31Rを一定速度で移動させることができる移動体であれば、どのような移動体であっても、隣り合うフレームを取り込むことができる。
【0085】
この発明は、上述したこの発明の一実施形態等に限定されるものでは無く、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
【0086】
この実施形態では、右眼ユニット2Rおよび2Lを下側にチルトし、フレームを順次撮影しているが、右眼ユニット2Rおよび2Lを上側にチルトし、フレームを順次撮影するようにしても良いし、右眼ユニット2Rおよび2Lを右側にパンし、フレームを順次撮影するようにしても良いし、右眼ユニット2Rおよび2Lを左側にパンし、フレームを順次撮影するようにしても良い。
【0087】
この実施形態では、レンズ203、204、206、207、およびシフトレンズ205は、全て凸レンズから構成されているが、全て凹レンズから構成されるようにしても良いし、凸レンズと凹レンズとを適宜組み合わせた構成としても良い。
【0088】
この実施形態では、撮像された(M×N)枚のフレームをそれぞれメインメモリ24に蓄積するようにしているが、(M×N)枚のフレームを連結させて1枚の画像としてメインメモリ24に蓄積するようにしても良い。
【0089】
この実施形態では、撮像部6Rおよび6Lに同一の被写体の像を入射させるために、カメラ部31Rおよび31Lの方向に対応してシフトレンズ205が所定の方向に移動するようになされているが、レンズ部2Rおよび2Lを構成するそれぞれのレンズが凸レンズか凹レンズか、そのレンズの屈折率が1より大きいか、小さいかなど、その構成によってシフトレンズ205の移動する方向は反対方向になることもある。
【0090】
この実施形態では、座標位置に基づいてフレームを撮影するようにしているが、位置アドレスに基づいてフレームを撮影するようにしても良い。
【0091】
【発明の効果】
この発明に依れば、高精細且つ広範囲な画像データを高速で取り込み、取り込まれた画像データから空間情報を高速で構築することができる。
【0092】
また、この発明に依れば、人類の視覚機能以上の能力をロボットの視覚装置に備えることができる。
【図面の簡単な説明】
【図1】この発明の一実施形態の視覚装置のブロック図である。
【図2】この発明の一実施形態の視覚装置のブロック図である。
【図3】この発明に適用されるカメラ部の動作の実施形態を説明するための概略図である。
【図4】この発明の一実施形態における被写体までの距離と撮影範囲および解像度を説明するための略線図である。
【図5】この発明に適用される撮影された画像の管理方法を説明するための略線図である。
【図6】この発明に適用される撮影された画像の管理方法を説明するための略線図である。
【図7】この発明に適用されるカメラ部の動作の実施形態を説明するための概略図である。
【図8】この発明に適用されるシフトレンズに印加する時間と電圧の関係を説明するための特性図である。
【図9】この発明に適用されるカメラ部の動作の実施形態を説明するための概略図である。
【図10】この発明に適用されるカメラ部の動作の実施形態を説明するための概略図である。
【図11】この発明の一実施形態の対となるカメラ部を適用して対象物までの距離の算出を説明するための概略図である。
【図12】この発明の一実施形態の対となるカメラ部の動作の実施形態を説明するための概略図である。
【図13】この発明に適用されるカメラ部を使用して複数のフォーカスの画像を取り込む方法を説明するための略線図である。
【図14】この発明の他の実施形態となるカメラ部の動作を説明するための概略図である。
【符号の説明】
1・・・コントローラバス、2R・・・右眼ユニット、2L・・・左眼ユニット、3R、3L・・・レンズ部、4R、4L・・・フォーカス・ズーム・アイリス制御部4R、5R、5L・・・トラッキング部5R、6R、6L・・・撮像部6R、7R、7L・・・ビデオインタフェース7R、8R、8L・・・パン部8R、9R、9L・・・チルト部9R、10R、10L・・・バッファメモリ、11R、11L・・・JPEGエンコーダ/メタデータ付加部、12R、12L・・・GPS、13R、13L・・・メタデータ生成部、14R、14L・・・メモリ、15R、15L・・・特徴抽出部、16R、16L・・・識別部、17R、17L・・・識別演算部、18R、18L・・・識別辞書、19・・・空間情報検出部19、20・・・空間マッピング計算部、21・・・距離計算部21、22・・・カメラコントローラCPU、23・・・I/Oポート、24・・・メインメモリ、25・・・メモリカード、26・・・時計、27・・・ロボット制御部

Claims (8)

  1. 映像を撮影する第1および第2の撮像手段と、
    サーボモータを駆動源として上記第1および第2の撮像手段の撮像方向を変化させる第1および第2の撮像方向可動手段とによって、周囲を撮像する撮像システムを有し、
    上記第1および第2の撮像手段から得られた第1および第2の画像データを蓄積する蓄積手段と、
    上記蓄積された第1および第2の画像データから対象物を抽出する対象物抽出手段と、
    上記抽出された対象物から上記対象物までの距離を算出し、上記算出された対象物までの距離から周囲の空間情報を構成する空間構成手段と
    を有することを特徴とする対象物認識装置。
  2. 上記空間情報は、
    上記撮像システムを絶対中心とした相対的な位置関係からなる仮想空間を構成するようにしたことを特徴とする請求項1に記載の対象物認識装置。
  3. 上記空間情報は、
    所定の位置を絶対中心とした絶対的な位置関係からなる仮想空間を構成するようにしたことを特徴とする請求項1に記載の対象物認識装置。
  4. 上記第1および第2の撮像手段は、
    複数のフォーカスで周囲を撮影するようにしたことを特徴とする請求項1に記載の対象物認識装置。
  5. 映像を撮影する第1および第2の撮像手段と、
    サーボモータを駆動源として上記第1および第2の撮像手段の撮像方向を変化させる第1および第2の撮像方向可動手段とによって、周囲を撮像する撮像システムを有し、
    上記第1および第2の撮像手段から得られた第1および第2の画像データを蓄積するステップと、
    上記蓄積された第1および第2の画像データから対象物を抽出するステップと、
    上記抽出された対象物から上記対象物までの距離を算出し、上記算出された対象物までの距離から周囲の空間情報を構成するステップと
    を有することを特徴とする対象物認識方法。
  6. 上記空間情報は、
    上記撮像システムを絶対中心とした相対的な位置関係からなる仮想空間を構成するようにしたことを特徴とする請求項5に記載の対象物認識方法。
  7. 上記空間情報は、
    所定の位置を絶対中心とした絶対的な位置関係からなる仮想空間を構成するようにしたことを特徴とする請求項5に記載の対象物認識方法。
  8. 上記第1および第2の撮像手段は、
    複数のフォーカスで周囲を撮影するようにしたことを特徴とする請求項5に記載の対象物認識方法。
JP2002244612A 2002-08-26 2002-08-26 対象物認識装置および方法 Abandoned JP2004086401A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002244612A JP2004086401A (ja) 2002-08-26 2002-08-26 対象物認識装置および方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002244612A JP2004086401A (ja) 2002-08-26 2002-08-26 対象物認識装置および方法

Publications (2)

Publication Number Publication Date
JP2004086401A true JP2004086401A (ja) 2004-03-18
JP2004086401A5 JP2004086401A5 (ja) 2005-11-04

Family

ID=32053033

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002244612A Abandoned JP2004086401A (ja) 2002-08-26 2002-08-26 対象物認識装置および方法

Country Status (1)

Country Link
JP (1) JP2004086401A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009517225A (ja) * 2005-10-11 2009-04-30 ヴァンダービルト ユニバーシティー 画像マッピング及び視覚的アテンションのためのシステム及び方法
KR101459522B1 (ko) * 2013-02-15 2014-11-07 브이앤아이 주식회사 모바일 기반의 부가정보를 이용한 위치 보정 방법
WO2017037908A1 (ja) * 2015-09-03 2017-03-09 富士機械製造株式会社 ロボットシステム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009517225A (ja) * 2005-10-11 2009-04-30 ヴァンダービルト ユニバーシティー 画像マッピング及び視覚的アテンションのためのシステム及び方法
KR101459522B1 (ko) * 2013-02-15 2014-11-07 브이앤아이 주식회사 모바일 기반의 부가정보를 이용한 위치 보정 방법
WO2017037908A1 (ja) * 2015-09-03 2017-03-09 富士機械製造株式会社 ロボットシステム

Similar Documents

Publication Publication Date Title
CN109155842B (zh) 立体相机及立体相机的控制方法
JP6027560B2 (ja) 自動追尾撮像装置
US10091408B2 (en) Imaging apparatus and method of recognizing target object
Nayar Omnidirectional video camera
TWI521255B (zh) 自動對焦方法、其自動對焦裝置和其影像擷取裝置
Dansereau et al. A wide-field-of-view monocentric light field camera
CN110622499B (zh) 图像生成装置、图像生成***、图像生成方法及记录介质
CN109615663A (zh) 全景视频校正方法及终端
JP2002171537A (ja) 複眼撮像系、撮像装置および電子機器
WO2006050430A2 (en) Optical tracking system using variable focal length lens
JP2009188973A (ja) 撮像装置及び光軸制御方法
JP2004531113A (ja) 注釈記入による全方位性3次元イメージデータ獲得装置、その方法及び感光範囲の拡大方法
US20040021767A1 (en) Image sensing apparatus and control method thereof
WO2019244621A1 (ja) 撮像装置、無人移動体、撮像方法、システム、及びプログラム
JP2010130628A (ja) 撮像装置、映像合成装置および映像合成方法
JP2018134712A (ja) ロボットシステム及びロボットシステムの制御方法
JP2004086401A (ja) 対象物認識装置および方法
JPH1023465A (ja) 撮像方法及び装置
JP2016048824A (ja) 追尾装置、追尾システム、及び表示装置
JP2015080169A (ja) 撮像装置及びその制御方法
JP2974500B2 (ja) 複眼撮像装置
JP2016046774A (ja) 撮像装置
JP2016046771A (ja) 撮像装置、撮像システム及び表示装置
TW201931304A (zh) 利用雙魚眼影像計算所攝物體座標的方法及影像擷取裝置
US20240114263A1 (en) Multi-mode image sensor architecture

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050816

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050816

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20070615