JP6878219B2 - 画像処理装置および測距装置 - Google Patents

画像処理装置および測距装置 Download PDF

Info

Publication number
JP6878219B2
JP6878219B2 JP2017173346A JP2017173346A JP6878219B2 JP 6878219 B2 JP6878219 B2 JP 6878219B2 JP 2017173346 A JP2017173346 A JP 2017173346A JP 2017173346 A JP2017173346 A JP 2017173346A JP 6878219 B2 JP6878219 B2 JP 6878219B2
Authority
JP
Japan
Prior art keywords
image
subject
distance
blur
scale
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017173346A
Other languages
English (en)
Other versions
JP2019049457A (ja
Inventor
山口 潤
潤 山口
優介 森内
優介 森内
三島 直
直 三島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2017173346A priority Critical patent/JP6878219B2/ja
Priority to US15/905,618 priority patent/US11587261B2/en
Priority to CN201810214190.5A priority patent/CN109470158B/zh
Publication of JP2019049457A publication Critical patent/JP2019049457A/ja
Application granted granted Critical
Publication of JP6878219B2 publication Critical patent/JP6878219B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/514Depth or shape recovery from specularities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Analysis (AREA)
  • Geometry (AREA)

Description

本発明の実施形態は、画像処理装置および測距装置に関する。
二つのカメラやステレオカメラ(複眼のカメラ)で撮像された画像から、被写体までの距離を取得する技術が知られている。また、近時、一つのカメラ(単眼のカメラ)で撮像された画像から、被写体までの距離を取得する技術が提案されている。
特開平8−43055号公報 特開2016−102733号公報
撮像された画像は、環境光や被写体の反射特性の影響を受けることがある。このような画像を用いて被写体までの距離が取得される場合、精度が低下する可能性がある。
本発明が解決しようとする課題は、画像から、被写体の位置を精度良く取得できる画像処理装置および測距装置を提供することである。
実施形態によれば、画像処理装置は、バッファ部、距離算出部、三次元座標算出部、および補正部を具備する。バッファ部は、被写体を撮影した第1画像と、前記被写体を撮影した前記第1画像とは異なる第2画像とを保存する。距離算出部は、環境光、前記被写体の反射特性、および前記被写体の色の少なくとも何れかによる影響を補正するための補正パラメータをそれぞれ含む、前記第1画像における前記被写体までの第1距離と、前記第2画像における前記被写体までの第2距離の少なくとも一方を算出する。三次元座標算出部は、前記第1画像と前記第2画像とを用いて、前記被写体の相対スケールの三次元座標を算出する。補正部は、前記第1距離と前記第2距離の少なくとも一方と前記相対スケールの三次元座標とが、実空間内の同一の位置を示すように、前記補正パラメータと、前記相対スケールの三次元座標を実スケールの三次元座標に変換するためのスケールパラメータとを算出し、前記算出された補正パラメータとスケールパラメータとを用いて前記被写体の実スケールの三次元座標を算出する。
実施形態に係る測距装置の構成を示すブロック図。 同実施形態の測距装置内の撮像部に設けられるフィルタの構成の例を示す図。 図2のフィルタの透過率特性の例を示す図。 図2のフィルタが配置されたカラー開口の光線変化と、ぼけの形状とを説明するための図。 同実施形態の測距装置によって撮像された画像上のぼけを利用して、被写体までの距離を算出する方法の例を説明するための図。 環境光や被写体表面の反射特性の影響により、画像から推定される被写体までの距離の精度が低下する例を説明するための図。 異なる位置(視点)から撮像された複数の画像を用いて推定される被写***置のスケールが不定であることを説明するための図。 同実施形態の測距装置内の画像処理部(画像処理装置)のシステム構成の例を示すブロック図。 図8の画像処理部によって実行される画像処理プログラムの機能構成の例を示すブロック図。 図8の画像処理部によって被写体の位置が推定される例を説明するための図。 図8の画像処理部によって実行される処理の手順の例を示すフローチャート。 同実施形態の測距装置を備える移動体の構成を示すブロック図。 同実施形態の測距装置を備える自動車の外観の例を示す斜視図。 同実施形態の測距装置を備えるドローンの外観の例を示す斜視図。 同実施形態の測距装置を備えるロボットの外観の例を示す斜視図。 同実施形態の測距装置を備えるロボットアームの外観の例を示す斜視図。
以下、実施の形態について図面を参照して説明する。
まず、図1を参照して、一実施形態に係る測距装置の構成を説明する。この測距装置1は、画像を撮像し、撮像された画像を用いて被写体の位置を実スケールで推定する。推定される被写体の位置は、撮像地点から被写体までの距離(奥行きとも称する)を少なくとも含み、例えば、三次元空間の座標として表される。
この測距装置1は、画像を撮像する撮像部11と、撮像された画像を処理する画像処理部12とを備える。測距装置1は、撮像部11と画像処理部12とを備える一つの装置として実現されてもよいし、撮像部11に相当する撮像装置と、画像処理部12に相当する画像処理装置とのような複数の装置で構成されるシステムであってもよい。撮像部11は、被写体の画像と当該被写体までの距離に関する情報とを一度の撮影で取得する機能を有する。撮像部11は、この機能により、例えば、撮像時の被写体までの距離情報が符号化された画像を取得する。また、画像処理部12は、例えば、コンピュータ、または各種電子機器に内蔵される組み込みシステムとして実現され得る。画像処理部12は、撮像部11により撮像された少なくとも二つの画像を用いて、被写体の三次元情報を生成する機能を有している。
図1に示すように、撮像部11は、フィルタ21とレンズ22とイメージセンサ23とを備える単眼カメラにより構成される。フィルタ21は、互いに異なる波長帯域(色成分)の光を透過する複数のフィルタ領域を含む。フィルタ21は、例えば、二色のカラーフィルタ領域である第1フィルタ領域211と第2フィルタ領域212とで構成される。撮像部11は、被写体をそれぞれ少なくとも位置および視点の何れかが異なる条件で撮像した少なくとも二つの画像を生成する。したがって、二つの画像間では被写体の見え方が異なっている。
イメージセンサ23は、フィルタ21とレンズ22とを透過した光を受光し、受光した光を電気信号に変換(光電変換)する。イメージセンサ23には、例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)が用いられる。イメージセンサ23は、少なくとも二種類の撮像素子を含み、例えば、赤色(R)の光を受光する撮像素子を含む第1センサ231と、緑色(G)の光を受光する撮像素子を含む第2センサ232と、青色(B)の光を受光する撮像素子を含む第3センサ233とを備える。各撮像素子は、対応する波長帯域の光を受光し、受光した光を電気信号に変換する。この電気信号をA/D変換することによりカラー画像を生成することができる。以下では、画像のR成分、G成分、B成分である色成分画像(波長成分画像とも称する)を、それぞれR画像、G画像、B画像とも称する。なお、赤色、緑色、青色の撮像素子毎の電気信号を用いて、R画像、G画像、B画像をそれぞれ生成することもできる。つまり、撮像部11は、一度の撮像(ワンショット)で、カラー画像、R画像、G画像、およびB画像の少なくとも一つを生成することができる。
次いで、図2は、フィルタ21の構成の例を示す。フィルタ21は、互いに異なる光の波長帯域(色成分)を透過する複数のフィルタ領域を有し、2以上のフィルタ領域は、撮像装置2の光学中心213に対して非点対称な形状である。フィルタ21は、例えば、二色のカラーフィルタ領域である第1フィルタ領域211と第2フィルタ領域212とで構成される。フィルタ21の中心は、撮像装置2(レンズ22)の光学中心213と一致している。第1フィルタ領域211および第2フィルタ領域212はそれぞれ、光学中心213に対して非点対称である形状を有している。また、例えば、二つのフィルタ領域211,212は重複せず、且つ二つのフィルタ領域211,212によってフィルタ21の全領域を構成している。図2に示す例では、第1フィルタ領域211および第2フィルタ領域212はそれぞれ、円形のフィルタ21が光学中心213を通る線分で分割された半円の形状を有している。第1フィルタ領域211は、例えばイエロー(Y)のフィルタ領域であり、第2フィルタ領域212は、例えばシアン(C)のフィルタ領域である。なお、第1フィルタ領域211がマゼンタ(M)のフィルタ領域であって、第2フィルタ領域212がイエロー(Y)のフィルタ領域であってもよい。さらに、第1フィルタ領域211がシアン(C)のフィルタ領域であって、第2フィルタ領域212がマゼンタ(M)のフィルタ領域であってもよい。
各カラーフィルタが透過する波長帯域は異なる。一つのフィルタ領域が透過する光の波長帯域の一部と、別の一つのカラーフィルタ領域が透過する光の波長帯域の一部は、例えば重複する。一つのカラーフィルタ領域が透過する光の波長帯域は、例えば別の一つのカラーフィルタ領域が透過する光の波長帯域を含んでもよい。
なお、第1フィルタ領域211と第2フィルタ領域212とは、任意の波長帯域の透過率を変更するフィルタ、任意方向の偏光光を通過させる偏光フィルタ、または任意の波長帯域の集光パワーを変更するマイクロレンズであってもよい。例えば、任意の波長帯域の透過率を変更するフィルタは、原色フィルタ(RGB)、補色フィルタ(CMY)、色補正フィルタ(CC−RGB/CMY)、赤外線・紫外線カットフィルタ、NDフィルタ、または遮蔽板であってもよい。第1フィルタ領域211や第2フィルタ領域212がマイクロレンズである場合は、レンズ22により光線の集光の分布に偏りが生じることでぼけの形状が変化する。
以下では、説明を分かりやすくするために、図2に示すフィルタ21において、第1フィルタ領域211がイエロー(Y)のフィルタ領域であり、第2フィルタ領域212がシアン(C)のフィルタ領域である場合を主に例示する。
たとえば図2に示したフィルタ21がカメラの開口部に配置されることにより、開口部が二色で二分割された構造開口であるカラー開口が構成される。このカラー開口を透過する光線に基づいて、イメージセンサ23は画像を生成する。イメージセンサ23に入射する光の光路上において、フィルタ21とイメージセンサ23との間にレンズ22が配置されてもよい。イメージセンサ23に入射する光の光路上において、レンズ22とイメージセンサ23との間にフィルタ21が配置されてもよい。レンズ22が複数設けられる場合、フィルタ21は、2つのレンズ22の間に配置されてもよい。
第2センサ232に対応する波長帯域の光は、イエローの第1のフィルタ領域211とシアンの第2のフィルタ領域212の両方を透過する。第1センサ231に対応する波長帯域の光は、イエローの第1のフィルタ領域211を透過し、シアンの第2のフィルタ領域212を透過しない。第3センサ233に対応する波長帯域の光は、シアンの第2のフィルタ領域212を透過し、イエローの第1のフィルタ領域211を透過しない。
なお、ある波長帯域の光がフィルタまたはフィルタ領域を透過するとは、フィルタまたはフィルタ領域が高い透過率でその波長帯域の光を透過し、そのフィルタまたはフィルタ領域による当該波長帯域の光の減衰(すなわち、光量の低下)が極めて小さいことを意味する。また、ある波長帯域の光がフィルタまたはフィルタ領域を透過しないとは、光がフィルタまたはフィルタ領域に遮蔽されることであり、たとえば、フィルタまたはフィルタ領域が低い透過率でその波長帯域の光を透過し、そのフィルタまたはフィルタ領域による当該波長帯域の光の減衰が極めて大きいことを意味する。たとえばフィルタまたはフィルタ領域は、ある波長帯の光を吸収することにより光を減衰させる。
図5は、第1フィルタ領域211および第2フィルタ領域212の透過率特性の例を示す。なお、可視光の波長帯域のうち700nmより長い波長の光に対する透過率は図示を省略してあるが、その透過率は700nmの場合に近いものである。図5に示すイエローの第1フィルタ領域211の透過率特性215では、波長帯域が620nmから750nm程度のR画像に対応する光と、波長帯域が495nmから570nm程度のG画像に対応する光とが高い透過率で透過され、波長帯域が450nmから495nm程度のB画像に対応する光がほとんど透過されていない。また、シアンの第2フィルタ領域212の透過率特性216では、B画像およびG画像に対応する波長帯域の光が高い透過率で透過され、R画像に対応する波長帯域の光がほとんど透過されていない。
したがって、R画像(第1センサ231)に対応する波長帯域の光はイエローの第1フィルタ領域211のみを透過し、B画像(第3センサ233)に対応する波長帯域の光はシアンの第2フィルタ領域212のみを透過する。G画像(第2センサ232)に対応する波長帯域の光は、第1フィルタ領域211と第2フィルタ領域212を透過する。
このようなR画像、B画像および画像上のぼけの形状は被写体までの距離dに応じて、より詳細には、距離dと合焦距離dfとの差分に応じて変化する。合焦距離dfは、撮像位置から、画像上にぼけが発生しない(すなわち、ピントが合う)合焦位置までの距離である。また、各フィルタ領域211,212が光学中心213に対して非点対称な形状であるので、R画像上およびB画像上のぼけの形状は、被写体が合焦距離dfよりも手前にあるか、それとも奥にあるかによって異なり、また偏っている。R画像上およびB画像上のぼけの偏りの方向は、撮像位置から見て、被写体が合焦距離dfよりも手前にあるか、それとも奥にあるかによってそれぞれ反転する。
図4を参照して、フィルタ21が配置されたカラー開口による光線変化と、ぼけの形状とについて説明する。
被写体210が合焦距離dfよりも奥にある場合(d>df)、イメージセンサ23によって撮像された画像にはぼけが発生する。この画像のぼけの形状を示すぼけ関数(PSF:Point Spread Function)は、R画像、G画像およびB画像でそれぞれ異なっている。例えば、R画像のぼけ関数201Rは左側に偏ったぼけの形状を示し、G画像のぼけ関数201Gは偏りのないぼけの形状を示し、B画像のぼけ関数201Bは右側に偏ったぼけの形状を示している。
また、被写体210が合焦距離dfにある場合(d=df)、イメージセンサ23によって撮像された画像にはほとんどぼけが発生しない。この画像のぼけの形状を示すぼけ関数は、R画像、G画像およびB画像でほぼ同じである。すなわち、R画像のぼけ関数201R、G画像のぼけ関数201G、およびB画像のぼけ関数201Bは、偏りのないぼけの形状を示している。
また、被写体210が合焦距離dfよりも手前にある場合(d<df)、イメージセンサ23によって撮像された画像にはぼけが発生する。この画像のぼけの形状を示すぼけ関数は、R画像、G画像およびB画像でそれぞれ異なっている。すなわち、R画像のぼけ関数201Rは右側に偏ったぼけの形状を示し、G画像のぼけ関数201Gは偏りのないぼけの形状を示し、B画像のぼけ関数201Bは左側に偏ったぼけの形状を示している。
このように、被写体210が合焦距離dfよりも手前または奥にある場合、イエローの第1フィルタ領域211を透過した光線に基づくR画像のぼけ関数201R,203Rは非対称であり、またシアンの第2フィルタ領域212を透過した光線に基づくB画像のぼけ関数201B,203Bも非対称である。そして、そのR画像のぼけ関数201R,203Rは、B画像のぼけ関数201B,203Bとは異なっている。
図5は、このような画像上のぼけを利用して被写体210までの距離を算出(推定)する方法を示す。図5に示す例では、フィルタ21は、イエローの第1フィルタ領域211とシアンの第2フィルタ領域212とによって構成されている。そのため、R画像に対応する波長帯域の光が、第1フィルタ領域211に対応する部分51Rを通過し、G画像に対応する波長帯域の光が、第1フィルタ領域211および第2フィルタ領域212に対応する部分51Gを通過し、B画像に対応する波長帯域の光が、第2フィルタ領域212に対応する部分51Bを通過する。
このようなフィルタ21を用いて撮像された画像上にぼけが生じた場合、R画像、G画像およびB画像上のぼけはそれぞれ異なる形状になる。図5に示すように、G画像のぼけ関数52Gは左右対称であるぼけの形状を表している。また、R画像のぼけ関数52RおよびB画像のぼけ関数52Bは非点対称であるぼけの形状を表し、ぼけの偏りはそれぞれ異なっている。
R画像のぼけ関数52RおよびB画像のぼけ関数52Bには、R画像およびB画像上の非点対称なぼけを左右対称なぼけに補正するためのぼけ補正フィルタ53,54が適用され、ぼけ補正フィルタ53、54が適用された後のぼけ関数がG画像のぼけ関数52Gと一致するかどうかが判定される。ぼけ補正フィルタ53,54は複数用意されており、複数のぼけ補正フィルタ53、54は、被写体との複数の距離に対応する。あるぼけ補正フィルタ53,54が適用されたぼけ関数が、G画像のぼけ関数52Gと一致した場合には、そのぼけ補正フィルタ53,54に対応する距離が、撮影された被写体210までの距離に決定される。
このぼけ関数が一致しているかどうかの判定には、例えば、ぼけ補正フィルタが適用されたR画像またはB画像と、G画像との相関が用いられる。したがって、例えば、複数のぼけ補正フィルタから、ぼけ補正フィルタが適用されたぼけ関数と、G画像のぼけ関数との相関がより高くなるぼけ補正フィルタを探索することで、画像上の各画素に写る被写体までの距離が推定される。
ぼけ補正フィルタが適用されたR画像またはB画像と、G画像との相関を示す相関値には、例えば、NCC(Normalized Cross−Correlation)、ZNCC(Zero−mean Normalized Cross−Correlation)、Color Alignment Measure、等が用いられ得る。
また、あるぼけ補正フィルタ53,54が適用されたぼけ関数55R,55Bが、G画像のぼけ関数52Gと一致しているかどうかの判定に、ぼけ補正フィルタが適用されたR画像またはB画像と、G画像との相違度が用いられてもよい。この相違度がより低くなる距離を求めることで、被写体までの距離を算出することができる。相違度には、例えば、SSD(Sum of Squared Difference)、SAD(Sum of Absolute Difference)、等が用いられ得る。
なお、ぼけ補正フィルタ53が適用されたR画像のぼけ関数が、ぼけ補正フィルタ54が適用されたB画像のぼけ関数と一致するかどうかが判定されてもよい。これらぼけ補正フィルタ53,54は同一の距離に対応する。ぼけ補正フィルタ53が適用されたR画像のぼけ関数が、ぼけ補正フィルタ54が適用されたB画像のぼけ関数と一致した場合には、それらぼけ補正フィルタ53,54に対応する距離が、撮影された被写体210までの距離に決定される。
このように、二つの色成分画像上のぼけ(例えば、ぼけ関数、ぼけ形状)の相対的な関係が、被写体までの距離と相関を持つので、画像処理部12は、この相関関係を予めキャリブレーションして保持することもできる。キャリブレーションにより、一方の色成分画像上のぼけを、他方の色成分画像上のぼけに補正するためのぼけ補正量と、被写体までの距離との対応を示すルックアップテーブル(LUT)やモデルが作成される。例えば、R画像またはB画像のぼけ関数をG画像のぼけ関数と一致させるために用いられるぼけ補正フィルタ53,54と、被写体までの距離との対応を示すLUTまたはモデルが作成される。なお、ぼけ補正量の代わりに、一方の色成分画像上のぼけと、他方の色成分画像上のぼけとの関係を示す、例えば、ぼけの大きさのような他の値(パラメータ)が用いられてもよい。このLUTまたはモデルを参照することにより、ぼけ補正量を被写体までの距離に変換することができる。
しかしながら、画像上のぼけから、被写体までの距離を推定する方法では、撮影時の環境光、被写体の反射特性、および被写体の色の少なくとも何れかの影響により、距離の推定精度が低下する可能性がある。環境光による影響は、例えば、撮影が屋外、室内等の様々な環境で行われることによる光源のスペクトル特性の違いによって生じるものである。被写体の反射特性による影響は、例えば、被写体の材質や表面の凹凸による反射スペクトル特性の違いによって生じるものである。
より具体的には、フィルタ21の透過特性とイメージセンサ23の分光感度特性とが、この推定方法に理想的な周波数特性を有していない場合、被写体までの距離が同一であっても、環境光、被写体の反射特性、被写体の色等の影響によって、画像上のぼけ(ぼけの量、形状)が変動する。その結果、画像上のぼけに基づいて推定される、被写体までの距離の精度が低下する。例えば、被写体までの距離が実際には同じであっても、二つの色成分画像上のぼけの相対的な関係と、被写体までの距離とが必ずしも一対一で対応しない。そのため、予めキャリブレーションした相関関係に基づいて距離が算出される場合、算出される距離にバラつきが発生する可能性がある。したがって、画像から、被写体までの距離を精度良く取得できる新たな技術の実現が要求される。
なお、上記の理想的な周波数特性は、例えば、第3センサ233(青センサ)が受光する波長帯域の光が、第2フィルタ領域212(例えば、シアン)のみを通過し、第1フィルタ領域211(例えば、イエロー)では完全に遮断されるような、イメージセンサ23の分光感度特性とフィルタ21の透過特性との組み合わせにより得られる。本実施形態では、このような理想的な特性を持たないカメラが用いられる場合でも、環境光、被写体の反射特性・色等に対してロバストに被写体までの距離や被写体の三次元座標を推定する。
具体的には、本実施形態では、画像上のぼけから、被写体までの距離を推定する方法とStructure from Motion(SfM)とのハイブリット方式により、撮影時の環境光、被写体の反射特性、および被写体の色の少なくとも何れかの影響が補正された距離(三次元情報)が取得される。SfMは、少なくとも位置および視点の何れかが異なる条件で被写体を撮像した画像を用いて、撮像時のカメラ間の相対的な位置関係と、被写体の三次元情報とを算出する三次元再構成方法である。
また、本実施形態では、画像上のぼけだけでなく、撮影時の環境光、被写体の反射特性、および被写体の色の少なくとも何れかの影響を補正するための補正パラメータα(補正量)も用いて、推定される距離が規定される。図6に示すように、画像上のぼけのみに基づいて距離を推定する方法では、被写体までの距離が実際には同一であったとしても、環境光、被写体の反射特性、および被写体の色の少なくとも何れかの影響が異なることによって、バラつきのある距離が算出される。画像62は、カメラ位置61から被写体210を撮像することにより生成された画像である。
画像62が理想的な条件で撮像された場合、例えば、環境光、被写体の反射特性、および被写体の色の少なくともいずれかによる影響を受けていない場合、画像処理部12は、この画像62上の画素621に関するぼけ補正量に基づいて、カメラ位置61から、画素621に対応する被写体210上の実際の物点641までの距離を精度良く算出することができる。この場合、補正パラメータαによる距離の補正は不要である。
画像62が理想的な条件で撮像されていない場合、例えば、環境光、被写体の反射特性、および被写体の色の少なくともいずれかによる影響を受けている場合、画像62上の画素621に関するぼけ補正量から推定される距離を、補正パラメータαにより補正する必要がある。この補正パラメータαが補正に適切な値よりも小さい場合には、カメラ位置61から点631までの距離が、被写体210までの距離として算出され、実際の距離よりも短い距離が算出される。また、補正パラメータαが補正に適切な値よりも大きい場合には、カメラ位置61から点651までの距離が、被写体210までの距離として算出され、実際の距離よりも長い距離が算出される。このように、環境光、被写体の反射特性、および被写体の色の少なくともいずれかによる影響により、同一の距離として算出されるべき距離にバラつきが生じることになる。
一方、SfMでは、被写体を撮像した複数の画像から、スケールパラメータβ(スケール補正量)が不定(未知)である被写体の三次元情報が取得される。つまり、この三次元座標は相対スケールの三次元座標である。図7は、被写体210を少なくとも位置および視点の何れかが異なる条件で撮像した二つの画像72,74から、スケールパラメータβが不定である被写体の三次元座標が算出される例を示す。
画像72上の特徴点721と画像74上の特徴点741とは対応する特徴量を有し、したがって被写体の同一の箇所が撮像された対応点である。また、画像72上の特徴点722と画像74上の特徴点742とは対応する特徴量を有し、被写体の別の同一の箇所が撮像された対応点である。画像処理部12は、これら対応点を用いたSfMにより、例えば回転行列Rと平行移動ベクトルtとで表される、撮像時のカメラ位置の相対関係を推定し、各対応点に対応する被写体の三次元座標を推定する。この平行移動ベクトルtは、カメラ間の距離を表し、大きさが不定である。
この平行移動ベクトルtの大きさが不定であることにより、画像72の撮像時のカメラ位置P(k)71に対して、画像74の撮像時のカメラ位置P(k+1)が、位置73と位置75のいずれであるかを特定できない。そのため、特徴点721と特徴点741とからなる対応点に対応する被写体の三次元座標が、カメラ位置73である場合の点771と、カメラ位置75である場合の点781のいずれであるかを特定できない。また、特徴点722と特徴点742とからなる対応点に対応する被写体の三次元座標が、カメラ位置73である場合の点772と、カメラ位置75である場合の点782のいずれであるかを特定できない。
このように、SfMでは、スケールパラメータβが不定である被写体の三次元座標が取得される。換言すると、実スケールへの変換のためのスケールパラメータβが与えられたならば、被写体の実スケールの三次元座標を取得することができる。
そのため本実施形態では、画像処理部12は、補正パラメータαを含む距離とスケールパラメータβが不定である三次元座標とが実空間内の同一の位置を示すように、補正パラメータαとスケールパラメータβとを最適化することにより、精度が向上した実スケールの三次元座標、または被写体までの距離を算出する。したがって、画像処理部12は、撮影時の環境光、被写体の反射特性、および被写体の色の少なくともいずれかの影響に対してロバストに、実スケールの三次元座標、または被写体までの距離を精度良く算出することができる。
図8および図9を参照して、上記動作を実現するための構成を説明する。
まず、図8は、画像処理部(画像処理装置)12のシステム構成を例示する。画像処理部12は、CPU31、RAM32、不揮発性メモリ33、および通信部34を備える。また、画像処理部12は、CPU31、RAM32、不揮発性メモリ33、および通信部34を相互に接続するバス35を有している。
CPU31は、画像処理部12内の様々なコンポーネントの動作を制御する。CPU31は、単一のプロセッサであってもよいし、複数のプロセッサで構成されていてもよい。CPU31は、不揮発性メモリ33からRAM32にロードされる様々なプログラムを実行する。これらプログラムは、オペレーティングシステム(OS)や様々なアプリケーションプログラムを含む。アプリケーションプログラムは、画像処理プログラム32Aを含む。この画像処理プログラム32Aは、被写体を撮像した複数の画像を用いて、撮像時のカメラの位置関係を推定し、被写体の位置を推定するための命令群を含む。また、RAM32は、主記憶装置として用いられる記憶媒体である。不揮発性メモリ33は、補助記憶装置として用いられる記憶媒体である。
通信部34は、有線通信または無線通信を実行するように構成されたデバイスである。通信部34は、信号を送信する送信部と信号を受信する受信部とを含む。通信部34は、ネットワークを介した外部機器との通信、周辺に存在する外部機器との通信等を実行する。この外部機器には撮像部11(撮像装置)も含まれ得る。したがって、通信部34は、撮像部11から画像を受信してもよい。
図9は、画像処理部12のCPU31によって実行される画像処理プログラム32Aの機能構成を例示する。画像処理プログラム32Aは、バッファ処理部41、特徴点検出部42、対応点検出部43、三次元座標算出部44、ぼけ補正量算出部45、距離算出部46、補正量算出部47、および補正部48を備える。各部の動作は、CPU31が画像処理プログラム32Aに含まれる命令群を実行することによって実現され得る。
バッファ処理部41は、通信部34を介したデータ伝送により、撮像部11によって撮像された画像を取得し、取得された画像をフレームバッファ40に保存する。フレームバッファ40は、例えば、RAM32内に確保された記憶領域である。バッファ処理部41は、フレームバッファ40に少なくとも二つの画像を格納する。この少なくとも二つの画像は、被写体をそれぞれ、少なくとも位置および視点の何れかが異なる条件で撮像することにより生成された、互いに異なる画像である。なお、この少なくとも二つの画像は、被写体に対する撮像時のカメラの位置および/または姿勢がそれぞれ異なる画像であるとも云える。
より具体的には、バッファ処理部41は、撮像部11から第1画像401を受信し、この第1画像401をフレームバッファ40に格納する。そして、バッファ処理部41は、撮像部11から第2画像402を受信し、この第2画像402をフレームバッファ40に格納する。第1画像401と第2画像402とは、撮像部11を構成する単一の光学系により取得されたものである。
特徴点検出部42は、フレームバッファ40に格納された各画像401,402から特徴点群を検出する。特徴点検出部42は、画像上の局所的な特徴量を用いて、画像上のエッジやコーナーのような特徴点群を検出する。この特徴量には、ORB、SIFT、SURF、KAZE、AKAZE等が用いられ得る。
対応点検出部43は、第1画像401上の特徴点群と第2画像402上の特徴点群とをマッチングすることにより、これら画像401,402間で対応する対応点群を検出する。つまり、対応点検出部43は、第1画像401上の第1特徴点に対応する、第2画像402上の第2特徴点を検出することにより、これら第1特徴点および第2特徴点からなる対応点を検出する。したがって、検出された対応点は、第1画像401上のある位置の画素(第1特徴点)が、第2画像402上のある位置の画素(第2特徴点)に対応することを示す。なお、対応点検出部43は、対応点をサブピクセル単位で検出してもよい。また、マッチングは、各特徴点が有する特徴量に基づき、例えば、総当たり法、高速近似近傍探索法等を用いて行われる。
三次元座標算出部44は、第1画像401と第2画像402とを用いて、例えばSfMにより、被写体の相対スケールの三次元座標を算出する。この被写体の相対スケールの三次元座標は、例えば、被写体に関するスケールパラメータβが不定である三次元座標である。具体的には、三次元座標算出部44は、第1画像401と第2画像402との対応点群に基づいて、第1画像401の撮影時の撮像部11(カメラ)と第2画像402の撮影時の撮像部11との相対的な位置関係と、スケールパラメータβが不定である被写体の三次元情報とを算出する。
二つの画像401,402をそれぞれ撮像した時点の撮像部11の相対的な位置関係は、例えば、二つのカメラ座標系の相対的な位置関係で表される。そして、第1画像401を撮影した時点のカメラに対して設定される第1カメラ座標系と、第2画像402を撮影した時点のカメラに対して設定される第2カメラ座標系との相対的な位置関係は、例えば回転行列Rと平行移動ベクトルtである一つ以上のパラメータで表される。第1カメラ座標系は、第1画像401を撮影した時点のカメラの位置を原点とし、当該カメラの姿勢を基準として設定される。第2カメラ座標系は、第2画像402を撮影した時点のカメラの位置を原点とし、当該カメラの姿勢を基準として設定される。また、平行移動ベクトルtのスケールは不定(未知)である。
三次元座標算出部44は、回転行列Rと平行移動ベクトルtとを、対応点群の幾何学的関係であるエピポーラ拘束条件に基づき算出する。この算出には、例えば、8点アルゴリズムが用いられる。第1カメラ座標系と第2カメラ座標系との相対的な位置関係(例えば、回転行列Rと平行移動ベクトルt)が算出されたならば、三次元座標算出部44は、ステレオビジョン(三角測量)の原理に基づいて、対応点毎にスケールパラメータβが未知である三次元座標を算出することができる。この三次元座標は、スケールパラメータβが与えられたならば、絶対スケール(実スケール)の三次元座標に補正することができる。
また、ぼけ補正量算出部45および距離算出部46は、画像上のぼけから、被写体までの距離を算出する。
まず、ぼけ補正量算出部45は、第1画像401に含まれる第1波長成分画像のぼけを、第1画像401に含まれる第2波長成分画像のぼけに補正するための第1ぼけ補正量を算出する。また、ぼけ補正量算出部45は、第2画像402に含まれる第3波長成分画像のぼけを、第2画像に含まれる第4波長成分画像のぼけに補正するための第2ぼけ補正量を算出する。
第1波長成分画像のぼけ関数と第2波長成分のぼけ関数の少なくとも一方は非点対称である。第3波長成分画像のぼけ関数と第4波長成分画像のぼけ関数の少なくとも一方は非点対称である。第1波長成分画像と第3波長成分画像とは、波長帯域が同じであるか、あるいは一部重複しており、例えば、R画像またはB画像である。また、第2波長成分画像と第4波長成分画像とは、波長帯域が同じであるか、あるいは一部重複しており、例えば、G画像である。
ぼけ補正量算出部45は、例えば、第1画像401と第2画像402との対応点毎にぼけ補正量を算出する。画像上の位置(x,y)におけるぼけ補正量は、下記の関数として表現される。
r(x,y)
ただし、画像上の位置(x,y)は、画像中心を基準とした物理距離を示す。この関数は、画像上の位置(x,y)を入力として、画像上の位置(x,y)におけるぼけ補正量が決定されることを示す。
距離算出部46は、環境光、被写体の反射特性、および被写体の色の少なくともいずれかによる影響を補正するための補正パラメータαを用いて、第1画像401における被写体までの第1距離と、第2画像402における被写体までの第2距離の少なくとも一方を算出する。具体的には、距離算出部46は、第1ぼけ補正量に基づいて第1カメラ座標系における被写体までの第1距離を算出する。また、距離算出部46は、第2ぼけ補正量に基づいて第2カメラ座標系における被写体までの第2距離を算出する。算出された距離は、環境光、被写体の反射特性、および被写体の色の少なくともいずれかの影響を補正するための補正パラメータαを含む。環境光や被写体の反射特性・色の影響は、被写体の三次元位置毎に異なるため、補正パラメータαは画像上の位置(x,y)毎に異なり得る。したがって、画像上の位置(x,y)における被写体までの距離は、下記の関数として表現される。
Z(r(x,y),α(x,y))
この関数は、画像上の位置(x,y)におけるぼけ補正量r(x,y)と、補正パラメータα(x,y)とを入力として、画像上の位置(x,y)における被写体までの距離が決定されることを示す。
次いで、補正量算出部47は、距離算出部46により算出された第1距離と第2距離の少なくとも一方と、三次元座標算出部44により算出された相対スケールの三次元座標(スケールパラメータβが不定である三次元座標)とに基づき、補正パラメータαとスケールパラメータβとを算出する。補正量算出部47は、スケール情報が未知の三次元座標と、第1距離および第2距離の少なくとも一方とが、実空間内の同一の位置を示すように最適化することで、補正パラメータαとスケールパラメータβとを算出する。以下、補正パラメータαとスケールパラメータβの算出方法について説明する。
画像上の位置(x,y)に対応する三次元座標は、距離算出部46により算出される距離に基づき以下のように表現される。
Figure 0006878219

ただし、zは、レンズ22とイメージセンサ23との間の距離であり、一般的には、カメラキャリブレーションにより予め定められる。つまり、式(1)は、画像上の位置(x,y)と、その位置における距離情報(ぼけ補正量r(x,y)および補正パラメータα(x,y))が与えられれば、画像上の位置(x,y)に対応する三次元座標が算出されることを示す。
図10は、ある対応点の第1画像401上の位置821が(x1,y1)であり、第2画像402上の位置841が(x2,y2)である場合を示す。この対応点に対応する物点851の三次元座標は、第1画像401を撮像した時点のカメラ位置81を原点とする第1カメラ座標系と、第2画像402を撮像した時点のカメラ位置83を原点とする第2カメラ座標系との二通りの座標系を使って表現可能である。第1カメラ座標系における第1距離に基づく物点851の第1三次元座標と、第2カメラ座標系におけると第2距離に基づく物点851の第2三次元座標は、以下の関数でそれぞれ表現される。
Figure 0006878219

一方、三次元座標算出部44によって算出される、スケール情報が未知である三次元座標に基づく場合、第1カメラ座標系における物点851の第3三次元座標と、第2カメラ座標系における物点851の第4三次元座標は、以下の関数でそれぞれ表現される。
Figure 0006878219

そして、第1カメラ座標系と第2カメラ座標系の各々において、距離算出部46により算出される距離を用いた物点851の三次元座標と、三次元座標算出部44により算出されるスケールが不定の三次元座標を用いた物点851の三次元座標とが一致するための条件は、以下の二つの関係式(式(2)および式(3))で表現される。
Figure 0006878219

補正量算出部47は、式(2)と式(3)とが同時に成立するように補正パラメータαとスケールパラメータβとを算出する。例えば、式(2)と式(3)を連立して解くことで、対応点毎に補正パラメータαとスケールパラメータβとが算出される。二つの未知数α,βに対して二つの関係式が成り立つので、補正量算出部47は、補正パラメータαとスケールパラメータβとを物点(対応点)毎に最適化可能である。
補正パラメータαは、ある対応点を構成する特徴点(画素)間では共通の値を取る。つまり、補正パラメータαは、ある対応点に関して、画像間で共通の値を取る。しかし、補正パラメータαは、対応点(物点)毎に異なる値を取り得る。また、スケールパラメータβは、対応点によらず共通の値になることが自然である。
そのため、補正量算出部47は、スケールパラメータβが対応点によらず共通の値となる制約条件の下、式(2)と式(3)との関係が対応点毎に成立するように補正パラメータαとスケールパラメータβとを最適化してもよい。例えば、式(2)の両辺の誤差と、式(3)の両辺の誤差からなる誤差関数を定義し、対応点毎の誤差関数の和であるコスト関数(二乗誤差最小基準のコスト関数)を定義する。補正量算出部47は、スケールパラメータβが共通の値となることを制約条件に、コスト関数が最小となる補正パラメータαとスケールパラメータβとを算出する。この算出には、最適化問題の解を探索するアルゴリズムの一つである勾配法等が使用される。
上記では、補正パラメータαを対応点毎に最適化する場合を説明したが、撮像時のノイズなどの外乱影響を考慮して、補正パラメータαが領域毎に共通の値を取るように最適化することもできる。例えば、対応点周辺の局所領域や画像上で類似する色を持つ領域(例えば、閾値範囲内の画素値を持つ領域)では、環境光や被写体の反射特性の影響がほぼ同じであると推定されるため、補正パラメータαも同一あるいは類似の値になると推定される。このような領域では、補正量算出部47は、補正パラメータαが領域内で共通の値となり、且つスケールパラメータβが領域によらず共通の値となる制約条件の下、式(2)と式(3)の関係が領域毎に成立するように補正パラメータαとスケールパラメータβとを最適化してもよい。あるいは、補正量算出部47は、この制約条件の下、式(2)または式(3)の関係が領域毎に成立するように補正パラメータαとスケールパラメータβとを最適化してもよい。
なお、被写体の反射特性が一様である場合、環境光の影響のみを補正すればよいので、補正パラメータαの値は対応点によらず共通の値になるのが自然である。この場合、補正量算出部47は、第1画像401上の複数の画素と第2画像402上の複数の画素とに対して共通である補正パラメータαを算出する。
このように、補正パラメータαは、対応点毎に、領域毎に、あるいは画像上の複数の画素に対して、共通であるように最適化することができる。
補正部48は、第1距離と第2距離の少なくとも一方と、スケールが不定である三次元座標とに基づいて、被写体の実スケールの三次元座標(三次元情報)を算出する。この算出には、補正量算出部47により算出された補正パラメータαとスケールパラメータβとが用いられ得る。補正部48は、被写体の実スケールの三次元座標を、スケールが不定である三次元座標とスケールパラメータβとに基づいて算出してもよいし、補正パラメータαと、第1ぼけ補正量または第2ぼけ補正量とに基づいて算出してもよい。三次元座標は、第1カメラ座標系と第2カメラ座標系の二通りの表現が可能なので、補正部48は、両方を算出してもよいし、必要な方だけを算出してもよい。
なお、補正部48は、三次元座標算出部44により算出された、スケールパラメータβが不定である三次元座標の精度が低い場合、例えば、二つの画像401,402間での被写体の動きが小さい場合、距離算出部46により算出された第1距離または第2距離に基づき、被写体の三次元座標を算出してもよい。
補正部48は、実スケールの三次元座標を含む三次元情報(距離画像でもよい)を出力する。出力される三次元情報は、測距装置1を利用するアプリケーションに応じた形態に適宜変更可能である。例えば、被写体の三次元形状のみを知りたい場合、第1カメラ座標系における三次元座標が出力されてもよいし、第2カメラ座標系における三次元座標が出力されてもよい。また例えば、自動車やローバーなどの移動体に測距装置1を搭載し、リアルタイムで被写体までの距離情報を知りたい場合、最新のタイムスタンプを有する画像に対応するカメラ座標系における三次元座標が出力されることが望ましい。
さらに、カメラの位置情報も出力したい場合、補正部48は、回転行列Rと平行移動ベクトルtとを含む情報も出力してもよい。また、補正部48は、回転行列Rと平行移動ベクトルtとを用いて、ある座標系における測距装置1(撮像部11)の自己位置および自己姿勢を算出し、それらを含む情報を出力してもよい。自己位置は、例えば、任意のローカル座標系における三次元座標によって示される。自己位置は、世界座標系の三次元座標や、緯度経度によって表されてもよい。自己姿勢は、例えば、ヨー、ロール、ピッチで示されてもよいし、クオータニオンによって示されてもよい。
次いで、図11のフローチャートを参照して、画像処理部12によって実行される処理の手順の例を説明する。この処理は、前述の通り、画像処理部12のCPU31が画像処理プログラム32Aに含まれる命令群を実行することによって実現され得る。
まず、バッファ処理部41は、撮像部11によって撮像された複数の画像を取得し、フレームバッファ40に格納する(ステップS11)。ここでは、フレームバッファ40に第1画像401と第2画像402とが格納される場合を例示する。各画像401,402は二つ以上の波長帯域(色成分)に対応する二つ以上の画像成分を含み、例えば、R画像とG画像とB画像とを含む。
特徴点検出部42は、フレームバッファ40に格納された各画像401,402から特徴点群を検出する(ステップS12)。対応点検出部43は、第1画像401から検出された特徴点群と、第2画像402から検出された特徴点群とをマッチングすることにより、画像間の対応点群を検出する(ステップS13)。
三次元座標算出部44は、この画像間の対応点群を用いて、スケールが不定である被写体210の三次元情報を推定する(ステップS14)。三次元座標算出部44は、対応点群を用いてSfMを行うことにより、撮像部11の移動(カメラ運動)を推定する。より具体的には、三次元座標算出部44は、第1画像401が撮像された時点の第1位置および姿勢(第1視点)から、第2画像402が撮像された時点の第2位置および姿勢(第2視点)への撮像部11の移動を推定し、推定された移動に基づいて、第1位置と第2位置と各位置における姿勢とを相対的に推定する。そして、三次元座標算出部44は、第1位置と第2位置と各位置における姿勢とを用いて、各対応点に対応する被写体210の三次元座標を推定する。
また、ぼけ補正量算出部45は、第1画像401と第2画像402の少なくとも一方を用いて、被写体のぼけ補正情報を算出する(ステップS15)。ぼけ補正情報は、第1画像401に関する第1ぼけ補正量と、第2画像402に関する第2ぼけ補正量とを含む。
距離算出部46は、ぼけ補正情報に基づいて、被写体までの距離情報を算出する(ステップS16)。具体的には、距離算出部46は、第1ぼけ補正量に基づいて、第1カメラ座標系における被写体までの第1距離情報を算出し、第2ぼけ補正量に基づいて、第2カメラ座標系における被写体までの第2距離情報を算出する。前述の通り、距離情報は、環境光、被写体の反射特性、および被写体の色の少なくともいずれかによる影響を補正するための補正パラメータαを含んでいる。
補正量算出部47は、ステップS14の手順で推定されたスケールが未知である三次元情報と、ステップS16の手順で算出された第1距離情報および/または第2距離情報とを用いて、補正パラメータαとスケールパラメータβとを算出する(ステップS17)。補正量算出部47は、スケールが未知である三次元情報と距離情報(第1距離情報、第2距離情報)とが実空間内の同一の位置を示すように最適化することにより、補正パラメータαとスケールパラメータβとを算出する。
補正部48は、スケールパラメータβを用いて、スケールが未知である三次元情報を補正することにより、実スケールの三次元情報を算出する(ステップS18)。補正部48は、補正パラメータαと、第1ぼけ補正量または第2ぼけ補正量とを用いて、実スケールの三次元情報を算出してもよい。あるいは、実スケールの三次元情報の代わりに、実スケールの距離画像が算出されてもよい。そして、補正部48は、算出された実スケールの三次元情報(または距離画像)を出力する(ステップS19)。
以上により、画像処理部12は、被写体210の実スケールの三次元情報を精度良く算出することができる。なお、ステップS14の手順と、ステップS15およびステップS16の手順とは、並列に実行され得る。
以上説明したように、本実施形態によれば、画像から、被写体の位置を精度良く取得することができる。フレームバッファ40は、被写体を撮影した第1画像401と、この被写体を撮影した第1画像401とは異なる第2画像402とを保存する。距離算出部46は、環境光、被写体の反射特性、および被写体の色の少なくともいずれかによる影響を補正するための補正パラメータを用いて、第1画像401における被写体までの第1距離と、第2画像402における被写体までの第2距離の少なくとも一方を算出する。三次元座標算出部44は、第1画像401と第2画像402とを用いて、被写体の相対スケールの三次元座標を算出する。補正量算出部47および補正部48は、第1距離と第2距離の少なくとも一方と相対スケールの三次元座標とに基づいて、被写体の実スケールの三次元座標を算出する。これにより、第1画像401と第2画像402とから、被写体の位置を示す三次元座標を精度良く取得することができる。
(応用例)
以下、前述のような構成を有する測距装置1が適用される応用例についていくつか説明する。
図12は、測距装置1を含む移動体9の機能構成例を示す。移動体9は、例えば、自動運転機能を有する自動車、無人航空機、自律型の移動ロボット等として実現され得る。無人航空機は、人が乗ることができない飛行機、回転翼航空機、滑空機、飛行船であって、遠隔操作または自動操縦により飛行させることができるものであり、例えば、ドローン(マルチコプター)、ラジコン機、農薬散布用ヘリコプター等を含む。自律型の移動ロボットは、無人搬送車(Automated Guided Vehicle:AGV)のような移動ロボット、床を掃除するための掃除ロボット、来場者に各種案内を行うコミュニケーションロボット等を含む。移動体9にはさらに、ロボット本体が移動するものだけでなく、ロボットアームのような、ロボットの一部分の移動・回転用の駆動機構を有する産業用ロボットも含まれ得る。
図12に示すように、移動体9は、例えば、測距装置1と制御信号生成部14と駆動機構15とを有する。測距装置1の内、少なくとも撮像部11は、例えば、移動体9またはその一部分の進行方向の被写体を撮像するように設置される。
図13に示すように、移動体9が自動車9Aである場合、撮像部11は、前方を撮像するいわゆるフロントカメラとして設置され得るほか、バック時に後方を撮像するいわゆるリアカメラとしても設置され得る。もちろん、これら両方が設置されてもよい。また、撮像部11は、いわゆるドライブレコーダーとしての機能を兼ねて設置されるものであってもよい。すなわち、撮像部11は録画機器であってもよい。
次いで、図14は、移動体9がドローン9Bである場合の例を示す。ドローン9Bは、駆動機構15に相当するドローン本体91と四つのプロペラ部921,922,923,924とを備える。各プロペラ部921,922,923,924はプロペラとモータとを有する。モータの駆動がプロペラに伝達されることによって、プロペラが回転し、その回転による揚力によってドローン9Bが浮上する。ドローン本体91の、例えば下部には、撮像部11(あるいは、撮像部11を含む測距装置1)が搭載されている。
また、図15は、移動体9が自律型の移動ロボット9Cである場合の例を示す。移動ロボット9Cの下部には、駆動機構15に相当する、モータや車輪等を含む動力部95が設けられている。動力部95は、モータの回転数や車輪の向きを制御する。移動ロボット9Cは、モータの駆動が伝達されることによって、路面または床面に接地する車輪が回転し、当該車輪の向きが制御されることにより任意の方向に移動することができる。撮像部11は、例えば、人型の移動ロボット9Cの頭部に、前方を撮像するように設置され得る。なお、撮像部11は、後方や左右を撮像するように設置されてもよいし、複数の方位を撮像するように複数設置されてもよい。また、センサ等を搭載するためのスペースが少ない小型ロボットに少なくとも撮像部11を設けて、自己位置、姿勢および被写体の位置を推定することにより、デッドレコニングを行うこともできる。
なお、移動体9の一部分の移動および回転を制御する場合、図16に示すように、撮像部11は、例えば、ロボットアーム9Dで把持される物体を撮像するように、ロボットアームの先端等に設置されてもよい。画像処理部12は、把持しようとする物体の三次元形状やその物体が置かれている位置を推定する。これにより、物体の正確な把持動作を行うことができる。
制御信号生成部14は、測距装置1から出力される自己位置、姿勢および被写体の位置に基づいて、駆動機構15を制御するための制御信号を出力する。駆動機構15は、制御信号により、移動体9または移動体の一部分を駆動する。駆動機構15は、例えば、移動体9またはその一部分の移動、回転、加速、減速、推力(揚力)の加減、進行方向の転換、通常運転モードと自動運転モード(衝突回避モード)の切り替え、およびエアバック等の安全装置の作動の内の少なくとも一つを行う。駆動機構15は、例えば、自己位置から被写体までの距離がしきい値未満である場合、移動、回転、加速、推力(揚力)の加減、物体に近寄る方向への方向転換、および自動運転モード(衝突回避モード)から通常運転モードへの切り替えの内の少なくとも一つを行ってもよい。
自動車9Aの駆動機構15は、例えばタイヤである。ドローン9Bの駆動機構15は、例えばプロペラである。移動ロボット9Cの駆動機構15は、例えば脚部である。ロボットアーム9Dの駆動機構15は、例えば撮像部11が設けられた先端を支持する支持部である。
移動体9は、さらに画像処理部12からの自己位置、自己姿勢、および被写体の位置に関する情報が入力されるスピーカやディスプレイを備えていてもよい。スピーカやディスプレイは、自己位置、自己姿勢、および被写体の位置に関する音声または画像を出力する。スピーカやディスプレイは、測距装置1と有線または無線で接続されている。さらに、移動体9は、画像処理部12からの自己位置、自己姿勢、および被写体の位置に関する情報が入力される発光部を有していていもよい。発光部は、例えば、画像処理部12からの自己位置、自己姿勢、および被写体の位置に関する情報に応じて点灯したり消灯したりする。
なお、測距装置1の画像処理部12は、推定された撮像部11の位置と、測距装置1以外によって作成され測距装置1に入力される地図(例えばカーナビゲーションのための地図)とを用いて、この地図上での撮像部11の位置を推定してもよい。移動体9は、GPS信号を受信し、GPS座標系における位置を検出するためのGPSレシーバ(図示せず)を備えていてもよい。また、カーナビゲーションのための地図は、例えば、自動車に設けられるカーナビゲーションシステムで用いられる地図であって、GPS座標系に基づいた、道路や、橋、建物等のオブジェクトを示すデータが含まれている。GPSレシーバを用いて取得される位置には、GPS信号の取得状況等によって誤差(例えば、数メートルの誤差)が含まれている場合がある。そのため、GPSレシーバを用いて取得される位置だけでなく測距装置1によって推定された撮像部11の位置も用いることにより、地図上でのより正確な自己位置を推定することができる。さらに、GPS信号が受信できずにGPSレシーバを用いて位置が取得できない場合にも、一旦、地図上での自己位置が取得できていれば、画像処理部12は、測距装置1によって連続して推定される撮像部11の位置を用いて、地図上での自己位置を推定し続けることができるので、移動体9を目的位置まで移動等させることができる。
また、画像処理部12は、推定された特徴点の三次元座標(すなわち、画像上の画素に撮像された被写体の三次元座標)を用いて、カーナビゲーションのための地図を補完してもよい。画像処理部12は、例えば、自動車の走行中に連続して得られる撮像画像から、特徴点の三次元座標を繰り返し推定することができる。これにより、カーナビゲーションのための地図に含まれていないオブジェクトの三次元座標を当該地図に追加することができ、より詳細な地図を得ることができる。制御信号生成部14および駆動機構15は、補完された地図上での撮像部11の位置に基づいて、例えば、衝突を回避するように移動体9(例えば、自動車)を移動させることができる。
別の例として、例えば、移動体9がドローンである場合、上空から、地図(物体の三次元形状)の作成、ビルや地形の構造調査、ひび割れや電線破断等の点検等が行われる際に、撮像部11は対象を撮影した画像を取得し、自己位置と被写体との距離が閾値以上であるか否かを判定する。制御信号生成部14は、この判定結果に基づいて、点検対象との距離が一定になるようにドローンの推力を制御するための制御信号を生成する。ここで、推力には揚力も含まれる。駆動機構15が、この制御信号に基づいてドローンを動作させることにより、ドローンを点検対象に並行して飛行させることができる。移動体9が監視用のドローンである場合、監視対象の物体との距離を一定に保つようにドローンの推力を制御するための制御信号を生成してもよい。
また、ドローンの飛行時に、撮像部11は地面方向を撮影した画像を取得し、自己位置と地面との距離が閾値以上であるか否かを判定する。制御信号生成部14は、この判定結果に基づいて、地面からの高さが指定された高さになるようにドローンの推力を制御するための制御信号を生成する。駆動機構15が、この制御信号に基づいてドローンを動作させることにより、ドローンを指定された高さで飛行させることができる。農薬散布用ドローンであれば、ドローンの地面からの高さを一定に保つことで、農薬を均等に散布しやすくなる。
また、移動体9がドローンまたは自動車である場合、ドローンの連携飛行や自動車の連隊走行時に、撮像部11は、周囲のドローンや前方の自動車を撮影した画像を取得し、自己位置からそのドローンや自動車までの距離が閾値以上であるか否かを判定する。制御信号生成部14は、この判定結果に基づいて、その周囲のドローンや前方の自動車との距離が一定になるように、ドローンの推力や自動車の速度を制御するための制御信号を生成する。駆動機構15が、この制御信号に基づいてドローンや自動車を動作させることにより、ドローンの連携飛行や自動車の連隊走行を容易に行うことができる。移動体9が自動車である場合、ドライバーが閾値を設定できるように、ユーザインタフェースを介してドライバーの指示を受理することで、閾値を変化させてもよい。これにより、ドライバーが好む車間距離で自動車を走行させられる。あるいは、前方の自動車との安全な車間距離を保つために、自動車の速度に応じて閾値を変化させてもよい。安全な車間距離は、自動車の速度によって異なる。そこで、自動車の速度が速いほど閾値を長く設定することができる。また、移動体9が自動車である場合に、進行方向の所定の距離を閾値に設定しておき、その閾値の手前に物体が現れた場合にブレーキが自動で作動したり、エアバック等の安全装置が自動で作動する制御信号生成部14を構成するとよい。この場合、自動ブレーキやエアバック等の安全装置が駆動機構15に設けられる。
以上説明したように、本実施形態によれば、実スケールに基づく被写体の位置を精度良く取得することができ、この実スケールに基づく被写体の位置を用いることにより、例えば、自動車、ドローン、ロボット等の各種の移動体9の動作を容易に制御することができる。
また、本実施形態に記載された様々な機能の各々は、回路(処理回路)によって実現されてもよい。処理回路の例には、中央処理装置(CPU)のような、プログラムされたプロセッサが含まれる。このプロセッサは、メモリに格納されたコンピュータプログラム(命令群)を実行することによって、記載された機能それぞれを実行する。このプロセッサは、電気回路を含むマイクロプロセッサであってもよい。処理回路の例には、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、マイクロコントローラ、コントローラ、他の電気回路部品も含まれる。本実施形態に記載されたCPU以外の他のコンポーネントの各々もまた処理回路によって実現されてもよい。
また、本実施形態の各種処理はコンピュータプログラムによって実現することができるので、このコンピュータプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのコンピュータプログラムをコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1…測距装置、11…撮像部、12…画像処理部、21…フィルタ、22…レンズ、23…イメージセンサ、31…CPU、32…RAM、32A…画像処理プログラム、33…不揮発性メモリ、34…通信部、35…バス、40…フレームバッファ、41…バッファ処理部、42…特徴点検出部、43…対応点検出部、44…三次元座標算出部、45…ぼけ補正量算出部、46…距離算出部、47…補正量算出部、48…補正部。

Claims (13)

  1. 被写体を撮影した第1画像と、前記被写体を撮影した前記第1画像とは異なる第2画像とを保存するバッファ部と、
    環境光、前記被写体の反射特性、および前記被写体の色の少なくとも何れかによる影響を補正するための補正パラメータをそれぞれ含む、前記第1画像における前記被写体までの第1距離と、前記第2画像における前記被写体までの第2距離の少なくとも一方を算出する距離算出部と、
    前記第1画像と前記第2画像とを用いて、前記被写体の相対スケールの三次元座標を算出する三次元座標算出部と、
    前記第1距離と前記第2距離の少なくとも一方と前記相対スケールの三次元座標とが、実空間内の同一の位置を示すように、前記補正パラメータと、前記相対スケールの三次元座標を実スケールの三次元座標に変換するためのスケールパラメータとを算出し、前記算出された補正パラメータとスケールパラメータとを用いて前記被写体の実スケールの三次元座標を算出する補正部とを具備する画像処理装置。
  2. 前記補正部は、前記算出されたスケールパラメータと前記相対スケールの三次元座標とに基づいて、前記被写体の実スケールの三次元座標を算出する請求項に記載の画像処理装置。
  3. 前記第1画像は、第1波長成分画像と第2波長成分画像とを含み、
    前記第2画像は、第3波長成分画像と第4波長成分画像とを含み、
    前記第1波長成分画像に含まれるぼけを前記第2波長成分画像に含まれるぼけに補正するための第1ぼけ補正量を算出し、前記第3波長成分画像に含まれるぼけを前記第4波長成分画像に含まれるぼけに補正するための第2ぼけ補正量を算出するぼけ補正量算出部をさらに具備し、
    前記距離算出部は、前記第1ぼけ補正量に基づいて前記第1距離を算出し、前記第2ぼけ補正量に基づいて前記第2距離を算出する請求項1に記載の画像処理装置。
  4. 前記第1波長成分画像に含まれるぼけの形状と、前記第2波長成分画像に含まれるぼけの形状の少なくとも一方は非点対称であり、
    前記第3波長成分画像に含まれるぼけの形状と、前記第4波長成分画像に含まれるぼけの形状の少なくとも一方は非点対称である請求項に記載の画像処理装置。
  5. 前記補正部は、
    前記第1距離と前記第2距離の少なくとも一方と、前記相対スケールの三次元座標とを用いて、前記補正パラメータと、前記相対スケールの三次元座標を実スケールの三次元座標に変換するためのスケールパラメータとを算出し、
    前記算出された補正パラメータと前記第1ぼけ補正量とに基づいて、または前記算出された補正パラメータと前記第2ぼけ補正量とに基づいて、前記被写体の実スケールの三次元座標を算出する請求項または請求項に記載の画像処理装置。
  6. 前記補正部は、前記第1画像と前記第2画像との対応点毎に、前記補正パラメータを算出する請求項に記載の画像処理装置。
  7. 前記補正部は、前記第1画像上または前記第2画像上の類似する色を有する領域毎に、前記補正パラメータを算出する請求項に記載の画像処理装置。
  8. 前記補正部は、前記第1画像上の複数の画素と前記第2画像上の複数の画素とに対して共通である前記補正パラメータを算出する請求項に記載の画像処理装置。
  9. 前記三次元座標算出部は、さらに、前記第1画像が撮像された位置および姿勢と前記第2画像が撮像された位置および姿勢との相対的な位置関係を示す一つ以上のパラメータを算出する請求項1に記載の画像処理装置。
  10. 前記第1画像と前記第2画像とには、撮像時の前記被写体までの距離情報がそれぞれ符号化される請求項1に記載の画像処理装置。
  11. 前記第1画像と前記第2画像とは、単一の光学系でそれぞれ取得される請求項1に記載の画像処理装置。
  12. 請求項1乃至請求項11のいずれか一項に記載の画像処理装置と、
    前記第1画像と前記第2画像とを撮像する撮像部とを具備する測距装置。
  13. 前記撮像部は、
    レンズと、
    互いに異なる波長帯域の光を受光する少なくとも二種類の撮像素子を含むイメージセンサと、
    前記レンズを通過して前記イメージセンサに入射する光の光路上に設けられ、互いに異なる波長帯域の光を透過する少なくとも二つのフィルタ領域を含むフィルタとを備える請求項12に記載の測距装置。
JP2017173346A 2017-09-08 2017-09-08 画像処理装置および測距装置 Active JP6878219B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017173346A JP6878219B2 (ja) 2017-09-08 2017-09-08 画像処理装置および測距装置
US15/905,618 US11587261B2 (en) 2017-09-08 2018-02-26 Image processing apparatus and ranging apparatus
CN201810214190.5A CN109470158B (zh) 2017-09-08 2018-03-15 影像处理装置及测距装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017173346A JP6878219B2 (ja) 2017-09-08 2017-09-08 画像処理装置および測距装置

Publications (2)

Publication Number Publication Date
JP2019049457A JP2019049457A (ja) 2019-03-28
JP6878219B2 true JP6878219B2 (ja) 2021-05-26

Family

ID=65631268

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017173346A Active JP6878219B2 (ja) 2017-09-08 2017-09-08 画像処理装置および測距装置

Country Status (3)

Country Link
US (1) US11587261B2 (ja)
JP (1) JP6878219B2 (ja)
CN (1) CN109470158B (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019015575A (ja) 2017-07-05 2019-01-31 株式会社東芝 画像処理装置、測距装置および処理システム
KR102597518B1 (ko) * 2019-02-20 2023-11-03 삼성전자주식회사 영상에 보케 효과를 적용하는 전자 장치 및 그 제어 방법
JP6600113B1 (ja) * 2019-03-29 2019-10-30 スターティアラボ株式会社 Ar用の画像処理装置、画像処理システム及びプログラム
US10885514B1 (en) * 2019-07-15 2021-01-05 Capital One Services, Llc System and method for using image data to trigger contactless card transactions
CN110657781A (zh) * 2019-10-09 2020-01-07 江苏开放大学(江苏城市职业学院) 背包式近景摄影测量装置及无人机倾斜摄影测量建模方法
CN112902911B (zh) * 2019-12-03 2023-06-20 上海高德威智能交通***有限公司 基于单目相机的测距方法、装置、设备及存储介质
CN113132709B (zh) * 2019-12-31 2022-11-08 中移物联网有限公司 一种双目测距装置、双目测距方法及电子设备
CA3164895A1 (en) * 2020-05-14 2021-11-18 Lior AVITAN Systems and methods for remote control and automation of a tower crane
CN111739097A (zh) * 2020-06-30 2020-10-02 上海商汤智能科技有限公司 测距方法及装置、电子设备及存储介质
JP7379299B2 (ja) * 2020-08-28 2023-11-14 株式会社東芝 位置姿勢推定装置、位置姿勢推定方法及びプログラム
WO2022054167A1 (ja) * 2020-09-09 2022-03-17 日本電信電話株式会社 位置推定方法、位置推定装置及びプログラム
CN112347935B (zh) * 2020-11-07 2021-11-02 的卢技术有限公司 一种基于双目视觉slam的自动驾驶车辆定位方法及***
EP4296615A4 (en) * 2021-03-10 2024-05-15 Huawei Technologies Co., Ltd. METHOD AND DEVICE FOR MEASURING DISTANCE
JP7482070B2 (ja) 2021-03-16 2024-05-13 株式会社東芝 学習方法、プログラム及び画像処理装置
JP7500515B2 (ja) * 2021-09-03 2024-06-17 株式会社東芝 被検体の検査に関連する処理装置、被検体の検査システム、被検体の検査に関連する処理方法、及び、被検体の検査に関連する処理プログラム
CN115604422B (zh) * 2022-08-17 2024-02-09 福建汇达建筑工程有限公司 一种基于物联网智能检测单元的构建方法
CN117782030A (zh) * 2023-11-24 2024-03-29 北京天数智芯半导体科技有限公司 距离测量方法及装置、存储介质及电子设备

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5418892B2 (ja) * 1973-06-30 1979-07-11
JPH0777410A (ja) * 1993-09-07 1995-03-20 Canon Inc 測距方法および装置
US6118475A (en) 1994-06-02 2000-09-12 Canon Kabushiki Kaisha Multi-eye image pickup apparatus, and method and apparatus for measuring or recognizing three-dimensional shape
JPH0843055A (ja) 1994-07-29 1996-02-16 Canon Inc 3次元物体形状認識方法及び装置
JP3833786B2 (ja) * 1997-08-04 2006-10-18 富士重工業株式会社 移動体の3次元自己位置認識装置
BRPI0518033B1 (pt) * 2004-11-22 2017-07-04 Bridgestone Corporation Apparatus for inspection of external appearance
JP4971344B2 (ja) * 2005-10-26 2012-07-11 トリンブル イエナ ゲゼルシャフト ミット ベシュレンクテル ハフツング 測量方法及び測量装置
US7859677B2 (en) * 2006-12-13 2010-12-28 Bausch & Lomb Incorporated Optical calibration system and method
JP4229208B1 (ja) * 2007-10-31 2009-02-25 トヨタ自動車株式会社 取り付け角度測定装置および取り付け角度測定方法
WO2010095374A1 (ja) * 2009-02-23 2010-08-26 パナソニック株式会社 撮像素子及びそれを備えた撮像装置
KR101070591B1 (ko) * 2009-06-25 2011-10-06 (주)실리콘화일 듀얼 스테레오 카메라를 구비한 거리 측정 장치
CN102072718B (zh) * 2009-11-25 2013-08-28 原相科技股份有限公司 利用成像位置差异以测距的测距装置及其校正方法
JP5121870B2 (ja) * 2010-03-25 2013-01-16 株式会社東芝 画像処理方法および画像処理装置
CN101876533B (zh) * 2010-06-23 2011-11-30 北京航空航天大学 一种显微立体视觉校准方法
JP5472538B2 (ja) * 2011-06-14 2014-04-16 日産自動車株式会社 距離計測装置及び環境地図生成装置
JP5337218B2 (ja) * 2011-09-22 2013-11-06 株式会社東芝 立体画像変換装置、立体画像出力装置および立体画像変換方法
KR101408591B1 (ko) * 2012-04-27 2014-06-17 삼성전기주식회사 무안경 3차원 영상 디스플레이 장치 및 방법
JP5963353B2 (ja) * 2012-08-09 2016-08-03 株式会社トプコン 光学データ処理装置、光学データ処理システム、光学データ処理方法、および光学データ処理用プログラム
JP5818773B2 (ja) * 2012-11-22 2015-11-18 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
CN103411536B (zh) * 2013-08-23 2016-03-23 西安应用光学研究所 基于双目立体视觉的驾驶辅助障碍物检测方法
US20150201124A1 (en) * 2014-01-15 2015-07-16 Samsung Electronics Co., Ltd. Camera system and method for remotely controlling compositions of self-portrait pictures using hand gestures
JP6561512B2 (ja) * 2014-03-27 2019-08-21 株式会社リコー 視差値導出装置、移動体、ロボット、視差値導出方法、視差値生産方法及びプログラム
JP2016060610A (ja) * 2014-09-19 2016-04-25 株式会社東芝 エレベータ昇降路内寸法測定装置、エレベータ昇降路内寸法測定制御装置、およびエレベータ昇降路内寸法測定方法
JP2016102733A (ja) 2014-11-28 2016-06-02 株式会社東芝 レンズ及び撮影装置
JP6608763B2 (ja) * 2015-08-20 2019-11-20 株式会社東芝 画像処理装置及び撮影装置
US10382684B2 (en) 2015-08-20 2019-08-13 Kabushiki Kaisha Toshiba Image processing apparatus and image capturing apparatus
CN105115445A (zh) * 2015-09-14 2015-12-02 杭州光珀智能科技有限公司 基于深度相机与双目视觉复合的三维成像***及成像方法
JP6699370B2 (ja) 2016-06-06 2020-05-27 アイシン精機株式会社 車両用画像処理装置
JP6585006B2 (ja) 2016-06-07 2019-10-02 株式会社東芝 撮影装置および車両
CN108076267A (zh) 2016-11-11 2018-05-25 株式会社东芝 摄像装置、摄像***以及距离信息获取方法
JP2018077190A (ja) 2016-11-11 2018-05-17 株式会社東芝 撮像装置及び自動制御システム
JP6699898B2 (ja) 2016-11-11 2020-05-27 株式会社東芝 処理装置、撮像装置、及び自動制御システム
JP6699897B2 (ja) 2016-11-11 2020-05-27 株式会社東芝 撮像装置、自動制御システム及びシステム
JP2018084571A (ja) 2016-11-11 2018-05-31 株式会社東芝 処理装置、撮像装置および自動制御システム
CN106683133B (zh) * 2016-12-09 2020-04-17 深圳奥比中光科技有限公司 一种获取目标深度图像的方法
CN106780725B (zh) * 2016-12-23 2018-07-06 西安交通大学 一种双目三维重构方法及***
US20180270413A1 (en) 2017-03-15 2018-09-20 Kabushiki Kaisha Toshiba Processing apparatus and processing system
CN108628337A (zh) 2017-03-21 2018-10-09 株式会社东芝 路径生成装置、路径控制***以及路径生成方法
JP6860433B2 (ja) 2017-06-19 2021-04-14 株式会社東芝 処理装置、処理システム、方法及びプログラム
JP2019011971A (ja) 2017-06-29 2019-01-24 株式会社東芝 推定システムおよび自動車
JP2019015575A (ja) 2017-07-05 2019-01-31 株式会社東芝 画像処理装置、測距装置および処理システム

Also Published As

Publication number Publication date
CN109470158B (zh) 2021-07-20
JP2019049457A (ja) 2019-03-28
US11587261B2 (en) 2023-02-21
CN109470158A (zh) 2019-03-15
US20190080481A1 (en) 2019-03-14

Similar Documents

Publication Publication Date Title
JP6878219B2 (ja) 画像処理装置および測距装置
JP7051740B2 (ja) 画像処理装置、測距装置、方法及びプログラム
JP6971934B2 (ja) 画像処理装置
US11283986B2 (en) Systems and methods for multi-target tracking and autofocusing based on deep machine learning and laser radar
US11019322B2 (en) Estimation system and automobile
CN112074875B (zh) 构造3d特征图的组优化深度信息方法和***
WO2020116046A1 (ja) センサ装置、電子機器、センサシステム及び制御方法
JP7123884B2 (ja) 撮像装置、方法及びプログラム
CN111226154B (zh) 自动对焦相机和***
JP6971933B2 (ja) 画像処理装置及び撮像装置
JP7170609B2 (ja) 画像処理装置、測距装置、方法及びプログラム
CN114979418A (zh) 图像处理装置
JP6847891B2 (ja) 画像処理装置、撮像装置及び方法
JP7242822B2 (ja) 推定システムおよび自動車
US20230141542A1 (en) Image processing device, method, and storage medium
JP2023065092A (ja) 測距装置、画像処理装置、方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190815

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210428

R151 Written notification of patent or utility model registration

Ref document number: 6878219

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151