JPH09218950A - 多眼画像からの物体検出方式 - Google Patents

多眼画像からの物体検出方式

Info

Publication number
JPH09218950A
JPH09218950A JP8026349A JP2634996A JPH09218950A JP H09218950 A JPH09218950 A JP H09218950A JP 8026349 A JP8026349 A JP 8026349A JP 2634996 A JP2634996 A JP 2634996A JP H09218950 A JPH09218950 A JP H09218950A
Authority
JP
Japan
Prior art keywords
information
cluster
image
parallax
object detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8026349A
Other languages
English (en)
Other versions
JP2891159B2 (ja
Inventor
Jiro Katto
二郎 甲藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP8026349A priority Critical patent/JP2891159B2/ja
Priority to US08/800,402 priority patent/US5917936A/en
Publication of JPH09218950A publication Critical patent/JPH09218950A/ja
Application granted granted Critical
Publication of JP2891159B2 publication Critical patent/JP2891159B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Probability & Statistics with Applications (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 領域分割技術を積極的に多眼画像に活用する
ことで、画像からの物体検出の精度・安定性を改善す
る。 【解決手段】 光軸はほぼ等しいが焦点位置の異なる複
数枚の画像を入力として1枚の鮮鋭画像と焦点情報とク
ラスタ情報を作成する手段10と、焦点情報から第1の
物体検出情報を作成する手段11と、クラスタ情報から
統合クラスタ情報を作成する手段12と、第1の物体検
出情報と統合クラスタ情報から第2の物体検出情報を作
成する手段13と、鮮鋭画像と第2の物体検出情報から
物体の切り出しを行う手段14を備える。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は多眼画像からの物体
検出方式に関する。
【0002】
【従来の技術】画像信号から着目物体のみを切り出す技
術は、画像理解、切り出された物体を単位とする画像編
集、画像データベースなどへの応用が検討されている。
【0003】この目的のための第1の手掛かりが画像の
領域分割方式である。特にクラスタリングを用いた方式
は、良好な領域分割結果を与えるのみならず、雑音に強
いという利点を有するために活発な検討が進められてい
る。具体的には、泉、森川、原島:“色情報と位置情報
とを併用したセグメンテーション手法の一検討”,19
91年電子情報通信学会春季全国大会D−680(19
91)に示されている5次元クラスタリング方式があ
る。これは、特徴量空間として三刺激値RGBと画素位
置xyの計5次元の空間を考え、着目画素の色情報を
(R,G,B)、位置情報を(x,y)、インデクスn
のクラスタの色情報の平均を
【0004】
【外1】
【0005】位置の重心を
【0006】
【外2】
【0007】とした場合に、着目画素とn番目のクラス
タの距離dn
【0008】
【数1】
【0009】で定義する。そして、着目画素周辺の複数
のクラスタに対して距離dn の計算を行い、その距離d
n が最小となるクラスタnに着目画素が属する、と判定
する。ただし、w0 、w1 はそれぞれ重み係数である。
これによって、局所的な情報を失わず、かつ雑音にも強
い画像信号の領域分割が実現できる、と報告されてい
る。そして、統計的に類似したクラスタを集めて統合ク
ラスタを作成することで物体検出を実現できる。しか
し、上記の方式では1枚の画像の色情報しか用いていな
いために、かなりの誤検出が発生することは避けられな
い。
【0010】また、横山、宮本:“動き情報を利用した
動画像符号化用の領域分割方式”,1994年電子情報
通信学会秋季全国大会D−150(1994)では、上
記のクラスタリングアルゴリズムを動画像に拡張した報
告を行っている。これは、特徴量空間としてYCrCb
の3つの輝度色差信号と画素位置xyと2次元動きベク
トルを加えた7次元特徴量空間を考え、画素単位に求め
られた動きベクトルを(vx ,vy )、クラスタnに対
して求められた動きベクトルを(vn,x ,vn, y )と
し、着目画素とn番目のクラスタの距離dn
【0011】
【数2】
【0012】で定義する。そして、着目画素周辺の複数
のクラスタに対して距離dn の計算を行い、その距離d
n が最小となるクラスタnに着目画素が属すると判定す
る。ただし、w0 、w1 、w2 はそれぞれ重み係数であ
り、また前述のRGB空間をYCrCb空間に変更して
いるが、これは領域分割結果に大きな影響を与える問題
ではない。これによって、前述の動きベクトル情報を用
いないクラスタリング方式に対して、動き補償予測の符
号化効率が改善されると報告されている。そして、前述
の方式と同様に、統計的に類似したクラスタを集めて統
合クラスタを作成することで物体検出を実現できる。し
かし、上記の方式では、用いられる動き情報がばらつい
て領域分割が安定しないために、かなりの誤検出が発生
するという問題点がある。
【0013】物体検出のための第2の手掛かりが焦点情
報を用いた構造復元方式である。具体的には、A.P.
Pentland:“A New Sense for
Depth of Field,”IEEE Tra
ns.on PatternAnalysis and
Machine Intelligence,Vo
l.PAMI−9,No.4,July.1987に、
エッジ検出を行い、そのエッジ付近の輝度勾配を求め、
この傾きの大きさから物体の奥行きを求める方式が示さ
れている。しかし、上記の方式では、エッジ付近のぼけ
度合いの精度が安定して得られないこと、エッジ以外の
部分の奥行きは求まらないこと、検出されるエッジが必
ずしも閉領域を構成しないこと、などのために、依然と
して誤検出の問題が残る。
【0014】物体検出のための第3の手掛かりがステレ
オ画像を用いた構造復元方式である。具体的には、U.
R.Dhond and J.K.Aggarwal:
“Structure from Stereo −
A Review”,IEEE Trans.SMC,
pp.1489−1510(1989)に、弛緩法やダ
イナミックプログラミングを用いて、ステレオ画像から
視差情報を求めるための方式が説明されている。しか
し、上記の方法では、視差検出に誤りが含まれるため
に、依然として誤検出の問題が残る。
【0015】一方、前記の焦点情報の利用に関する別の
話題として、特願平07−249961「3次元画像符
号化方式」には、クラスタリング手法を活用した、焦点
位置の異なる複数枚の画像からの鮮鋭画像の獲得方式が
示されている。この方式を応用することで、各画素がど
の焦点画像に属しているか、各画素がどの程度の奥行き
にあるか、という物体検出のための手掛かりを得ること
ができる。また、前記の視差情報の利用に関する別の方
法として、甲藤、太田“Focusingを用いた3次
元画像符号化”画像符号化シンポジウム(1995年1
0月2日)(以下、文献1という)にはまた、クラスタ
リング手法を活用した、視差情報の獲得方式が示されて
いる。この方式を応用することで、各画素がどの視差範
囲に属しているか、各画素がどの程度の奥行きにある
か、という物体検出のための手掛かりを得ることができ
る。
【0016】
【発明が解決しようとする課題】現状の画像信号からの
物体検出方式では、誤検出を十分に低減することができ
ない。そこで、本発明の目的は、クラスタリングを用い
た領域分割手法を基盤記述とし、焦点位置の異なる複数
枚の画像、もしくは視差の異なる複数枚の画像、もしく
はそれらの両方を用いて、誤検出の少ない画像信号から
の物体検出方式を提供することにある。
【0017】
【課題を解決するための手段】第1の発明である多眼画
像からの物体検出方式は、光軸はほぼ等しいが焦点位置
の異なる複数枚の画像を入力として1枚の鮮鋭画像と焦
点情報とクラスタ情報を作成する画像鮮鋭化手段と、前
記焦点情報から第1の物体検出情報を作成するマスク生
成手段と、前記クラスタ情報から統合クラスタ情報を作
成する領域統合手段と、前記第1の物体検出情報と前記
統合クラスタ情報から第2の物体検出情報を作成する領
域選択手段と、前記鮮鋭画像と前記第2の物体検出情報
から物体の切り出しを行う手段を備えることを特徴とす
る。
【0018】第2の発明である多眼画像からの物体検出
方式は、光軸の異なる複数枚の画像を入力として視差情
報とクラスタ情報を作成する視差検出手段と、前記視差
情報から第1の物体検出情報を作成するマスク生成手段
と、前記画像のクラスタ情報から統合クラスタ情報を作
成する領域統合手段と、前記第1の物体検出情報と前記
統合クラスタ情報から第2の物体検出情報を作成する領
域選択手段と、前記視差の異なる画像と前記第2の物体
検出情報から物体の切り出しを行う手段を備えることを
特徴とする。
【0019】第3の発明である多眼画像からの物体検出
方式は、光軸はほぼ等しいが焦点位置の異なる複数枚の
画像を入力として第1の鮮鋭画像と焦点情報とクラスタ
情報を作成する第1の画像鮮鋭化手段と、光軸はほぼ等
しいが焦点位置の異なる複数枚の画像を入力として鮮鋭
画像を得る手段を前記第1の画像鮮鋭化手段とは別に視
点を変えて複数個備え、それらによって得られた視点の
異なる複数枚の鮮鋭画像から視差情報を作成する視差検
出手段と、前記焦点情報と前記視差情報から第1の物体
検出情報を作成するマスク生成手段と、前記クラスタ情
報から統合クラスタ情報を作成する領域統合手段と、前
記第1の物体検出情報と前記統合クラスタ情報から第2
の物体検出情報を作成する領域選択手段と、前記第1の
鮮鋭画像と前記第2の物体検出情報から物体の切り出し
を行う手段を備えることを特徴とする。
【0020】第4の発明である多眼画像からの物体検出
方式は、光軸はほぼ等しいが焦点位置の異なる複数枚の
画像を入力として第1の鮮鋭画像と焦点情報を作成する
第1の画像鮮鋭化手段と、光軸はほぼ等しいが焦点位置
の異なる複数枚の画像を入力として鮮鋭画像を得る手段
を前記第1の画像鮮鋭化手段とは別に視点を変えて複数
個備え、それらによって得られた視点の異なる複数枚の
鮮鋭画像から視差情報とクラスタ情報を作成する視差検
出手段と、前記焦点情報と前記視差情報から第1の物体
検出情報を作成するマスク生成手段と、前記クラスタ情
報から統合クラスタ情報を作成する領域統合手段と、前
記第1の物体検出情報と前記統合クラスタ情報から第2
の物体検出情報を作成する領域選択手段と、前記第1の
鮮鋭画像と前記第2の物体検出情報から物体の切り出し
を行う手段を備えることを特徴とする。
【0021】
【発明の実施の形態】本発明に従って構成した実施の形
態を示す。
【0022】はじめに、本発明では、図5に示すような
焦点位置の異なる複数枚の画像と視差の異なる複数枚の
画像を撮像する。焦点方向に関しては、1台のカメラで
焦点位置を順次変更して撮像するか、もしくは時間差が
許容されない場合には、予め焦点位置を変えた複数のカ
メラを準備しておき、ハーフミラーやプリズム等を用い
て光軸を揃えて撮像する。視差方向に対しては、1台の
カメラで水平方向に移動して撮像するか、もしくは時間
差が許容されない場合には、予め水平方向の配置位置を
変えた複数枚のカメラを用いて撮像する。
【0023】まず、文献1に述べた焦点位置の異なる複
数枚の画像の鮮鋭化方式を用いて、画像信号からの物体
検出を以下のようにして行うことができる。焦点位置の
異なる複数枚の画像のみを考え、それらに対して画像の
鮮鋭化を施す。次に、得られた合焦判定情報に従い、画
素が着目する焦点画像に含まれる場合の値を1、含まれ
ない場合を0とするマップを作成し、得られた鮮鋭画像
との論理積を取ることでラフな物体の切り出しを行う。
次に、着目する焦点画像に対して得られたクラスタリン
グ結果に従い、統計的に類似した特徴を有するクラスタ
を集めて、より大きな統合クラスタを構成する。次に、
得られた統合クラスタ毎に、その内部の前記ラフな物体
の切り出し結果に含まれる画素数をカウントし、その統
合クラスタ内の全画素数に対する比率が既定値を超える
統合クラスタを選択し、その統合クラスタの集合として
最終的な物体の切り出し結果とする。ラフな物体の切り
出しだけでは、しばしば鮮鋭化に伴う誤検出領域が含ま
れるが、上記のように、これをクラスタリングの統合結
果と組み合わせて用いることで、誤検出を大幅に低減す
ることができる。
【0024】また、文献1に述べた視差の異なる複数枚
の画像からの視差検出方式を用いて、画像信号からの物
体検出を以下のようにして行うことができる。視差の異
なる画像のみを考え、それらに対して視差検出を施す。
次に、得られた視差情報に従い、画素が着目する視差範
囲に含まれる場合の値を1、含まれない場合を0とする
マップを作成し、入力画像との論理積を取ることでラフ
な物体の切り出しを行う。次に、着目する視差画像に対
して得られたクラスタリング結果に従い、統計的に類似
した特徴を有するクラスタを集めて、より大きな統合ク
ラスタを構成する。次に、得られた統合クラスタ毎に、
その内部の前記ラフな物体の切り出し結果に含まれる画
素数をカウントし、その統合クラスタ内の全画素数に対
する比率が既定値を超える統合クラスタを選択し、その
統合クラスタの集合として最終的な物体の切り出し結果
とする。ラフな物体の切り出しだけでは、しばしば誤差
検出に伴う誤検出領域が含まれるが、上記のように、こ
れをクラスタリングの統合結果と組み合わせて用いるこ
とで、誤検出を大幅に低減することができる。
【0025】また、文献1に述べた焦点位置の異なる複
数枚の画像の鮮鋭化方式と、同じく視差の異なる複数枚
の画像からの視差検出方式との併用によって、画像信号
からの物体検出を以下のようにして行うことができる。
はじめに、焦点位置の異なる複数枚の画像に対して、画
像の鮮鋭化を施し、複数枚の視差の異なる鮮鋭画像を得
る。次に、得られた視差の異なる複数枚の鮮鋭画像に対
して、視差検出を施す。次に、得られた焦点情報と視差
情報に従い、画素が着目する焦点画像に含まれる場合の
値を1、含まれない場合を0とする第1のマップと、画
素が着目する視差範囲に含まれる場合の値を1、含まれ
ない場合を0とする第2のマップを作成し、前記第1の
マップ、前記第2のマップと入力画像との論理積を取る
ことでラフな物体の切り出しを行う。次に、着目する焦
点画像に対して得られたクラスタリング結果に従い、統
計的に類似した特徴を有するクラスタを集めて、より大
きな統合クラスタを構成する。次に、得られた統合クラ
スタ毎に、その内部の前記ラフな物体の切り出し結果に
含まれる画素数をカウントし、その統合クラスタ内の全
画素数に対する比率が既定値を超える統合クラスタを選
択し、その統合クラスタの集合として最終的な物体の切
り出し結果とする。ラフな物体の切り出しだけでは、し
ばしば鮮鋭化、視差検出に伴う誤検出領域が含まれる
が、上記のように、これらを鮮鋭画像のクラスタリング
の統合結果と組み合わせて用いることで、誤検出を大幅
に低減することができる。
【0026】あるいはまた、統合クラスタの生成時に、
画像鮮鋭化時のクラスタリング結果を用いる替わりに、
視差検出時のクラスタリング結果を用いて、画像信号か
らの物体検出を以下のようにして行うことができる。は
じめに、焦点位置の異なる複数枚の画像に対して、画像
の鮮鋭化を施し、複数枚の視差の異なる鮮鋭画像を得
る。次に、得られた視差の異なる複数枚の鮮鋭画像に対
して、視差検出を施す。次に、得られた焦点情報と視差
情報に従い、画素が着目する焦点画像に含まれる場合の
値を1、含まれない場合を0とする第1のマップと、画
素が着目する視差範囲に含まれる場合の値を1、含まれ
ない場合を0とする第2のマップを作成し、前記第1の
マップ、第2のマップと入力画像との論理積を取ること
でラフな物体の切り出しを行う。次に、着目するに視差
画像に対して得られたクラスタリング結果に従い、統計
的に類似した特徴を有するクラスタを集めて、より大き
な統合クラスタを構成する。次に、得られた統合クラス
タ毎に、その内部の前記ラフな物体の切り出し結果に含
まれる画素数をカウントし、その統合クラスタ内の全画
素数に対する比率が既定値を超える統合クラスタを選択
し、その統合クラスタの集合として最終的な物体の切り
出し結果とする。ラフな物体の切り出しだけでは、しば
しば鮮鋭化、視差検出に伴う誤検出領域が含まれるが、
上記のように、これらを視差画像のクラスタリングの統
合結果と組み合わせて用いることで、誤検出を大幅に低
減することができる。
【0027】図1は、画像鮮鋭化方式を用いた、本発明
の第一の実施の形態を示している。画像鮮鋭化手段10
は、N枚の焦点位置の異なる画像を入力とし、鮮鋭画像
と、画素毎の焦点情報と、領域分割結果としてのクラス
タ情報を出力する。ただし、焦点情報は、各画素がN枚
の焦点画像のどれから得られたかを示すインデクスであ
り、クラスタ情報は、領域分割の結果として与えられる
各クラスタの輝度、色差の平均値、重心位置、および各
画素の属するクラスタ番号から構成される。マスク生成
手段11は、画像鮮鋭化手段10から与えられる焦点情
報を入力とし、ラフな物体検出に対応するマスク情報を
出力する。ただし、マスク情報は、画素単位に、各画素
が着目する焦点画像から得られた場合を1、そうでない
場合を0とする。領域統合手段12は、画像鮮鋭化手段
10から与えられるクラスタ情報を入力とし、統計的に
類似した特徴を有するクラスタを統合して新たな統合ク
ラスタを形成し、統合クラスタ情報を出力する。ただ
し、統合クラスタ情報は、各画素が含まれる統合クラス
タを表すインデクスである。領域選択手段13は、マス
ク生成手段11から与えられるマスク情報と、領域統合
回路12から与えられる統合クラスタ情報を入力とし、
各統合クラスタ毎にマスク情報が1である画素の占める
比率を計算し、この比率が既定値を越える統合クラスタ
の集合として物体検出情報を出力する。ただし、物体検
出情報は、画素単位に、各画素が検出物体を構成する統
合領域に含まれる場合を1、含まれない場合を0とす
る。物体切り出し手段14は、画像鮮鋭化手段10から
与えられる鮮鋭画像と、領域選択回路13から与えられ
る物体検出情報の積を取り、その結果を検出物体として
出力する。
【0028】図6は、画像鮮鋭化手段10の構成例の詳
細を示している。まず、焦点位置の異なるN枚の画像の
中から、1枚を基準画像#1とする。領域分割手段19
1は、基準画像#1の画素値と統計情報計算手段192
によって与えられる統計情報を入力とし、(1)式の距
離計算式に従って基準画像#1の領域分割を行い、各画
素が含まれるクラスタ番号を表す画素単位のクラスタ属
性情報を出力する。統計情報計算手段192は、基準画
像#1の画素値と、領域分割手段191によって与えら
れるクラスタ属性情報を入力とし、クラスタ毎に画素値
平均、画素値分散、重心位置等の計算を行い、クラスタ
単位の統計情報として出力する。統計情報計算手段19
3は、画像#2の画素値と、領域分割手段191によっ
て与えられる基準画像#1のクラスタ属性情報を入力と
し、基準画像#1に対して求められたクラスタを画像#
2にも適用し、クラスタ毎に画素値平均、画素値分散、
重心位置等の計算を行い、クラスタ単位の統計情報とし
て出力する。統計情報計算手段194、195の機能
は、対象画像が画像#3、画像#Nとなることを除い
て、前述の統計情報計算手段193の機能と同じであ
る。合焦判定手段196は、文献1と同様に、統計情報
計算手段193〜195によって与えられる画像#1〜
#Nの統計情報を用いて、
【0029】
【数3】
【0030】を計算し、この値を最大にするクラスタを
合焦領域と判定し、焦点情報を出力する。ただし、
【0031】
【外3】
【0032】は着目クラスタnの輝度、色差の平均値、
Nは着目クラスタnの隣接クラスタの集合である。画像
合成手段197は、領域分割手段191によって与えら
れる基準画像#1のクラスタ属性情報と、合焦判定手段
196によって与えられる焦点情報と、N枚の焦点位置
の異なる画像を入力とし、鮮鋭画像を出力する。
【0033】図7は、領域分割手段191の構成例の詳
細を示している。差分自乗計算手段60は、画像#1の
輝度値と、統計情報計算手段192によって与えられる
クラスタ毎の輝度の平均値を入力とし、それらの差分の
自乗を計算する。差分自乗計算手段61、62は、画像
#1の色差値と、統計情報計算手段によって与えられる
クラスタ毎の色差の平均値を入力とし、それらの差分の
自乗を計算する。差分自乗計算手段63、64は、画像
#1の画素の位置情報と、統計情報計算手段192によ
って与えられるクラスタ毎の重心位置を入力とし、それ
らの差分の自乗を計算する。重み付き加算手段65は、
(1)式に従って、差分自乗計算手段60〜64から与
えられる差分自乗値の重み付き加算を行う。重み付き加
算手段66、67は、隣接クラスタに対して、重み付き
加算手段65と同様の差分自乗値の重み付き加算を行
う。比較手段68は、重み付き加算手段65、66、6
7の結果として与えられる重み付き加算値の比較を行
い、この値を最小にするクラスタのインデクス、すなわ
ちクラスタ属性情報を出力する。
【0034】図8は、統計情報計算手段192の構成例
の詳細を示している。クラスタ毎の累算手段70は、画
像#1から与えられる画素の輝度値と、領域分割手段1
91から与えられる画素毎のクラスタ属性情報に従っ
て、クラスタ毎の輝度値の累算を行う。クラスタ毎の累
算手段71、72は、画像#1から与えられる画素の色
差値と、領域分割手段191から与えられる画素毎のク
ラスタ属性情報に従って、クラスタ毎の色差値の累算を
行う。クラスタ毎の累算手段73、74は、画像#1か
ら与えられる画素の位置座標と、領域分割手段191か
ら与えられる画素毎のクラスタ属性情報に従って、クラ
スタ毎の位置座標の累算を行う。クラスタ毎のカウンタ
75は、領域分割手段191から与えられるクラスタ属
性情報に従って、各クラスタに含まれる画素数をカウン
トする。除算手段76は、クラスタ毎の累算手段70か
ら与えられる輝度累算値の、クラスタ毎のカウンタ75
から与えられる画素数による除算を実行し、クラスタ単
位の輝度平均値を出力する。除算手段77、78は、ク
ラスタ毎の累算手段71、72から与えられる色差累算
値の、クラスタ毎のカウンタ75から与えられる画素数
による除算を実行し、クラスタ単位の色差平均値を出力
する。除算手段79、80は、クラスタ毎の累算手段7
3、74から与えられる位置座標累算値の、クラスタ毎
のカウンタ75から与えられる画素数による除算を実行
し、クラスタ単位の重心位置を出力する。
【0035】図9は、合焦判定手段196の構成例の詳
細を示している。平均差分自乗計算手段90は、統計情
報計算手段192によって与えられる着目クラスタの輝
度平均値と、統計情報計算手段193によって与えられ
る周辺クラスタの輝度平均値の差分の自乗を計算する。
平均差分自乗計算手段91、92は、統計情報計算手段
192によって与えられる着目クラスタの色差平均値
と、統計情報計算手段193によって与えられる周辺ク
ラスタの色差平均値の差分の自乗を計算する。平均差分
自乗計算手段93、94、95は、統計情報計算手段1
93の代わりに統計情報計算手段194によって与えら
れる統計値を入力とし、その機能は平均差分自乗計算手
段90、91、92に等しい。平均差分自乗計算手段9
6、97、98は、統計情報計算手段193の代わりに
統計情報計算手段195によって与えられる統計値を入
力とし、その機能は平均差分自乗計算手段90、91、
92に等しい。加算手段99は、平均差分自乗計算手段
90〜92によって与えられる値を加算する。加算手段
100は、平均差分自乗計算手段93〜95によって与
えられる値を加算する。加算手段101は、平均差分自
乗計算手段96〜98によって与えられる値を加算す
る。比較手段102は、加算手段99〜101の出力値
の比較を行い、その値を最大にするクラスタを含む画像
のインデクスを焦点情報として出力する。
【0036】図10は、マスク生成手段11の構成例の
詳細を示している。比較手段200は、画像鮮鋭化手段
10から与えられる焦点情報を入力とし、この値が予め
定められた焦点画像に対応する場合には1を、対応しな
い場合には0を、マスク情報として出力する。
【0037】図11は、領域統合手段12の構成例の詳
細を示している。統計情報保持手段210、211、2
12は、画像鮮鋭化手段10から与えられるクラスタ単
位の輝度、色差に関する統計情報を保持し、クラスタ番
号生成手段213によって与えられるクラスタ番号に従
って、対応するクラスタの輝度、色差の統計情報を出力
する。クラスタ番号生成手段213は、クラスタ番号を
出力する。差分自乗計算手段214、215、216
は、それぞれ統計情報保持手段210、211、212
から与えられる2つのクラスタ単位の統計情報の差分自
乗を計算する。加算手段217は、差分自乗計算手段2
14、215、216の出力の和を計算する。比較手段
218は、加算手段217の出力が予め定められた値よ
りも小さな場合には1を、そうでない場合には0を、ク
ラスタ統合判定結果として出力する。クラスタ統合判定
結果が1の場合は、クラスタ統合が行われることを意味
する。クラスタ属性更新手段219は、画像鮮鋭化手段
10から与えられる画素単位のクラスタ属性情報と、ク
ラスタ番号生成手段213から与えられるクラスタ番号
と、比較手段218から与えられるクラスタ統合判定結
果を入力とし、クラスタ統合判定結果が1の場合には、
2つのクラスタが同じクラスタ番号を持つように、対応
するクラスタ番号に属する画素のクラスタ属性情報を更
新し、統合クラスタ情報として出力する。すなわち、統
合クラスタ情報は、画素単位に、各画素が含まれる統合
クラスタを表すインデクスである。
【0038】図12は、領域選択手段13の構成例の詳
細を示している。カウンタ220は、領域統合手段12
から与えられる統合クラスタ情報を入力とし、各統合ク
ラスタに含まれる画素数をカウントする。条件付きカウ
ンタ221は、領域統合手段12から与えられる統合ク
ラスタ情報と、マスク生成手段11から与えられるマス
ク情報を入力とし、各統合クラスタに含まれるマスク情
報が1の画素数をカウントする。除算手段222は、条
件付きカウンタ221から与えられる画素数をカウンタ
220から与えられる画素数で割った値を出力する。比
較手段223は、除算手段222の結果を入力とし、そ
の結果が既定値以上である場合には1を、それ以外の場
合には0を、物体検出情報として出力する。
【0039】次に、図2は、視差検出方式を用いた、本
発明の第二の実施の形態を示している。視差検出手段2
0は、M枚の視差の異なる画像を入力とし、1枚の基準
画像と、画素毎の視差情報と、領域分割結果としてのク
ラスタ情報を出力する。ただし、視差情報は、各画素毎
に求められた視差であり、クラスタ情報は、領域分割の
結果として与えられる各クラスタの輝度、色差の平均
値、重心位置、および各画素の属するクラスタ番号から
構成される。マスク生成手段21は、視差手段20から
与えられる視差情報を入力とし、ラフな物体の切り出し
に対応するマスク情報を出力とする。ただし、マスク情
報は、画素単位に、各画素が着目する視差範囲に含まれ
る場合を1、そうではない場合を0とする。領域統合手
段22は、視差検出手段20から与えられるクラスタ情
報を入力とし、統計的に類似した特徴を有するクラスタ
を統合して新たな統合クラスタを形成し、統合クラスタ
情報を出力する。ただし、統合クラスタ情報は、各画素
が含まれる統合クラスタを表すインデクスである。領域
選択手段13は、マスク生成手段11から与えられるマ
スク情報と、領域統合回路12から与えられる統合クラ
スタ情報を入力とし、各統合クラスタ毎にマスク情報が
1である画素の占める比率を計算し、この比率が既定値
を越える統合クラスタの集合として物体検出情報を出力
する。ただし、物体検出情報は、画素単位に、各画素が
検出物体を構成する統合領域に含まれる場合を1、含ま
れない場合を0とする。物体切り出し手段24は、1枚
の基準画像と、領域選択回路23から与えられる物体検
出情報との積を取り、その結果を検出物体として出力す
る。
【0040】図13は、視差検出手段20の詳細を示し
ている。M枚の視差の異なる画像の中から1枚を基準画
像#1とし、この基準画像と残りの画像の間で視差検出
を行い、画素単位の視差を決定する。領域分割手段12
1は、画像#1の画素値と、統計情報計算手段122に
よって与えられるクラスタ単位の統計情報と、視差補償
予測手段124によって与えられる視差補償予測画像を
用いて、文献1に示されている8次元の距離計算
【0041】
【数4】
【0042】を行い、画像#1の領域分割を実現する。
ただし、(Y,Cr,Cb)は着目画素の輝度、色差情
報、(x,y)は着目画素の位置情報、
【0043】
【外4】
【0044】はクラスタnの輝度、色差の平均値、
【0045】
【外5】
【0046】はクラスタnの重心位置、
【0047】
【外6】
【0048】はクラスタnに対して検出された視差ベク
トル
【0049】
【外7】
【0050】によって指し示される参照画像の画素値、
(w0 ,w1 ,w2 )は重み係数である。統計情報計算
手段122は、画像#1の画素値と、領域分割手段12
1によって与えられるクラスタ属性情報を入力とし、ク
ラスタ毎に画素値平均、画素値分散、重心位置等の計算
を行い、クラスタ単位の統計情報として出力する。視差
推定手段123は、基準画像#1の画素値と、画像#2
の画素値と、領域分割手段121によって与えられるク
ラスタ属性情報を用いて、視差補償予測画像の誤差が最
小となるような水平1次元の領域単位の視差ベクトルを
求める。視差補償予測手段124は、画像#2の画素値
と、視差推定手段123によって与えられる視差ベクト
ルを用いて、基準画像#1に対する視差補償予測画像を
作成する。以上の処理を繰り返すことで、基準画像#1
に対して、視差補償予測誤差を十分に低減した視差情報
を得ることができる。領域分割手段125、129、統
計情報計算手段126、130、視差推定手段127、
131、視差補償予測手段128、132の動作は、そ
れぞれ領域分割手段121、統計情報計算手段122、
視差推定手段123、視差補償予測手段124の動作に
等しい。重み付き視差検出手段133は、視差検出手段
123、127、131から与えられる複数の視差ベク
トルを入力とし、撮像系のベースラインの距離に応じた
重み付き平均として、最終的な画素単位の視差情報を出
力する。
【0051】図14は、領域分割手段121の構成例の
詳細を示している。差分自乗計算手段141は、基準画
像#1の輝度値と、統計情報計算手段122によって与
えられるクラスタ毎の輝度平均値を入力とし、それらの
差分の自乗を計算する。差分自乗計算手段142、14
3は、基準画像#1の色差値と、統計情報計算手段12
2によって与えられるクラスタ毎の色差平均値を入力と
し、それらの差分の自乗を計算する。差分自乗計算手段
144、145は、基準画像#1の画素の位置情報と、
統計情報計算手段122によって与えられるクラスタ毎
の重心位置を入力とし、それらの差分の自乗を計算す
る。重み付き加算手段149は、(4)式に従って、差
分自乗計算手段141〜148から与えられる差分自乗
値の重み付き加算を行う。重み付き加算手段151、1
52は、重み付き加算手段149とは異なるクラスタに
対して、重み付き加算手段149と同様の計算を行う。
比較手段152は、重み付き加算手段149、151、
152の出力値の比較を行い、この値を最小にするクラ
スタのインデクス、すなわち画素毎のクラスタ属性情報
を出力する。
【0052】統計情報計算手段122の構成は、前述の
統計情報計算手段192の構成に等しい。
【0053】図15は、視差推定手段123の構成例の
詳細を示している。画素シフト手段160は、シフト値
生成手段168によって与えられるシフト値に従い、画
像#2の画素の輝度値の水平方向のシフトを実行する。
画素シフト手段161、162は、シフト値生成手段1
68によって与えられるシフト値に従い、画像#2の画
素の色差値の水平方向のシフトを実行する。差分自乗計
算手段163は、画素シフト手段160によって水平方
向にシフトされた画像#2の画素の輝度値と、画像#1
の画素の輝度値の差分の自乗を出力する。差分自乗計算
手段164、165は、画素シフト手段161、162
によって水平方向にシフトされた画像#2の画素の色差
値と、画像#1の画素の色差値の差分の自乗を出力す
る。クラスタ毎の累算手段166は、シフト値生成手段
168によって与えられるシフト値と、領域分割手段1
21によって与えられるクラスタ属性情報に従い、シフ
ト値毎、かつクラスタ毎に、差分自乗計算手段163、
164、165の出力を累算する。シフト値生成手段1
68は、画素シフト値を出力とする。最小値判定手段1
67は、クラスタ単位に、クラスタ毎の累算手段166
によって与えられる累算差分自乗値を最小にするシフト
値を判定し、視差ベクトルとして出力する。
【0054】図16は、視差補償予測手段124の構成
例の詳細を示している。画素シフト手段170は、視差
推定手段123から与えられる視差ベクトルに従って、
画像#2の画素の輝度値の水平方向のシフトを実行す
る。画素シフト手段171、172は、視差推定手段1
23から与えられる視差ベクトルに従って、画像#2の
画素の色差値の水平方向のシフトを実行する。
【0055】マスク生成手段21の構成は、基本的にマ
スク生成手段11に同じであり、焦点情報を視差情報に
置き換え、入力された視差情報が予め定められた視差範
囲にある場合には1を、ない場合には0を、マスク情報
として出力する。
【0056】領域統合手段22、領域選択手段23の構
成は、それぞれ領域統合手段12、領域選択手段13の
構成に等しい。
【0057】次に、図3は、画像鮮鋭化方式と視差検出
方式を用いたが、本発明の第三の実施の形態を示してい
る。画像鮮鋭化手段30は、N枚の焦点位置の異なる画
像を入力とし、鮮鋭画像と、画素毎の焦点情報と、領域
分割結果としてのクラスタ情報を出力する。ただし、焦
点情報は、各画素がN枚の焦点画像のどれから得られた
かを示すインデクスであり、クラスタ情報は、領域分割
の結果として与えられる各クラスタの輝度、色差の平均
値、重心位置、および各画素の属するクラスタ番号から
構成される。画像鮮鋭化手段31、画像鮮鋭化手段32
の動作は、画像鮮鋭化手段30の動作に等しい。視差検
出手段33は、M枚の視差の異なる鮮鋭画像を入力と
し、画素毎の視差情報を出力する。マスク生成手段34
は、画像鮮鋭化手段30から与えられる焦点情報と、視
差検出手段33から与えられる視差情報を入力とし、ラ
フな物体の切り出しに対応するマスク情報を出力とす
る。ただし、マスク情報は、画素単位に、焦点情報に関
しては、各画素が着目している焦点画像に含まれる場合
を1、含まれない場合を0とし、視差情報に関しては、
各画素が着目している視差範囲に含まれる場合を1、含
まれない場合を0とし、それらの論理積を取ることで構
成される。領域統合手段35は、画像鮮鋭化手段30か
ら与えられるクラスタ情報を入力とし、統計的に類似し
た特徴を有するクラスタを統合して新たな統合クラスタ
を形成し、統合クラスタ情報を出力する。ただし、統合
クラスタ情報は、各画素が含まれる統合クラスタを表す
インデクスである。領域選択手段36は、マスク生成手
段34から与えられるマスク情報と、領域統合回路22
から与えられる統合クラスタ情報を入力とし、各統合ク
ラスタ毎にマスク情報が1である画素の占める比率を計
算し、この比率が既定値を越える統合クラスタの集合と
して物体検出情報を出力する。ただし、物体検出情報
は、画素単位に、各画素が検出物体を構成する統合領域
に含まれる場合を1、含まれない場合を0とする。物体
切り出し手段37は、1枚の鮮鋭画像と、領域選択回路
36から与えられる物体検出情報との積を取り、その結
果を検出物体として出力する。
【0058】図17は、マスク生成手段34の構成例の
詳細を示している。比較手段201は、画像鮮鋭化手段
30から与えられる焦点情報を入力とし、この値が予め
定められた焦点画像に対応する場合には1を、対応しな
い場合には0を出力とする。比較手段202は、視差検
出手段33から与えられる視差情報を入力とし、この値
が予め定められた視差範囲に含まれる場合には1を、含
まれない場合には0を出力とする。論理積計算手段20
3は、比較手段201と比較手段202の出力の論理積
を計算し、マスク情報として出力とする。
【0059】領域統合手段35、領域選択手段36の構
成は、それぞれ領域統合手段12、領域選択手段13の
構成に等しい。
【0060】次に、図4は、画像鮮鋭化方式と視差検出
方式を用いた、本発明の第四の実施の形態を示してい
る。画像鮮鋭化手段40は、N枚の焦点位置の異なる画
像を入力とし、鮮鋭画像と、画素毎の焦点情報と、領域
分割結果としてのクラスタ情報を出力する。ただし、焦
点情報は、各画素がN枚の焦点画像のどれから得られた
かを示すインデクスであり、クラスタ情報は、領域分割
の結果として与えられる各クラスタの輝度、色差の平均
値、重心位置、および各画素の属するクラスタ番号から
構成される。画像鮮鋭化手段41、画像鮮鋭化手段42
の動作は、画像鮮鋭化手段40の動作に等しい。視差検
出手段43は、M枚の視差の異なる鮮鋭画像を入力と
し、画素毎の視差情報を出力する。マスク生成手段44
は、画像鮮鋭化手段40から与えられる焦点情報と、視
差検出手段43から与えられる視差情報を入力とし、ラ
フな物体の切り出しに対応するマスク情報を出力とす
る。ただし、マスク情報は、画素単位に、焦点情報に関
しては、各画素が着目している焦点画像に含まれる場合
を1、含まれない場合を0とし、視差情報に関しては、
各画素が着目している視差範囲に含まれる場合を1、含
まれない場合を0とし、それらの論理積を取ることで構
成される。領域統合手段45は、視差検出手段43から
与えられるクラスタ情報を入力とし、統計的に類似した
特徴を有するクラスタを統合して新たな統合クラスタを
形成し、統合クラスタ情報を出力する。ただし、投合ク
ラスタ情報は、各画素が含まれる統合クラスタを表すイ
ンデクスであう。領域選択手段46は、マスク生成手段
44から与えられるマスク情報と、領域統合回路45か
ら与えられる統合クラスタ情報を入力とし、各統合クラ
スタ毎にマスク情報が1である画素の占める比率を計算
し、この比率が既定値を越える統合クラスタの集合とし
て物体検出情報を出力する。ただし、物体検出情報は、
画素単位に、各画素が検出物体を構成する統合領域に含
まれる場合を1、含まれない場合を0とする。物体切り
出し手段47は、1枚の鮮鋭画像と、領域選択回路46
から与えられる物体検出情報との積を取り、その結果を
検出物体として出力する。
【0061】マスク生成手段44、領域統合手段45、
領域選択手段46の構成は、それぞれマスク生成手段3
4、領域統合手段12、領域選択手段13の構成に等し
い。
【0062】
【発明の効果】以上説明したように、本発明により、誤
検出の少ない安定した物体検出を実現することができ
る。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態を示すブロック図で
ある。
【図2】本発明の第2の実施の形態を示すブロック図で
ある。
【図3】本発明の第3の実施の形態を示すブロック図で
ある。
【図4】本発明の第4の実施の形態を示すブロック図で
ある。
【図5】本発明が対象とする焦点位置の異なる画像と視
差の異なる画像を示す図である。
【図6】画像鮮鋭化手段10の詳細を示すブロック図で
ある。
【図7】領域分割手段191の詳細を示すブロック図で
ある。
【図8】統計情報計算手段192の詳細を示すブロック
図である。
【図9】合焦判定手段196の詳細を示すブロック図で
ある。
【図10】マスク生成手段11の詳細を示すブロック図
である。
【図11】領域統合手段12の詳細を示すブロック図で
ある。
【図12】領域選択手段13の詳細を示すブロック図で
ある。
【図13】視差検出手段20の詳細を示すブロック図で
ある。
【図14】領域分割手段121の詳細を示すブロック図
である。
【図15】視差推定手段123の詳細を示すブロック図
である。
【図16】視差補償予測手段124の詳細を示すブロッ
ク図である。
【図17】マスク生成手段34の詳細を示すブロック図
である。
【符号の説明】
10 画像鮮鋭化手段 11 マスク生成手段 12 領域統合手段 13 領域選択手段 14 物体切り出し手段 20 視差検出手段 21 マスク生成手段 22 領域統合手段 23 領域選択手段 24 物体切り出し手段 30 画像鮮鋭化手段 31 画像鮮鋭化手段 32 画像鮮鋭化手段 33 視差検出手段 34 マスク生成手段 35 領域統合手段 36 領域選択手段 37 物体切り出し手段 40 画像鮮鋭化手段 41 画像鮮鋭化手段 42 画像鮮鋭化手段 43 視差検出手段 44 マスク生成手段 45 領域統合手段 46 領域選択手段 47 物体切り出し手段 60 差分自乗計算手段 61 差分自乗計算手段 62 差分自乗計算手段 63 差分自乗計算手段 64 差分自乗計算手段 65 重み付き加算手段 66 重み付き加算手段 67 重み付き加算手段 68 比較手段 70 クラスタ毎の累算手段 71 クラスタ毎の累算手段 72 クラスタ毎の累算手段 73 クラスタ毎の累算手段 74 クラスタ毎の累算手段 75 クラスタ毎のカウンタ 76 除算手段 77 除算手段 78 除算手段 79 除算手段 80 除算手段 90 平均差分自乗計算手段 91 平均差分自乗計算手段 92 平均差分自乗計算手段 93 平均差分自乗計算手段 94 平均差分自乗計算手段 95 平均差分自乗計算手段 96 平均差分自乗計算手段 97 平均差分自乗計算手段 98 平均差分自乗計算手段 99 加算手段 100 加算手段 101 加算手段 102 比較手段 121 領域分割手段 122 統計情報計算手段 123 視差推定手段 124 視差補償予測手段 125 領域分割手段 126 統計情報計算手段 127 視差推定手段 128 視差補償予測手段 129 領域分割手段 130 統計情報計算手段 131 視差推定手段 132 視差補償予測手段 133 重み付き視差計算手段 141 差分自乗計算手段 142 差分自乗計算手段 143 差分自乗計算手段 144 差分自乗計算手段 145 差分自乗計算手段 146 差分自乗計算手段 147 差分自乗計算手段 148 差分自乗計算手段 149 重み付き加算手段 150 重み付き加算手段 151 重み付き加算手段 152 比較手段 160 画素シフト手段 161 画素シフト手段 162 画素シフト手段 163 差分自乗計算手段 164 差分自乗計算手段 165 差分自乗計算手段 166 クラスタ毎の累算手段 167 最小値判定手段 168 シフト値生成手段 170 画素シフト手段 171 画素シフト手段 172 画素シフト手段 191 領域分割手段 192 統計情報計算手段 193 統計情報計算手段 194 統計情報計算手段 195 統計情報計算手段 196 合焦判定手段 197 画像合成手段 200 比較手段 201 比較手段 202 比較手段 203 論理積計算手段 210 統計情報保持手段 211 統計情報保持手段 212 統計情報保持手段 213 クラスタ番号生成手段 214 差分自乗計算手段 215 差分自乗計算手段 216 差分自乗計算手段 217 加算手段 218 比較手段 219 クラスタ属性更新手段 220 カウンタ 221 条件付きカウンタ 222 除算手段 223 比較手段

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】光軸はほぼ等しいが焦点位置の異なる複数
    枚の画像を入力として1枚の鮮鋭画像と焦点情報とクラ
    スタ情報を作成する画像鮮鋭化手段と、前記焦点情報か
    ら第1の物体検出情報を作成するマスク生成手段と、前
    記クラスタ情報から統合クラスタ情報を作成する領域統
    合手段と、前記第1の物体検出情報と前記統合クラスタ
    情報から第2の物体検出情報を作成する領域選択手段
    と、前記鮮鋭画像と前記第2の物体検出情報から物体の
    切り出しを行う手段を備えることを特徴とする多眼画像
    からの物体検出方式。
  2. 【請求項2】光軸の異なる複数枚の画像を入力として視
    差情報とクラスタ情報を作成する視差検出手段と、前記
    視差情報から第1の物体検出情報を作成するマスク生成
    手段と、前記画像のクラスタ情報から統合クラスタ情報
    を作成する領域統合手段と、前記第1の物体検出情報と
    前記統合クラスタ情報から第2の物体検出情報を作成す
    る領域選択手段と、前記視差の異なる画像と前記第2の
    物体検出情報から物体の切り出しを行う手段を備えるこ
    とを特徴とする多眼画像からの物体検出方式。
  3. 【請求項3】光軸はほぼ等しいが焦点位置の異なる複数
    枚の画像を入力として第1の鮮鋭画像と焦点情報とクラ
    スタ情報を作成する第1の画像鮮鋭化手段と、光軸はほ
    ぼ等しいが焦点位置の異なる複数枚の画像を入力として
    鮮鋭画像を得る手段を前記第1の画像鮮鋭化手段とは別
    に視点を変えて複数個備え、それらによって得られた視
    点の異なる複数枚の鮮鋭画像から視差情報を作成する視
    差検出手段と、前記焦点情報と前記視差情報から第1の
    物体検出情報を作成するマスク生成手段と、前記クラス
    タ情報から統合クラスタ情報を作成する領域統合手段
    と、前記第1の物体検出情報と前記統合クラスタ情報か
    ら第2の物体検出情報を作成する領域選択手段と、前記
    第1の鮮鋭画像と前記第2の物体検出情報から物体の切
    り出しを行う手段を備えることを特徴とする多眼画像か
    らの物体検出方式。
  4. 【請求項4】光軸はほぼ等しいが焦点位置の異なる複数
    枚の画像を入力として第1の鮮鋭画像と焦点情報を作成
    する第1の画像鮮鋭化手段と、光軸はほぼ等しいが焦点
    位置の異なる複数枚の画像を入力として鮮鋭画像を得る
    手段を前記第1の画像鮮鋭化手段とは別に視点を変えて
    複数個備え、それらによって得られた視点の異なる複数
    枚の鮮鋭画像から視差情報とクラスタ情報を作成する視
    差検出手段と、前記焦点情報と前記視差情報から第1の
    物体検出情報を作成するマスク生成手段と、前記クラス
    タ情報から統合クラスタ情報を作成する領域統合手段
    と、前記第1の物体検出情報と前記統合クラスタ情報か
    ら第2の物体検出情報を作成する領域選択手段と、前記
    第1の鮮鋭画像と前記第2の物体検出情報から物体の切
    り出しを行う手段を備えることを特徴とする多眼画像か
    らの物体検出方式。
JP8026349A 1996-02-14 1996-02-14 多眼画像からの物体検出方式 Expired - Fee Related JP2891159B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP8026349A JP2891159B2 (ja) 1996-02-14 1996-02-14 多眼画像からの物体検出方式
US08/800,402 US5917936A (en) 1996-02-14 1997-02-14 Object detecting system based on multiple-eye images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8026349A JP2891159B2 (ja) 1996-02-14 1996-02-14 多眼画像からの物体検出方式

Publications (2)

Publication Number Publication Date
JPH09218950A true JPH09218950A (ja) 1997-08-19
JP2891159B2 JP2891159B2 (ja) 1999-05-17

Family

ID=12190991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8026349A Expired - Fee Related JP2891159B2 (ja) 1996-02-14 1996-02-14 多眼画像からの物体検出方式

Country Status (2)

Country Link
US (1) US5917936A (ja)
JP (1) JP2891159B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236497A (ja) * 2000-01-25 2001-08-31 Eastman Kodak Co 写真画像のクロッピングされズームされた変形を自動的に形成する方法
JP2001258599A (ja) * 2000-03-23 2001-09-25 Japan Science & Technology Corp 細胞系譜抽出方法
JP2001311730A (ja) * 2000-04-27 2001-11-09 Japan Science & Technology Corp 細胞系譜抽出方法
JP2007504562A (ja) * 2003-09-04 2007-03-01 サーノフ コーポレーション 1つの画像から虹彩認証を行う方法および装置
JP2016505836A (ja) * 2012-12-19 2016-02-25 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 流体サンプル中の粒子の分類のためのシステム及び方法

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TR199700058A2 (xx) * 1997-01-29 1998-08-21 Onural Levent Kurallara dayalı hareketli nesne bölütlemesi.
JPH10222663A (ja) * 1997-01-31 1998-08-21 Yamaha Motor Co Ltd 画像認識システム及び装置
US6148120A (en) * 1997-10-30 2000-11-14 Cognex Corporation Warping of focal images to correct correspondence error
JP3303128B2 (ja) * 1998-04-15 2002-07-15 東京大学長 複数画像を用いる画像処理方法およびそれに用いる複数画像同時撮像型カメラ装置
US6297844B1 (en) * 1999-11-24 2001-10-02 Cognex Corporation Video safety curtain
US6674877B1 (en) * 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
US6674925B1 (en) * 2000-02-08 2004-01-06 University Of Washington Morphological postprocessing for object tracking and segmentation
WO2001071663A1 (fr) * 2000-03-23 2001-09-27 Japan Science And Technology Corporation Methode d'extraction de lignee cellulaire
US7167575B1 (en) 2000-04-29 2007-01-23 Cognex Corporation Video safety detector with projected pattern
US6701005B1 (en) 2000-04-29 2004-03-02 Cognex Corporation Method and apparatus for three-dimensional object segmentation
US6792134B2 (en) * 2000-12-19 2004-09-14 Eastman Kodak Company Multi-mode digital image processing method for detecting eyes
US7116800B2 (en) * 2001-05-30 2006-10-03 Eaton Corporation Image segmentation system and method
US7369680B2 (en) * 2001-09-27 2008-05-06 Koninklijke Phhilips Electronics N.V. Method and apparatus for detecting an event based on patterns of behavior
US7161579B2 (en) 2002-07-18 2007-01-09 Sony Computer Entertainment Inc. Hand-held computer interactive device
US7883415B2 (en) * 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US7646372B2 (en) * 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US7102615B2 (en) * 2002-07-27 2006-09-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
US8797260B2 (en) * 2002-07-27 2014-08-05 Sony Computer Entertainment Inc. Inertially trackable hand-held controller
US8947347B2 (en) * 2003-08-27 2015-02-03 Sony Computer Entertainment Inc. Controlling actions in a video game unit
US7623115B2 (en) * 2002-07-27 2009-11-24 Sony Computer Entertainment Inc. Method and apparatus for light input device
US8160269B2 (en) * 2003-08-27 2012-04-17 Sony Computer Entertainment Inc. Methods and apparatuses for adjusting a listening area for capturing sounds
US9174119B2 (en) 2002-07-27 2015-11-03 Sony Computer Entertainement America, LLC Controller for providing inputs to control execution of a program when inputs are combined
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US7854655B2 (en) 2002-07-27 2010-12-21 Sony Computer Entertainment America Inc. Obtaining input for controlling execution of a game program
US8313380B2 (en) * 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US7627139B2 (en) * 2002-07-27 2009-12-01 Sony Computer Entertainment Inc. Computer image and audio processing of intensity and input devices for interfacing with a computer program
US8686939B2 (en) * 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US7803050B2 (en) * 2002-07-27 2010-09-28 Sony Computer Entertainment Inc. Tracking device with sound emitter for use in obtaining information for controlling game program execution
US8139793B2 (en) * 2003-08-27 2012-03-20 Sony Computer Entertainment Inc. Methods and apparatus for capturing audio signals based on a visual image
US7850526B2 (en) * 2002-07-27 2010-12-14 Sony Computer Entertainment America Inc. System for tracking user manipulations within an environment
US8233642B2 (en) * 2003-08-27 2012-07-31 Sony Computer Entertainment Inc. Methods and apparatuses for capturing an audio signal based on a location of the signal
US9474968B2 (en) 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
US7918733B2 (en) * 2002-07-27 2011-04-05 Sony Computer Entertainment America Inc. Multi-input game control mixer
US7760248B2 (en) 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US9682319B2 (en) 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
US9177387B2 (en) 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US7505862B2 (en) * 2003-03-07 2009-03-17 Salmon Technologies, Llc Apparatus and method for testing electronic systems
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
US20070223732A1 (en) * 2003-08-27 2007-09-27 Mao Xiao D Methods and apparatuses for adjusting a visual image based on an audio signal
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US10279254B2 (en) 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
US8323106B2 (en) 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
US7663689B2 (en) * 2004-01-16 2010-02-16 Sony Computer Entertainment Inc. Method and apparatus for optimizing capture device settings through depth information
US20050249429A1 (en) * 2004-04-22 2005-11-10 Fuji Photo Film Co., Ltd. Method, apparatus, and program for image processing
KR100603603B1 (ko) * 2004-12-07 2006-07-24 한국전자통신연구원 변위 후보 및 이중 경로 동적 프로그래밍을 이용한 스테레오 변위 결정 장치 및 그 방법
US7596751B2 (en) * 2005-04-22 2009-09-29 Hewlett-Packard Development Company, L.P. Contact sheet based image management
US20110014981A1 (en) * 2006-05-08 2011-01-20 Sony Computer Entertainment Inc. Tracking device with sound emitter for use in obtaining information for controlling game program execution
US8310656B2 (en) * 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
US8781151B2 (en) 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
US20090237530A1 (en) * 2008-03-20 2009-09-24 Ilia Ovsiannikov Methods and apparatuses for sharpening images
US8150169B2 (en) * 2008-09-16 2012-04-03 Viewdle Inc. System and method for object clustering and identification in video
GB2483434A (en) * 2010-08-31 2012-03-14 Sony Corp Detecting stereoscopic disparity by comparison with subset of pixel change points
US8582866B2 (en) * 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
JP5882805B2 (ja) * 2012-03-26 2016-03-09 キヤノン株式会社 情報処理装置、その処理方法及びプログラム
US10057498B1 (en) * 2013-03-15 2018-08-21 Cognex Corporation Light field vision system camera and methods for using the same
JP5999127B2 (ja) * 2014-03-12 2016-09-28 トヨタ自動車株式会社 画像処理装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5534917A (en) * 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5359671A (en) * 1992-03-31 1994-10-25 Eastman Kodak Company Character-recognition systems and methods with means to measure endpoint features in character bit-maps
US5309522A (en) * 1992-06-30 1994-05-03 Environmental Research Institute Of Michigan Stereoscopic determination of terrain elevation
US5513275A (en) * 1993-01-12 1996-04-30 Board Of Trustees Of The Leland Stanford Junior University Automated direct patterned wafer inspection
US5768415A (en) * 1995-09-08 1998-06-16 Lucent Technologies Inc. Apparatus and methods for performing electronic scene analysis and enhancement

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236497A (ja) * 2000-01-25 2001-08-31 Eastman Kodak Co 写真画像のクロッピングされズームされた変形を自動的に形成する方法
JP4566416B2 (ja) * 2000-01-25 2010-10-20 イーストマン コダック カンパニー 写真画像のクロッピングされズームされた変形を自動的に形成する方法
JP2001258599A (ja) * 2000-03-23 2001-09-25 Japan Science & Technology Corp 細胞系譜抽出方法
JP2001311730A (ja) * 2000-04-27 2001-11-09 Japan Science & Technology Corp 細胞系譜抽出方法
JP2007504562A (ja) * 2003-09-04 2007-03-01 サーノフ コーポレーション 1つの画像から虹彩認証を行う方法および装置
JP2016505836A (ja) * 2012-12-19 2016-02-25 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 流体サンプル中の粒子の分類のためのシステム及び方法

Also Published As

Publication number Publication date
JP2891159B2 (ja) 1999-05-17
US5917936A (en) 1999-06-29

Similar Documents

Publication Publication Date Title
JP2891159B2 (ja) 多眼画像からの物体検出方式
EP1958149B1 (en) Stereoscopic image display method and apparatus, method for generating 3d image data from a 2d image data input and an apparatus for generating 3d image data from a 2d image data input
DE69922183T2 (de) Gesichtserkennung aus videobildern
US6556704B1 (en) Method for forming a depth image from digital image data
CN101542529B (zh) 图像的深度图的生成方法和图像处理单元
US6504569B1 (en) 2-D extended image generation from 3-D data extracted from a video sequence
US6490364B2 (en) Apparatus for enhancing images using flow estimation
Wang et al. Automatic natural video matting with depth
JP3055438B2 (ja) 3次元画像符号化装置
US9672609B1 (en) Method and apparatus for improved depth-map estimation
EP1418766A2 (en) Method and apparatus for processing images
US8867826B2 (en) Disparity estimation for misaligned stereo image pairs
Ko et al. 2D to 3D stereoscopic conversion: depth-map estimation in a 2D single-view image
Moustakas et al. Stereoscopic video generation based on efficient layered structure and motion estimation from a monoscopic image sequence
CN109493373A (zh) 一种基于双目立体视觉的立体匹配方法
Leung et al. An energy minimisation approach to stereo-temporal dense reconstruction
Leung et al. Fast stereo matching by iterated dynamic programming and quadtree subregioning
KR20160085708A (ko) 멀티뷰 영상들에 대한 슈퍼픽셀들을 생성하기 위한 방법 및 장치
Doulamis et al. Unsupervised semantic object segmentation of stereoscopic video sequences
An et al. Object segmentation using stereo images
Schwarz et al. Depth map upscaling through edge-weighted optimization
Aboali et al. Performance analysis between basic block matching and dynamic programming of stereo matching algorithm
US8934055B1 (en) Clustering based motion layer detection
US9736456B1 (en) Two dimensional to three dimensional video conversion
Naemura et al. Three-dimensional segmentation of multiview images based on disparity estimation

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19990126

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080226

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090226

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100226

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100226

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110226

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110226

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120226

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120226

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130226

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130226

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140226

Year of fee payment: 15

LAPS Cancellation because of no payment of annual fees