JP7391542B2 - 画像処理システム、画像処理方法、およびプログラム - Google Patents

画像処理システム、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP7391542B2
JP7391542B2 JP2019104733A JP2019104733A JP7391542B2 JP 7391542 B2 JP7391542 B2 JP 7391542B2 JP 2019104733 A JP2019104733 A JP 2019104733A JP 2019104733 A JP2019104733 A JP 2019104733A JP 7391542 B2 JP7391542 B2 JP 7391542B2
Authority
JP
Japan
Prior art keywords
image
foreground
camera
mask
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019104733A
Other languages
English (en)
Other versions
JP2020197989A (ja
JP2020197989A5 (ja
Inventor
究 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019104733A priority Critical patent/JP7391542B2/ja
Priority to US16/889,075 priority patent/US11838674B2/en
Publication of JP2020197989A publication Critical patent/JP2020197989A/ja
Publication of JP2020197989A5 publication Critical patent/JP2020197989A5/ja
Application granted granted Critical
Publication of JP7391542B2 publication Critical patent/JP7391542B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • G06T2207/30228Playing field

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮像画像からオブジェクトに関するデータを生成する技術に関する。
異なる位置に設置された複数のカメラで同期撮像を行い、当該撮像により得られた複数の画像を用いて、実際には存在しないカメラからの仮想視点画像を含む仮想視点コンテンツを生成する技術が注目されている。
非特許文献1には、複数の画像から対象物体のシルエットマスクを抽出し、視体積交差法による3次元モデル生成に関する技術が記載されている。
特開2001―43458号公報
A.Laurentini、"The visual hull concept for silhouette―based image understanding"、IEEE Transcriptions Pattern Analysis and Machine Intelligence、Vol.16、No.2、pp.150-162、Feb.1994
複数の視点による撮像は、様々な環境下で行われる。例えば、快晴の場合における、炎天下などの外部からの光が強い場所と日影の組み合わせ、夜間における強力な照明とそれが当たらない部分の組み合わせ、強い逆光の条件での撮像などにおいて、被写体としてダイナミックレンジが非常に大きくなるケースがある。ダイナミックレンジが大きいと、撮像画像の明るい部分や暗い部分から、前景画像や、白飛びや黒潰れの無いテクスチャを取得することは困難であった。すなわち、明るさのダイナミックレンジが広いオブジェクトあるいは撮像環境であると、撮像画像からオブジェクトに関するデータを適切に生成することができなかった。
本発明は、明るさのダイナミックレンジが広いオブジェクトあるいは撮像環境であっても、オブジェクトに関するデータを適切に生成することを目的としている。
本発明の一態様に係る画像処理システムは、複数の撮像手段によってオブジェクトを撮像することにより取得された複数の撮像画像それぞれに対する、前記オブジェクトを抽出するための複数の前景マスクを取得する第一の取得手段と、前記複数の撮像画像それぞれにおいて出値が不適切である領域を検出して、前記複数の撮像画像に対応する、露出不適切領域をマスクするための複数の不適切領域マスクを取得する第二の取得手段と、前記複数の前景マスクおよび前記複数の不適切領域マスクに基づき、前記オブジェクトの形状を表す三次元形状データを生成する生成手段とを有し、前記第二の取得手段は、前記複数の撮像手段のうち、第一の輝度レンジに設定された前記撮像手段によって撮像することにより取得された前記撮像画像にて画素値が前記第一の輝度レンジの上限閾値よりも大きい部分を第一の不適切領域として検出し、前記複数の撮像手段のうち、前記第一の輝度レンジより相対的に輝度が高い第二の輝度レンジに設定された前記撮像手段によって撮像することにより取得された前記撮像画像にて画素値が前記第二の輝度レンジの下限閾値よりも小さい部分を第二の不適切領域として検出し、前記生成手段は、前記露出値が不適切である領域に対応する前記前景マスクが形状データの生成用のシルエットマスクとして使用可能である場合、前記前景マスクを用いて前記三次元形状データを生成することを特徴とする。
本発明によれば、明るさのダイナミックレンジが広いオブジェクトあるいは撮像環境であっても、オブジェクトに関するデータを適切に生成することができる。
視体積交差法による3次元モデルの生成方法を示す図 画像処理システムの概略構成を示す図 カメラの姿勢を説明する図 カメラおよび撮像対象を説明する図 各カメラと輝度カバー領域との関係例を示す図 所定の露出値のカメラで撮像した画像例を示す図 カメラ処理部および本体処理部の内部構成を含むブロック図 Hカメラの撮像画像に基づく画像例を示す図 Lカメラの撮像画像に基づく画像例を示す図 形状推定処理の手順例を示すフローチャート カメラ処理部および本体処理部の内部構成を含むブロック図 形状推定処理の手順例を示すフローチャート カメラ処理部および本体処理部の内部構成を含むブロック図 所定の露出値のカメラで撮像した画像例を示す図 カメラと前景オブジェクトとの関係を示す図 カメラ選択および露出補正を説明する図 色付け処理の手順例を示すフローチャート 画像処理装置のハードウェア構成例を示す図
本実施形態の説明に先立ち、視体積交差法による3次元モデル(3次元形状データ)の生成について説明する。
視体積交差法は、例えば複数のカメラで撮像して取得した撮像画像を基に3次元モデルを生成する代表的な手法であり、近年それに基づくシステムが数多く開発されている。図1は、視体積交差法の基本原理を示す図である。図1(a)は、ある対象物体(オブジェクト)(C)を撮像装置であるカメラにより撮像したときの図である。図1(a)に示すように、対象物体(C)をカメラで撮像すると、カメラが撮像した撮像画像の撮像面(S)に対象物体を示す前景の二次元シルエット(前景領域)を表すマスク画像(Da)が得られる。図1(b)は、カメラの投影中心(Pa)からマスク画像(Da)の輪郭上の各点を通すように、3次元空間中に広がる錐体を示す図である。この錐体のことを当該カメラによる視体積Vaと呼ぶ。
図1(c)は、複数の視体積によりオブジェクトの3次元(前景の3次元モデル)が求まる様子を示す図である。図1(c)に示すように、位置が異なる複数のカメラ(図示例では、カメラA、カメラB、カメラCの3台)によって同期撮像された画像に基づく前景領域からカメラごとの複数の視体積を求める。視体積交差法は、複数のカメラの視体積の交差(共通領域)を求めることによって、対象物体の前景の3次元モデルを求める方法である。
本明細書では、以降、マスク画像Daに相当するものをシルエットマスクと表現し、オブジェクトがシルエットマスクにあることを主張する部分を“1”とし、オブジェクトがシルエットマスクに無いことを主張する部分を“0”とする。
以下、本発明を実施するための形態について図面を用いて説明する。ただし、この実施形態に記載されている構成要素はあくまで例示であり、本発明の範囲をそれらに限定する趣旨のものではない。また、実施形態で説明されている構成要素の組み合わせのすべてが、課題を解決するための手段に必須のものとは限らず、種々の変形及び変更が可能である。
[実施形態1]
図2は、本実施形態の画像処理システム(以下、システムと称す)200の概略構成を説明する図である。システム200は、複数の撮像装置であるカメラ201と画像処理装置202とを有する。複数のカメラ201は、競技場のフィールド210の周囲に並べて配置される。複数のカメラ201は、複数のカメラ201による複数の視点から競技場のフィールド210を撮像するように構成されている。競技場のフィールド210上では、例えばサッカーなどの競技が行われており、競技場のフィールド210上に前景のオブジェクトとなる人物211が存在しているものとする。オブジェクトとは、例えば選手、監督、または審判などの特定の人物である。オブジェクトは、ボール、またはゴールなどのように画像パターンが予め定められている物体であってもよい。また、オブジェクトは動体であってもよいし、静止体であってもよい。
図3は、カメラの姿勢を説明する図である。カメラ201は、競技場のフィールド210(撮像空間の底面)上方にて、カメラの視線方向が競技場のフィールド210に対して所定の角度θ(例えば5度~80度)となるように設置される。このように設置されたカメラ201によれば、フィールド210上方の高い位置からフィールド210を俯瞰できる。
カメラ201の設置角度θは、全てのカメラで同じ値である必要はなく、例えば個体ごとに大幅に異なる値でも良い。あるいは、複数のカメラは、例えば、各カメラに取り付けた三脚を1段伸ばした状態、2段伸ばした状態や3段伸ばした状態など、複数段に分かれて並んでいてもよい。
各カメラ201は、データ伝送のための画像処理および入出力ハードウェアを備える。カメラ201同士は、例えばネットワークケーブルを使ってリング型のネットワーク接続がされており、ネットワークを介して隣のカメラへ画像データを順次伝送するように構成されている。
すなわち、カメラ201は、受信した画像データと、自身のカメラ201で撮像して得られた画像データとを併せて隣のカメラに伝送するように構成されている。カメラ201のうちの一つは画像処理装置202と接続されている。各カメラ201の画像データは、詳細につき後述する、各カメラ201に設けられたカメラアダプタ(不図示)のカメラ処理部710で所定の情報処理(画像処理)が行われた後、ネットワーク及びカメラ201を介して画像処理装置202まで伝送される。画像処理装置202の本体処理部720では、受信した画像データを用いて、仮想視点画像を生成する処理が行われる。
システム200が有する複数のカメラ201の露出設定について、図4、5、6を用いて説明する。
図4は、カメラおよび撮像対象を説明する図である。図4では、システム200が有する複数のカメラ201の一部を示している。ここでは、システム200が有する、Cam01、・・・、Cam60の60台のカメラ201のうち、Cam01~Cam06の6台のカメラ201を例として説明する。なお、システム200が有するカメラ201の数量は60台に限定されず、60台未満であっても61台以上であってもよい。
システム200では、複数のカメラ201はそれぞれ露出設定を変更可能となっている。★印の付いたカメラは、通常より露出値を上げる方向に制御するように指定され他のカメラの露出値よりも相対的に高い露出値に設定され、少なくとも低輝度部分をカバーするように露出値が設定されたカメラ(以下、Lカメラと称す)であるとする。ここでは、カメラCam01、Cam03、Cam05、Cam07、・・・、Cam59は、Lカメラであるとする。☆印の付いたカメラは、通常より露出値を下げる方向に制御するように指定され他のカメラの露出値よりも相対的に低い露出値に設定され、少なくとも高輝度部分をカバーするように露出値が設定されたカメラ(以下、Hカメラと称す)であるとする。ここでは、カメラCam02、Cam04、Cam06、Cam08、・・・、Cam60は、Hカメラであるとする。
システム200では、LカメラとHカメラとが、横方向にて交互に配置される。カメラの配置は、これに限定されない。LカメラとHカメラは、必要に応じて別の形で分散配置されても良い。例えば、LカメラおよびHカメラは上下複数段に配置され、段ごとにLカメラとHカメラに分かれて配置されたり、同一段にてLカメラとHカメラが交互にまたはランダムに配置されたりしてもよく、適切に分散して配置されていればよい。
ここで、LカメラおよびHカメラとその撮像領域内の明暗領域との関係について説明する。本実施形態では、例えば晴天であり、フィールド210には、強い日差しが当たり明るくなっている領域と、建物の影となり暗くなっている領域とが存在する場合を例に説明する。
図4に示すように、フィールド210上の一番明るい部分に該当する領域を領域Aとし、一番暗い部分に該当する領域を領域Cとし、領域Aおよび領域のどちらでもない部分に該当する領域を領域Bとする。領域A、領域B、および領域Cのそれぞれに存在する被写体を前景オブジェクトA、前景オブジェクトB、前景オブジェクトCとする。以下、カメラで撮像された画像において、前景オブジェクトに該当する部分を、単に「前景」と称する。また、A、B、Cなどの区別はそのまま対応するものとする。なお、カメラ201のCam01~Cam06はフィールド上の必要な対象領域を画角内に含むように設置され、それぞれの三次元的な位置・姿勢に関する情報は予め取得されている。
図5は、図4に示すカメラ201のCam01~Cam06でフィールド210を撮像したときにカバーする輝度レンジ例を表す図である。なお、図5(a)、(b)では、縦方向が輝度の大きさを示し、上方向に向かうに従い輝度が大きいことを示している。
図5(a)は、全て同じに露出設定されたカメラで撮像した従来例を示す図である。従来例では、図5(a)に示すように、Cam01~Cam06全ての輝度レンジは、全て同じであって、Level_01~Level_02となる。
図5(b)は、LカメラとHカメラに交互に設定されたカメラで撮像した本実施形態例を示す図である。本実施形態例では、図5(b)に示すように、Cam01、Cam03、Cam05に関し露出値をΔL_1だけ下げ、Cam01、Cam03、Cam05の輝度レンジがLevel_1L~Level_2Lとなる。Cam02、Cam04、Cam06に関し露出値をΔL_2だけ上げ、Cam02、Cam04、Cam06の輝度レンジがLevel_1H~Level_2Hとなる。このように設定し、Lカメラ、Hカメラで取得した画像を前景の形状推定時、色付け時にHDR統合することで、従来の輝度レンジLevel_01~Level_02に対してΔL_1+ΔL_2だけ広い輝度レンジにおいて、仮想視点画像を生成できる。なお、ΔL_1およびΔL_2の大きさは、適宜変更可能である。
図6は、図4に示すカメラ201のCam01でフィールド210を撮像して取得した画像例に示す図である。図6(a)は、通常より露出値を下げて設定されたカメラ、すなわち、上述のHカメラによる画像例を示す図である。図4に示す領域Cに対応する画像610の領域Cでは、前景Cおよび領域Cが真っ黒になり前景Cを領域Cと区別できず黒潰れまたは黒潰れに近い状態となる。図4に示す領域A、Bに対応する画像610の領域A、Bでは、前景Aおよび前景Bが真っ黒にも真っ白にもならず、前景Aおよび前景Bそれぞれを領域Aおよび領域Bと区別でき、適切に撮像された状態となる。このような画像610では、領域Cにおける前景Cの形状およびテクスチャ情報は、欠落あるいは品位の低いものとなる。
図6(b)は、通常より露出値を上げて設定されたカメラ、すなわち、上述のLカメラによる画像例を示す図である。図4に示す領域Aに対応する画像620の領域Aでは、前景Aおよび領域Aが真っ白になり前景Aを領域Aと区別できず白飛びまたは白飛びに近い状態となる。図4に示す領域B、Cに対応する画像620の領域B、Cでは、前景Bおよび前景Cが真っ白にも真っ黒にもならず、前景Bおよび前景Cそれぞれを領域Bおよび領域Cと区別でき、適切に撮像された状態となる。このような画像620では、領域Aにおける前景Aの形状およびテクスチャ情報は、欠落あるいは品位の低いものとなる。
本明細書では、図6(a)の領域Cのような領域は、黒潰れまたは黒潰れに近い状態である黒潰れ寄りに起因して露出値が不適切となる領域であることから、図6(a)の領域Cのような領域を黒潰れ寄りの露出不適切領域(以下、NGL領域という)と称する。また、図6(b)の領域Aのような領域は、白飛びまたは白飛びに近い状態である白飛び寄りに起因して露出値が不適切となる領域であることから、図6(b)の領域Aのような領域を白飛び寄りの露出不適切領域(以下、NGH領域という)と称する。
<画像処理装置の構成および処理>
システム200が有する、カメラアダプタのカメラ処理部710および画像処理装置202の本体処理部720の内部構成について、図7を用いて説明する。また図7の各ブロックの処理内容を図8、図9を用いて順に説明する。なお、図8はHカメラによる画像例を示す図であり、図9はLカメラによる画像例を示す図である。
図7は、システム200が有する、カメラ201に対応するカメラアダプタのカメラ処理部710および画像処理装置202の本体処理部720の内部構成を含むブロック図である。
システム200は、カメラ201、カメラ処理部710、本体処理部720を有する。システム200では、カメラ処理部710がカメラ系統ごとに存在する。すなわち、システム200は、カメラアダプタのカメラ処理部710を、カメラ201の台数と同じ数量有する。システム200では、画像処理装置202の本体処理部720は1つである。図7にて、アスタリスクで示された部分は、図2で示したリング型のネットワークによる接続を意味する。
すなわち、図7のカメラ201およびカメラ処理部710はカメラ201毎の撮像と処理の流れを示し、図7の本体処理部720については接続された全てのカメラ201を対象とした処理の流れを示している。
カメラ処理部710では、カメラ201が撮像して取得した画像データから、詳細につき後述するいくつかの画像情報を抽出する。本体処理部720では、カメラ処理部710が抽出した画像情報を受け取り形状推定と色付けを行って、仮想視点画像のデータを生成する。
本実施形態における画像処理は、カメラアダプタおよび画像処理装置202に内蔵されたASICやFPGAなどのハードウェアによりなされる。ASICは、application specific integrated circuitの略である。FPGAは、field programmable gate arrayの略である。
図7に示した各モジュールは、ハードウェアとしてASICやFPGAの内部に実装される。
カメラ処理部710は、画像取得部711、背景画像生成部712、フレーム平均化処理部713、スイッチ714、露出不適切領域検出部715、背景差分処理部716、前景テクスチャ生成部717を有する。カメラ処理部710は、さらに、領域限定M処理部718、領域限定T処理部719を有する。
本体処理部720は、形状推定処理部(以下、推定部という)721、色付け処理部(以下、色付け部という)722、全体背景生成部723、仮想視点画像生成部724、システム制御部(以下、制御部という)725を有する。
制御部725は、カメラ201、カメラ処理部710、本体処理部720を制御する。制御部725は、カメラ201に露出設定のコマンドを送る。
カメラ201は、制御部725から露出設定のコマンドを受け取ると、露出設定のコマンドに応じて、上述のHカメラまたはLカメラに対応する輝度レンジとなるように露出値が設定される。HカメラまたはLカメラに設定されたカメラ201が撮像して取得した撮像画像の画像データは、画像取得部(以下、取得部という)711に出力される。
取得部711は、カメラ201が撮像した撮像画像の画像データを取得する。撮像画像は、時間的に連続して撮像された静止画または動画像のフレームなどの画像である。以下、取得部711に入力される、時間的に連続する入力画像の中のある1フレームの画像をフレーム画像という。取得部711では、取得したフレーム画像に対して、画像の揺れや振動の補正、レンズ歪などの画像の歪みの補正、および、色調整・ガンマ調整などの前処理が行われて前処理済みの画像(以下、補正済み画像という)の画像データを生成する。補正済み画像の画像データは、背景画像生成部(以下、背景生成部という)712、フレーム平均化処理部(以下、平均化部という)713、背景差分処理部716、前景テクスチャ生成部717に出力される。
背景生成部712は、取得部711から入力された補正済み画像の画像データから、随時前景を取り除きつつ順番に背景画像の画像データ(以下、背景データともいう)を生成する。背景生成部712は、対応するカメラ201、例えば図4に示すCam01がHカメラに設定されていると、図8(a)に示す背景画像810の画像データを生成する。背景生成部712は、対応するカメラ201、例えば図4に示すCam02がLカメラに設定されていると、図9(a)に示す背景画像910の画像データを生成する。背景画像の生成方法として、例えば特許文献1に記載の技術などの公知技術が用いられる。背景画像の画像データは、スイッチ714を介して、露出不適切領域検出部(以下、検出部という)715に出力される。また、背景画像の画像データは、背景差分処理部716に出力される。
平均化部713は、取得部711から入力された、所定期間の補正済み画像の画像データの全体、または一部分を時間方向に平均化した平均画像の画像データを生成する。所定期間は、例えば20フレームや30フレームなどの所定数のフレーム分の補正済み画像の画像データが入力される期間であって、予め設定された期間である。
検出部715は、スイッチ714を介して、背景画像または平均画像の画像データを取り込む。そして、検出部715は、取り込んだ画像データの背景画像または平均画像の画素値を解析して露出値が不適切となる領域を検出し、露出不適切領域をマスクする露出不適切領域マスクのデータを生成する。露出不適切領域マスクのデータは、領域限定M処理部(以下、マスク限定部という)718および領域限定T処理部(以下、テクスチャ限定部という)719に出力される。スイッチ714は、その接続先が背景生成部712と平均化部713とで切り替え可能であって、フレーム全体、領域ごと、または画素ごと切り替えてもよい。
具体的には、検出部715は、対応するカメラ201がHカメラに設定されていると、画素値が所定の下限閾値以下の部分を黒潰れ寄り露出不適切領域として検出する。検出部715は、検出した黒潰れ寄り露出不適切領域に対応する、第二の露出マスクである黒潰れ寄り露出不適切領域マスク(以下、NGL領域マスクとも称す)のデータを生成する。検出部715は、対応するカメラ201がLカメラに設定されていると、画素値が所定の上限閾値(下限閾値と異なり下限閾値よりも大きな閾値)を超える部分を白潰れ寄り露出不適切領域として検出する。検出部715は、検出した白潰れ寄り露出不適切領域に対応する、第一の露出マスクである白潰れ寄り露出不適切領域マスク(以下、NGH領域マスクとも称す)のデータを生成する。すなわち、検出部715は、特定のマスクのデータを生成する機能を有する。
NGL領域マスクおよびNGH領域マスクのデータは、露出値が不適切な領域が1(白)、それ以外の露出値が適切な領域が0(黒)の2値のマップで表される。また、マップは、膨張収縮処理により、必要以上に細かく分散した領域にはならないようにする必要があると同時に、確実性を増すために、ある程度膨張した状態にしておく必要がある。検出部715は、例えば、画素値を上限値および下限値の範囲内か否かの判定で作成された2値のマップに対して膨張・収縮処理を実行してもよい。この処理を実行することで、ノイズを除去できる。
図7では、スイッチ714の接続先が背景生成部712となっており、検出部715では、背景生成部712で生成した背景画像の画像データに基づく処理が行われる。
検出部715は、対応するカメラ201、例えば図4に示すCam01がHカメラに設定されていると、図8(b)に示すNGL領域マスク820のデータを生成する。NGL領域マスク820のデータは、NGL領域821が1(白)、それ以外の露出値が適切な領域822が0(黒)の2値のマップで表現されたマスクのデータである。
検出部715は、対応するカメラ201、例えば図4に示すCam02がLカメラに設定されていると、図9(b)に示すNGH領域マスク920のデータを生成する。NGH領域マスク920のデータは、NGH領域921が1(白)、それ以外の露出値が適切な領域922が0(黒)の2値のマップで表現されたマスクのデータである。
一方、背景差分処理部716は、取得部711で生成された補正済み画像と背景生成部712で生成された背景画像の画像データを用いて、前景背景分離処理(背景差分処理)を行うことで、前景をマスクするマスク画像(前景マスク)のデータを生成する。前景マスクのデータは、前景テクスチャ生成部717およびマスク限定部718に出力される。背景差分処理部716は、対応するカメラ201、例えば図4に示すCam01がHカメラに設定されていると、図8(b)に示す前景マスク830のデータを生成する。前景マスク830のデータは、前景A、前景B、前景Cそれぞれを示す前景マスクA(前景Aの二次元シルエット)831、前景マスクB(前景Bの二次元シルエット)832、前景マスクC(前景Cの二次元シルエット)833を有する。背景差分処理部716は、対応するカメラ201、例えば図4に示すCam02がLカメラに設定されていると、図9(b)に示す前景マスク930のデータを生成する。前景マスク930のデータは、前景A、前景B、前景Cそれぞれを示す前景マスクA(前景Aの二次元シルエット)931、前景マスクB(前景Bの二次元シルエット)932、前景マスクC(前景Cの二次元シルエット)933のデータを有する。
前景テクスチャ生成部717は、取得部711で生成された補正済み画像と背景差分処理部716で生成された前景マスクのデータを用いて、前景テクスチャを生成する。前景テクスチャ生成部717は、前景マスクの前景およびその近傍部分を含む矩形領域に関し、補正済み画像からテクスチャを抽出することにより、前景テクスチャを生成する。前景テクスチャは、例えば前景マスクのデータによって示される前景に対応する領域の各画素のR、G、Bなどの色情報のことである。前景テクスチャは、テクスチャ限定部719に出力される。
前景テクスチャ生成部717は、対応するカメラ201、例えば図4に示すCam01がHカメラに設定されていると、図8(b)に示す前景テクスチャ840を生成する。前景テクスチャ840は、前景Aを含む矩形領域の前景テクスチャA(テクスチャAともいう)と、前景Bを含む矩形領域の前景テクスチャB(テクスチャBともいう)と、前景Cを含む矩形領域の前景テクスチャC(テクスチャCともいう)とを有する。Hカメラの場合には、前景Cの二次元シルエットと前景テクスチャCは、NGL領域マスクのNGL領域に存在しており、何れも黒潰れまたは黒潰れに近い状態であることから、前景マスクCおよび前景テクスチャCの品質が不十分となる可能性が高い状態となる。
前景テクスチャ生成部717は、対応するカメラ201、例えば図4に示すCam02がLカメラに設定されていると、図9(b)に示す前景テクスチャ940を生成する。前景テクスチャ940は、前景Aを含む矩形領域のテクスチャAと、前景Bを含む矩形領域のテクスチャBと、前景Cを含む矩形領域のテクスチャCとを有する。前景マスクAと前景テクスチャAは、NGH領域に存在しており、何れも白飛びまたは白飛びに近い状態であることから、前景マスクAおよび前景テクスチャAの品質が不十分となる可能性が高い状態となる。前景テクスチャは、テクスチャ限定部719に出力される。
マスク限定部718、テクスチャ限定部719は、前記のような状況を鑑み、品質が不充分になる部分をマスキングする処理を行う。
マスク限定部718は、前景が1(白)である前景マスクと露出不適切領域が1(白)である露出不適切領域マスクとの論理和を取り、前景および露出不適切領域が1(白)である領域限定前景マスク(以下、限定マスクともいう)を生成する。すなわち、マスク限定部718は、前景マスクから、露出不適切領域に該当する前景マスクを除いた、特定の前景マスクで構成される限定マスクを生成する。限定マスクのデータは、推定部72に出力される。
マスク限定部718は、対応するカメラ、例えば図4に示すCam01がLカメラに設定されている場合、図8(b)に示す、NGL領域マスク820と前景マスク830のデータの論理和を取り、限定マスク850のデータを生成する。
マスク限定部718は、対応するカメラ、例えば図4に示すCam02がHカメラに設定されている場合、図9(b)に示す、NGH領域マスク920と前景マスク930のデータの論理和を取り、限定マスク950のデータを生成する。
テクスチャ限定部719は、前景テクスチャから、露出不適切領域に該当する前景テクスチャを除いた、特定の前景テクスチャで構成される領域限定前景テクスチャ(以下、限定テクスチャという)を生成する。限定テクスチャは、色付け部722に出力される。
テクスチャ限定部719は、対応するカメラ201、例えば図4に示すCam01がHカメラに設定されていると、図8(b)に示す、前景Aを含む矩形領域のテクスチャAと前景Bを含む矩形領域のテクスチャBを有する領域限定テクスチャ860を生成する。テクスチャ限定部719は、対応するカメラが例えば図4に示すCam02のようにLカメラに設定されていると、図9(b)に示す前景Bを含む矩形領域のテクスチャBと前景Cを含む矩形領域のテクスチャCを有する領域限定テクスチャ960を生成する。
このようにカメラ処理部710の各機能部が本体処理部720で用いる画像情報を生成することから、カメラ処理部710は画像情報生成部であるといえる。
推定部721は、複数の限定マスクのデータを用いて、視体積交差法により、推定した
オブジェクトの形状を表す形状データである前景の3次元モデル(前景形状))のデータを生成する。詳細な推定処理については後述する。前景の3次元モデルのデータは、色付け部722と仮想視点画像生成部724に出力される。
色付け部722は、限定テクスチャに基づき、推定部721で生成したデータの前景の3次元モデル(前景形状)に付与するための色データを生成する。色データは、仮想視点画像生成部724に出力される。
全体背景生成部723は、背景画像生成部712で生成した背景画像のデータに基づき、全体の背景画像(以下、全体背景画像ともいう)のデータを生成する。生成した全体背景画像のデータは、仮想視点画像生成部724に出力される。
仮想視点画像生成部724は、仮想視点情報、形状データ、色データ、全体背景画像のデータに基づき、カメラが実際には存在しない仮想視点の仮想カメラから見た前景画像及び背景画像を生成し、それらを合成して仮想視点画像のデータを生成する。仮想視点画像生成部724は、生成した仮想視点画像のデータをエンドユーザ端末(不図示)に送信する。本体処理部720の視点入力部(不図示)は、不図示のエンドユーザ端末や仮想カメラ操作UIなどを介して不図示のユーザによる仮想視点情報の入力を受け付け、仮想視点画像生成部724に出力する。仮想視点情報は、実際にはカメラが存在せず仮想視点に配置されると仮定した仮想カメラで仮想視点画像を撮像する時刻、仮想視点(仮想カメラ)の位置、仮想カメラの姿勢、仮想カメラの向き、仮想カメラの画角、焦点距離などを含む情報である。
次に、推定部721の動作(処理フロー)について、図10を参照して説明する。図10は、推定部721による前景の形状推定処理の手順例を示すフローチャートである。なお、各処理の説明における記号「S」は、当該フローチャートにおけるステップであることを意味する。各カメラに関し、世界座標空間におけるカメラの座標位置と、カメラの姿勢(左右、上下)、および焦点距離と画像中心に関するカメラパラメータが設定されるとする。推定部721は、カメラパラメータを予め取得しているものとする。また、各カメラで撮像して取得したフレーム画像のデータを取得しているものとする。推定部721は、同期撮像して取得したフレーム画像のデータから対象のシルエットを抽出しているものとする。また、推定部721は、視体積交差法によって、対象のvisual hullをボクセル形式で求めたボクセルデータを生成しているものとする。ボクセルデータは、例えば、図4に示す場面例では、前景オブジェクトA、前景オブジェクトB、前景オブジェクトCに対応したデータとなる。
まず、S1001では、推定部721は、生成したボクセルデータから処理対象となるボクセル(以下、注目ボクセルともいう)を順番に選択する。注目ボクセルを選択する順番は、全てのボクセルを順番に選択できればよく、限定されない。例えば、カメラと最も近いボクセルから順番に選択したり、世界座標の中心位置に近いボクセルから順番に選択したりしてもよい。
S1002では、推定部721は、S1001で選択されたボクセルの位置(以下、ボクセル位置ともいう)を、予め取得したキャリブレーションデータを基に、各カメラに投影する。これにより、ボクセルが各カメラで撮像する画像上にてどの位置に存在するかを示す座標が決定される。
S1003では、推定部721は、全カメラに関してマスク限定部718から入力されたデータの限定マスクを参照し、参照した限定マスクをシルエットマスクとする。
S1004では、推定部721は、投影された点のシルエットマスクの値が1になっているカメラの数を求め、これがカメラ台数の閾値X(例えば、カメラ60台中の55台など)以上であるかを判定する。すなわち、推定部721は、投影された点がシルエットマスクにあることを示す1となっているカメラの台数を合計し、この合計数が閾値X以上であるかを判定する。推定部721は、カメラの台数が閾値X以上であり、判定条件を満たすとの判定結果を取得する場合(S1004のYES)、処理をS1005に移行する。推定部721は、カメラの台数が閾値Xより少なく、判定条件を満たさないとの判定結果を取得した場合(S1004のNO)、処理をS1006に移行する。
S1005では、推定部721は、注目ボクセル位置には物体が存在すると推定し注目ボクセルを残す処理を実行する。
S1006では、推定部721は、注目ボクセル位置には物体が存在しないと推定し注目ボクセル自体を削除する処理を実行する。
S1007では、推定部721は、所定のボクセルの全てについて処理を終了したか否かを判定する。推定部721は、未処理のボクセルがあり、所定のボクセルの全てを処理していないと判定した場合(S1007のNO)、処理をS1001へ移行し、S1001~S1007の処理を継続する。推定部721は、未処理のボクセルがなく、所定のボクセルの全てを処理したと判定した場合(S1007のYES)、本フローを終了する。
推定部721は、上述のボクセルを残すかあるいはボクセルを削除するかの処理を全てのボクセルに対して実行することにより、視体積交差法による前景(オブジェクト)の形状を推定して、前景(オブジェクト)の形状のデータを生成することになる。
ここで、Lカメラの露出適切領域、Hカメラの露出適切領域を視体積交差法のシルエットマスクとして推定部721に入力することで、前景形状の推定におけるHDR合成が可能になる理由について、以下に説明する。
すなわち、図8(b)、図9(b)に示す、マスクデータである限定マスク850、950を用いた視体積交差法によりHDR合成が可能になる理由について、以下に説明する。
そもそも、視体積交差法においては、各カメラのシルエットマスクに応じてボクセルを削るという処理が行われる。一般的に、図8(b)、図9(b)に示すような前景マスク830、930において、0(黒)の部分についてボクセルを削除する処理が行われる。
しかしながら、本実施形態においては、HDR化するためにLカメラとHカメラとで露出値をずらしているため、逆に其々に露出値が不適切な領域ができ、その部分の前景マスクの品質が不充分となる。具体的には、マスク形状の形の精度が不充分である、欠落がある、不要な部分が付帯しているなどである。このため、図8(b)、図9(b)のような前景マスク830、930をそのまま入力して視体積交差法を行うと前景オブジェクトA,Cの形状推定の品質が低下する。
そこで、本実施形態においては、ここまで説明したように、其々の露出適切領域におけるボクセル削除を行わない様にするために限定マスクのデータを作成し、これを推定部721に入力して視体積交差法を実行する。
例えば、Lカメラにおいては、領域Cに該当するNGL領域の部分を1(白)とするので、その部分のボクセル削除には実質的に参加しない。このため領域Cの前景オブジェクトCの形状を決める処理には、同領域の部分が露出不適切であるLカメラの撮像画像は実質的に関与せず、処理はHカメラの撮像画像のみで行われる。一方、この部分の形状を作るためのカメラ台数が減ると、形状の推定処理に不利な要因となるが、露出不適切なマスクを使うことによる劣化を防止することの方が勝っている。
同様に、Hカメラにおいては、領域Aに該当するNGH領域の部分を1(白)とするので、その部分のボクセル削除には実質的に参加しない。このため領域Aの前景オブジェクトAの形状を決める処理には、同領域の部分が露出不適切であるHカメラの撮像画像は実質的に関与せず、処理はLカメラの撮像画像のみで行われる。一方、この部分の形状を作るためのカメラ台数が減ると、形状の推定処理に不利な要因となるが、露出不適切なマスクを使うことによる劣化を防止することの方が勝っている。
以上のような仕組みにより、いわば、其々設置位置の異なるLカメラとHカメラによるデータが、形状推定時においてHDR合成されることになる。
よって、本実施形態によれば、LカメラとHカメラの構成によりハイダイナミックレンジ化が可能となる。また、Lカメラの撮像画像の白飛び部分やHカメラの撮像画像の黒潰れ部分が形状推定に影響を及ぼすことのない、仮想視点画像を生成する装置が実現可能となる。
なお、本実施形態における、一連の処理は、仮にLカメラとHカメラの露出設定値が同じ値であっても、処理フローとして機能するものであり、仮に、何らかの事情で特定のカメラのみ白飛び、黒潰れがあるような場合にも効果的である。
[実施形態2]
実施形態1では、限定マスクのデータを用いて形状推定処理を行う形態を説明した。本実施形態では、前景マスクおよび露出不適切領域マスクのデータを用いて形状推定処理を行う形態を説明する。
図11は、本実施形態のシステム200が有するカメラ処理部710および本体処理部720の内部構成を含むブロック図である。なお、実施形態1のシステムと同じデバイスおよび機能部には同一符号を付記しその説明を省略する。
図11においても、カメラ201およびカメラ処理部710はカメラ201毎の撮像と処理の流れを示し、図11の本体処理部720については接続された全てのカメラを対象とした処理の流れを示している。
カメラ処理部710では、カメラ201で撮像して取得した画像データから、詳細につき後述するいくつかの画像情報を抽出する。本体処理部720では、カメラ処理部710が抽出した画像情報を受け取り形状推定処理と色付け処理を行って、仮想視点画像のデータを生成する。
本実施形態のシステム200では、実施形態1のマスク限定部718が除去され、背景差分処理部716で生成された前景マスクと、検出部715で生成された露出不適切領域マスクのデータが直接に推定部726に入力される構成となっている。
すなわち、本実施形態のシステム200では、図8(b)、図9(b)に示す限定マスク850、950が生成されない構成となっている。本実施形態の推定部726には、前景の形状推定用のマスク(二次元シルエット)として、図8(b)、図9(b)に示す前景マスク830、930、露出不適切領域マスク820、920の画像情報が送られる。
これにより、露出不適切領域の範囲にある前景マスクに関し、カメラ処理部710の側で固定的に削除せず、本体処理部720側で個別に使用可能であるか否かを再評価することができる。例えば、Lカメラの場合、図8(b)の露出不適切領域マスク820のNGL領域821内に存在する前景Cに関し、カメラ処理部710側で削除せず、本体処理部720側で評価し、評価結果に応じた処理を実行することになる。
その結果、露出不適切領域にある前景を前景の3次元モデルの形状推定に使用可能であると判定(評価)した場合には、推定部726は、露出不適切領域にある前景も用いて、推定した前景の3次元モデル(前景形状)のデータを生成することになる。露出不適切領域にある前景を3次元モデルの形状推定に使用不可能であると判定(評価)した場合には、推定部726は、露出不適切領域にある前景を削除する。ここでいう削除とは、前景マスクと露出不適切領域マスクとで論理和を取ることである。
前景がある場所に関わらず、前景マスクと露出不適切領域マスクを用いた前景の3次元モデルの形状推定処理を行うことで、限定マスクを用いた形状推定処理を行う実施形態1と比べて、露出不適切領域にて形状推定に参加するカメラの台数の減少を抑制できる。
次に、推定部726による形状推定処理の手順例ついて、図12を参照して説明する。図12は、推定部726による前景の形状推定処理の手順例を示すフローチャートである。なお、本処理を行う前に、図10に示す形状推定処理手順例の場合と同様、各カメラのカメラパラメータが設定されているとする。推定部726は、同期撮像して取得したフレーム画像から対象のシルエットを抽出しているものとする。また、推定部726は、視体積交差法によって、対象のvisual hullをボクセル形式で求めたボクセルデータを生成しているものとする。ボクセルデータは、例えば、図4の場面例では、前景オブジェクトA、前景オブジェクトB、前景オブジェクトCに対応したデータとなる。
図12中のS1201、S1202における処理は、図10に示す実施形態1のS1001、S1002と同様でありその説明を省略する。
S1203では、推定部726は、全カメラに関して背景差分処理部716から入力される前景マスクと検出部715から入力されるNGHマスクまたは、NGLマスクの、其々投影された点の値(1または0)を参照して取得する。
S1204では、推定部726は、まず、各カメラの露出不適切領域の範囲にある前景マスク(マスク画像)に関して、視体積交差法のシルエットマスクとして使用可能であるか否かを判断する評価を実行する。推定部726は、使用可能であると判断された前景マスクに対応するカメラに関し、シルエットマスクとして前記カメラによる前景マスクを採用する。推定部726は、不適切であると判断された前景マスクに対応するカメラに関しては、シルエットマスクとして、前記カメラによる前景マスクと露出不適切領域マスクの論理和を採用する。推定部726は、例えば露出不適切領域内にあるオブジェクトに対応する前景マスクをカメラの撮像画像から得ることができる場合には、露出不適切領域内にある前景マスクに関して、視体積交差法のシルエットマスクとして使用可能であると判断する評価を行う。これは、前景マスクを視体積交差法のシルエットマスクとして使用可能な輝度範囲が領域限定テクスチャと比べて広く、露出不適切領域内の前景マスクであっても上述の評価結果よっては視体積交差法のシルエットマスクとして使用可能となるためである。
図12中のS1205、S1206、S1207、S1208は、図10に示す実施形態1のS1004、S1005、S1006、S1007と同様でありその説明を省略する。
このようにボクセルを残すか、あるいはボクセルを削除するかの処理を全てのボクセルに対して実行することにより、視体積交差法による前景(オブジェクト)の形状が推定されて、推定された前景(オブジェクト)の形状のデータが生成される。
以上、説明したように、本実施形態によれば、露出不適切領域内の前景の形状推定でも、実質的に参加するカメラの台数をできるだけ減らさないようにしてその部分の形状品質を維持しつつHDR化した仮想視点画像を生成する装置が実現可能となる。
[実施形態3]
実施形態1では、限定テクスチャを用いて色付け処理を行う形態を説明した。本実施形態では、前景テクスチャを用いて選択的に色付け処理を行う形態を説明する。
図13は、本実施形態のシステム200が有するカメラ処理部710および本体処理部720の内部構成を含むブロック図である。なお、実施形態1のシステムと同じデバイスおよび機能部には同一符号を付記しその説明を省略する。
図13においても、カメラ201およびカメラ処理部710はカメラ201毎の撮像と処理の流れを示し、図13の本体処理部720については接続された全てのカメラを対象とした処理の流れを示している。
カメラ処理部710では、カメラ201で撮像して取得した画像データから、詳細につき後述するいくつかの画像情報を抽出する。本体処理部720では、カメラ処理部710が抽出した画像情報を受け取り形状推定処理と色付け処理を行って、仮想視点画像のデータを生成する。
本実施形態のシステム200では、実施形態1のテクスチャ限定部719が除去され、前景テクスチャ生成部717で生成された前景テクスチャが直接に色付け部727に入力される構成となっている。すなわち、本実施形態のシステム200では、前景テクスチャ生成部717から出力される前景テクスチャは、検出部715で生成される露出不適切領域に該当する領域に限定されることなく、色付け部727に送られる。また、色付け部727では、適正な露出値で撮像された結果を優先的に選択して色付け処理を行うような仕組みになっている。
実施形態1、2では、主としてフィールド210上の場所によって明るさが異なる場合を想定した。本実施形態では、明るい部分に関して逆光となる方向から撮像するような場合に対応することを想定している。
図14は、フィールド210上の領域Aの部分が逆光になっている場面を所定の露出値のカメラで撮像した画像例を示す図である。
図14(a)は、カメラ201、例えば図4に示すCam01がHカメラに設定された場合の撮像画像例を示す図である。図14(b)は、カメラ201、例えば図4に示すCam01がLカメラに設定された場合の撮像画像例を示す図である。
領域Aの部分が逆光なので、図14(a)のように、Hカメラに設定されたカメラ201で撮像した場合、前景Aのテクスチャは黒潰れまたは黒潰れ気味な状態となる。一方、図14(b)のように、Lカメラに設定されたカメラ201で撮像した場合、前景Aのテクスチャは適正な露出値となる可能性が高い状態となる。
実施形態1、2では、白飛びまたは白飛びに近い状態である図14(b)の領域Aに相当する部分を除去していたが、本実施形態では、このような逆光のケースを考慮し、評価基準を設け、色付け処理時に評価の高いものを選択できるような仕組みとした。
以下、色付け部727による色付け処理の手順例について図15~図17を参照して説明する。図15は、カメラと前景オブジェクトとの関係例を示す図である。
説明のために、図15に示すような状態を仮定する。色付け処理については前景オブジェクトAの表面にある点Pの色付けに関して説明する。点Pは3次元空間の中に3次元座標で定義された位置である。
なお、図15(a)における、領域A、B、Cおよび、前景オブジェクトA、B、C、カメラの配置、★印や☆印などの意味は、図4と同じであり、その説明を省略する。図15(b)はi番目のカメラの撮像画像である。
3次元空間の点Pが、i番目のカメラの撮像画像に投影される点をPiとする。Piは、各カメラの撮像画像内に二次元座標で定義される点である。Piの位置は、キャリブレーションによって得られた情報に基づいて元の3次元空間の点Pの位置から導出される。
3次元空間の点Pの色付け処理は、全カメラあるいは一部のカメラの撮像画像のPiにおける画素値に基づいてなされる。
実際には、前景オブジェクト上の点Pが全カメラから見えているわけではない。このため色付け方法としては、例えば(1)図15中に示す仮想視点Xが存在する方向に近いカメラの撮像画像の座標Piにおける画素値を優先的に選択して色付け処理を行う方法がある。あるいは、例えば(2)前景オブジェクトAの3次元空間の点Pの部分の法線方向に近いカメラの撮像画像の座標Piを優先的に選択して色付け処理を行う方法などがある。色付け方法(1)、(2)のいずれの場合も、色付け処理のために選択するカメラは一台とは限らず、その近傍のカメラを複数台選択し其々の撮像画像の座標Piにおける画素値を重みづけ平均するなどして、3次元空間の点Pの色付け処理を行ってもよい。
本実施形態においては、色付け方法(1)の仮想視点Xの方向を中心とした、近傍6台のカメラを採用候補とし、これらの撮像画像の座標Piを基に上記色付け処理を行って3次元空間の点Pの画素値を求める。なお、カメラの採用候補数は必ずしも6台でなくてもよく、2台以上であればよい。
本実施形態では、上記6台のカメラのそれぞれの重みづけ係数を、以下の式1に示すようにベクトル[A]で表す。Cam01、Cam02、Cam03、Cam04、Cam05、Cam06の重みづけ係数をそれぞれa1、a2、a3、a4、a5、a6とする。
Figure 0007391542000001
また、6台の中のi番目のカメラ(Cami)の撮像画像の座標Piにおける画素値を1番目から6番目まで順番に並べたものを、以下の式2に示すようにベクトル[C]で表す。
Figure 0007391542000002
画素値Ciを標準露出値に補正した値Hiを順番に並べたものを、以下の式3に示すようにベクトル[H]で表す。
Figure 0007391542000003
[H]の各成分Hiは、以下の式4のように画素値Ciを関数H()によって露出補正して求めたものである。
Figure 0007391542000004
露出補正は、簡単には所定の値を足し引きする場合もあるが、正確には撮像画像のガンマ値を一旦リニアに変換し、所定の係数をかけてその後、元のガンマ値に戻すなどの方法を用いることもできる。
カメラの採用候補の中で実際の色付けに選択するか否かを以下の式5のようにベクトル[J]で表す。各成分Jiは1または0の値であり、色付け処理に採用の有無を表す。「1」は、対象となるカメラを色付け処理に採用することを表し、「0」は、対象となるカメラを色付け処理に採用しないことを表している。
Figure 0007391542000005
ここで、カメラの選択および露出補正について、図16を参照して説明する。図16は、カメラの選択および露出補正を説明する図である。図16(a)は、選択カメラの撮像画像における、下限閾値(Th1)未満の画素値を含む露出補正前の画素値を示す図である。図16(b)は、図16(a)に示す画素値を露出補正した後の画素値を示す図である。図16(c)は、選択カメラの撮像画像における、上限閾値(Th2)より大きい画素値を含む露出補正前の画素値を示す図である。図16(d)は、図16(a)に示す画素値を露出補正した後の画素値を示す図である。
図16(a)、(b)(図16の上段ともいう)は、撮像画像の画素値Ciを順番に並べた図である。図16(c)、(d)(図16の下段ともいう)は画素値Ciを標準露出値に露出補正した値Hiを同様に順番に並べた図である。したがって、図16の横軸は特に物理的な意味はない。図16において、○印はHカメラに属するカメラのデータを表し、●印はLカメラに属するカメラのデータを表している。
図16(a)、(b)は、図15に示す明るい部分(領域A)が逆光である場合の各カメラの画素値を示す図である。図16(c)、(d)は、図15に示す明るい部分(領域A)が逆光ではない場合の各カメラの画素値を示す図である。
上段の場合、図16(a)に示すように、Lカメラによる撮像画像の画素値Ci(●印)は黒潰れ気味となっており、撮像時に輝度を正しく捉えることができていないことになる。Hカメラによる撮像画像の画素値Ci(○印)は適正な露出値で撮像できているので撮像時に輝度を正しく捉えることができていることになる。
Lカメラによる撮像画像の画素値Ciは黒潰れしていたため、図16(b)に示すように、露出補正後の画素値Hiは、本来の値(撮像画像の画素値)より明るい値となる。Hカメラによる撮像画像の画素値Ciは正しく輝度を捉えていたため、露出補正後の画素値Hiは、適正な値となる。
下段の場合、図16(c)に示すように、Hカメラによる撮像画像の画素値Ci(○印)は白飛び気味となっており、撮像時に輝度を正しく捉えることができていないことになる。Lカメラによる撮像画像の画素値Ci(●印)は適正な露出値で撮像できているので撮像時に輝度を正しく捉えることができていることになる。
Hカメラによる撮像画像の画素値Ciは白飛びしていため、図16(d)に示すように、露出補正後の画素値Hiは、本来の値(撮像画像の画素値)より暗い値になる。Lカメラによる撮像画像の画素値Ciは正しく輝度を捉えていたため、露出補正後の画素値Hiは、適正な値となる。
図16(a)、図16(c)の破線は、正しく輝度を取得できたレベルを表している。図16図(b)、図16(d)の破線は、図16(a)、(b)に示すレベルを露出補正した後のレベルを表している。
上段のケースでは、黒潰れを含む撮像画像を取得するカメラからのデータ(●印)を除くことにより正しい露出補正結果(適切な露出補正後のデータ)を得ることができる。下段のケースでは、白飛びを含む撮像画像を取得するカメラからのデータ(○印)を除くことにより正しい露出補正結果(適切な露出補正後のデータ)を得ることができる。
本実施形態では、上記正しくないデータを除く手法として、撮像後の画素値Ciが、下限閾値Th1と上限閾値Th2の間に入っているか否かで判定する手法とした。下限閾値Th1と上限閾値Th2の間に入っていない場合、そのデータが削除対象のデータとなる。
下限閾値Th1の数値は、黒潰れあるいはそれに近い状態であるデータを除くことを目的としており、例えば画素値の10%程度の数値であることが望ましい。上限閾値Th2の数値は、白飛びあるいは白飛びに近い状態であるデータを除くことを目的としており、例えば画素値の90%程度の数値であることが望ましい。しかしながら、画素値データにかかっているガンマの状態あるいは装置のチューニング次第では上記と大幅に異なる値であっても構わない。
ベクトル[J]は、不適切なものを除いて適切なものを採用した結果を表すベクトルである。例えば図16の上段の場合、ベクトル[J]は以下の式で表される。
[J]=[0,1,0,1,0,1]
また、例えば、図16の下段の場合、ベクトル[J]は以下の式で表される。
[J]=[1,0,1,0,1,0]
次に、本実施形態のシステム200の色付け部727による色付け処理の手順例について図17を参照して説明する。図17は、色付け部727による色付け処理の手順例を示すフローチャートである。
S1701では、色付け部727は、色付け処理を行う対象となる注目ボクセルを選択する。例えば、色付け部727は、図15に示す、前景オブジェクトAの表面にある点Pを選択する。
S1702では、色付け部727は、採用候補として、例えば図15に示す点Xの方向の近傍のカメラCam01~Cam06を選択し、Piにおける画素値ベクトル[C]を参照して取得する。なお、Piにおける画素値ベクトル[C]は、公知の手法で導出され、詳細につき後述の記憶装置1804などに格納される。
S1703では、色付け部727は、予め決められ、記憶装置1804などに格納された重みづけ係数ベクトル[A]を参照して取得する。
S1704では、色付け部727は、画素値が階調の中央値に近いデータ、または画素値が予め決められた所定の二つの閾値である下限閾値Th1と上限閾値Th2の間にあるデータを採用するベクトル[J]の内容を決定する。すなわち、色付け部727は、対象のカメラによる撮像画像の画素の画素値が階調の中央値に近い、または下限閾値Th1と上限閾値Th2の間にある場合、当該対象となるカメラに対応するベクトル[J]を色付け処理に採用することを示す「1」に決定する。色付け部727は、対象のカメラによる撮像画像の画素の画素値が階調の中央値に近くない、または下限閾値Th1と上限閾値Th2の間に無い場合、当該対象となるカメラに対応するベクトル[J]を色付け処理に採用しないことを示す「0」に決定する。なお、画素値が階調の中央値に近いか否かは、例えば、予め定められた、階調の中央値を含む所定の範囲にあるか否かに置き換えてもよい。
S1705では、色付け部727は、例えば上述の式4に示すような関数H()に基づいて、撮像画像における画素の画素値Ciから補正後の画素の画素値Hiを導出する。すなわち、色付け部727は、撮像画像における画素の画素値Ciを基準の露出条件に対して露出補正を行い、補正後の画素の画素値Hiを導出する。
S1706では、色付け部727は、例えば以下の式6、式7を用いて色付けする値Color_Pを確定する。すなわち、色付け部727は、S1705で得られた補正後の画素の画素値Hiに関し、加重平均を取って色付け処理で対応する形状データの画素に付与するための画素値を確定する。なお、[H]tはベクトルHの転置を示している。
Figure 0007391542000006
Figure 0007391542000007
S1707では、色付け部727は、所定のボクセルの全てについて処理を終了したか否かを判定する。色付け部727は、未処理のボクセルがあり、所定のボクセルの全てを処理していないと判定した場合(S1707のNO)、処理をS1701へ移行し、S1701~S1707の処理を継続する。色付け部727は、未処理のボクセルがなく、所定のボクセルの全てを処理したと判定した場合(S1707のYES)、本フローを終了する。
以上のようなプロセスで処理することにより、明るさのダイナミックレンジの広い被写体、撮像環境であっても、前景の3次元モデルの推定が破たんすることなく、また推定された前景の3次元モデルに対して適切な色付け処理を行うことが可能となる。
図18は、上述した実施形態1、2、3のシステム200における画像処理装置202のハードウェア構成例を示す図である。画像処理装置1800は、CPU1801、ROM1802、RAM1803、記憶装置1804、及びネットワークI/F(インターフェース)1807を有する。各構成要素は、バス1809を介して相互に通信可能に接続されている。また、画像処理装置1800には、出力装置1805及び入力装置1806が接続されている。
CPU1801は、ROM1802又は記憶装置1804に格納されたプログラムを実行して、画像処理装置1800を統括的に制御する。ROM1802は、画像処理装置1800の制御プログラムを格納する。RAM1803は、CPU1801がプログラムを実行する際のメインメモリとして機能し、一時記憶領域として用いられる。記憶装置1804は、HDD(Hard Disk Drive)やSSD(Solid State Drive)などの記憶媒体であり、画像データや各種プログラムなどを記憶する。
出力装置1805は、液晶ディスプレイなどの表示装置であって、各種設定情報や画像データ等を表示する。入力装置1806は、マウスやキーボード、タッチパネル等であり、ユーザから各種設定情報の入力や、操作指示を受け付ける。ネットワークI/F1807は、ネットワークを介して外部装置と通信を行なうためのインターフェースである。
なお、画像処理装置1800がCPU1801とは異なる専用の1又は複数のハードウェアあるいはGPU(Graphics Processing Unit)を有してもよい。その場合、CPU1801による処理の少なくとも一部をGPUあるいは専用のハードウェアが行うようにしても良い。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、及びDSP(デジタルシグナルプロセッサ)等がある。
また、上述した実施形態1、2、3のシステム200におけるカメラ処理部710は、ハードウェアとして構成してもよく、本体処理部720と同様、上述の画像処理装置1800で構成してもよい。
以上、実施形態1、2、3における画像処理装置1800のハードウェア構成例を説明したが、上述した構成には限定されない。CPUがROMなどに記憶されたプログラムをRAMに読み出して実行することで、CPUが図7、図11、図13に示す各部として機能する形態でもよい。すなわち、画像処理装置1800は、ソフトウェアのモジュールとして図7、図11、図13に示す各モジュールを実現してもよい。
[その他の実施形態]
以上、実施形態例を詳述したが、本発明は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インターフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
また、前述した実施形態では、一つの画像処理装置202が、複数のカメラの画像データを取得して各カメラにおける背景画像の生成および前景領域の決定を行う形態を説明した。しかしながら、この形態に限られない。例えば、各カメラのハードウェア、または、各カメラに付随する画像処理装置が、仮想視点画像生成部の機能を除く機能を有する形態でもよい。そして、各カメラ側において、背景画像および前景領域を示す画像を生成し、生成したそれぞれのデータが、仮想視点画像を生成する装置に送信される形態でもよい。
前述した実施形態では、カメラ201と、カメラアダプタのカメラ処理部710と、画像処理装置202の本体処理部720とを有するシステム200について説明した。カメラ201と、カメラ処理部710および本体処理部720を備える画像処理装置202とを有するシステム200としてもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
715 検出部
716 背景差分処理部
721 推定部

Claims (15)

  1. 複数の撮像手段によってオブジェクトを撮像することにより取得された複数の撮像画像それぞれに対する、前記オブジェクトを抽出するための複数の前景マスクを取得する第一の取得手段と、
    前記複数の撮像画像それぞれにおいて出値が不適切である領域を検出して、前記複数の撮像画像に対応する、露出不適切領域をマスクするための複数の不適切領域マスクを取得する第二の取得手段と、
    前記複数の前景マスクおよび前記複数の不適切領域マスクに基づき、前記オブジェクトの形状を表す三次元形状データを生成する生成手段と
    を有し、
    前記第二の取得手段は、
    前記複数の撮像手段のうち、第一の輝度レンジに設定された前記撮像手段によって撮像することにより取得された前記撮像画像にて画素値が前記第一の輝度レンジの上限閾値よりも大きい部分を第一の不適切領域として検出し、
    前記複数の撮像手段のうち、前記第一の輝度レンジより相対的に輝度が高い第二の輝度レンジに設定された前記撮像手段によって撮像することにより取得された前記撮像画像にて画素値が前記第二の輝度レンジの下限閾値よりも小さい部分を第二の不適切領域として検出し、
    前記生成手段は、前記露出値が不適切である領域に対応する前記前景マスクが形状データの生成用のシルエットマスクとして使用可能である場合、前記前景マスクを用いて前記三次元形状データを生成する
    ことを特徴とする画像処理システム。
  2. 前記生成手段は、前記前景マスクと前記不適切領域マスクとの論理和として得られる限定マスクに基づき前記三次元形状データを生成する
    ことを特徴とする請求項1に記載の画像処理システム。
  3. 前記生成手段は、前記露出値が不適切である領域に対応する前記前景マスクが形状データの生成用のシルエットマスクとして使用不可能である場合、前記限定マスクを用いて前記三次元形状データを生成する
    ことを特徴とする請求項2に記載の画像処理システム。
  4. 前記第二の取得手段は、前記撮像画像から生成した背景画像、または前記撮像画像から生成した、所定期間の背景画像の各画素を平均化した平均画像に基づき、前記不適切領域マスクを取得する
    ことを特徴とする請求項1からの何れか一項に記載の画像処理システム。
  5. 前記生成手段は、前記第一の不適切領域を示す第一の露出マスク、または前記第二の不適切領域を示す第二の露出マスクと、前記前景マスクとの論理和をシルエットマスクとした視体積交差法により、前記三次元形状データを生成する
    ことを特徴とする請求項1から4の何れか一つに記載の画像処理システム。
  6. 前記撮像画像から抽出された前景テクスチャ、または、前記前景テクスチャと前記不適切領域マスクの論理和として得られる限定テクスチャに基づき、前記三次元形状データに付与するための色データを生成する色付け手段を有する
    ことを特徴とする請求項1からの何れか一項に記載の画像処理システム。
  7. 前記色付け手段は、少なくとも、前記三次元形状データで表される前景オブジェクトの表面の点から前記撮像画像に投影された画素の画素値に基づき、前記色データを生成する
    ことを特徴とする請求項に記載の画像処理システム。
  8. 前記色付け手段は、適正な前記露出値で撮像された前記撮像画像から抽出された前記前景テクスチャを優先的に用いて前記色データを生成する
    ことを特徴とする請求項に記載の画像処理システム。
  9. 前記色付け手段は、前記撮像手段に設定された前記露出値に応じて当該撮像手段に対応する前記撮像画像における前記画素の画素値を補正し、補正後の前記画素の画素値と、前記撮像手段に対して予め設定された所定の係数とに基づき得られた画素値を付与した前記色データを生成する
    ことを特徴とする請求項に記載の画像処理システム。
  10. 前記撮像手段に設けられ、前記撮像手段で取得した前記撮像画像に対して所定の処理を行う情報処理装置と、
    前記情報処理装置に接続し、前記情報処理装置で前記所定の処理が行われた前記撮像画像に基づき前記オブジェクトに関するデータを生成する画像処理装置と、
    を有し、
    前記情報処理装置は、前記第一の取得手段と前記第二の取得手段とを有し、
    前記画像処理装置は、前記生成手段を有する
    ことを特徴とする請求項1からの何れか一項に記載の画像処理システム。
  11. 前記撮像手段に設けられ、前記撮像手段で取得した前記撮像画像に対して所定の処理を行う情報処理装置と、
    前記情報処理装置に接続し、前記情報処理装置で前記所定の処理が行われた前記撮像画像に基づき前記オブジェクトに関するデータを生成する画像処理装置と、
    を有し、
    前記情報処理装置は、前記第一の取得手段と前記第二の取得手段とを有し、
    前記画像処理装置は、前記生成手段と前記色付け手段を有する
    ことを特徴とする請求項からの何れか一項に記載の画像処理システム。
  12. 前記複数の撮像手段により撮像された複数の視点の画像を前記複数の撮像画像として取得し、
    前記画像処理システムは、前記複数の視点の画像と、前記生成手段によって生成された前記三次元形状データと、を用いて仮想視点画像を生成する
    ことを特徴とする請求項1から11の何れか一項に記載の画像処理システム。
  13. 前記第一の取得手段は、前記前景マスクを生成し、
    前記第二の取得手段は、前記不適切領域マスクを生成する
    ことを特徴とする請求項1から12のいずれか項に記載の画像処理システム。
  14. 複数の撮像手段によってオブジェクトを撮像することにより取得された複数の撮像画像それぞれに対する、前記オブジェクトを抽出するための複数の前景マスクを取得する第一の取得ステップと、
    前記複数の撮像画像それぞれにおいて出値が不適切である領域を検出して、前記複数の撮像画像に対応する、露出不適切領域をマスクするための複数の不適切領域マスクを取得する第二の取得ステップと、
    前記複数の前景マスクおよび前記複数の不適切領域マスクに基づき、前記オブジェクトの形状を表す三次元形状データを生成する生成ステップと

    前記第二の取得ステップにて、
    前記複数の撮像手段のうち、第一の輝度レンジに設定された前記撮像手段によって撮像することにより取得された前記撮像画像にて画素値が前記第一の輝度レンジの上限閾値よりも大きい部分を第一の不適切領域として検出し、
    前記複数の撮像手段のうち、前記第一の輝度レンジより相対的に輝度が高い第二の輝度レンジに設定された前記撮像手段によって撮像することにより取得された前記撮像画像にて画素値が前記第二の輝度レンジの下限閾値よりも小さい部分を第二の不適切領域として検出し、
    前記生成ステップにて、前記露出値が不適切である領域に対応する前記前景マスクが形状データの生成用のシルエットマスクとして使用可能である場合、前記前景マスクを用いて前記三次元形状データを生成する
    ことを特徴とする画像処理方法。
  15. コンピュータを、請求項1から13の何れか一項に記載の画像処理システムの各手段として機能させるためのプログラム。
JP2019104733A 2019-06-04 2019-06-04 画像処理システム、画像処理方法、およびプログラム Active JP7391542B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019104733A JP7391542B2 (ja) 2019-06-04 2019-06-04 画像処理システム、画像処理方法、およびプログラム
US16/889,075 US11838674B2 (en) 2019-06-04 2020-06-01 Image processing system, image processing method and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019104733A JP7391542B2 (ja) 2019-06-04 2019-06-04 画像処理システム、画像処理方法、およびプログラム

Publications (3)

Publication Number Publication Date
JP2020197989A JP2020197989A (ja) 2020-12-10
JP2020197989A5 JP2020197989A5 (ja) 2022-06-08
JP7391542B2 true JP7391542B2 (ja) 2023-12-05

Family

ID=73649221

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019104733A Active JP7391542B2 (ja) 2019-06-04 2019-06-04 画像処理システム、画像処理方法、およびプログラム

Country Status (2)

Country Link
US (1) US11838674B2 (ja)
JP (1) JP7391542B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210134049A1 (en) * 2017-08-08 2021-05-06 Sony Corporation Image processing apparatus and method
JPWO2021149526A1 (ja) * 2020-01-23 2021-07-29
JP2022085643A (ja) * 2020-11-27 2022-06-08 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
CN113409378B (zh) * 2021-06-28 2024-04-12 北京百度网讯科技有限公司 图像处理方法、装置和设备
CN113470138B (zh) * 2021-06-30 2024-05-24 维沃移动通信有限公司 图像的生成方法、装置、电子设备及可读存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001043458A (ja) 1999-07-29 2001-02-16 Oki Electric Ind Co Ltd 背景画像生成システム
US20130016097A1 (en) 2010-04-02 2013-01-17 Imec Virtual Camera System
WO2017217241A1 (ja) 2016-06-15 2017-12-21 ソニー株式会社 画像生成装置および画像生成方法
WO2018079260A1 (ja) 2016-10-25 2018-05-03 ソニー株式会社 画像処理装置および画像処理方法
JP6403862B1 (ja) 2017-12-14 2018-10-10 キヤノン株式会社 3次元モデルの生成装置、生成方法及びプログラム
JP2019083402A (ja) 2017-10-30 2019-05-30 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060028476A1 (en) * 2004-08-03 2006-02-09 Irwin Sobel Method and system for providing extensive coverage of an object using virtual cameras
EP1862969A1 (en) * 2006-06-02 2007-12-05 Eidgenössische Technische Hochschule Zürich Method and system for generating a representation of a dynamically changing 3D scene
US8131098B2 (en) * 2007-07-06 2012-03-06 Panasonic Corporation Image processing device, image processing method, image processing system, program, storage medium, and integrated circuit
US8811811B1 (en) * 2013-07-18 2014-08-19 Fraunhofer-Gesellscahft zur Foerderung der angewandten Forschung e.V. Camera system and method for generating high-quality HDR images or videos
US9445081B1 (en) * 2015-09-25 2016-09-13 Intel Corporation Method and system of 3D image capture with dynamic cameras
JP2021156579A (ja) * 2018-06-29 2021-10-07 ソニーグループ株式会社 画像処理装置、画像処理方法、移動機器、並びにプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001043458A (ja) 1999-07-29 2001-02-16 Oki Electric Ind Co Ltd 背景画像生成システム
US20130016097A1 (en) 2010-04-02 2013-01-17 Imec Virtual Camera System
WO2017217241A1 (ja) 2016-06-15 2017-12-21 ソニー株式会社 画像生成装置および画像生成方法
WO2018079260A1 (ja) 2016-10-25 2018-05-03 ソニー株式会社 画像処理装置および画像処理方法
JP2019083402A (ja) 2017-10-30 2019-05-30 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP6403862B1 (ja) 2017-12-14 2018-10-10 キヤノン株式会社 3次元モデルの生成装置、生成方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LAURENTINI Aldo,The Visual Hull Concept for Silhouette-Based Image Understanding,IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE,米国,IEEE,1994年02月,Vol.16, No.2,p150-162

Also Published As

Publication number Publication date
US20200389573A1 (en) 2020-12-10
JP2020197989A (ja) 2020-12-10
US11838674B2 (en) 2023-12-05

Similar Documents

Publication Publication Date Title
JP7391542B2 (ja) 画像処理システム、画像処理方法、およびプログラム
US10701332B2 (en) Image processing apparatus, image processing method, image processing system, and storage medium
US10475237B2 (en) Image processing apparatus and control method thereof
CN108668093B (zh) Hdr图像的生成方法及装置
TWI767985B (zh) 用於處理影像性質圖的方法及裝置
US9569688B2 (en) Apparatus and method of detecting motion mask
US11170511B2 (en) Image processing device, imaging device, and image processing method for replacing selected image area based on distance
JP2020129276A (ja) 画像処理装置、画像処理方法、およびプログラム
JPWO2017217296A1 (ja) 画像処理装置
JP2017138647A (ja) 画像処理装置、画像処理方法、映像撮影装置、映像記録再生装置、プログラム及び記録媒体
JP6365355B2 (ja) 画像生成装置および画像生成方法
JP7159198B2 (ja) 奥行きマップを処理するための装置及び方法
JP6575999B2 (ja) 照明情報取得装置、照明復元装置、およびこれらのプログラム
JP2004133919A (ja) 擬似3次元画像生成装置および生成方法並びにそのためのプログラムおよび記録媒体
US11457158B2 (en) Location estimation device, location estimation method, and program recording medium
WO2018155269A1 (ja) 画像処理装置および方法、並びにプログラム
JP6627530B2 (ja) 画像処理装置及びプログラム
US10902669B2 (en) Method for estimating light for augmented reality and electronic device thereof
TW202226158A (zh) 處理深度圖之設備及方法
JP7271115B2 (ja) 画像処理装置、背景画像の生成方法およびプログラム
JP4831344B2 (ja) 目の位置の検出方法
JP2019032742A (ja) 画像処理装置、画像処理方法及びプログラム
JP2022181493A (ja) 画像処理装置、画像処理方法およびプログラム
JP2024007899A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2005071389A (ja) 画像処理装置及び方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220527

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231122

R151 Written notification of patent or utility model registration

Ref document number: 7391542

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151