JP7119425B2 - 画像処理装置、符号化装置、復号化装置、画像処理方法、プログラム、符号化方法及び復号化方法 - Google Patents

画像処理装置、符号化装置、復号化装置、画像処理方法、プログラム、符号化方法及び復号化方法 Download PDF

Info

Publication number
JP7119425B2
JP7119425B2 JP2018036225A JP2018036225A JP7119425B2 JP 7119425 B2 JP7119425 B2 JP 7119425B2 JP 2018036225 A JP2018036225 A JP 2018036225A JP 2018036225 A JP2018036225 A JP 2018036225A JP 7119425 B2 JP7119425 B2 JP 7119425B2
Authority
JP
Japan
Prior art keywords
time
model
subject
image
viewpoint images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018036225A
Other languages
English (en)
Other versions
JP2019153863A (ja
Inventor
尚子 菅野
潤一 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2018036225A priority Critical patent/JP7119425B2/ja
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Priority to KR1020207023991A priority patent/KR20200116947A/ko
Priority to CN201880090216.8A priority patent/CN111788601A/zh
Priority to EP18753472.2A priority patent/EP3759683B1/en
Priority to US16/970,506 priority patent/US11508123B2/en
Priority to BR112020017315-0A priority patent/BR112020017315A2/pt
Priority to PCT/JP2018/027530 priority patent/WO2019167300A1/en
Priority to TW108105536A priority patent/TWI702568B/zh
Publication of JP2019153863A publication Critical patent/JP2019153863A/ja
Application granted granted Critical
Publication of JP7119425B2 publication Critical patent/JP7119425B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/16Spatio-temporal transformations, e.g. video cubism
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2625Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Library & Information Science (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Studio Circuits (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Processing Or Creating Images (AREA)

Description

本開示は、画像処理装置、符号化装置、復号化装置、画像処理方法、プログラム、符号化方法及び復号化方法に関する。
ストロボ合成画像を生成するための様々な処理が提案されている(例えば、特許文献1を参照のこと)。
特開2007-259477号公報
このような分野では、所望するストロボ合成画像を生成するための適切な処理を行うことが望まれている。
本開示は、例えば、3Dモデルを含むストロボ合成映像を生成する画像処理装置、符号化装置、復号化装置、画像処理方法、プログラム、符号化方法及び復号化方法を提供することを目的の一つとする。
本開示は、例えば、
第1時刻に被写体を撮像した複数の視点画像と、第2時刻に被写体を撮像した複数の視点画像と、第3時刻に被写体を撮像した複数の視点画像を取得する取得部と、
各時刻の被写***置に基づいて、第1時刻から第3時刻の少なくとも2つの時刻における各時刻の複数の視点画像に基づいて生成された各時刻の被写体の3Dモデルを含む、合成3Dモデルを生成する画像生成部と
3Dモデルを生成する際に用いられる複数の視点画像を選択する選択部とを有し、
3Dモデルを生成する際に用いられる複数の視点画像は、少なくとも、時刻が異なる被写体間の干渉度を参照して選択部により選択された画像であり、
干渉度は、所定の複数の視点画像に基づいて生成された3Dモデルと、他の複数の視点画像に基づいて生成された3Dモデルとの3次元空間における重なりの度合いを示す情報である
画像処理装置である。
本開示は、例えば、
第1時刻、第2時刻及び第3時刻における各時刻の被写***置に基づいて、第1時刻から第3時刻の少なくとも2つの時刻における各時刻の複数の視点画像に基づいて生成された各時刻の被写体の3Dモデル、及び、3Dモデルから変換された2D画像データ及び当該2D画像データに含まれる被写体の奥行を示すデプス画像データのうち、少なくとも一方と、
各時刻における3Dモデルが3次元空間において干渉していないことを示すフラグとを
所定の符号化方式で符号化することにより符号化データを生成する符号化部を有する
符号化装置である。
本開示は、例えば、
第1時刻、第2時刻及び第3時刻における各時刻の被写***置に基づいて、第1時刻から第3時刻の少なくとも2つの時刻における各時刻の複数の視点画像に基づいて生成された各時刻の被写体の3Dモデル、及び、3Dモデルから変換された2D画像データ及び当該2D画像データに含まれる被写体の奥行を示すデプス画像データのうち、少なくとも一方と、視点画像を取得する撮像装置のカメラパラメータと、視点画像の背景画像と、各時刻における3Dモデルが3次元空間において干渉していないことを示すフラグと含まれる符合化データを復号する復号部と、
背景画像とカメラパラメータとフラグとに基づいて、各時刻における被写体が分離された画像を生成し、生成された画像に基づいて3Dモデルを生成する変換部とを有する
復号化装置である。
本開示は、例えば、
取得部が、第1時刻に被写体を撮像した複数の視点画像と、第2時刻に被写体を撮像した複数の視点画像と、第3時刻に被写体を撮像した複数の視点画像を取得し、
画像生成部が、各時刻の被写***置に基づいて、第1時刻から第3時刻の少なくとも2つの時刻における各時刻の複数の視点画像に基づいて生成された各時刻の被写体の3Dモデルを含む、合成3Dモデルを生成し、
選択部が、3Dモデルを生成する際に用いられる複数の視点画像を選択し、
3Dモデルを生成する際に用いられる複数の視点画像は、少なくとも、時刻が異なる被写体間の干渉度を参照して選択部により選択された画像であり、
干渉度は、所定の複数の視点画像に基づいて生成された3Dモデルと、他の複数の視点画像に基づいて生成された3Dモデルとの3次元空間における重なりの度合いを示す情報である
画像処理方法である。
本開示は、例えば、
取得部が、第1時刻に被写体を撮像した複数の視点画像と、第2時刻に被写体を撮像した複数の視点画像と、第3時刻に被写体を撮像した複数の視点画像を取得し、
画像生成部が、各時刻の被写***置に基づいて、第1時刻から第3時刻の少なくとも2つの時刻における各時刻の複数の視点画像に基づいて生成された各時刻の被写体の3Dモデルを含む、合成3Dモデルを生成し、
選択部が、3Dモデルを生成する際に用いられる複数の視点画像を選択し、
3Dモデルを生成する際に用いられる複数の視点画像は、少なくとも、時刻が異なる被写体間の干渉度を参照して選択部により選択された画像であり、
干渉度は、所定の複数の視点画像に基づいて生成された3Dモデルと、他の複数の視点画像に基づいて生成された3Dモデルとの3次元空間における重なりの度合いを示す情報である
画像処理方法をコンピュータに実行させるプログラムである。
本開示は、例えば、
符号化部が、
第1時刻、第2時刻及び第3時刻における各時刻の被写***置に基づいて、第1時刻から第3時刻の少なくとも2つの時刻における各時刻の複数の視点画像に基づいて生成された各時刻の被写体の3Dモデル、及び、3Dモデルから変換された2D画像データ及び当該2D画像データに含まれる被写体の奥行を示すデプス画像データのうち、少なくとも一方と、
各時刻における3Dモデルが3次元空間において干渉していないことを示すフラグとを
所定の符号化方式で符号化することにより符号化データを生成する
符号化方法である。
本開示は、例えば、
復号化部が、第1時刻、第2時刻及び第3時刻における各時刻の被写***置に基づいて、第1時刻から第3時刻の少なくとも2つの時刻における各時刻の複数の視点画像に基づいて生成された各時刻の被写体の3Dモデル、及び、3Dモデルから変換された2D画像データ及び当該2D画像データに含まれる被写体の奥行を示すデプス画像データのうち、少なくとも一方と、視点画像を取得する撮像装置のカメラパラメータと、視点画像の背景画像と、各時刻における3Dモデルが3次元空間において干渉していないことを示すフラグとが含まれる符合化データを復号し、
変換部が、背景画像とカメラパラメータとフラグとに基づいて、各時刻における被写体が分離された画像を生成し、生成された画像に基づいて3Dモデルを生成する
復号化方法である。


本開示の少なくとも実施形態によれば、3Dモデルを含むストロボ合成映像を生成することができる。ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれの効果であっても良い。また、例示された効果により本開示の内容が限定して解釈されるものではない。
図1A及び図1Bは、実施形態において考慮すべき問題を説明する際に参照される図である。 図2A及び図2Bは、実施形態において考慮すべき問題を説明する際に参照される図である。 図3は、実施形態において考慮すべき問題を説明する際に参照される図である。 図4は、実施形態において考慮すべき問題を説明する際に参照される図である。 図5A及び図5Bは、実施形態において考慮すべき問題を説明する際に参照される図である。 図6A及び図6Bは、実施形態において考慮すべき問題を説明する際に参照される図である。 図7は、実施形態にかかる画像処理装置の構成例を説明するためのブロック図である。 図8は、実施形態にかかる画像処理装置により行われる処理例の流れを示すフローチャートである。 図9は、実施形態にかかるデータセットの一例を説明するための図である。 図10A及び図10Bは、被写体の動きの有無を判定する処理を説明する際に参照される図である。 図11A及び図11Bは、被写体の動きがないと判定される場合を模式的に示した図である。 図12は、被写体の動きの有無を判定する処理の他の例を説明する際に参照される図である。 図13は、被写体の動きの有無を判定する処理の他の例を説明する際に参照される図である。 図14A及び図14Bは、被写体間の干渉度が所定以下である例を模式的に示した図である。 図15は、被写体間の干渉度が所定より大きい例を模式的に示した図である。 図16は、実施形態の処理により得られる3Dストロボ合成映像の例を示す図である。 図17は、実施形態にかかる伝送システムの構成例を示すブロック図である。 図18は、実施形態にかかる伝送システムで行われる処理の例を説明するための図である。 図19は、実施形態にかかる伝送システムで行われる処理の他の例を説明するための図である。 図20は、実施形態にかかる伝送システムで行われる処理の他の例を説明するための図である。 図21は、実施形態にかかる伝送システムで行われる処理の他の例を説明するための図である。 図22A及び図22Bは、一般的なシルエット画像の例を示す図である。 図23A及び図23Bは、実施形態にかかるシルエット画像の例を示す図である。 図24は、自由視点撮像システムの例を模式的に示した図である。 図25は、伝送システムにおける受信側で行われる処理を説明する際に参照される図である。 図26A~図26Cは、複数のシルエット画像が合成されたシルエット画像から、特定のシルエットを抜き出す処理を説明する際に参照される図である。 図27は、一般的な方法で3Dモデルを表示する際に考慮すべき問題を説明するための図である。 図28は、実施形態にかかる3Dストロボ合成映像の表示方法の一例を説明する際に参照される図である。 図29は、実施形態にかかる3Dストロボ合成映像の表示方法の他の例を説明する際に参照される図である。
以下、本開示の実施形態等について図面を参照しながら説明する。なお、説明は以下の順序で行う。
<実施形態に関連する技術及び考慮すべき問題について>
<実施形態>
[画像処理部の構成例]
[実施形態における処理の流れ]
[伝送システム]
[表示例]
<変形例>
<実施形態に関連する技術及び考慮すべき問題について>
始めに、本開示の理解を容易とするために、実施形態に関連する技術及び考慮すべき問題について説明する。なお、以下では、説明に必要な範囲で実施形態の概要についても言及する。
一般に、撮像装置(カメラ)を使用したストロボ撮影が行われている。ストロボ撮影は、移動する被写体の軌跡等を表現・把握するために、定点カメラで撮影された映像を、ある時刻tからt'までのフレームを重ね合わせて合成する手法である。ストロボ撮影により得られた2次元的な画像(以下、2Dストロボ合成映像と適宜、称する)が、ユーザに対して表示される。
かかる2Dストロボ合成映像を得るために考慮すべき問題としては、手作業が発生するという点が挙げられる。例えば、被写体の動きが等速の場合、一定の時間間隔でフレームを間引くことにより被写体の重なりを無くして表現することは可能だが、被写体の移動速度が遅くなったときに、不適切な重なりが発生する。このような場合、手作業で間引くフレームを選択する作業が発生する。従って、このような手作業を行うことなく、ストロボ合成映像が自動で生成されることが望まれる。
ところで、被写体を取り囲むように配置された複数の撮像装置のそれぞれから得られる2次元画像データ等を用いて、被写体の3次元形状に対応する3次元データを生成することができる。本実施形態では、被写体の3次元形状である3Dモデルを用いたストロボ合成映像(以下、3Dストロボ合成映像と適宜、称する)を生成することができる(これらの処理の詳細は後述する。)。
一つの例として、各時刻における3Dモデルを時刻情報に基づいて重畳することにより、3Dストロボ合成映像を生成する手法が考えられる。かかる手法において考慮すべき問題について説明する。図1Aに示すように、時刻t1~t3において、物体(3次元物体)AAが視聴者に対して近づく場合を想定する。なお、時間t1は時間的に先であり、時刻t2、t3となるにつれて時間的に後になる。また、図1では、物体AAが円筒状もので模式的に示されているが、物体AAは何でも良い。
図1Bは、各時刻における物体AAを、時刻情報に基づいて重畳した3Dストロボ合成映像を示している。このように、物体AAが近づく場合には、時刻情報のみに基づいて3Dストロボ合成映像を生成しても問題は生じない。
次に、図2Aに示すように、時刻t1~t3において、物体AAが視聴者に対して遠ざかる場合を想定する。このような場合に、単に時刻情報のみに基づいて3Dストロボ合成映像を作成してしまうと、時間的に後の物体が次々に上書きされていく3Dストロボ合成映像となってしまう。例えば、図2Bに示すように、時間的に前に近くにあった物体AAが3Dストロボ合成映像における後側に表示され、時間的に後に遠くにあった物体AAが3Dストロボ合成映像における前側に表示され不適切なものとなってしまう。かかる点を考慮する必要がある。
図3は、上述した時刻情報を優先して3Dストロボ合成映像を生成した場合、物体の3次元位置として、正しい重畳表現にならないことを示した図である。図3に示すように、時間の経過(時刻t0、t1・・t4)に伴って、球状の物体ABが視聴者の位置から遠ざかる場合を想定する。時刻情報を優先して3Dストロボ合成映像を生成すると、時刻t4における物体AB、即ち、視聴者から距離的に遠くになる物体ABが主体的に表示される映像になってしまう。
そこで、本実施形態では、図4に示すように、視聴者から見た被写体までの距離が一番近い物(本例における時刻t0における物体AB)が手前に表示されるようにする。詳細は後述するが、かかる3Dストロボ合成映像を生成するために、本実施形態では、物体ABに関する奥行情報を用いる。
時刻情報のみを用いて3Dストロボ合成映像を生成する際に考慮すべき他の問題について説明する。図5Aに示すように、物体ABの移動速度が変化した場合を考える。例えば、図5Aに示すように、時刻t3で物体ABの移動速度が変化した場合(具体的には、移動速度が小さくなった場合)を想定する。図5Bは、図5Aに示す物体ABの軌跡を横から見た図である。かかる場合に、単純に一定間隔で物体ABを重畳して3Dストロボ合成映像を生成すると、物体ABの移動速度に変化が生じた場合に、各時刻における物体ABが干渉してしまい、部分的に不適切な映像となってしまう問題がある。
従って、本実施形態では、各時刻における物体AB同士が例えば3次元的に干渉しているか否かを判定し、干渉がある場合には重畳表示せず、干渉がない場合に重畳表示する。かかる処理により、図6A及び図6Bに模式的に示すように、適切な3Dストロボ合成映像を得ることができる。なお、干渉がないとは、干渉の度合いが0であることを意味しても良いし、干渉の度合いが閾値以下(例えば、10%以下)であることを意味しても良い。
また、一般に、ある時刻tを切り取って、その瞬間を自由な視点で視聴するタイムラプス(バレットタイム)という映像表現手法が知られている。従来は、ある時刻tのみの被写体を自由な視点で視聴していたが、本実施形態によれば、時刻t~t'の3Dモデルを合成した3Dストロボ合成映像を生成するので、時刻t~t'におけるタイムラプス表現が可能となる。
以上説明した考慮すべき問題を踏まえつつ、本開示の実施形態について詳細に説明する。
<実施形態>
[画像処理装置の構成例]
本実施形態では、被写体を取り囲むように配置された複数台(少なくとも2台以上)の撮像装置を含む自由視点撮像システムが採用される。一例として、自由視点撮像システムは、6台の撮像装置を有している。6台の撮像装置は、少なくとも一部が同一である被写体の動画像の2次元画像データを同期したタイミングで撮像することで、各撮像装置の配置位置(視点)に応じた画像(視点画像)を得る。
更に、本実施形態に係る自由視点撮像システムは、被写体までの距離を測定可能な測距装置を有している。測距装置は、例えば、各撮像装置に設けられ、その撮像装置と例えば同一の視点のデプス画像データを生成する。測距装置は、6台の撮像装置の一部の撮像装置のみが測距装置を有している構成であっても良い。また、測距装置は、撮像装置とは異なる装置であっても良く、この場合、測距装置は、撮像装置と異なる視点のデプス画像データを生成しても良い。本実施形態に係る自由視点撮像システムは、4台の測距装置を有している。測距装置としては、例えば、TOF(Time Of Fright)やLiDAR(Light Detection and Ranging)を挙げることができる。測距装置として、距離情報が得られるカメラ(ステレオカメラ)が適用されても良い。
各撮像装置は、撮像素子、CPU等の制御部、ディスプレイ等の公知の構成の他、画像処理装置を有している。なお、一部の撮像装置のみが画像処理装置を有する構成であっても良い。また、画像処理装置は、必ずしも撮像装置に組み込まれているものではなく、各撮像装置と通信(無線及び有線を問わない)可能なパーソナルコンピュータ等の独立した装置であっても良い。
図7は、本実施形態にかかる画像処理装置(画像処理装置1)の構成例を説明するためのブロック図である。画像処理装置1は、例えば、カメラキャリブレーション部11と、フレーム同期部12と、背景差分抽出部13と、3Dストロボ合成判定部14と、干渉検出部15と、フレーム選択部16と、3Dモデル生成部17と、3Dストロボ合成部18とを有している。
カメラキャリブレーション部11には、所定の時刻における6枚の2次元画像データ(6台の撮像装置のそれぞれにより取得された2次元画像データ)が入力される。例えば、カメラキャリブレーション部11には、ある時刻t1に被写体を撮像した複数(本実施形態では6枚)の視点画像と、他の時刻t2に被写体を撮像した6枚の視点画像と、更に他の時刻t3に被写体を撮像した6枚の視点画像とが入力される。なお、本実施形態では、カメラキャリブレーション部11が取得部として機能するが、上述した視点画像が入力されるインタフェースが取得部として機能しても良い。また、本実施形態では、時刻t1に被写体を撮像した複数の視点画像は、同期ずれがないことを前提にして記載しているが、同期ずれがある場合も含む。時刻t2、t3に被写体を撮像した複数の視点画像についても同様である。
3Dストロボ合成部18からは、3Dストロボ合成映像が出力される。即ち、3Dストロボ合成部18は、例えば時刻t1から時刻t3までの被写***置に基づいて、時刻t1から時刻t3の少なくとも2つの時刻における各時刻の複数の視点画像に基づいて生成された各時刻(上述した時刻t1から時刻t3までの時刻のうち少なくとも2つの時刻)の被写体の3Dモデルを含む、合成3Dモデル、即ち、3Dストロボ合成映像を生成する。
各構成について説明する。カメラキャリブレーション部11は、入力される2次元画像データに対して、カメラパラメータを用いてキャリブレーションを行う。なお、カメラパラメータとしては、内部パラメータと外部パラメータを挙げることができる。内部パラメータは、カメラ固有のパラメータであり、例えば、カメラレンズの歪みやイメージセンサとレンズの傾き(歪収差係数)、画像中心、画像(画素)サイズを算出するものである。内部パラメータを使用することにより、レンズ光学系で歪んだ画像を正しい画像に補正することが可能となる。一方の外部パラメータは、本実施形態のように、複数台のカメラがあったときに、複数台のカメラの位置関係を算出するものである。世界座標系におけるレンズの中心座標(Translation)とレンズ光軸の方向(Rotation)を算出するものである。
カメラキャリブレーションに関する手法としては、チェスボードを使用するZhangの手法が知られている。勿論、カメラキャリブレーションに関する手法としてZhangの手法以外の手法も適用可能である、例えば、3次元物体を撮像してパラメータを求める手法、2本の光線を直接カメラに向けて撮像することでパラメータを求める手法、プロジェクタを用いて特徴点を投影し、その投影画像を使ってパラメータを求める手法、LED(Light Emitting Diode)ライトを振って点光源を撮像してパラメータを求める手法等を適用することも可能である。
フレーム同期部12は、6台のうちの1つを基準撮像装置として設定し、残りを参照撮像装置とする。フレーム同期部12は、カメラキャリブレーション部11から供給される基準カメラの2次元画像データと参照カメラの2次元画像データに基づいて、参照カメラごとに、基準カメラに対する参照カメラの2次元画像データの同期ずれをmsecオーダーで検出する。検出した同期ずれに関する情報が保持され、当該情報に基づく補正処理が適宜、行われる。
背景差分抽出部13は、2次元画像データ毎に被写体と背景との分離を行い、例えば、被写体のシルエットを黒、その他の領域を白で表したシルエット画像と呼ばれる2値画像を生成する。背景差分抽出部13は、リアルタイムにシルエット画像を生成するようにしても良いし、一度、動画の撮像が終了した後、当該動画を構成するフレーム毎のシルエット画像を生成するようにしても良い。
3Dストロボ合成判定部14は、後段における3Dストロボ合成部18による3Dストロボ合成が可能であるか否かを判定する。本実施形態では、3Dストロボ合成判定部14は、被写体の動きがある場合に、3Dストロボ合成が可能であると判定する。被写体の動きがある場合とは、被写体の動きが所定以上の場合である。なお、動きの有無を判定するための閾値は、被写体の大きさ、形状等に応じて適切に設定される。なお、被写体の動きがない場合であっても、3Dストロボ合成映像が生成されるようにしても良い。
干渉検出部15は、背景差分抽出部13により生成されたシルエット画像やシルエット画像に基づく3Dモデルに基づいて、被写体の干渉度を検出する。本実施形態では、干渉度が0、即ち、被写体が干渉していない場合や干渉度が所定以下の場合(以下、これらを干渉度が所定以下の場合と総称することがある)に、3Dストロボ合成映像が生成される。
フレーム選択部16は、干渉検出部15により干渉度が所定以下と判定されたフレームを選択する。
3Dモデル生成部17は、各撮像装置の視点に基づく2次元画像データ及びデプス画像データ、並びに、各撮像装置のパラメータを用いて、Visual Hull等によるモデリングを行い、メッシュを作成する。そして、3Dモデル生成部17は、所定の色情報に基づいてメッシュに対するテキスチャマッピングを行い、その結果である3Dモデルを生成する。例えば、3Dモデル生成部17は、所定の時刻における、各撮像装置の視点に基づく2次元画像データ及びデプス画像データ、並びに、各撮像装置のパラメータを用いて、3Dモデルをリアルタイムに生成する。
3Dストロボ合成部18は、3Dモデル生成部17で生成された複数の3Dモデルを所定の背景に重畳表示することにより3Dストロボ合成映像を生成して出力する。
なお、生成された3Dストロボ合成映像は、例えば、撮像装置が有するディスプレイに表示される。3Dストロボ合成映像が、撮像装置と異なる装置が有するディスプレイに表示されても良い。このようなディスプレイとして、パーソナルコンピュータのディスプレイ、テレビジョン装置のディスプレイ、VR(Virtual Reality)を創出する装置のディスプレイ等が挙げられる。また、ディスプレイは、空間に存在する物体及び当該物体に映像を投射する、所謂、プロジェクションマッピング可能な装置であっても良い。
[実施形態における処理の流れ]
次に、本実施形態において行われる処理の流れの一例について説明する。図8は、当該処理の流れを示すフローチャートである。特に断らない限り、図8に示すフローチャートにおける処理は、画像処理装置1により行われる。
(処理の概要)
ステップST11では、自由視点撮像システムにより取得された2次元画像データを含むデータ(以下、データセットと適宜、称する)が画像処理装置1に入力される。ステップST12では、画像処理装置1が被写体の動きを判定する。ステップST13では、ステップST12の判定結果に基づいて、画像処理装置1が、3Dストロボ合成が可能であるか否かを判定する。ここで、3Dストロボ合成が可能でないと判定された場合には、処理がステップST16に進み、3Dストロボ合成に関する処理が行われない。ステップST13で、3Dストロボ合成が可能であると判定さされた場合には、処理がステップST14に進む。ステップST14では、画像処理装置1がモデリングするフレームを選択する。ステップST15では、画像処理装置1が、ステップST14で選択されたフレームに基づいて3Dストロボ合成を行い、3Dストロボ合成映像を生成する。
(ステップST11の処理について)
各処理について、詳細に説明する。ステップST11では、データセットが画像処理装置1に入力される。本実施形態におけるデータセットには、自由視点撮像システムにより取得された2次元画像データと、測距装置により取得された被写体の奥行情報(デプス情報)と、カメラパラメータとが含まれる。
図9は、自由視点撮像システムにより取得された2次元画像データの一例を示している。図9では、時刻t0から時刻t7までの間に6台の撮像装置が同期して撮像することにより得られる2次元画像データの例が示されている。本例における被写体ADは、人物である。例えば、時刻t0で行われた6台の撮像装置による同期した撮像により2次元画像データIM10、IM10・・IM60が得られる。時刻t7で行われた6台の撮像装置による同期した撮像により2次元画像データIM17、IM18・・IM67が得られる。なお、時刻tは、撮像装置のフレームレート(例えば、60fps(frame per second)、120fps等)に応じて設定される。
(ステップST12の処理について)
ステップST12では、画像処理装置1が被写体の動きを判定する。具体的には、3Dストロボ合成判定部14が、データセットに含まれる被写体の奥行情報(距離情報)に基づいて、被写体の動きを判定する。
図10A及び図10Bは、3Dストロボ合成判定部14により行われる被写体の動きを判定する処理の一例を説明するための図である。図10A及び図10BにおけるAS1~AS4は、測距装置をそれぞれ示している。また、図10A及び図10Bでは、スケートリンク上のスケーターである被写体AEを例にして説明する。
図10Aに示すように、ある時刻t0において、測距装置AS1により奥行情報d1が計測される。同様に、測距装置AS2により奥行情報d2が計測され、測距装置AS3により奥行情報d3が計測され、測距装置AS4により奥行情報d4が計測される。
そして、図10Bに示すように、時刻0(t=0)より時間的に後の時刻t'(t=t')おいて、被写体AEが動いた場合は、奥行情報d1、d2、d3、d4が変化する。この変化を検出することにより、被写体AEの動きの有無を判定することができる。例えば、奥行情報d1、d2、d3、d4の少なくとも1つの変化が閾値以上の場合に、被写体AEの動きが有ると判定される。一方で、図11A及び図11Bに示すように、時刻0及び時刻t'のそれぞれにおいて測距装置AS1~AS4で取得される距離情報に変化がない場合(変化が閾値以下の場合も含む)は、被写体AEの動きがないと判定される。
なお、どの程度の奥行情報の変化でもって動きがあったと判定するか、即ち、動きの有無を判定するための奥行情報に関する閾値は、被写体の形状、大きさに応じて適切に設定される。
なお、本実施形態では、4台の測距装置AS1~AS4を用いた例を説明したが、1台の測距装置でも良く、当該測距装置により得られる奥行情報の変化に基づいて、被写体の動きの有無を判定することができる。また、奥行情報ではなく、点状データ(ポイントクラウドとも称される)の発生頻度に基づいて、被写体の動きの有無を判定しても良い。測距装置やポイントクラウドの情報を使って3次元物体である被写体の移動や位置を検出することにより、被写体の動きを簡易的に確認することができる。
自由視点撮像システムにおいて、測距装置等のセンサがない場合に、被写体AEの動きを判断する方法について説明する。例えば、図12に示すように、時刻tからt'までの2次元画像データに基づくシルエット画像を生成する。この際に、時刻tからt'までの時刻を適宜、間引いて、シルエット画像に生成するための用いる2次元画像データを限定しても良い。そして、シルエット画像における被写体AEに重なりがない場合には、被写体AEが動いたと判定されるようにしても良い。
また、透視投影の原理を使用して、ある撮像装置の位置におけるシルエットのサイズを計測する。例えば、図13に示すように、透視投影では、近い物体(例えば、円筒状の物体BB)は大きく、遠い物体は小さく写る。シルエットのサイズの変化が閾値以上である場合には、物体が移動したものと判定するようにしても良い。
これらの方法以外にも、被写体が人間である場合には、人間の顔検出処理等を行うことにより人間の特徴点を検出し、特徴点の移動結果に基づいて、被写体の動きの有無を判定するようにしても良い。また、被写体の動きベクトルを公知の方法に基づいて検出し、その結果に応じて被写体の動きの有無を判定するようにしても良い。また、被写体がマーカを有する構成として、当該マーカの動きを検出することにより被写体の動きを判定するようにしても良い。このようなマーカとしては、可視光以外ではっきり写る再帰反射材や、発信機等を挙げることができる。
また、自由視点撮像システムにおける複数の撮像装置のうち、所定の撮像装置により得られる2次元画像データ(それに基づくシルエット画像を含む)のみを使用して、被写体の動きを判定するようにしても良い。
(ステップST13の処理について)
ステップST13では、3Dストロボ合成判定部14が、3Dストロボ合成が可能であるか否かを判定する。2次元(2D)であれ、3次元(3D)であれ、ストロボ合成映像の一つの利点は、被写体の動きの軌跡を知ることができる点である。従って、3Dストロボ合成判定部14は、ステップST12において被写体の動きがあると判定された場合に、3Dストロボ合成が可能であると判定する。
なお、被写体の動きがない場合であっても3Dストロボ合成が不可能となるわけではない。得られる3Dストロボ合成映像が、特定の領域に多数の3Dモデルが重なってしまう映像となってしまい、有意な3Dストロボ合成映像が得られなくなるだけである。しかしながら、この場合でも、表示方法を工夫することにより有意な3Dストロボ合成映像を得ることが可能となる。なお、表示方法の詳細は、後述する。
(ステップST14の処理について)
ステップST14では、3Dモデルを生成する際(モデリングする際)に使用される複数の視点画像、即ち、フレームが選択される。ステップST14では、例えば、画像処理装置1における干渉検出部15及びフレーム選択部16により行われる。3Dモデルを生成する際にデータセットを構成する全ての2次元画像データを使用しても良いが、本実施形態では、処理の負荷や、得られる3Dストロボ合成映像の見やすさ等を考慮して、3Dモデルを生成する際に使用されるフレームを選択するようにしている。具体的には、データセットを構成する2次元画像データを時間方向に間引く。なお、間引く際は、ある時刻tで同期して撮像された6枚の2次元画像データが間引かれる。換言すれば、ある時刻tにおける6枚の2次元画像データのセットを単位として、3Dモデルの生成に用いるセットと、間引くフレームのセットとが選択される。
干渉検出部15は、例えば、シルエット画像における被写体の位置を参照して、異なる時刻(例えば、前後の時刻)で撮像された被写体間の重なりの程度を示す干渉度を検出する。図14Aは、被写体間で重なりがない(干渉度=0となる)場合を示している。図14Bは、被写体間で重なりがある場合を示している。干渉検出部15は、検出した干渉度をフレーム選択部16に出力する。
フレーム選択部16は、干渉度を参照して、より具体的には、干渉検出部15からの干渉度が閾値(例えば10%)以下となるように、データセットにおける2次元画像データを適宜、間引く。そして、本実施形態では、フレーム選択部16が、間引いた後のデータセット、即ち、3Dモデリングに使用する2次元画像データを含むデータセットに対しては、被写体間で干渉がないことを示すフラグ、換言すれば、干渉度が閾値以下であることを示すフラグを付加する。
なお、上述した例では、シルエット画像におけるシルエットを用いて干渉度を検出する例について説明したが、被写体間の3次元的な干渉度を用いて、被写体の3次元空間における重なりの程度を判定することが好ましい。例えば、ある時刻tにおける6枚のシルエット画像に基づいて、3Dモデル生成部17が3Dモデルを生成する。他の時刻における3Dモデルも同様に生成される。3Dモデルの3次元空間における位置を比較することにより、3次元空間における3Dモデル間の干渉度を検出することが可能となる。
なお、3Dモデルを使用して3次元空間な重なりを判断する際に、3Dモデルは、擬似的な3Dモデルであっても良い。擬似的な3Dモデルとは、例えば、全視点分(本実施形態では、6台分)のうち一部の視点分のシルエット画像に基づく3Dモデルであり、干渉度を算出できる程度のものである。疑似的な3Dモデルは3Dモデルに比して荒い形状となるものの3Dモデルに比べ高速に生成できるので、干渉度を高速に判断することができる。また、バンディングボックス(3次モデルを作成できる空間であり、一例として撮像装置の撮像範囲に対応する空間)の位置だけで判断しても良く、この場合でも同様の効果が得られる。
また、フレーム選択部16により2次元画像データが選択された後、各2次元画像データに対応するシルエット画像が生成されるようにしても良い。
また、フレーム選択部16は、まず時間方向に等間隔でフレームを間引いてから、更に、干渉度に基づいてフレームを間引くようにしても良い。
また、干渉度については、3次元空間における重なりの有無、即ち、論理的な0,1判定でも良いし、上述した例のように、閾値(例えば、重なりの度合いが10%以下)としても良い。但し、閾値を用いた手法の方が、被写体の干渉度合いをコントロールできるので好ましい。また、画像認識等に基づく結果(被写体の大きさや形状等)や撮像装置に設定されているモードに基づいて、干渉度における閾値が動的に変更されるようにしても良い。
また、図15に示すように、例えば被写体AEを横方向から見た場合に、被写体AEが干渉していると判定される場合であっても、上から被写体AEを見た場合には、被写体AEの干渉度が閾値以下と判定される場合もある。従って、複数の撮像装置のうち、被写体の干渉度を適切に判断できる撮像装置(例えば、被写体を上方向から撮像可能な、天井に設置されている撮像装置)により得られる2次元画像データ(それに基づくシルエット画像でも良い)に基づいて、被写体間の干渉度を判定するようにしても良い。
(ステップST15の処理について)
ステップST15では、3Dストロボ合成処理が行われる。3Dストロボ合成処理は、例えば、3Dモデル生成部17及び3Dストロボ合成部18により行われる。3Dモデル生成部17は、フレーム選択部16により選択された、ある時刻tにおける6枚の2次元画像データに対応する6枚のシルエット画像を使用して、3Dモデルを生成する。同様に、3Dモデル生成部17は、フレーム選択部16により選択された、他の時刻における6枚の2次元画像データに対応する6枚のシルエット画像を使用して、3Dモデルを生成する。そして、3Dストロボ合成部18は、生成した各3Dモデルを所定の背景の所定の位置にそれぞれマッピングし、図16に例示するような3Dストロボ合成映像を生成する。なお、図16は、図示の制約上、被写体AEが2次元的に示されているが、実際には3Dモデルにて表示される。また、図16に示す例は、3Dストロボ合成映像における各3Dモデルが互いに干渉していない例を示しているが、一部が干渉していても良い。上述したように、3Dストロボ合成映像における3次元空間における干渉度が所定以下であれば良い。
なお、3Dストロボ合成部18は、ある時刻t~所定の時刻t'までの画像を合成して一括で3Dモデルを生成するようにしても良い。例えば、フレーム選択部16により選択されたフレーム(2次元画像データ)に対応するシルエット画像が、対応する撮像装置毎(視点毎)に時間方向に沿って合成される。そして、撮像装置毎に合成された6枚のシルエット画像(以下、合成シルエット画像と適宜、称する)が得られる。この6枚の合成シルエット画像を用いて一括で3Dモデルを生成するようにしても良い。本実施形態では、被写体間の干渉度が所定以下の場合に3Dモデルを生成するようにしているので、合成シルエット画像に基づいて、一括して3Dモデルを生成することが可能となる。かかる処理により並列処理が可能となり、処理の短縮化を図ることができる。
以上説明したように、本実施形態によれば、3Dストロボ合成映像を自動で生成することができる。また、被写体間の干渉度合いを考慮して3Dストロボ合成映像を生成しているので、手作業で間引くフレームを選択することなく、適切な3Dストロボ合成映像を生成することができる。また、ある時刻tから時刻t'までの被写体変化を自由な視点で視聴することができる。
[伝送システム]
次に、本実施形態にかかる伝送システムについて説明する。本出願人は、3Dデータを効率的に伝送する手法として、国際公開2017/082076号に記載の技術を先に提案している。先の提案にて開示されている事項は、本開示に対して適用することができる。
(伝送システムの概略)
先に提案された技術を踏まえつつ、本実施形態にかかる伝送システムについて説明する。図17は、実施形態にかかる伝送システム(以下、伝送システム100と適宜、称する)を示している。伝送システム100は、送信側として、3次元データ撮像装置101と、変換装置102と、符号化装置103とを有している。また、伝送システム100は、受信側として、復号化装置201と、変換装置202と、3次元データ表示装置203とを有している。
3次元データ撮像装置101としては、上述した自由視点撮像システムを適用することができる。即ち、3次元データ撮像装置101により、各撮像装置により撮像された2次元画像データとデプス画像データが得られる。
また、各撮像装置が有する画像処理装置1は、各撮像装置の視点の2次元画像データ及びデプス画像データ、並びに、各撮像装置の内部パラメータ及び外部パラメータを用いて、Visual Hull等によるモデリングを行い、メッシュを作成する。画像処理装置1は、作成されたメッシュを構成する各点(Vertex)の3次元位置と各点のつながり(Polygon)を示す幾何情報(Geometry)と、そのメッシュの2次元画像データとを被写体の3次元データとして生成する。
なお、複数の視点の2次元画像データとデプス画像データから3次元データを生成する方法の詳細は、例えば、Saied Moezzi, Li-Cheng Tai, Philippe Gerard, “Virtual View Generation for 3D Digital Video”, University of California, San DiegoやTakeo Kanade and Peter Rander,P.J. Narayanan, " Virtualized Reality:Constructing Virtual Worlds from Real Scenes"に記載されている。
変換装置102は、所定の表示画像生成方式に対応する複数の視点の仮想カメラの内部パラメータと外部パラメータをカメラパラメータとして設定する。そして、カメラパラメータに基づいて、各撮像装置から供給される3次元データを2次元画像データ及びデプス画像データに変換し、所定の表示画像生成方式に対応する複数の視点の2次元画像データとデプス画像データとを生成する。変換装置102は、生成した2次元画像データとデプス画像データとを符号化装置103に供給する。
なお、3次元データから複数の視点の2次元画像データとデプス画像データを生成する3DCG技術の詳細は、例えば、谷本正幸、「究極の映像通信を目指して」電子情報通信学会技術研究報告. CS, 通信方式 110(323), 73-78, 2010-11-25等に記載されている。
本明細書では、2次元画像データとデプス画像データの視点は同一であるものとするが、2次元画像データとデプス画像データの視点及び視点の数は、異なっていてもよい。また、2次元画像データとデプス画像データの視点及び視点の数は、撮像装置のカメラの視点と同一であっても、異なっていてもよい。
符号化装置103は、各撮像装置から供給される3次元データから、所定の表示画像生成方式に対応する複数の視点からは見えないオクルージョン領域の3次元データ(以下、オクルージョン3次元データという)を抽出する。そして、符号化装置103は、所定の表示画像生成方式に対応する複数の視点の2次元画像データ及びデプス画像データ、オクルージョン3次元データ、並びに、各視点のカメラパラメータ等の仮想カメラに関する情報であるカメラ関連情報を含むメタデータに対する所定の符号化方式による符号化処理を、符号化部(不図示)により行う。符号化方式としては、MVCD(Multiview and depth video coding)方式、AVC方式、HEVC方式等を採用することができる。
符号化方式がMVCD方式である場合、全ての視点の2次元画像データとデプス画像データは、まとめて符号化される。その結果、2次元画像データとデプス画像データの符号化データとメタデータを含む1本の符号化ストリームが生成される。この場合、メタデータのうちのカメラパラメータは、符号化ストリームのreference displays information SEIに配置される。また、メタデータのうちのデプス画像データに関する情報は、Depth representation information SEIに配置される。
一方、符号化方式がAVC方式やHEVC方式である場合、各視点のデプス画像データと2次元画像データは別々に符号化される。その結果、各視点の2次元画像データとメタデータを含む各視点の符号化ストリームと、各視点のデプス画像データの符号化データとメタデータとを含む各視点の符号化ストリームが生成される。この場合、メタデータは、例えば、各符号化ストリームのUser unregistered SEIに配置される。また、メタデータには、符号化ストリームとカメラパラメータ等とを対応付ける情報が含まれる。
なお、メタデータに符号化ストリームとカメラパラメータ等とを対応付ける情報を含めず、符号化ストリームに、その符号化ストリームに対応するメタデータのみを含めるようにしてもよい。
符号化装置103は、符号化ストリームを復号化装置201に伝送する。なお、本明細書では、メタデータが符号化ストリームに配置されて伝送されるようにするが、符号化ストリームとは別に伝送されるようにしてもよい。
復号化装置201が有する復号化部(不図示)は、符号化装置103から伝送されてくる符号化ストリームを受け取り、符号化ストリームを符号化方式に対応する方式で復号する。復号化部は、その結果得られる複数の視点の2次元画像データ及びデプス画像データ、並びにメタデータを変換装置202に供給する。
変換装置202は、複数の視点の2次元画像データとデプス画像データから、3Dモデルを生成し、所定の背景に3Dモデルをマッピングした表示画像データを生成する。そして、変換装置202は、表示画像データを3次元データ表示装置203に供給する。
3次元データ表示装置203は、2次元ヘッドマウントディスプレイや2次元モニタ、3次元ヘッドマウントディスプレイや3次元モニタなどにより構成される。3次元データ表示装置203は、供給される表示画像データに基づいて、3Dストロボ合成映像を表示する。なお、3Dストロボ合成映像ではなく、個々の3Dモデルを独立したモデルで表現(例えば、表示)することも可能である。
(伝送システムにおける3Dモデルの生成)
図18は、上述した伝送システム100をより簡略化して示している。送信側では、3Dモデルが生成され、3Dモデルが2次元画像データ(RGB等の色情報を含む)及びデプス画像データに変換される。2次元画像データ、デプス画像データ等が符号化装置103により符号化されて伝送される。
送信側において3Dモデルを生成する際に、上述した3Dモデルの生成方法を適用することができる。伝送区間は3Dストロボ合成映像で表現すると送信側で決めている場合は、フレーム数を削減することができる。即ち、上述したように、3Dモデルを生成する際に本実施形態ではフレーム選択部16により3Dモデル生成に使用するフレームが選択されているため、伝送するデータ量を削減することができる。例えば、自由視点撮像システムにおいて得られたフレーム数が120フレームであった場合でも、3Dストロボ合成するために間引いて表現するために、伝送するフレーム数が少なく(例えば、12フレーム)で済む。なお、図示する例では、2次元画像データ、デプス画像データ及びメタデータを符号化して伝送するようにしているが、3Dモデルそのものを、換言すれば、受信側で3Dモデルを再現可能な3次元データを所定の符号化形式で符号化してから伝送するようにしても良い。受信側では、3Dモデルが送信された場合には、対応する2次元画像データに基づいてテキスチャマッピングすれば良い。
なお、受信側では、送信側から伝送される2次元画像データとデプス画像データとに基づいて3次元データを生成し、自由視点に対して、その3次元データに対応する3次元物体の透視投影を行うことにより、自由視点の2次元画像データを生成することができる。従って、送信側から3Dモデルを送信した場合でも、受信側で当該3Dモデルに対応する2次元画像データを生成することができる。
なお、図19に示すように、送信データ(符号化されたデータ)に3Dストロボ合成フラグを含めるようにしても良い。受信側は、送信側から送信されるデータに3Dストロボ合成フラグが含まれる場合や、そのフラグが「1」(又は「0」でも良い。)である場合のみに、3Dストロボ合成映像を生成する処理を行うようにしても良い。
また、3Dストロボ合成フラグがない場合に、受信側で3Dストロボ合成映像を生成できるか否かの判断が行われるようにしても良い。例えば、図20に示すように、送信側からは、2次元画像データのみを送信する。受信側では、2次元画像データにおける被写体のデプス情報を公知の画像処理を使用して求める。また、受信側で、上述した3Dモデルを生成する処理が行われ、3Dストロボ合成映像の生成が可能であるか否かが判断される。3Dストロボ合成映像の生成が可能である場合に、3Dストロボ合成映像が生成されるようにしても良い。
(物体分離を行う方法について)
なお、図21に示すように、被写体間の干渉度が所定以下の場合に、3次元空間において被写体が干渉していないことを示すフラグを付加して良いことは既に述べた通りである。かかるフラグを伝送することで、受信側における物体分離が可能となる。この点について詳細に説明する。
図22Aは、時刻t0から時刻t2までの球状の被写体AFの移動の様子を示している。図22Bは、各時刻の被写体AFに対応するシルエット画像を示している。一般的には、各時刻における被写体AFの位置に応じたシルエット画像SI1~SI3が生成される。
図23Aは、図23Aと同様に、時刻t0から時刻t2までの球状の被写体AFの移動の様子を示している。本実施形態では、図23Bに示すように、例えば、シルエット画像SI1~SI3を合成した合成シルエット画像SI4を生成できる。
ここで、図24に示すように、時刻tの経過に伴って移動する被写体AFを、5台の撮像装置で取り囲んで撮像する自由視点撮像システムを想定する。かかる自由視点撮像システムにて得られた2次元画像データ等を伝送する際に3次元空間で被写体が干渉していないことを示すフラグと共に、図25に示すように、背景画像をあわせて伝送する。なお、カメラパラメータには、3次元位置における各撮像装置の位置が含まれている。また、図25における2次元画像データ及びデプス画像データは、色情報を含む3Dモデルであっても良い。
受信側では、背景画像とカメラパラメータとを参照することにより、3Dストロボ合成映像に対応するシルエット画像を生成することができる。かかるシルエット画像の例が図26Aにシルエット画像SI5~SI9として示されている。更に、受信側では、背景画像を参照することにより、例えば、シルエット画像SI5からある時刻における被写体AFに対応するシルエットを分離することも可能である。
シルエットの分離は、3Dモデルをカメラ視点に再投影することにより可能となる。シルエットを分離する方法の一例について説明する。Visual Hull(視体積交差法)は複数台のカメラが撮影するシルエット画像を使って、3D物体(メッシュ)を生成する。例えば、図24に示した5台の撮像装置を利用した自由視点撮像システムにより得られる合成シルエット画像SI5画像を用いてVisual Hullが生成される。この状態では、まだ3つの物体がくっついた状態(円柱が3つ横並びで引っ付いた状態)である。次に合成シルエット画像SI6像を使ってVisual Hullを削る。これにより、3D物体が3つに分離される。この順で合成シルエット画像SI9までシルエット画像をVisual Hullの立方体に投影していくと、3つの球体が出来上がる。画像データ(物体の光線情報)から、Visual Hullを生成できたということは、カメラパラメータが既知の場合であれば、3D物体のデプスをカメラに再投影することが可能となる。即ち、物体ごとにデプス情報をカメラに再投影すると、そのカメラに映っている形状を判別することができる。更にそのデプスを論理的な2値である0,1情報に変換すると、それが分離されたシルエットになる。以上のようにして、シルエットの分離が可能となる。
そして、分離されたある時刻におけるシルエットを含むシルエット画像に基づいて、独立した3Dモデルを生成することも可能となる。更に、被写体AFの動きベクトルが検出できる場合には、被写体AFのある時刻における位置を補間することができる。そして、補間された被写体AFの位置にシルエットを含むシルエット画像を生成でき、当該シルエット画像に基づく3Dモデルを生成することができる。
このように、伝送システム100において、被写体間の干渉がないことを示すフラグを付加することで、送信側は、例えば、ある時刻tからt'までの1枚の合成シルエット画像を送信すれば良く、伝送されるデータのデータ量を削減できる。受信側では、1枚の合成シルエット画像に基づいて、各時刻における被写体を分離したシルエット画像を生成することができる。生成したシルエット画像に基づいて3Dモデルを生成することができる。受信側は、生成した3Dモデルを独立したモデルとして表示しても良いし、生成した各時刻における3Dモデルを所定の背景に重畳させることにより生成した3Dストロボ合成映像を表示しても良い。
[表示例]
次に、3Dストロボ合成映像における各3Dモデルの表示例について説明する。なお、以下に説明する表示に関する制御は、例えば、3Dストロボ合成部18により行われる。本実施形態では、3Dストロボ合成部18を表示制御部の一例として説明するが、画像処理装置1が、3Dストロボ合成部18とは異なる表示制御部を有する構成でも良い。
(第1の表示例)
第1の表示例は、被写体が視聴者から遠ざかる場合に、時間的に最新の被写体(オブジェクト)、換言すれば、位置的に奥側にある被写体をより鮮明に見えるようにする表示例である。例えば、図27に示す3Dストロボ合成映像では、時間的に最新(図示の例では時刻t4)の被写体が見えない若しくは見づらくなってしまう。そこで、図28に示すように、時間的に最新の被写体が鮮明に見えるようにする。例えば、時間的に前の被写体(図示の例では、時刻t0~時刻t3の被写体)をワイヤフレーム表示したり、半透明にしたり、疎なポイントクラウドにする。また、時間的に前の被写体(時刻t0における被写体)から最新の被写体(時刻t4における被写体)にかけて、被写体の濃度が濃くなるようにしても良い。かかる表示により、視聴者は奥にある3Dモデルを鮮明に見ることが可能となる。
(第2の表示例)
第2の表示例は、生成した3Dモデルを本来の位置と異なる位置に配置する例である。被写体の動きがない場合や、被写体の動きが所定以下の場合であっても3Dストロボ合成映像を生成しても良いことは、既に説明した通りである。かかる場合に、生成した3Dモデルを本来の位置で単純に配置してしまうと、図29Aに模式的に示すように、3Dモデルが特定の領域に集中した映像となってしまう。
そこで、各時刻で3Dモデルを生成し、3Dモデルを表示する位置を本来の位置と異なるように、換言すれば、互いの3Dモデルの干渉度が所定以下となるように各3Dモデルを再配置して3Dストロボ合成映像を生成する。例えば、図29Bに示すように、生成した3Dモデルを本来の位置と異なる円状の方向にそれぞれ配置した3Dストロボ合成映像を生成する。また、図29Cに示すように、生成した3Dモデルを本来の位置と異なる横方向の方向にそれぞれ配置した3Dストロボ合成映像を生成するようにしても良い。なお、このように複数の3Dモデルの配置を調整した場合、一部の3Dモデルの位置が本来の位置と一致していても良い。
なお、複数の異なる被写体(例えば、サッカーやバスケットボールにおける選手)が存在する場合は、特定の被写体をトラッキングする、若しくは、各被写体を識別するフラグ等を設定することにより、被写体毎の3Dストロボ合成映像を生成することができる。
<変形例>
以上、本開示の実施形態について具体的に説明したが、本開示の内容は上述した実施形態に限定されるものではなく、本開示の技術的思想に基づく各種の変形が可能である。
本開示は、装置、方法、プログラム、システム等により実現することもできる。例えば、上述した実施形態で説明した機能を行うプログラムをダウンロード可能とし、実施形態で説明した機能を有しない装置が当該プログラムをダウンロードしてインストールすることにより、当該装置において実施形態で説明した制御を行うことが可能となる。本開示は、このようなプログラムを配布するサーバにより実現することも可能である。また、各実施形態、変形例で説明した事項は、適宜組み合わせることが可能である。
本開示は、以下の構成も採ることができる。
(1)
第1時刻に被写体を撮像した複数の視点画像と、第2時刻に上記被写体を撮像した複数の視点画像と、第3時刻に上記被写体を撮像した複数の視点画像を取得する取得部と、
各時刻の被写***置に基づいて、前記第1時刻から前記第3時刻の少なくとも2つの時刻における各時刻の複数の視点画像に基づいて生成された各時刻の被写体の3Dモデルを含む、合成3Dモデルを生成する画像生成部とを有する
画像処理装置。
(2)
前記被写体の位置の変化に応じて前記被写体の動きの有無を判定する判定部を有し、
前記画像生成部は、前記判定部により前記被写体の動きがあると判定された場合に、前記合成3Dモデルを生成する
(1)に記載の画像処理装置。
(3)
前記3Dモデルを生成する際に用いられる前記複数の視点画像を選択する選択部を有する
(1)又は(2)に記載の画像処理装置。
(4)
前記3Dモデルを生成する際に用いられる前記複数の視点画像は、少なくとも、時刻が異なる被写体間の干渉度を参照して前記選択部により選択された画像である
(3)に記載の画像処理装置。
(5)
前記干渉度は、所定の複数の視点画像に基づいて生成された3Dモデルと、他の複数の視点画像に基づいて生成された3Dモデルとの3次元空間における重なりの度合いを示す情報である
(4)に記載の画像処理装置。
(6)
前記干渉度は、所定の複数の視点画像のうちの一部の視点画像に基づいて生成された擬似的な3Dモデルと、他の複数の視点画像のうちの一部の視点画像に基づいて生成された擬似的な3Dモデルとの3次元空間における重なりの度合いを示す情報である
(4)に記載の画像処理装置。
(7)
前記合成3Dモデルに含まれる各3Dモデルの3次元空間における干渉度が所定以下である
(1)から(6)までの何れかに記載の画像処理装置。
(8)
前記合成3Dモデルに含まれる各3Dモデルが、3次元空間において互いに干渉していない
(7)に記載の画像処理装置。
(9)
前記3Dモデルは、対応する時刻で得られた複数の視点画像に基づいて、リアルタイムに生成される
(1)から(8)までの何れかに記載の画像処理装置。
(10)
前記3Dモデルは、各時刻の複数の視点画像を視点毎に合成した合成画像に基づいて生成される
(1)から(9)までの何れかに記載の画像処理装置。
(11)
前記3Dモデルは、前記視点画像から被写体と背景とを分離したシルエット画像に基づいて生成される
(1)から(10)までの何れかに記載の画像処理装置。
(12)
前記合成3Dモデルを表示装置へ表示する表示制御部を有する
(1)から(11)までの何れかに記載の画像処理装置。
(13)
前記表示制御部は、前記合成3Dモデルに含まれる複数の3Dモデルのうち、時間的に後の3Dモデルを他の3Dモデルに比べて鮮明に表示する
(12)に記載の画像処理装置。
(14)
前記表示制御部は、前記被写体の位置の変化が所定以下の場合に、前記3Dモデルの表示位置を本来の位置と異なる位置に配置して生成された合成3Dモデルを表示する
(12)に記載の画像処理装置。
(15)
第1時刻、第2時刻及び第3時刻における各時刻の被写***置に基づいて、前記第1時刻から前記第3時刻の少なくとも2つの時刻における各時刻の複数の視点画像に基づいて生成された各時刻の被写体の3Dモデル、及び、前記3Dモデルから変換された2D画像データ及び当該2D画像データに含まれる被写体の奥行を示すデプス画像データのうち、少なくとも一方と、
前記各時刻における3Dモデルが干渉していないことを示すフラグとを
所定の符号化方式で符号化することにより符号化データを生成する符号化部を有する符号化装置。
(16)
第1時刻、第2時刻及び第3時刻における各時刻の被写***置に基づいて、前記第1時刻から前記第3時刻の少なくとも2つの時刻における各時刻の複数の視点画像に基づいて生成された各時刻の被写体の3Dモデル、及び、前記3Dモデルから変換された2D画像データ及び当該2D画像データに含まれる被写体の奥行を示すデプス画像データのうち、少なくとも一方と、前記視点画像を取得する撮像装置のカメラパラメータと、前記視点画像の背景画像が含まれる符合化データを復号する復号部を有し、
前記復号部は、前記背景画像と前記カメラパラメータとに基づいて、前記3Dモデルを含む合成3Dモデルを生成し、当該合成3Dモデルに基づく画像から、所定の時刻における被写体を分離する
復号化装置。
(17)
取得部が、第1時刻に被写体を撮像した複数の視点画像と、第2時刻に上記被写体を撮像した複数の視点画像と、第3時刻に上記被写体を撮像した複数の視点画像を取得し、
画像生成部が、各時刻の被写***置に基づいて、前記第1時刻から前記第3時刻の少なくとも2つの時刻における各時刻の複数の視点画像に基づいて生成された各時刻の被写体の3Dモデルを含む、合成3Dモデルを生成する
画像処理方法。
(18)
取得部が、第1時刻に被写体を撮像した複数の視点画像と、第2時刻に上記被写体を撮像した複数の視点画像と、第3時刻に上記被写体を撮像した複数の視点画像を取得し、
画像生成部が、各時刻の被写***置に基づいて、前記第1時刻から前記第3時刻の少なくとも2つの時刻における各時刻の複数の視点画像に基づいて生成された各時刻の被写体の3Dモデルを含む、合成3Dモデルを生成する
画像処理方法をコンピュータに実行させるプログラム。
(19)
符号化部が、
第1時刻、第2時刻及び第3時刻における各時刻の被写***置に基づいて、前記第1時刻から前記第3時刻の少なくとも2つの時刻における各時刻の複数の視点画像に基づいて生成された各時刻の被写体の3Dモデル、及び、前記3Dモデルから変換された2D画像データ及び当該2D画像データに含まれる被写体の奥行を示すデプス画像データのうち、少なくとも一方と、
前記各時刻における3Dモデルが干渉していないことを示すフラグとを
所定の符号化方式で符号化することにより符号化データを生成する
符号化方法。
(20)
復号化部が、
第1時刻、第2時刻及び第3時刻における各時刻の被写***置に基づいて、前記第1時刻から前記第3時刻の少なくとも2つの時刻における各時刻の複数の視点画像に基づいて生成された各時刻の被写体の3Dモデル、及び、前記3Dモデルから変換された2D画像データ及び当該2D画像データに含まれる被写体の奥行を示すデプス画像データのうち、少なくとも一方と、前記視点画像を取得する撮像装置のカメラパラメータと、前記視点画像の背景画像が含まれる符合化データを復号し、
前記背景画像と前記カメラパラメータとに基づいて、前記3Dモデルを含む合成3Dモデルを生成し、当該合成3Dモデルに基づく画像から、所定の時刻における被写体を分離する
復号化方法。
1・・・画像処理装置、11・・・カメラキャリブレーション部、14・・・3Dストロボ合成判定部、15・・・干渉検出部、16・・・フレーム選択部、17・・・3Dモデル生成部、18・・・3Dストロボ合成部、100・・・伝送システム、101・・・符号化装置、201・・・復号化装置

Claims (17)

  1. 第1時刻に被写体を撮像した複数の視点画像と、第2時刻に前記被写体を撮像した複数の視点画像と、第3時刻に前記被写体を撮像した複数の視点画像を取得する取得部と、
    各時刻の被写***置に基づいて、前記第1時刻から前記第3時刻の少なくとも2つの時刻における各時刻の複数の視点画像に基づいて生成された各時刻の被写体の3Dモデルを含む、合成3Dモデルを生成する画像生成部と
    前記3Dモデルを生成する際に用いられる前記複数の視点画像を選択する選択部とを有し、
    前記3Dモデルを生成する際に用いられる前記複数の視点画像は、少なくとも、時刻が異なる被写体間の干渉度を参照して前記選択部により選択された画像であり、
    前記干渉度は、所定の複数の視点画像に基づいて生成された3Dモデルと、他の複数の視点画像に基づいて生成された3Dモデルとの3次元空間における重なりの度合いを示す情報である
    画像処理装置。
  2. 前記被写体の位置の変化に応じて前記被写体の動きの有無を判定する判定部を有し、
    前記画像生成部は、前記判定部により前記被写体の動きがあると判定された場合に、前記合成3Dモデルを生成する
    請求項1に記載の画像処理装置。
  3. 前記所定の複数の視点画像に基づいて生成された3Dモデルは、前記所定の複数の視点画像のうちの一部の視点画像に基づいて生成された擬似的な3Dモデルであり前記他の複数の視点画像に基づいて生成された3Dモデルは、前記他の複数の視点画像のうちの一部の視点画像に基づいて生成された擬似的な3Dモデルである
    請求項に記載の画像処理装置。
  4. 前記合成3Dモデルに含まれる各3Dモデルの前記3次元空間における干渉度が所定以下である
    請求項1に記載の画像処理装置。
  5. 前記合成3Dモデルに含まれる各3Dモデルが、前記3次元空間において互いに干渉していない
    請求項に記載の画像処理装置。
  6. 前記3Dモデルは、対応する時刻で得られた複数の視点画像に基づいて、リアルタイムに生成される
    請求項1に記載の画像処理装置。
  7. 前記3Dモデルは、各時刻の複数の視点画像を視点毎に合成した合成画像に基づいて生成される
    請求項1に記載の画像処理装置。
  8. 前記3Dモデルは、前記視点画像から被写体と背景とを分離したシルエット画像に基づいて生成される
    請求項1に記載の画像処理装置。
  9. 前記合成3Dモデルを表示装置へ表示する表示制御部を有する
    請求項1に記載の画像処理装置。
  10. 前記表示制御部は、前記合成3Dモデルに含まれる複数の3Dモデルのうち、時間的に後の3Dモデルを他の3Dモデルに比べて鮮明に表示する
    請求項に記載の画像処理装置。
  11. 前記表示制御部は、前記被写体の位置の変化が所定以下の場合に、前記3Dモデルの表示位置を本来の位置と異なる位置に配置して生成された合成3Dモデルを表示する
    請求項に記載の画像処理装置。
  12. 第1時刻、第2時刻及び第3時刻における各時刻の被写***置に基づいて、前記第1時刻から前記第3時刻の少なくとも2つの時刻における各時刻の複数の視点画像に基づいて生成された各時刻の被写体の3Dモデル、及び、前記3Dモデルから変換された2D画像データ及び当該2D画像データに含まれる被写体の奥行を示すデプス画像データのうち、少なくとも一方と、
    前記各時刻における3Dモデルが3次元空間において干渉していないことを示すフラグとを
    所定の符号化方式で符号化することにより符号化データを生成する符号化部を有する
    符号化装置。
  13. 第1時刻、第2時刻及び第3時刻における各時刻の被写***置に基づいて、前記第1時刻から前記第3時刻の少なくとも2つの時刻における各時刻の複数の視点画像に基づいて生成された各時刻の被写体の3Dモデル、及び、前記3Dモデルから変換された2D画像データ及び当該2D画像データに含まれる被写体の奥行を示すデプス画像データのうち、少なくとも一方と、前記視点画像を取得する撮像装置のカメラパラメータと、前記視点画像の背景画像と、前記各時刻における3Dモデルが3次元空間において干渉していないことを示すフラグと含まれる符合化データを復号する復号部と、
    記背景画像と前記カメラパラメータと前記フラグとに基づいて、各時刻における被写体が分離された画像を生成し、生成された画像に基づいて3Dモデルを生成する変換部とを有する
    復号化装置。
  14. 取得部が、第1時刻に被写体を撮像した複数の視点画像と、第2時刻に前記被写体を撮像した複数の視点画像と、第3時刻に前記被写体を撮像した複数の視点画像を取得し、
    画像生成部が、各時刻の被写***置に基づいて、前記第1時刻から前記第3時刻の少なくとも2つの時刻における各時刻の複数の視点画像に基づいて生成された各時刻の被写体の3Dモデルを含む、合成3Dモデルを生成し、
    選択部が、前記3Dモデルを生成する際に用いられる前記複数の視点画像を選択し、
    前記3Dモデルを生成する際に用いられる前記複数の視点画像は、少なくとも、時刻が異なる被写体間の干渉度を参照して前記選択部により選択された画像であり、
    前記干渉度は、所定の複数の視点画像に基づいて生成された3Dモデルと、他の複数の視点画像に基づいて生成された3Dモデルとの3次元空間における重なりの度合いを示す情報である
    画像処理方法。
  15. 取得部が、第1時刻に被写体を撮像した複数の視点画像と、第2時刻に前記被写体を撮像した複数の視点画像と、第3時刻に前記被写体を撮像した複数の視点画像を取得し、
    画像生成部が、各時刻の被写***置に基づいて、前記第1時刻から前記第3時刻の少なくとも2つの時刻における各時刻の複数の視点画像に基づいて生成された各時刻の被写体の3Dモデルを含む、合成3Dモデルを生成し、
    選択部が、前記3Dモデルを生成する際に用いられる前記複数の視点画像を選択し、
    前記3Dモデルを生成する際に用いられる前記複数の視点画像は、少なくとも、時刻が異なる被写体間の干渉度を参照して前記選択部により選択された画像であり、
    前記干渉度は、所定の複数の視点画像に基づいて生成された3Dモデルと、他の複数の視点画像に基づいて生成された3Dモデルとの3次元空間における重なりの度合いを示す情報である
    画像処理方法をコンピュータに実行させるプログラム。
  16. 符号化部が、
    第1時刻、第2時刻及び第3時刻における各時刻の被写***置に基づいて、前記第1時刻から前記第3時刻の少なくとも2つの時刻における各時刻の複数の視点画像に基づいて生成された各時刻の被写体の3Dモデル、及び、前記3Dモデルから変換された2D画像データ及び当該2D画像データに含まれる被写体の奥行を示すデプス画像データのうち、少なくとも一方と、
    前記各時刻における3Dモデルが3次元空間において干渉していないことを示すフラグとを
    所定の符号化方式で符号化することにより符号化データを生成する
    符号化方法。
  17. 復号化部が、第1時刻、第2時刻及び第3時刻における各時刻の被写***置に基づいて、前記第1時刻から前記第3時刻の少なくとも2つの時刻における各時刻の複数の視点画像に基づいて生成された各時刻の被写体の3Dモデル、及び、前記3Dモデルから変換された2D画像データ及び当該2D画像データに含まれる被写体の奥行を示すデプス画像データのうち、少なくとも一方と、前記視点画像を取得する撮像装置のカメラパラメータと、前記視点画像の背景画像と、前記各時刻における3Dモデルが3次元空間において干渉していないことを示すフラグとが含まれる符合化データを復号し、
    変換部が、前記背景画像と前記カメラパラメータと前記フラグとに基づいて、各時刻における被写体が分離された画像を生成し、生成された画像に基づいて3Dモデルを生成する
    復号化方法。
JP2018036225A 2018-03-01 2018-03-01 画像処理装置、符号化装置、復号化装置、画像処理方法、プログラム、符号化方法及び復号化方法 Active JP7119425B2 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2018036225A JP7119425B2 (ja) 2018-03-01 2018-03-01 画像処理装置、符号化装置、復号化装置、画像処理方法、プログラム、符号化方法及び復号化方法
CN201880090216.8A CN111788601A (zh) 2018-03-01 2018-07-23 图像处理设备、编码装置、解码装置、图像处理方法、程序、编码方法和解码方法
EP18753472.2A EP3759683B1 (en) 2018-03-01 2018-07-23 Image processing device, encoding device, decoding device, image processing method, program, encoding method, and decoding method
US16/970,506 US11508123B2 (en) 2018-03-01 2018-07-23 Image processing device, encoding device, decoding device, image processing method, program, encoding method, and decoding method for processing multiple video camera image streams to generate stroboscopic images
KR1020207023991A KR20200116947A (ko) 2018-03-01 2018-07-23 화상 처리 디바이스, 인코딩 디바이스, 디코딩 디바이스, 화상 처리 방법, 프로그램, 인코딩 방법, 및 디코딩 방법
BR112020017315-0A BR112020017315A2 (pt) 2018-03-01 2018-07-23 Aparelhos, método e dispositivo para processamento de imagem.
PCT/JP2018/027530 WO2019167300A1 (en) 2018-03-01 2018-07-23 Image processing device, encoding device, decoding device, image processing method, program, encoding method, and decoding method
TW108105536A TWI702568B (zh) 2018-03-01 2019-02-20 影像處理裝置、編碼裝置、解碼裝置、影像處理方法、程式、編碼方法及解碼方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018036225A JP7119425B2 (ja) 2018-03-01 2018-03-01 画像処理装置、符号化装置、復号化装置、画像処理方法、プログラム、符号化方法及び復号化方法

Publications (2)

Publication Number Publication Date
JP2019153863A JP2019153863A (ja) 2019-09-12
JP7119425B2 true JP7119425B2 (ja) 2022-08-17

Family

ID=63174359

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018036225A Active JP7119425B2 (ja) 2018-03-01 2018-03-01 画像処理装置、符号化装置、復号化装置、画像処理方法、プログラム、符号化方法及び復号化方法

Country Status (8)

Country Link
US (1) US11508123B2 (ja)
EP (1) EP3759683B1 (ja)
JP (1) JP7119425B2 (ja)
KR (1) KR20200116947A (ja)
CN (1) CN111788601A (ja)
BR (1) BR112020017315A2 (ja)
TW (1) TWI702568B (ja)
WO (1) WO2019167300A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019244944A1 (ja) * 2018-06-19 2019-12-26 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元再構成方法および三次元再構成装置
CN110012310B (zh) * 2019-03-28 2020-09-25 北京大学深圳研究生院 一种基于自由视点的编解码方法及装置
JP7459870B2 (ja) 2019-04-18 2024-04-02 ソニーグループ株式会社 画像処理装置、画像処理方法、及び、プログラム
WO2020242047A1 (en) * 2019-05-30 2020-12-03 Samsung Electronics Co., Ltd. Method and apparatus for acquiring virtual object data in augmented reality
WO2021006047A1 (ja) * 2019-07-08 2021-01-14 ソニー株式会社 表示制御装置、表示制御方法、及び、プログラム
CN114430800B (zh) * 2019-10-02 2024-04-02 富士通株式会社 生成方法、记录介质和信息处理装置
WO2022075078A1 (ja) * 2020-10-06 2022-04-14 ソニーグループ株式会社 画像処理装置および方法
US20240203020A1 (en) * 2021-04-16 2024-06-20 Hover Inc. Systems and methods for generating or rendering a three-dimensional representation
WO2023282619A1 (ko) * 2021-07-06 2023-01-12 주식회사 메디트 3차원 모델 상에 텍스트를 추가하는 방법 및 3차원 모델 처리 장치
KR102680644B1 (ko) * 2021-07-06 2024-07-03 주식회사 메디트 3차원 모델 상에 텍스트를 추가하는 방법 및 3차원 모델 처리 장치

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004056359A (ja) 2002-07-18 2004-02-19 Fuji Photo Film Co Ltd 画像合成装置及び画像合成プログラム
JP2005517253A (ja) 2001-11-02 2005-06-09 サーノフ・コーポレーション 潜入型見張りを提供する方法及び装置
JP2007259477A (ja) 2002-09-30 2007-10-04 Toshiba Corp 画像合成方法、画像合成装置、画像合成プログラム
JP2008187678A (ja) 2007-01-31 2008-08-14 Nippon Hoso Kyokai <Nhk> 映像生成装置及び映像生成プログラム
JP2008217593A (ja) 2007-03-06 2008-09-18 Nippon Hoso Kyokai <Nhk> 被写体領域抽出装置及び被写体領域抽出プログラム
JP2009075880A (ja) 2007-09-20 2009-04-09 Nippon Hoso Kyokai <Nhk> 仮想顔モデル変形装置及び仮想顔モデル変形プログラム
JP2010157825A (ja) 2008-12-26 2010-07-15 Victor Co Of Japan Ltd 画像符号化装置、画像符号化方法およびそのプログラム
JP2010200360A (ja) 2010-04-26 2010-09-09 Casio Computer Co Ltd 撮像装置、ストロボ画像生成方法、および、プログラム
JP2011176557A (ja) 2010-02-24 2011-09-08 Casio Computer Co Ltd 画像処理装置及び方法、並びにプログラム
JP2011234113A (ja) 2010-04-27 2011-11-17 Sony Corp 送信装置、送信方法、受信装置および受信方法
US20120002112A1 (en) 2010-07-02 2012-01-05 Sony Corporation Tail the motion method of generating simulated strobe motion videos and pictures using image cloning
JP2015045920A (ja) 2013-08-27 2015-03-12 日本電信電話株式会社 仮想視点映像生成装置、仮想視点映像生成方法、及び仮想視点映像生成プログラム
JP2016535552A (ja) 2014-08-29 2016-11-10 シャオミ・インコーポレイテッド 写真を取得するための方法及び装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6665342B1 (en) * 1999-07-02 2003-12-16 International Business Machines Corporation System and method for producing a still image representation of a motion video
ATE481695T1 (de) * 2000-04-07 2010-10-15 Dartfish Sa Automatisiertes stroboskop-verfahren für videosequenzen
JP2004164563A (ja) * 2002-09-26 2004-06-10 Toshiba Corp 画像解析方法、画像解析装置、画像解析プログラム
EP1862969A1 (en) * 2006-06-02 2007-12-05 Eidgenössische Technische Hochschule Zürich Method and system for generating a representation of a dynamically changing 3D scene
JP4415198B2 (ja) 2007-08-30 2010-02-17 カシオ計算機株式会社 画像合成装置及びプログラム
JP4735693B2 (ja) 2008-09-22 2011-07-27 ソニー株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP4947389B2 (ja) * 2009-04-03 2012-06-06 ソニー株式会社 画像信号復号装置、画像信号復号方法、および画像信号符号化方法
US9210468B2 (en) * 2011-03-22 2015-12-08 Sony Corporation System and method for effectively implementing a stroboscopic visual effect
US8736704B2 (en) * 2011-03-25 2014-05-27 Apple Inc. Digital camera for capturing an image sequence
JP5978580B2 (ja) * 2011-09-26 2016-08-24 日本電気株式会社 電子機器、その制御方法及びプログラム
US8719687B2 (en) 2011-12-23 2014-05-06 Hong Kong Applied Science And Technology Research Method for summarizing video and displaying the summary in three-dimensional scenes
US9001737B2 (en) 2012-03-29 2015-04-07 Qualcomm Incorporated EMBMS service activation and maintenance procedure in multi-frequency networks
TWI466062B (zh) 2012-10-04 2014-12-21 Ind Tech Res Inst 重建三維模型的方法與三維模型重建裝置
TWI508027B (zh) 2013-08-08 2015-11-11 Huper Lab Co Ltd 三維偵測裝置及其偵測影像之方法
KR101538947B1 (ko) 2014-03-03 2015-07-29 서울과학기술대학교 산학협력단 실감형 자유시점 영상 제공 장치 및 방법
CN106104418B (zh) * 2014-03-20 2019-12-20 索尼公司 生成针对视频数据的轨迹数据的方法以及用户设备
WO2017082076A1 (ja) 2015-11-11 2017-05-18 ソニー株式会社 符号化装置および符号化方法、復号装置および復号方法

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005517253A (ja) 2001-11-02 2005-06-09 サーノフ・コーポレーション 潜入型見張りを提供する方法及び装置
JP2004056359A (ja) 2002-07-18 2004-02-19 Fuji Photo Film Co Ltd 画像合成装置及び画像合成プログラム
JP2007259477A (ja) 2002-09-30 2007-10-04 Toshiba Corp 画像合成方法、画像合成装置、画像合成プログラム
JP2008187678A (ja) 2007-01-31 2008-08-14 Nippon Hoso Kyokai <Nhk> 映像生成装置及び映像生成プログラム
JP2008217593A (ja) 2007-03-06 2008-09-18 Nippon Hoso Kyokai <Nhk> 被写体領域抽出装置及び被写体領域抽出プログラム
JP2009075880A (ja) 2007-09-20 2009-04-09 Nippon Hoso Kyokai <Nhk> 仮想顔モデル変形装置及び仮想顔モデル変形プログラム
JP2010157825A (ja) 2008-12-26 2010-07-15 Victor Co Of Japan Ltd 画像符号化装置、画像符号化方法およびそのプログラム
JP2011176557A (ja) 2010-02-24 2011-09-08 Casio Computer Co Ltd 画像処理装置及び方法、並びにプログラム
JP2010200360A (ja) 2010-04-26 2010-09-09 Casio Computer Co Ltd 撮像装置、ストロボ画像生成方法、および、プログラム
JP2011234113A (ja) 2010-04-27 2011-11-17 Sony Corp 送信装置、送信方法、受信装置および受信方法
US20120002112A1 (en) 2010-07-02 2012-01-05 Sony Corporation Tail the motion method of generating simulated strobe motion videos and pictures using image cloning
JP2015045920A (ja) 2013-08-27 2015-03-12 日本電信電話株式会社 仮想視点映像生成装置、仮想視点映像生成方法、及び仮想視点映像生成プログラム
JP2016535552A (ja) 2014-08-29 2016-11-10 シャオミ・インコーポレイテッド 写真を取得するための方法及び装置

Also Published As

Publication number Publication date
BR112020017315A2 (pt) 2020-12-15
WO2019167300A1 (en) 2019-09-06
TWI702568B (zh) 2020-08-21
CN111788601A (zh) 2020-10-16
KR20200116947A (ko) 2020-10-13
EP3759683A1 (en) 2021-01-06
JP2019153863A (ja) 2019-09-12
EP3759683B1 (en) 2024-02-14
US11508123B2 (en) 2022-11-22
US20200410754A1 (en) 2020-12-31
TW201946027A (zh) 2019-12-01

Similar Documents

Publication Publication Date Title
JP7119425B2 (ja) 画像処理装置、符号化装置、復号化装置、画像処理方法、プログラム、符号化方法及び復号化方法
US11010958B2 (en) Method and system for generating an image of a subject in a scene
US20180176545A1 (en) Virtual reality display
JP6340017B2 (ja) 被写体と3次元仮想空間をリアルタイムに合成する撮影システム
CN102938844B (zh) 利用立体成像生成自由视点视频
JP4804256B2 (ja) 情報処理方法
CN108885342A (zh) 用于低延迟渲染的宽基线立体
CN105611267B (zh) 现实世界和虚拟世界图像基于深度和色度信息的合并
US11710273B2 (en) Image processing
JP6775669B2 (ja) 情報処理装置
JP2023033975A (ja) 画像処理装置、画像処理方法、及びプログラム
Louis et al. Rendering stereoscopic augmented reality scenes with occlusions using depth from stereo and texture mapping
WO2018173206A1 (ja) 情報処理装置
KR20210090180A (ko) 화상 처리 디바이스, 화상 처리 방법, 프로그램, 및 표시 디바이스
RU2788994C2 (ru) Прибор и способ захвата изображений
JP7044846B2 (ja) 情報処理装置
US20220174259A1 (en) Image signal representing a scene
CN117716419A (zh) 图像显示***及图像显示方法
EP3267682A1 (en) Multiview video encoding
de Sorbier et al. Depth Camera to Generate On-line Content for Auto-Stereoscopic Displays

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220718

R151 Written notification of patent or utility model registration

Ref document number: 7119425

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151