JP7500512B2 - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP7500512B2
JP7500512B2 JP2021139991A JP2021139991A JP7500512B2 JP 7500512 B2 JP7500512 B2 JP 7500512B2 JP 2021139991 A JP2021139991 A JP 2021139991A JP 2021139991 A JP2021139991 A JP 2021139991A JP 7500512 B2 JP7500512 B2 JP 7500512B2
Authority
JP
Japan
Prior art keywords
image
dimensional
image processing
foreground object
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021139991A
Other languages
English (en)
Other versions
JP2023033975A (ja
Inventor
和文 小沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021139991A priority Critical patent/JP7500512B2/ja
Priority to BR102022015085-0A priority patent/BR102022015085A2/pt
Priority to KR1020220097628A priority patent/KR20230032893A/ko
Priority to EP22190212.5A priority patent/EP4140552A1/en
Priority to US17/886,626 priority patent/US20230062973A1/en
Priority to CN202211042898.XA priority patent/CN115733936A/zh
Publication of JP2023033975A publication Critical patent/JP2023033975A/ja
Application granted granted Critical
Publication of JP7500512B2 publication Critical patent/JP7500512B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Architecture (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Processing (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)

Description

本開示は、二次元画像と三次元コンピュータグラフィックスとを合成する画像処理技術に関する。
いわゆるゲームエンジンと呼ばれる、三次元コンピュータグラフィックス(3DCG)をリアルタイムにレンダリングするビデオゲーム作成用プラットフォームがある。近年このゲームエンジンの高画質化技術の向上が進んでおり、リアルタイムに写実的な合成映像による表現が行えるようになってきている(特許文献1を参照)。これを受けて、映像制作の分野においてもゲームエンジンを用いた3DCG製作が利用されてきている。その一つの活用方法として、グリーンバックスタジオで撮像した二次元の動画像(2D映像)と3DCGとをリアルタイムに合成した映像を生成・配信するスタジオ(一般に「バーチャルスタジオ」と呼ばれる。)などで利用されている。
特開2018-74294号公報
2D映像と3DCGとの合成においては、3DCG空間上の予め決まった位置にスクリーンが設けられ、カメラで撮像された被写体(オブジェクト)の画像を当該スクリーンに順次投影してレンダリングすることで合成映像が得られる。そのため、撮像中にカメラ(視点)を大きく動かしたり、オブジェクトが大きく移動したりすると、スクリーンに対する位置ずれやCGで作成された背景との前後関係の不整合などが起きてしまい、不自然な合成画像となることがあった。
本開示の技術に係る画像処理システムは、特定の視点に対応する前景オブジェクトを含む二次元画像と、前記二次元画像を得る際の条件を規定するパラメータと、前記二次元画像に含まれる前景オブジェクトの三次元位置及び形状を表す位置形状データを取得する取得手段と、背景オブジェクトを示す三次元データを含む仮想空間に配置された、前記位置形状データに基づくスクリーン、前記二次元画像に含まれる前記前景オブジェクトの画像とに基づいて、前記前景オブジェクトと前記背景オブジェクトとを含む合成画像を生成する生成手段と、を有し、前記二次元画像は、複数の撮像画像に基づいて生成される、指定された仮想視点に対応する仮想視点画像であり、前記パラメータは、前記仮想視点画像を生成する際の条件を表す仮想視点パラメータである、ことを特徴とする。
本開示の技術によれば、二次元画像に含まれる前景オブジェクトと三次元コンピュータグラフィックス空間に含まれる背景オブジェクトとが調和した自然な合成画像を得ることができる。
仮想視点画像を生成するための画像処理システムの構成の一例を示す図。 画像処理装置のハードウェア構成の一例を示す図。 実施形態1に係る、画像処理装置の内部構成の一例を示す図。 合成部における処理の流れを示すフローチャート。 (a)は背景モデルが配置された3DCG空間の一例を示す図、(b)は背景モデルが配置された3DCG空間内にスクリーンと疑似的な影が形成された状態を示す図。 (a)はクロマキー処理を説明する図、(b)は3DCG空間上に生成されたスクリーンに切抜き画像が投影された状態を示す図。 合成画像の一例を示す図。 (a)はカメラが大きく移動した一例を示す図、(b)は3DCG空間上に生成されたスクリーンに切抜き画像が投影された状態を示す図。 (a)は投影視点及びレンダリング視点を撮像視点に合わせない場合の一例を示す図、(b)は前景オブジェクトのサイズを大きくした場合の一例を示す図。 (a)はスクリーンのマスク画像の一例を示す図、(b)はマスク画像から得られる切り抜き画像の一例を示す図。 (a)は変形例に係るレンダリング画像の一例を示す図、(b)は変形例に係る合成画像の一例を示す図。 実施形態2に係る、仮想視点画像生成システムの内部構成の一例を示す図。 合成画像の一例を示す図。
実施形態1
<システム構成>
図1は、本実施形態に係る、仮想視点画像を生成するための画像処理システムの構成の一例を示す図である。画像処理システム100は、撮像装置(カメラ)110、計測装置120、画像処理装置130及び表示装置140を有する。画像処理システム100では、カメラ110で撮像した映像を、画像処理装置120にて三次元コンピュータグラフィックスに合成して表示装置140に表示する。
カメラ110は、例えばクロマキー撮影可能なグリーンバックやブルーバックのスタジオにて、前景となる演者等のオブジェクト(以下、「前景オブジェクト」と呼ぶ。)を時間的に連続して撮像し、得られた撮像画像(動画像)を出力する。カメラ110は、例えば、シリアルデジタルインタフェイス(SDI)に代表される映像信号インタフェイスを備えたデジタル方式のビデオカメラにより実現される。カメラ110は、出力する映像信号に対しタイムコードに代表される時刻情報を付加して、画像処理装置130に送信する。この際、カメラの三次元位置(x,y,z)、姿勢(パン、チルト、ロール)、画角、レンズ歪、焦点距離、解像度などを規定する、撮像パラメータも併せて送信する。この撮像パラメータは、公知のカメラキャリブレーションを行って予め算出し、メモリ等に記憶しておく。例えばカメラの三次元位置や姿勢は、カメラ110にマーカーを設置し、それを撮像空間上に複数配置された光学センサで検出することで、取得可能である。また、カメラ110がクレーンやロボットアームなどに取り付けられている場合は、クレーンやロボットアームの位置及び姿勢を基にカメラ110の位置及び姿勢を求めてもよい。
計測装置120は、スタジオ等の現実の撮像空間に存在する前景オブジェクトの位置とその大まかな形状を測定する。本実施形態の計測装置120は撮像機能を有しており、複数の方向から前景オブジェクトを撮像して得られた複数の画像を解析することによってその位置と大まかな形状を測定する。例えば2つのカメラを用いてマーカーレスでリアルタイムに人物等の位置及び姿勢などを検出する。これにより、撮像空間における前景オブジェクトの位置と概略形状を示すデータ(以下、「位置形状データ」と呼ぶ。)を生成し出力する。本実施形態では、前景オブジェクトに外接する直方体の各頂点の三次元位置(x,y,z)及び当該直方体の各辺の長さを記述した位置形状データが生成・出力されるものとする。ただし、計測装置120の構成は上述の例に限定されず、無線LANやBluetoothなどを用いたローカル位置測位システムなどでもよい。また、例えば人物等にセンサを取り付け、GPSを用いてその三次元位置を検出してもよい。その場合、予め調べておいた人物等の大凡の大きさの情報を加えて、位置形状データとすればよい。この際のオブジェクト形状に関しては簡易なものでよく、当該オブジェクトに外接する多面体などで構わない。
画像処理装置130は、カメラ110で得た前景オブジェクトの画像を3DCG空間に投影し、それを撮像時と同じ視点からレンダリングすることで、前景オブジェクトが3DCG空間に存在するかのような合成画像を生成する。画像処理装置130の機能の詳細は後述する。
表示装置140は、例えば液晶ディスプレイ等であり、画像処理装置130から送られてくる画像データ(グラフィカルユーザインタフェイスのためのUI画面のデータや合成画像のデータ)を取得して表示する。
なお、本実施形態では、カメラ110は1台を想定しているが、例えば複数のカメラ110を用いた構成でもよい。例えば、画像処理装置130もカメラ110と同じ数だけ持ち、それぞれのシステムで得られた合成画像を切り替え器のようなもので切り替えて出力してもよい。或いは、複数のカメラ110からそれぞれ入力された撮像画像のうち3DCGとの合成に使用する撮像画像を画像処理装置130内部で切り替えて処理してもよい。
<ハードウェア構成について>
図2は、画像処理装置130のハードウェア構成の一例を示す図である。情報処理装置である画像処理装置130は、CPU211、ROM212、RAM213、補助記憶装置214、操作部215、通信I/F216、及びバス217を有する。
CPU211は、ROM212またはRAM213に格納されているコンピュータプログラムおよびデータを用いて画像処理装置130の全体を制御することで、画像処理装置130の各機能を実現する。なお、画像処理装置130は、CPU211とは異なる専用の1又は複数のハードウェアあるいはGPU(Graphics Processing Unit)を有していてもよい。そして、CPU211による処理の少なくとも一部をGPUあるいは専用のハードウェアが行うようにしても良い。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。
ROM212は、変更を必要としないプログラムなどを格納する。RAM213は、補助記憶装置214から供給されるプログラムやデータ、及び通信I/F217を介して外部から供給されるデータなどを一時記憶する。補助記憶装置214は、例えばハードディスクドライブ等で構成され、画像データや音声データなどの種々のデータを記憶する。
操作部215は、例えばキーボードやマウス等で構成され、ユーザによる操作を受けて各種の指示をCPU211に入力する。CPU211は、表示装置104を制御する表示制御部、及び操作部215を制御する操作制御部として動作する。通信I/F216は、画像処理装置130の外部の装置との通信に用いられる。例えば、画像処理装置130が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F216に接続される。画像処理装置130が外部の装置と無線通信する機能を有する場合には、通信I/F216はアンテナを備える。
バス217は、画像処理装置130の各部を繋いで情報を伝達する。なお、本実施形態では、撮像装置110、計測装置120及び表示装置140を外部装置として設けているが、いずれも画像処理装置130の機能部の1つとして内在する形で設けてもよい。
<画像処理装置の内部構成>
図3は、本実施形態に係る、カメラ110で得た前景オブジェクトの撮像画像を3DCGに合成する画像処理装置130の内部構成の一例を示す図である。画像処理装置130は、データ取得部301、同期部302、合成部303、データ出力部308の各機能部を有する。そして、合成部303、背景保持部304、前処理部305、投影部306、レンダリング部307を有する。なお、画像処理装置130は、複数の電子機器によって構成されてもよい。以下、各機能部について説明する。
データ取得部301は、前景オブジェクトの撮像画像データを撮像パラメータと共にカメラ110から受信して取得する。また、データ取得部301は、前景オブジェクトの位置形状データを計測装置120から取得する。データ取得部301が取得したデータは、同期部302に入力される。撮像画像データと位置形状データとは、互いに同期したタイミングで取得されることが望ましいが必須ではない。両データの取得周期(サンプリング周期)が異なる場合、例えば取得されたデータの変動量に基づいて撮像画像データに同期させた位置形状データを別途生成してもよい。撮像パラメータは、撮像画像データと同じタイミングで送信(または受信)されてもよいし、別のタイミングで送信(または受信)されてもよい。また、撮像パラメータは、変更された際に送信(または受信)されるようにしてもよい。この場合には、送信(または受信)されるデータ量を低減することができる。撮像パラメータの送信(または受信)の頻度、周期、フレームレートは、撮像画像データ送信(または受信)の頻度、周期、フレームレートよりも小さくてもよい。
同期部302は、入力された各データそれぞれの生成・伝送・取得のタイミングが異なることによるデータ間の遅延時間の調整を行う。具体的には、それぞれのデータに対して可変長のバッファを設けておき、バッファを介して同期させた各データを合成部303に出力する。データ間の同期を取る際には、それぞれのデータに付与されている時刻情報を用い、最も入力が遅いデータに合わせて他のデータのバッファ段数を変更することで出力時の時刻がデータ間で一致するように遅延時間を調整する。
合成部303は、撮像画像データ及び前景オブジェクトの位置形状データに基づき、前景オブジェクトの画像を3DCG空間に投影して、3DCG空間に前景オブジェクトが存在しているかのような合成画像を生成する。合成部303の詳細については後述する。
データ出力部308は、合成部303によって生成された合成画像のデータを、表示装置140等の外部装置に出力する。
以上が、本実施形態に係る画像処理装置の機能構成である。なお、本実施形態では、撮像画像データ、撮像パラメータ、位置形状データの3つのデータ間の同期を1つの同期部302で調整しているが、このような構成に限定されない。例えば、撮像装置110及び計測装置120それぞれに内部バッファを持たせ、同じタイミングで画像処理装置130にデータ送信するような構成でもよい。
<合成部の詳細>
図3に示すように合成部303は、背景保持部304、前処理部305、投影部306及びレンダリング部307部を有する。図4のフローチャートを参照して、合成部303の機能の詳細について説明する。なお、図4のフローチャートが示す一連の処理は、CPU211が、ROM212又は補助記憶装置214等に格納された制御プログラムを読み出してRAM213に展開し、これを実行することで実現される。なお、以下の説明において記号「S」はステップを意味する。
同期部302から上述の各データが合成部303に入力されると、まずS401にて、レンダリング部307が、背景保持部304から背景オブジェクトのCGデータを読み出し、CGによる背景オブジェクトを3DCG空間に配置する。ここで、背景保持部304が保持するCGデータは、柱や備品といった3DCG空間に配される前景オブジェクト以外の背景となるオブジェクトそれぞれの三次元形状とテクスチャ(色や質感など)を示すデータである。CGデータは、3DCG空間における三次元位置情報を有していてもよい。また、CGデータは、実空間の三次元位置情報を有していてもよい。図5(a)は、CGの背景オブジェクトが配置された3DCG空間の一例を示す図であり、この例では実線の直方体で示す4つの背景オブジェクト501a~501dが3DCG空間に配置されている。なお、3DCG空間内のどの位置に配置するかは、背景オブジェクト毎に予め決められているものとする。次のS402~S407の各処理は、入力された撮像画像データのフレーム単位で実行される。
次のS402では、前処理部305が、同期部302から入力された位置形状データに基づき、処理対象フレームにおける前景オブジェクトの画像を投影するためのスクリーンを3DCG空間内に配置する。また、前処理部305は、前景オブジェクトの疑似的な影を3DCG空間内に形成する。図5(b)は、上述の図5(a)に示す3DCG空間内に、破線で示す3つのスクリーン502a~502cが配置され、さらに、ハッチングで示す疑似的な影503a~503cが形成された状態を示している。本実施形態では、スクリーンとして、前景オブジェクトに外接する直方体に対応する透明なバウンディングボックスを3DCG空間に配置している。スクリーンを直方体で表現する理由は、三次元形状の前景オブジェクトを囲う最も簡単な立体であることに因る。スクリーンを二次元平面とした場合、正面からは問題なく投影できるが、側面や上面から投影する場合に面が形成されず適切な投影像が得られない。そのため、本実施形態ではスクリーンを直方体としている。なお、スクリーンを“投影時の視点に常に正対する面”と定義することも可能であるが、例えば前景オブジェクトが人間のような複雑な形状をしている場合、見る方向によりその面積が大きく変わるので、その都度計算が必要となってしまう。一方、直方体であれば、当該直方体の各点の三次元位置を示す座標(x,y,z)の最大値と最小値を取ればその中に前景オブジェクトの投影像が必ず収まるので都度の計算は不要となる。また、直方体であればデータ量も抑制でき、伝送等の処理負荷を小さくできるというメリットもある。なお、透明化する理由は、合成画像においてユーザがスクリーンを視認できないようにするためである。このような理由から本実施形態では、スクリーンとして、透明なバウンディングボックスを採用している。そして、投影された前景オブジェクトの像が接地しているように見せるには影の表現が重要となるが、本実施形態の位置形状データには前景オブジェクトの詳しい形状や姿勢の情報を含まないため、光源に基づく正確な影の表現が困難である。そこで、簡素な形状の疑似的な影を描画することで接地感の向上を図っている。具体的には、位置形状データが示す概略形状と大きさに応じた半透明の黒またはグレーの楕円形を、スクリーンとしてのバウンディングボックスの底面近辺に描画する。これにより、前景オブジェクトの移動と連動するように疑似的な影が表示され、3DCG空間において前景オブジェクトが接地しているような自然な合成画像が得られる。またこの疑似的な影は、例えば光源に向かって伸びるといった不自然なものにならないよう、スクリーンとしてのバウンディングボックスの底面周辺に光源に基づき形成することが望ましい。なお、仮想的な光源の位置によっては、バウンディングボックスの外に疑似的な影が形成されてもよい。例えば、図5(b)において、背景オブジェクト501d側から背景オブジェクト501a側に向かって光が射すような場合である。また、背景オブジェクトについても疑似的な影が形成されてもよい。
次のS403では、投影部306が、処理対象フレームの撮像パラメータに基づき、前景オブジェクトの画像を上述のスクリーンに投影する際の条件(投影パラメータ)を設定する。具体的には、投影を行う際の視点、姿勢及び画角などを、処理対象フレームが撮像されたときの条件に合わせ、両者が一致するように設定する。
そして、S404にて、投影部306は、処理対象フレームの画像を、S402にて生成されたスクリーンに対して投影する。この際、スクリーンには、処理対象フレームの画像にクロマキー処理を行って得られた、前景オブジェクトに対応する画像領域のみを切り抜いた部分画像(切り抜き画像)が投影される。図6(a)はクロマキー処理を説明する図である。図6(a)の例では人物601~603それぞれに対応する3つの切り抜き画像が処理対象フレーム600から抽出されることになる。図6(b)は、3DCG空間上に生成された各スクリーン(図5(b)を参照)に対し、対応する切抜き画像がそれぞれ投影された状態を示している。なお、スクリーンは上述のとおり透過処理されているため、切り抜き画像を投影した後のスクリーンの余白がユーザに視認されることはない。
次のS405では、レンダリング部307が、処理対象フレームの撮像パラメータに基づき、切り抜き画像が投影された3DCG空間を対象としてレンダリングを行う際の条件(レンダリングパラメータ)を設定する。上述の図6(b)において、視点マーク610が、カメラ110の撮像視点に合わせて設定されたレンダリング視点を示している。つまり、レンダリング視点は、その位置、姿勢及び画角などが、処理対象フレームが撮像されたときのカメラ110と一致するように設定されている。
そして、S406にて、レンダリング部307は、前景オブジェクトの切り抜き画像が透明なスクリーンに投影された状態の3DCG空間を対象としたレンダリング処理を、S405で設定されたレンダリングパラメータに従い実行する。レンダリング処理では、設定されたレンダリング視点から各オブジェクトまでの距離に基づき、レンダリング視点により近い方の色値(画素値)を採用する処理が画素単位で行われる。例えば、判明している前景オブジェクト及び背景オブジェクトの三次元位置の情報から、レンダリング視点から各オブジェクトまでの距離を示すデプス画像をまず生成し、これを参照して合成画像を構成する画素の値を順次決定する処理が行われる。これにより図7に示すような、3DCG空間上で例えば前景オブジェクトより前にある背景オブジェクトは前景オブジェクトの前に表示される等、オブジェクト間の遮蔽関係を反映した合成画像700が得られることになる。こうして、現実の三次元空間(撮像空間)に存在した前景オブジェクトが3DCG空間に存在するかのような自然な合成画像が得られる。
S407では、映像生成の停止の指示がなされたかの判定を行う。映像生成の停止がなされるまで、S402に戻って入力された処理対象フレームを逐一処理し続ける。
以上が、合成部303における処理の内容である。合成部303は上述した機能構成により、カメラ110で撮像した前景オブジェクトの画像を、前景オブジェクトやカメラ110の動きに追随させつつ3DCGに高精度で合成することができる。例えば図8(a)の視点マーク610’に示すようにカメラ110が演者の斜め後ろの方向へと大きく移動したとする。この場合、図8(b)に示すように、3DCG空間上のスクリーンに対し、移動後のカメラ110と同じ視点から各前景オブジェクトの切り抜き画像611’、612’、613’が投影される。こうして、カメラ110やオブジェクトが大きく移動しても、オブジェクトどうしの遮蔽関係等を正しく表した合成画像を得ることができる。
<変形例>
カメラ110による前景オブジェクトの撮像を、クロマキー処理を前提としていわゆるグリーンバックやブルーバックの環境で行なう場合を説明したが、そのような環境下での撮像は必須ではない。例えば通常のスタジオにて撮像を行って得られた撮像画像からオブジェクト認識技術によって演者とそれ以外の背景とを判別し、演者に対応する画像領域だけを切り抜くような画像処理を行って、投影に用いてもよい。
また、投影用のスクリーンとして、前景オブジェクトに外接するバウンディングボックスを採用する場合を説明したが、スクリーンの形状は直方体に限定されない。例えば、前景オブジェクトを複数方向から撮像して得た画像を利用して当該前景オブジェクトの姿勢を推定し、推定された姿勢を表したメッシュモデルを生成して、前景オブジェクトの姿勢に合った三次元形状のスクリーンを採用してもよい。これにより、例えば演者についてその時々の姿勢を模したマネキン人形のようなスクリーンを3DCG空間に配置することができる。
また、上述の実施形態では、投影視点及びスクリーンの座標系(x,y,z)と、背景モデルを配置した3DCG空間の座標系(x’,y’,z’)とを一致させていたが、これらは本実施形態において必須の条件ではない。前景オブジェクトと撮像視点との相対的な位置関係、及び、スクリーンと投影視点とレンダリング視点との相対的な位置関係が一致していればよい。これら相対的な位置関係が一致していれば、スクリーン、投影視点及びレンダリング視点を3DCG空間上の任意の座標に移動させてもよいし、向きを変更してもよい。また、スクリーンの変倍率と相対距離の変倍率とを合わせて変更することで、前景オブジェクトと3DCG空間との大きさの関係を変更してもよい。図9(a)は、投影視点及びレンダリング視点を撮像視点より遠くに設定すると共に、各スクリーンを手前に配置した場合の一例である。また、図9(b)は、さらに各スクリーンの変倍率と相対距離の変倍率を合わせて変更して前景オブジェクトのサイズを大きくした場合の一例である。なお、図9(b)の場合、座標系それ自体の大きさを変えることになる(例えば元の画像では1cmが実空間の1mに相当する場合、画像上の1cmが実空間の50cmに相当するように変更)ため、投影視点の絶対的な距離は遠くなる。このように、前景オブジェクトが移動したような表現や、小さくなったり大きくなったりする表現も可能である。
また、スクリーンに前景オブジェクトの切り抜き画像を投影し、それをレンダリングしていたが、必ずしもこのような処理順に限定するものではない。例えば、レンダリング視点から見たときの遮蔽関係なども考慮した、例えば図10(a)に示すような、スクリーンのマスク画像を取得する。そして、図6(a)の撮像画像に対して図10(a)のマスク画像を適用し、前景オブジェクトの部分を切り抜いた図10(b)に示すような切り抜き画像1001及び1002を生成する。そして、図5(a)に示す背景オブジェクトのCGのみが配置された3DCG空間を対象にレンダリングを行って図11(a)に示すレンダリング画像1100を生成し、これに対して図10(b)に示す切り抜き画像1001及び1002を重畳させることで、図11(b)に示す合成画像1101を得てもよい。ただし、この手法の場合、レンダリング時に前景オブジェクトの三次元的な距離情報を用いないため、被写界深度を正確に表すことや、遠景時の霞みなどを表現することが困難である。よって、実施形態中で説明した手法の方が、より品質の高い合成画像が得られる。
以上のとおり本実施形態によれば、カメラで撮像した前景オブジェクトの2D映像とCGで作成された背景とが調和した自然な合成画像を容易に得ることができる。
実施形態2
次に、3DCGに合成する二次元画像として仮想視点画像を用いる形態を、実施形態2として説明する。図12は、画像処理装置130に入力される仮想視点画像を生成するシステムの構成の一例を示す図である。
図12に示す通り、本実施形態においては、仮想視点画像生成システム1200から出力される仮想視点パラメータ、仮想視点画像及び前景モデルが画像処理装置130へと入力される。つまり、本実施形態の仮想視点パラメータ及び仮想視点画像が、実施形態1においてカメラ110から出力される撮像パラメータ及び撮像画像に相当し、本実施形態の前景モデルが実施形態1において計測装置120から出力される位置形状データに相当する。以下、実施形態1との差分を中心に、本実施形態について説明する。
仮想視点画像生成システム1200は、複数の撮像装置1201、画像処理サーバ1202及びコントローラ1206で構成される。そして、画像処理サーバ1202は、三次元形状推定部1203、素材データ蓄積部1204及び仮想視点画像生成部1205の各機能部を有する。
複数の撮像装置1201は、前景オブジェクトを取り囲むように配置され、複数の方向から前景オブジェクトを撮像する。また、これら複数の撮像装置1201の撮像タイミングは図示しないタイムサーバからの同期信号に基づき同期されている。複数の撮像装置1201によって複数の異なる視点から撮像された画像(以下、「複数視点画像」と呼ぶ。)のデータは、各撮像装置の位置・姿勢及び光学特性などを示す撮像パラメータと共に画像処理サーバ1202に送られ、三次元形状推定部1203に入力される。
三次元形状推定部1203は、入力された複数視点画像を構成する撮像画像それぞれから前景オブジェクトのシルエットを抽出した上で、視体積交差法などを用いて前景オブジェクトの三次元形状を表すデータ(以下、「前景モデル」と呼ぶ。)を生成する。この前景モデルには、撮像時における三次元位置を表す情報が付与される。生成された前景モデルは元になった複数視点画像(撮像パラメータを含む)と共に素材データ蓄積部1204に送られる。
素材データ蓄積部1204は、仮想視点画像の素材として、三次元形状推定部1203から入力された前景モデル、複数視点画像及び撮像パラメータの各データを保存・蓄積する。
コントローラ1206は、撮像空間において任意の位置に仮想的な撮像視点を設定するためのジョイスティックや、焦点距離や画角などの数値を指定するためのキーボードなどを有し、それらを介したユーザ入力に基づき、仮想視点パラメータを生成する。ここで、仮想視点パラメータには、仮想視点の位置・姿勢などを表すカメラの外部パラメータに相当する情報、焦点距離や画角といったカメラの内部パラメータに相当する情報、仮想視点画像の生成対象となるフレームを特定する時刻情報などを含む。生成された仮想視点パラメータは、画像処理サーバ1202に送られ、仮想視点画像生成部1205に入力される。
仮想視点画像生成部1205は、入力された仮想視点パラメータに含まれる時刻情報に基づき、素材データ蓄積部1204から該当する時刻における前景モデル及び撮像画像のデータをまず取得する。そして、取得した前景モデルに対し、指定された仮想視点に応じた色付けを撮像画像に基づき行って、当該仮想視点からの見えを表す仮想視点画像を生成する。生成された仮想視点画像のデータは、生成に用いた仮想視点パラメータ及び前景モデルと共に画像処理装置130へ出力される。
<画像処理装置の動作>
本実施形態の画像処理装置130は、実施形態1のカメラ110による撮像画像の切り抜き画像に代えて、画像処理サーバ1202で生成された仮想視点画像の切り抜き画像を3DCGに合成する。そのためにデータ取得部301は、仮想視点パラメータに含まれる仮想視点の位置・姿勢、焦点距離、画角といった情報を、実施形態1の撮像パラメータとして扱う。すなわち、仮想視点をカメラ110と見做し、仮想視点の位置・姿勢や画角などの光学情報を、前述の撮像パラメータにおけるカメラ110の位置・姿勢や画角などの光学情報と見做して、データ取得部301はこれらの情報を同期部302に出力する。また、本実施形態のデータ取得部301は、仮想視点パラメータに含まれる又は仮想視点画像に埋め込まれた時刻情報に基づいて各フレームに対応する前景モデルを、実施形態1の位置形状データと見做して、同期部302に出力する。このとき、後段の合成部303で処理が行いやすいように、前景モデルに対して形状を簡略化してデータ量を削減する処理を行った上で出力してもよい。形状簡略化処理としては、例えば、前景モデルが表す三次元形状に外接する直方体(バウンディングボックス)の情報に変換したり、三次元形状を表現する点群やメッシュを間引いたりする処理が考えられる。なお、フォーマット変換などデータ間の整合性を取るための処理が必要に応じて行われるなされることは言うまでもない。
本実施形態の同期部302は、実施形態1と同様、データ取得部301から入力された仮想視点画像、仮想視点パラメータ、前景モデルの3つのデータの同期をとって、合成部303に出力する。
本実施形態の合成部303は、同期部302から入力された仮想視点画像と3DCGとを合成した合成映像を生成する。具体的には、前処理部305が、背景オブジェクトのCGが配置された3DCG空間に投影用スクリーンと疑似的な影を前景モデルに基づき生成する(S401、S402)。次に投影部306が、仮想視点パラメータに合わせた投影パラメータを設定し(S403)、仮想視点画像から前景オブジェクトの切り抜き画像を生成してスクリーンに投影する(S404)。そして、レンダリング部307が、仮想視点パラメータに合わせたレンダリングパラメータを設定し(S405)、仮想視点画像の切り抜き画像が投影された状態の3DCG空間を対象としたレンダリング処理を、所定のフレーム分実行する(S406)。
<変形例>
本実施形態では、仮想視点画像、仮想視点パラメータ、前景モデルの3つのデータの同期を、実施形態1と同様、画像処理装置130内で取っているがこれに限定されない。例えば、これらデータの同期を仮想視点画像生成システム内で取った上で例えば圧縮等を行って1つにまとめファイル化した上で画像処理装置130に送信する構成でもよい。このような構成の場合、画像処理装置130内の同期部302は不要となる。そして、データ取得部301にて、受信したデータファイルを展開して、仮想視点画像、仮想視点パラメータ、前景モデルの各データを取得して合成部303に入力すればよい。このような構成により画像処理装置側で同期をとる必要がなくなるとともに、データ伝送の煩雑性も解消することができる。
また、本実施形態では、データ取得部301が、仮想視点パラメータに含まれる又は仮想視点画像に埋め込まれた時刻情報に基づき、対応する前景モデルを取得するとしたが必ずしもこれに限定するものではない。例えば画像処理サーバ1202において、仮想視点画像生成部11305が素材データ蓄積部1204から取得した前景モデルを、対応する仮想視点画像のフレームと対応付けた上で、画像処理装置130に送る構成としてもよい。この場合、画像処理装置130のデータ301は、時刻情報を用いなくても、各フレームに対応する前景モデルを取得することができる。
また、本実施形態では、データ取得部301が、画像処理サーバ1202から入力された前景モデルから概略形状を導出する簡略化処理を行っているがこれに限定されない。例えば、画像処理サーバ1202側にて簡略化処理までを行って、簡略化された(すなわち、データ量が削減された)前景モデルを画像処理装置130に入力するようにしてもよい。例えば、三次元形状推定部1202にて通常の形状推定を行って前景モデルを生成した後、さらに当該前景モデルから概略形状を導出する処理を行って簡易版の前景モデルを生成するようにする。そして、通常の前景モデルに加えて簡易版の前景モデルも素材データ蓄積部1204に保存・蓄積して、画像処理装置130には簡易版の前景モデルを送信するようにする。こうすることにより、画像処理装置130側で前景モデルに対する形状の簡略化処理を省くことができ、データ伝送の負荷も減らすことができる。
また、本実施形態では、形状推定の結果である前景モデルに対し点群データを間引いたり、バウンディングボックスに置き換えるなどして簡易な形状にすると説明したが、形状の簡略化はこれらに限定されない。例えば形状推定結果から、メッシュモデルや深度画像、姿勢情報などを生成し、これらを利用して簡易な形状を得る構成でもよい。さらには、形状推定結果を一定の高さ間隔で分割し、当該分割された部分それぞれのバウンディングボックスを生成し、それらの集合を簡易な形状としてもよい。
また、疑似的な影を上述の姿勢情報を用いて生成してもよい。例えば、演者の姿勢情報から得た前述の人型スクリーンの底面に演者の簡易形状に応じた影を投影してもよい。これにより演者等の動きに沿った疑似的な影を表現できる。さらには、推定結果である前景モデルが表す三次元形状のうち床面に近い部分(例えば床面から30cmの領域)の位置形状データを別途取得し、これを用いて疑似的な影を描画してもよい。この手法であれば、実際の前景オブジェクトのシルエットまでは把握できないバウンディングボックスのような簡易形状データからであっても、例えば図13に示す合成画像1300のように、演者の足元付近にだけ疑似的な影1301を生成することができる。また、この手法の場合、前景オブジェクトの姿勢を検出する必要がないため処理量が少なくて済むという利点もある。
本実施形態によれば、実際のカメラ位置に縛られない仮想的なカメラ視点からの見えを表す2D映像とCGで作成された背景とが調和した自然な合成画像を容易に得ることができる。また、仮想視点画像を生成する際の素材データを合成にも利用するので、効率がよい。さらには、データ間の同期や前景オブジェクトの三次元位置の取得の高精度化がより容易に行うことができ、高品質な合成が可能となる。
(その他の実施例)
本開示の技術は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
130 画像処理装置
301 データ取得部
303 合成部
305 前処理部
306 投影部
307 レンダリング部

Claims (13)

  1. 特定の視点に対応する前景オブジェクトを含む二次元画像と、前記二次元画像を得る際の条件を規定するパラメータと、前記二次元画像に含まれる前景オブジェクトの三次元位置及び形状を表す位置形状データを取得する取得手段と、
    背景オブジェクトを示す三次元データを含む仮想空間に配置された、前記位置形状データに基づくスクリーンと、前記二次元画像に含まれる前記前景オブジェクトの画像とに基づいて、前記前景オブジェクトと前記背景オブジェクトとを含む合成画像を生成する生成手段と、
    を有し、
    前記二次元画像は、複数の撮像画像に基づいて生成される、指定された仮想視点に対応する仮想視点画像であり、
    前記パラメータは、前記仮想視点画像を生成する際の条件を表す仮想視点パラメータである、
    ことを特徴とする画像処理システム。
  2. 前記位置形状データは、前記複数の撮像画像に基づいて生成される、前記前景オブジェクトの三次元形状データに基づくデータであることを特徴とする請求項1に記載の画像処理システム。
  3. 前記スクリーンは、三次元の形状である、ことを特徴とする請求項1又は2に記載の画像処理システム。
  4. 前記スクリーンは、透明なバウンディングボックスである、ことを特徴とする請求項3に記載の画像処理システム。
  5. 前記位置形状データは、前記前景オブジェクトに外接する直方体の各頂点の三次元位置及び当該直方体の各辺の長さを記述したデータである、ことを特徴とする請求項4に記載の画像処理システム。
  6. 前記生成手段は、前記仮想空間に、前記前景オブジェクトの疑似的な影を、前記位置形状データに基づいて生成し、前記合成画像を生成する、ことを特徴とする請求項1乃至5のいずれか一項に記載の画像処理システム。
  7. 前記疑似的な影は、半透明の黒またはグレーの楕円形である、ことを特徴とする請求項6に記載の画像処理システム。
  8. 前記生成手段は、前記パラメータに基づき設定された視点から各前景オブジェクトまでの距離に基づいて、前記合成画像の画素の色を決定する、ことを特徴とする請求項1乃至7のいずれか一項に記載の画像処理システム。
  9. 前記生成手段は、
    前記スクリーンへの前記前景オブジェクトの投影を行う際の条件を、前記パラメータによって規定される前記二次元画像を得る際の条件に合わせて設定し、
    前記合成画像の画素の色を決定する際の条件を、前記パラメータによって規定される前記二次元画像を得る際の条件に合わせて設定する、
    ことを特徴とする請求項8に記載の画像処理システム。
  10. 前記特定の視点に対応した二次元画像は動画像を構成するフレームであり、
    前記位置形状データの取得周期と前記動画像を構成するフレームの取得周期とが異なる場合、前記動画像の各フレームに同期させた位置形状データを生成する同期手段をさらに有することを特徴とする請求項1乃至9のいずれか一項に記載の画像処理システム。
  11. 前記特定の視点に対応した二次元画像は動画像を構成するフレームであり、
    前記取得手段は、前記位置形状データを、前記動画像を構成するフレームと同期したタイミングで取得することを特徴とする請求項1乃至9のいずれか一項に記載の画像処理システム。
  12. 特定の視点に対応する前景オブジェクトを含む二次元画像と、前記二次元画像を得る際の条件を規定するパラメータと、前記二次元画像に含まれる前景オブジェクトの三次元位置及び形状を表す位置形状データを取得する取得ステップと、
    背景オブジェクトを示す三次元データを含む仮想空間に配置された、前記位置形状データに基づくスクリーンと、前記二次元画像に含まれる前記前景オブジェクトの画像とに基づいて、前記前景オブジェクトと前記背景オブジェクトとを含む合成画像を生成する生成ステップと、
    を含み、
    前記二次元画像は、複数の撮像画像に基づいて生成される、指定された仮想視点に対応する仮想視点画像であり、
    前記パラメータは、前記仮想視点画像を生成する際の条件を表す仮想視点パラメータである、
    ことを特徴とする画像処理方法。
  13. コンピュータに、請求項12に記載の画像処理方法を実行させるためのプログラム。
JP2021139991A 2021-08-30 2021-08-30 画像処理装置、画像処理方法、及びプログラム Active JP7500512B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2021139991A JP7500512B2 (ja) 2021-08-30 2021-08-30 画像処理装置、画像処理方法、及びプログラム
BR102022015085-0A BR102022015085A2 (pt) 2021-08-30 2022-07-29 Aparelho de processamento de imagem, método de processamento de imagem e meio de armazenamento
KR1020220097628A KR20230032893A (ko) 2021-08-30 2022-08-05 화상처리장치, 화상처리방법 및 기억 매체
EP22190212.5A EP4140552A1 (en) 2021-08-30 2022-08-12 Image processing apparatus, image processing method, and program
US17/886,626 US20230062973A1 (en) 2021-08-30 2022-08-12 Image processing apparatus, image processing method, and storage medium
CN202211042898.XA CN115733936A (zh) 2021-08-30 2022-08-29 图像处理设备、图像处理方法和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021139991A JP7500512B2 (ja) 2021-08-30 2021-08-30 画像処理装置、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2023033975A JP2023033975A (ja) 2023-03-13
JP7500512B2 true JP7500512B2 (ja) 2024-06-17

Family

ID=82932341

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021139991A Active JP7500512B2 (ja) 2021-08-30 2021-08-30 画像処理装置、画像処理方法、及びプログラム

Country Status (6)

Country Link
US (1) US20230062973A1 (ja)
EP (1) EP4140552A1 (ja)
JP (1) JP7500512B2 (ja)
KR (1) KR20230032893A (ja)
CN (1) CN115733936A (ja)
BR (1) BR102022015085A2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021149526A1 (ja) * 2020-01-23 2021-07-29
US11842444B2 (en) * 2021-06-02 2023-12-12 Streem, Llc Visualization of camera location in a real-time synchronized 3D mesh

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009141570A (ja) 2007-12-05 2009-06-25 Sony Corp クロック信号生成回路、表示パネルモジュール、撮像デバイス及び電子機器
WO2015098807A1 (ja) 2013-12-24 2015-07-02 チームラボ株式会社 被写体と3次元仮想空間をリアルタイムに合成する撮影システム
WO2018084087A1 (ja) 2016-11-01 2018-05-11 株式会社ソニー・インタラクティブエンタテインメント 画像表示システム、画像表示装置、その制御方法、及びプログラム
WO2019097639A1 (ja) 2017-11-16 2019-05-23 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像生成方法
WO2021149484A1 (ja) 2020-01-20 2021-07-29 ソニーグループ株式会社 画像生成装置、画像生成方法、および、プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6853013B2 (ja) 2016-10-26 2021-03-31 グリー株式会社 情報処理システム、情報処理方法、および情報処理プログラム
JP7051457B2 (ja) * 2018-01-17 2022-04-11 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009141570A (ja) 2007-12-05 2009-06-25 Sony Corp クロック信号生成回路、表示パネルモジュール、撮像デバイス及び電子機器
WO2015098807A1 (ja) 2013-12-24 2015-07-02 チームラボ株式会社 被写体と3次元仮想空間をリアルタイムに合成する撮影システム
WO2018084087A1 (ja) 2016-11-01 2018-05-11 株式会社ソニー・インタラクティブエンタテインメント 画像表示システム、画像表示装置、その制御方法、及びプログラム
WO2019097639A1 (ja) 2017-11-16 2019-05-23 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像生成方法
WO2021149484A1 (ja) 2020-01-20 2021-07-29 ソニーグループ株式会社 画像生成装置、画像生成方法、および、プログラム

Also Published As

Publication number Publication date
CN115733936A (zh) 2023-03-03
JP2023033975A (ja) 2023-03-13
KR20230032893A (ko) 2023-03-07
US20230062973A1 (en) 2023-03-02
EP4140552A1 (en) 2023-03-01
BR102022015085A2 (pt) 2023-03-07

Similar Documents

Publication Publication Date Title
JP7007348B2 (ja) 画像処理装置
JP4115117B2 (ja) 情報処理装置および方法
JP7500512B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP4847203B2 (ja) 情報処理方法、情報処理装置
WO2018170470A1 (en) Mixed reality system with virtual content warping and method of generating virtual content using same
JP7197451B2 (ja) 画像処理装置、方法及びプログラム
US11158073B2 (en) System for image compositing including training with custom synthetic data
JP6403862B1 (ja) 3次元モデルの生成装置、生成方法及びプログラム
JP2023546739A (ja) シーンの3次元モデルを生成するための方法、装置、およびシステム
JP7403967B2 (ja) 情報処理装置、映像生成装置、画像処理システム、それらの制御方法及びプログラム
US11941729B2 (en) Image processing apparatus, method for controlling image processing apparatus, and storage medium
CN113763544A (zh) 图像确定方法、装置、电子设备和计算机可读存储介质
CA3155612A1 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
JP2002083286A (ja) アバタ生成方法、装置及びそのプログラムを記録した記録媒体
CN113763545A (zh) 图像确定方法、装置、电子设备和计算机可读存储介质
JP2022184354A (ja) 画像処理装置、画像処理方法及びプログラム
WO2023166794A1 (ja) 情報処理装置、情報処理方法、画像生成装置、画像生成方法及びプログラム
US11682175B2 (en) Previsualization devices and systems for the film industry
WO2024014197A1 (ja) 映像処理装置、映像処理方法およびプログラム
JP2023021735A (ja) 画像処理装置、画像処理方法及びプログラム
JP2023153534A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2002312810A (ja) 合成動画像生成装置および合成動画像生成方法
JP2022093262A (ja) 画像処理装置、画像処理装置の制御方法およびプログラム
JP2022094788A (ja) 生成装置、生成方法、及び、プログラム
JP2023026244A (ja) 画像生成装置および画像生成方法、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240605

R150 Certificate of patent or registration of utility model

Ref document number: 7500512

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150