JP6852224B2 - 全視角方向の球体ライトフィールドレンダリング方法 - Google Patents

全視角方向の球体ライトフィールドレンダリング方法 Download PDF

Info

Publication number
JP6852224B2
JP6852224B2 JP2020512610A JP2020512610A JP6852224B2 JP 6852224 B2 JP6852224 B2 JP 6852224B2 JP 2020512610 A JP2020512610 A JP 2020512610A JP 2020512610 A JP2020512610 A JP 2020512610A JP 6852224 B2 JP6852224 B2 JP 6852224B2
Authority
JP
Japan
Prior art keywords
camera
depth
rendering
pixel
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020512610A
Other languages
English (en)
Other versions
JP2020532022A (ja
Inventor
晶怡 虞
晶怡 虞
煌杰 虞
煌杰 虞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Plex VR Digital Technology Shanghai Co Ltd
Original Assignee
Plex VR Digital Technology Shanghai Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Plex VR Digital Technology Shanghai Co Ltd filed Critical Plex VR Digital Technology Shanghai Co Ltd
Publication of JP2020532022A publication Critical patent/JP2020532022A/ja
Application granted granted Critical
Publication of JP6852224B2 publication Critical patent/JP6852224B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、コンピュータグラフィックス技術分野に関し、具体的には、多視点画像により現実オブジェクトをリアルタイムレンダリングする全視角方向の球体ライトフィールドレンダリング方法に関する。
現在、既知の3Dモデルレンダリングエンジンは、モデルとテクスチャマッピングとの組み合わせを採用し、ラスタライズレンダリングパイプラインによりレンダリングして画像を形成する。現在、ゲーム分野におけるキャラクター及びシーンは、ほとんどこのような方法によりレンダリングして得られたものである。しかし、仮想現実技術の発展に伴い、このような人工レンダリング結果は、真実感欠如のため、人々の期待に応えなくなった。
従来のレンダリングエンジンには、主に以下の問題が存在する。
(1)レンダリングデータの作成には、多くの人的資源を消費する必要がある。具体的には、現実オブジェクトに類似するモデルを構築し、モデルの外観が現実オブジェクトに近くようにモデルのテクスチャ及びマッピングを調整することにモデラーの多くの時間がかかる。また、この過程を繰り返して行う必要がある場合がある。
(2)レンダリング結果は、現実オブジェクトと大きな違いがある。従来のレンダリングエンジンに入力される三次元モデル及びテクスチャマッピングは、いずれも手作りのものであるため、オブジェクトの多くの細部を再現することができない。これらの細部は、オブジェクトの真実性を反映する最高の表現である。そのため、レンダリングにより得られた画像と肉眼で見た画像との間に常に大きな違いがある。
上記問題は、従来の3Dレンダリングエンジンに存在する一般的な問題である。上記問題を解決するために、本発明は、レンダリング方法を提供する。当該方法によれば、カメラによる撮影により必要なデータを取得できることでテクスチャマッピングの調整ステップが省略され、レンダリング結果は真に迫っており、没入感が高くなる。従来のレンダリング方法と同様に、本発明は、「全視角方向」機能、即ち、あらゆる角度からオブジェクトを観察できる機能も提供する。
本発明は、従来のレンダリングエンジンにより現実オブジェクトをレンダリングすることができない不足を克服するために、リアルタイムレンダリングを実現できるとともに、多視点画像により現実オブジェクトの各視角の画像をレンダリングすることができる全視角方向の球体ライトフィールドレンダリング方法を提供する。
上記目的を達成するために、本発明の技術的手段は、
関連ファイルの予備入力及び読み込みを行う予備ステップであるステップ1と、
球体上に格子状に分布する参照カメラ位置の深度図を予備計算するステップ2と、
前記球体表面を移動範囲としてレンダリングカメラを移動させ、前記レンダリングカメラの四周を囲んでいる4つの前記参照カメラを計算、識別するステップ3と、
前記レンダリングカメラの画素を逆投影し、4つの前記参照カメラと共に深度テストを行うステップ4と、
深度テストに合格した参照カメラに対して補間を行うことにより、最終レンダリングの画素値を得るステップ5と、
を含む。
前記ステップ4において、深度テストに合格した参照カメラが存在しない場合、深度テストに合格した参照カメラが存在するまで、4つの前記参照カメラの外周側に位置する他の参照カメラを選択して深度テストを行う。
前記ステップ4の深度テストにおいて、点Pから参照カメラの光学中心までの垂直距離を当該カメラでのPの深度値Depthとし、前記深度値Depthと参照カメラに事前に記憶された深度図のPixelでの深度値Depthとを比較し、Depth=Depthである場合、参照カメラが点Pの深度テストに合格したと判断する。
前記ステップ5において、深度テストが完了した後、4つの前記参照カメラにそれぞれ重みを付与し、計算式は
Figure 0006852224
であり、式中、
Figure 0006852224
は、球心からレンダリングカメラを指向するベクトルとして定義され、
Figure 0006852224
は、球心から参照カメラを指向するベクトルとして定義され、Wの値の範囲は、
Figure 0006852224
であり、
が正規化された後の前記レンダリングカメラのPixelでの画素値は、
Figure 0006852224
であり、式中、Rは、深度テストに合格した参照カメラ集合である。
前記ステップ1において、前記関連ファイルは、低精度のオブジェクト三次元モデル、参照カメラの外部参照、内部参照及び同じ数の画像、参照カメラの相対位置関係を記述するファイル、データセット属性を記述する構成ファイルを含む。
前記低精度のオブジェクト三次元モデルの面数は3万−10万である。
本発明によれば、従来技術と比較して、計算資源が節約され、ユーザが携帯やラップトップコンピューターのような通常のコンピューティングデバイスで、レンダリングの結果を迅速かつリアルタイムで見ることができ、ユーザが操作画面上で指をスライドさせることでレンダリングエンジンとインタラクションすることにより、球面上のあらゆる角度(所謂「全視角方向」)からオブジェクトを観察することができる。本発明の「全視角方向」効果により、ユーザは、観察しようとする角度をも落とすことがなく、様々な分野においてより良い効果が得られる。例えば、オンラインショッピングにあたり、ユーザは、一部の角度ではなく、あらゆる角度でオブジェクト全体を見ることができる。また、レンダリング結果は、現実画像のデータ(画像セット)から得られたものであるので、真実性も高くなり、ユーザにリアルな没入感をもたらす。
入力フォーマット画像の模式図である。 入力画像の模式図である。 入力画像の模式図である。 入力画像の模式図である。 本発明の実施例にかかる参照カメラが球体に格子状に分布される模式図である。 本発明のレンダリングプロセスの説明図である。 レンダリングカメラと参照カメラの相対位置の模式図である。 投影及び逆投影の説明参考図である。
以下、図面を参照しながら本発明をさらに説明する。
図1aから図4は、本発明の一実施例を示す。本実施例は、リアルタイムレンダリングを達成するとともに、多視点画像により現実オブジェクトの各視角の画像をレンダリングすることができる新しい方法を使用するライトフィールドレンダリングエンジンを提供する。具体的な実施ステップは、以下の通りである。
図1aから図1dは、本実施例の入力フォーマット画像である。本実施例の入力データは、低精度のオブジェクト三次元モデル(面数:3万−10万)、200−300セットの参照カメラの外部参照、内部参照、同じ数の画像、参照カメラの相対位置関係を記述するファイル、及びこのデータセットの属性を記述する構成ファイルを含む。具体的なデータの説明は、模式図を参照されたい。
図3を参照されたい。以下に記載の参照カメラは、入力画像を採取するカメラである。レンダリングカメラは、ユーザがインタラクションにより決定したカメラであり、出力画像のレンダリングに用いられる。両者のパラメータは同じでも異なっていてもよい。
図1aは、オブジェクトの三次元モデルであり、合計3万個の頂点及び14万個の面を含む。図1bから図1dは、画像セットの3つの実例であり、それぞれ異なる3つの角度から撮影したオブジェクト画像である。前記画像セットには、他の角度で撮影した類似する画像も含まれる。
下表は、1つの参照カメラの外部参照データを示し、4行に分けられ、各行に3つの数値が含まれ、各行がそれぞれカメラのZ軸ベクトル、X軸ベクトル、Y軸ベクトル及び座標を示す。他の参照カメラは、それぞれ各自の対応する数値を有する。
Figure 0006852224
下表は、1つの参照カメラの内部参照マトリックスであり、カメラの光学中心座標及び焦点距離データを含む。他の参照カメラは、それぞれ各自の対応する数値を有する。
Figure 0006852224
図1eは、可視化された参照カメラの位置模式図である。参照カメラは、1つの球体上に均一に分布されている。
下表は、入力データの追加の属性を示す。上から下への各項目は、それぞれ高解像度画像の数、低解像度画像の数、高横解像度、高縦解像度、低横解像度、低縦解像度、参照カメラの中心座標、参照カメラがある球面の半径、参照カメラの***面及び参照カメラの遠平面を示す。
Figure 0006852224
図2は、本実施例のレンダリング方法のフローチャートである。当該レンダリング方法は、主に以下のステップを含む。
ステップ1:参照カメラ位置の深度図を予備計算する。
ステップ2:参照カメラがある球面を範囲としてレンダリングカメラを移動させ、どの4つの参照カメラがレンダリングカメラを囲んでいるかを計算する。
ステップ3:レンダリングカメラを画素逆投影し、ステップ2の4つの参照カメラと共に深度テストを行い、深度テストに合格したカメラに対して補間を行うことにより、最終レンダリングの画素値を得る。
前記過程において、データ読み取り段階では、次の深度テストのために、各参照カメラ位置の深度図を事前に計算する必要がある。
レンダリングカメラは、ユーザがオブジェクトを観察可能な角度を決定し、即ち、レンダリングされる出力図像を決定する。図1eに示すように、参照カメラがある球面は、レンダリングカメラの移動範囲を決定する。本実施例では、レンダリングカメラ位置が固定する場合におけるその周囲の4つの参照カメラの番号を計算する必要がある(図3)。参照カメラの番号の順序が変化できるので、入力データには参照カメラの位置関係が含まれる必要があり(即ち、図1e)、次いで、ベクトル−四角形交差アルゴリズムにより計算する。
まず、ベクトル
Figure 0006852224
を計算する。出発点は参照カメラの中心であり、終点はレンダリングカメラの座標である。参照カメラの球面が複数の四角形からなると考えられるので、ベクトル−四角形交差アルゴリズムにより、
Figure 0006852224
と交差する四角形を確定することができる。さらに、入力カメラ位置ファイルを見れば、四つの候補参照カメラの番号を得る。
図4を参照されたい。ステップ3において、レンダリングカメラCamの各画素Pixelをオブジェクト表面の点Pに逆投影し、さらにPを4つの参照カメラ(図4に2つのみが示されているが、他の2つは同様である)に投影することにより、それぞれ画素PixelR1、PixelR2、PixelR3及びPixelR4を得る。この場合、参照カメラのビューで、点Pがオブジェクトの他の部分により遮られているので見られない可能性があるため、補間前に深度テストを行う必要がある。
さらに、深度テストを行う。点Pから参照カメラCamR1の光学中心までの垂直距離は当該カメラでのPの深度値であり、Depthと記す。CamR1に事前に記憶された深度図のPixelR1での深度値をDepthと記す。Depth=Depthである場合、参照カメラCamR1が点Pの深度テストに合格したと判断する。同様に、CamR2、CamR3及びCamR4に対してそれぞれ深度テストを行うことができる。
4つの参照カメラにそれぞれ重みを付与し、計算式は
Figure 0006852224
であり、式中、
Figure 0006852224
は、球心からレンダリングカメラを指向するベクトルとして定義され、
Figure 0006852224
は、球心から参照カメラCamを指向するベクトルとして定義される。Wの値の範囲は
Figure 0006852224
である。深度テストに合格していない参照カメラは、その重み付与値が0であり、深度テストに合格した参照カメラは、その重みが計算して正規化される。
深度テストに合格したカメラの数が0ではない場合、最終レンダリングカメラのPixelでの画素値は、
Figure 0006852224
である。
式中、Rは、深度テストに合格した参照カメラ集合である。
深度テストに合格したカメラが存在しない場合、深度テストに合格した参照カメラが存在するまで、前記4つのカメラを囲んでいる参照カメラを選択して深度テストを行う。具体的には、4つの参照カメラがいずれも深度テストに合格しなかった場合、前記4つの参照カメラの周りのカメラまで拡張し、外側の12個の参照カメラからなる長方形においてステップ4、即ち、逆投影及び深度テストを繰り返す。このようにして、99%以上の画素値が深度テストに合格することが保証され、今回のレンダリングが終了したと考えられる。
本実施例は、スマートフォンまたはコンピュータのソフトウェアによりユーザにレンダリングカメラを移動させるインタラクション手段を提供することができる。本発明は、必要な計算資源が少ないため、具体的な入力データと組み合わせるだけで前記設備によりレンダリング結果をリアルタイムで得ることができる。
以上、図面及び実施例により本発明の実施形態を説明したが、本発明は、実施例に開示された構造に制限されない。当業者は、必要に応じて添付する特許請求の範囲内で加えた様々な変形又は修正は、いずれも保護の範囲に含まれる。

Claims (3)

  1. 複数の参照カメラが1つの球体上に格子状に分布され、各参照カメラ位置の深度図を事前に計算するステップと、
    前記参照カメラがある球体表面を移動範囲としてレンダリングカメラを移動させ、前記レンダリングカメラの四周を囲んでいる4つの照カメラを計算、識別するステップと、
    前記レンダリングカメラの画素Pixel オブジェクト表面の点Pに逆投影し、さらに点Pを4つの前記参照カメラに投影することにより、それぞれ画素Pixel を得て深度テストを行うステップと、
    深度テストに合格した参照カメラに対して補間を行うことにより、最終レンダリングの画素値を得るステップと、
    を含み、
    前記ステップの深度テストにおいて、点Pから参照カメラの光学中心までの垂直距離を当該カメラでのPの深度値Depthとし、前記深度値Depthと参照カメラに事前に記憶された深度図の画素Pixelでの深度値Depthとを比較し、Depth=Depthである場合、当該参照カメラが点Pの深度テストに合格したと判断する、
    ことを特徴とする、全視角方向の球体ライトフィールドレンダリング方法。
  2. 前記ステップにおいて、深度テストに合格した参照カメラが存在しない場合、深度テストに合格した参照カメラが存在するまで、4つの前記参照カメラの外周側に位置する他の参照カメラを選択して深度テストを行うことを特徴とする、請求項1に記載の全視角方向の球体ライトフィールドレンダリング方法。
  3. 前記ステップにおいて、深度テストが完了した後、4つの前記参照カメラにそれぞれ重みを付与し、計算式は、
    Figure 0006852224
    であり、式中、
    Figure 0006852224
    は、球心からレンダリングカメラを指向するベクトルとして定義され、
    Figure 0006852224
    は、球心から参照カメラを指向するベクトルとして定義され、Wの値の範囲は、
    Figure 0006852224
    であり、
    が正規化された後の前記レンダリングカメラの画素Pixelでの画素値は、
    Figure 0006852224
    であり、式中、Rは、深度テストに合格した参照カメラ集合であることを特徴とする、請求項1に記載の全視角方向の球体ライトフィールドレンダリング方法。
JP2020512610A 2017-09-01 2018-07-16 全視角方向の球体ライトフィールドレンダリング方法 Active JP6852224B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201710783621.5A CN107464278B (zh) 2017-09-01 2017-09-01 全视向的球体光场渲染方法
CN201710783621.5 2017-09-01
PCT/CN2018/095778 WO2019042028A1 (zh) 2017-09-01 2018-07-16 全视向的球体光场渲染方法

Publications (2)

Publication Number Publication Date
JP2020532022A JP2020532022A (ja) 2020-11-05
JP6852224B2 true JP6852224B2 (ja) 2021-03-31

Family

ID=60551663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020512610A Active JP6852224B2 (ja) 2017-09-01 2018-07-16 全視角方向の球体ライトフィールドレンダリング方法

Country Status (6)

Country Link
US (1) US10909752B2 (ja)
JP (1) JP6852224B2 (ja)
KR (1) KR102143319B1 (ja)
CN (1) CN107464278B (ja)
GB (1) GB2584753B (ja)
WO (1) WO2019042028A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107464278B (zh) * 2017-09-01 2020-01-24 叠境数字科技(上海)有限公司 全视向的球体光场渲染方法
CN111553972B (zh) * 2020-04-27 2023-06-30 北京百度网讯科技有限公司 用于渲染增强现实数据的方法、装置、设备及存储介质
CN115202174B (zh) * 2022-07-14 2023-11-10 浙江理工大学 基于光场图像的全息体视图获取方法、***和应用

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0877356A (ja) * 1994-09-09 1996-03-22 Fujitsu Ltd 三次元多眼画像の処理方法及び処理装置
JP4474743B2 (ja) * 2000-07-03 2010-06-09 ソニー株式会社 三次元画像生成装置および三次元画像生成方法、並びにプログラム記録媒体
JP2003337953A (ja) * 2002-05-20 2003-11-28 Sony Corp 画像処理装置および画像処理方法、並びにコンピュータ・プログラム
KR100528343B1 (ko) 2003-07-14 2005-11-15 삼성전자주식회사 3차원 객체의 영상 기반 표현 및 편집 방법 및 장치
JP5004650B2 (ja) * 2007-05-09 2012-08-22 株式会社ソニー・コンピュータエンタテインメント グラフィックスプロセッサ、描画処理装置および描画処理方法
CN101222647B (zh) * 2007-10-12 2010-10-27 四川虹微技术有限公司 多视角视频图像的场景全局深度估计方法
US8155513B2 (en) * 2008-04-12 2012-04-10 Hien Tu Le Off center motor, ground glass on center post with ball bearing(S), X-Y image position adjustment and on-the-fly back focus adjustment with lock down on 35mm spinning ground glass adapters
US8994732B2 (en) * 2011-03-07 2015-03-31 Microsoft Corporation Integration of sketch-based interaction and computer data analysis
TW201237801A (en) 2011-03-11 2012-09-16 J Touch Corp Method for processing three-dimensional image vision effects
US20130016099A1 (en) * 2011-07-13 2013-01-17 2XL Games, Inc. Digital Rendering Method for Environmental Simulation
US20140306958A1 (en) * 2013-04-12 2014-10-16 Dynamic Digital Depth Research Pty Ltd Stereoscopic rendering system
CN103345771B (zh) * 2013-06-28 2016-08-10 中国科学技术大学 一种基于建模的图像高效渲染方法
CN103500467B (zh) * 2013-10-21 2016-06-15 深圳市易尚展示股份有限公司 基于图像的三维模型构成方法
CN103530907B (zh) * 2013-10-21 2017-02-01 深圳市易尚展示股份有限公司 基于图像的复杂三维模型绘制方法
CN104715504A (zh) 2015-02-12 2015-06-17 四川大学 一种鲁棒的大场景稠密三维重建方法
US9852539B2 (en) * 2015-02-26 2017-12-26 Qualcomm Incorporated Single pass surface splatting
CN105741341B (zh) * 2016-01-27 2018-11-06 桂林长海发展有限责任公司 一种三维空间环境成像***及方法
CN106570938A (zh) * 2016-10-21 2017-04-19 哈尔滨工业大学深圳研究生院 基于opengl 的全景监控方法及***
CN106910242B (zh) 2017-01-23 2020-02-28 中国科学院自动化研究所 基于深度相机进行室内完整场景三维重建的方法及***
JP6824579B2 (ja) * 2017-02-17 2021-02-03 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
CN107085824A (zh) 2017-03-14 2017-08-22 佛山科学技术学院 一种三维模型的极视图提取方法
CN107464278B (zh) * 2017-09-01 2020-01-24 叠境数字科技(上海)有限公司 全视向的球体光场渲染方法

Also Published As

Publication number Publication date
GB2584753B (en) 2021-05-26
JP2020532022A (ja) 2020-11-05
US20200380770A1 (en) 2020-12-03
GB202002591D0 (en) 2020-04-08
WO2019042028A1 (zh) 2019-03-07
CN107464278B (zh) 2020-01-24
KR102143319B1 (ko) 2020-08-10
KR20200024946A (ko) 2020-03-09
GB2584753A (en) 2020-12-16
CN107464278A (zh) 2017-12-12
US10909752B2 (en) 2021-02-02

Similar Documents

Publication Publication Date Title
CN110889890B (zh) 图像处理方法及装置、处理器、电子设备及存储介质
CN105513112B (zh) 图像处理方法和装置
US20190362539A1 (en) Environment Synthesis for Lighting An Object
CN108335353A (zh) 动态场景的三维重建方法、装置和***、服务器、介质
CN107452049B (zh) 一种三维头部建模方法及装置
JP6852224B2 (ja) 全視角方向の球体ライトフィールドレンダリング方法
US9508191B2 (en) Optimal point density using camera proximity for point-based global illumination
WO2022063260A1 (zh) 一种渲染方法、装置及设备
WO2023066121A1 (zh) 三维模型的渲染
CN101477702B (zh) 计算机显卡的植入式真三维立体驱动方法
Petkov et al. Interactive visibility retargeting in vr using conformal visualization
US10699372B2 (en) Image generation apparatus and image display control apparatus
CN108230430B (zh) 云层遮罩图的处理方法及装置
CN106530384B (zh) 一种三维模型的外观纹理合成方法及装置
WO2017174006A1 (zh) 图片处理的方法和装置
CN115830210A (zh) 虚拟对象的渲染方法、装置、电子设备及存储介质
CN115830202A (zh) 一种三维模型渲染方法和装置
WO2022183723A1 (zh) 特效控制方法及装置
US11120606B1 (en) Systems and methods for image texture uniformization for multiview object capture
WO2017188119A1 (ja) プログラム、情報処理装置、影響度導出方法、画像生成方法及び記録媒体
CN108986228B (zh) 用于虚拟现实中界面显示的方法及装置
JP3850080B2 (ja) 画像生成表示装置
US11830140B2 (en) Methods and systems for 3D modeling of an object by merging voxelized representations of the object
CN113476835B (zh) 一种画面显示的方法及装置
US20230245364A1 (en) Method for Processing Video, Electronic Device, and Storage Medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200411

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200410

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200410

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200410

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201020

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20201109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210309

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210310

R150 Certificate of patent or registration of utility model

Ref document number: 6852224

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250