JP7434846B2 - 画像処理装置、画像処理方法、プログラム - Google Patents
画像処理装置、画像処理方法、プログラム Download PDFInfo
- Publication number
- JP7434846B2 JP7434846B2 JP2019216547A JP2019216547A JP7434846B2 JP 7434846 B2 JP7434846 B2 JP 7434846B2 JP 2019216547 A JP2019216547 A JP 2019216547A JP 2019216547 A JP2019216547 A JP 2019216547A JP 7434846 B2 JP7434846 B2 JP 7434846B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- spherical
- spherical image
- distance
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 99
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000000034 method Methods 0.000 claims description 41
- 238000013528 artificial neural network Methods 0.000 claims description 30
- 238000004364 calculation method Methods 0.000 claims description 24
- 230000006870 function Effects 0.000 claims description 22
- 238000012549 training Methods 0.000 claims description 12
- 238000003384 imaging method Methods 0.000 description 63
- 238000010586 diagram Methods 0.000 description 37
- 230000008569 process Effects 0.000 description 12
- 238000009877 rendering Methods 0.000 description 12
- 230000001133 acceleration Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000015654 memory Effects 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000012634 optical imaging Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000003702 image correction Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000005389 magnetism Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Studio Devices (AREA)
Description
1.各方向にレンズが1つの全天球画像の撮像装置で、異なる位置から2回以上撮像し、コンピュータ又はユーザが編集、合成する。
2. 立体視用の全天球画像を撮像できる特殊なカメラを用いる。
また、本発明は、1つの全天球画像に対し推定アルゴリズムを施して、距離画像を生成し、前記距離画像と前記全天球画像から立体視用の全天球画像を生成する画像処理装置であって、前記推定アルゴリズムはニューラルネットワークを使用した学習によって構築されており、3Dモデリングソフトで作成されたモデリングデータを仮想的なカメラで撮像した全天球画像及び前記全天球画像の距離画像のうち、前記全天球画像を入力、前記距離画像を教師データとして、前記全天球画像に対し前記距離画像を出力する前記推定アルゴリズムが構築されており、前記推定アルゴリズムで推定された前記距離画像が有する画素の距離を用いて、前記全天球画像を直交座標系の三次元点群に変換し、前記直交座標系の水平面で所定点の周囲を回転する直線であって、所定角度ずつ回転させた各位置で、前記直線の仰角を変化させた場合に前記直線の近傍の三次元点を、円筒画像に変換する視差計算部を有することを特徴とする。
図1は、本実施形態において立体視可能な全天球画像の作成方法の概略を説明する図である。
(1) 全天球画像の撮像装置9が撮像処理を行い1つの全天球画像を生成する。すでに撮像されていてもよい。
(2) 画像処理装置10が推定アルゴリズム(プログラム)を実行して、1つの全天球画像から2つの全天球画像を出力する。この2つの全天球画像は立体視可能な全天球画像となっている。推定アルゴリズムは、1つの全天球画像からニューラルネットワークを使って左目用の全天球画像と右目用の全天球画像を推定するアルゴリズムである。ただし、ニューラルネットワークによるアルゴリズムには限定しなくてよい。
(3) 例えばVRゴーグルなどでユーザが360度の空間を立体視で閲覧できる。
全天球画像とは、周囲360度が撮像された画像データをいう。必ずしも360度の全てが写っている必要はなく、画質向上などのために一部が省略されていてもよい。全天球画像は、平面画像に変換された状態(正距円筒画像)と立体球の状態を取る場合がある。
<<画像処理装置>>
図2は、画像処理装置10のハードウェア構成例を示す。図2に示されているように、画像処理装置10は、コンピュータによって構築されており、図2に示されているように、CPU501、ROM502、RAM503、HD504、HDD(Hard Disk Drive)コントローラ505、ディスプレイ506、外部機器接続I/F(Interface)508、ネットワークI/F509、バスライン510、キーボード511、ポインティングデバイス512、DVD-RW(Digital Versatile Disk Rewritable)ドライブ514、メディアI/F516を備えている。
図3を用いて、撮像装置9のハードウェア構成を説明する。図3は、撮像装置9のハードウェア構成図である。以下では、撮像装置9は、2つの撮像素子を使用した全天球(全方位)撮像装置とするが、撮像素子は2つ以上いくつでもよい。また、必ずしも全方位撮像専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位の撮像ユニットを取り付けることで、実質的に撮像装置9と同じ機能を有するようにしてもよい。
図4は、全天球画像のフォーマットを説明する図である。図4(a)は正距円筒画像であり、図4(b)は立体球である。正距円筒画像は現実世界の3次元座標系を2次元に転写したものである。図4では、転写における座標系の変換方法を示している。
θ:3次元空間上の水平方向の角度
φ:3次元空間上の垂直方向の角度
このθとφで指定される画素を2次元に転写したものが全天球画像に一般的に使われる正距円筒画像である。本実施形態では平面状態の全天球画像は正距円筒画像であるとして説明する。図4(a)に示すように、正距円筒画像は、水平方向に360度、垂直方向に180度の画角となる。
図5は、立体視用の画像のフォーマットの一例である。全天球画像に限らず、立体視可能な画像にはいくつかのフォーマットが存在する。ここに記載したものは、その中の一つであるトップ&ボトム形式と呼ばれるフォーマットである。上が左目に表示する画像であり、下が右目に表示する画像に対応する。本実施形態の画像処理装置10は最終的な出力画像の形式として、正距円筒画像を縦に2つ並べたトップ&ボトム形式の画像を出力する。
・サイドバイサイド形式 :左目用の画像と右目用の画像を左右に並べた形式
・フレームシーケンシャル形式 : 動画用の方式で、左目用の画像と右目用の画像を交互に動画フレームとして並べる形式
なお、元の正距円筒画像は横長(1(縦):2(横))のアスペクト比であるため、立体視用の全天球画像に関してはトップ&ボトム形式が採用されることが多い。トップ&ボトム形式を用いると、上記のアスペクト比から丁度、正方形の画像サイズになるためである。
図6は、画像処理装置10の機能をブロック状に示す機能ブロック図の一例である。まず、図6(a)は学習フェーズの画像処理装置10を示す。画像処理装置10は、記憶部41、学習部42、画像出力部43及び学習データ作成部44を有している。このうち画像出力部43は学習により構築されるため点線で示した。画像処理装置10が有するこれらの各機能は、画像処理装置10が有するCPU501が、HD504からRAM503に展開されたプログラムを実行することで実現される機能又は手段である。また、記憶部41は、画像処理装置10が有するHD504又はRAM503の少なくとも一方に形成されている。
続いて、図7~図12を用いて学習データの作成方法を説明する。まず、図7は、画像処理装置10が行う学習データの作成方法の流れを説明するフローチャート図である。図7に示すように、学習データ作成部44は、カメラの設置、レンダリング、及び、左右画像のスワップを行う。
図8は、3Dモデリングソフトを用いた学習データの作成方法を説明する図である。本実施形態では、教師データは、3Dモデリングソフトを用いて作成する。3Dモデリングソフトとは、3DCADや3DCGのデータをコンピュータ上で可視化するアプリケーションである。3DCADは主に数式で三次元形状を表し、3DCGはポリゴンの組み合わせで三次元形状を表す。
図9は、左側、中央、右側の3つの仮想的なカメラの1回の撮像結果を示す。図9(a)が左側のカメラの全天球画像、図9(b)が中央のカメラの全天球画像、図9(c)が右側のカメラの全天球画像である。ほぼ同じ画像であるが、厳密には視差が生じている。
次に、図10に基づいて、左右画像のスワップについて説明する。図10は、左右の画像と目の関係を説明する図である。図9に示した右目用の全天球画像と左目用の全天球画像では教師データにならない。これは、左右のカメラの位置関係と、人間の目の位置が、人間の体の向きによって変わるからである。
学習データ作成部44は十分な(閾値以上の)枚数の学習データを生成するまでS1~S3を行う。
図13は、CNN(Convolutional Neural Network)のニューラルネットワークの構成例を示す。ニューラルネットワーク又は深層学習(Deep Neural Network)のうち、畳み込み(Convolutional)演算を使用するネットワークをCNNという。CNNにより上記の推定アルゴリズム(画像出力部)が構築される。本実施形態では主にCNNを使用するが、画像生成さえできれば、どのようなアルゴリズムを用いても良い。
図15は、画像処理装置10が立体視用の全天球画像を出力する処理を説明するフローチャート図の一例である。
以上説明したように、本実施形態の画像処理装置10は、1つの全天球画像から立体視可能な全天球画像を生成できる。時間をおいての撮像や特殊な撮像装置が必要ない。また、すでに撮像済みの全天球画像から立体視可能な全天球画像を生成できる。
図17は、画像処理装置10の機能をブロック状に示す機能ブロック図の一例である。図17(a)は学習フェーズにおける画像処理装置10の機能をブロック状に示す機能ブロック図の一例である。本実施例では学習データ作成部44の機能が実施例1と異なっている。本実施例の学習データ作成部44は入力用の全天球画像から1枚の距離画像を作ればよく、右目用と左目用の全天球画像(教師データ)を作成する必要がない。
図18は、画像処理装置10が行う学習データの作成方法の流れを説明するフローチャート図である。図18の説明では、主に図7との相違を説明する。図18に示すように、学習データ作成部44は、カメラの設置、及び、レンダリングを行うが、左右画像のスワップを行う必要がない。
本実施例では、正距円筒画像とそれに対応した距離画像が学習データとなる。教師データは距離画像である。本実施例においても3Dモデリングソフトが利用される。本実施例では学習データ作成部44は1つのみ仮想的なカメラを配置すればよい。
実施例1と同様に、学習データ作成部44は仮想的なカメラに全天球画像をレンダリングする。また、本実施例では学習データ作成部44は距離画像を作成するのでRGBの輝度値は不要であり、zバッファと呼ばれる深度情報をレンダリングする。3Dモデリングソフトではzバッファと呼ばれるカメラに対する深度情報を利用できる。深度情報はカメラと物体の特定点との距離を表す情報である。3Dモデルではカメラを固定した際に空間内のオブジェクト同士がカメラから見た際に重なり合うことがあり、その際に効率的に描画処理を進めるためにはカメラから遠いオブジェクトを描画する作業は無駄になる。そこで使われるデータがzバッファで、カメラに近いオブジェクトのみをレンダリングすることで描画速度を高速化するために用いる。
図20は、本実施例のニューラルネットワークの構成例を示す。図20は1枚の距離画像を出力するため、処理の流れが1つしかないが、畳み込み部56と逆畳み込み部57の構成は図13と同様になっている。ただし、使用するニューラルネットワークに関しては同じでも違っていてもよい。教師データを変えているため、同じニューラルネットワークを使ったとしても学習させればフィルタの係数などの特性が変化するため、距離データに応じた画像出力部43を構築できる。画像生成系のニューラルネットワークを用いれば良い。
続いて、図21を用いて視差計算について説明する。図21は視差計算部45が行う処理を説明するフローチャート図である。
まず、視差計算部45は、入力用の全天球画像とそれに対応する距離画像を用いて、三次元点群を生成する。図4で説明したように、全天球画像の各点はそれぞれ立体球の球面上の点に対応する。全天球画像の点(u,v)に対し、立体球に転写した際の水平角度θ(ラジアン)と垂直角度φは次のように計算される。なお、wとhはそれぞれ全天球画像の幅と高さであり、u、vを0~1に正規化するために導入されている。一例としてはw=5376とh=2688である。
θ = -π + 2π(u/w)
φ = -π/2 + π(v/h)
立体球の座標(θ,φ)は極座標であるが、極座標と直交座標系の変換は下式(1)により実現できる。
視差計算部45は以下の処理を各三次元点で行う。
視差計算部45が作成するものは左右の目にそれぞれ対応した正距円筒画像である。ステップS101で三次元空間を復元できたので、カメラ(視点)を任意の座標に配置して、そこで画像がどのように映るかを計算により求める。視差計算部45は左右の目の画像を作るために、カメラを目の間隔 (例えば左右で5cmずつの計10cm) だけずらした正距円筒画像を三次元点群から作る。
次に、目の向きに対して最も歪みが少なく距離画像を作れるのは目に対してまっすぐの方向に対してなので、図22(d)に示すように、視差計算部45は目に対して垂直な直線62の方向にある三次元点群を使ってレンダリングする。
図23は、ある目の向きにおける正距円筒画像と三次元点群の関係を模式的に示す図である。右目の位置が交差点であり、目の向きを表す直線62が示されている。この場合、垂直方向(点線61上)のすべての画素がレンダリングの対象となる。点線61は、xz平面の目の向きは同じまま(直線62の向きのまま)、直線62の仰角を変化させた場合の軌跡である。仰角は直線62をy軸方向(垂直方向)に変化させた場合の角度である。したがって、視差計算部45は点線61上の画素を正距円筒画像にレンダリングする。しかし、点線上に画素があるとは限らないので、xz平面の目の向きは同じまま、y軸方向に180度変化させた直線62に対し最も近傍にある点を選択してレンダリングする。
これにより、三次元点が定まるので、視差計算部45はその選んだ三次元点(x、y、z)を、式(2)を使って水平角度θと垂直角度φに変換し、三次元点(x、y、z)の画素値を正距円筒画像の点の画素値に設定する。
本実施例によれば、実施例1の効果に加え、高密度、高精細な正距円筒画像を得られる。
(1) 画像処理装置10は動画を連続した画像とみなして連続した静止画に変換する。
(2) それぞれに対して画像処理装置10は実施例1又は2の推定アルゴリズムを360度立体視向けの画像を生成する。
(3) それらの画像を動画として再結合する。
本実施例によれば、実施例1、2の効果に加え、動画にも対応できる。
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
10 画像処理装置
Claims (7)
- 1つの全天球画像に対し推定アルゴリズムを施して、立体視用の全天球画像を生成する画像処理装置であって、
前記推定アルゴリズムはニューラルネットワークを使用した学習によって構築されており、
3Dモデリングソフトで作成されたモデリングデータを、水平に並べた3つの仮想的なカメラのうち中央のカメラで撮像した全天球画像を入力用の全天球画像とし、
3つの仮想的なカメラのうち右側カメラで撮像した全天球画像と、左側カメラで撮像した全天球画像のうち、前記右側カメラの背面に対応する部分が写った全天球画像の背面画像と前記左側カメラの背面に対応する部分が写った全天球画像の背面画像とをスワップして、教師データとなる右目用の全天球画像と左目用の全天球画像を生成する学習データ作成部を有することを特徴とする画像処理装置。 - 1つの全天球画像に対し推定アルゴリズムを施して、距離画像を生成し、前記距離画像と前記全天球画像から立体視用の全天球画像を生成する画像処理装置であって、
前記推定アルゴリズムはニューラルネットワークを使用した学習によって構築されており、
3Dモデリングソフトで作成されたモデリングデータを仮想的なカメラで撮像した全天球画像及び前記全天球画像の距離画像のうち、
前記全天球画像を入力、前記距離画像を教師データとして、前記全天球画像に対し前記距離画像を出力する前記推定アルゴリズムが構築されており、
前記推定アルゴリズムで推定された前記距離画像が有する画素の距離を用いて、前記全天球画像を直交座標系の三次元点群に変換し、
前記直交座標系の水平面で所定点の周囲を回転する直線であって、所定角度ずつ回転させた各位置で、前記直線の仰角を変化させた場合に前記直線の近傍の三次元点を、円筒画像に変換する視差計算部を有することを特徴とする画像処理装置。 - 動画の前記全天球画像を静止画に変換し、立体視用の全天球画像を生成した後、動画に合成することを特徴とする請求項1又は2に記載の画像処理装置。
- 1つの全天球画像に対し推定アルゴリズムを施して、立体視用の全天球画像を生成する画像処理方法であって、
前記推定アルゴリズムはニューラルネットワークを使用した学習によって構築されており、
3Dモデリングソフトで作成されたモデリングデータを、水平に並べた3つの仮想的なカメラのうち中央のカメラで撮像した全天球画像を入力用の全天球画像とし、
3つの仮想的なカメラのうち右側カメラで撮像した全天球画像と、左側カメラで撮像した全天球画像のうち、前記右側カメラの背面に対応する部分が写った全天球画像の背面画像と前記左側カメラの背面に対応する部分が写った全天球画像の背面画像とをスワップして、教師データとなる右目用の全天球画像と左目用の全天球画像を生成する画像処理方法。 - 1つの全天球画像に対し推定アルゴリズムを施して、距離画像を生成し、前記距離画像と前記全天球画像から立体視用の全天球画像を生成する画像処理方法であって、
前記推定アルゴリズムはニューラルネットワークを使用した学習によって構築されており、
3Dモデリングソフトで作成されたモデリングデータを仮想的なカメラで撮像した全天球画像及び前記全天球画像の距離画像のうち、
前記全天球画像を入力、前記距離画像を教師データとして、前記全天球画像に対し前記距離画像を出力する前記推定アルゴリズムが構築されており、
前記推定アルゴリズムで推定された前記距離画像が有する画素の距離を用いて、前記全天球画像を直交座標系の三次元点群に変換し、
前記直交座標系の水平面で所定点の周囲を回転する直線であって、所定角度ずつ回転させた各位置で、前記直線の仰角を変化させた場合に前記直線の近傍の三次元点を、円筒画像に変換することを特徴とする画像処理方法。 - 画像処理装置に、
1つの全天球画像に対し推定アルゴリズムを施して、立体視用の全天球画像を生成させるプログラムであって、
前記推定アルゴリズムはニューラルネットワークを使用した学習によって構築されており、
前記画像処理装置を、
3Dモデリングソフトで作成されたモデリングデータを、水平に並べた3つの仮想的なカメラのうち中央のカメラで撮像した全天球画像を入力用の全天球画像とし、
3つの仮想的なカメラのうち右側カメラで撮像した全天球画像と、左側カメラで撮像した全天球画像のうち、前記右側カメラの背面に対応する部分が写った全天球画像の背面画像と前記左側カメラの背面に対応する部分が写った全天球画像の背面画像とをスワップして、教師データとなる右目用の全天球画像と左目用の全天球画像を生成する学習データ作成部として機能させるためのプログラム。 - 画像処理装置に、
1つの全天球画像に対し推定アルゴリズムを施して、距離画像を生成し、前記距離画像と前記全天球画像から立体視用の全天球画像を生成させるプログラムであって、
前記推定アルゴリズムはニューラルネットワークを使用した学習によって構築されており、
3Dモデリングソフトで作成されたモデリングデータを仮想的なカメラで撮像した全天球画像及び前記全天球画像の距離画像のうち、
前記全天球画像を入力、前記距離画像を教師データとして、前記全天球画像に対し前記距離画像を出力する前記推定アルゴリズムが構築されており、
前記画像処理装置を、
前記推定アルゴリズムで推定された前記距離画像が有する画素の距離を用いて、前記全天球画像を直交座標系の三次元点群に変換し、
前記直交座標系の水平面で所定点の周囲を回転する直線であって、所定角度ずつ回転させた各位置で、前記直線の仰角を変化させた場合に前記直線の近傍の三次元点を、円筒画像に変換する視差計算部として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019216547A JP7434846B2 (ja) | 2019-11-29 | 2019-11-29 | 画像処理装置、画像処理方法、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019216547A JP7434846B2 (ja) | 2019-11-29 | 2019-11-29 | 画像処理装置、画像処理方法、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021086494A JP2021086494A (ja) | 2021-06-03 |
JP7434846B2 true JP7434846B2 (ja) | 2024-02-21 |
Family
ID=76087893
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019216547A Active JP7434846B2 (ja) | 2019-11-29 | 2019-11-29 | 画像処理装置、画像処理方法、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7434846B2 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003067784A (ja) | 2002-07-30 | 2003-03-07 | Canon Inc | 情報処理装置 |
JP2013178749A (ja) | 2012-02-08 | 2013-09-09 | Jvc Kenwood Corp | 画像処理装置、画像処理方法及び画像処理プログラム |
JP2019022121A (ja) | 2017-07-19 | 2019-02-07 | ソニー株式会社 | 画像処理装置、および画像処理装置の制御方法 |
JP2019133112A (ja) | 2018-02-02 | 2019-08-08 | 株式会社リコー | 撮像装置および撮像装置の制御方法 |
-
2019
- 2019-11-29 JP JP2019216547A patent/JP7434846B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003067784A (ja) | 2002-07-30 | 2003-03-07 | Canon Inc | 情報処理装置 |
JP2013178749A (ja) | 2012-02-08 | 2013-09-09 | Jvc Kenwood Corp | 画像処理装置、画像処理方法及び画像処理プログラム |
JP2019022121A (ja) | 2017-07-19 | 2019-02-07 | ソニー株式会社 | 画像処理装置、および画像処理装置の制御方法 |
JP2019133112A (ja) | 2018-02-02 | 2019-08-08 | 株式会社リコー | 撮像装置および撮像装置の制御方法 |
Non-Patent Citations (1)
Title |
---|
N.Zioulis, et al,Omnidepth: Dense depth estimation for indoors spherical panoramas,Proceedings of the European Conference on Computer Vision(ECCV),米国,arxiv.org,2018年,p.1ーp.18,https://arxiv.org/pdf/1807.09620.pdf |
Also Published As
Publication number | Publication date |
---|---|
JP2021086494A (ja) | 2021-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3485635B1 (en) | Light field capture | |
EP3057066B1 (en) | Generation of three-dimensional imagery from a two-dimensional image using a depth map | |
CN105164728B (zh) | 用于混合实境的设备和方法 | |
CN102385742B (zh) | 图像校正、校正表生成装置、校正图像、校正表生成方法、程序 | |
JP5093053B2 (ja) | 電子カメラ | |
US20150235408A1 (en) | Parallax Depth Rendering | |
US11776142B2 (en) | Structuring visual data | |
JP2006107213A (ja) | 立体画像印刷システム | |
JP2013214947A (ja) | 撮像装置、撮像システム、画像処理方法、情報処理装置、及びプログラム | |
JP7368707B2 (ja) | 画像処理方法、プログラム、画像処理装置および画像処理システム | |
CN112927362A (zh) | 地图重建方法及装置、计算机可读介质和电子设备 | |
JPWO2012153447A1 (ja) | 画像処理装置、映像処理方法、プログラム、集積回路 | |
WO2017128887A1 (zh) | 全景图像的校正3d显示方法和***及装置 | |
CN107133918A (zh) | 一种在三维场景中任意位置生成全景图的方法 | |
WO2019076348A1 (zh) | 一种虚拟现实vr界面生成的方法和装置 | |
CN113643414B (zh) | 一种三维图像生成方法、装置、电子设备及存储介质 | |
CN110648274A (zh) | 鱼眼图像的生成方法及装置 | |
JP2018109946A (ja) | 表示装置、プログラム、表示方法 | |
CN106791762A (zh) | 立体影像处理方法及*** | |
KR101704362B1 (ko) | 룩업테이블 기반의 실시간 파노라마 영상 제작 시스템 및 이를 이용한 실시간 파노라마 영상 제작 방법 | |
CN114742703A (zh) | 双目立体全景图像的生成方法、装置、设备和存储介质 | |
CN108450031A (zh) | 图像捕获装置 | |
EP3573018B1 (en) | Image generation device, and image display control device | |
CN113096008A (zh) | 一种全景图片的显示方法、显示装置及存储介质 | |
JP7434846B2 (ja) | 画像処理装置、画像処理方法、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220914 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230725 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230829 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231027 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240122 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7434846 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |