JP7434846B2 - 画像処理装置、画像処理方法、プログラム - Google Patents

画像処理装置、画像処理方法、プログラム Download PDF

Info

Publication number
JP7434846B2
JP7434846B2 JP2019216547A JP2019216547A JP7434846B2 JP 7434846 B2 JP7434846 B2 JP 7434846B2 JP 2019216547 A JP2019216547 A JP 2019216547A JP 2019216547 A JP2019216547 A JP 2019216547A JP 7434846 B2 JP7434846 B2 JP 7434846B2
Authority
JP
Japan
Prior art keywords
image
spherical
spherical image
distance
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019216547A
Other languages
English (en)
Other versions
JP2021086494A (ja
Inventor
均 並木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2019216547A priority Critical patent/JP7434846B2/ja
Publication of JP2021086494A publication Critical patent/JP2021086494A/ja
Application granted granted Critical
Publication of JP7434846B2 publication Critical patent/JP7434846B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理装置、画像処理方法、及び、プログラムに関する。
ユーザ見ている方向に応じて周囲360度の画像を提供するVR(virtual reality)ゴーグルが知られている。このため、周囲360度の広角な範囲が撮像された画像が必要になる。また、VRゴーグルでは右目用と左目用の画像を表示することで、奥行き感がある仮想現実世界を提供できる。
一度の撮像操作で、周囲360°の画像(以下、全天球画像という)を得る撮像装置が知られている(例えば特許文献1参照。)。特許文献1には、背中合わせに配置された光学撮像系で撮像した2つの半球画像を合成して1つの全天球画像を生成する撮像装置が開示されている。
しかしながら、従来は、立体視用の全天球画像を用意することが容易でないという問題があった。
まず、全天球画像の撮像装置はレンズが各方向に対して1つ(合計2つ)しか存在しないため、360度の平面として周囲を撮像できても立体視用になっていない。VRゴーグル等で見た場合、平面が強調されて迫力に欠ける。
立体視用の全天球画像を用意する方法は大きく分けて2つある。
1.各方向にレンズが1つの全天球画像の撮像装置で、異なる位置から2回以上撮像し、コンピュータ又はユーザが編集、合成する。
2. 立体視用の全天球画像を撮像できる特殊なカメラを用いる。
1の方法については撮像を2回以上行う都合上、撮像にタイムラグが発生する。タイムラグが発生すると、その間に人間の移動、樹木の風による揺らぎ、雲の変化などが生じ、2つの全天球画像の合わせこみが困難になる。観光地などでは人が大勢おり、全ての人間の動きをタイムラグが生じた2つの写真間で合わせることは実質的に不可能である。
2の方法については特殊なカメラの値段が高く、筐体が球形などのかさばる形状をしているため、一般用途での利用が難しい。
また、1,2の方法のいずれでも、観光地等で撮像した既に存在する全天球画像をユーザが立体視できないという点では変わらず、全天球画像で立体視を行いたければ、新たに撮像しなおす必要が生じてしまう。
本発明は、上記課題に鑑み、立体視可能な全天球画像を提供することができる画像処理装置を提供することを目的とする。
上記課題に鑑み、本発明は、1つの全天球画像に対し推定アルゴリズムを施して、立体視用の全天球画像を生成する画像処理装置であって、前記推定アルゴリズムはニューラルネットワークを使用した学習によって構築されており3Dモデリングソフトで作成されたモデリングデータを、水平に並べた3つの仮想的なカメラのうち中央のカメラで撮像した全天球画像を入力用の全天球画像とし、3つの仮想的なカメラのうち右側カメラで撮像した全天球画像と、左側カメラで撮像した全天球画像のうち前記右側カメラの背面に対応する部分が写った全天球画像の背面画像と前記左側カメラの背面に対応する部分が写った全天球画像の背面画像とをスワップして、教師データとなる右目用の全天球画像と左目用の全天球画像を生成する学習データ作成部を有することを特徴とする。
また、本発明は、1つの全天球画像に対し推定アルゴリズムを施して、距離画像を生成し、前記距離画像と前記全天球画像から立体視用の全天球画像を生成する画像処理装置であって、前記推定アルゴリズムはニューラルネットワークを使用した学習によって構築されており3Dモデリングソフトで作成されたモデリングデータを仮想的なカメラで撮像した全天球画像及び前記全天球画像の距離画像のうち、前記全天球画像を入力、前記距離画像を教師データとして、前記全天球画像に対し前記距離画像を出力する前記推定アルゴリズムが構築されており、前記推定アルゴリズムで推定された前記距離画像が有する画素の距離を用いて、前記全天球画像を直交座標系の三次元点群に変換し、前記直交座標系の水平面で所定点の周囲を回転する直線であって、所定角度ずつ回転させた各位置で、前記直線の仰角を変化させた場合に前記直線の近傍の三次元点を、円筒画像に変換する視差計算部を有することを特徴とする
立体視可能な全天球画像を提供することができる画像処理装置を提供することができる。
本実施形態において立体視可能な全天球画像の作成方法の概略を説明する図である。 画像処理装置のハードウェア構成例を示す図である。 撮像装置のハードウェア構成図の一例である。 全天球画像のフォーマットを説明する図である。 立体視用の画像のフォーマットの一例である。 画像処理装置の機能をブロック状に示す機能ブロック図の一例である。 画像処理装置が行う学習データの作成方法の流れを説明するフローチャート図である。 3Dモデリングソフトを用いた学習データの作成方法を説明する図である。 左側、中央、右側の3つの仮想的なカメラの1回の撮像結果を示す図の一例である。 左右の画像と目の関係を説明する図である。 左右画像スワップで行われる処理を説明する図である。 全天球画像を立体球とした場合の左右画像のスワップを説明する図である。 CNN(Convolutional Neural Network)のニューラルネットワークの構成例を示す図である。 畳み込みと逆畳み込みを模式的に説明する図である。 画像処理装置が立体視用の全天球画像を出力する処理を説明するフローチャート図の一例である。 画像処理装置が立体視用の全天球画像を作成する処理の概略を説明する図である。 画像処理装置の機能をブロック状に示す機能ブロック図の一例である。 画像処理装置が行う学習データの作成方法の流れを説明するフローチャート図である。 レンダリング結果の一例を示す図である。 ニューラルネットワークの構成例を示す図である。 視差計算部が行う処理を説明するフローチャート図の一例である。 目の向いている向きと目の位置を説明する図の一例である。 ある目の向きにおける正距円筒画像と三次元点群の関係を模式的に示す図である。 動画を三次元立体動画に変換する流れを説明する図である。
以下、本発明を実施するための形態の一例として、画像処理装置と画像処理装置が行う画像処理方法について図面を参照しながら説明する。
<概要>
図1は、本実施形態において立体視可能な全天球画像の作成方法の概略を説明する図である。
(1) 全天球画像の撮像装置9が撮像処理を行い1つの全天球画像を生成する。すでに撮像されていてもよい。
(2) 画像処理装置10が推定アルゴリズム(プログラム)を実行して、1つの全天球画像から2つの全天球画像を出力する。この2つの全天球画像は立体視可能な全天球画像となっている。推定アルゴリズムは、1つの全天球画像からニューラルネットワークを使って左目用の全天球画像と右目用の全天球画像を推定するアルゴリズムである。ただし、ニューラルネットワークによるアルゴリズムには限定しなくてよい。
(3) 例えばVRゴーグルなどでユーザが360度の空間を立体視で閲覧できる。
なお、撮像装置9は正距円筒図法 (後述) のフォーマットで全天球画像を生成できればよい。あるいは、3Dモデリングソフトを使って全天球画像をレンダリングしてもよい。正距円筒図法には限られず、メルカトル図法、ミラー図法、又は、心射円筒図法などでもよい。
このように、本実施形態の画像処理装置10は、1つの全天球画像から立体視可能な2つの全天球画像を生成できる。時間をおいての撮像や特殊な撮像装置が必要ない。また、すでに撮像済みの全天球画像から立体視可能な全天球画像を生成できる。
<用語について>
全天球画像とは、周囲360度が撮像された画像データをいう。必ずしも360度の全てが写っている必要はなく、画質向上などのために一部が省略されていてもよい。全天球画像は、平面画像に変換された状態(正距円筒画像)と立体球の状態を取る場合がある。
推定アルゴリズムは、1つの全天球画像から立体視用の2つの全天球画像を生成するプログラムである。あるいは、1つの全天球画像から1つ以上の画素に距離情報が含まれる距離画像を生成するプログラムである。
<ハードウェア構成例>
<<画像処理装置>>
図2は、画像処理装置10のハードウェア構成例を示す。図2に示されているように、画像処理装置10は、コンピュータによって構築されており、図2に示されているように、CPU501、ROM502、RAM503、HD504、HDD(Hard Disk Drive)コントローラ505、ディスプレイ506、外部機器接続I/F(Interface)508、ネットワークI/F509、バスライン510、キーボード511、ポインティングデバイス512、DVD-RW(Digital Versatile Disk Rewritable)ドライブ514、メディアI/F516を備えている。
これらのうち、CPU501は、画像処理装置10全体の動作を制御する。ROM502は、IPL等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。HD504は、プログラム等の各種データを記憶する。HDDコントローラ505は、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御する。ディスプレイ506は、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示する。外部機器接続I/F508は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USB(Universal Serial Bus)メモリやプリンタ等である。ネットワークI/F509は、通信ネットワークを利用してデータ通信をするためのインターフェースである。バスライン510は、図2に示されているCPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
また、キーボード511は、文字、数値、各種指示などの入力のための複数のキーを備えた入力手段の一種である。ポインティングデバイス512は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行う入力手段の一種である。DVD-RWドライブ514は、着脱可能な記録媒体の一例としてのDVD-RW513に対する各種データの読み出し又は書き込みを制御する。なお、DVD-RWに限らず、DVD-R等であってもよい。メディアI/F516は、フラッシュメモリ等の記録メディア515に対するデータの読み出し又は書き込み(記憶)を制御する。
なお、図2では省略されているが、GPU(Graphics Processing Unit)を有するとよい。GPUは数値演算の並列処理に優れており、ニューラルネットワークで生じる演算を高速に行える。
<<撮像装置>>
図3を用いて、撮像装置9のハードウェア構成を説明する。図3は、撮像装置9のハードウェア構成図である。以下では、撮像装置9は、2つの撮像素子を使用した全天球(全方位)撮像装置とするが、撮像素子は2つ以上いくつでもよい。また、必ずしも全方位撮像専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位の撮像ユニットを取り付けることで、実質的に撮像装置9と同じ機能を有するようにしてもよい。
図3に示されているように、撮像装置9は、撮像ユニット601、画像処理ユニット604、撮像制御ユニット605、マイク608、音処理ユニット609、CPU(Central Processing Unit)611、ROM(Read Only Memory)612、SRAM(Static Random Access Memory)613、DRAM(Dynamic Random Access Memory)614、操作部615、外部機器接続I/F616、通信部617、アンテナ617a、及び、加速度・方位センサ618を有している。
このうち、撮像ユニット601は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)602a,602bと、各広角レンズに対応させて設けられている2つの撮像素子603a,603bを備えている。撮像素子603a,603bは、魚眼レンズ602a,602bによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。
撮像ユニット601の撮像素子603a,603bは、各々、画像処理ユニット604とパラレルI/Fバスで接続されている。一方、撮像ユニット601の撮像素子603a,603bは、撮像制御ユニット605とは、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット604、撮像制御ユニット605及び音処理ユニット609は、バス610を介してCPU611と接続される。更に、バス610には、ROM612、SRAM613、DRAM614、操作部615、外部機器接続I/F(Interface)616、通信部617、及び加速度・方位センサ618なども接続される。
画像処理ユニット604は、撮像素子603a,603bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、正距円筒画像のデータを作成する。
撮像制御ユニット605は、一般に撮像制御ユニット605をマスタデバイス、撮像素子603a,603bをスレーブデバイスとして、I2Cバスを利用して、撮像素子603a,603bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU611から受け取る。また、撮像制御ユニット605は、同じくI2Cバスを利用して、撮像素子603a,603bのレジスタ群のステータスデータ等を取り込み、CPU611に送る。
また、撮像制御ユニット605は、操作部615のシャッターボタンが押下されたタイミングで、撮像素子603a,603bに画像データの出力を指示する。撮像装置9によっては、ディスプレイ(例えば、スマートフォンのディスプレイ)によるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子603a,603bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。
また、撮像制御ユニット605は、後述するように、CPU611と協働して撮像素子603a,603bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮像装置9にはディスプレイが設けられていないが、表示部を設けてもよい。
マイク608は、音を音(信号)データに変換する。音処理ユニット609は、マイク608から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。
CPU611は、撮像装置9の全体の動作を制御すると共に必要な処理を実行する。ROM612は、CPU611のための種々のプログラムを記憶している。SRAM613及びDRAM614はワークメモリであり、CPU611で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM614は、画像処理ユニット604での処理途中の画像データや処理済みの正距円筒画像のデータを記憶する。
操作部615は、シャッターボタン615aなどの操作ボタンの総称である。ユーザは操作部615を操作することで、種々の撮像モードや撮像条件などを入力する。
外部機器接続I/F616は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USB(Universal Serial Bus)メモリやPC(Personal Computer)等である。DRAM614に記憶された正距円筒画像のデータは、この外部機器接続I/F616を介して外付けのメディアに記録されたり、必要に応じて外部機器接続I/F616を介してスマートフォン等の外部端末(装置)に送信されたりする。
通信部617は、撮像装置9に設けられたアンテナ617aを介して、Wi-Fi、NFC(Near Field Communication)やBluetooth(登録商標)等の近距離無線通信技術によって、スマートフォン等の外部端末(装置)と通信を行う。この通信部617によっても、正距円筒画像のデータをスマートフォン等の外部端末(装置)に送信することができる。
加速度・方位センサ618は、地球の磁気から撮像装置9の方位を算出し、方位情報を出力する。この方位情報はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮像日時、及び画像データのデータ容量の各データも含まれている。また、加速度・方位センサ618は、撮像装置9の移動に伴う角度の変化(Roll角、Pitch角、Yaw角)を検出するセンサである。角度の変化はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。更に、加速度・方位センサ618は、3軸方向の加速度を検出するセンサである。撮像装置9は、加速度・方位センサ618が検出した加速度に基づいて、自装置(撮像装置9)の姿勢(重力方向に対する角度)を算出する。撮像装置9に、加速度・方位センサ618が設けられることによって、画像補正の精度が向上する。
<全天球画像のフォーマット>
図4は、全天球画像のフォーマットを説明する図である。図4(a)は正距円筒画像であり、図4(b)は立体球である。正距円筒画像は現実世界の3次元座標系を2次元に転写したものである。図4では、転写における座標系の変換方法を示している。
立体球の中心を通るベクトルAは、θとφにより表すことができる。
θ:3次元空間上の水平方向の角度
φ:3次元空間上の垂直方向の角度
このθとφで指定される画素を2次元に転写したものが全天球画像に一般的に使われる正距円筒画像である。本実施形態では平面状態の全天球画像は正距円筒画像であるとして説明する。図4(a)に示すように、正距円筒画像は、水平方向に360度、垂直方向に180度の画角となる。
<立体視用の画像のフォーマット>
図5は、立体視用の画像のフォーマットの一例である。全天球画像に限らず、立体視可能な画像にはいくつかのフォーマットが存在する。ここに記載したものは、その中の一つであるトップ&ボトム形式と呼ばれるフォーマットである。上が左目に表示する画像であり、下が右目に表示する画像に対応する。本実施形態の画像処理装置10は最終的な出力画像の形式として、正距円筒画像を縦に2つ並べたトップ&ボトム形式の画像を出力する。
なお、立体視用の画像のフォーマットは他にもいくつかある。出力画像は以下のいずれでも構わない。
・サイドバイサイド形式 :左目用の画像と右目用の画像を左右に並べた形式
・フレームシーケンシャル形式 : 動画用の方式で、左目用の画像と右目用の画像を交互に動画フレームとして並べる形式
なお、元の正距円筒画像は横長(1(縦):2(横))のアスペクト比であるため、立体視用の全天球画像に関してはトップ&ボトム形式が採用されることが多い。トップ&ボトム形式を用いると、上記のアスペクト比から丁度、正方形の画像サイズになるためである。
<画像処理装置の機能について>
図6は、画像処理装置10の機能をブロック状に示す機能ブロック図の一例である。まず、図6(a)は学習フェーズの画像処理装置10を示す。画像処理装置10は、記憶部41、学習部42、画像出力部43及び学習データ作成部44を有している。このうち画像出力部43は学習により構築されるため点線で示した。画像処理装置10が有するこれらの各機能は、画像処理装置10が有するCPU501が、HD504からRAM503に展開されたプログラムを実行することで実現される機能又は手段である。また、記憶部41は、画像処理装置10が有するHD504又はRAM503の少なくとも一方に形成されている。
学習データ作成部44は、学習データを作成する。本実施形態では、例えば3Dモデリングソフトを使って、入力用の全天球画像、及び、教師データとなる右目用と左目用の2つの全天球画像を作成する。
記憶部41には、学習データ記憶部49が構築されている。学習データ記憶部49は、学習データを記憶している。本実施形態の学習データは、入力用の全天球画像、及び、用意された立体視用の全天球画像(左目用と右目用の2つの全天球画像である)。左目用と右目用の1対の全天球画像が教師データである。学習データの作成方法については後述する。
なお、学習データはサーバからネットワークを介してダウンロードされてもよい。サーバはクラウドにあってもオンプレミスにあってもよい。また、記憶部41は画像処理装置10の外部に設けられていてもよい。
学習部42は、ニューラルネットワークを初めとする各種の機械学習のアプローチで、入力用の全天球画像と教師データの全天球画像の対応を学習する。機械学習とは、コンピュータに人のような学習能力を獲得させるための技術であり、コンピュータがデータ識別等に必要なアルゴリズムを事前に取り込まれる学習データから自律的に生成し新たなデータについてこれを適用して予測を行う技術のことをいう。機械学習のための学習方法は、教師あり学習、教師なし学習、半教師学習、強化学習、深層学習のいずれかの方法でもよく、更に、これらの学習方法を組み合わせた学習方法でもよく、機械学習のための学習方法は問わない。
教師データが立体視用の全天球画像なので、入力用の全天球画像に対し立体視用の全天球画像を推定する(出力する)画像出力部43が学習の結果、得られる。
なお、学習時の画像処理装置10は、ネットワーク上に存在してもよい。この場合、PC(Personal Computer)などのクライアント端末が学習データを画像処理装置10に送信し、構築した画像出力部43をクライアント端末に返す。
図6(b)は画像推定フェーズの画像処理装置10の機能ブロック図の一例である。画像処理装置10は上記の画像出力部43を有している。画像出力部43は全天球画像の撮像装置9から全天球画像を取得して、立体視用の全天球画像(右目用の全天球画像と左目用の全天球画像)を出力する。入力用の全天球画像は、撮像装置9が撮像したものだけでなく、記憶部41、USBメモリ又はネットワーク上に記憶されていたものでもよい。
また、画像推定フェーズの画像処理装置10は、ネットワーク上に存在してもよい。この場合、クライアント端末が入力用の全天球画像を画像処理装置10に送信し、画像出力部43が出力した立体視用の全天球画像をクライアント端末に返す。
<学習データの作成方法>
続いて、図7~図12を用いて学習データの作成方法を説明する。まず、図7は、画像処理装置10が行う学習データの作成方法の流れを説明するフローチャート図である。図7に示すように、学習データ作成部44は、カメラの設置、レンダリング、及び、左右画像のスワップを行う。
(S1 カメラの設置)
図8は、3Dモデリングソフトを用いた学習データの作成方法を説明する図である。本実施形態では、教師データは、3Dモデリングソフトを用いて作成する。3Dモデリングソフトとは、3DCADや3DCGのデータをコンピュータ上で可視化するアプリケーションである。3DCADは主に数式で三次元形状を表し、3DCGはポリゴンの組み合わせで三次元形状を表す。
開発者などが適当な都市のモデリングデータを3Dモデリングソフトで再現しておく。学習データ作成部44は都市内に仮想的なカメラ410を設置する。設置する位置に決まりはなく周囲を撮像できればよい。このカメラは全天球画像を撮像できるカメラであるが、このカメラは2つの光学系を有していなくてよい。仮想空間なのでカメラパラメータとして画角を360度に設定すれば良いためである。ただし、例えば背中合わせに2つで1組の光学撮像系を有し、それぞれの光学撮像系のレンズが魚眼レンズの内部パラメータを有するカメラでもよい。
カメラは計3台設置される。例えば、並行に並べて左側、中央、右側の3つに配置される。左側と右側のカメラが人間の左右の目に相当するので、左右のカメラが人間の左右の目の視差と同等になる程度に離して設置される。なお、視差を強調したい場合は実際の人間の視差より左右のカメラ間隔を広げてもよい。中央のカメラは入力用の全天球画像を撮像し、左右のカメラは教師データの全天球画像を撮像する。
仮想的なカメラは学習データの数として十分な枚数になるだけ撮像する必要があり、3つのカメラはそれぞれ、例えば300枚程度を撮像する。カメラの位置を移動させながら定期的又は等間隔に決まった枚数の撮像を繰り返す。なお、必要な枚数はニューラルネットワークの重み(パラメータ)が収束するために必要な枚数であるため、300枚は一例である。
(S2 レンダリング)
図9は、左側、中央、右側の3つの仮想的なカメラの1回の撮像結果を示す。図9(a)が左側のカメラの全天球画像、図9(b)が中央のカメラの全天球画像、図9(c)が右側のカメラの全天球画像である。ほぼ同じ画像であるが、厳密には視差が生じている。
なお、カメラは実際に撮像するわけでなく、画角内の3DCADや3DCGのデータを2次元に透視投影することで全天球画像を得る。この処理をレンダリングという場合がある。一般には、カメラの位置に関する外部パラメータと射影方式(魚眼レンズ)に関する内部パラメータ(行列になっている)を開発者等が設定しておき、3DCADや3DCGのデータに乗じることで、全天球画像の画素値が定まる。
(S3 左右画像のスワップ)
次に、図10に基づいて、左右画像のスワップについて説明する。図10は、左右の画像と目の関係を説明する図である。図9に示した右目用の全天球画像と左目用の全天球画像では教師データにならない。これは、左右のカメラの位置関係と、人間の目の位置が、人間の体の向きによって変わるからである。
図10に示すように、人間が前を向いている場合は左側に設置したカメラが左目に相当し、右側に設置したカメラが右目に相当する。しかし、逆方向を人間が向いた場合、左側に設置したカメラは右目に相当し、右側に設置したカメラが左目に相当してしまう。
そこで、図11に示すように、学習データ作成部44は左右画像のスワップを行う。図11は、左右画像スワップで行われる処理を説明する図である。左右画像のスワップとは、左側のカメラの全天球画像と右側のカメラの全天球画像を、左目用画像と右目用画像にそれぞれ変換する処理である。
背中合わせに2つの光学撮像系(レンズと撮像素子など)を有する撮像装置9の場合、正面レンズが画像の左から1/4の位置から3/4の位置までを撮像し、残りを背面レンズが撮像する。したがって、右側カメラの背面の画像と左側カメラの背面の画像を交換すればよい。
図12は全天球画像を立体球とした場合の左右画像のスワップを説明する図である。図12に示すように、左側のカメラの全天球画像のうち正面レンズの部分画像と、右側のカメラの全天球画像のうち背面レンズの部分画像を組み合わせれば、それは左目の画像となる。同様に、右側のカメラの全天球画像のうち正面レンズの部分画像と、左側のカメラの全天球画像のうち背面レンズの部分画像を組み合わせれば、それは右目の画像となる。つまり左右のカメラの全天球画像のうち背面レンズ側をスワップした画像を作ることが左右の目の全天球画像を作ることになる。
(S4 終了判定)
学習データ作成部44は十分な(閾値以上の)枚数の学習データを生成するまでS1~S3を行う。
以上で、学習データ作成部44は、入力用の全天球画像と、教師データ(左目用の全天球画像、右目用の全天球画像)とを含む学習データを生成できた。画像処理装置10は、同様の処理を、3つの仮想的なカメラが撮像した全ての全天球画像について行う。
<ニューラルネットワークの構造>
図13は、CNN(Convolutional Neural Network)のニューラルネットワークの構成例を示す。ニューラルネットワーク又は深層学習(Deep Neural Network)のうち、畳み込み(Convolutional)演算を使用するネットワークをCNNという。CNNにより上記の推定アルゴリズム(画像出力部)が構築される。本実施形態では主にCNNを使用するが、画像生成さえできれば、どのようなアルゴリズムを用いても良い。
図14は、畳み込みと逆畳み込みを模式的に説明する図である。図14(a)は畳み込み処理のイメージであり、図14(b)は逆畳み込みのイメージである。畳み込み部51,53は入力画像301にフィルタ(カーネル)302の各要素を掛け合わせて特徴マップ303の1画素分の値を得る。畳み込み部51,53はストライドと呼ばれるシフト量だけずらして同じ演算を行う。図14(a)では入力画像が5×5、フィルタが3×3、ストライドが1なので、3×3の特徴マップ303が得られている。フィルタはチャンネル(例えばRGB)の数だけ用意されるため、チャンネル数に応じた特徴マップが得られる。なお、1つの畳み込みごとにRELU関数などで非線形変換することが一般的である。
逆畳み込み部52,54は、畳み込みで得られた特徴マップ(一例として3×3とする)を入力画像305にして、画素の周囲に空白を足してサイズを拡大した後でフィルタ306(3×3)を施す。逆畳み込み部52,54はストライドと呼ばれるシフト量だけずらして同じ演算を行う。これにより、図14(b)では5×5の特徴マップ307が得られている。特徴マップ303の周囲に埋め込まれる値は空白(ゼロ)でなくてもよい。例えば、畳み込み演算で得られた同じサイズの特徴マップを使用する方法がある。
図13に戻って説明する。図13では、学習部42が入力される全天球画像をコピーして2つの全天球画像を作成している。上段が左目用であり、下段が右目用である。畳み込み部51,53ではいくつかの畳み込みが行われ、特徴抽出している。特徴抽出の過程ではフィルタが用意される。このフィルタの係数は特徴を抽出するように自動的に学習される。フィルタのサイズとストライドにより元の画像は小さくなっていく。図13では、「2×1」のサイズまで特徴抽出されているが一例に過ぎない。なお、8,16,…2048は畳み込みにおけるチャンネル数である。
逆畳み込み部52,54では、学習部42が特徴マップに対し逆畳み込みを行う。図13では入力された全天球画像に、逆畳み込みで得られる特徴マップを近づけるために、畳み込み層の同一のサイズの画像を取り入れている。ただし、この処理はなくてもよい。
学習時には、用意した右目用と左目用の教師データと、逆畳み込み部52,54が出力する画像との差を学習部42が算出する。この差は逆畳み込み部52,54、畳み込み部51,53の順に逆伝播される。逆伝播によりフィルタの係数が更新される。
図13の処理を、フィルタの係数の変化が収束するまで又は全ての学習データについて学習部42が行うことで、フィルタの係数が学習され、入力された全天球画像に対し左目用の全天球画像と右目用の全天球画像を出力する画像出力部43が構築される。
なお、図13の構成は一例であり、畳み込み層の後にプーリング層があってもよいし、逆畳み込み層の代わりに全結合層があってもよい。
<立体視用全天球画像を出力処理>
図15は、画像処理装置10が立体視用の全天球画像を出力する処理を説明するフローチャート図の一例である。
まず、画像出力部43は入力用の全天球画像を取得する(S11)。全天球画像は撮像装置9がリアルタイムに撮像したものでもよいし、記憶部41に記憶されていてもよい。
次に、画像出力部43は入力された全天球画像をコピーして右目用と左目用の全天球画像を生成する(S12)。
画像出力部43は、右目用と左目用の全天球画像それぞれに推定アルゴリズムを適用する(S13)。すなわち、図13に示した畳み込みと逆畳み込みを行って、右目用と左目用の全天球画像を出力する。
画像出力部43は、右目用と左目用の全天球画像から立体視用の全天球画像を生成する(S14)。すなわち、トップ&ボトム形式と呼ばれるフォーマットに変換する。
<主な効果>
以上説明したように、本実施形態の画像処理装置10は、1つの全天球画像から立体視可能な全天球画像を生成できる。時間をおいての撮像や特殊な撮像装置が必要ない。また、すでに撮像済みの全天球画像から立体視可能な全天球画像を生成できる。
本実施例では、距離画像を生成しそれを左右の目の画像に変換する画像処理装置10について説明する。
図16は、本実施例の画像処理装置10が立体視用の全天球画像を作成する処理の概略を説明する図である。本実施例でも、入力される全天球画像400は1つであり、最終的な出力は左目用と右目用の全天球画像である。
(1) 本実施例では、左目用と右目用の全天球画像をニューラルネットワーク401にて直接出力するのではなく、ニューラルネットワーク401で出力するのは距離画像402とする。距離画像402とは画素ごとにこの画素に写っている物体までの距離情報が配置された画像である。
(2) 画像処理装置10は、入力された全天球画像400と距離画像402を用いてそれぞれが画素値を有する三次元点群404を作成する。
(3) 画像処理装置10は三次元点群404の画素値を用いて左目用と右目用の正距円筒画像405を生成する。
この方法は、実施例1の方法に対して、最終出力の左目用と右目用の全天球画像の解像度を高くしやすいというメリットがある。実施例1の方法では、左目用と右目用の全天球画像を直接ニューラルネットワークで生成していたため、左目用と右目用の全天球画像の品質はニューラルネットワークで消費するメモリの量に依存する。
画像生成系のニューラルネットワークはメモリ消費が激しいため、大規模なGPUを用意しない限りはサイズに物理的な制約がかかる。撮像装置9は高解像度なので、実施例1では入力用の全天球画像を縮小してニューラルネットワークに適用せねばならず、解像度が落ちる。
これに対して、本実施例では距離画像を生成する。距離画像自体の解像度はニューラルネットワークで作る点で実施例1と同じため、2048 x 1024程度になる。しかし、距離画像は構造が単純であるために拡大しても画質が劣化しにくい。むしろ拡大すべきである点が利点になる。つまり、元の解像度をフルに活かして、解像度を上げて左目用と右目用の全天球画像を出力することができる。
<機能について>
図17は、画像処理装置10の機能をブロック状に示す機能ブロック図の一例である。図17(a)は学習フェーズにおける画像処理装置10の機能をブロック状に示す機能ブロック図の一例である。本実施例では学習データ作成部44の機能が実施例1と異なっている。本実施例の学習データ作成部44は入力用の全天球画像から1枚の距離画像を作ればよく、右目用と左目用の全天球画像(教師データ)を作成する必要がない。
また、学習部42が画像出力部43を構築する点は実施例1と同じだが、画像出力部43は1枚の距離画像を作成する。
図17(b)は画像推定フェーズにおける画像処理装置10の機能をブロック状に示す機能ブロック図の一例である。本実施例では、新たに視差計算部45を有している。視差計算部45は、画像出力部43が作成した距離画像と入力された全天球画像から左目用の全天球画像と右目用の全天球画像を作成する。
<学習データの作成方法>
図18は、画像処理装置10が行う学習データの作成方法の流れを説明するフローチャート図である。図18の説明では、主に図7との相違を説明する。図18に示すように、学習データ作成部44は、カメラの設置、及び、レンダリングを行うが、左右画像のスワップを行う必要がない。
(S1 カメラの設置)
本実施例では、正距円筒画像とそれに対応した距離画像が学習データとなる。教師データは距離画像である。本実施例においても3Dモデリングソフトが利用される。本実施例では学習データ作成部44は1つのみ仮想的なカメラを配置すればよい。
(S2 レンダリング)
実施例1と同様に、学習データ作成部44は仮想的なカメラに全天球画像をレンダリングする。また、本実施例では学習データ作成部44は距離画像を作成するのでRGBの輝度値は不要であり、zバッファと呼ばれる深度情報をレンダリングする。3Dモデリングソフトではzバッファと呼ばれるカメラに対する深度情報を利用できる。深度情報はカメラと物体の特定点との距離を表す情報である。3Dモデルではカメラを固定した際に空間内のオブジェクト同士がカメラから見た際に重なり合うことがあり、その際に効率的に描画処理を進めるためにはカメラから遠いオブジェクトを描画する作業は無駄になる。そこで使われるデータがzバッファで、カメラに近いオブジェクトのみをレンダリングすることで描画速度を高速化するために用いる。
学習データ作成部44はカメラの外部パラメータと内部パラメータを使ってRGB値でなく距離情報(zバッファ)を正距円筒画像に投影する。よって、3Dモデルに設置された仮想的なカメラでは、カメラを基準にして3Dモデル空間を構成する全てのオブジェクトに対して距離情報の計測が可能になる。
図19はレンダリング結果の一例を示す図である。図19(a)は入力用の全天球画像であり、図19(b)は距離画像である。図面の制約上、読み取れないが、図19(b)では距離に応じた色が付されている。
一般的に距離画像はグレースケールの画像で表現される。しかしグレースケールでは色の幅が256階調しかないため距離の分解能が少ない。このため、図19(b)では256段階でなく、より高分解能で距離を表している(作図の都合で濃淡の種類は実際よりも少なくなっている)。これにより学習データ作成部44は、密度の高い距離画像をレンダリングできる。
<ニューラルネットワークの構造>
図20は、本実施例のニューラルネットワークの構成例を示す。図20は1枚の距離画像を出力するため、処理の流れが1つしかないが、畳み込み部56と逆畳み込み部57の構成は図13と同様になっている。ただし、使用するニューラルネットワークに関しては同じでも違っていてもよい。教師データを変えているため、同じニューラルネットワークを使ったとしても学習させればフィルタの係数などの特性が変化するため、距離データに応じた画像出力部43を構築できる。画像生成系のニューラルネットワークを用いれば良い。
学習時には、用意した距離画像(教師データ)と、逆畳み込み部57が出力した出力画像との差を学習部42が算出する。この差は逆畳み込み部57、畳み込み部56の順に逆伝播される。逆伝播によりフィルタの係数が更新される。
図20の処理を、フィルタの係数の変化が収束するまで又は全ての学習データについて学習部42が行うことで、フィルタの係数が学習され、入力された全天球画像に対し距離画像を出力する画像出力部43が構築される。
<視差計算について>
続いて、図21を用いて視差計算について説明する。図21は視差計算部45が行う処理を説明するフローチャート図である。
・S101
まず、視差計算部45は、入力用の全天球画像とそれに対応する距離画像を用いて、三次元点群を生成する。図4で説明したように、全天球画像の各点はそれぞれ立体球の球面上の点に対応する。全天球画像の点(u,v)に対し、立体球に転写した際の水平角度θ(ラジアン)と垂直角度φは次のように計算される。なお、wとhはそれぞれ全天球画像の幅と高さであり、u、vを0~1に正規化するために導入されている。一例としてはw=5376とh=2688である。
θ = -π + 2π(u/w)
φ = -π/2 + π(v/h)
立体球の座標(θ,φ)は極座標であるが、極座標と直交座標系の変換は下式(1)により実現できる。
Figure 0007434846000001

なお、(u,v)の点における距離画像の距離dは立体球の半径に対応するので、距離dが右辺に乗じられている。
視差計算部45は、この演算を全天球画像の全ての点(u,v)に適用することで、全天球画像の全ての画素と、各画素に対応する距離を有する直交座標系の三次元点群を生成することができる。
・S102
視差計算部45は以下の処理を各三次元点で行う。
・S103
視差計算部45が作成するものは左右の目にそれぞれ対応した正距円筒画像である。ステップS101で三次元空間を復元できたので、カメラ(視点)を任意の座標に配置して、そこで画像がどのように映るかを計算により求める。視差計算部45は左右の目の画像を作るために、カメラを目の間隔 (例えば左右で5cmずつの計10cm) だけずらした正距円筒画像を三次元点群から作る。
ここで、三次元点群の画像をレンダリングする際に、右目 (又は左目)の位置はある時点では1か所に定まるが、目の向いている向きによって目の位置も変わることに注意する。
図22は、目の向いている向きと目の位置を説明する図である。まず、図22(a)は、y軸を中心にして目の向きがxz平面を360度回転する様子を示す。例えば人間が原点にいると仮定した場合、人間の目の向きはxz平面を360度回転することができる。 図22(b)はy軸のマイナス方向からxz平面を見た人間の上面図である。図22(b)では人間が4つの方向を向いている。図22(b)の4つの向きをA~Dとする。この場合、図22(c)に示すようにxz軸を取ると、向きAの右目の位置は原点からx軸のプラス方向に5cm、向きBの右目の位置は原点からz軸のプラス方向に5cm、向きCの右目の位置は原点からx軸のマイナス方向に5cm、向きDの右目の位置は原点からz軸のマイナス方向に5cm、である。
したがって、360度の三次元点群をレンダリングする際は、視差計算部45は、xz平面上(水平面)で左右の目の中心(所定点)に対し目の幅の円を描くように目の向きを360度一回りさせ、カメラ位置が元に戻るまで所定角度ずつ回転させた各位置(半径方向の各角度)でレンダリングすることになる。この各位置は正距円筒画像の横方向の画素数から計算できる。正距円筒画像の横幅をwとすると、wで2πラジアンの回転量に対応させるために、目の方向の変化量は2π/wとする。
・S104
次に、目の向きに対して最も歪みが少なく距離画像を作れるのは目に対してまっすぐの方向に対してなので、図22(d)に示すように、視差計算部45は目に対して垂直な直線62の方向にある三次元点群を使ってレンダリングする。
・S105
図23は、ある目の向きにおける正距円筒画像と三次元点群の関係を模式的に示す図である。右目の位置が交差点であり、目の向きを表す直線62が示されている。この場合、垂直方向(点線61上)のすべての画素がレンダリングの対象となる。点線61は、xz平面の目の向きは同じまま(直線62の向きのまま)、直線62の仰角を変化させた場合の軌跡である。仰角は直線62をy軸方向(垂直方向)に変化させた場合の角度である。したがって、視差計算部45は点線61上の画素を正距円筒画像にレンダリングする。しかし、点線上に画素があるとは限らないので、xz平面の目の向きは同じまま、y軸方向に180度変化させた直線62に対し最も近傍にある点を選択してレンダリングする。
・S106
これにより、三次元点が定まるので、視差計算部45はその選んだ三次元点(x、y、z)を、式(2)を使って水平角度θと垂直角度φに変換し、三次元点(x、y、z)の画素値を正距円筒画像の点の画素値に設定する。
Figure 0007434846000002
以上では、主に右目用の正距円筒画像を生成したので、同様に左目用の正距円筒画像も作成する。左目用の場合は回転が逆方向になる。以上の手順により、入力された正距円筒画像から左右の目の視差を考慮した2つの全天球画像を取得できる。
<主な効果>
本実施例によれば、実施例1の効果に加え、高密度、高精細な正距円筒画像を得られる。
本実施例では動画について補足する。本実施例においては、上記の実施例にて説明した図2、図3のハードウェア構成図、及び、図6又は図17に示した機能ブロック図を援用できるものとして説明する。
図24は、動画を三次元立体動画に変換する流れを説明する図である。図24に示すように、
(1) 画像処理装置10は動画を連続した画像とみなして連続した静止画に変換する。
(2) それぞれに対して画像処理装置10は実施例1又は2の推定アルゴリズムを360度立体視向けの画像を生成する。
(3) それらの画像を動画として再結合する。
音声が動画に存在する場合は、画像分割時に音声は分割して推定アルゴリズムを施し、動画の再結合の時に元の動画の音声を付け足せば良い。フレーム数等は変わっていないため音声ずれは発生しない。
<主な効果>
本実施例によれば、実施例1、2の効果に加え、動画にも対応できる。
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
また、図6、図17などの構成例は、画像処理装置10による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。画像処理装置10の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。
上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。
9 撮像装置
10 画像処理装置
特開2015-019344号広報

Claims (7)

  1. 1つの全天球画像に対し推定アルゴリズムを施して、立体視用の全天球画像を生成する画像処理装置であって、
    前記推定アルゴリズムはニューラルネットワークを使用した学習によって構築されており
    3Dモデリングソフトで作成されたモデリングデータを、水平に並べた3つの仮想的なカメラのうち中央のカメラで撮像した全天球画像を入力用の全天球画像とし、
    3つの仮想的なカメラのうち右側カメラで撮像した全天球画像と、左側カメラで撮像した全天球画像のうち前記右側カメラの背面に対応する部分が写った全天球画像の背面画像と前記左側カメラの背面に対応する部分が写った全天球画像の背面画像とをスワップして、教師データとなる右目用の全天球画像と左目用の全天球画像を生成する学習データ作成部を有することを特徴とする画像処理装置。
  2. 1つの全天球画像に対し推定アルゴリズムを施して、距離画像を生成し、前記距離画像と前記全天球画像から立体視用の全天球画像を生成する画像処理装置であって、
    前記推定アルゴリズムはニューラルネットワークを使用した学習によって構築されており
    3Dモデリングソフトで作成されたモデリングデータを仮想的なカメラで撮像した全天球画像及び前記全天球画像の距離画像のうち、
    前記全天球画像を入力、前記距離画像を教師データとして、前記全天球画像に対し前記距離画像を出力する前記推定アルゴリズムが構築されており、
    前記推定アルゴリズムで推定された前記距離画像が有する画素の距離を用いて、前記全天球画像を直交座標系の三次元点群に変換し、
    前記直交座標系の水平面で所定点の周囲を回転する直線であって、所定角度ずつ回転させた各位置で、前記直線の仰角を変化させた場合に前記直線の近傍の三次元点を、円筒画像に変換する視差計算部を有することを特徴とする画像処理装置。
  3. 動画の前記全天球画像を静止画に変換し、立体視用の全天球画像を生成した後、動画に合成することを特徴とする請求項1又は2に記載の画像処理装置。
  4. 1つの全天球画像に対し推定アルゴリズムを施して、立体視用の全天球画像を生成する画像処理方法であって、
    前記推定アルゴリズムはニューラルネットワークを使用した学習によって構築されており
    3Dモデリングソフトで作成されたモデリングデータを、水平に並べた3つの仮想的なカメラのうち中央のカメラで撮像した全天球画像を入力用の全天球画像とし
    3つの仮想的なカメラのうち右側カメラで撮像した全天球画像と、左側カメラで撮像した全天球画像のうち前記右側カメラの背面に対応する部分が写った全天球画像の背面画像と前記左側カメラの背面に対応する部分が写った全天球画像の背面画像とをスワップして、教師データとなる右目用の全天球画像と左目用の全天球画像を生成する画像処理方法。
  5. 1つの全天球画像に対し推定アルゴリズムを施して、距離画像を生成し、前記距離画像と前記全天球画像から立体視用の全天球画像を生成する画像処理方法であって、
    前記推定アルゴリズムはニューラルネットワークを使用した学習によって構築されており
    3Dモデリングソフトで作成されたモデリングデータを仮想的なカメラで撮像した全天球画像及び前記全天球画像の距離画像のうち、
    前記全天球画像を入力、前記距離画像を教師データとして、前記全天球画像に対し前記距離画像を出力する前記推定アルゴリズムが構築されており、
    前記推定アルゴリズムで推定された前記距離画像が有する画素の距離を用いて、前記全天球画像を直交座標系の三次元点群に変換し、
    前記直交座標系の水平面で所定点の周囲を回転する直線であって、所定角度ずつ回転させた各位置で、前記直線の仰角を変化させた場合に前記直線の近傍の三次元点を、円筒画像に変換することを特徴とする画像処理方法。
  6. 画像処理装置に、
    1つの全天球画像に対し推定アルゴリズムを施して、立体視用の全天球画像を生成させるプログラムであって、
    前記推定アルゴリズムはニューラルネットワークを使用した学習によって構築されており
    前記画像処理装置を、
    3Dモデリングソフトで作成されたモデリングデータを、水平に並べた3つの仮想的なカメラのうち中央のカメラで撮像した全天球画像を入力用の全天球画像とし
    3つの仮想的なカメラのうち右側カメラで撮像した全天球画像と、左側カメラで撮像した全天球画像のうち前記右側カメラの背面に対応する部分が写った全天球画像の背面画像と前記左側カメラの背面に対応する部分が写った全天球画像の背面画像とをスワップして、教師データとなる右目用の全天球画像と左目用の全天球画像を生成する学習データ作成部として機能させるためのプログラム。
  7. 画像処理装置に、
    1つの全天球画像に対し推定アルゴリズムを施して、距離画像を生成し、前記距離画像と前記全天球画像から立体視用の全天球画像を生成させるプログラムであって、
    前記推定アルゴリズムはニューラルネットワークを使用した学習によって構築されており
    3Dモデリングソフトで作成されたモデリングデータを仮想的なカメラで撮像した全天球画像及び前記全天球画像の距離画像のうち、
    前記全天球画像を入力、前記距離画像を教師データとして、前記全天球画像に対し前記距離画像を出力する前記推定アルゴリズムが構築されており、
    前記画像処理装置を、
    前記推定アルゴリズムで推定された前記距離画像が有する画素の距離を用いて、前記全天球画像を直交座標系の三次元点群に変換し、
    前記直交座標系の水平面で所定点の周囲を回転する直線であって、所定角度ずつ回転させた各位置で、前記直線の仰角を変化させた場合に前記直線の近傍の三次元点を、円筒画像に変換する視差計算部として機能させるためのプログラム。
JP2019216547A 2019-11-29 2019-11-29 画像処理装置、画像処理方法、プログラム Active JP7434846B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019216547A JP7434846B2 (ja) 2019-11-29 2019-11-29 画像処理装置、画像処理方法、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019216547A JP7434846B2 (ja) 2019-11-29 2019-11-29 画像処理装置、画像処理方法、プログラム

Publications (2)

Publication Number Publication Date
JP2021086494A JP2021086494A (ja) 2021-06-03
JP7434846B2 true JP7434846B2 (ja) 2024-02-21

Family

ID=76087893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019216547A Active JP7434846B2 (ja) 2019-11-29 2019-11-29 画像処理装置、画像処理方法、プログラム

Country Status (1)

Country Link
JP (1) JP7434846B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067784A (ja) 2002-07-30 2003-03-07 Canon Inc 情報処理装置
JP2013178749A (ja) 2012-02-08 2013-09-09 Jvc Kenwood Corp 画像処理装置、画像処理方法及び画像処理プログラム
JP2019022121A (ja) 2017-07-19 2019-02-07 ソニー株式会社 画像処理装置、および画像処理装置の制御方法
JP2019133112A (ja) 2018-02-02 2019-08-08 株式会社リコー 撮像装置および撮像装置の制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067784A (ja) 2002-07-30 2003-03-07 Canon Inc 情報処理装置
JP2013178749A (ja) 2012-02-08 2013-09-09 Jvc Kenwood Corp 画像処理装置、画像処理方法及び画像処理プログラム
JP2019022121A (ja) 2017-07-19 2019-02-07 ソニー株式会社 画像処理装置、および画像処理装置の制御方法
JP2019133112A (ja) 2018-02-02 2019-08-08 株式会社リコー 撮像装置および撮像装置の制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
N.Zioulis, et al,Omnidepth: Dense depth estimation for indoors spherical panoramas,Proceedings of the European Conference on Computer Vision(ECCV),米国,arxiv.org,2018年,p.1ーp.18,https://arxiv.org/pdf/1807.09620.pdf

Also Published As

Publication number Publication date
JP2021086494A (ja) 2021-06-03

Similar Documents

Publication Publication Date Title
EP3485635B1 (en) Light field capture
EP3057066B1 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
CN105164728B (zh) 用于混合实境的设备和方法
CN102385742B (zh) 图像校正、校正表生成装置、校正图像、校正表生成方法、程序
JP5093053B2 (ja) 電子カメラ
US20150235408A1 (en) Parallax Depth Rendering
US11776142B2 (en) Structuring visual data
JP2006107213A (ja) 立体画像印刷システム
JP2013214947A (ja) 撮像装置、撮像システム、画像処理方法、情報処理装置、及びプログラム
JP7368707B2 (ja) 画像処理方法、プログラム、画像処理装置および画像処理システム
CN112927362A (zh) 地图重建方法及装置、计算机可读介质和电子设备
JPWO2012153447A1 (ja) 画像処理装置、映像処理方法、プログラム、集積回路
WO2017128887A1 (zh) 全景图像的校正3d显示方法和***及装置
CN107133918A (zh) 一种在三维场景中任意位置生成全景图的方法
WO2019076348A1 (zh) 一种虚拟现实vr界面生成的方法和装置
CN113643414B (zh) 一种三维图像生成方法、装置、电子设备及存储介质
CN110648274A (zh) 鱼眼图像的生成方法及装置
JP2018109946A (ja) 表示装置、プログラム、表示方法
CN106791762A (zh) 立体影像处理方法及***
KR101704362B1 (ko) 룩업테이블 기반의 실시간 파노라마 영상 제작 시스템 및 이를 이용한 실시간 파노라마 영상 제작 방법
CN114742703A (zh) 双目立体全景图像的生成方法、装置、设备和存储介质
CN108450031A (zh) 图像捕获装置
EP3573018B1 (en) Image generation device, and image display control device
CN113096008A (zh) 一种全景图片的显示方法、显示装置及存储介质
JP7434846B2 (ja) 画像処理装置、画像処理方法、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240122

R151 Written notification of patent or utility model registration

Ref document number: 7434846

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151