JP2006201950A - 画像処理システム及び画像処理方法 - Google Patents

画像処理システム及び画像処理方法 Download PDF

Info

Publication number
JP2006201950A
JP2006201950A JP2005011671A JP2005011671A JP2006201950A JP 2006201950 A JP2006201950 A JP 2006201950A JP 2005011671 A JP2005011671 A JP 2005011671A JP 2005011671 A JP2005011671 A JP 2005011671A JP 2006201950 A JP2006201950 A JP 2006201950A
Authority
JP
Japan
Prior art keywords
image
stereoscopic
viewpoint
image processing
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005011671A
Other languages
English (en)
Inventor
Shoichi Nomura
庄一 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Photo Imaging Inc
Original Assignee
Konica Minolta Photo Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Photo Imaging Inc filed Critical Konica Minolta Photo Imaging Inc
Priority to JP2005011671A priority Critical patent/JP2006201950A/ja
Publication of JP2006201950A publication Critical patent/JP2006201950A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】膨大なデータ量を必要とせずに、自然な立体画像を再現可能とする。
【解決手段】画像処理システム100は、複数の異なる視点位置から見た立体視対象物の画像に基づいて立体画像を生成するシステムであり、観察者の特定の視点位置から立体視対象物へ放射状に延びる複数の視線方向を平行線として表し、当該視点位置からの距離を示す深度を平行線として表した格子の各格子点上に、当該視点位置における立体視対象画像のボクセルの中心点を配置した特定視点空間座標を視点位置毎に生成し、その生成された各視点位置での特定視点空間座標を用いて、立体表示の元になるIP(インテグラルフォトグラフィ)画像を生成する。
【選択図】図1

Description

本発明は、立体画像を生成するための画像処理システム及び画像処理方法に関する。
立体画像の視認性を高める広告媒体として、レンチキュラーシートを用いた立体画像表示が知られている。このレンチキュラーシートを用いた立体画像表示は、3次元モデルをCG(Computer Graphics)等で生成し、適宜配置することで、レンチキュラーシートからの飛び出し、沈み込み、チェンジ、ムーブ等、強力なプレゼンテーション能力を有するが、CGにより生成された架空のモデルを扱うため、自然な立体感が得られず、場合によっては見る者に不快感を与え、広告媒体としては不適切なこともあった。
他方、複数の視点で撮影された多視点画像を所定の形式で合成し、レンチキュラーシートやパララックスバリアを通して観察する立体写真が知られている。このような立体写真では、自然な立体感は得られるが、プレゼンテーション能力が低く、広告媒体としては不十分であった。
そこで、複数の視点で撮影された多視点画像と、CG等で生成された3次元モデルを合成し、立体画像として一層効果的な画像を生成する立体画像表示用の画像生成方法が提案されている。このような画像生成方法として、特許文献1には、実写画像から生成された仮想空間内に3次元モデルを配置して画像合成を行う技術が開示されている。また、特許文献2には、対象とする画像を遠景と近景に分離し、遠景は立体感を有さない2次元背景として扱う技術が開示されている。
特開2003−323636号公報 特開平7−239952号公報
しかしながら、特許文献1に開示された技術では、画像を3次元直交空間として扱うため、特に、同一画面内に遠景描写と近景描写が混在する場合、遠景の画像領域と近景の画像領域を同等の精度で処理することによって処理対象画像のデータ量が膨大になり、処理時間が長くなるという問題があった。また、特許文献2に開示された技術は、特許文献1における遠景描写のデータ量の問題を解決するものであるが、遠景が立体感を有しておらず、遠景と近景に明確な境界線が存在するため、自然な画像を再現することができないという問題があった。
本発明の課題は、膨大なデータ量を必要とせずに、自然な立体画像を再現可能にすることである。
上記課題を解決するため、請求項1に記載の発明は、複数の異なる視点位置から見た立体視対象物の画像に基づいて立体画像を生成する画像処理システムにおいて、
観察者の特定の視点位置から立体視対象物へ放射状に延びる複数の視線方向を平行線として表し、当該視点位置からの距離を示す深度を前記平行線と交わる平行線として表した格子の各格子点上に、当該視点位置における立体視対象画像のボクセルの中心点を配置した特定視点空間座標を生成する特定視点空間生成手段と、
前記特定視点空間生成手段により生成された各視点位置での特定視点空間座標を用いて、立体表示の元になる画像を生成する画像生成手段と、を備えることを特徴としている。
請求項2に記載の発明は、請求項1に記載の画像処理システムにおいて、前記ボクセルの中心点は、両眼視差による立体視対象物の認知精度に基づいて配置されることを特徴としている。
請求項3に記載の発明は、請求項1又は2に記載の画像処理システムにおいて、立体視対象物が異なる複数の立体視対象画像を視点位置毎に取得する取得手段と、
前記取得手段により得られた複数の立体視対象画像の各々を視点位置毎に合成する合成手段と、を備え、
前記特定視点空間生成手段は、立体視対象画像毎に各視点位置での特定視点空間座標を生成し、
前記合成手段は、立体視対象画像毎に生成された特定視点空間座標に基づいて各立体視対象画像を合成し、
前記画像生成手段は、前記合成手段により得られた合成画像に基づいて立体表示の元になる画像を生成することを特徴としている。
請求項4に記載の発明は、請求項3に記載の画像処理システムにおいて、前記複数の立体視対象画像を合成する際に使用するボクセルの優先順位を設定する優先順位設定手段を備え、
前記合成手段は、前記複数の立体視対象画像の合成時に各立体視対象画像のボクセルが重なり合う場合、前記優先順位設定手段により設定された優先順位に基づいて合成に使用するボクセルを選択することを特徴としている。
請求項5に記載の発明は、請求項1〜4の何れか一項に記載の画像処理システムにおいて、前記画像生成手段は、インテグラルフォトグラフィ方式を用いて、前記立体表示の元になる画像を生成することを特徴としている。
請求項6に記載の発明は、複数の異なる視点位置から見た立体視対象物の画像に基づいて立体画像を生成する画像処理方法において、
観察者の特定の視点位置から立体視対象物へ放射状に延びる複数の視線方向を平行線として表し、当該視点位置からの距離を示す深度を前記平行線と交わる平行線として表した格子の各格子点上に、当該視点位置における立体視対象画像のボクセルの中心点を配置した特定視点空間座標を生成する特定視点空間生成工程と、
前記生成された各視点位置での特定視点空間座標を用いて、立体表示の元になる画像を生成する画像生成工程と、を含むことを特徴としている。
請求項7に記載の発明は、請求項6に記載の画像処理方法において、前記ボクセルの中心点は、両眼視差による立体視対象物の認知精度に基づいて配置されることを特徴としている。
請求項8に記載の発明は、請求項6又は7に記載の画像処理方法において、立体視対象物が異なる複数の立体視対象画像を視点位置毎に取得する取得工程と、
前記取得工程において得られた複数の立体視対象画像の各々を視点位置毎に合成する合成工程と、を含み、
前記特定視点空間生成工程では、立体視対象画像毎に各視点位置での特定視点空間座標が生成され、
前記合成工程では、立体視対象画像毎に生成された特定視点空間座標に基づいて各立体視対象画像が合成され、
前記画像生成工程では、前記合成工程において得られた合成画像に基づいて立体表示の元になる画像が生成されることを特徴としている。
請求項9に記載の発明は、請求項8に記載の画像処理方法において、前記複数の立体視対象画像を合成する際に使用するボクセルの優先順位を設定する優先順位設定工程を含み、
前記合成工程では、前記複数の立体視対象画像の合成時に各立体視対象画像のボクセルが重なり合う場合、前記優先順位設定工程において設定された優先順位に基づいて合成に使用するボクセルが選択されることを特徴としている。
請求項10に記載の発明は、請求項6〜9の何れか一項に記載の画像処理方法において、前記画像生成工程では、インテグラルフォトグラフィ方式を用いて、前記立体表示の元になる画像が生成されることを特徴としている。
本発明によれば、視点位置毎に、視線方向と深度方向を示す直線で生成される格子点上に立体視対象画像のボクセルの中心点を配置した特定視点空間座標を生成することにより、直交空間上でボクセルの中心点を配置する場合よりも、処理対象の画像のデータ量が少なく、画像処理時間の短縮化を図ることができる。
また、ボクセルの中心点は、両眼視差による立体視対象物の認知精度に基づいて格子点上に配置されるため、効率的な画像処理が可能となる。
また、複数の立体視対象画像を合成する際に使用するボクセルの優先順位を設定し、合成時に各立体視対象画像のボクセルが重なり合う場合、予め設定された優先順位に基づいて、合成に使用するボクセルを選択するようにしたことにより、合成時にボクセルが重なりあっても確実に対処し、作業効率を向上させることが可能となる。
また、立体表示の元になる画像を、インテグラルフォトグラフィ方式を用いて生成することにより、容易に立体画像を得ることができる。
以下、図面を参照して、本発明の実施形態を詳細に説明する。
まず、本実施形態における構成について説明する。
図1に、本発明の実施形態に係る画像処理システム100の構成を示す。画像処理システム100は、図1に示すように、撮影装置1、3次元計測装置2、CG(Computer Graphics)発生装置3、システム制御装置4、多視点画像変換装置5、3次元モデル変換装置6、IP(Integral Photography)画像生成装置7、画像出力部8により構成される。
撮影装置1は、風景や人物等の被写体10を複数の異なる視点位置から撮影する装置であり、互いに異なる位置に配置された複数台のカメラ11と、撮影制御部12により構成される。複数台のカメラ11の各々は、撮影制御部12から入力される撮影条件に従って、それぞれの配置位置(視点位置)から被写体10(立体視対象物)を撮影し、撮影により得られた撮影画像データ(立体視対象画像)を多視点画像変換装置5に出力する。
撮影制御部12は、システム制御装置4から入力される制御信号に基づいて、各カメラ11の撮影条件を制御する。この撮影条件には、各カメラ11の配置間隔、実際に稼動するカメラ台数(不要なカメラがあれば当該カメラの稼動は休止)、カメラアングル、撮影画角、露出制御、シャッター制御等が含まれる。
3次元計測装置2は、ミニチュアの模型、各種小物等の被写体20(モデリングサンプル)の形状を計測して3次元データを取得する装置であり、互いに異なる位置に配置された複数台のカメラ21と、3次元モデル形成部22により構成される。
複数台のカメラ21の各々は、それぞれの配置位置(視点位置)から被写体20(立体視対象物)を撮影し、撮影により得られた撮影画像データを3次元モデル形成部22に出力する。3次元モデル形成部22は、各カメラ21から得られた撮影画像データから、共通の特徴(例えば、被写体の輪郭、共通の模様等)を抽出し、抽出された共通の特徴及び各撮影画像データの視点位置から3次元モデル(立体視対象画像)を形成し、3次元モデル変換装置6に出力する。
なお、3次元計測装置2で3次元モデルを得る方法として、以下のような方法を用いてもよい。例えば、被写体20にライン状の光を照射し、その反射光によって被写体20の断面形態を測定して3次元モデルに再構築する方法や、被写体20にレーザ光線を照射し、被写体20までの距離を測る操作を被写体20上の複数の測定点で繰り返して3次元モデルを得る方法や、被写体20に縞状に制御された光を照射し、反射光を、縞格子を通して観察することでモアレ縞を発生させて凹凸情報を得る方法等がある。
CG発生装置3は、3次元コンピュータグラフィックスを生成するPC(Personal Computer)等のコンピュータ30により構成され、コンピュータ30には、3次元モデル化ソフトウェア(プログラム)がインストールされている。コンピュータ30は、各種3次元モデルのデザイン情報が入力されると、当該3次元モデル化ソフトウェアにより3次元モデルのグラフィック情報を生成する。3次元モデル化ソフトウェアとしては、種々のものが利用可能であり、例えば、一般に普及している3D−CADソフトウェアでもよく、Shade(登録商標)に代表される3次元グラフィックソフトウェアでもよい。
本実施形態では、撮影装置1で得られた各視点位置での撮影画像データ、3次元計測装置2で得られた3次元モデル、CG発生装置3で得られた仮想上の3次元モデルを総称して「立体視対象画像」と呼ぶことにする。
システム制御装置4は、画像処理システム100を構成する各装置の動作を制御する装置であり、システム制御部40、視点情報設定部41、優先順位設定部42により構成される。
システム制御部40は、CPU(Central Processing Unit)、メモリ等により構成され、撮影装置1内の各カメラ11の視点情報(視点の数、各視点間の距離)を視点情報設定部41に設定するための制御を行う。また、システム制御部40は、撮影装置1で得られた立体視対象画像と、3次元計測装置2又はCG発生装置3で得られた立体視対象画像の合成時に双方の立体視対象画像のボクセル(Voxel)が重なり合う場合に備えて、使用するボクセルの優先順位の情報(即ち、どの立体視対象画像のボクセルを優先的に使用するかを示す情報)を優先順位設定部42に設定するための制御を行う。視点情報、優先順位情報は、キーボード、マウス、タッチパネル等の入力デバイス(図示略)をオペレータが操作することによって入力され、それぞれ、視点情報設定部41及び優先順位設定部42に設定される。
また、システム制御部40は、観察者の視点位置からの距離を示す深度のランクを設定する深度方向ランク設定処理(図2参照)を行う。この深度方向ランク設定処理は、撮影装置1、3次元計測装置2、CG発生装置3で立体視対象画像が取得される前に行われる。深度方向ランク設定処理により、観察者の視点位置からの距離を示す深度を等間隔の平行線として表し、当該視点位置から立体視対象物(被写体10、20等)へ放射状に延びる複数の視線方向を、前記深度を示す平行線と交わる等間隔の平行線として表した格子(図5(b)参照)が作成される。本実施形態では、深度方向ランク設定処理の結果として得られた格子で表される空間を特定視点空間と呼ぶ。深度方向ランク設定処理により、直交空間上で定義された距離(深度)が、特定視点空間での距離(深度)に変換される。多視点画像変換装置5及び3次元モデル変換装置6での処理により、特定視点空間の各格子点上には、指定された視点位置での立体視対象画像のボクセルの中心点が配置されることになる。
視点情報設定部41は、最終的に仕上がる立体画像の立体視効果を好ましいものとするために用意する視点の数、各視点間の距離を視点情報として設定し、この設定された視点情報を撮影装置1内の撮影制御部12、3次元モデル変換装置6内の多視点2次元画像生成部61に出力する。撮影制御部12に出力する視点情報のうち、視点の数は、実際に稼動するカメラ台数に対応し、各視点間の距離は、各カメラ11の配置間隔に対応する。
優先順位設定部42は、複数の立体視対象画像の合成時に使用するボクセルの優先順位の情報を設定し、この設定された優先順位情報をIP画像生成装置7内の視点画像合成部70に出力する。優先順位は、上述のようにオペレータ(ユーザ)が決定するものであり、合成画像のデザイン上の効果により決定される。例えば、商品広告の場合、背景やデザイン上の装飾物よりも商品自体や商品ロゴを表す画像の優先順位が高く、一般説明文よりも商品ロゴの優先順位が高く、商品自体よりも商品ロゴの優先順位が高い、などの設定が、商品広告のデザイン時に行われ、視点画像合成部70で合成される前に決定される。
多視点画像変換装置5は、撮影装置1で得られた立体視対象画像から視点位置毎の特定視点空間座標を生成する装置であり、多視点2次元画像取得部50、視差情報解析部51、深度方向ランク算出部52、特定視点空間座標生成部53により構成される。
多視点2次元画像取得部50は、撮影装置1で得られた視点位置の異なる複数の2次元画像(立体視対象画像)を取得し、取得された2次元画像を視差情報解析部51及び特定視点空間座標生成部53に出力する。
視差情報解析部51は、多視点2次元画像取得部50で取得された視点位置の異なる複数の2次元画像の各々を、輝度や色差の画素間の差を元に算出された領域に分割し、分割された各領域の境界から特徴点を抽出する。ここで、抽出される特徴点とは、例えば、3以上の領域が接合している点等である。そして、視差情報解析部51は、抽出された各特徴点の中から各2次元画像に共通している特徴点を抽出し、抽出された各共通特徴点について両眼視差(視差量)を算出する。両眼視差とは、右目と左目の各々で見える物体の方向差である。
深度方向ランク算出部52は、視差情報解析部51で得られた各共通特徴点での両眼視差に基づいて、各共通特徴点までの距離を算出し、その算出された距離から、深度方向ランク設定処理で設定された深度方向ランクに基づいて当該算出された距離に対応する深度方向ランクを算出する。また、深度方向ランク算出部52は、各共通特徴点の深度方向ランクを用いて、分割領域の各々について、共通特徴点以外の全ての画素の深度方向ランクを算出する。各画素の深度方向ランクは、同一の立体視対象物の深度方向ランクの連続性に基づいて、該当する画素から近傍に存在する共通特徴点までの距離と、近傍の共通特徴点の深度方向ランクを用いて補間処理を行うことによって算出される。
特定視点空間座標生成部53は、視点位置毎に、多視点2次元画像取得部50で取得された2次元画像と、深度方向ランク算出部52により算出された深度方向ランクの情報を結合することにより、特定視点空間座標を生成する。具体的には、特定視点空間の各格子点のうち、深度方向ランク算出部52により算出された深度方向ランクに対応する格子点上に立体視対象画像のボクセルの中心点を配置することによって特定視点空間座標を生成する。
3次元モデル変換装置6は、3次元計測装置2又はCG発生装置3で得られた立体視対象画像から視点位置毎の特定視点空間座標を生成する装置であり、3次元モデル情報取得部60、多視点2次元画像生成部61、深度方向ランク算出部62、特定視点空間座標生成部63により構成される。
3次元モデル情報取得部60は、3次元計測装置2又はCG発生装置3から入力された立体視対象画像を取得し、多視点2次元画像生成部61及び深度方向ランク算出部62に出力する。
多視点2次元画像生成部61は、視点情報設定部41から、視点情報として、視点位置、視点位置の数、注視点に関する情報を取得し、3次元モデル情報取得部60で取得された立体視対象画像から、各視点位置から注視点方向を見た際の2次元画像を生成する。
深度方向ランク算出部62は、深度方向ランク設定処理で設定された深度方向ランクに基づいて、視点位置毎に、多視点2次元画像生成部61で生成された2次元画像を形成する各画素について深度方向ランクを算出する。
特定視点空間座標生成部63は、視点位置毎に、多視点2次元画像生成部61で生成された2次元画像と、深度方向ランク算出部62で算出された深度方向ランクの情報を結合することにより、特定視点空間座標を生成する。具体的には、特定視点空間の各格子点のうち、深度方向ランク算出部62で算出された深度方向ランクに対応する格子点上に立体視対象画像のボクセルの中心点を配置することによって特定視点空間座標を生成する。
IP画像生成装置7は、視点画像合成部70とIP画像生成部71により構成される。
視点画像合成部70は、多視点画像変換装置5で得られた立体視対象画像の特定視点空間座標情報と、3次元モデル変換装置6で得られた立体視対象画像の特定視点空間座標情報を視点位置毎に合成する。合成時、ある画素で、双方の立体視対象画像のボクセルが重なり合う場合、優先順位設定部42で設定された優先順位情報に基づいて、優先順位が高いボクセルを当該画素での合成に使用するボクセルとして選択する。
IP画像生成部71は、視点画像合成部70で得られた合成画像から、インテグラルフォトグラフィ方式を用いて、立体表示の元になる画像であるIP画像を生成する。インテグラルフォトグラフィは、特殊な眼鏡が不要で、且つ観察者の視点が上下左右に移動してもそれに応じた立体像が観察可能な方式である。IP画像生成装置7において実行されるIP画像生成処理については、後に図9を参照して詳細に説明する。
画像出力部8は、IP画像生成装置7で生成されたIP画像をプリント出力する装置であり、例えば、インクジェットプリンタや、写真用印画紙にデジタル露光をして現像処理する銀塩デジタルプリンタ、熱昇華型プリンタ等により構成される。銀塩デジタルプリンタは、通常、非常に高いプリント生産能力を有しているため、1台の銀塩デジタルプリンタに複数の前段の各装置を接続させることが可能である。一方、インクジェットプリンタの場合、プリント生産能力が制限されることが多いため、画像処理システム100内に複数台のインクジェットプリンタを備えるのが好ましい。
なお、本実施形態では、画像処理システム100が、3次元計測装置2とCG発生装置3の双方を有する場合を示したが、何れか一方のみを有するようにしてもよい。
次に、本実施形態における動作について説明する。
まず、図2のフローチャートを参照して、システム制御部40において実行される深度方向ランク設定処理について説明する。
まず、被写体空間距離と観察画像空間距離との関係を表す情報が、システム制御部40内のメモリ(図示略)から取得される(ステップS1)。被写体空間とは、被写体(立体視対象物)が実際に存在する空間であり、観察画像空間とは、立体写真を人間が観察することによって知覚される空間であり、再現された被写体の画像(立体視対象画像)が存在する空間である。立体視対象画像のボクセルの中心点は、被写体空間における被写体(立体視対象物)の大きさと、観察画像空間における被写体(立体視対象物)の大きさと、人間の両眼視差による被写体(立体視対象物)の認知精度(後述の所要視角分解精度)に基づいて、特定視点空間の格子点上に配置されることになる。
図3に、被写体空間距離と観察画像空間距離との関係を示す。これは、被写体空間と観察画像空間の各々に存在する被写体(立体視対象物)の大小関係を表したものであり、オペレータによって予めシステム制御部40内のメモリに設定されている。被写体空間距離とは、被写体空間上での観察者から被写体までの距離を示し、観察画像空間距離とは、観察画像空間上での観察者から被写体までの距離を示す。図3において直線aは、観察画像空間距離と被写体空間距離が等しく、被写体の距離感を忠実に再現する場合を示す。直線bは、観察画像空間距離より被写体空間距離の方が大きく、被写体を小さく再現する場合を示す。直線cは、被写体空間距離より観察画像空間距離の方が大きく、被写体を拡大して表現する場合を示す。曲線dは、遠方の被写体をより近く観察画像空間上で再現する場合を示しており、非常に遠方の被写体を扱う場合に有効である。
以下、簡単のため、被写体空間距離と観察画像空間距離との関係が図3の直線aの場合、即ち、被写体空間での被写体(立体視対象物)のサイズと、観察画像空間での被写体(立体視対象物)のサイズが等しい場合について説明する。
被写体空間距離と観察画像空間距離との関係を表す情報が取得されると、被写体空間上の所要視角分解精度が算出される(ステップS2)。所要視角分解精度とは、人間の両眼視差の認知精度を表す。図4に示すように、所用視角分解精度をα[ラジアン]、両眼間隔の1/2をβ[m]、観察者の両眼の中心位置と、両眼中心位置から見て無限遠と認識すべき最も遠い点との距離をγ[m]とすると、被写体空間距離と観察画像空間距離との関係が図3の直線aである場合の所要視角分解精度αは式(1)のように定義される。
Figure 2006201950
人間の両眼視差による立体感の認知は、約300m程度離れた距離にある物体にまで働くとされている。また、人間の両眼の間隔は60mm〜70mm(0.06m〜0.07m)である。従って、β=0.033、γ=300とすると、所要視角分解精度αは、式(1)でtanα≒αの近似式を用いることにより約0.00011となる。
なお、ステップS1において、被写体空間距離と観察画像空間距離との関係を示す情報として直線bが取得された場合、被写体空間上の所要視角分解精度は式(1)のαより大きくなり、直線cが取得された場合、被写体空間上の所要視角分解精度は式(1)のαより小さくなる。
次いで、観察者から無限遠の位置に最初(ボクセル番号0)の深度方向ランクの中心位置が設置される(ステップS3)。次いで、前のボクセル番号のランク中心位置から所要視角分解精度分の視角差となる位置に、次のボクセル番号の深度方向ランクの中心位置が設置される(ステップS4)。ボクセル番号N(自然数)の深度方向ランクの中心位置は、式(2)を満たす位置である。
Figure 2006201950
ここで、α≪1である。式(2)より、両眼中心位置(視点位置)からの距離がγ/Nとなる位置が、ボクセル番号Nのランク中心位置である。
ステップS4における深度方向ランクの中心位置の設置は、設置位置が観察者に最も近い点(最近傍点)に達するまで行われ(ステップS5;NO)、最近傍点までの深度方向ランクの中心位置の設置が終了すると(ステップS5;YES)、本深度方向ランク設定処理が終了する。
このように、観察者からの距離の情報は、所要視角分解精度で量子化された深度方向ランクとして得られる。これにより、必要最低限の情報量で、立体画像情報を表現することが可能となる。
図5(a)に、視点位置から立体視対象物へ放射状に延びる複数の視線方向を表す直線と、図2の深度方向ランク設定処理で設定された各ボクセル番号での深度方向ランクを表す直線を示す。図5(a)では、γ=300mとした場合を示している。図5(a)は、直交空間での視線方向及び深度方向を表しており、これを特定視点空間で表すと図5(b)のようになる。即ち、特定視点空間は、図5(b)に示すように、視点位置からの距離を示す深度を等間隔の平行線として表し、当該視点位置から立体視対象物へ放射状に延びる複数の視線方向を、前記深度を示す平行線と交わる等間隔の平行線として表した格子として表される。
次に、図6のフローチャートを参照して、多視点画像変換装置5において実行される特定視点空間座標生成処理について説明する。
まず、撮影装置1で得られた視点位置の異なる複数の2次元画像(立体視対象画像)が取得され(ステップS10)、取得された各々の2次元画像から、本処理対象の矩形領域が設定される(ステップS11)。次いで、処理対象の矩形領域が設定された2次元画像の各々が、輝度や色差の画素間の差を元に算出された領域に分割され(ステップS12)、各々の2次元画像について、分割された各領域の境界から特徴点が抽出される(ステップS13)。
次いで、ステップS13で抽出された各特徴点の中から各2次元画像に共通する特徴点が抽出される(ステップS14)。共通特徴点の抽出が終了すると(ステップS15;YES)、各共通特徴点について両眼視差(視差量)が算出される(ステップS16)。
次いで、ステップS16で算出された各共通特徴点での両眼視差に基づいて、各共通特徴点までの距離が算出され、その算出された距離から、図2の深度方向ランク設定処理で設定された深度方向ランクに基づいて当該距離に対応する深度方向ランクが算出される(ステップS17)。
次いで、ステップS17で算出された各共通特徴点の深度方向ランクを用いて、分割領域の各々について、共通特徴点以外の全ての画素の深度方向ランクが算出される(ステップS18)。各画素の深度方向ランクは、同一の立体視対象物の深度方向ランクの連続性に基づいて、該当する画素から近傍に存在する共通特徴点までの距離と、近傍の共通特徴点の深度方向ランクを用いて補間処理を行うことによって算出される。
次いで、ステップS10で取得された2次元画像(立体視対象画像)と、ステップS17及びS18で算出された深度方向ランクの情報を結合することにより、特定視点空間座標が生成され(ステップS19)、本特定視点空間座標生成処理が終了する。ステップS19では、具体的に、特定視点空間の各格子点のうち、ステップS17及びS18で算出された深度方向ランクに対応する格子点上に、ステップS10で取得された2次元画像のボクセルの中心点を配置することによって特定視点空間座標が生成される。図6の特定視点空間座標生成処理は視点位置毎に行われる。
図7(a)に、直交空間におけるボクセルの中心点の配置例を示し、図7(b)に、図7(a)を特定視点空間に変換した場合のボクセルの中心点の配置例を示す。図7では、立体視対象物の一つである主要被写体に対応する7画素分のボクセルの中心点が水平方向に配列された例を示している。
図7に示すように、立体視対象画像のボクセルの中心点は、所要視角分解精度に基づいて離散化された深度方向ランクに対応する位置に配置されるが、図7(a)に示す直交空間上では、ボクセルの中心点がとり得る位置は、観察者の視点位置に近いほど密集し、視点位置から離れるほど疎らとなる。
このことは、次に示す従来技術の問題点を露呈する。即ち、直交座標上では、観察者の視点位置に近い被写体を十分な画質で再現する場合、非常に高い精度でボクセルの中心点の配置位置を指定する必要がある。この場合、もし、同一画面内に遠方の被写体も存在するならば、遠方の被写体に対しても、視点位置に近い被写体と同様に、非常に高い精度でボクセルの中心点の配置位置を指定する必要がある。従って、本来必要な精度よりもはるかに高い精度でボクセルの中心点の配置位置を指定しなければならなくなり、非常に非効率となる。
そこで、本実施形態では、図5(b)に示すような特定視点空間を定義し、図7(b)に示すように、この特定視点空間上にボクセルの中心点を配置することにより、視点位置からの距離に関わらず(即ち、近景、遠景に関わらず)、ボクセルの中心点がとり得る配置位置は同等となり、画像情報として非常に扱いやすいものとなる。
次に、図8のフローチャートを参照して、3次元モデル変換装置6において実行される特定視点空間座標生成処理について説明する。
まず、3次元計測装置2又はCG発生装置3で得られた3次元モデル(立体視対象画像)が取得され(ステップS20)、視点情報設定部41から、視点情報(視点位置、視点位置の数、注視点)が取得される(ステップS21)。
次いで、ステップS20で取得された3次元モデルから、各々の視点位置から注視点方向を見た際の2次元画像が生成される(ステップS22)。次いで、ステップS22で生成された2次元画像を形成する各画素について、図2の深度方向ランク設定処理で設定された深度方向ランクに基づいて深度方向ランクが算出される(ステップS23)。
次いで、ステップS22で生成された2次元画像と、ステップS23で算出された深度方向ランクの情報を結合することにより、特定視点空間座標が生成され(ステップS24)、本特定視点空間座標生成処理が終了する。ステップS24では、具体的に、特定視点空間の各格子点のうち、ステップS23で算出された深度方向ランクに対応する格子点上に、ステップS22で生成された2次元画像のボクセルの中心点を配置することによって特定視点空間座標が生成される。図8の特定視点空間座標生成処理は視点位置毎に行われる。
次に、図9のフローチャートを参照して、IP画像生成装置7において実行されるIP画像生成処理について説明する。
まず、最初の視点位置に対応する視点画像が選択され(ステップS30)、多視点画像変換装置5及び3次元モデル変換装置6の各々から当該視点位置に対応する特定視点空間座標情報が取得される(ステップS31)。
次いで、システム制御装置4から、各立体視対象画像(合成対象物)の優先順位情報が取得される(ステップS32)。立体視対象画像の取得指示があると、当該立体視対象画像にID情報(識別情報)が付加され、オペレータ(ユーザ)が合成画像のデザイン上の効果により決定した優先順位情報に、このID情報が対応付けられる。ステップS32では、システム制御装置4から、該当する立体視対象画像(合成対象物)に付加されたID情報に対応する優先順位情報が取得される。
次いで、現在の視点位置の各立体視対象画像(合成対象物)について所定位置の画素が選択され(ステップS33)、ステップS31で取得された特定視点空間情報から、ステップS33で選択された画素に対応する深度方向ランクが抽出される(ステップS34)。次いで、現在の視点位置に最も近い(最近)深度方向ランクの画素が一つであるか否か、即ち、ステップS33で選択された各立体視対象画像(合成対象物)の画素が同一の深度方向ランクで重なり合っているか否かが判定される(ステップS35)。
ステップS35において、最近深度方向ランクの画素が一つである場合、即ち、各立体視対象画像の画素が重なり合っていない場合(ステップS35;YES)、ステップS33で選択された各立体視対象画像の画素のうち、最近深度方向ランクを有する画素が、合成対象の画素として選択され(ステップS36)、当該選択された画素が指定位置に配置される。
ステップS35において、最近深度方向ランクの画素が一つではない場合、即ち、各立体視対象画像の画素が重なり合っている場合(ステップS35;NO)、最近深度方向ランクで並ぶ各立体視対象画像(合成対象物)の優先順位情報が比較され(ステップS37)、ステップS33で選択された各立体視対象画像の画素のうち、最近深度方向ランクにおける優先順位が最も高い画素が、合成対象の画素として選択され(ステップS38)、当該選択された画素が指定位置に配置される。
次いで、ステップS36又はS38における合成対象画素の配置により、現在の視点画像に対応する全画素の合成が終了したか否かが判定される(ステップS39)。ステップS39において、全画素の合成が終了していないと判定された場合(ステップS39;NO)、次の画素が選択され(ステップS40)、各立体視対象画像(合成対象物)について、ステップS40で選択された画素位置の画素が選択され(ステップS33)、その選択された画素についてステップS34〜S38の処理が繰り返される。
ステップS39において、現在の視点位置における全画素の合成が終了したと判定された場合(ステップS39;YES)、合成が終了した当該視点位置における各立体視対象画像の各画素が、IP画像の所定領域に配置される(ステップS41)。ステップS41における画素の配置方法については、後に図10を参照して説明する。
次いで、全ての視点位置についてIP画像への画素配置が終了したか否かが判定される(ステップS42)。ステップS42において、全ての視点位置における画素配置が終了していないと判定された場合(ステップS42;NO)、次の視点位置に対応する視点画像が選択され(ステップS43)、その選択された視点画像についてステップS31〜S41の処理が繰り返される。ステップS42において、全ての視点位置における画素配置が終了したと判定された場合(ステップS42;YES)、本IP画像生成処理が終了する。
ステップS41の処理により各視点位置に対応する視点画像からIP画像を生成する方法としては、公知文献(谷中一寿、外5名「Shade(TM)によるインテグラルフォトグラフィ画像の合成」3DImage Conference 2004, p.173-176)に示した方法を用いることができる。以下、図10を参照して、多視点画像(各視点位置での視点画像を集めた画像)210からIP画像220を生成する方法について説明する。
図10の多視点画像210において、上からi番目、左からj番目の視点位置を(i,j)、視点位置(i,j)での視点画像をV(i,j)、視点画像V(i,j)内の座標を(x,y)、視点画像V(i,j)の座標(x,y)における画素をI(i,j,x,y)とする。多視点画像210が、水平方向にm枚、垂直方向にn枚からなる視点画像V(i,j)(i=1,2,…,m、j=1,2,…,n)から構成されているとすると、各視点画像V(i,j)の同一座標(x,y)の画素I(i,j,x,y)を、m×n画素から構成される領域に集めることによって、IP画像220内の領域r(x,y)が形成される。領域r(x,y)の各画素I(i,j,x,y)は、視点位置(i,j)の並びに従って配置される。図10では、各視点画像が、180×180画素から構成されているものとし、水平方向に32視点分(m=32)、垂直方向に32視点分(n=32)、即ち、32×32=1024個の異なる視点画像から構成される多視点画像210から1枚のIP画像220が生成される例を示している。
次に、図11を参照して、プリント技術を用いたインテグラルフォトグラフィの原理について説明する。
図11に示すように、上側透明シートにはピンホールアレイが、下側透明シートにはIP画像220が、それぞれ予めプリントされている。2枚の透明シートの間隔を一定に保つため、両透明シートの間に中間透明板が挿入されている。また、IP画像220を照らすため、その下に光源(バックライト)が配置されている。
観察者Hは、ピンホールアレイを通過してきた光を見るが、右目に入る光が、IP画像220の点Qから出たのか、それとも3次元物体上の点Sから出たのか区別できない。同様に、左目に入る光が、IP画像220の点Rから出たのか、それとも3次元物体上の点Sから出たのか区別できない。従って、両眼視差により、観察者Hには、あたかも点Sに物体があるように見える。このように、IP画像220から立体視が可能となる。
以上のように、本実施形態の画像処理システム100によれば、視点位置毎に、格子点上に立体視対象画像のボクセルの中心点を配置した特定視点空間座標を生成することにより、直交空間上でボクセルの中心点を配置する場合よりも、処理対象の画像のデータ量が少なく、画像処理時間の短縮化を図ることができる。
また、ボクセルの中心点は、両眼視差による立体視対象物の認知精度に基づいて格子点上に配置されるため、効率的な画像処理が可能となる。
また、複数の立体視対象画像を合成する際に使用するボクセルの優先順位を設定し、合成時に各立体視対象画像のボクセルが重なり合う場合、予め設定された優先順位に基づいて、合成に使用するボクセルを選択するようにしたことにより、合成時にボクセルが重なりあっても確実に対処することが可能となる。また、レイアウトのやり直し作業が不要となり、作業効率を向上させることが可能となる。特に、特定視点空間座標を用いることにより、視点位置から遠方に存在する立体視対象物同士が重なり合っても、微妙な位置関係を厳格に評価する必要がなく、作業効率を一層向上させることができる。
また、立体表示の元になる画像を、インテグラルフォトグラフィ方式を用いて生成することにより、容易に立体画像を得ることができる。
なお、本実施形態における記述内容は、本発明の趣旨を逸脱しない範囲で適宜変更可能である。
例えば、図2の深度方向ランク設定処理では、深度方向ランクの中心位置を設定する場合を示したが、深度方向ランクの境界位置を設定するようにしてもよい。また、観察画像空間における深度方向ランクを用いて被写体空間における深度方向ランクを求めるようにしてもよい。以下、図2の深度方向ランク設定処理の変形例1及び変形例2を示す。
<変形例1>
変形例1では、図12のフローチャートを参照して、深度方向ランクの境界位置を設定する場合の深度方向ランク設定処理を示す。
まず、被写体空間距離と観察画像空間距離との関係を示す情報(図3参照)が取得され(ステップS50)、その取得された情報に対応して、被写体空間上の所要視角分解精度が算出される(ステップS51)。ステップS50で取得された情報が図3の直線aである場合、ステップS51で算出される所要視角分解精度は式(1)で表される。
次いで、無限遠との視角差が所要視角分解精度の半分となる位置に最初(ボクセル番号0)の深度方向ランクの境界位置が設置される(ステップS52)。観察者の両眼中心位置と、無限遠との視角差が所要視角分解精度αの半分となる位置との間の距離をγ1[m]とすると、tan(α/2)=β/γ1となる。次いで、前の深度方向ランクの境界位置から所要視角分解精度分の視角差となる位置に、次のボクセル番号の深度方向ランクの境界位置が設置される(ステップS53)。
ステップS53における深度方向ランクの境界位置の設置は、設置位置が観察者に最も近い点(最近傍点)に達するまで行われ(ステップS54;NO)、最近傍点までの深度方向ランクの境界位置の設置が終了すると(ステップS54;YES)、本深度方向ランク設定処理が終了する。このように、深度方向ランクの境界位置を設定することにより、立体視対象画像のボクセルの境界条件が設定されることになる。
<変形例2>
変形例2では、図13のフローチャートを参照して、観察画像空間上の深度方向ランクの境界位置を設定する場合の深度方向ランク設定処理を示す。
まず、被写体空間距離と観察画像空間距離との関係を示す情報(図3参照)が取得され(ステップS60)、その取得された情報に応じて、観察画像空間上の所要視角分解精度が算出される(ステップS61)。ステップS60では、図3の曲線dの情報が取得される。
次いで、無限遠との視角差が所要視角分解精度の半分となる位置に最初(ボクセル番号0)の深度方向ランクの境界位置が設置される(ステップS62)。次いで、前の深度方向ランクの境界位置から所要視角分解精度分の視角差となる位置に、次のボクセル番号の深度方向ランクの境界位置が設置される(ステップS63)。
ステップS63における深度方向ランクの境界位置の設置は、設置位置が観察者に最も近い点(最近傍点)に達するまで行われ(ステップS64;NO)、最近傍点までの深度方向ランクの境界位置の設置が終了すると(ステップS64;YES)、観察画像空間における深度方向ランクの境界と、図3の曲線dの関係に基づいて、被写体空間における深度方向ランクの境界が算出され(ステップS65)、本深度方向ランク設定処理が終了する。このように、深度方向ランクの境界位置を設定することにより、立体視対象画像のボクセルの境界条件が設定されることになる。
本発明の実施形態に係る画像処理システムの構成を示すブロック図。 システム制御装置において実行される深度方向ランク設定処理を示すフローチャート。 被写体空間距離と観察画像空間距離の関係を示す図。 深度方向ランクの設定方法を説明するための図。 ボクセル中心点が配置される直交空間(a)及び特定視点空間(b)を示す図。 多視点画像変換装置において実行される特定視点空間座標生成処理を示すフローチャート。 直交空間上でのボクセル中心点の配置例(a)と、特定視点空間上でのボクセル中心点の配置例(b)を示す図。 3次元モデル変換装置において実行される特定視点空間座標生成処理を示すフローチャート。 IP画像生成装置において実行されるIP画像生成処理を示すフローチャート。 IP画像の生成方法を説明するための図。 インテグラルフォトグラフィ(IP)の原理を説明するための図。 深度方向ランク設定処理の変形例1を示すフローチャート。 深度方向ランク設定処理の変形例2を示すフローチャート。
符号の説明
1 撮影装置
11 カメラ
12撮影制御部
2 3次元計測装置
21 カメラ
22 3次元モデル形成部
3 CG発生装置
30 コンピュータ
4 システム制御装置
40 システム制御部
41 視点情報設定部
42 優先順位設定部
5 多視点画像変換装置
50 多視点2次元画像取得部
51 視差情報解析部
52 深度方向ランク算出部
53 特定視点空間座標生成部
6 3次元モデル変換装置
60 3次元モデル情報取得部
61 多視点2次元画像生成部
62 深度方向ランク算出部
63 特定視点空間座標生成部
7 IP画像生成装置
70 視点画像合成部
71 IP画像生成部
8 画像出力部
100 画像処理システム

Claims (10)

  1. 複数の異なる視点位置から見た立体視対象物の画像に基づいて立体画像を生成する画像処理システムにおいて、
    観察者の特定の視点位置から立体視対象物へ放射状に延びる複数の視線方向を平行線として表し、当該視点位置からの距離を示す深度を前記平行線と交わる平行線として表した格子の各格子点上に、当該視点位置における立体視対象画像のボクセルの中心点を配置した特定視点空間座標を生成する特定視点空間生成手段と、
    前記特定視点空間生成手段により生成された各視点位置での特定視点空間座標を用いて、立体表示の元になる画像を生成する画像生成手段と、
    を備えることを特徴とする画像処理システム。
  2. 前記ボクセルの中心点は、両眼視差による立体視対象物の認知精度に基づいて配置されることを特徴とする請求項1に記載の画像処理システム。
  3. 立体視対象物が異なる複数の立体視対象画像を視点位置毎に取得する取得手段と、
    前記取得手段により得られた複数の立体視対象画像の各々を視点位置毎に合成する合成手段と、を備え、
    前記特定視点空間生成手段は、立体視対象画像毎に各視点位置での特定視点空間座標を生成し、
    前記合成手段は、立体視対象画像毎に生成された特定視点空間座標に基づいて各立体視対象画像を合成し、
    前記画像生成手段は、前記合成手段により得られた合成画像に基づいて立体表示の元になる画像を生成することを特徴とする請求項1又は2に記載の画像処理システム。
  4. 前記複数の立体視対象画像を合成する際に使用するボクセルの優先順位を設定する優先順位設定手段を備え、
    前記合成手段は、前記複数の立体視対象画像の合成時に各立体視対象画像のボクセルが重なり合う場合、前記優先順位設定手段により設定された優先順位に基づいて合成に使用するボクセルを選択することを特徴とする請求項3に記載の画像処理システム。
  5. 前記画像生成手段は、インテグラルフォトグラフィ方式を用いて、前記立体表示の元になる画像を生成することを特徴とする請求項1〜4の何れか一項に記載の画像処理システム。
  6. 複数の異なる視点位置から見た立体視対象物の画像に基づいて立体画像を生成する画像処理方法において、
    観察者の特定の視点位置から立体視対象物へ放射状に延びる複数の視線方向を平行線として表し、当該視点位置からの距離を示す深度を前記平行線と交わる平行線として表した格子の各格子点上に、当該視点位置における立体視対象画像のボクセルの中心点を配置した特定視点空間座標を生成する特定視点空間生成工程と、
    前記生成された各視点位置での特定視点空間座標を用いて、立体表示の元になる画像を生成する画像生成工程と、
    を含むことを特徴とする画像処理方法。
  7. 前記ボクセルの中心点は、両眼視差による立体視対象物の認知精度に基づいて配置されることを特徴とする請求項6に記載の画像処理方法。
  8. 立体視対象物が異なる複数の立体視対象画像を視点位置毎に取得する取得工程と、
    前記取得工程において得られた複数の立体視対象画像の各々を視点位置毎に合成する合成工程と、を含み、
    前記特定視点空間生成工程では、立体視対象画像毎に各視点位置での特定視点空間座標が生成され、
    前記合成工程では、立体視対象画像毎に生成された特定視点空間座標に基づいて各立体視対象画像が合成され、
    前記画像生成工程では、前記合成工程において得られた合成画像に基づいて立体表示の元になる画像が生成されることを特徴とする請求項6又は7に記載の画像処理方法。
  9. 前記複数の立体視対象画像を合成する際に使用するボクセルの優先順位を設定する優先順位設定工程を含み、
    前記合成工程では、前記複数の立体視対象画像の合成時に各立体視対象画像のボクセルが重なり合う場合、前記優先順位設定工程において設定された優先順位に基づいて合成に使用するボクセルが選択されることを特徴とする請求項8に記載の画像処理方法。
  10. 前記画像生成工程では、インテグラルフォトグラフィ方式を用いて、前記立体表示の元になる画像が生成されることを特徴とする請求項6〜9の何れか一項に記載の画像処理方法。
JP2005011671A 2005-01-19 2005-01-19 画像処理システム及び画像処理方法 Pending JP2006201950A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005011671A JP2006201950A (ja) 2005-01-19 2005-01-19 画像処理システム及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005011671A JP2006201950A (ja) 2005-01-19 2005-01-19 画像処理システム及び画像処理方法

Publications (1)

Publication Number Publication Date
JP2006201950A true JP2006201950A (ja) 2006-08-03

Family

ID=36959907

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005011671A Pending JP2006201950A (ja) 2005-01-19 2005-01-19 画像処理システム及び画像処理方法

Country Status (1)

Country Link
JP (1) JP2006201950A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011013993A (ja) * 2009-07-03 2011-01-20 Fujifilm Corp 画像表示装置および方法並びにプログラム
CN106570901A (zh) * 2016-11-11 2017-04-19 浙江大学 一种基于cuda的双目深度信息恢复加速方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05101163A (ja) * 1991-10-04 1993-04-23 Hitachi Ltd 3次元図形表示方式
JP2003323636A (ja) * 2002-04-30 2003-11-14 Canon Inc 三次元モデル供給装置およびその方法、画像合成装置およびその方法、ユーザーインターフェース装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05101163A (ja) * 1991-10-04 1993-04-23 Hitachi Ltd 3次元図形表示方式
JP2003323636A (ja) * 2002-04-30 2003-11-14 Canon Inc 三次元モデル供給装置およびその方法、画像合成装置およびその方法、ユーザーインターフェース装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011013993A (ja) * 2009-07-03 2011-01-20 Fujifilm Corp 画像表示装置および方法並びにプログラム
US8648953B2 (en) 2009-07-03 2014-02-11 Fujifilm Corporation Image display apparatus and method, as well as program
CN106570901A (zh) * 2016-11-11 2017-04-19 浙江大学 一种基于cuda的双目深度信息恢复加速方法

Similar Documents

Publication Publication Date Title
JP4065488B2 (ja) 3次元画像生成装置、3次元画像生成方法及び記憶媒体
JP4649219B2 (ja) 立体画像生成装置
KR101294261B1 (ko) 마스크와 시간다중화 방식을 이용한 3차원 집적 영상 표시방법
JP4440066B2 (ja) 立体画像生成プログラム、立体画像生成システムおよび立体画像生成方法
KR101852209B1 (ko) 자동입체 디스플레이 및 그 제조방법
JP2006229725A (ja) 画像生成システム及び画像生成方法
CN102447934A (zh) 稀疏镜头采集的组合立体图像***中立体元的合成方法
US9933626B2 (en) Stereoscopic image
JP2006211291A (ja) 立体視可能な表示装置および方法
JP2012160039A (ja) 画像処理装置、立体画像印刷システム、画像処理方法およびプログラム
JP4817425B2 (ja) 画像表示システム及び画像表示方法
JP2006203668A (ja) 画像生成システム及び画像生成方法
JP2023172882A (ja) 三次元表現方法及び表現装置
KR101212223B1 (ko) 촬영장치 및 깊이정보를 포함하는 영상의 생성방법
JP2006163547A (ja) 立体画像生成プログラム、立体画像生成システム及び立体画像生成装置。
JP4901409B2 (ja) 三次元画像の作成方法および装置
JP2006254240A (ja) 立体画像表示装置、その方法及びプログラム
JP2006201950A (ja) 画像処理システム及び画像処理方法
JP5279078B2 (ja) 画像撮影・表示方法、画像撮影・表示装置、およびプログラム
KR101025785B1 (ko) 3차원 실물 화상장치
JP6846165B2 (ja) 画像生成装置、画像表示システム及びプログラム
JP2012003520A (ja) 立体印刷物制作支援装置、プラグインプログラム、立体印刷物制作方法および立体印刷物
KR101831978B1 (ko) 회전된 렌티큘러시트를 부착한 디스플레이에 표시되는 요소영상콘텐츠 생성 방법
JP6768431B2 (ja) 画像生成装置及びプログラム
JP2021047468A (ja) 画像処理装置、画像処理方法、および画像処理プログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20070827

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071217

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20080221

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20100913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101006

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20101007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101012

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110218