JP5886242B2 - 画像処理装置、画像処理方法及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法及び画像処理プログラム Download PDF

Info

Publication number
JP5886242B2
JP5886242B2 JP2013121942A JP2013121942A JP5886242B2 JP 5886242 B2 JP5886242 B2 JP 5886242B2 JP 2013121942 A JP2013121942 A JP 2013121942A JP 2013121942 A JP2013121942 A JP 2013121942A JP 5886242 B2 JP5886242 B2 JP 5886242B2
Authority
JP
Japan
Prior art keywords
image
dimensional position
image processing
processing apparatus
conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013121942A
Other languages
English (en)
Other versions
JP2014239384A (ja
Inventor
坂本 竜基
竜基 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2013121942A priority Critical patent/JP5886242B2/ja
Priority to US14/293,190 priority patent/US9697581B2/en
Publication of JP2014239384A publication Critical patent/JP2014239384A/ja
Application granted granted Critical
Publication of JP5886242B2 publication Critical patent/JP5886242B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/12Panospheric to cylindrical image transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

本発明の実施形態は、画像処理装置、画像処理方法及び画像処理プログラムに関する。
従来、タイムスライス(Time Slice)やバレットタイム(Bullet Time)等と呼ばれる撮影技術が知られている。この撮影技術では、複数の撮像装置(例えば、ビデオカメラ)が撮像対象(例えば、人間などの被写体)の周囲に配置される。このとき、複数の撮像装置は、各撮像装置の光軸が撮像対象における所定の位置を通過するように配置される。そして、複数の撮像装置によって撮像された各画像を順に表示することにより、各光軸の通過位置を中心に撮像対象の周囲を移動しながら撮影したような映像を表示することが可能となる。例えば、任意の時刻に各撮像装置によって撮像された各画像を連続的に表示した場合には、その時刻で時間が停止している中で撮像対象の周囲を移動しながら撮影したような映像を表現することが可能となる。このような撮影技術は、例えば、映画、スポーツ中継などに利用されている。なお、以下では、上述した各光軸の通過位置を「回転中心」と表記する場合がある。
特開2009−258862号公報
冨山仁博、宮川勲、岩舘祐一、"多視点ハイビジョン映像生成システムの試作"、[online]、[平成25年5月22日検索]、インターネット<http://ci.nii.ac.jp/naid/110006207338>
しかしながら、上記従来の撮影技術では、任意の位置を回転中心とする映像を表示することが困難である。具体的には、従来の撮影技術では、撮影時に決められた位置を回転中心とする映像を表示できるに過ぎない。このため、従来の撮影技術では、任意の位置を回転中心とする映像を表示するためには、各撮像装置における光軸の通過位置を変動させながら何度も撮影を行うこととなる。このことは、撮影にかかる手間が増大するので現実的ではない。したがって、従来の撮影技術では、任意の位置を回転中心とする映像を表示することが困難である。
本願の開示する技術は、上記に鑑みてなされたものであって、任意の位置を回転中心とする映像を表示することができる画像処理装置、画像処理方法及び画像処理プログラムを提供することを目的とする。
実施形態に係る画像処理装置は、視点位置が異なる複数の画像を記憶する画像記憶手段と、前記画像記憶手段に記憶されている画像の各々を、動的に設定される撮像対象における位置を光軸が通過するように配置された場合における撮像装置により撮像される画像に変換する変換手段と、前記変換手段によって変換された後の各画像を出力する出力手段と、を備えることを特徴とする。
実施形態に係る画像処理装置、画像処理方法及び画像処理プログラムは、任意の位置を回転中心とする映像を表示することができるという効果を奏する。
図1は、実施形態に係る画像処理システムの構成例を示す図である。 図2Aは、実施形態に係る画像処理装置による画像処理の一例を示す図である。 図2Bは、実施形態に係る画像処理装置による画像処理の一例を示す図である。 図3Aは、実施形態に係る画像処理装置による画像処理の一例を示す図である。 図3Bは、実施形態に係る画像処理装置による画像処理の一例を示す図である。 図4は、実施形態に係る画像処理装置の構成例を示す図である。 図5は、実施形態に係る画像記憶部の一例を示す図である。 図6は、実施形態に係る受付部による処理の一例を示す図である。 図7は、実施形態に係る推定部による推定処理の一例を示す図である。 図8は、実施形態に係る推定部による推定処理の一例を示す図である。 図9は、実施形態に係る画像処理装置による画像処理手順を示すフローチャートである。 図10は、変形例に係る回転中心の指定操作例を示す図である。 図11は、変形例に係る拡大画像の一例を示す図である。
以下に、本願に係る画像処理装置、画像処理方法及び画像処理プログラムの実施形態を図面に基づいて詳細に説明する。なお、この実施形態により本願に係る画像処理装置、画像処理方法及び画像処理プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
〔1.画像処理システムの構成〕
まず、図1を用いて、実施形態に係る画像処理システムについて説明する。図1は、実施形態に係る画像処理システムの構成例を示す図である。図1に示すように、実施形態に係る画像処理システム1には、端末装置10〜10と、画像処理装置100とが含まれる。端末装置10〜10及び画像処理装置100は、ネットワーク20を介して互いに通信可能に接続される。
端末装置10〜10は、画像処理装置100によって提供される映像データを閲覧するユーザによって利用される情報処理装置である。例えば、端末装置10〜10は、携帯電話機、PDA(Personal Digital Assistant)、パーソナルコンピュータ(Personal Computer)である。なお、以下では、端末装置10〜10を区別する必要がない場合には、これらを総称して「端末装置10」と表記する場合がある。
画像処理装置100は、端末装置10に映像データを配信するサーバ装置である。例えば、画像処理装置100は、タイムスライスやバレットタイム等と呼ばれる撮影技術によって生成された映像データを配信する。
〔2.画像処理〕
次に、図2A、図2B、図3A、図3Bを用いて、実施形態に係る画像処理装置100による画像処理の一例について説明する。なお、図2A及び図3Aでは、被写体Pを上から見た例を示す。
図2Aにおいて、撮像装置C11〜C16は、例えば、ビデオカメラである。また、撮像装置C11〜C16は、各撮像装置における光軸が所定の位置を通過するように、撮像対象となる被写体Pの周囲に配置される。図2Aの例では、撮像装置C11は、被写体Pの中心に該当する3次元位置D1を光軸E11が通過するように配置される。また、撮像装置C12〜C16は、それぞれの光軸E12〜E16が3次元位置D1を通過するように配置される。なお、撮像装置C11〜C16は、少なくとも投影面の底辺が地面と略平行となるように設置されるものとする。そして、撮像装置C11〜C16は、図1に示した状態で一斉に被写体Pを撮像することにより、被写体Pの映像データを生成する。
画像処理装置100は、図2Aに示した撮像装置C11〜C16によって生成された各映像データを保持する。そして、画像処理装置100は、各映像データを用いて、タイムスライスやバレットタイム等と呼ばれる撮影効果を伴う映像データを生成し、生成した映像データを端末装置10に配信する。
例えば、画像処理装置100は、所定の時間毎に、表示対象の画像を撮像装置C11〜C16の配置順に変動させた映像データを生成する。ここでいう表示対象の画像とは、撮像装置C11〜C16によって生成された各映像データに含まれるフレームを示す。また、撮像装置C11〜C16の配置順とは、例えば、撮像装置C11、C12、C13、C14、C15、C16の順、若しくは、その逆順などを示す。これにより、画像処理装置100は、被写体Pの周囲を移動して撮影したような映像を表現することができる。
また、上記例に限られず、画像処理装置100は、例えば、撮像装置C11〜C16によって同一時刻に撮像された各フレームが撮像装置の配置順に表示される場面(シーン)を含む映像データを生成する。これにより、画像処理装置100は、時間が停止している中で被写体Pの周囲を移動して撮影したような映像を表現することができる。
図2Bを用いて、画像処理装置100によって配信される映像データの一例を説明する。図2Bでは、任意の時刻tにおいて撮像装置C11〜C16によって生成されたフレームを示す。具体的には、フレームf(1,t)は、撮像装置C11によって生成され、フレームf(2,t)は、撮像装置C12によって生成され、フレームf(6,t)は、撮像装置C16によって生成される。なお、フレームf(1,t)等は、実際には撮像装置によって生成されたフレーム自体ではなく、後述する変換前処理が行われた後のフレームに該当する。ここでは、フレームf(1,t)等が撮像装置によって生成されたものとし、変換前処理については後に詳述する。
そして、画像処理装置100は、例えば、図2Bに示したフレームf(1,t)、f(2,t)、f(3,t)、f(4,t)、f(5,t)、f(6,t)の順に表示される映像データを端末装置10に配信する。これにより、画像処理装置100は、回転中心A1を中心として移動しながら撮影したような映像を表現することができる。なお、ここでは、撮像装置C11〜C16が地面と略平行となるように設置されることを前提としているので、回転中心A1は、図2Aに示した3次元位置D1に対応する位置から地面に対して略垂直に延伸する直線に該当する。
ここで、実施形態に係る画像処理装置100は、撮像装置C11〜C16によって生成された映像データを用いて、動的に設定される撮像対象における3次元位置を回転中心とする映像データを生成する。この点について、図3A及び図3Bを用いて簡単に説明する。ここの例では、画像処理装置100は、図3Aに示した3次元位置D2を回転中心とする映像データを生成するものとする。この場合、画像処理装置100は、図2Aに示した撮像装置C11〜C16によって生成された映像データを、図3Aに示した例のように配置された場合における撮像装置C11〜C16によって生成される映像データに変換する。
具体的には、図3Aの例において、撮像装置C11〜C16は、被写体Pの右側に該当する3次元位置D2を光軸E11〜E16が通過するように配置される。実施形態に係る画像処理装置100は、撮像装置C11〜C16が図3Aに示した例のように配置されたものと仮定する。そして、画像処理装置100は、図2Aにおいて撮像装置C11〜C16によって生成された映像データ内の各フレームを、図3Aに示した例のように配置された場合における撮像装置C11〜C16によって生成されることが想定されるフレームに変換する。
図3Bに、画像処理装置100により変換された後のフレームの一例を示す。図3Bの例では、画像処理装置100は、図2Bに示したフレームf(1,t)を、図3Aの例のように配置された場合における撮像装置C11によって撮像されるフレームf(1,t)に変換する。同様に、画像処理装置100は、フレームf(2,t)をフレームf(2,t)に変換し、フレームf(3,t)をフレームf(3,t)に変換し、フレームf(4,t)をフレームf(4,t)に変換し、フレームf(5,t)をフレームf(5,t)に変換し、フレームf(6,t)をフレームf(6,t)に変換する。このようなフレームの変換処理については後述する。
そして、画像処理装置100は、例えば、変換後のフレームf(1,t)、f(2,t)、f(3,t)、f(4,t)、f(5,t)、f(6,t)の順に表示される映像データを生成し、生成した映像データを端末装置10に配信する。これにより、画像処理装置100は、図3Aに示した3次元位置D2に対応する回転中心A2を中心として移動しながら撮影したような映像を端末装置10に表示させることができる。すなわち、画像処理装置100は、上述したフレームの変換処理を行うことにより、撮像装置C11〜C16における各光軸の交点を変動させながら何度も撮影することなく、任意の位置を回転中心とする映像を表示することを可能にする。
なお、上記例では、6台の撮像装置C11〜C16を用いて被写体Pを撮像する例を示したが、撮像装置の数はこの例に限られない。また、撮像装置C11〜C16の配置位置は、図2Aや図3Aに示した例に限られない。例えば、複数の撮像装置が被写体Pを囲むように、円周上に等間隔に配置されてもよい。
〔3.画像処理装置の構成〕
次に、図4を用いて、上述した画像処理装置100の構成について説明する。図4は、実施形態に係る画像処理装置100の構成例を示す図である。なお、以下では、図2Aに示した撮像装置C11〜C16によって被写体Pが撮像されるものとして説明する。
図4に示すように、画像処理装置100は、IF(interface)部110と、パラメータ記憶部121と、画像記憶部122と、制御部130とを有する。なお、画像処理装置100は、画像処理装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
(IF部110について)
IF部110は、ネットワーク20を介して、端末装置10との間で、各種データを送受信する。例えば、IF部110は、NIC(Network Interface Card)等によって実現される。
(パラメータ記憶部121について)
パラメータ記憶部121は、撮像装置C11〜C16に関する各種のカメラパラメータを記憶する。例えば、パラメータ記憶部121は、カメラパラメータとして、撮像装置の焦点距離や、撮像装置によって生成される画像のアスペクト比及びスキューなどを撮像装置毎に記憶する。なお、各撮像装置のカメラパラメータは、撮像装置C11〜C16のそれぞれを事前にキャリブレーションすることで取得される。
(画像記憶部122について)
画像記憶部122は、視点位置が異なる複数の画像を記憶する。具体的には、画像記憶部122は、異なる位置に配置された撮像装置C11〜C16によって撮像された撮像対象の各画像を記憶する。実施形態に係る画像記憶部122は、撮像対象の各画像として、撮像装置C11〜C16によって生成された映像データを形成する各フレームを記憶する。
ここで、図5に、実施形態に係る画像記憶部122の一例を示す。図5に示すように、画像記憶部122は、「カメラ識別子」、「映像データ」といった項目を有する。「カメラ識別子」は、撮像装置C11〜C16を識別するための識別情報を示す。図5では、撮像装置C11〜C16に付した参照符号「C11」〜「C16」が「カメラ識別子」である例を示す。
「映像データ」は、撮像装置C11〜C16のいずれかによって生成された映像データを示す。具体的には、「映像データ」には、映像データを形成するフレームが記憶される。また、図5に示すように、「映像データ」は、「変換前」、「変換後#1」、「変換後#2」といった項目に区分けされる。「変換前」には、撮像装置C11〜C16によって生成された映像データが記憶される。また、「変換後#1」及び「変換後#2」には、後述する変換部134によって変換処理が行われることで生成される映像データが記憶される。なお、図5では、「変換後#1」及び「変換後#2」を示したが、画像記憶部122は、「変換後#3」以降の映像データが記憶されてもよい。
例えば、図5では、画像記憶部122が、撮像装置C11によって生成されたフレームf(1,1)〜f(1,n)と、フレームf(1,1)〜f(1,n)が変換された後のフレームf(1,1)〜f(1,n)と、フレームf(1,1)〜f(1,n)が変換された後のフレームf(1,1)〜f(1,n)を記憶する例を示す。なお、フレームを表すf(C,t)のうち、「C」は、カメラ識別子の下1桁の数値に該当し、「t」は、映像データにおけるフレームの順序や撮像時刻などを示す。すなわち、f(1,1)は、撮像装置C11によって生成されたフレームであり、1番目に表示されるフレームに該当する。
なお、上述したパラメータ記憶部121及び画像記憶部122は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、ハードディスク、光ディスク等によって実現される。
(制御部130について)
制御部130は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、画像処理装置100内部の記憶装置に記憶されている各種プログラム(画像処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
また、制御部130は、図4に示すように、出力部131と、受付部132と、推定部133と、変換部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図4に示した接続関係に限られず、他の接続関係であってもよい。
(変換部134による前処理について)
制御部130による処理を説明する前に、撮像装置C11〜C16によって生成されるフレームについて説明する。図2Aでは、光軸E11〜E16が3次元位置D1を通過するように撮像装置C11〜C16が配置される例について説明した。しかし、実際には光軸が3次元位置D1を通過するように撮像装置C11〜C16を正確に配置することは困難である。このため、実施形態に係る画像処理装置100は、撮像装置C11〜C16によって生成される各フレームを、光軸が3次元位置D1を通過するように配置できた場合における撮像装置C11〜C16によって生成されることが想定されるフレームに変換する「変換前処理」を行う。この変換前処理は、例えば、撮像装置C11〜C16によって生成された各フレームが画像記憶部122の「変換前」に格納された際に、変換部134によって行われる。
変換部134による変換前処理について具体的に説明する。変換部134は、撮像装置毎に異なる3×3の射影変換行列Hを用いて、フレームの変換処理を行う。この射影変換行列Hは、パラメータ記憶部121に記憶されている撮像装置C11〜C16のカメラパラメータから算出可能である。図2Aの例の場合、射影変換行列Hは、少なくともカメラパラメータと、回転中心となる3次元位置D1と、3次元位置D1を変換後のフレームに逆投影した場合における2次元位置cとに基づいて算出可能である。なお、このようなフレームの変換処理に関する技術については、下記文献(上記の非特許文献1)に開示されている。
(参照文献)冨山仁博、宮川勲、岩舘祐一、“多視点ハイビジョン映像生成システムの試作”
例えば、図5の例において、変換部134は、撮像装置C11のカメラパラメータから算出された射影変換行列Hを用いて、撮像装置C11によって生成されたフレームf(1,1)〜f(1,n)をフレームf(1,1)〜f(1,n)に変換する。そして、変換部134は、カメラ識別子「C11」及び「変換後#1」に対応付けて、変換後のフレームf(1,1)〜f(1,n)を画像記憶部122に格納する。同様に、変換部134は、撮像装置C12〜C16によって生成された各フレームについても変換し、変換後の各フレームを画像記憶部122の「変換後#1」に格納する。
(出力部131について)
出力部131は、画像記憶部122に記憶されている映像データを端末装置10に出力する。具体的には、出力部131は、端末装置10から映像データの取得要求を受信した場合に、IF部110を介して取得要求に応じた映像データを端末装置10に配信する。なお、出力部131は、画像記憶部122に記憶されている「変換前」に対応する各フレームを配信せずに、「変換後#1」や「変換後#2」に対応する各フレームから生成した映像データを配信する。例えば、出力部131は、ユーザから回転中心を変更する操作が行われる前には、「変換後#1」に対応する各フレームから生成した映像データを端末装置10に配信する。また、ユーザから回転中心を変更する操作が行われた場合には、後述する変換部134によって変換された各フレームが「変換後#2」に格納される。この場合、出力部131は、「変換後#2」に対応する各フレームから生成した映像データを端末装置10に配信する。
(受付部132について)
受付部132は、端末装置10のユーザから、映像データに対する各種操作を受け付ける。例えば、受付部132は、映像データの新たな回転中心として、映像データに含まれる任意のフレーム内における位置を指定する操作を受け付ける。
ここで、図6を用いて、実施形態に係る受付部132による処理の一例について説明する。図6の例において、画像処理装置100の出力部131は、変換後#1に対応する各フレームから生成した映像データを端末装置10に配信したものとする。そして、端末装置10は、画像処理装置100から配信された映像データを表示部に表示する。ここで、実施形態に係る端末装置10は、映像の表示中に、かかる映像の新たな回転中心を指定する操作をユーザから受け付ける。図6の例では、端末装置10は、フレームf(4,t)の表示中に、フレームf(4,t)内の2次元位置m4tを指定する操作を受け付ける。この場合、端末装置10は、ユーザ操作が行われたフレームf(4,t)を識別するための情報と、指定された2次元位置m4tの情報(例えば、座標)とを画像処理装置100に送信する。画像処理装置100の受付部132は、このようにして端末装置10から送信されるフレームの識別情報や指定位置の情報を受け付ける。
(推定部133について)
推定部133は、受付部132によって受け付けられた2次元位置に対応する撮像対象の3次元位置を推定する。具体的に説明すると、上記の受付部132は、映像データに含まれる任意のフレームに対して、映像データの新たな回転中心とする2次元位置を受け付ける。上記の通り、任意のフレームfxから新たな回転中心とするフレームfyを生成する場合には、フレームfxの生成元である撮像装置に対応する射影変換行列が用いられる。そして、この射影変換行列は、少なくとも、フレームfxの生成元である撮像装置のカメラパラメータと、新たな回転中心となる撮像対象における3次元位置と、新たな回転中心となる3次元位置をフレームfyに逆投影した場合におけるフレームfy上の2次元位置といった情報が用いられる。これらの情報のうち、撮像装置のカメラパラメータは、パラメータ記憶部121に記憶されている。また、新たな回転中心に対応するフレームfy上の2次元位置は、受付部132によって受け付けられた2次元位置に該当する。したがって、新たな回転中心となる撮像対象の3次元位置を求めることができれば、任意のフレームfxから新たな回転中心とするフレームfyを生成することが可能となる。そこで、実施形態に係る推定部133は、受付部132によって受け付けられたフレーム上の2次元位置に基づいて、かかる2次元位置に対応する撮像対象の3次元位置を推定する。
推定部133による推定処理について一例を挙げて説明する。ここでは、画像記憶部122の「変換後#1」に記憶されている各フレームの回転中心が図2Aに示した3次元位置D1であるものとする。また、受付部132は、図6の例のように、「変換後#1」の映像データに含まれるフレームf(4,t)に対して、新たな回転中心とする2次元位置m4tを指定する操作を受け付けたものとする。また、推定対象となる新たな回転中心を示す3次元位置をD1´とする。
この例において、3次元位置D1´は、フレームf(4,t)の生成元である撮像装置C14における光学中心から、撮像装置C14の投影面における2次元位置m4tへ延ばした直線が撮像対象と最初に交差する位置であると言える。この点について図7を用いて説明する。図7に示すように、新たな回転中心を示す3次元位置D1´は、撮像装置C14における光学中心から、投影面であるフレームf(4,t)上の2次元位置m4tへ延ばした直線L14が撮像対象と最初に交差する位置に該当する。これは、ユーザがフレームf(4,t)に対して指定する位置は、ユーザによって視認可能な位置であるからである。すなわち、推定部133は、2次元位置m4tに映る撮像対象の3次元位置D1´を推定すればよいこととなる。
そこで、推定部133は、例えば、マルチベースラインステレオ法に基づいて、画像記憶部122に記憶されている撮像装置C11〜C16に対応する各フレーム(例えば、フレームf(1,t)、f(2,t)、f(3,t)、f(4,t)、f(5,t)、f(6,t)など)から、各フレームに描出されている各特徴点のデプス(depth)を推定する。これにより、推定部133は、撮像対象の3次元形状を推定することができる。そして、推定部133は、デプスの推定結果と上記直線L14とに基づいて、直線L14が最初に交差する特徴点の位置を3次元位置D1´として推定する。
また、推定部133による推定処理は上記例に限られない。例えば、推定部133は、フレームf(4,t)上の2次元位置m4tに対応する他のフレーム上の2次元位置mxtを特定する。そして、推定部133は、三角測量の原理に基づいて、2次元位置m4t及びmxtから3次元位置D1´を推定する。この推定処理について図8を用いて説明する。
図8の例の場合、推定部133は、まず、フレームf(4,t)上の2次元位置m4tに対応するフレームf(3,t)上の2次元位置m3tを特定する。例えば、推定部133は、2次元位置m4tを中心とするフレームf(4,t)内の所定領域の特徴量を取得し、取得した特徴量と類似するフレームf(3,t)内の領域を探索する。そして、推定部133は、探索されたフレームf(3,t)内の領域の中心位置を2次元位置m3tとして特定する。そして、推定部133は、撮像装置C14における光学中心から2次元位置m4tへ延ばした直線L14と、撮像装置C13における光学中心から2次元位置m3tへ延ばした直線L13との交点を3次元位置D1´として推定する。
なお、図8の例において、推定部133は、以下に説明する処理により、2次元位置m3tを特定してもよい。具体的には、推定部133は、2次元位置m4tを中心とするフレームf(4,t)内における「k×k」の矩形領域t4tを抽出し、抽出した矩形領域t4tをテンプレートとしてメモリ等の記憶部に格納する。そして、推定部133は、フレームf(4,t)上の2次元位置m4tに対応するフレームf(3,t)上のエピポーラ線を取得し、かかるエピポーラ線上に存在する「k×k」の任意の矩形領域t3tを切り出す。そして、推定部133は、切り出した各矩形領域t3tと、前述においてメモリに格納した矩形領域t4tとのSSD(Sum of Squared Difference)を算出し、算出したSSDが最も小さい矩形領域t3tの中心位置を2次元位置m3tとして特定する。
また、図8の例では、撮像装置C13によって生成されるフレームを用いて3次元位置D1´を推定する例を示したが、推定部133は、撮像装置C11、C12、C15、C16等によって生成されるフレームを用いて3次元位置D1´を推定してもよい。
(変換部134について)
変換部134は、画像記憶部122に記憶されている映像データを、推定部133によって推定された3次元位置を光軸が通過するように配置された場合における撮像装置C11〜C16により生成される映像データに変換する。図6〜図8の例の場合、変換部134は、パラメータ記憶部121に記憶されている各撮像装置のカメラパラメータと、受付部132によって受け付けられたフレーム上の2次元位置m4tと、推定部133によって推定された3次元位置D1´とを用いて、撮像装置C11〜C16に対応する射影変換行列H〜Hを算出する。そして、変換部134は、射影変換行列H〜Hを用いて、画像記憶部122に記憶されている映像データを変換し、変換後の映像データを画像記憶部122に格納する。
例えば、画像記憶部122に記憶されている映像データのうち、「変換後#1」に対応する映像データが端末装置10に配信されているものとする。また、推定部133によって推定された3次元位置D1´が図3Aに示した3次元位置D2であるものとする。この場合、変換部134は、時刻tに対応するフレームf(1,t)、f(2,t)、f(3,t)、f(4,t)、f(5,t)、f(6,t)を、図3Bに例示したフレームf(1,t)、f(2,t)、f(3,t)、f(4,t)、f(5,t)、f(6,t)に変換する。そして、変換部134は、「変換後#1」に対応する映像データを形成する全てのフレームについて同様の変換処理を行い、変換後の各フレームを画像記憶部122の「変換後#2」に格納する。
そして、出力部131は、変換部134によって変換された後の各フレームを端末装置10に配信する。例えば、出力部131は、変換前の映像データと同様の順にフレームが連続的に表示される映像データを生成し、生成した映像データを端末装置10に配信する。
〔4.画像処理手順〕
次に、図9を用いて、実施形態に係る画像処理装置100による画像処理の手順について説明する。図9は、実施形態に係る画像処理装置100による画像処理手順を示すフローチャートである。なお、以下では、画像記憶部122が、撮像装置C11〜C16によって生成された変換前の各フレームを記憶するとともに、変換部134によって変換された変換後#1の各フレームを記憶するものとする。
図9に示すように、画像処理装置100の出力部131は、端末装置10から映像データの取得要求を受信したか否かを判定する(ステップS101)。このとき、出力部131は、映像データの取得要求を受信していない場合には(ステップS101;No)、映像データの取得要求を受信するまで待機する。一方、出力部131は、映像データの取得要求を受信した場合には(ステップS101;Yes)、画像記憶部122に記憶されている変換後#1の映像データを端末装置10に配信する(ステップS102)。
続いて、画像処理装置100の受付部132は、配信済みの映像データに含まれる任意のフレームに対して、新たな回転中心を示す2次元位置の指定操作を端末装置10から受け付けたか否かを判定する(ステップS103)。このとき、受付部132は、2次元位置の指定操作を受け付けていない場合には(ステップS103;No)、かかる指定操作を受け付けるまで待機する。
一方、受付部132は、2次元位置の指定操作を受け付けた場合には(ステップS103;Yes)、受け付けた情報を推定部133に出力する。例えば、受付部132は、端末装置10から、ユーザ操作が行われたフレームを識別するための情報と、指定された2次元位置とを受け付け、受け付けた情報を推定部133に出力する。
続いて、推定部133は、受付部132によって受け付けられたフレームの情報、及び、新たな回転中心を示す2次元位置を用いて、かかる2次元位置に対応する撮像対象における3次元位置を推定する(ステップS104)。例えば、推定部133は、マルチベースラインステレオ法や三角測量などの技法を用いて、新たな回転中心となる3次元位置を推定する。
続いて、変換部134は、パラメータ記憶部121に記憶されている各撮像装置のカメラパラメータと、受付部132によって受け付けられた2次元位置と、推定部133によって推定された3次元位置とを用いて、撮像装置C11〜C16に対応する射影変換行列H〜Hを算出する(ステップS105)。そして、変換部134は、射影変換行列H〜Hを用いて、画像記憶部122に記憶されている映像データのうち、「変換後#1」に対応する映像データを変換する(ステップS106)。このとき、変換部134は、変換後の映像データを画像記憶部122の「変換後#2」に格納する。
そして、出力部131は、ステップS101において取得要求を送信した端末装置10に対して、変換部134によって変換された後の映像データを配信する(ステップS107)。
〔5.変形例〕
上述してきた実施形態に係る画像処理装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下に、上記の画像処理装置100の他の実施形態について説明する。
〔5−1.拡大操作/縮小操作〕
上記実施形態では、図6の例のように、任意のフレームに対して、新たな回転中心を示す2次元位置の指定操作を受け付ける例を示した。しかし、新たな回転中心を指定する操作は、上記例に限られない。例えば、端末装置10は、表示中の映像に対して拡大操作又は縮小操作を受け付けた場合に、拡大操作又は縮小操作の対象領域における中心位置(又は重心位置、以下同様)を、新たな回転中心を示す2次元位置として受け付けてもよい。
以下、図10を用いて、拡大操作の例を説明する。図10は、変形例に係る回転中心の指定操作例を示す図である。図10の例において、端末装置10は、フレームf(4,t)の表示中に、フレームf(4,t)内の領域R1を領域R2に拡大する操作を受け付ける。例えば、端末装置10は、ユーザから、2本の指により領域R1の対頂点を指定された後に、かかる2本の指を領域R2の対頂点まで広げるピンチアウト操作を受け付ける。この場合、端末装置10は、フレームf(4,t)を識別するための情報と、拡大操作の対象領域である領域R2の中心を示す2次元位置とを画像処理装置100に送信する。すなわち、図10の例の場合、画像処理装置100の受付部132は、拡大操作された領域R2の中心位置を新たな回転中心を示す2次元位置として受け付ける。
この後の画像処理装置100によるフレームの変換処理は、上述した実施形態と同様である。すなわち、推定部133は、領域R2の中心位置に対応する3次元位置を推定する。また、変換部134は、画像記憶部122の「変換後#1」に記憶されている全てのフレームを、領域R2の中心位置を回転中心とするフレームに変換する。例えば、領域R2の中心位置に対応する3次元位置が図3Aに示した3次元位置D2であるものとする。この場合、変換部134は、上記の通り、図2Bに示した時刻tに対応する各フレームについては図3Bに示した各フレームに変換する。また、変換部134は、時刻t以外の時刻に対応する全てのフレームについても、領域R2の中心位置を回転中心とするフレームに変換する。
そして、出力部131は、変換部134によって変換された後の各フレームによって形成される映像データを端末装置10に配信する。この場合、端末装置10は、画像処理装置100から配信された各フレームのうち、領域R2に対応する部分を画面全体に拡大表示する。ここで、図11に、実施形態に係る端末装置10によって表示される拡大画像の一例を示す。図11では、端末装置10が、時刻tに対応するフレームf(1,t)、f(2,t)、f(3,t)、f(4,t)、f(5,t)、f(6,t)を拡大表示する例を示す。図11に示すように、端末装置10は、図3Bの例のように変換されたフレームf(1,t)を拡大表示する場合、かかるフレームf(1,t)のうち領域R2に対応する領域f(1,t)´を表示する。同様に、端末装置10は、領域R2に対応するフレームf(2,t)の領域f(2,t)´を表示し、領域R2に対応するフレームf(6,t)の領域f(6,t)´を表示する。
このように、画像処理装置100は、拡大操作された領域R2の中心位置を新たな回転中心とする映像データを生成することで、ユーザが所望する注視点を表示させることができる。例えば、図10では、ユーザは、撮像装置C14によって生成されたフレームf(4,t)に対して、被写体Pの右手を拡大表示する操作を行っている。この例において回転中心を変更せずに、「変換後#1」における各フレームを領域R2で拡大表示すると、ユーザの注視点である被写体Pの右手が表示されない場合がある。
図2Bの例を用いて説明すると、フレームf(4,t)において被写体Pの右手が描出されている領域であっても、かかる領域に対応するフレームf(1,t)、f(2,t)、f(3,t)、f(5,t)、f(6,t)の領域には被写体Pの右手が描出されるとは限らない。しかし、実施形態に係る画像処理装置100は、図10に示した拡大操作を受け付けた場合に、図2Bに示した各フレームを図3Bに示した各フレームに変換する。このため、端末装置10は、図3Bに示した各フレームのうち、図10に示した領域R2に対応する領域を拡大表示することで、図11に示した例のように、ユーザの注視点である被写体Pの右手が描出されている映像を表示することができる。
なお、上記では、拡大操作された後の領域R2の中心位置を新たな回転中心とする例について説明した。しかし、画像処理装置100は、拡大操作される前の領域R1の中心位置を新たな回転中心としてもよい。
また、上記例では、拡大操作を主に説明したが、画像処理装置100は、縮小操作が行われた場合にも、縮小操作の対象領域における中心位置又は重心位置を新たな回転中心として各フレームの変換処理を行う。
〔5−2.回転中心の自動変更〕
また、上記実施形態では、ユーザ操作に従って映像の回転中心を変動させる例を示した。しかし、この例に限られず、画像処理装置100は、自動的に回転中心を変動させた映像を端末装置10に表示させてもよい。例えば、画像処理装置100は、画像記憶部122の「変換後#1」に記憶されている各フレームを解析することにより、フレームに描出されている複数の被写体を抽出する。そして、画像処理装置100は、抽出した被写体毎に、かかる被写体の領域を新たな回転中心としてフレームの変換処理を行い、回転中心が被写体毎に変動する映像データを端末装置10に配信する。
例えば、画像処理装置100は、各フレームに描出されている被写体として、人物X1及び人物X2を抽出したものとする。この場合、画像処理装置100は、人物X1を回転中心とする映像データY1を生成するとともに、人物X2を回転中心とする映像データY2を生成し、映像データY1及びY2を端末装置10に配信する。そして、画像処理装置100は、映像データY1の次に映像データY2を端末装置10に表示させる。このように、画像処理装置100は、回転中心を自動的に変動させてもよい。これにより、画像処理装置100は、魅力的な映像を表現することができる。
〔5−3.撮像装置の台数〕
上記実施形態では、複数台の撮像装置C11〜C16によって映像データが生成される例を示した。しかし、上述した映像データは、1台の撮像装置によって生成されてもよい。例えば、1台の撮像装置が被写体Pの周囲を移動しながら被写体Pを撮像することで、視点位置の異なる映像データを生成してもよい。そして、画像処理装置100は、このように1台の撮像装置によって生成された映像データに対して、上述してきた変換処理を行うことで、任意の位置を回転中心とする映像データを生成してもよい。
〔5−4.システム構成〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
例えば、上記実施形態では、回転中心が各フレームの中心に位置する例を示したが、回転中心は、各フレームの中心に位置しなくてもよい。また、回転中心となるフレームの位置は、撮像装置毎に異なる位置であってもよい。
また、例えば、図5等に示した各種情報は、図示した情報に限られない。また、例えば、図2A、図2B、図3A、図3B、図6、図7、図8、図10、図11等に示した被写体は、模式的に示した例であって、図示したものに限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
例えば、上記実施形態では、画像処理装置100がサーバ装置である例を示したが、画像処理装置100は、スタンドアロンで動作する情報処理装置であってもよい。かかる場合には、画像処理装置100は、ユーザから各種操作を受け付ける入力部や、各種情報を表示するための表示部を有する。また、例えば、上述した画像処理装置100による処理を端末装置10が行ってもよい。この場合、端末装置10は、図4に示した制御部130を有することとなる。このとき、端末装置10は、パラメータ記憶部121や画像記憶部122を有してもよいし、パラメータ記憶部121や画像記憶部122に記憶されている各種データについては画像処理装置100から適宜取得してもよい。
〔6.効果〕
上述してきたように、実施形態に係る画像処理装置100は、画像記憶部122と、変換部134と、出力部131とを有する。画像記憶部122は、異なる位置に配置された複数の撮像装置C11〜C16によって撮像対象(例えば、被写体P)が撮像されることで生成される各画像(例えば、映像データを形成するフレーム)を記憶する。変換部134は、画像記憶部122に記憶されている画像の各々を、動的に設定される撮像対象における位置を光軸が通過するように配置された場合における撮像装置により撮像される画像に変換する。出力部131は、変換部134によって変換された後の各画像を出力する。
これにより、実施形態に係る画像処理装置100は、撮像装置C11〜C16によって生成された各フレームから任意の位置を回転中心とするフレームを生成するので、回転中心を変動させながら何度も撮影することなく、任意の位置を回転中心とする映像を端末装置10に表示させることができる。
また、実施形態に係る画像処理装置100は、受付部132と、推定部133とを有する。受付部132は、画像記憶部122に記憶されている任意の画像内における位置を指定する操作を受け付ける。また、推定部133は、受付部132によって受け付けられた位置に対応する撮像対象の位置を推定する。そして、変換部134は、推定部133によって推定された位置を動的に設定される回転中心として変換処理を行う。
これにより、実施形態に係る画像処理装置100は、ユーザ操作に従って、映像の回転中心を変動させることができる。この結果、実施形態に係る画像処理装置100は、ユーザ満足度を向上させることができる。
また、実施形態に係る受付部132は、任意の画像内における領域を拡大する拡大操作を受け付ける。また、推定部133は、受付部132によって受け付けられた拡大操作の対象領域における中心位置に対応する撮像対象の位置を推定する。この場合、変換部134は、推定部133によって推定された位置を動的に設定される回転中心として変換処理を行う。
これにより、実施形態に係る画像処理装置100は、ユーザが拡大操作した領域を回転中心とする映像を端末装置10に表示させることができる。さらに、画像処理装置100は、拡大操作が行われた場合であっても、ユーザが所望する注視点を拡大後の映像に表示させることができる。
また、実施形態に係る受付部132は、任意の画像内における領域を縮小する縮小操作を受け付ける。また、推定部133は、受付部132によって受け付けられた縮小操作の対象領域における中心位置に対応する撮像対象の位置を推定する。この場合、変換部134は、推定部133によって推定された位置を動的に設定される回転中心として変換処理を行う。
これにより、実施形態に係る画像処理装置100は、ユーザが縮小操作した領域を回転中心とする映像を端末装置10に表示させることができる。
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
また、上述した画像処理装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティングなどで呼び出して実現するなど、構成は柔軟に変更できる。
また、特許請求の範囲に記載した「手段」は、「部(section、module、unit)」や「回路」などに読み替えることができる。例えば、変換手段は、変換部や変換回路に読み替えることができる。
1 画像処理システム
10 端末装置
100 画像処理装置
121 パラメータ記憶部
122 画像記憶部
131 出力部
132 受付部
133 推定部
134 変換部

Claims (7)

  1. 視点位置が異なる複数の画像を記憶する画像記憶手段と、
    前記画像記憶手段に記憶されている任意の画像内における2次元位置を受け付ける受付手段と、
    前記受付手段によって受け付けられた任意の画像内における2次元位置に基づいて、前記2次元位置に対応する撮像対象の3次元位置を推定する推定手段と、
    前記画像記憶手段に記憶されている画像の各々を、前記推定手段によって推定された3次元位置を光軸が通過するように配置された場合における撮像装置により撮像される画像に変換する変換手段と、
    前記変換手段によって変換された後の各画像を出力する出力手段と、
    を備えたことを特徴とする画像処理装置。
  2. 前記受付手段は、
    前記任意の画像内における領域を拡大する拡大操作を受け付け、
    前記推定手段は、
    前記受付手段によって受け付けられた拡大操作の対象領域における中心位置に対応する前記撮像対象の3次元位置を推定する、
    ことを特徴とする請求項に記載の画像処理装置。
  3. 前記受付手段は、
    前記任意の画像内における領域を縮小する縮小操作を受け付け、
    前記推定手段は、
    前記受付手段によって受け付けられた縮小操作の対象領域における中心位置に対応する前記撮像対象の3次元位置を推定する、
    ことを特徴とする請求項又はに記載の画像処理装置。
  4. 前記変換手段は、
    前記受付手段によって受け付けられた2次元位置と前記推定手段によって推定された3次元位置とに基づいて算出した射影変換行列を用いて変換処理を行う、
    ことを特徴とする請求項のいずれか一つに記載の画像処理装置。
  5. 前記推定手段は、
    前記画像記憶手段に記憶されている各画像に含まれる被写体毎に、当該被写体の領域に対応する3次元位置を推定し、
    前記変換手段は、
    前記被写体毎に、当該被写体の領域に対応する3次元位置に基づいて前記画像記憶手段に記憶されている画像の各々を変換する
    前記出力手段は、
    前記被写体毎に、前記変換手段によって変換された後の各画像を出力する、
    ことを特徴とする請求項1〜のいずれか一つに記載の画像処理装置。
  6. 画像処理装置が実行する画像処理方法であって、
    視点位置が異なる複数の画像を記憶する画像記憶手段に記憶されている任意の画像内における2次元位置を受け付ける受付工程と、
    前記受付工程によって受け付けられた任意の画像内における2次元位置に基づいて、前記2次元位置に対応する撮像対象の3次元位置を推定する推定工程と、
    前記画像記憶手段に記憶されている画像の各々を、前記推定工程によって推定された3次元位置を光軸が通過するように配置された場合における撮像装置により撮像される画像に変換する変換工程と、
    前記変換工程によって変換された後の各画像を出力する出力工程と、
    を含んだことを特徴とする画像処理方法。
  7. 視点位置が異なる複数の画像を記憶する画像記憶手段に記憶されている任意の画像内における2次元位置を受け付ける受付手順と、
    前記受付手順によって受け付けられた任意の画像内における2次元位置に基づいて、前記2次元位置に対応する撮像対象の3次元位置を推定する推定手順と、
    前記画像記憶手段に記憶されている画像の各々を、前記推定手順によって推定された3次元位置を光軸が通過するように配置された場合における撮像装置により撮像される画像に変換する変換手順と、
    前記変換手順によって変換された後の各画像を出力する出力手順と、
    をコンピュータに実行させることを特徴とする画像処理プログラム。
JP2013121942A 2013-06-10 2013-06-10 画像処理装置、画像処理方法及び画像処理プログラム Active JP5886242B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013121942A JP5886242B2 (ja) 2013-06-10 2013-06-10 画像処理装置、画像処理方法及び画像処理プログラム
US14/293,190 US9697581B2 (en) 2013-06-10 2014-06-02 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013121942A JP5886242B2 (ja) 2013-06-10 2013-06-10 画像処理装置、画像処理方法及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2014239384A JP2014239384A (ja) 2014-12-18
JP5886242B2 true JP5886242B2 (ja) 2016-03-16

Family

ID=52005096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013121942A Active JP5886242B2 (ja) 2013-06-10 2013-06-10 画像処理装置、画像処理方法及び画像処理プログラム

Country Status (2)

Country Link
US (1) US9697581B2 (ja)
JP (1) JP5886242B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6454238B2 (ja) * 2015-07-07 2019-01-16 日本電信電話株式会社 映像編集装置、映像編集方法及び映像編集プログラム
JP6702329B2 (ja) 2015-09-03 2020-06-03 ソニー株式会社 映像処理装置、映像処理方法、及び、プログラム
JP6339609B2 (ja) * 2016-02-23 2018-06-06 ヤフー株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP6166409B1 (ja) 2016-03-16 2017-07-19 ヤフー株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP6085390B1 (ja) 2016-06-20 2017-02-22 ヤフー株式会社 画像処理装置、画像処理方法及び画像処理プログラム
US11151804B2 (en) * 2016-09-14 2021-10-19 Sony Corporation Information processing device, information processing method, and program
KR102117686B1 (ko) * 2016-11-01 2020-06-01 주식회사 케이티 영상 제공 서버, 영상 제공 방법 및 사용자 단말
JP7006912B2 (ja) * 2017-09-25 2022-01-24 国立大学法人 筑波大学 画像処理装置、画像表示装置及び画像処理プログラム
JP7032179B2 (ja) * 2018-03-05 2022-03-08 ヤフー株式会社 画像処理装置、画像処理方法及び画像処理プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002043008A1 (en) * 2000-11-25 2002-05-30 Infinitt Co., Ltd. 3 dimensional slab rendering system, method and computer-readable medium
JP4439373B2 (ja) * 2004-10-15 2010-03-24 日本放送協会 多視点カメラ映像表現システム、装置及びプログラム
JP4137078B2 (ja) * 2005-04-01 2008-08-20 キヤノン株式会社 複合現実感情報生成装置および方法
JP2009258862A (ja) * 2008-04-14 2009-11-05 Toshiba Corp 映像表示装置及び映像表示方法
JP2010003251A (ja) * 2008-06-23 2010-01-07 Panasonic Corp 画像リサイズ処理装置及び画像リサイズ処理方法
JP2012244196A (ja) * 2011-05-13 2012-12-10 Sony Corp 画像処理装置及び方法
US8872898B2 (en) * 2011-12-14 2014-10-28 Ebay Inc. Mobile device capture and display of multiple-angle imagery of physical objects
JP5857712B2 (ja) * 2011-12-15 2016-02-10 富士通株式会社 ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム

Also Published As

Publication number Publication date
US9697581B2 (en) 2017-07-04
US20140362099A1 (en) 2014-12-11
JP2014239384A (ja) 2014-12-18

Similar Documents

Publication Publication Date Title
JP5886242B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP7002056B2 (ja) 三次元モデル生成装置及び三次元モデル生成方法
JP6167703B2 (ja) 表示制御装置、プログラム及び記録媒体
US10403001B2 (en) Producing three-dimensional representation based on images of an object
JP2011022796A (ja) 画像処理方法および画像処理装置
KR20140100656A (ko) 전방향 영상 및 3차원 데이터를 이용한 시점 영상 제공 장치 및 방법
JP2015201704A (ja) 画像処理装置、制御方法及びプログラム
JP6882868B2 (ja) 画像処理装置、画像処理方法、システム
US20150177062A1 (en) Information processing apparatus, information processing method, and storage medium
JP6594170B2 (ja) 画像処理装置、画像処理方法、画像投影システムおよびプログラム
JP6552256B2 (ja) 画像処理装置及び画像処理装置の制御方法
JP6405539B2 (ja) 多視点画像に対するラベル情報の処理装置及びそのラベル情報の処理方法
JP6625654B2 (ja) 投影装置、投影方法、および、プログラム
TW201633256A (zh) 擴增實境資訊處理方法、擴增實境處理模組、資料整合方法及資料整合模組
JP6443505B2 (ja) プログラム、表示制御装置及び表示制御方法
JP2009186369A (ja) 奥行き情報取得方法、奥行き情報取得装置、プログラムおよび記録媒体
JP2016042661A (ja) 情報処理装置、システム、情報処理方法及びプログラム
JP2020046744A (ja) 画像処理装置、背景画像の生成方法およびプログラム
JP6937722B2 (ja) 画像処理装置および画像処理方法
JP2014010806A (ja) 光源情報抽出装置、光源情報抽出方法、および光源情報抽出プログラム
US20240144530A1 (en) Method, program, and system for 3d scanning
JP2018041201A (ja) 表示制御プログラム、表示制御方法および情報処理装置
KR102151250B1 (ko) 객체 좌표를 도출하는 장치 및 방법
CN107516339B (zh) 一种信息处理方法及信息处理装置
JP6652911B2 (ja) 画像処理装置、画像処理方法、プログラム、及び画像処理システム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160210

R150 Certificate of patent or registration of utility model

Ref document number: 5886242

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250