JP2015149600A - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP2015149600A
JP2015149600A JP2014021283A JP2014021283A JP2015149600A JP 2015149600 A JP2015149600 A JP 2015149600A JP 2014021283 A JP2014021283 A JP 2014021283A JP 2014021283 A JP2014021283 A JP 2014021283A JP 2015149600 A JP2015149600 A JP 2015149600A
Authority
JP
Japan
Prior art keywords
image
captured
present
image processing
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014021283A
Other languages
English (en)
Inventor
尾崎 浩治
Koji Ozaki
浩治 尾崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014021283A priority Critical patent/JP2015149600A/ja
Priority to US14/607,281 priority patent/US9589317B2/en
Publication of JP2015149600A publication Critical patent/JP2015149600A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/12Panospheric to cylindrical image transformations

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Cameras In General (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Image Analysis (AREA)
  • Geometry (AREA)

Abstract

【課題】撮像範囲を全方位とする撮像デバイスにより撮像された複数の撮像画像が合成された画像を、より自然な画像とさせることが可能な、画像処理装置、画像処理方法、およびプログラムを提供する。【解決手段】少なくとも撮像範囲の一部が重複する複数の光学部を有し、撮像範囲を全方位とする撮像デバイスにより撮像された、複数の光学部それぞれに対応する複数の撮像画像が、撮像デバイスにおける基準位置から撮像された画像であるように、撮像画像に含まれるオブジェクトのうちの移動対象となる対象オブジェクトを移動させるための移動量を決定する、移動量決定部114を備え、撮像デバイスから対象オブジェクトまでの距離と、基準位置における基準線から対象オブジェクトまでの角度とに基づいて、移動量を決定する。【選択図】図27

Description

本開示は、画像処理装置、画像処理方法、およびプログラムに関する。
近年、複数の光学部を有し、撮像範囲を全方位とする撮像デバイス(以下、「全天球型の撮像デバイス」と示す場合がある。)が登場している。全天球型の撮像デバイスに係る技術としては、例えば下記の特許文献1に記載の技術が挙げられる。
特開2013−025255号公報
全天球型の撮像デバイスにおいて複数の光学部(例えば、レンズや受光素子で構成される。)により撮像された撮像画像を、全天球型ではない一般的な平面の表示画面に表示させる場合には、例えば、複数の撮像画像が合成された画像における所定の方位に対応する一部の領域が、表示画面に表示される。しかしながら、複数の撮像画像が合成される場合における境界部分である合成境界部分に含まれる、被写体に対応するオブジェクトの状態によっては、“合成された画像における合成境界部分において画像が不連続となる”などの、望ましくない事態が生じうる。
ここで、例えば特許文献1に記載の技術では、全天球型の撮像デバイスにおいて複数の光学部の撮像視点の距離を短縮しているので、上記のような合成境界部分において画像が不連続となる程度を緩和することができる可能性はある。しかしながら、例えば特許文献1に記載の技術を用いたとしても、全天球型の撮像デバイスにおいて複数の光学部の撮像視点の距離を、物理的に0(ゼロ)とすることはできないので、上記のような合成境界部分において画像が不連続となるという、望ましくない事態が生じうる。
本開示では、撮像範囲を全方位とする撮像デバイスにより撮像された複数の撮像画像が合成された画像を、より自然な画像とさせることが可能な、新規かつ改良された画像処理装置、画像処理方法、およびプログラムを提案する。
本開示によれば、少なくとも撮像範囲の一部が重複する複数の光学部を有し、撮像範囲を全方位とする撮像デバイスにより撮像された、複数の上記光学部それぞれに対応する複数の撮像画像が、上記撮像デバイスにおける基準位置から撮像された画像であるように、上記撮像画像に含まれるオブジェクトのうちの移動対象となる対象オブジェクトを移動させるための移動量を決定する、移動量決定部を備え、上記移動量決定部は、上記撮像デバイスから上記対象オブジェクトまでの距離と、上記基準位置における基準線から上記対象オブジェクトまでの角度とに基づいて、上記移動量を決定する、画像処理装置が提供される。
また、本開示によれば、少なくとも撮像範囲の一部が重複する複数の光学部を有し、撮像範囲を全方位とする撮像デバイスにより撮像された、複数の上記光学部それぞれに対応する複数の撮像画像が、上記撮像デバイスにおける基準位置から撮像された画像であるように、上記撮像画像に含まれるオブジェクトのうちの移動対象となる対象オブジェクトを移動させるための移動量を決定する、移動量決定ステップを有し、上記移動量決定ステップでは、上記撮像デバイスから上記対象オブジェクトまでの距離と、上記基準位置における基準線から上記対象オブジェクトまでの角度とに基づいて、上記移動量が決定される、画像処理装置により実行される画像処理方法が提供される。
また、本開示によれば、少なくとも撮像範囲の一部が重複する複数の光学部を有し、撮像範囲を全方位とする撮像デバイスにより撮像された、複数の上記光学部それぞれに対応する複数の撮像画像が、上記撮像デバイスにおける基準位置から撮像された画像であるように、上記撮像画像に含まれるオブジェクトのうちの移動対象となる対象オブジェクトを移動させるための移動量を決定する、移動量決定ステップ、をコンピュータに実行させ、上記移動量決定ステップでは、上記撮像デバイスから上記対象オブジェクトまでの距離と、上記基準位置における基準線から上記対象オブジェクトまでの角度とに基づいて、上記移動量が決定される、プログラムが提供される。
本開示によれば、撮像範囲を全方位とする撮像デバイスにより撮像された複数の撮像画像が合成された画像を、より自然な画像とさせることができる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握されうる他の効果が奏されてもよい。
本実施形態に係る全天球型の撮像デバイスの一例を示す説明図である。 本実施形態に係る全天球型の撮像デバイスによる撮像の状況の一例を示す説明図である。 本実施形態に係る全天球型の撮像デバイスにより撮像された撮像画像の一例を示す説明図である。 本実施形態に係る画像処理方法を説明するための説明図である。 本実施形態に係る画像処理方法を説明するための説明図である。 本実施形態に係る画像処理方法を説明するための説明図である。 本実施形態に係る画像処理方法を説明するための説明図である。 本実施形態に係る画像処理方法を説明するための説明図である。 本実施形態に係る画像処理方法を説明するための説明図である。 本実施形態に係る画像処理方法を説明するための説明図である。 本実施形態に係る画像処理方法を説明するための説明図である。 本実施形態に係る画像処理方法を説明するための説明図である。 本実施形態に係る画像処理方法を説明するための説明図である。 本実施形態に係る画像処理方法を説明するための説明図である。 本実施形態に係る画像処理方法を説明するための説明図である。 本実施形態に係る画像処理方法を説明するための説明図である。 本実施形態に係る画像処理方法に係る処理の第1の例を説明するための流れ図である。 本実施形態に係る画像処理方法に係る処理の第1の例を説明するための流れ図である。 本実施形態に係る画像処理方法に係る処理の一例を説明するための流れ図である。 本実施形態に係る画像処理方法に係る処理の一例を説明するための説明図である。 本実施形態に係る画像処理方法に係る処理の一例を説明するための説明図である。 本実施形態に係る画像処理方法に係る処理の第2の例を説明するための流れ図である。 本実施形態に係る画像処理方法に係る処理の第2の例を説明するための流れ図である。 本実施形態に係る画像処理方法に係る処理の第3の例を説明するための流れ図である。 本実施形態に係る画像処理方法に係る処理の第4の例を説明するための流れ図である。 本実施形態に係る画像処理方法に係る処理の第5の例を説明するための流れ図である。 本実施形態に係る画像処理装置の構成の一例を示すブロック図である。 本実施形態に係る画像処理装置のハードウェア構成の一例を示す説明図である。 本実施形態に係る画像処理装置のハードウェア構成の一例を示す説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、以下では、下記に示す順序で説明を行う。
1.本実施形態に係る画像処理方法
2.本実施形態に係る画像処理装置
3.本実施形態に係るプログラム
(本実施形態に係る画像処理方法)
本実施形態に係る画像処理装置の構成について説明する前に、まず、本実施形態に係る画像処理方法について説明する。以下では、本実施形態に係る画像処理方法に係る処理を、本実施形態に係る画像処理装置が行う場合を例に挙げて、本実施形態に係る画像処理方法について説明する。
[1]全天球型の撮像デバイスの一例と、全天球型の撮像デバイスにより撮像される撮像画像の一例
まず、本実施形態に係る画像処理装置が処理対象とする撮像画像の一例と、当該撮像画像を撮像する全天球型の撮像デバイスの一例とについて説明する。
図1は、本実施形態に係る全天球型の撮像デバイスの一例を示す説明図である。図1のAは、棒状の筐体の両面にレンズL1、L2が配置されている全天球型の撮像デバイスの一例を示しており、図1のBは、球状の筐体内部にレンズL1、L2が配置されている全天球型の撮像デバイスの一例を示している。
図1に示す全天球型の撮像デバイスは、例えば、レンズL1、L2を介して受光された光を電気信号に変換する受光素子(図示せず)をさらに備える。受光素子(図示せず)は、いわゆるイメージセンサの役目を果たす。なお、受光素子(図示せず)は、レンズL1、L2ごとに設けられていてもよいし、レンズL1、L2共有のものであってもよい。図1に示す全天球型の撮像デバイスでは、例えば、レンズと受光素子(図示せず)とが、光学部に該当する。すなわち、図1は、2つの光学部を備える全天球型の撮像デバイスの一例を示している。なお、本実施形態に係る全天球型の撮像デバイスが備える光学部は、2つに限られず、本実施形態に係る全天球型の撮像デバイスは、3以上の光学部を備えていてもよい。つまり、本実施形態に係る全天球型の撮像デバイスは、複数の光学部を備える構成をとる。
以下では、本実施形態に係る全天球型の撮像デバイスが、図1のBに示す球状の撮像デバイスである場合を例に挙げる。
図2は、本実施形態に係る全天球型の撮像デバイスによる撮像の状況の一例を示す説明図である。図2に示す“視野角1”は、レンズL1を含む光学部における撮像範囲を示しており、図2に示す“視野角2”は、レンズL2を含む光学部における撮像範囲を示している。図2に示すように、レンズL1を含む光学部における撮像範囲と、レンズL2を含む光学部における撮像範囲とには、重複する撮像範囲が存在する。
また、図2では、撮像範囲内に、オブジェクトO1、オブジェクトO2、およびオブジェクトO3という3つのオブジェクトが、被写体として存在する例を示している。図2では、全天球型の撮像デバイスにおける重複する撮像範囲内において、全天球型の撮像デバイスにより近い位置にオブジェクトO1が存在し、全天球型の撮像デバイスにより遠い位置にオブジェクトO2およびオブジェクトO3が存在している例を示している。ここで、本実施形態に係るオブジェクトとしては、例えば、人間や動物などの生体や、建物や乗り物などのモノなど、任意の物体が挙げられる。
以下では、図2においてオブジェクトO2およびオブジェクトO3が存在する全天球型の撮像デバイスにより遠い位置を「遠点」と示し、また、図2においてオブジェクトO1が存在する天球型の撮像デバイスにより近い位置を「近点」と示す場合がある。
図3は、本実施形態に係る全天球型の撮像デバイスにより撮像された撮像画像の一例を示す説明図である。
図3のAは、図2に示す状況においてレンズL1を含む光学部により撮像された撮像画像の一例を示しており、撮像画像のうち、図2に示す重複する撮像範囲に対応する方位に対応する撮像画像を示している。また、図3のBは、図2に示す状況においてレンズL2を含む光学部により撮像された撮像画像の一例を示しており、撮像画像のうち、図2に示す重複する撮像範囲に対応する方位に対応する撮像画像を示している。
また、図3に示すCは、図3のAに示す撮像画像と、図3のBに示す撮像画像とが合成された画像の一例を示しており、図2における遠点を基準として合成された画像の一例を示している。図3に示すCは、遠点を基準として各撮像画像から画像を切り出し、切り出した画像を結合することにより合成された画像を示している。例えば、図3に示すように、全天球型の撮像デバイスにおいて撮像された複数の撮像画像を合成する場合には、全天球型の撮像デバイスにおける重複する撮像範囲に対応する撮像画像に、合成境界部分が含まれる。
図3のA、図3のBに示すように、全天球型の撮像デバイスにおける重複する撮像範囲に対応する撮像画像(合成境界部分を含む撮像画像)では、レンズL1とレンズL2とで同じオブジェクトを撮像しているにも関わらず、異なる画像となる。そのため、図3のAに示す撮像画像と、図3のBに示す撮像画像とを、単に遠点基準で合成すると、図3のCに示すように、近点に存在するオブジェクトO1が、合成された画像から消えてしまう。
なお、図3の例では、オブジェクトO2のサイズが小さいために、近点に存在するオブジェクトO1が、合成された画像から消えているが、近点に存在するオブジェクトO1のサイズがよい大きな物体である場合には、オブジェクトO1の一部が消え、合成された画像が不連続な画像となる。また、図3に示すような、一部のオブジェクトが合成された画像から消える現象や、合成された画像が不連続となる現象は、図1のBに示す球状の撮像デバイスにより撮像された撮像画像を処理する場合に限られず、図1のAに示す棒状の撮像デバイスなど、任意の形状の全天球型の撮像デバイスにより撮像された撮像画像を処理する場合に生じうる。
[2]本実施形態に係る画像処理方法に係る処理の概要
例えば図3に示すような一部のオブジェクトが合成された画像から消える現象や、合成された画像が不連続となる現象が生じることを防止する一の方法としては、例えば、“全天球型の撮像デバイスにより撮像された複数の撮像画像が、撮像デバイスにおける基準位置から撮像された画像であるように、撮像画像に含まれるオブジェクトのうちの移動対象となるオブジェクトを、移動させる方法”が挙げられる。以下では、撮像画像に含まれるオブジェクトのうちの移動対象となるオブジェクトを、「対象オブジェクト」と示す場合がある。
ここで、本実施形態に係る基準位置としては、例えば、“図1のBに示す球状の撮像デバイスにおける中心位置”や、“光学部を構成するレンズの中心位置を結ぶ線分の中点の位置(光学部が2つの場合の基準位置の一例)”、“光学部を構成するレンズの中心位置を頂点とする多角形内の任意の位置(光学部が3つ以上の場合の基準位置の一例)”、“光学部を構成するレンズの中心位置を頂点とする錐体内の任意の位置(光学部が4つ以上の場合の基準位置の一例)”などが挙げられる。本実施形態に係る基準位置は、予め設定された固定の位置であってもよいし、ユーザ操作などにより変更可能な可変の位置であってもよい。
以下では、“撮像デバイスにより撮像された複数の撮像画像が、基準位置から撮像された画像であるように、対象オブジェクトを移動させること”を、「視点移動」と示す場合がある。また、以下では、例えば、撮像デバイスにおけるX位置から撮像が行われること、または、撮像デバイスにおけるX位置から撮像が行われることを想定することを、「X視点」と示す場合がある。本実施形態に係る視点としては、例えば、球状の撮像デバイスの中心位置から撮像が行われる場合に相当する“中心視点”や、光学部を構成するレンズの所定の位置から撮像が行われる場合に相当する“レンズ視点”が挙げられる。
図4は、本実施形態に係る画像処理方法を説明するための説明図である。
図4のAは、図3のAと同様に、図2に示す状況においてレンズL1を含む光学部により撮像された撮像画像の一例を示している。また、図4のBは、図3のBと同様に、図2に示す状況においてレンズL2を含む光学部により撮像された撮像画像の一例を示している。
また、図4のCは、図4のAに示す撮像画像に対して、視点移動が行われた場合の撮像画像の一例を示し、図4のDは、図4のBに示す撮像画像に対して、視点移動が行われた場合の撮像画像の一例を示している。図4のC、Dは、基準位置が“光学部を構成するレンズL1、L2の中心位置を結ぶ線分の中点の位置”となるように視点移動が行われた場合を示しており、図4のC、Dに示す例では、オブジェクトO1が、対象オブジェクトとして撮像画像における中心に向かって移動している。
ここで、本実施形態に係る対象オブジェクトの移動とは、例えば、“撮像画像から対象オブジェクト部分を切り出し、切り出した対象オブジェクト部分を移動先の位置に合成し、他の光学部により撮像された撮像画像によって、切り出された部分を補間すること”をいう。なお、本実施形態に係る対象オブジェクトの移動は、上記に限られず、本実施形態に係る対象オブジェクトの移動には、上記“他の光学部により撮像された撮像画像によって、切り出された部分を補間すること”が含まれていなくてもよい。
また、図4のEは、図4のCに示す撮像画像と、図4のDに示す撮像画像とが合成された画像の一例を示しており、図4のCに示す撮像画像と図4のDに示す撮像画像とから切り出した画像を結合することにより合成された画像を示している。
例えば図4のC、Dに示すように、視点移動により対象オブジェクトを移動させた上で、合成を行えば、図4のEに示すように、例えば、オブジェクトが消えることや、合成された画像が不連続となることが生じない、基準位置から撮像された場合におけるより自然な画像を得ることが可能となる。
よって、上記“全天球型の撮像デバイスにより撮像された複数の撮像画像が、撮像デバイスにおける基準位置から撮像された画像であるように、対象オブジェクトを移動させる方法”が用いられることによって、撮像範囲を全方位とする撮像デバイスにより撮像された複数の撮像画像が合成された画像を、より自然な画像とさせることができる。
図5は、本実施形態に係る画像処理方法を説明するための説明図であり、全天球型の撮像デバイスにおいて視点移動を行う場合の比較例として、立体画像(3D画像)を撮像する撮像デバイスにおいて視点移動を行う場合の一例を示している。図5に示す“V1”、“V2”は、立体画像を構成する左目用の画像の生成に係る視点位置と、立体画像を構成する右目用の画像の生成に係る視点位置とを示している。また、図5に示す“V3”は、新たに生成する視点位置を示しており、図5に示す“V1”および“V2”の中間位置、すなわち、中間視点を生成する場合の視点位置を示している。
立体画像を撮像する撮像デバイスによる撮像において視点移動を行う場合において、図5の“V3”に示すような中間視点を作るときには、中間点となるように対象オブジェクトを移動させればよい。よって、立体画像を撮像する撮像デバイスにおいて視点移動を行う場合には、仮に、視点位置から被写体に対応するオブジェクトO2やオブジェクトO3までの距離が同じであれば、“V1”に対応する対象オブジェクトの移動量と、“V2”に対応する対象オブジェクトの移動量とは、同一となる。
図6は、本実施形態に係る画像処理方法を説明するための説明図である。図6は、“球状の撮像デバイスの表面からの距離”、“図1のBに示す球状の撮像デバイスの中心位置(基準位置の一例)におけるオブジェクトOまでの角度”、および“光学部を構成するレンズの中心位置(光学部に対応する位置の一例)におけるオブジェクトOまでの角度”の関係の一例を示している。
ここで、本実施形態に係る“球状の撮像デバイスの表面からの距離”とは、例えば、球状の撮像デバイスにおける所定の位置と、オブジェクトにおける所定の位置とを結んだ線分のうち、球状の撮像デバイスの表面とオブジェクト表面との間の距離をいう。本実施形態に係る球状の撮像デバイスにおける所定の位置としては、例えば、球状の撮像デバイスの中心位置や、光学部を構成するレンズに対応する位置が挙げられる。また、本実施形態に係るオブジェクトにおける所定の位置としては、例えば、オブジェクトの中心位置や、オブジェクトの重心位置が挙げられる。
図6では、球状の撮像デバイスにおける中心位置と、オブジェクトにおける中心位置とを結んだ線分のうちの、球状の撮像デバイスの表面とオブジェクト表面との間の距離を、「球状の撮像デバイスの表面からの距離」としている。
また、図6では、“球状の撮像デバイスの中心位置におけるオブジェクトOまでの角度”を「球の中心からの角度」と示し、“光学部を構成するレンズの中心位置におけるオブジェクトOまでの角度”を「撮像視点角度」と示している。図6のAに示すように、図6に示す“球の中心からの角度”とは、撮像デバイスの中心位置からレンズの中心位置方向と、撮像デバイスの中心位置からオブジェクトO方向とがなす角度である。また、図6のAに示すように、図6に示す“撮像視点角度”とは、撮像デバイスの中心位置からレンズの中心位置方向と、レンズの中心位置からオブジェクトO方向とがなす角度である。
図6のBに示すように、レンズ中心位置から離れる、球状の撮像デバイスの表面に近いオブジェクト程、“球の中心からの角度”と“撮像視点角度”との相違が大きくなる。
図7は、本実施形態に係る画像処理方法を説明するための説明図である。図7は、図6のAに示す状況において、球状の撮像デバイスの中心位置とオブジェクトOとの距離が一定である場合における、“球の中心からの角度”と“撮像視点角度”との関係の一例を示している。ここで、図7に示すAは、“球の中心からの角度”と“撮像視点角度”との関係の一例を示している。また、図7に示すBは、“球の中心からの角度”と“撮像視点角度”とが0度近辺の比である場合の“球の中心からの角度”と“撮像視点角度”との関係を示しており、“球の中心からの角度”と“撮像視点角度”との関係は、直線で表される。
図7のAに示すように、“球の中心からの角度”と“撮像視点角度”とが大きくなるにしたがって、“球の中心からの角度”と“撮像視点角度”との関係は0度近辺との差が大きくなる。そのため、“球の中心からの角度”と“撮像視点角度”とが大きくなるにしたがって、“球の中心からの角度”と“撮像視点角度”との関係は、図7のBに示す直線からずれていく。つまり、図7より、図6のAに示す状況において、球状の撮像デバイスの中心位置とオブジェクトOとの距離が一定であっても、“球の中心からの角度”に応じて対象オブジェクトを移動させる移動量は異なることが分かる。
よって、上記“全天球型の撮像デバイスにより撮像された複数の撮像画像が、撮像デバイスにおける基準位置から撮像された画像であるように、対象オブジェクトを移動させる方法”により、合成された画像をより自然な画像とさせる場合には、図5を参照して説明した“立体画像を撮像する撮像デバイスによる撮像において視点移動”とは異なる移動量で、対象オブジェクトを移動させる必要がある。
そこで、本実施形態に係る画像処理装置は、本実施形態に係る画像処理方法に係る処理として、例えば、本実施形態に係る全天球型の撮像デバイスにより撮像された、複数の光学部それぞれに対応する複数の撮像画像が、撮像デバイスにおける基準位置から撮像された画像であるように、対象オブジェクトを移動させるための移動量を決定する。以下では、本実施形態に係る対象オブジェクトを移動させるための移動量を決定する処理を、「移動量決定処理」と示す。
本実施形態に係る画像処理装置が移動量決定処理により決定した移動量に基づき撮像画像に含まれる対象オブジェクトが移動された、複数の撮像画像が合成されることによって、本実施形態に係る全天球型の撮像デバイス(撮像範囲を全方位とする撮像デバイス)により撮像された複数の撮像画像が合成された画像を、より自然な画像とさせることが可能となる。また、より自然な画像である合成された画像から、設定された方位に対応する画像が生成されることによって、生成された画像をより自然な画像とさせることが可能となる。以下では、合成された画像から生成される設定された方位に対応する画像を、「視点画像」と示す。
ここで、本実施形態に係る“決定された移動量に基づき撮像画像に含まれる対象オブジェクトを移動させる処理”(以下、「移動処理」と示す。)は、例えば、本実施形態に係る画像処理装置が行うことが可能である。つまり、本実施形態に画像処理方法に係る処理には、移動処理が含まれていてもよい。なお、本実施形態に係る移動処理は、例えば、本実施形態に係る画像処理装置の外部装置において行われてもよい。
また、本実施形態に係る“対象オブジェクトが移動された複数の撮像画像を合成する処理”には、例えば、球面投影を行う球面投影処理が含まれる。以下では、本実施形態に係る“対象オブジェクトが移動された複数の撮像画像を合成する処理”を「球面投影処理」と示す。本実施形態に係る球面投影処理は、例えば本実施形態に係る画像処理装置により行われる。つまり、本実施形態に画像処理方法に係る処理には、球面投影処理が含まれていてもよい。なお、本実施形態に係る球面投影処理は、例えば、本実施形態に係る画像処理装置の外部装置において行われてもよい。
また、本実施形態に係る“視点画像を生成する処理”(以下、「視点画像生成処理」と示す。)は、例えば、本実施形態に係る画像処理装置が行うことが可能である。つまり、本実施形態に画像処理方法に係る処理には、視点画像生成処理が含まれていてもよい。なお、本実施形態に係る視点画像生成処理は、例えば、本実施形態に係る画像処理装置の外部装置において行われてもよい。
以下、本実施形態に係る画像処理方法に係る処理についてより具体的に説明する。以下では、本実施形態に係る画像処理装置が、本実施形態に係る画像処理方法に係る処理として、移動量決定処理、移動処理、球面投影処理、および視点画像生成処理を行う場合を主に例に挙げて、本実施形態に係る画像処理方法に係る処理の一例について説明する。
[3]本実施形態に係る画像処理方法に係る処理の一例
[3−1]本実施形態に係る画像処理方法に係る処理により実現される視点移動について
本実施形態に係る画像処理方法に係る処理の具体例について説明する前に、本実施形態に係る画像処理方法に係る処理により実現される視点移動について説明する。
図8は、本実施形態に係る画像処理方法を説明するための説明図であり、図2と同様の状況における、球状の撮像デバイスの表面からの距離に応じた撮像範囲の一例を示している。
図8を参照すると、レンズL2に対応する位置を基準とした場合の撮像範囲は、当該位置からオブジェクトまでの距離によって一定である。これに対して、球状の撮像デバイスの中心位置を基準位置とした場合の撮像範囲は、当該位置からオブジェクトまでの距離が近い程狭く、遠くなるにしたがって大きくなる。
つまり、例えば、レンズL1を含む光学部と、レンズL2を含む光学部との2つの光学部により撮像が行われる場合には、撮像範囲が重複する部分は、球状の撮像デバイスの中心位置(基準位置の一例)からオブジェクトまでの距離が遠い程大きくなり、当該距離が近い程小さくなる。
また、図8を参照すると、レンズL2に対応する位置を基準とした場合と、球状の撮像デバイスの中心位置を基準位置とした場合とでは、遠点と近点との位置関係もずれてしまうことが分かる。具体例を挙げると、図8に示す例では、レンズL2に対応する位置を基準とした視点では、オブジェクトO1とオブジェクトO2とが同一の方向に見えるが、球状の撮像デバイスの中心位置を基準位置とした視点では、オブジェクトO1とオブジェクトO3とが同一の方向に見えることとなる。
なお、本実施形態に係る球状の撮像デバイスは、例えば、球の表面部分から焦点を合わせることが可能な光学部を備えることによって、図8に示すオブジェクトO1のように筐体の表面付近に存在するオブジェクトを、被写体として撮像することが可能である。本実施形態に係る球状の撮像デバイスが、筐体の表面付近に存在するオブジェクトを被写体として撮像することが可能であることによって、例えば、被写体に撮像デバイスを意識させず、また、本実施形態に係る球状の撮像デバイスを用いるユーザに、撮像デバイスの向きを気にさせずに、本実施形態に係る球状の撮像デバイスを被写体の至近距離まで近づけることができる。
図9は、本実施形態に係る画像処理方法を説明するための説明図であり、レンズL1を含む光学部と、レンズL2を含む光学部との2つの光学部を有する球状の撮像デバイス(図9に示すA)における、撮像範囲の重複部分を中心視点で示している。なお、図9に示す“r1”、“r2”、および“r3”において撮像された場合の撮像画像における領域は、後述する図10、図11、図13、図21に示す領域“R1”、“R2”、および“R3”
にそれぞれ対応する。
図9に示すように、球状の撮像デバイスの表面からオブジェクトまでの距離が遠くなればなる程、レンズL1を含む光学部と、レンズL2を含む光学部とにおける撮像範囲の重複部分は、多くなる。
図10は、本実施形態に係る画像処理方法を説明するための説明図であり、オブジェクトの移動の一例を示している。図10は、レンズL1を含む光学部と、レンズL2を含む光学部との2つの光学部を有する球状の撮像デバイスにより撮像された2つの撮像画像により、全方位が撮像範囲となる場合における、オブジェクトの移動の一例を示している。
図10のA1は、一方の光学部を構成するレンズの中心など基準位置から近い(近点)部分において撮像される撮像画像のイメージ図であり、図10のB1は、一方の光学部を構成するレンズの中心など基準位置から遠い(遠点)部分において撮像される撮像画像のイメージ図である。また、図10のA2、B2は、図10のA1に示す撮像画像を、図10のB1に示す撮像画像に合わせて移動させる場合の画像の一例を示している。
図10に示す“R1”は、図9に示す“r1”において撮像された場合の撮像画像における領域に対応し、図10に示す“R2”は、図9に示す“r2”において撮像された場合の撮像画像における領域に対応する。また、図10に示す“R3”は、図9に示す“r3”において撮像された場合の撮像画像における領域に対応する。
図10の“R2”および図9の“r2”に示すように、図10の“R2”に示す領域は、遠点においても重複して撮像されない撮像範囲に対応する領域を示しており、当該領域については、レンズの中心など基準位置から近い(近点)部分により撮像された撮像画像の領域と、レンズの中心など基準位置から遠い(遠点)部分により撮像された撮像画像の領域とを判別することが困難である。よって、図10のA2、図10のB2に示すように、図10の“R2”に示す領域については、そのままの状態とされる。
なお、図10の“R2”に示す領域については、レンズの中心など基準位置から近い(近点)部分により撮像された撮像画像の領域と、レンズの中心軸と撮像素子の交点に近い部分の被写体(撮像画像の中心に写る)が撮像された撮像画像の領域との位置関係を維持したまま拡大または縮小してもよい。例えば図10のR2における破線は、縮小を行う場合の一例を示している。
図10のR2において破線で示すように、縮小が行われた場合には、擬似的に視点が遠くになるような効果を有するが、前後関係が変わらないため、あくまで擬似的なものとなる。擬似的な場合であっても、レンズの中心など基準位置から遠い(遠点)部分では視差が小さいため、画像を見たユーザが違和感を覚える可能性は低い。
また、図10の“R2”に示す領域以外の重複部分については、例えば、レンズの中心など基準位置から近い(近点)部分において撮像される撮像画像を、レンズの中心など基準位置から遠い(遠点)部分において撮像される撮像画像に合わせて、球状の撮像デバイスの中心位置(基準位置の一例)方向に移動させる。
元々、レンズの中心など基準位置から近い(近点)部分では、半球より大きな範囲で撮像されないと球状の撮像デバイスの中心位置からみた半球が撮像できないので、図10のA1では、“R1”に示す領域が、図10のB1に示す“R1”に示す領域よりも大きくなっている。そのため、図10の例では、図10のA2に示すように、レンズの中心など基準位置から近い(近点)部分において撮像される撮像画像における“R1”に示す領域を、球状の撮像デバイスの中心位置方向に移動させている。なお、レンズの中心など基準位置から近い(近点)部分において撮像される撮像画像における移動に伴い、隠蔽されていた不足部分が、レンズの中心など基準位置から遠い(遠点)部分において撮像される撮像画像において発生するが、当該不足部分は、他方の光学部を構成するレンズにおいて重複して撮像されているので、補間することが可能である。
また、レンズの中心など基準位置から遠い(遠点)部分において撮像される撮像画像については、図10の“R3”に示す領域のように、重複して撮像される部分が存在する。よって、重複して撮像される部分である図10の“R3”に示す領域は、他方の光学部を構成するレンズにおいて撮像された撮像画像における補間に用いられた後に、図10のB2に示すように削除される。
図11は、本実施形態に係る画像処理方法を説明するための説明図であり、オブジェクトの移動の他の例を示している。図11は、図10と同様に、レンズL1を含む光学部と、レンズL2を含む光学部との2つの光学部を有する球状の撮像デバイスにより撮像された2つの撮像画像により、全方位が撮像範囲となる場合における、オブジェクトの移動の一例を示している。
図11のA1は、一方の光学部を構成するレンズの中心など基準位置から近い(近点)部分において撮像される撮像画像のイメージ図であり、図11のB1は、一方の光学部を構成するレンズの中心など基準位置から遠い(遠点)部分において撮像される撮像画像のイメージ図である。また、図11のA2、B2は、図11のB1に示す撮像画像を、図11のA1に示す撮像画像に合わせて移動させる場合の画像の一例を示しており、図11のA3、B3は、図11のB1に示す撮像画像を、図11のA1に示す撮像画像に合わせて移動させる場合の画像の他の例を示している。
図11に示す“R1”は、図9に示す“r1”において撮像された場合の撮像画像における領域に対応し、図11に示す“R2”は、図9に示す“r2”において撮像された場合の撮像画像における領域に対応する。また、図11に示す“R3”は、図9に示す“r3”において撮像された場合の撮像画像における領域に対応する。
図11の“R2”および図9の“r2”に示すように、図11の“R2”に示す領域は、重複して撮像されない撮像範囲に対応する領域を示しており、当該領域については、レンズの中心など基準位置から近い(近点)部分により撮像された撮像画像の領域と、レンズの中心など基準位置から遠い(遠点)部分により撮像された撮像画像の領域とを判別することが困難である。よって、図11のA2、図11のB2に示すように、図10の“R2”に示す領域については、そのままの状態とされる。
なお、図11の“R2”に示す領域については、レンズの中心など基準位置から近い(近点)部分により撮像された撮像画像の領域と、レンズの中心軸と撮像素子の交点に近い部分の被写体(撮像画像の中心に写る)が撮像された撮像画像の領域との位置関係を維持したまま拡大または縮小してもよい。例えば図11のA3、図11のB3の“R2”における破線は、縮小を行う場合の一例を示している。
図11のA3、図11のB3の“R2”において破線で示すように、縮小が行われた場合には、擬似的に視点が遠くになるような効果を有するが、前後関係が変わらないため、あくまで擬似的なものとなる。擬似的な場合であっても、レンズの中心など基準位置から遠い(遠点)部分では視差が小さいため、画像を見たユーザが違和感を覚える可能性は低い。
図11の例では、図11のA2、B2に示すように、レンズの中心など基準位置から近い(近点)部分において撮像される撮像画像における“R1”に示す領域について、レンズの中心など基準位置から遠い(遠点)部分により撮像された撮像画像を、レンズの中心など基準位置から近い(近点)部分を基準として円周方向に移動させている。また、上記移動に際して、レンズの中心など基準位置から遠い(遠点)部分により撮像された撮像画像では、不足部分が存在することとなるが、他方の光学部を構成するレンズにおいて重複して撮像されているので、当該不足部分を補間することが可能である。
また、レンズの中心など基準位置から遠い(遠点)部分において撮像される撮像画像については、図11の“R3”に示す領域のように、重複して撮像される部分が存在する。よって、重複して撮像される部分である図11の“R3”に示す領域は、他方の光学部を構成するレンズにおいて撮像された撮像画像における補間に用いられた後に、図11のB2に示すように削除される。
また、例えば図11のA3、図11のB3に示すように、図11のA2に示すレンズの中心など基準位置から近い(近点)部分に対応する画像と、図11のB2に示すレンズの中心など基準位置から遠い(遠点)部分に対応する画像との双方を移動させることも可能である。図11のA3、および図11のB3に示す例では、図11のA2に示す画像、および図11のB2に示す画像を、半球に収まるように移動された例を示している。
本実施形態に係る画像処理方法に係る処理により、例えば、図10や図11に示すような移動が行われることによって、視点移動を実現することができる。
図12は、本実施形態に係る画像処理方法を説明するための説明図であり、視点移動の一例を示している。図12は、レンズL1を含む光学部と、レンズL2を含む光学部との2つの光学部を有する球状の撮像デバイスにより撮像された2つの撮像画像に基づく、視点移動の一例を示している。
本実施形態に係る視点移動は、図12のBにおいて実線で示すように行われてもよいし、図12のBにおいて破線で示すように、傾きが連続となるように行われてもよい。
図13は、本実施形態に係る画像処理方法を説明するための説明図であり、視点移動の他の例を示している。図13は、光学部を構成するレンズにおける位置を中心とした視点での視点移動の一例を示している。
図13に示す“R1”は、図9に示す“r1”において撮像された場合の撮像画像における領域に対応し、図13に示す“R2”は、図9に示す“r2”において撮像された場合の撮像画像における領域に対応する。また、図13に示す“R3”は、図9に示す“r3”において撮像された場合の撮像画像における領域に対応する。
図13の“R2”および図9の“r2”に示すように、図13の“R2”に示す領域は、重複して撮像されない撮像範囲に対応する領域を示しており、図13では、一方の光学部を構成するレンズL1単独の撮像範囲に対応する領域に該当する。よって、図13に示すように、一方の光学部を構成するレンズL1単独の撮像範囲では、視点移動が行われず、図13の“R1”、“R3”に示す、他方の光学部を構成するレンズL2の撮像範囲と重複する撮像範囲に該当する部分において、視点移動が行われる。
なお、図13では、一方の光学部を構成するレンズL1に着目しているが、他方の光学部を構成するレンズL2に着目した場合についても、同様である。
本実施形態に係る画像処理方法に係る処理が行われる場合には、例えば図12や図13に示すように、複数の光学部において重複して撮像される撮像範囲において、視点移動を行うことが可能である。
なお、上記では、例えば図1などに示すように、本実施形態に係る画像処理方法に係る処理が、レンズL1を含む光学部とレンズL2を含む光学部との2つの光学部により撮像された2つの撮像画像を処理する例について説明したが、本実施形態に係る画像処理方法において処理対象となる撮像画像は、上記に限られない。
図14は、本実施形態に係る画像処理方法を説明するための説明図であり、全方位(撮像範囲の全体)を複数の光学部の撮像範囲により重複させる場合の第1の例を示している。図14のAは、本実施形態に係る全天球型の撮像デバイスが、それぞれの撮像範囲が240[度]であり、レンズをそれぞれ含む3つの光学部で撮像を行うことによって、全方位を複数の光学部の撮像範囲により重複させている例を示している。
全方位を複数の光学部の撮像範囲により重複させる場合には、本実施形態に係る全天球型の撮像デバイスは、例えば図14のAに示すように、少なくとも3以上の光学部を有する。例えば図14のAに示すように、撮像範囲の全体である全方位が、複数の光学部の撮像範囲によって重複されている場合には、全ての方位、および全ての本実施形態に係る撮像装置からの距離が、複数の光学部により重複して撮像されることとなる。
よって、図14のAに示すように、撮像範囲の全体である全方位が、複数の光学部の撮像範囲により重複されている場合には、図14のBに示すように、複数の光学部において重複して撮像される撮像範囲の全体において、視点移動を行うことが可能となる。なお、図14のBでは、球状の撮像デバイスの中心位置を基準位置として、視点移動を行う例を示しているが、本実施形態に係る視点移動の例は、図14のBに示す例に限られない。
図15は、本実施形態に係る画像処理方法を説明するための説明図であり、全方位(撮像範囲の全体)を複数の光学部の撮像範囲により重複させる場合の第2の例を示している。図15のAは、図14のAと同様に、本実施形態に係る全天球型の撮像デバイスが、それぞれの撮像範囲が240[度]であり、レンズをそれぞれ含む3つの光学部で撮像を行うことによって、全方位を複数の光学部の撮像範囲により重複させている例を示している。
本実施形態に係る画像処理方法に係る処理が行われる場合には、例えば、3以上の光学部それぞれに対応する位置を頂点とするn角形(nは、光学部の数)内に含まれる2つの位置を基準位置(第1の基準位置、および第2の基準位置)として、視点移動が行われてもよい。ここで、本実施形態に係る光学部に対応する位置としては、例えば光学部を構成するレンズの中心位置など、光学部における任意の位置が挙げられる。図15のBは、3つの光学部を有する例であるので、図15のBに示す例では、3つの光学部それぞれに対応する位置を頂点とする三角形内の2つの位置を基準位置(第1の基準位置の一例、および第2の基準位置の一例)として、視点移動が行われる例を示している。
例えば図15のBに示すように、3以上の光学部それぞれに対応する位置を頂点とするn角形内に含まれる2つの位置を基準位置として視点移動が行われることによって、立体視を実現可能な2つの画像(右目用の画像と、左目用の画像)を生成することが可能となる。ここで、本実施形態に係る“3以上の光学部それぞれに対応する位置を頂点とするn角形内に含まれる2つの位置”としては、例えば、n角形内に含まれる2つの点であって、2点間の距離が、画像をみるユーザの瞳孔間距離に相当する距離である任意の点が挙げられる。上記画像をみるユーザの瞳孔間距離は、予め設定された固定値であってもよいし、ユーザ操作や瞳孔間距離の測定結果を示すデータに基づき変更可能な可変値であってもよい。上記2点間の距離が、画像をみるユーザの瞳孔間距離である場合には、ユーザは、より自然な立体画像を認識することができる。
また、3以上の光学部それぞれに対応する位置を頂点とするn角形内に含まれる2つの位置を基準位置として視点移動が行われる場合には、例えば、本実施形態に係る全天球型の撮像デバイスからの距離に対応してフィルタをかけることによって、注目点と同じ距離のオブジェクト以外のオブジェクトを、画像処理によってぼかすことも可能である。
なお、立体視を実現可能な2つの画像(右目用の画像と、左目用の画像)を生成することを実現するための視点移動は、上記“3以上の光学部それぞれに対応する位置を頂点とするn角形内に含まれる2つの位置を基準位置とする、視点移動”に限られない。
例えば、本実施形態に係る全天球型の撮像デバイスが、角錐上に配置された4以上の光学部を有し、撮像範囲の全体である全方位を複数の光学部の撮像範囲により重複させる構成である場合には、本実施形態に係る画像処理方法に係る処理によって、“4以上の光学部それぞれに対応する位置を頂点とする角錐内に含まれる2つの位置を基準位置とする、視点移動”を実現することが可能である。
図16は、本実施形態に係る画像処理方法を説明するための説明図であり、全方位(撮像範囲の全体)を複数の光学部の撮像範囲により重複させる場合の第3の例を示している。図16は、四角錐上に配置された、レンズをそれぞれ含む4つの光学部で撮像を行うことによって、全方位を複数の光学部の撮像範囲により重複させる場合を示している。
例えば図16に示すように、四角錐(角錐の一例)内に含まれる2つの位置を、基準位置(第1の基準位置、および第2の基準位置)として、視点移動が行われる場合には、2つの基準位置の自由度をさらに上げることができ、任意の向きに対応する、立体視を実現可能な2つの画像(右目用の画像と、左目用の画像)を生成することが可能となる。
[3−2]本実施形態に係る画像処理方法に係る処理の具体例
次に、本実施形態に係る画像処理方法に係る処理について、より具体的に説明する。以下では、本実施形態に係る全天球型の撮像デバイスが、図1のBに示すような球状の撮像デバイスである場合を例に挙げる。なお、上述したように、本実施形態に係る全天球型の撮像デバイスは、球状の撮像デバイスに限られない。
[3−2−1]本実施形態に係る画像処理方法に係る処理の第1の例
本実施形態に係る画像処理方法に係る処理の第1の例として、撮像画像を表示画面に表示させる、画像の再生に係る処理において、本実施形態に係る画像処理方法に係る処理が行われる場合の処理を説明する。
図17、図18は、本実施形態に係る画像処理方法に係る処理の第1の例を説明するための流れ図である。
図17は、撮像に係る処理の一例を示しており、2つの光学部を有する本実施形態に係る全天球型の撮像デバイスにおける処理の一例を示している。
また、図18は、画像の再生に係る処理の一例を示しており、また、本実施形態に係る画像処理装置が、本実施形態に係る全天球型の撮像デバイスにおける撮像により生成された2つの撮像画像に対して行う、本実施形態に係る画像処理方法に係る処理の一例を示している。
図18では、ステップS204の処理が、本実施形態に係る移動量決定処理、および本実施形態に係る移動処理に該当する。また、図18では、ステップS206の処理が、本実施形態に係る球面投影処理に該当し、ステップS208の処理が、本実施形態に係る視点画像生成処理に該当する。
なお、以下では、図17に示す処理を本実施形態に係る全天球型の撮像デバイスが行い、図18に示す処理を本実施形態に係る画像処理装置が行うものとして説明するが、本実施形態に係る画像処理装置における処理は、以下に示す処理に限られない。例えば、本実施形態に係る画像処理装置が、本実施形態に係る全天球型の撮像デバイスと同様の撮像機能を有する場合には、図17に示す処理と図18に示す処理とを、本実施形態に係る画像処理装置が行うことも可能である。
まず図17を参照して、本実施形態に係る全天球型の撮像デバイスにおける、撮像に係る処理の一例について説明する。
本実施形態に係る全天球型の撮像デバイスは、少なくとも撮像範囲の一部が重複する2つの光学部によって、全方位を撮像する(S100)。
本実施形態に係る全天球型の撮像デバイスは、ステップS100における撮像により生成されたRAWデータに対して設定された所定の処理を行う現像処理を行う(S102)。
そして、本実施形態に係る全天球型の撮像デバイスは、現像処理が行われた撮像画像を記録媒体に記録させる(S104)。本実施形態に係る全天球型の撮像デバイスが撮像画像を記録させる記録媒体としては、例えば、本実施形態に係る全天球型の撮像デバイスが備える記録媒体や、本実施形態に係る全天球型の撮像デバイスに接続された外部記録媒体、本実施形態に係る画像処理装置が備える記憶部(後述する)などの外部装置が備える記録媒体などが挙げられる。外部装置に撮像画像を記録させる場合、本実施形態に係る全天球型の撮像デバイスは、例えば、備えている通信デバイスまたは接続されている外部通信デバイスに、撮像画像を示す画像データと記録命令とを、当該外部装置に対して送信させる。
本実施形態に係る全天球型の撮像デバイスは、撮像を続けるか否かを判定する(S106)。本実施形態に係る全天球型の撮像デバイスは、例えば、ユーザ操作などに基づく、撮像を終了する信号が検出された場合に、撮像を続けると判定しない。また、本実施形態に係る全天球型の撮像デバイスは、例えば、撮像を終了する信号が検出されない場合には、撮像を続けると判定する。
ステップS106において撮像を続けると判定された場合には、本実施形態に係る全天球型の撮像デバイスは、ステップS100からの処理を繰り返す。また、ステップS106において撮像を続けると判定された場合には、本実施形態に係る全天球型の撮像デバイスは、処理を終了する。
本実施形態に係る全天球型の撮像デバイスは、例えば図17に示す処理を行うことによって、2つの撮像画像を生成する。
なお、本実施形態に係る全天球型の撮像デバイスにおける処理は、図17に示す処理に限られない。
例えば、“本実施形態に係る全天球型の撮像デバイスが、撮像範囲の全体を複数の光学部の撮像範囲により重複させる、3以上の光学部を有する場合”や、“本実施形態に係る全天球型の撮像デバイスが、撮像範囲の全体を複数の光学部の撮像範囲により重複させる、角錐上に配置された4以上の光学部を有する場合”には、本実施形態に係る全天球型の撮像デバイスは、例えば図17に示す処理と同様の処理を行うことによって、3以上の撮像画像を生成することも可能である。
また、例えば、本実施形態に係る画像処理装置が、RAWデータを処理することが可能な場合や、本実施形態に係る全天球型の撮像デバイスの外部装置において現像処理が行われる場合には、本実施形態に係る全天球型の撮像デバイスは、図17のステップS102の処理を行わなくてもよい。
また、本実施形態に係る全天球型の撮像デバイスは、例えば、ステップS104の処理を行わず、備えている通信デバイスまたは接続されている外部通信デバイスに、撮像画像を示す画像データを、本実施形態に係る画像処理装置に対して送信させてもよい。上記の場合には、本実施形態に係る画像処理装置は、通信により取得された撮像画像を処理することとなる。
さらに、本実施形態に係る画像処理装置が、本実施形態に係る全天球型の撮像デバイスと同様の撮像機能を有する場合には、本実施形態に係る画像処理装置は、ステップS104の処理を行わずに、生成された撮像画像を処理することも可能である。
次に図18を参照して、画像の再生に係る処理における、本実施形態に係る画像処理方法に係る処理の一例について説明する。
本実施形態に係る画像処理装置は、2つの光学部によりそれぞれ生成された2つの撮像画像を取得する(S200)。本実施形態に係る画像処理装置は、例えば、“記憶部(後述する)や、接続されている外部記録媒体などの記録媒体から、撮像画像を示す画像データを読み出すこと”や、“本実施形態に係る画像処理装置が備える通信部(後述する)や、本実施形態に係る画像処理装置に接続された外部通信デバイスから、受信された撮像画像を示す画像データが伝達されること”によって、2つの撮像画像を取得する。
本実施形態に係る画像処理装置は、ユーザの視点方向を特定する(S202)。本実施形態に係る視点方向とは、例えば、全方位が撮像範囲とされた複数の撮像画像に含まれる領域のうちの、ある方向に対応する領域を特定するための方向をいう。本実施形態に係る視点方向は、全方位のうちのユーザが見る向きに相当する。また、本実施形態に係る画像処理装置が特定する本実施形態に係る視点方向には、例えば、どの方向を上下左右とするかが含まれる。
つまり、本実施形態に係る画像処理装置は、ステップS202の処理を行うことによって、全方位が撮像範囲とされた複数の撮像画像に含まれる領域のうちの、どの向きに対応する領域を示す画像を生成するかを決定する。
本実施形態に係る画像処理装置は、例えば、視点方向を指定するユーザ操作に基づく操作信号が示す方向を、視点方向として特定する。また、本実施形態に係る画像処理装置は、例えば、本実施形態に係る全天球型の撮像デバイスが備える方位センサや、ユーザに装着されているウェアラブル装置が備える方位センサなどの検出データが示す方向を、視点方向として特定することも可能である。本実施形態に係る方位センサとしては、例えば、ジャイロセンサおよび地磁気センサなど、方位を検出することが可能な任意のセンサ(またはセンサ群)が挙げられる。
本実施形態に係る画像処理装置は、本実施形態に係る全天球型の撮像デバイスから被写体である対象オブジェクトまでの距離と、本実施形態に係る全天球型の撮像デバイスの基準位置における基準線から対象オブジェクトまでの角度とにより、所定範囲で視点を移動させる(S204)。本実施形態に係る基準線の一例については、後述する。
図19は、本実施形態に係る画像処理方法に係る処理の一例を説明するための流れ図であり、図18に示すステップS204の処理の一例を示している。
本実施形態に係る画像処理装置は、例えば、対象オブジェクトとなる各被写体の、球状の撮像デバイスからの距離(以下、「本実施形態に係る球状の撮像デバイスからの距離」と示す場合がある。)を特定する(S300)。
本実施形態に係る画像処理装置は、例えば、複数の撮像画像における、重複する領域に含まれる対象オブジェクトに基づいて、撮像デバイスから対象オブジェクトまでの距離を算出する。本実施形態に係る画像処理装置は、例えば、複数の撮像画像の重複部分の視差を利用して、撮像デバイスから対象オブジェクトまでの距離を算出する。そして、本実施形態に係る画像処理装置は、算出された撮像デバイスからオブジェクトまでの距離を、各被写体の、球状の撮像デバイスからの距離として特定する。
図20は、本実施形態に係る画像処理方法に係る処理の一例を説明するための説明図であり、本実施形態に係る球状の撮像デバイスからの距離の算出に係る、撮像デバイスと被写体Oとの位置関係の一例を示している。図20のBは、図20のAに示す位置関係のうちの、撮像デバイスから対象オブジェクトまでの距離の算出に係る位置関係を抜き出した図である。図20では、本実施形態に係る球状の撮像デバイスを、便宜上「球」と示している。また、図20では、球状の撮像デバイスの中心位置が、レンズL1の中心位置およびレンズL2の中心位置間の中点に該当する例を示している。
ここで、図20に示す“視点間の距離f”は、本実施形態に係る全天球型の撮像デバイスが備える複数の光学部間の距離を示しており、例えば、本実施形態に係る全天球型の撮像デバイスの種類に対応する値が設定される。
また、図20に示す“レンズ中心からの角度a”は、レンズL1の中心位置における基準線から被写体Oまでの角度を示しており、図20に示す“レンズ中心からの角度b”は、レンズL2の中心位置における基準線から被写体Oまでの角度を示している。また、図20に示す“球中心からの角度c”は、球状の撮像デバイスの中心位置(基準位置の一例)における基準線から被写体Oまでの角度を示している。本実施形態に係る基準線としては、例えば、図20に示すように、球状の撮像デバイスの中心位置、レンズL1の中心位置、およびレンズL2の中心位置を通る直線が挙げられる。
また、図20に示す“視点間からの垂線と、球中心および被写体を結ぶ直線とが成す角度d”は、例えば下記の数式1で算出される。
Figure 2015149600
また、図20に示す“視点間からの垂直方向の距離h”は、例えば下記の数式2で算出される。
Figure 2015149600
また、図20に示す“球中心からの角度c”は、例えば下記の数式3で算出される。
Figure 2015149600
また、図20に示す“球中心からの被写体距離l”は、例えば下記の数式4で算出される。
Figure 2015149600
撮像デバイスから対象オブジェクトまでの距離が、球状の撮像デバイスの表面から被写体までの距離である場合、本実施形態に係る画像処理装置は、例えば、上記数式4により算出された距離lから、球状の撮像デバイスの半径に対応する距離を減算することによって、撮像デバイスから対象オブジェクトまでの距離を算出する。
なお、本実施形態に係る全天球型の撮像デバイスから対象オブジェクトまでの距離は、球状の撮像デバイスの表面から被写体までの距離に限られない。
例えば、本実施形態に係る画像処理装置は、光学部に対応する所定の位置(例えば、光学部を構成するレンズの中心位置など)から対象オブジェクトまでの距離を、撮像デバイスから対象オブジェクトまでの距離として算出することも可能である。球状の撮像デバイスの中心位置が、レンズL1の中心位置およびレンズL2の中心位置間の中点に該当する場合には、一方の光学部に対応する距離が特定されれば、他方の光学部に対応する距離も特定することが可能であるからである。
本実施形態に係る画像処理装置は、例えば上記のように、撮像デバイスから対象オブジェクトまでの距離を算出することによって、本実施形態に係る球状の撮像デバイスからの距離を特定する。
なお、本実施形態に係る球状の撮像デバイスからの距離の特定方法は、上記に限られない。例えば、本実施形態に係る画像処理装置は、下記に示すように、本実施形態に係る球状の撮像デバイスからの距離を特定することも可能である。
・撮像デバイスから取得された、ピントが合っている領域の距離を示す“コントラストAF(Auto Focus)の情報”(データ)に基づいて、ピントが合っている領域の距離を、本実施形態に係る球状の撮像デバイスからの距離として特定する。
・撮像デバイスから取得された、位相差センサの出力を示す出力データを含む“位相差AFの情報”(データ)に基づいて、位相差センサの出力データの差に基づく距離を、本実施形態に係る球状の撮像デバイスからの距離として特定する。
・撮像デバイスから取得された、出力した電磁波、赤外線、超音波などが被写体から反射して帰ってくるまでの時間を示す“時間情報”(データ)に基づいて、時間情報が示す時間に基づく距離を、本実施形態に係る球状の撮像デバイスからの距離として特定する。
・撮像デバイスから取得された“出力した可視光、電磁波波、赤外線などの既知パターンの信号の変形量を示す情報”(データ)に基づいて、当該情報が示す変形量に基づく距離を、本実施形態に係る球状の撮像デバイスからの距離として特定する。
・複数の撮像画像から得られる、被写体に対応するオブジェクトの角度と、複数の光学部間の距離とに基づく距離(三角測量により算出される距離)を、本実施形態に係る球状の撮像デバイスからの距離として特定する。
・複数のレンズの光をミラーで1つに導き合成された画像(レンジファインダー方式により得られる撮像画像)から得られる、被写体に対応するオブジェクトのずれと、レンズ間距離とに基づく距離(三角測量により算出される距離)を、本実施形態に係る球状の撮像デバイスからの距離として特定する。
再度図19を参照して、図18に示すステップS204の処理の一例について説明する。本実施形態に係る画像処理装置は、例えば、対象オブジェクトとなる各被写体の、球状の撮像デバイスからの基準位置からの角度(以下、「本実施形態に係る球状の撮像デバイスからの角度」と示す場合がある。)を特定する(S302)。
図21は、本実施形態に係る画像処理方法に係る処理の一例を説明するための説明図であり、本実施形態に係る球状の撮像デバイスからの角度の特定方法の一例を示している。図21に示す“R1”は、図9に示す“r1”において撮像された場合の撮像画像における領域に対応し、図21に示す“R2”は、図9に示す“r2”において撮像された場合の撮像画像における領域に対応する。また、図21に示す“R3”は、図9に示す“r3”において撮像された場合の撮像画像における領域に対応する。
本実施形態に係る画像処理装置は、例えば、本実施形態に係る球状の撮像デバイスで撮像された画像上での距離(図21に示す“撮像画像の中心からの被写体像の距離”に対応)と、本実施形態に係る球状の撮像デバイスからの角度(図21に示す“レンズ中心からの角度”に対応)との関係を示す、像中心からの角度のレンズ特性を示す関数を用いて、本実施形態に係る球状の撮像デバイスで撮像された画像上での距離に対応する角度を算出する。そして、本実施形態に係る画像処理装置は、算出された角度を、本実施形態に係る球状の撮像デバイスからの角度として特定する。
なお、本実施形態に係る球状の撮像デバイスからの角度の特定方法は、上記に限られない。例えば、本実施形態に係る画像処理装置は、下記に示すように、本実施形態に係る球状の撮像デバイスからの角度を特定することも可能である。
・撮像デバイスから取得された“レンズの特性を示す情報”(データ)と、撮像画像とに基づいて、レンズ特性と被写体の画像内位置から得られる角度を、本実施形態に係る球状の撮像デバイスからの角度として特定する。
・撮像デバイスから取得された、位相差センサの出力(像面位相差を含む)を示す出力データを含む“位相差AFの情報”(データ)と、“レンズの特性を示す情報”(データ)とに基づいて、レンズ特性と被写体の位相差センサ内位置から得られる角度を、本実施形態に係る球状の撮像デバイスからの角度として特定する。
・撮像デバイスから取得された、出力した電磁波、赤外線、超音波などが被写体から反射して帰ってくる方向を示す“方向情報”(データ)に基づく角度を、本実施形態に係る球状の撮像デバイスからの角度として特定する。
・撮像デバイスから取得された“出力した可視光、電磁波波、赤外線などの既知パターンの信号の変形の位置を示す情報”(データ)に基づく角度を、本実施形態に係る球状の撮像デバイスからの角度として特定する。
再度図19を参照して、図18に示すステップS204の処理の一例について説明する。本実施形態に係る画像処理装置は、例えば、ステップS300において特定された本実施形態に係る球状の撮像デバイスからの距離と、ステップS302において特定された本実施形態に係る球状の撮像デバイスからの角度とに基づいて、撮像画像に含まれる対象オブジェクトを移動させる移動量を決定する(S304)。ここで、本実施形態に係る画像処理装置は、ステップS304において、例えば図10や図11を参照して説明した移動方法を適用し、当該移動方法が実現されるように、移動量を決定する。
本実施形態に係る画像処理装置は、2つの撮像画像に含まれる対象オブジェクトを、ステップS304において決定された移動量に応じて移動させる(S306)。
本実施形態に係る画像処理装置は、図18に示すステップS204において、例えば図19に示す処理を行うことにより、視点を移動させる。
再度図18を参照して、本実施形態に係る画像処理装置における処理の一例について説明する。本実施形態に係る画像処理装置は、ステップS204により、対象オブジェクトが移動された2つの撮像画像を球面投影し、重複部分のうちの不要部分を削除する(S206)。
本実施形態に係る画像処理装置は、ステップS206において球面投影された画像から、ステップS202において特定された視点方向に対応する領域の画像を切り出す(S208)。ステップS208の処理は、対象オブジェクトが移動された複数の撮像画像に基づいて、視点画像を生成する処理に該当する。
そして、本実施形態に係る画像処理装置は、切り出された画像(視点画像)を表示画面に表示させる(S210)。本実施形態に係る画像処理装置が画像を表示させる表示画面としては、例えば、本実施形態に係る画像処理装置が備える表示部(後述する)の表示画面や、本実施形態に係る画像処理装置に接続された外部表示デバイスの表示画面、外部装置が備える表示デバイスの表示画面などが挙げられる。外部装置における表示画面に画像を表示させる場合、本実施形態に係る画像処理装置は、例えば、本実施形態に係る画像処理装置が備える通信部(後述する)や、本実施形態に係る画像処理装置に接続されている外部通信デバイスに、切り出された画像を示す画像データと表示命令とを、当該外部装置に対して送信させる。
本実施形態に係る画像処理装置は、異なる表示を行うか否かを判定する(S212)。
ここで、本実施形態に係る画像処理装置は、例えば、表示を変更する信号が検出された場合に、異なる表示を行うと判定する。本実施形態に係る表示を変更する信号としては、例えば、表示を変更するユーザ操作に基づく信号が挙げられる。また、本実施形態に係る表示を変更する信号は、本実施形態に係る画像処理装置や外部装置において、定期的または非定期的に生成される信号であってもよい。
また、本実施形態に係る画像処理装置は、例えば、本実施形態に係る表示を変更する信号が、設定された所定の時間検出されない場合や、表示を終了する信号が検出された場合に、異なる表示を行うと判定しない。
ステップS212において異なる表示を行うと判定された場合には、本実施形態に係る画像処理装置は、視点方向を変えるか否かを判定する(S214)。本実施形態に係る画像処理装置は、例えば、本実施形態に係る表示を変更する信号が、視点方向を変えることを示す場合に、視点方向を変えると判定する。
ステップS214において視点方向を変えると判定された場合には、本実施形態に係る画像処理装置は、ステップS202からの処理を繰り返す。また、ステップS214において視点方向を変えると判定されない場合には、本実施形態に係る画像処理装置は、ステップS200からの処理を繰り返す。
ステップS212において異なる表示を行うと判定されない場合には、本実施形態に係る画像処理装置は、処理を終了する。
本実施形態に係る画像処理装置は、本実施形態に係る画像処理方法に係る処理として、例えば図18に示す処理を行う。
ここで、本実施形態に係る画像処理装置は、複数の撮像画像に基づいて対象オブジェクトを移動させるための移動量を決定し、決定された移動量に基づき対象オブジェクトが移動された複数の撮像画像を、球面投影して合成する。
よって、本実施形態に係る画像処理装置が、例えば図18に示す処理を行うことによって、本実施形態に係る全天球型の撮像デバイス(撮像範囲を全方位とする撮像デバイス)により撮像された複数の撮像画像が合成された画像を、より自然な画像とすることができる。
また、本実施形態に係る画像処理装置は、合成された画像から切り出された視点画像を表示画面に表示させる。よって、本実施形態に係る画像処理装置が、例えば図18に示す処理を行うことによって、より自然な画像を表示画面に表示させることができる。
なお、本実施形態に係る画像処理装置における、第1の例に係る画像処理方法に係る処理は、図18に示す処理に限られない。
例えば、本実施形態に係る画像処理装置は、図18のステップS204の一部の処理(より具体的には、図19のステップS300〜S304の処理)を行い、図18の他の処理は外部装置において行われてもよい。
上記の場合であっても、本実施形態に係る画像処理装置は、本実施形態に係る移動量決定処理によって、複数の撮像画像に基づいて対象オブジェクトを移動させるための移動量を決定することができる。よって、上記の場合であっても、本実施形態に係る画像処理装置は、撮像範囲を全方位とする撮像デバイスにより撮像された複数の撮像画像が合成された画像を、より自然な画像とさせることができる。
[3−2−2]本実施形態に係る画像処理方法に係る処理の第2の例
本実施形態に係る画像処理方法に係る処理の第2の例として、撮像に係る処理において、本実施形態に係る移動量決定処理が行われる場合の処理を説明する。
図22、図23は、本実施形態に係る画像処理方法に係る処理の第2の例を説明するための流れ図である。
図22は、撮像に係る処理の一例を示しており、2つの光学部により撮像された2つの撮像画像に対して行う、本実施形態に係る画像処理方法に係る処理の一例を示している。図22では、ステップS404の処理が、本実施形態に係る移動量決定処理、および本実施形態に係る移動処理に該当する。
また、図23は、画像の再生に係る処理の一例を示している。図23では、ステップS504の処理が、本実施形態に係る球面投影処理に該当し、ステップS506の処理が、本実施形態に係る視点画像生成処理に該当する。
なお、以下では、図22、および図23の処理を、本実施形態に係る画像処理装置が行うものとして説明するが、第2の例に係る画像処理方法に係る処理は、上記に限られない。
例えば、図22のステップS404における本実施形態に係る移動量決定処理に該当する一部の処理を、本実施形態に係る画像処理装置が行い、図22の他の処理は、本実施形態に係る全天球型の撮像デバイスなど、外部デバイスや外部装置において行われてもよい。また、上述したように、本実施形態に係る球面投影処理と本実施形態に係る視点画像生成処理とは、外部装置が行うことが可能であるので、図23の処理は、外部装置により行われてもよい。
まず図22を参照して、撮像に係る処理における、本実施形態に係る画像処理方法に係る処理の一例について説明する。
本実施形態に係る画像処理装置は、少なくとも撮像範囲の一部が重複する2つの光学部によって、全方位を撮像する(S400)。そして、本実施形態に係る画像処理装置は、図17のステップS100と同様に、ステップS400における撮像により生成されたRAWデータに対して設定された所定の処理を行う現像処理を行う(S402)。
本実施形態に係る画像処理装置は、例えば図18のステップS204と同様に、本実施形態に係る全天球型の撮像デバイスから被写体である対象オブジェクトまでの距離と、本実施形態に係る全天球型の撮像デバイスの基準位置における基準線から対象オブジェクトまでの角度とにより、所定範囲で視点を移動させる(S404)。
本実施形態に係る画像処理装置は、ステップS404の処理により対象オブジェクトが移動された2つの撮像画像における重複部分のうちの不要部分を、削除する(S406)。そして、本実施形態に係る画像処理装置は、ステップS406の処理が行われた撮像画像を、図17のステップS104と同様に、記録媒体に記録させる(S408)。
本実施形態に係る画像処理装置は、図17のステップS106と同様に、撮像を続けるか否かを判定する(S408)。
ステップS408において撮像を続けると判定された場合には、本実施形態に係る画像処理装置は、ステップS400からの処理を繰り返す。また、ステップS408において撮像を続けると判定された場合には、本実施形態に係る画像処理装置は、処理を終了する。
本実施形態に係る画像処理装置は、例えば図22に示す処理を行うことによって、本実施形態に係る移動量決定処理において決定された移動量に基づき対象オブジェクトが移動された2つの撮像画像を生成する。
なお、本実施形態に係る画像処理装置における処理は、図22に示す処理に限られない。
例えば、“本実施形態に係る画像処理装置が、撮像範囲の全体を複数の光学部の撮像範囲により重複させる、3以上の光学部を有する場合”や、“本実施形態に係る画像処理装置が、撮像範囲の全体を複数の光学部の撮像範囲により重複させる、角錐上に配置された4以上の光学部を有する場合”には、本実施形態に係る画像処理装置は、例えば図22に示す処理と同様の処理を行うことによって、3以上の撮像画像を生成することも可能である。
また、例えば、本実施形態に係る画像処理装置が、RAWデータを処理することが可能な場合や、外部装置において現像処理が行われる場合には、本実施形態に係る画像処理装置は、図17のステップS402の処理を行わなくてもよい。
また、本実施形態に係る画像処理装置は、例えば、ステップS408の処理を行わず、ステップS406の処理が行われた撮像画像に対して、図23の処理を行ってもよい。また、図23の処理が外部装置において行われる場合、本実施形態に係る画像処理装置は、例えば、ステップS408の処理を行わず、備えている通信部(後述する)または接続されている外部通信デバイスに、撮像画像を示す画像データを、当該外部装置に対して送信させてもよい。
次に図23を参照して、画像の再生に係る処理の一例について説明する。
本実施形態に係る画像処理装置は、例えば図18のステップS200と同様に、2つの光学部によりそれぞれ生成された2つの撮像画像を取得する(S500)。
本実施形態に係る画像処理装置は、例えば図18のステップS202と同様に、ユーザの視点方向を特定する(S502)。
本実施形態に係る画像処理装置は、ステップS500により、取得された2つの撮像画像(対象オブジェクトが移動された2つの撮像画像)を球面投影する(S504)。
本実施形態に係る画像処理装置は、例えば図18のステップS208と同様に、ステップS504において球面投影された画像から、ステップS502において特定された視点方向に対応する領域の画像を切り出す(S506)。そして、本実施形態に係る画像処理装置は、例えば図18のステップS210と同様に、切り出された画像(視点画像)を表示画面に表示させる(S508)。
本実施形態に係る画像処理装置は、例えば図18のステップS212と同様に、異なる表示を行うか否かを判定する(S510)。
ステップS510において異なる表示を行うと判定された場合には、本実施形態に係る画像処理装置は、例えば図18のステップS214と同様に、視点方向を変えるか否かを判定する(S512)。
ステップS512において視点方向を変えると判定された場合には、本実施形態に係る画像処理装置は、ステップS502からの処理を繰り返す。また、ステップS512において視点方向を変えると判定されない場合には、本実施形態に係る画像処理装置は、ステップS500からの処理を繰り返す。
ステップS510において異なる表示を行うと判定されない場合には、本実施形態に係る画像処理装置は、処理を終了する。
本実施形態に係る画像処理装置は、画像の再生に係る処理として、例えば図23に示す処理を行う。
本実施形態に係る画像処理装置は、本実施形態に係る画像処理方法に係る処理として、例えば図22、図23に示す処理を行う。
ここで、本実施形態に係る画像処理装置は、撮像に係る処理の一環として、複数の撮像画像に基づいて対象オブジェクトを移動させるための移動量を決定し、決定された移動量に基づき対象オブジェクトを移動させた画像を撮像画像とする。また、本実施形態に係る画像処理装置は、再生に係る処理の一環として、決定された移動量に基づき対象オブジェクトが移動された複数の撮像画像を、球面投影して合成する。
よって、本実施形態に係る画像処理装置が、例えば図22、図23に示す処理を行うことによって、本実施形態に係る全天球型の撮像デバイス(撮像範囲を全方位とする撮像デバイス)に相当する撮像機能により撮像された複数の撮像画像が合成された画像を、より自然な画像とすることができる。
また、本実施形態に係る画像処理装置は、再生に係る処理の一環として、合成された画像から切り出された視点画像を表示画面に表示させる。よって、本実施形態に係る画像処理装置が、例えば図23に示す処理を行うことによって、より自然な画像を表示画面に表示させることができる。
[3−2−3]本実施形態に係る画像処理方法に係る処理の第3の例
上記[3−2−1]に示す第1の例に係る画像処理方法に係る処理、および上記[3−2−2]に示す第2の例に係る画像処理方法に係る処理では、本実施形態に係る画像処理装置が、2つの撮像画像を処理する例を示した。しかしながら、例えば、“本実施形態に係る全天球型の撮像デバイスが、撮像範囲の全体を複数の光学部の撮像範囲により重複させる、3以上の光学部を有する場合”には、図14を参照して説明したように、本実施形態に係る画像処理装置は、全ての方位、および全ての本実施形態に係る撮像装置からの距離が、複数の光学部により重複して撮像された、3以上の撮像画像を処理することが可能である。
以下では、本実施形態に係る移動量決定処理が、再生に係る処理において行われる場合を例に挙げて、全ての方位、および全ての本実施形態に係る撮像装置からの距離が、複数の光学部により重複して撮像された、3以上の撮像画像を処理する場合の処理の一例について説明する。
図24は、本実施形態に係る画像処理方法に係る処理の第3の例を説明するための流れ図である。図24では、ステップS604の処理が、本実施形態に係る移動量決定処理、および本実施形態に係る移動処理に該当する。また、図24では、ステップS606の処理が、本実施形態に係る球面投影処理に該当し、ステップS608の処理が、本実施形態に係る視点画像生成処理に該当する。
本実施形態に係る画像処理装置は、3つの光学部によりそれぞれ生成された3つの撮像画像を取得する(S600)。本実施形態に係る画像処理装置は、例えば例えば図18のステップS200と同様に、撮像画像を取得する。
本実施形態に係る画像処理装置は、例えば図18のステップS202と同様に、ユーザの視点方向を特定する(S602)。
本実施形態に係る画像処理装置は、例えば図18のステップS204と同様に、本実施形態に係る全天球型の撮像デバイスから被写体である対象オブジェクトまでの距離と、本実施形態に係る全天球型の撮像デバイスの基準位置における基準線から対象オブジェクトまでの角度とにより、所定範囲で視点を移動させる(S604)。
本実施形態に係る画像処理装置は、例えば図18のステップS206と同様に、ステップS604により対象オブジェクトが移動された2つの撮像画像を球面投影し、重複部分のうちの不要部分を削除する(S606)。
本実施形態に係る画像処理装置は、例えば図18のステップS208と同様に、ステップS604において球面投影された画像から、ステップS602において特定された視点方向に対応する領域の画像を切り出す(S608)。そして、本実施形態に係る画像処理装置は、例えば図18のステップS210と同様に、切り出された画像(視点画像)を表示画面に表示させる(S610)。
本実施形態に係る画像処理装置は、例えば図18のステップS212と同様に、異なる表示を行うか否かを判定する(S612)。
ステップS612において異なる表示を行うと判定された場合には、本実施形態に係る画像処理装置は、例えば図18のステップS214と同様に、視点方向を変えるか否かを判定する(S614)。
ステップS614において視点方向を変えると判定された場合には、本実施形態に係る画像処理装置は、ステップS602からの処理を繰り返す。また、ステップS614において視点方向を変えると判定されない場合には、本実施形態に係る画像処理装置は、ステップS600からの処理を繰り返す。
ステップS612において異なる表示を行うと判定されない場合には、本実施形態に係る画像処理装置は、処理を終了する。
本実施形態に係る画像処理装置は、画像の再生に係る処理として、例えば図24に示す処理を行う。
本実施形態に係る画像処理装置は、本実施形態に係る画像処理方法に係る処理として、例えば図24に示す処理を行う。図24に示すように、本実施形態に係る画像処理装置は、2つの撮像画像を処理する図18に示す、第1の例に係る画像処理方法に係る処理と同様の処理を行う。
よって、例えば図24に示す処理を行う場合であっても、本実施形態に係る画像処理装置は、上記[3−2−1]に示す第1の例に係る画像処理方法に係る処理と同様の効果を奏することができる。
なお、第3の例に係る画像処理方法に係る処理は、図24に示す処理に限られない。
例えば、本実施形態に係る画像処理装置は、2つの撮像画像を処理する図22、図23に示す、第2の例に係る画像処理方法に係る処理と同様の処理を行うことも可能である。
また、本実施形態に係る画像処理装置は、上記[3−2−1]に示す第1の例に係る画像処理方法に係る処理、または、上記[3−2−2]に示す第2の例に係る画像処理方法に係る処理と同様の変形例に係る処理を行ってもよい。
[3−2−4]本実施形態に係る画像処理方法に係る処理の第4の例
図15を参照して説明したように、3以上の光学部それぞれに対応する位置を頂点とするn角形内に含まれる2つの位置を、基準位置(第1の基準位置、および第2の基準位置)として、視点移動が行われることによって、立体視を実現可能な2つの画像(右目用の画像と、左目用の画像)を生成することが可能である。
以下では、本実施形態に係る移動量決定処理が、再生に係る処理において行われる場合を例に挙げて、立体視を実現可能な2つの画像が生成される場合の処理の一例について説明する。また、以下では、立体視を実現可能な2つの画像のうち、右目用の画像に対応する画像を「右視点画像」と示し、左目用の画像に対応する画像を「左視点画像」と示す。
図25は、本実施形態に係る画像処理方法に係る処理の第4の例を説明するための流れ図である。図25では、ステップS704の処理、およびステップS706の処理が、本実施形態に係る移動量決定処理、および本実施形態に係る移動処理に該当する。また、図25では、ステップS708の処理、およびステップS710の処理が、本実施形態に係る球面投影処理に該当する。また、図25では、ステップS712の処理が、本実施形態に係る視点画像生成処理に該当する。
本実施形態に係る画像処理装置は、例えば図24のステップS600と同様に、3つの光学部によりそれぞれ生成された3つの撮像画像を取得する(S700)。
本実施形態に係る画像処理装置は、例えば図18のステップS202と同様に、ユーザの視点方向を特定する(S702)。
本実施形態に係る画像処理装置は、本実施形態に係る全天球型の撮像デバイスから被写体である対象オブジェクトまでの距離と、本実施形態に係る全天球型の撮像デバイスの基準位置における基準線から対象オブジェクトまでの角度とにより、左視点画像を生成する(S704)。本実施形態に係る画像処理装置は、例えば図18のステップS204と同様の処理により視点移動を行うことによって、本実施形態に係る全天球型の撮像デバイスが備える3つの光学部それぞれに対応する位置を頂点とする三角形内に含まれる、第1の基準位置に対応する画像を、左視点画像として生成する。
より具体的には、本実施形態に係る画像処理装置は、例えば図19のステップS300〜S304と同様の処理を行うことによって、上記3つの光学部それぞれに対応する3つの撮像画像が、第1の基準位置から撮像された画像であるように対象オブジェクトを移動させるための第1の移動量を決定する。そして、本実施形態に係る画像処理装置は、例えば図19のステップS306と同様の処理を行うことによって、決定された第1の移動量に基づき撮像画像に含まれる対象オブジェクトを移動させる。
本実施形態に係る画像処理装置は、本実施形態に係る全天球型の撮像デバイスから被写体である対象オブジェクトまでの距離と、本実施形態に係る全天球型の撮像デバイスの基準位置における基準線から対象オブジェクトまでの角度とにより、右視点画像を生成する(S706)。本実施形態に係る画像処理装置は、例えば図18のステップS204と同様の処理により視点移動を行うことによって、本実施形態に係る全天球型の撮像デバイスが備える3つの光学部それぞれに対応する位置を頂点とする三角形内に含まれる、第2の基準位置に対応する画像を、右視点画像として生成する。
より具体的には、本実施形態に係る画像処理装置は、例えば図19のステップS300〜S304と同様の処理を行うことによって、上記3つの光学部それぞれに対応する3つの撮像画像が、第2の基準位置から撮像された画像であるように対象オブジェクトを移動させるための第2の移動量を決定する。そして、本実施形態に係る画像処理装置は、例えば図19のステップS306と同様の処理を行うことによって、決定された第2の移動量に基づき撮像画像に含まれる対象オブジェクトを移動させる。
なお、図25では、ステップS704の処理の後にステップS706の処理が行われる例を示しているが、本実施形態に係る画像処理装置における処理は、上記に限られない。例えば、本実施形態に係る画像処理装置は、ステップS706の処理の後にステップS704の処理を行ってもよいし、ステップS704の処理とステップS706の処理とを同期して行ってもよい。
本実施形態に係る画像処理装置は、ステップS704により生成された左視点画像を球面投影し、重複部分のうちの不要部分を削除する(S708)。本実施形態に係る画像処理装置は、例えば、ステップS708において図18のステップS206と同様の処理を行う。
本実施形態に係る画像処理装置は、ステップS706により生成された右視点画像を球面投影し、重複部分のうちの不要部分を削除する(S710)。本実施形態に係る画像処理装置は、例えば、ステップS710において図18のステップS206と同様の処理を行う。
なお、図25では、ステップS708の処理の後にステップS710の処理が行われる例を示しているが、本実施形態に係る画像処理装置における処理は、上記に限られない。例えば、本実施形態に係る画像処理装置は、ステップS710の処理の後にステップS708の処理を行ってもよいし、ステップS708の処理とステップS710の処理とを同期して行ってもよい。
本実施形態に係る画像処理装置は、例えば図18のステップS208と同様に、ステップS708において球面投影された画像、およびステップS710において球面投影された画像それぞれから、ステップS702において特定された視点方向に対応する領域の画像をそれぞれ切り出す(S712)。
そして、本実施形態に係る画像処理装置は、例えば図18のステップS210と同様に、切り出された画像である左視点画像と右視点画像とを表示画面に表示させる(S714)。ここで、ステップS712において切り出された左視点画像と右視点画像とは、“第1の移動量に基づき対象オブジェクトが移動された複数の撮像画像に基づく、視点画像”(第1の視点画像)と、“第2の移動量に基づき対象オブジェクトが移動された、複数の撮像画像に基づく、視点画像”(第2の視点画像)とに該当する。
本実施形態に係る画像処理装置は、例えば図18のステップS212と同様に、異なる表示を行うか否かを判定する(S716)。
ステップS716において異なる表示を行うと判定された場合には、本実施形態に係る画像処理装置は、例えば図18のステップS214と同様に、視点方向を変えるか否かを判定する(S718)。
ステップS718において視点方向を変えると判定された場合には、本実施形態に係る画像処理装置は、ステップS702からの処理を繰り返す。また、ステップS718において視点方向を変えると判定されない場合には、本実施形態に係る画像処理装置は、ステップS700からの処理を繰り返す。
ステップS716において異なる表示を行うと判定されない場合には、本実施形態に係る画像処理装置は、処理を終了する。
本実施形態に係る画像処理装置は、本実施形態に係る画像処理方法に係る処理として、例えば図25に示す処理を行う。
図25に示すように、本実施形態に係る画像処理装置は、図24に示す第3の例に係る画像処理方法に係る処理と同様の処理によって、立体視を実現可能な2つの画像(右目用の画像に対応する右視点画像と、左目用の画像に対応する左視点画像)を生成する。よって、例えば図25に示す処理を行う場合であっても、本実施形態に係る画像処理装置は、上記[3−2−3]に示す第3の例に係る画像処理方法に係る処理と同様の効果を奏することができる。
なお、第4の例に係る画像処理方法に係る処理は、図25に示す処理に限られない。例えば、本実施形態に係る画像処理装置は、上記[3−2−3]に示す第3の例に係る画像処理方法に係る処理と同様の変形例に係る処理を行うことが可能である。
[3−2−5]本実施形態に係る画像処理方法に係る処理の第5の例
立体視を実現可能な2つの画像(右目用の画像と、左目用の画像)を生成することが可能な処理は、上記[3−2−4]に示す第4の例に係る画像処理方法に係る処理に限られない。図16を参照して説明したように、4以上の光学部それぞれに対応する位置を頂点とする角錐内に含まれる2つの位置を基準位置(第1の基準位置、および第2の基準位置)として、視点移動が行われることによって、立体視を実現可能な2つの画像(右目用の画像と、左目用の画像)を生成することが可能である。
以下では、本実施形態に係る移動量決定処理が、再生に係る処理において行われる場合を例に挙げて、立体視を実現可能な2つの画像が生成される場合の処理の一例について説明する。
図26は、本実施形態に係る画像処理方法に係る処理の第5の例を説明するための流れ図である。図26では、ステップS804の処理、およびステップS806の処理が、本実施形態に係る移動量決定処理、および本実施形態に係る移動処理に該当する。また、図26では、ステップS808の処理、およびステップS810の処理が、本実施形態に係る球面投影処理に該当する。また、図26では、ステップS812の処理が、本実施形態に係る視点画像生成処理に該当する。
本実施形態に係る画像処理装置は、例えば図24のステップS600と同様に、4つの光学部によりそれぞれ生成された3つの撮像画像を取得する(S800)。
本実施形態に係る画像処理装置は、例えば図18のステップS202と同様に、ユーザの視点方向を特定する(S802)。
本実施形態に係る画像処理装置は、本実施形態に係る全天球型の撮像デバイスから被写体である対象オブジェクトまでの距離と、本実施形態に係る全天球型の撮像デバイスの基準位置における基準線から対象オブジェクトまでの角度とにより、左視点画像を生成する(S804)。本実施形態に係る画像処理装置は、例えば図18のステップS204と同様の処理により視点移動を行うことによって、本実施形態に係る全天球型の撮像デバイスが備える4つの光学部それぞれに対応する位置を頂点とする四角錐内に含まれる、第1の基準位置に対応する画像を、左視点画像として生成する。
より具体的には、本実施形態に係る画像処理装置は、例えば図19のステップS300〜S304と同様の処理を行うことによって、上記4つの光学部それぞれに対応する4つの撮像画像が、第1の基準位置から撮像された画像であるように対象オブジェクトを移動させるための第1の移動量を決定する。そして、本実施形態に係る画像処理装置は、例えば図19のステップS306と同様の処理を行うことによって、決定された第1の移動量に基づき撮像画像に含まれる対象オブジェクトを移動させる。
本実施形態に係る画像処理装置は、本実施形態に係る全天球型の撮像デバイスから被写体である対象オブジェクトまでの距離と、本実施形態に係る全天球型の撮像デバイスの基準位置における基準線から対象オブジェクトまでの角度とにより、右視点画像を生成する(S806)。本実施形態に係る画像処理装置は、例えば図18のステップS204と同様の処理により視点移動を行うことによって、本実施形態に係る全天球型の撮像デバイスが備える4つの光学部それぞれに対応する位置を頂点とする四角錐内に含まれる、第2の基準位置に対応する画像を、右視点画像として生成する。
より具体的には、本実施形態に係る画像処理装置は、例えば図19のステップS300〜S304と同様の処理を行うことによって、上記4つの光学部それぞれに対応する4つの撮像画像が、第2の基準位置から撮像された画像であるように対象オブジェクトを移動させるための第2の移動量を決定する。そして、本実施形態に係る画像処理装置は、例えば図19のステップS306と同様の処理を行うことによって、決定された第2の移動量に基づき撮像画像に含まれる対象オブジェクトを移動させる。
なお、図26では、ステップS804の処理の後にステップS806の処理が行われる例を示しているが、本実施形態に係る画像処理装置における処理は、上記に限られない。例えば、本実施形態に係る画像処理装置は、ステップS806の処理の後にステップS804の処理を行ってもよいし、ステップS804の処理とステップS806の処理とを同期して行ってもよい。
本実施形態に係る画像処理装置は、例えば図25のステップS708と同様に、ステップS804により生成された左視点画像を球面投影し、重複部分のうちの不要部分を削除する(S808)。
本実施形態に係る画像処理装置は、例えば図25のステップS710と同様に、ステップS806により生成された右視点画像を球面投影し、重複部分のうちの不要部分を削除する(S810)。
なお、図26では、ステップS808の処理の後にステップS810の処理が行われる例を示しているが、本実施形態に係る画像処理装置における処理は、上記に限られない。例えば、本実施形態に係る画像処理装置は、ステップS810の処理の後にステップS808の処理を行ってもよいし、ステップS808の処理とステップS810の処理とを同期して行ってもよい。
本実施形態に係る画像処理装置は、例えば図18のステップS208と同様に、ステップS808において球面投影された画像、およびステップS810において球面投影された画像それぞれから、ステップS802において特定された視点方向に対応する領域の画像をそれぞれ切り出す(S812)。
そして、本実施形態に係る画像処理装置は、例えば図18のステップS210と同様に、切り出された画像である左視点画像と右視点画像とを表示画面に表示させる(S814)。ここで、ステップS812において切り出された左視点画像と右視点画像とは、“第1の移動量に基づき対象オブジェクトが移動された複数の撮像画像に基づく、視点画像”(第1の視点画像)と、“第2の移動量に基づき対象オブジェクトが移動された、複数の撮像画像に基づく、視点画像”(第2の視点画像)とに該当する。
本実施形態に係る画像処理装置は、例えば図18のステップS212と同様に、異なる表示を行うか否かを判定する(S816)。
ステップS816において異なる表示を行うと判定された場合には、本実施形態に係る画像処理装置は、例えば図18のステップS214と同様に、視点方向を変えるか否かを判定する(S818)。
ステップS818において視点方向を変えると判定された場合には、本実施形態に係る画像処理装置は、ステップS802からの処理を繰り返す。また、ステップS818において視点方向を変えると判定されない場合には、本実施形態に係る画像処理装置は、ステップS800からの処理を繰り返す。
ステップS816において異なる表示を行うと判定されない場合には、本実施形態に係る画像処理装置は、処理を終了する。
本実施形態に係る画像処理装置は、本実施形態に係る画像処理方法に係る処理として、例えば図26に示す処理を行う。
図26に示すように、本実施形態に係る画像処理装置は、図25に示す第4の例に係る画像処理方法に係る処理と同様の処理によって、立体視を実現可能な2つの画像(右目用の画像に対応する右視点画像と、左目用の画像に対応する左視点画像)を生成する。よって、例えば図26に示す処理を行う場合であっても、本実施形態に係る画像処理装置は、上記[3−2−4]に示す第4の例に係る画像処理方法に係る処理と同様の効果を奏することができる。
なお、第5の例に係る画像処理方法に係る処理は、図26に示す処理に限られない。例えば、本実施形態に係る画像処理装置は、上記[3−2−4]に示す第4の例に係る画像処理方法に係る処理と同様の変形例に係る処理を行うことが可能である。
(本実施形態に係る画像処理装置)
次に、上述した本実施形態に係る画像処理方法に係る処理を行うことが可能な、本実施形態に係る画像処理装置の構成の一例について説明する。
図27は、本実施形態に係る画像処理装置100の構成の一例を示すブロック図である。画像処理装置100は、例えば、撮像部102と、記憶部104と、制御部106とを備える。
また、画像処理装置100は、例えば、ROM(Read Only Memory。図示せず)や、RAM(Random Access Memory。図示せず)、通信部(図示せず)、ユーザが操作可能な操作部(図示せず)、様々な画面を表示画面に表示する表示部(図示せず)などを備えていてもよい。画像処理装置100は、例えば、データの伝送路としてのバスにより上記各構成要素間を接続する。
ROM(図示せず)は、制御部106が使用するプログラムや演算パラメータなどの制御用データを記憶する。RAM(図示せず)は、制御部106により実行されるプログラムなどを一時的に記憶する。
通信部(図示せず)は、画像処理装置100が備える通信手段であり、ネットワークを介して(あるいは、直接的に)、外部の撮像デバイスや、外部装置と、無線または有線で通信を行う。また、通信部(図示せず)は、例えば制御部106により通信が制御される。通信部(図示せず)としては、後述する通信インタフェースが挙げられる。
操作部(図示せず)としては、後述する操作入力デバイスが挙げられる。また、表示部(図示せず)としては、後述する表示デバイスが挙げられる。
[画像処理装置100のハードウェア構成例]
図28は、本実施形態に係る画像処理装置100のハードウェア構成の一例を示す説明図である。画像処理装置100は、例えば、MPU150と、ROM152と、RAM154と、記録媒体156と、入出力インタフェース158と、操作入力デバイス160と、表示デバイス162と、通信インタフェース164と、撮像デバイス166とを備える。また、画像処理装置100は、例えば、データの伝送路としてのバス168で各構成要素間を接続する。
MPU150は、例えば、MPU(Micro Processing Unit)などの演算回路で構成されるプロセッサや、各種処理回路などで構成され、画像処理装置100全体を制御する制御部106として機能する。また、MPU150は、画像処理装置100において、例えば、後述する現像処理部110、記録処理部112、移動量決定部114、移動処理部116、球面投影部118、視点画像生成部120、および表示制御部122の役目を果たす。
ROM152は、MPU150が使用するプログラムや演算パラメータなどの制御用データなどを記憶する。RAM154は、例えば、MPU150により実行されるプログラムなどを一時的に記憶する。
記録媒体156は、記憶部104として機能し、例えば、撮像画像を示すデータや、像中心からの角度のレンズ特性を示す関数を示すデータなどの本実施形態に係る画像処理方法に係るデータ、アプリケーションなど様々なデータを記憶する。ここで、記録媒体156としては、例えば、ハードディスクなどの磁気記録媒体や、フラッシュメモリなどの不揮発性メモリなどが挙げられる。また、記録媒体156は、画像処理装置100から着脱可能であってもよい。
入出力インタフェース158は、例えば、操作入力デバイス160や、表示デバイス162を接続する。操作入力デバイス160は、操作部(図示せず)として機能し、また、表示デバイス162は、表示部(図示せず)として機能する。ここで、入出力インタフェース158としては、例えば、USB(Universal Serial Bus)端子や、DVI(Digital Visual Interface)端子、HDMI(High-Definition Multimedia Interface)(登録商標)端子、各種処理回路などが挙げられる。
また、操作入力デバイス160は、例えば、画像処理装置100上に備えられ、画像処理装置100の内部で入出力インタフェース158と接続される。操作入力デバイス160としては、例えば、ボタンや、方向キー、ジョグダイヤルなどの回転型セレクター、あるいは、これらの組み合わせなどが挙げられる。
また、表示デバイス162は、例えば、画像処理装置100上に備えられ、画像処理装置100の内部で入出力インタフェース158と接続される。表示デバイス162としては、例えば、液晶ディスプレイ(Liquid Crystal Display)や有機ELディスプレイ(Organic Electro-Luminescence Display。または、OLEDディスプレイ(Organic Light Emitting Diode Display)ともよばれる。)などが挙げられる。
なお、入出力インタフェース158が、画像処理装置100の外部装置としての外部操作入力デバイス(例えば、キーボードやマウスなど)や外部表示デバイスなどの、外部デバイスと接続することも可能であることは、言うまでもない。また、表示デバイス162は、例えばタッチスクリーンなど、表示とユーザ操作とが可能なデバイスであってもよい。
通信インタフェース164は、画像処理装置100が備える通信手段であり、ネットワークを介して(あるいは、直接的に)、外部の設定対象の装置などの外部装置と、無線または有線で通信を行うための通信部(図示せず)として機能する。ここで、通信インタフェース164としては、例えば、通信アンテナおよびRF(Radio Frequency)回路(無線通信)や、IEEE802.15.1ポートおよび送受信回路(無線通信)、IEEE802.11ポートおよび送受信回路(無線通信)、あるいはLAN(Local Area Network)端子および送受信回路(有線通信)などが挙げられる。また、本実施形態に係るネットワークとしては、例えば、LANやWAN(Wide Area Network)などの有線ネットワーク、無線LAN(WLAN:Wireless Local Area Network)や基地局を介した無線WAN(WWAN:Wireless Wide Area Network)などの無線ネットワーク、あるいは、TCP/IP(Transmission Control Protocol/Internet Protocol)などの通信プロトコルを用いたインターネットなどが挙げられる。
撮像デバイス166は、画像処理装置100が備える撮像手段であり、複数の光学部を有し、全方位を撮像範囲とする。つまり、撮像デバイス166は、本実施形態に係る全天球型の撮像デバイスの役目を果たす。
図29は、本実施形態に係る画像処理装置100のハードウェア構成の一例を示す説明図であり、図29のAと図29のBとは、画像処理装置100が備える撮像デバイス166の構成の一例をそれぞれ示している。
図29のAに示す構成をとる撮像デバイス166は、例えば、レンズL1と、レンズL2と、レンズL1に対応する受光素子S1と、レンズL2に対応する受光素子S2とを備える。図29のAに示す構成をとる撮像デバイス166では、“レンズL1および受光素子S1”と、“レンズL2および受光素子S2”とが、それぞれ光学部に該当する。つまり、図29のAに示す構成は、2つのレンズそれぞれに対応する2つの受光素子を有する構成である。
また、図29のAに示す構成をとる撮像デバイス166では、2つの光学部において少なくとも撮像範囲の一部が重複し、全方位が撮像範囲とされる。
図29のAに示す構成をとる場合、撮像デバイス166は、“レンズL1および受光素子S1”を有する光学部において生成された撮像画像を示す信号と、“レンズL2および受光素子S2”を有する光学部において生成された撮像画像を示す信号とを出力する。ここで、図29のAに示す構成をとる撮像デバイス166から出力される各光学部に対応する撮像画像を示す信号は、RAWデータを示す信号に該当する。
図29のBに示す構成をとる撮像デバイス166は、例えば、レンズL1と、レンズL2と、ミラーMと、レンズL1およびレンズL2に対応する受光素子Sとを備える。図29のBに示す構成をとる撮像デバイス166では、“レンズL1、ミラーM、および受光素子S”と、“レンズL2、ミラーM、および受光素子S”とが、それぞれ光学部に該当する。つまり、図29のBに示す構成は、1つの受光素子を2つのレンズで共有する構成である。
また、図29のBに示す構成をとる撮像デバイス166では、2つの光学部において少なくとも撮像範囲の一部が重複し、全方位が撮像範囲とされる。
図29のBに示す構成をとる場合、撮像デバイス166は、“レンズL1、ミラーM、および受光素子S”を有する光学部において生成された撮像画像を示す信号と、“レンズL2、ミラーM、および受光素子S”を有する光学部において生成された撮像画像を示す信号とを出力する。ここで、図29のBに示す構成をとる撮像デバイス166から出力される各光学部に対応する撮像画像を示す信号は、RAWデータを示す信号に該当する。
撮像デバイス166は、例えば図29に示す構成を有することによって、少なくとも一部の領域が重複する2つの撮像画像を得ることができる。
なお、本実施形態に係る画像処理装置100が備える撮像デバイス166の構成は、図29に示す構成に限られない。例えば、撮像デバイス166は、図14や図15を参照して説明したように、3以上の光学部を有する構成であってもよい。
画像処理装置100は、例えば図28示す構成によって、本実施形態に係る画像処理方法に係る処理を行う。なお、本実施形態に係る画像処理装置100のハードウェア構成は、図28に示す構成に限られない。
例えば、外部の本実施形態に係る全天球型の撮像デバイスにおいて生成された、複数の撮像画像を処理する場合には、画像処理装置100は、撮像デバイス166を備えていなくてもよい。
また、画像処理装置100は、例えば、接続されている外部通信デバイスを介して、外部装置と通信を行う場合には、通信インタフェース164を備えていなくてもよい。また、画像処理装置100は、記憶媒体156や、操作デバイス160、表示デバイス162を備えない構成をとることも可能である。
再度図27を参照して、画像処理装置100の構成の一例について説明する。撮像部102は、画像処理装置100が備える撮像手段であり、少なくとも撮像範囲の一部が重複する複数の光学部を有し、撮像範囲を全方位とする。撮像部102は、例えば図29に示すような構成を有する本実施形態に係る全天球型の撮像デバイスを含んで構成される。
記憶部104は、画像処理装置100が備える記憶手段であり、例えば、撮像画像を示すデータや、像中心からの角度のレンズ特性を示す関数を示すデータなどの本実施形態に係る画像処理方法に係るデータ、アプリケーションなど様々なデータを記憶する。図27では、撮像画像データ130、…が記憶部104に記憶されている例を示している。
ここで、記憶部104としては、例えば、ハードディスクなどの磁気記録媒体や、フラッシュメモリなどの不揮発性メモリなどが挙げられる。また、記憶部104は、画像処理装置100から着脱可能であってもよい。
制御部106は、例えばMPUなどで構成され、画像処理装置100全体を制御する役目を果たす。また、制御部106は、例えば、現像処理部110と、記録処理部112と、移動量決定部114と、移動処理部116と、球面投影部118と、視点画像生成部120と、表示制御部122とを備え、本実施形態に係る画像処理方法に係る処理を主導的に行う役目を果たす。
現像処理部110は、例えば、撮像部102から伝達される撮像画像を示す信号や、通信部(図示せず)が受信した、本実施形態に係る全天球型の撮像デバイスにおいて生成された撮像画像を示す信号に対して、現像処理を行う。現像処理部110における処理は、例えば図17のステップS102の処理に該当する。
記録処理部112は、現像処理部110において現像処理が行われた撮像画像を、記憶部104などの記録媒体に記録させる。記録処理部112における処理は、例えば図17のステップS104の処理に該当する。
また、記録処理部112は、撮像部102や外部の本実施形態に係る全天球型の撮像デバイスにおける撮像姿勢を示すデータを、撮像画像と共に記録媒体に記憶させてもよい。本実施形態に係る撮像姿勢を示すデータとしては、例えば、画像処理装置100や外部の本実施形態に係る全天球型の撮像デバイスが備える姿勢検出が可能なセンサ(ジャイロセンサなど)の出力を示すデータや、画像処理装置100や外部の本実施形態に係る全天球型の撮像デバイスに接続された、外部の姿勢検出が可能なセンサの出力を示すデータなどが挙げられる。
また、例えば図22に示すように、撮像に係る処理の一環として本実施形態に係る移動量決定処理、および本実施形態に係る移動処理が行われる場合には、記録処理部112は、後述する移動処理部116において処理された撮像画像を記録媒体に記録してもよい。記録処理部112における上記記録媒体への撮像画像の記録に係る処理は、例えば図22のステップS408の処理に該当する。
本実施形態に係る撮像姿勢を示すデータは、例えば、後述する視点画像生成部120における画像の切り出しに係る処理において用いられる。なお、視点画像生成部120が、設定されている撮像姿勢に基づいて処理を行う場合には、記録処理部112は、本実施形態に係る撮像姿勢を示すデータを記録媒体に記憶させなくてもよい。
移動量決定部114は、本実施形態に係る移動量決定処理を行う役目を果たす。移動量決定部114は、本実施形態に係る全天球型の撮像デバイスが有する複数の光学部それぞれに対応する複数の撮像画像が基準位置から撮像された画像であるように対象オブジェクトを移動させるための移動量を、決定する。移動量決定部114は、“本実施形態に係る全天球型の撮像デバイスから対象オブジェクトまでの距離”と、“基準位置における基準線から対象オブジェクトまでの角度”とに基づいて、移動量を決定する。
ここで、移動量決定部114が処理する撮像画像としては、例えば、撮像部102や外部の本実施形態に係る全天球型の撮像デバイスにおいて生成され、記憶部102などの記録媒体に記憶されている撮像画像データが示す画像が挙げられる。また、移動量決定部114は、例えば、撮像部102から伝達される撮像画像や、通信部(図示せず)などにより受信された、外部の本実施形態に係る全天球型の撮像デバイスにおいて生成された撮像画像を、処理することも可能である。
より具体的には、移動量決定部114は、例えば、図19に示すステップS300〜S304に示す処理を行うことによって、移動量を決定する。また、移動量決定部114は、例えば、図25のステップS704、S706や、図26のステップS804、S806に示すように、第1の移動量と第2の移動量とを決定してもよい。
また、例えば図22に示すように、撮像に係る処理の一環として本実施形態に係る移動量決定処理が行われる場合には、移動処理部116は、例えば、現像処理部110において現像処理が行われた複数の撮像画像に基づいて、移動量を決定してもよい。
移動処理部116は、本実施形態に係る移動処理を行う役目を果たし、移動量決定部114において決定された移動量に基づいて、撮像画像に含まれる対象オブジェクトを移動させる。移動処理部116における処理は、例えば図19のステップS306の処理に該当する。また、移動処理部116は、例えば、図25のステップS704、S706や、図26のステップS804、S806に示すように、第1の移動量に基づき対象オブジェクトを移動させ、また、第2の移動量に基づき対象オブジェクトを移動させてもよい。
球面投影部118は、本実施形態に係る球面投影処理を行う役目を果たし、対象オブジェクトが移動された複数の撮像画像を球面投影する。球面投影部118における処理は、例えば図18のステップS206の処理に該当する。
視点画像生成部120は、本実施形態に係る視点画像生成処理を行う役目を果たし、球面投影された画像から、設定された方位に対応する画像を切り出して、視点画像を生成する。視点画像生成部120における処理は、例えば図18のステップS208の処理に該当する。
ここで、移動処理部116の処理、球面投影部118の処理、および視点画像生成部120の処理は、移動量決定部114において決定された移動量に基づいて視点画像を生成する一連の処理に相当する。よって、移動処理部116、球面投影部118、および視点画像生成部120は、画像処理装置100における画像生成部と捉えることが可能である。
表示制御部122は、視点画像生成部120において生成された視点画像を表示画面に表示させる。表示制御部122における処理は、例えば図18のステップS210の処理に該当する。
画像処理装置100は、例えば図27に示す構成によって、本実施形態に係る画像処理方法に係る処理(例えば、移動量決定処理、移動処理、球面投影処理、および視点画像生成処理)を行う。よって、画像処理装置100が例えば図27に示す構成を有することによって、上記[3−2−1]に示す第1の例に係る画像処理方法に係る処理〜上記[3−2−5]に示す第5の例に係る画像処理方法に係る処理に示すような、本実施形態に係る画像処理方法に係る処理を実現することができる。
したがって、画像処理装置100は、例えば図27に示す構成によって、撮像範囲を全方位とする撮像デバイスにより撮像された複数の撮像画像が合成された画像を、より自然な画像とさせることができる。また、例えば図27に示す構成によって、画像処理装置100は、例えば上述したような、本実施形態に係る画像処理方法に係る処理が行われることにより奏される効果を、奏することができる。
なお、本実施形態に係る画像処理装置の構成は、図27に示す構成に限られない。
例えば、外部の本実施形態に係る全天球型の撮像デバイスにおいて撮像された複数の撮像画像に対して、本実施形態に係る画像処理方法に係る処理を行う場合には、本実施形態に係る画像処理装置は、図27に示す撮像部102を備えていなくてもよい。
また、例えば、“外部の本実施形態に係る全天球型の撮像デバイスにおいて撮像された複数の撮像画像に対して、本実施形態に係る画像処理方法に係る処理を行う場合”や、“RAWデータである撮像画像に対して、本実施形態に係る画像処理方法に係る処理を行う場合”には、本実施形態に係る画像処理装置は、図27に示す現像処理部110を備えていなくてもよい。
また、例えば、“外部の本実施形態に係る全天球型の撮像デバイスにおいて撮像された複数の撮像画像に対して、本実施形態に係る画像処理方法に係る処理を行う場合”や、“RAWデータである撮像画像または現像処理が行われた撮像画像に対して、本実施形態に係る画像処理方法に係る処理が行われる場合”には、本実施形態に係る画像処理装置は、図27に示す記録処理部112を備えていなくてもよい。
また、例えば、“外部の記録媒体などに記憶された撮像画像に対して、本実施形態に係る画像処理方法に係る処理を行う場合”や、“RAWデータである撮像画像または現像処理が行われた撮像画像に対して、本実施形態に係る画像処理方法に係る処理が行われる場合”には、本実施形態に係る画像処理装置は、図27に示す記憶部104を備えていなくてもよい。
また、本実施形態に係る画像処理装置は、移動処理部116、球面投影部118、視点画像生成部120、および表示制御部122のうちの1または2以上を備えない構成をとることも可能である。
上記のいずれの変形例に係る構成、または、上記の変形例に係る構成を組み合わせた構成をとる場合であっても、本実施形態に係る画像処理装置は、本実施形態に係る移動量決定処理を行うことができる。よって、上記のいずれの変形例に係る構成、または、上記の変形例に係る構成を組み合わせた構成をとる場合であっても、本実施形態に係る画像処理装置は、撮像範囲を全方位とする撮像デバイスにより撮像された複数の撮像画像が合成された画像を、より自然な画像とさせることができる。
また、本実施形態に係る画像処理装置は、例えば、図27に示す現像処理部110、記録処理部112、移動量決定部114、移動処理部116、球面投影部118、視点画像生成部120、および表示制御部122のうちの1または2以上を、制御部106とは個別に備える(例えば、別の処理回路で実現する)ことができる。一例を挙げると、例えば、移動処理部116、球面投影部118、および視点画像生成部120は、上述した画像処理部に該当する1つの処理回路で実現されてもよい。
以上、本実施形態として、画像処理装置を挙げて説明したが、本実施形態は、かかる形態に限られない。本実施形態は、例えば、図1に示すような全天球型の撮像デバイスや、PC(Personal Computer)やサーバなどのコンピュータ、表示装置、テレビ受像機、携帯電話やスマートフォンなどの通信装置、タブレット型の装置、映像/音楽再生装置(または映像/音楽記録再生装置)、ゲーム機など、様々な機器に適用することができる。また、本実施形態は、例えば、上記のような機器に組み込むことが可能な、処理IC(Integrated Circuit)に適用することもできる。
また、本実施形態は、例えばクラウドコンピューティングなどのように、ネットワークへの接続(または各装置間の通信)を前提とした、複数の装置からなるシステムにより実現されてもよい。つまり、上述した本実施形態に係る画像処理装置は、例えば、複数の装置からなる画像処理システムとして実現することも可能である。
(本実施形態に係るプログラム)
コンピュータを、本実施形態に係る画像処理装置として機能させるためのプログラム(例えば、“本実施形態に係る移動量決定処理”や、“上記[3−2−1]に示す第1の例に係る画像処理方法に係る処理〜上記[3−2−5]に示す第5の例に係る画像処理方法に係る処理に示すような、本実施形態に係る移動量決定処理を含む処理”など、本実施形態に係る画像処理方法に係る処理を実行することが可能なプログラム)が、コンピュータにおいてプロセッサなどにより実行されることによって、撮像範囲を全方位とする撮像デバイスにより撮像された複数の撮像画像が合成された画像を、より自然な画像とさせることができる。
また、コンピュータを、本実施形態に係る画像処理装置として機能させるためのプログラムが、コンピュータにおいてプロセッサなどにより実行されることによって、上述した本実施形態に係る画像処理方法に係る処理によって奏される効果を、奏することができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記では、コンピュータを、本実施形態に係る画像処理装置として機能させるためのプログラム(コンピュータプログラム)が提供されることを示したが、本実施形態は、さらに、上記プログラムを記憶させた記録媒体も併せて提供することができる。
上述した構成は、本実施形態の一例を示すものであり、当然に、本開示の技術的範囲に属するものである。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
少なくとも撮像範囲の一部が重複する複数の光学部を有し、撮像範囲を全方位とする撮像デバイスにより撮像された、複数の前記光学部それぞれに対応する複数の撮像画像が、前記撮像デバイスにおける基準位置から撮像された画像であるように、前記撮像画像に含まれるオブジェクトのうちの移動対象となる対象オブジェクトを移動させるための移動量を決定する、移動量決定部を備え、
前記移動量決定部は、前記撮像デバイスから前記対象オブジェクトまでの距離と、前記基準位置における基準線から前記対象オブジェクトまでの角度とに基づいて、前記移動量を決定する、画像処理装置。
(2)
前記移動量決定部は、
複数の前記撮像画像における、重複する領域に含まれる前記対象オブジェクトに基づいて、前記撮像デバイスから前記対象オブジェクトまでの距離を算出し、
算出された距離に基づいて、前記移動量を決定する、(1)に記載の画像処理装置。
(3)
前記移動量決定部は、
複数の前記光学部それぞれに対応する位置における基準線から前記対象オブジェクトまでの角度と、設定された複数の前記光学部間の距離とに基づいて、前記撮像デバイスから前記対象オブジェクトまでの距離を算出する、(2)に記載の画像処理装置。
(4)
決定された移動量に基づき前記撮像画像に含まれる前記対象オブジェクトを移動させ、前記対象オブジェクトが移動された複数の前記撮像画像に基づいて、設定された方位に対応する画像である視点画像を生成する画像生成部をさらに備える、(1)〜(3)のいずれか1つに記載の画像処理装置。
(5)
前記画像生成部は、
決定された前記移動量に基づいて、前記撮像画像に含まれる前記対象オブジェクトを移動させる移動処理部と、
前記対象オブジェクトが移動された複数の前記撮像画像を球面投影する球面投影部と、
球面投影された画像から、設定された方位に対応する画像を切り出して、前記視点画像を生成する視点画像生成部と、
を備える、(4)に記載の画像処理装置。
(6)
生成された前記視点画像を表示画面に表示させる表示制御部をさらに備える、(4)、または(5)に記載の画像処理装置。
(7)
前記撮像デバイスは、撮像範囲の全体を複数の光学部の撮像範囲により重複させる、3以上の光学部を有し、
前記基準位置は、3以上の前記光学部それぞれに対応する位置を頂点とするn角形(nは、前記光学部の数)内に含まれる、第1の基準位置と、第2の基準位置であり、
前記移動量決定部は、3以上の前記光学部それぞれに対応する3以上の撮像画像が、前記第1の基準位置から撮像された画像であるように、前記撮像画像に含まれるオブジェクトのうちの移動対象となる対象オブジェクトを移動させるための第1の移動量と、前記3以上の撮像画像が前記第2の基準位置から撮像された画像であるように、前記撮像画像に含まれるオブジェクトのうちの移動対象となる対象オブジェクトを移動させるための第2の移動量とを、決定する、(1)、または(2)に記載の画像処理装置。
(8)
前記撮像デバイスは、撮像範囲の全体を複数の光学部の撮像範囲により重複させる、角錐上に配置された4以上の光学部を有し、
前記基準位置は、4以上の前記光学部それぞれに対応する位置を頂点とする角錐内に含まれる、第1の基準位置と、第2の基準位置であり、
前記移動量決定部は、4以上の前記光学部それぞれに対応する4以上の撮像画像が、前記第1の基準位置から撮像された画像であるように、前記撮像画像に含まれるオブジェクトのうちの移動対象となる対象オブジェクトを移動させるための第1の移動量と、前記4以上の撮像画像が前記第2の基準位置から撮像された画像であるように、前記撮像画像に含まれるオブジェクトのうちの移動対象となる対象オブジェクトを移動させるための第2の移動量とを、決定する、(1)、または(2)に記載の画像処理装置。
(9)
決定された前記第1の移動量に基づき前記撮像画像に含まれる前記対象オブジェクトが移動された、複数の前記撮像画像に基づいて、設定された方位に対応する画像である第1の視点画像を生成し、
決定された前記第2の移動量に基づき前記撮像画像に含まれる前記対象オブジェクトが移動された、複数の前記撮像画像に基づいて、設定された方位に対応する画像である第2の視点画像を生成する、画像生成部をさらに備える、(7)、または(8)に記載の画像処理装置。
(10)
前記撮像デバイスを含んで構成される撮像部をさらに備え、
前記移動量決定部は、前記撮像部において撮像された複数の撮像画像に対する前記移動量を決定する、(1)〜(9)のいずれか1つに記載の画像処理装置。
(11)
少なくとも撮像範囲の一部が重複する複数の光学部を有し、撮像範囲を全方位とする撮像デバイスにより撮像された、複数の前記光学部それぞれに対応する複数の撮像画像が、前記撮像デバイスにおける基準位置から撮像された画像であるように、前記撮像画像に含まれるオブジェクトのうちの移動対象となる対象オブジェクトを移動させるための移動量を決定する、移動量決定ステップを有し、
前記移動量決定ステップでは、前記撮像デバイスから前記対象オブジェクトまでの距離と、前記基準位置における基準線から前記対象オブジェクトまでの角度とに基づいて、前記移動量が決定される、画像処理装置により実行される画像処理方法。
(12)
少なくとも撮像範囲の一部が重複する複数の光学部を有し、撮像範囲を全方位とする撮像デバイスにより撮像された、複数の前記光学部それぞれに対応する複数の撮像画像が、前記撮像デバイスにおける基準位置から撮像された画像であるように、前記撮像画像に含まれるオブジェクトのうちの移動対象となる対象オブジェクトを移動させるための移動量を決定する、移動量決定ステップ、
をコンピュータに実行させ、
前記移動量決定ステップでは、前記撮像デバイスから前記対象オブジェクトまでの距離と、前記基準位置における基準線から前記対象オブジェクトまでの角度とに基づいて、前記移動量が決定される、プログラム。
100 画像処理装置
102 撮像部
104 記憶部
106 制御部
110 現像処理部
112 記録処理部
114 移動量決定部
116 移動処理部
118 球面投影部
120 視点画像生成部
122 表示制御部

Claims (12)

  1. 少なくとも撮像範囲の一部が重複する複数の光学部を有し、撮像範囲を全方位とする撮像デバイスにより撮像された、複数の前記光学部それぞれに対応する複数の撮像画像が、前記撮像デバイスにおける基準位置から撮像された画像であるように、前記撮像画像に含まれるオブジェクトのうちの移動対象となる対象オブジェクトを移動させるための移動量を決定する、移動量決定部を備え、
    前記移動量決定部は、前記撮像デバイスから前記対象オブジェクトまでの距離と、前記基準位置における基準線から前記対象オブジェクトまでの角度とに基づいて、前記移動量を決定する、画像処理装置。
  2. 前記移動量決定部は、
    複数の前記撮像画像における、重複する領域に含まれる前記対象オブジェクトに基づいて、前記撮像デバイスから前記対象オブジェクトまでの距離を算出し、
    算出された距離に基づいて、前記移動量を決定する、請求項1に記載の画像処理装置。
  3. 前記移動量決定部は、
    複数の前記光学部それぞれに対応する位置における基準線から前記対象オブジェクトまでの角度と、設定された複数の前記光学部間の距離とに基づいて、前記撮像デバイスから前記対象オブジェクトまでの距離を算出する、請求項2に記載の画像処理装置。
  4. 決定された移動量に基づき前記撮像画像に含まれる前記対象オブジェクトを移動させ、前記対象オブジェクトが移動された複数の前記撮像画像に基づいて、設定された方位に対応する画像である視点画像を生成する画像生成部をさらに備える、請求項1に記載の画像処理装置。
  5. 前記画像生成部は、
    決定された前記移動量に基づいて、前記撮像画像に含まれる前記対象オブジェクトを移動させる移動処理部と、
    前記対象オブジェクトが移動された複数の前記撮像画像を球面投影する球面投影部と、
    球面投影された画像から、設定された方位に対応する画像を切り出して、前記視点画像を生成する視点画像生成部と、
    を備える、請求項4に記載の画像処理装置。
  6. 生成された前記視点画像を表示画面に表示させる表示制御部をさらに備える、請求項4に記載の画像処理装置。
  7. 前記撮像デバイスは、撮像範囲の全体を複数の光学部の撮像範囲により重複させる、3以上の光学部を有し、
    前記基準位置は、3以上の前記光学部それぞれに対応する位置を頂点とするn角形(nは、前記光学部の数)内に含まれる、第1の基準位置と、第2の基準位置であり、
    前記移動量決定部は、3以上の前記光学部それぞれに対応する3以上の撮像画像が、前記第1の基準位置から撮像された画像であるように、前記撮像画像に含まれるオブジェクトのうちの移動対象となる対象オブジェクトを移動させるための第1の移動量と、前記3以上の撮像画像が前記第2の基準位置から撮像された画像であるように、前記撮像画像に含まれるオブジェクトのうちの移動対象となる対象オブジェクトを移動させるための第2の移動量とを、決定する、請求項1に記載の画像処理装置。
  8. 前記撮像デバイスは、撮像範囲の全体を複数の光学部の撮像範囲により重複させる、角錐上に配置された4以上の光学部を有し、
    前記基準位置は、4以上の前記光学部それぞれに対応する位置を頂点とする角錐内に含まれる、第1の基準位置と、第2の基準位置であり、
    前記移動量決定部は、4以上の前記光学部それぞれに対応する4以上の撮像画像が、前記第1の基準位置から撮像された画像であるように、前記撮像画像に含まれるオブジェクトのうちの移動対象となる対象オブジェクトを移動させるための第1の移動量と、前記4以上の撮像画像が前記第2の基準位置から撮像された画像であるように、前記撮像画像に含まれるオブジェクトのうちの移動対象となる対象オブジェクトを移動させるための第2の移動量とを、決定する、請求項1に記載の画像処理装置。
  9. 決定された前記第1の移動量に基づき前記撮像画像に含まれる前記対象オブジェクトが移動された、複数の前記撮像画像に基づいて、設定された方位に対応する画像である第1の視点画像を生成し、
    決定された前記第2の移動量に基づき前記撮像画像に含まれる前記対象オブジェクトが移動された、複数の前記撮像画像に基づいて、設定された方位に対応する画像である第2の視点画像を生成する、画像生成部をさらに備える、請求項7に記載の画像処理装置。
  10. 前記撮像デバイスを含んで構成される撮像部をさらに備え、
    前記移動量決定部は、前記撮像部において撮像された複数の撮像画像に対する前記移動量を決定する、請求項1に記載の画像処理装置。
  11. 少なくとも撮像範囲の一部が重複する複数の光学部を有し、撮像範囲を全方位とする撮像デバイスにより撮像された、複数の前記光学部それぞれに対応する複数の撮像画像が、前記撮像デバイスにおける基準位置から撮像された画像であるように、前記撮像画像に含まれるオブジェクトのうちの移動対象となる対象オブジェクトを移動させるための移動量を決定する、移動量決定ステップを有し、
    前記移動量決定ステップでは、前記撮像デバイスから前記対象オブジェクトまでの距離と、前記基準位置における基準線から前記対象オブジェクトまでの角度とに基づいて、前記移動量が決定される、画像処理装置により実行される画像処理方法。
  12. 少なくとも撮像範囲の一部が重複する複数の光学部を有し、撮像範囲を全方位とする撮像デバイスにより撮像された、複数の前記光学部それぞれに対応する複数の撮像画像が、前記撮像デバイスにおける基準位置から撮像された画像であるように、前記撮像画像に含まれるオブジェクトのうちの移動対象となる対象オブジェクトを移動させるための移動量を決定する、移動量決定ステップ、
    をコンピュータに実行させ、
    前記移動量決定ステップでは、前記撮像デバイスから前記対象オブジェクトまでの距離と、前記基準位置における基準線から前記対象オブジェクトまでの角度とに基づいて、前記移動量が決定される、プログラム。
JP2014021283A 2014-02-06 2014-02-06 画像処理装置、画像処理方法、およびプログラム Pending JP2015149600A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014021283A JP2015149600A (ja) 2014-02-06 2014-02-06 画像処理装置、画像処理方法、およびプログラム
US14/607,281 US9589317B2 (en) 2014-02-06 2015-01-28 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014021283A JP2015149600A (ja) 2014-02-06 2014-02-06 画像処理装置、画像処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2015149600A true JP2015149600A (ja) 2015-08-20

Family

ID=53755093

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014021283A Pending JP2015149600A (ja) 2014-02-06 2014-02-06 画像処理装置、画像処理方法、およびプログラム

Country Status (2)

Country Link
US (1) US9589317B2 (ja)
JP (1) JP2015149600A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021122114A (ja) * 2017-05-19 2021-08-26 株式会社ユピテル ドライブレコーダー、ドライブレコーダー用表示装置及びプログラム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5919665B2 (ja) * 2011-07-19 2016-05-18 日本電気株式会社 情報処理装置、物体追跡方法および情報処理プログラム
JP2013214947A (ja) * 2012-03-09 2013-10-17 Ricoh Co Ltd 撮像装置、撮像システム、画像処理方法、情報処理装置、及びプログラム
US9992394B2 (en) * 2015-03-18 2018-06-05 Gopro, Inc. Dual-lens mounting for a spherical camera
US10043237B2 (en) 2015-08-12 2018-08-07 Gopro, Inc. Equatorial stitching of hemispherical images in a spherical image capture system
US20170302714A1 (en) * 2016-04-15 2017-10-19 Diplloid Inc. Methods and systems for conversion, playback and tagging and streaming of spherical images and video
US10339627B2 (en) 2016-10-10 2019-07-02 Gopro, Inc. Apparatus and methods for the optimal stitch zone calculation of a generated projection of a spherical image
CN106651764B (zh) * 2016-12-29 2019-10-15 北京奇艺世纪科技有限公司 一种全景图压缩方法及装置
US11721712B2 (en) 2018-08-31 2023-08-08 Gopro, Inc. Image capture device
CN111479055B (zh) * 2020-04-10 2022-05-20 Oppo广东移动通信有限公司 拍摄方法、装置、电子设备及存储介质
CN114466140B (zh) * 2022-02-09 2023-10-24 维沃移动通信有限公司 图像拍摄方法及装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009097449A1 (en) * 2008-01-29 2009-08-06 Enforcement Video, Llc Omnidirectional camera for use in police car event recording
US8744216B2 (en) * 2010-03-18 2014-06-03 Panasonic Corporation Omnidirectional image processing device and method using warp processing for enhanced object visibility
JP5250598B2 (ja) * 2010-10-05 2013-07-31 株式会社ソニー・コンピュータエンタテインメント 画像表示装置および画像表示方法
WO2012147303A1 (ja) * 2011-04-25 2012-11-01 Hayashi Mitsuo 全方位画像編集プログラム及び全方位画像編集装置
JP5652349B2 (ja) 2011-07-25 2015-01-14 株式会社リコー 広角レンズおよび全天球型撮像装置
JP2013214947A (ja) * 2012-03-09 2013-10-17 Ricoh Co Ltd 撮像装置、撮像システム、画像処理方法、情報処理装置、及びプログラム
JP5910485B2 (ja) * 2012-03-16 2016-04-27 株式会社リコー 撮像システム
US9135678B2 (en) * 2012-03-19 2015-09-15 Adobe Systems Incorporated Methods and apparatus for interfacing panoramic image stitching with post-processors
US10666860B2 (en) * 2012-09-11 2020-05-26 Ricoh Company, Ltd. Image processor, image processing method and program, and imaging system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021122114A (ja) * 2017-05-19 2021-08-26 株式会社ユピテル ドライブレコーダー、ドライブレコーダー用表示装置及びプログラム
JP7079988B2 (ja) 2017-05-19 2022-06-03 株式会社ユピテル ドライブレコーダー、ドライブレコーダー用表示装置及びプログラム

Also Published As

Publication number Publication date
US20150220781A1 (en) 2015-08-06
US9589317B2 (en) 2017-03-07

Similar Documents

Publication Publication Date Title
JP2015149600A (ja) 画像処理装置、画像処理方法、およびプログラム
US9858643B2 (en) Image generating device, image generating method, and program
US11024083B2 (en) Server, user terminal device, and control method therefor
US9159169B2 (en) Image display apparatus, imaging apparatus, image display method, control method for imaging apparatus, and program
JP7026819B2 (ja) カメラの位置決め方法および装置、端末並びにコンピュータプログラム
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
US11310459B2 (en) Image capturing device, image capturing system, image processing method, and recording medium
US10607410B2 (en) Displaying visual information of views captured at geographic locations
US20180219975A1 (en) Sharing Mediated Reality Content
US11228737B2 (en) Output control apparatus, display terminal, remote control system, control method, and non-transitory computer-readable medium
JP6134019B1 (ja) 仮想現実空間提供方法および仮想現実空間提供プログラム
WO2014199564A1 (en) Information processing device, imaging device, information processing method, and program
KR20180017736A (ko) Hmd 및 그 hmd의 제어 방법
WO2019142432A1 (ja) 情報処理装置、情報処理方法及び記録媒体
US11250540B2 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
US10869156B2 (en) Audio processing
CN111292424A (zh) 多视点360度vr内容提供***
KR101572800B1 (ko) 3차원 공간 모델에 대한 카메라 제어 시스템
WO2024116270A1 (ja) 携帯情報端末及び仮想現実表示システム
US11700455B2 (en) Image capturing device, image communication system, and method for display control
US20240087157A1 (en) Image processing method, recording medium, image processing apparatus, and image processing system
WO2021095537A1 (ja) 情報処理装置、情報処理方法、並びにプログラム
JP2021092672A (ja) 撮像装置