JP2022130180A - 画像処理方法、プログラム、画像処理装置および画像処理システム - Google Patents

画像処理方法、プログラム、画像処理装置および画像処理システム Download PDF

Info

Publication number
JP2022130180A
JP2022130180A JP2021029207A JP2021029207A JP2022130180A JP 2022130180 A JP2022130180 A JP 2022130180A JP 2021029207 A JP2021029207 A JP 2021029207A JP 2021029207 A JP2021029207 A JP 2021029207A JP 2022130180 A JP2022130180 A JP 2022130180A
Authority
JP
Japan
Prior art keywords
image
image processing
shooting
moving
path
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021029207A
Other languages
English (en)
Inventor
誠 小田巻
Makoto Odamaki
弘親 藤木
Hirochika Fujiki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2021029207A priority Critical patent/JP2022130180A/ja
Priority to US18/275,416 priority patent/US20240087157A1/en
Priority to PCT/IB2022/050616 priority patent/WO2022180459A1/en
Priority to EP22702044.3A priority patent/EP4298599A1/en
Publication of JP2022130180A publication Critical patent/JP2022130180A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/12Panospheric to cylindrical image transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】撮影画像の撮影位置の推定精度を向上させたバーチャルツアーを提供することを目的とする。【解決手段】所定の拠点内を全方位で撮影した撮影画像に対する処理を行う画像処理装置50が実行する画像処理方法であって、拠点内について異なる撮影位置で撮影された複数の静止画像を取得する静止画像取得ステップと、拠点内の第1の地点から第2の地点までを移動しながら撮影された動画像を取得する動画像取得ステップと、取得された動画像に基づいて、複数の静止画像の相対的な撮影位置を推定する位置推定ステップと、推定された撮影位置に基づいて関連づけられた複数の静止画像を含む処理画像(例えば、ツアー画像)を生成する画像処理ステップと、を実行する。【選択図】図15

Description

本開示内容は、画像処理方法、プログラム、画像処理装置および画像処理システムに関する。
全方位を撮影可能な撮影装置を用いて撮影された画像データを配信し、遠隔拠点の状況を、別拠点において閲覧可能なシステムが知られている。所定の拠点を全方位で撮影した全天球画像は、閲覧者に任意の方向を閲覧させることできるため、臨場感ある情報を伝えることができる。このようなシステムは、例えば、不動産業界における物件のオンライン内見等の分野で利用されている。
さらに、不動産物件の複数の撮影位置で撮影された撮影画像を相互に接続することで、あたかも物件の内部を歩いて閲覧しているようなバーチャルツアーサービスが存在する。このバーチャルツアーの作成には、複数の撮影位置で撮影された撮影画像を正しい位置関係で接続することが重要である。このようなバーチャルツアーの作成のため、IMU(inertial measurement unit)で計測された加速度情報を用いて撮影画像の位置推定を行う技術が既に知られている(例えば、特許文献1および特許文献2)。
米国特許第10375306号明細書 米国特許第10530997号明細書
しかしながら、従来のIMUを用いた加速度による位置推定を行う方法では、バーチャルツアーを作成するための複数の撮影画像の位置推定の精度という観点で改善の余地があった。
上述した課題を解決すべく、請求項1に係る発明は、所定の拠点内を全方位で撮影した撮影画像に対する処理を行う画像処理装置が実行する画像処理方法であって、前記拠点内について異なる撮影位置で撮影された複数の静止画像を取得する静止画像取得ステップと、前記拠点内の第1の地点から第2の地点までを移動しながら撮影された動画像を取得する動画像取得ステップと、取得された前記動画像に基づいて、前記複数の静止画像の相対的な撮影位置を推定する推定ステップと、推定された撮影位置に基づいて関連づけられた前記複数の静止画像を含む処理画像を生成する画像処理ステップと、を実行する画像処理方法である。
本発明によれば、撮影画像の撮影位置の推定精度を向上させたバーチャルツアーを提供することができるという効果を奏する。
画像処理システムの全体構成の一例を示す図である。 撮影装置によって撮影された全天球画像の一例を示す図である。 (A)は撮影装置で撮影された半球画像(前)、(B)は撮影装置で撮影された半球画像(後)、(C)は正距円筒図法により表された画像を示した図である。 (A)正距円筒射影画像で球を被う状態を示した概念図、(B)全天球画像を示した図である。 全天球画像を三次元の立体球とした場合の仮想カメラおよび所定領域の位置を示した図である。 所定領域情報と所定領域Tの画像との関係を示した図である。 撮影装置による撮影時の状態の一例を示す図である。 全天球画像の一例を説明するための図である。 全天球画像から変換された平面画像の一例を説明するための図である。 (A)(B)画像処理システムに適用可能な撮影装置の一例について説明するための概略図である。 一般撮影装置によって撮影された撮影画像の一例について説明するための図である。 (A)~(C)画像処理装置によって実行される処理の一例について説明するための概略図である。 撮影装置のハードウエア構成の一例を示す図である。 画像処理装置および通信端末のハードウエア構成の一例を示す図である。 画像処理システムの機能構成の一例を示す図である。 撮影装置によるツアー撮影処理の一例を示すフローチャートである。 (A)(B)撮影装置の固定方法の一例を示す図である。 手持ち撮影と固定撮影の場合における相違点について説明するための図である。 撮影装置による動画撮影と静止画撮影の切り替えについて説明するための図である。 動画撮影と静止画撮影の切り替えタイミングの一例を示す図である。 (A)(B)バーチャルツアーにおけるツアーパスの一例について説明するための図である。 画像処理装置によるツアー画像の生成処理の一例を示すフローチャートである。 (A)(B)部屋形状の大きさの推定処理の一例について説明するための概略図である。 (A)(B)移動経路上の点が位置している部屋の判定処理の一例について説明するための概略図である。 (A)(B)移動経路上の点が位置している部屋の判定処理の一例について説明するための概略図である。 パス生成部により生成されるパスの一例について説明するための概略図である。 (A)(B)部屋の用途がトイレまたは浴室である場合に生成されるパスの一例について説明するための概略図である。 画像処理装置で生成されるツアー画像の一例を説明するための概略図である。 (A)(B)画像処理装置で生成されるツアー画像の一例を説明するための概略図である。
以下、図面を参照しながら、発明を実施するための形態を説明する。なお、図面の説明において同一要素には同一符号を付し、重複する説明は省略する。
●実施形態●
●画像処理システムの概略
まず、図1を用いて、実施形態に係る画像処理システムの構成の概略について説明する。図1は、画像処理システムの全体構成の一例を示す図である。図1に示されている画像処理システム1は、不動産物件等の構造物の内部の空間を閲覧者にオンラインで閲覧させるための撮影画像に対する画像処理を行うシステムである。
図1に示されているように、画像処理システム1は、撮影装置10、画像処理装置50および通信端末90を含む。画像処理システム1を構成する撮影装置10、画像処理装置50および通信端末90は、通信ネットワーク100を介して通信することができる。通信ネットワーク100は、インターネット、移動体通信網、LAN(Local Area Network)等によって構築されている。なお、通信ネットワーク100には、有線通信だけでなく、3G(3rd Generation)、4G(4th Generation)、5G(5th Generation)、Wi-Fi(Wireless Fidelity)(登録商標)、WiMAX(Worldwide Interoperability for Microwave Access)またはLTE(Long Term Evolution)等の無線通信によるネットワークが含まれてもよい。
画像処理装置50は、所定の拠点である不動産物件等の構造物の内部の空間が撮影された撮影画像に対する画像処理を行うサーバコンピュータである。画像処理装置50は、例えば、撮影装置10が撮影した撮影画像を取得し、取得した撮影画像を用いて、ユーザにバーチャルツアーを提供するためのツアー画像を生成する。ここで、バーチャルツアーとは、不動産物件等の構造物の内部を実際に現場で内覧しているかのようにユーザに閲覧させるコンテンツである。また、ツアー画像は、撮影装置10によって撮影された複数の撮影画像を用いて生成され、撮影画像に写る拠点内をユーザ操作によって仮想的に移動することが可能な閲覧用の画像である。
なお、画像処理装置50は、一台のサーバコンピュータによって構成されてもよく、複数のサーバコンピュータによって構成されてもよい。また、画像処理装置50は、クラウド環境に存在するサーバコンピュータであるものとして説明するが、オンプレミス環境に存在するサーバであってもよい。
撮影装置10は、撮影拠点における不動産物件等の構造物の内部の空間を全方位に撮影して全天球(360°)画像を取得可能な特殊なデジタルカメラ(全天球撮影装置)である。撮影装置10は、例えば、不動産物件を管理または販売する不動産業者によって使用される。なお、撮影装置10は、所定値以上の画角を有する広角画像を取得可能な広角カメラまたはステレオカメラ等であってもよい。広角画像は、一般には広角レンズを用いて撮影された画像であり、人間の目で感じるよりも広い範囲を撮影することができるレンズで撮影された画像である。すなわち、撮影装置10は、所定値より焦点距離の短いレンズを用いて撮影された画像(全天球画像、広角画像)を取得可能な撮影手段である。広角画像は、一般的に35mmフィルム換算で35mm以下の焦点距離のレンズで、撮影された画像を意味する。
通信端末90は、画像処理装置50によって処理された画像を表示させて、閲覧者に閲覧させるスマートフォン等のコンピュータである。通信端末90は、例えば、撮影装置10と同じ不動産業者によって使用される。通信端末90には、例えば、撮影装置10に対する撮影指示および画像処理装置50から提供される画像の閲覧を行うための専用のアプリケーションがインストールされている。また、通信端末90は、例えば、専用のアプリケーションを用いずに、Webブラウザを用いて専用のWebサイトにアクセスすることにより、撮影指示および画像閲覧を行う構成であってもよい。また、撮影指示および画像閲覧は、異なる通信端末90によって行われる構成であってもよい。
なお、通信端末90は、スマートフォンに限られず、例えば、PC、タブレット端末、ウェアラブル端末、HMD(head mount display)、またはIWB(Interactive White Board:相互通信が可能な電子式の黒板機能を有する白板)等であってもよい。
○撮影装置の概略○
ここで、図2乃至図11を用いて、画像処理システム1を構成する撮影装置10の概略について説明する。図2は、撮影装置によって撮影された全天球画像の一例を示す図である。図2に示されている画像は、撮影装置10によって構造物の内部の空間の一例である不動産物件の部屋が撮影された全天球画像である。全天球画像は、部屋の内部が全方位で撮影することができるため、不動産物件の閲覧に適している。全天球画像の形態は、様々であるが、後述のEquirectangular(正距円筒図法)の投影方式で生成されることが多い。この正距円筒図法によって生成された画像は、画像の外形が矩形となり画像データの保存が効率的かつ容易であることや、赤道付近の歪みが少なく縦方向の直線が歪まないため、比較的自然に見えることが利点である。
○全天球画像の生成方法
次に、、図3乃至図9を用いて、全天球画像の生成方法について説明する。まず、図3および図4を用いて、撮影装置10で撮影された画像から全天球画像が生成されるまでの処理の概略を説明する。図3(A)は撮影装置で撮影された半球画像(前側)、図3(B)は撮影装置で撮影された半球画像(後側)、図3(C)は正距円筒図法により表された画像(以下、「正距円筒射影画像」という)を示した図である。図4(A)は正距円筒射影画像で球を被う状態を示した概念図、図4(B)は全天球画像を示した図である。
撮影装置10は、正面側(前側)および背面側(後側)のそれぞれに撮像素子が設けられている。これらの撮像素子(画像センサ)は、半球画像(画角180°以上)の撮影が可能なレンズ等の光学部材と併せて用いられる。撮影装置10は、二つの撮像素子によって、それぞれユーザの周りの被写体が撮像されることで、二つの半球画像を得ることができる。
図3(A),(B)に示されているように、撮影装置10の撮像素子によって得られた画像は、湾曲した半球画像(前側および後側)となる。そして、撮影装置10は、半球画像(前側)と180度反転された半球画像(後側)とを合成して、図3(C)に示されているような正距円筒射影画像ECを作成する。
そして、撮影装置10は、OpenGL ES(Open Graphics Library for Embedded Systems)を利用することで、図4(A)に示されているように、球面を覆うように正距円筒射影画像ECを貼り付け、図4(B)に示されているような全天球画像(全天球パノラマ画像)CEを作成する。このように、全天球画像CEは、正距円筒射影画像ECが球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2-Dimensions)および3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。また、全天球画像CEは、静止画であっても動画であってもよい。さらに、変換手法は、OpenGL ESに限らず、半球画像から正距円筒射影図法に変換可能な手法であればよく、例えば、CPUによる演算またはOpenCLによる演算であってもよい。
以上のように、全天球画像CEは、球面を覆うように貼り付けられた画像であるため、人間が見ると違和感を持ってしまう。そこで、撮影装置10は、全天球画像CEの一部の所定領域T(以下、「所定領域画像」という)を湾曲の少ない平面画像として表示することで、人間に違和感を与えない表示をすることができる。これに関して、図5および図6を用いて説明する。
図5は、全天球画像を三次元の立体球とした場合の仮想カメラおよび所定領域の位置を示した図である。仮想カメラICは、三次元の立体球として表示されている全天球画像CEに対して、その画像を見るユーザの視点の位置に相当するものである。図5は、全天球画像CEを、三次元の立体球CSで表している。このように生成された全天球画像CEが、立体球CSであるとした場合、図5に示されているように、仮想カメラICは、全天球画像CEの内部に位置している。全天球画像CEにおける所定領域Tは、仮想カメラICの撮影領域であり、全天球画像CEを含む三次元の仮想空間における仮想カメラICの撮影方向と画角を示す所定領域情報によって特定される。また、所定領域Tのズームは、仮想カメラICを全天球画像CEに近づいたり、遠ざけたりすることで表現することもできる。所定領域画像Qは、全天球画像CEにおける所定領域Tの画像である。したがって、所定領域Tは、画角αと、仮想カメラICから全天球画像CEまでの距離fにより特定できる。
そして、所定領域画像Qは、所定のディスプレイに、仮想カメラICの撮影領域の画像として表示される。以下、仮想カメラICの撮影方向(ea,aa)と画角(α)を用いて説明する。なお、所定領域Tは、画角αと距離fではなく、所定領域Tである仮想カメラICの撮像領域(X,Y,Z)によって示してもよい。
次に、図6を用いて、所定領域情報と所定領域Tの画像の関係について説明する。図6は、所定領域情報と所定領域Tの画像との関係を示した図である。図6に示されているように、「ea」はelevation angle(仰角)、「aa」はazimuth angle(方位角)、「α」は画角(Angle)を示す。すなわち、仮想カメラICの姿勢は、撮影方向(ea,aa)で示される仮想カメラICの注視点が、仮想カメラICの撮影領域である所定領域Tの中心点CP(x,y)となるように変更される。図6に示されているように、仮想カメラICの画角αによって表される所定領域Tの対角画角をαとした場合の中心点CP(x,y)が、所定領域情報のパラメータ((x,y))となる。所定領域画像Qは、全天球画像CEにおける所定領域Tの画像である。fは、仮想カメラICから中心点CP(x,y)までの距離である。Lは、所定領域Tの任意の頂点と中心点CP(x,y)との距離である(2Lは対角線)。そして、図6では、一般的に以下の(式1)で示される三角関数が成り立つ。
Figure 2022130180000002
次に、図7を用いて、撮影装置10による撮影時の様子について説明する。図7は、撮影装置による撮影時の状態の一例を示す図である。不動産物件等の部屋の全体を見渡せるように撮影するためには、撮影装置10を人間の目に高さに近い位置に設置することが好ましい。そのため、図7に示されているように、撮影装置10は、一脚または三脚等の支持部材20で撮影装置10を固定して撮影を行うことが一般的である。撮影装置10は、上述のように、全周囲の全ての方向の光線を取得可能な全天球撮影装置であり、撮影装置10の周囲の単位球上の画像(全天球画像CE)を取得するともいえる。撮影装置10は、撮影方向が決まれば、全天球画像の座標が決定する。例えば、図7において、点Aは、撮影装置10の中心点Cから(d,-h)だけ離れた距離にあり、このとき線分ACと水平方向のなす角度をθとすると、角度θは、以下の(式2)で表すことができる。
Figure 2022130180000003
そして、点Aが俯角θにあると仮定すると、点Aと点Bの距離dは、撮影装置10の設置高さhを用いて、以下の(式3)で表すことができる。
Figure 2022130180000004
ここで、全天球画像上の位置情報を、全天球画像から変換された平面画像上の座標に変換する処理について概略的に説明する。図8は、全天球画像の一例を説明するための図である。なお、図8(A)は、図3(A)に示されている半球画像を光軸に対して水平方向および垂直方向の入射角が等位となる箇所を線で結んで示す図である。以下、光軸に対して水平方向の入射角を「θ」、光軸に対して垂直方向の入射角を「φ」という。
また、図9(A)は、正距円筒図法によって処理された画像の一例を説明する図である。具体的には、図8に示されている画像を予め生成されるLUT(Look Up Table)等で対応させ、正距円筒図法によって処理し、処理された図8(A)および図8(B)に示されているそれぞれの画像を合成すると、全天球画像に対応する図9(A)に示されている平面画像が、撮影装置10によって生成される。図3(C)に示されている正距円筒射影画像ECは、図9(A)に示されている平面画像の一例である。
図9(A)に示されているように、正距円筒図法によって処理された画像では、緯度(θ)と経度(φ)が直交する。図9(A)に示されている例では、画像の中心を(0,0)とし、緯度方向を-90~+90、経度方向を-180~+180で表現することで、全天球画像中の任意の位置を示すことができる。例えば、画像左上の座標は、(-180,-90)となる。なお、全天球画像の座標は、図9(A)に示されているような360度数を用いた形式で表されてもよいし、ラジアン表示または現実の画像のようなピクセル数の表示で表されてもよい。また、全天球画像の座標は、図9(B)に示されているような二次元座標(x,y)に変換されて表されてもよい。
なお、図9(A)または図9(B)に示されている平面画像への合成処理は、図8(A)および図8(B)に示されている半球画像を単に連続して配置する処理に限られない。例えば、全天球画像の水平方向中心がθ=180°でない場合には、合成処理において、撮影装置10は、まず、図3(C)に示されている半球画像を前処理し、全天球画像の中心に配置する。次に、撮影装置10は、生成する画像の左右部分に、図3(B)に示されている半球画像を前処理した画像を左右部分に配置できる大きさに分割し、半球画像を合成して図3(C)に示されている正距円筒射影画像ECを生成してもよい。
また、図9(A)に示されている平面画像において、図8(A)および図8(B)に示されている半球画像(全天球画像)の極点(PL1またはPL2)に対応する箇所は、線分CT1またはCT2となる。図4(A)および図4(B)に示されているように、全天球画像(例えば、全天球画像CE)は、OpenGL ESを利用することで、図9(A)に示されている平面画像(正距円筒射影画像EC)を球面に貼り付けることにより作成されたものであるからである。
○画像処理システムに適用可能な撮影装置の例
次に、図10および図11を用いて、実施形態に係る画像処理システム1に適用可能な撮影装置10の例について説明する。図10は、画像処理システムに適用可能な撮影装置の一例について説明するための概略図である。図10(A)は、上述のような生成方法によって全天球画像を生成することができる複数の撮像素子を備えた特殊撮影装置を示す。特殊撮影装置は、画角の広い広角レンズまたは魚眼レンズを使用し、複数の撮像素子の出力を組み合わせて全方位が撮影された画像を取得できる。図10(B)は、いわゆる通常のカメラである一般撮影装置を示す。一般撮影装置は、例えば、通常のデジタルカメラまたはカメラを備えたスマートフォン等の携帯端末等である。撮影者は、一般撮影装置を手に持って回転しながら撮影を行う。一般撮影装置は、得られた画像を合成することで全方位の画像を取得できる。特殊撮影装置および一般撮影装置は、いずれも複数の撮影結果を画像処理によってつなぎ合わせる(スティッチング処理)ことによって、最終的な撮影画像を生成する。なお、複数の撮影結果を得るための撮影装置10の光学中心は、同一であることが好ましい。
図11は、一般撮影装置によって撮影された撮影画像の一例について説明するための図である。図11は、撮影者が図10(B)に示されているような一般撮影装置を撮影者が手に持って回転しながら撮影を行った場合の撮影画像を示す。一般撮影装置は、画角が小さいため(一般的には100度以下)、図11に示されているように、上下の極が撮影できないという問題がある。また、撮影者自身での回転によっては、撮影装置の光学中心の位置がずれによって撮影時の視差が生じ、スティッチング処理にも段差等の不自然なエラーが生じやすい。すなわち、本実施形態における撮影装置10としては、図10に示されているような特殊撮影装置および一般撮影装置のいずれも適用可能であるが、好適には図10(A)に示されているような特殊撮影装置を適用することが好ましい。画像処理システム1は、図10(A)に示されているような特殊撮影装置(全天球撮影装置)を用いることによって、広告のような品質が求められるバーチャルツアーに用いる画像として、破綻のない自然な高品質の全天球画像を使用することができる。以下の説明においては、撮影装置10は、特殊撮影装置(全天球撮影装置)であるものとして説明する。
○画像処理装置の処理の概略○
次に、図12を用いて画像処理装置50によって実行される処理の概略について説明する。図12は、画像処理装置によって実行される処理の一例について説明するための概略図である。図12は、撮影装置10によって撮影された撮影画像の撮影位置と、複数の撮影画像を関連づけるパスの関係を示す。
画像処理装置50は、visual SLAM(Simultaneous Localization and Mapping)、またはSfM(Structure from Motion)等の手法を用いて、撮影装置10から取得された撮影画像の撮影位置(図12(A))を推定する。撮影位置の推定結果は、図12(B)に示されているように、複数の撮影画像のそれぞれの撮影位置の相対位置として表現される。また、撮影位置の推定結果は、各撮影位置が一つの座標系で表現される。
また、画像処理装置50は、撮影位置の推定のほかに、撮影画像の撮影時に移動した経路も復元することができ、各撮影位置をどの順番でどうような経路を通って撮影されたのかも復元できる。画像処理装置50は、推定された撮影位置と撮影時に移動した経路に基づいて、パス(ツアーパス)を生成する。ツアーパスとは、ツアー画像上での複数の撮影画像の接続関係を示すものである。図12(C)に示されているように、推定された各撮影位置で撮影された撮影画像をそれぞれ接続し、接続された撮影画像を相互に行き来できるようにすることで、撮影画像によるバーチャルツアーを作成することできる。
●ハードウエア構成
続いて、図13および図14を用いて、実施形態に係る画像処理システムを構成する各装置または端末のハードウエア構成を説明する。なお、図13および図14に示されているハードウエア構成は、必要に応じて構成要素が追加または削除されてもよい。
○撮影装置のハードウエア構成○
まず、図13を用いて、撮影装置10のハードウエア構成を説明する。図13は、撮影装置のハードウエア構成の一例を示す図である。以下では、撮影装置10は、二つの撮像素子を使用した全天球(全方位)撮影装置とするが、撮像素子は二つ以上いくつでもよい。また、必ずしも全方位撮影専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位撮影ユニットを取り付けることで、実質的に撮影装置10と同じ機能を有するようにしてもよい。
図13に示されているように、撮影装置10は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、入出力I/F(Interface)116、近距離通信回路117、近距離通信回路117のアンテナ117a、電子コンパス118、ジャイロセンサ119、加速度センサ120およびネットワークI/F121によって構成されている。
このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102b(以下区別する必要のないときは、レンズ102と称する。)、および各レンズに対応させて設けられている二つの撮像素子103a,103bを備えている。撮像素子103a,103bは、レンズ102a,102bによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサ等の画像センサ、この画像センサの水平または垂直同期信号や画素クロック等を生成するタイミング生成回路、およびこの撮像素子の動作に必要な種々のコマンドもしくはパラメータ等が設定されるレジスタ群等を有している。
撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とパラレルI/Fバスを介して接続している。一方、撮像ユニット101の撮像素子103a,103bは、それぞれ撮像制御ユニット105とシリアルI/Fバス(I2Cバス等)を介して接続している。画像処理ユニット104、撮像制御ユニット105および音処理ユニット109は、バス110を介してCPU111と接続している。さらに、バス110には、ROM112、SRAM113、DRAM114、操作部115、入出力I/F116、近距離通信回路117、電子コンパス118、ジャイロセンサ119、加速度センサ120およびネットワークI/F121等も接続される。
画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、図3(C)に示されているような正距円筒射影画像のデータを作成する。
撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。
また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮影装置10によっては、ディスプレイ(例えば、近距離通信回路117を用いて撮影装置10と近距離通信を行うスマートフォン等の外部端末のディスプレイ)によるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。
また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮影装置10には表示部(ディスプレイ)が設けられていないが、表示部を設けてもよい。マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。
CPU111は、撮影装置10の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113およびDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みの正距円筒射影画像のデータを記憶する。
操作部115は、種々の操作ボタンや電源スイッチ、シャッターボタン、および表示と操作の機能を兼ねたタッチパネル等の総称である。ユーザは、操作部115を操作することで、種々の撮影モードや撮影条件等を入力する。
入出力I/F116は、SDカード等の外付けのメディアまたはパーソナルコンピュータ等とのインターフェース回路(USBI/F等)の総称である。入出力I/F116は、無線、有線を問わない。DRAM114に記憶された正距円筒射影画像のデータは、入出力I/F116を介して外付けのメディアに記録されたり、必要に応じて入出力I/F116を介して外部端末(装置)に送信されたりする。
近距離通信回路117は、撮影装置10に設けられたアンテナ117aを介して、NFC(Near Field Communication)、Bluetooth(登録商標)またはWi-Fi等の近距離無線通信技術によって、外部端末(装置)と通信を行う。近距離通信回路117は、正距円筒射影画像のデータを、外部端末(装置)に送信することができる。
電子コンパス118は、地球の磁気から撮影装置10の方位を算出し、方位情報を出力する。この方位情報は、Exifに沿った関連情報(メタデータ)の一例であり、撮影画像の画像補正等の画像処理に利用される。なお、関連情報は、画像の撮影日時および画像データのデータ容量の各データも含む。また、ジャイロセンサ119は、撮影装置10の移動に伴う角度の変化(Roll角、Pitch角、Yaw角)を検出するセンサである。角度の変化はExifに沿った関連情報(メタデータ)の一例であり、撮影画像の画像補正等の画像処理に利用される。さらに、加速度センサ120は、三軸方向の加速度を検出するセンサである。撮影装置10は、加速度センサ120が検出した加速度に基づいて、自装置(撮影装置10)の姿勢(重力方向に対する角度)を算出する。撮影装置10は、加速度センサ120を設けることによって、画像補正の精度が向上する。ネットワークI/F121は、ルータ等を介して、インターネット等の通信ネットワーク100を利用したデータ通信を行うためのインターフェースである。
○画像処理装置のハードウエア構成○
まず、図14を用いて、画像処理装置50のハードウエア構成を説明する。図14は、画像処理装置のハードウエア構成の一例を示す図である。画像処理装置50の各ハードウエア構成は、500番台の符号で示されている。画像処理装置50は、コンピュータによって構築されており、図14に示されているように、CPU501、ROM502、RAM(Random Access Memory)503、HD(Hard Disk)504、HDD(Hard Disk Drive)コントローラ505、ディスプレイ506、外部機器接続I/F508、ネットワークI/F509、バスライン510、キーボード511、ポインティングデバイス512、DVD-RW(Digital Versatile Disk Rewritable)ドライブ514、およびメディアI/F516を備えている。
これらのうち、CPU501は、画像処理装置50全体の動作を制御する。ROM502は、IPL(Initial Program Loader)等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。HD504は、プログラム等の各種データを記憶する。HDDコントローラ505は、CPU501の制御にしたがってHD504に対する各種データの読み出しまたは書き込みを制御する。ディスプレイ506は、カーソル、メニュー、ウィンドウ、文字、または画像等の各種情報を表示する。なお、ディスプレイ506は、入力手段を備えたタッチパネルディスプレイであってもよい。外部機器接続I/F508は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USBメモリ等である。ネットワークI/F509は、通信ネットワーク100を利用してデータ通信をするためのインターフェースである。バスライン510は、図14に示されているCPU501等の各構成要素を電気的に接続するためのアドレスバスまたはデータバス等である。
また、キーボード511は、文字、数値、各種指示等の入力のための複数のキーを備えた入力手段の一種である。ポインティングデバイス512は、各種指示の選択もしくは実行、処理対象の選択、またはカーソルの移動等を行う入力手段の一種である。なお、入力手段は、キーボード511およびポインティングデバイス512のみならず、タッチパネルまたは音声入力装置等であってもよい。DVD-RWドライブ514は、着脱可能な記録媒体の一例としてのDVD-RW513に対する各種データの読み出しまたは書き込みを制御する。なお、着脱可能な記録媒体は、DVD-RWに限らず、DVD-RまたはBlu-ray(登録商標) Disc(ブルーレイディスク)等であってもよい。メディアI/F516は、フラッシュメモリ等の記録メディア515に対するデータの読み出しまたは書き込み(記憶)を制御する。
○通信端末のハードウエア構成○
図14は、通信端末90のハードウエア構成の一例も示している。通信端末90の各ハードウエア構成は、括弧内の900番台の符号で示されている。通信端末90は、コンピュータによって構築されており、図14に示されているように、画像処理装置50と同様の構成を備えているため、各ハードウエア構成の説明を省略する。通信端末90は、画像処理装置50と同様の構成に加え、近距離通信回路917および近距離通信回路917のアンテナ917aを備えている。近距離通信回路917は、NFC、BluetoothまたはWi-Fi等の通信回路である。
なお、上記各プログラムは、インストール可能な形式または実行可能な形式のファイルで、コンピュータで読み取り可能な記録媒体に記録して流通させるようにしてもよい。記録媒体の例として、CD-R(Compact Disc Recordable)、DVD(Digital Versatile Disk)、Blu-ray Disc、SDカード、USBメモリ等が挙げられる。また、記録媒体は、プログラム製品(Program Product)として、国内または国外へ提供されることができる。例えば、画像処理装置50は、本発明に係るプログラムが実行されることで本発明に係る画像処理方法を実現する。
●機能構成
続いて、図15を用いて、実施形態に係る画像処理システムの機能構成について説明する。図15は、画像処理システムの機能構成の一例を示す図である。なお、図15は、図1に示されている装置または端末のうち、後述の処理または動作に関連しているものを示す。
○撮影装置の機能構成○
まず、図15を用いて、撮影装置10の機能構成について説明する。撮影装置10は、送受信部11、操作受付部12、撮影制御部13、動画撮影部14、静止画撮影部15、移動検知部16、通信部17および記憶・読出部19を有している。これら各部は、図13に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された撮影装置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能または手段である。また、撮影装置10は、図13に示されているROM112、SRAM113およびDRAM114によって構築される記憶部1000を有している。記憶部1000は、自装置のGUID(Globally Unique Identifier)を記憶している。
送受信部11は、主に、CPU111の処理によって実現され、他の装置または端末と各種データまたは情報の通信を行う。さらに、送受信部11は、ネットワークI/F121を用いて、他の装置または端末との間で、通信ネットワーク100を介したデータ通信を行う。
操作受付部12は、主に、操作部115に対するCPU111の処理によって実現され、撮影者となるユーザから各種の選択または入力を受け付ける。
撮影制御部13は、主に、撮像ユニット101、画像処理ユニット104および撮像制御ユニット105に対するCPU111の処理によって実現され、風景等の被写体を撮像し、撮影画像データを取得する。撮影制御部13は、例えば、動画撮影部14による動画撮影と静止画撮影部15による静止画撮影を時分割に切り替えて撮影を行う。
動画撮影部14は、主に、撮像ユニット101、画像処理ユニット104および撮像制御ユニット105に対するCPU111の処理によって実現され、撮影装置10による動画撮影を行う。動画撮影部14は、例えば、所定の拠点である不動産物件等の構造物内を移動しながら撮影された動画像の撮影を行う。動画撮影部14は、撮影装置10を保持する撮影者の移動中に、低解像度の連続フレームでの動画撮影を行い、撮影された画像データを記憶部1000に記憶させる。動画撮影部14は、例えば、撮影装置10を保持した撮影者が所定の拠点である不動産物件内の第1の地点から第2の地点までを移動している際に動画撮影を行う。
静止画撮影部15は、主に、撮像ユニット101の処理によって実現され、風景等の被写体を撮像し、撮影装置10による静止画を行う。静止画撮影部15は、例えば、所定の拠点である不動産部兼等の構造物内の異なる撮影位置で撮影された複数の静止画像の撮影を行う。静止画撮影部15は、例えば、動画撮影部14により撮影される動画像よりも高解像度の静止画(写真)撮影を行い、撮影される画像データを記憶部1000に記憶させる。静止画撮影部15によって撮影される静止画像は、1フレームの画像であってもよいし、複数の画像を合成したHDR(High Dynamic Range)画像であってもよい。
ここで、静止画撮影部15によって撮影される静止画像は、例えば、4K解像度以上の高解像度であることが好ましい。一方で、動画撮影部14によって撮影される動画像は、位置推定に用いる画像であり、動画像に写る被写体が識別可能でありさえすればよいため、静止画像よりも解像度の低い画像である。動画像は、例えば、480p程度またはそれ以下の解像度であってもよい。撮影装置10は、低解像度の動画像を撮影することによって、ツアー撮影における全体のデータ量を低減させることができる。
移動検知部16は、主に、ジャイロセンサ119および加速度センサ120に対するCPU111の処理によって実現され、撮影装置10の移動状態を検知する。移動検知部16は、例えば、撮影装置10による撮影中に、撮影装置10を保持する撮影者が移動しているか(移動状態であるか)または静止しているか(静止状態であるか)を検知する。
通信部17は、主に、入出力I/F116または近距離通信回路117に対するCPU111の処理によって実現され、他の装置または端末との間で各種データまたは情報の送受信を行う。通信部17は、例えば、入出力I/F116を用いて、通信端末90との間で、各種ケーブル等を介したデータ通信を行う。また、通信部17は、近距離通信回路117を用いて、通信端末90との間で、近距離無線通信技術によるデータ通信を行う。
記憶・読出部19は、主に、CPU111の処理によって実現され、記憶部1000に、各種データ(または情報)を記憶したり、記憶部1000から各種データ(または情報)を読み出したりする。また、記憶部1000には、動画撮影部14および静止画撮影部15によって撮影された画像データが記憶される。記憶部1000に記憶される画像データには、撮影画像の撮影時刻がメタデータとして関連づけられている。
○画像処理装置の機能構成○
まず、図15を用いて、画像処理装置50の機能構成について説明する。画像処理装置50は、送受信部51、受付部52、判断部53、用途判定部54、形状推定部55、位置推定部56、検知部57、パス生成部58、画像処理部60および記憶・読出部59を有している。これら各部は、図14に示されている各構成要素のいずれかが、HD504からRAM503上に展開された画像処理装置用プログラムに従ったCPU501からの命令によって動作することで実現される機能または手段である。また、画像処理装置50は、図14に示されているROM502、RAM503およびHD504によって構築される記憶部5000を有している。
送受信部51は、主に、ネットワークI/F509に対するCPU501の処理によって実現され、通信ネットワーク100を介して、他の装置または端末との間で各種データまたは情報の送受信を行う。送受信部51は、例えば、撮影装置10によって撮影された動画像を、撮影装置10または通信端末90から受信(取得)する。また、送受信部51は、例えば、撮影装置10によって撮影された静止画像を、撮影装置10または通信端末90から受信(取得)する。
受付部52は、主に、キーボード511またはポインティングデバイス512に対するCPU501の処理によって実現され、ユーザから各種の選択または入力を受け付ける。判断部53は、CPU501の処理によって実現され、各種判断を行う。
用途判定部54は、CPU501の処理によって実現され、構造物の内部の空間が全方位で示されている撮影画像に基づいて、撮影画像に写る空間の用途を判定する。用途は、換言すると、撮影装置10が実際に撮影した空間の分類、ジャンル、または使用目的等である。撮影装置10によって撮影された拠点として不動産物件が撮影された場合、撮影画像に写る空間である部屋の用途は、例えば、トイレ、浴室または玄関等である。
形状推定部55は、CPU501の処理によって実現され、構造物の内部の空間が全方位で示されている撮影画像に基づいて、撮影画像に写る空間の形状を推定する。
位置推定部56は、CPU501の処理によって実現され、撮影装置10から取得された動画像に基づいて、撮影装置10から取得された静止画像の相対的な撮影位置を推定する。位置推定部56は、例えば、visual SLAM、またはSfM等の手法を用いて、低解像度連続フレームである動画像から、静止画像が撮影された静止画像の相対的な位置を推定する。このvisual SLAM、またはSfM等の手法は、複数の画像から、画像上の特徴点の位置、カメラの位置およびパラメータを算出することができる。一方で、算出される位置は、相対的なものであり、絶対的な位置を得るためには基準となる位置が必要となる。
検知部57は、CPU501の処理によって実現され、形状推定部55によって推定された空間形状に属する動画像の撮影点を検知する。動画像の撮影点は、例えば、動画像の撮影時の移動経路が復元された座標値である。
パス生成部58は、CPU501の処理によって実現され、位置推定部56によって推定された撮影位置に基づいて、複数の静止画像の接続関係を示すパスを生成する。パス生成部58は、例えば、推定された撮影位置に基づいて、複数の静止画像のうちの最近傍の静止画像をそれぞれ関連づけるパスを生成する。
画像処理部60は、CPU501の処理によって実現され、位置推定部56によって推定された撮影位置に基づいて、バーチャルツアー用のツアー画像を生成する画像処理を行う。画像処理部60は、例えば、推定された撮影位置に基づいて関連づけられた複数の静止画像を含む処理画像であるツアー画像を生成する。画像処理部60は、推定された静止画像の撮影位置、静止画像の撮影時刻、およびパス生成部58によって生成されたパス(ツアーパス)から、ツアー画像における静止画像を配置すべき位置を決定する。
記憶・読出部59は、主に、CPU501の処理によって実現され、記憶部5000への各種データ(または情報)の記憶、および記憶部5000から各種データ(または情報)の読出を行う。また、記憶部5000は、画像処理部60によって作成されたツアー画像を記憶する。
○通信端末の機能構成○
次に、図15を用いて、通信端末90の機能構成について説明する。通信端末90は、送受信部91、受付部92、表示制御部93、通信部94および記憶・読出部99を有している。これら各部は、図15に示されている各構成要素のいずれかが、HD904からRAM903上に展開された通信端末用プログラムに従ったCPU901からの命令によって動作することで実現される機能または手段である。また、通信端末90は、図15に示されているROM902、RAM903およびHD904によって構築される記憶部9000を有している。
送受信部91は、主に、ネットワークI/F909に対するCPU901の処理によって実現され、通信ネットワーク100を介して、他の装置または端末との間で各種データまたは情報の送受信を行う。
受付部92は、主に、キーボード911またはポインティングデバイス912に対するCPU901の処理によって実現され、ユーザから各種の選択または入力を受け付ける。
表示制御部93は、主に、CPU901の処理によって実現され、ディスプレイ906に、各種画像または文字等を表示させる。表示制御部93は、例えば、Webブラウザまたは専用のアプリケーションを用いて画像処理装置50にアクセスにして、画像処理装置50から配信されるデータに対応する画像を、ディスプレイ906に表示させる。
通信部94は、主に、外部機器接続I/F908または近距離通信回路917に対するCPU901の処理によって実現され、他の装置または端末との間で各種データまたは情報の送受信を行う。通信部94は、例えば、外部機器接続I/F908を用いて、撮影装置10との間で、各種ケーブル等を介したデータ通信を行う。また、通信部94は、近距離通信回路917を用いて、撮影装置10との間で、近距離無線通信技術によるデータ通信を行う。
記憶・読出部99は、主に、CPU901の処理によって実現され、記憶部9000への各種データ(または情報)の記憶、および記憶部9000から各種データ(または情報)の読出を行う。
●実施形態の処理または動作
○ツアー撮影処理○
続いて、図16乃至図29を用いて、実施形態に係る画像処理システムの処理または動作について説明する。以下の説明において、所定の拠点である構造物の内部の空間の一例として、不動産物件である部屋の例を示す。まず、図16乃至図20を用いて、画像処理装置50によるツアー画像の生成に用いる撮影画像の取得処理について説明する。図16は、撮影装置によるツアー撮影処理の一例を示すフローチャートである。
まず、撮影装置10は、通信端末90からの所定の要求に応じて、ツアー撮影処理を開始する(ステップS11)。ここで、ツアー撮影とは、バーチャルツアーを提供するための所定の拠点内の撮影を行うことである。具体的には、通信端末90は、インストールされた専用のアプリケーションの起動および実行、またはWebブラウザを用いた所定のWebサイトへのアクセスによってツアー撮影機能を実行する。そして、通信端末90の通信部94は、撮影装置10に対して、ツアー撮影要求を送信する。撮影装置10は、通信部17によって受信されたツアー撮影要求に応じて、ツアー撮影処理を開始する。
次に、撮影装置10の動画撮影部14は、撮影装置10を保持して拠点内を移動しながら動画撮影を開始する(ステップS12)。具体的には、撮影装置10の撮影制御部13は、ツアー撮影が開始されると、動画撮影部14に対して、動画撮影の開始を要求する。そして、動画撮影部14は、撮影制御部13からの要求に応じて、動画像の撮影を開始する。
ここで、図17および図18を用いて、撮影装置10による撮影方法について説明する。図17は、撮影装置の固定方法の一例を示す図である。撮影装置10は、撮影者が写らないように、図17(A)に示されているような一脚20aまたは図17(B)に示されているような三脚20b等の支持部材20に固定することが好ましい。また、撮影装置10は、画像閲覧の際に望まれる高さに固定される。撮影装置10は、例えば、不動産物件を自然に見せるため、人の視線の高さに配置することが好ましい。
図18は、手持ち撮影と固定撮影の場合における相違点について説明するための図である。図18は、撮影装置10を撮影者が手に持って撮影する場合(手持ち撮影)と、撮影装置10を一脚20aで固定して撮影する場合(固定撮影)する場合における物理的な動きの違いを示す。図17で示したように、移動撮影の際、撮影装置10を、一脚20a等の支持部材20に装着したまま移動することが最も簡便な方法であるが、手持ち撮影と固定撮影の場合では、物理的な動きに差異が生じる。具体的には、例えば、比較的長く大きな一脚20aを取り付けることで、物理モーメントが大きくなり、撮影装置自体の動きが減衰する。
特許文献1では、IMU等のセンサを用いた位置推定およびPDRによって撮影位置を推定している。しかしながら、一脚20aを装着した状態では、図18に示されているように、加速度および角速度の変異が減衰するため、特許文献1に記載のような撮影位置の推定方法では十分な精度が出ないという問題があった。そこで、画像処理システム1は、撮影者が写り込まないように一脚20a等の支持部材20に撮影装置10を固定して撮影する場合であっても、処理精度に影響を及ぼさないように、後述する画像処理方法を採用する。
図16に戻り、撮影装置10は、撮影モードの切り替えを検知した場合(ステップS13のYES)、処理をステップS14へ移行させる。この場合、撮影装置10は、動画撮影モードから静止画撮影モードへの切り替えを行う。撮影装置10は、例えば、撮影装置10の操作部115のシャッターボタンが押下された場合、動画撮影モードから静止画撮影モードへの切り替えを行う。撮影モードの切り替えを検知する。また、撮影装置10は、移動検知部16によって停止したこと(静止状態)が検知された場合、動画撮影モードから静止画撮影モードへの切り替えを行う構成であってもよい。一方で、撮影装置10は、撮影部14は、撮影モードの切り替えが検知されない場合(ステップS13のNO)、ステップS12における動画撮影を継続する。
次に、撮影装置10の動画撮影部14は、ステップS13における撮影モードの切り替えの検知に応じて、動画撮影を停止する(ステップS14)。そして、静止画撮影部15は、ユーザによる操作部115のシャッターボタンの押下に応じて静止画撮影を行う(ステップS15)。
次に、撮影装置10は、ステップS13の処理と同様に、撮影モードの切り替えを検知した場合(ステップS16のYES)、処理をステップS18へ移行させる。この場合、撮影装置10は、静止画撮影モードから動画撮影モードへの切り替えを行う。撮影装置10は、例えば、移動検知部16によって移動再開が検知された場合、静止画撮影モードから動画撮影モードへの切り替えを行う。また、撮影装置10は、静止画撮影部15による静止画撮影が行われた後に、自動的に静止画撮影モードから動画撮影モードへの切り替えを行う構成であってもよい。
動画撮影部14は、ステップS16における撮影モードの切り替えの検知に応じて、動画撮影を再開する(ステップS17)。動画撮影部14は、ステップS12と同様に、撮影装置10を保持して拠点内を移動しながら撮影を継続する。そして、撮影装置10は、ツアー撮影が終了した場合(ステップS18のYES)、処理を終了する。ツアー撮影の終了は、例えば、撮影者による撮影装置10または通信端末90に対する所定の操作によって判断される。一方で、撮影装置10は、ツアー撮影が終了していない場合(ステップS18のNO)、ステップS13からの処理を繰り返し、ツアー撮影を継続する。
一方で、ステップS16において、撮影装置10は、撮影装置10は、撮影モードの切り替えが検知されない場合(ステップS16のNO)、処理をステップS19へ移行させる。撮影装置10は、ステップS18と同様に、ツアー撮影が終了した場合(ステップS19のYES)、処理を終了する。一方で、撮影装置10は、ツアー撮影が終了していない場合(ステップS19のNO)、ステップS19からの処理を繰り返し、静止画撮影部15による静止画撮影を継続する。
ここで、図19および図20を用いて、撮影装置10における動画撮影および静止画撮影について説明する。図19は、撮影装置による動画撮影と静止画撮影の切り替えについて説明するための図である。撮影装置10は、上述のように、動画撮影と静止画撮影の二つの用途で用いられる。このうち、動画撮影は、位置推定の目的で行われ、静止画撮影は、閲覧用画像取得の目的で行われる。また、動画撮影は、移動時に行われ、静止画撮影は、静止時に行われる。
ここで、動画撮影と静止画撮影は、それぞれの撮影目的に対応して要求される撮影スペックが異なる。動画撮影の場合、位置推定に用いるため高フレームレートの連続画像(連続フレーム)で取得される一方で、撮影画像の高解像度およびカラーレイヤが不要で、低解像度およびグレースケールで十分である。また、静止画撮影の場合、連続フレームの取得は不要である一方で、高解像度、カラー情報(RGB)および高ダイナミックレンジの撮影が求められる。さらに、動画撮影は、移動時に行われ、静止画撮影は、静止時に行われる。
図20は、動画撮影と静止画撮影の切り替えタイミングの一例を示す図である。図20は、図16に示されている処理における動画撮影と静止画撮影の切り替えのタイムチャートを示す。
撮影装置10は、動画撮影と静止画撮影を時分割に切り替えて行う。上述のように、動画撮影は、位置推定用の画像を取得するために行われるため、連続フレームの撮影が行われることが必要になる。一方で、静止画撮影は、バーチャルツアーの閲覧用の画像を取得するために行われるため、連続フレームの撮影である必要はなく、1枚の画像が取得される構成でよいが、複数フレームの画像を用いたハイダイナミックレンジ合成による画像を取得してもよい。
静止画撮影は、撮影者の位置が反映されるべき項目であり、撮影者の何等かの明示的な動作で撮影が行われるものとする。例えば、静止画撮影は、撮影装置10の操作部115のシャッターボタンが押下された場合に、動画撮影から切り替えて行われる。この場合、操作者により押下されるシャッターは、撮影装置10の本体のシャッターボタンであってもよいし、リモート操作可能なアプリまたはコントローラの操作に基づくシャッターであってもよい。例えば、不動産物件の撮影時には、撮影者が撮影画像中に写っていないことが好ましい。そのため、撮影装置10の本体のシャッターボタンに対する操作を行う場合には、撮影装置10は、シャッターボタンの押下後の所定の時間後に、静止画像を撮影および記憶することが好ましい。これにより、撮影者は、シャッターボタンを押下した後に、撮影範囲の外に移動することで、撮影画像に写らないようにすることができる。また、リモート操作を行う場合には、撮影者は、撮影範囲の外から操作を行って撮影することが好ましい。
また、動画撮影から静止画撮影に切り替える方法として、支持部材20に固定した撮影装置10を所望の位置に置いた際または撮影者自身が静止した際に、移動検知部16によって静止状態を検知することで、静止画撮影に切り替える構成であってもし、動画撮影が開始されてから所定の時間経過した場合に自動的に静止画撮影に切り替える構成であってもい。これらの方法の場合は、操作者によるシャッター操作が不要であるため、ツアー撮影をスムーズに行うことができるという利点がある。
一方で、動画撮影は、撮影者の意図とは無関係に撮影する項目であるため、自動的に撮影が行われることが好ましい。例えば、動画撮影は、静止画撮影が行われた後に自動的に静止画撮影から切り替えて行われる。また、動画撮影は、撮影画像のデータ量を抑えるため、移動検知部16によって移動再開したことを検知した場合に、静止画撮影から切り替えて行われる構成であってもよい。
このように、撮影装置10は、位置推定用の低解像度の動画像を撮影する動画撮影とバーチャルツアーにおける閲覧用の高解像度の静止画像を撮影する静止画撮影とを時系列に切り替えて行うことによって、ツアー画像を生成するための撮影画像を効率的に取得することができる。なお、上述の説明において、ツアー撮影の開始時には動画撮影が行われる構成を説明したが、撮影装置10は、ツアー撮影の開始時に、まず静止画撮影を行う構成であってもよい。
撮影装置10は、撮影された動画像および静止画像を、通信端末90を介して、画像処理装置50へ随時アップロードする。画像処理装置50は、撮影装置10から送信された動画像および静止画像を、ツアー画像の生成のため、記憶部5000に一時的に記憶する。なお、撮影装置10は、動画像および静止画像を、通信端末90を介さずに画像処理装置50へ直接アップロードする構成であってもよい。
○ツアー画像生成処理○
続いて、図21乃至図29を用いて、撮影装置10によって撮影された撮影画像を用いたツアー画像の生成処理について説明する。
図21は、バーチャルツアーにおけるツアーパスの一例について説明するための図である。ツアーパスは、実際の不動産物件の内部の空間である部屋の隣接関係と等しくなるように生成されるのが好ましい。例えば、部屋Aと部屋Bが隣接しドアによって行き来できる場合、部屋Aと部屋Bで撮影された静止画像がパスで結ばれるべきである。一方、部屋Aと部屋Cが隣接しているがドアによって行き来できない場合、部屋Aと部屋Cで撮影された静止画像がパスで結ばれるべきでない。したがって、バーチャルツアーを自動生成する際に、静止画像の撮影位置とその間の経路を用いて、どの撮影画像間をパスで結ぶかを自動決定することが必要になる。
図21に示されているように、ツアーパスは、基本的に静止画像が撮影された順番に結ばれて生成されていく。例えば、図21(A)に示されている例の場合、撮影順にパスを結び、「部屋A⇔部屋B⇔部屋C」というパスを生成する。一方で、図21(B)に示されている例の場合、部屋Bと部屋Cは撮影順が連続していても物理的につながっていないため、実際の空間では一旦もとにいた部屋Aに戻ってから部屋Cに入室しなければならない。このような場合、単純に撮影順でパスを結ぶと本来は行き来できない部屋同士をパスで結んでしまい、現実とは異なるツアーになってしまう。そのため、図21(B)に示されているように、現実の空間の構造を考慮し、部屋Bと部屋Cを結ぶパスを、再び部屋Aを通る経路で生成する。
このように、画像処理装置50は、生成するツアー画像において、正しくパスを結べるように、撮影時の移動経路上の各撮影点がどの部屋に位置しているかを考慮したアルゴリズムによってパスを生成する。以下、画像処理装置50においてパスを自動生成するためのアルゴリズムについて詳細に説明する。
図22は、画像処理装置によるツアー画像の生成処理の一例を示すフローチャートである。画像処理装置50は、撮影装置10によって撮影された撮影画像である動画像および静止画像を用いて、ツアー画像の生成処理を実行する。なお、画像処理装置50は、予め撮影装置10によって撮影された動画像および静止画像を取得しているものとして説明する。この際に、画像処理装置50の送受信部51は、撮影装置10から送信された動画像および静止画像を受信(取得)する。また、図23乃至図27に示されている例において、静止画像は、部屋A、部屋Bおよび部屋C内の撮影位置(各図面の「1~3」)でそれぞれ部屋A、部屋Bおよび部屋Cが撮影されたものとする。
まず、画像処理装置50の用途判定部54は、取得された動画像に写る部屋の用途を判定する(ステップS31)。具体的には、用途判定部54は、一般的な機械学習または動画像の特徴量等のパラメータを用いて、動画像に写る部屋の用途(ジャンル)を判定する。ここで、判定される部屋の用途は、例えば、トイレ、浴室または玄関等である。
次に、形状推定部55は、取得された動画像に写る部屋の形状を推定する(ステップS32)。具体的には、形状推定部55は、動画像に写る被写体の直線を検知し、検知した直線の消失点を求め、床、壁または天井等の境目から部屋の構造を推定する方法、撮影装置10から取得された三次元情報を用いる方法、または一般的な機械学習を用いる方法等によって動画像に写る部屋の形状を推定して三次元復元を行い、俯瞰した部屋形状を取得する。
また、形状推定部55は、ステップS32で構造が推定された部屋形状の大きさを推定する(ステップS33)。具体的には、形状推定部55は、推定された部屋形状の大きさを、移動経路上の動画像の各点の座標系に合わせて調整する。図23(A)のように、ステップS32で推定された部屋形状は、単一の画像から復元された場合、絶対的な大きさがわからない。図23(B)のように、動画撮影時の移動経路上に正しい大きさで各部屋形状を配置するため、形状推定部55は、それぞれの部屋形状の大きさを、動画撮影時の移動経路上にある動画像の各点の座標系で定める。形状推定部55は、動画撮影時の撮影高さ、および隣接する部屋形状の間の隙間を0にするような大きさの平均値等を用いて、各部屋形状の大きさを推定する。このように、形状推定部55によって動画像に写る部屋の形状および大きさを推定することによって、位置推定部56は、動画像と時分割で撮影された複数の静止画像の相対的な撮影位置を推定する。
次に、検知部57は、移動経路上の動画像の各点が、ステップS32およびステップS33で推定された部屋形状のうち、どの部屋形状内に位置しているかを判定する(ステップS34)。検知部57は、移動経路上の各点がステップS33で配置された部屋形状のうち、どの部屋の内部に位置しているかを座標値から検知する。これにより、検知部57は、移動経路上の各点がそれぞれどの部屋内に位置していたのかを検知する。画像処理装置50は、例えば、図24(B)のように、復元された動画像の撮影時の移動経路上の座標値に基づき、各点がどの部屋内に位置しているかを一意に判定する。図24(B)に示されている例では、経路R1の点が部屋A内に位置し、経路R2の点が部屋B内に位置し、経路R3の点が部屋C内に位置していると判定する。
また、検知部57は、移動経路上の動画像の点が、単一の部屋形状内に存在していないと検知した場合(ステップS34のNO)、処理をステップS35へ移行させる。図25(A)に示すS1の区間のように、移動経路上の点が単一の部屋に属していない場合、すなわち移動経路上の点が複数の部屋形状内(図25の例では部屋Aと部屋B)に位置する場合、その点が撮影時にどの部屋に位置していたのかを一意に定められない。また、図25(A)に示すS2の区間のように、移動経路上の点がいずれの部屋形状内にも位置していない場合も、その点が撮影時にどの部屋に位置していたのかを一意に定められない。このようなことは、移動経路の復元の誤差、部屋形状の推定の誤差、および部屋形状の大きさの誤差が原因で発生する。
そこで、検知部57は、移動経路上の動画像の点が、単一の部屋形状内に存在していない場合、対象の点がどの部屋形状内に存在しているかを一意にするため、対象の点に最も近い移動経路上の点が位置している部屋を、対象の点が存在する部屋であると判定する(ステップS35)。検知部57は、図25(A)のS1およびS2の区間の点に対して最近傍の移動経路上の点を計算し、図25(B)のM1およびM2の区間のように、それぞれ最近傍の移動経路上の点が位置する部屋を、対象の点が位置している部屋と判定する。
一方で、ステップS34において、検知部57は、移動経路上の動画像の各点が、単一の部屋形状内に存在すると検知した場合(ステップS34のYES)、処理をステップS36へ移行させる。
次に、パス生成部58は、移動経路上の動画像の点が存在する部屋と、次の点が存在する部屋を結ぶパスを生成する(ステップS36)。パス生成部58は、ステップS34およびS35の処理によって移動経路上の各点がそれぞれどの部屋形状内に位置しているかが一意に定められたため、移動経路上の各点に対して、ある一点が存在する部屋とその次の点が存在する部屋を次の部屋としてパスで結ぶ。図26の例において、パス生成部58は、部屋Aの次に入室した部屋Bをパス(N1)で結ぶ。また、部屋Bから一旦部屋Aに戻って部屋Cに入室している動きも、撮影位置2と撮影位置3との間に部屋Aの区間(N2およびN3)があることから、パス生成部58は、ステップS32およびステップS33での推定結果に基づき、部屋Aから部屋Cのパスを正しく結べる。最終的に、パス生成部58は、図26に示されているような経路「R1⇔R2⇔R1⇔R3」のパスを生成することができる。つまり、「部屋A⇔部屋B」というパスと「部屋A⇔部屋C」というパスとが生成される。すなわち、パス生成部58は、各部屋を結ぶパスを生成することにより、各部屋が撮影された複数の静止画像のうちの最近傍の静止画像をそれぞれ関連づけることができる。
次に、判断部53は、ステップS31で判定された次の部屋の用途がトイレまたは浴室である場合(ステップS37のYES)、処理をステップS38へ移行させる。一方で、判断部53は、ステップS31で判定された次の部屋の用途がトイレまたは浴室でない場合(ステップS37のNO)、処理をステップS39へ移行させる。
トイレまたは浴室に通じる部屋は、ほとんどの家屋において一つの部屋、すなわち戻る部屋が一つしかないことを利用し、間違ったパスが結ばれることを防ぐ。例えば、図27(A)のように、上述の処理の誤差によって重複領域が多いような場合、部屋Aからトイレまたは浴室を経て部屋Bを結ぶようなパスが生成される場合がある。図27(A)の例では、ステップS35による最近傍の移動経路上の点に基づく判断により、重複する区間J1の点が存在する部屋は、部屋Bである判定され、トイレまたは浴室を結ぶパスが生成される。しかしながら、現実の家屋において、トイレまたは浴室が二つの異なる部屋に通じているケースはほとんどない。
そこで、判断部53は、次の部屋の用途がトイレまたは浴室である場合、次の部屋と隣接している部屋として、現在の部屋を設定する(ステップS38)。判断部53は、例えば、移動経路上のある点の次の点が位置する部屋の用途がトイレまたは浴室で合った場合、ある点の存在する部屋を、トイレまたは浴室に隣接している部屋として記憶する。
次に、判断部53は、ステップS31で判定された一つ前の部屋の用途がトイレまたは浴室である場合(ステップS39のYES)、処理をステップS40へ移行させる。一方で、判断部53は、ステップS31で判定された一つ前の部屋の用途がトイレまたは浴室でない場合(ステップS39のNO)、処理をステップS41へ移行させる。移動経路上のある点の一つ前の部屋がトイレまたは浴室である場合、その点は、トイレまたは浴室を退室したことを意味する。例えば、図27(A)の区間J1における点は、トイレまたは浴室を退室した際の点を示す。
パス生成部58は、一つ前の部屋の用途がトイレまたは浴室である場合、一つ前の部屋に隣接している部屋とのパスを生成する(ステップS40)。パス生成部58は、移動経路上のある点の一つ前の点が存在する部屋がトイレまたは浴室である場合、ある点が存在する部屋とステップS38で設定された隣接する部屋とをパスで結ぶ。これにより、トイレまたは浴室から退室した先の部屋を、ステップS38で設定したトイレまたは浴室に入室する前にいた部屋と同じにすることができる。図27(B)のように、トイレまたは浴室に入室した際に直前にいた部屋AをステップS38で設定しているため、パス生成部58は、退室時の移動経路上の点として、最近傍の部屋Bではなく、トイレまたは浴室に入室した直前にいた部屋Aとパスで結ぶ(区間J2)。これにより、画像処理装置50は、トイレまたは浴室から退室する場合、入室した部屋に戻ることが強制され、図27(A)のような間違ったパスが生成されることを防ぐことができる。
次に、画像処理装置50は、撮影装置10によって撮影された動画像に対する全ての処理が完了した場合(ステップS41のYES)、処理をステップS42へ移行させる。一方で、画像処理装置50は、撮影装置10によって撮影された動画像に対する全ての処理が完了するまで(ステップS41のNO)、ステップS31からの処理を繰り返す。
次に、パス生成部58は、ステップS31で判定された部屋の用途に基づいて、生成されたパスの始点を設定する(ステップS42)。パス生成部58は、例えば、判定された用途が玄関である部屋に対応する位置を、パスの始点として設定する。
そして、画像処理部60は、上述の処理結果に基づいて、撮影装置10によって撮影された複数の静止画像を含む処理画像であるツアー画像を生成する(ステップS42)。具体的には、画像処理部60は、図28に示されているように、形状推定部55による形状推定結果上に、位置推定部56によって推定された撮影位置を関連づけることによって、複数の静止画像が関連づけられたツアー画像を生成する。また、画像処理部60は、図29(A)に示されているように、図28に示されている構成に加えて、パス生成部58によって生成されたパスを、相対的な撮影位置によって関連づけられた複数の静止画像上に重畳させる。さらに、画像処理部60は、図29(B)に示されているように、ステップS42で設定されたパスの始点(S)をツアー画像上に示すことができる。
このように、画像処理装置50は、撮影装置10によって撮影された動画像における移動経路に基づいて、高解像度の静止画像の撮影位置を推定する。また、画像処理装置50は、推定された撮影位置、撮影画像に写る部屋の形状、および撮影装置10の移動経路に基づいて、どのような順番で撮影が行われたかを示すパスを生成する。
画像処理装置50によって生成されたツアー画像は、通信端末90を用いて閲覧者に閲覧させることができる。画像処理装置50は、ツアー画像の生成が完了した場合、ツアー撮影の要求元である通信端末90に対して通知する。通信端末90の表示制御部93は、画像処理装置50から提供されるツアー画像をディスプレイ906に表示させる。閲覧者は、通信端末90を用いて、画像処理装置50から提供されるツアー画像を用いて、不動産物件等のバーチャルツアーを閲覧することができる。
●実施形態の効果
以上説明したように、画像処理システム1は、バーチャルツアーの作成に用いる高解像度の静止画像と、撮影装置10によって撮影された動画像を用いて推定された複数の静止画像の撮影位置とを精度良く関連づけることで、撮影画像の撮影位置の推定精度を向上させることができる。そして、画像処理システム1は、パス(経路)が適切なバーチャルツアー(高品質なバーチャルツアー)を自動的に作成することができる。
また、画像処理システム1は、撮影装置10を用いて、閲覧用の画像を取得するための高解像度の静止画撮影と位置推定用の低解像度の動画撮影を時分割に切り替えて行うことで、バーチャルツアーを作成するための撮影画像を効率的に取得することができる。
さらに、画像処理システム1は、所定の拠点である不動産物件等の内部を一度に全方位で撮影する全天球撮影装置を用いて撮影を行い、撮影時の視差等によるエラーの無い自然な画像をバーチャルツアーに使用することで、自然なバーチャルツアー(高品質なバーチャルツアー)を作成することができる。また、画像処理システム1は、撮影画像に撮影者が写り込まないように、撮影装置10を一脚等の支持部材20に固定して撮影を行う場合であっても、位置推定精度を向上させたバーチャルツアーを作成することができる。
●まとめ●
以上説明したように、本発明の一実施形態に係る画像処理方法は、所定の拠点内を全方位で撮影した撮影画像に対する処理を行う画像処理装置50が実行する画像処理方法であって、拠点内について異なる撮影位置で撮影された複数の静止画像を取得する静止画像取得ステップと、拠点内の第1の地点から第2の地点までを移動しながら撮影された動画像を取得する動画像取得ステップと、取得された動画像に基づいて、複数の静止画像の相対的な撮影位置を推定する位置推定ステップと、推定された撮影位置に基づいて関連づけられた複数の静止画像を含む処理画像(例えば、ツアー画像)を生成する画像処理ステップと、を実行する。これにより、画像処理方法は、撮影画像の撮影位置の推定精度を向上させたバーチャルツアーを提供することができる。
また、本発明の一実施形態に係る画像処理方法は、更に、動画像に写る前記拠点内の空間(例えば、部屋)の形状を推定する形状推定ステップと、位置推定ステップによって推定された撮影位置、および形状推定ステップによって推定された形状に基づいて、複数の静止画像を関連づけるパスを生成するパス生成ステップと、を実行し、位置推定ステップは、形状推定ステップによって推定された形状に基づいて、複数の静止画像の相対的な撮影位置を推定し、画像処理ステップは、複数の静止画像に対応するパスを含む処理画像(例えば、ツアー画像)を生成する。これにより、画像処理方法は、動画像を用いて推定された静止画像の撮影位置、撮影画像に写る空間の形状および生成されたパスに基づいて、複数の静止画像と各静止画像の撮影位置とを精度良く関連づけることができる。そして、画像処理方法は、位置精度が高く、パス(経路)が適切なバーチャルツアー(高品質なバーチャルツアー)を自動的に作成することができる。
また、本発明の一実施形態に係る画像処理方法において、動画像は、静止画像よりも解像度の低い画像である。また、画像処理方法において、静止画像および動画像は、全天球撮影装置によって撮影された画像である。これにより、画像処理方法は、パス(経路)が適切なバーチャルツアー(高品質なバーチャルツアー)の作成を効率的に行うことができる。
さらに、本発明の一実施形態に係る画像処理システムは、画像処理装置50と、撮影装置10と、を備えた画像処理システム1であって、撮影装置10は、静止画像および動画像を時分割に切り替えて撮影する。また、撮影装置10は、拠点内における移動状態に応じて、静止画像および動画像の撮影を切り替える。これにより、画像処理システム1は、バーチャルツアーを作成するための撮影画像を効率的に取得することができる。
●補足●
上記で説明した実施形態の各機能は、一または複数の処理回路によって実現することが可能である。ここで、本実施形態における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウエアによって各機能を実行するようプログラミングされたプロセッサ、並びに上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)、SOC(System on a chip)、GPU(Graphics Processing Unit)および従来の回路モジュール等のデバイスを含むものとする。
これまで本発明の一実施形態に係る画像処理方法、プログラム、画像処理装置および画像処理システムについて説明してきたが、本発明は、上述した実施形態に限定されるものではなく、他の実施形態の追加、変更または削除等、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。
1 画像処理システム
10 撮影装置
11 送受信部
12 操作受付部
13 撮影制御部(撮影制御手段の一例)
14 動画撮影部
15 静止画撮影部
16 移動検知部
20 支持部材
50 画像処理装置
51 送受信部(静止画像取得手段の一例、動画像取得手段の一例)
54 用途判定部
55 形状推定部
56 位置推定部(位置推定手段の一例)
57 検知部
58 パス生成部(パス生成手段の一例)
60 画像処理部(画像処理手段の一例)
90 通信端末
91 送受信部
92 受付部
93 表示制御部(表示制御手段の一例)

Claims (15)

  1. 所定の拠点内を全方位で撮影した撮影画像に対する処理を行う画像処理装置が実行する画像処理方法であって、
    前記拠点内について異なる撮影位置で撮影された複数の静止画像を取得する静止画像取得ステップと、
    前記拠点内の第1の地点から第2の地点までを移動しながら撮影された動画像を取得する動画像取得ステップと、
    取得された前記動画像に基づいて、前記複数の静止画像の相対的な撮影位置を推定する位置推定ステップと、
    推定された撮影位置に基づいて関連づけられた前記複数の静止画像を含む処理画像を生成する画像処理ステップと、
    を実行する画像処理方法。
  2. 請求項1に記載の画像処理方法であって、更に、
    前記複数の静止画像を関連づけるパスを生成するパス生成ステップを実行し、
    前記画像処理ステップは、前記複数の静止画像に対応する前記パスを含む前記処理画像を生成する画像処理方法。
  3. 請求項2に記載の画像処理方法であって、更に、
    前記動画像に写る前記拠点内の空間の形状を推定する形状推定ステップを実行し、
    前記位置推定ステップは、前記形状推定ステップによって推定された前記形状に基づいて、前記複数の静止画像の相対的な撮影位置を推定し、
    前記パス生成ステップは、前記位置推定ステップによって推定された前記撮影位置、および前記形状推定ステップによって推定された前記形状に基づいて、前記パスを生成する画像処理方法。
  4. 請求項3に記載の画像処理方法であって、更に、
    前記動画像が撮影された移動経路上の地点が属する前記形状を検知する検知ステップを実行し、
    前記パス生成ステップは、複数の前記形状に属する前記動画像が撮影された地点が検知された場合、前記地点が最近傍の前記形状に属するように、前記パスを生成する画像処理方法。
  5. 請求項4に記載の画像処理方法であって、更に、
    前記空間の用途を判定する用途判定ステップを実行し、
    前記パス生成ステップは、判定された前記用途に基づいて、前記パスを生成する画像処理方法。
  6. 前記パス生成ステップは、判定された前記用途に基づいて、生成された前記パスの始点を設定する請求項5に記載の画像処理方法。
  7. 前記動画像は、前記静止画像よりも解像度の低い画像である請求項1乃至6のいずれか一項に記載の画像処理方法。
  8. 前記静止画像および前記動画像は、全天球撮影装置によって撮影された画像である請求項1乃至7のいずれか一項に記載の画像処理方法。
  9. コンピュータに、請求項1乃至8のいずれか一項に記載の画像処理方法を実行させるプログラム。
  10. 所定の拠点内を全方位で撮影した撮影画像に対する処理を行う画像処理装置であって、
    前記拠点内について異なる撮影位置で撮影された複数の静止画像を取得する静止画像取得手段と、
    前記拠点内の第1の地点から第2の地点までを移動しながら撮影された動画像を取得する動画像取得手段と、
    取得された前記動画像に基づいて、前記複数の静止画像の相対的な撮影位置を推定する位置推定手段と、
    推定された撮影位置に基づいて関連づけられた前記複数の静止画像を含む処理画像を生成する画像処理手段と、
    を備える画像処理装置。
  11. 請求項10に記載の画像処理装置と、撮影装置と、を備えた画像処理システムであって、
    前記撮影装置は、
    前記静止画像および前記動画像を時分割に切り替えて撮影する撮影制御手段を備える画像処理システム。
  12. 請求項11に記載の画像処理システムであって、
    前記撮影制御手段は、前記拠点内における移動状態に応じて、前記静止画像および前記動画像の撮影を切り替える画像処理システム。
  13. 請求項10乃至12のいずれか一項に記載の画像処理システムであって、更に、前記画像処理装置と通信可能な通信端末を備え、
    前記通信端末は、
    前記画像処理装置によって生成された前記処理画像を表示する表示制御手段を備える画像処理システム。
  14. 請求項13に記載の画像処理システムであって、
    前記画像処理装置は、
    前記位置推定手段によって推定された前記撮影位置に基づいて、前記複数の静止画像を関連づけるパスを生成するパス生成手段を備え、
    前記画像処理手段は、前記複数の静止画像に対応する前記パスを含む前記処理画像を生成する画像処理システム。
  15. 請求項14に記載の画像処理システムであって、
    前記表示制御手段は、前記複数の静止画像に対して、対応する前記パスを重畳させた前記処理画像を表示させる画像処理システム。
JP2021029207A 2021-02-25 2021-02-25 画像処理方法、プログラム、画像処理装置および画像処理システム Pending JP2022130180A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021029207A JP2022130180A (ja) 2021-02-25 2021-02-25 画像処理方法、プログラム、画像処理装置および画像処理システム
US18/275,416 US20240087157A1 (en) 2021-02-25 2022-01-25 Image processing method, recording medium, image processing apparatus, and image processing system
PCT/IB2022/050616 WO2022180459A1 (en) 2021-02-25 2022-01-25 Image processing method, recording medium, image processing apparatus, and image processing system
EP22702044.3A EP4298599A1 (en) 2021-02-25 2022-01-25 Image processing method, recording medium, image processing apparatus, and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021029207A JP2022130180A (ja) 2021-02-25 2021-02-25 画像処理方法、プログラム、画像処理装置および画像処理システム

Publications (1)

Publication Number Publication Date
JP2022130180A true JP2022130180A (ja) 2022-09-06

Family

ID=80119289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021029207A Pending JP2022130180A (ja) 2021-02-25 2021-02-25 画像処理方法、プログラム、画像処理装置および画像処理システム

Country Status (4)

Country Link
US (1) US20240087157A1 (ja)
EP (1) EP4298599A1 (ja)
JP (1) JP2022130180A (ja)
WO (1) WO2022180459A1 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11263823B2 (en) * 2012-02-24 2022-03-01 Matterport, Inc. Employing three-dimensional (3D) data predicted from two-dimensional (2D) images using neural networks for 3D modeling applications and other applications
US10530997B2 (en) 2017-07-13 2020-01-07 Zillow Group, Inc. Connecting and using building interior data acquired from mobile devices
US10375306B2 (en) 2017-07-13 2019-08-06 Zillow Group, Inc. Capture and use of building interior data from mobile devices
JP2020053774A (ja) * 2018-09-25 2020-04-02 株式会社リコー 撮像装置および画像記録方法
JP2021029207A (ja) 2019-08-28 2021-03-01 三栄源エフ・エフ・アイ株式会社 製剤、及び経口組成物

Also Published As

Publication number Publication date
WO2022180459A1 (en) 2022-09-01
US20240087157A1 (en) 2024-03-14
EP4298599A1 (en) 2024-01-03

Similar Documents

Publication Publication Date Title
JP7322940B2 (ja) 画像通信システム、画像通信端末、画像通信方法、プログラム、及び記録媒体
JP7400195B2 (ja) 画像通信システム、撮像装置、通信端末、モード切替方法、プログラム
JP7192592B2 (ja) 撮像装置、画像通信システム、画像処理方法、プログラム
JP2019180027A (ja) 通信端末、画像通信システム、表示方法、及びプログラム
JP2018110375A (ja) 表示装置、プログラム、表示方法
US11062422B2 (en) Image processing apparatus, image communication system, image processing method, and recording medium
JP6816465B2 (ja) 画像表示システム、通信システム、画像表示方法、及びプログラム
JP2017212510A (ja) 画像管理装置、プログラム、画像管理システム及び情報端末
JP2022050979A (ja) 通信端末、画像通信システム、画像表示方法およびプログラム
JP2022057771A (ja) 通信管理装置、画像通信システム、通信管理方法及びプログラム
JP2022057800A (ja) 画像通信システム、通信管理装置、通信管理方法及びプログラム
JP2018109946A (ja) 表示装置、プログラム、表示方法
JP2016194783A (ja) 画像管理システム、通信端末、通信システム、画像管理方法、及びプログラム
JP2016194784A (ja) 画像管理システム、通信端末、通信システム、画像管理方法、及びプログラム
JP2018139052A (ja) 通信端末、画像通信システム、表示方法、及びプログラム
JP7017045B2 (ja) 通信端末、表示方法、及びプログラム
JP6812643B2 (ja) 通信端末、画像通信システム、表示方法、及びプログラム
JP7020523B2 (ja) 画像表示システム、画像表示方法、及びプログラム
JP2022130180A (ja) 画像処理方法、プログラム、画像処理装置および画像処理システム
JP2017184025A (ja) 通信端末、画像通信システム、画像送信方法、画像表示方法、及びプログラム
JP2020088571A (ja) 管理システム、情報処理システム、情報処理方法およびプログラム
US20240257301A1 (en) Information processing apparatus and information processing system
JP7205323B2 (ja) 通信端末、画像通信システム、表示方法、及びプログラム
JP6992338B2 (ja) 通信システム、通信管理方法、プログラム、システム及び通信方法
JP6776758B2 (ja) 画像表示システム、画像表示方法、及びプログラム

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231024

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231212