JPWO2019026919A1 - 画像処理システム、画像処理方法、及びプログラム - Google Patents

画像処理システム、画像処理方法、及びプログラム Download PDF

Info

Publication number
JPWO2019026919A1
JPWO2019026919A1 JP2019534539A JP2019534539A JPWO2019026919A1 JP WO2019026919 A1 JPWO2019026919 A1 JP WO2019026919A1 JP 2019534539 A JP2019534539 A JP 2019534539A JP 2019534539 A JP2019534539 A JP 2019534539A JP WO2019026919 A1 JPWO2019026919 A1 JP WO2019026919A1
Authority
JP
Japan
Prior art keywords
image
unit
display
moving image
identification information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019534539A
Other languages
English (en)
Other versions
JP6635573B2 (ja
Inventor
英起 多田
英起 多田
玲志 相宅
玲志 相宅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NURVE, INC.
Original Assignee
NURVE, INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NURVE, INC. filed Critical NURVE, INC.
Application granted granted Critical
Publication of JP6635573B2 publication Critical patent/JP6635573B2/ja
Publication of JPWO2019026919A1 publication Critical patent/JPWO2019026919A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

従来よりも時間及び手間を要することなく、被写体を撮影することにより得られた画像を素材として、画像表示の際にユーザによる操作や動作に応じたイベントを発生させるデータを作成ことができる画像処理システム等を提供する。画像処理システムは、被写体を撮影することにより動画又は静止画の画像データを生成する撮影部と、所定のトリガーに応じて、撮影部により生成された動画を構成するフレーム又は静止画に識別情報を付与するマーキング処理部と、撮影部により生成された動画又は静止画の画像データをもとに、表示用の動画又は静止画の画像データを生成する画像処理部と、画像処理部により生成された画像データを記憶する画像データ記憶部とを備える。

Description

本発明は、被写体を撮影して得られた画像を表示する画像処理システム、画像処理方法、及びプログラムに関する。
近年、観光業や不動産業などのビジネス分野では、観光地や不動産物件を撮影して得られた画像を様々な技術を用いて加工し、顧客に閲覧させるサービスが行われている。例えば、撮影地点の周囲360°の被写体が写った画像(全天球画像とも呼ばれる)を、ヘッドマウントディスプレイ(以下、「HMD」とも記す)と呼ばれるメガネ型又はゴーグル型の表示装置に表示させ、HMDを装着したユーザの頭の動きに合わせて、画像の表示範囲を変化させることにより、ユーザはあたかも、表示された画像の空間内に入り込んだような感覚を得ることができる。このように、仮想ではあるが現実のような感覚を体験させる技術は、仮想現実(ヴァーチャルリアリティ:VR)とも呼ばれ、VRにより3次元(3D)的に認識される仮想的な空間は、VR空間とも呼ばれる。
VRに関連する技術として、例えば特許文献1には、3次元都市VR情報表示を行う都市VR表示部と、2次元地図情報表示を行う地図表示部とを備え、都市VR空間の中で視点位置に関する情報を地図上に、また、表示された地図上の視点を動かすことで都市VR空間に関連する情報をそれぞれリアルタイムに映し出す表示装置が開示されている。
また、特許文献2には、球面全方位カメラにより撮像された球面全方位動画を、ジャイロセンサを有する画像再生装置により再生する際の画像再生方法であって、再生中に、視聴者の視線に応じて、視線先に映像に対応したイベントを起動する画像再生方法が開示されている。
特開2002−351309号公報 特開2016−134742号公報
ところで、3D空間を表現するための画像をCG(コンピュータグラフィックス)技術により作成しようとすると、レンダリングなど演算コストの高い画像処理を行わなければならない。従って、そのような画像処理を実行できる高スペックな専用の機器が必要となってしまう。
これに対し、被写体を撮影して得られた静止画や動画を素材として画像を加工し、人の両眼の視差を利用して立体視させることにより疑似的に3D空間を表現する技術も知られている。或いは、2次元画像を球面上に配置されているように表示(パノラマ表示)することにより、ユーザに3D空間に囲まれているような感覚にさせる技術も知られている。これらのような技術を用いる場合、画像の加工に要する演算コストを大幅に抑制することができる。
しかしながら、HMD等に3D空間を表示又はパノラマ表示させ、その間になされた操作やユーザの動作に応じて何らかのイベントを発生させるためには、予め画像データに特定の情報を埋め込んでおかなければならない。そのため、被写体を撮影して得られた静止画や動画を素材として用いる場合には、撮影後に、必要な情報を画像データに埋め込むための編集作業が必要となり、多くの時間及び作業コストを要してしまう。
本発明は上記に鑑みてなされたものであって、従来よりも時間及び手間を要することなく、被写体を撮影することにより得られた画像を素材として、画像表示の際にユーザによる操作や動作に応じたイベントを発生させるデータを作成することができる画像処理システム、画像処理方法、及びプログラムを提供することを目的とする。
上記課題を解決するために、本発明の一態様である画像処理システムは、被写体を撮影することにより動画又は静止画の画像データを生成する撮影部と、所定のトリガーに応じて、前記撮影部により生成された動画を構成するフレーム又は静止画に識別情報を付与するマーキング処理部と、前記撮影部により生成された前記動画又は静止画の画像データをもとに、表示用の動画又は静止画の画像データを生成する画像処理部と、前記画像処理部により生成された画像データを記憶する画像データ記憶部と、を備えるものである。
上記画像処理システムは、1種類以上の識別情報を記憶するマーキングリスト記憶部と、外部からなされる操作に従って、前記1種類以上の識別情報の中から1つの識別情報を選択する操作入力部と、をさらに備え、前記マーキング処理部は、前記トリガーに応じたタイミングで前記撮影部により生成された前記フレーム又は静止画に対し、前記操作入力部により選択された識別情報を付与しても良い。
上記画像処理システムは、前記撮影部の位置を検出して位置情報を出力する位置検出部をさらに備え、前記マーキング処理部は、前記トリガーに応じたタイミングで前記位置検出部から出力された位置情報を、前記トリガーに応じたタイミングで前記撮影部により生成された前記フレーム又は静止画に対し、前記識別情報として付与しても良い。
上記画像処理システムにおいて、前記トリガーは、動画の撮影中になされる所定の操作手段への操作であっても良い。
上記画像処理システムにおいて、前記トリガーは、静止画を撮影する際に操作される操作手段への操作であっても良い。
上記画像処理システムは、前記画像データ記憶部に記憶された画像データに基づいて、動画又は静止画を表示可能な表示部と、前記表示部における画像表示を制御する表示制御部と、外部からなされる操作を検出する操作検出部と、をさらに備え、前記表示制御部は、前記表示部に表示中の動画のフレーム又は静止画に識別情報が付与されている場合に、該識別情報が付与されている旨を示す情報を前記表示部に表示させ、前記操作検出部が前記情報を選択する操作を検出した場合に、前記表示部における画像表示を、表示中の動画のフレーム又は静止画に付与されている識別情報と同じ識別情報が付与された動画のフレーム又は静止画に切り替えても良い。
上記画像処理システムにおいて、前記画像データ記憶部は、複数の動画の画像データを記憶し、前記複数の動画の各々は、同じ識別情報が付与されたフレームを含み、前記表示制御部は、前記複数の動画の間で前記表示部における画像表示を切り替えても良い。
上記画像処理システムにおいて、前記動画は、互いに異なる時刻に生成され、同じ識別情報が付与された複数のフレームを含み、前記表示制御部は、前記複数のフレームの間で前記表示部における画像表示を切り替えても良い。
上記画像処理システムにおいて、前記動画は、前記静止画に付与された識別情報と同じ識別情報が付与されたフレームを含み、前記表示制御部は、前記静止画と、前記同じ識別情報が付与されたフレームとの間で前記表示部における画像表示を切り替えても良い。
上記画像処理システムにおいて、前記画像処理部は、さらに、前記撮影部により生成された前記動画又は静止画の画像データをもとに、3次元的なモデルの画像データを構築すると共に、前記マーキング処理部により前記動画又は静止画に付与された識別情報をもとに、前記モデルの各所に当該位置を表す情報を付与し、前記表示制御部は、前記モデルの各所に付与された前記情報と、前記動画又は静止画に付与された識別情報とに基づき、前記モデルと前記動画又は静止画との間で前記表示部における画像表示を切り替えても良い。
上記画像処理システムは、前記撮影部により生成された前記動画又は静止画の画像データをもとに、3次元的に表示される動画又は静止画の画像データを生成する第2の画像処理部をさらに備えても良い。
本発明の別の態様である画像処理方法は、被写体を撮影することにより動画又は静止画の画像データを生成するステップ(a)と、所定のトリガーに応じて、前記撮影部により生成された動画を構成するフレーム又は静止画に識別情報を付与するステップ(b)と、ステップ(a)において生成された前記動画又は静止画の画像データをもとに、表示用の動画又は静止画の画像データを生成するステップ(c)と、ステップ(c)において生成された画像データを記憶するステップ(d)と、を含むものである。
本発明のさらに別の態様であるプログラムは、被写体を撮影することにより動画又は静止画の画像データを生成する撮影部と、記憶部と、外部からなされる操作を受け付ける操作入力部と、を備える撮影装置に実行させるプログラムであって、前記記憶部は、1種類以上の識別情報を予め記憶し、前記操作入力部に対する操作に応じて、前記1種類以上の識別情報の中から1つの識別情報を選択するステップと、所定のトリガーに応じたタイミングで前記撮影部により生成された前記フレーム又は静止画に対し、前記1つの識別情報を付与するステップと、を実行させるものである。
本発明のさらに別の態様であるプログラムは、被写体を撮影することにより動画又は静止画の画像データを生成する撮影部と、前記撮影部の位置を検出して位置情報を出力する位置検出部と、を備える撮影装置に実行させるプログラムであって、所定のトリガーに応じたタイミングで前記位置検出部からに位置情報を出力させるステップと、前記トリガーに応じたタイミングで前記撮影部により生成された前記フレーム又は静止画に対し、前記位置情報を識別情報として付与するステップと、を実行させるものである。
本発明のさらに別の態様であるプログラムは、動画又は静止画を表示可能な表示部と、前記表示部における画像表示を制御する表示制御部と、外部からなされる操作を検出する操作検出部と、を備える表示装置に実行させるプログラムであって、前記表示部に表示中の動画のフレーム又は静止画に所定の識別情報が付与されている場合に、該所定の識別情報が付与されている旨を示す情報を前記表示部に表示させるステップと、前記操作検出部が前記情報を選択する操作を検出した場合に、前記表示部における画像表示を、表示中の動画のフレーム又は静止画に付与されている前記所定の識別情報と同じ識別情報が付与された動画のフレーム又は静止画に切り替えるステップと、を実行させるものである。
本発明によれば、被写体を撮影しながら動画又は静止画に識別情報を付与するとともに、これらの動画又は静止画の画像データをもとに、表示用の動画又は静止画の画像データを生成するので、画像データに必要な情報を埋め込むための編集作業を別途行う必要がなくなる。従って、従来よりも時間及び手間を要することなく、被写体を撮影することにより得られた画像を素材として、画像表示の際にユーザによる操作や動作に応じたイベントを発生させるデータを作成することが可能となる。
本発明の第1の実施形態に係る画像処理システムの概略構成を示すブロック図である。 図1に示す表示装置をユーザに装着させた状態を示す模式図である。 図1に示す表示装置の表示部に表示される画面の一例を示す模式図である。 本発明の第1の実施形態における撮影装置の動作を示すフローチャートである。 不動産物件の撮影手順の一例を説明するための模式図である。 撮影装置の表示部に表示される画面を例示する模式図である。 撮影装置の表示部に表示される画面を例示する模式図である。 撮影装置の表示部に表示される画面を例示する模式図である。 撮影装置の表示部に表示される画面を例示する模式図である。 不動産物件の撮影手順の別の例を説明するための模式図である。 不動産物件の撮影手順の別の例を説明するための模式図である。 表示装置における画像の切替手順の例を説明するための模式図である。 表示装置における画像の切替手順の例を説明するための模式図である。 表示装置における画像の切替手順の例を説明するための模式図である。 図1に示す表示装置の動作を示すフローチャートである。 表示装置における画像の表示例を示す模式図である。 表示装置における画像の表示例を示す模式図である。 表示装置における画像の表示例を示す模式図である。 表示装置における画像の表示切替タイミングを示すタイミングチャートである。 表示装置における画像の表示切替タイミングを示すタイミングチャートである。 表示装置における画像の表示切替タイミングを示すタイミングチャートである。 表示装置における画像の表示切替タイミングを示すタイミングチャートである。 本発明の第1の実施形態の変形例における表示装置の動作を示すフローチャートである。 本発明の第1の実施形態の変形例における表示装置での表示例を示す模式図である。 本発明の第2の実施形態における撮影装置の動作を示すフローチャートである。 撮影装置の表示部に表示される画面を例示する模式図である。 本発明の第3の実施形態における撮影装置の動作を示すフローチャートである。 3Dモデルの表示例を示す模式図である。 本発明の第3の実施形態における表示装置の動作を示すフローチャートである。 本発明の第4の実施形態に係る画像処理装置の概略構成を示すブロック図である。
以下、本発明の実施形態に係る画像処理システム、画像処理方法、及びプログラムについて、図面を参照しながら説明する。なお、これらの実施形態によって本発明が限定されるものではない。また、各図面の記載において、同一部分には同一の符号を付して示している。
(第1の実施形態)
図1は、本発明の第1の実施形態に係る画像処理システムの概略構成を示すブロック図である。本実施形態に係る画像処理システム1は、被写体を撮影することにより画像を生成し、これらの画像を用いて3次元的な空間を仮想的に表示するシステムである。
以下においては、画像処理システム1により撮影する対象(被写体)として、個人の住宅やオフィスビル等の不動産の内部を例示するが、被写体の例はこれに限定されない。例えば、観光地、秘境、大型家具の販売店、建築物の模型など、一般的なデジタル式の光学カメラによって撮影可能な被写体であれば、画像処理システム1における被写体とすることができる。
図1に示すように画像処理システム1は、被写体を撮影して画像データを生成する撮影装置10と、画像データを格納するサーバ20と、被写体の画像を表示する表示装置30とを備える。これらの撮影装置10と、サーバ20と、表示装置30とは、通信ネットワークNを介して接続されている。
通信ネットワークNとしては、例えばインターネット回線や電話回線、LAN、専用線、移動体通信網、WiFi(Wireless Fidelity)、ブルートゥース(登録商標)等の通信回線、又はこれらの組み合わせが用いられる。通信ネットワークNは、有線、無線、又はこれらの組み合わせのいずれであっても良い。
撮影装置10は、被写体を撮影して画像データを生成する機器であり、デジタルカメラや、専用のアプリケーションをインストールしたスマートフォン等によって実現することができる。本実施形態においては、撮影装置10としてスマートフォンを使用するものとする。詳細には、撮影装置10は、通信部11と、撮影部12と、操作入力部13と、表示部14と、位置検出部15と、記憶部16と、プロセッサ17とを備える。
通信部11は、撮影装置10を通信ネットワークNに接続し、通信ネットワークNに接続された他の機器との間で情報の送受信を行う。通信部11は、例えばソフトモデム、ケーブルモデム、無線モデム、ADSLモデム等を用いて構成される。
ここで、撮影装置10としてデジタルカメラを用いる場合、機種によっては通信機能が設けられていないことがある。そのような場合には、撮影装置10において生成された画像データを、ケーブルを介してパーソナルコンピュータ(PC)に一旦転送し、このPCから通信ネットワークNを介して画像データをサーバ20等にアップロードすれば良い。或いは、撮影装置10から表示装置30に、ケーブルを介して画像データを直接転送しても良い。
撮影部12は、スマートフォンに内蔵され、静止画及び動画の撮影が可能なカメラである。撮影部12に、市販の広角レンズ(又は超広角レンズ)や魚眼レンズを取り付けることにより、画角の広い(例えば180°以上)の画像を取得することも可能である。
或いは、撮影部12として、スマートフォンと有線又は無線により外付けされるカメラを用いても良い。例えば、画角が180°以上の2つの超広角レンズを備えた、所謂全天球カメラを撮影部12として用いることにより、撮影装置10の周囲360°の被写体が写った全天球画像を取得することができる。
操作入力部13は、操作ボタンや、表示部14上に設けられたタッチセンサ等の入力デバイスであり、外部からなされる操作を受け付け、該操作に応じた信号をプロセッサ17に入力する。
表示部14は、液晶又は有機EL(エレクトロルミネッセンス)によって形成された表示パネル及び駆動部を含むディスプレイである。
位置検出部15は、GPSモジュールを含み、撮影装置10の位置を検出して位置情報を出力する。
記憶部16は、例えばROMやRAMといった半導体メモリ等のコンピュータ読取可能な記憶媒体である。記憶部16は、オペレーティングシステムプログラム及びドライバプログラムに加えて、各種機能を実行するアプリケーションプログラムや、これらのプログラムの実行中に使用される各種パラメータ等を記憶する。詳細には、記憶部16は、各種プログラムを記憶するプログラム記憶部161と、画像データを記憶する画像データ記憶部162と、マーキングリストを記憶するマーキングリスト記憶部163とを含む。
ここで、マーキングリストとは、画像のコンテンツを識別するための識別情報として画像データに付与されるタグの名称をリスト化して記録したものである。例えば、不動産物件を撮影する場合、「玄関」、「キッチン」、「ベッドルーム」などがタグの名称として用いられる。
プロセッサ17は、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)を用いて構成され、プログラム記憶部161に記憶された各種プログラムを読み込むことにより、撮影装置10の各部を統括的に制御すると共に、撮影部12により撮影された画像を表示装置30で表示させるための各種処理を実行する。詳細には、プロセッサ17が実行する機能部には、撮影制御部171と、画像処理部172と、マーキングリスト登録部173と、マーキング処理部174とが含まれる。
撮影制御部171は、操作入力部13から入力される信号に従って、撮影部12における撮影動作を制御する。
画像処理部172は、撮影部12により生成された画像データに対してデモザイキング、ホワイトバランス処理、ガンマ補正等の画像処理を施すことにより、表示用の画像データを生成する。
マーキングリスト登録部173は、操作入力部13から入力される信号に従って、撮影部12により生成される画像データに識別情報として付与されるタグの名称を、マーキングリストに登録する。
マーキング処理部174は、操作入力部13から入力される信号をトリガーとして、マーキングリストに登録されたタグの中から選択されたタグを画像データに付与する処理(以下、マーキング処理という)を実行する。
このような撮影装置10は、被写体を撮影することにより、静止画又は動画の画像データを生成しつつ、所定のトリガーに応じて画像データにタグを付与し、所定のファイル形式で画像データ記憶部162に記憶させる。画像データ記憶部162に蓄積された画像ファイルは、ユーザの操作により、サーバ20に送信される。
サーバ20は、演算処理能力の高いホストコンピュータによって構成され、そのホストコンピュータにおいて所定のサーバ用プログラムが動作することにより、サーバ機能を発現する。詳細には、サーバ20は、当該サーバ20を通信ネットワークNに接続し、通信ネットワークNに接続された他の機器との間で情報の送受信を行う通信部21と、サーバ20の動作を統括的に制御するプロセッサ22と、撮影装置10からアップロードされた画像データ(動画及び静止画の画像ファイル)を格納する画像データ記憶部23と、被写体である不動産物件に関する情報(不動産物件名や所在地等の情報)を格納する物件情報データベース24とを備える。
プロセッサ22は、画像データ記憶部23に格納された画像データに対して所定の画像処理を行う画像処理部221を有しても良い。具体的には、画像処理部221は、撮影装置10からアップロードされた動画又は静止画の画像データをもとに、3次元的に表示される動画又は静止画の画像データを生成する処理を行う。具体的には、視差を利用した立体視用の画像データを生成する。もっとも、このような画像処理は、必ずしもサーバ20において行う必要はなく、撮影装置10や、後述する表示装置30や、別途設けた画像処理用のコンピュータにおいて行っても良い。
サーバ20は、撮影装置10からアップロードされた画像に対して必要に応じて画像処理を施し、物件情報と関連付けて記憶すると共に、表示装置30からの要求に従って、画像ファイルを表示装置30に送信する。
表示装置30は、2次元の静止画又は動画を表示することにより、3次元的な仮想空間をユーザに認識させる機器である。表示装置30としては、ユーザの頭部に直接装着して用いられるゴーグル型の専用装置(所謂ヘッドマウントディスプレイ(HMD))を用いても良いし、汎用のスマートフォンに専用のアプリケーションをインストールしたものをゴーグル型のホルダーに取り付けて用いても良い。
表示装置30は、通信部31と、操作入力部32と、表示部33と、向き及び姿勢検出部34と、記憶部35と、プロセッサ36とを備える。通信部31、操作入力部32、表示部33、記憶部35、及びプロセッサ36のハードウェアの構成は、撮影装置10の通信部11、操作入力部13、表示部14、記憶部16、及びプロセッサ17とそれぞれ同様である。
向き及び姿勢検出部34は、ジャイロセンサ及び加速度センサ等の各種センサを含み、表示装置30の向きや姿勢(鉛直軸に対する傾き)を検出する。
記憶部35は、各種プログラム及びプログラムの実行中に使用される各種パラメータ等を記憶するプログラム記憶部351と、サーバ20からダウンロードした画像データ(動画及び静止画の画像ファイル)を記憶する画像データ記憶部352とを含む。
プロセッサ36は、プログラム記憶部351に記憶された各種プログラムを読み込むことにより、表示装置30の各部を統括的に制御すると共に、画像データ記憶部352に記憶された画像データを表示部33に表示させるための各種処理を実行する。プロセッサ36が実行する機能部には、表示制御部361及び操作検出部362が含まれる。
表示制御部361は、画像データ記憶部352に記憶された画像データに基づいて、表示部33に動画又は静止画を表示させる。また、表示制御部361は、操作検出部362による検出結果に基づいて、表示部33に表示させる画像の範囲を変化させる制御や、表示部33に表示させる画像を切り替える制御などを行う。
操作検出部362は、操作入力部32から入力される信号や、向き及び姿勢検出部34から出力される検出信号に従って、表示装置30を装着したユーザが行った操作を検出する。例えば、操作検出部362は、向き及び姿勢検出部34から出力された検出信号に基づいて、表示装置30を装着したユーザの頭部の向きを検出することにより、ユーザが、表示中の画像内のどのオブジェクトに対して視線を向けているのか、或いは、そのオブジェクトに対して所定時間以上視線を向けているかといったことを判別する。
図2は、表示装置30をユーザに装着させた状態を示す模式図である。図3は、表示部33に表示される画面の一例を示す模式図である。表示装置30としてスマートフォンを用いる場合、表示部33が設けられた側をユーザに向けてホルダー37に取り付けることにより、ユーザはハンズフリーで表示部33を見ることができる。ホルダー37の内部には、ユーザの左右の眼に対応する位置に2つのレンズがそれぞれ取り付けられている。ユーザに画像を立体視させる場合には、図3に示すように、表示部33内の2つの領域33a、33bに、視差が設けられた2つの画像をそれぞれ表示させる。ユーザは、ホルダー37内の2つのレンズを通して領域33a、33bを見ることにより、領域33a、33bに映った画像を3次元的に認識することができる。
次に、画像処理システム1の動作について説明する。
図4は、本発明の第1の実施形態における撮影装置10の動作を示すフローチャートである。図5は、本発明の第1の実施形態における撮影手順の一例を説明するための模式図である。図6〜図9は、撮影装置10の表示部14に表示される画面を例示する模式図である。このうち、図6はマーキングリスト登録画面を示し、図7は撮影モードの選択画面を示し、図8は動画の撮影画面を示し、図9は静止画の撮影画面を示す。図10A及び図10Bは、撮影装置10による撮影手順の別の例を説明するための模式図である。
以下においては、一例として、図5に示す物件(マンションの1室)を撮影するものとして説明する。撮影する順序は特に限定されないが、ここでは、ユーザが、動画撮影ルートR1〜R4に沿って移動しながら4回動画撮影を行い、静止画撮影ポイントP1〜P11において11回静止画を撮影するものとする。
撮影装置10において撮影部12を起動することにより、図6に示すマーキングリスト登録画面が表示部14に表示され、以下に説明する一連の撮影動作が開始される。
まず、ステップS100において、撮影装置10は、操作入力部13から入力される信号に従って、マーキングリストを登録する。詳細には、例えば図5に示す不動産物件を撮影する場合、撮影を行うユーザは、間取り図を参照し、図6に示す入力欄14aに、各部屋の名称(例えば、玄関、キッチン、ベッドルーム等)をテキストで入力し、OKボタン14bをタップする。撮影装置10は、OKボタン14bに対する操作を検知すると、入力欄14aに入力されたテキストをタグの名称としてマーキングリスト14cに登録する。なお、タグの名称として入力するテキストは、部屋の名称に限定されない。要は、撮影を行うユーザ自身が、被写体(不動産物件)のどの位置(部分)を撮影しているのかを識別できる情報であれば良い。
続くステップS101において、撮影装置10は、撮影モードが動画に設定されているか否かを判断する。詳細には、図7に示す撮影モード選択画面において、撮影モードを示すアイコン14eのうち、「写真(静止画)」と「動画」のいずれが選択されているかを判断する。「動画」のアイコンが選択されている場合、撮影モードは動画に設定されており(ステップS101:Yes)、処理はステップS102に移行する。
ステップS102において、撮影装置10は、マーキングリスト14cに対する選択操作があったか否かを判定する。詳細には、図7に示すマーキングリスト14cに表示されたタグの名称のいずれかに対して所定の操作(例えばタップ操作)がなされたか否かを判定する。
マーキングリスト14cに対する選択操作を検知しない場合(ステップS102:No)、処理はステップS101に戻る。他方、マーキングリスト14cに対する選択操作を検知した場合(ステップS102:Yes)、撮影装置10は、選択されたタグを、動画撮影開始時点におけるタグとして登録する(ステップS103)。
なお、動画撮影開始時点におけるタグの登録は、動画撮影開始直後に手動で行っても良い(後述するステップS105〜S107参照)。その場合には、ステップS102、S103を省略しても良い。
続くステップS104において、撮影装置10は、操作入力部13に対する所定の操作(例えば撮影ボタンへの操作)に応じて動画撮影を開始する。これにより、図8に例示する動画撮影画面が表示部14に表示され、撮影部12により取り込まれた画像14dが動画として記録される。ユーザは、動画を撮影しながら、不動産物件内を移動する。
ステップS105において、撮影装置10は、マーキングリスト14cに対する選択操作があったか否かを判定する(ステップS105)。詳細には、図8に示すマーキングリスト14cに表示されたタグの名称のいずれかに対して所定の操作(例えばタップ操作)がなされたか否かを判定する。
マーキングリスト14cに対する選択操作を検知しない場合(ステップS105:No)、撮影装置10はそのまま待機する。他方、マーキングリスト14cに対する選択操作を検知した場合(ステップS105:Yes)、撮影装置10は続いて、登録ボタン14fへの操作(例えばタップ操作)を検知したか否かを判定する(ステップS106)。図8は、「ベッドルーム」のタグが選択されている状態を示している。登録ボタン14fへの操作を検知しない場合(ステップS106:No)、処理はステップS105に戻る。
他方、登録ボタン14fへの操作を検知した場合(ステップS106:Yes)、撮影装置10は、マーキング処理を行う(ステップS107)。即ち、登録ボタン14fが操作されたタイミングで生成されたフレームの画像データに対して、ステップS105において選択されたタグを付与する。タグを付与するフレームは、登録ボタン14fが操作されている間に生成されたフレームのみであっても良いし、登録ボタン14fが操作されている間に生成されたフレームを含む所定範囲のフレームであっても良い。
ユーザは、動画撮影を行いながら随時マーキング処理(タグの選択及び付与)を行う。それにより、動画撮影ルートR1の複数箇所で撮影されたフレームに、選択されたタグT1〜T8が付与される。
ここで、ユーザは、マーキング処理を行うタグを、マーキングリストの中から任意に選択することができる。そのため、互いに異なる動画を構成するフレーム同士や、同じ動画の中でも撮影した位置(時刻)が異なるフレーム同士に、同じタグが付与されることがある。例えば、図5に示すように、動画撮影ルートR1においてタグT3(例えば、「廊下」のタグ)を選択してマーキング処理を行い、別の動画撮影ルートR4において同じタグT3を選択してマーキング処理を行うと、2つの動画の中に、同じタグT3が付与されたフレームが存在することになる。このように、同じタグT3が付与されたフレーム同士は、付与されたタグT3をキーとして紐付けられる。
続くステップS108において、撮影装置10は、動画撮影の終了操作(例えば撮影ボタンの再押下操作)を検知したか否かを判定する。動画撮影の終了操作を検知しない場合(ステップS108:No)、処理はステップS105に戻る。他方、動画撮影の終了操作を検知した場合(ステップS108:Yes)、処理は後述するステップS109に移行する。例えば、図5に示すように、動画撮影ルートR1の撮影が終了し、次の動画撮影ルートR2で撮影を行うときには、動画撮影ルートR1の終点(リビング)において動画撮影を一旦終了し(ステップS108:Yes)、動画撮影ルートR2の始点(キッチンの入口)に移動して動画撮影を再開する(ステップS109:No、S101:Yes)。なお、動画の撮影順はこれに限定されず、任意の順序で行って良い。
ステップS109において、撮影装置10は、動画又は静止画の撮影動作を終了するか否かを判定する。例えば、撮影装置10の電源がオフにされる、所定の終了操作がなされるといった場合、撮影動作はそのまま終了する(ステップS109:Yes)。他方、撮影動作を終了しない場合(ステップS109:No)、処理はステップS101に戻る。
また、ステップS101において、撮影モードが動画に設定されていない場合(ステップS101:No)、即ち、撮影モードが静止画モードの場合、図9に例示する静止撮影画面が表示部14に表示される。
撮影装置10は、マーキングリスト14cへの選択操作を検知したか否かを判定する(ステップS111)。マーキングリスト14cに対する選択操作を検知しない場合(ステップS111:No)、処理はステップS109に移行する。
他方、マーキングリスト14cへの選択操作を検知した場合(ステップS111:Yes)、撮影装置10は続いて、登録ボタン14fへの操作(例えばタップ操作)を検知したか否かを判定する(ステップS112)。なお、静止画の撮影モードにおいては、登録ボタン14fが撮影ボタンを兼ねている。登録ボタン14f(撮影ボタン)への操作を検知しない場合(ステップS112:No)、処理はステップS109に移行する。
他方、登録ボタン14f(撮影ボタン)への操作を検知した場合(ステップS112:Yes)、撮影装置10は、静止画を撮影すると共に、当該静止画にマーキング処理を行う。詳細には、登録ボタン14f(撮影ボタン)がタップ操作されたタイミングで撮影部12により取り込まれた画像14dを静止画として記録すると共に、その画像データに、選択されたタグを付与する。その後、処理はステップS109に移行する。
ここで、ステップS111〜S113に示すように、静止画モードの場合、ユーザは、マーキングリストから任意のタグを選択しないと静止画を撮影することができない。言い換えると、全ての静止画にはいずれかのタグが付与されることになる。従って、全ての静止画は、動画を構成するいずれかのフレームと、同一のタグによって紐付けられる。例えば、動画撮影ルートR1の撮影中にタグT5(「ベランダ」のタグ)によるマーキング処理が行われ、その後、タグT5を選択して静止画撮影ポイントP6の静止画撮影が行われたとする。この場合、動画のうちタグT5が付与されたフレームと、タグT5が付与された静止画とが、同じタグT5をキーとして紐付けられる。
このような撮影動作により生成された画像データは、画像データ記憶部162に一旦記憶された後、通信ネットワークNを介してサーバ20にアップロードされ、必要に応じて画像処理が施される。
ここで、動画撮影ルートR1〜R4における動画の撮影順序と、静止画撮影ポイントP1〜P11における静止画の撮影順序は、特に限定されない。例えば、全ての動画の撮影が終わった後で、静止画の撮影を開始しても良いし、その逆であってもよい。或いは、動画の撮影と静止画の撮影を交互に行っても良い。例えば、動画撮影ルートR1における動画撮影が終了した後、静止画撮影ポイントP5、P6、P7の静止画撮影を行い、その後で、動画撮影ルートR2における動画撮影を行う、といった具合である。
上述したように、本実施形態においては、予めマーキングリストを登録し、登録ボタン14fに対する操作をトリガーとして、マーキングリストの中から選択されたタグを動画又は静止画の画像データに付与する。そのため、撮影順を気にすることなく動画及び静止画の撮影を行っても、撮影中に行われたマーキング処理により、動画内の所望のフレーム同士、又は動画内の所望のフレームと静止画とを紐付けることができる。従って、任意の画像(フレーム)同士の関係が整理された動画及び静止画の画像データを取得することができる。
上記説明においては、動画撮影を複数回行ったが(図5参照)、動画撮影は1回のみであっても良い。例えば、図10Aに示すように、動画撮影ルートR20に沿って、一筆書きのように全ての部屋を巡りながら動画撮影を行い、随時マーキング処理を行う(タグT21〜T27参照)。その後、ユーザ所望の箇所で、静止画の撮影兼マーキング処理を行っても良い(静止画撮影ポイントP21〜P26及びタグT22〜T27参照)。
ここで、動画撮影ルートR20中の異なる箇所に、同じタグによるマーキング処理が行われることがある。例えば図10Aにおいては、玄関からリビング&キッチンに入った直後に、タグT21によるマーキング処理が行われ、洋室(2)から再びリビング&キッチンに入ったところで、再度、タグT21によるマーキング処理が行われているため、撮影時刻が異なるフレームが互いに紐付けられていることになる。後で詳しく説明するが、タグは、表示装置30に表示された画像を切り替える際の目印として用いられる。従って、図10Aに示すように、動画撮影ルートR20に沿って撮影された動画において、同じタグT21が付与されたフレームが異なる箇所に存在するということは、図10Bに示すように、時系列順に動画を表示して方向Aに進むか、フレームをスキップして方向Bに進むかの選択肢が得られるということになる。
また、動画を撮影する際には、1つの動画撮影ルートを一度通るだけでなく、同じルートを往復しても良い。この場合、往路と復路とにおいて、同じ位置で同じタグによるマーキング処理を行うことにより、位置は同じであっても向きの異なる画像を取得することができる。つまり、視野の広い画像を得ることができる。従って、画角が180°以上の広角レンズを用い、同じルートを往復して動画撮影を行うことにより、全天球画像に相当する動画を取得することも可能である。
次に、撮影装置10により撮影された画像を表示装置30において表示する動作について説明する。以下においては、ある不動産物件において撮影された2つの動画IV1、IV2及び2つの静止画IS1、IS2を表示する場合を説明する。表示装置30において画像を表示する際には、これらの動画及び静止画の画像ファイルをサーバ20から順次、又はまとめてダウンロードする。画像ファイルを順次ダウンロードする場合には、画像表示を早く開始できるという利点がある。これに対し、全ての画像ファイルを予めダウンロードしておく場合には、画像の表示切替がスムーズになるという利点がある。いずれの方法にするかについては、通信環境その他の条件に応じて適宜選択すれば良い。本実施形態においては、前者とする。
図11A〜図11Cは、表示装置30における画像の表示切替動作を説明するための模式図である。図11A〜図11Cは、動画IV1、IV2及び静止画IS1の間における画像の表示切替動作を示している。
図11A〜図11Cにおいては、動画IV1、IV2及び静止画IS1のいずれも、撮影装置10の周囲360°の被写体が写った全天球画像であるとしている。また、表示範囲Vは、これらの動画IV1、IV2及び静止画IS1のうち、表示装置30の表示部33(各表示領域33a、33b)に一度に表示される範囲を示している。動画IV1、IV2及び静止画IS1に対する表示範囲Vの位置は、向き及び姿勢検出部34の検出結果(即ち、表示装置30を装着したユーザの頭部の向きや姿勢)に応じて変化する。つまり、画像を鑑賞するユーザにとっては、頭部を動きに合わせて、視界に入る景色が変化することになる。
表示範囲Vは、一般的な人の視野角度を考慮して決定すると良い。例えば、静止している人の一般的な視野角度は左右に180°程度(片側90°程度)であるが、運動(例えば歩行)している場合には、視野の中心領域以外(左右の端部など)の視認性が低下する。そのため、動画の表示中には、180°よりも狭い範囲(例えば150°)を表示範囲Vとして設定し、静止画の表示中には、180°若しくはそれよりも広い範囲を表示範囲Vとして設定するなど、適宜調整しても良い。言い換えると、動画の場合には、撮影者の移動方向を中心とする所定範囲のみを撮影し、静止画の場合には、ユーザが立ち止まって振り返り、周りを見渡すといった動作を考慮して、全天球画像を撮影するなど、動画と静止画とで撮影方法を変えても良い。それにより、トータルの画像ファイルのサイズを抑制しつつ、ユーザにとって自然に画像を鑑賞することができるコンテンツを作成することができる。
表示装置30は、動画IV1を表示部33に表示するときには、動画IV1の画像ファイルを読み込んで再生する一方(図11Aの実線参照)、動画IV2及び静止画IS1の画像ファイルは非表示にしておく(図11Aの破線参照)。その後、静止画IS1を表示するときには、静止画IS1の画像ファイルを読み込み、動画IV1の再生を一時停止して静止画IS1に表示を切り替える(図11B参照)。次に動画IV1の再生を再開するときには、動画IV1の一時停止を解除して、静止画ISを非表示にして、動画IV1に表示を切り替える(図11A参照)。これにより、先に動画IV1を一時停止したタイミングから動画IV1の表示を再開することができる。
また、動画IV1から動画IV2に表示を切り替えるときには、動画IV2の画像ファイルを読み込んで再生を開始すると共に(図11Cの実線参照)、動画IV1の再生を一時停止する。その後、動画IV1の画像ファイルを閉じる(図11Cの破線参照)。これは、ユーザが、動画IV1から動画IV2に表示を切り替えた後で、再び動画IV1の同じ箇所から再生させるとは限らないからである。
図12は、表示装置30の動作を示すフローチャートである。図13〜図15は、表示装置30における画像の表示例を示す模式図である。以下においては、表示装置30の表示部33に表示され、視差を利用した立体視により3次元的に認識される動画又は静止画のことを、VR動画又はVR静止画ともいう。表示部30においてVR動画又はVR静止画を表示することをVR表示ともいう。
まず、ステップS200において、表示装置30は、サーバ20から読み込んだ動画の画像ファイルを開き、VR動画の再生を行う。例えば不動産物件の画像を表示する場合には、図13に例示するように、玄関に入ったシーンからスタートする動画(例えば図5に示す動画撮影ルートR1の動画)を最初に表示するなど、予め設定しておく。
続くステップS201において、表示装置30は、動画の再生を開始してから現在に至るまでの時間(再生時間)、言い換えると、動画のフレーム番号を取得する。
続くステップS202において、表示装置30は、現在の再生時間が、マーキングされたフレームの再生時間内であるか否かを判定する。つまり、現在表示しているフレームにタグが付与されているか否かを判定する。マーキングされたフレームの再生時間内でない場合(ステップS202:No)、処理はステップS219に移行する。
ステップS219において、表示装置30は画像の表示を終了するか否かを判断する。例えば、表示装置30の電源がオフにされる、画像の表示を中止させるための所定の入力操作が行われる、表示中のVR動画が最終フレームに至るといった場合には、画像の表示を終了すると判断する。画像の表示を終了すると判断した場合(ステップS219:Yes)、表示装置30は画像の表示を終了する。他方、画像の表示を終了しないと判定した場合(ステップS219:No)、処理はステップS200に戻る。
他方、現在の再生時間が、マーキングされたフレームの再生時間内である場合(ステップS202:Yes)、表示装置30は、表示中のフレームと紐付けられた画像(紐付き先の画像)を検索する(ステップS203)。つまり、表示中のフレームに付与されたタグと同じタグが付与された静止画、又は動画内のフレームを検索する。
続くステップS204において、表示装置30は、紐付き先の画像が、現在表示中の画像(動画)ファイル内に含まれるか否かを判定する。紐付き先の画像が現在表示中の画像ファイル内に含まれない場合(ステップS204:No)、表示装置30は、紐付き先の画像を含む画像ファイルをサーバ20から読み込む(ステップS205)。
続いて、表示装置30は、現在表示中の画像(フレーム)に付与されているタグを画面に表示する(ステップS206)。例えば図13は、「応接室」の名称を付けられたタグTが表示されているシーンを示している。或いは、テキストが記載されたタグTの代わりに、アイコン状のタグT’を表示しても良い。
続くステップS207において、表示装置30は、表示されたタグが選択されたか否かを判定する。例えば、操作検出部362により、ユーザがタグに対して所定時間以上視線を向けたことが検出された、或いは、操作入力部32に対して所定の操作(例えば操作ボタンの押下)が行われた、といった場合に、タグが選択されたと判定される。
表示されたタグが選択されなかった場合(ステップS207:No)、処理はステップS219に移行する。この場合、画像の表示を終了する判断がなされない限り(ステップS219:No)、処理はステップS200に戻り、動画が引き続き再生される。例えば、図13に示すシーンにおいて「応接室」のタグTが選択されなかった場合、VR動画はそのまま再生され続け、廊下の奥にあるリビングルーム(図14参照)までの道筋が連続的に表示される。
他方、表示されたタグが選択された場合(ステップS207:Yes)、表示装置30は、現在表示中のVR動画の再生を一時停止させる(ステップS208)。
続くステップS209において、表示装置30は、ステップS205において読み込まれた画像ファイルが動画であるか否かを判定する。画像ファイルが動画でない場合、即ち静止画である場合(ステップS209:No)、表示装置30は、読み込まれた画像ファイルをもとに、表示部33にVR静止画を表示させる(ステップS210)。
続くステップS211において、表示装置30は、VR静止画が表示された画面に、終了タグを表示させ、終了タグが選択されたか否かを判定する(ステップS212)。タグが選択されたか否かの判定方法は、ステップS207と同様である。
終了タグが選択されなかった場合(ステップS212:No)、処理はステップS210に戻る。この場合、同じVR静止画が表示され続ける。他方、終了タグが選択された場合(ステップS212:Yes)、表示装置30は、VR静止画を非表示とし(ステップS213)、処理はステップS219に移行する。この場合、画像の表示を終了する判断がなされない限り(ステップS219:No)、処理はステップS200に戻り、一時停止されていた動画(ステップS208参照)が引き続き再生される。
また、ステップS205で読み込まれた画像ファイルが動画である場合(ステップS209:Yes)、表示装置30は、読み込まれた画像ファイルのうち、ステップS207で選択されたタグと紐付けられたフレームにジャンプする(ステップS214)。そして、表示部33における表示を、紐付き先のVR動画に切り替える(ステップS215)。その後、処理はステップS219(ステップS219:No)を経てステップS200に戻り、ジャンプしたフレームからVR動画の再生が行われる。
また、ステップS204において、表示中のフレームの紐付き先の画像が、表示中の画像(動画)ファイルに含まれる場合(ステップS204:Yes)、表示装置30は、表示中の画像(フレーム)に付与されているタグを画面に表示する(ステップS216)。
続くステップS217において、表示装置30は、表示されたタグが選択されたか否かを判定する。タグが選択されたか否かの判定方法は、ステップS207と同様である。
タグが選択された場合(ステップS217:Yes)、表示装置30は、紐付き先のフレームにスキップする(ステップS218)。その後、処理はステップS200に移行し、スキップしたフレームからVR動画の再生が行われる。
以上説明した表示装置30の動作を、図16〜図18Bを参照しながら、より詳しく説明する。図16〜図18Bは、表示装置30における画像の表示切替タイミングを示すタイミングチャートである。
図16に示すように、動画IV1の再生開始後、時刻t1に至ると、タグM1が付与されたフレームの再生時間となる(ステップS202:Yes)。このタグM1は動画IV1とは異なる画像ファイル(静止画IS1)と紐付けられているため(ステップS204:No)、静止画IS1の画像ファイルの読み込みが行われる(ステップS205)。しかしながら、画面に表示されたタグM1が選択されない場合(ステップS206、S207:No)、そのまま動画IV1の表示が継続される(ステップS201)。
他方、動画IV1の再生開始後、時刻t2に至ると、タグM2が付与されたフレームの再生時間となる(ステップS202:Yes)。このタグM2は動画IV1とは異なる画像ファイル(静止画IS2)と紐付けられているため(ステップS204:No)、静止画IS2の画像ファイルの読み込みが行われる(ステップS205)。そして、画面に表示されたタグM2が選択されると(ステップS206、S207:Yes)、動画IV1の表示が一時停止される(ステップS208)。そして、ステップS205において読み込まれた画像ファイルが静止画IS2の画像ファイルであるため(ステップS209:No)、この静止画IS2のVR表示が行われる(ステップS210)。その後、画面に表示された終了タグが時刻t4において選択されると(ステップS211、S212:Yes)、それまで表示されていた静止画(静止画IS2)が非表示とされ(ステップS213)、動画IV1の表示が再開される(ステップS219:No、S200)。このとき、動画IV1は、時刻t3において一時停止された続きから再生される。
また、図17に示すように、動画IV1の再生開始後、時刻t5に至ると、タグM3が付与されたフレームの再生時間となる(ステップS202:Yes)。このタグM3は動画IV1とは異なる画像ファイル(動画IV2)と紐付けられているため(ステップS204:No)、動画IV2の画像ファイルの読み込みが行われる(ステップS205)。そして、画面に表示されたタグM3が選択されると(ステップS206、S207:Yes)、動画IV1の表示が停止され(ステップS208)、タグM3の紐付き先である動画IV2のフレームにジャンプする(ステップS209:Yes、S214)。そして、表示部33における表示が、動画IV2に切り替えられ、ジャンプしたフレームからVR動画の再生が行われる(ステップS219:No、S200)。この後、動画IV1の画像ファイルは一旦閉じられる。動画IV2の再生開始後、タグM4が付与されたフレームの再生時間に至った後の処理についても同様である。
また、図18Aに示すように、動画IV1を構成するフレームに対し、時刻t6及びt9近傍のフレームにタグM5が付与され、時刻t7及びt8近傍のフレームにタグM6が付与されているとする。この場合、図18Bに示すように、動画IV1の再生開始後、時刻t6に至ると、タグM5が付与されたフレームの再生時間となる(ステップS202:Yes)。このタグM5は、同じ動画IV1の画像ファイル内のフレームと紐付けられている(ステップS204:Yes)。そのため、タグM5が表示され(ステップS216)、このタグM5が選択されると(ステップS217:Yes)、表示部33における表示が紐付き先のフレーム、即ち、同じタグM5が付与された時刻t9からのフレームにスキップし(ステップS218)、そこから動画IV1の再生が行われる(ステップS200)。
以上説明したように、本発明の第1の実施形態によれば、ユーザは、動画及び静止画によって構成される3次元的な空間内をリアルな感覚で移動することができる。
また、本発明の第1の実施形態によれば、従来よりも時間及び手間を要することなく、被写体を撮影することにより得られた画像を素材として、画像表示の際にユーザによる操作や動作に応じたイベントを発生させるデータを作成し、このデータに基づいて画像表示を行うことが可能となる。
詳細には、本発明の第1の実施形態によれば、予め設定したタグによりマーキングしながら動画又は静止画を撮影するので、VR表示するための画像データを生成する際に、画像の表示切替等のイベントを発生させるために必要な情報を画像データに埋め込むための編集作業を改めて行う必要がなくなる。従って、従来よりも低い作業コストで、短時間に、VR表示のための画像データを生成することが可能となる。
また、本発明の第1の実施形態によれば、予め設定したタグによりマーキングしながら被写体を撮影するので、画像の表示順序を考慮して撮影順序を決定したり、撮影後に時系列を整えるための編集作業を行ったりする必要がなくなる。つまり、ユーザは、所望の順序で、又はやり易い順序で被写体を撮影すれば良い。
また、本発明の第1の実施形態によれば、タグによって紐付けられた画像間で表示を切り替える際に、次に表示される可能性のある画像の画像ファイルの読み込みを開始した後で、画面にタグを表示するので、画像の切替えをスムーズに行うことができる。
また、本発明の第1の実施形態によれば、被写体を撮影することによって得られた2次元の動画や静止画を用いて、3D空間をVR表示するための画像データを生成するので、3DCGを作成するときのような高度且つ演算コストの高い画像処理を行う必要がなくなる。従って、高スペックな機器を使用して長時間作業をする必要もなくなり、VR表示のための画像データを従来よりも低コスト且つ簡単に作成することが可能となる。
次に、本発明の第1の実施形態の変形例について説明する。図19は、第1の実施形態の変形例における表示装置30の動作を示すフローチャートである。図21は、本変形例における表示装置30での表示例を示す模式図である。上記第1の実施形態においては、一連の画像表示を行う際に、動画の表示から開始することとしたが、動画と静止画の表示の順はこれに限定されるものではない。
まず、ステップS230において、表示装置30は、サーバ20から読み込んだ画像ファイルが、動画の画像ファイルであるか否かを判定する。画像ファイルが動画の画像ファイルである場合(ステップS230:Yes)、処理はステップS200に移行する。その後のステップS200〜S215及びS216〜S218は、上記第1の実施形態と同様である。ただし、ステップS209において、読み込んだ画像ファイルが静止画の画像ファイルである場合(ステップS209:No)、処理はステップS231に移行する。
また、ステップS240において、表示装置30は、表示中のVR動画(ステップS202:No、ステップS207:No)、又は、表示切替(ステップS215参照)をしたVR動画が終了したか否か、即ち、最終フレームに至ったか否かを判定する。そして、VR動画がまだ終了していない場合(ステップS240:No)、処理はステップS200に移行する。他方、VR動画が終了した場合(ステップS240:Yes)、処理はステップS241に移行する。
ステップS241において、表示装置30はさらに、画像の表示を終了するか否かを判断する。例えば、表示装置30の電源がオフにされる、或いは、画像の表示を中止させるための所定の入力操作が行われるといった場合、画像の表示を終了すると判断する。画像の表示を終了すると判断した場合(ステップS241:Yes)、表示装置30は画像の表示を終了する。他方、画像の表示を終了しないと判断した場合(ステップS241:No)、処理はステップS230に戻る。
他方、サーバ20から読み込んだ画像ファイルが動画の画像ファイルでない場合(ステップS230:No)、即ち、静止画の画像ファイルである場合、表示装置30は、当該画像ファイルに基づき、静止画を画面に表示させる(ステップS231)。例えば、図20は、ある建物の入り口を入った所にある玄関ホールと、入口付近から見える3つの会議室のドアとが写った静止画を示している。
続く、ステップS232において、表示装置30は、VR静止画が表示された画面に、当該VR静止画の画像ファイルと紐付けられた画像ファイルにジャンプするためのタグを表示させる。例えば、図20に示す静止画の画像ファイルに対し、3つの会議室の内部をそれぞれ表す3つの画像ファイルが紐付けられている場合、表示装置30は、3つの会議室の名称(例えば、A会議室、B会議室、及びC会議室)をそれぞれ表すタグT(a)、T(b)、T(c)を画面に表示させる。なお、各会議室の内部を表す画像ファイルは、動画の画像ファイルであっても良いし、静止画の画像ファイルであっても良い。また、会議室の内部を表す画像ファイルに対し、上記第1の実施形態と同様にマーキング処理が施されていても良い。
続くステップS233において、表示装置30は、画面に表示されたタグのうちのいずれかが選択されたか否かを判定する。タグが選択されたか否かの判定方法は、ステップS207と同様である。
いずれのタグも選択されない場合(ステップS233:No)、表示装置30はVR静止画の表示を継続する(ステップS231)。他方、表示されたタグのいずれかが選択された場合(ステップS233:Yes)、表示装置30は、選択されたタグに対応する画像ファイルをサーバ20から読み込む(ステップS234)。その後、処理はステップS241に移行する。その後、画像の表示を終了しない場合(ステップS241:No)、表示装置30は、ステップS234において読み込んだ画像ファイルが動画の画像ファイルであるか否かを判定し(ステップS230)、判定結果に応じて、動画又は静止画を表示する(ステップS200、S231)。その後のステップは上述したとおりである。
以上説明したように本変形例によれば、ユーザは、静止画に表示されるタグを選択することにより、画像によって構成される3次元的な空間内の所望の場所に移動することができる。
なお、上記変形例においては、タグの選択後(ステップS233:Yes)に、選択されたタグに対応する画像ファイルを読み込むこととしたが、タグが選択される前に、表示された全てのタグに対応する画像ファイルを読み込むこととしても良い。この場合、タグが選択されてから、選択されたタグに対応する画像ファイルに基づく画像が表示されるまでの時間を短縮することが可能となる。
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。本実施形態に係る画像処理システムの構成は、全体として第1の実施形態と同様であり(図1参照)、撮影装置10の動作の一部が第1の実施形態と異なっている。
図21は、本発明の第2の実施形態における撮影装置10の動作を示すフローチャートである。図22は、撮影装置10の表示部14に表示される画面を例示する模式図である。
まず、ステップS300において、撮影装置10は、撮影モードが動画に設定されているか否かを判断する。撮影モードが動画に設定されている場合(ステップS300:Yes)、撮影装置10は、操作入力部13に対する所定の操作(例えば撮影ボタンへの操作)に応じて動画撮影を開始する(ステップS301)。これにより、撮影部12により取り込まれた画像が動画として記録される。
続くステップS302において、撮影装置10は、位置検出部15から出力された位置情報を取得し、動画撮影開始位置として登録する。
続くステップS303において、撮影装置10は、登録ボタン14f(図22参照)への操作(例えばタップ操作)を検知したか否かを判定する(ステップS303)。登録ボタン14fへの操作を検知しない場合(ステップS303:No)、撮影装置10は動画の撮影を継続しながら登録ボタンへの操作を待機する。
他方、登録ボタン14fへの操作を検知した場合(ステップS303:Yes)、撮影装置10は、位置検出部15から出力された位置情報を取得し、画像の識別情報として登録する(ステップS304)。詳細には、マーキング処理部174が、登録ボタン14fへの操作を検知したタイミングで生成されたフレームを識別する情報(例えばフレーム番号)と位置情報とを対応づけるリストを作成し、記憶部16に記憶させておく。或いは、生成されたフレームの画像データに対し、位置情報を直接埋め込んでも良い。ここで登録される位置情報は、ステップS302において登録された初期位置に対する相対位置としても良い。
続くステップS305において、撮影装置10は、動画撮影の終了操作(例えば撮影ボタンの再押下操作)を検知したか否かを判定する。動画撮影の終了操作を検知しない場合(ステップS305:No)、処理はステップS303に戻る。他方、動画撮影の終了操作を検知した場合(ステップS305:Yes)、処理はステップS306に移行する。
ステップS306において、撮影装置10は、位置検出部15から出力された位置情報を取得し、動画撮影終了位置として登録する。
ステップS307において、撮影装置10は、動画又は静止画の撮影動作を終了するか否かを判定する。例えば、撮影装置10の電源がオフにされる、所定の終了操作がなされるといった場合、撮影動作はそのまま終了する(ステップS307:Yes)。他方、撮影動作を終了しない場合には(ステップS307:No)には、処理はステップS300に戻る。
また、ステップS300において、撮影モードが動画に設定されていない場合(ステップS300:No)、即ち、撮影モードが静止画モードの場合、撮影装置10は、静止画の撮影ボタンへの操作を検知したか否かを判定する(ステップS311)。撮影ボタンへの操作を検知した場合(ステップS311:Yes)、撮影装置10は静止画撮影を行う(ステップ312)。これにより、撮影部12により取り込まれた画像が静止画として記録される。
続くステップS313において、撮影装置10は、位置検出部15から出力された位置情報を取得し、画像の識別情報として登録する(ステップS313)。詳細には、マーキング処理部174が、ステップS312において撮影された静止画の画像データに対し、位置情報を付与する。このときの位置情報は、ステップS302において登録された初期値に対する相対位置としても良い。
その後、処理はステップS307に移行する。
このようにして撮影された動画及び静止画は、それぞれの画像データに付与された位置情報を識別情報として、互いに紐付けられる。識別情報として用いる場合、位置情報はピンポイントである必要はなく、例えば、ある画像データに付与された位置情報を中心とする所定範囲(例えば数10cm〜数メートル)に、別の画像データの位置情報が含まれる場合、それらの画像には同じ識別情報が付与されているものと判断される。
以上説明したように、本発明の第2の実施形態によれば、自動で検出された位置情報によって画像をマーキングするので、撮影時に手動でマーキング処理を行う手間を省くことができる。
(第3の実施形態)
次に、本発明の第3の実施形態について説明する。本実施形態に係る画像処理システムの構成は、全体として第1の実施形態と同様であり(図1参照)、本実施形態においては、撮影装置10により生成した動画又は静止画の画像データをもとに、3Dモデルの画像データを構築する点で、上記第1及び第2の実施形態と異なっている。
図23は、本発明の第3の実施形態における撮影装置10の動作を示すフローチャートであり、3Dモデルの画像データを構築するための画像を取得するための動作を示している。ただし、撮影装置10が生成する画像データは、第1及び第2の実施形態と同様、2次元的な動画又は静止画の画像データで良い。以下においては、動画を撮影する場合の動作を説明する。
まず、ステップS401において、撮影装置10は、3D画像用の撮影を開始する。詳細には、撮影装置10は、操作入力部13に対する所定の操作(例えば撮影ボタンへの操作)に応じて動画撮影を開始する。
続くステップS402において、撮影装置10は、位置検出部15から出力された位置情報を取得し、動画撮影開始位置として登録する。
続くステップS403において、撮影装置10は、所定の登録ボタン(例えば図22に示す登録ボタン14f)への操作(例えばタップ操作)を検知したか否かを判定する。登録ボタン14fへの操作を検知しない場合(ステップS403:No)、撮影装置10は動画の撮影を継続しながら登録ボタンへの操作を待機する。
他方、登録ボタンへの操作を検知した場合(ステップS403:Yes)、撮影装置10は、位置検出部15から出力された位置情報を取得し、画像の識別情報として登録する(ステップS404)。詳細には、マーキング処理部174が、撮影中の画像(フレーム)の画像データに対して、位置情報を付与ことによりマーキングを行う。このときの位置情報は、ステップS402において登録された初期位置に対する相対位置としても良い。
続くステップS405において、撮影装置10は、撮影終了操作(例えば撮影ボタンの再押下操作)を検知したか否かを判定する。撮影終了操作を検知しない場合(ステップS405:No)、処理はステップS403に戻る。他方、撮影終了操作を検知した場合(ステップS405:Yes)、処理は終了する。
このようにして生成された画像データは、サーバ20にアップロードされる。サーバ20は、第1及び第2の実施形態と同様に、アップロードされた画像データに対し、3D空間をVR表示するための画像処理を実行する。これに加えて、本実施形態において、サーバ20は、アップロードされた画像データをもとに3Dモデルの画像データを構築する。平面の画像から3Dモデルの画像データを構築する方法としては、公知の種々の手法を用いることができる。一例として、動画内の複数のフレームに写った共通のオブジェクトの動きを検出し、動いた距離が大きいほど手前に存在するという原理に基づいてオブジェクトの奥行きを推定することにより、3Dモデルを構築する手法が知られている。
図24は、撮影装置10により撮影された動画又は静止画の画像データをもとに構築された3Dモデルの表示例を示す模式図である。この3Dモデルの各所には、撮影時に画像データに付与された位置情報に対応するタグが埋め込まれている。これにより、3Dモデルの各所は、VR表示される動画又は静止画と紐付けられる。例えば、3Dモデルにおける玄関P30は、動画のうち玄関が写ったフレームと紐付けられ、3DモデルにおけるトイレP31は、動画のうちトイレが写ったフレームと紐付けられている。
図25は、本発明の第3の実施形態における表示装置30の動作を示すフローチャートである。
まず、ステップS410において、表示装置30は、サーバ20から3Dモデルの画像データをダウンロードし、表示部33に表示させる。
続くステップS411において、表示装置30は、ユーザの視野に現在入っている3Dモデルの位置情報を取得する。
続くステップS412において、表示装置30は、ステップS411において取得された位置情報が、撮影時にマーキングされた範囲(図23のステップS404において位置情報が登録された範囲)内であるか否かを判定する。マーキングされた範囲内でない場合(ステップS412:No)、処理はステップS433に移行する。
ステップS433において、表示装置30は動作を終了するか否かを判定する。この判定方法は、図12のステップS219と同様である。動作を終了すると判定した場合(ステップS433:Yes)、そのまま終了する。他方、動作を終了しないと判定した場合(ステップS433:No)、処理はステップS410に戻る。
他方、ステップS411において取得された位置情報がマーキングされた範囲内である場合(ステップS412:Yes)、表示装置30は、取得された位置情報と紐付けられた紐付き先を検索する(ステップS413)。
紐付き先が3Dモデル内に存在する場合(ステップS414:Yes)、表示装置30は、表示中の3Dモデルにタグを表示する(ステップS415)。例えば、図24の場合、玄関P30にタグT30が表示される。
続くステップS416において、表示装置30は、表示されたタグが選択されたか否かを判定する。タグが選択されたか否かの判定方法は、図12のステップS207と同様である。表示されたタグが選択された場合(ステップS416:Yes)、表示装置30は、ユーザの視野に表示させる領域を、選択されたタグと紐付けられた3Dモデル内の位置にジャンプさせる(ステップS417)。その後、処理はステップS410に移行する。この場合、ステップS410においては、ジャンプ先の領域の3Dモデルが表示される。例えば、図24において、玄関P30に表示されたタグT30が、廊下P32に埋め込まれたタグと紐付けられていた場合、3Dモデルの向きが変わり、廊下P32がユーザ側を向くように表示される。他方、ステップS416においてタグが選択されなかった場合(ステップS416:No)、処理はそのままステップS410に戻る。この場合、従前の3Dモデルが表示される。
また、ステップS414において、紐付き先が3Dモデル内に存在しない場合(ステップS414:No)、表示装置30は、紐付き先の静止画又は動画の画像ファイルをサーバ20から読み込む(ステップS418)。そして、表示装置30は、表示中の3Dモデルにタグを表示する(ステップS419)。
続くステップS420において、表示装置30は、表示されたタグが選択されたか否かを判定する。タグが選択されたか否かの判定方法は、図12のステップS207と同様である。タグが選択されない場合(ステップS420:No)、処理はステップS433に移行する。
他方、表示されたタグが選択された場合(ステップS420:Yes)、表示装置30は続いて、ステップS418において読み込まれた画像ファイルが動画であるか否かを判定する(ステップS421)。
画像ファイルが動画でない場合(ステップS421:No)、即ち静止画である場合、表示装置30は、読み込まれた画像ファイルをもとに、表示部33にVR静止画を表示させる(ステップS422)。
続くステップS423において、表示装置30は、VR静止画が表示された画面に、終了タグを表示させ、終了タグが選択されたか否かを判定する(ステップS424)。タグが選択されたか否かの判定方法は、ステップS207と同様である。
終了タグが選択されなかった場合(ステップS424:No)、処理はステップS422に戻る。この場合、VR静止画が表示され続ける。他方、終了タグが選択された場合(ステップS424:Yes)、表示装置30は、再び3Dモデルを表示すると共に(ステップS425)、VR静止画を非表示にする(ステップS426)。その後、処理はステップS433に移行する。
他方、ステップS421で読み込まれた画像ファイルが動画である場合(ステップS421:Yes)、表示装置30は、読み込まれた画像ファイルのうち、ステップS420で選択されたタグと紐付けられたフレームにジャンプする(ステップS427)。そして、表示部33における表示を、紐付き先のVR動画に切り替え(ステップS428)、紐付き先のVR動画を再生する(ステップS429)。
ここで、VR動画の再生が開始された後は、第1の実施形態における表示動作と同様に、異なるVR動画内の紐付き先のフレームへのジャンプ、同一のVR画像内でのフレームのスキップ、紐付けされた静止画の表示/非表示などを行っても良い(図12参照)。
その後、紐付き先のVR動画の再生が終了(又は一時停止)すると(ステップS430)、表示装置30は、再び3Dモデルを表示すると共に(ステップS431)、VR動画を非表示にする(ステップS432)。その後、処理はステップS433に移行する。
以上説明したように、本発明の第3の実施形態によれば、撮影装置10により生成された動画又は静止画の画像データをもとに3Dモデルを構築すると共に、この3Dモデルに位置情報を埋め込み、VR表示される動画又は静止画と紐付けるので、被写体をより多様な形態で表示することができる。例えば、3Dモデルにより被写体(例えば不動産物件)の全容を直感的に把握し、VR動画により動線を確認し、VR静止画により被写体の詳細を確認するといった利用方法も可能である。
なお、本実施形態においては、3Dモデルの画像データをサーバ20において構築することとしたが、これに限定されない。例えば、撮影装置10の画像処理部172において3Dモデルの画像データを構築しても良いし、撮影装置10において生成した動画又は静止画の画像データを3Dモデル構築専用のコンピュータに転送し、このコンピュータにおいて3Dモデルの画像データを構築しても良い。
(第4の実施形態)
次に、本発明の第4の実施形態について説明する。図26は、本発明の第4の実施形態に係る画像処理装置の概略構成を示すブロック図である。
図26に示す画像処理装置60は、被写体を撮影して動画又は静止画の画像データを生成する機能と、該画像データに基づいてVR表示を行う機能とを備えるものである。このような画像処理装置60は、図1に示す撮影装置10及び表示装置30と同様に、汎用のスマートフォン等を用いて構成することができる。図26に示す各部のうち、撮影部61、操作入力部62、表示部63、及び位置検出部65の構成及び動作は、図1に示す撮影部12、操作入力部13、表示部14、及び位置検出部15の構成及び動作とそれぞれ同様である。また、図26に示す向き及び姿勢検出部64の構成及び動作は、図1に示す向き及び姿勢検出部34の構成及び動作と同様である。図26に示す記憶部66は、図1に示す撮影装置10と同様に、プログラム記憶部661と、画像データ記憶部662と、マーキングリスト記憶部663とを有している。図26に示すプロセッサ67は、図1に示すプロセッサ17の各部と同様に機能する撮影制御部671、画像処理部672、マーキングリスト登録部673、及びマーキング処理部674と、図1に示すプロセッサ36の各部と同様に機能する表示制御部361及び操作検出部676とを有している。
このように、撮影装置10及び表示装置30がそれぞれ担う機能を同一の機器によって実現することで、サーバ20を介して画像データをアップロード及びダウンロードする手間が不要になると共に、紐付き先の画像にスムーズに表示切替をすることができるという利点も生じる。
以上説明した第1〜第4の実施形態及び変形例においては、動画、静止画、又は3Dモデルを、ユーザが頭部に装着して用いる表示装置30(又は画像処理装置60)において表示することとしたが、画像の表示形態はこれに限定されない。例えば、タブレット端末やパーソナルコンピュータ等の画面にこれらの画像を表示することとしても良い。この場合、画面に表示されたタグの選択は、例えば、マウス等のポインティングデバイスや、タッチパネルにより行っても良い。
また、上記第1〜第4の実施形態及び変形例においては、ユーザが頭部に装着して用いる表示装置30(又は画像処理装置60)に、動画又は静止画を3次元的に表示することとしたが、表示装置30(又は画像処理装置60)に、全天球画像の一部をパノラマ画像として表示しても良いし、平面的な2次元画像として表示しても良い。また、タブレット端末やパーソナルコンピュータ等に、パノラマ画像や平面的な2次元画像を表示することとしても良い。
本発明は、上記第1〜第4の実施形態及び変形例に限定されるものではなく、上記第1〜第4の実施形態及び変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、上記第1〜第4の実施形態及び変形例に示した全構成要素からいくつかの構成要素を除外して形成しても良いし、上記第1〜第4の実施形態及び変形例に示した構成要素を適宜組み合わせて形成しても良い。
1 画像処理システム
10 撮影装置
11、21、31 通信部
12、61 撮影部
13、32、62 操作入力部
14、33、63 表示部
15、65 位置検出部
16、35、66 記憶部
17、22、36、67 プロセッサ
20 サーバ
23 画像データ記憶部
24 物件情報データベース
30 表示装置
33a、33b 領域
34、64 向き及び姿勢検出部
37 ホルダー
60 画像処理装置
161、351、661 プログラム記憶部
162、352、662 画像データ記憶部
163、663 マーキングリスト記憶部
171、671 撮影制御部
172、221、672 画像処理部
173、673 マーキングリスト登録部
174、674 マーキング処理部
361、675 表示制御部
362、676 操作検出部

Claims (15)

  1. 被写体を撮影することにより動画又は静止画の画像データを生成する撮影部と、
    所定のトリガーに応じて、前記撮影部により生成された動画を構成するフレーム又は静止画に識別情報を付与するマーキング処理部と、
    前記撮影部により生成された前記動画又は静止画の画像データをもとに、表示用の動画又は静止画の画像データを生成する画像処理部と、
    前記画像処理部により生成された画像データを記憶する画像データ記憶部と、
    を備える画像処理システム。
  2. 1種類以上の識別情報を記憶するマーキングリスト記憶部と、
    外部からなされる操作に従って、前記1種類以上の識別情報の中から1つの識別情報を選択する操作入力部と、
    をさらに備え、
    前記マーキング処理部は、前記トリガーに応じたタイミングで前記撮影部により生成された前記フレーム又は静止画に対し、前記操作入力部により選択された識別情報を付与する、
    請求項1に記載の画像処理システム。
  3. 前記撮影部の位置を検出して位置情報を出力する位置検出部をさらに備え、
    前記マーキング処理部は、前記トリガーに応じたタイミングで前記位置検出部から出力された位置情報を、前記トリガーに応じたタイミングで前記撮影部により生成された前記フレーム又は静止画に対し、前記識別情報として付与する、
    請求項1に記載の画像処理システム。
  4. 前記トリガーは、動画の撮影中になされる所定の操作手段への操作である、請求項1〜3のいずれか1項に記載の画像処理システム。
  5. 前記トリガーは、静止画を撮影する際に操作される操作手段への操作である、請求項1〜3のいずれか1項に記載の画像処理システム。
  6. 前記画像データ記憶部に記憶された画像データに基づいて、動画又は静止画を表示可能な表示部と、
    前記表示部における画像表示を制御する表示制御部と、
    外部からなされる操作を検出する操作検出部と、
    をさらに備え、
    前記表示制御部は、前記表示部に表示中の動画のフレーム又は静止画に識別情報が付与されている場合に、該識別情報が付与されている旨を示す情報を前記表示部に表示させ、前記操作検出部が前記情報を選択する操作を検出した場合に、前記表示部における画像表示を、表示中の動画のフレーム又は静止画に付与されている識別情報と同じ識別情報が付与された動画のフレーム又は静止画に切り替える、
    請求項1〜5のいずれか1項に記載の画像処理システム。
  7. 前記画像データ記憶部は、複数の動画の画像データを記憶し、
    前記複数の動画の各々は、同じ識別情報が付与されたフレームを含み、
    前記表示制御部は、前記複数の動画の間で前記表示部における画像表示を切り替える、
    請求項6項に記載の画像処理システム。
  8. 前記動画は、互いに異なる時刻に生成され、同じ識別情報が付与された複数のフレームを含み、
    前記表示制御部は、前記複数のフレームの間で前記表示部における画像表示を切り替える、
    請求項6に記載の画像処理システム。
  9. 前記動画は、前記静止画に付与された識別情報と同じ識別情報が付与されたフレームを含み、
    前記表示制御部は、前記静止画と、前記同じ識別情報が付与されたフレームとの間で前記表示部における画像表示を切り替える、
    請求項6に記載の画像処理システム。
  10. 前記画像処理部は、さらに、前記撮影部により生成された前記動画又は静止画の画像データをもとに、3次元的なモデルの画像データを構築すると共に、前記マーキング処理部により前記動画又は静止画に付与された識別情報をもとに、前記モデルの各所に当該位置を表す情報を付与し、
    前記表示制御部は、前記モデルの各所に付与された前記情報と、前記動画又は静止画に付与された識別情報とに基づき、前記モデルと前記動画又は静止画との間で前記表示部における画像表示を切り替える、
    請求項6に記載の画像処理システム。
  11. 前記撮影部により生成された前記動画又は静止画の画像データをもとに、3次元的に表示される動画又は静止画の画像データを生成する第2の画像処理部をさらに備える、請求項1〜10のいずれか1項に記載の画像処理システム。
  12. 被写体を撮影することにより動画又は静止画の画像データを生成するステップ(a)と、
    所定のトリガーに応じて、前記撮影部により生成された動画を構成するフレーム又は静止画に識別情報を付与するステップ(b)と、
    ステップ(a)において生成された前記動画又は静止画の画像データをもとに、表示用の動画又は静止画の画像データを生成するステップ(c)と、
    ステップ(c)において生成された画像データを記憶するステップ(d)と、
    を含む画像処理方法。
  13. 被写体を撮影することにより動画又は静止画の画像データを生成する撮影部と、記憶部と、外部からなされる操作を受け付ける操作入力部と、を備える撮影装置に実行させるプログラムであって、
    前記記憶部は、1種類以上の識別情報を予め記憶し、
    前記操作入力部に対する操作に応じて、前記1種類以上の識別情報の中から1つの識別情報を選択するステップと、
    所定のトリガーに応じたタイミングで前記撮影部により生成された前記フレーム又は静止画に対し、前記1つの識別情報を付与するステップと、
    を実行させるプログラム。
  14. 被写体を撮影することにより動画又は静止画の画像データを生成する撮影部と、前記撮影部の位置を検出して位置情報を出力する位置検出部と、を備える撮影装置に実行させるプログラムであって、
    所定のトリガーに応じたタイミングで前記位置検出部からに位置情報を出力させるステップと、
    前記トリガーに応じたタイミングで前記撮影部により生成された前記フレーム又は静止画に対し、前記位置情報を識別情報として付与するステップと、
    を実行させるプログラム。
  15. 動画又は静止画を表示可能な表示部と、前記表示部における画像表示を制御する表示制御部と、外部からなされる操作を検出する操作検出部と、を備える表示装置に実行させるプログラムであって、
    前記表示部に表示中の動画のフレーム又は静止画に所定の識別情報が付与されている場合に、該所定の識別情報が付与されている旨を示す情報を前記表示部に表示させるステップと、
    前記操作検出部が前記情報を選択する操作を検出した場合に、前記表示部における画像表示を、表示中の動画のフレーム又は静止画に付与されている前記所定の識別情報と同じ識別情報が付与された動画のフレーム又は静止画に切り替えるステップと、
    を実行させるプログラム。
JP2019534539A 2017-08-02 2018-07-31 画像処理システム、画像処理方法、及びプログラム Active JP6635573B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017149690 2017-08-02
JP2017149690 2017-08-02
PCT/JP2018/028704 WO2019026919A1 (ja) 2017-08-02 2018-07-31 画像処理システム、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP6635573B2 JP6635573B2 (ja) 2020-01-29
JPWO2019026919A1 true JPWO2019026919A1 (ja) 2020-04-23

Family

ID=65232817

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019534539A Active JP6635573B2 (ja) 2017-08-02 2018-07-31 画像処理システム、画像処理方法、及びプログラム

Country Status (2)

Country Link
JP (1) JP6635573B2 (ja)
WO (1) WO2019026919A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7029118B2 (ja) * 2020-06-12 2022-03-03 3D Nest株式会社 画像表示方法、画像表示システム、及び画像表示プログラム
CN114945090A (zh) * 2022-04-12 2022-08-26 阿里巴巴达摩院(杭州)科技有限公司 视频生成方法、装置、计算机可读存储介质及计算机设备
JP7343232B1 (ja) * 2022-09-13 2023-09-12 英晃 菊地 情報処理方法、情報処理装置、及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011059951A (ja) * 2009-09-09 2011-03-24 Toshiba Tec Corp 動線編集方法及び装置並びに動線編集プログラム
JP2013156718A (ja) * 2012-01-27 2013-08-15 National Institute Of Advanced Industrial & Technology 人物追跡属性推定装置、人物追跡属性推定方法、プログラム
JP2013210843A (ja) * 2012-03-30 2013-10-10 Secom Co Ltd 画像処理装置
JP2016018571A (ja) * 2014-07-07 2016-02-01 株式会社リコー 画像記憶再生制御装置、画像記憶再生制御方法、画像記憶再生制御システム、及びプログラム
JP2016194783A (ja) * 2015-03-31 2016-11-17 株式会社リコー 画像管理システム、通信端末、通信システム、画像管理方法、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011059951A (ja) * 2009-09-09 2011-03-24 Toshiba Tec Corp 動線編集方法及び装置並びに動線編集プログラム
JP2013156718A (ja) * 2012-01-27 2013-08-15 National Institute Of Advanced Industrial & Technology 人物追跡属性推定装置、人物追跡属性推定方法、プログラム
JP2013210843A (ja) * 2012-03-30 2013-10-10 Secom Co Ltd 画像処理装置
JP2016018571A (ja) * 2014-07-07 2016-02-01 株式会社リコー 画像記憶再生制御装置、画像記憶再生制御方法、画像記憶再生制御システム、及びプログラム
JP2016194783A (ja) * 2015-03-31 2016-11-17 株式会社リコー 画像管理システム、通信端末、通信システム、画像管理方法、及びプログラム

Also Published As

Publication number Publication date
JP6635573B2 (ja) 2020-01-29
WO2019026919A1 (ja) 2019-02-07

Similar Documents

Publication Publication Date Title
JP7344974B2 (ja) マルチ仮想キャラクターの制御方法、装置、およびコンピュータプログラム
JP6348741B2 (ja) 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法
KR101690955B1 (ko) 증강 현실을 이용한 영상 데이터 생성 방법 및 재생 방법, 그리고 이를 이용한 촬영 장치
US9392248B2 (en) Dynamic POV composite 3D video system
JP2001008232A (ja) 全方位映像出力方法と装置
US9509907B2 (en) Information processing device, storage medium having moving image data stored thereon, information processing system, storage medium having moving image reproduction program stored thereon, and moving image reproduction method
JP2010010936A (ja) 画像記録装置、画像記録方法、画像処理装置、画像処理方法、プログラム
JP6635573B2 (ja) 画像処理システム、画像処理方法、及びプログラム
WO2020042494A1 (zh) Vr场景截图方法、设备及存储介质
JP5800569B2 (ja) 情報処理システム、情報処理方法、情報処理プログラム
JP5831764B2 (ja) 画像表示装置及びプログラム
JP2013254151A (ja) 画像処理装置および画像処理方法
JP2019101563A (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP2009230635A (ja) 画像データ生成装置、画像データ生成方法、および画像データ生成用プログラム
WO2020017600A1 (ja) 表示制御装置、表示制御方法及びプログラム
JP5003358B2 (ja) 表示装置、電子カメラおよび制御プログラム
JP2020057329A (ja) ガイドシステム
JP2008191751A (ja) 配置シミュレーションシステム
JP2021168461A (ja) 撮影者端末、情報処理装置、情報処理方法、及びコンピュータプログラム
KR101263881B1 (ko) 무인 방송 제어 시스템
JP2013037476A (ja) 観察装置、観察方法、及び撮像装置
JP2020204973A (ja) 情報処理装置、プログラム及び情報処理システム
JP2019012536A (ja) 情報提供方法、プログラム、および、情報提供装置
US20240087157A1 (en) Image processing method, recording medium, image processing apparatus, and image processing system
JP2000353253A (ja) 3次元協調仮想空間における映像表示方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190822

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190822

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190822

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191214

R150 Certificate of patent or registration of utility model

Ref document number: 6635573

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350