JP6004071B2 - Display control apparatus, display control method, and program - Google Patents

Display control apparatus, display control method, and program Download PDF

Info

Publication number
JP6004071B2
JP6004071B2 JP2015218055A JP2015218055A JP6004071B2 JP 6004071 B2 JP6004071 B2 JP 6004071B2 JP 2015218055 A JP2015218055 A JP 2015218055A JP 2015218055 A JP2015218055 A JP 2015218055A JP 6004071 B2 JP6004071 B2 JP 6004071B2
Authority
JP
Japan
Prior art keywords
display
imaging
moving image
shooting
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015218055A
Other languages
Japanese (ja)
Other versions
JP2016054508A (en
Inventor
英明 松田
英明 松田
山本 一人
一人 山本
加藤 寛之
寛之 加藤
村木 淳
淳 村木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2015218055A priority Critical patent/JP6004071B2/en
Publication of JP2016054508A publication Critical patent/JP2016054508A/en
Application granted granted Critical
Publication of JP6004071B2 publication Critical patent/JP6004071B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、他の撮像装置と連携した撮影に関する処理を行う表示制御装置、表示制御方法及びプログラムに関する。 The present invention relates to a display control device, a display control method, and a program that perform processing related to shooting in cooperation with another imaging device.

従来より、所定の領域を複数の異なる視点から撮影して得た画像を用いて通常の画角よりも広い画角の画像であるパノラマ画像を生成する技術がある。
特許文献1に記載される技術では、複数の撮像手段を搭載して、当該撮像手段により撮像された撮像画像を合成することにより、1つのパノラマ画像を生成する。
また、撮像手段によって撮像した画像を確認するものとしては、特許文献2に記載の技術が知られている。特許文献2に記載の技術では、同一装置内に複数の撮像手段を搭載し、搭載した表示手段において各撮像手段の撮影範囲を表示する。この特許文献2に記載の技術では、1の撮影範囲を撮影する撮像手段の撮影範囲内を他の撮像手段が撮影するように構成されている。
Conventionally, there is a technique for generating a panoramic image, which is an image having a wider angle of view than a normal angle of view, using images obtained by photographing a predetermined area from a plurality of different viewpoints.
In the technique described in Patent Document 1, a plurality of imaging units are mounted, and a single panoramic image is generated by combining the captured images captured by the imaging units.
As a technique for confirming an image captured by an imaging unit, a technique described in Patent Document 2 is known. In the technique described in Patent Document 2, a plurality of imaging units are mounted in the same device, and the shooting range of each imaging unit is displayed on the mounted display unit. The technique described in Patent Document 2 is configured such that another imaging unit images within the imaging range of the imaging unit that images one imaging range.

特開2011−4340号公報JP 2011-4340 A 特開2009−284452号公報JP 2009-284552 A

しかしながら、上述した特許文献1及び2に記載の技術は、複数の撮像手段が同一装置に搭載されているために、撮像範囲等において制約があった。
また、上述した特許文献2に記載の技術では、表示される画像からは、他の撮像手段の撮影範囲を確認できるものの、撮像手段の角度等の姿勢を直感的に認識することができないという問題があった。
However, the techniques described in Patent Documents 1 and 2 described above have limitations in the imaging range and the like because a plurality of imaging units are mounted on the same device.
Further, in the technique described in Patent Document 2 described above, although the shooting range of the other imaging unit can be confirmed from the displayed image, the orientation such as the angle of the imaging unit cannot be intuitively recognized. was there.

本発明は、このような状況に鑑みてなされたものであり、他の撮像装置と連携した撮影に関する処理をより好適に行うことを目的とする。   The present invention has been made in view of such a situation, and an object of the present invention is to more suitably perform processing related to shooting in cooperation with another imaging device.

上記目的を達成するため、本発明の一態様の撮像装置は、複数の撮像装置で撮影して得られた複数の動画データを再生する場合に、同じタイミングで撮影された複数のフレーム画像を撮影領域の一部が重なるように合成して合成フレーム画像を生成しながら1つの動画として再生表示する再生表示手段と、前記再生表示手段による動画の再生表示中の各タイミングにおいて、前記合成フレーム画像の一部を切り出して所定サイズの表示領域内に表示させながら、スクロールの指示に応じて該表示領域内に表示する前記合成フレーム画像内の切り出し位置を変化させるように前記再生表示手段を制御するスクロール制御手段と、前記再生表示手段による動画の再生表示中の各タイミングにおいて、再生タイミングとなった各動画データのフレーム画像のうち、その時のスクロール位置において前記表示領域内に表示されないフレーム画像を除いて、複数のフレーム画像を合成するように前記再生表示手段を制御する画像合成制御手段と、を備えたことを特徴とする。 In order to achieve the above object, an imaging device according to one embodiment of the present invention captures a plurality of frame images captured at the same timing when reproducing a plurality of moving image data captured by a plurality of imaging devices. Reproduction display means for reproducing and displaying as a moving image while generating a combined frame image by combining so that a part of the region overlaps, and at each timing during the reproduction display of the moving image by the reproduction display means, Scroll for controlling the reproduction display means so as to change the cutout position in the composite frame image displayed in the display area in response to a scroll instruction while cutting out a part and displaying it in a display area of a predetermined size The frame of each video data that has become the playback timing at each timing during the playback display of the video by the control means and the playback display means. Features of the image, except for the frame image is not displayed on the display area in the scroll position at that time an image combining control means for controlling the reproduction display means to synthesize a plurality of frame images, by comprising And

本発明によれば、他の撮像装置と連携した撮影に関する処理をより好適に行うことができる。   According to the present invention, it is possible to more suitably perform processing related to shooting in cooperation with another imaging device.

本発明の一実施形態に係る動画システムのシステム構成を示すシステム構成図である。It is a system configuration figure showing the system configuration of the animation system concerning one embodiment of the present invention. 第1の撮影パターンの説明をするための模式図である。It is a schematic diagram for demonstrating a 1st imaging | photography pattern. 第2の撮影パターンの説明をするための模式図である。It is a schematic diagram for demonstrating a 2nd imaging | photography pattern. 動画の同期パノラマ再生の具体例を示す模式図である。It is a schematic diagram which shows the specific example of the synchronous panorama reproduction | regeneration of a moving image. 本発明の一実施形態に係る撮像装置のハードウェアの構成を示すブロック図である。It is a block diagram which shows the structure of the hardware of the imaging device which concerns on one Embodiment of this invention. 図5の撮像装置の機能的構成のうち、動画の同期パノラマ撮影処理を実行するための機能的構成を示す機能ブロック図である。FIG. 6 is a functional block diagram illustrating a functional configuration for executing a synchronized panoramic shooting process of a moving image in the functional configuration of the imaging apparatus of FIG. 5. 図6の機能的構成を有する図5の撮像装置が実行する動画の同期パノラマ撮影処理の流れを説明するフローチャートである。7 is a flowchart for explaining the flow of a synchronized panorama shooting process of a moving image executed by the imaging apparatus of FIG. 5 having the functional configuration of FIG. 6. 本発明の一実施形態に係る動画再生装置のハードウェアの構成を示すブロック図である。It is a block diagram which shows the structure of the hardware of the moving image reproducing device which concerns on one Embodiment of this invention. 図8の動画再生装置の機能的構成のうち、動画の同期パノラマ再生を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure for performing the synchronous panorama reproduction | regeneration of a moving image among the functional structures of the moving image reproducing device of FIG. 図9の機能的構成を有する図8の動画再生装置が実行する動画の同期パノラマ再生の流れを説明するフローチャートである。10 is a flowchart illustrating a flow of synchronized panorama playback of a moving image performed by the moving image playback device of FIG. 8 having the functional configuration of FIG. 9. 3台の撮像装置を用いて、異なる対象を主要被写体とした場合のパノラマ合成を示すための模式図である。It is a mimetic diagram for showing panorama composition at the time of making a different subject into a main subject using three imaging devices. 他の撮像装置の撮影始点を表示する一例を示す模式図である。It is a schematic diagram which shows an example which displays the imaging | photography start point of another imaging device.

以下、本発明の実施形態について、図面を用いて説明する。
図1は、本発明の一実施形態に係る動画システムのシステム構成を示すシステム構成図である。
本発明の一実施形態に係る動画システムSは、図1に示すように、所定の領域を複数の撮像装置1A,1Bで領域を別けるように同期撮影(以下、「動画の同期パノラマ撮影」という)し、当該撮影した複数の動画を1つの動画のように表示して1つの撮像装置の画角よりも広い画角の動画(以下、「パノラマ動画」という)を再生(以下、「動画の同期パノラマ再生」という)するシステムである。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a system configuration diagram showing a system configuration of a moving image system according to an embodiment of the present invention.
As shown in FIG. 1, the moving image system S according to an embodiment of the present invention performs synchronous shooting (hereinafter referred to as “synchronous panoramic shooting of moving images”) so that a predetermined region is separated by a plurality of imaging devices 1A and 1B. ) And displaying a plurality of the captured videos as a single video and playing a video having a wider angle of view (hereinafter referred to as “panoramic video”) than the angle of view of one imaging device (hereinafter referred to as “video of video”). Synchronous panorama playback ”).

このような動画システムSは、動画を撮影する複数の撮像装置1A,1B(本実施形態においては、2台の撮像装置を例として説明する)と、撮影した動画のデータを再生する動画再生装置2と、を備える。   Such a moving image system S includes a plurality of imaging devices 1A and 1B that shoot moving images (in this embodiment, two imaging devices will be described as examples) and a moving image reproducing device that reproduces the data of the captured moving images. 2 is provided.

撮像装置1Aと撮像装置1Bとは、ネットワークNを介して接続され、撮像装置1A,1Bと動画再生装置2とも、ネットワークNを介して接続される。
また、撮像装置1Aと撮像装置1Bとの間では、同期撮影を行うための装置の位置や姿勢等の同期撮影に必要な情報がやり取りされる。また、撮像装置1A、1Bと動画再生装置2の間では、同期再生を可能にするための情報と、撮影された動画データとがやり取りされる。
また、撮像装置1A,1Bは、GPS(Global Positioning System)衛生StからのGPS情報と、搭載される加速度センサ等の各種センサからの情報に基づいて、装置の位置と角度や向き等の装置の姿勢に関する情報を取得する。
なお、撮像装置1A、1Bの各々を、個々に区別する必要がない場合、これらをまとめて、「撮像装置1」とする。
The imaging device 1A and the imaging device 1B are connected via the network N, and the imaging devices 1A and 1B and the moving image playback device 2 are also connected via the network N.
In addition, information necessary for synchronous imaging such as the position and orientation of the apparatus for performing synchronous imaging is exchanged between the imaging apparatus 1A and the imaging apparatus 1B. In addition, information for enabling synchronous reproduction and captured moving image data are exchanged between the imaging devices 1A and 1B and the moving image reproduction device 2.
In addition, the imaging devices 1A and 1B are based on GPS information from GPS (Global Positioning System) hygiene St and information from various sensors such as an installed acceleration sensor. Get information about posture.
Note that when there is no need to individually distinguish each of the imaging devices 1A and 1B, these are collectively referred to as “imaging device 1”.

この動画システムSにおいては、上述したシステム構成で、動画の同期パノラマ撮影と同期パノラマ再生を行うが、まず、動画の同期パノラマ撮影について説明し、次に動画の同期パノラマ撮影で得た動画データを再生する動画の同期パノラマ再生について説明する。
「動画の同期パノラマ撮影」とは、パノラマ動画の再生に供する動画を複数の撮像装置1A,1Bで同期撮影する撮影のことをいう。
「動画の同期パノラマ再生」とは、動画の同期パノラマ撮影で撮影された動画を表示してパノラマ動画の再生を行う再生のことをいう。
In this moving image system S, synchronized panorama shooting and synchronized panorama playback of moving images are performed with the system configuration described above. First, synchronized panoramic shooting of moving images will be described, and then moving image data obtained by synchronized panoramic shooting of moving images will be described. A description will be given of synchronized panorama playback of a moving image to be played back.
“Synchronous panoramic shooting of moving images” refers to shooting of moving images to be used for playback of panoramic moving images in synchronization with a plurality of imaging devices 1A and 1B.
“Movie synchronized panorama playback” refers to playback in which a movie shot by synchronized panorama shooting of a movie is displayed and a panorama movie is played back.

動画の同期パノラマ撮影では、パノラマ動画となる複数の動画データを得るために、所定の領域を撮像装置1A,1Bで撮影する。
以下、動画の同期パノラマ撮影の一例として、撮像装置1Aにおける撮影位置を決定して、次に、撮像装置1Aの撮影位置に基づいて、撮像装置1Aの撮影領域の残余の領域を撮影するように撮像装置1Bにおける撮影位置を決定する場合の例を主に説明する。
この場合、撮像装置1Bにおける撮影位置の決定に際し、動画の同期パノラマ撮影では、撮像装置1B側において、撮像装置1Aの撮影領域を搭載する表示部21で表示する。
表示部21に表示される撮像装置1Aの撮影領域を基にして、ユーザは、撮像装置1Bに対する撮影位置の決定を行うことで、適切な撮影位置で動画の同期パノラマ撮影を行うことができる。
上記の例の他、撮像装置1Aと撮像装置1Bとが互いに相手の撮影領域を自己の表示部で確認しながら、夫々の撮影位置を同時に調整することも可能である。
In synchronized panoramic shooting of a moving image, a predetermined area is captured by the imaging devices 1A and 1B in order to obtain a plurality of moving image data to be a panoramic moving image.
Hereinafter, as an example of synchronous panoramic shooting of a moving image, a shooting position in the imaging apparatus 1A is determined, and then the remaining area of the shooting area of the imaging apparatus 1A is shot based on the shooting position of the imaging apparatus 1A. An example of determining the shooting position in the imaging apparatus 1B will be mainly described.
In this case, when determining the shooting position in the imaging apparatus 1B, in the synchronous panoramic shooting of the moving image, the image is displayed on the display unit 21 on which the imaging area of the imaging apparatus 1A is mounted on the imaging apparatus 1B side.
Based on the shooting area of the image pickup apparatus 1A displayed on the display unit 21, the user can perform synchronous panoramic shooting of a moving image at an appropriate shooting position by determining the shooting position with respect to the image pickup apparatus 1B.
In addition to the above example, the imaging device 1A and the imaging device 1B can simultaneously adjust their respective shooting positions while confirming each other's shooting area on their own display units.

撮像装置1B側において、撮像装置1Aの撮影領域を表示する手法としては、撮像装置1Aの撮影主体となる主要被写体に対する撮影位置から、撮像装置1Bの撮影領域内においての撮像装置1Aの撮影領域を表示する。
撮像装置1Bの撮影領域は、ライブビュー画像を利用することで、特定することができ、当該ライブビュー画像を表示した状態で、ライブビュー画像に映し出される映像に対応して撮像装置1Aの撮影領域を表示させる。なお、「ライブビュー画像」とは、搭載される撮像部による撮像動作を開始させた結果、順次出力される撮像画像をいう。「ライブビュー画像」は、搭載される記憶部に一時的に記憶され、その後、撮像画像を順次読み出して、表示部21に順次表示させる。その結果、表示部21には、現在の撮影風景が撮像部に刻々と表示されることになる。
撮影された撮像画像は、MPEG(Moving Picture Experts Group)形式のうちMPEG4形式の動画として記憶される。MPEG4形式の動画は、データ圧縮のために、複数種のフレーム(Iフレーム(Intra−coded Frame),Pフレーム(Predicted Frame),Bフレーム(Bi−directional Predicted Frame))で構成される。Iフレームは、フレーム間予測を用いずに符号化されるフレーム(イントラフレームやキーフレーム)であり、Pフレームは、前方向予測のみを用いて符号化されるフレームであり、Bフレームは、前方向予測、後方向予測、両方向予測のうち何れかを選択して符号化されるフレーム。つまり、伸長(復号)処理の際には、Iフレームの場合には、他のフレームを必要とせず、Pフレーム及びBフレームは他のフレームが必要となる。
As a technique for displaying the imaging region of the imaging device 1A on the imaging device 1B side, the imaging region of the imaging device 1A within the imaging region of the imaging device 1B is determined from the imaging position of the main subject that is the imaging subject of the imaging device 1A. indicate.
The shooting area of the imaging device 1B can be specified by using the live view image, and the shooting area of the imaging device 1A corresponding to the video displayed on the live view image in a state where the live view image is displayed. Is displayed. Note that the “live view image” refers to captured images that are sequentially output as a result of starting an imaging operation by the mounted imaging unit. The “live view image” is temporarily stored in the storage unit on which it is mounted, and then the captured images are sequentially read out and sequentially displayed on the display unit 21. As a result, the current shooting scenery is displayed on the display unit 21 momentarily on the imaging unit.
The photographed captured image is stored as a moving image in MPEG4 format in the MPEG (Moving Picture Experts Group) format. An MPEG4 format moving image is composed of a plurality of types of frames (I-frame (Intra-coded Frame), P-frame (Predicted Frame), and B-frame (Bi-directional Predicted Frame)) for data compression. The I frame is a frame (intra frame or key frame) that is encoded without using inter-frame prediction, the P frame is a frame that is encoded using only forward prediction, and the B frame is a previous frame. A frame that is encoded by selecting one of direction prediction, backward prediction, and bidirectional prediction. That is, in the decompression (decoding) process, in the case of an I frame, no other frame is required, and in the P frame and the B frame, another frame is required.

上述したような撮像装置1B側の撮像装置1Aの撮影領域を表示する手法の具体例について、以下、主要被写体に対する撮像装置1A,1Bの撮影位置の異なる2つの撮影パターン(第1の撮影パターン及び第2の撮影パターン)の例を用いて説明する。なお、所定の撮影パターンは、撮影における仮位置であって、仮位置における撮像装置1の撮影領域を判断して、撮影位置を決定するものである。
なお、本例では、撮像装置1A,1Bはチルト方向(垂直方向)とパン方向(水平方向)に装置を移動させて所望の位置で固定が可能な三脚に取り付けられる。
With respect to a specific example of the method for displaying the imaging region of the imaging device 1A on the imaging device 1B side as described above, hereinafter, two imaging patterns with different imaging positions of the imaging devices 1A and 1B with respect to the main subject (first imaging pattern and A description will be given using an example of (second photographing pattern). The predetermined shooting pattern is a temporary position in shooting, and determines the shooting position by determining the shooting area of the imaging apparatus 1 at the temporary position.
In this example, the imaging devices 1A and 1B are attached to a tripod that can be fixed at a desired position by moving the device in the tilt direction (vertical direction) and the pan direction (horizontal direction).

図2は、第1の撮影パターンの説明をするための模式図である。
第1の撮影パターンは、撮像装置1を側面視した図2(a)に示すように、撮像装置1Aと撮像装置1Bとが同じ高さで同じ角度に調整された状態である(高さ/角度:一致)。
また、第1の撮影パターンでは、撮像装置1を平面視した図2(b)に示すように、撮像装置1Aと撮像装置1Bとの撮像装置の並びに対して平行するように設定された被写体の想定位置を示すライン(以下、「被写***置ライン」という)までの距離(以下、「被写体距離」という)が同じで、撮像領域が重複する領域(以下、「重複領域」という)ができるような装置間の距離(以下、「装置間距離」という)に設置された状態である(被写体距離:一致,重複領域:あり)。
第1の撮影パターンは、換言すると、被写***置ラインに対して正対した状態で撮像装置1を重複領域ができる所定距離に並べて設置した撮影パターンである。
このような条件下においては、撮像装置1Aと撮像装置1Bとの被写***置ラインにおける撮影領域の大きさが同じになる(撮影領域の大きさ:一致)。
なお、以下において、撮像装置1の光軸と(本実施形態においては、直角方向に)交差し、被写体を通過する被写***置ラインを鉛直方向の平面として捉えたものを「被写体撮影平面」といい、被写体撮影平面を撮像装置1の撮影領域で区画した平面の領域を「被写体撮影領域」という。即ち、撮像装置1が撮影する空間をXYZ座標系(極座標系)で捉えた場合、「被写体撮影平面」は、撮像装置1の光軸と被写体と直交する被写***置ラインがXY軸で特定され、当該被写***置ラインを鉛直方向のZ軸で特定される。また、「被写体撮影領域」は、特定された被写体撮影平面を撮像装置1Aの撮像範囲で区画して特定した平面の領域である。
FIG. 2 is a schematic diagram for explaining the first imaging pattern.
The first shooting pattern is a state in which the imaging device 1A and the imaging device 1B are adjusted to the same height and the same angle as shown in FIG. Angle: match).
Further, in the first shooting pattern, as shown in FIG. 2B when the imaging device 1 is viewed in plan, the subject of the subject set to be parallel to the arrangement of the imaging devices of the imaging device 1A and the imaging device 1B. The distance (hereinafter referred to as “subject distance”) to the line indicating the assumed position (hereinafter referred to as “subject position line”) is the same, and an area where the imaging areas overlap (hereinafter referred to as “overlap area”) can be formed. It is in a state of being installed at a distance between apparatuses (hereinafter referred to as “inter-apparatus distance”) (subject distance: coincidence, overlap area: present)
In other words, the first shooting pattern is a shooting pattern in which the imaging devices 1 are arranged side by side at a predetermined distance where an overlapping area can be formed while facing the subject position line.
Under such conditions, the size of the shooting area in the subject position line of the imaging device 1A and that of the imaging device 1B are the same (the size of the shooting area: coincident).
In the following, an object that intersects with the optical axis of the imaging device 1 (perpendicular to the right angle in the present embodiment) and passes through the subject as a vertical plane is referred to as a “subject photographing plane”. A plane area obtained by dividing the subject shooting plane by the shooting area of the imaging apparatus 1 is referred to as a “subject shooting area”. That is, when the space photographed by the imaging device 1 is captured by the XYZ coordinate system (polar coordinate system), the “subject photographing plane” is a subject position line that is orthogonal to the optical axis of the imaging device 1 and the subject is identified by the XY axis. The subject position line is specified by the vertical Z-axis. Further, the “subject shooting area” is a plane area specified by dividing the specified subject shooting plane by the imaging range of the imaging apparatus 1A.

このような第1の撮影パターンでは、撮像装置1Bを基準にして、互いの撮影領域との位置関係で示した図2(c)に示すように、撮像装置1Aの撮影領域と、撮像装置1Bの撮影領域とが同一の大きさで、一部重なり合っているような位置関係となる。
撮像装置1Bでは、撮像装置1Bの撮影領域でライブビュー画像が表示されて、撮像装置1Bの撮影領域に重なっている撮像装置1Aの撮影領域の一部がライブビュー画像に重複して表示されることとなる。具体的には、撮像装置1Bでは、図2(d)に示すようなライブビュー画像の左側の一部の領域に撮像装置1Aの撮影領域の重複部分が表示される。本実施形態においては、撮像装置1Bの撮影領域でライブビュー画像に重畳表示される撮像装置1Aの撮影領域の重複部分は、撮像装置1Aの撮影領域の外形を示した枠FRM(以下、「他装置撮影領域枠FRM」ともいう)として表示される。
ユーザは、ライブビュー画像に重複して表示される撮像装置1Aの撮影領域の一部の表示によって、撮像装置1Aの撮影条件(撮像装置1Bとの装置間距離、撮像装置1Aの高さや角度、主要被写体との距離等)を直感的に把握することができ、撮像装置1A,1Bの位置の決定に反映させることができる。
第1の撮影パターンの場合では、被写***置ラインにおける撮影領域の大きさが同一であり、重複量も十分であるため、パノラマ動画を構成する動画を撮影するのに好適な撮影視点であることがわかる。従って、ユーザは、表示部21への表示を動画の同期パノラマ撮影における撮影ガイドとして利用することができ、仮位置として配置した第1の撮影パターンで、撮影を行えばパノラマ動画を構成する動画に好適な撮影視点での撮影を行うことができる。
In such a first imaging pattern, the imaging region of the imaging device 1A and the imaging device 1B are shown in FIG. The shooting area is the same size, and the positional relationship is such that it partially overlaps.
In the imaging apparatus 1B, a live view image is displayed in the imaging area of the imaging apparatus 1B, and a part of the imaging area of the imaging apparatus 1A that overlaps the imaging area of the imaging apparatus 1B is displayed overlapping the live view image. It will be. Specifically, in the imaging device 1B, an overlapping portion of the imaging region of the imaging device 1A is displayed in a partial region on the left side of the live view image as illustrated in FIG. In the present embodiment, an overlapping portion of the imaging region of the imaging device 1A that is superimposed on the live view image in the imaging region of the imaging device 1B is a frame FRM (hereinafter referred to as “others” indicating the outer shape of the imaging region of the imaging device 1A. It is also displayed as “device photographing area frame FRM”.
By displaying a part of the imaging region of the imaging device 1A displayed overlapping with the live view image, the user captures the imaging conditions of the imaging device 1A (the distance between the imaging device 1B, the height and angle of the imaging device 1A, It is possible to intuitively grasp the distance to the main subject, etc., and reflect it in the determination of the positions of the imaging devices 1A and 1B.
In the case of the first shooting pattern, the size of the shooting area in the subject position line is the same, and the amount of overlap is sufficient, so that the shooting viewpoint is suitable for shooting a moving image that forms a panoramic moving image. Recognize. Therefore, the user can use the display on the display unit 21 as a shooting guide in the synchronous panoramic shooting of a moving image. If shooting is performed with the first shooting pattern arranged as a temporary position, the moving image is configured to form a panoramic moving image. It is possible to perform photographing from a suitable photographing viewpoint.

図3は、第2の撮影パターンの説明をするための模式図である。
第2の撮影パターンは、撮像装置1を側面視した図3(a)に示すように、撮像装置1Aと撮像装置1Bとが同じ高さで、撮像装置1Bが上向きとなる異なる角度に調整された状態である(高さ:一致,角度:不一致)。
また、第2の撮影パターンでは、撮像装置1を平面視した図3(b)に示すように、撮像装置1Aが被写***置ラインに近く、異なる被写体距離となり、重複領域ができるような装置間の距離(以下、「装置間距離」という)に設置された状態である(被写体距離:不一致,重複領域:あり)。
第2の撮影パターンは、撮像装置1Bの角度が上向きであり、撮像装置1Aが被写***置ラインに近づいた状態である点が第1の撮影パターンと相違する。
このような条件下において撮影を行うと、撮像装置1Aと撮像装置1Bとの被写***置ラインにおける撮影領域の大きさが異なる(撮影領域の大きさ:不一致)。
FIG. 3 is a schematic diagram for explaining the second imaging pattern.
As shown in FIG. 3A when the imaging device 1 is viewed from the side, the second imaging pattern is adjusted to different angles at which the imaging device 1A and the imaging device 1B have the same height and the imaging device 1B faces upward. (Height: matched, angle: mismatched).
Further, in the second shooting pattern, as shown in FIG. 3B when the imaging device 1 is viewed in plan, the imaging device 1A is close to the subject position line, has different subject distances, and an overlapping area is created between the devices. It is in a state where it is installed at a distance (hereinafter referred to as “inter-device distance”) (subject distance: mismatch, overlapping area: present).
The second shooting pattern is different from the first shooting pattern in that the angle of the imaging device 1B is upward and the imaging device 1A is close to the subject position line.
When shooting is performed under such conditions, the size of the shooting area in the subject position line of the imaging device 1A and the imaging device 1B is different (the size of the shooting region: mismatch).

このような第2の撮影パターンでは、撮像装置1Bを基準にして、互いの被写***置ラインにおける撮影領域との位置関係で示した図3(c)に示すように、撮像装置1Aの被写***置ラインにおける撮影領域が撮像装置1Bの被写***置ラインにおける撮影領域よりも小さくなり、撮像装置1Aの被写***置ラインにおける撮影領域は上辺が短い台形形状となっており、撮像装置1Bの被写***置ラインにおける撮影領域の下方で奥側に傾いているように見える形となる。
撮像装置1Bでは、図3(d)に示すようなライブビュー画像の左側の下方の一部の領域に撮像装置1Aの被写***置ラインにおける撮影領域の重複部分が他装置撮影領域枠FRMとして表示される。
ユーザは、ライブビュー画像に重複して表示される撮像装置1Aの被写***置ラインにおける撮影領域の一部の表示によって、撮像装置1Bのライブビュー画像の左下方で奥側に傾いているために撮像装置1Bが上方に傾いていること、撮像装置1Bのライブビュー画像よりも小さいために、撮像装置1Aが撮像装置1Bよりも被写***置ラインに近い位置、即ち、撮像装置1Bの手前に位置していることを直感的に把握することができる。
第2の撮影パターンの場合では、他装置撮影領域枠FRMが歪であるためにパノラマ動画を構成する動画を撮影するのに適さない可能性のある撮影視点であることがわかる。
これにより、ユーザは、表示部21への表示を動画の同期パノラマ撮影における撮影ガイドとして利用することができ、撮像装置1A,1Bの位置や姿勢を調整する判断をしたりすることができる。
In such a second shooting pattern, the subject position line of the imaging device 1A is shown in FIG. 3C, which is shown by the positional relationship with the shooting region in each subject position line with respect to the imaging device 1B. Is smaller than the shooting area in the subject position line of the imaging apparatus 1B, the shooting area in the subject position line of the imaging apparatus 1A has a trapezoidal shape with a short upper side, and the shooting area in the subject position line of the imaging apparatus 1B. It looks like it is tilted to the back side below.
In the imaging apparatus 1B, an overlapping part of the imaging area in the subject position line of the imaging apparatus 1A is displayed as another apparatus imaging area frame FRM in a partial area on the lower left side of the live view image as shown in FIG. The
The user is imaged because the user is tilted to the back in the lower left of the live view image of the imaging device 1B due to the display of a part of the shooting area in the subject position line of the imaging device 1A displayed overlapping the live view image. Since the apparatus 1B is tilted upward and is smaller than the live view image of the imaging apparatus 1B, the imaging apparatus 1A is located closer to the subject position line than the imaging apparatus 1B, that is, in front of the imaging apparatus 1B. You can intuitively understand that you are.
In the case of the second shooting pattern, it can be seen that this is a shooting viewpoint that may not be suitable for shooting a moving image constituting a panoramic video because the other device shooting area frame FRM is distorted.
Thereby, the user can use the display on the display unit 21 as a shooting guide in the synchronous panoramic shooting of a moving image, and can determine to adjust the positions and postures of the imaging devices 1A and 1B.

以上、動画システムSにおける動画の同期パノラマ撮影について説明した。
次に、動画システムSにおける動画の同期パノラマ再生について説明する。
Heretofore, the synchronized panorama shooting of moving images in the moving image system S has been described.
Next, the synchronized panorama reproduction of the moving image in the moving image system S will be described.

動画の同期パノラマ再生は、動画再生装置2において、撮像装置1A,1Bから取得した複数の動画で1つの領域となるような動画のうちの一部の領域を表示し、スクロール操作等があった場合に、一部の動画から他の動画の表示領域へと表示を変更するようにして、パノラマ動画を表示する。また、動画の同期パノラマ再生は、それぞれ同期撮影された動画を用いる。
動画再生装置2に設けられる表示部118に表示される動画は、全ての動画ではなく、一部の動画であり、表示されていない動画は動画の再生に係る再生処理を停止している。再生処理が停止している動画は、スクロール操作等があり、表示領域に該当する時に、再生処理が開始される。再生処理の開始は、現在表示されている動画が次のIフレーム画像になった時に、行う。即ち、表示領域の変化は、互いのフレーム画像がIフレーム画像となった時に行われることになる。これにより、不要な処理をすることなく動画の表示領域の変更が可能となる。
Synchronous panorama playback of moving images has a scroll operation or the like in the moving image reproducing device 2 in which a part of the moving images is displayed as one region among a plurality of moving images acquired from the imaging devices 1A and 1B. In this case, the panoramic video is displayed by changing the display from a part of the video to the display area of another video. The synchronized panorama playback of moving images uses moving images that have been synchronously photographed.
The moving images displayed on the display unit 118 provided in the moving image reproducing device 2 are not all moving images but part of the moving images, and the moving images that are not displayed have stopped the reproduction processing related to the reproduction of the moving images. The moving image in which the reproduction process is stopped has a scroll operation or the like, and the reproduction process is started when it corresponds to the display area. The reproduction process is started when the currently displayed moving image becomes the next I frame image. That is, the display area is changed when each frame image becomes an I frame image. As a result, the display area of the moving image can be changed without performing unnecessary processing.

なお、表示領域の変更がない場合には、メインに表示されている動画の一部と他の動画の一部との重複部分は、必要に応じて、合成処理されて表示される。一方、表示領域の変更がされている場合には、メインで表示されている動画を前面で再生し、重複した一部の動画を背面で再生する。画面ではメインで表示されている動画が表示されているように見えることになる。このように、表示領域の変更がされている場合に、動画の前後関係で表示の処理をすることにより、重複部分の合成処理を行わないために、処理負担が軽減する。表示領域の変更している最中であるため、多少の画像の劣化や親和性の低さは着目されないために、処理負担の軽減を優先することが可能となる。   When there is no change in the display area, an overlapping portion between a part of the moving image currently displayed on the main screen and a part of another moving image is combined and displayed as necessary. On the other hand, when the display area is changed, the moving image displayed in the main is played in the foreground, and some overlapping moving images are played in the back. On the screen, it will appear as if the main video is being displayed. As described above, when the display area is changed, the display processing is performed in the context of the moving image, so that the overlapping portion is not combined, thereby reducing the processing load. Since the display area is being changed, attention is not paid to some degradation of the image or low affinity, and therefore it is possible to give priority to reducing the processing load.

図4は、動画の同期パノラマ再生の具体例を示す模式図である。なお、撮像装置1Aにより撮影された動画を「動画A」といい、撮像装置1Bにより撮影された動画を「動画B」という。   FIG. 4 is a schematic diagram showing a specific example of synchronized panorama playback of a moving image. Note that a moving image shot by the imaging device 1A is referred to as “moving image A”, and a moving image shot by the imaging device 1B is referred to as “moving image B”.

動画の同期パノラマ再生において、動画の同期パノラマ撮影は、図4(a)に示すように、撮像装置1Aと撮像装置1Bとの装置の角度と高さが同じに調整され、図4(b)に示すように、被写体距離が同じで、所定の重複領域ができる位置に配置されている。
即ち、図4の例では、動画の同期パノラマ再生は、パノラマ動画を構成する動画撮影として好適な撮影始点で撮影した第1の撮像パターンと同一の撮影条件である。
以下、上述した撮影条件で取得した動画データを用いて動画の同期パノラマ再生を行う例を説明する。
In synchronized panorama playback of moving images, synchronized panorama shooting of moving images is performed by adjusting the angle and height of the image capturing apparatus 1A and the image capturing apparatus 1B to be the same as shown in FIG. 4 (a). As shown in FIG. 2, the subject distance is the same and the predetermined overlapping area is formed at a position where it can be formed.
That is, in the example of FIG. 4, the synchronized panorama playback of the moving image has the same shooting conditions as the first imaging pattern shot at the shooting start point suitable for moving image shooting that forms the panoramic moving image.
Hereinafter, an example in which synchronized panorama reproduction of a moving image is performed using moving image data acquired under the above-described shooting conditions will be described.

取得した動画を表示すると、図4(c)乃至(f)に示すようなものとなり、図中左斜めのハッチングの領域は、撮像装置1Aにおいて撮影された撮影領域である動画Aを示し、右斜めのハッチングの領域は、撮像装置1Bにおいて撮影された撮影領域である動画Bを示す。また、図中、交差するハッチングの領域は、動画Aと動画Bとの重複領域を示している。また、表示部21における表示領域を表示すると、図4(d)乃至(f)に示す縦のハッチングの領域となる。   When the acquired moving image is displayed, it becomes as shown in FIGS. 4C to 4F, and the hatched area on the left in the drawing indicates the moving image A that is a shooting region shot by the imaging apparatus 1A, and the right The diagonally hatched area indicates the moving image B that is a shooting area shot by the imaging apparatus 1B. In the figure, the hatched areas that intersect each other indicate the overlapping areas of the moving image A and the moving image B. In addition, when the display area on the display unit 21 is displayed, a vertical hatching area shown in FIGS. 4D to 4F is obtained.

動画の同期パノラマ再生では、まず、図4(d)に示すように、動画A,Bの撮影領域全体ではなく、1の動画の一部の撮影領域(動画Aの一部の撮影領域)のみを表示領域(1)として表示する。この際、表示領域となっていない動画については、再生処理を停止している。即ち、動画Bは、処理負担の軽減のため再生処理をしない。   In the synchronized panorama playback of a moving image, first, as shown in FIG. 4D, not only the entire shooting areas of the moving images A and B, but only a shooting area of one moving image (a shooting area of a portion of the moving image A). Is displayed as the display area (1). At this time, the reproduction process is stopped for the moving image that is not the display area. That is, the moving image B is not played back to reduce the processing load.

また、動画の同期パノラマ再生では、ユーザの操作等により、スクロールの指示があった場合には、表示領域(1)からスクロール方向へ変更して行く。この際、スクロールによって、図4(e)に示すように重複領域に表示領域(2)・・・(3)がさしかかった場合には、現在再生している動画Aを前面で表示する。これにより、重複部分の合成処理の負担を軽減する。なお、本実施形態においては、スクロール状態の重複領域は、合成処理を行わずに、動画の前後関係により表示することにより構成したがこれに限られず、重複するフレーム画像を合成した合成フレーム画像を表示するようにしてもよい。
その後、重複部分において、スクロールが停止されて、静止状態となった場合には、動画の視認性を考慮して、動画Aと動画Bの合成処理を行う。即ち、静止状態となった場合には、動画Aのフレーム画像と動画Bのフレーム画像とを合成した合成フレーム画像を表示する。
Also, in the synchronized panorama playback of a moving image, when a scroll instruction is given by a user operation or the like, the display area (1) is changed in the scroll direction. At this time, when the display area (2)... (3) is approaching the overlapping area as shown in FIG. 4E by scrolling, the currently reproduced moving image A is displayed on the front. As a result, the burden of combining processing of overlapping portions is reduced. In the present embodiment, the overlapping area in the scroll state is configured by displaying the moving image before and after the combining process without performing the combining process. However, the present invention is not limited to this, and a combined frame image obtained by combining overlapping frame images You may make it display.
Thereafter, when the scrolling is stopped and the stationary state is reached in the overlapping portion, the processing of combining the moving image A and the moving image B is performed in consideration of the visibility of the moving image. In other words, when a stationary state is reached, a combined frame image obtained by combining the frame image of moving image A and the frame image of moving image B is displayed.

スクロールが再開されて、図4(f)に示すような位置が表示領域(3)となった場合には、動画Bのみを再生処理して、動画Aの再生処理を行わない。   When the scrolling is resumed and the position as shown in FIG. 4F becomes the display area (3), only the moving image B is reproduced, and the reproduction processing of the moving image A is not performed.

以上、動画の同期パノラマ再生について説明した。
次に、動画システムにおいて、動画の同期パノラマ撮影を行う撮像装置1について説明する。
In the above, the synchronous panorama reproduction of the moving image has been described.
Next, the imaging device 1 that performs synchronized panoramic shooting of a moving image in the moving image system will be described.

図5は、本発明の一実施形態に係る撮像装置1のハードウェアの構成を示すブロック図である。
撮像装置1は、例えばデジタルカメラとして構成される。
FIG. 5 is a block diagram illustrating a hardware configuration of the imaging apparatus 1 according to an embodiment of the present invention.
The imaging device 1 is configured as a digital camera, for example.

撮像装置1は、図5に示すように、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、画像処理部14と、バス15と、入出力インターフェース16と、撮像部17と、センサ部18と、GPS部19と、入力部20と、表示部21と、記憶部22と、通信部23と、ドライブ24と、を備えている。   As shown in FIG. 5, the imaging device 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, an image processing unit 14, a bus 15, An output interface 16, an imaging unit 17, a sensor unit 18, a GPS unit 19, an input unit 20, a display unit 21, a storage unit 22, a communication unit 23, and a drive 24 are provided.

CPU11は、ROM12に記憶されているプログラム、又は、記憶部22からRAM13にロードされたプログラムに従って各種の処理を実行する。   The CPU 11 executes various processes according to a program stored in the ROM 12 or a program loaded from the storage unit 22 to the RAM 13.

RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。   The RAM 13 appropriately stores data necessary for the CPU 11 to execute various processes.

画像処理部14は、DSP(Digital Signal Processor)や、VRAM(Video Random Access Memory)等から構成されており、CPU11と協働して、画像のデータに対して各種画像処理を施す。   The image processing unit 14 is configured by a DSP (Digital Signal Processor), a VRAM (Video Random Access Memory), and the like, and performs various image processing on image data in cooperation with the CPU 11.

CPU11、ROM12、RAM13及び画像処理部14は、バス15を介して相互に接続されている。このバス15にはまた、入出力インターフェース16も接続されている。入出力インターフェース16には、撮像部17、センサ部18、GPS部19、入力部20、表示部21、記憶部22、通信部23及びドライブ24が接続されている。
撮像部17は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。
The CPU 11, ROM 12, RAM 13, and image processing unit 14 are connected to each other via a bus 15. An input / output interface 16 is also connected to the bus 15. An imaging unit 17, a sensor unit 18, a GPS unit 19, an input unit 20, a display unit 21, a storage unit 22, a communication unit 23, and a drive 24 are connected to the input / output interface 16.
Although not shown, the imaging unit 17 includes an optical lens unit and an image sensor.

光学レンズ部は、被写体を撮像するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit is configured with a lens that collects light, such as a focus lens and a zoom lens, in order to capture an image of the subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range.
The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部17の出力信号として出力される。この撮像部17の出力信号を、以下、「撮像画像のデータ」という。この撮像画像のデータが、パノラマ画像の生成に用いられる元画像のデータとして用いられることになる。
The image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. A digital signal is generated by various signal processing and output as an output signal of the imaging unit 17. The output signal of the imaging unit 17 is hereinafter referred to as “captured image data”. The captured image data is used as original image data used for generating a panoramic image.

センサ部18は、例えば加速度センサで構成され、装置の角度、高さ、向き等の姿勢を検出する。
GPS部19は、GPS衛生Stからの信号を受信して現在位置を測位する。
The sensor unit 18 is composed of, for example, an acceleration sensor, and detects an attitude such as an angle, a height, and an orientation of the apparatus.
The GPS unit 19 receives a signal from the GPS hygiene St and measures the current position.

入力部20は、各種釦等で構成され、ユーザの指示操作に応じて各種情報を入力する。
表示部21は、ディスプレイで構成され、画像を表示出力する。表示部21では、取得した画像をリアルタイムに表示すると共に、通信部23により取得した情報も当該画像上にリアルタイムに表示する。
The input unit 20 is configured with various buttons and the like, and inputs various types of information according to user instruction operations.
The display unit 21 is configured by a display and displays and outputs an image. The display unit 21 displays the acquired image in real time and also displays the information acquired by the communication unit 23 on the image in real time.

記憶部22は、ハードディスク或いはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
通信部23は、インターネットを含むネットワークNを介して他の装置(図示せず)との間で行う通信を制御する。通信部23は、他の装置からの情報をリアルタイムに受信する等の他装置間での通信をリアルタイムに行う。
The storage unit 22 is configured by a hard disk, a DRAM (Dynamic Random Access Memory), or the like, and stores various image data.
The communication unit 23 controls communication performed with another device (not shown) via the network N including the Internet. The communication unit 23 performs communication between other devices in real time, such as receiving information from other devices in real time.

ドライブ24には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ24によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部22にインストールされる。また、リムーバブルメディア31は、記憶部22に記憶されている画像のデータ等の各種データも、記憶部22と同様に記憶することができる。   A removable medium 31 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 24. The program read from the removable medium 31 by the drive 24 is installed in the storage unit 22 as necessary. The removable medium 31 can also store various data such as image data stored in the storage unit 22 in the same manner as the storage unit 22.

次に、このような撮像装置1の機能的構成のうち、動画の同期パノラマ撮影処理を実行するための機能的構成について説明する。   Next, among the functional configurations of the imaging apparatus 1 as described above, a functional configuration for executing the moving image synchronous panorama shooting process will be described.

図6は、このような撮像装置1の機能的構成のうち、動画の同期パノラマ撮影処理を実行するための機能的構成を示す機能ブロック図である。
「動画の同期パノラマ撮影処理」とは、複数の撮像装置1A,1Bにおいて撮影したそれぞれの撮影領域をつなぎ合わせて表示することでパノラマ表示を行える動画を撮影するまでの一連の処理である。この動画の同期パノラマ撮影処理では、互いの撮像装置1A,1Bにおいて撮影を同期する処理も合わせて行う。また、動画の同期パノラマ撮影処理では、撮影位置の決定に際して、互いの撮影領域の一部が重複するように、撮像装置1Bの表示部21において、他の撮像装置1Aの重複する撮影領域がわかるように表示する処理も合わせて行う。
FIG. 6 is a functional block diagram showing a functional configuration for executing the moving image synchronous panorama shooting process among the functional configurations of the imaging apparatus 1.
The “synchronous panorama shooting processing of moving images” is a series of processing until shooting of moving images that can be displayed in a panorama by connecting and displaying respective shooting areas shot by the plurality of imaging devices 1A and 1B. In the synchronized panorama shooting process of the moving image, a process of synchronizing shooting in the imaging devices 1A and 1B is also performed. Further, in the synchronous panorama shooting process of moving images, when the shooting position is determined, the overlapping shooting areas of the other imaging devices 1A can be found on the display unit 21 of the imaging device 1B so that a part of each shooting area overlaps. The display process is also performed.

動画の同期パノラマ撮影処理を実行する場合には、図6に示すように、CPU11において、撮像制御部51と、撮像画像取得部52と、表示制御部53と、撮像条件取得部54と、主要被写体特定部55と、被写体撮影平面特定部56と、被写体撮影領域特定部57と、位置関係特定部58と、記憶制御部59と、が機能する。
記憶部22の一領域には、撮像画像記憶部91と、動画記憶部92とが設けられる。
撮像画像記憶部91には、撮像部17によって出力されたライブビュー画像を含む撮像画像データが一時記憶される。
動画記憶部92には、撮像画像を圧縮処理した動画データが記憶される。
When executing the synchronous panorama shooting processing of a moving image, as shown in FIG. 6, in the CPU 11, the imaging control unit 51, the captured image acquisition unit 52, the display control unit 53, the imaging condition acquisition unit 54, and the main The subject specifying unit 55, the subject shooting plane specifying unit 56, the subject shooting region specifying unit 57, the positional relationship specifying unit 58, and the storage control unit 59 function.
A captured image storage unit 91 and a moving image storage unit 92 are provided in one area of the storage unit 22.
The captured image storage unit 91 temporarily stores captured image data including a live view image output by the imaging unit 17.
The moving image storage unit 92 stores moving image data obtained by compressing the captured image.

撮像画像取得部52は、ライブビュー画像を取得して、記憶部22の撮像画像記憶部91に一時的にデータを格納する。   The captured image acquisition unit 52 acquires a live view image and temporarily stores data in the captured image storage unit 91 of the storage unit 22.

表示制御部53は、取得したライブビュー画像を表示部21に表示させる制御を行う。結果として、表示部21にライブビュー画像が表示される。
また、表示制御部53は、特定した位置関係に基づいて、他の撮像装置1Aの被写体撮影領域を、ライブビュー画像上に枠FRM(他装置撮影領域枠FRM)として表示させるように表示部21を制御する。結果として、表示部21においては、ライブビュー画像上に被写体撮影領域の外縁を示す矩形の枠FRM(他装置撮影領域枠FRM)が表示される。これにより、ユーザは、表示部21への表示を動画の同期パノラマ撮影における撮影ガイドとして利用することができる。
The display control unit 53 performs control to display the acquired live view image on the display unit 21. As a result, the live view image is displayed on the display unit 21.
The display control unit 53 also displays the subject shooting area of the other imaging device 1A as a frame FRM (another device shooting area frame FRM) on the live view image based on the specified positional relationship. To control. As a result, the display unit 21 displays a rectangular frame FRM (another device shooting area frame FRM) indicating the outer edge of the subject shooting area on the live view image. Thereby, the user can use the display on the display unit 21 as a shooting guide in the synchronous panoramic shooting of a moving image.

撮像条件取得部54は、自機(撮像装置1B)及び他の撮像装置1Aの撮影条件(装置の垂直方向の角度情報、高さ情報、位置情報及びレンズの水平方向の向き情報等)を取得する。
また、撮像条件取得部54は、自機(撮像装置1B)からは、センサ部18から装置の垂直方向の角度情報及び高さ情報を取得し、GPS部19から装置の絶対位置情報及びレンズの水平方向の向き情報を取得する。
撮像条件取得部54は、他の撮像装置1Aからは、他の撮像装置1Aに搭載されるセンサ部18やGPS部19から取得した撮影条件である撮影領域情報(装置の垂直方向の角度情報、高さ情報、位置情報及びレンズの水平方向の向き情報等)を、通信部23を介して取得する。
本実施形態においては、撮像条件取得部54によって取得された装置の絶対位置情報から撮影位置が特定され、装置の垂直方向の角度情報及びレンズの水平方向の向き情報から撮影方向が特定され、装置の垂直方向の角度情報、高さ情報及びレンズの水平方向の向き情報から撮影画角が特定されることとなる。
また、撮像条件取得部54は、他の撮像装置1Aからの撮影位置、撮影方向及び撮影画角の情報を、撮影位置、撮影方向及び撮影画角の情報として取得してもよいし、撮影位置、撮影方向及び撮影画角が特定可能な装置の絶対位置情報、レンズの水平方向の向き情報、装置の垂直方向の角度情報及び高さ情報から取得してもよい。
The imaging condition acquisition unit 54 acquires imaging conditions (such as vertical angle information, height information, position information, and horizontal direction information of the lens) of the own device (imaging device 1B) and the other imaging device 1A. To do.
Further, the imaging condition acquisition unit 54 acquires the angle information and the height information of the vertical direction of the device from the sensor unit 18 from the own device (imaging device 1B), and the absolute position information of the device and the lens of the lens from the GPS unit 19. Get horizontal orientation information.
The imaging condition acquisition unit 54, from the other imaging device 1A, the imaging area information (the angle information in the vertical direction of the device, which is the imaging condition acquired from the sensor unit 18 or the GPS unit 19 mounted on the other imaging device 1A). Height information, position information, horizontal direction information of the lens, and the like) are acquired via the communication unit 23.
In the present embodiment, the shooting position is specified from the absolute position information of the apparatus acquired by the imaging condition acquisition unit 54, the shooting direction is specified from the angle information in the vertical direction of the apparatus and the direction information in the horizontal direction of the lens, and the apparatus The shooting angle of view is specified from the vertical angle information, the height information, and the horizontal direction information of the lens.
In addition, the imaging condition acquisition unit 54 may acquire information on the shooting position, shooting direction, and shooting angle of view from the other imaging device 1A as information on the shooting position, shooting direction, and shooting angle of view. Further, it may be obtained from the absolute position information of the device that can specify the shooting direction and the shooting angle of view, the horizontal direction information of the lens, the vertical angle information and the height information of the device.

主要被写体特定部55は、撮像領域における主要被写体の位置を特定する。具体的には、主要被写体特定部55は、例えば、撮像領域の中心付近でフォーカシングされた被写体や、ユーザが指定した被写体を主要被写体として特定する。   The main subject specifying unit 55 specifies the position of the main subject in the imaging region. Specifically, the main subject specifying unit 55 specifies, for example, a subject focused near the center of the imaging region or a subject specified by the user as the main subject.

被写体撮影平面特定部56は、主要被写体特定部55により特定された主要被写体の位置に基づいて、被写体撮影平面を特定する。具体的には、被写体撮影平面特定部56は、例えば、特定された主要被写体と、撮像部17からの光軸が直交する方向を被写体撮影平面として特定する。なお、被写体撮影平面の特定は、撮像部からの光軸に限らず、ユーザが視認することができる撮像装置の向き等から撮像装置に対応する平面を設定し、当該設定した平面に対して主要被写体が平行になる平面を被写体撮影平面としてもよい。   The subject shooting plane specifying unit 56 specifies the subject shooting plane based on the position of the main subject specified by the main subject specifying unit 55. Specifically, the subject shooting plane specifying unit 56 specifies, for example, a direction in which the identified main subject and the optical axis from the imaging unit 17 are orthogonal as the subject shooting plane. The subject shooting plane is not limited to the optical axis from the imaging unit, and a plane corresponding to the imaging device is set based on the orientation of the imaging device that can be visually recognized by the user, and the main plane is set to the set plane. A plane in which the subject is parallel may be set as a subject shooting plane.

被写体撮影領域特定部57は、他の撮像装置1Aにおける被写体平面上で特定した撮影領域である被写体撮影領域を特定する。具体的には、被写体撮影領域特定部57は、特定された被写体撮影平面を他の撮像装置1Aにおける撮像領域で区切った領域を被写体撮影領域として特定する。   The subject shooting area specifying unit 57 specifies a subject shooting area that is a shooting area specified on a subject plane in another imaging apparatus 1A. Specifically, the subject shooting area specifying unit 57 specifies an area obtained by dividing the specified subject shooting plane by the imaging area in the other imaging device 1A as the subject shooting area.

位置関係特定部58は、自機(撮像装置1B)の撮影領域と他の撮像装置1Aの被写体撮影領域との位置関係を特定する。即ち、位置関係特定部58は、自機(撮像装置1B)の撮影領域と他の撮像装置1Aの被写体撮影領域との傾き、距離、高さ等の位置関係を特定する。これにより、自機(撮像装置1B)の撮影領域に対する他の撮像装置1Aの被写体撮影領域の位置がわかるため、自機(撮像装置1B)の撮影領域を基準としたライブビュー画像において他の撮像装置1Bの被写体撮影領域を位置関係に基づいて大きさや傾きや高さを変えて表示させることができる。   The positional relationship specifying unit 58 specifies the positional relationship between the imaging region of the own device (imaging device 1B) and the subject imaging region of the other imaging device 1A. That is, the positional relationship specifying unit 58 specifies the positional relationship such as the tilt, distance, height, etc. between the shooting area of the own device (imaging device 1B) and the subject shooting region of the other imaging device 1A. Thus, since the position of the subject shooting area of the other imaging device 1A relative to the shooting area of the own device (imaging device 1B) can be known, other imaging is performed in the live view image based on the shooting region of the own device (imaging device 1B). The subject shooting area of the apparatus 1B can be displayed with the size, inclination, and height changed based on the positional relationship.

記憶制御部59は、撮像部17によって撮像された撮像画像のデータを、動画をMPEG形式で記憶するように動画記憶部92を制御する。また、同期撮影の指示により、動画を記憶する場合には、Iフレーム画像等の圧縮処理を同期させる。同期は、例えば、他の撮像装置においてフレーム番号と、圧縮処理を対応させることにより行う。
また、記憶制御部59は、動画の記憶に際して、フレーム番号に対応付けて、位置関係特定部58により特定されたフレーム画像毎の位置関係の情報(以下、「位置関係情報」という)を記憶する。
The storage control unit 59 controls the moving image storage unit 92 so that the data of the captured image captured by the imaging unit 17 is stored in the MPEG format. In addition, when a moving image is stored according to an instruction for synchronous shooting, compression processing of an I frame image or the like is synchronized. The synchronization is performed by, for example, associating the frame number with the compression process in another imaging apparatus.
In addition, when storing a moving image, the storage control unit 59 stores positional relationship information (hereinafter referred to as “positional relationship information”) for each frame image specified by the positional relationship specifying unit 58 in association with the frame number. .

以上、図5の撮像装置の機能的構成のうち、動画の同期パノラマ撮影処理を実行するための機能的構成について説明した。
次に、このような機能的構成を有する撮像装置1が実行する動画の同期パノラマ撮影処理について説明する。
In the foregoing, the functional configuration for executing the moving image synchronous panorama shooting process has been described among the functional configurations of the imaging apparatus of FIG.
Next, a synchronized panorama shooting process of a moving image performed by the imaging apparatus 1 having such a functional configuration will be described.

図7は、図6の機能的構成を有する図5の撮像装置1が実行する動画の同期パノラマ撮影処理の流れを説明するフローチャートである。
動画の同期パノラマ撮影処理は、ユーザによる入力部20への動画の同期パノラマ撮影処理開始の操作がなされることにより、開始される。その後、撮像制御部51により、撮像部17への撮像指示が行われ、撮像処理が開始されることとなる。
FIG. 7 is a flowchart for explaining the flow of the synchronized panorama shooting process of moving images executed by the imaging apparatus 1 of FIG. 5 having the functional configuration of FIG.
The moving image synchronous panorama shooting process is started when the user performs an operation of starting the moving image synchronous panorama shooting process to the input unit 20. Thereafter, the imaging control unit 51 issues an imaging instruction to the imaging unit 17 and the imaging process is started.

ステップS1において、撮像画像取得部52は、撮像画像をライブビュー画像として取得して、記憶部22の撮像画像記憶部91に一時的にデータを格納し、表示制御部53は、取得したライブビュー画像を表示部21に表示させる制御を行う。結果として、表示部21にライブビュー画像が表示される。   In step S1, the captured image acquisition unit 52 acquires the captured image as a live view image, temporarily stores the data in the captured image storage unit 91 of the storage unit 22, and the display control unit 53 acquires the acquired live view. Control to display an image on the display unit 21 is performed. As a result, the live view image is displayed on the display unit 21.

ステップS2において、撮像条件取得部54は、センサ部18から自機の撮像装置の垂直方向の角度情報及び高さ情報、GPS部19から自機の撮像装置の絶対位置情報及びレンズの水平方向の向き情報を取得する。自機の撮像装置の絶対位置情報から自機の撮影位置がわかるようになり、装置の垂直方向の角度情報及びレンズの水平方向の向き情報から自機の撮影方向がわかるようになり、自機の撮像装置の垂直方向の角度情報及び高さ情報レンズの水平方向の向き情報から自機の撮影画角がわかるようになる。   In step S <b> 2, the imaging condition acquisition unit 54 determines the vertical angle information and height information of the imaging device of the own device from the sensor unit 18, and the absolute position information of the imaging device of the own device and the horizontal direction of the lens from the GPS unit 19. Get orientation information. The shooting position of the own device can be known from the absolute position information of the imaging device of the own device, and the shooting direction of the own device can be known from the angle information in the vertical direction of the device and the horizontal direction information of the lens. From the angle information in the vertical direction of the image pickup apparatus and the direction information in the horizontal direction of the height information lens, the photographing field angle of the own device can be known.

ステップS3において、撮像条件取得部54は、通信部23を介して他の撮像装置からの撮影条件の情報の送信要求を受信したか否かを判定する。
他の撮像装置からの撮影条件の情報の送信要求を受信していない場合には、ステップS3においてNOと判定されて、処理はステップS5に進む。ステップS5以降の処理については後述する。
In step S <b> 3, the imaging condition acquisition unit 54 determines whether or not a transmission request for imaging condition information from another imaging apparatus has been received via the communication unit 23.
If no transmission request for shooting condition information from another imaging apparatus has been received, it is determined as NO in Step S3, and the process proceeds to Step S5. The processing after step S5 will be described later.

これに対して、他の撮像装置からの撮影条件の情報の送信要求を受信している場合には、ステップS3においてYESと判定されて、処理はステップS4に進む。   On the other hand, when the transmission request of the imaging condition information from another imaging apparatus is received, it is determined as YES in Step S3, and the process proceeds to Step S4.

ステップS4において、撮像条件取得部54は、他の撮像装置に対して撮影条件の送信を許可するとともに、この送信許可に応答して他の撮像装置から送信されてくる撮影位置、撮影方向、撮影画角などの撮影領域情報を含む撮影条件の情報を取得する。   In step S <b> 4, the imaging condition acquisition unit 54 permits the imaging conditions to be transmitted to the other imaging apparatus, and the imaging position, imaging direction, and imaging transmitted from the other imaging apparatus in response to the transmission permission. Information on photographing conditions including photographing region information such as an angle of view is acquired.

ステップS5において、主要被写体特定部55は、撮像領域における主要被写体の位置を特定する。   In step S5, the main subject specifying unit 55 specifies the position of the main subject in the imaging region.

ステップS6において、被写体撮影平面特定部56は、主要被写体特定部55により特定された主要被写体の位置に基づいて、主要被写体の位置を含む被写体撮影平面を特定する。   In step S <b> 6, the subject shooting plane specifying unit 56 specifies a subject shooting plane including the position of the main subject based on the position of the main subject specified by the main subject specifying unit 55.

ステップS7において、被写体撮影領域特定部57は、他の撮像装置における被写体撮影平面上で特定した撮影領域である被写体撮影領域を特定する。   In step S7, the subject shooting area specifying unit 57 specifies a subject shooting area that is a shooting area specified on a subject shooting plane in another imaging apparatus.

ステップS8において、位置関係特定部58は、自機の撮像装置の撮影位置、撮影方向、撮影画角と他の撮像装置から受信した撮影位置、撮影方向及び撮影画角とに基づいて、自機の撮影領域と他の撮像装置の被写体撮影領域との位置関係を特定する。   In step S8, the positional relationship specifying unit 58 determines the own device based on the photographing position, photographing direction, and photographing angle of view of the own imaging device and the photographing position, photographing direction, and photographing angle of view received from another imaging device. The positional relationship between the image capturing area and the subject image capturing area of another imaging apparatus is specified.

ステップS9において、表示制御部53は、特定した位置関係に基づいて、他の撮像装置の被写体撮影領域を、ライブビュー画像上に枠FRMとして表示させるように表示部21を制御する。結果として、表示部21においては、ライブビュー画像上に被写体撮影領域の外縁を示す矩形の枠FRMが表示される。   In step S9, the display control unit 53 controls the display unit 21 to display the subject shooting area of another imaging device as a frame FRM on the live view image based on the specified positional relationship. As a result, the display unit 21 displays a rectangular frame FRM indicating the outer edge of the subject shooting area on the live view image.

ステップS10において、記憶制御部59は、動画の撮影記憶中か否かを判定する。
動画の撮影記憶中でない場合には、ステップS10においてNOと判定されて、処理はステップS11に進む。
In step S10, the storage control unit 59 determines whether or not a moving image is being captured and stored.
If a moving image is not being recorded and stored, NO is determined in step S10, and the process proceeds to step S11.

ステップS11において、撮像制御部51は、同期撮影の開始指示があったか否かを判定する。
同期撮影の開始指示がない場合には、ステップS11においてNOと判定されて処理はステップS2に戻る。
In step S11, the imaging control unit 51 determines whether or not there is an instruction to start synchronous imaging.
If there is no instruction to start synchronous shooting, NO is determined in step S11, and the process returns to step S2.

同期撮影の開始指示があった場合には、ステップS11においてYESと判定されて処理はステップS12に進む。   If there is an instruction to start synchronous shooting, YES is determined in step S11, and the process proceeds to step S12.

ステップS12において、記憶制御部59は、フレーム番号1から動画の撮影及び圧縮記憶の動作を開始して、処理はステップS2に戻る。   In step S12, the storage control unit 59 starts moving image shooting and compression storage from frame number 1, and the process returns to step S2.

これに対して、動画の撮影記憶中である場合には、ステップS10においてYESと判定されて、処理はステップS13に進む。   On the other hand, if a moving image is being captured and stored, YES is determined in step S10, and the process proceeds to step S13.

ステップS13において、記憶制御部59は、現在動画撮影記憶中のフレーム番号に対応付けて、位置関係情報を記憶する。   In step S13, the storage control unit 59 stores the positional relationship information in association with the frame number currently stored in the moving image shooting.

ステップS14において、撮像制御部51は、同期撮影の終了指示があったか否かを判定する。
同期撮影の終了指示がない場合には、ステップS14においてNOと判定されて処理はステップS2に戻る。
In step S14, the imaging control unit 51 determines whether there is an instruction to end synchronous imaging.
If there is no instruction to end synchronous shooting, NO is determined in step S14, and the process returns to step S2.

これに対して、同期撮影の終了指示があった場合には、ステップS14においてYESと判定されて処理はステップS15に進む。   On the other hand, if there is an instruction to end synchronous shooting, YES is determined in step S14, and the process proceeds to step S15.

ステップS15において、記憶制御部59は、撮影記憶した動画データに対して、各フレームの位置関係情報のリストを付加して記憶する。その後、動画の同期パノラマ撮影処理は終了する。
また、各撮像装置は、動画の同期パノラマ撮影処理終了後に、動画再生装置2に対して、各フレームの位置関係情報のリストを付加した動画データを送信する。各フレームの位置関係情報のリストを付加した動画データを取得した動画再生装置2は、動画の同期再生処理を行うこととなる。
In step S15, the storage control unit 59 adds and stores a list of positional relationship information of each frame to the moving image data that has been shot and stored. Thereafter, the synchronized panorama shooting process of the moving image ends.
In addition, each imaging device transmits moving image data to which a list of positional relationship information of each frame is added to the moving image reproducing device 2 after the moving image panoramic photographing process is completed. The moving image playback apparatus 2 that has acquired the moving image data to which the list of positional relationship information of each frame is added performs synchronized playback processing of moving images.

以上、本実施形態における撮像装置1の機能及び動作について説明した。
次に、本実施形態における動画再生装置2の機能及び動作について説明する。
Heretofore, the function and operation of the imaging device 1 in the present embodiment have been described.
Next, the function and operation of the video playback device 2 in this embodiment will be described.

図8は、本発明の一実施形態に係る動画再生装置2のハードウェアの構成を示すブロック図である。
動画再生装置2は、例えばパーソナルコンピュータとして構成される。
FIG. 8 is a block diagram showing a hardware configuration of the video playback device 2 according to an embodiment of the present invention.
The moving image playback apparatus 2 is configured as a personal computer, for example.

動画再生装置2は、図8に示すように、CPU111〜ドライブ122を備えている。CPU111〜ドライブ122の各々は、図5のCPU11〜ドライブ24と基本的に同様の構成と機能を有している。また、リムーバブルメディア131は、図5のリムーバブルメディア31と同様の構成と機能を有している。
従って、動画再生装置2のハードウェア構成の説明は省略する。
このように構成される動画再生装置2においては、各撮像装置から取得した位置関係情報のリストが付加された動画データを再生して、パノラマ動画の再生を行う機能を有する。動画再生装置2においては、パノラマ動画の再生時には、各生成動画の一部の領域のみを表示し、スクロール操作に対応して、残余の領域と、他の動画データの領域を再生する。また、動画再生装置2においては、表示領域にかからない他の動画データは、再生を行わずに、スクロール操作で、表示対象となった場合にのみ再生を行うように構成される。
As shown in FIG. 8, the moving image playback apparatus 2 includes a CPU 111 to a drive 122. Each of the CPU 111 to the drive 122 has basically the same configuration and function as the CPU 11 to the drive 24 of FIG. The removable medium 131 has the same configuration and function as the removable medium 31 of FIG.
Therefore, description of the hardware configuration of the moving image playback device 2 is omitted.
The moving image reproducing apparatus 2 configured as described above has a function of reproducing panoramic moving images by reproducing moving image data to which a list of positional relationship information acquired from each imaging apparatus is added. In the moving image reproducing device 2, at the time of reproducing the panoramic moving image, only a part of the generated moving image is displayed, and the remaining area and the other moving image data area are reproduced in response to the scroll operation. In addition, the moving image reproducing apparatus 2 is configured to reproduce other moving image data that does not occupy the display area only when it is a display target by a scroll operation without being reproduced.

以上、システムにおける動画再生装置2のハードウェア構成について説明した。
次に、動画再生装置2の機能的構成のうち、動画の同期パノラマ再生処理を実行するための機能的構成について説明する。
図9は、図8の動画再生装置2の機能的構成のうち、動画の同期パノラマ再生を実行するための機能的構成を示す機能ブロック図である。
「動画の同期パノラマ再生処理」とは、各撮像装置から取得した位置関係情報のリストが付加された動画データを再生して、パノラマ動画の再生を行うまでの一連の処理である。この動画の同期パノラマ再生処理においては、パノラマ動画の再生時に、各生成動画の一部の領域のみを表示し、スクロール操作に対応して、残余の領域と、他の動画データの領域を再生する処理を含む。
The hardware configuration of the video playback device 2 in the system has been described above.
Next, among the functional configurations of the video playback device 2, a functional configuration for executing the video synchronous panorama playback processing will be described.
FIG. 9 is a functional block diagram showing a functional configuration for executing synchronized panoramic playback of a moving image, among the functional configurations of the moving image playback device 2 of FIG.
The “synchronous panorama playback process of moving images” is a series of processes from playback of moving image data to which a list of positional relationship information acquired from each imaging device is added until playback of a panoramic video. In the synchronized panorama playback processing of this video, only the partial area of each generated video is displayed during playback of the panoramic video, and the remaining area and other video data areas are played back in response to the scroll operation. Includes processing.

動画の同期パノラマ再生処理を実行する場合には、図9に示すように、CPU111において、動画取得部151と、再生制御部152と、位置関係情報取得部153と、入力検出部154と、表示制御部155と、表示動画特定部156と、表示画像生成部157と、が機能する。
記憶部119の一領域には、動画記憶部191が設けられる。
動画記憶部191には、各フレームの位置関係情報のリストが付加された動画データが記憶される。
When executing the synchronized panorama playback processing of moving images, as shown in FIG. 9, in the CPU 111, the moving image acquisition unit 151, the playback control unit 152, the positional relationship information acquisition unit 153, the input detection unit 154, and the display The control unit 155, the display moving image specifying unit 156, and the display image generating unit 157 function.
A moving image storage unit 191 is provided in one area of the storage unit 119.
The moving image storage unit 191 stores moving image data to which a list of positional relationship information of each frame is added.

動画取得部151は、撮像装置1A,1Bで同期パノラマ撮影を行って記憶された複数の動画データを取得する。取得した動画データには、各フレームに対応した動画の撮影領域と他の撮像装置の被写体撮影領域との位置関係のリストが付加されている。   The moving image acquisition unit 151 acquires a plurality of moving image data stored by performing synchronous panoramic shooting with the imaging devices 1A and 1B. A list of the positional relationship between the moving image shooting area corresponding to each frame and the subject shooting area of another imaging device is added to the acquired moving image data.

再生制御部152は、動画再生のフレーム管理や復号処理(以下、「伸長処理」ともいう)等の動画データの再生に係る処理を行う。
また、再生制御部152は、表示制御部155に対して、再生すべき動画データの選択や表示すべき領域の設定等を行う。
The playback control unit 152 performs processing related to playback of moving image data such as frame management and decoding processing of moving image playback (hereinafter also referred to as “decompression processing”).
In addition, the playback control unit 152 performs selection of moving image data to be played back, setting of an area to be displayed, and the like with respect to the display control unit 155.

位置関係情報取得部153は、各動画データに付加された位置関係情報のリストから現在の再生フレーム番号に対応する位置関係情報を取得する。位置関係情報取得部153は、現在の再生フレーム番号に対応する位置関係情報として、現在の再生フレームにおける撮影領域と、他の撮像装置の被写体撮影領域との位置関係を取得する。これにより、再生フレームと他のフレームとの位置関係がわかることとなる。   The positional relationship information acquisition unit 153 acquires positional relationship information corresponding to the current playback frame number from the list of positional relationship information added to each moving image data. The positional relationship information acquisition unit 153 acquires the positional relationship between the shooting region in the current playback frame and the subject shooting region of another imaging device as the positional relationship information corresponding to the current playback frame number. As a result, the positional relationship between the playback frame and other frames can be known.

入力検出部154は、入力部117に対する表示領域のスクロール操作や同期再生の終了指示操作を検出する。   The input detection unit 154 detects a display region scroll operation and a synchronous reproduction end instruction operation on the input unit 117.

表示制御部155は、位置関係情報によって示される複数の撮像装置の合成した撮影領域内において現在設定されている表示領域を入力検出部154により検出したスクロール操作に従って移動表示させるように表示部118を制御する。即ち、表示制御部155は、スクロール操作に対応して動画の表示領域を変更して画面がスクロールして移動している表示を行うように表示部118を制御する。
また、表示制御部155は、再生制御部152により再生するように指示された表示領域内の画像を表示画面上に表示するように表示部118を制御する。
The display control unit 155 displays the display unit 118 so as to move and display the currently set display region in the combined imaging region of the plurality of imaging devices indicated by the positional relationship information according to the scroll operation detected by the input detection unit 154. Control. That is, the display control unit 155 controls the display unit 118 so as to change the display area of the moving image in response to the scrolling operation and perform a display in which the screen is scrolling and moving.
Further, the display control unit 155 controls the display unit 118 so that an image in the display area instructed to be reproduced by the reproduction control unit 152 is displayed on the display screen.

表示動画特定部156は、現在の表示領域内に一部でも撮影領域が含まれる動画データであって、当該表示領域内に他の動画データと共通しない撮影領域がある動画データを特定する。   The display moving image specifying unit 156 specifies moving image data that includes at least a shooting area in the current display area and has a shooting area that is not common to other moving image data in the display area.

表示画像生成部157は、フレーム画像から表示領域内の画像を切り出して生成したり、取得した複数のフレーム画像を、位置関係情報が示す位置関係で合成して、表示領域内の画像を生成したりする。   The display image generation unit 157 generates an image in the display area by cutting out and generating an image in the display area from the frame image, or by combining the acquired plurality of frame images with the positional relationship indicated by the positional relationship information. Or

以上、図8の動画再生装置2の機能的構成のうち、動画の同期パノラマ再生を実行するための機能的構成について説明した。
次に、本実施形態における動画再生装置2が行う動画の同期パノラマ再生処理について説明する。
図10は、図9の機能的構成を有する図8の動画再生装置2が実行する動画の同期パノラマ再生処理の流れを説明するフローチャートである。
動画の同期パノラマ再生処理は、ユーザによる入力部117への動画の同期パノラマ再生処理開始の操作がなされることにより、開始される。
Heretofore, the functional configuration for executing the synchronized panorama playback of the moving image has been described among the functional configurations of the moving image playback device 2 of FIG.
Next, the synchronized panorama reproduction process of the moving image performed by the moving image reproducing apparatus 2 in the present embodiment will be described.
FIG. 10 is a flowchart for explaining the flow of a synchronized panorama playback process of moving images executed by the moving image playback apparatus 2 of FIG. 8 having the functional configuration of FIG.
The synchronized panorama playback process of the moving image is started when the user performs an operation of starting the synchronized panorama playback process of the moving image to the input unit 117.

ステップS31において、動画取得部151は、撮像装置1A,1Bで同期パノラマ撮影を行って記憶された2つの各フレームの位置関係情報のリストが付加された動画データを、通信部120を介して取得する。その後、動画取得部151は、取得した動画データを動画記憶部191に出力して、記憶させる。   In step S31, the moving image acquisition unit 151 acquires, via the communication unit 120, moving image data to which a list of positional relationship information of two frames stored by performing synchronous panoramic shooting with the imaging devices 1A and 1B is added. To do. Thereafter, the moving image acquisition unit 151 outputs the acquired moving image data to the moving image storage unit 191 for storage.

ステップS32において、再生制御部152は、再生フレーム番号を1に初期化する。即ち、再生制御部152は、伸張処理の対象を再生フレーム番号が1のフレームとなるように初期化する。   In step S32, the playback control unit 152 initializes the playback frame number to 1. That is, the playback control unit 152 initializes the target of the decompression process so that the playback frame number becomes a frame of 1.

ステップS33において、再生制御部152は、表示画面上に初期表示する動画データを選択し、当該選択した動画データの撮影領域を表示領域として初期設定する。例えば、同期再生する動画データが3つある場合は、1つの動画データを選択すると共に、再生フレームのどの部分を表示領域とするかを設定する。   In step S33, the reproduction control unit 152 selects moving image data to be initially displayed on the display screen, and initially sets a shooting area of the selected moving image data as a display area. For example, when there are three pieces of moving picture data to be played back synchronously, one piece of moving picture data is selected and which part of the playback frame is set as a display area is set.

ステップS34において、位置関係情報取得部153は、各動画データに付加された位置関係情報のリストから現在の再生フレーム番号に対応する位置関係情報を取得する。   In step S34, the positional relationship information acquisition unit 153 acquires positional relationship information corresponding to the current reproduction frame number from the list of positional relationship information added to each moving image data.

ステップS35において、入力検出部154は、表示領域のスクロール操作があったか否かを判定する。
表示領域のスクロール操作がなかった場合には、ステップS36においてNOと判定されて、処理はステップS37に進む。ステップS37以降の処理は後述する。
In step S35, the input detection unit 154 determines whether or not there has been a scroll operation of the display area.
If there is no scrolling operation of the display area, NO is determined in step S36, and the process proceeds to step S37. The processing after step S37 will be described later.

ステップS36において、表示制御部155は、位置関係情報によって示される複数の撮像装置の合成した撮影領域内において現在設定されている表示領域を入力検出部154により検出したスクロール操作に従って移動表示させるように表示部118を制御する。   In step S <b> 36, the display control unit 155 moves and displays the currently set display area within the combined imaging area of the plurality of imaging devices indicated by the positional relationship information according to the scroll operation detected by the input detection unit 154. The display unit 118 is controlled.

ステップS37において、表示動画特定部156は、現在の表示領域内に一部でも撮影領域が含まれる動画データであって、当該表示領域内に他の動画データと共通しない撮影領域がある動画データを特定する。   In step S <b> 37, the display moving image specifying unit 156 selects moving image data that includes a shooting region at least in the current display region and has a shooting region that is not common to other moving image data in the display region. Identify.

ステップS38において、再生制御部152は、表示動画特定部156により特定された動画データの中で、伸長(復号)処理を停止している動画データがあれば、次のIフレーム位置から復号処理を開始する。   In step S38, if there is moving image data for which the decompression (decoding) processing is stopped in the moving image data specified by the display moving image specifying unit 156, the reproduction control unit 152 performs decoding processing from the next I frame position. Start.

ステップS39において、再生制御部152は、表示動画特定部156により特定された全ての動画データから現在の再生フレーム番号に対応するフレーム画像を取得する。   In step S39, the reproduction control unit 152 acquires a frame image corresponding to the current reproduction frame number from all the moving image data specified by the display moving image specifying unit 156.

ステップS40において、再生制御部152は、全てのフレーム画像が取得できたか否かを判定する。
全てのフレーム画像が取得できていない場合には、ステップS40においてNOと判定されて、処理はステップS43に進む。ステップS43以降の処理は後述する。
これに対して、全てのフレーム画像が取得できている場合には、ステップS40においてYESと判定されて、処理はステップS41に進む。
In step S40, the playback control unit 152 determines whether all frame images have been acquired.
If all the frame images have not been acquired, NO is determined in step S40, and the process proceeds to step S43. The processing after step S43 will be described later.
On the other hand, if all the frame images have been acquired, YES is determined in step S40, and the process proceeds to step S41.

ステップS41において、表示画像生成部157は、取得した複数のフレーム画像を、位置関係情報が示す位置関係で合成して、表示領域内の画像を生成する。   In step S41, the display image generation unit 157 combines the acquired plurality of frame images with the positional relationship indicated by the positional relationship information to generate an image in the display area.

ステップS42において、表示制御部155は、生成した表示領域内の画像を表示画面上に更新表示するように表示部118を制御する。その結果、表示部118には、合成した画像が表示されることになる。   In step S42, the display control unit 155 controls the display unit 118 to update and display the generated image in the display area on the display screen. As a result, the synthesized image is displayed on the display unit 118.

ステップS43において、再生制御部152は、再生フレーム番号を次に進める。   In step S43, the reproduction control unit 152 advances the reproduction frame number to the next.

ステップS44において、入力検出部154は、同期再生の終了指示があったか否かを判定する。
同期再生の終了指示がなかった場合には、ステップS44においてNOと判定されて、処理はステップS34に戻る。
同期再生の終了指示があった場合には、ステップS44においてYESと判定されて、動画の同期パノラマ再生処理は終了する。
In step S44, the input detection unit 154 determines whether there is an instruction to end synchronous playback.
If there is no instruction to end synchronous reproduction, NO is determined in step S44, and the process returns to step S34.
If there is an instruction to end synchronized playback, YES is determined in step S44, and the synchronized panorama playback process of the moving image ends.

なお、上述した実施形態においては、動画再生装置2をパーソナルコンピュータとして構成したが、同期撮影を行う撮像装置1として構成してもよい。この場合、撮像装置1においては、図5のハードウェア構成において、図6及び図9の機能構成(詳細には、CPU111の機能)を備えるように構成する。即ち、撮像装置1においては、図6のハードウェアにおいて、記憶部22の動画記憶部92に記憶される動画データを図9のCPU111の機能(動画取得部151乃至表示画像生成部157)により、上述した動画の同期パノラマ再生処理を実行して表示部21にスクロール操作に対応したパノラマ動画の再生が行われるように構成される。   In the above-described embodiment, the moving image playback device 2 is configured as a personal computer, but may be configured as the imaging device 1 that performs synchronous shooting. In this case, the imaging apparatus 1 is configured to have the functional configuration of FIG. 6 and FIG. 9 (specifically, the function of the CPU 111) in the hardware configuration of FIG. That is, in the imaging device 1, in the hardware of FIG. 6, the moving image data stored in the moving image storage unit 92 of the storage unit 22 is converted by the function of the CPU 111 (moving image acquisition unit 151 to display image generation unit 157) of FIG. The above-described synchronized panorama playback process of the moving image is executed, and the display unit 21 is configured to play back the panoramic video corresponding to the scroll operation.

<変形例>
上述した実施形態においては、2台の撮像装置で同期パノラマ撮影をした動画を用いて、同期パノラマ再生を行う例を示したが、本例では、3台の撮像装置を用いた例について説明する。
<Modification>
In the above-described embodiment, an example in which synchronized panorama reproduction is performed using a moving image obtained by synchronous panorama shooting with two imaging devices has been described. In this example, an example in which three imaging devices are used will be described. .

図11は、3台の撮像装置を用いて、異なる対象を主要被写体とした場合のパノラマ合成を示すための模式図である。   FIG. 11 is a schematic diagram for illustrating panorama synthesis when a different object is a main subject using three imaging devices.

図11(a)の例においては、手前に「列車」があり、「列車」の奥川に複数の「山」からなる「山並」をロケーションとして撮影する。
このようなロケーションにおいて、図中、撮像装置1Aがパノラマとしたい範囲の左側の領域を撮影領域とし、撮像装置1Bが中央付近の領域を撮影領域とし、撮像装置1Cが右側の領域を撮影領域とするように配置されている。なお、本例においては、撮像装置の高さ角度は同じであり、装置の向きや主要被写体との距離(被写***置ラインとの距離)における位置関係が異なる。
In the example of FIG. 11A, there is a “train” in the foreground, and “mountain” consisting of a plurality of “mountains” is photographed as a location on the back river of the “train”.
In such a location, in the figure, the left area of the range that the imaging apparatus 1A wants to take a panorama is set as the shooting area, the imaging apparatus 1B is set as the shooting area, and the imaging apparatus 1C is set as the shooting area. Are arranged to be. In this example, the height angle of the imaging device is the same, and the positional relationship in the direction of the device and the distance from the main subject (distance from the subject position line) is different.

それぞれの撮像装置の撮像範囲は、重複しており、撮像装置1Aの撮影領域の一部と、撮像装置1Bの撮影領域の一部とが重複しており、撮像装置1Bの撮影領域の一部と、撮像装置1A及び撮像装置1Cの撮影領域の一部とが重複している。   The imaging ranges of the respective imaging devices overlap, and a part of the imaging region of the imaging device 1A and a part of the imaging region of the imaging device 1B overlap, and a part of the imaging region of the imaging device 1B. And a part of the imaging region of the imaging device 1A and the imaging device 1C overlap.

この互いに重複する部分は、例えば、「山並」を主要被写体とした場合には、図11(b)に示すように重複する部分が多くなり、「列車」を主要被写体とした場合には、図11(c)に示すように重複する部分が少なくなる。つまり、撮像装置と主要被写体との距離によって、主要被写体(被写***置ラインとの距離)が遠ければ被写体撮影領域が大きくなって重複する部分が多くなり、主要被写体(被写***置ラインとの距離)が近ければ被写体撮影領域が小さくなって重複する部分が少なくなることがわかる。   For example, when “Yamanami” is the main subject, the overlapping portions increase as shown in FIG. 11B, and when “Train” is the main subject, As shown in 11 (c), there are fewer overlapping portions. That is, depending on the distance between the imaging device and the main subject, if the main subject (distance to the subject position line) is far away, the subject shooting area becomes larger and there are more overlapping parts, and the main subject (distance to the subject position line) becomes larger. It can be seen that the closer the subject shooting area is, the smaller the overlapping portion is.

このような関係において、共通する領域を上限としてパノラマ画像を合成したり、パノラマ動画の再生を行ったりすることができる。   In such a relationship, a panoramic image can be synthesized or a panoramic video can be reproduced with a common area as an upper limit.

以上のように構成される動画システムSのうち撮像装置1Bは、撮像部17と、表示部21と、通信部23と、表示制御部53と、を備える。
表示部21は、撮像部17により撮像した撮像画像を表示する。
通信部23は、他の撮像装置1Aの撮影領域に関する撮影領域情報を、当該他の撮像装置1Aからリアルタイムに受信する。
表示制御部53は、通信部23により受信した撮影領域情報に基づいて、撮像部17により撮像された撮像画像の撮影領域と他の撮像装置1Aの撮影領域との位置関係を示す情報を、撮像画像上にリアルタイムに表示するように表示部21を制御する。
これにより、撮像装置1Bでは、撮影領域情報に基づいて、撮像部17により撮像された撮像画像の撮影領域と他の撮像装置1Aの撮影領域との位置関係を示す情報を、撮像画像上にリアルタイムに表示する。
従って、ユーザは、例えば、ライブビュー画像上に表示される他の撮像装置1Aの撮影領域に関する情報をリアルタイムに確認しながら、撮影位置の変更を行うことができる。その結果、他の撮像装置1Aの撮影領域を考慮した撮影位置の決定がなされることで、より好適な撮像画像を得ることができるようになる。
Of the moving image system S configured as described above, the imaging device 1B includes the imaging unit 17, the display unit 21, the communication unit 23, and the display control unit 53.
The display unit 21 displays the captured image captured by the imaging unit 17.
The communication unit 23 receives shooting area information regarding the shooting area of the other imaging device 1A from the other imaging device 1A in real time.
Based on the shooting area information received by the communication unit 23, the display control unit 53 captures information indicating the positional relationship between the shooting area of the captured image captured by the imaging unit 17 and the shooting area of the other imaging device 1A. The display unit 21 is controlled to display on the image in real time.
Thereby, in the imaging device 1B, based on the imaging region information, information indicating the positional relationship between the imaging region of the captured image captured by the imaging unit 17 and the imaging region of the other imaging device 1A is displayed on the captured image in real time. To display.
Therefore, for example, the user can change the shooting position while confirming in real time information related to the shooting area of the other imaging device 1A displayed on the live view image. As a result, a more suitable captured image can be obtained by determining the shooting position in consideration of the shooting area of the other imaging device 1A.

また、表示制御部53は、撮像部17により撮像された撮像画像の撮影領域と他の撮像装置1Aの撮影領域との位置関係を示す情報を、他の撮像装置1Aの撮影領域を画定する枠FRMとして表示するように表示部21を制御する。
これにより、他の撮像装置1Aの撮影領域との位置関係を示す情報を、他の撮像装置1Aの撮影領域を画定する枠FRMとして、撮像画像の撮影領域上に表示させるために、ユーザは、撮像画像の撮影領域の視認性を低下させることなく直感的に他の撮像装置1Aの撮影領域を認識することができる。
In addition, the display control unit 53 uses information indicating the positional relationship between the shooting region of the captured image captured by the imaging unit 17 and the shooting region of the other imaging device 1A as a frame that defines the shooting region of the other imaging device 1A. The display unit 21 is controlled to display as FRM.
Thereby, in order to display the information indicating the positional relationship with the imaging region of the other imaging device 1A on the imaging region of the captured image as a frame FRM that defines the imaging region of the other imaging device 1A, It is possible to intuitively recognize the imaging area of the other imaging apparatus 1A without reducing the visibility of the imaging area of the captured image.

また、表示制御部53は、撮像部17により撮像された撮像画像の撮影領域と他の撮像装置1Aの撮影領域との位置関係を示す情報を、他の撮像装置1Aの特定の被写体距離における撮影領域を示す枠FRMとして表示するように表示部21を制御する。
これにより、撮像装置1では、他の撮像装置1Aの撮影領域との位置関係を示す情報を、他の撮像装置1Aの特定の被写体距離に基づいて規定するために、例えば、撮像画像の撮影領域に特定の被写体が写り込んでいた場合には同一の基準により撮影領域を示す枠FRMを表示させることができるために、ユーザはより直感的に撮像画像の撮影領域における他の撮像装置1Aの撮影領域を認識することができるようになる。
In addition, the display control unit 53 captures information indicating the positional relationship between the imaging region of the captured image captured by the imaging unit 17 and the imaging region of the other imaging device 1A at a specific subject distance of the other imaging device 1A. The display unit 21 is controlled to display as a frame FRM indicating the region.
Thereby, in the imaging device 1, in order to prescribe | regulate the information which shows the positional relationship with the imaging region of other imaging device 1A based on the specific object distance of the other imaging device 1A, for example, the imaging region of a captured image When a specific subject appears in the frame, the frame FRM indicating the shooting area can be displayed based on the same reference, so that the user can more intuitively shoot the other imaging apparatus 1A in the shooting area of the captured image. It becomes possible to recognize the area.

また、撮像装置1Bは、撮影領域内において主要被写体を特定する主要被写体特定部55と、を備える。
表示制御部53は、撮像部17により撮像された撮像画像の撮影領域と他の撮像装置1Aの撮影領域との位置関係を示す情報を、他の撮像装置1Aの光軸に直交し、かつ、主要被写体特定部55により特定される主要被写体の位置を含む被写体撮影平面上での他の撮像装置1Aの撮影領域を示す枠FRMとして表示するように表示部21を制御する。
これにより、撮像装置1Bにおいては、他の撮像装置1Aの撮影領域を示す枠FRMは、他の撮像装置1Aと被写体との所定の位置関係によって決定されることになり、ユーザは、他の撮像装置1Aの撮影領域を示す枠FRMをより直感的に認識することができるようになる。
In addition, the imaging apparatus 1B includes a main subject specifying unit 55 that specifies a main subject in the shooting region.
The display control unit 53 displays information indicating the positional relationship between the imaging region of the captured image captured by the imaging unit 17 and the imaging region of the other imaging device 1A orthogonal to the optical axis of the other imaging device 1A, and The display unit 21 is controlled so as to be displayed as a frame FRM indicating a shooting region of another imaging device 1A on the subject shooting plane including the position of the main subject specified by the main subject specifying unit 55.
Thereby, in the imaging device 1B, the frame FRM indicating the imaging region of the other imaging device 1A is determined by a predetermined positional relationship between the other imaging device 1A and the subject, and the user can perform other imaging. The frame FRM indicating the imaging region of the apparatus 1A can be recognized more intuitively.

また、撮像装置1Bは、撮影領域の位置関係を特定する位置関係特定部58と、を備える。
撮影領域情報には、撮影位置、撮影方向、撮影画角が含まれるように構成される。
位置関係特定部58は、通信部23により受信した他の撮像装置1Aの撮影領域情報に含まれる撮像部17の撮影位置、撮影方向、撮影画角と、自機の撮影位置、撮影方向、撮影画角とに基づいて、自機の撮影領域と他の撮像装置の撮影領域との位置関係を特定する。
これにより、撮像装置1Bでは、他の撮像装置1Aの撮影領域を示す枠FRMは装置の姿勢も考慮することになり、枠FRMの形状をより詳細に設定することができるようになる。これにより、ユーザは、より直感的に他の撮像装置1Aの撮影領域を示す枠FRMを認識することができる。
In addition, the imaging device 1B includes a positional relationship specifying unit 58 that specifies the positional relationship of the imaging regions.
The shooting area information is configured to include a shooting position, a shooting direction, and a shooting angle of view.
The positional relationship specifying unit 58 includes the shooting position, shooting direction, and shooting angle of view of the imaging unit 17 included in the shooting area information of the other imaging device 1A received by the communication unit 23, and the shooting position, shooting direction, and shooting of the own device. Based on the angle of view, the positional relationship between the imaging area of the own device and the imaging area of another imaging device is specified.
Thereby, in the imaging device 1B, the frame FRM indicating the imaging region of the other imaging device 1A also considers the posture of the device, and the shape of the frame FRM can be set in more detail. Accordingly, the user can more intuitively recognize the frame FRM indicating the shooting area of the other imaging device 1A.

また、撮影領域情報には、撮影位置おいて高さを特定し、撮影方向においては上下方向を含む。
これにより、撮像装置1Bでは、他の撮像装置の撮影領域を示す枠FRMは撮像装置のより詳細な姿勢も考慮することになり、枠FRMの形状をより詳細に設定することができるようになる。これにより、ユーザは、より直感的に他の撮像装置の撮影領域を示す枠FRMを認識することができる。
Further, the shooting area information specifies the height at the shooting position, and includes the vertical direction in the shooting direction.
As a result, in the imaging apparatus 1B, the frame FRM indicating the imaging region of the other imaging apparatus also considers a more detailed posture of the imaging apparatus, and the shape of the frame FRM can be set in more detail. . As a result, the user can more intuitively recognize the frame FRM indicating the shooting area of another imaging device.

表示制御部53は、自機(撮像装置1B)と他の撮像装置1Aで同期した撮影を行って得られた2つの画像を、各々の撮影領域の重なり位置を合わせて合成する同期パノラマ撮影における撮影ガイドとして、各々の撮影領域の位置関係を示す情報を表示部21に表示するように制御する。
従って、撮像装置1Bにおける撮影処理においては、同期パノラマ撮影における撮影ガイドとして利用することができる。
In synchronous panoramic shooting, the display control unit 53 combines two images obtained by performing synchronized shooting with the own device (imaging device 1B) and the other imaging device 1A in accordance with the overlapping positions of the shooting regions. As the photographing guide, control is performed so that information indicating the positional relationship of each photographing region is displayed on the display unit 21.
Therefore, in the shooting process in the imaging apparatus 1B, it can be used as a shooting guide in synchronous panoramic shooting.

また、撮像装置1Bは、撮像部17における撮像を制御する撮像制御部51と、を備える。
撮像制御部51は、自機(撮像装置1B)と他の撮像装置1Aで同期して動画撮影を行うように撮像部17を制御する。
これにより、撮像装置1Bにおいては、動画による同期パノラマ撮影を行うことができるようになる。
The imaging device 1 </ b> B includes an imaging control unit 51 that controls imaging in the imaging unit 17.
The imaging control unit 51 controls the imaging unit 17 so that moving image shooting is performed in synchronization with the own device (imaging device 1B) and the other imaging device 1A.
As a result, the imaging apparatus 1B can perform synchronized panoramic shooting using a moving image.

また、表示制御部53は、他の撮像装置が2台以上である場合には、複数の撮像装置の各々に対応する複数の撮影領域を示す枠FRMを表示するように表示部21を制御する。
これにより、撮像装置1Bにおいては、複数の他の撮像装置の撮影領域を確認することができるようになる。
In addition, when there are two or more other imaging devices, the display control unit 53 controls the display unit 21 to display a frame FRM indicating a plurality of imaging regions corresponding to each of the plurality of imaging devices. .
Thereby, in the imaging device 1B, it becomes possible to confirm the imaging regions of a plurality of other imaging devices.

また、表示部21は、撮像制御部51により自機1Bと他の撮像装置1Aで同期して動画撮影を行って得られた複数の動画データを同期して再生表示する。
表示制御部53は、表示部21により各撮像装置で撮像した撮影領域の一部が重なるようにして複数の撮像装置で同期撮影して得られた複数の動画データを同期再生させる。
これにより、撮像装置1は、一連の領域を複数同期撮影して生成された通常の画角よりも広い画角となるパノラマ動画として再生表示させることが可能となる。
In addition, the display unit 21 synchronously reproduces and displays a plurality of moving image data obtained by performing moving image shooting in synchronization with the own apparatus 1B and the other imaging device 1A by the imaging control unit 51.
The display control unit 53 synchronously reproduces a plurality of moving image data obtained by synchronous imaging with a plurality of imaging devices such that a part of imaging regions captured by the imaging devices is overlapped by the display unit 21.
As a result, the imaging apparatus 1 can reproduce and display a panoramic video having a wider angle of view than a normal angle of view generated by synchronously shooting a series of regions.

また、表示制御部53は、同じタイミングで撮影された複数のフレーム画像を撮影領域の一部が重なるように合成しながら1つの動画として再生表示するように表示部21を制御する。
これにより、撮像装置1は、一連の領域を複数同期撮影して生成された通常の画角よりも広い画角となるパノラマ動画として再生表示させることが可能となる。
In addition, the display control unit 53 controls the display unit 21 to reproduce and display a plurality of frame images captured at the same timing as one moving image while compositing so that a part of the imaging region overlaps.
As a result, the imaging apparatus 1 can reproduce and display a panoramic video having a wider angle of view than a normal angle of view generated by synchronously shooting a series of regions.

また、撮像装置1は、撮影領域の一部が重なる複数のフレーム画像を合成して合成フレーム画像を生成する表示画像生成部157と、を備える。
表示制御部53は、表示画像生成部157により生成された合成フレーム画像の一部を切り出して所定サイズの表示領域内に表示し、スクロールの指示に応じて該表示領域内に表示するために前記合成フレーム画像内の表示の位置を変化させるように表示部21を制御する。
これにより、撮像装置1では、パノラマ動画において、一部の領域を表示領域とした場合にスクロール表示により、パノラマ動画の所定の領域を表示させることができるようになる。
In addition, the imaging apparatus 1 includes a display image generation unit 157 that generates a composite frame image by combining a plurality of frame images in which a part of the imaging region overlaps.
The display control unit 53 cuts out a part of the composite frame image generated by the display image generation unit 157, displays it in a display area of a predetermined size, and displays it in the display area in response to a scroll instruction. The display unit 21 is controlled to change the display position in the composite frame image.
As a result, the imaging apparatus 1 can display a predetermined area of the panoramic video by scroll display when a part of the panoramic video is set as the display area.

以上のように構成される動画システムSのうち、動画再生装置2は、表示部118と、表示制御部155と、を備える。
表示部118は、複数の動画データを再生表示する。
表示制御部155は、各撮像装置1A,1Bで撮像した撮影領域の一部が重なるようにして複数の撮像装置1A,1Bで同期撮影して得られた複数の動画データを同期再生する場合に、同じタイミングで撮影された複数のフレーム画像を撮影領域の一部が重なるように合成しながら1つの動画として再生表示するように表示部118を制御する。
これにより、動画再生装置2は、一連の領域を複数同期撮影して生成された通常の画角よりも広い画角となるパノラマ動画として再生表示させることが可能となる。
Of the moving image system S configured as described above, the moving image reproducing device 2 includes a display unit 118 and a display control unit 155.
The display unit 118 reproduces and displays a plurality of moving image data.
The display control unit 155 synchronizes and reproduces a plurality of moving image data obtained by synchronous imaging with the plurality of imaging devices 1A and 1B so that a part of the imaging regions captured by the imaging devices 1A and 1B overlap each other. The display unit 118 is controlled so as to reproduce and display as a single moving image while compositing a plurality of frame images taken at the same timing so that a part of the shooting region overlaps.
Thereby, the moving image reproducing apparatus 2 can reproduce and display as a panoramic moving image having a wider angle of view than a normal angle of view generated by synchronously shooting a series of regions.

また、動画再生装置2は、撮影領域の一部が重なる複数のフレーム画像を合成して合成フレーム画像を生成する表示画像生成部157と、を備える。
表示制御部155は、表示画像生成部157により生成された合成フレーム画像の一部を切り出して所定サイズの表示領域内に表示し、スクロールの指示に応じて該表示領域内に表示するために合成フレーム画像内の表示の位置を変化させるように表示部118を制御する。
これにより、動画再生装置2では、パノラマ動画において、一部の領域を表示領域とした場合にスクロール表示により、パノラマ動画の所定の領域を表示させることができるようになる。
In addition, the moving image playback device 2 includes a display image generation unit 157 that generates a composite frame image by combining a plurality of frame images in which a part of the shooting region overlaps.
The display control unit 155 cuts out a part of the composite frame image generated by the display image generation unit 157 and displays it in a display area of a predetermined size, and combines it for display in the display area in response to a scroll instruction. The display unit 118 is controlled to change the display position in the frame image.
As a result, the moving image playback device 2 can display a predetermined area of the panoramic video by scrolling display when a part of the panoramic video is set as the display area.

また、表示画像生成部157は、再生タイミングとなった各動画データのフレーム画像のうち、その時のスクロール位置において表示領域内に表示されないフレーム画像を除いて、複数のフレーム画像を合成することで合成フレーム画像を生成する。
これにより、動画再生装置2では、スクロール位置において表示領域内に表示されないフレーム画像を除いて、複数のフレーム画像を合成するために、合成に係る処理負担が軽減される。
In addition, the display image generation unit 157 combines a plurality of frame images by excluding a frame image that is not displayed in the display area at the scroll position from the frame image of each moving image data at the reproduction timing. Generate a frame image.
Thereby, in the moving image reproducing apparatus 2, since a plurality of frame images are synthesized except for a frame image that is not displayed in the display area at the scroll position, the processing load related to the synthesis is reduced.

動画再生装置2は、動画の伸長処理を制御する再生制御部152と、を備える。
再生制御部152は、圧縮された各々の動画データを伸長しながら合成表示し、合成表示に係わっていない間の動画データについては伸長処理を停止しておき、スクロールによって当該動画データが再び合成フレーム画像の生成に係わるようになるタイミングで、他の動画データの再生中のフレームと同じタイミングで撮影されたフレームから当該動画データの伸長処理を再開する。
これにより、動画再生装置2では、表示されない動画に対しての伸長処理を行わないように制御するために、伸張処理の処理負担を軽減することができる。
The moving image reproduction apparatus 2 includes a reproduction control unit 152 that controls a moving image expansion process.
The playback control unit 152 combines and displays each compressed moving image data while decompressing, stops the expansion processing for the moving image data that is not involved in the combined display, and the moving image data is again combined with the combined frame by scrolling. At the timing when the image generation is concerned, the expansion processing of the moving image data is restarted from the frame shot at the same timing as the frame during the reproduction of the other moving image data.
As a result, the moving image playback apparatus 2 can reduce the processing load of the decompression process in order to perform control so as not to perform the decompression process on a moving image that is not displayed.

また、再生制御部152は、伸長処理を停止していた動画データの伸長処理を再開する場合には、他の動画データの再生中のフレームと同じタイミングで撮影された当該動画データのフレーム位置がIフレームの位置になるまで待ってから伸長処理を開始する。
これにより、動画再生装置2では、Iフレーム以外でのスクロール時の表示処理を考慮する必要がなく不要な処理を行う必要がないため、処理負担を軽減することができる。
Also, when resuming the expansion processing of the moving image data for which the expansion processing has been stopped, the reproduction control unit 152 determines that the frame position of the moving image data captured at the same timing as the frame during the reproduction of the other moving image data is The expansion process is started after waiting for the position of the I frame.
Thereby, in the moving image reproducing apparatus 2, since it is not necessary to consider the display processing at the time of scrolling other than the I frame and it is not necessary to perform unnecessary processing, the processing load can be reduced.

また、表示制御部155は、少なくともスクロール中においては、各々の動画データ内のIフレームだけを利用して合成表示を繰り返すことで、Iフレーム単位でスクロールを行うように表示部118を制御する。
これにより、動画再生装置2では、Iフレーム以外でのスクロール時の表示処理を考慮する必要がなく不要な処理を行う必要がないため、処理負担を軽減することができる。
The display control unit 155 controls the display unit 118 to perform scrolling in units of I frames by repeating composite display using only I frames in each moving image data at least during scrolling.
Thereby, in the moving image reproducing apparatus 2, since it is not necessary to consider the display processing at the time of scrolling other than the I frame and it is not necessary to perform unnecessary processing, the processing load can be reduced.

また、再生制御部152は、隣の動画データとの重なり部分が表示対象となっている動画データについては、重ならない部分の表示が必要でないタイミングでは伸長処理を停止する。
これにより、動画再生装置2では、表示されていない領域の動画データの伸張処理を行わないために、表示に係る処理負担を軽減することができる。
Also, the playback control unit 152 stops the decompression process at a timing at which the display of the non-overlapping portion is not necessary for the moving image data whose overlapping portion with the adjacent moving image data is the display target.
As a result, the moving image reproducing apparatus 2 does not perform the expansion processing of the moving image data in the non-displayed area, so that the processing load related to the display can be reduced.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.

上述の実施形態では、他の撮像装置の撮像領域は、全画面にライブビュー画像表示させて、重複部分のみ枠FRM(他装置撮影領域枠FRM)として表示させるように構成したがこれに限られない。例えば、ライブビュー画像を狭めて、他の撮像装置の撮像領域の全てを枠FRM(他装置撮影領域枠FRM)として表示させるように構成してもよい。   In the above-described embodiment, the imaging region of the other imaging device is configured to display the live view image on the entire screen and display only the overlapping portion as the frame FRM (other device imaging region frame FRM). Absent. For example, the live view image may be narrowed so that the entire imaging area of another imaging apparatus is displayed as a frame FRM (another apparatus imaging area frame FRM).

また、上述した実施形態では、複数の動画をパノラマ再生する例について説明したがこれに限られない。例えば、単に、同一の被写体を、撮影の方向を変えて複数の撮像装置で撮影する場合に、他方の撮像装置の画角との違いを表示部において表示するために、共通する主要被写体を含めて被写体撮影領域を表示するように構成してもよい。このように構成することで、ユーザは、他の撮像装置での撮影視点の違いを視認することができる。   In the above-described embodiment, an example in which a plurality of moving images are panorama reproduced has been described. However, the present invention is not limited to this. For example, when the same subject is shot with a plurality of imaging devices while changing the shooting direction, a common main subject is included in order to display the difference from the angle of view of the other imaging device on the display unit. The subject shooting area may be displayed. By configuring in this way, the user can visually recognize the difference in shooting viewpoints in other imaging devices.

図12は、自機から他の撮像装置の撮影始点を表示する一例を示す模式図である。
図12(a)の例で示すように、被写体撮影領域の表示を行わない他の撮像装置1Dは、主要被写体に対して、正対した撮影視点(アングルA)となっている。一方の被写体撮影領域の表示を行う撮像装置1E(自機)は、主要被写体を他の撮像装置1Dとは異なる方向から撮影視点(アングルB)となっている。この場合、他の撮像装置1Dの撮像部(図示せず)の光軸と直角の方向で主要被写体を含む領域(平面)が被写***置ライン上で構成される被写体撮影平面となり、当該被写体撮影平面の撮影領域が被写体撮影領域となる。
このような他の撮像装置1Cと自機(撮像装置1D)と主要被写体(被写***置ラインとの距離)の位置関係においては、自機(撮像装置1D)の表示部(図示せず)には、図12(b)に示すように、アングルBにおける画像が表示されると共に、アングルBから見た被写体撮影領域が枠FRM(他装置撮影領域枠FRM)として表示される。図12(a)の配置においては、自機(撮像装置1E)の撮影領域よりも、被写体撮影領域の手前側(図中右側)から奥側(図中左側)に行くに従って、自機(撮像装置1E)から遠ざかることになるために、被写体撮影領域を示す枠FRM(他装置撮影領域枠FRM)は小さく表示されることになる。従って、ユーザは、直感的に、他の撮像装置1Dにおける主要被写体を含む撮影領域との位置関係を把握することができる。
FIG. 12 is a schematic diagram illustrating an example of displaying the shooting start point of another imaging apparatus from the own device.
As shown in the example of FIG. 12A, the other imaging device 1D that does not display the subject shooting area has a shooting viewpoint (angle A) facing the main subject. The imaging device 1E (own device) that displays one subject imaging region sets the main subject to the imaging viewpoint (angle B) from a different direction from the other imaging device 1D. In this case, a region (plane) including the main subject in a direction perpendicular to the optical axis of the imaging unit (not shown) of the other imaging device 1D becomes the subject imaging plane configured on the subject position line. The shooting area is the subject shooting area.
In such a positional relationship between the other imaging device 1C, the own device (imaging device 1D), and the main subject (distance from the subject position line), the display unit (not shown) of the own device (imaging device 1D) As shown in FIG. 12B, an image at an angle B is displayed, and a subject shooting area viewed from the angle B is displayed as a frame FRM (another apparatus shooting area frame FRM). In the arrangement of FIG. 12A, the own device (imaging device) moves from the front side (right side in the drawing) to the far side (left side in the drawing) of the subject shooting region from the shooting region of the own device (imaging device 1E). In order to move away from the apparatus 1E), the frame FRM indicating the subject imaging area (other apparatus imaging area frame FRM) is displayed small. Therefore, the user can intuitively grasp the positional relationship with the imaging region including the main subject in the other imaging device 1D.

また、上述の実施形態では、本発明が適用される撮像装置1は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、動画の同期パノラマ撮影機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、スマートフォン、ポータブルゲーム機等に適用可能である。
In the above-described embodiment, the imaging apparatus 1 to which the present invention is applied has been described using a digital camera as an example, but is not particularly limited thereto.
For example, the present invention can be applied to general electronic devices having a synchronized panorama shooting function for moving images. Specifically, for example, the present invention can be applied to a notebook personal computer, a printer, a television receiver, a video camera, a portable navigation device, a mobile phone, a smartphone, a portable game machine, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図6の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が撮像装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図6の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 6 is merely an example, and is not particularly limited. That is, it is sufficient that the imaging apparatus 1 has a function capable of executing the above-described series of processing as a whole, and what functional block is used to realize this function is not particularly limited to the example of FIG.
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.

また、上述の実施形態では、本発明が適用される動画再生装置2は、パーソナルコンピュータを例として説明したが、特にこれに限定されない。
例えば、本発明は、動画の同期パノラマ再生機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、撮像装置、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、スマートフォン、ポータブルゲーム機等に適用可能である。
Further, in the above-described embodiment, the moving image reproducing apparatus 2 to which the present invention is applied has been described using a personal computer as an example, but is not particularly limited thereto.
For example, the present invention can be applied to general electronic devices having a synchronized panorama playback function for moving images. Specifically, for example, the present invention can be applied to an imaging device, a notebook personal computer, a printer, a television receiver, a video camera, a portable navigation device, a mobile phone, a smartphone, a portable game machine, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図9の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が動画再生装置2に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図9の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 9 is merely an example, and is not particularly limited. That is, it is sufficient that the moving image playback apparatus 2 has a function capable of executing the above-described series of processing as a whole, and what functional blocks are used to realize this function is not particularly limited to the example of FIG. .
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記憶媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a storage medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記憶媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図5のリムーバブルメディア31及び図8のリムーバブルメディア131により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記憶媒体等で構成される。リムーバブルメディア31及びリムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される憶媒体は、例えば、プログラムが記憶されている図5のROM12及び図8のROM112や、図5の記憶部22及び図8の記憶部119に含まれるハードディスク等で構成される。   The storage medium including such a program is not limited to the removable medium 31 shown in FIG. 5 and the removable medium 131 shown in FIG. 8 distributed separately from the apparatus main body in order to provide the program to the user. It is composed of a storage medium or the like provided to the user in a preinstalled state. The removable medium 31 and the removable medium 31 are configured by, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), or the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. The storage medium provided to the user in a state of being preinstalled in the apparatus main body includes, for example, the ROM 12 in FIG. 5 and the ROM 112 in FIG. 8 in which the program is stored, the storage unit 22 in FIG. 5 and the storage in FIG. The hard disk included in the unit 119 is configured.

なお、本明細書において、記憶媒体に記憶されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段などより構成される全体的な装置を意味するものとする。
In the present specification, the step of describing the program stored in the storage medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.
Further, in the present specification, the term “system” means an overall device configured by a plurality of devices, a plurality of means, and the like.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although several embodiment of this invention was described, these embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalent scope thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
撮像手段と、
前記撮像手段により撮像した撮像画像を表示する表示手段と、
他の撮像装置の撮影領域に関する撮影領域情報を、当該他の撮像装置からリアルタイムに受信する受信手段と、
前記受信手段により受信した前記撮影領域情報に基づいて、前記撮像手段により撮像された前記撮像画像の撮影領域と他の撮像装置の撮影領域との位置関係を示す情報を、撮像画像上にリアルタイムに表示するように前記表示手段を制御する表示制御手段と、
を備えることを特徴とする撮像装置。
[付記2]
前記表示制御手段は、前記撮像手段により撮像された前記撮像画像の撮影領域と他の撮像装置の撮影領域との位置関係を示す情報を、前記他の撮像装置の撮影領域を画定する枠として表示するように前記表示手段を制御する、
ことを特徴とする付記1に記載の撮像装置。
[付記3]
前記表示制御手段は、前記撮像手段により撮像された前記撮像画像の撮影領域と他の撮像装置の撮影領域との位置関係を示す情報を、他の撮像装置の特定の被写体距離における撮影領域を示す枠として表示するように前記表示手段を制御する、
ことを特徴とする付記2に記載の撮像装置。
[付記4]
前記撮影領域内において主要被写体を特定する主要被写体特定手段と、を備え、
前記表示制御手段は、前記撮像手段により撮像された前記撮像画像の撮影領域と他の撮像装置の撮影領域との位置関係を示す情報を、他の撮像装置の光軸に直交し、かつ、前記主要被写体特定手段により特定される前記主要被写体の位置を含む平面上で区画される他の撮像装置の撮影領域を示す枠として表示するように前記表示手段を制御する、
ことを特徴とする付記3に記載の撮像装置。
[付記5]
前記撮影領域の位置関係を特定する位置関係特定手段と、を備え、
前記撮影領域情報には、撮影位置、撮影方向、撮影画角が含まれ、
前記位置関係特定手段は、前記受信手段により受信した他の撮像装置の前記撮影領域情報に含まれる撮像手段の撮影位置、撮影方向、撮影画角と、自機の撮影位置、撮影方向、撮影画角とに基づいて、自機の撮影領域と他の撮像装置の撮影領域との位置関係を特定する、
ことを特徴とする付記1乃至4の何れか1つに記載の撮像装置。
[付記6]
前記撮影領域情報には、前記撮影位置おいて高さを特定し、前記撮影方向においては上下方向を含む、
ことを特徴とする付記5に記載の撮像装置。
[付記7]
前記表示制御手段は、自機と他の撮像装置で同期した撮影を行って得られた2つの画像を、各々の撮影領域の重なり位置を合わせて合成する同期パノラマ撮影における撮影ガイドとして、各々の撮影領域の位置関係を示す情報を表示手段に表示するように制御する、
ことを特徴とする付記1乃至6の何れか1つに記載の撮像装置。
[付記8]
前記撮像手段における撮像を制御する撮像制御手段と、を備え、
前記撮像制御手段は、自機と他の撮像装置で同期して動画撮影を行うように前記撮像手段を制御する、
ことを特徴とする付記7に記載の撮像装置。
[付記9]
前記表示制御手段は、他の撮像装置が2台以上である場合には、複数の撮像装置の各々に対応する複数の撮影領域を示す枠を表示するように表示手段を制御する、
ことを特徴とする付記1乃至8の何れか1つに記載の撮像装置。
[付記10]
前記撮像制御手段により自機と他の撮像装置で同期して動画撮影を行って得られた複数の動画データを同期して再生表示する同期再生手段と、
前記同期再生手段により各撮像装置で撮像した撮影領域の一部が重なるようにして複数の撮像装置で同期撮影して得られた複数の動画データを同期再生させる同期再生制御手段と、
を備えることを特徴とする付記8に記載の撮像装置。
[付記11]
前記同期再生制御手段は、同じタイミングで撮影された複数のフレーム画像を撮影領域の一部が重なるように合成しながら1つの動画として再生表示するように前記同期再生手段を制御することを特徴とする付記10に記載の撮像装置。
[付記12]
前記撮影領域の一部が重なる複数のフレーム画像を合成して合成フレーム画像を生成する表示画像生成手段と、を備え、
前記同期再生制御手段は、前記表示画像生成手段により生成された合成フレーム画像の一部を切り出して所定サイズの表示領域内に表示し、スクロールの指示に応じて該表示領域内に表示するために前記合成フレーム画像内の表示の位置を変化させるように前記同期再生手段を制御する、
ことを特徴とする付記11に記載の撮像装置。
[付記13]
撮像手段と、当該撮像手段により撮像した撮像画像を表示する表示手段と、他の撮像装置の撮影領域に関する撮影領域情報を、当該他の撮像装置からリアルタイムに受信する受信手段と、を備える撮像装置が実行する撮像方法において、
前記受信手段により受信した前記撮影領域情報に基づいて、前記撮像手段により撮像された前記撮像画像の撮影領域と他の撮像装置の撮影領域との位置関係を示す情報を、撮像画像上にリアルタイムに表示するように前記表示手段を制御する表示制御ステップと、
を含むことを特徴とする撮像方法。
[付記14]
撮像手段と、当該撮像手段により撮像した撮像画像を表示する表示手段と、他の撮像装置の撮影領域に関する撮影領域情報を、当該他の撮像装置からリアルタイムに受信する受信手段と、を備える撮像装置を制御するコンピュータを、
前記受信手段により受信した前記撮影領域情報に基づいて、前記撮像手段により撮像された前記撮像画像の撮影領域と他の撮像装置の撮影領域との位置関係を示す情報を、撮像画像上にリアルタイムに表示するように前記表示手段を制御する表示制御手段、
として機能させることを特徴とするプログラム。
[付記15]
複数の動画データを再生表示する表示手段と、
各撮像装置で撮像した撮影領域の一部が重なるようにして複数の撮像装置で同期撮影して得られた複数の動画データを同期再生する場合に、同じタイミングで撮影された複数のフレーム画像を撮影領域の一部が重なるように合成しながら1つの動画として再生表示するように前記表示手段を制御する表示制御手段と、
を備えることを特徴とする表示装置。
[付記16]
前記撮影領域の一部が重なる複数のフレーム画像を合成して合成フレーム画像を生成する表示画像生成手段と、を備え、
前記表示制御手段は、前記表示画像生成手段により生成された合成フレーム画像の一部を切り出して所定サイズの表示領域内に表示し、スクロールの指示に応じて該表示領域内に表示するために前記合成フレーム画像内の表示の位置を変化させるように表示手段を制御する、
ことを特徴とする付記15に記載の表示装置。
[付記17]
前記表示画像生成手段は、再生タイミングとなった各動画データのフレーム画像のうち、その時のスクロール位置において前記表示領域内に表示されないフレーム画像を除いて、複数のフレーム画像を合成することで前記合成フレーム画像を生成する、
ことを特徴とする付記16に記載の表示装置。
[付記18]
動画の伸長処理を制御する再生制御手段と、を備え、
前記再生制御手段は、圧縮された各々の動画データを伸長しながら合成表示し、合成表示に係わっていない間の動画データについては伸長処理を停止しておき、スクロールによって当該動画データが再び前記合成フレーム画像の生成に係わるようになるタイミングで、他の動画データの再生中のフレームと同じタイミングで撮影されたフレームから当該動画データの伸長処理を再開する、
ことを特徴とする付記17に記載の表示装置。
[付記19]
前記再生制御手段は、伸長処理を停止していた動画データの伸長処理を再開する場合には、他の動画データの再生中のフレームと同じタイミングで撮影された当該動画データのフレーム位置がIフレームの位置になるまで待ってから伸長処理を開始する、
ことを特徴とする付記18に記載の表示装置。
[付記20]
前記表示制御手段は、少なくともスクロール中においては、各々の動画データ内のIフレームだけを利用して合成表示を繰り返すことで、Iフレーム単位でスクロールを行うように表示手段を制御する、
ことを特徴とする付記19に記載の表示装置。
[付記21]
前記再生制御手段は、隣の動画データとの重なり部分が表示対象となっている動画データについては、重ならない部分の表示が必要でないタイミングでは伸長処理を停止する、
ことを特徴とする付記18乃至20の何れか1つに記載の表示装置。
[付記22]
複数の動画データを再生表示する表示手段を備える表示装置で実行される表示方法において、
各撮像装置で撮像した撮影領域の一部が重なるようにして複数の撮像装置で同期撮影して得られた複数の動画データを同期再生する場合に、同じタイミングで撮影された複数のフレーム画像を撮影領域の一部が重なるように合成しながら1つの動画として再生表示するように前記表示手段を制御する表示制御ステップと、
を含むことを特徴とする表示方法。
[付記23]
複数の動画データを再生表示する表示手段を備える表示装置を制御するコンピュータを、
各撮像装置で撮像した撮影領域の一部が重なるようにして複数の撮像装置で同期撮影して得られた複数の動画データを同期再生する場合に、同じタイミングで撮影された複数のフレーム画像を撮影領域の一部が重なるように合成しながら1つの動画として再生表示するように前記表示手段を制御する表示制御手段、
として機能させることを特徴とするプログラム。
The invention described in the scope of claims at the beginning of the filing of the present application will be appended.
[Appendix 1]
Imaging means;
Display means for displaying a captured image captured by the imaging means;
Receiving means for receiving, in real time, imaging region information relating to the imaging region of another imaging device from the other imaging device;
Based on the imaging area information received by the receiving means, information indicating the positional relationship between the imaging area of the captured image captured by the imaging means and the imaging area of another imaging device is displayed on the captured image in real time. Display control means for controlling the display means to display;
An imaging apparatus comprising:
[Appendix 2]
The display control unit displays information indicating a positional relationship between a shooting region of the captured image captured by the imaging unit and a shooting region of another imaging device as a frame demarcating the shooting region of the other imaging device. Controlling the display means to
The imaging apparatus according to Supplementary Note 1, wherein
[Appendix 3]
The display control unit indicates information indicating a positional relationship between a shooting region of the captured image captured by the imaging unit and a shooting region of another imaging device, and indicates a shooting region at a specific subject distance of the other imaging device. Controlling the display means to display as a frame;
The imaging apparatus according to Supplementary Note 2, wherein
[Appendix 4]
A main subject specifying means for specifying a main subject in the photographing region,
The display control unit is configured to display information indicating a positional relationship between a shooting region of the captured image captured by the imaging unit and a shooting region of another imaging device, orthogonal to the optical axis of the other imaging device, and Controlling the display means to display as a frame indicating a shooting area of another imaging device partitioned on a plane including the position of the main subject specified by the main subject specifying means;
The imaging apparatus according to Supplementary Note 3, wherein
[Appendix 5]
A positional relationship specifying means for specifying the positional relationship of the imaging region,
The shooting area information includes a shooting position, a shooting direction, and a shooting angle of view.
The positional relationship specifying unit includes a shooting position, a shooting direction, a shooting angle of view of an imaging unit included in the shooting area information of another imaging device received by the receiving unit, a shooting position, a shooting direction, and a shot image of the own device. Based on the angle, specify the positional relationship between the shooting area of the own device and the shooting area of another imaging device,
The imaging apparatus according to any one of supplementary notes 1 to 4, wherein:
[Appendix 6]
The shooting area information specifies a height at the shooting position, and includes a vertical direction in the shooting direction.
The imaging apparatus according to appendix 5, which is characterized in that.
[Appendix 7]
The display control means uses each image as a shooting guide in synchronized panorama shooting that combines two images obtained by performing shooting synchronized with the own device and another imaging device by matching the overlapping positions of the shooting regions. Control to display on the display means information indicating the positional relationship of the imaging region,
The imaging apparatus according to any one of supplementary notes 1 to 6, wherein:
[Appendix 8]
Imaging control means for controlling imaging in the imaging means,
The imaging control means controls the imaging means so as to perform moving image shooting in synchronization with the own device and another imaging device,
The imaging apparatus according to appendix 7, wherein the imaging apparatus is characterized.
[Appendix 9]
The display control unit controls the display unit to display frames indicating a plurality of imaging regions corresponding to each of the plurality of imaging devices when there are two or more other imaging devices.
The imaging apparatus according to any one of appendices 1 to 8, characterized in that:
[Appendix 10]
Synchronous reproduction means for synchronously reproducing and displaying a plurality of moving image data obtained by performing moving image shooting synchronously between the own apparatus and another imaging device by the imaging control means;
Synchronous reproduction control means for synchronously reproducing a plurality of moving image data obtained by synchronous imaging with a plurality of imaging devices so that a part of imaging regions imaged by each imaging device overlap with each other by the synchronous reproduction means;
The imaging apparatus according to appendix 8, characterized by comprising:
[Appendix 11]
The synchronized playback control unit controls the synchronized playback unit to reproduce and display a plurality of frame images captured at the same timing as one moving image while compositing such that a part of the captured area overlaps. The imaging apparatus according to appendix 10.
[Appendix 12]
Display image generating means for generating a composite frame image by combining a plurality of frame images in which a part of the imaging region overlaps,
The synchronized playback control means cuts out a part of the composite frame image generated by the display image generating means and displays it in a display area of a predetermined size, and displays it in the display area in response to a scroll instruction. Controlling the synchronous reproduction means to change the position of display in the composite frame image;
The imaging apparatus according to appendix 11, wherein:
[Appendix 13]
An imaging apparatus comprising: an imaging unit; a display unit that displays a captured image captured by the imaging unit; and a reception unit that receives, in real time, imaging region information regarding the imaging region of the other imaging device from the other imaging device. In the imaging method executed by
Based on the imaging area information received by the receiving means, information indicating the positional relationship between the imaging area of the captured image captured by the imaging means and the imaging area of another imaging device is displayed on the captured image in real time. A display control step for controlling the display means to display;
An imaging method comprising:
[Appendix 14]
An imaging apparatus comprising: an imaging unit; a display unit that displays a captured image captured by the imaging unit; and a reception unit that receives, in real time, imaging region information regarding the imaging region of the other imaging device from the other imaging device. Control the computer,
Based on the imaging area information received by the receiving means, information indicating the positional relationship between the imaging area of the captured image captured by the imaging means and the imaging area of another imaging device is displayed on the captured image in real time. Display control means for controlling the display means to display;
A program characterized by functioning as
[Appendix 15]
Display means for reproducing and displaying a plurality of video data;
When synchronously reproducing a plurality of moving image data obtained by synchronous imaging with a plurality of imaging devices so that a part of the imaging region captured by each imaging device is overlapped, a plurality of frame images captured at the same timing are displayed. Display control means for controlling the display means so as to reproduce and display as one moving image while compositing so that a part of the shooting area overlaps;
A display device comprising:
[Appendix 16]
Display image generating means for generating a composite frame image by combining a plurality of frame images in which a part of the imaging region overlaps,
The display control means cuts out a part of the composite frame image generated by the display image generation means and displays it in a display area of a predetermined size, and displays it in the display area in response to a scroll instruction. Controlling the display means to change the display position in the composite frame image;
Item 16. The display device according to appendix 15, wherein
[Appendix 17]
The display image generation means combines the plurality of frame images by excluding a frame image that is not displayed in the display area at the scroll position at that time from the frame image of each moving image data that has become the reproduction timing. Generate frame images,
Item 17. The display device according to appendix 16, wherein
[Appendix 18]
Playback control means for controlling the expansion process of the video,
The playback control means combines and displays each compressed video data while decompressing, stops the decompression process for the video data while not related to the composite display, and the video data is again synthesized by scrolling. Resuming the decompression process of the video data from the frame taken at the same timing as the frame during the reproduction of the other video data at the timing related to the generation of the frame image,
Item 18. The display device according to appendix 17, wherein
[Appendix 19]
When the reproduction control unit restarts the expansion process of the moving image data that has been stopped, the frame position of the moving image data captured at the same timing as the frame during the reproduction of the other moving image data is the I frame. Wait until it reaches the position before starting the decompression process.
Item 19. The display device according to appendix 18, wherein
[Appendix 20]
The display control means controls the display means to perform scrolling in units of I frames by repeating composite display using only I frames in each moving image data at least during scrolling.
Item 20. The display device according to appendix 19, wherein
[Appendix 21]
The reproduction control means stops the decompression process at a timing at which the display of the non-overlapping portion is not necessary for the moving image data for which the overlapping portion with the adjacent moving image data is to be displayed.
The display device according to any one of appendices 18 to 20, characterized in that:
[Appendix 22]
In a display method executed by a display device including display means for reproducing and displaying a plurality of moving image data,
When synchronously reproducing a plurality of moving image data obtained by synchronous imaging with a plurality of imaging devices so that a part of the imaging region captured by each imaging device is overlapped, a plurality of frame images captured at the same timing are displayed. A display control step for controlling the display means so as to reproduce and display as one moving image while synthesizing so that a part of the shooting area overlaps;
A display method comprising:
[Appendix 23]
A computer for controlling a display device comprising display means for reproducing and displaying a plurality of moving image data,
When synchronously reproducing a plurality of moving image data obtained by synchronous imaging with a plurality of imaging devices so that a part of the imaging region captured by each imaging device is overlapped, a plurality of frame images captured at the same timing are displayed. Display control means for controlling the display means so as to reproduce and display as one moving image while compositing so that a part of the shooting area overlaps;
A program characterized by functioning as

1・・・撮像装置,2・・・動画再生装置,11・・・CPU,12・・・ROM,13・・・RAM,14・・・画像処理部,15・・・バス,16・・・入出力インターフェース,17・・・撮像部,18・・・センサ部,19・・・GPS部,20・・・入力部,21・・・表示部21・・・記憶部,23・・・通信部,24・・・ドライブ,31・・・リムーバブルメディア,51・・・撮像制御部,52・・・撮像画像取得部,53・・・表示制御部,54・・・撮像条件取得部,55・・・主要被写体特定部,56・・・被写体撮影平面特定部,57・・・被写体撮影領域特定部,58・・・位置関係特定部,59・・・記憶制御部,91・・・撮像画像記憶部,92・・・動画記憶部,111・・・CPU,112・・・ROM,113・・・RAM,114・・・画像処理部,115・・・バス,116・・・入出力インターフェース,117・・・入力部,118・・・表示部,119・・・記憶部,120・・・通信部,121・・・ドライブ,131・・・リムーバブルメディア,151・・・動画取得部,152・・・再生制御部,153・・・位置関係情報取得部,154・・・入力検出部,155・・・表示制御部,156・・・表示動画特定部,157・・・表示画像生成部,191・・・動画記憶部   DESCRIPTION OF SYMBOLS 1 ... Imaging device, 2 ... Moving image reproducing device, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Image processing part, 15 ... Bus, 16 ... Input / output interface, 17 ... imaging unit, 18 ... sensor unit, 19 ... GPS unit, 20 ... input unit, 21 ... display unit 21 ... storage unit, 23 ... Communication unit, 24 ... drive, 31 ... removable media, 51 ... imaging control unit, 52 ... captured image acquisition unit, 53 ... display control unit, 54 ... imaging condition acquisition unit, 55... Main subject specifying unit 56. Subject shooting plane specifying unit 57 57 Subject shooting region specifying unit 58 58 Position relation specifying unit 59 Storage control unit 91 Captured image storage unit, 92... Moving image storage unit, 111... CPU, 112. 113 ... RAM, 114 ... image processing unit, 115 ... bus, 116 ... input / output interface, 117 ... input unit, 118 ... display unit, 119 ... storage unit, DESCRIPTION OF SYMBOLS 120 ... Communication part, 121 ... Drive, 131 ... Removable media, 151 ... Movie acquisition part, 152 ... Reproduction control part, 153 ... Position relation information acquisition part, 154 ... Input detection unit, 155... Display control unit, 156... Display moving image specifying unit, 157... Display image generation unit, 191.

Claims (9)

複数の撮像装置で撮影して得られた複数の動画データを再生する場合に、同じタイミングで撮影された複数のフレーム画像を撮影領域の一部が重なるように合成して合成フレーム画像を生成しながら1つの動画として再生表示する再生表示手段と、When playing back multiple movie data obtained by shooting with multiple imaging devices, a composite frame image is generated by combining multiple frame images shot at the same timing so that part of the shooting area overlaps Replay display means for replaying and displaying as one moving image,
前記再生表示手段による動画の再生表示中の各タイミングにおいて、前記合成フレーム画像の一部を切り出して所定サイズの表示領域内に表示させながら、スクロールの指示に応じて該表示領域内に表示する前記合成フレーム画像内の切り出し位置を変化させるように前記再生表示手段を制御するスクロール制御手段と、At each timing during the reproduction display of the moving image by the reproduction display means, a part of the composite frame image is cut out and displayed in a display area of a predetermined size, and displayed in the display area in response to a scroll instruction. Scroll control means for controlling the reproduction display means to change the cutout position in the composite frame image;
前記再生表示手段による動画の再生表示中の各タイミングにおいて、再生タイミングとなった各動画データのフレーム画像のうち、その時のスクロール位置において前記表示領域内に表示されないフレーム画像を除いて、複数のフレーム画像を合成するように前記再生表示手段を制御する画像合成制御手段と、A plurality of frames excluding a frame image that is not displayed in the display area at the current scroll position among frame images of each moving image data that has become a reproduction timing at each timing during the reproduction display of the moving image by the reproduction display means. Image composition control means for controlling the reproduction display means so as to compose an image;
を備えたことを特徴とする表示制御装置。A display control apparatus comprising:
前記再生表示手段は、撮影領域の一部が重なる位置関係にある複数の撮像装置で同期撮影された複数の動画データを同期再生する場合に、同じタイミングで撮影された複数のフレーム画像を撮影領域の一部が重なるように合成して合成フレーム画像を生成しながら1つの動画として再生表示する、The reproduction display means captures a plurality of frame images photographed at the same timing when synchronously reproducing a plurality of moving image data photographed synchronously by a plurality of imaging devices having a positional relationship in which a part of the photographing areas overlap. Are combined so that a part of them overlap, and a combined frame image is generated and reproduced and displayed as one moving image.
ことを特徴とする請求項1に記載の表示制御装置。The display control apparatus according to claim 1.
動画の伸長処理を制御する再生制御手段と、を備え、
前記再生制御手段は、圧縮された各々の動画データを伸長しながら合成表示し、合成表示に係わっていない間の動画データについては伸長処理を停止しておき、スクロールによって当該動画データが再び前記合成フレーム画像の生成に係わるようになるタイミングで、他の動画データの再生中のフレームと同じタイミングで撮影されたフレームから当該動画データの伸長処理を再開する、
ことを特徴とする請求項1または2に記載の表示制御装置
Playback control means for controlling the expansion process of the video,
The playback control means combines and displays each compressed video data while decompressing, stops the decompression process for the video data while not related to the composite display, and the video data is again synthesized by scrolling. Resuming the decompression process of the video data from the frame taken at the same timing as the frame during the reproduction of the other video data at the timing related to the generation of the frame image,
The display control apparatus according to claim 1 , wherein the display control apparatus is a display control apparatus .
前記再生制御手段は、伸長処理を停止していた動画データの伸長処理を再開する場合には、他の動画データの再生中のフレームと同じタイミングで撮影された当該動画データのフレーム位置がIフレームの位置になるまで待ってから伸長処理を開始する、
ことを特徴とする請求項3に記載の表示制御装置
When the reproduction control unit restarts the expansion process of the moving image data that has been stopped, the frame position of the moving image data captured at the same timing as the frame during the reproduction of the other moving image data is the I frame. Wait until it reaches the position before starting the decompression process.
The display control apparatus according to claim 3 .
前記スクロール制御手段は、少なくともスクロール中においては、各々の動画データ内のIフレームだけを利用して合成表示を繰り返すことで、Iフレーム単位でスクロールを行うように前記再生表示手段を制御する、
ことを特徴とする請求項4に記載の表示制御装置
The scroll control means controls the reproduction display means to perform scrolling in units of I frames by repeating composite display using only I frames in each moving image data at least during scrolling.
The display control apparatus according to claim 4 .
前記再生制御手段は、隣の動画データとの重なり部分が表示対象となっている動画データについては、重ならない部分の表示が必要でないタイミングでは伸長処理を停止する、
ことを特徴とする請求項3乃至5の何れか1項に記載の表示制御装置
The reproduction control means stops the decompression process at a timing at which the display of the non-overlapping portion is not necessary for the moving image data for which the overlapping portion with the adjacent moving image data is to be displayed.
The display control apparatus according to claim 3 , wherein the display control apparatus is a display control apparatus .
前記複数の撮像装置が同期して動画撮影を行うように制御する撮像制御手段
を更に備えたことを特徴とする請求項1乃至6の何れか1項に記載の表示制御装置
The display control apparatus according to claim 1 , further comprising an imaging control unit configured to control the plurality of imaging apparatuses to perform moving image shooting in synchronization.
複数の撮像装置で撮影して得られた複数の動画データを再生する場合に、同じタイミングで撮影された複数のフレーム画像を撮影領域の一部が重なるように合成して合成フレーム画像を生成しながら1つの動画として再生表示する処理と、When playing back multiple movie data obtained by shooting with multiple imaging devices, a composite frame image is generated by combining multiple frame images shot at the same timing so that part of the shooting area overlaps While displaying and playing back as a single video,
前記動画の再生表示中の各タイミングにおいて、前記合成フレーム画像の一部を切り出して所定サイズの表示領域内に表示させながら、スクロールの指示に応じて該表示領域内に表示する前記合成フレーム画像内の切り出し位置を変化させるように制御する処理と、At each timing during the playback and display of the moving image, a portion of the composite frame image is cut out and displayed in a display area of a predetermined size, and displayed in the display area in response to a scroll instruction. Processing to change the cutout position of
前記動画の再生表示中の各タイミングにおいて、再生タイミングとなった各動画データのフレーム画像のうち、その時のスクロール位置において前記表示領域内に表示されないフレーム画像を除いて、複数のフレーム画像を合成するように制御する処理と、At each timing during the playback and display of the moving image, a plurality of frame images are synthesized by excluding the frame image that is not displayed in the display area at the current scroll position from the frame image of each moving image data that has reached the playback timing. Process to control,
を含むことを特徴とする表示制御方法。A display control method comprising:
コンピュータを、Computer
複数の撮像装置で撮影して得られた複数の動画データを再生する場合に、同じタイミングで撮影された複数のフレーム画像を撮影領域の一部が重なるように合成して合成フレーム画像を生成しながら1つの動画として再生表示する再生表示手段、When playing back multiple movie data obtained by shooting with multiple imaging devices, a composite frame image is generated by combining multiple frame images shot at the same timing so that part of the shooting area overlaps Replay display means for replaying and displaying as one moving image,
前記再生表示手段による動画の再生表示中の各タイミングにおいて、前記合成フレーム画像の一部を切り出して所定サイズの表示領域内に表示させながら、スクロールの指示に応じて該表示領域内に表示する前記合成フレーム画像内の切り出し位置を変化させるように前記再生表示手段を制御するスクロール制御手段、At each timing during the reproduction display of the moving image by the reproduction display means, a part of the composite frame image is cut out and displayed in a display area of a predetermined size, and displayed in the display area in response to a scroll instruction. Scroll control means for controlling the reproduction display means so as to change the cutout position in the composite frame image;
前記再生表示手段による動画の再生表示中の各タイミングにおいて、再生タイミングとなった各動画データのフレーム画像のうち、その時のスクロール位置において前記表示領域内に表示されないフレーム画像を除いて、複数のフレーム画像を合成するように前記再生表示手段を制御する画像合成制御手段、A plurality of frames excluding a frame image that is not displayed in the display area at the current scroll position among frame images of each moving image data that has become a reproduction timing at each timing during the reproduction display of the moving image by the reproduction display means. Image synthesis control means for controlling the reproduction display means to synthesize an image;
として機能させることを特徴とするプログラム。A program characterized by functioning as
JP2015218055A 2015-11-06 2015-11-06 Display control apparatus, display control method, and program Expired - Fee Related JP6004071B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015218055A JP6004071B2 (en) 2015-11-06 2015-11-06 Display control apparatus, display control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015218055A JP6004071B2 (en) 2015-11-06 2015-11-06 Display control apparatus, display control method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012277137A Division JP6235777B2 (en) 2012-12-19 2012-12-19 Imaging device, imaging method and program, and display device, display method and program

Publications (2)

Publication Number Publication Date
JP2016054508A JP2016054508A (en) 2016-04-14
JP6004071B2 true JP6004071B2 (en) 2016-10-05

Family

ID=55745463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015218055A Expired - Fee Related JP6004071B2 (en) 2015-11-06 2015-11-06 Display control apparatus, display control method, and program

Country Status (1)

Country Link
JP (1) JP6004071B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3466080A4 (en) * 2016-06-07 2020-01-08 Visbit Inc. Virtual reality 360-degree video camera system for live streaming

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3472273B2 (en) * 2001-03-07 2003-12-02 キヤノン株式会社 Image reproducing apparatus, image processing apparatus and method
JP2005333552A (en) * 2004-05-21 2005-12-02 Viewplus Inc Panorama video distribution system
JP2006054662A (en) * 2004-08-11 2006-02-23 Mitsubishi Electric Corp Drive support device

Also Published As

Publication number Publication date
JP2016054508A (en) 2016-04-14

Similar Documents

Publication Publication Date Title
JP5804007B2 (en) Movie generation system, movie generation method and program
JP6324063B2 (en) Image reproducing apparatus and control method thereof
WO2012086326A1 (en) 3-d panoramic image creating apparatus, 3-d panoramic image creating method, 3-d panoramic image creating program, 3-d panoramic image replay apparatus, 3-d panoramic image replay method, 3-d panoramic image replay program, and recording medium
WO2009141951A1 (en) Image photographing device and image encoding device
WO2012002046A1 (en) Stereoscopic panorama image synthesizing device and compound-eye imaging device as well as stereoscopic panorama image synthesizing method
JP2012242821A (en) Display image generation method
JP6235777B2 (en) Imaging device, imaging method and program, and display device, display method and program
JP2012075018A (en) Reproduction device and method, and program
JP2011223291A (en) Imaging apparatus, display control method, and program
JP5578442B2 (en) Imaging apparatus, image composition method, and program
JP5912062B2 (en) Imaging apparatus and moving image data recording method
JPWO2011099299A1 (en) Video extraction device, photographing device, program, and recording medium
US9554112B2 (en) Replay control apparatus for simultaneously replaying moving image data
JP6238134B2 (en) Image processing apparatus, image processing method, and program
JP2010258768A (en) Image display device and control method thereof, program and storage medium
JP6056551B2 (en) Image processing program and digital camera
JP5938655B2 (en) Playback device, imaging device, and program
JP2014123916A (en) Image composition device, image composition method, and program
JP6004071B2 (en) Display control apparatus, display control method, and program
JP2009038478A (en) Program, image processing apparatus, imaging apparatus, and image processing method
EP4007261A1 (en) Image processing device, image processing method, and program
JP5476900B2 (en) Image composition apparatus, image composition method, and program
JP2011103555A (en) Image sensing device
JP6564295B2 (en) Composite image creation device
JP2014241621A (en) Imaging apparatus and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160822

R150 Certificate of patent or registration of utility model

Ref document number: 6004071

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees