JP2021185681A - File - Google Patents

File Download PDF

Info

Publication number
JP2021185681A
JP2021185681A JP2021127892A JP2021127892A JP2021185681A JP 2021185681 A JP2021185681 A JP 2021185681A JP 2021127892 A JP2021127892 A JP 2021127892A JP 2021127892 A JP2021127892 A JP 2021127892A JP 2021185681 A JP2021185681 A JP 2021185681A
Authority
JP
Japan
Prior art keywords
image
data
spherical
moving image
tilt
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021127892A
Other languages
Japanese (ja)
Other versions
JP7226484B2 (en
JP2021185681A5 (en
Inventor
英明 山本
Hideaki Yamamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2021185681A publication Critical patent/JP2021185681A/en
Publication of JP2021185681A5 publication Critical patent/JP2021185681A5/en
Application granted granted Critical
Publication of JP7226484B2 publication Critical patent/JP7226484B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Camera Data Copying Or Recording (AREA)
  • Image Processing (AREA)
  • Cameras In General (AREA)

Abstract

To provide a file.SOLUTION: The file is for storing therein data for generating video data 270 in which the coordinate systems are transformed by a computer 250. The file has image data 230 which is data on images in a video format, tilt angle data 240 which is data on a tilt with respect to a reference direction in capturing the images by image capture means 212, and additional information unique to the image capture means 212. This enables generation of the video data 270 that is corrected in tilt according to the detected tilt of the image capture means 212 with respect to the reference direction.SELECTED DRAWING: Figure 3

Description

本発明は、ファイルに関し、より詳細には、画像を生成するための撮像システム、撮像装置、プログラムおよびシステムで使用されるファイルに関する。 The present invention relates to files, and more particularly to files used in imaging systems, imaging devices, programs and systems for producing images.

近年、1回の撮影により、半球ないし全天球の視野で静止画を撮像できるカメラが実用化されている。また、手持ちで全天球の静止画の撮影が可能なサイズのものも提供されている。このような手持ちサイズのカメラでは、カメラ本体が傾き易いため、本体カメラが傾いた状態の撮影に対応して、撮像された静止画像を傾き補正して表示する機能を備えたものも知られている。 In recent years, a camera capable of capturing a still image in a hemispherical or spherical field of view by one shooting has been put into practical use. In addition, a size that allows you to take still images of the whole celestial sphere is also provided. With such a handheld size camera, the camera body tends to tilt, so it is also known that the camera has a function to correct and display the captured still image in response to shooting with the camera body tilted. There is.

静止画の傾きを補正する技術としては、特開2013‐214947号公報(特許文献1)が知られている。特許文献1は、鉛直方向が正しい静止画を得る目的で、2つの魚眼レンズを有する静止画撮影装置において、内部に備えた鉛直方向からの傾きを得るための加速度センサが検出した傾き角に応じて、魚眼画像の正則画像への変換パラメータを算出する構成を開示する。 As a technique for correcting the inclination of a still image, Japanese Patent Application Laid-Open No. 2013-214947 (Patent Document 1) is known. Patent Document 1 describes in a still image photographing apparatus having two fisheye lenses, for the purpose of obtaining a still image having a correct vertical direction, according to an inclination angle detected by an acceleration sensor for obtaining an inclination from the vertical direction provided inside. , Disclose a configuration for calculating conversion parameters of a fisheye image into a regular image.

また、静止画像のみならず、超広角のレンズにより広範囲を動画像として保存可能なカメラも開発されている。 In addition to still images, cameras that can store a wide range as moving images with an ultra-wide-angle lens have also been developed.

しかしながら、従来技術の動画像を撮像するカメラでは、手ぶれ補正機能を搭載したものは知られているものの、カメラ本体が傾いた状態で撮像された場合に、鉛直方向と動画像撮像装置の天頂方向とが異なることに起因して不具合があった。すなわち、カメラ本体が傾いた状態で撮像した動画像を視聴する際に、鉛直方向を合わせたまま視野の変更が行われた場合に、複雑な回転が発生してしまい、視聴者に対して3次元酔いなどの不快感を与えてしまう可能性があった。特許文献1の従来技術は、静止画に対応するものであり、鉛直方向が正しい動画像を作成できる技術ではなかった。そのため、カメラの傾き状態にかかわらず、鉛直方向が正しい全天球動画を生成する技術の開発が望まれていた。 However, although some cameras that capture moving images in the prior art are known to have an image stabilization function, when the camera body is tilted and captured, the vertical direction and the zenith direction of the moving image image pickup device are used. There was a problem due to the difference between. That is, when viewing a moving image captured with the camera body tilted, if the field of view is changed while aligning the vertical direction, complicated rotation occurs, which is 3 for the viewer. There was a possibility of giving discomfort such as dimensional sickness. The conventional technique of Patent Document 1 corresponds to a still image, and is not a technique capable of creating a moving image in the correct vertical direction. Therefore, it has been desired to develop a technique for generating spherical moving images in which the vertical direction is correct regardless of the tilted state of the camera.

本発明は、上記従来技術における不充分な点に鑑みてなされたものであり、本発明は、検出された基準方向に対する撮影手段の傾きに応じて傾き補正された動画データを生成するためのデータを格納するファイルを提供することを目的とする。 The present invention has been made in view of the deficiencies in the above-mentioned prior art, and the present invention is data for generating moving image data whose inclination is corrected according to the inclination of the photographing means with respect to the detected reference direction. The purpose is to provide a file to store.

本発明では、上記課題を解決するために、下記特徴を有するファイルを提供する。本ファイルは、コンピュータにより座標系が変換される動画データを生成するためのデータを格納するファイルである。ファイルは、動画形式の画像のデータである画像データと、撮像手段により前記画像を撮像しているときの基準方向に対する傾きのデータである傾き角データと、前記撮像手段固有の付加情報と、を有する。 In the present invention, in order to solve the above problems, a file having the following features is provided. This file is a file that stores data for generating moving image data whose coordinate system is converted by a computer. The file contains image data which is image data in a moving image format, tilt angle data which is tilt data with respect to a reference direction when the image is captured by the imaging means, and additional information peculiar to the imaging means. Have.

上記構成により、検出された基準方向に対する撮影手段の傾きに応じて傾き補正された動画データを生成することができる。 With the above configuration, it is possible to generate moving image data whose inclination is corrected according to the inclination of the photographing means with respect to the detected reference direction.

本実施形態による全天球動画撮像システムを構成する全天球カメラの断面図。Sectional drawing of the omnidirectional camera constituting the omnidirectional moving image imaging system according to this embodiment. 本実施形態による全天球動画撮像システムのハードウェア構成図。The hardware configuration diagram of the spherical moving image imaging system according to this embodiment. 本実施形態による全天球動画撮像システム上に実現される全天球動画撮像記録機能に関連する主要な機能ブロック図。The main functional block diagram related to the spherical moving image imaging recording function realized on the spherical moving image imaging system by this embodiment. 本実施形態による全天球動画撮像システムを構成する全天球カメラ側で行われる撮像処理を示すフローチャート。The flowchart which shows the imaging process performed on the spherical camera side constituting the spherical moving image imaging system by this embodiment. 本実施形態における魚眼レンズを用いた全天球カメラにおける射影関係を説明する図。The figure explaining the projection relation in the spherical camera using the fisheye lens in this embodiment. 本実施形態における全天球カメラの傾きについて説明する概略図である。It is a schematic diagram explaining the tilt of the omnidirectional camera in this embodiment. 本実施形態による全天球動画撮像システムを構成する画像処理装置側で行われる記録処理を示すフローチャート。The flowchart which shows the recording process performed on the image processing apparatus side constituting the spherical moving image imaging system by this embodiment. 好ましい実施形態において、補正に際して、動画を構成する一部のフレームの画像のみをRAM上に展開する構成を説明する図。In a preferred embodiment, a diagram illustrating a configuration in which only an image of a part of a frame constituting a moving image is developed on a RAM at the time of correction. 本実施形態による全天球動画撮像システムを構成する画像処理装置側で行われる変換処理を示すフローチャート。The flowchart which shows the conversion process performed on the image processing apparatus side constituting the spherical moving image imaging system by this embodiment. 本実施形態における全天球画像フォーマットについて、(A)平面で表した場合および(B)球面で表した場合についてそれぞれ説明する図。The figure explaining the spherical image format in this embodiment, respectively, when it is represented by (A) a plane, and (B) it is represented by a spherical surface. 本実施形態において全天球カメラにおいて各撮像素子で取得した画像、画像処理装置において生成された画像をそれぞれ説明する図。The figure explaining the image acquired by each image pickup element in the spherical camera in this embodiment, and the image generated by an image processing apparatus, respectively. 本実施形態における全天球画像の変換テーブルを説明する図。The figure explaining the conversion table of the whole celestial sphere image in this embodiment. 本実施形態における全天球画像の変換テーブルに対する修正処理の動作フローについて説明するフローチャート。The flowchart explaining the operation flow of the correction process for the conversion table of the spherical image in this embodiment. 本実施形態における全天球画像の鉛直補正演算について、(A)カメラ座標系、(B)グローバル座標系を用いて説明する図。The figure explaining the vertical correction calculation of the whole celestial sphere image in this embodiment using (A) a camera coordinate system, (B) a global coordinate system. 傾き補正前の動画のフレームを説明する図。The figure explaining the frame of the moving image before tilt correction. 傾き補正後の動画のフレームを説明する図。The figure explaining the frame of the moving image after tilt correction.

以下、本実施形態について説明するが、本実施形態は、以下に説明する実施形態に限定されるものではない。なお、以下の実施形態では、撮像装置および撮像システムの一例として、2つの魚眼レンズを光学系に含む撮像体を備える全天球カメラ、および、全天球カメラと、該全天球カメラから分離された画像処理装置とを備える全天球動画撮像システムを用いて説明する。 Hereinafter, the present embodiment will be described, but the present embodiment is not limited to the embodiments described below. In the following embodiment, as an example of the image pickup device and the image pickup system, a spherical camera having an image pickup body including two fisheye lenses in an optical system, a spherical camera, and the spherical camera are separated from each other. This will be described using an omnidirectional moving image imaging system equipped with an image processing device.

[全体構成]
以下、図1および図2を参照しながら、本実施形態による全天球動画撮像システムの全体構成について説明する。図1は、本実施形態による全天球動画撮像システム100を構成する全天球カメラ110の断面図である。図1に示す全天球カメラ110は、撮像体12と、上記撮像体12およびコントローラやバッテリなどの部品を保持する筐体14と、上記筐体14に設けられたシャッター・ボタン18とを備える。
[overall structure]
Hereinafter, the overall configuration of the spherical moving image imaging system according to the present embodiment will be described with reference to FIGS. 1 and 2. FIG. 1 is a cross-sectional view of the spherical camera 110 constituting the spherical moving image imaging system 100 according to the present embodiment. The spherical camera 110 shown in FIG. 1 includes an image pickup body 12, a housing 14 that holds the image pickup body 12, a controller, a battery, and other parts, and a shutter button 18 provided in the housing 14. ..

図1に示す撮像体12は、2つの結像光学系20A,20Bと、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなどの2つの撮像素子22A,22Bとを含み構成される。結像光学系20各々は、例えば6群7枚の魚眼レンズとして構成されている。上記魚眼レンズは、図1に示す実施形態では、180度(=360度/n;光学系数n=2)より大きい全画角を有し、好適には、185度以上の画角を有し、より好適には、190度以上の画角を有する。このような広角な結像光学系20と撮像素子22とを1個ずつ組み合わせたものを広角撮像光学系と参照する。 The image pickup body 12 shown in FIG. 1 includes two image pickup optical systems 20A and 20B and two image pickup elements 22A and 22B such as a CCD (Charge Coupled Device) sensor and a CMOS (Complementary Metal Oxide Semiconductor) sensor. To. Each of the imaging optical systems 20 is configured as, for example, a fisheye lens having 7 elements in 6 groups. In the embodiment shown in FIG. 1, the fisheye lens has a total angle of view larger than 180 degrees (= 360 degrees / n; optical system number n = 2), and preferably has an angle of view of 185 degrees or more. More preferably, it has an angle of view of 190 degrees or more. A combination of such a wide-angle image pickup optical system 20 and an image pickup element 22 one by one is referred to as a wide-angle image pickup optical system.

2つの結像光学系20A,20Bの光学素子(レンズ、プリズム、フィルタおよび開口絞り)は、撮像素子22A,22Bに対して位置関係が定められる。より具体的には、結像光学系20A,20Bの光学素子の光軸が、対応する撮像素子22の受光領域の中心部に直交して位置するように、かつ、受光領域が、対応する魚眼レンズの結像面となるように位置決めが行われる。 The optical elements (lens, prism, filter and aperture stop) of the two image pickup optical systems 20A and 20B are positioned with respect to the image pickup elements 22A and 22B. More specifically, the optical axis of the optical elements of the imaging optical systems 20A and 20B is positioned orthogonally to the center of the light receiving region of the corresponding image sensor 22, and the light receiving region is the corresponding fisheye lens. Positioning is performed so as to be the image plane of.

図1に示す実施形態では、結像光学系20A,20Bは、同一仕様のものであり、それぞれの光軸が合致するようにして、互いに逆向きに組み合わせられる。撮像素子22A,22Bは、受光した光分布を画像信号に変換し、コントローラ上の画像処理手段に順次、画像フレームを出力する。詳細は後述するが、撮像素子22A,22Bでそれぞれ撮像された画像は、画像処理装置150へ転送されて、合成処理されて、これにより、立体角4πステラジアンの画像(以下「全天球画像」と参照する。)が生成される。全天球画像は、撮影地点から見渡すことのできる全ての方向を撮影したものとなる。そして、全天球画像の連続するフレームにより、全天球動画が構成される。ここで、説明する実施形態では、全天球画像および全天球動画を生成するものとして説明するが、水平面のみ360度を撮影した、いわゆるパノラマ画像およびパノラマ動画であってもよい。 In the embodiment shown in FIG. 1, the imaging optical systems 20A and 20B have the same specifications, and are combined in opposite directions so that their respective optical axes match. The image pickup elements 22A and 22B convert the received light distribution into an image signal, and sequentially output an image frame to the image processing means on the controller. Although the details will be described later, the images captured by the image pickup elements 22A and 22B are transferred to the image processing device 150 and subjected to synthesis processing, whereby the image of the solid angle 4π steradian (hereinafter referred to as “all-sky image”). Refer to.) Is generated. The spherical image is taken in all directions that can be seen from the shooting point. Then, the spherical moving image is composed of the continuous frames of the spherical images. Here, in the embodiment described, the spherical image and the spherical moving image will be generated, but the so-called panoramic image and the panoramic moving image in which only the horizontal plane is photographed at 360 degrees may be used.

図2(A)は、本実施形態による全天球動画撮像システム100を構成する全天球カメラ110のハードウェア構成を示す。全天球カメラ110は、CPU(Central Processing Unit)112と、ROM(Read Only Memory)114と、画像処理ブロック116と、動画圧縮ブロック118と、DRAM(Dynamic Random Access Memory)インタフェース120を介して接続されるDRAM132と、外部センサインタフェース124を介して接続される加速度センサ136とを含み構成される。 FIG. 2A shows the hardware configuration of the spherical camera 110 constituting the spherical moving image imaging system 100 according to the present embodiment. The all-sky camera 110 is connected via a CPU (Central Processing Unit) 112, a ROM (Read Only Memory) 114, an image processing block 116, a moving image compression block 118, and a DRAM (Dynamic Random Access Memory) interface 120. The DRAM 132 is included, and the acceleration sensor 136 connected via the external sensor interface 124 is included.

CPU112は、全天球カメラ110の各部の動作および全体動作を制御する。ROM114は、CPU112が解読可能なコードで記述された制御プログラムや各種パラメータを格納する。画像処理ブロック116は、2つの撮像素子130A,130B(図1における撮像素子22A,22Bである。)と接続され、それぞれで撮像された画像の画像信号が入力される。画像処理ブロック116は、ISP(Image Signal Processor)などを含み構成され、撮像素子130から入力された画像信号に対し、シェーディング補正、ベイヤー補間、ホワイト・バランス補正、ガンマ補正などを行う。 The CPU 112 controls the operation of each part of the spherical camera 110 and the overall operation. The ROM 114 stores a control program and various parameters written in a code that can be decoded by the CPU 112. The image processing block 116 is connected to two image pickup elements 130A and 130B (the image pickup elements 22A and 22B in FIG. 1), and the image signal of the image captured by each is input. The image processing block 116 includes an ISP (Image Signal Processor) and the like, and performs shading correction, Bayer interpolation, white balance correction, gamma correction, and the like on the image signal input from the image pickup element 130.

動画圧縮ブロック118は、MPEG−4 AVC/H.264などの動画圧縮および伸張を行うコーデック・ブロックである。DRAM132は、各種信号処理および画像処理を施す際にデータを一時的に保存する記憶領域を提供する。加速度センサ136は、3軸の加速度成分を検出し、検出された加速度成分は、鉛直方向を検出して全天球画像の天頂補正を施すために用いられる。 The video compression block 118 is a MPEG-4 AVC / H. A codec block that compresses and decompresses moving images such as 264. The DRAM 132 provides a storage area for temporarily storing data when performing various signal processing and image processing. The acceleration sensor 136 detects the acceleration components of the three axes, and the detected acceleration components are used to detect the vertical direction and perform zenith correction of the spherical image.

全天球カメラ110は、さらに、外部ストレージインタフェース122と、USB(Universal Serial Bus)インタフェース126と、シリアルブロック128とを含み構成される。外部ストレージインタフェース122には、外部ストレージ134が接続される。外部ストレージインタフェース122は、メモリカードスロットに挿入されたメモリカードなどの外部ストレージ134に対する読み書きを制御する。USBインタフェース126には、USBコネクタ138が接続される。USBインタフェース126は、USBコネクタ138を介して接続されるパーソナル・コンピュータなどの外部機器とのUSB通信を制御する。シリアルブロック128は、パーソナル・コンピュータなどの外部機器とのシリアル通信を制御し、無線NIC(Network Interface Card)140が接続される。 The spherical camera 110 is further configured to include an external storage interface 122, a USB (Universal Serial Bus) interface 126, and a serial block 128. An external storage 134 is connected to the external storage interface 122. The external storage interface 122 controls reading and writing to an external storage 134 such as a memory card inserted in the memory card slot. A USB connector 138 is connected to the USB interface 126. The USB interface 126 controls USB communication with an external device such as a personal computer connected via the USB connector 138. The serial block 128 controls serial communication with an external device such as a personal computer, and a wireless NIC (Network Interface Card) 140 is connected to the serial block 128.

電源スイッチの操作によって電源がオン状態になると、上記制御プログラムがメインメモリにロードされる。CPU112は、メインメモリに読み込まれたプログラムに従って、装置各部の動作を制御するとともに、制御に必要なデータをメモリ上に一時的に保存する。これにより、全天球カメラ110の後述する各機能部および処理が実現される。 When the power is turned on by operating the power switch, the above control program is loaded into the main memory. The CPU 112 controls the operation of each part of the device according to the program read in the main memory, and temporarily stores the data necessary for the control in the memory. As a result, each functional unit and processing described later of the spherical camera 110 are realized.

図2(B)は、本実施形態による全天球動画撮像システム100を構成する画像処理装置150のハードウェア構成を示す。図2(B)に示す画像処理装置150は、CPU152と、RAM154と、HDD(Hard Disk Drive)156と、マウスやキーボードなどの入力装置158と、外部ストレージ160と、ディスプレイ162と、無線NIC164と、USBコネクタ166とを含み構成される。 FIG. 2B shows the hardware configuration of the image processing device 150 constituting the spherical moving image imaging system 100 according to the present embodiment. The image processing device 150 shown in FIG. 2B includes a CPU 152, a RAM 154, an HDD (Hard Disk Drive) 156, an input device 158 such as a mouse and a keyboard, an external storage 160, a display 162, and a wireless NIC 164. , USB connector 166 and the like.

CPU152は、画像処理装置150の各部の動作および全体動作を制御する。RAM154は、CPU152の作業領域を提供する。HDD156は、CPU152が解読可能なコードで記述された、オペレーティング・システム、本実施形態による画像処理装置150側の処理を担うアプリケーションなどの制御プログラムを格納する。 The CPU 152 controls the operation of each part of the image processing device 150 and the overall operation. The RAM 154 provides a working area for the CPU 152. The HDD 156 stores a control program such as an operating system and an application responsible for processing on the image processing apparatus 150 side according to the present embodiment, which are described by a code decodable by the CPU 152.

入力装置158は、マウス、キーボード、タッチパッド、タッチスクリーンなどの入力装置であり、ユーザ・インタフェースを提供する。外部ストレージ160は、メモリカードスロットなどに装着された着脱可能な記録媒体であり、動画形式の画像データや静止画データなどの各種データを記録する。ディスプレイ162は、ユーザ操作に応答して再生された全天球動画を画面表示する。無線NIC164は、全天球カメラ110などの外部機器との無線通信の接続を確立する。USBコネクタ166は、全天球カメラ110などの外部機器とのUSB接続をする。 The input device 158 is an input device such as a mouse, keyboard, touch pad, touch screen, etc., and provides a user interface. The external storage 160 is a detachable recording medium mounted in a memory card slot or the like, and records various data such as moving image data and still image data. The display 162 displays the spherical moving image played back in response to the user operation on the screen. The wireless NIC 164 establishes a wireless communication connection with an external device such as the spherical camera 110. The USB connector 166 makes a USB connection with an external device such as the spherical camera 110.

画像処理装置150に電源が投入され電源がオン状態になると、ROMやHDD156から制御プログラムが読み出され、RAM154にロードされる。CPU152は、RAM154に読み込まれた制御プログラムに従って、装置各部の動作を制御するとともに、制御に必要なデータをメモリ上に一時的に保存する。これにより、画像処理装置150の後述する各機能部および処理が実現される。 When the power is turned on to the image processing device 150 and the power is turned on, the control program is read from the ROM or HDD 156 and loaded into the RAM 154. The CPU 152 controls the operation of each part of the device according to the control program read into the RAM 154, and temporarily stores the data necessary for the control in the memory. As a result, each functional unit and processing described later of the image processing apparatus 150 are realized.

[全天球動画撮像記録機能]
以下、図3〜図16を参照しながら、本実施形態による全天球動画撮像システム100が備える全天球動画撮像記録機能について説明する。図3は、本実施形態による全天球動画撮像システム100上に実現される全天球動画撮像記録機能に関連する主要な機能ブロック200を示す。
[Spherical video imaging / recording function]
Hereinafter, the spherical moving image imaging / recording function included in the spherical moving image imaging system 100 according to the present embodiment will be described with reference to FIGS. 3 to 16. FIG. 3 shows a main functional block 200 related to the spherical moving image imaging / recording function realized on the spherical moving image imaging system 100 according to the present embodiment.

全天球カメラ110の機能ブロック210は、図3に示すように、撮像部212と、動画圧縮部214と、傾き検出部216と、傾き記録部218と、出力部220とを含み構成される。これに対して、画像処理装置150の機能ブロック250は、読出部252と、画像復元部254と、傾き取得部256と、傾き補正部258と、動画生成部264とを含み構成される。 As shown in FIG. 3, the functional block 210 of the spherical camera 110 includes an image pickup unit 212, a moving image compression unit 214, a tilt detection unit 216, a tilt recording unit 218, and an output unit 220. .. On the other hand, the functional block 250 of the image processing device 150 includes a reading unit 252, an image restoration unit 254, a tilt acquisition unit 256, a tilt correction unit 258, and a moving image generation unit 264.

まず、全天球カメラ110側から説明する。撮像部212は、上述した2つの広角撮像光学系を含み構成され、2つの撮像素子130A,130Bを制御して、連続したフレームを順次撮像する。撮像素子130各々で撮像される画像は、概ね全天球のうちの半球を視野に収めた魚眼画像であり、全天球画像の部分的な画像を構成する。以下、撮像素子130それぞれが撮像した画像を部分画像と参照する場合がある。 First, the omnidirectional camera 110 side will be described. The image pickup unit 212 includes the above-mentioned two wide-angle image pickup optical systems, and controls the two image pickup elements 130A and 130B to sequentially image a continuous frame. The image captured by each of the image pickup elements 130 is a fisheye image in which the hemisphere of the whole celestial sphere is captured in the field of view, and constitutes a partial image of the whole celestial sphere image. Hereinafter, the image captured by each of the image pickup devices 130 may be referred to as a partial image.

動画圧縮部214は、動画圧縮ブロック118を含み構成され、撮像部212が撮像した連続するフレームを所定の動画形式の画像データに圧縮する。動画圧縮形式としては、特に限定されるものではないが、H.264/MPEG−4 AVC(Advanced Video Coding)、H.265/HEVC(High Efficiency Video Coding)、Motion JPEG(Joint Photographic Experts Group)、Motion JPEG2000などの種々の動画圧縮形式を挙げることができる。 The moving image compression unit 214 includes a moving image compression block 118, and compresses a continuous frame imaged by the imaging unit 212 into image data in a predetermined moving image format. The video compression format is not particularly limited, but H.I. 264 / MPEG-4 AVC (Advanced Video Coding), H.M. Various video compression formats such as 265 / HEVC (High Efficiency Video Coding), Motion JPEG (Joint Photographic Experts Group), and Motion JPEG 2000 can be mentioned.

Motion JPEG系は、連続した静止画として動画を表現する形式であり、この方式を採用することにより、高品質な動画を得ることができる。これに対して、H.264/MPEG−4 AVCやH.265/HEVCは、時間軸方向の圧縮を行うことができるため、処理効率が高く、外部ストレージへの書き込み遅延の要件を緩和することができる。手持ちされる全天球カメラ110側では、小型化および低コスト化の要請から、高性能なハードウェアを搭載することが難しいため、好ましい実施形態では、時間軸方向の圧縮を行うことができ、ビットレートを抑制することができるH.264/MPEG−4 AVCやH.265/HEVCを好適に採用することができる。 The Motion JPEG system is a format for expressing a moving image as a continuous still image, and by adopting this method, a high-quality moving image can be obtained. On the other hand, H. 264 / MPEG-4 AVC and H. Since 265 / HEVC can perform compression in the time axis direction, processing efficiency is high and the requirement of write delay to the external storage can be relaxed. Since it is difficult to mount high-performance hardware on the handheld spherical camera 110 side due to the demand for miniaturization and cost reduction, in a preferred embodiment, compression in the time axis direction can be performed. H. that can suppress the bit rate. 264 / MPEG-4 AVC and H. 265 / HEVC can be suitably adopted.

なお、説明する実施形態では、撮像部212が、2つの撮像素子130A,130Bで同一のタイミングで撮像された2つの魚眼画像をそれぞれ独立に出力し、動画圧縮部214が、独立した2つの魚眼画像のフレームから2つの動画形式の画像データをそれぞれ独立して生成する。しかしながら、画像データの表現形式は、特に限定されるものではない。他の実施形態では、撮像部212が、2つの撮像素子130A,130Bで撮像された2つの魚眼画像を接合して構成された単一の画像を出力し、動画圧縮部214は、この2つの魚眼画像を含む画像をフレームとした動画形式の画像データに圧縮することができる。 In the embodiment to be described, the image pickup unit 212 independently outputs two fisheye images captured by the two image pickup elements 130A and 130B at the same timing, and the moving image compression unit 214 has two independent images. Two moving image data are independently generated from the frame of the fisheye image. However, the expression format of the image data is not particularly limited. In another embodiment, the image pickup unit 212 outputs a single image configured by joining two fisheye images captured by the two image pickup elements 130A and 130B, and the moving image compression unit 214 outputs a single image. Images containing two fisheye images can be compressed into moving image data with frames.

傾き検出部216は、加速度センサ136を含み構成され、所定の基準方向に対する全天球カメラ110の傾きを検出する。ここで、所定の基準方向は、典型的には、鉛直方向であり、重力加速度が作用する方向である。傾き検出部216は、3軸加速度センサ136の各加速度成分の信号を傾き記録部218に出力する。傾き記録部218は、傾き検出部216から入力される加速度成分の信号を、動画形式の画像データのフレームに同期してサンプリングし、所定の基準方向に対する傾き角を求める。そして、動画形式の画像データのフレーム・レートと同等のレートの時系列データとして記録する。 The tilt detection unit 216 includes an acceleration sensor 136 and detects the tilt of the spherical camera 110 with respect to a predetermined reference direction. Here, the predetermined reference direction is typically the vertical direction, which is the direction in which the gravitational acceleration acts. The tilt detection unit 216 outputs a signal of each acceleration component of the 3-axis acceleration sensor 136 to the tilt recording unit 218. The tilt recording unit 218 samples the signal of the acceleration component input from the tilt detection unit 216 in synchronization with the frame of the image data in the moving image format, and obtains the tilt angle with respect to a predetermined reference direction. Then, it is recorded as time-series data at a rate equivalent to the frame rate of the image data in the moving image format.

なお、説明する実施形態では、動画形式の画像データ中のフレームに対し、傾き角が一対一で対応し、フレームと傾き角とは同期されて保存されているものとして説明する。しかしながら、保存する傾き角のレートは、必ずしもフレーム・レートと同一としなくともよく、一致しない場合は、フレーム・レートでリサンプリングすることにより、フレームに一対一で対応した傾き角を得ればよい。 In the embodiment to be described, it is assumed that the tilt angle corresponds to the frame in the image data in the moving image format on a one-to-one basis, and the frame and the tilt angle are stored in synchronization with each other. However, the tilt angle rate to be stored does not necessarily have to be the same as the frame rate, and if they do not match, the tilt angle corresponding to the frame may be obtained by resampling at the frame rate. ..

上述した動画圧縮部214が生成した動画形式の画像データ各々および傾き記録部218が記録した傾き角データは、DRAM132上に一旦保持される。出力部220は、DRAM132上に保持されている動画形式の画像データ各々および傾き角データを、適切な書き込みサイズとなったタイミングで、2つの動画ファイル230および傾き角ファイル240として外部ストレージ134に書き出す。撮影が終了すると、2つの動画ファイル230および傾き角ファイル240が閉じられ、これにより、全天球カメラ110側の処理が終了する。 Each of the moving image format image data generated by the moving image compression unit 214 and the tilt angle data recorded by the tilt recording unit 218 are temporarily held on the DRAM 132. The output unit 220 writes out each of the video format image data and the tilt angle data held on the DRAM 132 to the external storage 134 as two video files 230 and a tilt angle file 240 at the timing when the writing size becomes appropriate. .. When the shooting is completed, the two moving image files 230 and the tilt angle file 240 are closed, whereby the processing on the spherical camera 110 side is completed.

外部ストレージ134は、全天球カメラ110から取り出され、画像処理装置150に装着される。続いて、画像処理装置150側について説明を移す。読出部252は、画像処理装置150に装着された外部ストレージ160から、全天球カメラ110側で書き出した2つの動画ファイル230および傾き角ファイル240を読み出す。読み出された2つの動画ファイル230は、それぞれ、画像復元部254に渡される。また、読み出された傾き角ファイル240は、傾き取得部256に渡される。なお、外部ストレージ134を着脱させるほか、全天球カメラ110に備えられたUSBインタフェースを通じて、画像処理装置150は、全天球カメラ110に備えられた外部ストレージ134から、全天球カメラ110側で書き出した2つの動画ファイル230および傾き角ファイル240を読み出しても良い。 The external storage 134 is taken out from the spherical camera 110 and attached to the image processing device 150. Next, the description of the image processing apparatus 150 side will be transferred. The reading unit 252 reads out the two moving image files 230 and the tilt angle file 240 written on the spherical camera 110 side from the external storage 160 mounted on the image processing device 150. The two read moving image files 230 are passed to the image restoration unit 254, respectively. Further, the read tilt angle file 240 is passed to the tilt acquisition unit 256. In addition to attaching and detaching the external storage 134, the image processing device 150 can be moved from the external storage 134 provided in the spherical camera 110 to the spherical camera 110 side through the USB interface provided in the spherical camera 110. The two exported moving image files 230 and the tilt angle file 240 may be read out.

画像復元部254は、読み出された動画ファイル230各々に対応する所定のコーデックを用いて、読み出された動画ファイル230各々をデコードし、動画を構成する静止画のフレームを復元して、傾き補正部258に入力する。傾き取得部256は、読み出された傾き角ファイル240から、画像復元部254で復元される各フレームに対応する傾き角を取得し、傾き補正部258に入力する。 The image restoration unit 254 decodes each of the read moving image files 230 using a predetermined codec corresponding to each of the read moving image files 230, restores the frame of the still image constituting the moving image, and tilts the image. Input to the correction unit 258. The tilt acquisition unit 256 acquires a tilt angle corresponding to each frame restored by the image restoration unit 254 from the read tilt angle file 240, and inputs the tilt angle to the tilt correction unit 258.

傾き補正部258は、傾き取得部256から入力された、フレーム各々に対応する傾き角に基づき、画像復元部254で復元された静止画のフレーム各々に対し傾き補正を施すとともに、魚眼画像から全天球画像への変換を行う。傾き補正部258は、より詳細には、変換テーブル修正部260と、全天球画像生成部262とを含み構成される。 The tilt correction unit 258 corrects the tilt of each frame of the still image restored by the image restoration unit 254 based on the tilt angle corresponding to each frame input from the tilt acquisition unit 256, and also performs tilt correction from the fisheye image. Convert to an all-sky image. More specifically, the tilt correction unit 258 includes a conversion table correction unit 260 and a spherical image generation unit 262.

画像処理装置150側では、2つの撮像素子130A,130Bで撮像された2つの魚眼画像(これは、それぞれ、動画ファイルのフレームとして画像処理装置へ渡される。)それぞれを球面座標系へ変換し、全天球画像を生成するための変換テーブルを事前に準備している。変換テーブルは、それぞれのレンズ光学系の設計データ等に基づいて、所定の投影モデルに従い製造元等で予め作成されたデータであり、全天球カメラ110の真上方向が鉛直線に一致するものとして、魚眼画像を全天球画像へ変換するデータである。説明する実施形態において、全天球カメラ110が傾いた状態にあり、真上方向と鉛直線とが一致しない場合は、傾きに応じてこの変換データを修正することで天頂補正を反映させる。 On the image processing device 150 side, each of the two fisheye images captured by the two image sensors 130A and 130B (which are passed to the image processing device as a frame of a moving image file) is converted into a spherical coordinate system. , The conversion table for generating the whole celestial sphere image is prepared in advance. The conversion table is data created in advance by the manufacturer or the like according to a predetermined projection model based on the design data of each lens optical system, and it is assumed that the direction directly above the spherical camera 110 coincides with the vertical line. , Data for converting a fish-eye image into a spherical image. In the embodiment described, when the spherical camera 110 is tilted and the vertical direction does not match the vertical direction, the conversion data is corrected according to the tilt to reflect the zenith correction.

動画形式の画像データ各々に含まれる部分画像は、受光領域が面積エリアを成す2次元の撮像素子で撮像されたものであり、平面座標系(x,y)で表現された画像データとなっている(図5(B)、並びに図11に示す第1部分画像および第2部分画像)。これに対し、変換テーブルを用いて天頂補正がかけられた補正後の画像は、球面座標系(動径を1とし、2つの偏角θ,φを有する極座標系である。)で表現された全天球画像フォーマットの画像データとなる(図10、および図11に示す全天球画像)。 The partial image included in each of the image data in the moving image format is captured by a two-dimensional image sensor whose light receiving area forms an area area, and is image data expressed in the plane coordinate system (x, y). (1st partial image and 2nd partial image shown in FIG. 5B and FIG. 11). On the other hand, the corrected image to which the zenith correction is applied using the conversion table is represented by a spherical coordinate system (a polar coordinate system having a radius of 1 and two declinations θ and φ). The image data is in the all-celestial image format (the all-celestial image shown in FIGS. 10 and 11).

変換テーブルは、動画ファイル内に保存され、動画ファイルの読出しとともに取得してもよいし、全天球カメラ110から画像処理装置150へ予めダウンロードしておいてもよい。あるいは、全個体共通の基本となる変換テーブルを画像処理装置側に事前に準備しておき、動画ファイル内に全天球カメラ110の個体特有の変換テーブルを得るための差分データを書き込み、動画ファイルの読出しとともに、固有の変換テーブルを復元してもよい。 The conversion table may be stored in the moving image file and acquired at the same time as reading the moving image file, or may be downloaded in advance from the spherical camera 110 to the image processing device 150. Alternatively, a basic conversion table common to all individuals is prepared in advance on the image processing device side, and difference data for obtaining a conversion table peculiar to the individual of the spherical camera 110 is written in the video file, and the video file is created. You may restore the unique conversion table at the same time as reading.

変換テーブル修正部260は、取得された傾き角に応じて、画像の天頂方向(観測者の真上の点を指す方向)が、検出された鉛直線(重力が作用する鉛直方向がなす直線)に一致するものとなるように、上述した変換テーブルに対し修正を施す。したがって、修正された変換テーブルを用いて魚眼画像を全天球画像に変換すれば、傾きに応じて天頂方向が鉛直線に一致するような補正が反映された形で、全天球画像が生成される。全天球画像生成部262は、変換テーブル修正部260により修正された変換テーブルを用いて、復元されたフレーム各々に対応する2つの部分画像を、天頂補正が反映された全天球画像へと変換し、全天球画像のフレーム各々を動画生成部264に出力する。変換テーブル修正部260および全天球画像生成部262により、補正後の複数のフレーム各々の画像の天頂方向が鉛直線に一致するように補正される。 In the conversion table correction unit 260, the zenith direction of the image (the direction pointing to the point directly above the observer) is the detected vertical line (the straight line formed by the vertical direction on which gravity acts) according to the acquired tilt angle. The above-mentioned conversion table is modified so as to match. Therefore, if the fisheye image is converted to the spherical image using the modified conversion table, the spherical image will be displayed in a form that reflects the correction so that the zenith direction coincides with the vertical line according to the inclination. Generated. The spherical image generation unit 262 uses the conversion table modified by the conversion table correction unit 260 to convert two partial images corresponding to each restored frame into a spherical image reflecting the zenith correction. It is converted and each frame of the spherical image is output to the moving image generation unit 264. The conversion table correction unit 260 and the spherical image generation unit 262 correct the image so that the zenith direction of each of the corrected images of the plurality of frames coincides with the vertical line.

動画生成部264は、傾き補正部258により補正された複数のフレーム各々の全天球画像に基づき、所定の動画圧縮形式でエンコードし、最終的な動画データを生成し、動画ファイル270として書き出す。この動画ファイル270は、全天球画像の動画データである。動画圧縮形式は、上述した形式を含む如何なる形式であってもよい。 The moving image generation unit 264 encodes the spherical images of each of the plurality of frames corrected by the tilt correction unit 258 in a predetermined moving image compression format, generates the final moving image data, and writes it out as a moving image file 270. This moving image file 270 is moving image data of a spherical image. The moving image compression format may be any format including the above-mentioned format.

視聴の際には、この生成された動画データに基づき、表示アプリケーション上で、全天球において指定された特定の視野の画像が再生されて表示されることになる。この生成された動画データにおいては、画像の天頂方向が鉛直線に対し固定されているため、その動画データを視聴中に、表示視野を変更したとしても、視野を変更した通りの回転が生じるのみである。ひいては、視野変更と傾きの変化を伴う複雑な回転の発生が抑制され、三次元酔いなどの不快感を与える可能性を軽減することができる。 At the time of viewing, based on the generated moving image data, an image of a specific field of view specified in the whole celestial sphere is reproduced and displayed on the display application. In this generated video data, the zenith direction of the image is fixed with respect to the vertical line, so even if the display field of view is changed while viewing the video data, only the rotation as the field of view is changed occurs. Is. As a result, the occurrence of complicated rotation accompanied by the change of the visual field and the change of the inclination is suppressed, and the possibility of causing discomfort such as three-dimensional sickness can be reduced.

以下、図4および図7を参照しながら、本実施形態による全天球カメラ110側での処理および画像処理装置150側での処理の詳細について、分けて説明する。図4は、本実施形態による全天球動画撮像システム100を構成する全天球カメラ110側で行われる撮像処理を示すフローチャートである。図4に示す処理は、全天球カメラ110の動画撮影ボタンが押下されるなど、撮像の開始が指示されたことに応答して、ステップS100から開始される。ステップS101では、全天球カメラ110は、撮像部212により、撮像素子130から1フレーム分の画像データを読み込む。 Hereinafter, the details of the processing on the spherical camera 110 side and the processing on the image processing apparatus 150 side according to the present embodiment will be described separately with reference to FIGS. 4 and 7. FIG. 4 is a flowchart showing an imaging process performed on the spherical camera 110 side constituting the spherical moving image imaging system 100 according to the present embodiment. The process shown in FIG. 4 is started from step S100 in response to an instruction to start imaging, such as pressing the moving image shooting button of the spherical camera 110. In step S101, the spherical camera 110 reads image data for one frame from the image sensor 130 by the image pickup unit 212.

図5は、魚眼レンズを用いた全天球カメラ110における射影関係を説明する図である。本実施形態において、1つ魚眼レンズで撮影された画像は、撮影地点から概ね半球分の方位を撮影したものとなる。また、魚眼レンズは、図5(A)に示すように、光軸に対する入射角度φに対応した像高hで画像を生成する。像高hと、入射角度φとの関係は、所定の投影モデルに応じた射影関数で決定される。射影関数は、魚眼レンズの性質によって異なるが、等距離射影方式と呼ばれる投影モデルの魚眼レンズでは、fを焦点距離として、下記式(1)で表現される。 FIG. 5 is a diagram illustrating a projection relationship in the spherical camera 110 using a fisheye lens. In the present embodiment, the image taken by one fisheye lens is taken in the direction of a hemisphere from the shooting point. Further, as shown in FIG. 5A, the fisheye lens generates an image at an image height h corresponding to an incident angle φ with respect to the optical axis. The relationship between the image height h and the incident angle φ is determined by a projection function according to a predetermined projection model. The projection function differs depending on the properties of the fisheye lens, but in the fisheye lens of the projection model called the equidistant projection method, f is set as the focal length and is expressed by the following equation (1).

Figure 2021185681
Figure 2021185681

上記投影モデルとしては、その他、中心投影方式(h=f・tanφ)、立体射影方式(h=2f・tan(φ/2))、等立体角射影方式(h=2f・sin(φ/2))および正射影方式(h=f・sinφ)を挙げることができる。いずれの方式においても、光軸からの入射角度φと焦点距離fとに対応して結像の像高hが決定される。また、本実施形態では、画像対角線よりもイメージサークル径が小さな、いわゆる円周魚眼レンズの構成を採用するものとし、得られる部分画像は、図5(B)に示すように、撮影範囲の概ね半球分が投影されたイメージサークル全体を含む平面画像となる。 Other projection models include a central projection method (h = f · tanφ), a stereographic projection method (h = 2f · tan (φ / 2)), and an equal-angle projection method (h = 2f · sin (φ / 2). )) And the orthographic projection method (h = f · sinφ). In either method, the image height h of the image formation is determined corresponding to the incident angle φ from the optical axis and the focal length f. Further, in the present embodiment, a configuration of a so-called circumferential fisheye lens having a smaller image circle diameter than the diagonal of the image is adopted, and the obtained partial image is a substantially hemisphere of the photographing range as shown in FIG. 5 (B). It becomes a plane image including the entire image circle on which the minutes are projected.

説明する実施形態において、1フレーム分の画像データは、2つの撮像素子130A,130Bにより撮像された、それぞれ撮影範囲の概ね半球分が投影されたイメージサークル全体を含む2つの平面画像(図11の第1部分画像および第2部分画像)となる。 In the embodiment to be described, the image data for one frame is two plane images (FIG. 11) including the entire image circle on which approximately the hemisphere of the shooting range is projected, which are captured by the two image sensors 130A and 130B. It becomes the first partial image and the second partial image).

再び図4を参照すると、ステップS102では、全天球カメラ110は、撮像部212により、撮像した1フレーム分の画像データに対し、画像処理を施して、DRAM132上に保存させる。まず、撮像素子130から取り込まれたベイヤーRAWの画像に対し、オプティカル・ブラック補正処理、欠陥画素補正処理、リニア補正処理、シェーディング処理などが行われる。そして、ホワイト・バランス処理、ガンマ補正処理、ベイヤー補間処理、YUV変換処理、エッジ強調処理および色補正処理が行われる。 Referring to FIG. 4 again, in step S102, the spherical camera 110 performs image processing on the image data for one frame captured by the image pickup unit 212 and stores the image data on the DRAM 132. First, an optical black correction process, a defect pixel correction process, a linear correction process, a shading process, and the like are performed on the Bayer RAW image captured from the image sensor 130. Then, white balance processing, gamma correction processing, Bayer interpolation processing, YUV conversion processing, edge enhancement processing, and color correction processing are performed.

ステップS103では、全天球カメラ110は、傾き記録部218により、撮像したフレームに同期して傾き角を検出し、メモリ上に保存させる。 In step S103, the spherical camera 110 detects the tilt angle in synchronization with the captured frame by the tilt recording unit 218 and stores it in the memory.

図6は、本実施形態における全天球カメラ110の傾きについて説明する概略図である。図6において、鉛直方向は、グローバル座標系のxyz3次元方向の直交座標におけるz軸に一致する。この方向と、図6に示した全天球カメラ110の真上の方向とが一致するときが、カメラが傾いてない状態である。これが一致していないときは、全天球カメラ110は、傾いた状態となる。 FIG. 6 is a schematic view illustrating the inclination of the spherical camera 110 in the present embodiment. In FIG. 6, the vertical direction coincides with the z-axis in Cartesian coordinates in the xyz three-dimensional direction of the global coordinate system. When this direction coincides with the direction directly above the spherical camera 110 shown in FIG. 6, the camera is not tilted. If they do not match, the spherical camera 110 is in a tilted state.

つまり、重力ベクトルからの傾き角度(以下、傾き角α)と、xy平面での傾斜角度β(以下、傾き角β)とは、加速度センサの出力を用いて、下記式(2)で求められる。ここで、Axは、加速度センサ136のカメラ座標系のx0軸方向成分の値、Ayは、加速度センサ136のカメラ座標系のy0軸方向成分の値、Azは、加速度センサ136のカメラ座標系のz0軸方向成分の値である。ステップS103では、加速度センサ136の各軸方向成分の値から傾き角α,βが求められて、保存される。 That is, the tilt angle from the gravity vector (hereinafter, tilt angle α) and the tilt angle β in the xy plane (hereinafter, tilt angle β) can be obtained by the following equation (2) using the output of the acceleration sensor. .. Here, Ax is the value of the x0-axis direction component of the camera coordinate system of the acceleration sensor 136, Ay is the value of the y0-axis direction component of the camera coordinate system of the acceleration sensor 136, and Az is the value of the camera coordinate system of the acceleration sensor 136. It is the value of the z0 axis direction component. In step S103, the tilt angles α and β are obtained from the values of the axial components of the acceleration sensor 136 and are stored.

Figure 2021185681
Figure 2021185681

再び図4を参照すると、ステップS104では、全天球カメラ110は、取り込んだ1フレーム分の2つの画像データをそれぞれ動画圧縮部214へ入力し、動画形式の2つの画像データをメモリに書き込む。ステップS105では、全天球カメラ110は、動画を書き込む必要があるか否かを判定する。ステップS105で、所定の書き込みサイズに達し、動画を書き込む必要があると判定された場合(YES)は、ステップS106へ処理を分岐させる。ステップS106では、全天球カメラ110は、出力部220により、DRAM132上の動画形式の2つの画像データを外部ストレージ134にそれぞれ動画ファイルとして記録する。一方、ステップS105で、まだ所定の書き込みサイズに達しておらず、動画を書き込む必要がないと判定された場合(NO)は、ステップS107へ直接処理を進める。 Referring to FIG. 4 again, in step S104, the spherical camera 110 inputs the captured two image data for one frame to the moving image compression unit 214, respectively, and writes the two image data in the moving image format into the memory. In step S105, the spherical camera 110 determines whether or not it is necessary to write a moving image. When the predetermined writing size is reached in step S105 and it is determined that it is necessary to write the moving image (YES), the process is branched to step S106. In step S106, the spherical camera 110 records the two image data in the moving image format on the DRAM 132 as moving image files in the external storage 134 by the output unit 220. On the other hand, if it is determined in step S105 that the predetermined writing size has not yet been reached and it is not necessary to write the moving image (NO), the process directly proceeds to step S107.

ステップS107では、全天球カメラ110は、傾き角データを書き込む必要があるか否かを判定する。ステップS107で、所定の書き込みサイズに達し、傾き角データを書き込む必要があると判定された場合(YES)は、ステップS108へ処理を分岐させる。ステップS108では、全天球カメラ110は、出力部220により、DRAM132上の傾き角データを外部ストレージ134に傾き角ファイルとして記録する。一方、ステップS107で、まだ所定の書き込みサイズに達しておらず、傾き角データを書き込む必要がないと判定された場合(NO)は、ステップS109へ直接処理を進める。 In step S107, the spherical camera 110 determines whether or not it is necessary to write the tilt angle data. When the predetermined write size is reached in step S107 and it is determined that the tilt angle data needs to be written (YES), the process is branched to step S108. In step S108, the spherical camera 110 records the tilt angle data on the DRAM 132 as a tilt angle file in the external storage 134 by the output unit 220. On the other hand, if it is determined in step S107 that the predetermined write size has not been reached yet and it is not necessary to write the tilt angle data (NO), the process directly proceeds to step S109.

ステップS109では、全天球カメラ110は、撮影が終了されているか否かを判定する。ステップS109で、まだ、ユーザによる撮影終了の指示が行われておらず、撮影が終了ではないと判定された場合(NO)は、ステップS101へ処理をループさせて、次のフレームに対する処理を続ける。一方、ステップS109で、ユーザから撮影終了の指示を受領済みであり、撮影が終了されたと判定された場合(YES)は、ステップS110へ処理を進める。 In step S109, the spherical camera 110 determines whether or not shooting has been completed. If the user has not yet instructed the end of shooting in step S109 and it is determined that the shooting is not finished (NO), the process is looped to step S101 to continue the process for the next frame. .. On the other hand, if the user has already received the instruction to end the shooting in step S109 and it is determined that the shooting has been completed (YES), the process proceeds to step S110.

ステップS110では、全天球カメラ110は、画像処理装置150側で画像を変換するために必要となる付加情報を動画ファイル内に書き込み、ステップS111で全天球カメラ110側での撮像処理を終了する。ここで、画像を変換するために必要となる付加情報は、出力先の画像処理装置150側で、動画を撮像した特定の全天球カメラ110に適合した変換テーブルを復元するためのデータである。付加情報は、変換テーブルそのままであってもよいし、基準の変換テーブルに対応する各個体の変換テーブルの差分データであってもよいし、事前定義された複数の変換テーブルのうちから該当する変換テーブルを特定する識別情報であってもよい。 In step S110, the omnidirectional camera 110 writes additional information necessary for converting an image on the image processing device 150 side into a moving image file, and ends the imaging process on the omnidirectional camera 110 side in step S111. do. Here, the additional information required for converting the image is data for restoring the conversion table suitable for the specific spherical camera 110 that captured the moving image on the image processing device 150 side of the output destination. .. The additional information may be the conversion table as it is, the difference data of the conversion table of each individual corresponding to the reference conversion table, or the corresponding conversion from a plurality of predefined conversion tables. It may be identification information that identifies the table.

図7は、本実施形態による全天球動画撮像システム100を構成する画像処理装置150側で行われる記録処理を示すフローチャートである。図7に示す記録処理は、画像処理装置150上で全天球動画生成用のアプリケーションにおいて、動画ファイルおよび傾き角ファイルが指定されてエンコード記録開始の指示が行われたことに応答して、ステップS200から開始される。 FIG. 7 is a flowchart showing a recording process performed on the image processing device 150 side constituting the spherical moving image imaging system 100 according to the present embodiment. The recording process shown in FIG. 7 is a step in response to an instruction to start encoding recording when a moving image file and a tilt angle file are specified in an application for generating spherical moving images on the image processing device 150. It starts from S200.

ステップS201では、画像処理装置150は、読出部252により、外部ストレージ160から2つの動画ファイルを読み込み、画像復元部254により、所定フレーム数の2つの画像データを復元する。ステップS202では、画像処理装置150は、読出部252により、外部ストレージ160から傾き角ファイルを読み込み、傾き取得部256により、上記復元した所定フレーム数のフレーム各々に対応する傾き角を取得する。 In step S201, the image processing device 150 reads two moving image files from the external storage 160 by the reading unit 252, and restores the two image data of a predetermined number of frames by the image restoring unit 254. In step S202, the image processing device 150 reads the tilt angle file from the external storage 160 by the reading unit 252, and acquires the tilt angle corresponding to each of the restored predetermined number of frames by the tilt acquisition unit 256.

動画ファイル230を構成するすべてのフレームがRAM154上に展開されると、メモリを過大に消費することになる。そこで、好ましい実施形態では、補正に際して、動画ファイル全体を構成するフレームのうちの、起点となるフレームに基づく一部のフレームの画像データおよび傾き角データのみをRAM154上に展開するよう構成することができる。この展開する単位は、MPEG−4/AVCなどの時間軸での圧縮を行う形式を採用する場合は、図8に示すような、GOP(Group of Picture)あるいはそれと同等の概念で参照される単位でメモリ上に展開することが効率的である。 If all the frames constituting the moving image file 230 are expanded on the RAM 154, the memory will be excessively consumed. Therefore, in a preferred embodiment, at the time of correction, it is possible to expand only the image data and the tilt angle data of a part of the frames constituting the entire moving image file based on the frame as the starting point on the RAM 154. can. This expansion unit is a unit referred to by GOP (Group of Picture) or an equivalent concept as shown in FIG. 8 when a format such as MPEG-4 / AVC that performs compression on the time axis is adopted. It is efficient to expand it in memory.

GOPは、Iピクチャ、PピクチャおよびBピクチャを含み構成される。Iピクチャは、再生の起点となるピクチャであり、フレーム内予測符号化にて符号化されるピクチャである。Pピクチャは、前のIピクチャまたはPピクチャからフレーム間予測により符号化されるピクチャである。Bピクチャは、前(順方向)、または後(逆方向)、または前後(双方向)のピクチャを利用してフレーム間予測により符号化されるピクチャである。GOPは、少なくとも1つのIピクチャを含むため、GOPの単位でフレームを展開することにより、最小限のフレームを展開することで、所定フレーム数の静止画を復元することができる。 The GOP includes an I picture, a P picture, and a B picture. The I picture is a picture that is a starting point of reproduction, and is a picture encoded by in-frame predictive coding. The P picture is a picture encoded by interframe prediction from the previous I picture or P picture. The B picture is a picture encoded by inter-frame prediction using a front (forward), rear (reverse), or front-back (bidirectional) picture. Since the GOP includes at least one I picture, it is possible to restore a predetermined number of still images by expanding the minimum number of frames by expanding the frames in units of GOP.

再び図7を参照すると、ステップS203では、画像処理装置150は、動画ファイル内から付加情報を読み込み、当該動画ファイルを撮像した特定の全天球カメラ110固有の変換テーブルを準備する。ステップS204では、画像処理装置150は、取得された傾き角および読み出された付加情報に基づき、動画ファイル各々から復元された所定フレーム数の画像データ各々に変換処理を施す。 Referring to FIG. 7 again, in step S203, the image processing device 150 reads additional information from the moving image file and prepares a conversion table peculiar to the specific spherical camera 110 that captures the moving image file. In step S204, the image processing apparatus 150 performs conversion processing on each of the image data of a predetermined number of frames restored from each of the moving image files based on the acquired tilt angle and the read additional information.

図9は、本実施形態による全天球動画撮像システム100を構成する画像処理装置150側で行われる変換処理を示すフローチャートである。図9に示す変換処理は、図7に示したステップS204で呼び出されて、ステップS300から開始される。ステップS301〜ステップS307のループでは、フレーム毎に、ステップS302〜ステップS306の処理が実行される。 FIG. 9 is a flowchart showing a conversion process performed on the image processing device 150 side constituting the spherical moving image imaging system 100 according to the present embodiment. The conversion process shown in FIG. 9 is called in step S204 shown in FIG. 7 and is started from step S300. In the loop of steps S301 to S307, the processes of steps S302 to S306 are executed for each frame.

ステップS302では、画像処理装置150は、当該フレームに対応する傾き角α,βを設定する。ステップS303では、画像処理装置150は、変換テーブル修正部260により、取得された傾き角α,βに応じて変換テーブルを修正する。変換テーブルの修正処理については、詳細を後述する。 In step S302, the image processing device 150 sets the tilt angles α and β corresponding to the frame. In step S303, the image processing apparatus 150 corrects the conversion table according to the acquired tilt angles α and β by the conversion table correction unit 260. The details of the conversion table modification process will be described later.

ステップS304では、画像処理装置150は、復元した当該フレームの2つの画像データを入力する。ステップS305では、画像処理装置150は、全天球画像生成部262により、修正された変換テーブルを用いて、復元された当該フレームの2つの画像データ(それぞれ魚眼画像を含む。)を変換し、補正された2つの画像データ(魚眼画像各々に対応する各半球を担当する2つの全天球画像)を生成する。ステップS306では、画像処理装置150は、当該フレームの補正された2つの画像データ(各半球を担当する全天球画像)を組み合わせることで、最終的な画像データ(全天球画像)を生成する。 In step S304, the image processing device 150 inputs two image data of the restored frame. In step S305, the image processing device 150 converts the two image data (each including a fisheye image) of the restored frame by using the modified conversion table by the spherical image generation unit 262. , Generates two corrected image data (two spherical images in charge of each hemisphere corresponding to each fisheye image). In step S306, the image processing device 150 generates final image data (omnidirectional image) by combining the two corrected image data (omnidirectional image in charge of each hemisphere) of the frame. ..

図10は、本実施形態における全天球画像フォーマットについて、(A)平面で表した場合および(B)球面で表した場合についてそれぞれ説明する図である。図10において、全天球画像のフォーマットは、図10(A)に示すように、平面に展開した場合、水平角度が0から360度、垂直角度が0から180度の角度座標に対応する画素値を有する画像である。角度座標は、図10(B)に示す球面上の座標点の各点と対応付けられており、地球儀上における緯度経度座標のようなものとなっている。 FIG. 10 is a diagram illustrating a case where the spherical image format in the present embodiment is represented by (A) a plane and a case where (B) is represented by a spherical surface, respectively. In FIG. 10, as shown in FIG. 10A, the format of the whole celestial sphere image is a pixel corresponding to the angle coordinates of a horizontal angle of 0 to 360 degrees and a vertical angle of 0 to 180 degrees when expanded on a plane. It is an image having a value. The angular coordinates are associated with each point on the spherical surface shown in FIG. 10B, and are similar to the latitude / longitude coordinates on the globe.

魚眼レンズで撮影された画像の平面座標値と、全天球画像の球面座標値との関係は、図5で説明したような射影関数f(h=f(θ))を用いることによって対応付けることができる。これにより、魚眼レンズで撮影された部分画像2枚を変換して結合(合成)することによって、図10に示すような全天球画像を作成することができる。 The relationship between the plane coordinate values of the image taken by the fisheye lens and the spherical coordinate values of the spherical image can be associated by using the projection function f (h = f (θ)) as described in FIG. can. As a result, a spherical image as shown in FIG. 10 can be created by converting and combining (combining) two partial images taken by a fisheye lens.

次に、実際に魚眼レンズで撮影された画像を用いて全天球画像が生成される過程について説明する。図11は、本実施形態における全天球カメラ110において2つの魚眼レンズを介して各撮像素子130A,130Bで取得した画像、画像処理装置150において変換テーブルによって変換され、変換後の2つの画像が合成されることにより生成された画像をそれぞれ説明する図である。 Next, the process of generating a spherical image using an image actually taken with a fisheye lens will be described. FIG. 11 shows images acquired by the image sensors 130A and 130B in the spherical camera 110 of the present embodiment via two fisheye lenses, converted by a conversion table in the image processing device 150, and the two converted images are combined. It is a figure explaining each image generated by being done.

図11において、2つの魚眼レンズを介して各撮像素子130A,130Bで撮影された部分画像は、図9で説明したステップS305の処理、すなわち、修正後の変換テーブルを用いた画像変換処理によって、まず2枚の全天球画像に変換される。この時点で、画像は、全天球画像フォーマットに合致した表現形式、すなわち、図10に対応する表現となっている。 In FIG. 11, the partial images taken by the respective image pickup devices 130A and 130B via the two fisheye lenses are first subjected to the process of step S305 described with reference to FIG. 9, that is, the image conversion process using the modified conversion table. It is converted into two spherical images. At this point, the image has an expression format that matches the spherical image format, that is, an expression corresponding to FIG. 10.

図9に示したステップS306の処理、すなわち、2枚の変換後の画像合成処理によって、図11に示す最終的な1枚の全天球画像が生成される。すなわち、各半球を担当する2つの全天球画像が、重複している部分をキーにして、重ね合わせて合成され、最終的な全天球画像が生成される。 By the process of step S306 shown in FIG. 9, that is, the image composition process after conversion of the two images, the final spherical image shown in FIG. 11 is generated. That is, the two spherical images in charge of each hemisphere are superposed and combined with the overlapping portion as a key, and the final spherical image is generated.

図11には、各部分画像における画素の位置と、対応する全天球画像上の画素の位置との対応関係についても示されている。全天球カメラ110が正しく垂直方向に載置され、傾くことなく撮影され、全天球カメラ110の真上の方向が鉛直線上にある場合、歪曲補正を行うだけで、図11に示すように、撮影した者が認識する天頂と、水平線とが一致するような画像を得ることができる。このとき、水平線は、部分画像においても中心に位置し、全天球画像においても地球儀の赤道に対応する位置に配置されることになる。 FIG. 11 also shows the correspondence between the positions of the pixels in each partial image and the positions of the pixels on the corresponding spherical image. When the spherical camera 110 is correctly mounted in the vertical direction and is photographed without tilting, and the direction directly above the spherical camera 110 is on the vertical line, only distortion correction is performed, as shown in FIG. It is possible to obtain an image in which the zenith recognized by the photographer and the horizon coincide with each other. At this time, the horizon is located at the center of the partial image and at the position corresponding to the equator of the globe in the spherical image.

再び図9を参照すると、ステップS301〜ステップS307のループを抜けると、ステップS308で本処理を終了し、図7に示す呼び出し元の処理に戻す。 Referring to FIG. 9 again, when the loop of steps S301 to S307 is exited, the present process is terminated in step S308, and the process returns to the process of the caller shown in FIG.

再び図7を参照すると、ステップS205では、画像処理装置150は、動画生成部264により、変換された所定フレーム数の画像データをエンコードし、傾き補正された動画データを生成して、全天球画像の動画ファイル270に書き込む。ステップS206では、画像処理装置150は、読み出す動画ファイル230の最後のフレームに達したか否かを判定する。ステップS206で、未だ最後のフレームに達していないと判定された場合(NO)は、ステップS201へ処理をループさせて、次のフレーム群へ処理を進める。一方、ステップS206で、最後のフレームに達したと判定された場合(YES)は、ステップS207へ処理を分岐させて、本記録処理を終了する。 Referring to FIG. 7 again, in step S205, the image processing apparatus 150 encodes the converted image data of a predetermined number of frames by the moving image generation unit 264, generates the tilt-corrected moving image data, and generates the whole celestial sphere. Write to the video file 270 of the image. In step S206, the image processing device 150 determines whether or not the last frame of the moving image file 230 to be read has been reached. If it is determined in step S206 that the last frame has not been reached yet (NO), the process is looped to step S201 and the process proceeds to the next frame group. On the other hand, if it is determined in step S206 that the last frame has been reached (YES), the process is branched to step S207, and the present recording process is terminated.

なお、好ましい実施形態では、ステップS204と、ステップS205との間に、時間方向のノイズ抑制画像処理、モスキートノイズやブロックノイズ等の動画圧縮コーデックに由来するノイズや輪郭のボケに対する画像補正処理、色合いの修正処理などの処理を実行することが好ましい。これにより、最終的な画像の高画質化が期待できる。 In a preferred embodiment, between step S204 and step S205, noise suppression image processing in the time direction, image correction processing for noise and contour blur caused by a moving image compression codec such as mosquito noise and block noise, and hue are used. It is preferable to execute processing such as correction processing of. This can be expected to improve the image quality of the final image.

以下、図12〜図14を参照しながら、本実施形態における全天球画像の変換テーブルを、記録された全天球カメラ110の傾き角に応じて修正する処理について説明する。 Hereinafter, with reference to FIGS. 12 to 14, a process of correcting the conversion table of the spherical image in the present embodiment according to the tilt angle of the recorded spherical camera 110 will be described.

図12は、本実施形態における全天球画像の変換テーブルを説明する図である。図12(A)は、変換前後の画像座標値のマトリクスを示した変換テーブルを説明する図である。また、図12(B)は、変換後画像の座標値および変換前画像の座標値の関係を説明する図である。 FIG. 12 is a diagram illustrating a conversion table for spherical images in the present embodiment. FIG. 12A is a diagram illustrating a conversion table showing a matrix of image coordinate values before and after conversion. Further, FIG. 12B is a diagram illustrating the relationship between the coordinate values of the converted image and the coordinate values of the unconverted image.

図9に示すステップS303で説明した画像変換に用いられる変換テーブルは、図12(A)に示すように、変換後画像の座標値である(θ,φ)(pix:ピクセル)と、それに対応する変換前画像の座標値(x,y)(pix)とのデータセットを、すべての変換後画像の座標値に対して有するものである。ここで、変換テーブルとして、説明する実施形態では、テーブル状のデータ構造を示しているが、必ずしもテーブル状のデータ構造でなくてもかまわない。つまり、変換データであればよい。 As shown in FIG. 12A, the conversion table used for the image conversion described in step S303 shown in FIG. 9 corresponds to the coordinate values (θ, φ) (pix: pixels) of the converted image. It has a data set with the coordinate values (x, y) (pix) of the image before conversion for all the coordinate values of the image after conversion. Here, as the conversion table, in the embodiment described, the table-shaped data structure is shown, but it does not necessarily have to be the table-shaped data structure. That is, it may be converted data.

図12(A)に示した変換テーブルに従って、撮像された部分画像(変換前画像)から変換後画像を生成することができる。具体的には、図12(B)に示すように、変換前と変換後の変換テーブル(図12(A))の対応関係から、変換後画像の各画素を、座標値(θ,φ)(pix)に対応する変換前画像の座標値(x,y)(pix)の画素値を参照することによって生成することができる。 A post-conversion image can be generated from the captured partial image (pre-conversion image) according to the conversion table shown in FIG. 12 (A). Specifically, as shown in FIG. 12 (B), from the correspondence between the conversion table before conversion and the conversion table (FIG. 12 (A)), each pixel of the converted image is divided into coordinate values (θ, φ). It can be generated by referring to the pixel values of the coordinate values (x, y) (pix) of the pre-conversion image corresponding to (pix).

修正処理前の変換テーブルは、全天球カメラ110の真上方向が鉛直線上に一致するものとして、歪み補正を反映したものであり、傾き角に応じた修正処理が施されることにより、修正後の変換テーブルは、全天球カメラ110の真上方向を鉛直線上に一致させる天頂補正が反映されたものとなる。 The conversion table before the correction process reflects the distortion correction assuming that the direction directly above the spherical camera 110 coincides on the vertical line, and is corrected by performing the correction process according to the tilt angle. The later conversion table reflects the zenith correction that aligns the direction directly above the spherical camera 110 on the vertical line.

図13は、本実施形態における全天球画像に対する変換テーブルの修正処理の動作フローについて説明するフローチャートである。図13に示す修正処理は、図9に示したステップS303で呼び出されて、ステップS400から開始される。 FIG. 13 is a flowchart illustrating an operation flow of the correction process of the conversion table for the spherical image in the present embodiment. The correction process shown in FIG. 13 is called in step S303 shown in FIG. 9 and is started from step S400.

図13において、ステップS401では、画像処理装置150は、変換テーブル修正部260により、処理対象である当該フレームに対応する傾き角(α,β)を取得する。次に、ステップS402では、画像処理装置150は、変換テーブル修正部260により、変換テーブルの入力値(θ1,φ1)を設定する。なお、図13において、カメラ座標系については(θ0、φ0)と表記し、グローバル座標系については(θ1、φ1)と表記し、座標系に依存するパラメータ値である(θ、φ)を区別して表記する。すなわち、ここでは、グローバル座標系である(θ1、φ1)が設定される。 In FIG. 13, in step S401, the image processing apparatus 150 acquires the tilt angle (α, β) corresponding to the frame to be processed by the conversion table correction unit 260. Next, in step S402, the image processing apparatus 150 sets the input values (θ1, φ1) of the conversion table by the conversion table correction unit 260. In FIG. 13, the camera coordinate system is expressed as (θ0, φ0), the global coordinate system is expressed as (θ1, φ1), and the parameter values (θ, φ) depending on the coordinate system are divided. Notated separately. That is, here, the global coordinate system (θ1, φ1) is set.

次に、ステップS403では、画像処理装置150は、変換テーブル修正部260により、鉛直補正演算によって、入力値のグローバル座標系である(θ1、φ1)を、カメラ座標系である(θ0、φ0)に変換する。 Next, in step S403, the image processing apparatus 150 uses the conversion table correction unit 260 to perform a vertical correction calculation to change the global coordinate system of the input value (θ1, φ1) to the camera coordinate system (θ0, φ0). Convert to.

ここで、鉛直補正演算について説明する。図14は、本実施形態における全天球画像の鉛直補正演算について、(A)カメラ座標系、(B)グローバル座標系を用いて説明する図である。 Here, the vertical correction calculation will be described. FIG. 14 is a diagram illustrating a vertical correction calculation of a spherical image in the present embodiment using (A) a camera coordinate system and (B) a global coordinate system.

図14において、グローバル座標系の3次元直交座標を(x1,y1,z1)、球面座標を(θ1,φ1)と表記し、カメラ座標系の3次元直交座標を(x0,y0,z0)、球面座標を(θ0,φ0)と表記する。 In FIG. 14, the three-dimensional orthogonal coordinates of the global coordinate system are expressed as (x1, y1, z1), the spherical coordinates are expressed as (θ1, φ1), and the three-dimensional orthogonal coordinates of the camera coordinate system are expressed as (x0, y0, z0). The spherical coordinates are expressed as (θ0, φ0).

鉛直補正演算では、下記式(3)〜(8)を用いて、球面座標(θ1、φ1)から球面座標(θ0、φ0)への変換を行う。まず、傾きを補正するためには、3次元直交座標を用いて回転変換する必要があるため、下記式(3)式から(5)式を用いて、球面座標(θ1,φ1)から3次元直交座標(x1、y1、z1)への変換を行う。 In the vertical correction calculation, conversion from spherical coordinates (θ1, φ1) to spherical coordinates (θ0, φ0) is performed using the following equations (3) to (8). First, in order to correct the inclination, it is necessary to perform rotation conversion using three-dimensional Cartesian coordinates. Therefore, using the following equations (3) to (5), the spherical coordinates (θ1, φ1) are three-dimensional. Convert to Cartesian coordinates (x1, y1, z1).

Figure 2021185681
Figure 2021185681

次に、傾き角(α、β)を用いて、上記回転座標変換(上記式(6))により、グローバル座標系(x1,y1,z1)を、カメラ座標系(x0,y0,z0)に変換する。換言すれば、上記式(6)は、傾き角(α、β)の定義を与える。 Next, using the tilt angle (α, β), the global coordinate system (x1, y1, z1) is changed to the camera coordinate system (x0, y0, z0) by the above rotation coordinate transformation (the above equation (6)). Convert. In other words, the above equation (6) gives a definition of the tilt angle (α, β).

これは、グローバル座標系を、まずz軸を軸にα回転させ、次にx軸を軸にβ回転させるとカメラ座標系になることを意味する。最後に、上記式(7)および式(8)式を用いて、カメラ座標系の3次元直交座標(x0,y0,z0)を球面座標(θ0,φ0)に戻す変換を行う。 This means that the global coordinate system becomes a camera coordinate system when first α-rotated around the z-axis and then β-rotated around the x-axis. Finally, using the above equations (7) and (8), the three-dimensional Cartesian coordinates (x0, y0, z0) of the camera coordinate system are converted back to the spherical coordinates (θ0, φ0).

次に、鉛直補正演算の他の実施形態について説明する。他の実施形態における鉛直補正演算では、鉛直補正演算では、下記式(9)〜(16)を用いて、球面座標(θ1、φ1)から球面座標(θ0、φ0)への変換を行うことができる。他の実施形態では、鉛直補正演算を高速化することができる。上記式(3)〜(8)の変換式は、上記式(9)〜(16)ように書き直される。 Next, another embodiment of the vertical correction calculation will be described. In the vertical correction calculation in another embodiment, in the vertical correction calculation, the conversion from the spherical coordinates (θ1, φ1) to the spherical coordinates (θ0, φ0) can be performed using the following equations (9) to (16). can. In other embodiments, the vertical correction calculation can be speeded up. The conversion formulas of the above formulas (3) to (8) are rewritten as the above formulas (9) to (16).

Figure 2021185681
Figure 2021185681

すなわち、z軸を軸とする回転α、γは、球面座標(θ、φ)のうちのθの回転そのものであるため、回転変換を、直交座標系に変換することなく、簡単な加減算で可能であり、高速化を可能とする。よって、x軸を軸とする回転βの回転変換のみ、直交座標系を用いた変換が必要となる。これにより、演算速度を上げることができる。 That is, since the rotations α and γ about the z-axis are the rotations of θ in the spherical coordinates (θ, φ), the rotation conversion can be performed by simple addition and subtraction without converting to the Cartesian coordinate system. It enables high speed. Therefore, only the rotation transformation of the rotation β about the x-axis requires the transformation using the Cartesian coordinate system. As a result, the calculation speed can be increased.

上述した実施形態では、鉛直補正演算により座標変換を行っていた。しかしながら、さらに他の実施形態では、変換テーブルを各々が傾き角(α、β)に応じて異なる値となるように複数保持しておくことで、鉛直補正演算の処理を省略し、さらに高速化を図ることができる。つまり、傾き角(α、β)は、原理的には3次元の実数ベクトルであるが、特定の(α、β)に対してのみ変換テーブルを用意しておいて、検出された傾き角(α、β)に最も近いテーブルを採用することで、すべての場合に対して対応が可能である。あるいは、検出された傾き角(α、β)に近いテーブルを複数抽出し、近さに応じた重み付けや差分を取るといった補間演算を行うことも有効である。これにより、補間演算という比較的単純な演算のみで変換テーブルの補正を行うことができ、演算に掛かる処理を抑制することができる。 In the above-described embodiment, the coordinate conversion is performed by the vertical correction calculation. However, in still another embodiment, by holding a plurality of conversion tables so that each of them has a different value according to the tilt angle (α, β), the processing of the vertical correction calculation is omitted, and the speed is further increased. Can be planned. That is, the tilt angle (α, β) is a three-dimensional real number vector in principle, but a conversion table is prepared only for a specific (α, β), and the detected tilt angle (α, β) is detected. By adopting the table closest to α, β), it is possible to deal with all cases. Alternatively, it is also effective to extract a plurality of tables close to the detected tilt angle (α, β) and perform interpolation operations such as weighting and difference according to the proximity. As a result, the conversion table can be corrected only by a relatively simple operation called an interpolation operation, and the processing required for the operation can be suppressed.

再び図13を参照すると、続いて、ステップS404では、画像処理装置150は、変換テーブル修正部260により、変換されたカメラ座標系である(θ0、φ0)を、修正前の変換テーブルを用いて変換前画像の座標値(x、y)に変換する。なお、予め、カメラが傾いていない条件の下で作成された正確な全天球画像が生成されるための変換テーブルが事前に準備されることが前提である。 Referring to FIG. 13 again, subsequently, in step S404, the image processing apparatus 150 uses the conversion table before correction to convert the camera coordinate system (θ0, φ0) converted by the conversion table correction unit 260. It is converted into the coordinate values (x, y) of the image before conversion. It is premised that a conversion table for generating an accurate spherical image created under the condition that the camera is not tilted is prepared in advance.

次に、ステップS405では、画像処理装置150は、変換テーブル修正部260により、グローバル座標系の入力値(θ1,φ1)と、最終的に算出された修正前の座標値(x、y)とを、修正後の変換テーブルの対応する座標セットとして保存する。 Next, in step S405, the image processing apparatus 150 uses the conversion table correction unit 260 to obtain the input values (θ1, φ1) of the global coordinate system and the finally calculated coordinate values (x, y) before correction. Is saved as the corresponding coordinate set of the modified conversion table.

次に、ステップS406では、画像処理装置150は、未処理の入力値(θ1,φ1)、すなわち、対応する修正前の座標値(x、y)が算出されていないグローバル座標系の入力値(θ1,φ1)が残っているか否かを判定する。ステップS406で、残っていると判定された場合(YES)は、次の値としてグローバル座標系の入力値(θ1、φ1)が設定されるように、ステップS402へ処理をループさせる。 Next, in step S406, the image processing apparatus 150 receives an unprocessed input value (θ1, φ1), that is, an input value (i.e., a global coordinate system input value) for which the corresponding uncorrected coordinate value (x, y) has not been calculated. It is determined whether or not θ1, φ1) remains. If it is determined in step S406 that it remains (YES), the process is looped to step S402 so that the input value (θ1, φ1) of the global coordinate system is set as the next value.

一方、ステップS406で、残っていないと判定された場合(NO)は、ステップS407へ処理を分岐させて、本処理を終了し、図9に示した呼び出し元の処理へ戻す。この場合、グローバル座標系の入力値(θ1、φ1)を座標値として有する、全天球画像フォーマットの各画素に対応する補正前の座標値(x、y)の算出が完了したことになる。 On the other hand, if it is determined in step S406 that there is no remaining (NO), the process is branched to step S407, the present process is terminated, and the process is returned to the process of the caller shown in FIG. In this case, the calculation of the uncorrected coordinate values (x, y) corresponding to each pixel of the spherical image format, which has the input values (θ1, φ1) of the global coordinate system as the coordinate values, is completed.

以下、図11、図15および図16を参照しながら、具体的な傾きを補正する処理によって得られる動画のフレームについて説明する。図15は、傾き補正前の動画のフレーム(全天球画像については修正されていない変換テーブルを用いて変換されたもの)を示し、図16は、傾き補正後の動画のフレーム(全天球画像については修正された変換テーブルを用いて変換されたもの)を示す図である。また、図11は、全天球カメラ110に傾きが無く、真上方向と鉛直線が一致している場合を例示し、図15および図16は、全天球カメラ110が傾き、真上方向と鉛直線が一致していない場合を例示する。 Hereinafter, the frame of the moving image obtained by the process of correcting the specific inclination will be described with reference to FIGS. 11, 15, and 16. FIG. 15 shows a frame of a moving image before tilt correction (the spherical image is converted using a conversion table that has not been modified), and FIG. 16 shows a frame of a moving image after tilt correction (omnidirectional image). The image is a diagram showing the image converted using the modified conversion table). Further, FIG. 11 illustrates a case where the spherical camera 110 has no inclination and the vertical line coincides with the vertical direction, and FIGS. 15 and 16 show the spherical camera 110 tilted and the vertical direction coincides with each other. Illustrate the case where the vertical lines do not match.

上述したように、全天球カメラ110が正しく垂直方向に載置される場合、図11に示すように、撮影した者が認識する天頂および水平線が一致するように撮像することができる。全天球カメラ110を固定具に装着し、水準器等を用いて調整して撮像できる場合には、正しく垂直方向の撮影が可能である。 As described above, when the spherical camera 110 is correctly mounted in the vertical direction, as shown in FIG. 11, the image can be taken so that the zenith and the horizon recognized by the photographer coincide with each other. If the omnidirectional camera 110 is attached to a fixture and can be adjusted and imaged using a spirit level or the like, it is possible to take a picture in the vertical direction correctly.

しかしながら、一般的に、人間が手持ちで撮像する場合には、水平で垂直に撮影されることは困難である。このように、本体カメラが傾いたままで撮像されると、傾き補正しなければ、図15に示すように、互いの画像の天頂がずれ、水平線が歪んでしまう。このとき、部分画像における中心線はそのまま全天球画像の赤道に一致することになるが、撮影者が認識する水平線は、全天球画像において曲線として歪んでしまう。仮に図15に示すように補正を行わないまま動画を視聴すると、視聴中に視野の変更を行った場合、鉛直方向と全天球カメラ110の中心軸とのずれによる影響で、三次元酔いの様な不快感を伴ってしまう。 However, in general, when a human is hand-held, it is difficult to take a horizontal and vertical image. As described above, if the main body camera is imaged while being tilted, the zeniths of the images are displaced from each other and the horizon is distorted as shown in FIG. 15 unless the tilt is corrected. At this time, the center line in the partial image coincides with the equator of the spherical image as it is, but the horizontal line recognized by the photographer is distorted as a curve in the spherical image. As shown in FIG. 15, if the video is viewed without correction, if the field of view is changed during viewing, the vertical direction and the central axis of the spherical camera 110 will be affected, resulting in three-dimensional sickness. It is accompanied by such discomfort.

これに対して、本実施形態においては、鉛直上向きと天頂の上方向が一致しているように全フレームの画像を変換した上でエンコードを施すことにより、図16に示すようなフレームが得られる。すなわち、部分画像上で曲線であった撮影者が認識する水平線が、全天球画像において赤道に一致するようになる。このように変換することで、視聴時に視野の変更を行う場合にユーザに三次元酔い等の違和感を与えない全天球動画の作成が可能になる。 On the other hand, in the present embodiment, the frame as shown in FIG. 16 can be obtained by converting the images of all the frames so that the vertically upward direction and the upward direction of the zenith match. .. That is, the horizontal line recognized by the photographer, which is a curve on the partial image, coincides with the equator in the spherical image. By converting in this way, it becomes possible to create a spherical moving image that does not give the user a sense of discomfort such as three-dimensional sickness when changing the visual field during viewing.

以上説明した実施形態によれば準方向に対する撮影手段の傾きを検出し、検出された傾きに応じて傾き補正された動画データを生成することができる撮像システム、撮像装置、プログラムおよびシステムを提供することができる。 According to the embodiment described above, an image pickup system, an image pickup apparatus, a program and a system capable of detecting the tilt of the photographing means with respect to the quasi-direction and generating the moving image data corrected in the tilt according to the detected tilt are provided. be able to.

本実施形態による全天球動画撮像記録機能によれば、動画像の各フレームを記録するのと同じ頻度で全天球カメラ110の傾き角を動画像の各フレームと紐付けた傾き角データが別ファイルとして保存される。そして、その傾き角ファイルのデータをフレームと同期させつつ、参照しながら動画像の各フレームにて傾きを補正し、動画像の表示や再エンコードが行われる。このため、鉛直方向が正しい全天球動画データを得ることができ、このため、ユーザが視野の変更を行う際に、三次元酔いのような不快感や違和感を感じさせない全天球動画データを提供することができる。 According to the spherical moving image imaging / recording function according to the present embodiment, the tilt angle data in which the tilt angle of the spherical camera 110 is associated with each frame of the moving image is obtained at the same frequency as recording each frame of the moving image. Saved as a separate file. Then, while synchronizing the data of the tilt angle file with the frame, the tilt is corrected at each frame of the moving image while referring to the frame, and the moving image is displayed and re-encoded. Therefore, it is possible to obtain spherical video data in which the vertical direction is correct, and therefore, when the user changes the field of view, the spherical video data that does not cause discomfort or discomfort such as three-dimensional sickness can be obtained. Can be provided.

静止画であれば、傾き補正を行わずとも、表示アプリケーション側で、表示の際に傾き角の補正を加味した視野の形成を行うことで対応できる。しかしながら、動画データでは、典型的には、15〜30フレーム/秒と、常に表示内容が変遷するため、視聴時に対応することは難しい。上述したように、予め傾き角を補正した全天球動画をエンコードし、動画ファイルを生成しておくことにより、好適に、視聴者に対して3次元元酔いなどの不快感を与えない全天球動画表示が可能となる。 If it is a still image, it can be dealt with by forming a field of view in which the tilt angle correction is added at the time of display on the display application side without performing tilt correction. However, with moving image data, the display content is constantly changing, typically 15 to 30 frames / sec, so it is difficult to handle it during viewing. As described above, by encoding the spherical video with the tilt angle corrected in advance and generating the video file, the spherical video is suitably not given to the viewer with discomfort such as 3D sickness. Sphere movie display is possible.

なお、上述した実施形態では、180度より大きな画角を有するレンズ光学系で撮像された2つの部分画像を重ね合わせて合成するものとしたが、他の実施形態では、1または複数のレンズ光学系により撮像された3以上の部分画像の重ね合わせ合成に適用してもよい。また、上述した実施形態では、魚眼レンズを用いた撮像システムを一例に説明してきたが、超広角レンズを用いた全天球動画撮像システムに適用してもよい。 In the above-described embodiment, two partial images captured by a lens optical system having an angle of view larger than 180 degrees are superimposed and combined, but in other embodiments, one or more lens optics are combined. It may be applied to superimposing and synthesizing three or more partial images captured by the system. Further, in the above-described embodiment, the imaging system using a fisheye lens has been described as an example, but it may be applied to an omnidirectional moving image imaging system using an ultra-wide-angle lens.

また、上述した実施形態では、撮像された複数のフレームの画像を一旦動画形式に圧縮し、圧縮された動画形式の画像データと、傾きの時系列データとを全天球カメラ110から出力するものとした。そして、画像処理装置150側で、出力された動画形式の画像データと傾きの時系列データとを読み出し、読み出した動画形式の画像データから、複数のフレーム各々の画像を復元し、復元された複数のフレーム各々の画像に対し傾き補正を行っていた。 Further, in the above-described embodiment, the captured images of a plurality of frames are once compressed into a moving image format, and the compressed moving image format image data and the tilt time-series data are output from the spherical camera 110. And said. Then, on the image processing device 150 side, the output moving image format image data and the tilt time series data are read out, and the images of each of the plurality of frames are restored from the read moving image format image data, and the restored plurality of frames are restored. Tilt correction was performed for each image of the frame.

しかしながら、他の実施形態では、動画形式の画像データを経由せずに、直接、連続する静止画のフレームをグループとして出力する態様としてもよい。すなわち、他の実施形態では、全天球カメラ110は、複数のフレームの画像と、傾きの時系列データとを出力する。画像処理装置150側では、全天球カメラ110により出力された複数のフレームの画像と、傾きの時系列データとを読み出し、読み出した複数のフレーム各々の画像に対し傾き補正を行うことができる。 However, in another embodiment, the frames of continuous still images may be directly output as a group without going through the image data in the moving image format. That is, in another embodiment, the spherical camera 110 outputs images of a plurality of frames and time-series data of inclination. On the image processing apparatus 150 side, the images of the plurality of frames output by the spherical camera 110 and the time-series data of the tilt can be read out, and the tilt correction can be performed for each of the read images of the plurality of frames.

さらに、上述した実施形態では、外部ストレージを介して、全天球カメラ110から画像処理装置150へ動画ファイルおよび傾き角ファイルを渡していた。しかしながら、動画データおよび傾き角データの伝達方法は、特に限定されるものではなく、上述したUSB接続や無線LAN接続などの通信手段にて、全天球カメラ110から画像処理装置150へ転送してもよい。 Further, in the above-described embodiment, the moving image file and the tilt angle file are passed from the spherical camera 110 to the image processing device 150 via the external storage. However, the method of transmitting the moving image data and the tilt angle data is not particularly limited, and the data is transferred from the spherical camera 110 to the image processing device 150 by the communication means such as the USB connection or the wireless LAN connection described above. May be good.

また、上記実施形態では、全天球カメラ110の複数の撮像素子130A,130Bのそれぞれで撮像された画像について動画形式の画像データを作成し、画像処理装置150でそれぞれの画像を合成していたが、これに限定されるものではない。すなわち、上述のように全天球カメラ110側で、撮像素子130A,130Bのそれぞれで撮像された画像を予め合成し、その合成画像から動画形式の画像データを生成し、そのデータを画像処理装置150で処理するようにしてもよい。この場合、画像処理装置で画像を合成する処理は不要となる。 Further, in the above embodiment, image data in a moving image format is created for the images captured by each of the plurality of image pickup elements 130A and 130B of the spherical camera 110, and the respective images are synthesized by the image processing device 150. However, it is not limited to this. That is, as described above, the images captured by the image sensors 130A and 130B are combined in advance on the celestial sphere camera 110 side, image data in moving image format is generated from the combined images, and the data is used as an image processing device. It may be processed at 150. In this case, the process of synthesizing the images with the image processing device becomes unnecessary.

また、上記実施形態では、全天球動画撮像システムとして、全天球カメラ110と画像処理装置150とを別体として説明を行ったが、これに限られない。すなわち、全天球動画撮像システムは、全天球カメラ110と画像処理装置150とを一体として構成してもよい。この場合、CPU112とCPU152を共通のCPUで構成してもよい。また、データ転送用のバス142とバス168は一つの線で構成され、各ハードウェア部材はその共通バスで繋がれる。このため、外部ストレージや有線または無線の通信手段を使ってデータの転送を行わなくてもよい。さらに、この場合、動画ファイルと傾き角ファイルを別に記録するようなことは行わずに、傾き角とそれに対応する画像が得られたら、傾き角に応じて傾きが補正(変換)された画像データを生成し、それらの画像データから動画データを生成し、DRAM132、RAM154、HDD156に記録したり、ディスプレイ162に表示したりしてもよい。 Further, in the above embodiment, the spherical camera 110 and the image processing device 150 have been described as separate bodies as the spherical moving image imaging system, but the present invention is not limited to this. That is, the spherical moving image imaging system may be configured by integrating the spherical camera 110 and the image processing device 150. In this case, the CPU 112 and the CPU 152 may be configured by a common CPU. Further, the bus 142 and the bus 168 for data transfer are composed of one line, and each hardware member is connected by the common bus. Therefore, it is not necessary to transfer data using external storage or wired or wireless communication means. Further, in this case, without recording the moving image file and the tilt angle file separately, if the tilt angle and the corresponding image are obtained, the tilt is corrected (converted) according to the tilt angle. , And moving image data from those image data may be generated and recorded on the DRAM 132, RAM 154, HDD 156, or displayed on the display 162.

またさらに、上記実施形態では、鉛直方向と全天球カメラ110の真上の方向とが一致するとき、傾きがない状態としていたが、これに限られない。鉛直方向以外では、たとえば水平方向やその他所望の方向を基準方向として設定し、その基準方向に対する全天球カメラ110や撮像素子130A、130B等所定の物体との傾きに基づいて画像の傾きを修正するようにしてもよい。なお、上記実施形態では、傾きの検出に加速度センサを用いたが、加速度センサと地磁気センサの組合せなどのその他の傾きセンサにより、全天球カメラ110や全天球カメラ110に固定された撮像素子130A、130B、センサ自体等の傾きを検出するようにしてもよい。 Furthermore, in the above embodiment, when the vertical direction coincides with the direction directly above the spherical camera 110, there is no inclination, but the present invention is not limited to this. Other than the vertical direction, for example, a horizontal direction or another desired direction is set as a reference direction, and the inclination of the image is corrected based on the inclination of the spherical camera 110, the image pickup elements 130A, 130B, etc. with respect to the reference direction. You may try to do it. In the above embodiment, the acceleration sensor is used to detect the tilt, but the image sensor fixed to the spherical camera 110 or the spherical camera 110 by another tilt sensor such as a combination of the acceleration sensor and the geomagnetic sensor. The tilt of the 130A, 130B, the sensor itself, or the like may be detected.

なお、上記機能部は、アセンブラ、C、C++、C#、Java(登録商標)などのレガシープログラミング言語やオブジェクト指向プログラミング言語などで記述されたコンピュータ実行可能なプログラムにより実現でき、ROM、EEPROM、EPROM、フラッシュメモリ、フレキシブルディスク、CD−ROM、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、ブルーレイディスク、SDカード、MOなど装置可読な記録媒体に格納して、あるいは電気通信回線を通じて頒布することができる。また、上記機能部の一部または全部は、例えばフィールド・プログラマブル・ゲート・アレイ(FPGA)などのプログラマブル・デバイス(PD)上に実装することができ、あるいはASIC(特定用途向集積)として実装することができ、上記機能部をPD上に実現するためにPDにダウンロードする回路構成データ(ビットストリームデータ)、回路構成データを生成するためのHDL(Hardware Description Language)、VHDL(Very High Speed Integrated Circuits Hardware Description Language)、Verilog−HDLなどにより記述されたデータとして記録媒体により配布することができる。 The above functional unit can be realized by a computer-executable program described in a legacy programming language such as an assembler, C, C ++, C #, Java (registered trademark) or an object-oriented programming language, and is ROM, EEPROM, EPROM. , Flash memory, flexible disc, CD-ROM, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, Blu-ray disc, SD card, MO, etc. Stored in a device-readable recording medium, or through a telecommunications line Can be distributed. In addition, some or all of the functional parts can be mounted on a programmable device (PD) such as a field programmable gate array (FPGA), or as ASIC (integrated for specific applications). Circuit configuration data (bit stream data) to be downloaded to PD to realize the above functional unit on PD, HDL (Hardware Description Language) to generate circuit configuration data, VHDL (Very High Speed Integrated Circuits) It can be distributed by a recording medium as data described by Hardware Description Language), Verilog-HDL, or the like.

これまで本発明の実施形態について説明してきたが、本発明の実施形態は上述した実施形態に限定されるものではなく、他の実施形態、追加、変更、削除など、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。 Although the embodiments of the present invention have been described so far, the embodiments of the present invention are not limited to the above-described embodiments, and those skilled in the art may think of other embodiments, additions, changes, deletions, and the like. It can be changed within the range possible, and is included in the scope of the present invention as long as the action / effect of the present invention is exhibited in any of the embodiments.

(付記)
(付記1)
撮像システムであって、
複数のフレームの画像を撮像する撮像手段と、
基準方向に対する前記撮像手段の傾きを検出する検出手段と、
前記検出手段により検出された傾きの時系列データを記録する記録手段と、
前記記録手段により記録された傾きの時系列データおよび前記撮像手段固有の付加情報に基づき、前記撮像手段により撮像された複数のフレーム各々の画像に対し傾き補正を行う補正手段と、
前記補正手段により補正された複数のフレーム各々の画像に基づき、動画データを生成する動画生成手段と
を含む、撮像システム。
(付記2)
前記撮像システムは、さらに、
前記撮像手段により撮像された複数のフレームの画像を動画形式に圧縮する動画圧縮手段と、
前記動画圧縮手段により圧縮された動画形式の画像データと、前記記録手段により記録された傾きの時系列データとを出力する出力手段と、
前記出力手段により出力された動画形式の画像データと傾きの時系列データとを読み出す読出手段と、
前記読出手段により読み出した動画形式の画像データから、複数のフレーム各々の画像を復元する復元手段と
を含み、前記補正手段は、前記読出手段により読み出された傾きの時系列データに基づいて、前記復元手段により復元された複数のフレーム各々の画像に対し傾き補正を行う、付記1に記載の撮像システム。
(付記3)
前記撮像システムは、さらに、
前記撮像手段により撮像された複数のフレームの画像と、前記記録手段により記録された傾きの時系列データとを出力する出力手段と、
前記出力手段により出力された複数のフレームの画像と傾きの時系列データとを読み出す読出手段と
を含み、前記補正手段は、前記読出手段により読み出された傾きの時系列データに基づいて、前記読出手段により読み出した複数のフレーム各々の画像に対し傾き補正を行う、付記1に記載の撮像システム。
(付記4)
前記撮像手段、前記検出手段、前記記録手段および前記出力手段は、撮像装置に含まれ、前記読出手段、前記補正手段および前記動画生成手段は、前記撮像装置と分離された画像処理装置に含まれる、付記2または3に記載の撮像システム。
(付記5)
前記撮像手段は、第1の広角撮像光学系と、第2の広角撮像光学系とを含み、前記撮像手段が撮像するフレームの画像は、前記第1の広角撮像光学系で撮像された第1の部分画像と、前記第2の広角撮像光学系で撮像された第2の部分画像とを含み、前記補正手段は、
前記第1の部分画像および前記第2の部分画像を球面座標系へ変換する変換データに対し前記傾きに応じて修正を施す修正手段と、
前記修正手段により修正された変換データを用いて前記第1の部分画像および前記第2の部分画像を球面座標系へ変換し、全天球画像を生成する全天球画像生成手段と
を含み、前記動画データは、前記全天球画像の動画データである、付記1〜4のいずれか1つに記載の撮像システム。
(付記6)
前記補正手段は、補正に際して、全体を構成するフレームのうちの、起点となるフレームに基づく一部のフレームの画像をメモリ上に展開する、付記1〜5のいずれか1つに記載の撮像システム。
(付記7)
前記基準方向は、鉛直方向であり、前記補正手段は、前記補正手段により補正された複数のフレーム各々の画像の天頂が鉛直線に一致するように補正することを特徴とする、付記1〜6のいずれか1つに記載の撮像システム。
(付記8)
前記検出手段は、加速度センサを含む、付記1〜7のいずれか1つに記載の撮像システム。
(付記9)
画像を撮像する撮像装置であって、
複数のフレームの画像を撮像する撮像手段と、
基準方向に対する前記撮像手段の傾きを検出する検出手段と、
前記検出手段により検出された傾きの時系列データを記録する記録手段と、
前記撮像手段により撮像された複数のフレーム各々の画像および前記撮像手段固有の付加情報を出力する第1の出力手段と、
前記記録手段により記録された傾きの時系列データを出力する第2の出力手段と
を含み、前記第1の出力手段により出力された複数のフレーム各々の画像は、前記第2の出力手段により出力された傾きの時系列データおよび前記付加情報に基づき傾き補正が施される、撮像装置。
(付記10)
画像を生成する画像処理装置を実現するためのプログラムであって、コンピュータを、
撮像装置により撮像された複数のフレームの画像を含む画像データを読み出す第1の読出手段、
前記画像データに対応する前記撮像装置により記録された前記撮像装置の基準方向に対する傾きの時系列データを読み出す第2の読出手段、
前記第2の読出手段により読み出した傾きの時系列データおよび前記撮像装置固有の付加情報に基づき、前記第1の読出し手段により読み出された画像データに含まれる複数のフレーム各々の画像に対し傾き補正を行う補正手段、および
前記補正手段により補正された複数のフレーム各々の画像に基づき、動画データを生成する動画生成手段
として機能させるためのプログラム。
(付記11)
対象を撮像し、複数の画像として出力する撮像手段と、
前記対象を撮像したときの傾きを検出する検出手段と、
前記複数の画像から動画を生成する動画生成手段と、
前記傾きに関する情報、前記動画、および、前記傾きに関する情報とともに用いて前記動画に対し傾き補正を行うための前記撮像手段固有の付加情報を出力する出力手段と、
を備えた撮像装置。
(付記12)
前記出力手段は、前記動画を構成する前記複数の画像と該複数の画像の各画像を撮像した時の傾きに関する情報を対応させて出力する、付記11に記載の撮像装置。
(付記13)
前記撮像手段を複数備え、
前記動画生成手段は、前記複数の撮像手段から出力される複数の画像に対して各々動画を生成し、
前記出力手段は、前記各々の動画を出力する、
付記11または12に記載の撮像装置。
(付記14)
対象を撮像し、複数の画像として出力する撮像手段と、
前記対象を撮像したときの傾きを検出する検出手段と、
前記傾きおよび前記撮像手段固有の付加情報に応じて前記複数の画像の変換を行う画像変換手段と、
前記変換された複数の画像から動画を生成する動画生成手段と、
を備えたシステム。
(付記15)
前記撮像手段を複数備え、
前記画像変換手段は、前記複数の撮像手段から出力される複数の画像の変換を行い、
前記動画生成手段は、前記変換された複数の画像のうち、前記複数の撮像手段で同じタイミングで撮像した画像を一つに合成した画像から動画を生成する、
付記14に記載のシステム。
(Additional note)
(Appendix 1)
It ’s an imaging system,
An imaging means that captures images of multiple frames,
A detection means for detecting the inclination of the image pickup means with respect to a reference direction, and a detection means.
A recording means for recording time-series data of the inclination detected by the detection means, and a recording means.
Based on the time-series data of the tilt recorded by the recording means and the additional information peculiar to the image pickup means, the correction means for correcting the tilt for each of the images of the plurality of frames captured by the image pickup means.
An imaging system including a moving image generation means for generating moving image data based on an image of each of a plurality of frames corrected by the correction means.
(Appendix 2)
The imaging system further
A moving image compression means for compressing images of a plurality of frames captured by the imaging means into a moving image format,
An output means for outputting video format image data compressed by the moving image compression means and time-series data of inclination recorded by the recording means, and
A reading means for reading out moving image format image data output by the output means and time-series data of inclination, and
The correction means includes a restoration means for restoring an image of each of a plurality of frames from the moving image data read by the reading means, and the correction means is based on the time-series data of the inclination read by the reading means. The imaging system according to Appendix 1, wherein the image of each of the plurality of frames restored by the restoration means is subjected to tilt correction.
(Appendix 3)
The imaging system further
An output means for outputting images of a plurality of frames captured by the image pickup means and time-series data of inclination recorded by the recording means.
The correction means includes a reading means for reading out images of a plurality of frames output by the output means and time-series data of the inclination, and the correction means is based on the time-series data of the inclination read by the reading means. The imaging system according to Appendix 1, wherein the image of each of the plurality of frames read by the reading means is tilt-corrected.
(Appendix 4)
The image pickup means, the detection means, the recording means, and the output means are included in the image pickup device, and the reading means, the correction means, and the moving image generation means are included in the image processing device separated from the image pickup device. , The imaging system according to Appendix 2 or 3.
(Appendix 5)
The imaging means includes a first wide-angle imaging optical system and a second wide-angle imaging optical system, and an image of a frame imaged by the imaging means is a first image captured by the first wide-angle imaging optical system. The correction means includes the partial image of the above and the second partial image captured by the second wide-angle imaging optical system.
A correction means for modifying the first partial image and the conversion data for converting the second partial image into a spherical coordinate system according to the inclination.
It includes an all-sky image generation means for converting the first partial image and the second partial image into a spherical coordinate system using the conversion data corrected by the correction means to generate an all-sky image. The imaging system according to any one of Supplementary note 1 to 4, wherein the moving image data is moving image data of the whole celestial sphere image.
(Appendix 6)
The imaging system according to any one of Supplementary note 1 to 5, wherein the correction means expands an image of a part of the frames constituting the whole frame based on the frame as a starting point on a memory. ..
(Appendix 7)
The reference direction is a vertical direction, and the correction means corrects the images of the plurality of frames corrected by the correction means so that the zenith of each image coincides with the vertical line. The imaging system according to any one of the above.
(Appendix 8)
The imaging system according to any one of Supplementary note 1 to 7, wherein the detecting means includes an acceleration sensor.
(Appendix 9)
An image pickup device that captures images.
An imaging means that captures images of multiple frames,
A detection means for detecting the inclination of the image pickup means with respect to a reference direction, and a detection means.
A recording means for recording time-series data of the inclination detected by the detection means, and a recording means.
A first output means for outputting an image of each of the plurality of frames captured by the image pickup means and additional information peculiar to the image pickup means,
The image of each of the plurality of frames output by the first output means is output by the second output means, including the second output means for outputting the time-series data of the inclination recorded by the recording means. An image pickup device that is tilt-corrected based on the time-series data of the tilt and the additional information.
(Appendix 10)
A program for realizing an image processing device that generates images, and is a computer.
A first reading means for reading image data including images of a plurality of frames captured by an image pickup device,
A second reading means for reading time-series data of the inclination of the image pickup device with respect to the reference direction recorded by the image pickup device corresponding to the image data.
Based on the time-series data of the tilt read by the second reading means and the additional information peculiar to the image pickup device, the tilt is relative to the image of each of the plurality of frames included in the image data read by the first reading means. A program for functioning as a correction means for performing correction and a moving image generation means for generating moving image data based on the images of each of a plurality of frames corrected by the correction means.
(Appendix 11)
An imaging means that captures an object and outputs it as multiple images,
A detection means for detecting the inclination when the object is imaged, and
A moving image generation means for generating a moving image from the plurality of images,
An output means for outputting additional information peculiar to the imaging means for performing tilt correction on the moving image by using the information regarding the tilt, the moving image, and the information regarding the tilt.
An image pickup device equipped with.
(Appendix 12)
The image pickup device according to Appendix 11, wherein the output means outputs information on the tilt when the plurality of images constituting the moving image and each image of the plurality of images are captured in correspondence with each other.
(Appendix 13)
A plurality of the imaging means are provided.
The moving image generation means generates moving images for each of a plurality of images output from the plurality of imaging means.
The output means outputs each of the moving images.
The imaging device according to Appendix 11 or 12.
(Appendix 14)
An imaging means that captures an object and outputs it as multiple images,
A detection means for detecting the inclination when the object is imaged, and
An image conversion means that converts the plurality of images according to the inclination and additional information peculiar to the image pickup means, and an image conversion means.
A moving image generation means for generating a moving image from a plurality of converted images,
System with.
(Appendix 15)
A plurality of the imaging means are provided.
The image conversion means converts a plurality of images output from the plurality of image pickup means, and converts the plurality of images.
The moving image generation means generates a moving image from an image obtained by synthesizing one image captured at the same timing by the plurality of imaging means among the plurality of converted images.
The system according to Appendix 14.

12…撮像体、14…筐体、18…シャッター・ボタン、20…結像光学系、22…撮像素子、100…全天球動画撮像システム、110…全天球カメラ、112…CPU、114…ROM、116…画像処理ブロック、118…動画圧縮ブロック、120…DRAMインタフェース、122…外部ストレージインタフェース、124…外部センサインタフェース、126…USBインタフェース、128…シリアルブロック、130…撮像素子、132…DRAM、134…外部ストレージ、136…加速度センサ、138…USBコネクタ、140…無線NIC、142…バス、150…画像処理装置、152…CPU、154…RAM、156…HDD、158…入力装置、160…外部ストレージ、162…ディスプレイ、164…無線NIC、166…USBコネクタ、168…バス、200…機能ブロック、210…機能ブロック、212…撮像部、214…動画圧縮部、216…傾き検出部、218…傾き記録部、220…出力部、230…動画ファイル、240…傾き角ファイル、250…機能ブロック、252…読出部、254…画像復元部、256…傾き取得部、258…傾き補正部、260…変換テーブル修正部、262…全天球画像生成部、264…動画生成部、270…動画ファイル 12 ... imager, 14 ... housing, 18 ... shutter button, 20 ... imaging optical system, 22 ... image pickup element, 100 ... spherical video imaging system, 110 ... spherical camera, 112 ... CPU, 114 ... ROM, 116 ... image processing block, 118 ... video compression block, 120 ... DRAM interface, 122 ... external storage interface, 124 ... external sensor interface, 126 ... USB interface, 128 ... serial block, 130 ... image pickup element, 132 ... DRAM, 134 ... External storage, 136 ... Acceleration sensor, 138 ... USB interface, 140 ... Wireless NIC, 142 ... Bus, 150 ... Image processing device, 152 ... CPU, 154 ... RAM, 156 ... HDD, 158 ... Input device, 160 ... External Storage, 162 ... Display, 164 ... Wireless NIC, 166 ... USB interface, 168 ... Bus, 200 ... Functional block, 210 ... Functional block, 212 ... Imaging unit, 214 ... Video compression unit, 216 ... Tilt detection unit, 218 ... Tilt Recording unit, 220 ... Output unit, 230 ... Movie file, 240 ... Tilt angle file, 250 ... Functional block, 252 ... Reading unit, 254 ... Image restoration unit, 256 ... Tilt acquisition unit, 258 ... Tilt correction unit, 260 ... Conversion Table correction unit, 262 ... spherical image generation unit, 264 ... video generation unit, 270 ... video file

特開2013‐214947号公報Japanese Unexamined Patent Publication No. 2013-214947

Claims (6)

コンピュータにより座標系が変換される動画データを生成するためのデータを格納するファイルであって、
動画形式の画像のデータである画像データと、撮像手段により前記画像を撮像しているときの基準方向に対する傾きのデータである傾き角データと、前記撮像手段固有の付加情報と、を有するファイル。
A file that stores data for generating video data whose coordinate system is converted by a computer.
A file having image data which is image data in a moving image format, tilt angle data which is tilt data with respect to a reference direction when the image is imaged by an image pickup means, and additional information peculiar to the image pickup means.
請求項1に記載のファイルであって、
前記付加情報は、座標系の変換情報を含むファイル。
The file according to claim 1.
The additional information is a file containing transformation information of the coordinate system.
請求項1または2に記載のファイルであって、
前記傾き角データは、時系列データとして格納されるファイル。
The file according to claim 1 or 2.
The tilt angle data is a file stored as time series data.
請求項1ないし3のいずれか一項に記載のファイルであって、
前記傾き角データは、グローバル座標系のxy平面での傾斜角度および重力ベクトルからの傾き角度のデータであるファイル。
The file according to any one of claims 1 to 3.
The tilt angle data is a file that is data of the tilt angle in the xy plane of the global coordinate system and the tilt angle from the gravity vector.
請求項1ないし4のいずれか一項に記載のファイルであって、
前記画像データは、前記コンピュータによりデコードされると所定数のフレームになり、
前記傾き角データは、前記フレーム各々に対応する傾き角を有するファイル。
The file according to any one of claims 1 to 4.
When the image data is decoded by the computer, it becomes a predetermined number of frames.
The tilt angle data is a file having a tilt angle corresponding to each of the frames.
請求項1ないし5のいずれか一項に記載のファイルであって、
前記画像データは、時間軸方向の圧縮が行われた形式であるファイル。
The file according to any one of claims 1 to 5.
The image data is a file in which compression is performed in the time axis direction.
JP2021127892A 2014-05-15 2021-08-04 Imaging system, imaging device, video display device, image processing device, method and program. Active JP7226484B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2014101058 2014-05-15
JP2014101058 2014-05-15
JP2015021878 2015-02-06
JP2015021878 2015-02-06
JP2020125020A JP6927382B2 (en) 2014-05-15 2020-07-22 Imaging systems, methods, programs, video display devices and image processing devices.

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020125020A Division JP6927382B2 (en) 2014-05-15 2020-07-22 Imaging systems, methods, programs, video display devices and image processing devices.

Publications (3)

Publication Number Publication Date
JP2021185681A true JP2021185681A (en) 2021-12-09
JP2021185681A5 JP2021185681A5 (en) 2022-06-28
JP7226484B2 JP7226484B2 (en) 2023-02-21

Family

ID=55073302

Family Applications (6)

Application Number Title Priority Date Filing Date
JP2015089189A Active JP5843034B1 (en) 2014-05-15 2015-04-24 Movie display device and program
JP2015222650A Active JP6308198B2 (en) 2014-05-15 2015-11-13 Imaging apparatus, image processing apparatus, method, and program
JP2017249281A Pending JP2018067963A (en) 2014-05-15 2017-12-26 File
JP2017249282A Active JP6740996B2 (en) 2014-05-15 2017-12-26 Data generation device, image processing device, method and program
JP2020125020A Active JP6927382B2 (en) 2014-05-15 2020-07-22 Imaging systems, methods, programs, video display devices and image processing devices.
JP2021127892A Active JP7226484B2 (en) 2014-05-15 2021-08-04 Imaging system, imaging device, video display device, image processing device, method and program.

Family Applications Before (5)

Application Number Title Priority Date Filing Date
JP2015089189A Active JP5843034B1 (en) 2014-05-15 2015-04-24 Movie display device and program
JP2015222650A Active JP6308198B2 (en) 2014-05-15 2015-11-13 Imaging apparatus, image processing apparatus, method, and program
JP2017249281A Pending JP2018067963A (en) 2014-05-15 2017-12-26 File
JP2017249282A Active JP6740996B2 (en) 2014-05-15 2017-12-26 Data generation device, image processing device, method and program
JP2020125020A Active JP6927382B2 (en) 2014-05-15 2020-07-22 Imaging systems, methods, programs, video display devices and image processing devices.

Country Status (1)

Country Link
JP (6) JP5843034B1 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5846549B1 (en) 2015-02-06 2016-01-20 株式会社リコー Image processing system, image processing method, program, imaging system, image generation apparatus, image generation method and program
JP5920507B1 (en) 2015-03-10 2016-05-18 株式会社リコー Image processing system, image processing method, and program
JP6724659B2 (en) 2016-08-30 2020-07-15 株式会社リコー Imaging device, method and program
US10264302B2 (en) * 2016-09-30 2019-04-16 Ricoh Company, Ltd. Communication management apparatus, method and computer-readable storage medium for generating image data identification information
JP7180074B2 (en) 2017-01-31 2022-11-30 株式会社リコー Imaging device
GB2559788B (en) * 2017-02-18 2019-12-25 Denholm Tim 360 degree dual lens camera
JP6969121B2 (en) 2017-03-17 2021-11-24 株式会社リコー Imaging system, image processing device and image processing program
WO2018211781A1 (en) 2017-05-18 2018-11-22 ソニー株式会社 Image capture device and image capture method
KR20200009003A (en) 2017-05-18 2020-01-29 소니 주식회사 Information processing device, information processing method, program
WO2018211780A1 (en) 2017-05-18 2018-11-22 ソニー株式会社 Imaging device
JP2019012935A (en) * 2017-06-30 2019-01-24 アイホン株式会社 Intercom device
JP7043255B2 (en) * 2017-12-28 2022-03-29 キヤノン株式会社 Electronic devices and their control methods
JP7231281B2 (en) * 2018-04-26 2023-03-01 テンエントゥ カンパニー,リミテッド Wide-angle image provision method
JP7467958B2 (en) 2019-02-13 2024-04-16 株式会社リコー Imaging device
EP4016464A1 (en) 2020-11-26 2022-06-22 Ricoh Company, Ltd. Apparatus, system, method, and carrier means

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005056295A (en) * 2003-08-07 2005-03-03 Iwane Kenkyusho:Kk 360-degree image conversion processing apparatus
JP2013214947A (en) * 2012-03-09 2013-10-17 Ricoh Co Ltd Image capturing apparatus, image capturing system, image processing method, information processing apparatus, and program

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1169288A (en) * 1997-08-11 1999-03-09 Nikon Corp Image processor
JP2005004487A (en) * 2003-06-12 2005-01-06 Sony Corp Apparatus and method for processing surround image photographed on capture path
JP2005063141A (en) * 2003-08-12 2005-03-10 D Link Corp Image conversion system and image conversion method
JP2006059202A (en) * 2004-08-20 2006-03-02 Iwate Univ Imaging device and image correction method
JP2006129391A (en) * 2004-11-01 2006-05-18 Sony Corp Imaging apparatus
JP2006211378A (en) * 2005-01-28 2006-08-10 Casio Comput Co Ltd Motion picture recording and reproducing apparatus, motion picture recording apparatus, motion picture reproducing apparatus and program
JP2006311196A (en) * 2005-04-28 2006-11-09 Sony Corp Imaging apparatus and imaging method
JP4886850B2 (en) * 2007-06-28 2012-02-29 パナソニック株式会社 Image processing apparatus, image processing method, and program
JP2010004227A (en) * 2008-06-19 2010-01-07 Alps Electric Co Ltd Imaging apparatus
JP2011114496A (en) * 2009-11-25 2011-06-09 Olympus Imaging Corp Imaging apparatus
WO2011155161A1 (en) * 2010-06-11 2011-12-15 パナソニック株式会社 Image processing apparatus and image processing method
JP5406813B2 (en) * 2010-10-05 2014-02-05 株式会社ソニー・コンピュータエンタテインメント Panorama image display device and panorama image display method
US8681230B2 (en) * 2010-11-11 2014-03-25 Panasonic Corporation Picture processing device, picture processing method, program for picture processing, and imaging device
JP5971207B2 (en) * 2012-09-18 2016-08-17 株式会社リコー Image adjustment apparatus, image adjustment method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005056295A (en) * 2003-08-07 2005-03-03 Iwane Kenkyusho:Kk 360-degree image conversion processing apparatus
JP2013214947A (en) * 2012-03-09 2013-10-17 Ricoh Co Ltd Image capturing apparatus, image capturing system, image processing method, information processing apparatus, and program

Also Published As

Publication number Publication date
JP2018067964A (en) 2018-04-26
JP2018067963A (en) 2018-04-26
JP2016149734A (en) 2016-08-18
JP2016149752A (en) 2016-08-18
JP7226484B2 (en) 2023-02-21
JP6308198B2 (en) 2018-04-11
JP5843034B1 (en) 2016-01-13
JP6740996B2 (en) 2020-08-19
JP6927382B2 (en) 2021-08-25
JP2020191650A (en) 2020-11-26

Similar Documents

Publication Publication Date Title
JP6927382B2 (en) Imaging systems, methods, programs, video display devices and image processing devices.
JP5843033B1 (en) Imaging system, imaging apparatus, program, and system
JP5920507B1 (en) Image processing system, image processing method, and program
JP7031280B2 (en) Image processing equipment, image processing systems and programs
JP6724659B2 (en) Imaging device, method and program
JP6256513B2 (en) Imaging system, imaging apparatus, method, and program
JP7306089B2 (en) Image processing system, imaging system, image processing device, imaging device, and program
JP2020096349A (en) Image processing device, imaging device, moving image reproduction system, method, and program
JP2021005831A (en) Imaging system, image processing apparatus, imaging apparatus, and program
JP7206797B2 (en) Imaging device, information processing device, correction value calculation method and program
JP2020174363A (en) Photographing system, method, and program
US11122202B2 (en) Imaging device, image processing system, and image processing method
US20200412928A1 (en) Imaging device, imaging system, and imaging method
JP2020078065A (en) Imaging apparatus, information processing apparatus, correction amount setting method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220616

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230123

R151 Written notification of patent or utility model registration

Ref document number: 7226484

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151