JP6310320B2 - Image processing apparatus, imaging apparatus, image processing method, and program - Google Patents

Image processing apparatus, imaging apparatus, image processing method, and program Download PDF

Info

Publication number
JP6310320B2
JP6310320B2 JP2014099189A JP2014099189A JP6310320B2 JP 6310320 B2 JP6310320 B2 JP 6310320B2 JP 2014099189 A JP2014099189 A JP 2014099189A JP 2014099189 A JP2014099189 A JP 2014099189A JP 6310320 B2 JP6310320 B2 JP 6310320B2
Authority
JP
Japan
Prior art keywords
coordinates
image
coordinate
interpolation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014099189A
Other languages
Japanese (ja)
Other versions
JP2015215817A (en
Inventor
祐太 岡野
祐太 岡野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2014099189A priority Critical patent/JP6310320B2/en
Publication of JP2015215817A publication Critical patent/JP2015215817A/en
Application granted granted Critical
Publication of JP6310320B2 publication Critical patent/JP6310320B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

本技術は、画像処理装置、撮像装置、画像処理方法、および、プログラムに関する。詳しくは、画像を変換する画像処理装置、撮像装置、画像処理方法、および、プログラムに関する。   The present technology relates to an image processing device, an imaging device, an image processing method, and a program. Specifically, the present invention relates to an image processing apparatus, an imaging apparatus, an image processing method, and a program for converting an image.

従来より、一般的なレンズより広い視野角(例えば、180度)の視野を撮像するために、撮像装置において魚眼レンズが用いられている。この魚眼レンズを用いると、その光学的特性のために被写体の形と像の形とが相似にならず、例えば、像の形が円形に歪んだ魚眼画像が得られる。像の形状が歪んだままではユーザにとって観察が困難となるため、魚眼画像の歪みを補正して、歪みのない中心射影画像に変換する撮像装置が提案されている(例えば、特許文献1参照。)。この撮像装置は、画像変換において所定の座標変換関数に中心射影画像内の全ての座標を順に入力して、その座標に対応する魚眼画像内の座標を算出している。   Conventionally, a fish-eye lens is used in an imaging apparatus in order to image a field of view with a wider viewing angle (for example, 180 degrees) than a general lens. When this fisheye lens is used, the shape of the subject and the shape of the image are not similar because of the optical characteristics, and for example, a fisheye image in which the shape of the image is distorted into a circle is obtained. Since it is difficult for a user to observe if the shape of the image remains distorted, an imaging device that corrects distortion of a fisheye image and converts it into a central projection image without distortion has been proposed (for example, see Patent Document 1). .) In the image conversion, all the coordinates in the central projection image are sequentially input to a predetermined coordinate conversion function in image conversion, and the coordinates in the fisheye image corresponding to the coordinates are calculated.

特開2010−118040号公報JP 2010-1118040 A

しかしながら、上述の従来技術では、魚眼画像の画素数が増大するほど、計算量が大きくなってしまう。これに対して、座標変換関数により予め算出しておいた座標をメモリ等の記憶部に保持しておき、変換時に読み出す構成とすれば計算を行わずに済むが、この構成では画素数の増大に伴って記憶部の容量が大きくなってしまう。したがって、計算量と記憶部の容量とをともに削減することは困難である。   However, in the above-described conventional technology, the amount of calculation increases as the number of pixels of the fisheye image increases. On the other hand, if the coordinates calculated in advance by the coordinate conversion function are stored in a storage unit such as a memory and read at the time of conversion, the calculation is not necessary. As a result, the capacity of the storage unit increases. Therefore, it is difficult to reduce both the calculation amount and the capacity of the storage unit.

本技術はこのような状況に鑑みて生み出されたものであり、画像処理において計算量と記憶部の容量とを削減することを目的とする。   The present technology has been created in view of such a situation, and aims to reduce the amount of calculation and the capacity of a storage unit in image processing.

本技術は、上述の問題点を解消するためになされたものであり、その第1の側面は、中心射影に該当しない射影により生成された非中心射影画像内の座標のうち一部の特定座標と当該特定座標に対応付けた中心射影画像内の対応座標とを記憶する記憶部と、上記特定座標および上記対応座標の一方の座標が入力されると上記入力された座標に対応する他方の座標を上記記憶部から取得する座標取得部と、上記取得された他方の座標に基づいて当該他方の座標と異なる座標を補間座標として補間する補間部と、上記他方の座標と上記補間座標とに基づいて上記非中心射影画像および上記中心射影画像のうち一方の画像を他方の画像に変換する画像変換部とを具備する画像処理装置、および、画像処理方法ならびに当該方法をコンピュータに実行させるためのプログラムである。これにより、特定座標または対応座標に基づいて補間座標が補間され、それらの座標に基づいて非中心射影画像および中心射影画像のうち一方の画像が他方の画像に変換されるという作用をもたらす。   The present technology has been made to solve the above-described problems, and a first aspect of the present technology is that some specific coordinates among the coordinates in the non-central projection image generated by the projection that does not correspond to the central projection. And a storage unit that stores the corresponding coordinates in the central projection image associated with the specific coordinates, and when one of the specific coordinates and the corresponding coordinates is input, the other coordinates corresponding to the input coordinates Based on the coordinate acquisition unit that acquires from the storage unit, an interpolation unit that interpolates coordinates different from the other coordinate based on the acquired other coordinate, and the other coordinate and the interpolation coordinate An image processing apparatus comprising: an image conversion unit that converts one of the non-central projection image and the central projection image into the other image; and an image processing method and the computer executing the method A program for causing. Thus, the interpolated coordinates are interpolated based on the specific coordinates or the corresponding coordinates, and one of the non-center projected image and the center projected image is converted into the other image based on the coordinates.

また、この第1の側面において、上記座標取得部は、上記特定座標を上記他方の座標として取得し、上記補間部は、上記非中心射影画像において所定の座標を中心として上記特定座標を回転させた座標を上記補間座標として補間してもよい。これにより、特定座標を回転させた座標が補間座標として補間されるという作用をもたらす。   In the first aspect, the coordinate acquisition unit acquires the specific coordinate as the other coordinate, and the interpolation unit rotates the specific coordinate around a predetermined coordinate in the non-centered projection image. Interpolated coordinates may be used as the interpolation coordinates. This brings about the effect that coordinates obtained by rotating specific coordinates are interpolated as interpolation coordinates.

また、この第1の側面において、上記座標取得部は、上記特定座標を上記他方の座標として取得し、上記補間部は、上記非中心射影画像において所定の座標と上記特定座標とを結ぶ線分上の座標を上記補間座標として補間して当該補間座標を上記所定の座標を中心として回転させた座標を新たな上記補間座標として補間してもよい。これにより、所定の座標と特定座標とを結ぶ線分上の座標が補間座標として補間され、その補間座標を回転させた座標が新たな上記補間座標として補間されるという作用をもたらす。   In the first aspect, the coordinate acquisition unit acquires the specific coordinate as the other coordinate, and the interpolation unit is a line segment connecting the predetermined coordinate and the specific coordinate in the non-centered projection image. The coordinates obtained by interpolating the upper coordinates as the interpolation coordinates and rotating the interpolation coordinates around the predetermined coordinates may be interpolated as the new interpolation coordinates. As a result, the coordinates on the line segment connecting the predetermined coordinates and the specific coordinates are interpolated as interpolation coordinates, and the coordinates obtained by rotating the interpolation coordinates are interpolated as new interpolation coordinates.

また、この第1の側面において、上記座標取得部は、上記特定座標を上記他方の座標として取得し、上記補間部は、2つの上記特定座標を結ぶ線分上の座標を上記補間座標として補間してもよい。これにより、2つの上記特定座標を結ぶ線分上の座標が補間座標として補間されるという作用をもたらす。   In the first aspect, the coordinate acquisition unit acquires the specific coordinate as the other coordinate, and the interpolation unit interpolates a coordinate on a line segment connecting the two specific coordinates as the interpolation coordinate. May be. This brings about the effect that coordinates on a line segment connecting the two specific coordinates are interpolated as interpolation coordinates.

また、この第1の側面において、上記特定座標は、上記非中心射影画像において面積の異なる複数の上記閉曲線のそれぞれを分割した分割点の座標であってもよい。これにより、閉曲線のそれぞれを分割した分割点の座標に基づいて補間座標が補間されるという作用をもたらす。   In the first aspect, the specific coordinate may be a coordinate of a dividing point obtained by dividing each of the plurality of closed curves having different areas in the non-centered projection image. This brings about the effect that the interpolation coordinates are interpolated based on the coordinates of the dividing points obtained by dividing each of the closed curves.

また、この第1の側面において、上記特定座標は、上記閉曲線の面積が小さいほど少ない分割数により上記閉曲線のそれぞれを分割した分割点の座標であってもよい。これにより、閉曲線の面積が小さいほど少ない分割数により閉曲線のそれぞれを分割した分割点の座標に基づいて補間座標が補間されるという作用をもたらす。   In the first aspect, the specific coordinate may be a coordinate of a division point obtained by dividing each of the closed curves by a smaller number of divisions as the area of the closed curve is smaller. As a result, the smaller the area of the closed curve is, the smaller the number of divisions is, and the interpolation coordinates are interpolated based on the coordinates of the division points obtained by dividing each of the closed curves.

また、この第1の側面において、上記中心射影画像内の座標に対して透視射影変換を行って当該透視射影変換を行った座標を上記座標取得部および上記補間部に入力する透視射影変換部をさらに具備し、上記補間部は、上記入力された座標に対応する上記補間座標を補間してもよい。これにより、透視射影変換を行った座標に対応する補間座標が補間されるという作用をもたらす。   Further, in the first aspect, a perspective projection conversion unit that performs perspective projection conversion on the coordinates in the central projection image and inputs the coordinates obtained by the perspective projection conversion to the coordinate acquisition unit and the interpolation unit. In addition, the interpolation unit may interpolate the interpolated coordinates corresponding to the input coordinates. This brings about the effect | action that the interpolation coordinate corresponding to the coordinate which performed perspective projection transformation is interpolated.

また、この第1の側面において、上記中心射影画像内の座標を所定の軸周りに回転させる回転部をさらに具備し、上記透視射影変換部は、上記回転された座標に対して上記透視射影変換を行ってよい。これにより、中心射影画像内の座標を所定の軸周りに回転させた座標が透視射影変換されるという作用をもたらす。   The first aspect may further include a rotation unit that rotates the coordinates in the central projection image around a predetermined axis, and the perspective projection conversion unit converts the perspective projection conversion with respect to the rotated coordinates. May be done. This brings about the effect that the coordinates obtained by rotating the coordinates in the central projection image around a predetermined axis are subjected to perspective projection transformation.

また、この第1の側面において、上記中心射影画像内の座標に対して円筒投影変換を行って当該円筒投影変換を行った座標を上記座標取得部および上記補間部に入力する円筒投影変換部をさらに具備し、上記補間部は、上記入力された座標に対応する上記補間座標を補間してもよい。これにより、中心射影画像内の座標に対して円筒投影変換を行った座標に対応する補間座標が補間されるという作用をもたらす。   Further, in the first aspect, a cylindrical projection conversion unit that performs cylindrical projection conversion on the coordinates in the central projection image and inputs the coordinates obtained by the cylindrical projection conversion to the coordinate acquisition unit and the interpolation unit. In addition, the interpolation unit may interpolate the interpolated coordinates corresponding to the input coordinates. This brings about the effect | action that the interpolation coordinate corresponding to the coordinate which performed cylindrical projection conversion with respect to the coordinate in a center projection image is interpolated.

また、この第1の側面において、撮像された画像が上記一方の画像であるか否かを判断して上記一方の画像である場合には上記一方の座標を上記座標取得部および上記補間部に入力する判断部をさらに具備し、上記補間部は、上記入力された座標に対応する上記補間座標を補間してもよい。これにより、撮像された画像が一方の画像である場合に補間座標が補間されるという作用をもたらす。   Further, in the first aspect, it is determined whether or not the captured image is the one image, and when the image is the one image, the one coordinate is transferred to the coordinate acquisition unit and the interpolation unit. An input determination unit may be further included, and the interpolation unit may interpolate the interpolated coordinates corresponding to the input coordinates. Thereby, when the imaged image is one image, the interpolated coordinates are interpolated.

また、本技術の第2の側面は、中心射影に該当しない射影により生成される非中心射影画像と中心射影画像とのうち一方を撮像する撮像部と、上記非中心射影画像内の座標のうち一部の特定座標と当該特定座標に対応付けた上記中心射影画像内の対応座標とを記憶する記憶部と、上記特定座標および上記対応座標の一方の座標が入力されると上記入力された座標に対応する他方の座標を上記記憶部から取得する座標取得部と、上記取得された他方の座標に基づいて当該他方の座標と異なる座標を補間座標として補間する補間部と、上記他方の座標と上記補間座標とに基づいて上記非中心射影画像および上記中心射影画像のうち一方の画像を他方の画像に変換する画像変換部とを具備する撮像装置である。これにより、特定座標または対応座標に基づいて補間座標が補間され、それらの座標に基づいて非中心射影画像および中心射影画像のうち一方の画像が他方の画像に変換されるという作用をもたらす。   In addition, the second aspect of the present technology provides an imaging unit that captures one of a non-central projection image and a central projection image generated by a projection that does not correspond to the central projection, and coordinates of the non-central projection image. A storage unit that stores some specific coordinates and corresponding coordinates in the central projection image that are associated with the specific coordinates, and the input coordinates when one of the specific coordinates and the corresponding coordinates is input. A coordinate acquisition unit that acquires the other coordinate corresponding to the coordinate from the storage unit, an interpolation unit that interpolates a coordinate different from the other coordinate based on the acquired other coordinate as an interpolation coordinate, and the other coordinate An image pickup apparatus comprising: an image conversion unit that converts one of the non-center projected image and the center projected image into the other image based on the interpolation coordinates. Thus, the interpolated coordinates are interpolated based on the specific coordinates or the corresponding coordinates, and one of the non-center projected image and the center projected image is converted into the other image based on the coordinates.

本技術によれば、画像処理において計算量と記憶部の容量とを削減することができるという優れた効果を奏し得る。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。   According to the present technology, it is possible to achieve an excellent effect that the amount of calculation and the capacity of the storage unit can be reduced in image processing. Note that the effects described here are not necessarily limited, and may be any of the effects described in the present disclosure.

第1の実施の形態における撮像装置の一構成例を示すブロック図である。1 is a block diagram illustrating a configuration example of an imaging apparatus according to a first embodiment. 第1の実施の形態における座標変換部の一構成例を示すブロック図である。It is a block diagram which shows one structural example of the coordinate transformation part in 1st Embodiment. 第1の実施の形態における魚眼画像および中心射影画像の一例を示す図である。It is a figure which shows an example of the fish-eye image and center projection image in 1st Embodiment. 第1の実施の形態における魚眼画像歪補正テーブルの一例を示す図である。It is a figure which shows an example of the fisheye image distortion correction table in 1st Embodiment. 第1の実施の形態における読出座標出力部の一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the read-out coordinate output part in 1st Embodiment. 第1の実施の形態における読出座標回転行列演算部の一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the read coordinate rotation matrix calculating part in 1st Embodiment. 第1の実施の形態におけるメッシュ交点の配置例を示す図である。It is a figure which shows the example of arrangement | positioning of the mesh intersection in 1st Embodiment. 第1の実施の形態における出力画像平面の一例を示す図である。It is a figure which shows an example of the output image plane in 1st Embodiment. 第1の実施の形態における回転させた出力画像平面の一例を示す図である。It is a figure which shows an example of the output image plane rotated in 1st Embodiment. 第1の実施の形態における出力画像平面を射影した仮想半球面上の領域の一例を示す図である。It is a figure which shows an example of the area | region on the virtual hemisphere which projected the output image plane in 1st Embodiment. 第1の実施の形態における読出座標および出力座標を示す図である。It is a figure which shows the read-out coordinate and output coordinate in 1st Embodiment. 第1の実施の形態におけるメッシュ交点座標および補間座標を示す図である。It is a figure which shows the mesh intersection coordinate and interpolation coordinate in 1st Embodiment. 第1の実施の形態における魚眼画像および中心射影画像の一例を示す図である。It is a figure which shows an example of the fish-eye image and center projection image in 1st Embodiment. 第1の実施の形態における撮像装置の動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation of the imaging apparatus according to the first embodiment. 第1の実施の形態における画像変換処理の一例を示すフローチャートである。It is a flowchart which shows an example of the image conversion process in 1st Embodiment. 第1の実施の形態における座標補間処理の一例を示すフローチャートである。It is a flowchart which shows an example of the coordinate interpolation process in 1st Embodiment. 第2の実施の形態における座標変換部の一例を示すブロック図である。It is a block diagram which shows an example of the coordinate transformation part in 2nd Embodiment. 第2の実施の形態における投影範囲および投影面の一例を示す図である。It is a figure which shows an example of the projection range and projection surface in 2nd Embodiment. 第2の実施の形態における画像変換処理の一例を示すフローチャートである。It is a flowchart which shows an example of the image conversion process in 2nd Embodiment. 第3の実施の形態におけるメッシュ交点の配置例を示す図である。It is a figure which shows the example of arrangement | positioning of the mesh intersection in 3rd Embodiment. 第3の実施の形態における密度を均等にしたメッシュ交点の配置例を示す図である。It is a figure which shows the example of arrangement | positioning of the mesh intersection which made the density equal in 3rd Embodiment. 第4の実施の形態における撮像システムの一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the imaging system in 4th Embodiment. 第4の実施の形態における座標変換部の一例を示すブロック図である。It is a block diagram which shows an example of the coordinate transformation part in 4th Embodiment. 第4の実施の形態における読出座標出力部の一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the read-out coordinate output part in 4th Embodiment.

以下、本技術を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
1.第1の実施の形態(座標を補間して画像を変換する例)
2.第2の実施の形態(円筒投影した座標から座標を補間して画像を変換する例)
3.第3の実施の形態(密度が均等なメッシュ交点から座標を補間して画像を変換する例)
4.第4の実施の形態(魚眼画像の撮像時に座標を補間して画像を変換する例)
Hereinafter, modes for carrying out the present technology (hereinafter referred to as embodiments) will be described. The description will be made in the following order.
1. First embodiment (an example of converting an image by interpolating coordinates)
2. Second Embodiment (Example in which an image is converted by interpolating coordinates from cylindrically projected coordinates)
3. Third embodiment (an example in which an image is converted by interpolating coordinates from mesh intersections of equal density)
4). Fourth embodiment (example in which an image is converted by interpolating coordinates when a fisheye image is captured)

<1.第1の実施の形態>
[撮像装置の構成例]
図1は、実施の形態における撮像装置100の一構成例を示すブロック図である。この撮像装置100は、魚眼レンズ110、撮像素子120、入力信号処理部130、フレームメモリ140、制御部150、画像変換部160、画素補間部170、出力信号処理部180および記録部190を備える。また、撮像装置100は、座標変換部200を備える。
<1. First Embodiment>
[Configuration example of imaging device]
FIG. 1 is a block diagram illustrating a configuration example of the imaging apparatus 100 according to the embodiment. The imaging apparatus 100 includes a fisheye lens 110, an imaging element 120, an input signal processing unit 130, a frame memory 140, a control unit 150, an image conversion unit 160, a pixel interpolation unit 170, an output signal processing unit 180, and a recording unit 190. In addition, the imaging apparatus 100 includes a coordinate conversion unit 200.

魚眼レンズ110は、中心射影以外の射影(例えば、等距離射影)により光を集光して撮像素子120に導くものである。なお、魚眼レンズ110の射影方式は、中心射影以外のものであれば、等距離射影に限定されない。例えば、正射影や等立体角射影であってもよい。   The fisheye lens 110 condenses light by a projection other than the central projection (for example, equidistant projection) and guides it to the image sensor 120. Note that the projection method of the fisheye lens 110 is not limited to equidistant projection as long as it is other than the central projection. For example, orthographic projection or equisolid angle projection may be used.

撮像素子120は、制御部150の制御に従って魚眼レンズ110からの光を電気信号に変換して画像を生成するものである。例えば、CCD(Charge Coupled Device)センサーやCMOS(Complementary Metal Oxide Semiconductor)センサーが撮像素子120として用いられる。撮像素子120は、生成した画像を入力画像として入力信号処理部130に信号線129を介して供給する。この入力画像は、2次元格子状に配列された複数の画素からなり、円形の魚眼画像を含む。なお、撮像素子120は、特許請求の範囲に記載の撮像部の一例である。   The image sensor 120 converts the light from the fisheye lens 110 into an electrical signal under the control of the control unit 150 to generate an image. For example, a CCD (Charge Coupled Device) sensor or a CMOS (Complementary Metal Oxide Semiconductor) sensor is used as the image sensor 120. The image sensor 120 supplies the generated image as an input image to the input signal processing unit 130 via the signal line 129. This input image is composed of a plurality of pixels arranged in a two-dimensional grid and includes a circular fisheye image. The imaging element 120 is an example of an imaging unit described in the claims.

入力信号処理部130は、入力画像に対して、ノイズ除去処理、デモザイク処理、ホワイトバランス処理およびYC変換処理などの各種の信号処理を必要に応じて行うものである。この入力信号処理部130は、信号処理を行った入力画像を信号線139を介してフレームメモリ140に供給する。フレームメモリ140は、入力画像を保持するものである。   The input signal processing unit 130 performs various signal processing such as noise removal processing, demosaic processing, white balance processing, and YC conversion processing on the input image as necessary. The input signal processing unit 130 supplies the input image subjected to signal processing to the frame memory 140 via the signal line 139. The frame memory 140 holds an input image.

制御部150は、撮像装置100全体を制御するものである。この制御部150は、ユーザの操作などに従って撮像素子120を制御して画像を撮像させる。また、制御部150は、複数の出力座標を画像変換部160および座標変換部200に信号線159を介して順に供給し、ズーム倍率、出力画像サイズ、パン角、チルト角およびロール角を座標変換部200に供給する。   The control unit 150 controls the entire imaging apparatus 100. The control unit 150 controls the image sensor 120 according to a user operation or the like to capture an image. Further, the control unit 150 sequentially supplies a plurality of output coordinates to the image conversion unit 160 and the coordinate conversion unit 200 via the signal line 159, and performs coordinate conversion of the zoom magnification, the output image size, the pan angle, the tilt angle, and the roll angle. Supplied to the unit 200.

ここで、出力座標は、魚眼画像から生成される中心射影画像内の座標である。この中心射影画像は、2次元格子上に配列された複数の画素からなる。また、中心射影画像において、所定の方向(例えば、水平方向)に沿って並ぶ画素からなる配列は行と呼ばれる。出力座標の供給においては、行のそれぞれが順に選択され、選択された行内の画素の座標のそれぞれが順に出力座標として供給される。   Here, the output coordinates are coordinates in the central projection image generated from the fisheye image. This central projection image is composed of a plurality of pixels arranged on a two-dimensional grid. In the central projection image, an array composed of pixels arranged in a predetermined direction (for example, the horizontal direction) is called a row. In supplying the output coordinates, each of the rows is sequentially selected, and each of the coordinates of the pixels in the selected row is sequentially supplied as an output coordinate.

また、出力画像サイズは、中心射影画像のサイズである。ズーム倍率は、出力画像平面に対する出力画像サイズの比を示す。この出力画像平面は、魚眼画像の少なくとも一部が透視射影により射影される矩形の射影面であり、この出力座標平面をズーム倍率により拡大した画像が中心射影画像として生成される。パン角、チルト角およびロール角については後述する。   The output image size is the size of the central projection image. The zoom magnification indicates the ratio of the output image size to the output image plane. The output image plane is a rectangular projection plane on which at least a part of the fisheye image is projected by perspective projection, and an image obtained by enlarging the output coordinate plane with the zoom magnification is generated as a central projection image. The pan angle, tilt angle, and roll angle will be described later.

座標変換部200は、出力座標を読出座標に変換するものである。ここで、読出座標は魚眼画像内の座標を示す。座標変換部200は、出力座標が供給されるたびに、出力座標を、対応する読出座標に変換し、画像変換部160に信号線209を介して供給する。   The coordinate conversion unit 200 converts output coordinates into readout coordinates. Here, the readout coordinates indicate coordinates in the fisheye image. Each time the output coordinate is supplied, the coordinate conversion unit 200 converts the output coordinate into a corresponding readout coordinate and supplies it to the image conversion unit 160 via the signal line 209.

画像変換部160は、魚眼画像を中心射影画像に変換するものである。この画像変換部160は、制御部150から出力座標を受け取るたびに、その出力座標に対応する読出座標の画素値をフレームメモリ140から読み出す。そして、画像変換部160は、読み出した画素値を、中心射影画像内の出力座標の画素値として画素補間部170に信号線169を介して供給する。これにより、魚眼画像は中心射影画像に変換される。   The image conversion unit 160 converts the fisheye image into a central projection image. Each time the image conversion unit 160 receives output coordinates from the control unit 150, the image conversion unit 160 reads the pixel values of the read coordinates corresponding to the output coordinates from the frame memory 140. Then, the image conversion unit 160 supplies the read pixel value to the pixel interpolation unit 170 via the signal line 169 as the pixel value of the output coordinates in the central projection image. As a result, the fisheye image is converted into a central projected image.

画素補間部170は、中心射影画像において画素を必要に応じて補間するものである。例えば、魚眼画像の一部または全部を拡大する際に、画素補間部170は、必要な画素をサブピクセル精度で求めて補間する。この補間においては、バイリニア補間アルゴリズム、バイキュービック補間アルゴリズム、または、Lanzos補間アルゴリズムなどのアルゴリズムが用いられる。画素補間部170は、画素を補間した中心射影画像を出力信号処理部180に信号線179を介して供給する。   The pixel interpolation unit 170 interpolates pixels in the central projection image as necessary. For example, when part or all of a fisheye image is enlarged, the pixel interpolation unit 170 obtains necessary pixels with subpixel accuracy and performs interpolation. In this interpolation, an algorithm such as a bilinear interpolation algorithm, a bicubic interpolation algorithm, or a Lanzos interpolation algorithm is used. The pixel interpolation unit 170 supplies the central projection image obtained by interpolating the pixels to the output signal processing unit 180 via the signal line 179.

出力信号処理部180は、OSD(On Screen Display)処理、マスク処理、および、画像フォーマット変換処理などを必要に応じて中心射影画像に対して行うものである。出力信号処理部180は、処理後の中心射影画像を信号線189を介して記録部190に供給する。記録部190は、中心射影画像を記録するものである。   The output signal processing unit 180 performs OSD (On Screen Display) processing, mask processing, image format conversion processing, and the like on the central projection image as necessary. The output signal processing unit 180 supplies the processed central projection image to the recording unit 190 via the signal line 189. The recording unit 190 records a central projected image.

なお、撮像装置100は、魚眼レンズ110により生成された魚眼画像を変換対象として中心射影画像に変換しているが、変換対象は、中心射影でない射影により生成された画像であれば、魚眼画像に限定されない。撮像装置100は、例えば、曲面ミラーに写し出された被写体を、中心射影レンズにより撮像した画像を変換対象としてもよい。   Note that the imaging apparatus 100 converts the fisheye image generated by the fisheye lens 110 into a central projection image as a conversion target. However, if the conversion target is an image generated by a projection other than the central projection, the fisheye image It is not limited to. For example, the imaging apparatus 100 may convert an image obtained by imaging a subject projected on a curved mirror with a central projection lens.

また、撮像装置100は、魚眼画像を中心射影画像に変換しているが、逆に中心射影画像を魚眼画像に変換してもよい。この場合、例えば、魚眼レンズ110の代わりに中心射影レンズを設け、制御部150は、中心射影画像内の読出座標を座標変換部200および画像変換部160に順に供給する。また、座標変換部200は、読出座標を、魚眼画像内の出力座標に変換する。   Further, the imaging apparatus 100 converts the fisheye image into the central projection image, but conversely, the central projection image may be converted into the fisheye image. In this case, for example, a central projection lens is provided instead of the fisheye lens 110, and the control unit 150 sequentially supplies read coordinates in the central projection image to the coordinate conversion unit 200 and the image conversion unit 160. In addition, the coordinate conversion unit 200 converts the read coordinates into output coordinates in the fisheye image.

また、魚眼レンズ110や撮像素子120などの各部を1つの装置(撮像装置100)に設ける構成としているが、これらを複数の装置に分散して設けてもよい。例えば、魚眼レンズ110を交換レンズユニットに設け、撮像素子120などを撮像装置100に設け、座標変換部200や画像変換部160などを画像処理装置に設けてもよい。   Moreover, although each part, such as the fisheye lens 110 and the image pick-up element 120, is set as the structure provided in one apparatus (image pick-up device 100), you may distribute and provide these in several apparatuses. For example, the fisheye lens 110 may be provided in the interchangeable lens unit, the image sensor 120 or the like may be provided in the image pickup apparatus 100, and the coordinate conversion unit 200 or the image conversion unit 160 may be provided in the image processing apparatus.

また、撮像装置100は、入力信号処理部130において、ノイズ除去処理、デモザイク処理、ホワイトバランス処理およびYC変換処理などを画像変換前に行っているが、これらのうち少なくとも1つを画像変換後に行ってもよい。例えば、デモザイク処理を行っていないRAWデータ形式の魚眼画像を中心射影画像に変換し、その後にデモザイク処理を行ってもよい。   In addition, the imaging apparatus 100 performs noise removal processing, demosaic processing, white balance processing, YC conversion processing, and the like in the input signal processing unit 130 before image conversion. At least one of these is performed after image conversion. May be. For example, a fish-eye image in RAW data format that has not been demosaiced may be converted into a central projected image and then demosaiced.

また、撮像装置100は、中心射影画像を外部に出力してもよいし、表示部をさらに備え、その表示部に中心射影画像を表示させてもよい。また、撮像装置100は、記録部190に中心射影画像を記録しているが、記録せずに外部への出力や表示部における表示などを行ってもよい。   Further, the imaging apparatus 100 may output the central projection image to the outside, or may further include a display unit and display the central projection image on the display unit. In addition, the imaging apparatus 100 records the central projection image in the recording unit 190. However, the image capturing apparatus 100 may perform output to the outside or display on the display unit without recording.

[座標変換部の構成例]
図2は、第1の実施の形態における座標変換部200の一構成例を示すブロック図である。座標変換部200は、座標正規化部210、出力座標回転行列演算部220、透視射影変換部230、魚眼画像歪補正テーブル240および読出座標出力部300を備える。
[Configuration example of coordinate conversion unit]
FIG. 2 is a block diagram illustrating a configuration example of the coordinate conversion unit 200 according to the first embodiment. The coordinate conversion unit 200 includes a coordinate normalization unit 210, an output coordinate rotation matrix calculation unit 220, a perspective projection conversion unit 230, a fisheye image distortion correction table 240, and a read coordinate output unit 300.

ここで、魚眼画像に平行な所定の軸をx軸とし、魚眼画像に平行でx軸に直交する軸をy軸とする。また、これらのx軸およびy軸に直交する軸をz軸とする。x軸、y軸およびz軸の原点は、例えば、魚眼画像の中心とする。そして、その原点を中心とする半球の表面を仮想球面と称する。仮想球面は、魚眼レンズ110により撮像された視野範囲を表す。出力画像平面(すなわち、射影面)は、初期状態において、例えば、その中心が魚眼画像の中心と一致する位置に配置される。また、出力画像平面は、初期状態において、その中心が仮想球面と接する位置に配置される。   Here, a predetermined axis parallel to the fisheye image is defined as the x axis, and an axis parallel to the fisheye image and orthogonal to the x axis is defined as the y axis. Further, an axis orthogonal to these x-axis and y-axis is taken as a z-axis. The origin of the x-axis, y-axis, and z-axis is, for example, the center of the fisheye image. And the surface of the hemisphere centering on the origin is called a virtual spherical surface. The virtual spherical surface represents the visual field range imaged by the fisheye lens 110. In the initial state, the output image plane (that is, the projection plane) is arranged, for example, at a position where the center coincides with the center of the fisheye image. In addition, the output image plane is arranged at a position where the center thereof is in contact with the virtual spherical surface in the initial state.

座標正規化部210は、ズーム倍率や出力画像サイズに基づいて出力座標を正規化するものである。例えば、中心射影画像の水平座標を0乃至out_hとし、垂直座標を0乃至out_vとする場合、out_hおよびout_vが出力画像サイズとして供給される。この座標正規化部210は、例えば、次の式により出力座標を正規化する。
r=min(out_h、out_v)/2 ・・・式1

Figure 0006310320
Figure 0006310320
norm=1 ・・・式4 The coordinate normalization unit 210 normalizes output coordinates based on the zoom magnification and the output image size. For example, when the horizontal coordinate of the central projection image is 0 to out_h and the vertical coordinate is 0 to out_v, out_h and out_v are supplied as output image sizes. For example, the coordinate normalization unit 210 normalizes the output coordinates by the following expression.
r = min (out_h, out_v) / 2 Equation 1
Figure 0006310320
Figure 0006310320
z norm = 1 Formula 4

式1において、min(A、B)は、AおよびBのうち値が小さい方を返す関数である。また、式2および式3において、「zoom」は、魚眼画像の直径と出力画像平面の短辺とが一致し、出力画像平面(すなわち、射影面)を仮想球面に接するように配置した際の倍率を「1」とするズーム倍率である。式2乃至式4において、xnorm、ynormおよびznormは、正規化したx、yおよびz座標である。座標正規化部210は、正規化した出力座標(xnorm、ynorm、znorm)を出力座標回転行列演算部220に供給する。式1乃至式4により、出力座標は、半径1の半球の球面上の座標に正規化される。 In Equation 1, min (A, B) is a function that returns the smaller one of A and B. Further, in the expressions 2 and 3, “zoom” is obtained when the diameter of the fisheye image and the short side of the output image plane coincide with each other and the output image plane (that is, the projection plane) is arranged so as to touch the virtual sphere. The zoom magnification is set to “1”. In equations 2 to 4, x norm , y norm and z norm are normalized x, y and z coordinates. The coordinate normalization unit 210 supplies the normalized output coordinates (x norm , y norm , z norm ) to the output coordinate rotation matrix calculation unit 220. The output coordinates are normalized to the coordinates on the spherical surface of the hemisphere having the radius 1 by Expressions 1 to 4.

なお、撮像装置100は、魚眼画像の少なくとも一部をズーム倍率により拡大しているが、魚眼画像の少なくとも一部を縮小してもよい。縮小する際には、制御部150は、ズーム倍率「zoom」の代わりに、縮小率を供給する。この場合、式2および式3において「zoom」が縮小率に置き換えられる。   Note that the imaging apparatus 100 enlarges at least a part of the fisheye image with the zoom magnification, but may reduce at least a part of the fisheye image. When the image is reduced, the control unit 150 supplies a reduction rate instead of the zoom magnification “zoom”. In this case, “zoom” in Expression 2 and Expression 3 is replaced with the reduction ratio.

出力座標回転行列演算部220は、出力画像平面を回転行列演算により回転させるものである。この出力座標回転行列演算部220は、パン角、チルト角およびロール角を制御部150から受け取る。ここで、パン角は、出力座標をx軸周りに回転させる回転角度である。また、チルト角は、出力座標をy軸周りに回転させる回転角度であり、ロール角は、z軸周りに回転させる回転角度である。そして、出力座標回転行列演算部220は、例えば、次の式により回転行列演算を行う。

Figure 0006310320
The output coordinate rotation matrix calculation unit 220 rotates the output image plane by rotation matrix calculation. The output coordinate rotation matrix calculation unit 220 receives the pan angle, tilt angle, and roll angle from the control unit 150. Here, the pan angle is a rotation angle for rotating the output coordinates around the x axis. The tilt angle is a rotation angle for rotating the output coordinates around the y axis, and the roll angle is a rotation angle for rotating around the z axis. And the output coordinate rotation matrix calculating part 220 performs rotation matrix calculation by the following formula, for example.
Figure 0006310320

式5において、Rは、チルト角である。また、Rはロール角であり、Rはパン角である。また、(xrot、yrot、zrot)は、回転後の出力座標である。出力座標回転行列演算部220は、この出力座標(xrot、yrot、zrot)を透視射影変換部230に供給する。なお、出力座標回転行列演算部220は、特許請求の範囲に記載の回転部の一例である。 In Equation 5, R t is the tilt angle. R r is the roll angle and R p is the pan angle. Further, (x rot , y rot , z rot ) are output coordinates after rotation. The output coordinate rotation matrix calculation unit 220 supplies the output coordinates (x rot , y rot , z rot ) to the perspective projection conversion unit 230. The output coordinate rotation matrix calculation unit 220 is an example of a rotation unit described in the claims.

透視射影変換部230は、出力座標に対して透視射影変換を行うものである。この透視射影変換部230は、例えば、次の式により透視射影変換を行う。
sph=xrot/(xrot 2+yrot 2+zrot 21/2 ・・・式6
sph=yrot/(xrot 2+yrot 2+zrot 21/2 ・・・式7
sph=zrot/(xrot 2+yrot 2+zrot 21/2 ・・・式8
=arctan2(ysph、xsph) ・・・式9
=arccos(zsph) ・・・式10
The perspective projection conversion unit 230 performs perspective projection conversion on the output coordinates. For example, the perspective projection conversion unit 230 performs perspective projection conversion according to the following expression.
x sph = x rot / (x rot 2 + y rot 2 + z rot 2 ) 1/2 Equation 6
y sph = y rot / (x rot 2 + y rot 2 + z rot 2 ) 1/2 Equation 7
z sph = z rot / (x rot 2 + y rot 2 + z rot 2 ) 1/2 Equation 8
R x = arctan2 (y sph , x sph ) Equation 9
R z = arccos (z sph ) Equation 10

式6乃至式8において、xsph、ysphおよびzsphは、出力座標を仮想天球面の表面上の座標に射影した座標である。また、式9および式10において、arctan2(y、x)は、(y、x)および原点を結ぶ直線とx軸とのなす角度を返す関数である。また、arccosは、正弦関数の逆関数を示す。また、RおよびRは、投影射影変換された極座標表記の出力座標のうちx軸およびz軸に対する角度を示す。透視射影変換部230は、投影射影変換した出力座標(r、R、R)のうち(R、R)を読出座標出力部300に供給する。ここで、rは極座標系における半径を示す。rを供給しないのは、rを固定値(例えば、「1」)としているためである。 In Expressions 6 to 8, x sph , y sph and z sph are coordinates obtained by projecting the output coordinates to the coordinates on the surface of the virtual celestial sphere. In Expressions 9 and 10, arctan2 (y, x) is a function that returns an angle formed by a straight line connecting (y, x) and the origin and the x axis. Arccos represents an inverse function of a sine function. R x and R z indicate angles with respect to the x axis and the z axis in the output coordinates in the polar coordinate notation subjected to the projective projection transformation. The perspective projection conversion unit 230 supplies (R x , R z ) among the output coordinates (r, R x , R z ) subjected to the projection projection conversion to the read coordinate output unit 300. Here, r represents a radius in the polar coordinate system. The reason why r is not supplied is that r is set to a fixed value (for example, “1”).

読出座標出力部300は、出力座標を読出座標に変換して画像変換部160に出力するものである。出力座標に対応する読出座標が魚眼画像歪補正テーブル240に記憶されている場合には、読出座標出力部300は、その読出座標を魚眼画像歪補正テーブル240から取得して出力する。一方、出力座標に対応する読出座標が魚眼画像歪補正テーブル240に記憶されていない場合には、読出座標出力部300は、所定の補間処理により出力座標に対応する読出座標を補間して出力する。補間処理の詳細については、後述する。   The read coordinate output unit 300 converts the output coordinates into read coordinates and outputs the read coordinates to the image conversion unit 160. When the readout coordinates corresponding to the output coordinates are stored in the fisheye image distortion correction table 240, the readout coordinate output unit 300 acquires the readout coordinates from the fisheye image distortion correction table 240 and outputs them. On the other hand, when the readout coordinates corresponding to the output coordinates are not stored in the fisheye image distortion correction table 240, the readout coordinate output unit 300 interpolates and outputs the readout coordinates corresponding to the output coordinates by a predetermined interpolation process. To do. Details of the interpolation processing will be described later.

魚眼画像歪補正テーブル240は、魚眼画像内の読出座標のうち一部の特定座標を、中心射影画像内の出力座標に対応づけて記憶するものである。   The fisheye image distortion correction table 240 stores some specific coordinates among the read coordinates in the fisheye image in association with the output coordinates in the central projection image.

このように、撮像装置100は、魚眼画像内の一部の座標を補間して求めるため、魚眼画像内の全ての座標を演算する構成と比較して計算量を少なくすることができる。   As described above, since the imaging apparatus 100 interpolates and obtains some coordinates in the fisheye image, the amount of calculation can be reduced compared to a configuration that calculates all coordinates in the fisheye image.

なお、座標変換部200に正規化部210、出力座標回転行列演算部220を設けてパン、チルトおよびロールを行う構成としているが、パン、チルトおよびロールを行わないのであれば、出力座標回転行列演算部220を設けなくてもよい。   The coordinate conversion unit 200 is provided with a normalization unit 210 and an output coordinate rotation matrix calculation unit 220 to perform panning, tilting, and rolling. However, if panning, tilting, and rolling are not performed, an output coordinate rotation matrix is used. The calculation unit 220 may not be provided.

図3は、第1の実施の形態における魚眼画像および中心射影画像の一例を示す図である。同図におけるaは、第1の実施の形態における入力画像500の一例を示す図である。同図のaに例示するように、入力画像500は、例えば、二次元格子状に配列された複数の画素からなる矩形の画像である。この入力画像500は、円形のイメージサークル501を含む。このイメージサークル501は、魚眼レンズ110により集光された光を変換した領域であり、このサークル内の画素からなる画像が魚眼画像として扱われる。この魚眼画像(501)は、前述したように、中心射影でない射影により生成されているため、被写体の実際の形と、その被写体を撮像した像の形とが相似にならない。例えば、像の形は円形に歪む。   FIG. 3 is a diagram illustrating an example of a fish-eye image and a central projection image in the first embodiment. A in the same figure is a figure which shows an example of the input image 500 in 1st Embodiment. As illustrated in FIG. 5A, the input image 500 is, for example, a rectangular image composed of a plurality of pixels arranged in a two-dimensional lattice pattern. The input image 500 includes a circular image circle 501. The image circle 501 is an area obtained by converting the light collected by the fisheye lens 110, and an image composed of pixels in the circle is treated as a fisheye image. As described above, since the fish-eye image (501) is generated by projection other than the central projection, the actual shape of the subject does not resemble the shape of the image obtained by capturing the subject. For example, the shape of the image is distorted into a circle.

また、図3におけるbは、魚眼画像(501)から生成された中心射影画像600の一例を示す図である。同図におけるbに示すように、魚眼画像の歪みが補正され、像の形状が被写体の実際の形状と相似になる。   Further, b in FIG. 3 is a diagram illustrating an example of the central projection image 600 generated from the fisheye image (501). As shown in b in the figure, the distortion of the fisheye image is corrected, and the shape of the image is similar to the actual shape of the subject.

図4は、第1の実施の形態における魚眼画像歪補正テーブル240の一例を示す図である。この魚眼画像歪補正テーブル240には、魚眼画像内の読出座標のうち一部の特定座標が、中心射影画像内の出力座標に対応づけて格納されている。例えば、仮想球面をメッシュ状に分割した分割点を魚眼画像に投影した読出座標が格納される。読出座標に対応する出力座標は、例えば、特許文献1の第0018段落に記載の座標変換関数により、予め算出された座標である。なお、座標変換関数などにより理論的に求める代わりに、メッシュ交点がプロットされた半球状の被写体を実際に用意し、その被写体を撮像することによりレンズごとにキャリブレーションして求めてもよい。具体的には、例えば、その半球状の被写体を魚眼レンズおよび中心射影レンズのそれぞれにより撮像して、得られた魚眼画像および中心射影画像からメッシュ交点座標およびメッシュ対応座標の対応関係が求められる。   FIG. 4 is a diagram illustrating an example of the fisheye image distortion correction table 240 according to the first embodiment. In this fisheye image distortion correction table 240, some specific coordinates among the readout coordinates in the fisheye image are stored in association with the output coordinates in the central projection image. For example, read coordinates obtained by projecting a division point obtained by dividing a virtual spherical surface into a mesh shape onto a fisheye image are stored. The output coordinates corresponding to the read coordinates are, for example, coordinates calculated in advance by a coordinate conversion function described in paragraph 0018 of Patent Document 1. Instead of theoretically using a coordinate conversion function or the like, a hemispherical object on which mesh intersections are plotted may be actually prepared, and the object may be imaged and calibrated for each lens. Specifically, for example, the hemispherical object is imaged by each of the fisheye lens and the central projection lens, and the correspondence relationship between the mesh intersection coordinates and the mesh corresponding coordinates is obtained from the obtained fisheye image and the central projection image.

以下、メッシュ交点をz軸に平行に魚眼画像に投影した読出座標を「メッシュ交点座標」と称し、そのメッシュ交点座標に対応する中心射影画像内の出力座標を「メッシュ対応座標」と称する。このメッシュ対応座標は、例えば、極座標系により表され、一方、メッシュ交点座標は、例えば直交座標系により表される。なお、メッシュ交点座標は、特許請求の範囲に記載の特定座標の一例であり、メッシュ対応座標は、特許請求の範囲に記載の対応座標の一例である。   Hereinafter, the readout coordinates obtained by projecting the mesh intersection point onto the fisheye image in parallel with the z axis are referred to as “mesh intersection point coordinates”, and the output coordinates in the central projection image corresponding to the mesh intersection point coordinates are referred to as “mesh correspondence coordinates”. The mesh corresponding coordinates are represented by, for example, a polar coordinate system, while the mesh intersection coordinates are represented by, for example, an orthogonal coordinate system. Note that the mesh intersection coordinates are an example of specific coordinates described in the claims, and the mesh corresponding coordinates are an example of corresponding coordinates described in the claims.

メッシュ交点座標が(x、y)であり、その座標に対応する中心射影画像内のメッシュ対応座標が(Rx1、Rz1)である場合、そのメッシュ対応座標(Rx1、Rz1)に対応付けてメッシュ交点座標(x、y)が記憶される。 When the mesh intersection coordinates are (x 1 , y 1 ) and the mesh corresponding coordinates in the central projection image corresponding to the coordinates are (R x1 , R z1 ), the mesh corresponding coordinates (R x1 , R z1 ) The mesh intersection coordinates (x 1 , y 1 ) are stored in association with.

図5は、第1の実施の形態における読出座標出力部300の一構成例を示すブロック図である。この読出座標出力部300は、直交座標取得部320および座標補間部330を備える。   FIG. 5 is a block diagram illustrating a configuration example of the read coordinate output unit 300 according to the first embodiment. The read coordinate output unit 300 includes an orthogonal coordinate acquisition unit 320 and a coordinate interpolation unit 330.

直交座標取得部320は、出力座標に対応する読出座標を魚眼画像歪補正テーブル240から取得するものである。この直交座標取得部320は、透視射影変換部230から供給された出力座標に対応する読出座標が魚眼画像歪補正テーブル240に記憶されているか否か、言い換えれば、出力座標がメッシュ対応座標であるか否かを判断する。メッシュ対応座標である場合には直交座標取得部320は、そのメッシュ対応座標に対応するメッシュ交点座標(すなわち、読出座標)を魚眼画像歪補正テーブル240から取得して画像変換部160へ供給する。   The orthogonal coordinate acquisition unit 320 acquires readout coordinates corresponding to the output coordinates from the fisheye image distortion correction table 240. The orthogonal coordinate acquisition unit 320 determines whether or not read coordinates corresponding to the output coordinates supplied from the perspective projection conversion unit 230 are stored in the fisheye image distortion correction table 240, in other words, the output coordinates are mesh-corresponding coordinates. Judge whether there is. If the coordinates are mesh-corresponding coordinates, the orthogonal coordinate acquisition unit 320 acquires the mesh intersection coordinates (that is, read coordinates) corresponding to the mesh-corresponding coordinates from the fisheye image distortion correction table 240 and supplies them to the image conversion unit 160. .

一方、出力座標がメッシュ対応座標でない場合に直交座標取得部320は、供給された出力座標の周囲のメッシュ対応座標の中から、出力座標との間の距離の近いものを優先して4つのメッシュ対応座標を選択する。これらの4つのメッシュ対応座標をそれぞれ(Rxn、Rzn)、(Rxn+1、Rzn)、(Rxn、Rzn+1)および(Rxn+1、Rzn+1)とする。直交座標取得部320は、これらのメッシュ対応座標と、メッシュ対応座標に対応するメッシュ交点座標のそれぞれとを魚眼画像歪補正テーブル240から取得して座標補間部330に供給する。なお、直交座標取得部320は、特許請求の範囲に記載の座標取得部の一例である。 On the other hand, when the output coordinates are not mesh-corresponding coordinates, the orthogonal coordinate acquisition unit 320 preferentially selects four meshes that are close to the output coordinates from among the mesh-corresponding coordinates around the supplied output coordinates. Select the corresponding coordinates. These four mesh-corresponding coordinates are (R xn , R zn ), (R xn + 1 , R zn ), (R xn , R zn + 1 ) and (R xn + 1 , R zn + 1 ), respectively. The orthogonal coordinate acquisition unit 320 acquires the mesh corresponding coordinates and the mesh intersection coordinates corresponding to the mesh corresponding coordinates from the fisheye image distortion correction table 240 and supplies them to the coordinate interpolation unit 330. The orthogonal coordinate acquisition unit 320 is an example of a coordinate acquisition unit described in the claims.

座標補間部330は、直交座標取得部320により取得されたメッシュ交点座標に基づいて、供給された出力座標に対応する読出座標を補間するものである。この座標補間部330は、回転後線形補間部331、回転後補間係数演算部332、回転前線形補間部333、回転前補間係数演算部334、回転角度演算部335および読出座標回転行列演算部340を備える。なお、座標補間部330は、特許請求の範囲に記載の補間部の一例である。   The coordinate interpolation unit 330 interpolates read coordinates corresponding to the supplied output coordinates based on the mesh intersection coordinates acquired by the orthogonal coordinate acquisition unit 320. The coordinate interpolation unit 330 includes a post-rotation linear interpolation unit 331, a post-rotation interpolation coefficient calculation unit 332, a pre-rotation linear interpolation unit 333, a pre-rotation interpolation coefficient calculation unit 334, a rotation angle calculation unit 335, and a read coordinate rotation matrix calculation unit 340. Is provided. The coordinate interpolation unit 330 is an example of an interpolation unit described in the claims.

回転前補間係数演算部334は、回転前線形補間部333において用いられる補間係数aを演算して回転前線形補間部333に供給するものである。補間係数aは、例えば、次の式により算出される。
=R/(Rzn+1−Rzn) ・・・式11
The pre-rotation interpolation coefficient calculation unit 334 calculates the interpolation coefficient az used in the pre-rotation linear interpolation unit 333 and supplies it to the pre-rotation linear interpolation unit 333. The interpolation coefficient az is calculated by the following equation, for example.
az = Rz / ( Rzn + 1- Rzn ) ... Formula 11

回転前線形補間部333は、放射方向において隣り合う2つのメッシュ対応座標の間の座標を線形補間により線形補間座標として補間して読出座標回転行列演算部340に供給するものである。線形補間座標は、例えば、次の式により求められる。
'=f(Rxn、Rzn)・(1−a)+f(Rxn、Rzn+1)・a ・・・式12
'=f(Rxn、Rzn)・(1−a)+f(Rxn、Rzn+1)・a ・・・式13
'=f(Rxn+1、Rzn)・(1−a)+f(Rxn+1、Rzn+1)・a …式14
'=f(Rxn+1、Rzn)・(1−a)+f(Rxn+1、Rzn+1)・a …式15
The pre-rotation linear interpolation unit 333 interpolates coordinates between two mesh-corresponding coordinates adjacent in the radial direction as linear interpolation coordinates by linear interpolation and supplies them to the read coordinate rotation matrix calculation unit 340. The linear interpolation coordinates are obtained by the following equation, for example.
x a ′ = f x (R xn , R zn ) · (1−a z ) + f x (R xn , R zn + 1 ) · a z (12)
y a ′ = f y (R xn , R zn ) · (1−a z ) + f y (R xn , R zn + 1 ) · a z Equation 13
x b '= f x (R xn + 1, R zn) · (1-a z) + f x (R xn + 1, R zn + 1) · a z ... Equation 14
y b ′ = fy (R xn + 1 , R zn ) · (1−a z ) + fy (R xn + 1 , R zn + 1 ) · a z Equation 15

式12乃至式15においてf(R、R)は、メッシュ対応座標(R、R)に対応するメッシュ交点座標(x、y)のうちx座標を返す関数である。また、f(R、R)は、メッシュ対応座標(R、R)に対応するメッシュ交点座標(x、y)のうちy座標を返す関数である。式12乃至式15により、2つのメッシュ交点座標を結ぶ線分上の座標が線形補間座標として求められる。また、式12乃至式15において(x'、y')および(x'、y')は、線形補間座標である。 In Expressions 12 to 15, f x (R x , R z ) is a function that returns the x coordinate of the mesh intersection coordinates (x, y) corresponding to the mesh corresponding coordinates (R x , R z ). F y (R x , R z ) is a function that returns the y coordinate of the mesh intersection coordinates (x, y) corresponding to the mesh corresponding coordinates (R x , R z ). From the equations 12 to 15, the coordinates on the line segment connecting the two mesh intersection coordinates are obtained as linear interpolation coordinates. In Expressions 12 to 15, (x a ′, y a ′) and (x b ′, y b ′) are linear interpolation coordinates.

回転角度演算部335は、線形補間座標を回転させる回転角度RxaおよびRxbを演算するものである。回転角度RxaおよびRxbは、例えば、次の式により求められる。
xa=R−Rxn ・・・式16
xb=R−Rxn+1 ・・・式17
The rotation angle calculation unit 335 calculates rotation angles R xa and R xb that rotate the linear interpolation coordinates. The rotation angles R xa and R xb are obtained by the following equations, for example.
R xa = R x −R xn Equation 16
R xb = R x −R xn + 1 Equation 17

回転角度演算部335は、例えば、回転角度Rxaの正弦および余弦を読出座標回転行列演算部340に供給し、次いで回転角度Rxbの正弦および余弦を読出座標回転行列演算部340に供給する。 The rotation angle calculation unit 335 supplies, for example, the sine and cosine of the rotation angle R xa to the read coordinate rotation matrix calculation unit 340, and then supplies the sine and cosine of the rotation angle R xb to the read coordinate rotation matrix calculation unit 340.

読出座標回転行列演算部340は、線形補間座標(x'、y')および(x'、y')のそれぞれを回転行列演算により回転させ、回転させた座標を回転補間座標として線形補間部331に順に供給するものである。例えば、次の式により、回転後の座標が求められる。

Figure 0006310320
Figure 0006310320
The read coordinate rotation matrix calculation unit 340 rotates each of the linear interpolation coordinates (x a ′, y a ′) and (x b ′, y b ′) by rotation matrix calculation, and uses the rotated coordinates as rotation interpolation coordinates. The signals are sequentially supplied to the linear interpolation unit 331. For example, the coordinates after rotation are obtained by the following expression.
Figure 0006310320
Figure 0006310320

式18において(xrot_a'、yrot_a')は、線形補間座標(x'、y')を回転させた回転補間座標である。また、式19において(xrot_b'、yrot_b')は、線形補間座標(x'、y')を回転させた回転補間座標である。 In formula 18 (x rot_a ', y rot_a ') is linear interpolation coordinate (x a ', y a' ) a rotation interpolation coordinates rotate. In Expression 19, (x rot_b ′, y rot_b ′) are rotation interpolation coordinates obtained by rotating the linear interpolation coordinates (x b ′, y b ′).

回転後補間係数演算部332は、回転後線形補間部331において用いられる補間係数aを演算して回転前線形補間部333に供給するものである。補間係数aは、例えば、次の式により算出される。
=R/(Rxn+1−Rxn) ・・・式20
Rotation after interpolation coefficient calculation unit 332, and supplies to the rotating front linear interpolation unit 333 calculates the interpolation coefficients a x used in the post-rotation linear interpolation unit 331. Interpolation coefficients a x, for example, is calculated by the following equation.
a x = R x / (R xn + 1 −R xn ) Equation 20

回転後線形補間部331は、2つの回転補間座標の間の座標を線形補間により最終的な補間座標として補間して画像変換部160に供給するものである。補間座標は、例えば、次の式により求められる。
x'=xrot_a'・(1−a)+xrot_b'・a ・・・式21
y'=yrot_a'・(1−a)+yrot_b'・a ・・・式22
The post-rotation linear interpolation unit 331 interpolates coordinates between two rotation interpolation coordinates as final interpolation coordinates by linear interpolation, and supplies the interpolated coordinates to the image conversion unit 160. The interpolation coordinates are obtained by the following formula, for example.
x ′ = x rot — a ′ · (1−a x ) + x rot — b ′ · a x Expression 21
y ′ = y rot — a ′ · (1−a x ) + y rot — b ′ · a x.

なお、座標補間部330は、線形補間と、座標の回転による補間とを行っているが、線形補間のみを行ってもよい。ただし、魚眼画像においては、像が円形に歪んで写っているため、円周方向において補間する際には、式18や式19などを用いて回転による補間を行うことが望ましい。   The coordinate interpolation unit 330 performs linear interpolation and interpolation based on coordinate rotation, but may perform only linear interpolation. However, in a fish-eye image, since the image is distorted in a circular shape, when performing interpolation in the circumferential direction, it is desirable to perform interpolation by rotation using Equation 18 or Equation 19.

また、座標補間部330は、放射方向において、線形補間を行っているが、放射方向において隣接する2つの座標の間を適切に補間することができるのであれば、線形補間以外の補間(スプライン補間など)を行ってもよい。   Also, the coordinate interpolation unit 330 performs linear interpolation in the radial direction, but if interpolation between two adjacent coordinates in the radial direction can be appropriately interpolated, interpolation other than linear interpolation (spline interpolation) Etc.).

[読出座標回転行列演算部の構成例]
図6は、第1の実施の形態における読出座標回転行列演算部340の一構成例を示すブロック図である。この読出座標回転行列演算部340は、乗算器341、342、343および344と、減算器345と、加算器346とを備える。
[Configuration example of readout coordinate rotation matrix calculation unit]
FIG. 6 is a block diagram illustrating a configuration example of the read coordinate rotation matrix calculation unit 340 according to the first embodiment. The read coordinate rotation matrix calculation unit 340 includes multipliers 341, 342, 343, and 344, a subtracter 345, and an adder 346.

乗算器341は、座標x'またはx'と角度RxaおよびRxbの正弦とを乗算して乗算結果を減算器345に供給するものである。乗算器342は、座標y'またはy'と角度RxaまたはRxbの余弦とを乗算して乗算結果を減算器345に供給するものである。減算器345は、乗算器341の乗算結果から乗算器342の乗算結果を減算して、座標xrot_a'またはxrot_b'として回転後線形補間部331に供給するものである。 The multiplier 341 multiplies the coordinate x a ′ or x b ′ by the sine of the angles R xa and R xb and supplies the multiplication result to the subtractor 345. The multiplier 342 multiplies the coordinate y a ′ or y b ′ by the cosine of the angle R xa or R xb and supplies the multiplication result to the subtractor 345. The subtracter 345 subtracts the multiplication result of the multiplier 342 from the multiplication result of the multiplier 341 and supplies the result to the post-rotation linear interpolation unit 331 as coordinates x rot_a ′ or x rot_b ′.

乗算器343は、座標x'またはx'と角度RxaおよびRxbの余弦とを乗算して乗算結果を加算器346に供給するものである。乗算器344は、座標y'またはy'と角度RxaまたはRxbの正弦とを乗算して乗算結果を加算器346に供給するものである。加算器346は、乗算器343の乗算結果と乗算器344の乗算結果とを加算して座標yrot_a'またはyrot_b'として回転後線形補間部331に供給するものである。 The multiplier 343 multiplies the coordinate x a ′ or x b ′ by the cosine of the angles R xa and R xb and supplies the multiplication result to the adder 346. The multiplier 344 multiplies the coordinate y a ′ or y b ′ by the sine of the angle R xa or R xb and supplies the multiplication result to the adder 346. The adder 346 adds the multiplication result of the multiplier 343 and the multiplication result of the multiplier 344 and supplies the result to the linear interpolation unit 331 after rotation as coordinates y rot_a ′ or y rot_b ′.

図7は、第1の実施の形態におけるメッシュ交点の配置例を示す図である。矩形の入力画像500は、円形のイメージサークル501(すなわち、魚眼画像)を含む。その魚眼画像の中心を原点とする仮想球面502が、メッシュ状に分割される。分割においては、例えば、仮想球面502の緯度および経度が等間隔で分割される。分割した分割点(メッシュ交点)503や504を、z軸に平行に魚眼画像に投影した点の座標が、メッシュ交点座標505や506として、魚眼画像歪補正テーブル240に保持される。   FIG. 7 is a diagram illustrating an arrangement example of mesh intersections according to the first embodiment. The rectangular input image 500 includes a circular image circle 501 (that is, a fisheye image). A virtual spherical surface 502 whose origin is the center of the fisheye image is divided into meshes. In the division, for example, the latitude and longitude of the virtual spherical surface 502 are divided at equal intervals. The coordinates of the points obtained by projecting the divided division points (mesh intersections) 503 and 504 onto the fisheye image parallel to the z axis are held in the fisheye image distortion correction table 240 as mesh intersection coordinates 505 and 506.

図7では、理想的な射影により像が円形に歪む魚眼画像を前提としてメッシュ交点座標がプロットされている。この理想的な状態においては、同心円状の複数の真円のそれぞれを所定数に等分割した点の座標がメッシュ交点座標として保持される。しかし、実際の魚眼レンズ110は、製品ばらつきなどにより理想的な射影方式となっていない場合が多く、また、光軸に対する光線の入射角だけでなく、光軸を中心とした回転角についても理論値からずれる場合がある。これらの要因により、例えば、像が円状でなく、楕円状に歪むことがある。この場合には、メッシュ交点座標は、中心が同一の複数の楕円のそれぞれを分割した点の座標がメッシュ交点座標として保持される。像の一部が楕円形に歪む場合は、その部分において楕円上にメッシュ交点座標が設けられる。このように、面積の異なる複数の閉曲線(円や楕円など)を等分割した分割点の座標がメッシュ交点座標として保持される。   In FIG. 7, the mesh intersection coordinates are plotted on the premise of a fish-eye image in which the image is distorted into a circle by ideal projection. In this ideal state, the coordinates of a point obtained by equally dividing each of a plurality of concentric circles into a predetermined number are held as mesh intersection coordinates. However, the actual fisheye lens 110 is often not an ideal projection method due to product variations and the like, and not only the incident angle of the light beam with respect to the optical axis but also the theoretical value of the rotation angle around the optical axis. It may be out of place. Due to these factors, for example, the image may be distorted in an elliptical shape instead of a circular shape. In this case, as the mesh intersection coordinates, coordinates of points obtained by dividing each of a plurality of ellipses having the same center are held as mesh intersection coordinates. When a part of the image is distorted into an ellipse, mesh intersection coordinates are provided on the ellipse at that part. In this way, the coordinates of the dividing points obtained by equally dividing a plurality of closed curves (circles, ellipses, etc.) having different areas are held as mesh intersection coordinates.

このように、魚眼画像の一部の座標(例えば、メッシュ交点座標)のみを魚眼画像歪補正テーブル240に記憶させているため、魚眼画像内の全ての座標を記憶させる構成と比較して、テーブルサイズを小さくすることができる。したがって、魚眼画像歪補正テーブル240を保持する記憶部(メモリなど)の容量を小さくすることができる。   In this way, since only a part of the coordinates (for example, mesh intersection coordinates) of the fisheye image is stored in the fisheye image distortion correction table 240, it is compared with a configuration in which all the coordinates in the fisheye image are stored. The table size can be reduced. Therefore, the capacity of the storage unit (memory or the like) that holds the fisheye image distortion correction table 240 can be reduced.

図8は、第1の実施の形態における出力画像平面510の一例を示す図である。例えば、矩形の出力画像平面510が、イメージサークル501(魚眼画像)において設定される。出力画像平面510は、初期状態において、例えば、その中心が魚眼画像の中心と一致する位置に配置される。また、出力画像平面510は、初期状態において、その中心が仮想球面502と接する位置に配置される。   FIG. 8 is a diagram illustrating an example of the output image plane 510 according to the first embodiment. For example, a rectangular output image plane 510 is set in the image circle 501 (fisheye image). In the initial state, the output image plane 510 is arranged, for example, at a position where the center coincides with the center of the fisheye image. In addition, the output image plane 510 is arranged at a position where the center thereof is in contact with the virtual spherical surface 502 in the initial state.

図9は、第1の実施の形態における回転させた出力画像平面510の一例を示す図である。例えば、パン角、チルト角およびロール角により、出力画像平面510は、x軸、y軸およびz軸周りに回転される。   FIG. 9 is a diagram illustrating an example of the rotated output image plane 510 according to the first embodiment. For example, the output image plane 510 is rotated about the x, y, and z axes due to the pan angle, tilt angle, and roll angle.

図10は、第1の実施の形態における出力画像平面510を仮想球面502に透視射影(すなわち、中心射影)した領域511の一例を示す図である。この領域511上の直交座標(xsph、ysph、zsph)は、上述の式6乃至式8により算出される。この直交座標は、式9および式10により極座標(R、R)に変換され、この極座標が魚眼画像上の読出座標に変換される。 FIG. 10 is a diagram illustrating an example of a region 511 obtained by perspectively projecting the output image plane 510 to the virtual spherical surface 502 (that is, center projection) in the first embodiment. The Cartesian coordinates (x sph , y sph , z sph ) on this region 511 are calculated by the above formulas 6 to 8. The orthogonal coordinates are converted into polar coordinates (R x , R z ) by Expressions 9 and 10, and the polar coordinates are converted into readout coordinates on the fisheye image.

図11は、第1の実施の形態における読出座標および出力座標を示す図である。同図におけるaは、理想的な射影が行われた魚眼画像における読出座標の一例を示す図である。同図のaにおける黒丸の画素601、603、607および609は、メッシュ交点座標の画素を示す。また、白丸の画素602、604、605、606および608は、補間座標の画素を示す。   FIG. 11 is a diagram showing read coordinates and output coordinates in the first embodiment. A in the same figure is a figure which shows an example of the read-out coordinate in the fish-eye image in which ideal projection was performed. Black circle pixels 601, 603, 607, and 609 in a in FIG. 6 indicate pixels at mesh intersection coordinates. Also, white circle pixels 602, 604, 605, 606, and 608 indicate interpolation coordinate pixels.

円周方向において隣接するメッシュ交点座標の間の座標は、それらのメッシュ交点座標の少なくとも一方の回転により補間される。   Coordinates between mesh intersection coordinates adjacent in the circumferential direction are interpolated by rotation of at least one of the mesh intersection coordinates.

例えば、座標変換部200が、円周方向において隣接する画素601および603の間の座標を補間する場合、まず、画素601のメッシュ交点座標を(Rxn、Rzn)および(Rxn、Rzn+1)の両方に設定する。また、座標変換部200は、画素603のメッシュ交点座標を(Rxn+1、Rzn)および(Rxn+1、Rzn+1)の両方に設定する。このように設定すれば、回転前において、実質的に線形補間が行われない。 For example, when the coordinate conversion unit 200 interpolates coordinates between adjacent pixels 601 and 603 in the circumferential direction, first, the mesh intersection coordinates of the pixel 601 are set to (R xn , R zn ) and (R xn , R zn + 1). ) Set both. Also, the coordinate conversion unit 200 sets the mesh intersection coordinates of the pixel 603 to both (R xn + 1 , R zn ) and (R xn + 1 , R zn + 1 ). With this setting, substantially no linear interpolation is performed before rotation.

そして、座標変換部200は、画素601の座標を回転角度Rxaだけ回転させて回転補間座標(xrot_a'、yrot_a')を求め、画素603の座標を回転角度Rxbだけ回転させて回転補間座標(xrot_b'、yrot_b')を求める。理想的な魚眼画像では、これらの回転補間座標は、同じ座標となる。このため、回転後において、実質的に線形補間が行われない。なお、座標変換部200は、画素601および603の両方の座標を回転させているが、一方の座標のみを回転させて補間を行ってもよい。 The coordinate conversion unit 200 rotates the coordinates of the pixel 601 by the rotation angle R xa to obtain rotation interpolation coordinates (x rot_a ′, y rot_a ′), and rotates the coordinates of the pixel 603 by the rotation angle R xb. Interpolated coordinates (x rot_b ', y rot_b ') are obtained. In an ideal fisheye image, these rotational interpolation coordinates are the same coordinates. For this reason, substantially no linear interpolation is performed after rotation. The coordinate conversion unit 200 rotates both the coordinates of the pixels 601 and 603, but may perform interpolation by rotating only one of the coordinates.

また、放射方向において隣接する2つのメッシュ交点座標の間の座標は、線形補間により求められる。例えば、座標変換部200が、放射方向において隣接する画素601および607の間の座標を補間する場合、回転による補間を行わずに、画素604の座標を線形補間により補間する。例えば、画素604の周囲の4つのメッシュ交点座標が設定され、回転による補間座標の混合率が0%に設定される。   In addition, the coordinates between two mesh intersection coordinates adjacent in the radial direction are obtained by linear interpolation. For example, when the coordinate conversion unit 200 interpolates the coordinates between the adjacent pixels 601 and 607 in the radial direction, the coordinates of the pixel 604 are interpolated by linear interpolation without performing interpolation by rotation. For example, four mesh intersection coordinates around the pixel 604 are set, and the mixing ratio of interpolation coordinates by rotation is set to 0%.

また、4つのメッシュ交点座標で囲まれる領域の内部の座標を補間する際には、線形補間と回転による補間とが行われる。例えば、4つの画素601、603、607および609の内部の画素605の座標を補間する場合を考える。この場合、画素601、603、607および609のメッシュ交点座標が(Rxn、Rzn)、(Rxn+1、Rzn)、(Rxn、Rzn+1)および(Rxn+1、Rzn+1)に設定される。このように設定すれば、画素604および606の座標が線形補間により補間され、それらの座標の回転により、画素605の補間座標が取得される。 Further, when interpolating the coordinates inside the region surrounded by the four mesh intersection coordinates, linear interpolation and interpolation by rotation are performed. For example, consider a case where the coordinates of the pixel 605 inside the four pixels 601, 603, 607 and 609 are interpolated. In this case, the mesh intersection coordinates of the pixels 601, 603, 607, and 609 are set to (R xn , R zn ), (R xn + 1 , R zn ), (R xn , R zn + 1 ) and (R xn + 1 , R zn + 1 ). The With this setting, the coordinates of the pixels 604 and 606 are interpolated by linear interpolation, and the interpolation coordinates of the pixel 605 are obtained by rotating these coordinates.

図11におけるbは、第1の実施の形態における出力座標を示す図である。同図のbにおいて、黒丸の画素701、703、707および709は、メッシュ対応座標の画素を示す。また、白丸の画素702、704、705、706および708は、補間座標に対応する座標の画素を示す。画像変換部160が、同図におけるaのそれぞれの画素の画素値を、その読出座標に対応する出力座標の画素値として出力すると、歪みが補正された中心射影画像が生成される。   B in FIG. 11 is a diagram illustrating output coordinates in the first embodiment. In FIG. 5b, black circle pixels 701, 703, 707, and 709 indicate mesh coordinate coordinates. Also, white circle pixels 702, 704, 705, 706, and 708 indicate pixels having coordinates corresponding to the interpolation coordinates. When the image conversion unit 160 outputs the pixel value of each pixel a in the figure as the pixel value of the output coordinate corresponding to the readout coordinate, a central projection image with corrected distortion is generated.

図12は、第1の実施の形態におけるメッシュ交点座標および補間座標を示す図である。同図では、魚眼画像が理想的なものでなく、像の少なくとも一部が楕円に歪んでしまう場合を想定している。この場合、座標変換部200は、放射方向に沿って線形補間を行い、円周方向に沿って回転させる補間を行い、さらに線形補間を行って最終的な補間座標を求める。例えば、画素605の座標を補間する場合、その画素605の周囲の4つの画素601、603、607および609のメッシュ交点座標が(Rxn、Rzn)、(Rxn+1、Rzn)、(Rxn、Rzn+1)および(Rxn+1、Rzn+1)に設定される。このように設定すれば、画素604および606の座標が線形補間により補間され、それらの線形補間座標を回転させる補間により、画素608および609の座標が補間される。像が楕円に歪む場合は、これらの画素608および609の座標が異なる座標となる。そこで、座標変換部200は、それらの画素608および609の座標から線形補間により、画素605の座標を補間する。実際上の魚眼画像は、理想的な状態とは限らないため、回転後に線形補間を行うことが望ましいが、図11に例示したように、理想的な魚眼画像が想定される場合や精度の低下が許容される場合には、座標変換部200は、回転後の線形補間を行わない構成としてもよい。 FIG. 12 is a diagram illustrating mesh intersection coordinates and interpolation coordinates according to the first embodiment. In the figure, it is assumed that the fish-eye image is not ideal and at least a part of the image is distorted into an ellipse. In this case, the coordinate conversion unit 200 performs linear interpolation along the radial direction, performs interpolation that rotates along the circumferential direction, and further performs linear interpolation to obtain final interpolation coordinates. For example, when the coordinates of the pixel 605 are interpolated, the mesh intersection coordinates of four pixels 601, 603, 607 and 609 around the pixel 605 are (R xn , R zn ), (R xn + 1 , R zn ), (R xn , R zn + 1 ) and (R xn + 1 , R zn + 1 ). With this setting, the coordinates of the pixels 604 and 606 are interpolated by linear interpolation, and the coordinates of the pixels 608 and 609 are interpolated by interpolation that rotates these linear interpolation coordinates. When the image is distorted into an ellipse, the coordinates of these pixels 608 and 609 are different. Therefore, the coordinate conversion unit 200 interpolates the coordinates of the pixel 605 from the coordinates of the pixels 608 and 609 by linear interpolation. Since an actual fisheye image is not necessarily in an ideal state, it is desirable to perform linear interpolation after rotation. However, as illustrated in FIG. In the case where the decrease in the value is allowed, the coordinate conversion unit 200 may be configured not to perform the linear interpolation after the rotation.

図13は、第1の実施の形態における魚眼画像および中心射影画像の一例を示す図である。同図におけるaは、魚眼画像を含む入力画像500の一例である。同図のaにおいて、太い実線で囲った領域は出力画像平面を示す。   FIG. 13 is a diagram illustrating an example of a fisheye image and a central projection image according to the first embodiment. A in the same figure is an example of the input image 500 containing a fish-eye image. In FIG. 9A, an area surrounded by a thick solid line indicates an output image plane.

図13におけるbは、線形補間のみを行う比較例における中心射影画像の一例を示す図である。同図におけるbに示すように、仮に回転による補間を行わず、線形補間のみを行った場合、特に円周方向において歪みが十分に補間されなくなり、歪残りが生じてしまう。   B in FIG. 13 is a diagram illustrating an example of a central projection image in a comparative example in which only linear interpolation is performed. As indicated by b in the figure, if only linear interpolation is performed without interpolation by rotation, distortion is not sufficiently interpolated, particularly in the circumferential direction, and distortion remains.

図13におけるcは、線形補間に加えて回転による補間を行った第1の実施の形態における中心射影画像の一例を示す図である。同図におけるcに示すように、回転による補間を行った場合には、円周方向において歪みが適切に補間され、自然な中心射影画像が得られる。   FIG. 13C is a diagram illustrating an example of a central projection image in the first embodiment in which interpolation by rotation is performed in addition to linear interpolation. As indicated by c in the figure, when interpolation by rotation is performed, distortion is appropriately interpolated in the circumferential direction, and a natural central projection image is obtained.

図14は、第1の実施の形態における撮像装置100の動作の一例を示すフローチャートである。この動作は、画像が撮像されるたびに実行される。   FIG. 14 is a flowchart illustrating an example of the operation of the imaging apparatus 100 according to the first embodiment. This operation is executed every time an image is captured.

撮像装置100は、魚眼画像を含む入力画像に対して所定の信号処理を行う(ステップS901)。そして、撮像装置100は、魚眼画像を中心射影画像に変換する画像変換処理を行う(ステップS910)。撮像装置100は、中心射影画像において画素を補間し(ステップS902)、所定の信号処理を行う(ステップS903)。ステップS903の後、撮像装置100は、動作を終了する。   The imaging apparatus 100 performs predetermined signal processing on the input image including the fisheye image (step S901). Then, the imaging apparatus 100 performs image conversion processing that converts the fisheye image into a central projection image (step S910). The imaging apparatus 100 interpolates pixels in the central projection image (step S902) and performs predetermined signal processing (step S903). After step S903, the imaging apparatus 100 ends the operation.

図15は、第1の実施の形態における画像変換処理の一例を示すフローチャートである。撮像装置100は、出力座標を取得し(ステップS911)、その座標を正規化する(ステップS912)。そして、撮像装置100は、正規化した出力座標に対して回転行列演算を行い(ステップS913)、透視射影(中心射影)変換を行う(ステップS914)。   FIG. 15 is a flowchart illustrating an example of image conversion processing according to the first embodiment. The imaging apparatus 100 acquires the output coordinates (step S911) and normalizes the coordinates (step S912). Then, the imaging apparatus 100 performs a rotation matrix calculation on the normalized output coordinates (step S913), and performs perspective projection (center projection) conversion (step S914).

撮像装置100は、透視射影変換した出力座標に対応する読出座標が魚眼画像歪補正テーブル240にあるか否かを判断する(ステップS915)。読出座標がある場合に(ステップS915:Yes)、撮像装置100は、魚眼画像歪補正テーブル240から出力座標に対応する読出座標を取得する(ステップS916)。一方、読出座標がない場合に(ステップS915:No)、撮像装置100は、補間座標を補間する座標補間処理を行う(ステップS920)。   The imaging apparatus 100 determines whether or not the readout coordinates corresponding to the output coordinates subjected to the perspective projection conversion are in the fisheye image distortion correction table 240 (step S915). When there is a read coordinate (step S915: Yes), the imaging apparatus 100 acquires a read coordinate corresponding to the output coordinate from the fisheye image distortion correction table 240 (step S916). On the other hand, when there is no readout coordinate (step S915: No), the imaging apparatus 100 performs a coordinate interpolation process for interpolating the interpolation coordinate (step S920).

ステップS920またはS916の後、撮像装置100は、魚眼画像内の読出座標の画素の画素値を読み出して、対応する出力座標の画素値として出力する(ステップS917)。そして、撮像装置100は、全ての出力座標の変換が終了したか否かを判断する(ステップS918)。変換が終了していない場合に(ステップS918:No)、撮像装置100は、ステップS911に戻る。一方、変換が終了した場合に(ステップS918:Yes)、撮像装置100は、画像変換処理を終了する。   After step S920 or S916, the imaging apparatus 100 reads the pixel value of the pixel of the read coordinate in the fisheye image and outputs it as the pixel value of the corresponding output coordinate (step S917). Then, the imaging apparatus 100 determines whether or not conversion of all output coordinates has been completed (step S918). If the conversion has not ended (step S918: No), the imaging apparatus 100 returns to step S911. On the other hand, when the conversion ends (step S918: Yes), the imaging apparatus 100 ends the image conversion process.

図16は、第1の実施の形態における座標補間処理の一例を示すフローチャートである。撮像装置100は、出力座標の周囲の4つのメッシュ対応座標に対応するメッシュ交点座標(すなわち、読出座標)を魚眼画像歪補正テーブル240から取得する(ステップS921)。   FIG. 16 is a flowchart illustrating an example of the coordinate interpolation process in the first embodiment. The imaging apparatus 100 acquires mesh intersection coordinates (that is, read coordinates) corresponding to the four mesh-corresponding coordinates around the output coordinates from the fisheye image distortion correction table 240 (step S921).

撮像装置100は、必要に応じて放射方向に線形補間を行い、2つの線形補間座標を取得する(ステップS922)。また、撮像装置100は、必要に応じて、それらの線形補間座標を回転して2つの回転補間座標を取得する(ステップS923)。そして、撮像装置100は、必要に応じて、線形補間を行い、2つの回転補間座標から読出座標を取得する(ステップS924)。ステップS924の後、撮像装置100は、座標補間処理を終了する。   The imaging apparatus 100 performs linear interpolation in the radial direction as necessary, and acquires two linear interpolation coordinates (step S922). In addition, the imaging apparatus 100 rotates the linear interpolation coordinates as necessary to obtain two rotation interpolation coordinates (step S923). Then, the imaging apparatus 100 performs linear interpolation as necessary, and acquires readout coordinates from the two rotational interpolation coordinates (step S924). After step S924, the imaging apparatus 100 ends the coordinate interpolation process.

このように、本技術の第1の実施の形態によれば、一部の特定座標および対応座標を対応付けて記憶部に記憶し、その記憶部から取得した座標に基づいて補間座標を補間するため、記憶部の容量および計算量を削減することができる。   As described above, according to the first embodiment of the present technology, some specific coordinates and corresponding coordinates are stored in the storage unit in association with each other, and interpolation coordinates are interpolated based on the coordinates acquired from the storage unit. Therefore, the capacity and calculation amount of the storage unit can be reduced.

<2.第2の実施の形態>
第1の実施の形態では、透視射影変換により魚眼画像を中心射影画像に変換していたが、透視射影変換の代わりに円筒投影変換を行ってもよい。円筒投影変換を行うと、透視射影変換の場合よりも視野の広いパノラマ画像に魚眼画像を変換することができる。第2の実施の形態の撮像装置100は、透視射影変換の代わりに円筒投影変換を行う点において第1の実施の形態と異なる。
<2. Second Embodiment>
In the first embodiment, the fisheye image is converted into the central projection image by the perspective projection conversion. However, the cylindrical projection conversion may be performed instead of the perspective projection conversion. When cylindrical projection conversion is performed, it is possible to convert a fisheye image into a panoramic image having a wider field of view than in the case of perspective projection conversion. The imaging apparatus 100 according to the second embodiment is different from the first embodiment in that cylindrical projection conversion is performed instead of perspective projection conversion.

図17は、第2の実施の形態における座標変換部200の一例を示すブロック図である。第2の実施の形態の座標変換部200は、座標正規化部210、出力座標回転行列演算部220、および、透視射影変換部230の代わりに座標正規化部211およびパノラマ座標変換部250を備える点において第1の実施の形態と異なる。   FIG. 17 is a block diagram illustrating an example of the coordinate conversion unit 200 according to the second embodiment. The coordinate conversion unit 200 according to the second embodiment includes a coordinate normalization unit 210, an output coordinate rotation matrix calculation unit 220, and a coordinate normalization unit 211 and a panoramic coordinate conversion unit 250 instead of the perspective projection conversion unit 230. This is different from the first embodiment.

座標正規化部211は、魚眼画像内の投影範囲の視野角および出力画像サイズに基づいて座標を正規化するものである。この視野角は、dg_offsetおよびdg_aplの組合せにより設定される。dg_offsetは、固定の角度であり、x−y平面において基準の軸(例えば、x軸)に対するマイナスの角度が設定される。dg_aplは、アプリケーションなどにより変更することができる可変の角度であり、x−y平面において基準の軸に対するプラスの角度が設定される。円筒投影変換としてメルカトル投影変換を行う場合、座標正規化部211は、例えば、次の式を使用して正規化を行う。

Figure 0006310320
Figure 0006310320
Figure 0006310320
The coordinate normalization unit 211 normalizes the coordinates based on the viewing angle of the projection range in the fisheye image and the output image size. This viewing angle is set by a combination of dg_offset and dg_apl. dg_offset is a fixed angle, and a negative angle with respect to a reference axis (for example, the x axis) is set in the xy plane. dg_apl is a variable angle that can be changed by an application or the like, and a positive angle with respect to the reference axis is set in the xy plane. When performing Mercator projection conversion as cylindrical projection conversion, the coordinate normalization part 211 performs normalization, for example using the following formula | equation.
Figure 0006310320
Figure 0006310320
Figure 0006310320

式23および式24においてxpanoおよびypanoは、正規化したx座標およびy座標である。式25において、rad()は、「度」の単位で表された値を「ラジアン」表記の値に変換して返す関数である。また、tan-1()は、正接関数の逆関数である。ln Aは、Aの自然対数である。 In Expression 23 and Expression 24, x pano and y pano are the normalized x coordinate and y coordinate. In Equation 25, rad () is a function that returns a value expressed in units of “degrees” and returns a value expressed in “radians”. Further, tan −1 () is an inverse function of the tangent function. ln A is the natural logarithm of A.

式24および式25により、z軸に対する角度が一定の許容角度(例えば、85度)を超える天頂付近を除いた範囲がパノラマ展開される。これは、天頂付近をパノラマ展開すると、天頂に近いほど拡大率が大きくなり、視認性が低下するためである。   According to Expression 24 and Expression 25, the range excluding the vicinity of the zenith where the angle with respect to the z axis exceeds a certain allowable angle (for example, 85 degrees) is panorama developed. This is because when the panorama is developed near the zenith, the closer to the zenith, the larger the enlargement ratio and the lower the visibility.

座標正規化部211は、正規化した出力座標(xpano、ypano)をパノラマ座標変換部250に供給する。 The coordinate normalization unit 211 supplies the normalized output coordinates (x pano , y pano ) to the panorama coordinate conversion unit 250.

パノラマ座標変換部250は、出力座標(xpano、ypano)を極座標に変換するものである。パノラマ座標変換部250は、例えば、次の式を使用して極座標を求める。
=xpano ・・・式26

Figure 0006310320
上式においてgdは、グーデルマン関数である。 The panorama coordinate conversion unit 250 converts output coordinates (x pano , y pano ) into polar coordinates. The panorama coordinate conversion unit 250 obtains polar coordinates using, for example, the following expression.
R x = x pano ... Formula 26
Figure 0006310320
In the above equation, gd is a Gudelman function.

式23乃至式27により、出力座標は、正規化されるとともに円筒投影変換される。パノラマ座標変換部250は、変換された極座標(R、R)を読出座標出力部300に供給する。 The output coordinates are normalized and converted into a cylindrical projection by Expressions 23 to 27. The panorama coordinate conversion unit 250 supplies the converted polar coordinates (R x , R y ) to the read coordinate output unit 300.

なお、座標正規化部211およびパノラマ座標変換部250は、特許請求の範囲における円筒投影変換部の一例である。   The coordinate normalization unit 211 and the panorama coordinate conversion unit 250 are an example of a cylindrical projection conversion unit in the claims.

なお、パノラマ座標変換部250は、極座標を算出しているが、直交座標(xpano、ypano)ごとに、予め算出しておいた極座標を保持する極座標テーブルをさらに設け、そのテーブルから極座標を読み出す構成であってもよい。また、正規化部211およびパノラマ座標変換部250は、メルカトル投影変換を行っているが、正距円筒投影変換など、メルカトル投影変換以外の円筒投影変換を行ってもよい。メルカトル投影変換以外の変換を行う際にパノラマ座標変換部250は、予め極座標テーブルに保持しておいた極座標を使用して、その変換を行ってもよい。 The panorama coordinate conversion unit 250 calculates polar coordinates, but for each orthogonal coordinate (x pano , y pano ), further provides a polar coordinate table that holds the polar coordinates calculated in advance, and obtains polar coordinates from the table. It may be configured to read. Further, the normalization unit 211 and the panorama coordinate conversion unit 250 perform Mercator projection conversion, but may perform cylindrical projection conversion other than Mercator projection conversion such as equirectangular projection conversion. When performing a conversion other than the Mercator projection conversion, the panorama coordinate conversion unit 250 may perform the conversion using polar coordinates stored in advance in the polar coordinate table.

図18は、第2の実施の形態における投影範囲および投影面の一例を示す図である。同図に示す投影範囲512は、魚眼画像において、円筒投影変換の対象とされる範囲である。dg_offsetにdg_aplを加えた角度の扇型の範囲が投影範囲512として設定される。また、投影面513は、投影範囲512が円筒投影される面であり、同図においては、矩形の平面の一辺を魚眼画像の外周に沿って湾曲させた形で記載されている。この投影面513に投影された画像を平面上に展開したものが中心射影画像として生成される。   FIG. 18 is a diagram illustrating an example of a projection range and a projection surface according to the second embodiment. A projection range 512 shown in the figure is a range to be subjected to cylindrical projection conversion in the fisheye image. A fan-shaped range having an angle obtained by adding dg_apl to dg_offset is set as the projection range 512. The projection plane 513 is a plane on which the projection range 512 is cylindrically projected. In the figure, one side of a rectangular plane is curved along the outer periphery of the fisheye image. An image projected on the projection plane 513 on the plane is generated as a central projection image.

図19は、第2の実施の形態における画像変換処理の一例を示すフローチャートである。第2の実施の形態の画像変換処理は、ステップS913およびS914の代わりにステップS919を実行する点において、第1の実施の形態と異なる。   FIG. 19 is a flowchart illustrating an example of image conversion processing according to the second embodiment. The image conversion process of the second embodiment is different from the first embodiment in that step S919 is executed instead of steps S913 and S914.

撮像装置100は、視野角および出力画像サイズに基づいて座標を正規化し(ステップS912)、正規化した出力座標を極座標に変換する(ステップS919)。   The imaging apparatus 100 normalizes the coordinates based on the viewing angle and the output image size (step S912), and converts the normalized output coordinates to polar coordinates (step S919).

このように、第2の実施の形態によれば、出力座標に対して円筒投影変換を行い、円筒投影変換を行った座標に対応する読出座標および補間座標を取得するため、魚眼画像を中心射影方式のパノラマ画像に変換することができる。   Thus, according to the second embodiment, the cylindrical projection conversion is performed on the output coordinates, and the readout coordinates and the interpolation coordinates corresponding to the coordinates subjected to the cylindrical projection conversion are obtained. It can be converted into a panoramic image of the projection method.

<3.第3の実施の形態>
第1の実施の形態では、複数の閉曲線(例えば、円)のそれぞれのメッシュ交点の個数を同一にしていた。しかしながら、閉曲線の半径が小さいほど、その外周の長さは短くなる。このため、分割数を同一にすると、中心に近づくほどメッシュ交点の密度が高くなってしまう。メッシュ交点の密度が高いほど補正精度が高くなるため、補正精度を均等にする観点から、半径が小さいほどメッシュ交点の個数を少なくして、メッシュ交点の密度を一定に近づけることが望ましい。第3の実施の形態の撮像装置100は、半径が小さいほど(言い換えれば、面積が小さいほど)メッシュ交点の個数を少なくした点において第1の実施の形態と異なる。
<3. Third Embodiment>
In the first embodiment, the number of mesh intersections of a plurality of closed curves (for example, circles) is the same. However, the smaller the radius of the closed curve, the shorter the outer circumference. For this reason, if the number of divisions is the same, the density of mesh intersections increases as the distance from the center is approached. The higher the mesh intersection density, the higher the correction accuracy. Therefore, from the viewpoint of equalizing the correction accuracy, it is desirable to reduce the number of mesh intersections as the radius is smaller and to make the mesh intersection density closer to a constant value. The imaging apparatus 100 of the third embodiment is different from the first embodiment in that the number of mesh intersections is reduced as the radius is smaller (in other words, the area is smaller).

図20は、第3の実施の形態におけるメッシュ交点の配置例521を示す図である。同図におけるaは、最も半径が大きい閉曲線と、次に半径の大きい閉曲線とにおいて、メッシュ交点を2倍に増加した際の配置例である。同図のaにおける点線で囲った黒丸は、追加したメッシュ交点を示す。同図におけるbは、最も半径の小さい閉曲線において、メッシュ交点を半分に削減した際の配置例522である。同図のbにおける点線の白丸は、削減したメッシュ交点を示す。このように、外側のメッシュ交点を増加するか、内側のメッシュ交点を削減することにより、メッシュ交点の密度が一定に近くなる。   FIG. 20 is a diagram illustrating an arrangement example 521 of mesh intersections according to the third embodiment. In the figure, a is an arrangement example when the mesh intersection point is doubled in the closed curve having the largest radius and the closed curve having the next largest radius. A black circle surrounded by a dotted line in a in the figure indicates an added mesh intersection. B in the same figure is the example 522 of arrangement | positioning when a mesh intersection is reduced in half in the closed curve with the smallest radius. The dotted white circles in b in FIG. 6 indicate the reduced mesh intersections. Thus, increasing the outer mesh intersection or reducing the inner mesh intersection makes the density of the mesh intersections nearly constant.

図21は、第3の実施の形態における密度を均等にした際のメッシュ交点の配置例523を示す図である。同図において、最も半径が大きい閉曲線と、次に半径の大きい閉曲線とにおいてメッシュ交点が追加され、最も半径の小さい閉曲線においてメッシュ交点が削減されている。   FIG. 21 is a diagram illustrating a mesh intersection arrangement example 523 when the densities in the third embodiment are equalized. In the figure, mesh intersections are added to the closed curve having the largest radius and the closed curve having the next largest radius, and the mesh intersections are reduced to the closed curve having the smallest radius.

第3の実施の形態の座標補間部330は、削減したメッシュ交点の座標を、周囲のメッシュ交点座標から補間して求める。例えば、円周方向の隣接する2つのメッシュ交点を回転させる補間や、放射方向の隣接する2つのメッシュ交点からの線形補間などが行われる。   The coordinate interpolation unit 330 according to the third embodiment obtains the coordinates of the reduced mesh intersection from the surrounding mesh intersection coordinates. For example, interpolation for rotating two adjacent mesh intersections in the circumferential direction, linear interpolation from two adjacent mesh intersections in the radial direction, or the like is performed.

また、外側の閉曲線にメッシュ交点を追加し、その内側の閉曲線には追加しない場合、それらの閉曲線の間の座標の周囲には、4つのメッシュ交点と追加したメッシュ交点とを含む5つのメッシュ交点が配置されることになる。   If a mesh intersection is added to the outer closed curve and not added to the inner closed curve, five mesh intersections including four mesh intersections and the added mesh intersection are located around the coordinates between the closed curves. Will be placed.

ここで、点線の枠524は、追加したメッシュ交点を含まない4つのメッシュ交点を頂点とする多角形である。一方、実線の枠525は、追加したメッシュ交点と中心との間に補間座標を補間して、放射方向に隣接するメッシュ交点と、追加したメッシュ交点と、補間座標とを頂点とする多角形である。この場合、枠524の内部の座標は、それらの4つの頂点のメッシュ交点から補間される。あるいは、枠525の頂点に補間座標を補間して、その内部の座標をそれらのメッシュ交点および頂点から補間してもよい。もしくは、撮像装置100は、枠524の頂点から補間した座標と、枠525の頂点から補間した座標とを混合し、その混合した座標を最終的な補間座標として補間してもよい。歪補正の連続性を考えると、中心または外周に近づくにつれて、徐々に混合していく方法が望ましい。徐々に混合する際は、例えば、中心に近づくほど、枠524の頂点から補間した座標の混合率が高く設定される。   Here, the dotted frame 524 is a polygon having apexes at four mesh intersections that do not include the added mesh intersection. On the other hand, the solid line frame 525 is a polygon whose interpolation coordinates are interpolated between the added mesh intersection and the center, and the mesh intersections adjacent in the radial direction, the added mesh intersection, and the interpolation coordinates are vertices. is there. In this case, the coordinates inside the frame 524 are interpolated from the mesh intersections of those four vertices. Alternatively, interpolation coordinates may be interpolated at the vertices of the frame 525, and the internal coordinates may be interpolated from the mesh intersections and vertices. Alternatively, the imaging apparatus 100 may mix coordinates interpolated from the vertex of the frame 524 and coordinates interpolated from the vertex of the frame 525, and interpolate the mixed coordinates as final interpolation coordinates. Considering the continuity of distortion correction, a method of gradually mixing as the center or the outer circumference is approached is desirable. When gradually mixing, for example, the closer to the center, the higher the mixing ratio of coordinates interpolated from the vertex of the frame 524 is set.

このように、本技術の第3の実施の形態によれば、閉曲線の面積が小さいほど少ない分割数により、その閉曲線を分割した分割点をメッシュ交点とするため、メッシュ交点の密度を均等に近づけることができる。   As described above, according to the third embodiment of the present technology, the smaller the closed curve area, the smaller the number of divisions, the division points obtained by dividing the closed curve are set as mesh intersections, so that the density of mesh intersections is evenly approximated. be able to.

<4.第4の実施の形態>
第1の実施の形態では、撮像装置100は、魚眼画像の歪みを補正していたが、中心射影画像が入力された際に、その中心射影画像の歪みを補正することもできる。第4の実施の形態の撮像装置100は、魚眼画像および中心射影画像のいずれが入力されたかを判断して、歪み補正の方法を変更する点において第1の実施の形態と異なる。
<4. Fourth Embodiment>
In the first embodiment, the imaging apparatus 100 corrects the distortion of the fisheye image. However, when the central projection image is input, the imaging apparatus 100 can also correct the distortion of the central projection image. The imaging apparatus 100 according to the fourth embodiment is different from the first embodiment in that it determines which of the fisheye image and the central projection image is input and changes the distortion correction method.

図22は、第4の実施の形態における撮像システムの一構成例を示すブロック図である。この撮像システムは、交換レンズユニット400および撮像装置100を備える。   FIG. 22 is a block diagram illustrating a configuration example of an imaging system according to the fourth embodiment. This imaging system includes an interchangeable lens unit 400 and an imaging device 100.

交換レンズユニット400は、魚眼レンズまたは中心射影レンズが装着される部品である。この交換レンズユニット400は、レンズが装着されると、そのレンズの種別を撮像装置100に通知する。   The interchangeable lens unit 400 is a component to which a fisheye lens or a central projection lens is attached. When the interchangeable lens unit 400 is attached, the interchangeable lens unit 400 notifies the imaging apparatus 100 of the type of the lens.

第4の実施の形態の撮像装置100の構成は、魚眼レンズ110を備えない点以外は、第1の実施の形態と同様である。第4の実施の形態の制御部150は、レンズの種別を取得し、装着されたレンズが魚眼レンズであるか否かを判断する。そして、制御部150は、判断結果に基づいて切替信号を生成して送信する。切替信号は、変換方法の切り替えを指示する信号である。なお、制御部150は、特許請求の範囲に記載の判断部の一例である。   The configuration of the imaging device 100 of the fourth embodiment is the same as that of the first embodiment except that the fisheye lens 110 is not provided. The control unit 150 according to the fourth embodiment acquires the type of lens and determines whether or not the attached lens is a fisheye lens. Then, control unit 150 generates and transmits a switching signal based on the determination result. The switching signal is a signal for instructing switching of the conversion method. The control unit 150 is an example of a determination unit described in the claims.

図23は、第4の実施の形態における座標変換部200の一例を示すブロック図である。第4の実施の形態の座標変換部200は、中心射影画像歪補正テーブル260をさらに備える点において第1の実施の形態と異なる。中心射影画像歪補正テーブル260は、歪補正前の中心射影画像の読出座標の一部について、歪補正後の中心射影画像の出力座標を対応付けたテーブルである。   FIG. 23 is a block diagram illustrating an example of the coordinate conversion unit 200 according to the fourth embodiment. The coordinate conversion unit 200 according to the fourth embodiment is different from the first embodiment in that it further includes a central projection image distortion correction table 260. The center projected image distortion correction table 260 is a table in which the output coordinates of the center projected image after distortion correction are associated with some of the readout coordinates of the center projected image before distortion correction.

図24は、第4の実施の形態における読出座標出力部300の一構成例を示すブロック図である。第4の実施の形態の読出座標出力部300は、切替器310をさらに備える点において第1の実施の形態と異なる。   FIG. 24 is a block diagram illustrating a configuration example of the read coordinate output unit 300 according to the fourth embodiment. The read coordinate output unit 300 of the fourth embodiment differs from the first embodiment in that it further includes a switch 310.

切替器310は、切替信号に従って、魚眼画像歪補正テーブル240または中心射影画像歪補正テーブル260における読出座標を直交座標取得部320に供給するものである。例えば、レンズ種別が魚眼レンズである場合に、魚眼画像歪補正テーブル240からの読出座標が供給され、そうでない場合に中心射影画像歪補正テーブル260からの読出座標が供給される。   The switch 310 supplies read coordinates in the fisheye image distortion correction table 240 or the central projection image distortion correction table 260 to the orthogonal coordinate acquisition unit 320 according to the switching signal. For example, when the lens type is a fisheye lens, read coordinates from the fisheye image distortion correction table 240 are supplied. Otherwise, read coordinates from the central projection image distortion correction table 260 are supplied.

また、第4の実施の形態の回転前補間係数演算部334は、切替信号に従って、補間係数を変更する。例えば、レンズが魚眼レンズである場合に、式11により算出された補間係数が供給され、そうでない場合に「0」の補間係数が供給される。   Also, the pre-rotation interpolation coefficient calculation unit 334 of the fourth embodiment changes the interpolation coefficient in accordance with the switching signal. For example, when the lens is a fish-eye lens, the interpolation coefficient calculated by Expression 11 is supplied, and when not, an interpolation coefficient of “0” is supplied.

また、第4の実施の形態の回転角度演算部335は、切替信号に従って、回転角度を変更する。例えば、レンズが魚眼レンズである場合に、式16または式17により算出された回転角度の正弦および余弦が供給される。一方、レンズが魚眼レンズでない場合には、「0」度の角度が設定され、正弦として「1」が、余弦として「0」が供給される。   In addition, the rotation angle calculation unit 335 of the fourth embodiment changes the rotation angle according to the switching signal. For example, when the lens is a fisheye lens, the sine and cosine of the rotation angle calculated by Expression 16 or 17 is supplied. On the other hand, when the lens is not a fish-eye lens, an angle of “0” is set, and “1” is supplied as the sine and “0” is supplied as the cosine.

なお、読出座標出力部300は、中心射影画像に対する歪補正を行っているが、中心射影画像が入力された際には、歪補正を行わず、読出座標をそのまま出力画像として出力してもよい。この場合には、中心射影画像歪補正テーブル260は設けられず、画像変換部160は、実質的に画像変換を行わない。   The readout coordinate output unit 300 performs distortion correction on the central projection image. However, when the central projection image is input, the readout coordinates may be output as an output image without performing distortion correction. . In this case, the central projection image distortion correction table 260 is not provided, and the image conversion unit 160 does not substantially perform image conversion.

このように、第4の実施の形態によれば、撮像装置100は、入力画像が魚眼画像であるか否かを判断して、魚眼画像であれば中心射影画像に変換するため、魚眼画像以外の入力画像に対しても画像処理を行うことができる。   As described above, according to the fourth embodiment, the imaging apparatus 100 determines whether or not the input image is a fisheye image, and if it is a fisheye image, converts it into a central projection image. Image processing can also be performed on input images other than eye images.

なお、上述の実施の形態は本技術を具現化するための一例を示したものであり、実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本技術の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本技術は実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。   The above-described embodiment shows an example for embodying the present technology, and the matters in the embodiment and the invention-specific matters in the claims have a corresponding relationship. Similarly, the invention specific matter in the claims and the matter in the embodiment of the present technology having the same name as this have a corresponding relationship. However, the present technology is not limited to the embodiment, and can be embodied by making various modifications to the embodiment without departing from the gist thereof.

また、上述の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。この記録媒体として、例えば、CD(Compact Disc)、MD(MiniDisc)、DVD(Digital Versatile Disc)、メモリカード、ブルーレイディスク(Blu-ray(登録商標)Disc)等を用いることができる。   Further, the processing procedure described in the above embodiment may be regarded as a method having a series of these procedures, and a program for causing a computer to execute these series of procedures or a recording medium storing the program. You may catch it. As this recording medium, for example, a CD (Compact Disc), an MD (MiniDisc), a DVD (Digital Versatile Disc), a memory card, a Blu-ray disc (Blu-ray (registered trademark) Disc), or the like can be used.

なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。   Note that the effects described here are not necessarily limited, and may be any of the effects described in the present disclosure.

なお、本技術は以下のような構成もとることができる。
(1)中心射影に該当しない射影により生成された非中心射影画像内の座標のうち一部の特定座標と当該特定座標に対応付けた中心射影画像内の対応座標とを記憶する記憶部と、
前記特定座標および前記対応座標の一方の座標が入力されると前記入力された座標に対応する他方の座標を前記記憶部から取得する座標取得部と、
前記取得された他方の座標に基づいて当該他方の座標と異なる座標を補間座標として補間する補間部と、
前記他方の座標と前記補間座標とに基づいて前記非中心射影画像および前記中心射影画像のうち一方の画像を他方の画像に変換する画像変換部と
を具備する画像処理装置。
(2)前記座標取得部は、前記特定座標を前記他方の座標として取得し、
前記補間部は、前記非中心射影画像において所定の座標を中心として前記特定座標を回転させた座標を前記補間座標として補間する
前記(1)記載の画像処理装置。
(3)前記座標取得部は、前記特定座標を前記他方の座標として取得し、
前記補間部は、前記非中心射影画像において所定の座標と前記特定座標とを結ぶ線分上の座標を前記補間座標として補間して当該補間座標を前記所定の座標を中心として回転させた座標を新たな前記補間座標として補間する
前記(1)または(2)に記載の画像処理装置。
(4)前記座標取得部は、前記特定座標を前記他方の座標として取得し、
前記補間部は、2つの前記特定座標を結ぶ線分上の座標を前記補間座標として補間する
前記(1)に記載の画像処理装置。
(5)前記特定座標は、前記非中心射影画像において面積の異なる複数の前記閉曲線のそれぞれを分割した分割点の座標である
前記(1)から(4)のいずれかに記載の画像処理装置。
(6)前記特定座標は、前記閉曲線の面積が小さいほど少ない分割数により前記閉曲線のそれぞれを分割した分割点の座標である
前記(5)記載の画像処理装置。
(7)前記中心射影画像内の座標に対して透視射影変換を行って当該透視射影変換を行った座標を前記座標取得部および前記補間部に入力する透視射影変換部をさらに具備し、
前記補間部は、前記入力された座標に対応する前記補間座標を補間する
前記(1)から(6)のいずれかに記載の画像処理装置。
(8)前記中心射影画像内の座標を所定の軸周りに回転させる回転部をさらに具備し、
前記透視射影変換部は、前記回転された座標に対して前記透視射影変換を行う
前記(1)から(7)のいずれかに記載の画像処理装置。
(9)前記中心射影画像内の座標に対して円筒投影変換を行って当該円筒投影変換を行った座標を前記座標取得部および前記補間部に入力する円筒投影変換部をさらに具備し、
前記補間部は、前記入力された座標に対応する前記補間座標を補間する
前記(1)記載の画像処理装置。
(10)撮像された画像が前記一方の画像であるか否かを判断して前記一方の画像である場合には前記一方の座標を前記座標取得部および前記補間部に入力する判断部をさらに具備し、
前記補間部は、前記入力された座標に対応する前記補間座標を補間する
前記(1)から(9)のいずれかに記載の画像処理装置。
(11)中心射影に該当しない射影により生成される非中心射影画像と中心射影画像とのうち一方を撮像する撮像部と、
前記非中心射影画像内の座標のうち一部の特定座標と当該特定座標に対応付けた前記中心射影画像内の対応座標とを記憶する記憶部と、
前記特定座標および前記対応座標の一方の座標が入力されると前記入力された座標に対応する他方の座標を前記記憶部から取得する座標取得部と、
前記取得された他方の座標に基づいて当該他方の座標と異なる座標を補間座標として補間する補間部と、
前記他方の座標と前記補間座標とに基づいて前記非中心射影画像および前記中心射影画像のうち一方の画像を他方の画像に変換する画像変換部と
を具備する撮像装置。
(12)座標取得部が、前記特定座標および前記対応座標の一方の座標が入力されると中心射影に該当しない射影により生成された非中心射影画像内の座標のうち一部の特定座標と当該特定座標に対応付けた中心射影画像内の対応座標とを記憶する記憶部から前記入力された座標に対応する他方の座標を取得する座標取得手順と、
補間部が、前記取得された他方の座標に基づいて当該他方の座標と異なる座標を補間座標として補間する補間手順と、
画像変換部が、前記他方の座標と前記補間座標とに基づいて前記非中心射影画像および前記中心射影画像のうち一方の画像を他方の画像に変換する変換手順と
を具備する画像処理方法。
(13)座標取得部が、前記特定座標および前記対応座標の一方の座標が入力されると中心射影に該当しない射影により生成された非中心射影画像内の座標のうち一部の特定座標と当該特定座標に対応付けた中心射影画像内の対応座標とを記憶する記憶部から前記入力された座標に対応する他方の座標を取得する座標取得手順と、
補間部が、前記取得された他方の座標に基づいて当該他方の座標と異なる座標を補間座標として補間する補間手順と、
画像変換部が、前記他方の座標と前記補間座標とに基づいて前記非中心射影画像および前記中心射影画像のうち一方の画像を他方の画像に変換する変換手順と
をコンピュータに実行させるためのプログラム。
In addition, this technique can also take the following structures.
(1) a storage unit that stores some specific coordinates among the coordinates in the non-centered projection image generated by the projection not corresponding to the central projection and the corresponding coordinates in the central projection image associated with the specific coordinates;
When one of the specific coordinates and the corresponding coordinates is input, a coordinate acquisition unit that acquires the other coordinates corresponding to the input coordinates from the storage unit;
An interpolation unit that interpolates, as interpolation coordinates, coordinates different from the other coordinates based on the obtained other coordinates;
An image processing apparatus comprising: an image conversion unit that converts one of the non-center projected image and the center projected image into the other image based on the other coordinate and the interpolated coordinate.
(2) The coordinate acquisition unit acquires the specific coordinate as the other coordinate,
The image processing apparatus according to (1), wherein the interpolation unit interpolates, as the interpolation coordinates, coordinates obtained by rotating the specific coordinates around a predetermined coordinate in the non-center projected image.
(3) The coordinate acquisition unit acquires the specific coordinate as the other coordinate,
The interpolation unit interpolates coordinates on a line segment connecting predetermined coordinates and the specific coordinates in the non-centered projection image as the interpolation coordinates, and coordinates obtained by rotating the interpolation coordinates around the predetermined coordinates. The image processing apparatus according to (1) or (2), wherein interpolation is performed as new interpolation coordinates.
(4) The coordinate acquisition unit acquires the specific coordinate as the other coordinate,
The image processing apparatus according to (1), wherein the interpolation unit interpolates coordinates on a line segment connecting two specific coordinates as the interpolation coordinates.
(5) The image processing device according to any one of (1) to (4), wherein the specific coordinate is a coordinate of a dividing point obtained by dividing each of the plurality of closed curves having different areas in the non-center projected image.
(6) The image processing apparatus according to (5), wherein the specific coordinate is a coordinate of a division point obtained by dividing each of the closed curves by a smaller number of divisions as the area of the closed curve is smaller.
(7) further comprising a perspective projection conversion unit that performs perspective projection conversion on the coordinates in the central projection image and inputs the coordinates obtained by the perspective projection conversion to the coordinate acquisition unit and the interpolation unit;
The image processing apparatus according to any one of (1) to (6), wherein the interpolation unit interpolates the interpolation coordinates corresponding to the input coordinates.
(8) It further comprises a rotating unit that rotates the coordinates in the central projection image around a predetermined axis,
The image processing apparatus according to any one of (1) to (7), wherein the perspective projection conversion unit performs the perspective projection conversion on the rotated coordinates.
(9) It further includes a cylindrical projection conversion unit that performs cylindrical projection conversion on the coordinates in the central projection image and inputs the coordinates obtained by the cylindrical projection conversion to the coordinate acquisition unit and the interpolation unit,
The image processing apparatus according to (1), wherein the interpolation unit interpolates the interpolation coordinates corresponding to the input coordinates.
(10) A determination unit that determines whether or not the captured image is the one image and inputs the one coordinate to the coordinate acquisition unit and the interpolation unit when the image is the one image; Equipped,
The image processing apparatus according to any one of (1) to (9), wherein the interpolation unit interpolates the interpolation coordinates corresponding to the input coordinates.
(11) an imaging unit that captures one of a non-centered projection image and a center projected image generated by a projection that does not correspond to the center projection;
A storage unit that stores some specific coordinates among the coordinates in the non-center projected image and the corresponding coordinates in the central projected image associated with the specific coordinates;
When one of the specific coordinates and the corresponding coordinates is input, a coordinate acquisition unit that acquires the other coordinates corresponding to the input coordinates from the storage unit;
An interpolation unit that interpolates, as interpolation coordinates, coordinates different from the other coordinates based on the obtained other coordinates;
An image pickup apparatus comprising: an image conversion unit that converts one of the non-center projected image and the center projected image into the other image based on the other coordinate and the interpolated coordinate.
(12) When one of the specific coordinates and the corresponding coordinates is input, the coordinate acquisition unit and a part of the specific coordinates among the coordinates in the non-centered projection image generated by the projection that does not correspond to the central projection A coordinate acquisition procedure for acquiring the other coordinate corresponding to the input coordinate from the storage unit storing the corresponding coordinate in the central projection image associated with the specific coordinate;
An interpolation procedure in which an interpolation unit interpolates coordinates different from the other coordinates based on the acquired other coordinates as interpolation coordinates;
An image processing method comprising: a conversion procedure in which an image conversion unit converts one of the non-center projected image and the center projected image into the other image based on the other coordinate and the interpolated coordinate.
(13) When one of the specific coordinates and the corresponding coordinates is input, the coordinate acquisition unit receives a part of the coordinates in the non-centered projection image generated by the projection that does not correspond to the central projection and the specific coordinates A coordinate acquisition procedure for acquiring the other coordinate corresponding to the input coordinate from the storage unit storing the corresponding coordinate in the central projection image associated with the specific coordinate;
An interpolation procedure in which an interpolation unit interpolates coordinates different from the other coordinates based on the acquired other coordinates as interpolation coordinates;
A program for causing a computer to execute a conversion procedure in which an image conversion unit converts one of the non-center projected image and the center projected image into the other image based on the other coordinate and the interpolated coordinate. .

100 撮像装置
110 魚眼レンズ
120 撮像素子
130 入力信号処理部
140 フレームメモリ
150 制御部
160 画像変換部
170 画素補間部
180 出力信号処理部
190 記録部
200 座標変換部
210、211 座標正規化部
220 出力座標回転行列演算部
230 透視射影変換部
240 魚眼画像歪補正テーブル
250 パノラマ座標変換部
260 中心射影画像歪補正テーブル
300 読出座標出力部
310 切替器
320 直交座標取得部
330 座標補間部
331 回転後線形補間部
332 回転後補間係数演算部
333 回転前線形補間部
334 回転前補間係数演算部
335 回転角度演算部
340 読出座標回転行列演算部
341、342、343、344 乗算器
345 減算器
346 加算器
400 交換レンズユニット
DESCRIPTION OF SYMBOLS 100 Imaging device 110 Fisheye lens 120 Image sensor 130 Input signal processing part 140 Frame memory 150 Control part 160 Image conversion part 170 Pixel interpolation part 180 Output signal processing part 190 Recording part 200 Coordinate conversion part 210, 211 Coordinate normalization part 220 Output coordinate rotation Matrix calculation unit 230 perspective projection conversion unit 240 fisheye image distortion correction table 250 panorama coordinate conversion unit 260 central projection image distortion correction table 300 readout coordinate output unit 310 switch 320 orthogonal coordinate acquisition unit 330 coordinate interpolation unit 331 post-rotation linear interpolation unit 332 Post-rotation interpolation coefficient calculation unit 333 Pre-rotation linear interpolation unit 334 Pre-rotation interpolation coefficient calculation unit 335 Rotation angle calculation unit 340 Read coordinate rotation matrix calculation unit 341, 342, 343, 344 Multiplier 345 Subtractor 346 Adder 400 Interchangeable lens uni The

Claims (12)

心射影に該当しない射影により生成された非中心射影画像内の座標のうち一部の特定座標と当該特定座標に対応付けた中心射影画像内の対応座標とを記憶する記憶部と、
前記対応座標が入力されると前記対応座標に対応する前記特定座標を前記記憶部から取得する座標取得部と、
前記非中心射影画像において所定の中心座標と前記取得された特定座標とを結ぶ線分上の座標を前記中心座標を中心として回転させた座標を回転補間座標として補間する補間部と、
前記特定座標と前記回転補間座標とに基づいて前記非中心射影画像を前記中心射影画像に変換する画像変換部と
を具備する画像処理装置。
A storage unit for storing the corresponding coordinate in the central projection image associated with some specific coordinates and the specific coordinates of the coordinates in the non-central projection image generated by the projection does not correspond to centered projection,
A coordinate acquisition unit that acquires the specific coordinates corresponding to the corresponding coordinates from the storage unit when the corresponding coordinates are input ;
An interpolation unit that interpolates, as rotational interpolation coordinates, coordinates obtained by rotating a coordinate on a line segment connecting a predetermined center coordinate and the acquired specific coordinate in the non-center projected image with the center coordinate as a center ;
An image processing apparatus comprising: an image conversion unit that converts the non-center projected image into the center projected image based on the specific coordinates and the rotation interpolation coordinates.
記補間部は、前記非中心射影画像において前記中心座標を中心として前記特定座標を回転させた座標を前記回転補間座標として補間する
請求項1記載の画像処理装置。
Before SL interpolation unit, the image processing apparatus according to claim 1, wherein the coordinate obtained by rotating a specific coordinate about said center coordinates in the non-central projection image to interpolate as the rotation interpolation coordinates.
記補間部は、前記非中心射影画像において前記中心座標と前記特定座標とを結ぶ前記線分上の座標を線形補間座標として補間して当該線形補間座標を前記中心座標を中心として回転させた座標を前記回転補間座標として補間する
請求項1記載の画像処理装置。
Before SL interpolation unit, said interpolation to the linear interpolation coordinates the coordinates on the line connecting the said specific coordinates and the center coordinates in the non-central projection image as linear interpolation coordinate is rotated about said center coordinates The image processing apparatus according to claim 1, wherein coordinates are interpolated as the rotation interpolation coordinates.
中心射影に該当しない射影により生成された非中心射影画像内の座標のうち一部の特定座標と当該特定座標に対応付けた中心射影画像内の対応座標とを記憶する記憶部と、
前記特定座標および前記対応座標の一方の座標が入力されると前記入力された座標に対応する他方の座標を前記記憶部から取得する座標取得部と、
前記取得された他方の座標に基づいて当該他方の座標と異なる座標を補間座標として補間する補間部と、
前記他方の座標と前記補間座標とに基づいて前記非中心射影画像および前記中心射影画像のうち一方の画像を他方の画像に変換する画像変換部と
を具備し、
前記特定座標は、前記非中心射影画像において面積の異なる複数の閉曲線のそれぞれを分割した分割点の座標であ
画像処理装置。
A storage unit that stores some specific coordinates among the coordinates in the non-central projection image generated by the projection not corresponding to the central projection and the corresponding coordinates in the central projection image associated with the specific coordinates;
When one of the specific coordinates and the corresponding coordinates is input, a coordinate acquisition unit that acquires the other coordinates corresponding to the input coordinates from the storage unit;
An interpolation unit that interpolates, as interpolation coordinates, coordinates different from the other coordinates based on the obtained other coordinates;
An image conversion unit that converts one of the non-center projected image and the center projected image into the other image based on the other coordinate and the interpolated coordinate;
Comprising
The specific coordinates, the non-central Ru coordinates der division points obtained by dividing each of the plurality of closed curves having different areas in the projection image <br/> image processing apparatus.
前記特定座標は、前記閉曲線の面積が小さいほど少ない分割数により前記閉曲線のそれぞれを分割した分割点の座標である
請求項記載の画像処理装置。
The image processing apparatus according to claim 4 , wherein the specific coordinates are coordinates of a dividing point obtained by dividing each of the closed curves by a smaller number of divisions as the area of the closed curve is smaller.
前記中心射影画像内の座標に対して透視射影変換を行って当該透視射影変換を行った座標を前記座標取得部および前記補間部に入力する透視射影変換部をさらに具備し、
前記補間部は、前記入力された座標に対応する前記補間座標を補間する
請求項記載の画像処理装置。
Further comprising a perspective projection conversion unit that performs perspective projection conversion on the coordinates in the central projection image and inputs the coordinates obtained by the perspective projection conversion to the coordinate acquisition unit and the interpolation unit;
The image processing apparatus according to claim 4 , wherein the interpolation unit interpolates the interpolation coordinates corresponding to the input coordinates.
前記中心射影画像内の座標を所定の軸周りに回転させる回転部をさらに具備し、
前記透視射影変換部は、前記回転された座標に対して前記透視射影変換を行う
請求項記載の画像処理装置。
A rotation unit that rotates the coordinates in the central projection image around a predetermined axis;
The image processing apparatus according to claim 6 , wherein the perspective projection conversion unit performs the perspective projection conversion on the rotated coordinates.
前記中心射影画像内の座標に対して円筒投影変換を行って当該円筒投影変換を行った座標を前記座標取得部および前記補間部に入力する円筒投影変換部をさらに具備し、
前記補間部は、前記入力された座標に対応する前記補間座標を補間する
請求項記載の画像処理装置。
A cylindrical projection conversion unit that performs cylindrical projection conversion on the coordinates in the central projection image and inputs the coordinates obtained by the cylindrical projection conversion to the coordinate acquisition unit and the interpolation unit;
The image processing apparatus according to claim 4 , wherein the interpolation unit interpolates the interpolation coordinates corresponding to the input coordinates.
撮像された画像が前記一方の画像であるか否かを判断して前記一方の画像である場合には前記一方の座標を前記座標取得部および前記補間部に入力する判断部をさらに具備し、
前記補間部は、前記入力された座標に対応する前記補間座標を補間する
請求項記載の画像処理装置。
If the captured image is the one image, and if the image is the one image, further comprises a determination unit that inputs the one coordinate to the coordinate acquisition unit and the interpolation unit,
The image processing apparatus according to claim 4 , wherein the interpolation unit interpolates the interpolation coordinates corresponding to the input coordinates.
中心射影に該当しない射影により生成される非中心射影画像と中心射影画像とのうち一方を撮像する撮像部と、
前記非中心射影画像内の座標のうち一部の特定座標と当該特定座標に対応付けた前記中心射影画像内の対応座標とを記憶する記憶部と、
前記特定座標および前記対応座標の一方の座標が入力されると前記入力された座標に対応する他方の座標を前記記憶部から取得する座標取得部と、
前記取得された他方の座標とに基づいて当該他方の座標と異なる座標を補間座標として補間する補間部と、
前記他方の座標と前記補間座標に基づいて前記非中心射影画像および前記中心射影画像のうち一方の画像を他方の画像に変換する画像変換部と
を具備し、
前記特定座標は、前記非中心射影画像において面積の異なる複数の閉曲線のそれぞれを分割した分割点の座標である
撮像装置。
An imaging unit that captures one of a non-central projection image and a central projection image generated by a projection that does not correspond to the central projection;
A storage unit that stores some specific coordinates among the coordinates in the non-center projected image and the corresponding coordinates in the central projected image associated with the specific coordinates;
When one of the specific coordinates and the corresponding coordinates is input, a coordinate acquisition unit that acquires the other coordinates corresponding to the input coordinates from the storage unit;
An interpolation unit that interpolates, as interpolation coordinates, coordinates different from the other coordinates based on the acquired other coordinates;
An image conversion unit that converts one of the non-center projected image and the center projected image into the other image based on the other coordinate and the interpolation coordinate ;
The specific device is a coordinate of a dividing point obtained by dividing each of a plurality of closed curves having different areas in the non-center projected image .
座標取得部が、中心射影に該当しない射影により生成された非中心射影画像内の座標のうち一部の特定座標と当該特定座標に対応付けた中心射影画像内の対応座標との一方の座標が入力されると、前記特定座標と前記対応座標とを記憶する記憶部から前記入力された座標に対応する他方の座標を取得する座標取得手順と、
補間部が、前記取得された他方の座標に基づいて当該他方の座標と異なる座標を補間座標として補間する補間手順と、
画像変換部が、前記他方の座標と前記補間座標とに基づいて前記非中心射影画像および前記中心射影画像のうち一方の画像を他方の画像に変換する変換手順と
を具備し、
前記特定座標は、前記非中心射影画像において面積の異なる複数の閉曲線のそれぞれを分割した分割点の座標である
画像処理方法。
One of the coordinates in the non-central projection image generated by the projection not corresponding to the central projection and the corresponding coordinates in the central projection image associated with the specific coordinate is obtained by the coordinate acquisition unit. When input, a coordinate acquisition procedure for acquiring the other coordinates corresponding to the input coordinates from the storage unit storing the specific coordinates and the corresponding coordinates ;
An interpolation procedure in which an interpolation unit interpolates coordinates different from the other coordinates based on the acquired other coordinates as interpolation coordinates;
An image conversion unit comprising: a conversion procedure for converting one of the non-center projected image and the center projected image into the other image based on the other coordinate and the interpolated coordinate ;
In the image processing method , the specific coordinate is a coordinate of a dividing point obtained by dividing each of a plurality of closed curves having different areas in the non-center projected image .
座標取得部が、中心射影に該当しない射影により生成された非中心射影画像内の座標のうち一部の特定座標と当該特定座標に対応付けた中心射影画像内の対応座標との一方の座標が入力されると、前記特定座標と前記対応座標とを記憶する記憶部から前記入力された座標に対応する他方の座標を取得する座標取得手順と、
補間部が、前記取得された他方の座標基づいて当該他方の座標と異なる座標を補間座標として補間する補間手順と、
画像変換部が、前記他方の座標と前記補間座標とに基づいて前記非中心射影画像および前記中心射影画像のうち一方の画像を他方の画像に変換する変換手順と
をコンピュータに実行させるためのプログラムであって、
前記特定座標は、前記非中心射影画像において面積の異なる複数の閉曲線のそれぞれを分割した分割点の座標である
プログラム。
One of the coordinates in the non-central projection image generated by the projection not corresponding to the central projection and the corresponding coordinates in the central projection image associated with the specific coordinate is obtained by the coordinate acquisition unit. When input, a coordinate acquisition procedure for acquiring the other coordinates corresponding to the input coordinates from the storage unit storing the specific coordinates and the corresponding coordinates ;
An interpolation procedure interpolation unit interpolates the coordinates different from the other coordinates based on the obtained other coordinate as the interpolation coordinates,
Image conversion unit, a program for executing a conversion procedure for converting one of the images of the non-central projection image and the central projection image based on the other coordinate and said interpolation coordinates to other image to the computer Because
The specific coordinates are coordinates of a dividing point obtained by dividing each of a plurality of closed curves having different areas in the non-centered projection image.
program.
JP2014099189A 2014-05-13 2014-05-13 Image processing apparatus, imaging apparatus, image processing method, and program Active JP6310320B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014099189A JP6310320B2 (en) 2014-05-13 2014-05-13 Image processing apparatus, imaging apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014099189A JP6310320B2 (en) 2014-05-13 2014-05-13 Image processing apparatus, imaging apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2015215817A JP2015215817A (en) 2015-12-03
JP6310320B2 true JP6310320B2 (en) 2018-04-11

Family

ID=54752630

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014099189A Active JP6310320B2 (en) 2014-05-13 2014-05-13 Image processing apparatus, imaging apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6310320B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7248172B2 (en) 2016-03-25 2023-03-29 株式会社プロテリアル inductor

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3523777A4 (en) * 2016-12-06 2019-11-13 SZ DJI Technology Co., Ltd. System and method for rectifying a wide-angle image
CN206594372U (en) * 2017-03-29 2017-10-27 迎刃而解有限公司 A kind of reflective Wrap display system
CN108805805B (en) * 2017-04-27 2021-10-01 星宸科技股份有限公司 Image processing method and image processing device
JP2019012935A (en) * 2017-06-30 2019-01-24 アイホン株式会社 Intercom device
KR102028469B1 (en) * 2018-01-15 2019-10-04 주식회사 스트리스 System and Method for Removing Distortion of Fisheye Lens and Omnidirectional Image
JP7008531B2 (en) * 2018-02-20 2022-01-25 日本放送協会 Image geometry conversion device, image geometry inverse conversion device and program
WO2023153075A1 (en) * 2022-02-08 2023-08-17 日立グローバルライフソリューションズ株式会社 Household appliance

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175709A (en) * 1997-12-17 1999-07-02 Fujitsu Ltd Image deforming device and storage medium stored with program thereof
JP3025255B1 (en) * 1999-02-19 2000-03-27 有限会社フィット Image data converter
JP2007013791A (en) * 2005-07-01 2007-01-18 Canon Inc Image processing apparatus and its method, as well as imaging apparatus
JP2009010730A (en) * 2007-06-28 2009-01-15 Kyocera Corp Image processing method and imaging apparatus employing the same
JP5245963B2 (en) * 2009-03-19 2013-07-24 大日本印刷株式会社 Image converter
JP5558973B2 (en) * 2010-08-31 2014-07-23 株式会社日立情報通信エンジニアリング Image correction apparatus, correction image generation method, correction table generation apparatus, correction table generation method, correction table generation program, and correction image generation program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7248172B2 (en) 2016-03-25 2023-03-29 株式会社プロテリアル inductor

Also Published As

Publication number Publication date
JP2015215817A (en) 2015-12-03

Similar Documents

Publication Publication Date Title
JP6310320B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP5558973B2 (en) Image correction apparatus, correction image generation method, correction table generation apparatus, correction table generation method, correction table generation program, and correction image generation program
CN110456967B (en) Information processing method, information processing apparatus, and program
CN105981073B (en) Video generation device, image generating method and program
JP4434653B2 (en) Portable electronic imaging device with digital zoom function and method for providing digital zoom function
EP3016065B1 (en) Coordinate computation device and method, and image processing device and method
JP5046132B2 (en) Image data converter
JP4935440B2 (en) Image processing apparatus and camera apparatus
CN103020900B (en) Method and device for image processing
JP5029645B2 (en) Image data converter
KR101140953B1 (en) Method and apparatus for correcting distorted image
JP4875887B2 (en) Image composition system and image composition method
JP2008225522A (en) Image processor, camera device, image processing method, and program
JP2011248630A (en) Viewpoint conversion device and viewpoint conversion method
JP2005135096A (en) Image processing method, image processing apparatus and program
JP6838918B2 (en) Image data processing device and method
JP2005063141A (en) Image conversion system and image conversion method
JP6777208B2 (en) program
JP2005063141A5 (en)
JP6320165B2 (en) Image processing apparatus, control method therefor, and program
JP2014165866A (en) Image processing device, control method therefor and program
JP2014120000A (en) Image processor, image processing method and program
JP5344647B2 (en) Image processing method, image processing apparatus, and image processing program
JP6708483B2 (en) Image processing apparatus, image processing method, and program
JP6901580B2 (en) Horizontal calibration method of panoramic image or video, system and mobile terminal

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20160720

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160721

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180316

R150 Certificate of patent or registration of utility model

Ref document number: 6310320

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150