JP2006171939A - Image processor and method - Google Patents

Image processor and method Download PDF

Info

Publication number
JP2006171939A
JP2006171939A JP2004360835A JP2004360835A JP2006171939A JP 2006171939 A JP2006171939 A JP 2006171939A JP 2004360835 A JP2004360835 A JP 2004360835A JP 2004360835 A JP2004360835 A JP 2004360835A JP 2006171939 A JP2006171939 A JP 2006171939A
Authority
JP
Japan
Prior art keywords
image
images
resolution
imaging
correspondence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004360835A
Other languages
Japanese (ja)
Inventor
Yukio Sakakawa
幸雄 坂川
Masahiro Suzuki
雅博 鈴木
Akihiro Katayama
昭宏 片山
Takaaki Endo
隆明 遠藤
Daisuke Kotake
大輔 小竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004360835A priority Critical patent/JP2006171939A/en
Publication of JP2006171939A publication Critical patent/JP2006171939A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily provide a high-resolution panorama video without generating a double image in a joint of images. <P>SOLUTION: This image processor has: a first image acquisition means acquiring the plurality of images imaged by a plurality of imaging parts; a second image acquisition means acquiring a second image imaged by a second imaging part having an imaging vision field having overlap to respective imaging visual fields of the plurality of imaging parts; an adjustment means adjusting resolution of the second image; a correspondence search means searching for correspondence between the plurality of images and the second image adjusted with the resolution by the adjustment means; and a generation means generating a third image from the plurality of images and the second image adjusted with the resolution by the adjustment means on the basis of a search result of the correspondence search means. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、複数の画像に対して画像処理を施すものである。   The present invention performs image processing on a plurality of images.

移動体に搭載された撮像装置によって現実空間を撮像し、撮像された実写画像データをもとに、撮像した現実空間を計算機を用いて仮想空間として表現する試みが提案されている(非特許文献1、非特許文献2)。   An attempt has been proposed in which a real space is imaged by an imaging device mounted on a moving body, and the captured real space is represented as a virtual space using a computer based on the captured real image data (non-patent document). 1, Non-Patent Document 2).

移動体に搭載された撮像装置によって撮像された実写画像データをもとに、撮像した現実空間を仮想空間として表現する手法としては、実写画像データをもとに現実空間の幾何形状モデルを再現し、従来のCG技術で表現する手法が挙げられるが、モデルの正確性や精密度、写実性などの点で限界がある。一方、モデルを用いた再現を行わずに、実写画像を用いて仮想空間を表現するImage-Based Rendering(IBR)技術が近年注目を集めている。IBR技術は、複数の実写画像をもとに、任意の視点から見た画像を生成する技術である。IBR技術は実写画像に基づいているために、写実的な仮想空間の表現が可能である。   Based on live-action image data captured by an imaging device mounted on a moving object, a method for representing the captured real space as a virtual space is to reproduce the geometric model of the real space based on the real-image data. However, there is a limit in terms of accuracy, precision, and realism of the model. On the other hand, in recent years, Image-Based Rendering (IBR) technology that represents a virtual space using a photographed image without performing reproduction using a model has attracted attention. The IBR technique is a technique for generating an image viewed from an arbitrary viewpoint based on a plurality of actual images. Since the IBR technology is based on a photographed image, a realistic virtual space can be expressed.

このようなIBR技術を用いてウォークスルー可能な仮想空間を構築するためには、使用者の仮想空間内の位置に応じた画像の生成・呈示を行う必要がある。そのため、この種のシステムにおいては、実写画像データの各フレームと仮想空間内の位置とを対応付けて保存しておき、使用者の仮想空間における位置と視線方向に基づいて対応するフレームを取得し、これを再生する。   In order to construct a virtual space that can be walk-through using such IBR technology, it is necessary to generate and present an image according to the position in the virtual space of the user. Therefore, in this type of system, each frame of the live-action image data is stored in association with the position in the virtual space, and the corresponding frame is acquired based on the position in the user's virtual space and the line-of-sight direction. Play this.

現実空間内の位置データを得る手法としては、カー・ナビゲーション・システムなどにも用いられているGPS(Global Positioning System)に代表される人工衛星を用いた測位システムを利用するのが一般的である。GPSなどから得られる位置データと、実写画像データを対応付ける手法としては、タイムコードを用いて対応付ける手法が提案されている(特開平11-168754)。この手法では、位置データに含まれる時刻データと、実写画像データの各フレームに付加したタイムコードとを対応付けることで、実写画像データの各フレームと位置データとの対応付けを行う。   As a method for obtaining position data in the real space, it is common to use a positioning system using an artificial satellite represented by GPS (Global Positioning System) which is also used in a car navigation system and the like. . As a method for associating position data obtained from the GPS or the like with actual captured image data, a method for associating using time code has been proposed (Japanese Patent Laid-Open No. 11-168754). In this method, the time data included in the position data is associated with the time code added to each frame of the real image data, thereby associating each frame of the real image data with the position data.

このような仮想空間内のウォークスルーにおいては、使用者が各視点位置で所望の方向を見ることができるようにする。このため、各視点位置の画像を、再生時の画角よりも広い範囲をカバーするパノラマ実写画像で保存しておき、使用者の仮想空間における視点位置と視線方向とに基づいてパノラマ実写画像から再生すべき部分画像を切り出し、これを表示することが考えられる。   In such a walk-through in the virtual space, the user can see a desired direction at each viewpoint position. For this reason, each viewpoint position image is stored as a panoramic live-action image that covers a wider range than the angle of view at the time of playback, and based on the viewpoint position and line-of-sight direction in the user's virtual space, It can be considered that a partial image to be reproduced is cut out and displayed.

従来パノラマ実写画像を得る一つの方法として、たとえば複数のカメラを用いる方法があった。一般にはまず所望の視界(たとえば全周方向の視界等)を複数のカメラの視界で網羅できるように夫々のカメラを放射状に配置する。この放射状型パノラマ撮像装置の例を図1に示す。そして夫々のカメラ(101〜108)で得られる画像をコンピュータなどの記憶装置に一時的に記憶しておく。そして夫々のカメラで撮像した画像を繋ぎ合わせることで、合成されたパノラマ実写画像を得ることができる。   Conventionally, as a method for obtaining a panoramic real image, there has been a method using a plurality of cameras, for example. In general, each camera is arranged radially so that a desired field of view (for example, a field of view in the entire circumference direction) can be covered by the field of view of a plurality of cameras. An example of this radial panoramic imaging apparatus is shown in FIG. Images obtained by the respective cameras (101 to 108) are temporarily stored in a storage device such as a computer. Then, by combining the images taken by the respective cameras, a synthesized panoramic real image can be obtained.

また、パノラマ実写画像を得る他の方法として、一台のカメラと双曲面ミラーを組み合わせて用いる方法があった。この双曲面ミラー型パノラマ撮像装置の例を図2に示す。図2に示すように、双曲面ミラー型パノラマ撮像装置は、双曲面ミラー202とカメラ部201から構成され、カメラ部201は、双曲面ミラーに反射した周囲の情景を撮像する。
遠藤、片山、田村、廣瀬、渡辺、谷川:“移動車輌搭載カメラを用いた都市空間の電脳映像化について”(信学ソサイエティ、PA-3-4、pp.276-277、1997年) 廣瀬、渡辺、谷川、遠藤、片山、田村:“移動車輌搭載カメラを用いた電脳映像都市空間の構築(2)−実写画像を用いた広域仮想空間の生成−”(日本バーチャルリアリティ学会第2回大会論文集、pp.67-70、1997年)
As another method for obtaining a panoramic image, there is a method using a single camera and a hyperboloid mirror in combination. An example of this hyperboloid mirror type panoramic imaging device is shown in FIG. As shown in FIG. 2, the hyperboloid mirror type panoramic imaging apparatus includes a hyperboloid mirror 202 and a camera unit 201, and the camera unit 201 images a surrounding scene reflected by the hyperboloid mirror.
Endo, Katayama, Tamura, Hirose, Watanabe, Tanikawa: “Cyber imaging of urban space using a mobile vehicle camera” (Science Society, PA-3-4, pp.276-277, 1997) Hirose, Watanabe, Tanikawa, Endo, Katayama, Tamura: “Construction of a cyberspace urban space using a mobile vehicle camera (2) -Generation of a wide virtual space using live-action images” (The 2nd Virtual Reality Society of Japan) Conference papers, pp.67-70, 1997)

しかしながら、上記に示す放射状型パノラマ撮像装置(図1)では、それぞれのカメラ(101〜108)のレンズ中心、すなわち光学的中心(以下「光心」という)の位置がカメラの内側にあるため、それぞれのカメラの光心位置を一致させることができない。それぞれのカメラ(101〜108)の光心位置がずれているため、各カメラから得られる画像は異なる視点からの画像になる。よって、画像を繋ぎ合せてパノラマ画像を合成しようとすると、画像同士の重なり部分が同じ映像にならず、二重増ができてしまう。図3には、画像301と画像302を繋ぎ合わせる際に、合成した画像303の重なり部分304において二重像が現れている様子が示されている。   However, in the above-described radial panoramic imaging device (FIG. 1), the lens center of each camera (101 to 108), that is, the optical center (hereinafter referred to as “optical center”) is located inside the camera. The optical center positions of the respective cameras cannot be matched. Since the optical center positions of the cameras (101 to 108) are shifted, images obtained from the cameras are images from different viewpoints. Therefore, when trying to combine panoramic images by connecting images, the overlapping portions of the images do not become the same video, and double increase is possible. FIG. 3 shows a state in which a double image appears in the overlapping portion 304 of the synthesized image 303 when the image 301 and the image 302 are joined together.

一方、図2の双曲面ミラー型パノラマ撮像装置では、使用するカメラ201が1台のみであるため、繋ぎ合わせによる二重像は発生しない。ただし、放射状型パノラマ撮像装置に比べると全体の解像度は低くなり、用途によっては解像度が足りないという問題が起きる。   On the other hand, in the hyperboloid mirror type panoramic imaging device of FIG. 2, since only one camera 201 is used, a double image is not generated by joining. However, the overall resolution is lower than that of the radial panoramic imaging device, and there is a problem that the resolution is insufficient depending on the application.

本発明は以上を鑑みてなされたものであり、画像同士の繋ぎ目に二重像が発生せず、かつ高解像度のパノラマ映像を容易に得ることを目的とする。   The present invention has been made in view of the above, and an object thereof is to easily obtain a high-resolution panoramic image without generating a double image at the joint between images.

本発明の目的を達成するために、本願請求項1記載の発明は、複数の撮像部によって撮像される複数の画像を取得する第一の画像取得手段と、前記複数の撮像部それぞれの撮像視界と重なりを有する撮像視界を持つ第二の撮像部によって撮像される第二の画像を取得する第二の画像取得手段と、前記第二の画像の解像度を調整する調整手段と、前記複数の画像、および前記調整手段によって解像度を調整された第二の画像の対応を探索する対応探索手段と、前記対応探索手段の探索結果をもとに、前記複数の画像および前記調整手段によって解像度を調整された第二の画像から、第三の画像を生成する生成手段とを備えることを特徴とする。   In order to achieve the object of the present invention, the invention according to claim 1 of the present application includes a first image acquisition means for acquiring a plurality of images captured by a plurality of imaging units, and an imaging field of view of each of the plurality of imaging units. A second image acquisition unit that acquires a second image captured by a second imaging unit having an imaging field of view that overlaps, an adjustment unit that adjusts the resolution of the second image, and the plurality of images And a correspondence search means for searching for a correspondence of the second image whose resolution is adjusted by the adjustment means, and the resolution is adjusted by the plurality of images and the adjustment means based on a search result of the correspondence search means. And generating means for generating a third image from the second image.

本発明によれば、画像同士の繋ぎ目に二重像が発生せず、かつ高解像度のパノラマ映像を容易に得ることができる。   According to the present invention, a double image does not occur at the joint between images, and a high-resolution panoramic image can be easily obtained.

以下、添付図面に従って、本発明の好適な実施形態について説明する。   Preferred embodiments of the present invention will be described below with reference to the accompanying drawings.

(第1の実施形態)
本実施形態では、周囲のパノラマ画像を撮像する一台の広画角カメラと、周囲の部分画像を撮像する複数の参照用カメラを用いて、二重像が発生せず、かつ高解像度のパノラマ映像を得る。この方法を説明するために、周囲のパノラマ画像を撮像する一台の広画角カメラ(403)と、周囲の部分画像を撮像する複数の参照用カメラ(401、402)を用いた例を図4に示す。
(First embodiment)
In this embodiment, a single wide-angle camera that captures surrounding panoramic images and a plurality of reference cameras that capture surrounding partial images are used, and a high-resolution panorama is not generated. Get a picture. In order to explain this method, an example in which one wide-angle camera (403) that captures a surrounding panoramic image and a plurality of reference cameras (401, 402) that capture a surrounding partial image is illustrated. 4 shows.

ここで、参照用カメラ(401、402)は、図1に示す放射状型パノラマ撮像装置と同じく、すべてのカメラは同じ面かつ放射状に配置していて、各カメラの光心位置は一致していないものとする。   Here, in the reference cameras (401, 402), like the radial panoramic imaging device shown in FIG. 1, all the cameras are arranged on the same plane and radially, and the optical center positions of the cameras do not coincide with each other. Shall.

また、説明のためのカメラの例としてビデオカメラをあげるが、これに限らず、スチールカメラのようなものでも良い。   Further, a video camera is given as an example of a camera for explanation, but the present invention is not limited to this, and a camera such as a still camera may be used.

図4は上述の各カメラを上方から見た配置図である。401及び402は周囲の部分画像を撮像する複数の参照用カメラであり、それぞれ視界411及び412を有する。また、カメラ401及び402の視野角及び解像度は等しいものとする。403は周囲のパノラマ画像を撮像する一台の広画角カメラであり、視界413を有する。ここで、視界413は、視界411及び視界412のそれぞれと重なり部分を有する。さらに、カメラ403のレンズ中心は、カメラ401とカメラ402の光軸が交差する位置にある。また、カメラ403が撮像する画像の解像度(サイズ)は、カメラ401及びカメラ402が撮像する画像の解像度(サイズ)と比較して低いものとする。このように各カメラを配置して、カメラ401及びカメラ402の撮像する複数の画像をもとにカメラ403の位置から見た画像を得たい。   FIG. 4 is a layout view of the above-described cameras as viewed from above. Reference numerals 401 and 402 denote a plurality of reference cameras that capture surrounding partial images, and have fields of view 411 and 412 respectively. The viewing angles and resolutions of the cameras 401 and 402 are assumed to be equal. Reference numeral 403 denotes a wide-angle camera that captures surrounding panoramic images, and has a field of view 413. Here, the field of view 413 has an overlapping portion with each of the field of view 411 and the field of view 412. Further, the lens center of the camera 403 is at a position where the optical axes of the camera 401 and the camera 402 intersect. The resolution (size) of the image captured by the camera 403 is lower than the resolution (size) of the image captured by the camera 401 and the camera 402. Each camera is arranged in this way, and it is desired to obtain an image viewed from the position of the camera 403 based on a plurality of images captured by the camera 401 and the camera 402.

図5に、図4の各カメラから得られた画像を示す。画像501、502、503はそれぞれカメラ401、402、403から得られたと想定する。上記の説明のように、画像503の解像度(サイズ)は、画像501、502の解像度より低い(小さい)。   FIG. 5 shows images obtained from the respective cameras shown in FIG. Assume that images 501, 502, and 503 are obtained from cameras 401, 402, and 403, respectively. As described above, the resolution (size) of the image 503 is lower (smaller) than the resolution of the images 501 and 502.

上述の各カメラの配置に基づいて、カメラ401及びカメラ402の撮像する複数の画像をもとにカメラ403の位置から見た画像を得る処理を、図6に示すフローチャートを用いて説明する。   A process for obtaining an image viewed from the position of the camera 403 based on a plurality of images captured by the camera 401 and the camera 402 based on the arrangement of each camera described above will be described with reference to a flowchart shown in FIG.

まずステップS601では、図4に示すカメラ401、402、403それぞれによって、図5に示す画像501、502、503を取得する。画像を取得する際に、必要に応じてレンズ歪み補正などの処理の実施も行う。   First, in step S601, images 501, 502, and 503 shown in FIG. 5 are acquired by the cameras 401, 402, and 403 shown in FIG. When an image is acquired, processing such as lens distortion correction is performed as necessary.

ステップS602では、画像の解像度(サイズ)の調整(拡大、縮小)を行う。ここでは、ステップS601で撮影した画像501、502の像の密度と、画像503の像の密度が同じになるように画像の解像度を調整する。すなわち、画像501及び502に写っている対象物のサイズと、対応する画像503に写っている対象物のサイズが同じになるように画像の解像度を調整する。調整パラメータ(拡大、縮小の度合い)は、図4の各カメラの配置が固定であれば、あらかじめ定めたパラメータで固定となるため、本フローチャートの処理を始める前に手作業によって設定を行っておくことが望ましい。図5において調整を行うには、画像503の解像度を高くして画像501及び502の解像度と合わせるか、画像501及び502の解像度を低くして画像503の解像度と合わせるなど、いくつかパターンが考えられるが、本発明の本実施形態においては、前者のやり方(画像503の解像度を高くして画像501及び502の解像度と合わせる)を選択する。この場合、画像503は拡大されることになるため、拡大に伴い隙間が生じる画素に対しては、近傍の画素値をそのまま入力したり、補間処理などを施すことができる。また必要に応じて各種フィルタリング処理も行う。こうすることで、画像503から図7に示す画像703が生成される。なお、生成された画像703は、画像503を拡大したものであるため、画像501及び502と比較して見た目が粗い画像になっている。   In step S602, the resolution (size) of the image is adjusted (enlarged or reduced). Here, the resolution of the image is adjusted so that the density of the images 501 and 502 taken in step S601 is equal to the density of the image 503. That is, the resolution of the image is adjusted so that the size of the object shown in the images 501 and 502 is the same as the size of the object shown in the corresponding image 503. The adjustment parameter (degree of enlargement / reduction) is fixed at a predetermined parameter if the arrangement of each camera in FIG. 4 is fixed. Therefore, the adjustment parameter is set manually before starting the processing of this flowchart. It is desirable. In order to perform the adjustment in FIG. 5, there are several patterns such as increasing the resolution of the image 503 to match the resolution of the images 501 and 502, or decreasing the resolution of the images 501 and 502 to match the resolution of the image 503. However, in the present embodiment of the present invention, the former method (the resolution of the image 503 is increased to match the resolution of the images 501 and 502) is selected. In this case, since the image 503 is enlarged, a neighboring pixel value can be input as it is or interpolation processing or the like can be applied to a pixel in which a gap is generated due to the enlargement. Various filtering processes are also performed as necessary. By doing so, an image 703 shown in FIG. 7 is generated from the image 503. Since the generated image 703 is an enlargement of the image 503, the image 703 has a coarser appearance than the images 501 and 502.

ステップS603では、画像703中の各部分領域に対応する画像501、502の領域(対応領域)を探索する。(画像703中の部分領域とは、画像703をあらかじめ定めたサイズで分割した複数の領域である。)ここで、本実施形態における部分領域及び対応領域のサイズは、画素単位でも良いし、nxn画素ブロックのような適当なサイズの領域でも良い。対応探索に用いる領域のサイズは、上述の対応領域のサイズより大きくすることも考えられる。図8に示す例では、探索領域は4x4画素のブロックであるが、対応領域は真中の2x2画素のブロック801である。対応領域の探索に用いる方法は、画像の輝度値を特徴量としたテンプレートマッチング法でも良いし、画像中の特徴点を検出してパターンマッチングを行う方法でもよい。さらに、探索を高速化かつもっと正確に行うために、探索領域のサイズを階層的に変えながら実行することも考えられる。このようにして、画像703の各部分領域と、画像501及び502両方の画像の各領域との誤差を計算し、誤差の一番小さい領域を対応領域とする。テンプレートマッチング法を利用して誤差を計算する例として式1を挙げることができるが、それに限定されるものではない。式1では、Nは探索領域のブロックのサイズ()、は探索対象になっている領域の画素、は画像703の部分領域内の画素である。   In step S603, the areas (corresponding areas) of the images 501 and 502 corresponding to the partial areas in the image 703 are searched. (The partial area in the image 703 is a plurality of areas obtained by dividing the image 703 by a predetermined size.) Here, the size of the partial area and the corresponding area in the present embodiment may be a pixel unit, or nxn An area having an appropriate size such as a pixel block may be used. It is also conceivable that the size of the area used for the correspondence search is larger than the size of the corresponding area described above. In the example shown in FIG. 8, the search area is a 4 × 4 pixel block, but the corresponding area is a middle 2 × 2 pixel block 801. The method used for searching for the corresponding region may be a template matching method using the luminance value of the image as a feature amount, or a method of detecting a feature point in the image and performing pattern matching. Furthermore, in order to increase the speed and accuracy of the search, it is conceivable to execute the search area while changing the size of the search area hierarchically. In this way, the error between each partial region of the image 703 and each region of both the images 501 and 502 is calculated, and the region with the smallest error is set as the corresponding region. As an example of calculating the error using the template matching method, Equation 1 can be given, but the present invention is not limited to this. In Equation 1, N is the size () of the block in the search area, is a pixel in the area to be searched, and is a pixel in the partial area of the image 703.

Figure 2006171939
ステップS603が終わると、画像703の各部分領域に対応する画像501もしくは502の対応領域が得られている。得られた部分領域と対応領域の対応情報は、例えば対応表として保存しておく。
Figure 2006171939
When step S603 is completed, a corresponding area of the image 501 or 502 corresponding to each partial area of the image 703 is obtained. The obtained correspondence information between the partial area and the corresponding area is stored, for example, as a correspondence table.

ステップS604では、ステップS603で得られた対応表をもとに、画像703の各部分領域に、その領域に対応する画像501もしくは502の画素値(RGB)を入れる。こうすることで、画像704のような、解像度の高いパノラマ画像を得ることが可能である。   In step S604, based on the correspondence table obtained in step S603, the pixel values (RGB) of the image 501 or 502 corresponding to the region are entered in each partial region of the image 703. By doing so, a high-resolution panoramic image such as the image 704 can be obtained.

ステップS605では、ステップS604で得られたパノラマ画像704を保存する。   In step S605, the panoramic image 704 obtained in step S604 is stored.

ステップS602では、画像の解像度調整を行う時に、画像503の解像度を画像501及び502の解像度にあわせた場合の説明を行ったが、逆に、画像501及び502の解像度を画像503の解像度にあわせても良い。この場合は、ステップS603において、画像501、502の縮小画像中の各部分領域に対応する画像503の領域(対応領域)を探索する。ステップS603の処理が終わり、対応表が完成したら、対応表をもとにパノラマ画像704を合成する。ここで、合成に使われる画像は画像501と502の縮小画像ではなく、元の画像501と502である。   In step S602, the case where the resolution of the image 503 is matched with the resolution of the images 501 and 502 when the resolution of the image is adjusted has been described. Conversely, the resolution of the images 501 and 502 is matched with the resolution of the image 503. May be. In this case, in step S603, a region (corresponding region) of the image 503 corresponding to each partial region in the reduced images of the images 501 and 502 is searched. When the processing of step S603 is completed and the correspondence table is completed, a panoramic image 704 is synthesized based on the correspondence table. Here, the images used for the synthesis are not the reduced images of the images 501 and 502 but the original images 501 and 502.

ステップS604では、S603で作成された対応表をもとに、画像704の合成を行っていたが、例えば対応表を作成しないで、対応領域が決まった時点で画像704への画素値(RGB)書き込みを行っても良い。   In step S604, the image 704 is synthesized based on the correspondence table created in S603. For example, the pixel value (RGB) to the image 704 is determined when the correspondence region is determined without creating the correspondence table. You may write.

以上の処理により、周囲のパノラマ画像を撮像する一台の広画角カメラ(403)と、周囲の部分画像を撮像する複数の参照用カメラ(401、402)を用いることで、周囲の広画角カメラ画像をもとにした二重像がない画像構成と、高解像度である複数の参照用カメラ画像の利点を合わせることができるため、二重像が発生せず、かつ高解像度のパノラマ映像を容易に得ることができる。   Through the above process, a wide-angle camera (403) that captures a surrounding panoramic image and a plurality of reference cameras (401, 402) that capture a surrounding partial image are used. The image structure without a double image based on a square camera image and the advantages of multiple reference camera images with high resolution can be combined, so a double image does not occur and high-resolution panoramic video Can be easily obtained.

(第2の実施形態)
次に、全周方向のパノラマ画像を撮像する一台の双曲面ミラー型パノラマ撮像装置(以下、カメラ909と呼ぶ)と、周囲の部分画像を撮像する複数の参照用カメラ(901〜908)を用いた場合のカメラ配置例を図9に示す。(図9(a)はカメラ配置を上からみた図であり、図9(b)はカメラ配置を横から見た図である。)図9に示したカメラの配置構成は、基本的には図4に示した配置構成を拡張したものである。図9に示した配置構成では、カメラ909を中心にして、カメラ901〜908を放射状に配置している。また、カメラ909と、カメラ901〜908それぞれの視界は重なり部分を有しているものとする。さらに、カメラ901〜908それぞれの視野角及び解像度は等しいものとする。
(Second Embodiment)
Next, a hyperboloid mirror type panoramic imaging device (hereinafter referred to as a camera 909) that captures panoramic images in the entire circumference and a plurality of reference cameras (901 to 908) that capture surrounding partial images. An example of the camera arrangement when used is shown in FIG. (FIG. 9 (a) is a view of the camera arrangement from above, and FIG. 9 (b) is a view of the camera arrangement from the side.) The camera arrangement shown in FIG. This is an extension of the arrangement shown in FIG. In the arrangement configuration shown in FIG. 9, the cameras 901 to 908 are arranged radially with the camera 909 as the center. Further, it is assumed that the fields of view of the camera 909 and the cameras 901 to 908 have overlapping portions. Further, it is assumed that the viewing angles and resolutions of the cameras 901 to 908 are equal.

図10の1001は、カメラ909によって得られる広画角画像である。(撮像装置、或いは撮像装置の設置方法によっては、異なる画像が得られることもある。)ここで、画像1001では双曲面ミラーを利用することによる歪みが生じていることが分かる。よって、画像1001に対して幾何学変換を施し、歪み補正を行う必要がある。双曲面ミラー型パノラマ撮像装置を利用した際の画像歪み補正については公知の手法を適用すればよい。歪みを補正したあとの画像を図10の1002に示す。   A reference numeral 1001 in FIG. 10 is a wide-angle image obtained by the camera 909. (Depending on the imaging device or the installation method of the imaging device, different images may be obtained.) Here, it can be seen that the image 1001 is distorted by using a hyperboloidal mirror. Therefore, it is necessary to perform geometric transformation on the image 1001 and perform distortion correction. A known method may be applied to the image distortion correction when the hyperboloid mirror type panoramic imaging device is used. An image after correcting the distortion is shown at 1002 in FIG.

図11は、カメラ901〜908それぞれによって得られる画像である。カメラ901、902、903、904、905、906、907、908から得られる画像は、それぞれ画像1101、1102、1103、1104、1105、1106、1107、1108であると想定する。   FIG. 11 is an image obtained by each of the cameras 901 to 908. Assume that images obtained from the cameras 901, 902, 903, 904, 905, 906, 907, and 908 are images 1101, 1102, 1103, 1104, 1105, 1106, 1107, and 1108, respectively.

図9のパノラマ撮影装置から、図10の1002に示す広画角画像、および図11に示す複数の高解像度画像が得られる。これらの画像を元に、図15に示すフローチャートの処理を行うことで、二重像が発生せず、かつ高解像度のパノラマ映像を得ることができる。   From the panorama photographing apparatus in FIG. 9, a wide-angle image shown by 1002 in FIG. 10 and a plurality of high-resolution images shown in FIG. 11 are obtained. By performing the process of the flowchart shown in FIG. 15 based on these images, a double image does not occur and a high-resolution panoramic image can be obtained.

以下、図15に示すフローチャートの説明を行う。   Hereinafter, the flowchart shown in FIG. 15 will be described.

まずステップS1501では、図9に示すカメラ901、902、903、904、905、906、907、908それぞれによって、図11に示す画像1101、1102、1103、1104、1105、1106、1107、1108を取得する。また、カメラ909によって撮像される画像1001を取得して、幾何学変換式H1003によって歪み補正を施した画像1002を得る。幾何学変換式H1003は、公知の技術によって求めることができ、数式や行列で表現することができる。画像を取得する際に、必要に応じてレンズ歪み補正などの処理の実施も行う。   First, in step S1501, the images 1101, 1102, 1103, 1104, 1105, 1106, 1107, and 1108 shown in FIG. 11 are acquired by the cameras 901, 902, 903, 904, 905, 906, 907, and 908 shown in FIG. To do. Also, an image 1001 captured by the camera 909 is acquired, and an image 1002 that has been subjected to distortion correction by the geometric transformation equation H1003 is obtained. The geometric conversion formula H1003 can be obtained by a known technique and can be expressed by a mathematical formula or a matrix. When an image is acquired, processing such as lens distortion correction is performed as necessary.

ステップS1502では、画像の解像度(サイズ)の調整(拡大、縮小)を行う。ここでは、ステップS1501で撮影した画像1101〜1108それぞれの像の密度と、画像1002の像の密度が同じになるように画像の解像度を調整する。すなわち、画像1101〜1108それぞれに写っている対象物のサイズと、対応する画像1002に写っている対象物のサイズが同じになるように画像の解像度を調整する。調整パラメータ(拡大、縮小の度合い)は、図9の各カメラの配置が固定であれば、あらかじめ定めたパラメータで固定となるため、本フローチャートの処理を始める前に手作業によって設定を行っておくことが望ましい。ここで、説明のためにカメラ901〜908それぞれと、カメラ909は同じ種類のカメラであると想定し、得られる画像は全て同じ解像度の画像であるとする。画像1101〜1108それぞれは同じ視野角と解像度を有しているが、画像1002は全周方向の広画角の視界を有するため、画像1002の解像度は、画像1101〜1108それぞれの解像度よりも低くなる。解像度の調整を行うには、画像1002の解像度を高くして画像1101〜1108それぞれの解像度と合わせるか、画像1101〜1108それぞれの解像度を低くして画像1002の解像度と合わせるなど、いくつかパターンが考えられるが、ここでは前者のやり方(画像1002の解像度を高くして画像1101〜1108それぞれの解像度と合わせる)を選択する。図10に示すように、画像1002に幾何学変換式H1004を施して画像1005を生成する。また変換の際には必要に応じて各種フィルタリング処理も行う。なお、生成された画像1005は、画像1002を拡大したものであるため、画像1101〜1108と比較して見た目が粗い画像になっている。   In step S1502, the resolution (size) of the image is adjusted (enlarged or reduced). Here, the image resolution is adjusted so that the density of each of the images 1101 to 1108 taken in step S1501 is the same as the density of the image 1002. That is, the resolution of the image is adjusted so that the size of the object shown in each of the images 1101 to 1108 is the same as the size of the object shown in the corresponding image 1002. The adjustment parameter (degree of enlargement / reduction) is fixed at a predetermined parameter if the arrangement of each camera in FIG. 9 is fixed. Therefore, the adjustment parameter is set manually before starting the processing of this flowchart. It is desirable. Here, for the sake of explanation, it is assumed that the cameras 901 to 908 and the camera 909 are the same type of camera, and all the obtained images are images of the same resolution. Each of the images 1101 to 1108 has the same viewing angle and resolution, but since the image 1002 has a wide field of view in the entire circumferential direction, the resolution of the image 1002 is lower than the resolution of each of the images 1101 to 1108. Become. In order to adjust the resolution, there are several patterns such as increasing the resolution of the image 1002 to match the resolution of each of the images 1101 to 1108, or decreasing the resolution of each of the images 1101 to 1108 to match the resolution of the image 1002. Although considered, the former method (the resolution of the image 1002 is increased to match the resolution of each of the images 1101 to 1108) is selected here. As shown in FIG. 10, an image 1005 is generated by applying a geometric transformation formula H1004 to the image 1002. In addition, various filtering processes are also performed as necessary during conversion. Note that the generated image 1005 is an enlargement of the image 1002, and thus has a coarser appearance than the images 1101 to 1108.

ステップS1503では、画像1005中の各部分領域に対応する画像1101〜1108の領域(対応領域)を探索する。(画像1005中の部分領域とは、画像1005をあらかじめ定めたサイズで分割した複数の領域ある。)ここで、本実施形態における部分領域及び対応領域のサイズは、画素単位でも良いし、nxn画素ブロックのような適当なサイズの領域でも良い。対応探索に用いる領域のサイズは、上述の対応領域のサイズより大きくすることも考えられる。図8に示す例では、探索領域は4x4画素のブロックであるが、対応領域は真中の2x2画素のブロック801である。対応領域の探索に用いる方法は、画像の輝度値を特徴量としたテンプレートマッチング法でも良いし、画像中の特徴点を検出してパターンマッチングを行う方法でもよい。さらに、探索を高速化かつもっと正確に行うために、探索領域のサイズを階層的に変えながら実行することも考えられる。   In step S1503, areas of the images 1101 to 1108 (corresponding areas) corresponding to the partial areas in the image 1005 are searched. (The partial area in the image 1005 is a plurality of areas obtained by dividing the image 1005 by a predetermined size.) Here, the size of the partial area and the corresponding area in the present embodiment may be a pixel unit or nxn pixels. An area of an appropriate size such as a block may be used. It is also conceivable that the size of the area used for the correspondence search is larger than the size of the corresponding area described above. In the example shown in FIG. 8, the search area is a 4 × 4 pixel block, but the corresponding area is a middle 2 × 2 pixel block 801. The method used for searching for the corresponding region may be a template matching method using the luminance value of the image as a feature amount, or a method of detecting a feature point in the image and performing pattern matching. Furthermore, in order to increase the speed and accuracy of the search, it is conceivable to execute the search area while changing the size of the search area hierarchically.

画像1005の各部分領域と、画像1101〜1108全ての画像の各領域との誤差を計算し、誤差の一番小さい領域を対応領域とする。テンプレートマッチング法を利用して誤差を計算する例として式1を挙げることができるが、それに限定されるものではない。   An error between each partial region of the image 1005 and each region of all the images 1101 to 1108 is calculated, and a region with the smallest error is set as a corresponding region. As an example of calculating the error using the template matching method, Equation 1 can be given, but the present invention is not limited to this.

ステップS1503が終わると、画像1005の各部分領域に対応する画像1101〜1108の対応領域が得られている。得られた部分領域と対応領域の対応情報を、例えば図12の変換式H1201〜H1208として保存する。変換式H1201〜H1208は、数式や行列で表現することができる。   When step S1503 ends, corresponding areas of images 1101 to 1108 corresponding to the partial areas of image 1005 are obtained. The obtained correspondence information between the partial area and the corresponding area is stored as, for example, conversion formulas H1201 to H1208 in FIG. The conversion formulas H1201 to H1208 can be expressed by mathematical formulas or matrices.

ステップS1504では、ステップS1503で得られた変換式H1201〜H1208をもとに、画像1209の各部分領域に、その領域に対応する画像1101〜1108の画素値(RGB)を入れる。こうすることで、画像1209のような、解像度の高いパノラマ画像を得ることが可能である。   In step S1504, based on the conversion formulas H1201 to H1208 obtained in step S1503, the pixel values (RGB) of the images 1101 to 1108 corresponding to the regions are entered in each partial region of the image 1209. In this way, a high-resolution panoramic image such as the image 1209 can be obtained.

ステップS1505では、ステップS1504で得られたパノラマ画像1209を保存する。   In step S1505, the panoramic image 1209 obtained in step S1504 is stored.

ステップS1502では、画像の解像度調整を行う時に、画像1002の解像度を画像1101〜1108それぞれの解像度に合わせた場合の説明を行ったが、逆に、画像1101〜1108それぞれの解像度を画像1002の解像度に合わせてもよい。この場合は、ステップS1503において、画像1101〜1108の縮小画像中の各部分領域に対応する画像1002の領域(対応領域)を探索する。ステップS1503の処理が終わり、対応変換式H1201〜1208が完成したら、対応変換式をもとにパノラマ画像1209を合成する。ここで、合成に使われる画像は画像1101〜1108の縮小画像ではなく、元の画像1101〜1108である。   In step S1502, the case where the resolution of the image 1002 is adjusted to the resolution of each of the images 1101 to 1108 when the resolution of the image is adjusted has been described. Conversely, the resolution of each of the images 1101 to 1108 is changed to the resolution of the image 1002. You may adjust to. In this case, in step S1503, an area (corresponding area) of the image 1002 corresponding to each partial area in the reduced images of the images 1101 to 1108 is searched. When the processing in step S1503 ends and the corresponding conversion formulas H1201 to 1208 are completed, a panoramic image 1209 is synthesized based on the corresponding conversion formula. Here, the images used for the synthesis are not the reduced images of the images 1101 to 1108 but the original images 1101 to 1108.

ステップS1503の探索処理時間を短縮するために、対応領域の探索範囲を狭くすることができる。図13は、図9と同様の配置構成を持つ撮影装置である。ここで、カメラ905について説明を行うが、他のカメラについても同様な処理を行うものとする。直線1305は、カメラ909とカメラ905のレンズ中心を通過する直線である。この直線は、画像1001と画像1105それぞれの画像中の各一点を通過する。同様に、図13に示すように、カメラ909のレンズ中心と、カメラ901、902、903、904、906、907、908それぞれのレンズ中心を通過する直線1301、1302、1303、1304、1306、1307、1308が存在する。そしてこれらの直線は、画像1001と、画像1101、1102、1103、1104、1106、1107、1108それぞれの画像中の各一点を通過する。図14には、直線1305が(画像1001を変換した)画像1005を通過する点1305Aと、直線1305が画像1105を通過する点1305Bを示す。そして、図14が示すように、通過点1305Aと通過点1305Bを中心に、対応領域の探索範囲を限定することができる。例えば、テンプレートになる部分領域が1305A付近にあるとすると、画像1105の1305B付近に対応領域の探索範囲を絞れば良い。同じく、テンプレートになる部分領域が1305Aの右上方向にあるとすると、画像1105の1305Bの右上方向付近に対応領域の探索範囲を絞れば良い。   In order to shorten the search processing time in step S1503, the search range of the corresponding region can be narrowed. FIG. 13 shows a photographing apparatus having the same arrangement configuration as FIG. Here, the camera 905 will be described, but it is assumed that the same processing is performed for other cameras. A straight line 1305 is a straight line that passes through the lens centers of the camera 909 and the camera 905. This straight line passes through each point in the images 1001 and 1105. Similarly, as shown in FIG. 13, the lens center of the camera 909 and straight lines 1301, 1302, 1303, 1304, 1306, 1307 passing through the respective lens centers of the cameras 901, 902, 903, 904, 906, 907, 908. 1308 exists. These straight lines pass through one point in each of the image 1001 and the images 1101, 1102, 1103, 1104, 1106, 1107, 1108. FIG. 14 shows a point 1305A where the straight line 1305 passes through the image 1005 (converted from the image 1001) and a point 1305B where the straight line 1305 passes through the image 1105. Then, as shown in FIG. 14, the search range of the corresponding area can be limited around the passing point 1305A and the passing point 1305B. For example, if the partial region to be a template is in the vicinity of 1305A, the search range of the corresponding region may be narrowed in the vicinity of 1305B of the image 1105. Similarly, if the partial area to be a template is in the upper right direction of 1305A, the search range of the corresponding area may be narrowed down near the upper right direction of 1305B of the image 1105.

ステップS1504では、対応領域が決まった時点で画像1209への画素値(RGB)書き込みを行っても良い。   In step S1504, pixel values (RGB) may be written into the image 1209 when the corresponding area is determined.

以上の処理により、全周方向のパノラマ画像を撮像する一台の双曲面ミラー型パノラマ撮像装置(909)と、周囲の部分画像を撮像する複数の参照用カメラ(901〜908)を用いることで、全周方向のパノラマ画像をもとにした二重像がない画像構成と、高解像度である複数の参照用カメラ画像の利点を合わせることができるため、二重像が発生せず、かつ高解像度のパノラマ映像を容易に得ることができる。   Through the above processing, a single hyperboloid mirror type panoramic imaging device (909) that captures panoramic images in the entire circumference and a plurality of reference cameras (901 to 908) that capture surrounding partial images are used. Because the advantages of the image structure without a double image based on the panoramic image in the entire circumference and the multiple reference camera images with high resolution can be combined, a double image does not occur and a high A panoramic image with resolution can be easily obtained.

なお、双曲面ミラー型パノラマ撮像装置(909)には、双曲面ミラーの代わりに、たとえば魚眼レンズなどの、全周方向の情景を視界に入れることができる光学デバイスを取り付けてもよい。   The hyperboloidal mirror type panoramic imaging device (909) may be provided with an optical device that can enter a scene in the entire circumference direction, such as a fisheye lens, instead of the hyperboloidal mirror.

(第3の実施例)
次に、本実施形態では、周囲のパノラマ画像を撮像する一台の広画角カメラと、周囲の部分画像を撮像する色合いにばらつきのある複数の参照用カメラを用いて、二重像が発生せず、かつ高解像度、さらには色合いが統一されたパノラマ映像を得るため方法の説明を行う。この方法を説明するために、例えば第2の実施形態における画像1002の部分画像1002'、および第2の実施形態における画像1101の部分画像1101'を図16に示して説明を行う。ここで画像1002は、周囲のパノラマ画像を撮像する一台の広画角カメラによって撮像された画像を変換した図10に示す画像である。また画像1101は、周囲の部分画像を撮像する複数の参照用カメラのうち1台によって撮像された図11に示す画像である。本実施形態においては、複数の参照用カメラによって撮像された画像のうち画像1101についてのみ説明を行うが、図11に示す他の画像1102〜1108に対しても同様の処理を行う。
(Third embodiment)
Next, in this embodiment, a double image is generated using a single wide-angle camera that captures a surrounding panoramic image and a plurality of reference cameras that vary in hue for capturing a surrounding partial image. A method for obtaining a panoramic image without high resolution and with a uniform hue will be described. In order to describe this method, for example, a partial image 1002 ′ of the image 1002 in the second embodiment and a partial image 1101 ′ of the image 1101 in the second embodiment will be described with reference to FIG. Here, the image 1002 is an image shown in FIG. 10 obtained by converting an image captured by a single wide-angle camera that captures a surrounding panoramic image. An image 1101 is the image shown in FIG. 11 captured by one of a plurality of reference cameras that capture the surrounding partial images. In the present embodiment, only the image 1101 among the images captured by a plurality of reference cameras will be described, but the same processing is performed on the other images 1102 to 1108 shown in FIG.

本実施形態においては、図10の画像1002を(画像1101の解像度に合わせるために)画像1005に拡大する際の幾何学変換式H1004として、例えば縦横それぞれ2倍に拡大する場合について説明を行う。すなわち、部分画像1002'の1画像は、対応する部分画像1101'の4画素分に相当することになる。ここで、図16に示す部分画像1002'中の太線で囲った画素1602と、部分画像1101'中の太線で囲った画素1601a〜dが対応することとする。対応領域の探索については第2の実施形態において説明を行ったとおりである。また、部分画像1002'の各画素、および部分画像1101'の各画素は、色情報として(Y,U,V)情報を持つ。この色情報のうち、Yは輝度、Uは赤の色差、Vは青の色差を表す。またこの色情報は、デジタルビデオのデータフォーマットなどとして利用されている。   In the present embodiment, a case will be described in which, for example, the image 1002 of FIG. 10 is enlarged twice (vertically and horizontally) as the geometric conversion equation H1004 when the image 1002 is enlarged to the image 1005 (in order to match the resolution of the image 1101). That is, one image of the partial image 1002 ′ corresponds to four pixels of the corresponding partial image 1101 ′. Here, it is assumed that the pixels 1602 surrounded by the thick lines in the partial image 1002 ′ shown in FIG. 16 correspond to the pixels 1601a to 160d surrounded by the thick lines in the partial image 1101 ′. The search for the corresponding area is as described in the second embodiment. Further, each pixel of the partial image 1002 ′ and each pixel of the partial image 1101 ′ have (Y, U, V) information as color information. In this color information, Y represents luminance, U represents red color difference, and V represents blue color difference. The color information is used as a data format of digital video.

ここで、部分画像1002'と部分画像1101'の色合いを統一するために、例えば部分画像1101'の各画素輝度成分(Y)を部分画像1002'の各画素輝度成分(Y)に合わせるように調整する場合について説明を行う。画素1602の輝度値をY1602、画素1601aの輝度値をY1601a、画素1601bの輝度値をY1601b、画素1601cの輝度値をY1601c、画素1601dの輝度値をY1601dとする。また、画素1601aの輝度値調整後の輝度値をY1601a'、画素1601bの輝度値調整後の輝度値をY1601b'、画素1601cの輝度値調整後の輝度値をY1601c'、画素1601dの輝度値調整後の輝度値Y1601d'とする。   Here, in order to unify the hues of the partial image 1002 ′ and the partial image 1101 ′, for example, each pixel luminance component (Y) of the partial image 1101 ′ is matched with each pixel luminance component (Y) of the partial image 1002 ′. The case of adjustment will be described. The luminance value of the pixel 1602 is Y1602, the luminance value of the pixel 1601a is Y1601a, the luminance value of the pixel 1601b is Y1601b, the luminance value of the pixel 1601c is Y1601c, and the luminance value of the pixel 1601d is Y1601d. Further, the luminance value after adjusting the luminance value of the pixel 1601a is Y1601a ′, the luminance value after adjusting the luminance value of the pixel 1601b is Y1601b ′, the luminance value after adjusting the luminance value of the pixel 1601c is Y1601c ′, and the luminance value of the pixel 1601d is adjusted. The subsequent luminance value is Y1601d ′.

画素1601a〜dの輝度値調整後の輝度値Y1601a'〜d'を求めるには、式2〜5に示すように、輝度値Y1601a〜dそれぞれに輝度値Y1601a〜dの平均値の逆数と、輝度値Y1602をスケールファクターとしてかけてやればよい。   In order to obtain the luminance values Y1601a ′ to d ′ after adjusting the luminance values of the pixels 1601a to 160d, as shown in Expressions 2 to 5, the luminance values Y1601a to d each have a reciprocal of the average value of the luminance values Y1601a to d, The luminance value Y1602 may be applied as a scale factor.

Figure 2006171939
以上の処理は、第2実施形態の処理手順のステップS1504に加えて行えばよい。
Figure 2006171939
The above processing may be performed in addition to step S1504 of the processing procedure of the second embodiment.

ここで、幾何学変換式H1004として縦横2倍以外の変換式を用いても、色合い調整のための成分として輝度成分(Y)以外を利用しても、さらには色合い調整のための色情報として(Y,U,V)情報以外を利用してもよいことは言うまでもない。   Here, even if a conversion formula other than the vertical / horizontal double is used as the geometric conversion formula H1004, a component other than the luminance component (Y) is used as a component for adjusting the hue, and color information for adjusting the hue is used. Needless to say, information other than (Y, U, V) information may be used.

以上のように、部分画像1101'の各画素の輝度成分を、対応する部分画像1002'の各画素の輝度成分に合わせるように調整を行い、さらには画像1101〜1108の各画素の輝度成分を、対応する画像1002の各画素の輝度成分に合わせるように調整を行うことで、色合いにばらつきがある画像1101〜1108の色合いと、画像1002の色合いを統一することができる。また、色合い調整された画像1101〜1108の画素値を、拡大された画像1005に入力することで、周囲のパノラマ画像を撮像する一台の広画角カメラと、周囲の部分画像を撮像する複数の参照用カメラを用いて、二重像が発生せず、かつ高解像度、さらには色合いが統一されたパノラマ映像を得ることができる。   As described above, adjustment is performed so that the luminance component of each pixel of the partial image 1101 ′ matches the luminance component of each pixel of the corresponding partial image 1002 ′, and further, the luminance component of each pixel of the images 1101 to 1108 is adjusted. By adjusting so as to match the luminance component of each pixel of the corresponding image 1002, it is possible to unify the hues of the images 1101 to 1108 having variations in hue and the hue of the image 1002. Also, by inputting the pixel values of the images 1101 to 1108 whose colors have been adjusted to the enlarged image 1005, one wide-angle camera that captures a surrounding panoramic image and a plurality of images that capture surrounding partial images. Using this reference camera, it is possible to obtain a panoramic image that does not generate a double image, has a high resolution, and has a uniform hue.

また、本実施形態においては、画像1002の各画素の輝度成分を、対応する画像1101〜1108の各画素の輝度成分に合わせるように調整を行い、色合いにばらつきがある画像1101〜1108の色合いと、画像1002の色合いを統一して処理を行ってもよいことは言うまでもない。   In the present embodiment, adjustment is performed so that the luminance component of each pixel of the image 1002 matches the luminance component of each pixel of the corresponding images 1101 to 1108, and the hues of the images 1101 to 1108 having variations in hue. Needless to say, processing may be performed with the hue of the image 1002 unified.

(他の実施形態)
尚、前述した実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いて当該プログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムを実行することによって同等の機能が達成される場合も本発明に含む。
(Other embodiments)
A software program that realizes the functions of the above-described embodiments is supplied directly from a recording medium or to a system or apparatus having a computer that can execute the program using wired / wireless communication. The present invention includes a case where an equivalent function is achieved by a computer executing the supplied program.

従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータプログラム自体も本発明に含まれる。   Accordingly, the program code itself supplied and installed in the computer in order to implement the functional processing of the present invention by the computer also realizes the present invention. That is, the computer program itself for realizing the functional processing of the present invention is also included in the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。   In this case, the program may be in any form as long as it has a program function, such as an object code, a program executed by an interpreter, or script data supplied to the OS.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記録媒体、MO、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−R、DVD−RW等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。   As a recording medium for supplying the program, for example, a magnetic recording medium such as a flexible disk, a hard disk, a magnetic tape, MO, CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-R, DVD- There are optical / magneto-optical storage media such as RW, and non-volatile semiconductor memory.

有線/無線通信を用いたプログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイル等、クライアントコンピュータ上で本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムデータファイル)を記憶し、接続のあったクライアントコンピュータにプログラムデータファイルをダウンロードする方法などが挙げられる。この場合、プログラムデータファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに配置することも可能である。   As a program supply method using wired / wireless communication, a computer program forming the present invention on a server on a computer network, or a computer forming the present invention on a client computer such as a compressed file including an automatic installation function A method of storing a data file (program data file) that can be a program and downloading the program data file to a connected client computer can be used. In this case, the program data file can be divided into a plurality of segment files, and the segment files can be arranged on different servers.

つまり、本発明の機能処理をコンピュータで実現するためのプログラムデータファイルを複数のユーザに対してダウンロードさせるサーバ装置も本発明に含む。
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件を満たしたユーザに対して暗号化を解く鍵情報を、例えばインターネットを介してホームページからダウンロードさせることによって供給し、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。
That is, the present invention includes a server device that allows a plurality of users to download a program data file for realizing the functional processing of the present invention on a computer.
In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to the user, and key information for decrypting the encryption for a user who satisfies a predetermined condition is provided via a homepage via the Internet, for example. It is also possible to realize the program by downloading it from the computer and executing the encrypted program using the key information and installing it on the computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。   In addition to the functions of the above-described embodiments being realized by the computer executing the read program, the OS running on the computer based on an instruction of the program is a part of the actual processing. Alternatively, the functions of the above-described embodiment can be realized by performing all of them and performing the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。   Furthermore, after the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion board or The CPU of the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments can also be realized by the processing.

従来例である放射状型パノラマ撮像装置の構成を示す図である。It is a figure which shows the structure of the radial type panoramic imaging device which is a prior art example. 従来例である双曲面ミラー型パノラマ撮像装置の構成を示す図である。It is a figure which shows the structure of the hyperboloid mirror type panoramic imaging device which is a prior art example. 放射状型パノラマ撮像装置を利用して複数の画像を合成する際に、重なり部分に生じる二重像を説明する図である。It is a figure explaining the double image which arises in an overlap part, when a several type image is synthesize | combined using a radial type panorama imaging device. 第1の実施形態におけるカメラ配置を示す図である。It is a figure which shows the camera arrangement | positioning in 1st Embodiment. 第1の実施形態におけるカメラによって得られる画像を示す図である。It is a figure which shows the image obtained with the camera in 1st Embodiment. 第1の実施形態における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in 1st Embodiment. 第1の実施形態における処理を説明する図である。It is a figure explaining the process in 1st Embodiment. 対応領域を探索する際の探索領域の例を示す図である。It is a figure which shows the example of the search area | region at the time of searching a corresponding | compatible area | region. 第2の実施形態におけるカメラ配置を示す図である。It is a figure which shows the camera arrangement | positioning in 2nd Embodiment. 第2の実施形態における双曲面ミラー型パノラマ撮像装置(909)によって撮影された画像、および撮影された画像に対する処理を説明する図である。It is a figure explaining the process with respect to the image image | photographed with the hyperboloid mirror type panorama imaging device (909) in 2nd Embodiment, and the image | photographed image. 第2の実施形態における周囲の部分画像を撮像する複数の参照用カメラ(901〜908)によって撮影された画像を示す図である。It is a figure which shows the image image | photographed with the some reference camera (901-908) which images the surrounding partial image in 2nd Embodiment. 第2の実施形態における周囲の部分画像を撮像する複数の参照用カメラ(901〜908)に対する処理を説明する図である。It is a figure explaining the process with respect to the some reference camera (901-908) which images the surrounding partial image in 2nd Embodiment. 第2の実施形態における探索範囲の限定を説明するための図である。It is a figure for demonstrating limitation of the search range in 2nd Embodiment. 第2の実施形態における探索範囲の限定を説明するための図である。It is a figure for demonstrating limitation of the search range in 2nd Embodiment. 第2の実施形態における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in 2nd Embodiment. 第3の実施形態における色合い調整を説明するための図である。It is a figure for demonstrating the hue adjustment in 3rd Embodiment.

Claims (10)

複数の撮像部によって撮像される複数の画像を取得する第一の画像取得手段と、
前記複数の撮像部それぞれの撮像視界と重なりを有する撮像視界を持つ第二の撮像部によって撮像される第二の画像を取得する第二の画像取得手段と、
前記第二の画像の解像度を調整する調整手段と、
前記複数の画像、および前記調整手段によって解像度を調整された第二の画像の対応を探索する対応探索手段と、
前記対応探索手段の探索結果をもとに、前記複数の画像および前記調整手段によって解像度を調整された第二の画像から、第三の画像を生成する生成手段とを備えることを特徴とする画像処理装置。
First image acquisition means for acquiring a plurality of images captured by a plurality of imaging units;
Second image acquisition means for acquiring a second image captured by a second imaging unit having an imaging field of view that overlaps an imaging field of view of each of the plurality of imaging units;
Adjusting means for adjusting the resolution of the second image;
Correspondence search means for searching for correspondence between the plurality of images and the second image whose resolution is adjusted by the adjustment means;
An image comprising: a generating unit configured to generate a third image from the plurality of images and a second image whose resolution is adjusted by the adjusting unit based on a search result of the correspondence searching unit. Processing equipment.
複数の撮像部によって撮像される複数の画像を取得する第一の画像取得手段と、
前記複数の撮像部それぞれの撮像視界と重なりを有する撮像視界を持つ第二の撮像部によって撮像される第二の画像を取得する第二の画像取得手段と、
前記複数の画像の解像度を調整する調整手段と、
前記調整手段によって解像度を調整された複数の画像、および前記第二の画像の対応を探索する対応探索手段と、
前記対応探索手段の探索結果をもとに、前記調整手段によって解像度を調整された複数の画像および前記第二の画像から、第三の画像を生成する生成手段とを備えることを特徴とする画像処理装置。
First image acquisition means for acquiring a plurality of images captured by a plurality of imaging units;
Second image acquisition means for acquiring a second image captured by a second imaging unit having an imaging field of view that overlaps an imaging field of view of each of the plurality of imaging units;
Adjusting means for adjusting the resolution of the plurality of images;
Correspondence search means for searching for correspondence between the plurality of images adjusted in resolution by the adjustment means and the second image;
An image comprising: a generation unit configured to generate a third image from a plurality of images adjusted in resolution by the adjustment unit and the second image based on a search result of the correspondence search unit. Processing equipment.
複数の撮像部によって撮像される複数の画像を取得する第一の画像取得手段と、
前記複数の撮像部それぞれの撮像視界と重なりを有する撮像視界を持つ第二の撮像部によって撮像される第二の画像を取得する第二の画像取得手段と、
前記複数の画像、および前記第二の画像の解像度を調整する調整手段と、
前記調整手段によって解像度を調整された複数の画像、および前記調整手段によって解像度を調整された第二の画像の対応を探索する対応探索手段と、
前記対応探索手段の探索結果をもとに、前記調整手段によって解像度を調整された複数の画像および前記調整手段によって解像度を調整された第二の画像から、第三の画像を生成する生成手段とを備えることを特徴とする画像処理装置。
First image acquisition means for acquiring a plurality of images captured by a plurality of imaging units;
Second image acquisition means for acquiring a second image captured by a second imaging unit having an imaging field of view that overlaps an imaging field of view of each of the plurality of imaging units;
Adjusting means for adjusting the resolution of the plurality of images and the second image;
Correspondence search means for searching for correspondence between a plurality of images whose resolution is adjusted by the adjustment means and a second image whose resolution is adjusted by the adjustment means;
Generating means for generating a third image from a plurality of images whose resolution is adjusted by the adjusting means and a second image whose resolution is adjusted by the adjusting means, based on a search result of the correspondence searching means; An image processing apparatus comprising:
前記第二の画像は、全周方向画像であることを特徴とする請求項1乃至3のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the second image is an omnidirectional image. さらに、前記第一の画像、もしくは前記第二の画像の色合いを調整する色合い調整手段を備えることを特徴とする請求項1乃至4のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a hue adjustment unit that adjusts a hue of the first image or the second image. 複数の撮像部によって撮像される複数の画像を取得する第一の画像取得工程と、
前記複数の撮像部それぞれの撮像視界と重なりを有する撮像視界を持つ第二の撮像部によって撮像される第二の画像を取得する第二の画像取得工程と、
前記第二の画像の解像度を調整する調整工程と、
前記複数の画像、および前記調整工程によって解像度を調整された第二の画像の対応を探索する対応探索工程と、
前記対応探索工程の探索結果をもとに、前記複数の画像、および前記調整工程によって解像度を調整された第二の画像から、第三の画像を生成する生成工程とを備えることを特徴とする画像処理方法。
A first image acquisition step of acquiring a plurality of images captured by a plurality of imaging units;
A second image acquisition step of acquiring a second image captured by a second imaging unit having an imaging field of view that overlaps an imaging field of view of each of the plurality of imaging units;
An adjustment step of adjusting the resolution of the second image;
A correspondence search step of searching for correspondence between the plurality of images and a second image whose resolution is adjusted by the adjustment step;
And a generation step of generating a third image from the plurality of images and a second image whose resolution is adjusted by the adjustment step based on a search result of the correspondence search step. Image processing method.
複数の撮像部によって撮像される複数の画像を取得する第一の画像取得工程と、
前記複数の撮像部それぞれの撮像視界と重なりを有する撮像視界を持つ第二の撮像部によって撮像される第二の画像を取得する第二の画像取得工程と、
前記複数の画像の解像度を調整する調整工程と、
前記調整工程によって解像度を調整された複数の画像、および前記第二の画像の対応を探索する対応探索工程と、
前記対応探索工程の探索結果をもとに、前記調整工程によって解像度を調整された複数の画像、および前記第二の画像から、第三の画像を生成する生成工程とを備えることを特徴とする画像処理方法。
A first image acquisition step of acquiring a plurality of images captured by a plurality of imaging units;
A second image acquisition step of acquiring a second image captured by a second imaging unit having an imaging field of view that overlaps an imaging field of view of each of the plurality of imaging units;
An adjustment step of adjusting the resolution of the plurality of images;
A correspondence search step for searching for correspondence between the plurality of images whose resolution is adjusted by the adjustment step and the second image;
And a generation step of generating a third image from the plurality of images adjusted in resolution by the adjustment step and the second image based on a search result of the correspondence search step. Image processing method.
複数の撮像部によって撮像される複数の画像を取得する第一の画像取得工程と、
前記複数の撮像部それぞれの撮像視界と重なりを有する撮像視界を持つ第二の撮像部によって撮像される第二の画像を取得する第二の画像取得工程と、
前記複数の画像、および前記第二の画像の解像度を調整する調整工程と、
前記調整工程によって解像度を調整された複数の画像、および前記調整工程によって解像度を調整された第二の画像の対応を探索する対応探索工程と、
前記対応探索工程の探索結果をもとに、前記調整工程によって解像度を調整された複数の画像および前記調整工程によって解像度を調整された第二の画像から、第三の画像を生成する生成工程とを備えることを特徴とする画像処理方法。
A first image acquisition step of acquiring a plurality of images captured by a plurality of imaging units;
A second image acquisition step of acquiring a second image captured by a second imaging unit having an imaging field of view that overlaps an imaging field of view of each of the plurality of imaging units;
An adjustment step of adjusting the resolution of the plurality of images and the second image;
A correspondence search step for searching for correspondence between a plurality of images whose resolution is adjusted by the adjustment step and a second image whose resolution is adjusted by the adjustment step;
A generating step for generating a third image from a plurality of images whose resolution is adjusted by the adjusting step and a second image whose resolution is adjusted by the adjusting step based on the search result of the correspondence searching step. An image processing method comprising:
請求項6乃至8のいずれかに記載の画像処理方法をコンピュータを用いて実現するためのプログラムコード。   A program code for implementing the image processing method according to claim 6 using a computer. 請求項9に記載のプログラムを記録した記録媒体。   A recording medium on which the program according to claim 9 is recorded.
JP2004360835A 2004-12-14 2004-12-14 Image processor and method Withdrawn JP2006171939A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004360835A JP2006171939A (en) 2004-12-14 2004-12-14 Image processor and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004360835A JP2006171939A (en) 2004-12-14 2004-12-14 Image processor and method

Publications (1)

Publication Number Publication Date
JP2006171939A true JP2006171939A (en) 2006-06-29

Family

ID=36672649

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004360835A Withdrawn JP2006171939A (en) 2004-12-14 2004-12-14 Image processor and method

Country Status (1)

Country Link
JP (1) JP2006171939A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009015655A (en) * 2007-07-05 2009-01-22 Toyota Motor Corp Image processor
JP2009124685A (en) * 2007-11-09 2009-06-04 Mitsubishi Electric Research Laboratories Inc Method and system for combining videos for display in real-time
JP2010011223A (en) * 2008-06-27 2010-01-14 Sony Corp Signal processing apparatus, signal processing method, program, and recording medium
JP2010039501A (en) * 2008-07-31 2010-02-18 Kddi Corp Method for generating free viewpoint video image in three-dimensional movement, and recording medium
JP2010057198A (en) * 2006-09-06 2010-03-11 Casio Comput Co Ltd Imaging device, photographic method and program
JP2010130628A (en) * 2008-12-01 2010-06-10 Sharp Corp Imaging apparatus, image compositing device and image compositing method
WO2014091985A1 (en) * 2012-12-11 2014-06-19 コニカミノルタ株式会社 Compound optical system and imaging device using same
WO2014091986A1 (en) * 2012-12-11 2014-06-19 コニカミノルタ株式会社 Compound optical system and imaging device using same
JP2016139407A (en) * 2015-01-22 2016-08-04 カミエンス・テクノロジー株式会社 Image display device, image display method and image display program
CN117593225A (en) * 2023-11-14 2024-02-23 自行科技(武汉)有限公司 Method, system, equipment and storage medium for processing optical center deviation under electronic rearview mirror

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010057198A (en) * 2006-09-06 2010-03-11 Casio Comput Co Ltd Imaging device, photographic method and program
JP2009015655A (en) * 2007-07-05 2009-01-22 Toyota Motor Corp Image processor
JP2009124685A (en) * 2007-11-09 2009-06-04 Mitsubishi Electric Research Laboratories Inc Method and system for combining videos for display in real-time
JP4513905B2 (en) * 2008-06-27 2010-07-28 ソニー株式会社 Signal processing apparatus, signal processing method, program, and recording medium
JP2010011223A (en) * 2008-06-27 2010-01-14 Sony Corp Signal processing apparatus, signal processing method, program, and recording medium
JP2010039501A (en) * 2008-07-31 2010-02-18 Kddi Corp Method for generating free viewpoint video image in three-dimensional movement, and recording medium
JP2010130628A (en) * 2008-12-01 2010-06-10 Sharp Corp Imaging apparatus, image compositing device and image compositing method
WO2014091985A1 (en) * 2012-12-11 2014-06-19 コニカミノルタ株式会社 Compound optical system and imaging device using same
WO2014091986A1 (en) * 2012-12-11 2014-06-19 コニカミノルタ株式会社 Compound optical system and imaging device using same
JPWO2014091985A1 (en) * 2012-12-11 2017-01-12 コニカミノルタ株式会社 Compound eye optical system and imaging apparatus using the same
US9591241B2 (en) 2012-12-11 2017-03-07 Konica Minolta, Inc. Compound eye optical system and imaging device using the same
JP2016139407A (en) * 2015-01-22 2016-08-04 カミエンス・テクノロジー株式会社 Image display device, image display method and image display program
CN117593225A (en) * 2023-11-14 2024-02-23 自行科技(武汉)有限公司 Method, system, equipment and storage medium for processing optical center deviation under electronic rearview mirror
CN117593225B (en) * 2023-11-14 2024-05-28 自行科技(武汉)有限公司 Method, system, equipment and storage medium for processing optical center deviation under electronic rearview mirror

Similar Documents

Publication Publication Date Title
EP3356887B1 (en) Method for stitching together images taken through fisheye lens in order to produce 360-degree spherical panorama
US7583288B2 (en) Panoramic video
JP3962676B2 (en) Image processing method and apparatus
US7400782B2 (en) Image warping correction in forming 360 degree panoramic images
US7855752B2 (en) Method and system for producing seamless composite images having non-uniform resolution from a multi-imager system
JP6157606B2 (en) Image fusion method and apparatus
KR100924411B1 (en) Image processing apparatus, image processing method, and storage medium
CN108445705B (en) Image processing apparatus, image processing method, and program
US20050008254A1 (en) Image generation from plurality of images
US20170061686A1 (en) Stage view presentation method and system
JP2000125190A (en) Camera system and recording medium
JP2006171939A (en) Image processor and method
US8019180B2 (en) Constructing arbitrary-plane and multi-arbitrary-plane mosaic composite images from a multi-imager
JP2005020607A (en) Composite image output device and composite image output processing program
JP2005175620A (en) Image processing method and apparatus
JP2011205380A (en) Image processing apparatus
JP4001233B2 (en) Panorama shooting method and image processing apparatus and image pickup apparatus capable of using the method
JPH10208074A (en) Picture generation method
Wang et al. A common feature-based disparity control strategy in stereoscopic panorama generation
JPH11275393A (en) Image input device, image input method and recording medium
JP2004046777A (en) Image processor, image processing method used therefor, and its program
JP4006056B2 (en) Image composition apparatus, image composition method, and storage medium
JP4325108B2 (en) Captured image composition apparatus and method
KR20060059302A (en) Method for supplying user interface to generate panoramic image
JP6700539B2 (en) Video processing device, video processing method, and video processing program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080304