JP2011146762A - Solid model generator - Google Patents

Solid model generator Download PDF

Info

Publication number
JP2011146762A
JP2011146762A JP2010003700A JP2010003700A JP2011146762A JP 2011146762 A JP2011146762 A JP 2011146762A JP 2010003700 A JP2010003700 A JP 2010003700A JP 2010003700 A JP2010003700 A JP 2010003700A JP 2011146762 A JP2011146762 A JP 2011146762A
Authority
JP
Japan
Prior art keywords
unit
calibration
camera
robot
model generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010003700A
Other languages
Japanese (ja)
Inventor
Takesuke Iketani
健佑 池谷
Yuichi Iwadate
祐一 岩舘
Kensuke Hisatomi
健介 久富
Yoshikazu Katayama
美和 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2010003700A priority Critical patent/JP2011146762A/en
Publication of JP2011146762A publication Critical patent/JP2011146762A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a multi-viewpoint robot camera solid model generator for generating an elaborate solid model of the entire three-dimensional space. <P>SOLUTION: The multi-viewpoint robot camera solid model generator 1 is equipped with: a strong proofreading calibration part 42 for setting a world coordinate system by strong proofreading calibration; a camera control part 30 for performing control that makes robot cameras C1 to C3 turn to a watch point; a weal proofreading calibration part 43 for calculating camera parameters of the robot cameras C1 to C3 by weak proofreading calibration; a control error correcting part 44 for correcting control errors of the robot cameras C1 to C3 on photographed images by projective transformation using the camera parameters calculated by the weak proofreading calibration part 43; a partial region solid model generating part 50 for generating a solid model in each partial region by matching; and the entire region solid model generating part 60 for connecting solid models of partial regions to generate a solid model of the entire three-dimensional space. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、複数台のロボットカメラがズームして撮影した撮影画像を用いて、3次元空間全体の立体モデルを生成する多視点ロボットカメラ立体モデル生成装置に関する。   The present invention relates to a multi-viewpoint robot camera three-dimensional model generation device that generates a three-dimensional model of an entire three-dimensional space using images captured by zooming with a plurality of robot cameras.

従来から、ロボットカメラの制御技術として、カーネギーメロン大学が開発した“Eye Vision(登録商標)”と呼ばれるシステムが知られている。このシステムは、複数台のロボットカメラをそれぞれ電動雲台にのせて設置することで、パン角およびチルト角のリモート制御を可能としている。また、特許文献1には、電動雲台の代わりに、カメラ映像に射影変換を施すことで、パン角およびチルト角の制御を仮想的に行う多視点カメラ映像表現システムが記載されている。   Conventionally, a system called “Eye Vision (registered trademark)” developed by Carnegie Mellon University is known as a robot camera control technology. This system enables remote control of the pan angle and tilt angle by installing a plurality of robot cameras on electric pan heads. Patent Document 1 describes a multi-viewpoint camera image expression system that virtually controls pan angle and tilt angle by performing projective transformation on a camera image instead of an electric pan head.

また、非特許文献1には、立体モデルを生成する技術として、サッカーシーンを多視点のカメラで撮影し、選手およびサッカーフィールドの立体モデルを生成することで、視聴者が任意の視点からスポーツを観戦できるシステムが記載されている。さらに、多視点のカメラを用いる以外の技術として、レーザを用いて被写体形状を計測し、その結果から立体モデルを生成する技術が提案されている(例えば、非特許文献2参照)。   In Non-Patent Document 1, as a technique for generating a three-dimensional model, a soccer scene is shot with a multi-view camera, and a three-dimensional model of a player and a soccer field is generated. A system that can watch the game is described. Furthermore, as a technique other than using a multi-viewpoint camera, a technique for measuring a subject shape using a laser and generating a three-dimensional model from the result has been proposed (for example, see Non-Patent Document 2).

特開2006−115298号公報JP 2006-115298 A

多視点スポーツ映像からの自由視点映像合成と提示:電子情報通信学会論文誌D‐II vol.J88‐D‐II No.8 pp.1693‐1701Free viewpoint video synthesis and presentation from multi-view sports video: IEICE Transactions D-II vol. J88-D-II No. 8 pp.1693-1701 3次元モデル解析によるカンボジアバイヨン寺院尊顔制作背景に関する考察:画像の認識・理解シンポジウム(MIRU2006)2006年7月Consideration on the background of the creation of the face of Cambodian Bayon Temple by 3D model analysis: Symposium on Recognition and Understanding of Images (MIRU2006) July 2006

しかし、前記した従来技術では、複数台のロボットカメラを空間中の1点(注視点)を向くように一斉に制御する際に、パン角、チルト角等の駆動を行う駆動モータの制御誤差によって、複数台のロボットカメラを正確に空間中の1点に向かせる制御が困難であるという問題がある。   However, in the above-described conventional technology, when controlling a plurality of robot cameras all at once so as to face one point (gazing point) in the space, due to a control error of a drive motor that drives a pan angle, a tilt angle, and the like. There is a problem in that it is difficult to control a plurality of robot cameras accurately to one point in the space.

そこで、本発明は、前記した問題を解決し、3次元空間全体の精巧な立体モデルを生成することができる立体モデル生成装置を提供することを課題とする。   Therefore, an object of the present invention is to solve the above-described problem and provide a three-dimensional model generation apparatus that can generate an elaborate three-dimensional model of the entire three-dimensional space.

本願発明者らは、前記した問題を解決することで、ロボットカメラのズームで細部を拡大した3次元空間の部分領域を撮影画角とし、その撮影画角で3次元空間全体を走査して撮影できること、および、撮影映像から、3次元空間内の全ての部分領域について立体モデルを生成して、それら立体モデルを連結することで3次元空間全体の立体モデルを生成できることを見出し、本発明を完成させた。具体的には、本願発明に係る立体モデル生成装置は、複数台のロボットカメラのそれぞれが3次元空間内の同じ部分領域をズームして撮影した撮影画像を用いて、前記3次元空間全体の立体モデルを生成する立体モデル生成装置であって、強校正キャリブレーション部と、弱校正キャリブレーション部と、制御誤差補正部と、部分領域立体モデル生成部と、全領域立体モデル生成部と、を備えることを特徴とする。   The inventors of the present application have solved the above-described problem, and have taken a partial area of the three-dimensional space whose details are enlarged by the zoom of the robot camera as a photographing field angle, and scanned the whole three-dimensional space with the photographing field angle. The present invention was completed by finding that it is possible to create a 3D model for all partial areas in the 3D space from the captured video, and connecting the 3D models to generate a 3D model for the entire 3D space. I let you. Specifically, the three-dimensional model generation apparatus according to the present invention uses a captured image obtained by zooming the same partial area in a three-dimensional space with each of a plurality of robot cameras, and uses the three-dimensional model of the entire three-dimensional space. A stereo model generation apparatus for generating a model, comprising: a strong calibration calibration unit, a weak calibration calibration unit, a control error correction unit, a partial region stereo model generation unit, and an entire region stereo model generation unit It is characterized by that.

かかる構成によれば、立体モデル生成装置は、強校正キャリブレーション部によって、強校正キャリブレーションで前記複数台のロボットカメラに共通する世界座標系を設定する。また、立体モデル生成装置は、弱校正キャリブレーション部によって、前記世界座標系において予め指定された注視点に向けられた前記複数台のロボットカメラのカメラパラメータを、弱校正キャリブレーションで算出する。そして、立体モデル生成装置は、制御誤差補正部によって、前記弱校正キャリブレーション部が算出したカメラパラメータを用いた射影変換で、前記複数台のロボットカメラの制御誤差を前記撮影画像上で補正する。
つまり、立体モデル生成装置は、ロボットカメラが備える駆動モータの制御誤差によって注視点に対して撮影画角がずれてしまう場合でも、制御誤差補正部が射影変換を行うことで、この制御誤差を撮影画像上で補正する。このため、立体モデル生成装置は、ロボットカメラがズームして3次元空間の細部を拡大しても、3次元空間内の全ての部分領域について、制御誤差の影響がない正確な撮影画像を取得することができる。
According to such a configuration, the solid model generation apparatus sets a world coordinate system common to the plurality of robot cameras by the strong calibration calibration by the strong calibration calibration unit. In addition, the three-dimensional model generation apparatus calculates, by weak calibration calibration, the camera parameters of the plurality of robot cameras directed to the gazing point designated in advance in the world coordinate system by the weak calibration calibration unit. Then, in the stereo model generation device, the control error correction unit corrects the control error of the plurality of robot cameras on the captured image by projective transformation using the camera parameter calculated by the weak calibration unit.
In other words, the stereo model generation device captures this control error by performing the projective transformation by the control error correction unit even when the shooting angle of view shifts with respect to the gazing point due to the control error of the drive motor provided in the robot camera. Correct on the image. For this reason, even if the robot camera zooms and enlarges the details of the three-dimensional space, the three-dimensional model generation apparatus acquires accurate captured images that are not affected by the control error for all partial regions in the three-dimensional space. be able to.

また、立体モデル生成装置は、部分領域立体モデル生成部によって、前記3次元空間を走査するように当該3次元空間内の全ての部分領域を撮影し、かつ、前記制御誤差が補正された前記撮影画像が入力され、マッチングにより前記部分領域毎に立体モデルを生成する。このとき、ロボットカメラがズームして部分領域を撮影しているので、立体モデル生成装置は、部分領域立体モデル生成部が、これら撮影画像を用いて、細部が正確に再現された部分領域の立体モデルを生成する。   In addition, the stereoscopic model generation apparatus captures all the partial areas in the three-dimensional space so as to scan the three-dimensional space by the partial area stereoscopic model generation unit, and the imaging in which the control error is corrected. An image is input, and a three-dimensional model is generated for each partial region by matching. At this time, since the robot camera is zoomed to shoot the partial area, the three-dimensional model generation apparatus uses a partial image of the partial area in which the details are accurately reproduced using the captured image. Generate a model.

そして、立体モデル生成装置は、全領域立体モデル生成部によって、前記部分領域立体モデル生成部が生成した部分領域の立体モデルを連結して、前記3次元空間全体の立体モデルを生成する。これによって、立体モデル生成装置は、全領域立体モデル生成部が、細部が正確に再現された部分領域の立体モデルを連結して、3次元空間全体の立体モデルを生成できる。   Then, the stereo model generation apparatus generates a stereo model of the entire three-dimensional space by connecting the stereo models of the partial areas generated by the partial area stereo model generation unit using the all-region stereo model generation unit. In this way, in the stereo model generation apparatus, the all-region stereo model generation unit can generate a stereo model of the entire three-dimensional space by connecting the stereo models of the partial regions in which details are accurately reproduced.

また、本願発明において、立体モデル生成装置は、前記部分領域立体モデル生成部が、入力された前記撮影画像のそれぞれから、SIFT特徴量による特徴点を抽出すると共に、前記撮影画像の間で前記特徴点における前記SIFT特徴量をマッチングすることで、前記特徴点の画像座標を算出する特徴点抽出部と、前記特徴点抽出部が算出した特徴点の画像座標から、前記弱校正キャリブレーション部が算出したカメラパラメータを用いた射影変換によって前記部分領域の立体モデルを生成する特徴点世界座標算出部と、を備えることが好ましい。   In the invention of the present application, in the stereo model generation device, the partial region stereo model generation unit extracts a feature point based on a SIFT feature amount from each of the input captured images, and the feature between the captured images. The weak calibration calibration unit calculates from the feature point extraction unit that calculates the image coordinates of the feature point by matching the SIFT feature amount at the point, and the image coordinates of the feature point calculated by the feature point extraction unit It is preferable to include a feature point world coordinate calculation unit that generates a three-dimensional model of the partial region by projective transformation using the camera parameters.

また、本願発明において、立体モデル生成装置は、前記部分領域立体モデル生成部が、入力された前記撮影画像のそれぞれから、ステレオマッチングによって前記部分領域毎に距離画像を、前記部分領域の立体モデルとして生成する距離画像生成部を備えることが好ましい。   Further, in the present invention, the stereo model generation device is configured such that the partial region stereo model generation unit converts a distance image for each partial region by stereo matching from each of the input captured images as a stereo model of the partial region. It is preferable to provide a distance image generation unit to generate.

本発明の立体モデル生成装置は、3次元空間内の全ての部分領域について、制御誤差の影響がない正確な撮影画像を取得して立体モデルを生成すると共に、これら細部が正確に再現された部分領域の立体モデルを連結するので、精巧な3次元空間全体の立体モデルを生成することができる。   The three-dimensional model generation apparatus of the present invention generates a three-dimensional model by acquiring an accurate captured image that is not affected by a control error for all partial regions in a three-dimensional space, and a portion in which these details are accurately reproduced. Since the three-dimensional models of the regions are connected, a detailed three-dimensional model of the entire three-dimensional space can be generated.

本発明の第1実施形態に係る多視点ロボットカメラ立体モデル生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the multiview robot camera stereo model production | generation apparatus which concerns on 1st Embodiment of this invention. 図1の多視点ロボットカメラ立体モデル生成装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the multiview robot camera solid model production | generation apparatus of FIG. 本発明の第1実施形態において、強校正キャリブレーションを説明する図である。It is a figure explaining strong calibration calibration in 1st Embodiment of this invention. 本発明の第1実施形態において、注視点を説明する図である。In a 1st embodiment of the present invention, it is a figure explaining a gaze point. 本発明の第1実施形態において、弱校正キャリブレーションを説明する図である。It is a figure explaining weak calibration calibration in a 1st embodiment of the present invention. 本発明の第1実施形態において、エピポーラ幾何を説明する図である。In 1st Embodiment of this invention, it is a figure explaining epipolar geometry. 本発明の第1実施形態において、制御誤差の補正を説明する図である。It is a figure explaining correction | amendment of a control error in 1st Embodiment of this invention. 本発明の第1実施形態において、部分領域Ba1の撮影を説明する図であり、(a)は部分領域Ba1とロボットカメラC1〜C3との位置関係を示し、(b)はロボットカメラC1の撮影画像であり、(c)はロボットカメラC2の撮影画像であり、(d)はロボットカメラC3の撮影画像である。In the first embodiment of the present invention, it is a diagram for explaining the shooting of the partial region Ba1, (a) shows the positional relationship between the partial region Ba1 and the robot cameras C1-C3, (b) is the shooting of the robot camera C1. (C) is a captured image of the robot camera C2, and (d) is a captured image of the robot camera C3. 本発明の第1実施形態において、特徴点のマッチングと世界座標の算出とを説明する図であり、(a)はロボットカメラC1の撮影画像から抽出した特徴点を示し、(b)はロボットカメラC2の撮影画像から抽出した特徴点を示し、(c)はロボットカメラC3の撮影画像から抽出した特徴点を示し、(d)は各特徴点の世界座標を示す図である。FIG. 4 is a diagram for explaining feature point matching and world coordinate calculation in the first embodiment of the present invention, where (a) shows the feature points extracted from the captured image of the robot camera C1, and (b) shows the robot camera. The feature points extracted from the captured image of C2 are shown, (c) is the feature points extracted from the captured image of the robot camera C3, and (d) is a diagram showing the world coordinates of each feature point. 本発明の第1実施形態において、部分領域Ba2の撮影を説明する図であり、(a)は部分領域Ba2とロボットカメラC1〜C3との位置関係を示し、(b)はロボットカメラC1の撮影画像であり、(c)はロボットカメラC2の撮影画像であり、(d)はロボットカメラC3の撮影画像である。In the first embodiment of the present invention, it is a diagram for explaining the shooting of the partial area Ba2, (a) shows the positional relationship between the partial area Ba2 and the robot cameras C1 to C3, (b) is the shooting of the robot camera C1. (C) is a captured image of the robot camera C2, and (d) is a captured image of the robot camera C3. 本発明の第1実施形態において、部分領域の立体モデルの連結を説明する図であり、(a)は部分領域を示し、(b)は部分領域の立体モデルを示し、(c)は連結された部分領域の立体モデルを示す。In 1st Embodiment of this invention, it is a figure explaining the connection of the stereo model of a partial region, (a) shows a partial region, (b) shows the stereo model of a partial region, (c) is connected. A three-dimensional model of a partial area is shown. 本発明の第2実施形態に係る多視点ロボットカメラ立体モデル生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the multiview robot camera stereo model production | generation apparatus which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態において、距離画像の連結を説明する図であり、(a)は部分領域を示し、(b)は部分領域の距離画像を示し、(c)は連結された距離画像を示す。In 2nd Embodiment of this invention, it is a figure explaining the connection of a distance image, (a) shows a partial area, (b) shows the distance image of a partial area, (c) is the connected distance image. Indicates. 図12の多視点ロボットカメラ立体モデル生成装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the multiview robot camera solid model production | generation apparatus of FIG.

本発明の各実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の機能を有する手段には同一の符号を付し、説明を省略した。   Each embodiment of the present invention will be described in detail with reference to the drawings as appropriate. In each embodiment, means having the same function are denoted by the same reference numerals and description thereof is omitted.

(第1実施形態)
[多視点ロボットカメラ立体モデル生成システムの概略]
図1,図3を参照し、多視点ロボットカメラ立体モデル生成システム100の概略について説明する。図1に示すように、多視点ロボットカメラ立体モデル生成システム100は、3台のロボットカメラC1〜C3と、多視点ロボットカメラ立体モデル生成装置(立体モデル生成装置)1とを備える。
(First embodiment)
[Outline of Multi-viewpoint Robot Camera Stereoscopic Model Generation System]
The outline of the multi-viewpoint robot camera three-dimensional model generation system 100 will be described with reference to FIGS. As shown in FIG. 1, the multi-viewpoint robot camera three-dimensional model generation system 100 includes three robot cameras C1 to C3 and a multi-viewpoint robot camera three-dimensional model generation device (stereoscopic model generation device) 1.

ロボットカメラC1〜C3は、駆動モータ(不図示)を備えると共に、後記する多視点ロボットカメラ立体モデル生成装置1からの制御信号に基づいて、パン角、チルト角、ズームおよびフォーカスの遠隔制御が可能な撮影カメラである。また、ロボットカメラC1〜C3は、それぞれの姿勢(パン角、チルト角、ズームおよびフォーカス)が記述されたカメラ姿勢情報(カメラパラメータ)を、多視点ロボットカメラ立体モデル生成装置1(カメラパラメータ記憶部41)に随時出力する。さらに、ロボットカメラC1〜C3は、それぞれが撮影した撮影画像を、多視点ロボットカメラ立体モデル生成装置1(撮影画像記憶部10)に出力する。なお、ロボットカメラC1〜C3は、カメラマン等の遠隔操作により撮影画像を撮影することもできる。   The robot cameras C1 to C3 include a drive motor (not shown), and can remotely control pan angle, tilt angle, zoom and focus based on a control signal from a multi-viewpoint robot camera 3D model generation apparatus 1 described later. It is a photographic camera. Also, the robot cameras C1 to C3 use the camera posture information (camera parameters) describing the respective postures (pan angle, tilt angle, zoom and focus) as the multi-viewpoint robot camera three-dimensional model generation device 1 (camera parameter storage unit). 41) is output at any time. Furthermore, each of the robot cameras C1 to C3 outputs a captured image captured by the robot camera C1 to C3 to the multi-viewpoint robot camera three-dimensional model generation device 1 (captured image storage unit 10). The robot cameras C1 to C3 can also take a photographed image by remote operation by a cameraman or the like.

ここで、ロボットカメラC1〜C3は、3次元空間Spを撮影できるように、任意位置に設置される。ここでは、図3に示すように、ロボットカメラC1〜C3は、直線上に一列で略等間隔に設置されている。   Here, the robot cameras C1 to C3 are installed at arbitrary positions so that the three-dimensional space Sp can be photographed. Here, as shown in FIG. 3, the robot cameras C <b> 1 to C <b> 3 are arranged in a line on the straight line at substantially equal intervals.

3次元空間Spは、立体モデルを生成する対象となる被写体を囲う空間のことである。ここで、3次元空間Spは、例えば、市街地を模したミニチュア模型(被写体)を囲う空間としている(図3参照)。
部分領域とは、3次元空間Spに含まれる一部の領域のことである(例えば、図8の符号Ba)。
The three-dimensional space Sp is a space that surrounds a subject that is a target for generating a three-dimensional model. Here, the three-dimensional space Sp is, for example, a space surrounding a miniature model (subject) imitating an urban area (see FIG. 3).
The partial area is a partial area included in the three-dimensional space Sp (for example, a symbol Ba in FIG. 8).

多視点ロボットカメラ立体モデル生成装置1は、3次元空間Sp内の同じ部分領域を3台のロボットカメラC1〜C3がズームして撮影した撮影画像を用いて、3次元空間Sp全体の立体モデルを生成する。以下、多視点ロボットカメラ立体モデル生成装置1の構成について詳細に説明する。   The multi-viewpoint robot camera three-dimensional model generation apparatus 1 uses the captured image obtained by zooming the three robot cameras C1 to C3 in the same partial area in the three-dimensional space Sp to generate a three-dimensional model of the entire three-dimensional space Sp. Generate. Hereinafter, the configuration of the multi-viewpoint robot camera three-dimensional model generation apparatus 1 will be described in detail.

[多視点ロボットカメラ立体モデル生成装置の構成]
図1に示すように、多視点ロボットカメラ立体モデル生成装置1は、撮影画像記憶部10と、注視点指定部20と、カメラ制御部30と、カメラパラメータ生成・記憶部40と、部分領域立体モデル生成部50と、全領域立体モデル生成部60とを備える。
[Configuration of multi-viewpoint robot camera stereo model generator]
As shown in FIG. 1, the multi-viewpoint robot camera 3D model generation apparatus 1 includes a captured image storage unit 10, a gazing point designation unit 20, a camera control unit 30, a camera parameter generation / storage unit 40, and a partial area 3D. A model generation unit 50 and an all-region stereoscopic model generation unit 60 are provided.

なお、第1実施形態では、多視点ロボットカメラ立体モデル生成装置1の構成および動作を説明し、多視点ロボットカメラ立体モデル生成装置1の機能概要を先に示す。その後、第1実施形態では、多視点ロボットカメラ立体モデル生成装置1の各手段が行う処理内容を詳細に説明する。   In the first embodiment, the configuration and operation of the multi-viewpoint robot camera three-dimensional model generation device 1 will be described, and the functional outline of the multi-viewpoint robot camera three-dimensional model generation device 1 will be shown first. Thereafter, in the first embodiment, processing contents performed by each unit of the multi-viewpoint robot camera three-dimensional model generation apparatus 1 will be described in detail.

撮影画像記憶部10は、ロボットカメラC1〜C3から撮影画像がそれぞれ入力されると共に、入力された撮影画像を記憶するハードディスク、メモリ等の記憶手段である。   The photographed image storage unit 10 is a storage unit such as a hard disk or a memory that stores photographed images from the robot cameras C1 to C3 and stores the photographed images that have been input.

注視点指定部20は、ユーザがマウス又はキーボード(不図示)を操作することで、世界座標系における注視点が指定される。そして、注視点指定部20は、指定された注視点をカメラパラメータ生成・記憶部40に出力する。   The gaze point designation unit 20 designates a gaze point in the world coordinate system when the user operates a mouse or a keyboard (not shown). Then, the gazing point designation unit 20 outputs the designated gazing point to the camera parameter generation / storage unit 40.

カメラ制御部30は、ロボットカメラC1〜C3に制御信号を出力し、ロボットカメラC1〜C3の制御を行う。ここで、カメラ制御部30は、3台のロボットカメラC1〜C3に対して同時に制御信号を出力し、3台のロボットカメラC1〜C3の制御を一斉に行うことができる。   The camera control unit 30 outputs control signals to the robot cameras C1 to C3 to control the robot cameras C1 to C3. Here, the camera control unit 30 can simultaneously output control signals to the three robot cameras C1 to C3, and can control the three robot cameras C1 to C3 all at once.

具体的には、カメラ制御部30は、後記するカメラパラメータ記憶部41に記憶されたカメラパラメータ(内部パラメータおよび外部パラメータ)を参照し、ロボットカメラC1〜C3のパン角およびチルト角の制御量(移動量)を算出する。また、同様に、カメラ制御部30は、ロボットカメラC1〜C3のズームおよびフォーカスの制御量を算出する。そして、カメラ制御部30は、ロボットカメラC1〜C3のそれぞれに対して、パン角、チルト角、ズームおよびフォーカスの制御量を含む制御信号を出力する。このようにして、カメラ制御部30は、ロボットカメラC1〜C3を、世界座標系において指定された注視点に向けさせる制御を行う。なお、制御量の算出手法は、従来技術と同様であるため、その説明を省略する。   Specifically, the camera control unit 30 refers to camera parameters (internal parameters and external parameters) stored in a camera parameter storage unit 41 to be described later, and controls the pan and tilt angles of the robot cameras C1 to C3 ( (Movement amount) is calculated. Similarly, the camera control unit 30 calculates zoom and focus control amounts of the robot cameras C1 to C3. And the camera control part 30 outputs the control signal containing the control amount of a pan angle, a tilt angle, zoom, and a focus with respect to each of robot camera C1-C3. In this way, the camera control unit 30 performs control to point the robot cameras C1 to C3 toward the gazing point designated in the world coordinate system. Note that the control amount calculation method is the same as that of the prior art, and thus the description thereof is omitted.

カメラパラメータ生成・記憶部40は、カメラ制御部30がロボットカメラC1〜C3を制御するためのカメラパラメータを生成して記憶する。ここで、カメラパラメータ生成・記憶部40は、図1に示すように、カメラパラメータ記憶部41と、強校正キャリブレーション部42と、弱校正キャリブレーション部43と、制御誤差補正部44と、世界座標指定部45とを備える。   The camera parameter generation / storage unit 40 generates and stores camera parameters for the camera control unit 30 to control the robot cameras C1 to C3. Here, as shown in FIG. 1, the camera parameter generation / storage unit 40 includes a camera parameter storage unit 41, a strong calibration calibration unit 42, a weak calibration calibration unit 43, a control error correction unit 44, and a world. A coordinate designating unit 45.

カメラパラメータ記憶部41は、ロボットカメラC1〜C3からその姿勢が記述されたカメラ姿勢情報と、後記する弱校正キャリブレーション部43からカメラパラメータとが入力される。そして、カメラパラメータ記憶部41は、入力されたカメラ姿勢情報およびカメラパラメータを記憶するハードディスク、メモリ等の記憶手段である。   The camera parameter storage unit 41 receives camera posture information describing the posture from the robot cameras C1 to C3 and camera parameters from the weak calibration unit 43 described later. The camera parameter storage unit 41 is a storage unit such as a hard disk or a memory that stores the input camera posture information and camera parameters.

強校正キャリブレーション部42は、強校正キャリブレーションによってロボットカメラC1〜C3に共通する世界座標系を設定する。
ここで、強校正キャリブレーションとは、位置が既知の空間点とその画像上への投影点とを用いてカメラパラメータを求め、ロボットカメラC1〜C3に共通する世界座標系を設定することである。
なお、強校正キャリブレーション部42の詳細は、後記する。
The strong calibration calibration unit 42 sets a world coordinate system common to the robot cameras C1 to C3 by the strong calibration calibration.
Here, the strong calibration calibration is to obtain a camera parameter using a spatial point whose position is known and a projection point on the image, and to set a world coordinate system common to the robot cameras C1 to C3. .
Details of the strong calibration calibration unit 42 will be described later.

弱校正キャリブレーション部43は、世界座標系で指定された注視点に向けられたロボットカメラC1〜C3のカメラパラメータを、弱校正キャリブレーションによって算出する。そして、弱校正キャリブレーション部43は、算出したカメラパラメータ記憶部41に記憶させる。
ここで、弱校正キャリブレーションとは、エピポーラ拘束条件により、ロボットカメラC1〜C3のうち、2台ずつ位置関係を求めることである。
なお、弱校正キャリブレーション部43の詳細は、後記する。
The weak calibration calibration unit 43 calculates the camera parameters of the robot cameras C1 to C3 directed to the gazing point designated in the world coordinate system by the weak calibration. Then, the weak calibration calibration unit 43 stores the calculated camera parameter storage unit 41.
Here, the weak calibration is to obtain the positional relationship between two robot cameras C1 to C3 by epipolar constraint conditions.
The details of the weak calibration calibration unit 43 will be described later.

制御誤差補正部44は、弱校正キャリブレーション部43が算出したカメラパラメータを用いた射影変換によって、ロボットカメラC1〜C3の制御誤差を補正する。言い換えると、制御誤差補正部44は、弱校正キャリブレーションが行われた後、注視点に向けられた現在のロボットカメラC1〜C3のパン角およびチルト角と、注視点に向いたとき本来のパン角およびチルト角とのずれ量を算出する。   The control error correction unit 44 corrects the control errors of the robot cameras C1 to C3 by projective transformation using the camera parameters calculated by the weak calibration calibration unit 43. In other words, after the weak calibration calibration is performed, the control error correction unit 44 performs the panning and tilting angles of the current robot cameras C1 to C3 directed toward the gazing point and the original panning when facing the gazing point. The amount of deviation from the angle and tilt angle is calculated.

ここで、ロボットカメラC1〜C3が注視点を正確に向くような制御信号を生成し、この制御信号によってロボットカメラC1〜C3を制御したとしても、その駆動モータには誤差が含まれるので、ロボットカメラC1〜C3を正確に注視点に向けることは困難である。そこで、本発明では、ロボットカメラC1〜C3を注視点に正確に向けさせるのではなく、ロボットカメラC1〜C3の撮影画像が正確に注視点を向いた状態で撮影されたように、撮影画像そのものを補正するという考え方を採用する。言い換えるなら、制御誤差補正部44は、ロボットカメラC1〜C3に制御信号を出力してロボットカメラC1〜C3を直接制御するのではなく、撮影画像記憶部10に記憶された撮影画像そのものを補正する。
なお、制御誤差補正部44の詳細は、後記する。
Here, even if the robot camera C1 to C3 generates a control signal that accurately points the gazing point, and the robot camera C1 to C3 is controlled by this control signal, the drive motor includes an error. It is difficult to point the cameras C1 to C3 accurately at the point of interest. Therefore, in the present invention, the captured images themselves are not such that the captured images of the robot cameras C1 to C3 are accurately pointed at the gazing point, rather than the robot cameras C1 to C3 being accurately directed toward the gazing point. Adopting the idea of correcting In other words, the control error correcting unit 44 does not directly control the robot cameras C1 to C3 by outputting control signals to the robot cameras C1 to C3, but corrects the captured image itself stored in the captured image storage unit 10. .
Details of the control error correction unit 44 will be described later.

世界座標指定部45は、ロボットカメラC1〜C3のそれぞれが3次元空間Sp全体を撮影した撮影画像を用いて、SIFT(Scale Invariant Feature Transform)特徴量を用いて特徴点を抽出する。また、世界座標指定部45は、ロボットカメラC1〜C3で撮影した撮影画像間で、抽出した特徴点におけるSIFT特徴量をマッチングすることで特徴点の世界座標を算出する。そして、世界座標指定部45は、3次元空間Spの端に位置する特徴点について、その世界座標から特徴点同士の距離を求めて、3次元空間Spのサイズを算出する。さらに、世界座標指定部45は、3次元空間Spを一定数で等分して、この境界線上の各点を注視点として指定する。
なお、このように世界座標指定部45が指定した注視点は、ロボットカメラC1〜C3が3次元空間Sp内の全ての部分領域を走査するように撮影する際、用いられる。
The world coordinate designating unit 45 extracts feature points using SIFT (Scale Invariant Feature Transform) feature values using the captured images obtained by the robot cameras C1 to C3 capturing the entire three-dimensional space Sp. Further, the world coordinate designating unit 45 calculates the world coordinates of the feature points by matching SIFT feature values at the extracted feature points between the captured images taken by the robot cameras C1 to C3. And the world coordinate designation | designated part 45 calculates | requires the distance of feature points about the feature point located in the edge of the three-dimensional space Sp from the world coordinate, and calculates the size of the three-dimensional space Sp. Further, the world coordinate designating unit 45 equally divides the three-dimensional space Sp by a certain number and designates each point on the boundary line as a gazing point.
Note that the gazing point designated by the world coordinate designation unit 45 is used when the robot cameras C1 to C3 take a picture so as to scan all the partial areas in the three-dimensional space Sp.

ここで、SIFTについて補足する。このSIFT特徴量は、画像座標、スケール、オリエンテーションおよび特徴ベクトル等の情報を持っている。従って、多視点ロボットカメラ立体モデル生成装置1は、SIFT特徴量を用いて、各撮影画像の間で特徴点の対応付けを行い、対応付けられた特徴点の位置を求めることができる。このSIFT特徴量は、例えば、文献「単眼カメラ搭載移動ロボットを用いたSIFT特徴量に基づく特徴追跡とStructure from MotionによるSLAM:静岡大学 井上 渉他」に詳細に記載されている。   Here, it supplements about SIFT. This SIFT feature amount has information such as image coordinates, scale, orientation, and feature vector. Therefore, the multi-viewpoint robot camera three-dimensional model generation device 1 can use the SIFT feature value to associate feature points between the captured images and obtain the position of the associated feature point. This SIFT feature amount is described in detail, for example, in the document “SLAM by Feature Tracking Based on SIFT Feature Value Using a Monocular Camera-Mounted Mobile Robot and Structure From Motion: Shizuoka University Wataru Inoue et al.”.

部分領域立体モデル生成部50は、部分領域の立体モデルを生成するものであり、図1に示すように、特徴点抽出部51と、特徴点世界座標算出部52とを備える。
特徴点抽出部51は、撮影画像記憶部10を参照し、ロボットカメラC1〜C3の撮影画像から、SIFT特徴量に基づいて特徴点を抽出する。そして、特徴点抽出部51は、これら撮影画像の間で特徴点におけるSIFT特徴量をマッチングすることで、特徴点の画像座標を算出する。
特徴点世界座標算出部52は、カメラパラメータ記憶部41を参照し、特徴点抽出部51が算出した特徴点の画像座標から、弱校正キャリブレーション部43が算出したカメラパラメータを用いた射影変換によって部分領域の立体モデルを生成する。
なお、部分領域立体モデル生成部50の詳細は、後記する。
The partial region stereo model generation unit 50 generates a partial region stereo model, and includes a feature point extraction unit 51 and a feature point world coordinate calculation unit 52, as shown in FIG.
The feature point extraction unit 51 refers to the captured image storage unit 10 and extracts feature points from the captured images of the robot cameras C1 to C3 based on the SIFT feature amount. Then, the feature point extraction unit 51 calculates the image coordinates of the feature points by matching SIFT feature amounts at the feature points between these captured images.
The feature point world coordinate calculation unit 52 refers to the camera parameter storage unit 41, and performs projective transformation using the camera parameters calculated by the weak calibration calibration unit 43 from the image coordinates of the feature points calculated by the feature point extraction unit 51. Generate a stereo model of the partial area.
Details of the partial region solid model generation unit 50 will be described later.

全領域立体モデル生成部60は、部分領域立体モデル生成部50から部分領域の立体モデルが入力され、この部分領域の立体モデルを連結して、3次元空間Sp全体の立体モデルを生成する。
なお、全領域立体モデル生成部60の詳細は、後記する。
The all-region stereo model generation unit 60 receives the stereo model of the partial region from the partial region stereo model generation unit 50, and generates a stereo model of the entire three-dimensional space Sp by connecting the stereo models of the partial regions.
Details of the all-region solid model generation unit 60 will be described later.

[多視点ロボットカメラ立体モデル生成装置の動作]
図2を参照し、図1の多視点ロボットカメラ立体モデル生成装置1の動作について説明する(適宜図1参照)。
[Operation of multi-viewpoint robot camera stereo model generator]
With reference to FIG. 2, the operation of the multi-viewpoint robot camera three-dimensional model generation apparatus 1 in FIG. 1 will be described (see FIG. 1 as appropriate).

多視点ロボットカメラ立体モデル生成装置1は、強校正キャリブレーション部42によって、強校正キャリブレーションでロボットカメラC1〜C3に共通する世界座標系を設定する(ステップS1)。   In the multi-viewpoint robot camera three-dimensional model generation device 1, the strong calibration calibration unit 42 sets a world coordinate system common to the robot cameras C1 to C3 in the strong calibration calibration (step S1).

また、多視点ロボットカメラ立体モデル生成装置1は、注視点指定部20によって、世界座標系における注視点が指定される。そして、多視点ロボットカメラ立体モデル生成装置1は、カメラ制御部30によって、ロボットカメラC1〜C3をこの注視点に向かせるように制御する(ステップS2)。   In the multi-viewpoint robot camera three-dimensional model generation device 1, a gazing point in the world coordinate system is designated by the gazing point designation unit 20. Then, the multi-viewpoint robot camera three-dimensional model generation device 1 controls the camera control unit 30 to point the robot cameras C1 to C3 toward the point of interest (step S2).

多視点ロボットカメラ立体モデル生成装置1は、弱校正キャリブレーション部43によって、注視点に向けられたロボットカメラC1〜C3のカメラパラメータを、弱校正キャリブレーションによって算出する(ステップS3)。   The multi-viewpoint robot camera three-dimensional model generation apparatus 1 uses the weak calibration calibration unit 43 to calculate the camera parameters of the robot cameras C1 to C3 directed to the gazing point by weak calibration (step S3).

このとき、ロボットカメラC1〜C3では、駆動モータで制御誤差が発生する。そこで、多視点ロボットカメラ立体モデル生成装置1は、この制御誤差を補正して立体モデルを生成するため、ステップS4以降の処理を行う。   At this time, in the robot cameras C1 to C3, a control error occurs in the drive motor. Therefore, the multi-viewpoint robot camera stereo model generation device 1 performs the processes in and after step S4 in order to generate a stereo model by correcting this control error.

多視点ロボットカメラ立体モデル生成装置1は、カメラ制御部30によって、これら指定された注視点に基づいて、ロボットカメラC1〜C3が3次元空間Sp内の全ての部分領域を走査して撮影するように、ロボットカメラC1〜C3を順次制御する(ステップS4)。つまり、ステップS4の処理を行うことで、ロボットカメラC1〜C3が3次元空間Sp内の全ての部分領域を撮影した撮影画像が、撮影画像記憶部10に記憶される。   The multi-viewpoint robot camera three-dimensional model generation apparatus 1 causes the camera control unit 30 to scan and shoot all the partial areas in the three-dimensional space Sp based on these designated gazing points. The robot cameras C1 to C3 are sequentially controlled (step S4). That is, by performing the process of step S4, a captured image obtained by capturing all partial areas in the three-dimensional space Sp by the robot cameras C1 to C3 is stored in the captured image storage unit 10.

また、多視点ロボットカメラ立体モデル生成装置1は、制御誤差補正部44によって、弱校正キャリブレーション部43が算出したカメラパラメータを用いた射影変換で、ロボットカメラC1〜C3の制御誤差を撮影画像上で補正する(ステップS5)。つまり、ステップS5の処理を行うことで、多視点ロボットカメラ立体モデル生成装置1は、3次元空間Sp内の全ての部分領域について、制御誤差の影響がない正確な撮影画像を取得することができる。   In addition, the multi-viewpoint robot camera three-dimensional model generation apparatus 1 uses the control error correction unit 44 to perform the projective transformation using the camera parameters calculated by the weak calibration calibration unit 43, and to control the control errors of the robot cameras C1 to C3 on the captured image. (Step S5). That is, by performing the process of step S5, the multi-viewpoint robot camera three-dimensional model generation device 1 can acquire accurate captured images that are not affected by the control error for all partial regions in the three-dimensional space Sp. .

そして、多視点ロボットカメラ立体モデル生成装置1は、特徴点抽出部51によって、SIFT特徴量に基づいて、撮影画像記憶部10に記憶された撮影画像のそれぞれから、特徴点を抽出する。さらに、特徴点抽出部51は、これら撮影画像の間で特徴点におけるSIFT特徴量をマッチングすることで、特徴点の画像座標を算出する(ステップS6)。   In the multi-viewpoint robot camera three-dimensional model generation device 1, the feature point extraction unit 51 extracts feature points from each of the captured images stored in the captured image storage unit 10 based on the SIFT feature amount. Further, the feature point extraction unit 51 calculates the image coordinates of the feature points by matching SIFT feature amounts at the feature points between these captured images (step S6).

さらに、多視点ロボットカメラ立体モデル生成装置1は、特徴点世界座標算出部52によって、特徴点抽出部51が算出した特徴点の画像座標から、弱校正キャリブレーション部43が算出したカメラパラメータを用いた射影変換で部分領域の立体モデルを生成する(ステップS7)。   Further, the multi-viewpoint robot camera stereo model generation device 1 uses the camera parameters calculated by the weak calibration calibration unit 43 from the image coordinates of the feature points calculated by the feature point extraction unit 51 by the feature point world coordinate calculation unit 52. A three-dimensional model of the partial region is generated by the projective transformation performed (step S7).

さらに、多視点ロボットカメラ立体モデル生成装置1は、全領域立体モデル生成部60によって、部分領域立体モデル生成部50が生成した部分領域の立体モデルを連結して、3次元空間Sp全体の立体モデルを生成する(ステップS8)。   Furthermore, the multi-viewpoint robot camera 3D model generation apparatus 1 connects the 3D models of the partial areas generated by the partial area 3D model generation unit 50 through the 3D model generation unit 60 of the entire area, thereby connecting the 3D model of the entire three-dimensional space Sp. Is generated (step S8).

<強校正キャリブレーション部の詳細>
図3を参照し、強校正キャリブレーション部42の詳細について説明する(適宜図1参照)。なお、図3では、ロボットカメラC1〜C3の撮影画角を一点鎖線で図示した。
<Details of strong calibration section>
Details of the strong calibration calibration unit 42 will be described with reference to FIG. 3 (see FIG. 1 as appropriate). In FIG. 3, the shooting angle of view of the robot cameras C <b> 1 to C <b> 3 is illustrated by a dashed line.

図3に示すように、ロボットカメラC1〜C3は、市松模様のキャリブレーションパターンaを予め撮影する。そして、強校正キャリブレーション部42は、ロボットカメラC1〜C3がキャリブレーションパターンaを撮影した撮影画像を用いて、強校正キャリブレーションを行う。   As shown in FIG. 3, the robot cameras C <b> 1 to C <b> 3 capture a checkered calibration pattern a in advance. And the strong calibration calibration part 42 performs strong calibration calibration using the picked-up image which robot camera C1-C3 image | photographed the calibration pattern a.

まず、3×3の回転行列R、および、3次元の平行移動ベクトルtを、下記の式(1)で定義する。   First, a 3 × 3 rotation matrix R and a three-dimensional translation vector t are defined by the following equation (1).

Figure 2011146762
Figure 2011146762

ここで、画像中の位置を示す汎用的な座標を画像座標(u,v)とする。また、正規化画像座標(x,y)とし、世界座標(Xw,Yw,Zw)とする。このとき、正規化画像座標(x,y)と、画像座標(u,v)との関係は、下記の式(2)で表される。   Here, general-purpose coordinates indicating the position in the image are set as image coordinates (u, v). Also, normalized image coordinates (x, y) and world coordinates (Xw, Yw, Zw) are used. At this time, the relationship between the normalized image coordinates (x, y) and the image coordinates (u, v) is expressed by the following equation (2).

Figure 2011146762
Figure 2011146762

このfはロボットカメラC1〜C3の焦点距離、δu,δvはそれぞれ横方向と縦方向の画素の物理的な間隔、(cu,cv)は画像座標系における光軸と画像面との交点の位置を表す。このf,δu,δv,cu,cvは、ロボットカメラC1〜C3によって決まる定数であり内部パラメータと呼ばれる。一方、回転行列Rと平行移動ベクトルtは、世界座標に対するロボットカメラC1〜C3の位置および姿勢によって決まる定数であり、外部パラメータと呼ばれる。   This f is the focal length of the robot cameras C1 to C3, δu and δv are the physical intervals of the pixels in the horizontal and vertical directions, respectively, and (cu, cv) is the position of the intersection of the optical axis and the image plane in the image coordinate system. Represents. These f, δu, δv, cu, and cv are constants determined by the robot cameras C1 to C3 and are called internal parameters. On the other hand, the rotation matrix R and the translation vector t are constants determined by the positions and postures of the robot cameras C1 to C3 with respect to the world coordinates, and are called external parameters.

ここで、下記の式(3)に示すように、正規化画像座標(x,y)と画像座標(u,v)とをベクトル表記し、内部パラメータからなる3×3の行列を内部パラメータ行列Aとする。この場合、前記した式(2)は、下記の式(4)で表すことができる。   Here, as shown in the following equation (3), the normalized image coordinates (x, y) and the image coordinates (u, v) are expressed as vectors, and a 3 × 3 matrix consisting of internal parameters is expressed as an internal parameter matrix. A. In this case, the above-described formula (2) can be expressed by the following formula (4).

Figure 2011146762
Figure 2011146762



Figure 2011146762
Figure 2011146762

以上をまとめると、世界座標と画像座標との関係は、下記の式(5)で表すことができる。ここで、A(R|t)はまとめて3×4の行列となるので、これを透視投影行列Pとおけば、この関係は、下記の式(6)で表すことができる。このように、任意の世界座標とその投影点の画像座標との関係は、同次座標を用いることにより、3×4の透視投影行列Pを用いて、簡単に表すことができる。なお、記号「〜」は、その両辺が定数倍の違いを許して等しいことを示す。   In summary, the relationship between the world coordinates and the image coordinates can be expressed by the following equation (5). Here, since A (R | t) is collectively a 3 × 4 matrix, if this is referred to as a perspective projection matrix P, this relationship can be expressed by the following equation (6). As described above, the relationship between an arbitrary world coordinate and the image coordinate of the projection point can be easily expressed by using the 3 × 4 perspective projection matrix P by using the homogeneous coordinates. The symbol “˜” indicates that both sides are equal by allowing a constant multiple difference.

Figure 2011146762
Figure 2011146762

Figure 2011146762
Figure 2011146762

通常、ロボットカメラC1〜C3のカメラパラメータは、その具体的な値が分からない。そこで、強校正キャリブレーション部42は、位置が既知の空間点とその画像上への投影点とを用いて、カメラパラメータを求める強校正キャリブレーションを行う必要がある。ここでは、強校正キャリブレーション部42は、透視投影行列Pを求める強校正キャリブレーションを行う。   Usually, the specific values of the camera parameters of the robot cameras C1 to C3 are not known. Therefore, the strong calibration calibration unit 42 needs to perform strong calibration calibration to obtain camera parameters using a spatial point whose position is known and a projection point on the image. Here, the strong calibration calibration unit 42 performs strong calibration calibration for obtaining the perspective projection matrix P.

まず、透視投影行列Pの各要素を、下記の式(7)で定義する。このとき、前記した式(6)は、要素を用いて表すと、下記の式(8)のようになる。   First, each element of the perspective projection matrix P is defined by the following equation (7). At this time, the expression (6) described above is expressed by the following expression (8) when expressed using elements.

Figure 2011146762
Figure 2011146762

Figure 2011146762
Figure 2011146762

前記した式(6)は、任意の定数倍を許した方程式であるため、そこから求められる透視投影行列Pは、定数倍の不定性が残る。そこで、透視投影行列Pの要素P34=1とし、他の要素について整理すると、下記の式(9)が得られる。   Since the above-described equation (6) is an equation that allows an arbitrary constant multiplication, the perspective projection matrix P obtained from the equation remains indefinite. Therefore, when the element P34 of the perspective projection matrix P is set to 1 and other elements are arranged, the following expression (9) is obtained.

Figure 2011146762
Figure 2011146762

空間中の位置(XW,YW,ZW)とその投影点の画像座標(u,v)が得られれば、前記した式(9)のように、Pの各要素に関する2つの方程式が得られる。式(9)において、未知数の数は全部で11個(P11,P12,・・・,P33)なので、既知の世界座標と画像座標とが6組以上わかれば、強校正キャリブレーション部42は、透視投影行列Pを求めることができる。そして、強校正キャリブレーション部42は、この透視投影行列Pからカメラパラメータを求めることで、ロボットカメラC1〜C3に共通する世界座標系を設定する。   If the position (XW, YW, ZW) in the space and the image coordinates (u, v) of the projection point are obtained, two equations relating to each element of P can be obtained as in the above equation (9). In Equation (9), since the total number of unknowns is 11 (P11, P12,..., P33), if 6 or more sets of known world coordinates and image coordinates are known, the strong calibration unit 42 A perspective projection matrix P can be obtained. Then, the strong calibration calibration unit 42 sets a world coordinate system common to the robot cameras C1 to C3 by obtaining camera parameters from the perspective projection matrix P.

なお、強校正キャリブレーションは、例えば、文献「デジタル画像処理:財団法人 画像情報教育振興協会」の「15−1−1 透視投影モデルに基づく幾何学的関係の記述」、「15−1−2 同次座標を用いた記述」および「15−1−3 カメラキャリブレーション」により詳細に記載されている。   Note that the strong calibration calibration is performed by, for example, “15-1-1 Description of geometric relationship based on perspective projection model”, “15-1-2” in the document “Digital Image Processing: Foundation for the Promotion of Image Information Education”. It is described in detail in “Description using homogeneous coordinates” and “15-1-3 Camera calibration”.

<弱校正キャリブレーション部の詳細>
図4〜図6を参照し、弱校正キャリブレーション部43の詳細について説明する(適宜図1参照)。ここでは、図4の注視点Ptが指定され、図5に示すように、ロボットカメラC1〜C3が注視点Ptに向けられた状態として説明する。なお、図4,図5では、説明を簡易にするために、ロボットカメラC2の図示を省略した。
<Details of weak calibration section>
The details of the weak calibration calibration unit 43 will be described with reference to FIGS. 4 to 6 (see FIG. 1 as appropriate). Here, it is assumed that the gazing point Pt in FIG. 4 is designated and the robot cameras C1 to C3 are directed toward the gazing point Pt as shown in FIG. 4 and 5, illustration of the robot camera C2 is omitted for the sake of simplicity.

弱校正キャリブレーション部43は、図6に示すように、エピポーラ拘束条件により、注視点Ptに向けられたロボットカメラC1,C3のカメラパラメータ(内部パラメータおよび外部パラメータ)を算出する。ここでは、ロボットカメラC1,C3の光学中心をC,C´とし、2台のロボットカメラC1,C3の相対的な位置関係を示す回転行列Rおよび平行移動ベクトルtとして、点Pのそれぞれの画像への投影点を正規化画像座標x,x´とする。この場合、3個のベクトル(図6の太線矢印)は、全てエピポーラ平面内に存在する。そこで、この3個のベクトルからなるスカラー3重積が0となることから、下記の式(10)が成り立つ。   As shown in FIG. 6, the weak calibration calibration unit 43 calculates camera parameters (internal parameters and external parameters) of the robot cameras C1 and C3 directed to the gazing point Pt according to the epipolar constraint condition. Here, the optical centers of the robot cameras C1 and C3 are C and C ′, and each image of the point P is a rotation matrix R and a translation vector t indicating the relative positional relationship between the two robot cameras C1 and C3. Let the projection point to be normalized image coordinates x, x ′. In this case, all three vectors (thick line arrows in FIG. 6) exist in the epipolar plane. Therefore, since the scalar triple product of these three vectors is 0, the following equation (10) is established.

Figure 2011146762
Figure 2011146762

ここで、[t]Xは、下記の式(11)で表されるベクトルtの各要素からなる3×3の行列である。   Here, [t] X is a 3 × 3 matrix composed of each element of the vector t expressed by the following equation (11).

Figure 2011146762
Figure 2011146762

さらに、下記の式(12)に置き換えることにより、2つの画像における投影点の正規化画像座標x,x´の間には、下記の式(13)の関係が成り立つ。なお、Eは、3×3の行列で、基本行列と呼ばれる。   Further, by substituting the following equation (12), the relationship of the following equation (13) is established between the normalized image coordinates x and x ′ of the projection points in the two images. E is a 3 × 3 matrix and is called a basic matrix.

Figure 2011146762
Figure 2011146762

Figure 2011146762
Figure 2011146762

次に、前記した関係を一般的な画像座標を用いて表す。それぞれの画像への投影点の座標をm,m´とすれば、前記した式(4)により、この関係は、下記の式(14)で表される。   Next, the above relationship is expressed using general image coordinates. Assuming that the coordinates of the projection points on each image are m and m ′, this relationship is expressed by the following equation (14) according to the above equation (4).

Figure 2011146762
Figure 2011146762

前記した式(10)と式(14)より、下記の式(15)が得られる。   The following formula (15) is obtained from the above formula (10) and formula (14).

Figure 2011146762
Figure 2011146762

さらに、下記の式(16)と置き換えることで、2つの画像における投影点の画像座標m,m´の間には、下記の式(17)の関係が成り立つ。   Further, by substituting the following equation (16), the relationship of the following equation (17) is established between the image coordinates m and m ′ of the projection points in the two images.

Figure 2011146762
Figure 2011146762

Figure 2011146762
Figure 2011146762

このFは、3×3の行列で、基礎行列と呼ばれる。また、前記した式(13)および式(17)は、2つの画像上の投影点の間には、それぞれの式で表される拘束条件が存在することを示している(エピポーラ拘束)。この式(17)にロボットカメラC1が撮影した撮影画像(座標m)における画像座標の値を代入すると、ロボットカメラC3が撮影した撮影画像(座標m´)が満たすべき方程式が得られる。   This F is a 3 × 3 matrix and is called a basic matrix. Further, the above-described equations (13) and (17) indicate that there are constraint conditions represented by the respective equations between the projection points on the two images (epipolar constraint). By substituting the value of the image coordinate in the captured image (coordinate m) captured by the robot camera C1 into this equation (17), an equation to be satisfied by the captured image (coordinate m ′) captured by the robot camera C3 is obtained.

以上のエピポーラ幾何をもとに、ロボットカメラC1,C3の位置関係(モーション)と撮影対象の3次元情報が推定できる。前記した(17)は、各ベクトルと行列の要素を用いて、下記の式(18)で表すことができる。ただし、f11,f12,・・・,f33は、基礎行列Fの各要素である。   Based on the above epipolar geometry, the positional relationship (motion) of the robot cameras C1 and C3 and the three-dimensional information of the imaging target can be estimated. The above (17) can be expressed by the following equation (18) using each vector and matrix elements. Here, f11, f12,..., F33 are each element of the basic matrix F.

Figure 2011146762
Figure 2011146762

この式(18)を基礎行列Fの各要素に関する方程式とみなしたとき、一組の画像座標から1つの方程式が得られる。基礎行列Fの要素数は9個であるが、式(18)から求められる基礎行列Fには定数倍の不定性が残るため、実質的な未知数の数は8個である。そこで、最低8組の対応点の画像座標を得ることができれば、基礎行列Fを求めることができる。このように、2枚の撮影画像において、8以上の対応点の組からエピポーラ拘束を示す基礎行列Fを求める手法は、8点アルゴリズムと呼ばれる。   When this equation (18) is regarded as an equation for each element of the basic matrix F, one equation is obtained from a set of image coordinates. The number of elements of the basic matrix F is 9, but since the indefiniteness of a constant multiple remains in the basic matrix F obtained from Expression (18), the number of substantial unknowns is 8. Therefore, if the image coordinates of at least 8 sets of corresponding points can be obtained, the basic matrix F can be obtained. As described above, the method for obtaining the basic matrix F indicating the epipolar constraint from a set of 8 or more corresponding points in two captured images is called an 8-point algorithm.

ここで、式(12)と式(16)より、下記の式(19)の関係が成り立つ。   Here, the relationship of the following equation (19) is established from the equations (12) and (16).

Figure 2011146762
Figure 2011146762

弱校正キャリブレーション部43は、内部パラメータ行列Aが既知なので、基礎行列Fから基本行列Eを求めることができる。さらに、弱校正キャリブレーション部43は、基本行列Eを歪対称行列と直交行列の積に分解することで、2つのロボットカメラC1,C3の位置関係を示す回転行列Rと平行移動ベクトルtの方向とを求めることができる(スケールは算出不可)。   Since the internal parameter matrix A is known, the weak calibration calibration unit 43 can obtain the basic matrix E from the basic matrix F. Further, the weak calibration calibration unit 43 decomposes the basic matrix E into a product of a distortion symmetric matrix and an orthogonal matrix, thereby rotating the rotation matrix R indicating the positional relationship between the two robot cameras C1 and C3 and the direction of the translation vector t. (The scale cannot be calculated).

ここでは、ロボットカメラC1,C3での弱校正キャリブレーションを説明したが、弱校正キャリブレーション部43は、ロボットカメラC1,C2等の他の組み合わせについても、弱校正キャリブレーションを行うことは言うまでもない。   Here, the weak calibration calibration by the robot cameras C1 and C3 has been described, but it goes without saying that the weak calibration calibration unit 43 performs the weak calibration calibration also for other combinations such as the robot cameras C1 and C2. .

なお、この弱校正キャリブレーションは、例えば、文献「デジタル画像処理:財団法人 画像情報教育振興協会」の「15−4−1 エピポーラ幾何」および「15−4−2 モーションと形状の推定」により詳細に記載されている。   This weak calibration is described in detail in, for example, “15-4-1 epipolar geometry” and “15-4-2 motion and shape estimation” in the document “Digital Image Processing: Association for Promotion of Image Information Education”. It is described in.

<制御誤差補正部の詳細>
図7を参照し、制御誤差補正部44の詳細について説明する(適宜図1参照)。なお、図7では、説明を簡易にするために、ロボットカメラC2の図示を省略した。
<Details of control error correction unit>
Details of the control error correction unit 44 will be described with reference to FIG. 7 (see FIG. 1 as appropriate). In FIG. 7, the robot camera C2 is not shown for the sake of simplicity.

図7の実線で示すように、ロボットカメラC1,C3は、注視点Ptに正確に向いた状態で撮影を行うことが好ましい。しかし、弱校正キャリブレーションによって求めた回転行列R(以後、「回転行列R´」と記す)には、前記したように、駆動モータの制御誤差が含まれている。このため、図7の破線で示すように、ロボットカメラC1,C3は、注視点Ptに対して撮影画角がずれた状態で撮影を行うことになる。そこで、制御誤差補正部44は、この制御誤差を補正する。   As indicated by the solid line in FIG. 7, it is preferable that the robot cameras C <b> 1 and C <b> 3 perform shooting in a state where the robot cameras C <b> 1 and C <b> 3 are accurately directed to the gazing point Pt. However, as described above, the rotation matrix R (hereinafter referred to as “rotation matrix R ′”) obtained by the weak calibration calibration includes a control error of the drive motor. For this reason, as shown by the broken lines in FIG. 7, the robot cameras C1 and C3 perform shooting in a state in which the shooting angle of view is shifted with respect to the gazing point Pt. Therefore, the control error correction unit 44 corrects this control error.

具体的には、制御誤差補正部44は、ロボットカメラC1の位置から注視点Ptの世界座標までの単位ベクトルを算出し、その単位ベクトルをカメラ座標軸のz軸とする。また、制御誤差補正部44は、カメラ座標軸のz軸と世界座標系のZ軸との直交条件から、カメラ座標軸のx軸を求める。そして、制御誤差補正部44は、カメラ座標軸のz軸とカメラ座標軸のx軸との直交条件からカメラ座標軸のy軸を求め、これらカメラ座標軸から回転行列Rを求める。さらに、制御誤差補正部44は、この回転行列Rと、弱校正キャリブレーションによって求めた回転行列R´とから射影変換行列を求め、ロボットカメラC1が撮影した撮影画像を射影変換して、撮影画像上で制御誤差を補正する。   Specifically, the control error correction unit 44 calculates a unit vector from the position of the robot camera C1 to the world coordinates of the gazing point Pt, and sets the unit vector as the z axis of the camera coordinate axis. Further, the control error correction unit 44 obtains the x-axis of the camera coordinate axis from the orthogonal condition between the z-axis of the camera coordinate axis and the Z-axis of the world coordinate system. Then, the control error correction unit 44 obtains the y-axis of the camera coordinate axis from the orthogonal condition between the z-axis of the camera coordinate axis and the x-axis of the camera coordinate axis, and obtains the rotation matrix R from these camera coordinate axes. Further, the control error correction unit 44 obtains a projective transformation matrix from the rotation matrix R and the rotation matrix R ′ obtained by the weak calibration calibration, performs projective transformation on the photographed image taken by the robot camera C1, and obtains a photographed image. The control error is corrected above.

つまり、制御誤差補正部44は、下記の式(20)の変換式を用いて、撮影画像を射影変換し、制御誤差を補正する。この式(20)では、gが補正前の制御誤差を含んだ撮影画像であり、g´が射影変換後の撮影画像であり、Aが内部パラメータ行列であり、R´が弱校正キャリブレーションによって求めた回転行列であり、Rがカメラ座標軸から求めた回転行列である。   In other words, the control error correction unit 44 performs projective transformation of the captured image using the conversion formula of the following formula (20), and corrects the control error. In this equation (20), g is a captured image including a control error before correction, g ′ is a captured image after projective transformation, A is an internal parameter matrix, and R ′ is obtained by weak calibration calibration. The obtained rotation matrix, and R is the rotation matrix obtained from the camera coordinate axes.

Figure 2011146762
Figure 2011146762

なお、制御誤差補正部44は、ロボットカメラC1と同様の手順でロボットカメラC2,C3の撮影画像を射影変換することは言うまでもない。ここで、この制御誤差の補正は、例えば、特許文献「特開2006‐115298号公報:多視点カメラ映像表現システム」に記載されている。   Needless to say, the control error correction unit 44 performs projective transformation of the captured images of the robot cameras C2 and C3 in the same procedure as the robot camera C1. Here, the correction of the control error is described in, for example, Japanese Patent Application Laid-Open No. 2006-115298: Multi-viewpoint camera video expression system.

<部分領域立体モデル生成部の詳細>
以下、図8〜図10を参照し、部分領域立体モデル生成部50の詳細について説明する(適宜図1参照)。ここでは、図8(a)に示すように、ロボットカメラC1〜C3のそれぞれが、3次元空間Sp内の部分領域Ba1を撮影する。また、制御誤差補正部44は、ロボットカメラC1〜C3がそれぞれ撮影した撮影画像について、制御誤差を補正する。そして、撮影画像記憶部10は、図8(b)〜(d)に示すように、同一の部分領域Ba1を、ロボットカメラC1〜C3がそれぞれ異なる撮影画角で撮影した撮影画像が記憶される。
<Details of Partial Area Stereo Model Generation Unit>
Hereinafter, the details of the partial region solid model generation unit 50 will be described with reference to FIGS. 8 to 10 (see FIG. 1 as appropriate). Here, as shown in FIG. 8A, each of the robot cameras C1 to C3 images a partial area Ba1 in the three-dimensional space Sp. In addition, the control error correction unit 44 corrects the control error for the captured images captured by the robot cameras C1 to C3. Then, as shown in FIGS. 8B to 8D, the photographed image storage unit 10 stores photographed images obtained by photographing the same partial area Ba1 with different photographing angles of view by the robot cameras C1 to C3. .

特徴点抽出部51は、ロボットカメラC1の撮影画像(図8(b)参照)から、SIFT特徴量に基づいて特徴点を抽出する。ここで、特徴点抽出部51は、例えば、図9(a)に示すように、撮影画像内で顕著な特徴を有する点を特徴点として抽出する(例えば、複数のσ値でフィルタして被写体の端点を抽出)。また、特徴点抽出部51は、ロボットカメラC1と同様に、ロボットカメラC2,C3の撮影画像から、SIFT特徴量に基づいて特徴点を抽出する(図9(b),(c)参照)。   The feature point extraction unit 51 extracts feature points from the captured image of the robot camera C1 (see FIG. 8B) based on the SIFT feature amount. Here, for example, as shown in FIG. 9A, the feature point extraction unit 51 extracts a point having a remarkable feature in the photographed image as a feature point (for example, the subject is filtered by a plurality of σ values). Extract end points of). Also, the feature point extraction unit 51 extracts feature points based on SIFT feature values from the captured images of the robot cameras C2 and C3, as with the robot camera C1 (see FIGS. 9B and 9C).

つまり、図9(a)〜(c)に示すように、ロボットカメラC1〜C3の撮影画像には、同一の特徴点が映ることになる。まず、特徴点抽出部51は、ロボットカメラC1〜C3の撮影画像の間で、各特徴点のSIFT特徴量をマッチングして特徴点の対応関係を求める。例えば、特徴点抽出部51は、マッチングにより、ロボットカメラC1〜C3の撮影画像の間で特徴点Fp1が同一の特徴点であることが判り、特徴点Fp2も同一の特徴点であることが判る。そして、特徴点抽出部51は、この対応関係から特徴点の画像座標を求める。   That is, as shown in FIGS. 9A to 9C, the same feature points appear in the captured images of the robot cameras C1 to C3. First, the feature point extraction unit 51 finds the correspondence between feature points by matching SIFT feature amounts of the feature points between the captured images of the robot cameras C1 to C3. For example, the feature point extraction unit 51 knows by matching that the feature point Fp1 is the same feature point among the captured images of the robot cameras C1 to C3, and the feature point Fp2 is also the same feature point. . Then, the feature point extraction unit 51 obtains the image coordinates of the feature points from this correspondence.

次に、特徴点世界座標算出部52は、特徴点抽出部51が求めた特徴点の画像座標から世界座標を求め、図9(d)に示すように、各特徴点を部分領域Ba1における3次元空間にプロットする。特徴点の世界座標を算出するために、特徴点世界座標算出部52は、弱キャリブレーションにより得たカメラパラメータから、下記の式(21)のような射影投影行列Pmを生成する。なお、図9(d)では、説明のために、プロットした特徴点に対応する被写体を破線で図示した。   Next, the feature point world coordinate calculation unit 52 obtains the world coordinates from the image coordinates of the feature points obtained by the feature point extraction unit 51, and, as shown in FIG. Plot in dimensional space. In order to calculate the world coordinates of the feature point, the feature point world coordinate calculation unit 52 generates a projection projection matrix Pm like the following formula (21) from the camera parameters obtained by the weak calibration. In FIG. 9D, the object corresponding to the plotted feature points is indicated by a broken line for explanation.

Figure 2011146762
Figure 2011146762

ここで、mはロボットカメラの番号、aは画素のアスペクト比、Fはロボットカメラの焦点距離、(Cx,Cy)はロボットカメラ光軸と画像面の交点、Rmは撮影時におけるロボットカメラの姿勢に基づいた回転ベクトル、Tmは世界座標からカメラ座標系への移動ベクトルである。   Here, m is the number of the robot camera, a is the pixel aspect ratio, F is the focal length of the robot camera, (Cx, Cy) is the intersection of the robot camera optical axis and the image plane, and Rm is the posture of the robot camera at the time of shooting. Rotation vector based on, Tm is a movement vector from the world coordinates to the camera coordinate system.

そして、射影投影行列Pm、算出した特徴点の画像座標(u,v)、および、これから求める特徴点の世界座標(X、Y、Z)の関係は、下記の式(22)で表される。   Then, the relationship between the projection projection matrix Pm, the calculated image coordinates (u, v) of the feature points, and the world coordinates (X, Y, Z) of the feature points calculated from this is expressed by the following equation (22). .

Figure 2011146762
Figure 2011146762

前記した式(22)を展開して世界座標(X、Y、Z)に関してまとめると、下記の式(23)のようになる。   When the above equation (22) is developed and summarized with respect to the world coordinates (X, Y, Z), the following equation (23) is obtained.

Figure 2011146762
Figure 2011146762




特徴点の画像座標(u,v)は既知であるので、前記した式(23)は、世界座標(X、Y、Z)を未知数とする連立一次方程式となる。1つの撮影映像から式(23)の方程式が2つ得られるため、2つの撮影映像からは、下記の式(24)で表される4つの方程式が得られる。   Since the image coordinates (u, v) of the feature points are known, the above equation (23) is a simultaneous linear equation with the world coordinates (X, Y, Z) as unknowns. Since two equations of Expression (23) are obtained from one photographed image, four equations represented by the following Expression (24) are obtained from the two photographed images.

Figure 2011146762
Figure 2011146762



式(24)には3つの未知数に対して4つの方程式があるので、特徴点世界座標算出部52は、最小二乗解を求める。式(24)を下記の式(25)とおくと、世界座標Xの最小二乗解は、下記の式(26)で求めることができる。   Since there are four equations for the three unknowns in the equation (24), the feature point world coordinate calculation unit 52 obtains a least squares solution. If the equation (24) is set as the following equation (25), the least squares solution of the world coordinate X can be obtained by the following equation (26).

Figure 2011146762
Figure 2011146762

Figure 2011146762
Figure 2011146762

M+は一般化逆行列と呼ばれ、下記の式(27)で定義される。このように、特徴点世界座標算出部52は、特徴点の世界座標(X、Y、Z)を算出して、これを部分領域の立体モデルとする。   M + is called a generalized inverse matrix and is defined by the following equation (27). In this way, the feature point world coordinate calculation unit 52 calculates the world coordinates (X, Y, Z) of the feature point, and uses this as a three-dimensional model of the partial region.

Figure 2011146762
Figure 2011146762

その後、部分領域Ba1の立体モデルを生成したら、図10に示すように、特徴点世界座標算出部52は、それに隣接する部分領域Ba2についても、部分領域Ba2を撮影したロボットカメラC1〜C3の撮影画像を用いて、同様の手順で立体モデルを生成する。そして、特徴点世界座標算出部52は、この手順を繰り返し行い、3次元空間Sp内の全ての部分領域Baについて、立体モデルを生成する。   After that, when the three-dimensional model of the partial area Ba1 is generated, as shown in FIG. 10, the feature point world coordinate calculation unit 52 captures the partial area Ba2 by using the robot cameras C1 to C3 that captured the partial area Ba2. A three-dimensional model is generated in the same procedure using the image. And the feature point world coordinate calculation part 52 repeats this procedure, and produces | generates a stereo model about all the partial area | region Ba in the three-dimensional space Sp.

なお、立体モデルを生成するときには部分領域が重複すること(例えば、部分領域Ba2を撮影した撮影画像に部分領域Ba1の一部が映り込むこと)が考えられる。この場合、重複部分に含まれる1つの特徴点は、世界座標系に複数回プロットされ、本来なら1点だけの特徴点か複数個存在することになる。この場合、特徴点世界座標算出部52は、この複数回プロットされた特徴点の世界座標の平均値を算出し、この平均値を特徴点の世界座標としても良い。このようにして、特徴点世界座標算出部52は、同一の特徴点が複数回プロットされる事態を防止できる。   Note that it is conceivable that the partial areas overlap when generating the three-dimensional model (for example, a part of the partial area Ba1 is reflected in the captured image obtained by capturing the partial area Ba2). In this case, one feature point included in the overlapping portion is plotted a plurality of times in the world coordinate system, and there are originally only one feature point or a plurality of feature points. In this case, the feature point world coordinate calculation unit 52 may calculate an average value of the world coordinates of the feature points plotted a plurality of times, and use the average value as the world coordinates of the feature points. In this way, the feature point world coordinate calculation unit 52 can prevent the same feature point from being plotted multiple times.

<全領域立体モデル生成部の詳細>
図11を参照し、全領域立体モデル生成部60の詳細について説明する(適宜図1参照)。図11では、説明を簡易にするために、4個の部分領域Ba3〜Ba6の立体モデルを連結する例で説明するが、3次元空間Sp内の全ての部分領域Baについて、立体モデルを連結することは言うまでもない。
<Details of all-region stereo model generator>
With reference to FIG. 11, the detail of the all-region solid model production | generation part 60 is demonstrated (refer FIG. 1 suitably). In FIG. 11, in order to simplify the description, an example in which the three-dimensional models of the four partial areas Ba3 to Ba6 are connected will be described. However, the three-dimensional models are connected to all the partial areas Ba in the three-dimensional space Sp. Needless to say.

全領域立体モデル生成部60は、図11(b),(c)に示すように、部分領域の立体モデルを連結して、3次元空間Sp全体の立体モデルを生成する。具体的には、全領域立体モデル生成部60は、注視点の世界座標を基準として、部分領域Ba3〜Ba6の立体モデルを連結する。その後、全領域立体モデル生成部60は、ポリゴンや、撮影映像を用いたテクスチャを貼り付けることで、3次元空間Sp全体の立体モデルを生成する。   As shown in FIGS. 11B and 11C, the all-region stereo model generation unit 60 generates a stereo model for the entire three-dimensional space Sp by connecting the stereo models of the partial regions. Specifically, the all-region stereo model generation unit 60 connects the stereo models of the partial regions Ba3 to Ba6 with reference to the world coordinates of the gazing point. Thereafter, the all-region stereo model generation unit 60 generates a stereo model of the entire three-dimensional space Sp by pasting polygons or textures using captured images.

以上より、本発明の第1実施形態に係る多視点ロボットカメラ立体モデル生成装置1によれば、以下(a)〜(c)の手法を実現できる。
(a)ロボットカメラC1〜C3が空間中の1点(注視点)を向くように一斉に制御する手法。
(b)ロボットカメラC1〜C3のズームにより細部を拡大した3次元空間の部分領域を撮影画角とし、その撮影画角で3次元空間全体を走査して撮影する手法。
(c)撮影画像から3次元空間の部分領域の立体モデルを生成し、それら立体モデルを連結することで3次元空間全体の立体モデルを生成する手法。
As described above, according to the multi-viewpoint robot camera three-dimensional model generation apparatus 1 according to the first embodiment of the present invention, the following methods (a) to (c) can be realized.
(A) A method of performing simultaneous control so that the robot cameras C1 to C3 face one point (gazing point) in the space.
(B) A method in which a partial area of a three-dimensional space whose details are enlarged by zooming of the robot cameras C1 to C3 is used as a shooting angle of view, and the entire three-dimensional space is scanned at the shooting angle of view.
(C) A method of generating a three-dimensional model of the entire three-dimensional space by generating a three-dimensional model of a partial region of the three-dimensional space from the captured image and connecting the three-dimensional models.

前記(a)〜(c)を実現することにより、多視点ロボットカメラ立体モデル生成装置1は、ロボットカメラC1〜C3がズームして3次元空間Spの細部を拡大した際にも、制御誤差の影響がない正確な撮影画像を取得できる。そして、多視点ロボットカメラ立体モデル生成装置1は、ロボットカメラC1〜C3をズームさせて部分領域を撮影画角とし、この撮影画角で3次元空間Sp全体を走査するように撮影させる。さらに、多視点ロボットカメラ立体モデル生成装置1は、これら撮影画像を用いて、細部が正確に再現された部分領域の立体モデルを生成して連結し、3次元空間Sp全体の立体モデルを生成する。これによって、多視点ロボットカメラ立体モデル生成装置1は、多視点画像を用いた従来技術に比べて、精度の高い立体モデルおよび解像度の高いテクスチャを生成することが可能となり、3次元空間Sp全体の精巧な立体モデルを生成することができる。   By realizing the above (a) to (c), the multi-viewpoint robot camera three-dimensional model generation apparatus 1 can reduce the control error even when the robot cameras C1 to C3 zoom to enlarge the details of the three-dimensional space Sp. Accurate captured images that are not affected can be acquired. Then, the multi-viewpoint robot camera three-dimensional model generation apparatus 1 zooms the robot cameras C1 to C3 to set the partial area as the shooting angle of view, and causes the entire three-dimensional space Sp to be scanned at this shooting angle of view. Further, the multi-viewpoint robot camera 3D model generation device 1 generates and connects a 3D model of a partial region in which details are accurately reproduced using these captured images, and generates a 3D model of the entire three-dimensional space Sp. . As a result, the multi-viewpoint robot camera stereo model generation device 1 can generate a highly accurate stereo model and texture with high resolution compared to the conventional technique using multi-viewpoint images, and the entire three-dimensional space Sp can be generated. An elaborate three-dimensional model can be generated.

また、多視点ロボットカメラ立体モデル生成装置1は、レーザを用いて被写体形状を計測する従来技術に比べて、レーザを人等の被写体に照射する必要がないので安全性が高く、被写体の材質によって立体モデルの精度が劣化することもない。また、レーザを用いて被写体形状を計測する従来技術では、立体モデルを生成できる距離が最長100メートル程度と言われている。しかし、多視点ロボットカメラ立体モデル生成装置1は、ロボットカメラC1〜C3がズーム可能な距離であれば、100メートルよりも遠方の立体モデルを生成することができる。   In addition, the multi-viewpoint robot camera three-dimensional model generation apparatus 1 has higher safety than the conventional technology that measures the shape of a subject using a laser because it does not need to irradiate a subject such as a person. The accuracy of the three-dimensional model is not degraded. Further, in the conventional technique for measuring the object shape using a laser, it is said that the maximum distance at which a three-dimensional model can be generated is about 100 meters. However, the multi-viewpoint robot camera 3D model generation apparatus 1 can generate a 3D model farther than 100 meters as long as the robot cameras C1 to C3 can be zoomed.

ここで、多視点ロボットカメラ立体モデル生成装置1は、ロボットカメラC1〜C3のズーム倍率が特に制限されるものではないが、例えば、1倍を超えて150倍以下であり、72倍以下であることがより好ましい。   Here, in the multi-viewpoint robot camera three-dimensional model generation apparatus 1, the zoom magnification of the robot cameras C1 to C3 is not particularly limited, but is, for example, more than 1 and 150 or less, and 72 or less. It is more preferable.

なお、本発明の第1実施形態では、多視点ロボットカメラ立体モデル生成装置1が世界座標指定部45を備えることとして説明したが、これを備えなくとも良い。具体的には、ロボットカメラC1〜C3が3次元空間Sp内の全ての部分領域Baを走査して撮影できるように複数の注視点が手動で指定される場合、多視点ロボットカメラ立体モデル生成装置1は、世界座標指定部45を備えなくとも良い。   In the first embodiment of the present invention, the multi-viewpoint robot camera three-dimensional model generation device 1 has been described as including the world coordinate designation unit 45, but this need not be provided. Specifically, when a plurality of gazing points are manually designated so that the robot cameras C1 to C3 can scan and photograph all the partial areas Ba in the three-dimensional space Sp, a multi-viewpoint robot camera three-dimensional model generation device 1 need not include the world coordinate designating unit 45.

なお、本発明の第1実施形態では、ロボットカメラC1〜C3を固定型の撮影カメラとして説明したが、移動機構を備えた自律移動型の撮影カメラとしても良い。この場合、多視点ロボットカメラ立体モデル生成装置1は、ロボットカメラC1〜C3の何れかが移動したとき、強校正キャリブレーション等の処理を再び行えば良い。あるいは、多視点ロボットカメラ立体モデル生成装置1は、移動機構からのフィードバック信号を用いて、強校正キャリブレーションを行った位置を基準として、移動後の相対的な位置を算出しても良い。   In the first embodiment of the present invention, the robot cameras C1 to C3 have been described as fixed imaging cameras, but may be autonomously moving imaging cameras including a moving mechanism. In this case, the multi-viewpoint robot camera three-dimensional model generation apparatus 1 may perform processing such as strong calibration calibration again when any of the robot cameras C1 to C3 moves. Alternatively, the multi-viewpoint robot camera three-dimensional model generation device 1 may calculate the relative position after movement using the feedback signal from the movement mechanism with reference to the position where the strong calibration calibration is performed.

なお、本発明の第1実施形態では、3台のロボットカメラC1〜C3を一列に設置することとして説明したが、その台数および配置はこれに限定されない。例えば、本発明では、2台又は4台以上のロボットカメラを3次元空間Spの周囲に配置しても良い。   In the first embodiment of the present invention, the three robot cameras C1 to C3 are described as being installed in a row, but the number and arrangement thereof are not limited to this. For example, in the present invention, two or four or more robot cameras may be arranged around the three-dimensional space Sp.

(第2実施形態)
[多視点ロボットカメラ立体モデル生成装置の構成]
図12,図13を参照し、本発明の第2実施形態に係る多視点ロボットカメラ立体モデル生成装置1Bの構成について、第1実施形態と異なる点を説明する。この第2実施形態では、多視点ロボットカメラ立体モデル生成装置1Bが、SIFT特徴量の代わりに、ステレオマッチングを用いて立体モデルを生成する。
(Second Embodiment)
[Configuration of multi-viewpoint robot camera stereo model generator]
With reference to FIGS. 12 and 13, the configuration of the multi-viewpoint robot camera 3D model generation device 1 </ b> B according to the second embodiment of the present invention will be described while referring to differences from the first embodiment. In the second embodiment, the multi-viewpoint robot camera stereo model generation device 1B generates a stereo model using stereo matching instead of the SIFT feature amount.

図12の撮影画像記憶部10、注視点指定部20、カメラ制御部30、および、カメラパラメータ生成・記憶部40は、図1の各手段と同様のため、説明を省略する。   The captured image storage unit 10, the gazing point specification unit 20, the camera control unit 30, and the camera parameter generation / storage unit 40 in FIG. 12 are the same as the respective units in FIG.

部分領域立体モデル生成部50Bは、距離画像生成部53を備える。
距離画像生成部53は、撮影画像記憶部10を参照し、ロボットカメラC1〜C3の撮影画像から、3次元空間Sp内の部分領域Ba毎に、距離画像をステレオマッチングによって生成する(図12(a)参照)。つまり、距離画像生成部53は、部分領域Baの立体モデルとして、距離画像を生成する。
The partial region three-dimensional model generation unit 50B includes a distance image generation unit 53.
The distance image generation unit 53 refers to the captured image storage unit 10 and generates a distance image by stereo matching for each partial region Ba in the three-dimensional space Sp from the captured images of the robot cameras C1 to C3 (FIG. 12 ( a)). That is, the distance image generation unit 53 generates a distance image as a three-dimensional model of the partial area Ba.

全領域立体モデル生成部60Bは、部分領域立体モデル生成部50Bから部分領域Ba毎に距離画像が入力され、この距離画像を連結して、3次元空間Sp全体の立体モデルを生成する。具体的には、全領域立体モデル生成部60Bは、図12(b)に示すように、各距離画像の中央部を切り出す。そして、全領域立体モデル生成部60Bは、図12(a)に示すように、注視点の世界座標を基準として、切り出した距離画像を連結させて3次元空間Sp全体の距離画像を生成する。そして、全領域立体モデル生成部60Bは、生成した3次元空間Sp全体の距離画像に撮影映像のテクスチャを貼り付け、3次元空間Sp全体の立体モデルを生成する。   The all-region three-dimensional model generation unit 60B receives a distance image for each partial region Ba from the partial region three-dimensional model generation unit 50B, and generates a three-dimensional model of the entire three-dimensional space Sp by connecting the distance images. Specifically, the all-region solid model generation unit 60B cuts out the center portion of each distance image as shown in FIG. Then, as illustrated in FIG. 12A, the all-region stereoscopic model generation unit 60 </ b> B generates a distance image of the entire three-dimensional space Sp by connecting the cut-out distance images with reference to the world coordinates of the gazing point. Then, the all-region stereoscopic model generation unit 60B pastes the texture of the captured video on the generated distance image of the entire three-dimensional space Sp and generates a three-dimensional model of the entire three-dimensional space Sp.

[多視点ロボットカメラ立体モデル生成装置の動作]
図14を参照し、図12の多視点ロボットカメラ立体モデル生成装置1Bの動作について説明する(適宜図12参照)。なお、図14のステップS1〜S5は、図2の各ステップと同様であるため、説明を省略する。
[Operation of multi-viewpoint robot camera stereo model generator]
The operation of the multi-viewpoint robot camera 3D model generation apparatus 1B of FIG. 12 will be described with reference to FIG. 14 (see FIG. 12 as appropriate). Note that steps S1 to S5 in FIG. 14 are the same as the steps in FIG.

多視点ロボットカメラ立体モデル生成装置1Bは、距離画像生成部53によって、部分領域Ba毎の距離画像を生成する(ステップS10)。また、多視点ロボットカメラ立体モデル生成装置1Bは、全領域立体モデル生成部60Bによって、距離画像を連結して3次元空間Sp全体の立体モデルを生成する(ステップS11)。   The multi-viewpoint robot camera three-dimensional model generation device 1B generates a distance image for each partial region Ba by using the distance image generation unit 53 (step S10). In addition, the multi-viewpoint robot camera stereo model generation device 1B generates a stereo model of the entire three-dimensional space Sp by connecting the distance images using the all-region stereo model generation unit 60B (step S11).

以上のように、本発明の第2実施形態に係る多視点ロボットカメラ立体モデル生成装置1Bによれば、第1実施形態と同様、3次元空間Sp全体の精巧な立体モデルを生成することができる。   As described above, according to the multi-viewpoint robot camera stereo model generation device 1B according to the second embodiment of the present invention, as in the first embodiment, an elaborate stereo model of the entire three-dimensional space Sp can be generated. .

なお、撮影画像の内容によって、SIFT特徴量を用いる手法(第1実施形態)、又は、ステレオマッチングを用いる手法(第2実施形態)の何れが最適なのか異なる。そこで、立体モデルの生成に際し、本発明に係る多視点ロボットカメラ立体モデル生成装置は、SIFT特徴量を用いる手法とステレオマッチングを用いる手法とを手動で選択可能とすることで、撮影画像の内容に関わらず精度の高い立体モデルを生成することができる。   Depending on the content of the captured image, it is different which of the method using the SIFT feature value (first embodiment) or the method using the stereo matching (second embodiment) is optimal. Therefore, when generating a stereo model, the multi-viewpoint robot camera stereo model generation apparatus according to the present invention can manually select a method using SIFT feature and a method using stereo matching, so that the content of the captured image can be selected. Regardless, a highly accurate three-dimensional model can be generated.

1,1B 多視点ロボットカメラ立体モデル生成装置(立体モデル生成装置)
10 撮影画像記憶部
20 注視点指定部
30 カメラ制御部
40 カメラパラメータ生成・記憶部
41 カメラパラメータ記憶部
42 強校正キャリブレーション部
43 弱校正キャリブレーション部
44 制御誤差補正部
45 世界座標指定部
50,50B 部分領域立体モデル生成部
51 特徴点抽出部
52 特徴点世界座標算出部
53 距離画像生成部
60,60B 全領域立体モデル生成部
1,1B Multi-viewpoint robot camera stereo model generator (stereo model generator)
DESCRIPTION OF SYMBOLS 10 Captured image memory | storage part 20 Gaze point designation | designated part 30 Camera control part 40 Camera parameter production | generation / memory | storage part 41 Camera parameter memory | storage part 42 Strong calibration calibration part 43 Weak calibration calibration part 44 Control error correction | amendment part 45 World coordinate designation | designated part 50, 50B Partial region stereo model generation unit 51 Feature point extraction unit 52 Feature point world coordinate calculation unit 53 Distance image generation unit 60, 60B All region stereo model generation unit

Claims (3)

複数台のロボットカメラのそれぞれが3次元空間内の同じ部分領域をズームして撮影した撮影画像を用いて、前記3次元空間全体の立体モデルを生成する立体モデル生成装置であって、
強校正キャリブレーションによって前記複数台のロボットカメラに共通する世界座標系を設定する強校正キャリブレーション部と、
前記世界座標系において予め指定された注視点に向けられた前記複数台のロボットカメラのカメラパラメータを、弱校正キャリブレーションによって算出する弱校正キャリブレーション部と、
前記弱校正キャリブレーション部が算出したカメラパラメータを用いた射影変換によって、前記複数台のロボットカメラの制御誤差を前記撮影画像上で補正する制御誤差補正部と、
前記3次元空間を走査するように当該3次元空間内の全ての部分領域を撮影し、かつ、前記制御誤差が補正された前記撮影画像が入力され、マッチングにより前記部分領域毎に立体モデルを生成する部分領域立体モデル生成部と、
前記部分領域立体モデル生成部が生成した部分領域の立体モデルを連結して、前記3次元空間全体の立体モデルを生成する全領域立体モデル生成部と、
を備えることを特徴とする立体モデル生成装置。
A three-dimensional model generation device that generates a three-dimensional model of the entire three-dimensional space using captured images obtained by zooming and photographing the same partial area in the three-dimensional space.
A strong calibration calibration unit for setting a global coordinate system common to the plurality of robot cameras by strong calibration,
A weak calibration unit for calculating the camera parameters of the plurality of robot cameras directed to a gazing point designated in advance in the world coordinate system by weak calibration;
A control error correction unit that corrects control errors of the plurality of robot cameras on the captured image by projective transformation using the camera parameters calculated by the weak calibration unit;
All partial regions in the three-dimensional space are photographed so as to scan the three-dimensional space, and the photographed image in which the control error is corrected is input, and a stereo model is generated for each partial region by matching. A partial region stereo model generation unit to perform,
An all-region stereo model generating unit that generates a stereo model of the entire three-dimensional space by connecting the stereo models of the partial regions generated by the partial region stereo model generating unit;
A three-dimensional model generation apparatus comprising:
前記部分領域立体モデル生成部は、
入力された前記撮影画像のそれぞれから、SIFT特徴量による特徴点を抽出すると共に、前記撮影画像の間で前記特徴点における前記SIFT特徴量をマッチングすることで、前記特徴点の画像座標を算出する特徴点抽出部と、
前記特徴点抽出部が算出した特徴点の画像座標から、前記弱校正キャリブレーション部が算出したカメラパラメータを用いた射影変換によって前記部分領域の立体モデルを生成する特徴点世界座標算出部と、
を備えることを特徴とする請求項1に記載の立体モデル生成装置。
The partial region stereo model generation unit
A feature point based on a SIFT feature value is extracted from each of the inputted photographed images, and image coordinates of the feature point are calculated by matching the SIFT feature value at the feature point between the photographed images. A feature point extraction unit;
A feature point world coordinate calculation unit that generates a three-dimensional model of the partial region by projective transformation using the camera parameters calculated by the weak calibration calibration unit from the image coordinates of the feature points calculated by the feature point extraction unit;
The solid model generation apparatus according to claim 1, comprising:
前記部分領域立体モデル生成部は、
入力された前記撮影画像のそれぞれから、ステレオマッチングによって前記部分領域毎に距離画像を、前記部分領域の立体モデルとして生成する距離画像生成部を備えることを特徴とする請求項1に記載の立体モデル生成装置。
The partial region stereo model generation unit
The stereo model according to claim 1, further comprising: a distance image generation unit that generates a distance image for each of the partial regions as a stereo model of the partial region by stereo matching from each of the input captured images. Generator.
JP2010003700A 2010-01-12 2010-01-12 Solid model generator Pending JP2011146762A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010003700A JP2011146762A (en) 2010-01-12 2010-01-12 Solid model generator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010003700A JP2011146762A (en) 2010-01-12 2010-01-12 Solid model generator

Publications (1)

Publication Number Publication Date
JP2011146762A true JP2011146762A (en) 2011-07-28

Family

ID=44461257

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010003700A Pending JP2011146762A (en) 2010-01-12 2010-01-12 Solid model generator

Country Status (1)

Country Link
JP (1) JP2011146762A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014027528A (en) * 2012-07-27 2014-02-06 Nippon Hoso Kyokai <Nhk> Projection transformation video generation device, program of the same and multi-viewpoint video expression device
JP2014103474A (en) * 2012-11-19 2014-06-05 Nippon Hoso Kyokai <Nhk> Robot camera control device, program for the same, and multi-viewpoint robot camera system
JP2016218999A (en) * 2015-05-21 2016-12-22 三菱電機株式会社 Method for training classifier to detect object represented in image of target environment
WO2018079260A1 (en) * 2016-10-25 2018-05-03 ソニー株式会社 Image processing device and image processing method

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09197582A (en) * 1996-01-17 1997-07-31 Sony Corp Seamless panoramic video photographing device for multiscreen
JPH11509946A (en) * 1995-06-22 1999-08-31 サーノフ コーポレイション Method and system for image combination using parallax dependent technique
JP2000137815A (en) * 1998-11-02 2000-05-16 Gen Tec:Kk New viewpoint image generating method
JP2001235819A (en) * 2000-02-21 2001-08-31 Minolta Co Ltd Calibration method and device for camera and corresponding point searching method
JP2004235934A (en) * 2003-01-30 2004-08-19 Sony Corp Calibration processor, calibration processing method, and computer program
JP2006098256A (en) * 2004-09-30 2006-04-13 Ricoh Co Ltd Three-dimensional surface model preparing system, image processing system, program, and information recording medium
JP2006115298A (en) * 2004-10-15 2006-04-27 Nippon Hoso Kyokai <Nhk> Multi-viewpoint camera video image representation system, device and program
JP2009017480A (en) * 2007-07-09 2009-01-22 Nippon Hoso Kyokai <Nhk> Camera calibration device and program thereof
JP2009135921A (en) * 2007-11-06 2009-06-18 Panasonic Corp Image projection apparatus, and image projection method
JP2009143722A (en) * 2007-12-18 2009-07-02 Mitsubishi Electric Corp Person tracking apparatus, person tracking method and person tracking program
JP2009253715A (en) * 2008-04-08 2009-10-29 Nippon Telegr & Teleph Corp <Ntt> Camera calibrating device, camera calibrating method, camera calibrating program, and recording medium for recording the program

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11509946A (en) * 1995-06-22 1999-08-31 サーノフ コーポレイション Method and system for image combination using parallax dependent technique
JPH09197582A (en) * 1996-01-17 1997-07-31 Sony Corp Seamless panoramic video photographing device for multiscreen
JP2000137815A (en) * 1998-11-02 2000-05-16 Gen Tec:Kk New viewpoint image generating method
JP2001235819A (en) * 2000-02-21 2001-08-31 Minolta Co Ltd Calibration method and device for camera and corresponding point searching method
JP2004235934A (en) * 2003-01-30 2004-08-19 Sony Corp Calibration processor, calibration processing method, and computer program
JP2006098256A (en) * 2004-09-30 2006-04-13 Ricoh Co Ltd Three-dimensional surface model preparing system, image processing system, program, and information recording medium
JP2006115298A (en) * 2004-10-15 2006-04-27 Nippon Hoso Kyokai <Nhk> Multi-viewpoint camera video image representation system, device and program
JP2009017480A (en) * 2007-07-09 2009-01-22 Nippon Hoso Kyokai <Nhk> Camera calibration device and program thereof
JP2009135921A (en) * 2007-11-06 2009-06-18 Panasonic Corp Image projection apparatus, and image projection method
JP2009143722A (en) * 2007-12-18 2009-07-02 Mitsubishi Electric Corp Person tracking apparatus, person tracking method and person tracking program
JP2009253715A (en) * 2008-04-08 2009-10-29 Nippon Telegr & Teleph Corp <Ntt> Camera calibrating device, camera calibrating method, camera calibrating program, and recording medium for recording the program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014027528A (en) * 2012-07-27 2014-02-06 Nippon Hoso Kyokai <Nhk> Projection transformation video generation device, program of the same and multi-viewpoint video expression device
JP2014103474A (en) * 2012-11-19 2014-06-05 Nippon Hoso Kyokai <Nhk> Robot camera control device, program for the same, and multi-viewpoint robot camera system
JP2016218999A (en) * 2015-05-21 2016-12-22 三菱電機株式会社 Method for training classifier to detect object represented in image of target environment
WO2018079260A1 (en) * 2016-10-25 2018-05-03 ソニー株式会社 Image processing device and image processing method
US11127194B2 (en) 2016-10-25 2021-09-21 Sony Corporation Image processing apparatus and image processing method

Similar Documents

Publication Publication Date Title
Forssén et al. Rectifying rolling shutter video from hand-held devices
WO2019049331A1 (en) Calibration device, calibration system, and calibration method
JP6201476B2 (en) Free viewpoint image capturing apparatus and method
WO2018235163A1 (en) Calibration device, calibration chart, chart pattern generation device, and calibration method
WO2017183470A1 (en) Three-dimensional reconstruction method
KR20150120066A (en) System for distortion correction and calibration using pattern projection, and method using the same
JP2011243205A (en) Image processing system and method for the same
CN107809610B (en) Camera parameter set calculation device, camera parameter set calculation method, and recording medium
CN113841384B (en) Calibration device, chart for calibration and calibration method
US8531505B2 (en) Imaging parameter acquisition apparatus, imaging parameter acquisition method and storage medium
JP4948552B2 (en) Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium recording the program
JP2012185772A (en) Method and program for enhancing accuracy of composited picture quality of free viewpoint picture using non-fixed zoom camera
JP6055223B2 (en) Projection-converted video generation device and program thereof, and multi-view video expression device
TWI501193B (en) Computer graphics using AR technology. Image processing systems and methods
JP2018155664A (en) Imaging system, imaging control method, image processing device, and image processing program
JP2014010783A (en) Image processing apparatus, image processing method, and program
JP2011146762A (en) Solid model generator
JP5321417B2 (en) Perspective transformation parameter generation device, image correction device, perspective transformation parameter generation method, image correction method, and program
JP6799468B2 (en) Image processing equipment, image processing methods and computer programs
JP2019121945A (en) Imaging apparatus, control method of the same, and program
JP2007033087A (en) Calibration device and method
JP7203051B2 (en) Method for generating a two-dimensional global image
JP2005063041A (en) Three-dimensional modeling apparatus, method, and program
WO2015198478A1 (en) Image distortion correction apparatus, information processing apparatus and image distortion correction method
WO2017057426A1 (en) Projection device, content determination device, projection method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120321

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130410

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130723