JP7240258B2 - IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM OF IMAGE PROCESSING DEVICE - Google Patents

IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM OF IMAGE PROCESSING DEVICE Download PDF

Info

Publication number
JP7240258B2
JP7240258B2 JP2019101486A JP2019101486A JP7240258B2 JP 7240258 B2 JP7240258 B2 JP 7240258B2 JP 2019101486 A JP2019101486 A JP 2019101486A JP 2019101486 A JP2019101486 A JP 2019101486A JP 7240258 B2 JP7240258 B2 JP 7240258B2
Authority
JP
Japan
Prior art keywords
image
calibration
image processing
images
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019101486A
Other languages
Japanese (ja)
Other versions
JP2020193950A (en
Inventor
麻衣 小宮山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019101486A priority Critical patent/JP7240258B2/en
Publication of JP2020193950A publication Critical patent/JP2020193950A/en
Application granted granted Critical
Publication of JP7240258B2 publication Critical patent/JP7240258B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、画像処理装置、画像処理装置の制御方法及びプログラムに関するものである。 The present invention relates to an image processing device, a control method for an image processing device, and a program.

複数のカメラを異なる位置に設置して多視点で同期撮影し、当該撮影により得られた多視点画像を用いて仮想視点画像を生成する技術が注目されている。多視点画像から仮想視点画像を生成する技術によれば、例えば、サッカーやラグビーのハイライトシーンを様々な角度から閲覧することができるため、通常の画像と比較してユーザに高臨場感を与えることができる。 Attention has been paid to a technique of installing a plurality of cameras at different positions, performing synchronous multi-view photography, and generating a virtual viewpoint image using the multi-view images obtained by the photography. According to the technology for generating virtual viewpoint images from multi-view images, for example, highlight scenes of soccer or rugby can be viewed from various angles, giving the user a high sense of presence compared to normal images. be able to.

複数のカメラの撮影画像を用いて仮想視点画像の生成を行う場合には、カメラ設置時に各カメラの位置姿勢推定を行うキャリブレーション(以降、設置時キャリブレーション)を行う必要がある。設置時キャリブレーションでは、特別なマーカを撮影した各カメラのキャリブレーション用の撮影画像を用いて、各カメラのカメラパラメータを求める処理を行う。カメラパラメータとは、カメラ固有の内部パラメータ(焦点距離、画像中心、レンズ歪みパラメータ等)や、カメラの位置姿勢を表す外部パラメータ(回転行列、位置ベクトル等)などである。 When generating a virtual viewpoint image using images captured by a plurality of cameras, it is necessary to perform calibration for estimating the position and orientation of each camera when the cameras are installed (hereinafter referred to as calibration during installation). In the calibration at the time of installation, a process of obtaining the camera parameters of each camera is performed using the captured image for calibration of each camera that captures the special marker. The camera parameters are camera-specific internal parameters (focal length, image center, lens distortion parameter, etc.), external parameters representing the position and orientation of the camera (rotation matrix, position vector, etc.), and the like.

ここで、設置時キャリブレーションによるカメラ位置姿勢推定後、画像生成用の撮影までの間や撮影中に、経時的にカメラ位置姿勢が変化してしまうことがある。特に、スポーツの試合等を撮影する際には、試合当日にフィールド上にマーカ配置が必要な設置時キャリブレーション用の撮影を行うことができず、試合前日以前に設置時キャリブレーション用の撮影を行うことがある。この場合、カメラ位置姿勢が変化してしまう可能性がある。すると、設置時キャリブレーションで算出したカメラ位置姿勢と、映像生成用の撮影画像のカメラ位置姿勢とがずれてしまうため、生成される仮想視点画像の画質が劣化する可能性がある。 Here, after estimating the camera position and orientation by the installation calibration, the camera position and orientation may change over time until shooting for image generation or during shooting. In particular, when shooting sports games, it is not possible to shoot for installation calibration, which requires markers to be placed on the field on the day of the match. I have something to do. In this case, the camera position and orientation may change. As a result, the camera position and orientation calculated in the calibration at the time of installation and the camera position and orientation of the photographed image for video generation are deviated, and thus the image quality of the generated virtual viewpoint image may deteriorate.

特許文献1では、ステレオ画像を撮影する車載カメラにおいて、保持している前回キャリブレーションデータに対して、新たに撮影したステレオ画像のみから抽出した特徴点を用いてキャリブレーションずれを補正することが開示されている。 Patent Literature 1 discloses that in an in-vehicle camera that captures a stereo image, calibration deviation is corrected using feature points extracted only from a newly captured stereo image with respect to the held previous calibration data. It is

特開2004-354257号公報JP-A-2004-354257

しかしながら、新たに撮影したマーカなしの画像を用いた特徴点マッチングでは精度の高いキャリブレーションを行うことが難しいため、特許文献1に記載の技術では、マーカなしで再度キャリブレーションを精度よく行うことが難しいという課題がある。 However, since it is difficult to perform high-accuracy calibration by feature point matching using a newly captured image without markers, the technique described in Patent Document 1 can perform calibration again with high accuracy without markers. There is a difficult issue.

本発明は、上記の課題に鑑みてなされたものであり、カメラの設置時におけるマーカを用いたキャリブレーション後、マーカなしで再度キャリブレーションを精度よく行うための技術を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique for accurately performing calibration again without using markers after calibration using markers at the time of camera installation. .

上記の目的を達成する本発明に係る画像処理装置は、
複数の撮影装置のそれぞれの位置姿勢を表すパラメータと、当該パラメータを算出する第1のキャリブレーションを行う際に用いた前記複数の撮影装置により撮影されて取得されたマーカを含む第1の画像群と、を取得する取得手段と、
前記第1のキャリブレーションの後に前記複数の撮影装置により撮影されて取得された前記マーカを含まない第2の画像群の画像、及び前記取得手段により取得された第1の画像群の画像からそれぞれ抽出された画像特徴点と、前記取得手段により取得されたパラメータと、に基づいて第2のキャリブレーションを行うことにより、各撮影装置の位置姿勢を表すパラメータを算出する算出手段と、
を備えることを特徴とする。
An image processing apparatus according to the present invention for achieving the above object comprises:
A first image group including parameters representing the position and orientation of each of a plurality of photographing devices, and markers acquired by being photographed by the plurality of photographing devices used when performing a first calibration for calculating the parameters and an acquisition means for acquiring
from images of a second image group that do not include the marker acquired by being photographed by the plurality of photographing devices after the first calibration and images of the first image group acquired by the acquiring means, respectively calculating means for calculating parameters representing the position and orientation of each photographing device by performing a second calibration based on the extracted image feature points and the parameters obtained by the obtaining means;
characterized by comprising

本発明によれば、カメラの設置時におけるマーカを用いたキャリブレーション後、マーカなしで再度キャリブレーションを精度よく行うことができる。 According to the present invention, after calibration using markers at the time of camera installation, it is possible to accurately perform calibration again without markers.

一実施形態に係る画像処理システムの模式図である。1 is a schematic diagram of an image processing system according to an embodiment; FIG. 実施形態1における画像処理システムの構成を示すブロック図である。1 is a block diagram showing the configuration of an image processing system according to Embodiment 1; FIG. 実施形態1における画像処理装置が実施する処理の手順を示すフローチャートである。4 is a flow chart showing the procedure of processing performed by the image processing apparatus according to the first embodiment; 実施形態1における再キャリブレーション処理の詳細な手順を示すフローチャートである。4 is a flowchart showing detailed procedures of recalibration processing in the first embodiment; 実施形態1における再キャリブレーション処理に用いる画像例を示す図である。4A and 4B are diagrams showing examples of images used for recalibration processing in Embodiment 1. FIG. 実施形態2における画像処理システムの構成を示すブロック図である。FIG. 11 is a block diagram showing the configuration of an image processing system according to Embodiment 2; FIG. 実施形態2における画像処理装置が実施する処理の手順を示すフローチャートである。10 is a flow chart showing the procedure of processing performed by the image processing apparatus according to the second embodiment; 一実施形態に係る画像処理装置のハードウェア構成の一例を示す図である。It is a figure showing an example of hardware constitutions of an image processing device concerning one embodiment.

以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. It should be noted that the following embodiments do not limit the invention according to the scope of claims. Although multiple features are described in the embodiments, not all of these multiple features are essential to the invention, and multiple features may be combined arbitrarily. Furthermore, in the accompanying drawings, the same or similar configurations are denoted by the same reference numerals, and redundant description is omitted.

(実施形態1)
実施形態1では、映像生成用の撮影を完了した後に、映像生成を行うシーンの画像を用いてキャリブレーションを行う処理について説明する。以降、設置時キャリブレーション後に、キャリブレーション用マーカなしの画像を用いて行うキャリブレーションを再キャリブレーションと呼ぶ。
(Embodiment 1)
In the first embodiment, processing for performing calibration using an image of a scene for which video generation is to be performed after completion of shooting for video generation will be described. Hereinafter, calibration performed using an image without calibration markers after installation calibration is referred to as recalibration.

<画像処理システムの配置構成>
図1は、本実施形態に係る画像処理システム101の一例を示した模式図である。
<Arrangement Configuration of Image Processing System>
FIG. 1 is a schematic diagram showing an example of an image processing system 101 according to this embodiment.

画像処理システム101は、複数のカメラ(撮影装置)102と画像処理装置画像処理装置103とを含んで構成されている。複数のカメラ102は、撮影対象であるフィールド104を囲むように配置され、複数のカメラ102が撮影した画像を画像処理装置103が取得し、画像処理装置103が映像生成を行う。 An image processing system 101 includes a plurality of cameras (image capturing devices) 102 and an image processing device image processing device 103 . A plurality of cameras 102 are arranged so as to surround a field 104 to be photographed, an image processing apparatus 103 acquires images photographed by the plurality of cameras 102, and the image processing apparatus 103 generates video.

なお、図1に示す画像処理システム101では、複数のカメラ102がそれぞれ画像処理装置103に接続されるスター型の構成を例示したが、図示の例に限定されるものではない。例えば、カメラ102同士がデイジーチェーンにより接続され、そこから画像処理装置103に接続される構成としてもよい。また、カメラ102を10台としたが、カメラ台数は何台でもよく、台数を限定するものではない。 Although the image processing system 101 shown in FIG. 1 has a star configuration in which a plurality of cameras 102 are connected to the image processing apparatus 103, the configuration is not limited to the illustrated example. For example, the cameras 102 may be connected by a daisy chain and connected to the image processing apparatus 103 therefrom. Also, although the number of cameras 102 is 10, the number of cameras may be any number, and the number of cameras is not limited.

<画像処理システムの構成>
図2は、実施形態1における画像処理システム101の構成を示すブロック図である。
<Configuration of image processing system>
FIG. 2 is a block diagram showing the configuration of the image processing system 101 according to the first embodiment.

カメラ102は、撮像部201を備える。図1に示すように本実施形態の画像処理システム101は、複数のカメラ102を含んで構成されるが、各カメラ102は同等の構成であるため図示しない。また、カメラ102と記載した場合には複数のカメラ102を指すものとする。 The camera 102 has an imaging unit 201 . As shown in FIG. 1, the image processing system 101 of this embodiment includes a plurality of cameras 102, but the cameras 102 are not shown because they have the same configuration. Also, when the camera 102 is described, it indicates a plurality of cameras 102 .

撮像部201は、画像の撮影を行い、撮影した画像を画像処理装置103へ送信する。次に、画像処理装置103は、画像取り込み部202、設置時キャリブレーション処理部203、再キャリブレーション処理部204、データ管理部205、画像補正部206、映像生成部207、及びシーン選択部208を備える。 The image capturing unit 201 captures an image and transmits the captured image to the image processing apparatus 103 . Next, the image processing apparatus 103 includes an image acquisition unit 202, an installation calibration processing unit 203, a recalibration processing unit 204, a data management unit 205, an image correction unit 206, an image generation unit 207, and a scene selection unit 208. Prepare.

画像取り込み部202は、カメラ102の撮像部201から送信された撮影画像群(複数のカメラ102により複数の時刻に複数の視点で撮影された画像群)を受信して保存し、処理に応じて、設置時キャリブレーション処理部203、再キャリブレーション処理部204、画像補正部206へ画像を送信する。画像取り込み部202には、全てのカメラ102の撮影画像群が集約される。 The image capturing unit 202 receives and stores a group of captured images (a group of images captured by a plurality of cameras 102 at a plurality of times from a plurality of viewpoints) transmitted from the imaging unit 201 of the camera 102, and stores the captured images according to processing. , installation calibration processing unit 203 , recalibration processing unit 204 , and image correction unit 206 . The image capture unit 202 collects the captured images of all the cameras 102 .

設置時キャリブレーション処理部203は、画像取り込み部202から、カメラ102がマーカを撮影した設置時キャリブレーション用画像を受信し、設置時キャリブレーション処理を行う。設置時キャリブレーション処理では、設置時キャリブレーション用画像から、画像特徴点として、設置時キャリブレーション用のマーカと、人物や構造物などの自然特徴点とを検出する。そして、カメラ間での画像特徴点のマッチングを行い、世界座標と画像座標との対応付けを行い、カメラ102のカメラパラメータを算出する。 The installation calibration processing unit 203 receives from the image capturing unit 202 an image for installation calibration in which the camera 102 captures the marker, and performs installation calibration processing. In the installation calibration process, markers for installation calibration and natural feature points such as people and structures are detected as image feature points from the installation calibration image. Then, image feature points are matched between cameras, world coordinates and image coordinates are associated, and camera parameters of the camera 102 are calculated.

カメラパラメータの算出手法としては、カメラ固有のパラメータである内部パラメータについては予め算出した値を使用し、画像からはカメラ位置姿勢を表す外部パラメータのみを算出するようにしてもよい。もしくは、予め算出した内部パラメータを初期値として用いて外部パラメータを算出した後に、内部パラメータを補正するようにしてもよい。また、設計値あるいは設置時に計測した外部パラメータを初期値として用いてもよく、算出手法を限定するものではない。また、設置時キャリブレーション結果の評価として特徴点の再投影誤差を算出し、誤差がある閾値以下になるまで誤検出や誤マッチングの削除を行って最適化計算を行い、パラメータを算出するようにしてもよい。また、算出されるカメラパラメータの形式についても特に限定されるものではない。 As a camera parameter calculation method, pre-calculated values may be used for intrinsic parameters, which are parameters unique to the camera, and only extrinsic parameters representing the camera position and orientation may be calculated from the image. Alternatively, the internal parameter may be corrected after calculating the external parameter using the internal parameter calculated in advance as the initial value. Also, design values or external parameters measured at the time of installation may be used as initial values, and the calculation method is not limited. In addition, as an evaluation of the calibration results at the time of installation, the reprojection error of the feature points is calculated, and optimization calculations are performed by deleting false detections and false matching until the error is below a certain threshold, and the parameters are calculated. may Also, the format of the camera parameters to be calculated is not particularly limited.

そして、設置時キャリブレーション処理部203は、算出したカメラ102のカメラパラメータ、及び、設置時キャリブレーション処理に使用した設置時キャリブレーション用画像を、データ管理部205に送信する。 The installation calibration processing unit 203 then transmits the calculated camera parameters of the camera 102 and the installation calibration image used in the installation calibration processing to the data management unit 205 .

再キャリブレーション処理部204は、画像取り込み部202から、カメラ102が撮影した映像生成シーン(例えば、得点シーンや好プレーのシーンなど)の画像群のうち1フレームを再キャリブレーション用画像として受信する。そして、映像生成用の撮影時のカメラ位置姿勢を算出する再キャリブレーション処理を行う。再キャリブレーション処理では、再キャリブレーション用画像と、データ管理部205から取得した設置時キャリブレーション時のカメラパラメータと、設置時キャリブレーション用画像とを用いて、カメラ102のカメラパラメータを算出する。 The recalibration processing unit 204 receives, as a recalibration image, one frame out of a group of images of a video generation scene (for example, a score scene, a good play scene, etc.) captured by the camera 102 from the image capturing unit 202. . Then, re-calibration processing is performed to calculate the camera position and orientation at the time of shooting for video generation. In the recalibration process, the camera parameters of the camera 102 are calculated using the recalibration image, the camera parameters during installation calibration obtained from the data management unit 205, and the installation calibration image.

データ管理部205は、設置時キャリブレーション処理部203から受信した設置時キャリブレーション結果のカメラパラメータ及び設置時キャリブレーション用画像を保持する。また、映像生成シーンに対応した、再キャリブレーション処理部204から受信した再キャリブレーション結果のカメラパラメータと、画像補正部206で行う位置補正処理のリファレンス画像とを管理する。リファレンス画像の詳細は後述する。 The data management unit 205 holds the camera parameters of the installation calibration result received from the installation calibration processing unit 203 and the image for installation calibration. It also manages the camera parameters of the recalibration result received from the recalibration processing unit 204 and the reference image of the position correction processing performed by the image correction unit 206, corresponding to the video generation scene. Details of the reference image will be described later.

画像補正部206は、画像取り込み部202から、カメラ102が撮影した映像生成用画像を受信する。そして、データ管理部205から取得した映像生成シーンに応じたカメラ毎のリファレンス画像を用いて、カメラの振動やブレに対して画像の位置を安定させるための位置合わせを行う位置補正処理を実施し、映像生成部207に送信する。画像補正部206で実施する補正処理として更に、カメラ毎の色のばらつきを抑えるための色補正処理等を行うようにしてもよい。また、更にブレに対する補正処理として、カメラに内蔵された加速度センサあるいはジャイロセンサなどのセンサからの出力データに基づいた画像のブレ量の推定を行ってもよい。また、時間的に連続した複数のフレーム画像を比較することで画像の移動量を推定することでブレ量を推定してもよい。そして、推定されたブレを補正する処理を行ってもよい。 The image correction unit 206 receives the video generation image captured by the camera 102 from the image acquisition unit 202 . Then, using the reference image for each camera corresponding to the video generation scene acquired from the data management unit 205, position correction processing is performed to perform position alignment for stabilizing the position of the image against vibration and blurring of the camera. , to the video generation unit 207 . As the correction processing performed by the image correction unit 206, color correction processing or the like for suppressing color variations among cameras may be performed. Furthermore, as correction processing for blurring, the amount of blurring of an image may be estimated based on output data from a sensor such as an acceleration sensor or a gyro sensor built into the camera. Alternatively, the amount of blurring may be estimated by estimating the movement amount of an image by comparing a plurality of temporally consecutive frame images. Then, processing for correcting the estimated blur may be performed.

映像生成部207は、画像補正部206から受信した映像生成用画像から、データ管理部205から取得した映像生成シーンに応じたカメラ102のカメラパラメータを用いて仮想視点の映像生成処理を行う。映像生成部207で行う複数のカメラの撮影画像を用いた仮想視点の映像生成処理としては、三次元モデル生成、レンダリングなどの処理を行い、生成された映像は不図示のモニタやメモリに出力される。 The video generation unit 207 performs virtual viewpoint video generation processing from the video generation image received from the image correction unit 206 using the camera parameters of the camera 102 according to the video generation scene acquired from the data management unit 205 . The virtual viewpoint video generation processing using images captured by a plurality of cameras performed by the video generation unit 207 includes processing such as three-dimensional model generation and rendering, and the generated video is output to a monitor and memory (not shown). be.

シーン選択部208は、画像取り込み部202に蓄積された撮影画像の中から、映像生成を行うシーンを選択する。映像生成シーンは、例えば得点シーンや好プレーのシーンである。シーン選択部208は、不図示の操作入力部を用いたユーザ選択に基づいてシーン選択を行ってもよいし、シーン内容を判別することにより自動でシーン選択を行うようにしてもよい。 A scene selection unit 208 selects a scene for video generation from captured images accumulated in the image capturing unit 202 . The video generation scene is, for example, a score scene or a good play scene. The scene selection unit 208 may perform scene selection based on user selection using an operation input unit (not shown), or may automatically perform scene selection by determining scene contents.

<画像処理装置のハードウェア構成>
画像処理装置103のハードウェア構成について、図2を用いて説明する。なお、画像処理装置300のハードウェア構成も、以下で説明する画像処理装置103の構成と同様である。画像処理装置103は、CPU211、ROM212、RAM213、補助記憶装置214、表示部215、操作部216、通信I/F217、及びバス218を有する。
<Hardware Configuration of Image Processing Apparatus>
A hardware configuration of the image processing apparatus 103 will be described with reference to FIG. Note that the hardware configuration of the image processing apparatus 300 is also the same as the configuration of the image processing apparatus 103 described below. The image processing apparatus 103 has a CPU 211 , a ROM 212 , a RAM 213 , an auxiliary storage device 214 , a display section 215 , an operation section 216 , a communication I/F 217 and a bus 218 .

CPU211は、ROM212やRAM213に格納されているコンピュータプログラムやデータを用いて画像処理装置103の全体を制御することで、図1に示す画像処理装置103の各機能を実現する。なお、画像処理装置103がCPU211とは異なる1又は複数の専用のハードウェアを有し、CPU211による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM212は、変更を必要としないプログラムなどを格納する。RAM213は、補助記憶装置214から供給されるプログラムやデータ、及び通信I/F217を介して外部から供給されるデータなどを一時記憶する。補助記憶装置214は、例えばハードディスクドライブ等で構成され、画像データや音声データなどの種々のデータを記憶する。 The CPU 211 implements each function of the image processing apparatus 103 shown in FIG. 1 by controlling the entire image processing apparatus 103 using computer programs and data stored in the ROM 212 and RAM 213 . Note that the image processing apparatus 103 may have one or a plurality of pieces of dedicated hardware different from the CPU 211, and at least part of the processing by the CPU 211 may be executed by the dedicated hardware. Examples of dedicated hardware include ASICs (Application Specific Integrated Circuits), FPGAs (Field Programmable Gate Arrays), and DSPs (Digital Signal Processors). The ROM 212 stores programs that do not require modification. The RAM 213 temporarily stores programs and data supplied from the auxiliary storage device 214, data supplied from the outside via the communication I/F 217, and the like. The auxiliary storage device 214 is composed of, for example, a hard disk drive or the like, and stores various data such as image data and audio data.

表示部215は、例えば液晶ディスプレイやLED等で構成され、ユーザが画像処理装置103を操作するためのGUI(Graphical User Interface)などを表示する。操作部216は、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU211に入力する。 The display unit 215 is composed of, for example, a liquid crystal display or an LED, and displays a GUI (Graphical User Interface) or the like for the user to operate the image processing apparatus 103 . The operation unit 216 is composed of, for example, a keyboard, a mouse, a joystick, a touch panel, etc., and inputs various instructions to the CPU 211 in response to user's operations.

通信I/F217は、画像処理装置103の外部の装置との通信に用いられる。例えば、画像処理装置103が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F217に接続される。画像処理装置103が外部の装置と無線通信する機能を有する場合には、通信I/F217はアンテナを備える。バス218は、画像処理装置103の各部をつないで情報を伝達する。 A communication I/F 217 is used for communication with an external device of the image processing apparatus 103 . For example, when the image processing apparatus 103 is connected to an external apparatus by wire, a communication cable is connected to the communication I/F 217 . If the image processing apparatus 103 has a function of wirelessly communicating with an external device, the communication I/F 217 has an antenna. A bus 218 connects each unit of the image processing apparatus 103 and transmits information.

本実施形態では表示部215と操作部216が画像処理装置103の内部に存在するものとするが、表示部215と操作部216との少なくとも一方が画像処理装置103の外部に別の装置として存在していてもよい。この場合、CPU211が、表示部215を制御する表示制御部、及び操作部216を制御する操作制御部として動作してもよい。?
<処理>
次に、図3のフローチャートを参照して、本実施形態に係る画像処理装置103が実施する処理の手順を説明する。
In this embodiment, the display unit 215 and the operation unit 216 exist inside the image processing apparatus 103, but at least one of the display unit 215 and the operation unit 216 exists outside the image processing apparatus 103 as a separate device. You may have In this case, the CPU 211 may operate as a display control unit that controls the display unit 215 and an operation control unit that controls the operation unit 216 . ?
<Processing>
Next, the procedure of processing performed by the image processing apparatus 103 according to this embodiment will be described with reference to the flowchart of FIG.

S301において、画像取り込み部202は、カメラ102の設置が完了した状態で、撮像部201で撮影された設置時キャリブレーション用の画像を取り込み、設置時キャリブレーション処理部203に蓄積する。設置時キャリブレーション用の撮影においてはマーカを撮影するが、マーカをフィールド上に配置するなど撮影画像の被写体が静止物体のみである場合はカメラ間で同期せずに撮影してもよい。あるいは、マーカを持った人物が歩き回るなど被写体が動きのある物体を含む場合はカメラ間で同期して撮影するものとしてもよい。設置時キャリブレーション用画像としては、より多くの画像特徴点が対象空間に散らばって検出できることが求められるため、画像特徴点となるマーカ等をカメラの撮影範囲内で動かして複数回撮影することが想定される。S301の完了時点では、設置時キャリブレーション処理部203に、カメラ102で撮影された複数枚の設置時キャリブレーション用画像が全て集約された状態となる。 In step S<b>301 , the image capturing unit 202 captures an image for installation calibration captured by the imaging unit 201 after the installation of the camera 102 is completed, and stores the image in the installation calibration processing unit 203 . Although the marker is photographed in the photographing for the calibration at the time of installation, when the subject of the photographed image is only a stationary object such as when the marker is placed on the field, the photographing may be performed without synchronizing between the cameras. Alternatively, if the subject includes a moving object such as a person holding a marker walking around, the cameras may be synchronized to capture the image. As the image for installation calibration, it is required to be able to detect as many image feature points scattered in the target space as possible. is assumed. At the time of completion of S301, the installation calibration processing unit 203 is in a state in which all of the plurality of images for installation calibration captured by the camera 102 are aggregated.

S302において、設置時キャリブレーション処理部203は、蓄積された画像データを用いて設置時キャリブレーション処理を行い、カメラ102のカメラパラメータを算出する。S303において、設置時キャリブレーション処理部203は、設置時キャリブレーション用画像と算出したカメラパラメータをデータ管理部205に送信する。データ管理部205が設置時キャリブレーション用画像及びカメラパラメータを保存する。 In S<b>302 , the installation calibration processing unit 203 performs installation calibration processing using the accumulated image data, and calculates camera parameters of the camera 102 . In S<b>303 , the installation calibration processing unit 203 transmits the installation calibration image and the calculated camera parameters to the data management unit 205 . The data management unit 205 saves the installation calibration images and camera parameters.

S301からS303までの処理は、カメラ102の設置後から試合などの映像生成用の撮影前に行う処理である。 The processing from S301 to S303 is processing that is performed after the camera 102 is installed and before shooting for image generation such as a game.

次いで、S304において、画像取り込み部202は、撮像部201で撮影された映像生成用の画像を取り込んで蓄積する。この際、撮像部201で撮影した画像はすぐに画像取り込み部202に送信されてもよいし、撮像部201に一定量の画像が蓄積されたら都度送信するようにしてもよいし、全ての撮影が完了してから送信するようにしてもよい。なお、映像生成は複数カメラの撮影画像を用いて行うために、カメラ102同士は同期して撮影を行うものとする。 Next, in S<b>304 , the image capturing unit 202 captures and accumulates images for video generation captured by the imaging unit 201 . At this time, the image captured by the image capturing unit 201 may be immediately transmitted to the image capturing unit 202, or may be transmitted each time a certain amount of images are accumulated in the image capturing unit 201, or may be transmitted after all images are captured. may be transmitted after completion of It should be noted that the cameras 102 are assumed to be synchronized with each other in order to generate video using images captured by a plurality of cameras.

後述するS305以降の処理は、試合などの映像生成用の撮影よりも後の処理であり、この時点で画像取り込み部202には、映像生成用画像が全て蓄積されているものする。映像生成用画像とは、試合中の一定時間のみを撮影して得られた画像であってもよいし、1試合を全て撮影して得られた画像であってもよいし、もしくは連続して行われる複数の試合を続けて撮影して得られた画像であってもよい。 The processing after S305, which will be described later, is processing after shooting for video generation such as a match, and at this point, the image capturing unit 202 is assumed to have accumulated all images for video generation. The image for video generation may be an image obtained by photographing only a certain period of time during the game, an image obtained by photographing the entire game, or an image obtained by photographing the entire game. It may be an image obtained by continuously photographing a plurality of games that are held.

S305において、シーン選択部208は、S304で画像取り込み部202に蓄積された撮影画像の中から、映像生成を行うシーンを選択する。映像生成シーンとしては、得点シーンや好プレーなどが考えられるが、シーンの長さや内容については限定するものではない。シーン選択部208は、ユーザによる選択に基づいてシーン選択を行ってもよいし、シーン内容を判別することにより自動でシーン選択を行うようにしてもよい。 In S305, the scene selection unit 208 selects a scene for video generation from the captured images accumulated in the image capturing unit 202 in S304. As the video generation scene, a score scene, a good play, etc. can be considered, but the length and content of the scene are not limited. The scene selection unit 208 may perform scene selection based on selection by the user, or may automatically perform scene selection by determining scene contents.

S306において、再キャリブレーション処理部204は、S305で選択された映像生成シーンの中から1フレームの再キャリブレーション用画像を画像取り込み部202から取得する。そして、再キャリブレーション処理を行って、カメラ102のカメラパラメータを算出する。再キャリブレーション処理の詳細については図4を参照して後述する。 In S<b>306 , the recalibration processing unit 204 acquires a one-frame recalibration image from the image capturing unit 202 from the video generation scene selected in S<b>305 . Then, recalibration processing is performed to calculate the camera parameters of the camera 102 . Details of the recalibration process will be described later with reference to FIG.

S307において、データ管理部205は、再キャリブレーション処理部204で算出されたカメラパラメータを受信し、保持するカメラパラメータを更新する。S308において、データ管理部205は、再キャリブレーション処理部204が再キャリブレーション処理に使用した各カメラ102の再キャリブレーション用画像を受信し、画像補正部206の位置補正処理で用いるリファレンス画像として保持する。 In S307, the data management unit 205 receives the camera parameters calculated by the recalibration processing unit 204, and updates the held camera parameters. In S308, the data management unit 205 receives the recalibration image of each camera 102 used for the recalibration processing by the recalibration processing unit 204, and holds it as a reference image used in the position correction processing of the image correction unit 206. do.

S309において、画像補正部206は、S305で選択された映像生成シーンの撮影画像を画像取り込み部202から受信する。そして、S308でデータ管理部205に保存された各カメラ102のリファレンス画像を用いて、カメラの振動に対して撮影画像の位置合わせを行う補正処理を行う。なお、本実施形態では、画像補正部206は画像処理装置103が備える例を説明したが、カメラ102が画像補正部を備え、それぞれのカメラ102において位置補正処理を行うようにしてもよい。 In S<b>309 , the image correction unit 206 receives the captured image of the video generation scene selected in S<b>305 from the image capturing unit 202 . Then, in step S308, using the reference image of each camera 102 stored in the data management unit 205, correction processing is performed to align the positions of the captured images with respect to camera vibration. In this embodiment, an example in which the image correction unit 206 is provided in the image processing apparatus 103 has been described.

S310において、映像生成部207は、S309で実施した補正処理後の画像と、S307で更新された再キャリブレーション結果のカメラ102のカメラパラメータとを用いて、仮想視点の映像生成処理を行う。S311において、シーン選択部208は、映像生成シーンの選択が全て完了したか否かを判定する。未選択のシーンが存在する場合、S305に戻って処理を繰り返す。一方、全て選択した場合、処理を終了する。 In S<b>310 , the video generation unit 207 performs virtual viewpoint video generation processing using the image after the correction processing performed in S<b>309 and the camera parameters of the camera 102 as a result of recalibration updated in S<b>307 . In S311, the scene selection unit 208 determines whether or not the selection of all video generation scenes has been completed. If there is an unselected scene, the process returns to S305 and repeats the process. On the other hand, if all have been selected, the process ends.

なお、複数の映像生成シーンについて、全ての映像生成をできるだけ早く完了するために、S305のシーン選択処理からS310の映像生成処理までの一連の処理を並列に実行してもよい。その場合は、データ管理部205がシーンに応じたカメラパラメータとリファレンス画像とを管理するものとする。 For a plurality of video generation scenes, a series of processes from the scene selection processing of S305 to the video generation processing of S310 may be executed in parallel in order to complete all video generation as quickly as possible. In that case, the data management unit 205 manages camera parameters and reference images according to the scene.

また、映像生成用の撮影後のS305以降の処理と並列に、次のS304の映像生成用の撮影を行うようにしてもよい。これにより、例えば、試合の撮影を続けながら、試合中に映像生成処理を行うことで、試合中に(例えばハーフタイム中に前半のハイライト映像として)生成した映像を使用することができる。 In parallel with the processing of S305 and subsequent steps after the shooting for video generation, the next step S304 for video generation may be performed. As a result, for example, by performing video generation processing during the game while continuing to shoot the game, it is possible to use the video generated during the game (for example, as the highlight video of the first half during halftime).

<再キャリブレーション処理の詳細>
続いて、図4のフローチャートを参照して、S306における、再キャリブレーション処理部204での再キャリブレーション処理の詳細を説明する。
<Details of recalibration processing>
Next, details of the recalibration processing in the recalibration processing unit 204 in S306 will be described with reference to the flowchart of FIG.

本実施形態では、再キャリブレーション処理として、カメラ固有の内部パラメータについては設置時キャリブレーション結果をそのまま使用し、カメラの位置姿勢を表す外部パラメータのみを算出するものとする。ただし、カメラ102の特性や、熱や振動によって内部パラメータが変わってしまうことが想定される場合には、内部パラメータも算出するようにしてもよい。 In the present embodiment, as the recalibration process, the results of the installation calibration are used as they are for the internal parameters specific to the camera, and only the external parameters representing the position and orientation of the camera are calculated. However, if it is assumed that the internal parameters will change due to the characteristics of the camera 102, heat, or vibration, the internal parameters may also be calculated.

S401において、再キャリブレーション処理部204は、S305で選択された映像生成シーン撮影時におけるカメラ102の位置姿勢を算出するための再キャリブレーション用画像を、映像生成シーンの中から特定する。本実施形態では、シーンの先頭画像1フレームを再キャリブレーション用画像として使用する例を説明する。 In S401, the recalibration processing unit 204 identifies, from the video generation scene, a recalibration image for calculating the position and orientation of the camera 102 when the video generation scene selected in S305 was captured. In this embodiment, an example in which one frame of the top image of a scene is used as an image for recalibration will be described.

S402において、再キャリブレーション処理部204は、再キャリブレーション処理に用いる設置時キャリブレーション用画像を特定する。本実施形態では、複数フレームの設置時キャリブレーション用画像のうち最初の1フレームを使用するものとする。ただし、設置時キャリブレーション用画像の撮影時にカメラ102が振動していた場合、画像を撮影した際のカメラ位置姿勢と、それらの画像から算出したカメラパラメータが示すカメラ位置姿勢とにずれが生じる。そのため、複数フレームの設置時キャリブレーション用画像の中から、算出したカメラ位置姿勢に最も近い画像を選択して使用してもよい。もしくは、設置時キャリブレーション用画像のみに映っている人物やマーカを映像処理によって除去した画像を使用するようにしてもよい。 In S402, the recalibration processing unit 204 identifies an installation calibration image to be used for recalibration processing. In this embodiment, it is assumed that the first one frame of the plurality of frames of images for installation calibration is used. However, if the camera 102 is vibrating when the installation calibration images are captured, there is a deviation between the camera position and orientation when the images were captured and the camera position and orientation indicated by the camera parameters calculated from those images. Therefore, an image that is closest to the calculated camera position and orientation may be selected and used from among multiple frames of installation calibration images. Alternatively, an image obtained by removing a person or a marker appearing only in the installation calibration image by image processing may be used.

S403において、再キャリブレーション処理部204は、S401で特定した再キャリブレーション用画像と、S402で特定された設置時キャリブレーション用画像との両方の画像を用いて、それぞれ画像特徴点の検出を行う。そして、検出された画像特徴点について画像間でのマッチングを行う。設置時キャリブレーション用画像については、データ管理部205から既知のカメラパラメータを取得し、再キャリブレーション用画像についても同様のカメラパラメータをカメラの初期値として、画像間での特徴点マッチング処理を行う。図1に示すように、カメラ102が10台であった場合、20枚の画像を用いた画像間の特徴点マッチング処理となる。再キャリブレーション処理における画像特徴点は、再キャリブレーション用画像として映像生成用画像であるマーカなしの画像を使用するため、人物や構造物などの自然特徴点のみとなる。 In S403, the recalibration processing unit 204 detects image feature points using both the recalibration image identified in S401 and the installation calibration image identified in S402. . Then, matching between images is performed for the detected image feature points. For images for installation calibration, known camera parameters are obtained from the data management unit 205, and for images for recalibration, feature point matching processing between images is performed using the same camera parameters as the initial values of the camera. . As shown in FIG. 1, if there are 10 cameras 102, 20 images are used for feature point matching processing between images. Image feature points in the recalibration process are only natural feature points such as people and structures because an image without markers, which is an image for video generation, is used as an image for recalibration.

S404において、再キャリブレーション処理部204は、S403における画像特徴点のマッチング結果を用いて、カメラ102のカメラ位置姿勢推定を行う。S403では、再キャリブレーション用画像と設置時キャリブレーション用画像との合計20枚の画像について特徴点マッチングを行った。これに対し、S404では、設置時キャリブレーション用画像は設置時キャリブレーション結果のカメラパラメータで固定したまま、再キャリブレーション用画像と対応する10台のカメラ102についてカメラ位置姿勢推定を行い、カメラパラメータを算出する。 In S404, the recalibration processing unit 204 estimates the camera position and orientation of the camera 102 using the matching result of the image feature points in S403. In S403, feature point matching was performed on a total of 20 images, including the recalibration image and the installation calibration image. On the other hand, in step S404, while fixing the installation calibration image with the camera parameters of the installation calibration result, camera position and orientation estimation is performed for the ten cameras 102 corresponding to the recalibration image, and the camera parameters Calculate

S405において、再キャリブレーション処理部204は、全カメラについて位置姿勢推定が成功したか否かを判定する。全カメラについて成功した場合、処理を終了する。一方、推定できていないカメラがある場合は、S406へ進む。 In step S<b>405 , the recalibration processing unit 204 determines whether or not position and orientation estimation has succeeded for all cameras. If all cameras are successful, the process ends. On the other hand, if there is a camera that cannot be estimated, the process proceeds to S406.

S406において、再キャリブレーション処理部204は、S403での検出及びマッチングに成功した画像特徴点が少ないために推定できないと判定し、再キャリブレーション用画像上に対応点の追加を行う。対応点の追加は、画像上での指定操作によりユーザが手動で追加することにより行う。推定できていないカメラの画像及びそのカメラに隣接した推定できているカメラの画像上に対応点の追加を行うことで特徴点を増やし、全カメラについて推定ができるまで、S403からS405の処理を繰り返す。 In S406, the recalibration processing unit 204 determines that estimation cannot be performed because the number of image feature points successfully detected and matched in S403 is small, and adds corresponding points to the recalibration image. Corresponding points are added manually by the user through a designation operation on the image. Feature points are increased by adding corresponding points on the image of the camera that cannot be estimated and the image of the camera that can be estimated adjacent to that camera, and the processing from S403 to S405 is repeated until all cameras can be estimated. .

以上の処理により、再キャリブレーション処理部204において、映像生成を行うシーンの1フレームの画像と、設置時キャリブレーション用画像と、設置時キャリブレーション結果のカメラパラメータとを用いて、再キャリブレーションを行うことができる。これにより、設置時キャリブレーションの実施後、試合中やフィールドに侵入できない状況であっても、キャリブレーション用の特別なマーカなしで再度キャリブレーションを高精度に実施することができる。 With the above processing, the recalibration processing unit 204 performs recalibration using the image of one frame of the scene for which the video is to be generated, the installation calibration image, and the camera parameters resulting from the installation calibration. It can be carried out. As a result, even during a game or in a situation where it is impossible to enter the field after installation calibration, it is possible to perform calibration again with high accuracy without using a special marker for calibration.

<再キャリブレーション用画像及び設置時キャリブレーション用画像の一例>
ここで、図5は、本実施形態における再キャリブレーション用画像及び設置時キャリブレーション用画像の例を示す。ここでは、2台のカメラ102の画像について説明する。ここでは明示的に別のカメラであることを示すために、2台のカメラ102をカメラA102、カメラB102と呼ぶ。
<Example of recalibration image and installation calibration image>
Here, FIG. 5 shows an example of a recalibration image and an installation calibration image in this embodiment. Here, images from the two cameras 102 will be described. Here, the two cameras 102 are called camera A 102 and camera B 102 in order to explicitly indicate that they are different cameras.

図5(A)は、S401で特定された、カメラA102の再キャリブレーション用画像を示す。図5(B)は、S401で特定された、カメラB102の再キャリブレーション用画像を示す。なお、カメラA102とカメラB102は隣接して配置されているものとする。図5(C)は、S402で特定された、カメラB102の設置時キャリブレーション用画像を示す。 FIG. 5A shows an image for recalibration of the camera A102 identified in S401. FIG. 5B shows the recalibration image of the camera B102 identified in S401. It is assumed that camera A 102 and camera B 102 are arranged adjacent to each other. FIG. 5C shows an installation calibration image of the camera B102 specified in S402.

図5(A)及び図5(B)に示すように、隣接するカメラA102及びカメラB102の再キャリブレーション用画像は、映像生成用画像であるため、マーカ505は撮影されていない。しかし、同期画像であるため、ライン501や看板502の他に、人物503やボール504について多くの画像特徴点の検出及びマッチングが可能である。ただし、シーンの内容やカメラ毎の撮影範囲の違いによって、人物503の有無や数にばらつきがある。また、三次元において複雑な形状である人物503は撮影する方向によって見え方が異なるため、精度の高い特徴点マッチングが難しい。 As shown in FIGS. 5A and 5B, the recalibration images of the adjacent camera A 102 and camera B 102 are image generation images, so the marker 505 is not captured. However, since it is a synchronous image, it is possible to detect and match many image feature points of the person 503 and the ball 504 in addition to the line 501 and signboard 502 . However, the presence or absence of the person 503 and the number of persons 503 vary depending on the content of the scene and the difference in the photographing range of each camera. In addition, since the person 503, which has a complicated three-dimensional shape, looks different depending on the shooting direction, highly accurate feature point matching is difficult.

これに対して、図5(B)及び図5(C)に示すように、カメラB102の設置時キャリブレーション用画像と再キャリブレーション用画像との間は、多少のカメラ位置姿勢の変化はあるものの、概ね同じ範囲を撮影した画像となる。ただし、撮影されたタイミングが異なるため、人物503やボール504、マーカ505については画像特徴点のマッチングは難しい。しかし、上述したように特徴点マッチングの際、カメラの初期値として同じカメラ位置姿勢を示すカメラパラメータを使用するため、ライン501や看板502など時間不変の特徴点は画像内のほぼ同位置に検出されるので精度の高いマッチングができる。また、上述したように図5(C)に示す設置時キャリブレーション用画像のカメラ位置姿勢は固定したまま、図5(B)に示す再キャリブレーション用画像のカメラ位置姿勢推定を行うことで、精度の高い推定を行うことができる。 On the other hand, as shown in FIGS. 5B and 5C, there is a slight change in camera position and orientation between the installation calibration image and the recalibration image of the camera B102. However, it is an image of approximately the same range. However, it is difficult to match the image feature points of the person 503, the ball 504, and the marker 505 because the images are taken at different timings. However, as described above, when performing feature point matching, camera parameters indicating the same camera position and orientation are used as the initial values of the camera, so time-invariant feature points such as line 501 and signboard 502 are detected at approximately the same position in the image. Therefore, highly accurate matching is possible. Further, as described above, while fixing the camera position and orientation of the installation calibration image shown in FIG. 5C, by performing the camera position and orientation estimation of the recalibration image shown in FIG. A highly accurate estimation can be performed.

なお、本実施形態では、再キャリブレーション用画像として、映像生成シーンの先頭画像を用いるものとしたが、シーンの真ん中の画像や後尾画像でもよい。または、再キャリブレーション処理の推定はマーカ505なしの自然特徴点のみで行うため、例えばカメラ102の注視点周辺に人物503が多くいる画像など、特徴点が多い画像(例えば所定数以上の特徴点が含まれる画像)を選択してもよい。または、再キャリブレーション用画像は、位置補正処理のリファレンス画像として使用するため、位置補正処理の位置合わせ方法に応じて最適な画像を選択してもよい。例えば、位置補正処理にライン501を用いる場合は、ライン501上に人物が重なっていない画像を選択するようにしてもよい。 In this embodiment, the leading image of the video generation scene is used as the recalibration image, but the image in the middle of the scene or the trailing image may also be used. Alternatively, since the recalibration process is estimated using only natural feature points without the marker 505, for example, an image with many feature points such as an image in which there are many people 503 around the gaze point of the camera 102 (for example, a predetermined number or more of feature points ) can be selected. Alternatively, since the recalibration image is used as a reference image for position correction processing, an optimum image may be selected according to the alignment method for position correction processing. For example, when the line 501 is used for position correction processing, an image in which no person is superimposed on the line 501 may be selected.

なお、本実施形態では、画像処理装置103が一連の処理を実行する例を説明したが、必ずしも全ての処理を実行する必要はない。例えば、画像処理装置103が行った設置時キャリブレーション処理の結果と、その際に使用された画像とを、画像処理装置103とは異なる別の装置が取得し、当該別の装置が再キャリブレーション処理を行うようにしてもよい。 In this embodiment, an example in which the image processing apparatus 103 executes a series of processes has been described, but it is not always necessary to execute all the processes. For example, another device different from the image processing device 103 acquires the result of installation calibration processing performed by the image processing device 103 and the image used at that time, and the other device performs recalibration. You may make it process.

(実施形態2)
実施形態2では、映像生成用の撮影を行いながらリアルタイムで映像生成を行う画像処理システムにおいて、撮影中に再キャリブレーションを行い、再キャリブレーション結果をリアルタイム映像生成処理に反映する処理について説明する。
(Embodiment 2)
In the second embodiment, in an image processing system that performs image generation in real time while performing image capturing for image generation, recalibration is performed during image capturing, and processing for reflecting the recalibration result in real time image generation processing will be described.

<画像処理システムの構成>
図6は、本実施形態に係る画像処理システムの構成例を示す図である。画像処理システム601は、複数のカメラ102と、画像処理装置603とを含んで構成される。画像処理装置603は、画像処理装置103のシーン選択部208以外の構成要素に加えて、実施判定部604と、反映判定部605とを備えている。
<Configuration of image processing system>
FIG. 6 is a diagram showing a configuration example of an image processing system according to this embodiment. The image processing system 601 includes multiple cameras 102 and an image processing device 603 . The image processing apparatus 603 includes an implementation determination unit 604 and a reflection determination unit 605 in addition to the components of the image processing apparatus 103 other than the scene selection unit 208 .

なお、図6において、図2の画像処理システム101と同一の処理を行うものについては、同一の符号を付与して表すものとし、実施形態1との相違点を主に説明する。なお、画像処理装置603のハードウェア構成は実施形態1で図8を参照して説明した構成と同様であるため、説明を省略する。 In FIG. 6, components that perform the same processes as those of the image processing system 101 of FIG. Note that the hardware configuration of the image processing apparatus 603 is the same as the configuration described with reference to FIG. 8 in the first embodiment, so description thereof will be omitted.

実施判定部604は、画像取り込み部202から映像生成用画像を受信し、その画像を用いた再キャリブレーションを実施するか否かを判定する。判定基準については後述する。 The implementation determination unit 604 receives the video generation image from the image acquisition unit 202 and determines whether or not to perform recalibration using the image. The criteria for determination will be described later.

反映判定部605は、再キャリブレーション処理部204から受信した再キャリブレーション結果のカメラパラメータと、画像補正部206で行う位置補正処理のリファレンス画像とを反映するタイミングを判定し、キャリブレーション管理部205に送信する。その際、画像補正部206の位置補正処理に用いるリファレンス画像の更新を反映するフレームと、映像生成部207の映像生成に用いるカメラパラメータの更新を反映するフレームとを、それぞれの処理間のフレーム遅延を考慮して一致させるようにキャリブレーション管理部205に指示する。もし反映するフレームがずれると、カメラパラメータのカメラ位置姿勢が映像生成処理の際に使用する画像とずれてしまうため、生成された画像の画質が劣化してしまうことになる。判定基準については後述する。 The reflection determination unit 605 determines the timing to reflect the camera parameters of the recalibration result received from the recalibration processing unit 204 and the reference image of the position correction processing performed by the image correction unit 206 , and the calibration management unit 205 Send to At that time, the frame reflecting the update of the reference image used for the position correction processing of the image correction unit 206 and the frame reflecting the update of the camera parameter used for the video generation of the video generation unit 207 are processed with a frame delay between each processing. The calibration management unit 205 is instructed to consider and match. If the frame to be reflected deviates, the camera position and orientation of the camera parameters will deviate from the image used in video generation processing, resulting in deterioration of the image quality of the generated image. The criteria for determination will be described later.

<処理>
続いて、図7のフローチャートを参照して、本実施形態に係る画像処理装置603が実施する処理の手順を説明する。本実施形態では、映像生成用の撮影中に再キャリブレーションを行い、再キャリブレーション結果をリアルタイム映像生成処理に反映する処理を行う。なお、図7において、図3のフローチャートと同一の処理を行うものについては、同一の符号を付与して表すものとし、実施形態1との相違点を主に説明する。
<Processing>
Next, the procedure of processing performed by the image processing apparatus 603 according to this embodiment will be described with reference to the flowchart of FIG. In the present embodiment, recalibration is performed during shooting for video generation, and processing is performed to reflect the recalibration result in real-time video generation processing. In FIG. 7, the same reference numerals are assigned to the same processes as those in the flowchart of FIG. 3, and differences from the first embodiment will be mainly described.

S701において、データ管理部205は、S303での設置時キャリブレーションデータの保存後、保存した設置時キャリブレーション用画像の中から各カメラについて1フレームを画像補正部206の位置補正処理で用いるリファレンス画像として特定する。設置時キャリブレーション用画像の中から1フレームをリファレンス画像として選択する方法としては、図4のS402における設置時キャリブレーション用画像を特定する方法と同様である。 In S701, after the installation calibration data is saved in S303, the data management unit 205 selects one frame for each camera from among the saved installation calibration images as a reference image to be used in the position correction processing of the image correction unit 206. Identify as The method of selecting one frame from the images for calibration during installation as the reference image is the same as the method for specifying the image for calibration during installation in S402 of FIG.

S702において、実施判定部604は、S304で映像生成用の撮影が開始されると、映像生成用画像を用いた再キャリブレーション処理を実施するフレームを判定する。本実施形態では、映像生成用画像におけるカメラ102の振動が、画像補正部206における位置補正処理により位置合わせ可能な範囲あるいはそれより狭い範囲を閾値とした場合に、当該閾値を超えた場合に再キャリブレーションを行うと判定する。また、閾値を超えたフレームが数フレーム続いた場合や、数フレームの振動の平均値が閾値を超えた場合に再キャリブレーションを行うと判定してもよい。実施判定部605におけるカメラ102の振動の検出方法は、リファレンス画像との画像比較によって振動を検出する方法であってもよいし、カメラ102に取り付けられたセンサで振動を検出する方法であってもよい。または、カメラ位置姿勢が継時的に変化するような場合や、S306の再キャリブレーション処理時間を考慮して、一定時間撮影する毎に再キャリブレーション処理を実施してもよい。 In S702, the execution determination unit 604 determines a frame for which recalibration processing using the image for video generation is to be performed when the shooting for video generation is started in S304. In the present embodiment, when the vibration of the camera 102 in the video generation image exceeds the threshold value, which is a range in which alignment is possible by the position correction processing in the image correction unit 206 or a range narrower than the threshold value, the vibration is regenerated. It is determined that calibration should be performed. Further, it may be determined that recalibration should be performed when frames exceeding the threshold continue for several frames, or when the average value of vibration for several frames exceeds the threshold. The detection method of the vibration of the camera 102 in the implementation determination unit 605 may be a method of detecting vibration by image comparison with a reference image, or a method of detecting vibration with a sensor attached to the camera 102. good. Alternatively, when the camera position and orientation change over time, or in consideration of the recalibration processing time in S306, recalibration processing may be performed every time an image is captured for a certain period of time.

S703において、反映判定部605は、S306の再キャリブレーション処理結果のカメラパラメータの更新及びリファレンス画像の更新を反映するフレームを判定する。本実施形態では、撮影画像のシーン内容判別により、プレーの区切りなど連続性の低いタイミングを判定して自動で更新を反映するフレームを判定する。または、ユーザが試合の状況を見ながら判定するように構成してもよい。一連のプレーの最中に更新を反映した場合は、反映前後のカメラ位置姿勢の変化によっては視聴者に違和感を与えてしまうことになるかもしれない。そのため、プレーの中断時を見計らって更新を反映するとよい。また、突風の影響や、カメラ102にボールが当たったなどの影響でカメラ位置姿勢が大きくずれた場合などは、カメラ位置姿勢の変化量や既に生成された画像の画質劣化を検出して、即時に反映するようにしてもよい。あるいは、映像生成部207において生成される仮想視点映像の視点情報が予め与えられる場合は、仮想視点の切り替えなどの視聴者に認識されにくいタイミングを判定して更新を反映してもよい。 In S<b>703 , the reflection determination unit 605 determines frames in which the update of the camera parameters and the update of the reference image resulting from the recalibration processing in S<b>306 are reflected. In the present embodiment, by determining the scene content of the captured image, timing with low continuity, such as a break in play, is determined, and the frames to which the update is reflected are automatically determined. Alternatively, it may be configured such that the user makes a decision while watching the situation of the game. If the update is reflected during a series of plays, the change in camera position and orientation before and after the update may cause the viewer to feel uncomfortable. Therefore, it is better to reflect the update when the play is interrupted. Also, if the camera position/orientation deviates greatly due to the effect of a gust of wind or the impact of a ball hitting the camera 102, the amount of change in the camera position/orientation and the deterioration of the image quality of already generated images are detected, and immediate may be reflected in Alternatively, when the viewpoint information of the virtual viewpoint video generated by the video generation unit 207 is given in advance, the timing of switching of the virtual viewpoint, etc., which is difficult for the viewer to recognize, may be determined and the update may be reflected.

S704において、データ管理部205は、再キャリブレーション処理部204で算出されたカメラパラメータを、S703で判定された更新を反映するタイミングで更新する。 In S704, the data management unit 205 updates the camera parameters calculated by the recalibration processing unit 204 at the timing of reflecting the update determined in S703.

S705において、データ管理部205は、リファレンス画像を、再キャリブレーション処理部204が再キャリブレーション処理に使用した各カメラ102の再キャリブレーション用画像を用いて、S703で判定された更新を反映するタイミングで更新する。 In S705, the data management unit 205 uses the recalibration image of each camera 102 used for the recalibration processing by the recalibration processing unit 204 as the reference image, and determines the timing for reflecting the update determined in S703. to update.

S706において、画像取り込み部202は、撮像部201による映像生成用画像の撮影が終了したか否かを判定する。撮影が終了した場合、一連の処理を終了する。一方、撮影が終了していない場合、S304に戻って処理を繰り返す。 In S706, the image capture unit 202 determines whether or not the imaging unit 201 has finished capturing the images for video generation. When the photographing is completed, the series of processing is terminated. On the other hand, if the shooting has not ended, the process returns to S304 and repeats the process.

これより、映像生成用画像の撮影中に、カメラの振動が補正できなくなることを判定して再キャリブレーションを行い、視聴者に違和感を与えないタイミングで再キャリブレーション結果をリアルタイム映像生成処理に反映することができる。 As a result, during the shooting of images for video generation, it is determined that the camera vibration cannot be corrected, and recalibration is performed, and the recalibration results are reflected in the real-time video generation process at a timing that does not cause discomfort to the viewer. can do.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。 The invention is not limited to the embodiments described above, and various modifications and variations are possible without departing from the spirit and scope of the invention.

101:画像処理システム、102:カメラ、103:画像処理装置、201:撮像部、202:画像取り込み部、203:設置時キャリブレーション処理部、204:再キャリブレーション処理部、205:データ管理部、206:画像補正部、207:映像生成部、604:実施判定部、605:反映判定部 101: image processing system, 102: camera, 103: image processing device, 201: imaging unit, 202: image capture unit, 203: installation calibration processing unit, 204: recalibration processing unit, 205: data management unit, 206: Image correction unit, 207: Video generation unit, 604: Implementation determination unit, 605: Reflection determination unit

Claims (13)

複数の撮影装置のそれぞれの位置姿勢を表すパラメータと、当該パラメータを算出する第1のキャリブレーションを行う際に用いた前記複数の撮影装置により撮影されて取得されたマーカを含む第1の画像群と、を取得する取得手段と、
前記第1のキャリブレーションの後に前記複数の撮影装置により撮影されて取得された前記マーカを含まない第2の画像群の画像、及び前記取得手段により取得された第1の画像群の画像からそれぞれ抽出された画像特徴点と、前記取得手段により取得されたパラメータと、に基づいて第2のキャリブレーションを行うことにより、各撮影装置の位置姿勢を表すパラメータを算出する算出手段と、
を備えることを特徴とする画像処理装置。
A first image group including parameters representing the position and orientation of each of a plurality of photographing devices, and markers acquired by being photographed by the plurality of photographing devices used when performing a first calibration for calculating the parameters and an acquisition means for acquiring
from images of a second image group that do not include the marker acquired by being photographed by the plurality of photographing devices after the first calibration and images of the first image group acquired by the acquiring means, respectively calculating means for calculating parameters representing the position and orientation of each photographing device by performing a second calibration based on the extracted image feature points and the parameters obtained by the obtaining means;
An image processing device comprising:
撮影装置ごとに保持されているリファレンス画像を基準として、各撮影装置について、撮影された一連の画像群の位置合わせを行う画像補正手段をさらに備え、
前記画像補正手段は、前記第2の画像群の画像を前記リファレンス画像として使用することを特徴とする請求項1に記載の画像処理装置。
further comprising image correction means for aligning a series of images captured for each imaging device based on a reference image held for each imaging device;
2. The image processing apparatus according to claim 1, wherein said image correction means uses an image of said second image group as said reference image.
前記算出手段は、前記画像補正手段の位置合わせ方法に基づいて、前記位置合わせ方法に適した画像を前記第2のキャリブレーションで使用する前記第2の画像群の画像として特定することを特徴とする請求項2に記載の画像処理装置。 The calculation means is characterized in that, based on the alignment method of the image correction means, images suitable for the alignment method are specified as the images of the second image group to be used in the second calibration. 3. The image processing apparatus according to claim 2. 前記第2のキャリブレーションを行うか否かを判定する判定手段をさらに備え、
前記判定手段は、撮影装置の振動が前記位置合わせ可能な範囲を超えた場合に、前記第2のキャリブレーションを行うと判定することを特徴とする請求項2又は3に記載の画像処理装置。
Further comprising determination means for determining whether or not to perform the second calibration,
4. The image processing apparatus according to claim 2, wherein said determination means determines that said second calibration is to be performed when the vibration of said photographing device exceeds said positionable range.
前記振動を検出する検出手段をさらに備えることを特徴とする請求項4に記載の画像処理装置。 5. The image processing apparatus according to claim 4, further comprising detection means for detecting said vibration. 前記第1のキャリブレーション又は前記第2のキャリブレーションにより算出されたパラメータを用いて、前記複数の撮影装置により撮影された画像から仮想視点の映像生成を行う映像生成手段と、
前記第2のキャリブレーションの実行に応じて、前記映像生成手段により使用されるパラメータの更新及び前記リファレンス画像の更新を反映するタイミングを、画像のシーン内容に基づいて判定する反映判定手段と、
をさらに備えることを特徴とする請求項2乃至5の何れか1項に記載の画像処理装置。
an image generating means for generating an image of a virtual viewpoint from the images captured by the plurality of imaging devices using the parameters calculated by the first calibration or the second calibration;
Reflection determination means for determining, based on the scene content of an image, the timing of reflecting the update of the parameters used by the video generation means and the update of the reference image in response to the execution of the second calibration;
6. The image processing apparatus according to any one of claims 2 to 5, further comprising:
前記反映判定手段は、前記パラメータの更新を反映する画像と、前記リファレンス画像の更新を反映する画像とを一致させるように制御することを特徴とする請求項6に記載の画像処理装置。 7. The image processing apparatus according to claim 6, wherein said reflection determination means performs control such that the image reflecting the update of the parameter and the image reflecting the update of the reference image are matched. 前記パラメータの更新及び前記リファレンス画像の更新を反映する前記タイミングは、シーンの区切りとなるタイミング、又は、仮想視点の切り替えタイミングであることを特徴とする請求項6又は7に記載の画像処理装置。 8. The image processing apparatus according to claim 6, wherein the timing for reflecting the update of the parameter and the update of the reference image is a scene delimiter timing or a virtual viewpoint switching timing. 前記第1の画像群及び第2の画像群はそれぞれ、前記複数の撮影装置により複数の時刻に複数の視点で撮影された画像群であることを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。 9. The first group of images and the second group of images, respectively, are groups of images taken at a plurality of times from a plurality of viewpoints by the plurality of photographing devices. 10. The image processing device according to claim 1. 前記算出手段は、前記第2の画像群から、前記第2のキャリブレーションを行う際に使用する画像を特定することを特徴とする請求項9に記載の画像処理装置。 10. The image processing apparatus according to claim 9, wherein said calculating means specifies an image to be used when performing said second calibration from said second image group. 前記算出手段は、前記第2の画像群のうち仮想視点の映像生成を行う対象となる特定のシーンに対応する画像群の中から、前記特定のシーンの先頭画像、前記特定のシーンの後尾画像、又は、所定数以上の特徴点が含まれる画像を、前記第2のキャリブレーションを行う際に使用する画像として特定することを特徴とする請求項9に記載の画像処理装置。 The calculation means selects the first image of the specific scene, the tail image of the specific scene, from the image group corresponding to the specific scene for which the video of the virtual viewpoint is to be generated, among the second image group. 10. The image processing apparatus according to claim 9, wherein an image including a predetermined number or more of feature points is specified as an image to be used when performing the second calibration. 画像処理装置の制御方法であって、
複数の撮影装置のそれぞれの位置姿勢を表すパラメータと、当該パラメータを算出する第1のキャリブレーションを行う際に用いた前記複数の撮影装置により撮影されて取得されたマーカを含む第1の画像群と、を取得する取得工程と、
前記第1のキャリブレーションの後に前記複数の撮影装置により撮影されて取得された前記マーカを含まない第2の画像群の画像、及び前記取得工程により取得された第1の画像群の画像からそれぞれ抽出された画像特徴点と、前記取得工程により取得されたパラメータと、に基づいて第2のキャリブレーションを行うことにより、各撮影装置の位置姿勢を表すパラメータを算出する算出工程と、
を有することを特徴とする画像処理装置の制御方法。
A control method for an image processing device,
A first image group including parameters representing the position and orientation of each of a plurality of photographing devices, and markers acquired by being photographed by the plurality of photographing devices used when performing a first calibration for calculating the parameters and an obtaining step of obtaining
from images of a second image group that do not include the marker, acquired by being photographed by the plurality of imaging devices after the first calibration, and from images of the first image group acquired by the acquisition step, respectively a calculating step of calculating a parameter representing the position and orientation of each imaging device by performing a second calibration based on the extracted image feature points and the parameters obtained in the obtaining step;
A control method for an image processing device, comprising:
コンピュータを、請求項1乃至11の何れか1項に記載の画像処理装置として機能させるためのプログラム。 A program for causing a computer to function as the image processing apparatus according to any one of claims 1 to 11.
JP2019101486A 2019-05-30 2019-05-30 IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM OF IMAGE PROCESSING DEVICE Active JP7240258B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019101486A JP7240258B2 (en) 2019-05-30 2019-05-30 IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM OF IMAGE PROCESSING DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019101486A JP7240258B2 (en) 2019-05-30 2019-05-30 IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM OF IMAGE PROCESSING DEVICE

Publications (2)

Publication Number Publication Date
JP2020193950A JP2020193950A (en) 2020-12-03
JP7240258B2 true JP7240258B2 (en) 2023-03-15

Family

ID=73546292

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019101486A Active JP7240258B2 (en) 2019-05-30 2019-05-30 IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM OF IMAGE PROCESSING DEVICE

Country Status (1)

Country Link
JP (1) JP7240258B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230093863A (en) * 2021-12-20 2023-06-27 삼성전자주식회사 Electronic apparatus and control method thereof

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009276233A (en) 2008-05-15 2009-11-26 Toyota Central R&D Labs Inc Parameter calculating apparatus, parameter calculating system and program
JP2013113600A (en) 2011-11-25 2013-06-10 Sharp Corp Stereo three-dimensional measuring apparatus
JP2017090420A (en) 2015-11-17 2017-05-25 パナソニックIpマネジメント株式会社 Three-dimensional information restoration device and three-dimensional information restoration method
JP2018179990A (en) 2017-04-20 2018-11-15 パナソニックIpマネジメント株式会社 Camera parameter set calculation method, camera parameter set calculation program and camera parameter set calculation device
JP2018207252A (en) 2017-06-01 2018-12-27 キヤノン株式会社 Image processing system, control method for image processing system, and program
JP2019087791A (en) 2017-11-01 2019-06-06 キヤノン株式会社 Information processing apparatus, information processing method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009276233A (en) 2008-05-15 2009-11-26 Toyota Central R&D Labs Inc Parameter calculating apparatus, parameter calculating system and program
JP2013113600A (en) 2011-11-25 2013-06-10 Sharp Corp Stereo three-dimensional measuring apparatus
JP2017090420A (en) 2015-11-17 2017-05-25 パナソニックIpマネジメント株式会社 Three-dimensional information restoration device and three-dimensional information restoration method
JP2018179990A (en) 2017-04-20 2018-11-15 パナソニックIpマネジメント株式会社 Camera parameter set calculation method, camera parameter set calculation program and camera parameter set calculation device
JP2018207252A (en) 2017-06-01 2018-12-27 キヤノン株式会社 Image processing system, control method for image processing system, and program
JP2019087791A (en) 2017-11-01 2019-06-06 キヤノン株式会社 Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP2020193950A (en) 2020-12-03

Similar Documents

Publication Publication Date Title
US10757397B2 (en) Information processing apparatus, information processing system, information processing method, and storage medium
JP6735592B2 (en) Image processing apparatus, control method thereof, and image processing system
US8928736B2 (en) Three-dimensional modeling apparatus, three-dimensional modeling method and computer-readable recording medium storing three-dimensional modeling program
JP7179515B2 (en) Apparatus, control method and program
US11086395B2 (en) Image processing apparatus, image processing method, and storage medium
JP7023696B2 (en) Information processing equipment, information processing methods and programs
KR20150050172A (en) Apparatus and Method for Selecting Multi-Camera Dynamically to Track Interested Object
US20190132529A1 (en) Image processing apparatus and image processing method
CN109453517B (en) Virtual character control method and device, storage medium and mobile terminal
US20120069018A1 (en) Ar process apparatus, ar process method and storage medium
JP5383366B2 (en) Image processing apparatus, image processing method, and program thereof
JP2006109172A (en) Method and device for processing image
US11798233B2 (en) Generation device, generation method and storage medium for three-dimensional model that remove a portion of the three-dimensional model
US20200099854A1 (en) Image capturing apparatus and image recording method
JP2018207252A (en) Image processing system, control method for image processing system, and program
JP2014222825A (en) Video processing apparatus and video processing method
JP7240258B2 (en) IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM OF IMAGE PROCESSING DEVICE
JP7458713B2 (en) Image processing device, image processing system, control method, and program
JP2022016929A (en) Information processing device, information processing method, and program
CN111279352B (en) Three-dimensional information acquisition system through pitching exercise and camera parameter calculation method
JP2022182119A (en) Image processing apparatus, control method thereof, and program
JP7289746B2 (en) Information processing device, information processing method, and program
JP2002077941A (en) Apparatus and method for generating depth image as well as computer readable recording medium recording program to execute the method in computer
JP2021144522A (en) Image processing apparatus, image processing method, program, and image processing system
US20230410417A1 (en) Information processing apparatus, information processing method, and storage medium

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220524

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230131

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230303

R151 Written notification of patent or utility model registration

Ref document number: 7240258

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151