JP2006171224A - Photographic image processing system - Google Patents

Photographic image processing system Download PDF

Info

Publication number
JP2006171224A
JP2006171224A JP2004361751A JP2004361751A JP2006171224A JP 2006171224 A JP2006171224 A JP 2006171224A JP 2004361751 A JP2004361751 A JP 2004361751A JP 2004361751 A JP2004361751 A JP 2004361751A JP 2006171224 A JP2006171224 A JP 2006171224A
Authority
JP
Japan
Prior art keywords
information
video
photographing
shooting
ground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004361751A
Other languages
Japanese (ja)
Other versions
JP4502793B2 (en
Inventor
Mikito Takeshita
幹人 竹下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2004361751A priority Critical patent/JP4502793B2/en
Publication of JP2006171224A publication Critical patent/JP2006171224A/en
Application granted granted Critical
Publication of JP4502793B2 publication Critical patent/JP4502793B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Instructional Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To obtain a photographic image processing system, wherein positional errors of superposition between map data and image information on display of an on-ground system by synchronously transmitting image information, machine body location information, and photographic information from the onboard system to the ground. <P>SOLUTION: An onboard system 100 synchronizes image information obtained by photographing the ground with a photographing device 102, photographic information acquired by a photographic information acquisition means, and machine body location information obtained by detecting the three-dimensional location of the machine body using a GPS, by a synchronizing part 105, on the basis of frames of image information and performs multiplex modulation of the synchronized image information, photographic information, and machine body location information by a multiplex modulation part 108 and transmits them to an on-ground system 200. The on-ground system 200 performs multiplex demodulation on the received data by a multiplex demodulation part 203 and then displays image information overlapping onto the map data by a map-processing part 209. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

この発明は、例えばヘリコプタに搭載された撮影装置から送信された映像を、地理情報
システムの地図上に重ね合わせて表示することにより、震災など地上の状況の判別を容易
に、かつ精度よく行えるようにした撮影映像処理システムに関するものである。
The present invention can easily and accurately discriminate ground conditions such as an earthquake disaster by displaying an image transmitted from an imaging device mounted on a helicopter, for example, on a map of a geographic information system. The present invention relates to a captured video processing system.

特許文献1に示された従来の撮影映像処理システムは、撮影装置(=カメラ)等を搭載
したヘリコプタなどの飛行体(=機体)から成る機上系と、機上系からの信号を受信して
処理する地上に設置された地上系とによって構成される。
The conventional captured video processing system disclosed in Patent Document 1 receives an onboard system including a flying body (= airframe) such as a helicopter equipped with an imaging device (= camera) and the like, and a signal from the onboard system. And a ground system installed on the ground to be processed.

機上系は、主に空中から地表を撮影する撮影装置、撮影装置の位置を三次元的に特定す
るための機***置検出部、機体姿勢を取得する機体姿勢検出部、撮影装置で撮影された撮
影映像と機***置検出部で取得された情報とを送信する送信部を有する。
すなわち、機上系において、機体には空中から地上を撮影する撮影装置であるカメラが
搭載されている。機体は、アンテナによるGPS信号受信により現在の位置情報を得て、
機***置検出を行う機***置検出部、及び機体の姿勢すなわち仰角(=ピッチ)とロール
角を検出する機体姿勢検出を行う機体姿勢検出部を備えている。
撮影装置であるカメラは、地上を撮影し、その映像信号を出力すると共にカメラの絞り、ズームなどのカメラ情報も併せて出力する。カメラは、ジンバルに取り付けられ、このジンバルは、カメラの回転角、傾き(=チルト)を検出するカメラ姿勢検出部を有しておりその値を出力する。
機体姿勢検出部からの出力信号、カメラの映像信号、カメラ情報信号、カメラ姿勢検出
部からの出力信号は、一時記憶にてバッファされ、機***置検出部からの出力信号のタイ
ミングに同期してデータを出力し、多重変調部で変調手段により多重変調され、信号変換
部でデジタル信号に信号変換され、追尾機能を有するアンテナから地上系に向けて送信さ
れる。
The in-flight system was photographed mainly by an imaging device that captures the ground surface from the air, an aircraft position detection unit that three-dimensionally identifies the position of the imaging device, an aircraft posture detection unit that acquires the aircraft posture, and an imaging device. It has a transmission part which transmits a picked-up image and the information acquired by the body position detection part.
That is, in the on-board system, the body is equipped with a camera that is a photographing device for photographing the ground from the air. The aircraft obtains current position information by receiving GPS signals from the antenna,
A machine position detection unit that detects the machine position and a machine attitude detection unit that detects the attitude of the machine, that is, an elevation angle (= pitch) and a roll angle, are detected.
A camera, which is a photographing device, photographs the ground and outputs the video signal, as well as camera information such as the camera aperture and zoom. The camera is attached to a gimbal, and this gimbal has a camera attitude detection unit that detects the rotation angle and tilt (= tilt) of the camera, and outputs the value.
The output signal from the airframe attitude detection unit, the video signal of the camera, the camera information signal, and the output signal from the camera attitude detection unit are buffered in the temporary storage and are synchronized with the timing of the output signal from the airframe position detection unit. Is multiplexed and modulated by the modulation means in the multiplex modulation section, converted into a digital signal by the signal conversion section, and transmitted from the antenna having the tracking function toward the terrestrial system.

地上系は、主に空中の撮影装置が撮影した地表の撮影映像及び撮影装置の撮影位置を3
次元的に特定するための情報を入力する入力部、入力した情報に対し、信号処理を行うた
めの信号処理部、画面に地図を表示する地理情報システム、信号処理部で処理された情報
を含めて映像処理し、表示部に表示する地図処理部から成る。
すなわち、機上系からの信号を追尾機能を有するアンテナで受信し、信号変換部で信号
変換し、多重復調部を経て、映像信号とその他機***置、機体姿勢、カメラ姿勢、カメラ
情報等の情報信号を取り出す。取り出されたこれらの信号を信号処理部で信号処理し、映
像信号は、動画データ(Mpeg)、静止画データ(Jpeg)として格納され、次のス
テップである地図処理部での地図処理に用いられる。その他、地理情報システムの2次元
地図データ、地勢データを含めた情報信号も地図処理部での地図処理に用いられる。
The terrestrial system mainly represents the ground surface image captured by the aerial photographing device and the photographing position of the photographing device.
Included is an input unit for inputting information for specifying dimensions, a signal processing unit for performing signal processing on the input information, a geographic information system for displaying a map on the screen, and information processed by the signal processing unit. Image processing and a map processing unit for displaying on the display unit.
In other words, the signal from the onboard system is received by the antenna having the tracking function, the signal is converted by the signal conversion unit, the information is received through the multiplex demodulation unit, and the video signal and other information such as the position of the aircraft, the body posture, the camera posture, the camera information, etc. Retrieve the signal. These extracted signals are signal-processed by the signal processing unit, and the video signal is stored as moving image data (Mpeg) and still image data (Jpeg) and used for map processing in the map processing unit, which is the next step. . In addition, information signals including two-dimensional map data and terrain data of the geographic information system are also used for map processing in the map processing unit.

撮影映像処理システムの地図処理部は、映像信号である動画データ、静止画データと機
***置、機体姿勢、カメラ姿勢の情報信号及び地理情報システムの2次元地図データ、3
次元地勢データにより処理を行うもので、主に撮影装置の撮影位置を3次元的に特定する
ための情報に基いて、撮影装置が撮影した撮影映像の撮影範囲に対応する地理情報システ
ムの地図上の撮影範囲を求め、この求められた撮影範囲に併せて、撮影範囲に撮影映像を
変形された撮影映像を重ね合わせて表示する。
地図処理部では、まず、空中における撮影位置を3次元的に特定し、カメラと機体の地
表面に対する姿勢に基いて、撮影した地表面の撮影範囲(画枠)計算を行う。次に、この
画枠に合わせて映像変形を行う。この映像変形は、映像が地図に一致する台形あるいは菱
形に近い形等になるよう映像を変形するものである。次に、変形した映像を地理情報シス
テムの地図上に重ね合わせ(貼り合わせ)、その後これをCRTなどでモニタ表示する。
The map processing unit of the photographed video processing system includes moving image data that is a video signal, still image data and body position, body posture, camera posture information signal, and two-dimensional map data of the geographic information system, 3
On the map of the geographic information system corresponding to the shooting range of the shot image shot by the shooting device based on the information for specifying the shooting position of the shooting device three-dimensionally. The image capturing range is obtained, and in accordance with the obtained image capturing range, the image capturing image obtained by transforming the image capturing image is superimposed on the image capturing range and displayed.
The map processing unit first specifies the shooting position in the air three-dimensionally, and calculates the shooting range (image frame) of the shot ground surface based on the posture of the camera and the aircraft relative to the ground surface. Next, image transformation is performed in accordance with the image frame. This video transformation is to transform the video so that the video has a trapezoidal or diamond-like shape that matches the map. Next, the deformed image is superimposed (bonded) on the map of the geographic information system, and then displayed on a monitor by a CRT or the like.

モニタ表示される画面では、撮影画像、撮影画枠、飛行軌跡が連続的に表示される。
地図上に撮影画像を重畳するにあたり、地図と映像のずれを少なくする手法として、上
述の特許文献1のように、機***置検出部からの位置情報出力タイミングを基準に、同期
して各データを取り出す方法や、特許文献2のように、ずれ時間を検出し、各データと共
にずれ時間を記録し、再生時に補正する方法がある。
On the screen displayed on the monitor, the captured image, the captured image frame, and the flight trajectory are continuously displayed.
As a technique for reducing the difference between the map and the video when superimposing the captured image on the map, each data is synchronized with the position information output timing from the aircraft position detection unit as described above in Patent Document 1. There are a method of taking out and a method of detecting a shift time, recording the shift time together with each data, and correcting at the time of reproduction, as in Patent Document 2.

特開2003−316259号公報(第5〜12頁、図1)JP 2003-316259 A (pages 5 to 12, FIG. 1) 特開2002−330377号公報(第6〜11頁、図1)JP 2002-330377 A (pages 6-11, FIG. 1)

従来の撮影映像処理システムでは、前述のとおり、複数の情報を複数の装置により取得
するが、例えばGPSによる位置情報取得周期は1Hz、映像情報は30Hz、撮影情報
は数十Hzと取得周期が異なる上、それぞれ非同期のデータであるために、地図と映像の
合成表示結果にずれが生じる問題が発生する。
ずれを少なくする手法として、特許文献1による手法では、最大1フレーム分の映像の
ずれが発生する可能性があり、特許文献2による方法によれば、映像再生側は専用装置を
用いない場合、ずれを補正することができない。
As described above, in a conventional captured video processing system, a plurality of pieces of information are acquired by a plurality of devices. For example, the position information acquisition cycle by GPS is 1 Hz, the video information is 30 Hz, and the shooting information is several tens of Hz. Furthermore, since each is asynchronous data, there arises a problem that the result of the combined display of the map and the video is shifted.
As a technique for reducing the shift, the technique according to Patent Document 1 may cause a video shift of a maximum of one frame. According to the method according to Patent Document 2, when the video playback side does not use a dedicated device, Misalignment cannot be corrected.

この発明は、上述のような課題を解決するためになされたものであり、機上系から映像
情報・機***置情報・撮影情報を同期化して地上に伝送することにより、地上系の表示に
おける地図データと映像情報との重ね合わせ位置の誤差を少なくすることのできる撮影映
像処理システムを得ることを目的としている。
The present invention has been made in order to solve the above-described problems. A map in the display of the terrestrial system is obtained by synchronizing video information, aircraft position information, and shooting information from the onboard system and transmitting them to the ground. An object of the present invention is to obtain a photographed video processing system that can reduce errors in the overlay position of data and video information.

この発明に係わる撮影映像処理システムにおいては、機体に搭載された機上装置によっ
て地表を撮影した映像情報を機上装置から地上装置に送信し、地上装置で映像情報を地図
データに重畳させて表示する撮影映像処理システムにおいて、機上装置は、地表を撮影し、映像情報を出力する撮影装置、この撮影装置の撮影情報を取得する撮影情報取得手段、GPSにより機体の3次元の位置を検出する機***置検出手段、撮影装置により撮影された映像情報を基準にして、撮影情報取得手段により取得された撮影情報及び機***置検出手段により検出された機***置情報を同期させる同期手段、この同期手段により同期された撮影情報及び機***置情報を映像情報の一部に変換する多重変調手段、及びこの多重変調手段により変換された撮影情報及び機***置情報を含む映像情報を地上装置に送信する送信手段を備え、
地上装置は、機上装置から受信した映像情報から撮影情報及び機***置情報を分離する多
重復調手段、及びこの多重復調手段により分離された撮影情報及び機***置情報に基づき、映像情報を地図データに重畳させて表示する地図処理手段を備えたものである。
In the photographed image processing system according to the present invention, image information obtained by photographing the ground surface by the onboard device mounted on the fuselage is transmitted from the onboard device to the ground device, and the image information is superimposed on the map data and displayed by the ground device. In the captured image processing system, the onboard device captures the ground surface and outputs image information, an imaging information acquisition means for acquiring the imaging information of the imaging device, and detects the three-dimensional position of the aircraft by GPS. Airframe position detection means, synchronization means for synchronizing the shooting information acquired by the shooting information acquisition means and the machine position information detected by the machine position detection means with reference to the video information shot by the shooting device, Multiplex modulation means for converting synchronized shooting information and body position information into a part of video information, and shooting information converted by the multiple modulation means And a transmitting means for transmitting the image information to the ground system including the aircraft position information,
The ground device is a multiplex demodulator that separates the shooting information and the machine position information from the video information received from the onboard device, and the video information is converted into map data based on the shooting information and the machine position information separated by the multiplex demodulator. It is provided with a map processing means for displaying in a superimposed manner.

この発明は、以上説明したように、機体に搭載された機上装置によって地表を撮影した
映像情報を機上装置から地上装置に送信し、地上装置で映像情報を地図データに重畳させ
て表示する撮影映像処理システムにおいて、機上装置は、地表を撮影し、映像情報を出力
する撮影装置、この撮影装置の撮影情報を取得する撮影情報取得手段、GPSにより機体
の3次元の位置を検出する機***置検出手段、撮影装置により撮影された映像情報を基準
にして、撮影情報取得手段により取得された撮影情報及び機***置検出手段により検出さ
れた機***置情報を同期させる同期手段、この同期手段により同期された撮影情報及び機
***置情報を映像情報の一部に変換する多重変調手段、及びこの多重変調手段により変換
された撮影情報及び機***置情報を含む映像情報を地上装置に送信する送信手段を備え、
地上装置は、機上装置から受信した映像情報から撮影情報及び機***置情報を分離する多
重復調手段、及びこの多重復調手段により分離された撮影情報及び機***置情報に基づき、映像情報を地図データに重畳させて表示する地図処理手段を備えたので、映像情報を基準として、機***置情報及び撮影情報を同期させて、地上装置に送信することにより、高精度の地図データと映像情報の重畳を実現することができる。
As described above, according to the present invention, the video information obtained by photographing the ground surface by the on-board device mounted on the airframe is transmitted from the on-board device to the ground device, and the video information is superimposed on the map data and displayed by the ground device. In the photographic video processing system, the onboard device shoots the ground surface and outputs video information, photographic information acquisition means for acquiring photographic information of the photographic device, and a body that detects the three-dimensional position of the aircraft by GPS. Synchronizing means for synchronizing the photographing information acquired by the photographing information acquiring means and the aircraft position information detected by the aircraft position detecting means with reference to the video information photographed by the photographing device, the position detecting means, and synchronizing by this synchronizing means Multiplex modulation means for converting the photographed shooting information and the machine position information into a part of video information, and the shooting information and the machine position information converted by the multiplex modulation means. A transmitting means for transmitting the image information to the ground system including,
The ground device is a multiplex demodulator that separates the shooting information and the machine position information from the video information received from the onboard device, and the video information is converted into map data based on the shooting information and the machine position information separated by the multiplex demodulator. Since it has map processing means to display in a superimposed manner, high-precision map data and video information can be superimposed by synchronizing the aircraft position information and shooting information with the video information as a reference and transmitting them to the ground device can do.

実施の形態1.
以下、この発明の実施の形態1を図1に基いて説明する。
図1は、この発明の実施の形態1による撮影映像処理システムを示す機能構成図である。
図1において、この発明の撮影映像処理システムは、ヘリコプタ等の機体等に搭載され、撮影装置等を有する機上系100(機上装置)と、地上にて機上系100からの信号を受信して処理する地上系200(地上装置)から成る。
機上系100は、上空から地表を撮影するカメラである撮影装置102を有し、撮影装
置102は、撮影した映像情報を出力すると共にカメラの絞り、ズームなどのカメラ情報
も併せて出力する。機上系100は、さらに撮影装置102の位置を3次元的に特定する
ための情報をGPS信号受信部106を介して取得する機***置検出部107(機***置
検出手段)、及び機体の姿勢すなわち仰角(=ピッチ)とロール角を検出して機体姿勢検
出を行う機体姿勢検出部103(機体姿勢検出手段)を有している。撮影装置102であ
るカメラは、ジンバルに取り付けられ、このジンバルは、カメラの回転角、傾き(=チル
ト)を検出して、撮影方向を取得するカメラ姿勢検出部104(撮影方向取得手段)を有
する。ここで、上述のカメラ情報と、機体姿勢と、撮影方向とにより、撮影情報が形成さ
れる。すなわち、機体姿勢検出部103とカメラ姿勢検出部104は、撮影情報取得手段
を構成する。
また、機上系100は、上記映像情報、撮影装置の位置情報、撮影情報を、映像のフレ
ームに同期させる同期部105(同期手段)を有し、この同期部105から出力されたデ
ータを多重変調部108(多重変調手段)で多重変調し、信号変換部109でデジタル信
号に信号変換し、追尾機能110を有するアンテナ(送信手段)から地上系200に向け
て送信する。
Embodiment 1 FIG.
Embodiment 1 of the present invention will be described below with reference to FIG.
FIG. 1 is a functional configuration diagram showing a captured video processing system according to Embodiment 1 of the present invention.
In FIG. 1, the captured image processing system of the present invention is mounted on an aircraft such as a helicopter and receives an onboard system 100 (onboard apparatus) having an imaging apparatus and the like and a signal from the onboard system 100 on the ground. And the ground system 200 (ground equipment) to be processed.
The onboard system 100 includes a photographing device 102 that is a camera for photographing the ground surface from the sky. The photographing device 102 outputs photographed video information and camera information such as a camera aperture and zoom. The onboard system 100 further includes an airframe position detection unit 107 (airframe position detection means) that acquires information for specifying the position of the imaging device 102 three-dimensionally via the GPS signal receiving unit 106, and an attitude of the airframe, A body posture detection unit 103 (airframe posture detection means) that detects the body posture by detecting an elevation angle (= pitch) and a roll angle is provided. The camera which is the photographing apparatus 102 is attached to a gimbal, and this gimbal has a camera posture detection unit 104 (photographing direction acquisition unit) that detects a rotation angle and a tilt (= tilt) of the camera and acquires a photographing direction. . Here, shooting information is formed by the above-described camera information, the body posture, and the shooting direction. That is, the body posture detection unit 103 and the camera posture detection unit 104 constitute a photographing information acquisition unit.
The onboard system 100 also includes a synchronization unit 105 (synchronization unit) that synchronizes the video information, the position information of the imaging device, and the imaging information with a video frame, and multiplexes the data output from the synchronization unit 105. The signal is modulated by the modulation unit 108 (multiplex modulation unit), converted into a digital signal by the signal conversion unit 109, and transmitted from the antenna (transmission unit) having the tracking function 110 toward the terrestrial system 200.

地上系200は、主に空中の撮影装置102が撮影した地表の映像情報及び撮影装置1
02の撮影位置を3次元的に特定するための情報、さらに撮影情報が入力され、この入力
された情報に対し、信号処理を行うための信号処理部204と、画面に地図を表示する地
理情報システムと、信号処理部204で処理された情報を含めて映像処理し、地図データ
に重畳させてモニタ表示部210に表示する地図処理部209とを有している。
すなわち、機上系100からの信号を追尾機能201を有するアンテナで受信し、信号
変換部202で信号変換し、多重復調部203(多重復調手段)によって、映像情報、位
置情報、撮影情報の信号を取り出す。
多重復調部203によって取り出されたこれらの信号を信号処理部204で信号処理
し、映像情報は、動画データ(Mpeg)205、静止画データ(Jpeg)206とし
て格納され、次のステップである地図処理部209での地図処理に用いられる。その他、
地理情報システムの2次元地図データ208、地勢データ207を含めた情報信号も地図
処理部209での地図処理に用いられる。
The terrestrial system 200 mainly includes image information on the ground surface captured by the imaging device 102 in the air and the imaging device 1.
Information for specifying the shooting position of 02 in three dimensions and further shooting information are input, and a signal processing unit 204 for performing signal processing on the input information and geographic information for displaying a map on the screen The system includes a map processing unit 209 that performs video processing including information processed by the signal processing unit 204 and superimposes the map data on map data and displays the map data on the monitor display unit 210.
That is, a signal from the onboard system 100 is received by an antenna having a tracking function 201, signal converted by a signal conversion unit 202, and video information, position information, and shooting information signals by a multiple demodulation unit 203 (multiplex demodulation unit). Take out.
These signals extracted by the multiplex demodulator 203 are signal-processed by the signal processor 204, and the video information is stored as moving image data (Mpeg) 205 and still image data (Jpeg) 206, and the next step is map processing. Used for map processing in the unit 209. Other,
Information signals including the two-dimensional map data 208 and the terrain data 207 of the geographic information system are also used for map processing in the map processing unit 209.

地上系200の地図処理部209(地図処理手段)は、映像情報である動画データ20
5、静止画データ206と、機***置情報、撮影情報の各信号及び地理情報システムの2
次元地図データ208、3次元地勢データ207を用いて処理を行うもので、主に撮影装
置102の撮影位置を3次元的に特定するための機***置情報に基いて、撮影装置102
が撮影した映像情報の撮影範囲に対応する地理情報システムの地図上の撮影範囲を求め、
この求められた撮影範囲に併せて、撮影映像を変形し、撮影範囲にこの変形された撮影映
像を重ね合わせて表示する。
地図処理部209では、まず、空中における撮影位置を3次元的に特定し、カメラと機
体の地表面に対する姿勢に基いて、撮影した地表面の撮影範囲(画枠)計算を行う。この
画枠に合わせて映像変形を行う。この映像変形は、映像が地図に一致する台形あるいは菱
形に近い形等になるよう映像を変形するものである。次に、変形した映像を地理情報シス
テムの地図上に重ね合わせ(貼り合わせ)、その後、これをCRTなどのモニタ表示部2
10にモニタ表示する。
モニタ表示される画面では、図3のように、撮影画像、撮影画枠、飛行軌跡が連続的に
表示される。
図2は、この発明の実施の形態1による撮影映像処理システムにおける各データの取得
タイミングを表す図である。
図3は、この発明の実施の形態1による撮影映像処理システムによって表示される画面
を示す図である。
図3において、飛行軌跡は、左から右上へ折線として描かれている。画枠は、図中の台
形の外枠であり、台形の中の画像が撮影画像である。この図3では、撮影画像が左から右
に連続的に表示されている。
The map processing unit 209 (map processing means) of the ground system 200 is a video data 20 that is video information.
5. Still image data 206, aircraft position information, shooting information signals, and geographic information system 2
The processing is performed using the three-dimensional map data 208 and the three-dimensional terrain data 207. The imaging device 102 is mainly based on the body position information for three-dimensionally specifying the imaging position of the imaging device 102.
Find the shooting range on the map of the geographic information system corresponding to the shooting range of the video information shot by
In accordance with the obtained shooting range, the shot image is deformed, and the deformed shot image is superimposed and displayed on the shooting range.
First, the map processing unit 209 three-dimensionally identifies a shooting position in the air, and calculates a shooting range (image frame) of the shot ground surface based on the posture of the camera and the aircraft relative to the ground surface. Video transformation is performed in accordance with this image frame. This video transformation is to transform the video so that the video has a trapezoidal or diamond-like shape that matches the map. Next, the deformed image is superimposed (bonded) on the map of the geographic information system, and then this is displayed on the monitor display unit 2 such as a CRT.
10 is displayed on the monitor.
On the screen displayed on the monitor, the captured image, the captured image frame, and the flight trajectory are continuously displayed as shown in FIG.
FIG. 2 is a diagram showing the acquisition timing of each data in the photographed video processing system according to Embodiment 1 of the present invention.
FIG. 3 is a diagram showing a screen displayed by the photographed video processing system according to Embodiment 1 of the present invention.
In FIG. 3, the flight trajectory is drawn as a broken line from the left to the upper right. An image frame is a trapezoidal outer frame in the figure, and an image in the trapezoid is a captured image. In FIG. 3, captured images are continuously displayed from left to right.

次に、動作について説明する。
追尾機能110を有するアンテナから地上系200に送信するデータの取得周期を、例
えばGPSによる位置情報取得周期は1Hz、映像情報は30Hz、撮影情報は100H
zとする。
同期部105は、システムにおける正確な時間を生成する時刻生成部と、最も取得周期
の長い位置情報取得周期1秒に、GPS内の位置情報計算時間を加えた値以上のデータを、最低でも格納可能な容量の各データのバッファメモリとを有している。これにより、映像については、各フレーム毎の画像取得時刻、撮影情報を、位置情報については、各々のデータ取得時刻をシステム内の正確な時刻により管理することができる。
ここで位置情報については、GPSにて取得したデータには、緯度・経度・高度、GP
S時刻があり、システムにおける位置情報取得時刻(=GPS時刻)をT、GPS内部で
位置情報の計算が終了し、位置情報が出力されるシステム上の時刻をtとすると、
位置データ取得遅延時間=位置情報出力時刻t−位置情報取得時刻T
の関係が成り立つ。
Next, the operation will be described.
The acquisition period of data transmitted from the antenna having the tracking function 110 to the ground system 200 is, for example, 1 Hz for the position information acquisition period by GPS, 30 Hz for the video information, and 100 H for the shooting information.
z.
The synchronization unit 105 stores a time generation unit that generates accurate time in the system, and at least data that is equal to or greater than the value obtained by adding the position information calculation time in the GPS to the position information acquisition period of 1 second with the longest acquisition period. And a buffer memory for each possible data. As a result, the image acquisition time and shooting information for each frame can be managed for video, and each data acquisition time for position information can be managed based on the accurate time in the system.
Here, for location information, the data acquired by GPS includes latitude, longitude, altitude, GP
There is S time, and T is the position information acquisition time (= GPS time) in the system, and t is the time on the system where the calculation of the position information ends and the position information is output.
Position data acquisition delay time = position information output time t−position information acquisition time T
The relationship holds.

図2に各々のデータサンプリング時刻を示す。
従来の撮影映像処理システムでは、位置情報出力(時刻t)をトリガとして、位置情報
取得時刻Tにおける映像情報及び撮影情報をバッファメモリより取得することから、映像
情報は1フレーム目、撮影情報は撮影情報2のデータをバッファメモリから読み取り、位
置情報と併せて地上に送信していたが、この方法では、映像情報または撮影情報のデータ
更新周期分の誤差が発生する。
このため、本発明では、映像情報を基準とし、位置情報取得時刻Tに最も近いフレーム
の切替時刻T’を基準にして、位置情報、撮影情報の補正計算を行い、これらのデータを
地上に送信することにより、高精度の地図映像重畳を可能にした。
また、誤差要因としては、位置データ取得遅延時間の他に、多重復調処理時間のずれ、
信号処理時間のずれなどが考えられ、これらの処理時間を考慮した補正計算を行うことも
可能である。
FIG. 2 shows each data sampling time.
In the conventional captured video processing system, the video information is captured in the first frame while the video information is captured in the first frame because the video information and the captured information at the positional information acquisition time T are acquired from the buffer memory using the position information output (time t) as a trigger. The data of information 2 is read from the buffer memory and transmitted to the ground together with the position information. However, in this method, an error corresponding to the data update period of the video information or shooting information occurs.
For this reason, in the present invention, correction calculation of position information and shooting information is performed on the basis of video information, frame switching time T ′ closest to position information acquisition time T, and these data are transmitted to the ground. By doing so, high-precision map image superimposition was enabled.
Also, as error factors, in addition to the position data acquisition delay time, a shift in the multiple demodulation processing time,
Differences in signal processing time can be considered, and correction calculation considering these processing times can also be performed.

実施の形態1によれば、映像情報を基準とし、位置情報取得時刻Tに最も近い映像フレ
ームの切替時刻T’を基準にして、位置情報、撮影情報の補正計算を行い、これらのデー
タを地上に送信するので、高精度の地図映像重畳を実現することができる。
According to the first embodiment, the correction calculation of the position information and the shooting information is performed with reference to the video information, and the switching time T ′ of the video frame closest to the position information acquisition time T, and these data are Therefore, highly accurate map image superimposition can be realized.

実施の形態2.
図4は、この発明の実施の形態2による撮影映像処理システムを示す機能構成図である

図4において、100、102〜110、200〜210は図1におけるものと同一の
ものである。図4では、機上系100に静止画作成部111を設けている。
Embodiment 2. FIG.
FIG. 4 is a functional configuration diagram showing a captured video processing system according to Embodiment 2 of the present invention.
In FIG. 4, reference numerals 100, 102 to 110, and 200 to 210 are the same as those in FIG. In FIG. 4, a still image creation unit 111 is provided in the onboard system 100.

実施の形態2は、実施の形態1と同様に機上系100において、同期化したデータから
、属性情報として撮影時刻、位置情報(緯度、経度、高度)、撮影情報(機体姿勢、カメ
ラの3次元的な傾き、画角など)を含む静止画を作成する静止画作成部111(静止画作
成手段)を設け、作成された静止画と動画を多重変調する。
地上系200には、受信した静止画から、映像情報と、時刻、位置情報、撮影情報を分
離する静止画解析部(静止画解析手段)211を設け、分離した情報を用いて、静止画と
地図データとの重畳を行うことにより、実施の形態1のように映像情報から静止画を作成
するための遅延時間が発生することなく、さらに高精度の地図映像重畳を行うことが可能
となる。
In the second embodiment, as in the first embodiment, in the onboard system 100, from the synchronized data, shooting time, position information (latitude, longitude, altitude), shooting information (airframe posture, camera 3) are acquired as attribute information. A still image creation unit 111 (still image creation means) that creates a still image including a dimensional inclination, a field angle, and the like) is provided to multiplex-modulate the created still image and moving image.
The terrestrial system 200 is provided with a still image analysis unit (still image analysis means) 211 that separates video information and time, position information, and shooting information from the received still image, and using the separated information, By superimposing with map data, it becomes possible to perform map video superposition with higher accuracy without generating a delay time for creating a still image from video information as in the first embodiment.

次に、動作について説明する。
図4で、機上系100にて、同期部105にて同期された映像のフレームデータ、位置
情報、撮影情報より静止画作成部111にて静止画を作成する。作成された静止画は、動
画の映像情報と共に多重変調部108にて変調され、信号処理部109にてデジタル変換
され、追尾機能110を有するアンテナから地上系200に送信される。
地上系200では、受信した信号を多重復調部203により復調し、信号処理部204
にて動画データ205と静止画データ206に格納する。さらに静止画解析部211によ
り、静止画に記録された位置情報、撮影情報を取り出し、地図処理部209にて地図デー
タに静止画データを重畳してモニタ表示部210によりモニタ表示する。
Next, the operation will be described.
In FIG. 4, in the onboard system 100, a still image creation unit 111 creates a still image from the video frame data, position information, and shooting information synchronized by the synchronization unit 105. The created still image is modulated by the multiplex modulation unit 108 together with the video information of the moving image, digitally converted by the signal processing unit 109, and transmitted to the terrestrial system 200 from the antenna having the tracking function 110.
In the terrestrial system 200, the received signal is demodulated by the multiple demodulator 203, and the signal processor 204.
Are stored in the moving image data 205 and the still image data 206. Further, the position information and shooting information recorded in the still image are taken out by the still image analysis unit 211, and the still image data is superimposed on the map data by the map processing unit 209 and displayed on the monitor by the monitor display unit 210.

実施の形態2によれば、機上系100にて静止画を作成し、地上に伝送することにより
、地上における多重復調及び信号処理(動画から静止画を作成する)に要する時間のずれ
をキャンセルすることが可能になる。
According to the second embodiment, a time lag required for multiple demodulation and signal processing (creating a still image from a moving image) on the ground is canceled by creating a still image in the onboard system 100 and transmitting it to the ground. It becomes possible to do.

実施の形態3.
図5は、この発明の実施の形態3による撮影映像処理システムを示す機能構成図である

図5において、100、102、105〜111は図4におけるものと同一のものであ
る。図5では、図4の機体姿勢検出部103及びカメラ姿勢検出部104に代えて、撮影
装置102の傾きを検出する3軸傾きセンサ112(3次元撮影方向取得手段)が設けら
れ、撮影情報取得手段を構成している。
Embodiment 3 FIG.
FIG. 5 is a functional configuration diagram showing a captured video processing system according to Embodiment 3 of the present invention.
In FIG. 5, reference numerals 100, 102, 105-111 are the same as those in FIG. In FIG. 5, instead of the body posture detection unit 103 and the camera posture detection unit 104 of FIG. 4, a three-axis tilt sensor 112 (three-dimensional shooting direction acquisition means) that detects the tilt of the shooting device 102 is provided to acquire shooting information. Means.

実施の形態1及び実施の形態2においては、撮影情報の内の撮影方向を取得するために
、機体姿勢検出部103と、機体外部に取り付けたジンバルのカメラ姿勢検出部104を
用いていたが、機体姿勢とジンバルのカメラ姿勢の取得は、絶対的なカメラの撮影方向を
取得することが目的であるので、実施の形態3は、図5のように、例えば3軸傾きセンサ
112を取り付けた撮影装置102を機体内部に持ち込み、撮影と共に撮影方向を取得す
るようにした。
これにより、機体外部のジンバルが不要となり、例えばヘリコプタの窓からハンディカ
メラにより撮影を行うなど、容易に運用を行うことが可能となる。
In the first embodiment and the second embodiment, the body posture detection unit 103 and the gimbal camera posture detection unit 104 attached to the outside of the body are used to acquire the shooting direction in the shooting information. The acquisition of the body posture and the camera posture of the gimbal is for the purpose of obtaining the absolute camera shooting direction, so the third embodiment is a shooting with a triaxial tilt sensor 112 attached as shown in FIG. The device 102 was brought into the body, and the shooting direction was acquired along with the shooting.
This eliminates the need for a gimbal outside the fuselage, and enables easy operation, for example, shooting with a handy camera from a helicopter window.

ここで、3軸傾きセンサ112としては、地磁気センサ、ジャイロ及び加速度センサを
組み合わせた構成の装置や、超音波センサとジャイロにより機体内部における方向を求め
、機体姿勢情報との合成により撮影角度を計算する方法等がある。
Here, as the triaxial tilt sensor 112, a device configured with a combination of a geomagnetic sensor, a gyroscope, and an acceleration sensor, or a direction inside the aircraft is determined by an ultrasonic sensor and a gyroscope, and a shooting angle is calculated by combining with the aircraft attitude information. There are ways to do this.

実施の形態3によれば、3軸傾きセンサ112を取り付けた撮影装置102を機体内部
に持ち込み、撮影と共に撮影方向を取得するようにしたので、機体外部のジンバルが不要
となり、例えばヘリコプタの窓からハンディカメラにより撮影を行うなど、容易に運用を
行うことが可能となる。
According to the third embodiment, since the photographing device 102 with the three-axis tilt sensor 112 attached is brought into the fuselage and the photographing direction is acquired together with photographing, a gimbal outside the fuselage is not necessary. For example, from a helicopter window It is possible to easily perform operations such as shooting with a handy camera.

この発明の実施の形態1による撮影映像処理システムを示す機能構成図である。It is a functional block diagram which shows the picked-up image processing system by Embodiment 1 of this invention. この発明の実施の形態1による撮影映像処理システムにおける各データの取得タイミングを表す図である。It is a figure showing the acquisition timing of each data in the picked-up image processing system by Embodiment 1 of this invention. この発明の実施の形態1による撮影映像処理システムによって表示される画面を示す図である。It is a figure which shows the screen displayed by the picked-up image processing system by Embodiment 1 of this invention. この発明の実施の形態2による撮影映像処理システムを示す機能構成図である。It is a functional block diagram which shows the picked-up image processing system by Embodiment 2 of this invention. この発明の実施の形態3による撮影映像処理システムを示す機能構成図である。It is a function block diagram which shows the picked-up image processing system by Embodiment 3 of this invention.

符号の説明Explanation of symbols

100 機上系
102 撮影装置
103 機体姿勢検出部
104 カメラ姿勢検出部
105 同期部
106 GPS信号受信部
107 機***置検出部
108 多重変調部
109 信号変換部
110 追尾機能
111 静止画作成部
112 3軸傾きセンサ
200 地上系
201 追尾機能
202 信号変換部
203 多重復調部
204 信号処理部
205 動画データ
206 静止画データ
207 地勢データ
208 二次元地図データ
209 地図処理部
210 モニタ表示部
211 静止画解析部
100 On-machine system 102 Imaging device 103 Airframe posture detection unit 104 Camera posture detection unit 105 Synchronization unit 106 GPS signal reception unit 107 Airframe position detection unit 108 Multiplex modulation unit 109 Signal conversion unit 110 Tracking function 111 Still image creation unit 112 Triaxial tilt Sensor 200 Ground system 201 Tracking function 202 Signal converter 203 Multiplex demodulator 204 Signal processor 205 Movie data 206 Still image data 207 Terrain data 208 Two-dimensional map data 209 Map processor 210 Monitor display unit 211 Still image analyzer

Claims (4)

機体に搭載された機上装置によって地表を撮影した映像情報を上記機上装置から地上装
置に送信し、地上装置で上記映像情報を地図データに重畳させて表示する撮影映像処理シ
ステムにおいて、上記機上装置は、地表を撮影し、映像情報を出力する撮影装置、この撮
影装置の撮影情報を取得する撮影情報取得手段、GPSにより上記機体の3次元の位置を
検出する機***置検出手段、上記撮影装置により撮影された映像情報を基準にして、上記
撮影情報取得手段により取得された撮影情報及び上記機***置検出手段により検出された
上記機***置情報を同期させる同期手段、この同期手段により同期された上記撮影情報及
び上記機***置情報を上記映像情報の一部に変換する多重変調手段、及びこの多重変調手
段により変換された上記撮影情報及び上記機***置情報を含む映像情報を上記地上装置に
送信する送信手段を備え、
上記地上装置は、上記機上装置から受信した映像情報から上記撮影情報及び上記機***置
情報を分離する多重復調手段、及びこの多重復調手段により分離された上記撮影情報及び
上記機***置情報に基づき、上記映像情報を地図データに重畳させて表示する地図処理手
段を備えたことを特徴とする撮影映像処理システム。
In the captured video processing system, the video information obtained by photographing the ground surface by the on-board device mounted on the airframe is transmitted from the on-board device to the ground device, and the ground device displays the video information superimposed on the map data. The upper device is a photographing device for photographing the ground surface and outputting video information, photographing information acquisition means for obtaining photographing information of the photographing device, airframe position detecting means for detecting the three-dimensional position of the airframe by GPS, and the photographing Synchronizing means for synchronizing the shooting information acquired by the shooting information acquisition means and the machine position information detected by the machine position detection means with reference to video information shot by the apparatus, synchronized by the synchronization means Multiple modulation means for converting the shooting information and the machine position information into a part of the video information, and the shooting information converted by the multiple modulation means. And a transmitting means for transmitting to said ground unit image information including the aircraft position information,
The ground device is based on the multiplex demodulation means for separating the shooting information and the aircraft position information from the video information received from the onboard device, and the shooting information and the aircraft position information separated by the multiple demodulation means, A photographic video processing system comprising map processing means for displaying the video information superimposed on map data.
機体に搭載された機上装置によって地表を撮影した映像情報を上記機上装置から地上装
置に送信し、地上装置で上記映像情報を地図データに重畳させて表示する撮影映像処理シ
ステムにおいて、上記機上装置は、地表を撮影し、映像情報を出力する撮影装置、この撮
影装置の撮影情報を取得する撮影情報取得手段、GPSにより上記機体の3次元の位置を
検出する機***置検出手段、上記撮影装置により撮影された映像情報を基準にして、上記
撮影情報取得手段により取得された撮影情報及び上記機***置検出手段により検出された
上記機***置情報を同期させる同期手段、この同期手段により同期された上記映像情報と
上記撮影情報と上記機***置情報とから静止画情報を作成する静止画作成手段、この静止
画作成手段により作成された静止画と上記映像情報とを多重変調する多重変調手段、及び
この多重変調手段により多重変調されたデータを上記地上装置に送信する送信手段を備
え、
上記地上装置は、上記機上装置から受信した上記データから上記映像情報と静止画情報を
分離する多重復調手段、この多重復調手段により分離された静止画情報から上記撮影情報
及び上記機***置情報を取り出す静止画解析手段、及びこの静止画解析手段により取り出
された上記撮影情報及び上記機***置情報に基づき、上記静止画情報を地図データに重畳
させて表示する地図処理手段を備えたことを特徴とする撮影映像処理システム。
In the captured video processing system, the video information obtained by photographing the ground surface by the on-board device mounted on the airframe is transmitted from the on-board device to the ground device, and the ground device displays the video information superimposed on the map data. The upper device is a photographing device for photographing the ground surface and outputting video information, photographing information acquisition means for obtaining photographing information of the photographing device, airframe position detecting means for detecting the three-dimensional position of the airframe by GPS, and the photographing Synchronizing means for synchronizing the shooting information acquired by the shooting information acquisition means and the machine position information detected by the machine position detection means with reference to video information shot by the apparatus, synchronized by the synchronization means Still image creation means for creating still image information from the video information, the shooting information, and the aircraft position information, and the still image created by the still image creation means Multiplexing modulation means for multiplexing modulating a picture and the video information, and the multiplexed modulated data by the multiplexing modulation means provided with transmitting means for transmitting to said ground device,
The ground device includes multiple demodulation means for separating the video information and still image information from the data received from the onboard device, and the shooting information and the body position information from the still image information separated by the multiple demodulation means. Still image analysis means to be extracted, and map processing means for displaying the still image information superimposed on map data based on the shooting information and the machine body position information extracted by the still image analysis means, Shooting video processing system.
上記撮影情報取得手段は、上記撮影装置の姿勢を検出して撮影方向を取得する撮影方向
取得手段と、上記機体の姿勢を検出する機体姿勢検出手段とにより構成されていることを
特徴とする請求項1または請求項2記載の撮影映像処理システム。
The imaging information acquisition unit includes an imaging direction acquisition unit that detects an orientation of the imaging apparatus and acquires an imaging direction, and an airframe attitude detection unit that detects the attitude of the aircraft. The photographed image processing system according to claim 1 or 2.
上記撮影情報取得手段は、上記撮影装置に取り付けられ、上記撮影装置の3次元の撮影
方向を取得する3次元撮影方向取得手段により構成されていることを特徴とする請求項1
または請求項2記載の撮影映像処理システム。
2. The imaging information acquisition unit is configured by a three-dimensional imaging direction acquisition unit that is attached to the imaging device and acquires a three-dimensional imaging direction of the imaging device.
Or the imaging | video image processing system of Claim 2.
JP2004361751A 2004-12-14 2004-12-14 Shooting video processing system Expired - Fee Related JP4502793B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004361751A JP4502793B2 (en) 2004-12-14 2004-12-14 Shooting video processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004361751A JP4502793B2 (en) 2004-12-14 2004-12-14 Shooting video processing system

Publications (2)

Publication Number Publication Date
JP2006171224A true JP2006171224A (en) 2006-06-29
JP4502793B2 JP4502793B2 (en) 2010-07-14

Family

ID=36672078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004361751A Expired - Fee Related JP4502793B2 (en) 2004-12-14 2004-12-14 Shooting video processing system

Country Status (1)

Country Link
JP (1) JP4502793B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016082441A (en) * 2014-10-17 2016-05-16 ソニー株式会社 Controller, control method and computer program
JP2017067834A (en) * 2015-09-28 2017-04-06 株式会社オプティム A taken image display device of unmanned aircraft, taken image display method, and taken image display program
KR20210121424A (en) * 2020-03-30 2021-10-08 한국과학기술원 Method and apparatus for acquiring image of object

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0737065A (en) * 1993-07-23 1995-02-07 Asahi Koyo Kk Method and device for preparing development picture
JPH11187363A (en) * 1997-12-24 1999-07-09 Mitsubishi Electric Corp Mobile station video transmitting system
JPH11331831A (en) * 1998-05-15 1999-11-30 Mitsubishi Electric Corp Device for discriminating position on image
JP2001025002A (en) * 1999-07-07 2001-01-26 Mitsubishi Electric Corp Remote photographing system, photographing device and remote photographing method
JP2001292444A (en) * 2000-04-10 2001-10-19 Mitsubishi Electric Corp Image pickup system
JP2002034055A (en) * 2000-07-13 2002-01-31 Ryosuke Shibazaki Wide view angle multi-directional image acquiring apparatus and system for mobile unit
JP2002031528A (en) * 2000-07-14 2002-01-31 Asia Air Survey Co Ltd Space information generating device for mobile mapping
JP2002181534A (en) * 2000-12-11 2002-06-26 Koa:Kk Image data recorder for image surveying system
JP2002341755A (en) * 2001-05-16 2002-11-29 Mitsubishi Electric Corp Video display device
JP2003219252A (en) * 2002-01-17 2003-07-31 Starlabo Corp Photographing system using photographing device mounted on traveling object and photographing method
JP2003316259A (en) * 2002-02-25 2003-11-07 Mitsubishi Electric Corp Photography image processing method and system thereof

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0737065A (en) * 1993-07-23 1995-02-07 Asahi Koyo Kk Method and device for preparing development picture
JPH11187363A (en) * 1997-12-24 1999-07-09 Mitsubishi Electric Corp Mobile station video transmitting system
JPH11331831A (en) * 1998-05-15 1999-11-30 Mitsubishi Electric Corp Device for discriminating position on image
JP2001025002A (en) * 1999-07-07 2001-01-26 Mitsubishi Electric Corp Remote photographing system, photographing device and remote photographing method
JP2001292444A (en) * 2000-04-10 2001-10-19 Mitsubishi Electric Corp Image pickup system
JP2002034055A (en) * 2000-07-13 2002-01-31 Ryosuke Shibazaki Wide view angle multi-directional image acquiring apparatus and system for mobile unit
JP2002031528A (en) * 2000-07-14 2002-01-31 Asia Air Survey Co Ltd Space information generating device for mobile mapping
JP2002181534A (en) * 2000-12-11 2002-06-26 Koa:Kk Image data recorder for image surveying system
JP2002341755A (en) * 2001-05-16 2002-11-29 Mitsubishi Electric Corp Video display device
JP2003219252A (en) * 2002-01-17 2003-07-31 Starlabo Corp Photographing system using photographing device mounted on traveling object and photographing method
JP2003316259A (en) * 2002-02-25 2003-11-07 Mitsubishi Electric Corp Photography image processing method and system thereof

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016082441A (en) * 2014-10-17 2016-05-16 ソニー株式会社 Controller, control method and computer program
US10198003B2 (en) 2014-10-17 2019-02-05 Sony Corporation Control device, control method, and computer program
US11520334B2 (en) 2014-10-17 2022-12-06 Sony Corporation Control device, control method, and computer program
US11927960B2 (en) 2014-10-17 2024-03-12 Sony Group Corporation Control device, control method, and computer program
JP2017067834A (en) * 2015-09-28 2017-04-06 株式会社オプティム A taken image display device of unmanned aircraft, taken image display method, and taken image display program
KR20210121424A (en) * 2020-03-30 2021-10-08 한국과학기술원 Method and apparatus for acquiring image of object
KR102439142B1 (en) * 2020-03-30 2022-09-01 한국과학기술원 Method and apparatus for acquiring image of object

Also Published As

Publication number Publication date
JP4502793B2 (en) 2010-07-14

Similar Documents

Publication Publication Date Title
JP2006027331A (en) Method for collecting aerial image information by utilizing unmanned flying object
WO2004113836A1 (en) Picked-up image display method
JP2001025002A (en) Remote photographing system, photographing device and remote photographing method
TW593978B (en) Video picture processing method
JP2008304260A (en) Image processing device
KR102417591B1 (en) Drone equipped with on-board flight control computer and drone camera video object position coordinate acquisition system using the same
JPH07170443A (en) Overall image pickup device mounted on aircraft
WO2023029551A1 (en) Image stitching method and system based on multiple unmanned aerial vehicles
US11662727B2 (en) Wide-area motion imaging systems and methods
JP2019135605A (en) Video image display device and video image display method
JP6482855B2 (en) Monitoring system
JP6305579B1 (en) Imaging information generation apparatus, imaging information generation method, imaging apparatus, frame data search apparatus, and automatic tracking imaging system
CN115269718A (en) Millisecond data synchronization device and method for photoelectric pod
JP2001292444A (en) Image pickup system
JP2007241085A (en) Photographed image processing system and photographed image processing device, and photographed image display method
JP4502793B2 (en) Shooting video processing system
JP6412400B2 (en) Image composition apparatus and image composition program
JP3919994B2 (en) Shooting system
JP3527160B2 (en) Imaging instruction system, imaging instruction method, and recording medium
JP2003316259A (en) Photography image processing method and system thereof
JPH11187363A (en) Mobile station video transmitting system
JP2009118375A (en) Aerial photography device, aerial photographic system and image correction method of aerial photograph
JPH0737065A (en) Method and device for preparing development picture
Wu et al. Geo-registration and mosaic of UAV video for quick-response to forest fire disaster
KR101323099B1 (en) Device of generating Mosaic images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090804

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100413

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100420

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130430

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130430

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140430

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees