JP2001292444A - Image pickup system - Google Patents

Image pickup system

Info

Publication number
JP2001292444A
JP2001292444A JP2000108449A JP2000108449A JP2001292444A JP 2001292444 A JP2001292444 A JP 2001292444A JP 2000108449 A JP2000108449 A JP 2000108449A JP 2000108449 A JP2000108449 A JP 2000108449A JP 2001292444 A JP2001292444 A JP 2001292444A
Authority
JP
Japan
Prior art keywords
information
unit
video
image
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000108449A
Other languages
Japanese (ja)
Inventor
Shigehiko Watabe
重彦 渡部
Masamitsu Saito
正光 斉藤
Tetsuji Naoi
哲二 直井
Toshiaki Tsutsui
俊明 筒井
Shinji Kanbara
信治 蒲原
Yukio Masuda
幸雄 増田
Yukio Tanaka
行男 田中
Yasuhisa Shicchi
保久 志智
Ushio Inoue
潮 井上
Koji Miyajima
耕治 宮島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
NTT Data Group Corp
Original Assignee
NTT Data Corp
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Data Corp, Mitsubishi Electric Corp filed Critical NTT Data Corp
Priority to JP2000108449A priority Critical patent/JP2001292444A/en
Publication of JP2001292444A publication Critical patent/JP2001292444A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image pickup system that can easily grasp a district name of video information sent from a flying body. SOLUTION: A main control section 14 of the flying body 1 calculates a position of a video image photographed by a camera section 11, a position information superimposing section 15a superimposes video image position information onto video information from the camera section 11. A position information extract section 23a of a base station 2 extracts the video image position information and the video information, a character information generating section 25a references two-dimensional map information on the basis of the video image position information, and outputs the character information of the video image position information a character information addition section 26a outputs the video information from the position information extract section 23a and the character information of the video position from the character information generating section 25a synchronously with each other.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、飛行体により撮
影した映像情報を基地局に送信し、基地局で映像情報を
モニタする撮影システムに関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an imaging system for transmitting video information captured by a flying object to a base station and monitoring the video information at the base station.

【0002】[0002]

【従来の技術】地震、火災、台風、津波等の大規模な災
害が発生した場合に、その災害を最小限に抑えるには、
災害の状況を迅速かつ正確に把握して、適切な対策を施
すことが必要である。図11は特開平10−25747
4号公報に開示されている従来の撮影システムの概要構
成を示す図であり、図において、1はヘリコプター等の
飛行体、2は災害情報の送信を要求する基地局、3は飛
行体1に搭載され災害地点の目標物を撮影する撮影装置
である。
2. Description of the Related Art When a large-scale disaster such as an earthquake, a fire, a typhoon, and a tsunami occurs, to minimize the disaster,
It is necessary to grasp the disaster situation quickly and accurately and take appropriate measures. FIG. 11 shows Japanese Patent Application Laid-Open No. H10-25747.
FIG. 1 is a diagram showing a schematic configuration of a conventional photographing system disclosed in Japanese Patent Application Publication No. 4 (1994), wherein 1 is a flying object such as a helicopter, 2 is a base station which requests transmission of disaster information, and 3 is an flying object. It is an imaging device that is mounted and shoots an object at a disaster point.

【0003】また、図11において、L1は、基地局2
と飛行体1との間の音声信号を伝送したり、撮影装置3
に対する撮影指示情報やその応答情報を伝送する第1無
線チャネルであり、L2は、撮影装置3が撮影した映像
情報を、その撮影条件と共に基地局2に伝送する第2チ
ャネルである。
[0003] In FIG. 11, L1 is a base station 2
Transmitting an audio signal between the camera and the flying object 1 and the photographing device 3
L2 is a second channel for transmitting video information captured by the imaging device 3 to the base station 2 together with its imaging conditions.

【0004】次に動作について説明する。大規模な災害
が発生すると、災害情報の要求元である基地局2は、第
1無線チャネルL1を使用して、ビデオカメラ等の撮影
装置3を搭載した飛行体1に、撮影対象位置等を音声で
指示すると共に、撮影装置3の撮影条件を指示する撮影
指示情報を送信することにより撮影装置3を遠隔制御す
る。
Next, the operation will be described. When a large-scale disaster occurs, the base station 2 that has requested the disaster information uses the first wireless channel L1 to place the shooting target position and the like on the flying object 1 equipped with the shooting device 3 such as a video camera. The image capturing device 3 is remotely controlled by transmitting the image capturing instruction information for instructing the image capturing condition of the image capturing device 3 together with the voice instruction.

【0005】基地局2から撮影対象位置と撮影条件を指
示された撮影装置3は、指示された撮影対象位置の上空
撮影を行い、第2無線チャネルL2を使用して、撮影し
た映像情報を災害情報の要求元である基地局2に送信す
る。基地局2では、撮影装置3から受信した映像情報を
モニタして災害状況を把握する。また、送信された映像
情報で災害状況を把握できないときは、第1無線チャネ
ルL1を使用して、音声で指示すると共に、撮影装置3
を遠隔制御し新たな映像情報を入手する。
[0005] The photographing apparatus 3 instructed by the base station 2 on the photographing target position and the photographing conditions performs aerial photographing of the specified photographing target position, and uses the second wireless channel L2 to transfer the photographed video information to the disaster. The information is transmitted to the base station 2 that has requested the information. The base station 2 monitors the video information received from the photographing device 3 to grasp the disaster situation. When it is not possible to grasp the disaster situation from the transmitted video information, the first radio channel L1 is used to give an instruction by voice, and the photographing device 3 is used.
And remotely obtain new video information.

【0006】[0006]

【発明が解決しようとする課題】従来の撮影システムは
以上のように構成されているので、飛行体1から送信さ
れた映像情報について、基地局2のオペレータがその地
域の風景を知らない場合には、どの地域の映像情報であ
るかを確認するのが困難で、撮影箇所の指示や飛行ルー
トの指示を的確に実施するのが困難であるという課題が
あった。
Since the conventional photographing system is configured as described above, the image information transmitted from the flying vehicle 1 is not used by the operator of the base station 2 when the operator does not know the scenery of the area. However, there is a problem that it is difficult to confirm which region the image information is, and it is difficult to accurately give an instruction of a shooting location and an instruction of a flight route.

【0007】この発明は上記のような課題を解決するた
めになされたもので、基地局2のオペレータがその地域
の風景を知らない場合にも、飛行体1から送信された映
像情報の地域名を容易に把握でき、撮影箇所の指示や飛
行ルートの指示を的確に実施することができる撮影シス
テムを得ることを目的とする。
[0007] The present invention has been made to solve the above-described problem. Even when the operator of the base station 2 does not know the scenery of the area, the area name of the video information transmitted from the flying object 1 can be obtained. It is an object of the present invention to obtain a photographing system capable of easily grasping an image and accurately executing a photographing location instruction and a flight route instruction.

【0008】[0008]

【課題を解決するための手段】この発明に係る撮影シス
テムは、飛行体により撮影した映像情報を基地局に送信
し、基地局で映像情報をモニタするものにおいて、上記
飛行体が、撮影した映像情報と撮影した際の方向制御情
報/ズーム比を出力するカメラ部と、GPS衛星からの
電波により上記飛行体の位置/姿勢情報を検出する位置
/姿勢検出部と、3次元地図データを記憶している3次
元地図データ部と、上記カメラ部が出力した方向制御情
報/ズーム比と、上記位置/姿勢検出部により検出され
た上記飛行体の位置/姿勢情報とを関連づけ、上記3次
元地図データ部が記憶している3次元地図データに基づ
き、上記カメラ部が撮影している映像位置を算出し、算
出した映像位置情報と、上記飛行体の位置/姿勢情報と
上記カメラ部が出力した方向制御情報/ズーム比等の撮
影条件とを出力する主制御部と、上記カメラ部が撮影し
た映像情報に、上記主制御部が出力した映像位置情報と
撮影条件とを重畳する位置情報重畳部と、上記位置情報
重畳部が重畳した映像情報と映像位置情報と撮影条件と
を上記基地局に送信する無線送信部とを備え、上記基地
局が、上記無線送信部より、重畳されている映像情報と
映像位置情報と撮影条件とを受信する無線受信部と、上
記無線受信部が受信した、重畳されている映像位置情報
と映像情報と撮影条件から、映像位置情報と映像情報を
抽出して出力する位置情報抽出部と、2次元の地図情報
を記憶している地図情報データベース部と、上記位置情
報抽出部が出力した映像位置情報により、上記地図情報
データベース部に記憶されている2次元の地図情報を参
照し、地域名称である映像位置の文字情報に変換して出
力する文字情報発生部と、上記位置情報抽出部が出力し
た映像情報を所定の時間だけ遅延させることにより、上
記文字情報発生部が出力した映像位置の文字情報に同期
させ、映像情報に映像位置の文字情報を付加して出力す
る文字情報付加部と、上記文字情報付加部が出力した映
像情報と映像位置の文字情報とを表示するモニタ部とを
備えたものである。
A photographing system according to the present invention transmits image information photographed by a flying object to a base station and monitors the image information at the base station. A camera unit for outputting information and direction control information / zoom ratio at the time of shooting, a position / posture detection unit for detecting the position / posture information of the flying object by radio waves from GPS satellites, and storing three-dimensional map data. The three-dimensional map data part, the direction control information / zoom ratio output by the camera part, and the position / posture information of the flying object detected by the position / posture detection part, and the three-dimensional map data Based on the three-dimensional map data stored in the camera unit, the camera unit calculates the image position photographed by the camera unit, and outputs the calculated image position information, the position / posture information of the flying object, and the camera unit. A main control unit for outputting the obtained directional control information / photographing conditions such as a zoom ratio; and position information superimposition for superimposing the image position information output by the main control unit and the photographing conditions on the video information photographed by the camera unit. And a wireless transmission unit that transmits the video information, the video position information, and the shooting condition superimposed by the position information superimposition unit to the base station, and the base station is superimposed by the wireless transmission unit. A wireless receiving unit that receives the video information, the video position information, and the shooting conditions; and extracts the video position information and the video information from the superimposed video position information, the video information, and the shooting conditions received by the wireless receiving unit. A position information extracting unit that outputs the position information, a map information database unit that stores two-dimensional map information, and the image position information that is stored in the map information database unit based on the video position information output by the position information extracting unit. With reference to the original map information, a character information generating unit that converts and outputs the character information of the image position as a region name and outputs the image information output by the position information extracting unit by a predetermined time, A character information adding unit that synchronizes with the character information of the video position output by the character information generating unit, adds the character information of the video position to the video information, and outputs the video information. And a monitor for displaying character information.

【0009】この発明に係る撮影システムは、文字情報
付加部が、位置情報抽出部からの映像情報を、文字情報
発生部の処理時間だけ遅延させるものである。
In the photographing system according to the present invention, the character information adding section delays the video information from the position information extracting section by the processing time of the character information generating section.

【0010】この発明に係る撮影システムは、飛行体に
より撮影した映像情報を基地局に送信し、基地局で映像
情報をモニタするものにおいて、上記飛行体が、撮影し
た映像情報と撮影した際の方向制御情報/ズーム比を出
力するカメラ部と、GPS衛星からの電波により上記飛
行体の位置/姿勢情報を検出する位置/姿勢検出部と、
3次元地図データを記憶している3次元地図データ部
と、上記カメラ部が出力した方向制御情報/ズーム比
と、上記位置/姿勢検出部により検出された上記飛行体
の位置/姿勢情報とを関連づけ、上記3次元地図データ
部が記憶している3次元地図データに基づき、上記カメ
ラ部が撮影している映像位置を算出し、算出した映像位
置情報と、上記飛行体の位置/姿勢情報と上記カメラ部
が出力した方向制御情報/ズーム比等の撮影条件とを出
力する主制御部と、上記カメラ部が撮影した映像情報
に、上記主制御部が出力した映像位置情報と撮影条件と
を重畳する位置情報重畳部と、上記位置情報重畳部が重
畳した映像情報と映像位置情報と撮影条件とを上記基地
局に送信する無線送信部とを備え、上記基地局が、上記
無線送信部より、重畳されている映像情報と映像位置情
報と撮影条件とを受信する無線受信部と、上記無線受信
部が受信した、重畳されている映像位置情報と映像情報
と撮影条件から、映像位置情報と映像情報を抽出し、映
像位置情報を出力すると共に、映像情報に映像位置情報
を付加して出力する位置情報抽出部と、2次元の地図情
報を記憶している地図情報データベース部と、上記位置
情報抽出部が出力した映像位置情報により、上記地図情
報データベース部に記憶されている2次元の地図情報を
参照し、地域名称である映像位置の文字情報に変換し、
変換した映像位置の文字情報に映像位置情報を付加して
出力する文字情報発生部と、上記位置情報抽出部からの
映像情報に付加された映像位置情報と、上記文字情報発
生部からの映像位置の文字情報に付加された映像位置情
報とに基づき、上記位置情報抽出部からの映像情報と、
上記文字情報発生部からの映像位置の文字情報を同期さ
せ、映像情報に映像位置の文字情報を付加して出力する
文字情報付加部と、上記文字情報付加部が出力した映像
情報と映像位置の文字情報とを表示するモニタ部とを備
えたものである。
A photographing system according to the present invention transmits image information photographed by a flying object to a base station, and monitors the image information at the base station. A camera unit that outputs direction control information / zoom ratio, a position / posture detection unit that detects position / posture information of the flying object by radio waves from GPS satellites,
The three-dimensional map data section storing the three-dimensional map data, the direction control information / zoom ratio output by the camera section, and the position / posture information of the flying object detected by the position / posture detection section. Associating, based on the three-dimensional map data stored in the three-dimensional map data part, a video position taken by the camera part is calculated, and the calculated video position information and the position / posture information of the flying object are calculated. A main control unit for outputting the directional control information output by the camera unit / photographing conditions such as a zoom ratio; and video position information and a photographic condition output by the main control unit to video information photographed by the camera unit. A position information superimposing unit for superimposing, and a wireless transmission unit that transmits the image information, the image position information, and the shooting condition superimposed by the position information superimposition unit to the base station, wherein the base station is Superimposed A wireless receiving unit that receives the video information, the video position information, and the shooting conditions, and the video position information and the video information from the superimposed video position information, the video information, and the shooting conditions received by the wireless receiving unit. A position information extracting unit for extracting and outputting image position information, and adding the image position information to the image information and outputting the image information; a map information database unit storing two-dimensional map information; Refers to the two-dimensional map information stored in the map information database unit based on the video position information output by
A character information generator for adding the video position information to the converted video position text information and outputting the video information; a video position information added to the video information from the position information extractor; and a video position from the character information generator. Based on the video position information added to the character information, video information from the position information extraction unit,
A character information adding unit that synchronizes the character information of the image position from the character information generating unit, adds the character information of the image position to the image information and outputs the image information, and a character information adding unit that outputs the image information and the image position output by the character information adding unit. And a monitor for displaying character information.

【0011】この発明に係る撮影システムは、飛行体に
より撮影した映像情報を基地局に送信し、基地局で映像
情報をモニタするものにおいて、上記飛行体が、撮影し
た映像情報と撮影した際の方向制御情報/ズーム比を出
力するカメラ部と、GPS衛星からの電波により上記飛
行体の位置/姿勢情報を検出する位置/姿勢検出部と、
3次元地図データを記憶している3次元地図データ部
と、上記カメラ部が出力した方向制御情報/ズーム比
と、上記位置/姿勢検出部により検出された上記飛行体
の位置/姿勢情報とを関連づけ、上記3次元地図データ
部が記憶している3次元地図データに基づき、上記カメ
ラ部が撮影している映像位置を算出し、算出した映像位
置情報と、上記飛行体の位置/姿勢情報と上記カメラ部
が出力した方向制御情報/ズーム比等の撮影条件とを出
力する主制御部と、上記カメラ部が撮影した映像情報
と、上記主制御部が出力した映像位置情報それぞれに循
環係数を付加し、循環係数が付加された映像情報に、循
環係数が付加された映像位置情報と、撮影条件とを重畳
する位置情報重畳部と、上記位置情報重畳部が重畳し
た、循環係数が付加された映像情報と、循環係数が付加
された映像位置情報と、撮影条件とを上記基地局に送信
する無線送信部とを備え、上記基地局が、上記無線送信
部より、重畳されている循環係数が付加された映像情報
と、循環係数が付加された映像位置情報と、撮影条件と
を受信する無線受信部と、上記無線受信部が受信した、
重畳されている循環係数が付加された映像情報と、循環
係数が付加された映像位置情報と、撮影条件から、循環
係数が付加された映像情報と、循環係数が付加された映
像位置情報を抽出して出力する位置情報抽出部と、2次
元の地図情報を記憶している地図情報データベース部
と、上記位置情報抽出部が出力した循環係数が付加され
た映像位置情報により、上記地図情報データベース部に
記憶されている2次元の地図情報を参照し、地域名称で
ある映像位置の文字情報に変換し、変換した映像位置の
文字情報に循環係数を付加して出力する文字情報発生部
と、上記位置情報抽出部からの映像情報に付加された循
環係数と、上記文字情報発生部からの映像位置の文字情
報に付加された循環係数とに基づき、上記位置情報抽出
部からの映像情報と、上記文字情報発生部からの映像位
置の文字情報を同期させ、映像情報に映像位置の文字情
報を付加して出力する文字情報付加部と、上記文字情報
付加部が出力した映像情報と映像位置の文字情報とを表
示するモニタ部とを備えたものである。
[0011] A photographing system according to the present invention transmits image information photographed by a flying object to a base station and monitors the image information at the base station. A camera unit that outputs direction control information / zoom ratio, a position / posture detection unit that detects position / posture information of the flying object by radio waves from GPS satellites,
The three-dimensional map data section storing the three-dimensional map data, the direction control information / zoom ratio output by the camera section, and the position / posture information of the flying object detected by the position / posture detection section. Associating, based on the three-dimensional map data stored in the three-dimensional map data part, a video position taken by the camera part is calculated, and the calculated video position information and the position / posture information of the flying object are calculated. A main control unit for outputting the directional control information output by the camera unit / photographing conditions such as zoom ratio; a video information captured by the camera unit; and a circulation coefficient for each of the video position information output by the main control unit. In addition to the image information to which the cyclic coefficient has been added, a position information superimposing unit that superimposes the image position information to which the cyclic coefficient has been added and the shooting condition, and a cyclic coefficient that is superimposed by the position information superimposing unit. Was Image information, image position information to which a cyclic coefficient is added, and a wireless transmission unit that transmits shooting conditions to the base station, wherein the base station, from the wireless transmission unit, the cyclic coefficient superimposed The added video information, the video position information to which the cyclic coefficient is added, and a wireless receiving unit that receives the shooting conditions, and the wireless receiving unit receives
From the superimposed video information to which the cyclic coefficient has been added, the video position information to which the cyclic coefficient has been added, and the shooting conditions, the video information to which the cyclic coefficient has been added and the video position information to which the cyclic coefficient has been added are extracted. The map information database unit stores the two-dimensional map information, the map information database unit storing the two-dimensional map information, and the image position information to which the cyclic coefficient output by the position information extraction unit is added. A character information generating unit for referring to the two-dimensional map information stored in the character information, converting the character information of the image position as the area name, adding a cyclic coefficient to the converted character information of the image position, and outputting the character information; Based on the circulation coefficient added to the video information from the position information extraction unit and the circulation coefficient added to the character information of the video position from the character information generation unit, the video information from the position information extraction unit A character information adding unit that synchronizes the character information of the image position from the character information generating unit, adds the character information of the image position to the image information and outputs the image information, and a character information adding unit that outputs the image information and the image position output by the character information adding unit. And a monitor for displaying character information.

【0012】この発明に係る撮影システムは、位置情報
重畳部が映像情報と映像位置情報に付加する循環係数
が、所定数nまで循環する整数であり、上記所定数nは
文字情報発生部で発生する処理遅延時間に伝送されるフ
レーム数に比べて大きな数であるものである。
In the photographing system according to the present invention, the circulation coefficient added to the image information and the image position information by the position information superimposing unit is an integer circulating up to a predetermined number n, and the predetermined number n is generated by the character information generation unit. This is larger than the number of frames transmitted during the processing delay time.

【0013】この発明に係る撮影システムは、主制御部
が、映像位置情報として、撮影中央地点の緯度/経度
と、撮影範囲の緯度/経度を出力するものである。
In the photographing system according to the present invention, the main control section outputs, as image position information, a latitude / longitude of a photographing central point and a latitude / longitude of a photographing range.

【0014】この発明に係る撮影システムは、無線伝送
方式としてアナログ方式を使用する場合に、位置情報重
畳部が、カメラ部により撮影された映像情報に、主制御
部からの映像位置情報と撮影条件とを、映像情報におけ
る映像信号が使用されていない部分に重畳して出力する
ものである。
In the photographing system according to the present invention, when the analog system is used as the wireless transmission system, the position information superimposing section adds the image position information from the main control section to the image information photographed by the camera section and the photographing condition. Are superimposed on a portion of the video information where the video signal is not used and output.

【0015】この発明に係る撮影システムは、無線伝送
方式としてデジタル方式を使用する場合に、位置情報重
畳部が、カメラ部により撮影された映像情報と、主制御
部からの映像位置情報と撮影条件とをデジタル多重して
出力するものである。
In a photographing system according to the present invention, when a digital system is used as a wireless transmission system, the position information superimposing section includes: image information photographed by the camera section; image position information from the main control section; Are digitally multiplexed and output.

【0016】この発明に係る撮影システムは、飛行体
が、位置情報重畳部から出力された映像情報と映像位置
情報と撮影条件を記録し再生する記録再生部を備えたも
のである。
In the photographing system according to the present invention, the flying object includes a recording / reproducing unit for recording and reproducing the video information, the video position information, and the photographing conditions output from the position information superimposing unit.

【0017】この発明に係る撮影システムは、記録再生
部が映像情報と映像位置情報と撮影条件とを再生し、主
制御部が、再生された撮影条件から、飛行体の位置/姿
勢情報とカメラ部の方向制御情報/ズーム比を求め、上
記主制御部により求められた飛行体の位置/姿勢情報に
基づき、飛行体の操縦支援を行う操縦支援部を備え、カ
メラ部が上記主制御部により求められた方向制御情報/
ズーム比に基づき撮影するものである。
In the photographing system according to the present invention, the recording / reproducing section reproduces the video information, the video position information, and the photographing conditions, and the main control section reproduces the position / posture information of the flying object and the camera from the reproduced photographing conditions. A control support unit that obtains the direction control information / zoom ratio of the unit, and based on the position / posture information of the flying object obtained by the main control unit, provides a control operation of the flying object, and the camera unit is controlled by the main control unit. Required direction control information /
The photographing is performed based on the zoom ratio.

【0018】この発明に係る撮影システムは、基地局
が、文字情報付加部が出力した映像位置の文字情報を音
声信号に変換して出力する音声変換部と、上記音声変換
部が出力した音声信号を音声に変換するスピーカとを備
えたものである。
[0018] In the photographing system according to the present invention, the base station converts the character information at the video position output by the character information adding section into an audio signal and outputs the audio signal, and the audio signal output by the audio conversion section. And a speaker that converts the sound into a sound.

【0019】この発明に係る撮影システムは、音声変換
部が出力した音声信号を飛行体に送信するものである。
The photographing system according to the present invention transmits the sound signal output from the sound conversion unit to the flying object.

【0020】[0020]

【発明の実施の形態】以下、この発明の実施の一形態を
説明する。 実施の形態1.図1はこの発明の実施の形態1による撮
影システムの構成を示す図である。図において、1は目
標物を撮影するために飛行するヘリコプター等の飛行
体、2は飛行体1から送信された映像情報をモニタする
基地局である。11は撮影した映像情報と撮影した際の
カメラの方向制御情報/ズーム比を出力するカメラ部、
12は、GPS(Global Positionin
g System)衛星からの電波により、飛行体1の
位置、高度、方向等の位置情報と、ピッチ、ロール等の
姿勢情報を検出する位置/姿勢検出部、13は3次元地
図データを記憶している3次元地図データ部である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below. Embodiment 1 FIG. FIG. 1 is a diagram showing a configuration of an imaging system according to Embodiment 1 of the present invention. In the figure, reference numeral 1 denotes a flying object such as a helicopter or the like that flies to photograph a target, and 2 denotes a base station that monitors video information transmitted from the flying object 1. A camera unit 11 for outputting video information of the shot and direction control information / zoom ratio of the camera at the time of shooting;
12 is GPS (Global Positionin)
g System) A position / posture detection unit that detects position information such as the position, altitude, and direction of the flying object 1 and posture information such as a pitch and a roll by radio waves from a satellite, and 13 stores three-dimensional map data. 3D map data section.

【0021】また、図1において、14は、カメラ部1
1からの方向制御情報/ズーム比と、位置/姿勢検出部
12からの位置/姿勢情報とを関連づけ、3次元地図デ
ータ部13が記憶している3次元地図データに基づき、
カメラ部11が撮影している映像位置を示す映像位置情
報を算出し、算出した映像位置情報を出力すると共に、
カメラ部11からの方向制御情報/ズーム比と、位置/
姿勢検出部12からの位置/姿勢情報等の撮影条件を出
力する主制御部である。15aは、カメラ部11が撮影
した映像情報に、主制御部14からの映像位置情報、撮
影条件を重畳して出力する位置情報重畳部である。
In FIG. 1, reference numeral 14 denotes a camera unit 1.
1. The direction control information / zoom ratio from 1 and the position / posture information from the position / posture detection unit 12 are associated with each other, based on the three-dimensional map data stored in the three-dimensional map data unit 13.
Image position information indicating the image position where the camera unit 11 is shooting is calculated, and the calculated image position information is output.
Direction control information from the camera unit 11 / zoom ratio and position /
It is a main control unit that outputs shooting conditions such as position / posture information from the posture detection unit 12. Reference numeral 15a denotes a position information superimposition unit that superimposes the image position information from the main control unit 14 and the photographing conditions on the image information photographed by the camera unit 11 and outputs the resulting information.

【0022】さらに、図1において、16は、位置情報
重畳部15aが出力した映像情報、映像位置情報、撮影
条件を記録し再生する記録再生部、17は、位置情報重
畳部15aが出力した映像情報、映像位置情報、撮影条
件を基地局2に送信する無線送信部、18は、記録再生
部16が記憶している撮影条件である飛行体1の位置/
姿勢情報に基づき、飛行体1の自動誘導支援を行う操縦
支援部である。
Further, in FIG. 1, reference numeral 16 denotes a recording / reproducing unit for recording and reproducing the video information, video position information, and photographing conditions output by the position information superimposing unit 15a, and 17 denotes an image output by the position information superimposing unit 15a. The wireless transmission unit 18 for transmitting the information, the video position information, and the shooting conditions to the base station 2 includes a position / position of the flying object 1 which is the shooting conditions stored in the recording / reproducing unit 16.
A steering support unit that performs automatic guidance support for the flying object 1 based on the attitude information.

【0023】カメラ部11,位置/姿勢検出部12,3
次元地図データ部13,主制御部14,位置情報重畳部
15a,記録再生部16,無線送信部17,操縦支援部
18は、飛行体1に搭載されている。
Camera section 11, position / posture detecting sections 12, 3
The three-dimensional map data unit 13, the main control unit 14, the position information superimposing unit 15a, the recording / reproducing unit 16, the wireless transmission unit 17, and the operation support unit 18 are mounted on the flying object 1.

【0024】さらに、図1において、21は、飛行体1
の無線送信部17より送信された映像情報、映像位置情
報、撮影条件を受信する無線受信部、22は、無線受信
部21が受信した映像情報、映像位置情報、撮影条件を
記録し再生する記録再生部、23aは、無線受信部21
が受信した、又は記録再生部22が再生した、重畳され
ている映像情報と映像位置情報と撮影条件から、映像情
報と映像位置情報を抽出して出力する位置情報抽出部で
ある。
Further, in FIG. 1, reference numeral 21 denotes the flying object 1
The wireless receiving unit 22 receives the video information, the video position information, and the shooting condition transmitted from the wireless transmitting unit 17. The recording unit 22 records and reproduces the video information, the video position information, and the shooting condition received by the wireless receiving unit 21. The reproducing unit 23a is a wireless receiving unit 21
Is a position information extracting unit that extracts and outputs the video information and the video position information from the superimposed video information, the video position information, and the shooting conditions that are received or reproduced by the recording / reproducing unit 22.

【0025】さらに、図1において、24は2次元の地
図情報を記憶している地図情報データベース部、25a
は、位置情報抽出部23aが出力した映像位置情報を、
地図情報データベース部24に記憶されている2次元の
地図情報を参照して、地域名称である映像位置の文字情
報に変換して出力する文字情報発生部、26aは、位置
情報抽出部23aが出力した映像情報を所定の時間だけ
遅延させることにより、文字情報発生部25aが出力し
た映像位置の文字情報に同期させ、映像情報に映像位置
の文字情報を付加して出力する文字情報付加部、27は
文字情報付加部26aが出力した映像情報と映像位置の
文字情報とを表示するモニタ部である。
Further, in FIG. 1, reference numeral 24 denotes a map information database unit storing two-dimensional map information;
Represents the video position information output by the position information extraction unit 23a,
The character information generating unit 26a that converts the character information of the video position as the area name with reference to the two-dimensional map information stored in the map information database unit 24 and outputs the character information, 26a is output by the position information extracting unit 23a. A character information adding unit that adds the character information of the video position to the video information and outputs the video information by synchronizing with the character information of the video position output by the character information generating unit 25a by delaying the generated video information by a predetermined time; A monitor unit displays the video information output by the text information adding unit 26a and the text information of the video position.

【0026】無線受信部21,記録再生部22,位置情
報抽出部23a,地図情報データベース部24,文字情
報発生部25a,文字情報付加部26a,モニタ部27
は、基地局2に設置されている。
Radio receiving unit 21, recording / reproducing unit 22, position information extracting unit 23a, map information database unit 24, character information generating unit 25a, character information adding unit 26a, monitor unit 27
Are installed in the base station 2.

【0027】次に動作について説明する。位置/姿勢検
出部12は、飛行体1の飛行中に、GPS衛星からの電
波により飛行体1の位置、高度、方向等の位置情報と、
飛行体1のピッチ、ロール等の姿勢情報を検出してい
る。カメラ部11は、飛行体1の飛行に伴い撮影してい
る映像情報を位置情報重畳部15aに出力すると共に、
撮影した際のカメラの方向制御情報/ズーム比を主制御
部14に出力する。
Next, the operation will be described. The position / posture detection unit 12 transmits position information such as the position, altitude, and direction of the flying object 1 by radio waves from GPS satellites while the flying object 1 is flying,
Attitude information such as the pitch and roll of the flying object 1 is detected. The camera unit 11 outputs the video information captured with the flight of the flying object 1 to the position information superimposing unit 15a,
The camera direction control information / zoom ratio at the time of shooting is output to the main control unit 14.

【0028】図2は主制御部14が算出する映像位置情
報を説明する図である。主制御部14は、特許第269
5393号公報(特開平8−285590号公報)の
「位置特定方法および装置」に示されている原理に基づ
き、カメラ部11が現在撮影している2次元地図上の撮
影中央地点の緯度/経度を算出し、算出された撮影中央
地点の緯度/経度とカメラ部11からのカメラの方向制
御情報/ズーム比から撮影範囲の緯度/経度を算出し、
図2に示すように、撮影中央地点の緯度/経度と撮影範
囲の緯度/経度を映像位置情報として位置情報重畳部1
5aに出力する。
FIG. 2 is a view for explaining image position information calculated by the main control unit 14. The main control unit 14 is disclosed in Japanese Patent No. 269
No. 5393 (Japanese Unexamined Patent Publication No. Hei 8-285590), the latitude / longitude of the center point of the photographing center on the two-dimensional map currently photographed by the camera unit 11 based on the principle shown in “Position Identifying Method and Apparatus”. Is calculated, and the latitude / longitude of the photographing range is calculated from the calculated latitude / longitude of the photographing central point and the camera direction control information / zoom ratio from the camera unit 11.
As shown in FIG. 2, the latitude / longitude of the shooting center and the latitude / longitude of the shooting range are used as video position information as the position information superimposing unit 1.
Output to 5a.

【0029】図3は上記公報に示された位置特定方法の
原理を説明する図である。飛行体1に搭載されたカメラ
部11により撮影している撮影中央地点31を2次元地
図上で特定するときに、撮影中央地点31が2次元平面
33から高度Hの高さの地表面32上に存在する場合に
は、撮影中央地点31の2次元地図上の位置を、撮影中
央地点31を2次元平面33に投影した投影位置35と
判断せずに、カメラ部11から撮影中央地点31までの
直線Lを2次元平面33まで延長した延長交点34と判
断してしまうことにより、投影位置35と延長交点34
との距離の差Eだけの誤差が生じてしまう。しかし、こ
の位置特定方法では、撮影中央地点31の高度Hの情報
を使用し、撮影中央地点31の2次元地図上の位置を投
影位置35と正確に特定している。
FIG. 3 is a diagram for explaining the principle of the position specifying method disclosed in the above publication. When the photographing central point 31 photographed by the camera unit 11 mounted on the flying object 1 is specified on the two-dimensional map, the photographing central point 31 is located on the ground surface 32 at a height H from the two-dimensional plane 33. , The position of the photographing central point 31 on the two-dimensional map is not determined as the projection position 35 of projecting the photographing central point 31 on the two-dimensional plane 33, and the position from the camera unit 11 to the photographing central point 31 is determined. Is determined to be the extended intersection 34 extending to the two-dimensional plane 33, the projection position 35 and the extended intersection 34
An error equal to the difference E in the distance. However, in this position identification method, the position of the imaging central point 31 on the two-dimensional map is accurately identified as the projection position 35 using the information of the altitude H of the imaging central point 31.

【0030】すなわち、主制御部14は、位置/姿勢検
出部12から得られるその時点の飛行体1の位置/姿勢
情報と、カメラ部11からの方向制御情報より、カメラ
部11の3次元の空間的な向きを示す視軸方向を求め、
求めた視軸方向情報と、飛行体1の緯度、経度、高度等
の位置情報と、3次元地図データ部13が記憶している
地表面の高度を含む3次元地図データから、図3に示す
視軸方向の延長線Lと地表面32との交点である撮影中
央地点31の高度を求めて、投影位置35,すなわち撮
影中央地点31の緯度/経度を算出する。
That is, the main control unit 14 determines the three-dimensional position of the camera unit 11 based on the position / posture information of the flying object 1 at that time obtained from the position / posture detection unit 12 and the direction control information from the camera unit 11. Find the visual axis direction that indicates the spatial orientation,
FIG. 3 shows the obtained visual axis direction information, the position information such as the latitude, longitude, and altitude of the flying object 1, and the three-dimensional map data including the ground surface altitude stored in the three-dimensional map data unit 13. The projection position 35, that is, the latitude / longitude of the shooting center point 31, is calculated by obtaining the altitude of the shooting center point 31, which is the intersection of the extension line L in the visual axis direction and the ground surface 32.

【0031】そして、主制御部14は、算出された撮影
中央地点の緯度/経度とカメラ部11からのカメラの方
向制御情報/ズーム比に基づき、撮影範囲の緯度/経度
を算出し、図2に示すように、撮影中央地点の緯度/経
度と、撮影範囲の緯度/経度を映像位置情報として、位
置情報重畳部15aに出力する。このとき、主制御部1
4は、カメラ部11からの方向制御情報/ズーム比と、
位置/姿勢検出部12からの位置/姿勢情報等の撮影条
件も位置情報重畳部15aに出力する。
Then, the main controller 14 calculates the latitude / longitude of the photographing range based on the calculated latitude / longitude of the photographing central point and the direction control information / zoom ratio of the camera from the camera unit 11, as shown in FIG. As shown in (1), the latitude / longitude of the shooting center and the latitude / longitude of the shooting range are output to the position information superimposing unit 15a as image position information. At this time, the main control unit 1
4 is the direction control information / zoom ratio from the camera unit 11;
The imaging conditions such as the position / posture information from the position / posture detection unit 12 are also output to the position information superposition unit 15a.

【0032】位置情報重畳部15aは、例えば、無線伝
送方式としてアナログ方式を使用する場合には、カメラ
部11が撮影した映像情報に、主制御部14からの映像
位置情報、撮影条件を、映像情報における映像信号が使
用されていない垂直帰線消去期間等に重畳して出力す
る。無線送信部17は、位置情報重畳部15aから出力
された映像情報、映像位置情報、撮影条件を基地局2に
送信する。また、記録再生部16は、位置情報重畳部1
5aから出力された映像情報、映像位置情報、撮影条件
を記録する。
For example, when the analog system is used as the wireless transmission system, the position information superimposing unit 15a adds the image position information from the main control unit 14 and the shooting conditions to the image information shot by the camera unit 11, The video signal is superimposed and output in a vertical blanking period or the like in which the video signal in the information is not used. The wireless transmission unit 17 transmits the video information, the video position information, and the shooting conditions output from the position information superimposition unit 15a to the base station 2. Further, the recording / reproducing unit 16 includes the position information superimposing unit 1.
The video information, video position information, and shooting conditions output from 5a are recorded.

【0033】基地局2の無線受信部21は、飛行体1の
無線送信部17より送信された、映像情報、映像位置情
報、撮影条件を受信し、記録再生部22は、無線受信部
21が受信した、映像情報、映像位置情報、撮影条件を
記録する。位置情報抽出部23aは、無線受信部21が
受信した、映像位置情報と撮影条件が重畳された映像情
報、又は記録再生部22から再生した、映像位置情報と
撮影条件が重畳された映像情報から、映像情報と映像位
置情報を抽出して出力する。
The radio receiving unit 21 of the base station 2 receives the video information, the video position information, and the photographing conditions transmitted from the radio transmitting unit 17 of the flying object 1. The received video information, video position information, and shooting conditions are recorded. The position information extracting unit 23a receives the video information in which the video position information and the photographing condition are superimposed on the video information received by the wireless receiving unit 21 or the video information in which the video position information and the photographing condition are superimposed and reproduced from the recording / reproducing unit 22. , And extracts and outputs video information and video position information.

【0034】文字情報発生部25aは、位置情報抽出部
23aが出力した映像位置情報により、地図情報データ
ベース部24に記憶されている2次元の地図情報を参照
し、緯度/経度で示した映像位置情報を、地域名称であ
る映像位置の文字情報に変換して出力する。すなわち、
文字情報発生部25aは、図2に示す撮影中央地点の緯
度/経度より、撮影中央地点の地域名称を検索して、そ
の映像位置の文字情報を出力すると共に、撮影範囲の緯
度/経度より、撮影範囲の地域名称を検索し、その映像
位置の文字情報を出力する。
The character information generating unit 25a refers to the two-dimensional map information stored in the map information database unit 24 based on the image position information output from the position information extracting unit 23a, and displays the image position indicated by latitude / longitude. The information is converted into character information of a video position as a region name and output. That is,
The character information generation unit 25a searches for the area name of the shooting center point from the latitude / longitude of the shooting center point shown in FIG. 2, outputs the character information of the video position, and outputs the character information of the video position. The area name of the shooting range is searched, and the character information of the video position is output.

【0035】文字情報付加部26aは、位置情報抽出部
23aが出力した映像情報を所定の時間だけ遅延させる
ことにより、文字情報発生部25aが出力した映像位置
の文字情報に同期させ、映像情報に地域名称の文字情報
を付加して出力する。
The character information adding section 26a delays the video information output from the position information extracting section 23a by a predetermined time, thereby synchronizing with the character information at the video position output from the character information generating section 25a, and The character information of the area name is added and output.

【0036】図4は映像情報と映像位置の文字情報との
同期を説明する図である。図において、「映(T)」、
「映(T+t)」は、それぞれ時刻T,T+tにおける
映像情報を示し、「位(T)」、「位(T+t)」は、
それぞれ時刻T,T+tにおける映像位置情報を示し、
「文(T)」は時刻Tにおける映像位置の文字情報を示
している。
FIG. 4 is a diagram for explaining the synchronization between the video information and the character information at the video position. In the figure, "E (T)",
“Screen (T + t)” indicates video information at time T and T + t, respectively, and “place (T)” and “place (T + t)”
The video position information at time T and T + t, respectively, is shown.
“Sentence (T)” indicates character information of the video position at time T.

【0037】図4において、飛行体1から、時刻Tにお
ける映像情報「映(T)」と映像位置情報「位(T)」
は同期して送信されるが、位置情報抽出部23aで抽出
された映像位置情報「位(T)」を入力した文字情報発
生部25aは、地図情報データベース部24の参照と映
像位置の文字情報の出力等の処理に時間を要するため
に、映像位置の文字情報「文(T)」は、位置情報抽出
部23aで抽出された映像情報「映(T)」に対して時
間遅れが生じる。そのため、文字情報付加部26aは、
位置情報抽出部23aで出力された映像情報「映
(T)」を、文字情報発生部25aの処理に必要な所定
の時間だけ遅延させることにより、文字情報発生部25
aから出力された映像位置の文字情報「文(T)」と同
期を取り、映像情報「映(T)」に映像位置の文字情報
「文(T)」を付加して出力する。
In FIG. 4, from the flying object 1, the image information "image (T)" and the image position information "position (T)" at time T are shown.
Are transmitted in synchronization with each other, but the character information generating unit 25a having input the video position information “place (T)” extracted by the position information extracting unit 23a refers to the map information database unit 24 and transmits the character information of the video position. Since it takes time for processing such as output of the image information, the character information "text (T)" of the video position has a time delay with respect to the video information "image (T)" extracted by the position information extraction unit 23a. Therefore, the character information adding unit 26a
By delaying the video information "image (T)" output by the position information extracting unit 23a by a predetermined time necessary for the processing of the character information generating unit 25a, the character information generating unit 25a
The text information "text (T)" of the video position output from "a" is synchronized, and the text information "text (T)" of the video position is added to the video information "image (T)" and output.

【0038】モニタ部27は文字情報付加部26aが出
力した映像位置の文字情報入りの映像情報を表示する。
図5はモニタ部27が表示する映像位置の文字情報入り
の映像情報の例を示す図であり、映像情報と共に、撮影
中央地点の文字情報である地域名称と、撮影範囲の文字
情報である地域名称が表示されている。基地局2のオペ
レータは、モニタ部27に表示された地域名称が表示さ
れた映像をモニタすることにより、飛行体1のカメラ部
11により撮影された映像の地域名称を確認しながら、
撮影箇所の指示や飛行ルートの指示を行う。
The monitor section 27 displays the video information containing the text information at the video position output by the text information adding section 26a.
FIG. 5 is a diagram showing an example of video information containing text information of a video position displayed by the monitor unit 27. The video information is displayed together with a region name which is text information of a shooting center point and a region which is text information of a shooting range. The name is displayed. The operator of the base station 2 monitors the image on which the region name displayed on the monitor unit 27 is displayed, thereby confirming the region name of the image captured by the camera unit 11 of the flying object 1.
It gives instructions on the shooting location and flight route.

【0039】また、以前に撮影した地点を再度撮影する
際には、図1において、飛行体1の記録再生部16,又
は基地局2の記録再生部22で記録した記録媒体を、飛
行体1の記録再生部16で再生し、主制御部14が、位
置情報重畳部15aを介して再生された撮影条件を入力
する。主制御部14は、再生された撮影条件である飛行
体1の位置/姿勢情報を操縦支援部18に出力し、再生
された撮影条件である方向制御情報/ズーム比をカメラ
部11に出力する。操縦支援部18は位置/姿勢情報に
基づき飛行体1を自動操縦し、カメラ部11は方向制御
情報/ズーム比に基づき以前に撮影した地点を自動撮影
する。
When the previously photographed point is photographed again, the recording medium recorded by the recording / reproducing unit 16 of the flying object 1 or the recording / reproducing unit 22 of the base station 2 in FIG. The main control unit 14 inputs the photographing condition reproduced through the position information superimposing unit 15a. The main control unit 14 outputs the position / orientation information of the flying object 1 that is the reproduced photographing condition to the steering support unit 18, and outputs the direction control information / zoom ratio that is the reproduced photographing condition to the camera unit 11. . The steering support unit 18 automatically controls the flying object 1 based on the position / posture information, and the camera unit 11 automatically captures a previously captured point based on the direction control information / zoom ratio.

【0040】この実施の形態では、無線伝送方式として
アナログ方式を使用しているが、無線伝送方式としてデ
ジタル方式を使用しても良い。この場合には、位置情報
重畳部15aは、映像情報、映像位置情報、撮影条件を
デジタル多重して出力し、無線送信部17は映像位置情
報、撮影条件が多重された映像情報を基地局2に送信
し、記録再生部16は、映像位置情報、撮影条件が多重
された映像情報を記録する。そして、無線受信部21
は、映像位置情報、撮影条件が多重された映像情報を受
信し、記録再生部22は映像位置情報、撮影条件が多重
された映像情報を記録し、位置情報抽出部23aは、映
像位置情報が多重された映像情報から、映像位置情報と
映像情報を抽出して出力する。
In this embodiment, an analog system is used as a wireless transmission system, but a digital system may be used as a wireless transmission system. In this case, the position information superimposing unit 15a digitally multiplexes the image information, the image position information, and the photographing condition and outputs the result. The wireless transmission unit 17 transmits the image information in which the image position information and the photographing condition are multiplexed to the base station 2. The recording / reproducing unit 16 records the video position information and the video information in which the shooting conditions are multiplexed. Then, the wireless receiving unit 21
Receives the video information in which the video position information and the shooting conditions are multiplexed, the recording / reproducing unit 22 records the video position information and the video information in which the shooting conditions are multiplexed, and the position information extracting unit 23a outputs From the multiplexed video information, video position information and video information are extracted and output.

【0041】以上のように、この実施の形態1によれ
ば、飛行体1で撮影した映像情報と映像位置の文字情報
を同期させて表示することにより、基地局2のオペレー
タは、飛行体1が撮影している映像を、地域名称入りで
リアルタイムに確認することができ、撮影箇所の指示や
飛行ルートの指示を的確に行うことができるという効果
が得られる。
As described above, according to the first embodiment, by displaying the video information captured by the flying object 1 and the character information of the video position in synchronization with each other, the operator of the base station 2 can use the flying object 1 Can be confirmed in real time with the name of the region, and the effect of being able to accurately specify the shooting location and the flight route is obtained.

【0042】また、この実施の形態1によれば、文字情
報付加部26aが、位置情報抽出部23aからの映像情
報を所定の時間だけ遅延させて、文字情報発生部25a
からの映像位置の文字情報と同期を取ることにより、簡
便な方法で地域名称入り映像を表示させることができ、
地図情報データベース部24のデータベース容量が小さ
く、文字情報発生部25aでの処理時間に変動が小さい
場合に、装置全体を簡略化できるという効果が得られ
る。
Further, according to the first embodiment, the character information adding section 26a delays the video information from the position information extracting section 23a by a predetermined time so that the character information generating section 25a
By synchronizing with the text information of the video position from, it is possible to display the video with the area name in a simple way,
When the database capacity of the map information database unit 24 is small and the processing time in the character information generation unit 25a is small, the effect of simplifying the entire apparatus can be obtained.

【0043】さらに、この実施の形態1によれば、飛行
体1が記録再生部16を備えていることにより、飛行体
1と基地局2との間の無線通信環境が悪化し、無線通信
が不可能な場合に、記録再生部16が映像情報、映像位
置情報、撮影条件を記録しておき、撮影終了後に、基地
局2の記録再生部22により再生することにより、地域
名入りの映像を確認することができるという効果が得ら
れる。
Further, according to the first embodiment, since the flying object 1 includes the recording / reproducing unit 16, the wireless communication environment between the flying object 1 and the base station 2 is deteriorated, and the wireless communication becomes difficult. When it is not possible, the recording / reproducing unit 16 records the video information, the video position information, and the photographing conditions, and reproduces the video including the area name by the recording / reproducing unit 22 of the base station 2 after the photographing is completed. The effect of being able to confirm is obtained.

【0044】さらに、この実施の形態1によれば、再
度、同じ地点を撮影する場合に、記録再生部16又は記
録再生部22に記録されている撮影条件を利用し、飛行
体1の自動誘導及びカメラ部11の自動撮影を実施する
ことにより、以前に撮影した地点の再撮影を迅速かつ正
確に行うことができるという効果が得られる。
Further, according to the first embodiment, when the same point is photographed again, the automatic guidance of the flying object 1 is performed using the photographing conditions recorded in the recording / reproducing unit 16 or the recording / reproducing unit 22. In addition, by performing the automatic photographing by the camera unit 11, an effect is obtained that the photographing of the previously photographed point can be performed quickly and accurately.

【0045】さらに、この実施の形態1によれば、文字
情報付加部26aから出力された映像位置の文字情報を
含んだ映像情報を放送に利用することにより、視聴者に
対して地域名称の入った分かり易い映像を提供すること
ができるという効果が得られる。
Further, according to the first embodiment, the video information including the text information of the video position output from the text information adding section 26a is used for broadcasting, so that the viewer can enter the area name. This provides an effect that an easy-to-understand video can be provided.

【0046】実施の形態2.図6はこの発明の実施の形
態2による撮影システムの構成を示すブロック図であ
り、図において、23bは、無線受信部21が受信し
た、又は記録再生部22が再生した、重畳されている映
像情報と映像位置情報と撮影条件から、映像情報と映像
位置情報を抽出し、映像位置情報を出力すると共に、映
像情報に映像位置情報を付加して出力する位置情報抽出
部である。
Embodiment 2 FIG. 6 is a block diagram showing the configuration of a photographing system according to Embodiment 2 of the present invention. In the drawing, reference numeral 23b denotes a superimposed video received by the wireless receiving unit 21 or reproduced by the recording / reproducing unit 22. The position information extracting unit extracts the image information and the image position information from the information, the image position information, and the shooting conditions, outputs the image position information, and adds the image position information to the image information and outputs the image information.

【0047】また、図6において、25bは、位置情報
抽出部23bが出力した映像位置情報を、地図情報デー
タベース部24に記憶されている2次元の地図情報を参
照して、地域名称である映像位置の文字情報に変換し、
変換した映像位置の文字情報に映像位置情報を付加して
出力する文字情報発生部である。
In FIG. 6, reference numeral 25b denotes a video position information output from the position information extraction unit 23b, and refers to a two-dimensional map information stored in the map information database unit 24 to obtain a video as a region name. Convert to character information of position,
This is a character information generation unit that adds the image position information to the converted character information of the image position and outputs the character information.

【0048】さらに、図6において、26bは、位置情
報抽出部23bが出力した映像情報に付加された映像位
置情報と、文字情報発生部25bが出力した映像位置の
文字情報に付加された映像位置情報に基づき、位置情報
抽出部23bが出力した映像情報と、文字情報発生部2
5bが出力した映像位置の文字情報を同期させ、映像情
報に映像位置の文字情報を付加して出力する文字情報付
加部である。その他の構成は、実施の形態1の図1に示
す構成と基本的には同じである。
Further, in FIG. 6, reference numeral 26b denotes a video position information added to the video information output from the position information extracting unit 23b and a video position added to the character information of the video position output from the character information generating unit 25b. Based on the information, the video information output by the position information extraction unit 23b and the character information generation unit 2
5b is a character information adding unit that synchronizes the character information of the video position output by adding the character information of the video position to the video information and outputs the same. Other configurations are basically the same as the configurations shown in FIG. 1 of the first embodiment.

【0049】次に動作について説明する。飛行体1の各
部における動作、基地局2の無線受信部21,記録再生
部22,モニタ部27の動作は、実施の形態1と同様で
ある。図7は映像情報と映像位置の文字情報との同期を
説明する図である。図において、「映(T)」、「位
(T)」、「文(T)」は、それぞれ実施の形態1の図
4に示すものと同一である。この実施の形態2は、映像
位置情報である緯度/経度のデジタル符号を文字情報付
加部26bにおける同期符号として用いるものである。
Next, the operation will be described. The operation of each part of the flying object 1 and the operations of the radio receiving unit 21, the recording / reproducing unit 22, and the monitor unit 27 of the base station 2 are the same as those in the first embodiment. FIG. 7 is a diagram for explaining synchronization between the video information and the character information of the video position. In the figure, “Screen (T)”, “Place (T)”, and “Sentence (T)” are the same as those shown in FIG. 4 of the first embodiment. In the second embodiment, a digital code of latitude / longitude, which is video position information, is used as a synchronization code in the character information adding unit 26b.

【0050】図7において、飛行体1から、時刻Tにお
ける映像情報「映(T)」と映像位置情報「位(T)」
は同期して送信される。位置情報抽出部23bは、映像
情報「映(T)」と映像位置情報「位(T)」を抽出す
るが、抽出した映像位置情報「位(T)」を文字情報発
生部25bに出力し、映像情報「映(T)」に映像位置
情報「位(T)」を付加して文字情報付加部26bに出
力する。
In FIG. 7, from the flying object 1, image information “image (T)” and image position information “position (T)” at time T are shown.
Are sent synchronously. The position information extraction unit 23b extracts the video information “picture (T)” and the video position information “place (T)”, and outputs the extracted video position information “place (T)” to the character information generation unit 25b. The video position information “position (T)” is added to the video information “image (T)” and output to the character information adding unit 26b.

【0051】文字情報発生部25bは、地図情報データ
ベース部24を参照し、映像位置情報「位(T)」を映
像位置の文字情報「文(T)」に変換し、映像位置の文
字情報「文(T)」に、映像位置情報「位(T)」を付
加して文字情報付加部26bに出力する。
The character information generating section 25b refers to the map information database section 24, converts the image position information "place (T)" into character information "text (T)" of the image position, and converts the character information "image (T)" of the image position. The image position information “place (T)” is added to the “sentence (T)” and output to the character information addition unit 26b.

【0052】文字情報付加部26bは、位置情報抽出部
23bが出力した映像位置情報「位(T)」と、文字情
報発生部25bが出力した映像位置の文字情報「文
(T)」に付加されている映像位置情報「位(T)」に
基づき、位置情報抽出部23bが出力した映像情報「映
(T)」と、文字情報発生部25bが出力した映像位置
の文字情報「文(T)」を同期させて、映像情報「映
(T)」に文字情報「文(T)」を付加してモニタ27
に出力する。
The character information adding section 26b adds the image position information "position (T)" output by the position information extracting section 23b and the character information "sentence (T)" of the image position output by the character information generating section 25b. Based on the video position information “position (T)”, the video information “image (T)” output by the position information extraction unit 23b and the character information “text (T )), The character information “text (T)” is added to the video information “image (T)”, and the monitor 27
Output to

【0053】以上のように、この実施の形態2によれ
ば、飛行体1で撮影した映像情報と映像位置の文字情報
を同期させて表示することにより、基地局2のオペレー
タは、飛行体1が撮影している映像を、地域名称入りで
リアルタイムに確認することができ、撮影箇所の指示や
飛行ルートの指示を的確に行うことができるという効果
が得られる。
As described above, according to the second embodiment, the video information captured by the flying object 1 and the character information of the image position are displayed in synchronization with each other, so that the operator of the base station 2 can use the flying object 1 Can be confirmed in real time with the name of the region, and the effect of being able to accurately specify the shooting location and the flight route is obtained.

【0054】また、この実施の形態2によれば、映像位
置情報を文字情報付加部26bにおける同期符号として
使用し、文字情報付加部26bが映像情報「映(T)」
と映像位置の文字情報「文(T)」との同期を取ること
により、地図情報データベース部24のデータベース容
量が大きく、文字情報発生部25bでの処理時間に変動
が大きい場合でも、映像情報「映(T)」と映像位置の
文字情報「文(T)」との同期を確実に取ることができ
るという効果が得られる。
Further, according to the second embodiment, the video position information is used as a synchronization code in the character information adding section 26b, and the character information adding section 26b uses the video information "image (T)".
By synchronizing the text information "sentence (T)" with the video information, even if the database capacity of the map information database unit 24 is large and the processing time in the text information generation unit 25b varies greatly, the video information " There is an effect that synchronization between the image (T) and the character information "sentence (T)" at the image position can be reliably achieved.

【0055】実施の形態3.図8はこの発明の実施の形
態3による撮影システムの構成を示すブロック図であ
り、図において、15bは、映像情報と映像位置情報
に、それぞれ循環整数iを付加し、循環整数iを付加し
た映像情報に、循環整数iを付加した映像位置情報と、
撮影条件を重畳する位置情報重畳部である。ここで、循
環整数iとは、例えば1から1ずつ増加し、所定数nに
達すると、また1から始まる整数である。
Embodiment 3 FIG. 8 is a block diagram showing the configuration of a photographing system according to Embodiment 3 of the present invention. In the drawing, reference numeral 15b denotes a case where a cyclic integer i is added to video information and video position information, and a cyclic integer i is added. Image position information obtained by adding a cyclic integer i to image information;
This is a position information superimposing unit that superimposes photographing conditions. Here, the cyclic integer i is, for example, an integer that increases by 1 from 1 and starts from 1 when the number reaches a predetermined number n.

【0056】また、図8において、23cは、無線受信
部21が受信した、又は記録再生部22が再生した、重
畳されている循環整数iが付加された映像情報と、循環
整数iが付加された映像位置情報と、撮影条件から、循
環整数iが付加された映像情報と、循環整数iが付加さ
れた映像位置情報を抽出して出力する位置情報抽出部
で、25cは、位置情報抽出部23cが出力した循環整
数iが付加された映像位置情報に基づき、地図情報デー
タベース部24を参照し、映像位置情報を地域名称であ
る映像位置の文字情報に変換し、循環整数iが付加され
た映像位置の文字情報を出力する文字情報発生部であ
る。
In FIG. 8, reference numeral 23c denotes a video information received by the radio receiving unit 21 or reproduced by the recording / reproducing unit 22 to which the superimposed cyclic integer i is added, and a cyclic integer i. A position information extracting unit that extracts and outputs the image information to which the cyclic integer i is added and the image position information to which the cyclic integer i is added based on the obtained image position information and the shooting conditions. Based on the video position information to which the cyclic integer i output by the reference numeral 23c is added, the image position information is converted to character information of the video position as a region name by referring to the map information database unit 24, and the cyclic integer i is added. This is a character information generating unit that outputs character information of a video position.

【0057】さらに、図8において、26cは、位置情
報抽出部23cが出力した映像情報に付加されている循
環整数iと、文字情報発生部25cが出力した映像位置
の文字情報に付加されている循環整数iに基づき、位置
情報抽出部23cが出力した映像情報と、文字情報発生
部25cが出力した映像位置の文字情報を同期させ、映
像情報に映像位置の文字情報を付加して出力する文字情
報付加部である。その他の構成は、実施の形態1の図1
にを示す構成と基本的には同じである。
Further, in FIG. 8, reference numeral 26c denotes a circulating integer i added to the video information output from the position information extracting unit 23c and character information at the video position output from the character information generating unit 25c. Based on the cyclic integer i, the video information output by the position information extraction unit 23c and the text information of the video position output by the text information generation unit 25c are synchronized, and the text information is output by adding the text information of the video position to the video information. It is an information adding unit. Other configurations are the same as those in FIG.
This is basically the same as the configuration shown in FIG.

【0058】次に動作について説明する。位置情報重畳
部15bを除く飛行体1における各部における動作は、
基本的に実施の形態1と同様であり、基地局2の無線受
信部21,記録再生部22,モニタ部27の動作は、基
本的に実施の形態1と同様である。図9は映像情報と映
像位置の文字情報との同期を説明する図である。図にお
いて、「映(T)」、「位(T)」、「文(T)」は、
それぞれ実施の形態1の図4に示すものと同一である。
Next, the operation will be described. The operation of each part of the flying object 1 except the position information superimposing part 15b is as follows.
The operation is basically the same as that of the first embodiment, and the operations of the wireless reception unit 21, the recording / reproducing unit 22, and the monitor unit 27 of the base station 2 are basically the same as those of the first embodiment. FIG. 9 is a diagram for explaining the synchronization between the video information and the character information of the video position. In the figure, “Screen (T)”, “Place (T)”, and “Sentence (T)”
Each of them is the same as that shown in FIG. 4 of the first embodiment.

【0059】この実施の形態3は、文字情報付加部26
cにおける同期符号として循環整数iを用いるものであ
る。循環整数iは、例えば1から1ずつ増加し、所定数
nに達すると、また1から始まる整数であるが、ここ
で、所定数nは、文字情報発生部25cで発生する処理
遅延時間で伝送される画面数/フレーム数に比べて十分
大きな数とし、文字情報発生部25cの処理遅延時間内
における循環整数iの重複を避けるようにする。
In the third embodiment, the character information adding section 26
A cyclic integer i is used as a synchronization code in c. The circulating integer i is, for example, an integer that increases by 1 from 1 and, once reached a predetermined number n, is an integer starting from 1. Here, the predetermined number n is transmitted by the processing delay time generated in the character information generation unit 25c. The number is set to be sufficiently larger than the number of screens / the number of frames to be performed, and the overlapping of the circulating integer i within the processing delay time of the character information generating unit 25c is avoided.

【0060】図9において、飛行体1の位置情報重畳部
15bは、映像情報「映(T)」と映像位置情報「位
(T)」に、それぞれ循環整数iを付加して重畳する。
循環整数iが付加された映像情報「映(T)」と映像位
置情報「位(T)」は、基地局2に送信される。
In FIG. 9, the position information superimposing section 15b of the flying object 1 superimposes the image information "image (T)" and the image position information "position (T)" by adding a cyclic integer i to each.
The video information “picture (T)” and the video position information “place (T)” to which the cyclic integer i is added are transmitted to the base station 2.

【0061】位置情報抽出部23cは、循環整数iが付
加された映像情報「映(T)」と映像位置情報「位
(T)」を抽出するが、循環整数iが付加された映像位
置情報「位(T)」を文字情報発生部25cに出力し、
循環整数iが付加された映像情報「映(T)」を文字情
報付加部26cに出力する。
The position information extracting section 23c extracts the video information "image (T)" to which the cyclic integer i is added and the video position information "position (T)", but the video position information to which the cyclic integer i is added. The "place (T)" is output to the character information generation unit 25c,
The video information "image (T)" to which the cyclic integer i is added is output to the character information adding unit 26c.

【0062】文字情報発生部25cは、地図情報データ
ベース部24を参照し、映像位置情報「位(T)」を地
域名称である映像位置の文字情報「文(T)」に変換
し、文字情報「文(T)」に循環整数iを付加して文字
情報付加部26cに出力する。
The character information generating section 25c refers to the map information database section 24, converts the image position information "place (T)" into character information "sentence (T)" of the image position, which is a local name, and outputs the character information. A cyclic integer i is added to “sentence (T)” and output to the character information adding unit 26c.

【0063】文字情報付加部26cは、位置情報抽出部
23cが出力した映像情報「映(T)」に付加されてい
る循環整数iと、文字情報発生部25cが出力した映像
位置の文字情報「文(T)」に付加されている循環整数
iに基づき、位置情報抽出部23cが出力した映像情報
「映(T)」と、文字情報発生部25cが出力した映像
位置の文字情報「文(T)」を同期させ、映像情報「映
(T)」に映像位置の文字情報「文(T)」を付加して
モニタ27に出力する。
The character information adding section 26c includes a circulating integer i added to the video information “picture (T)” output from the position information extracting section 23c and the character information of the video position output from the character information generating section 25c. Based on the cyclic integer i added to the sentence (T), the video information “image (T)” output by the position information extraction unit 23c and the character information “sentence (image) of the image position output by the character information generation unit 25c. T)), the character information “text (T)” of the video position is added to the video information “image (T)”, and output to the monitor 27.

【0064】以上のように、この実施の形態3によれ
ば、飛行体1で撮影した映像情報と映像位置の文字情報
を同期させて表示することにより、基地局2のオペレー
タは、飛行体1が撮影している映像を、地域名称入りで
リアルタイムに確認することができ、撮影箇所の指示や
飛行ルートの指示を的確に行うことができるという効果
が得られる。
As described above, according to the third embodiment, the video information captured by the flying object 1 and the character information of the video position are displayed in synchronization with each other, so that the operator of the base station 2 can use the flying object 1 Can be confirmed in real time with the name of the region, and the effect of being able to accurately specify the shooting location and the flight route is obtained.

【0065】また、この実施の形態3によれば、循環整
数iを文字情報付加部26cにおける同期符号として使
用し、文字情報付加部26cが映像情報「映(T)」と
映像位置の文字情報「文(T)」との同期を取ることに
より、地図情報データベース部24のデータベース容量
が大きく、文字情報発生部25cでの処理時間に変動が
大きい場合でも、映像情報「映(T)」と映像位置の文
字情報「文(T)」との同期を確実に取ることができる
という効果が得られる。
According to the third embodiment, the circulating integer i is used as a synchronization code in the character information adding unit 26c, and the character information adding unit 26c uses the video information "image (T)" and the character information of the image position. By synchronizing with the "sentence (T)", even when the database capacity of the map information database unit 24 is large and the processing time in the character information generation unit 25c fluctuates greatly, the video information "T (T)" The effect is obtained that the synchronization with the character information "sentence (T)" of the video position can be ensured.

【0066】実施の形態4.図10はこの発明の実施の
形態4による撮影システムの基地局2における構成を示
すブロック図であり、図において、28は文字情報付加
部26aが出力した映像位置の文字情報を音声信号に変
換して出力する音声変換部、29は音声変換部28が出
力した音声信号を音声に変換するスピーカであり、その
他の構成は、実施の形態1の図1における基地局2の構
成と同等である。
Embodiment 4 FIG. 10 is a block diagram showing a configuration of a base station 2 of an imaging system according to Embodiment 4 of the present invention. In the figure, reference numeral 28 denotes a part which converts the character information of the video position output by the character information adding part 26a into an audio signal. And a sound converter 29 for converting the sound signal output from the sound converter 28 into sound. Other configurations are the same as those of the base station 2 in FIG. 1 of the first embodiment.

【0067】次に動作について説明する。音声変換部2
8は、文字情報付加部26aが出力した映像位置の文字
情報を音声信号に変換し、スピーカ29に出力する。モ
ニタ部27の周囲の複数のオペレータは、スピーカ29
から出力された音声により映像位置を聴取する。また、
音声変換部28から出力された音声信号は、無線送信部
(図示せず)により、飛行体1に送信される。
Next, the operation will be described. Voice converter 2
8 converts the character information at the video position output by the character information adding unit 26a into an audio signal and outputs the audio signal to the speaker 29. A plurality of operators around the monitor unit 27
Listening to the video position by the audio output from. Also,
The audio signal output from the audio conversion unit 28 is transmitted to the flying object 1 by a wireless transmission unit (not shown).

【0068】この実施の形態では、実施の形態1の図1
に、音声変換部28,スピーカ29を追加しているが、
実施の形態2の図6,又は実施の形態3の図8に、音声
変換部28,スピーカ29を追加しても良い。
In this embodiment, FIG.
, A voice converter 28 and a speaker 29 are added.
An audio converter 28 and a speaker 29 may be added to FIG. 6 of the second embodiment or FIG. 8 of the third embodiment.

【0069】以上のように、この実施の形態4によれ
ば、基地局2で、複数のオペレータがモニタ部27の画
面を見ているときに、モニタ部27から離れている人で
も、音声にて映像位置を容易に把握することができると
いう効果が得られる。
As described above, according to the fourth embodiment, when a plurality of operators are looking at the screen of the monitor unit 27 at the base station 2, even a person who is away from the monitor unit 27 can output voice. Therefore, the effect that the image position can be easily grasped is obtained.

【0070】また、この実施の形態4によれば、飛行体
1に音声信号にて映像位置情報を送信することにより、
飛行体1における撮影位置の指示、確認を容易に行うこ
とができるという効果が得られる。
Further, according to the fourth embodiment, by transmitting the video position information to the flying object 1 by an audio signal,
The effect is obtained that the photographing position on the flying object 1 can be easily specified and confirmed.

【0071】[0071]

【発明の効果】以上のように、この発明によれば、飛行
体が、カメラ部からの方向制御情報/ズーム比と、位置
/姿勢検出部により検出された飛行体の位置/姿勢情報
とを関連づけ、3次元地図データ部が記憶している3次
元地図データに基づき、カメラ部が撮影している映像位
置を算出し、算出した映像位置情報と撮影条件を出力す
る主制御部と、カメラ部が撮影した映像情報に、主制御
部が出力した映像位置情報と撮影条件とを重畳する位置
情報重畳部とを備え、基地局が、重畳されている映像位
置情報と映像情報と撮影条件から、映像位置情報と映像
情報を抽出して出力する位置情報抽出部と、位置情報抽
出部が出力した映像位置情報により、地図情報データベ
ース部に記憶されている2次元の地図情報を参照し、地
域名称である映像位置の文字情報に変換する文字情報発
生部と、位置情報抽出部が出力した映像情報を所定の時
間だけ遅延させることにより、文字情報発生部が出力し
た映像位置の文字情報に同期させ、映像情報に映像位置
の文字情報を付加する文字情報付加部とを備えたことに
より、基地局のオペレータは、飛行体が撮影している映
像を、地域名称入りでリアルタイムに確認することがで
き、撮影箇所の指示や飛行ルートの指示を的確に行うこ
とができるという効果がある。
As described above, according to the present invention, the flying object uses the direction control information / zoom ratio from the camera unit and the position / posture information of the flying object detected by the position / posture detection unit. A main control unit that calculates a video position captured by the camera unit based on the three-dimensional map data stored in the three-dimensional map data unit, and outputs the calculated video position information and a shooting condition; A video information captured by the main control unit, and a position information superimposing unit that superimposes the imaging conditions and the imaging conditions, the base station, based on the superimposed image position information and video information and the imaging conditions, By referring to the two-dimensional map information stored in the map information database unit, based on the image position information and a position information extraction unit that extracts and outputs the image information, and the image position information output by the position information extraction unit, The picture that is By delaying the video information output by the text information generator and the video information output by the position information extractor by a predetermined time, the video information output by the text information generator is synchronized with the text information of the video position output by the text information generator. And a character information addition unit for adding character information of the image position to the base station operator, so that the image of the flying object can be checked in real time with the area name, and the shooting location can be checked. There is an effect that the instruction of the flight and the instruction of the flight route can be performed accurately.

【0072】この発明によれば、文字情報付加部が、位
置情報抽出部からの映像情報を、文字情報発生部の処理
時間だけ遅延させることにより、映像情報と映像位置の
文字情報との同期を確実に取ることができるという効果
がある。
According to the present invention, the character information adding section delays the video information from the position information extracting section by the processing time of the character information generating section, thereby synchronizing the video information with the character information at the video position. There is an effect that it can be reliably taken.

【0073】この発明によれば、飛行体が、カメラ部か
らの方向制御情報/ズーム比と、位置/姿勢検出部によ
り検出された飛行体の位置/姿勢情報とを関連づけ、3
次元地図データ部が記憶している3次元地図データに基
づき、カメラ部が撮影している映像位置を算出し、算出
した映像位置情報と撮影条件とを出力する主制御部と、
カメラ部が撮影した映像情報に、主制御部が出力した映
像位置情報と撮影条件とを重畳する位置情報重畳部とを
備え、基地局が、重畳されている映像位置情報と映像情
報と撮影条件から、映像位置情報と映像情報を抽出し、
映像位置情報を出力すると共に、映像情報に映像位置情
報を付加して出力する位置情報抽出部と、位置情報抽出
部が出力した映像位置情報により、地図情報データベー
ス部に記憶されている2次元の地図情報を参照し、地域
名称である映像位置の文字情報に変換し、変換した映像
位置の文字情報に映像位置情報を付加する文字情報発生
部と、位置情報抽出部からの映像情報に付加された映像
位置情報と、文字情報発生部からの映像位置の文字情報
に付加された映像位置情報とに基づき、位置情報抽出部
からの映像情報と、文字情報発生部からの映像位置の文
字情報を同期させ、映像情報に映像位置の文字情報を付
加する文字情報付加部とを備えたことにより、基地局の
オペレータは、飛行体が撮影している映像を、地域名称
入りでリアルタイムに確認することができ、撮影箇所の
指示や飛行ルートの指示を的確に行うことができるとい
う効果がある。
According to the present invention, the flying object associates the direction control information / zoom ratio from the camera unit with the position / posture information of the flying object detected by the position / posture detection unit, and associates the flying object with the position / posture information.
A main control unit that calculates a video position shot by the camera unit based on the three-dimensional map data stored in the three-dimensional map data unit, and outputs the calculated video position information and shooting conditions;
A position information superimposing unit that superimposes the image position information output by the main control unit and the image capturing condition on the image information captured by the camera unit; From the video position information and video information,
A position information extraction unit that outputs the image position information and adds the image position information to the image information and outputs the image information, and a two-dimensional image stored in the map information database unit based on the image position information output by the position information extraction unit. A character information generating unit that refers to the map information and converts the character information of the image position as a region name, and adds the image position information to the character information of the converted image position; and a character information generation unit that adds the image information from the position information extraction unit. The video information from the position information extraction unit and the character information of the video position from the character information generation unit are calculated based on the video position information obtained and the video position information added to the character information of the video position from the character information generation unit. By providing a character information adding unit that synchronizes and adds the character information of the image position to the image information, the operator of the base station can use the real-time It can be checked in, there is an effect that can be carried out accurately the instructions of the instructions and the flight route of the shooting locations.

【0074】この発明によれば、飛行体が、カメラ部か
らの方向制御情報/ズーム比と、位置/姿勢検出部によ
り検出された飛行体の位置/姿勢情報とを関連づけ、3
次元地図データ部が記憶している3次元地図データに基
づき、カメラ部が撮影している映像位置を算出し、算出
した映像位置情報と撮影条件とを出力する主制御部と、
カメラ部が撮影した映像情報と、主制御部が出力した映
像位置情報それぞれに循環係数を付加し、循環係数が付
加された映像情報に、循環係数が付加された映像位置情
報と、撮影条件とを重畳する位置情報重畳部と、基地局
が、重畳されている循環係数が付加された映像情報と、
循環係数が付加された映像位置情報と、撮影条件から、
循環係数が付加された映像情報と、循環係数が付加され
た映像位置情報を抽出する位置情報抽出部と、位置情報
抽出部が出力した循環係数が付加された映像位置情報に
より、地図情報データベース部に記憶されている2次元
の地図情報を参照し、地域名称である映像位置の文字情
報に変換し、変換した映像位置の文字情報に循環係数を
付加する文字情報発生部と、位置情報抽出部からの映像
情報に付加された循環係数と、文字情報発生部からの映
像位置の文字情報に付加された循環係数とに基づき、位
置情報抽出部からの映像情報と、文字情報発生部からの
映像位置の文字情報を同期させ、映像情報に映像位置の
文字情報を付加して出力する文字情報付加部とを備えた
ことにより、基地局のオペレータは、飛行体が撮影して
いる映像を、地域名称入りでリアルタイムに確認するこ
とができ、撮影箇所の指示や飛行ルートの指示を的確に
行うことができるという効果がある。
According to the present invention, the flying object associates the direction control information / zoom ratio from the camera unit with the position / posture information of the flying object detected by the position / posture detection unit, and associates the flying object with the position / posture information.
A main control unit that calculates a video position shot by the camera unit based on the three-dimensional map data stored in the three-dimensional map data unit, and outputs the calculated video position information and shooting conditions;
A cyclic coefficient is added to each of the video information captured by the camera unit and the video position information output by the main control unit, and the video information to which the cyclic coefficient is added, the video position information to which the cyclic coefficient is added, the shooting conditions, and And a position information superimposing unit that superimposes, the base station, the video information to which the superimposed cyclic coefficient is added,
From the image position information with the circulation coefficient added and the shooting conditions,
A map information database unit is provided based on the video information to which the cyclic coefficient is added, a position information extracting unit that extracts the video position information to which the cyclic coefficient is added, and the video position information to which the cyclic coefficient output by the position information extracting unit is added. A character information generating unit that converts the character information of the video position, which is a regional name, by referring to the two-dimensional map information stored in the storage unit and adds a cyclic coefficient to the character information of the converted video position; The video information from the position information extraction unit and the video from the character information generation unit are based on the circulation coefficient added to the video information from the text information generation unit and the circulation coefficient added to the character information of the video position from the text information generation unit. By providing a character information adding unit that synchronizes the character information of the position and adds the character information of the image position to the image information and outputs the image information, the base station operator can convert the image captured by the flying object into a local area. In referred entering can be checked in real-time, there is an effect that can be carried out accurately the instructions of the instructions and the flight route of the shooting locations.

【0075】この発明によれば、位置情報重畳部が映像
情報と映像位置情報に付加する循環係数は、所定数nま
で循環する整数であり、所定数nは文字情報発生部で発
生する処理遅延時間に伝送されるフレーム数に比べて大
きな数であることにより、文字情報発生部で発生する処
理遅延時間内における循環係数の重複を避けることがで
き、映像情報と映像位置の文字情報との同期を確実に取
ることができるという効果がある。
According to the present invention, the circulation coefficient added to the video information and the video position information by the position information superimposing unit is an integer circulating up to a predetermined number n, and the predetermined number n is a processing delay generated in the character information generation unit. Since the number is larger than the number of frames transmitted in time, it is possible to avoid duplication of the circulating coefficient within the processing delay time generated in the character information generator, and to synchronize the video information with the character information of the video position. This has the effect that it can be ensured.

【0076】この発明によれば、主制御部が、映像位置
情報として、撮影中央地点の緯度/経度と、撮影範囲の
緯度/経度を出力することにより、撮影中央地点の地域
名称と、撮影範囲における地域名称を映像と共に表示す
ることができるという効果がある。
According to the present invention, the main controller outputs the latitude / longitude of the photographing central point and the latitude / longitude of the photographing range as image position information, so that the area name of the photographing central point and the photographing range can be obtained. There is an effect that the name of the area can be displayed together with the video.

【0077】この発明によれば、無線伝送方式としてア
ナログ方式を使用する場合に、位置情報重畳部が、カメ
ラ部により撮影された映像情報に、主制御部からの映像
位置情報と撮影条件とを、映像情報における映像信号が
使用されていない部分に重畳して出力することにより、
映像情報と共に、地域名称を表示するための映像位置情
報を基地局に送信することができるという効果がある。
According to the present invention, when the analog system is used as the wireless transmission system, the position information superimposing unit adds the image position information from the main control unit and the photographing condition to the image information photographed by the camera unit. , By superimposing and outputting the video signal in the video information where the video signal is not used,
The video position information for displaying the area name can be transmitted to the base station together with the video information.

【0078】この発明によれば、無線伝送方式としてデ
ジタル方式を使用する場合に、位置情報重畳部が、カメ
ラ部により撮影された映像情報と、主制御部からの映像
位置情報と撮影条件とをデジタル多重して出力すること
により、映像情報と共に、地域名称を表示するための映
像位置情報を基地局に送信することができるという効果
がある。
According to the present invention, when the digital system is used as the wireless transmission system, the position information superimposing unit converts the image information photographed by the camera unit, the image position information from the main control unit, and the photographing conditions. By digitally multiplexing and outputting, video position information for displaying the area name can be transmitted to the base station together with the video information.

【0079】この発明によれば、飛行体が、位置情報重
畳部から出力された映像情報と映像位置情報と撮影条件
を記録し再生する記録再生部を備えたことにより、飛行
体と基地局の間の無線通信環境が悪化し無線通信が不可
能な場合に、記録再生部が映像情報、映像位置情報、撮
影条件を記録しておき、撮影終了後に、基地局で再生す
ることにより、地域名入りの映像を確認することができ
るという効果がある。
According to the present invention, the flying object is provided with the recording / reproducing section for recording and reproducing the video information output from the position information superimposing section, the video position information, and the photographing conditions. When the wireless communication environment between the two deteriorates and wireless communication is not possible, the recording and playback unit records video information, video position information, and shooting conditions. There is an effect that the incoming video can be confirmed.

【0080】この発明によれば、記録再生部が映像情報
と映像位置情報と撮影条件とを再生し、主制御部が、再
生された撮影条件から、飛行体の位置/姿勢情報とカメ
ラ部の方向制御情報/ズーム比を求め、求められた飛行
体の位置/姿勢情報に基づき、飛行体の操縦支援を行う
操縦支援部を備え、カメラ部が主制御部により求められ
た方向制御情報/ズーム比に基づき撮影することによ
り、以前に撮影した地点の再撮影を迅速かつ正確に行う
ことができるという効果がある。
According to the present invention, the recording / reproducing section reproduces the video information, the video position information, and the photographing conditions, and the main control section reproduces the position / posture information of the flying object and the camera section from the reproduced photographing conditions. A direction control information / zoom ratio is obtained, and based on the obtained position / posture information of the flying object, there is provided a steering assist unit for assisting the operation of the flying object, and the camera unit is provided with the direction control information / zoom obtained by the main control unit. Shooting based on the ratio has the effect that re-shooting of a previously shot point can be performed quickly and accurately.

【0081】この発明によれば、基地局が、文字情報付
加部が出力した映像位置の文字情報を音声信号に変換し
て出力する音声変換部と、音声信号を音声に変換するス
ピーカとを備えたことにより、基地局のモニタ部から離
れている人でも、音声にて映像位置を容易に把握するこ
とができるという効果がある。
According to the present invention, the base station includes the audio converter for converting the character information at the video position output by the character information adding unit to an audio signal and outputting the audio signal, and the speaker for converting the audio signal to audio. As a result, there is an effect that even a person who is far from the monitor of the base station can easily grasp the video position by voice.

【0082】この発明によれば、音声変換部が出力した
音声信号を飛行体に送信することにより、飛行体におけ
る撮影位置の指示、確認を容易に行うことができるとい
う効果がある。
According to the present invention, the sound signal output from the sound conversion unit is transmitted to the flying object, so that the photographing position on the flying object can be easily specified and confirmed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明の実施の形態1による撮影システム
の構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of an imaging system according to a first embodiment of the present invention.

【図2】 この発明の実施の形態1による主制御部が算
出する映像位置情報を説明する図である。
FIG. 2 is a diagram illustrating video position information calculated by a main control unit according to the first embodiment of the present invention.

【図3】 位置特定方法の原理を説明する図である。FIG. 3 is a diagram illustrating the principle of a position specifying method.

【図4】 この発明の実施の形態1による映像情報と映
像位置の文字情報との同期を説明する図である。
FIG. 4 is a diagram for explaining synchronization between video information and character information of a video position according to the first embodiment of the present invention.

【図5】 この発明の実施の形態1によるモニタ部が表
示する映像位置の文字情報入りの映像情報の例を示す図
である。
FIG. 5 is a diagram showing an example of video information containing character information at a video position displayed by the monitor unit according to the first embodiment of the present invention.

【図6】 この発明の実施の形態2による撮影システム
の構成を示すブロック図である。
FIG. 6 is a block diagram illustrating a configuration of an imaging system according to a second embodiment of the present invention.

【図7】 この発明の実施の形態2による映像情報と映
像位置の文字情報との同期を説明する図である。
FIG. 7 is a diagram for explaining synchronization between video information and character information of a video position according to the second embodiment of the present invention.

【図8】 この発明の実施の形態3による撮影システム
の構成を示すブロック図である。
FIG. 8 is a block diagram showing a configuration of an imaging system according to Embodiment 3 of the present invention.

【図9】 この発明の実施の形態3による映像情報と映
像位置の文字情報との同期を説明する図である。
FIG. 9 is a diagram for explaining synchronization between video information and character information of a video position according to Embodiment 3 of the present invention.

【図10】 この発明の実施の形態4による撮影システ
ムにおける基地局の構成を示すブロック図である。
FIG. 10 is a block diagram showing a configuration of a base station in an imaging system according to Embodiment 4 of the present invention.

【図11】 従来の撮影システムの構成を示すブロック
図である。
FIG. 11 is a block diagram showing a configuration of a conventional photographing system.

【符号の説明】[Explanation of symbols]

1 飛行体、2 基地局、11 カメラ部、12 位置
/姿勢検出部、133次元地図データ部、14 主制御
部、15a,15b 位置情報重畳部、16記録再生
部、17 無線送信部、18 操縦支援部、21 無線
受信部、22記録再生部、23a,23b,23c 位
置情報抽出部、24 地図情報データベース部、25
a,25b,25c 文字情報発生部、26a,26
b,26c 文字情報付加部、27 モニタ部、28
音声変換部、29 スピーカ、31 撮影中央地点、3
2 地表面、33 2次元平面、34 延長交点、35
投影位置。
1 flying object, 2 base station, 11 camera section, 12 position / posture detection section, 133-dimensional map data section, 14 main control section, 15a, 15b position information superimposing section, 16 recording / reproducing section, 17 wireless transmission section, 18 control Support unit, 21 wireless receiving unit, 22 recording and reproducing unit, 23a, 23b, 23c position information extracting unit, 24 map information database unit, 25
a, 25b, 25c Character information generator, 26a, 26
b, 26c Character information adding section, 27 monitor section, 28
Voice conversion unit, 29 speakers, 31 shooting center point, 3
2 ground surface, 33 two-dimensional plane, 34 extended intersection, 35
Projection position.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 斉藤 正光 東京都千代田区丸の内二丁目2番3号 三 菱電機株式会社内 (72)発明者 直井 哲二 東京都千代田区丸の内二丁目2番3号 三 菱電機株式会社内 (72)発明者 筒井 俊明 東京都千代田区丸の内二丁目2番3号 三 菱電機株式会社内 (72)発明者 蒲原 信治 東京都千代田区丸の内二丁目2番3号 三 菱電機株式会社内 (72)発明者 増田 幸雄 東京都千代田区丸の内二丁目2番3号 三 菱電機株式会社内 (72)発明者 田中 行男 東京都江東区豊州三丁目3番3号 株式会 社エヌ・ティ・ティ・データ内 (72)発明者 志智 保久 東京都江東区豊州三丁目3番3号 株式会 社エヌ・ティ・ティ・データ内 (72)発明者 井上 潮 東京都江東区豊州三丁目3番3号 株式会 社エヌ・ティ・ティ・データ内 (72)発明者 宮島 耕治 東京都江東区豊州三丁目3番3号 株式会 社エヌ・ティ・ティ・データ内 Fターム(参考) 5B050 AA08 BA02 BA10 BA11 BA17 BA20 CA07 DA01 DA10 EA05 EA07 EA19 EA27 FA02 FA10 FA19 GA02 GA08 5C054 CC03 CE00 CG00 CG05 DA07 EA05 FA00 FC12 FD07 FE14 FF03 GA01 HA28 HA37  ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Masamitsu Saito 2-3-2 Marunouchi, Chiyoda-ku, Tokyo Mitsui Electric Co., Ltd. (72) Inventor Tetsuji Naoi 2-3-2 Marunouchi, Chiyoda-ku, Tokyo Rishi Electric Co., Ltd. (72) Inventor Toshiaki Tsutsui 2-3-2, Marunouchi, Chiyoda-ku, Tokyo Sanishi Electric Co., Ltd. (72) Inventor Shinji Kambara 2-3-2, Marunouchi, Chiyoda-ku, Tokyo Mitsui Electric Inside (72) Inventor Yukio Masuda 2-3-2 Marunouchi, Chiyoda-ku, Tokyo Mitsui Electric Co., Ltd. (72) Inventor Yukio Tanaka 3-3-3, Fuzhou, Koto-ku, Tokyo Co., Ltd. Inside NTT Data (72) Inventor Yasuhisa Shichi 3-3-3 Hoshu, Koto-ku, Tokyo Inside NTT Data Corporation (72) Person Shigeru Inoue 3-3-3 Toyoshu, Koto-ku, Tokyo NTT Data Corporation (72) Inventor Koji Miyajima 3-3-3, Toyoshu, Koto-ku, Tokyo NTT Co., Ltd. F-term in TT data (reference) 5B050 AA08 BA02 BA10 BA11 BA17 BA20 CA07 DA01 DA10 EA05 EA07 EA19 EA27 FA02 FA10 FA19 GA02 GA08 5C054 CC03 CE00 CG00 CG05 DA07 EA05 FA00 FC12 FD07 FE14 FF03 GA01 HA28 HA37

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 飛行体により撮影した映像情報を基地局
に送信し、基地局で映像情報をモニタする撮影システム
において、 上記飛行体が、 撮影した映像情報と撮影した際の方向制御情報/ズーム
比を出力するカメラ部と、 GPS(Global Positioning Sy
stem)衛星からの電波により上記飛行体の位置/姿
勢情報を検出する位置/姿勢検出部と、 3次元地図データを記憶している3次元地図データ部
と、 上記カメラ部が出力した方向制御情報/ズーム比と、上
記位置/姿勢検出部により検出された上記飛行体の位置
/姿勢情報とを関連づけ、上記3次元地図データ部が記
憶している3次元地図データに基づき、上記カメラ部が
撮影している映像位置を算出し、算出した映像位置情報
と、上記飛行体の位置/姿勢情報と上記カメラ部が出力
した方向制御情報/ズーム比等の撮影条件とを出力する
主制御部と、 上記カメラ部が撮影した映像情報に、上記主制御部が出
力した映像位置情報と撮影条件とを重畳する位置情報重
畳部と、 上記位置情報重畳部が重畳した映像情報と映像位置情報
と撮影条件とを上記基地局に送信する無線送信部とを備
え、 上記基地局が、 上記無線送信部より、重畳されている映像情報と映像位
置情報と撮影条件とを受信する無線受信部と、 上記無線受信部が受信した、重畳されている映像位置情
報と映像情報と撮影条件から、映像位置情報と映像情報
を抽出して出力する位置情報抽出部と、 2次元の地図情報を記憶している地図情報データベース
部と、 上記位置情報抽出部が出力した映像位置情報により、上
記地図情報データベース部に記憶されている2次元の地
図情報を参照し、地域名称である映像位置の文字情報に
変換して出力する文字情報発生部と、 上記位置情報抽出部が出力した映像情報を所定の時間だ
け遅延させることにより、上記文字情報発生部が出力し
た映像位置の文字情報に同期させ、映像情報に映像位置
の文字情報を付加して出力する文字情報付加部と、 上記文字情報付加部が出力した映像情報と映像位置の文
字情報とを表示するモニタ部とを備えたことを特徴とす
る撮影システム。
1. An imaging system for transmitting video information captured by a flying object to a base station and monitoring the video information at the base station, wherein the flying object includes captured video information and direction control information / zoom information when the flying object is captured. A camera unit for outputting the ratio, and a GPS (Global Positioning Sy).
a position / posture detecting unit for detecting the position / posture information of the flying object by a radio wave from a satellite, a three-dimensional map data unit storing three-dimensional map data, and direction control information output by the camera unit The camera unit captures an image based on the three-dimensional map data stored in the three-dimensional map data unit, by associating the / zoom ratio with the position / posture information of the flying object detected by the position / posture detection unit. A main control unit that calculates a video position being calculated, and outputs calculated video position information, position / orientation information of the flying object, and shooting conditions such as direction control information / zoom ratio output by the camera unit; A position information superimposing unit that superimposes the image position information output by the main control unit and the imaging condition on the image information captured by the camera unit; And a radio transmitting unit that transmits conditions to the base station, wherein the base station receives, from the radio transmitting unit, superimposed video information, video position information, and shooting conditions, A position information extracting unit that extracts and outputs image position information and image information from the superimposed image position information, image information, and shooting conditions received by the wireless reception unit, and stores two-dimensional map information. Based on the map information database unit and the video position information output by the position information extraction unit, the two-dimensional map information stored in the map information database unit is referred to and converted into character information of the video position as a region name. A character information generating unit that outputs the video information, and delays the video information output by the position information extracting unit by a predetermined time, thereby synchronizing with the character information of the video position output by the character information generating unit. A character information adding unit that adds the character information of the image position to the image information and outputs the image information; and a monitor unit that displays the image information output by the character information adding unit and the character information of the image position. Shooting system.
【請求項2】 文字情報付加部が、位置情報抽出部から
の映像情報を、文字情報発生部の処理時間だけ遅延させ
ることを特徴とする請求項1記載の撮影システム。
2. The photographing system according to claim 1, wherein the character information adding unit delays the video information from the position information extracting unit by a processing time of the character information generating unit.
【請求項3】 飛行体により撮影した映像情報を基地局
に送信し、基地局で映像情報をモニタする撮影システム
において、 上記飛行体が、 撮影した映像情報と撮影した際の方向制御情報/ズーム
比を出力するカメラ部と、 GPS衛星からの電波により上記飛行体の位置/姿勢情
報を検出する位置/姿勢検出部と、 3次元地図データを記憶している3次元地図データ部
と、 上記カメラ部が出力した方向制御情報/ズーム比と、上
記位置/姿勢検出部により検出された上記飛行体の位置
/姿勢情報とを関連づけ、上記3次元地図データ部が記
憶している3次元地図データに基づき、上記カメラ部が
撮影している映像位置を算出し、算出した映像位置情報
と、上記飛行体の位置/姿勢情報と上記カメラ部が出力
した方向制御情報/ズーム比等の撮影条件とを出力する
主制御部と、 上記カメラ部が撮影した映像情報に、上記主制御部が出
力した映像位置情報と撮影条件とを重畳する位置情報重
畳部と、 上記位置情報重畳部が重畳した映像情報と映像位置情報
と撮影条件とを上記基地局に送信する無線送信部とを備
え、 上記基地局が、 上記無線送信部より、重畳されている映像情報と映像位
置情報と撮影条件とを受信する無線受信部と、 上記無線受信部が受信した、重畳されている映像位置情
報と映像情報と撮影条件から、映像位置情報と映像情報
を抽出し、映像位置情報を出力すると共に、映像情報に
映像位置情報を付加して出力する位置情報抽出部と、 2次元の地図情報を記憶している地図情報データベース
部と、 上記位置情報抽出部が出力した映像位置情報により、上
記地図情報データベース部に記憶されている2次元の地
図情報を参照し、地域名称である映像位置の文字情報に
変換し、変換した映像位置の文字情報に映像位置情報を
付加して出力する文字情報発生部と、 上記位置情報抽出部からの映像情報に付加された映像位
置情報と、上記文字情報発生部からの映像位置の文字情
報に付加された映像位置情報とに基づき、上記位置情報
抽出部からの映像情報と、上記文字情報発生部からの映
像位置の文字情報を同期させ、映像情報に映像位置の文
字情報を付加して出力する文字情報付加部と、 上記文字情報付加部が出力した映像情報と映像位置の文
字情報とを表示するモニタ部とを備えたことを特徴とす
る撮影システム。
3. An imaging system for transmitting video information captured by a flying object to a base station and monitoring the video information at the base station, wherein the flying object is provided with directional control information / zoom information when the video information is captured. A camera unit for outputting a ratio; a position / posture detection unit for detecting position / posture information of the flying object by a radio wave from a GPS satellite; a three-dimensional map data unit storing three-dimensional map data; The direction control information / zoom ratio output by the unit and the position / posture information of the flying object detected by the position / posture detection unit are associated with each other, and the three-dimensional map data stored in the three-dimensional map data unit is used. Based on the calculated image position, the camera section calculates the image position information, the calculated image position information, the position / orientation information of the flying object, and the direction control information output by the camera section / zooming ratio and the like. A position information superimposing unit that superimposes the image position information output by the main control unit and the photographing condition on the image information photographed by the camera unit; And a wireless transmission unit for transmitting the obtained video information, video position information, and shooting conditions to the base station. The base station, from the wireless transmission unit, superimposed video information, video position information, and shooting conditions. A radio receiving unit that receives the video position information and the video information, which are received by the radio receiving unit, and extracts the video position information and the video information from the superimposed video position information and the video information, and outputs the video position information. A position information extraction unit that adds image position information to the information and outputs the information; a map information database unit that stores two-dimensional map information; and the image position information output by the position information extraction unit. A character information generating unit that refers to the two-dimensional map information stored in the database unit, converts it into character information of a video position, which is a region name, and adds the video position information to the converted character information of the video position and outputs it. Based on the video position information added to the video information from the position information extraction unit and the video position information added to the character information of the video position from the character information generation unit, The video information and the text information of the video position from the text information generation unit are synchronized, and a text information addition unit that adds the text information of the video position to the video information and outputs the video information, and the video information output by the text information addition unit And a monitor for displaying character information of a video position.
【請求項4】 飛行体により撮影した映像情報を基地局
に送信し、基地局で映像情報をモニタする撮影システム
において、 上記飛行体が、 撮影した映像情報と撮影した際の方向制御情報/ズーム
比を出力するカメラ部と、 GPS衛星からの電波により上記飛行体の位置/姿勢情
報を検出する位置/姿勢検出部と、 3次元地図データを記憶している3次元地図データ部
と、 上記カメラ部が出力した方向制御情報/ズーム比と、上
記位置/姿勢検出部により検出された上記飛行体の位置
/姿勢情報とを関連づけ、上記3次元地図データ部が記
憶している3次元地図データに基づき、上記カメラ部が
撮影している映像位置を算出し、算出した映像位置情報
と、上記飛行体の位置/姿勢情報と上記カメラ部が出力
した方向制御情報/ズーム比等の撮影条件とを出力する
主制御部と、 上記カメラ部が撮影した映像情報と、上記主制御部が出
力した映像位置情報それぞれに循環係数を付加し、循環
係数が付加された映像情報に、循環係数が付加された映
像位置情報と、撮影条件とを重畳する位置情報重畳部
と、 上記位置情報重畳部が重畳した、循環係数が付加された
映像情報と、循環係数が付加された映像位置情報と、撮
影条件とを上記基地局に送信する無線送信部とを備え、 上記基地局が、 上記無線送信部より、重畳されている循環係数が付加さ
れた映像情報と、循環係数が付加された映像位置情報
と、撮影条件とを受信する無線受信部と、 上記無線受信部が受信した、重畳されている循環係数が
付加された映像情報と、循環係数が付加された映像位置
情報と、撮影条件から、循環係数が付加された映像情報
と、循環係数が付加された映像位置情報を抽出して出力
する位置情報抽出部と、 2次元の地図情報を記憶している地図情報データベース
部と、 上記位置情報抽出部が出力した循環係数が付加された映
像位置情報により、上記地図情報データベース部に記憶
されている2次元の地図情報を参照し、地域名称である
映像位置の文字情報に変換し、変換した映像位置の文字
情報に循環係数を付加して出力する文字情報発生部と、 上記位置情報抽出部からの映像情報に付加された循環係
数と、上記文字情報発生部からの映像位置の文字情報に
付加された循環係数とに基づき、上記位置情報抽出部か
らの映像情報と、上記文字情報発生部からの映像位置の
文字情報を同期させ、映像情報に映像位置の文字情報を
付加して出力する文字情報付加部と、 上記文字情報付加部が出力した映像情報と映像位置の文
字情報とを表示するモニタ部とを備えたことを特徴とす
る撮影システム。
4. A photographing system for transmitting video information captured by a flying object to a base station and monitoring the video information at the base station, wherein the flying object includes the captured video information and direction control information / zoom when the flying object is captured. A camera unit for outputting a ratio; a position / posture detection unit for detecting position / posture information of the flying object by a radio wave from a GPS satellite; a three-dimensional map data unit storing three-dimensional map data; The direction control information / zoom ratio output by the unit and the position / posture information of the flying object detected by the position / posture detection unit are associated with each other, and the three-dimensional map data stored in the three-dimensional map data unit is used. Based on the calculated image position, the camera section calculates the image position information, the calculated image position information, the position / orientation information of the flying object, and the direction control information output by the camera section / zooming ratio and the like. A main control unit that outputs a condition, a video information captured by the camera unit, and a video image information output by the main control unit. A position information superimposing unit that superimposes image position information with the addition of the shooting condition, video information with a cyclic coefficient added, and image position information with a cyclic coefficient superimposed on the position information superimposing unit. And a radio transmission unit that transmits shooting conditions to the base station, wherein the base station transmits, from the radio transmission unit, video information to which a superimposed cyclic coefficient has been added and video to which the cyclic coefficient has been added. A wireless receiving unit that receives the position information and the shooting condition; video information to which the wireless receiving unit has received the superimposed cyclic coefficient; video position information to which the cyclic coefficient is added; From the circulation coefficient A position information extraction unit that extracts and outputs the added image information and image position information to which the circulation coefficient is added, a map information database unit that stores two-dimensional map information, and the position information extraction unit. The output image position information to which the circulation coefficient has been added is referred to the two-dimensional map information stored in the map information database unit, converted into character information of the image position as a regional name, and the converted image position A character information generator for adding a cyclic coefficient to the character information and outputting the character information; a cyclic coefficient added to the video information from the position information extractor; and a character information of the video position from the character information generator. A sentence for synchronizing the video information from the position information extracting unit with the character information of the video position from the character information generating unit based on the circulation coefficient, and adding the character information of the video position to the video information and outputting the sentence. Imaging system comprising: the information adding unit, and a monitor unit for displaying the character information of the video information and video position where the character information adding unit has output.
【請求項5】 位置情報重畳部が映像情報と映像位置情
報に付加する循環係数は、所定数nまで循環する整数で
あり、上記所定数nは文字情報発生部で発生する処理遅
延時間に伝送されるフレーム数に比べて大きな数である
ことを特徴とする請求項4記載の撮影システム。
5. A circulation coefficient added to the video information and the video position information by the position information superimposing unit is an integer circulating up to a predetermined number n, and the predetermined number n is transmitted to a processing delay time generated in the character information generation unit. The photographing system according to claim 4, wherein the number is larger than the number of frames to be performed.
【請求項6】 主制御部が、映像位置情報として、撮影
中央地点の緯度/経度と、撮影範囲の緯度/経度を出力
することを特徴とする請求項1,請求項3,請求項4の
うちのいずれか1項記載の撮影システム。
6. The image processing apparatus according to claim 1, wherein the main control section outputs, as image position information, a latitude / longitude of a photographing central point and a latitude / longitude of a photographing range. An imaging system according to any one of the preceding claims.
【請求項7】 無線伝送方式としてアナログ方式を使用
する場合に、 位置情報重畳部が、カメラ部により撮影された映像情報
に、主制御部からの映像位置情報と撮影条件とを、映像
情報における映像信号が使用されていない部分に重畳し
て出力することを特徴とする請求項1,請求項3,請求
項4のうちのいずれか1項記載の撮影システム。
7. When an analog system is used as a wireless transmission system, a position information superimposing unit adds image position information and a photographing condition from a main control unit to image information photographed by a camera unit. 5. The photographing system according to claim 1, wherein the video signal is superimposed on an unused portion and output.
【請求項8】 無線伝送方式としてデジタル方式を使用
する場合に、 位置情報重畳部が、カメラ部により撮影された映像情報
と、主制御部からの映像位置情報と撮影条件とをデジタ
ル多重して出力することを特徴とする請求項1,請求項
3,請求項4のうちのいずれか1項記載の撮影システ
ム。
8. When a digital system is used as a wireless transmission system, a position information superimposing unit digitally multiplexes image information shot by a camera unit, image position information from a main control unit, and shooting conditions. The photographing system according to claim 1, wherein the photographing system outputs the image.
【請求項9】 飛行体が、 位置情報重畳部から出力された映像情報と映像位置情報
と撮影条件を記録し再生する記録再生部を備えたことを
特徴とする請求項1,請求項3,請求項4のうちのいず
れか1項記載の撮影システム。
9. The flying object further includes a recording / reproducing unit for recording and reproducing the video information, the video position information, and the photographing condition output from the position information superimposing unit. The photographing system according to claim 4.
【請求項10】 記録再生部が映像情報と映像位置情報
と撮影条件とを再生し、 主制御部が、再生された撮影条件から、飛行体の位置/
姿勢情報とカメラ部の方向制御情報/ズーム比を求め、 上記主制御部により求められた飛行体の位置/姿勢情報
に基づき、飛行体の操縦支援を行う操縦支援部を備え、 カメラ部が上記主制御部により求められた方向制御情報
/ズーム比に基づき撮影することを特徴とする請求項9
記載の撮影システム。
10. A recording / reproducing unit reproduces video information, video position information, and shooting conditions, and a main control unit determines a position / flight of an air vehicle based on the reproduced shooting conditions.
An orientation control information / zoom ratio for the attitude of the camera unit and a flight ratio based on the position / posture information of the aircraft obtained by the main control unit; 10. An image is taken based on the direction control information / zoom ratio obtained by the main control unit.
The imaging system described.
【請求項11】 基地局が、 文字情報付加部が出力した映像位置の文字情報を音声信
号に変換して出力する音声変換部と、 上記音声変換部が出力した音声信号を音声に変換するス
ピーカとを備えたことを特徴とする請求項1,請求項
3,請求項4のうちのいずれか1項記載の撮影システ
ム。
11. An audio converter for converting a character information at a video position output by a character information adding unit to an audio signal and outputting the same, and a speaker for converting the audio signal output from the audio converter to audio. The photographing system according to any one of claims 1, 3, and 4, further comprising:
【請求項12】 音声変換部が出力した音声信号を飛行
体に送信することを特徴とする請求項11記載の撮影シ
ステム。
12. The photographing system according to claim 11, wherein the sound signal output by the sound converter is transmitted to the flying object.
JP2000108449A 2000-04-10 2000-04-10 Image pickup system Pending JP2001292444A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000108449A JP2001292444A (en) 2000-04-10 2000-04-10 Image pickup system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000108449A JP2001292444A (en) 2000-04-10 2000-04-10 Image pickup system

Publications (1)

Publication Number Publication Date
JP2001292444A true JP2001292444A (en) 2001-10-19

Family

ID=18621283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000108449A Pending JP2001292444A (en) 2000-04-10 2000-04-10 Image pickup system

Country Status (1)

Country Link
JP (1) JP2001292444A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004226190A (en) * 2003-01-22 2004-08-12 Kawasaki Heavy Ind Ltd Method for displaying locational information on photograph image from helicopter and its apparatus
JP2004236281A (en) * 2003-01-30 2004-08-19 Jian Zhang Video system for house security and method of real-time monitor and transfer
JP2004349749A (en) * 2003-05-20 2004-12-09 Nippon Hoso Kyokai <Nhk> Camera video image monitoring apparatus and camera video image monitoring method
JP2006171224A (en) * 2004-12-14 2006-06-29 Mitsubishi Electric Corp Photographic image processing system
JP2007241085A (en) * 2006-03-10 2007-09-20 Mitsubishi Electric Corp Photographed image processing system and photographed image processing device, and photographed image display method
JP2009150848A (en) * 2007-12-21 2009-07-09 Topcon Corp Image processing apparatus
JP2010122970A (en) * 2008-11-20 2010-06-03 Mitsubishi Electric Corp Target object position specification apparatus and target object position specification method
JP5076190B1 (en) * 2011-10-03 2012-11-21 光昭 花畑 Damage status monitoring system
WO2013051300A1 (en) * 2011-10-03 2013-04-11 Hanabata Mitsuaki Disaster circumstance ascertainment system
JP2013234946A (en) * 2012-05-10 2013-11-21 Kawasaki Heavy Ind Ltd Target position identification device, target position identification system and target position identification method
JP2016082441A (en) * 2014-10-17 2016-05-16 ソニー株式会社 Controller, control method and computer program
KR102151637B1 (en) * 2020-07-08 2020-09-03 한화시스템(주) System and method for transmitting image data of drone

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004226190A (en) * 2003-01-22 2004-08-12 Kawasaki Heavy Ind Ltd Method for displaying locational information on photograph image from helicopter and its apparatus
JP2004236281A (en) * 2003-01-30 2004-08-19 Jian Zhang Video system for house security and method of real-time monitor and transfer
JP2004349749A (en) * 2003-05-20 2004-12-09 Nippon Hoso Kyokai <Nhk> Camera video image monitoring apparatus and camera video image monitoring method
JP2006171224A (en) * 2004-12-14 2006-06-29 Mitsubishi Electric Corp Photographic image processing system
JP4502793B2 (en) * 2004-12-14 2010-07-14 三菱電機株式会社 Shooting video processing system
JP2007241085A (en) * 2006-03-10 2007-09-20 Mitsubishi Electric Corp Photographed image processing system and photographed image processing device, and photographed image display method
JP2009150848A (en) * 2007-12-21 2009-07-09 Topcon Corp Image processing apparatus
JP2010122970A (en) * 2008-11-20 2010-06-03 Mitsubishi Electric Corp Target object position specification apparatus and target object position specification method
JP5076190B1 (en) * 2011-10-03 2012-11-21 光昭 花畑 Damage status monitoring system
WO2013051300A1 (en) * 2011-10-03 2013-04-11 Hanabata Mitsuaki Disaster circumstance ascertainment system
JP2013234946A (en) * 2012-05-10 2013-11-21 Kawasaki Heavy Ind Ltd Target position identification device, target position identification system and target position identification method
JP2016082441A (en) * 2014-10-17 2016-05-16 ソニー株式会社 Controller, control method and computer program
US10198003B2 (en) 2014-10-17 2019-02-05 Sony Corporation Control device, control method, and computer program
US11520334B2 (en) 2014-10-17 2022-12-06 Sony Corporation Control device, control method, and computer program
US11927960B2 (en) 2014-10-17 2024-03-12 Sony Group Corporation Control device, control method, and computer program
KR102151637B1 (en) * 2020-07-08 2020-09-03 한화시스템(주) System and method for transmitting image data of drone

Similar Documents

Publication Publication Date Title
JP3466512B2 (en) Remote imaging system, imaging device, and remote imaging method
JP2001290820A (en) Video gathering device, video retrieval device, and video gathering and retrieval system
US20200366873A1 (en) System and method for interactive aerial imaging
JP2001292444A (en) Image pickup system
CN108495048B (en) Double-camera image acquisition equipment based on holder control
JP3225434B2 (en) Video presentation system
WO2012072008A1 (en) Method and device for superposing auxiliary information of video signal
JP2000078614A (en) Picture recording device
US10397474B2 (en) System and method for remote monitoring at least one observation area
JP2001189927A (en) Mobile station, control station and virtual experience system
CN1848917B (en) Camera system with pip in viewfinder
JP3510758B2 (en) Remote imaging system, imaging device with wireless communication function
JPH11187363A (en) Mobile station video transmitting system
JP2009239762A (en) Video conference system and video conference method
JP2001197481A (en) Photographing system
JP2007241085A (en) Photographed image processing system and photographed image processing device, and photographed image display method
JP2000341672A (en) Remote photographing system and photographing instructing device and photographing device and information display device and remote photographing method
JP4409116B2 (en) Video / position information recording device
JP6840441B2 (en) Imaging system and flying object
JP2003316259A (en) Photography image processing method and system thereof
WO2022032589A1 (en) Panoramic playback method, apparatus and system, photographing device, and movable platform
JP4502793B2 (en) Shooting video processing system
JP4934871B2 (en) Shooting support system
JP2021153221A (en) Drone captured video providing system, program of drone captured video providing system, moving body captured video providing system, program of moving body captured video providing system
JP2007134915A (en) Remote control system