JP2023023112A - Video generation device, video generation method, program, and video generation system - Google Patents

Video generation device, video generation method, program, and video generation system Download PDF

Info

Publication number
JP2023023112A
JP2023023112A JP2021128338A JP2021128338A JP2023023112A JP 2023023112 A JP2023023112 A JP 2023023112A JP 2021128338 A JP2021128338 A JP 2021128338A JP 2021128338 A JP2021128338 A JP 2021128338A JP 2023023112 A JP2023023112 A JP 2023023112A
Authority
JP
Japan
Prior art keywords
moving image
observation target
transition
images
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021128338A
Other languages
Japanese (ja)
Other versions
JP7195659B1 (en
Inventor
幹夫 里村
Mikio Satomura
広和 伊藤
Hirokazu Ito
伸一 植田
Shinichi Ueda
幹雄 末野
Mikio SUENO
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippo Co Ltd
Original Assignee
Nippo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippo Co Ltd filed Critical Nippo Co Ltd
Priority to JP2021128338A priority Critical patent/JP7195659B1/en
Application granted granted Critical
Publication of JP7195659B1 publication Critical patent/JP7195659B1/en
Publication of JP2023023112A publication Critical patent/JP2023023112A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

To provide a mechanism that is for observing state transitions of an observation target over time, and can also visually check the state transitions with ease.SOLUTION: A plurality of images of an observation target photographed at different times is obtained. Coordinate information of a plurality of positions for the observation target included in the images is obtained, and based on the coordinate information of the corresponding plurality of positions for the observation target photographed at different times, a transition video of state changes for the observation target is generated.SELECTED DRAWING: Figure 1

Description

本発明は、動画生成装置、動画生成方法、プログラムに関する。 The present invention relates to a moving image generating device, a moving image generating method, and a program.

地形、構造物、樹木などの観察対象の調査のために、上空及び地上からそれら観察対象を撮影して、観察対象の状態の時間経過に応じた遷移を観察することが多く行われている。この技術に関連し、特許文献1には、地殻変動に基づいて変動する変位点の座標を算出する技術が開示されている。また特許文献1では、管理対象の最新の座標と当該座標の移動方向ベクトルを示す変位情報を算出する技術が開示されている。 2. Description of the Related Art In order to investigate observation targets such as topography, structures, and trees, it is common practice to photograph the observation targets from above and from the ground and observe the transition of the observation target state over time. In relation to this technique, Patent Literature 1 discloses a technique for calculating the coordinates of a displacement point that fluctuates based on crustal movement. Further, Japanese Patent Application Laid-Open No. 2002-200000 discloses a technique for calculating displacement information indicating the latest coordinates of a managed object and the movement direction vector of the coordinates.

特許第6528293号公報Japanese Patent No. 6528293

上述のような観察対象の時間経過に応じた状態の遷移を観察するためにさらに視覚的にその状態の遷移を確認しやすい技術が求められている。 In order to observe the transition of the state of the object to be observed over time as described above, there is a demand for a technique that makes it easier to visually confirm the transition of the state.

そこでこの発明は、上述の課題を解決する動画生成装置、動画生成方法、プログラムを提供することを目的としている。 SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide a moving image generating apparatus, a moving image generating method, and a program that solve the above-described problems.

本発明の第1の態様によれば、動画生成装置は、異なる時刻に撮影された観察対象の画像を複数取得する画像取得部と、前記画像に含まれる前記観察対象の複数位置の座標情報を取得し、前記異なる時刻に撮影された観察対象の対応する複数位置の座標情報に基づいて、前記観察対象の状態変化の遷移動画を生成する動画生成部と、前記遷移動画を出力する出力部と、を備える。 According to the first aspect of the present invention, a moving image generating device includes an image acquisition unit that acquires a plurality of images of an observation target captured at different times, and coordinate information of a plurality of positions of the observation target included in the images. a moving image generating unit that obtains and generates a transition moving image of the state change of the observation target based on the coordinate information of the plurality of corresponding positions of the observation target captured at the different times; and an output unit that outputs the transition moving image. , provided.

本発明の第2の態様によれば、動画生成方法は、異なる時刻に撮影された観察対象の画像を複数取得し、前記画像に含まれる前記観察対象の複数位置の座標情報を取得し、前記異なる時刻に撮影された観察対象の対応する複数位置の座標情報に基づいて、前記観察対象の状態変化の遷移動画を生成し、前記遷移動画を出力する。 According to a second aspect of the present invention, a moving image generation method acquires a plurality of images of an observation target captured at different times, acquires coordinate information of a plurality of positions of the observation target included in the images, and Based on coordinate information of a plurality of corresponding positions of the observation target photographed at different times, a transition moving image of the state change of the observation target is generated, and the transition moving image is output.

本発明の第3の態様によれば、プログラムは、動画生成装置のコンピュータを、異なる時刻に撮影された観察対象の画像を複数取得する画像取得手段、前記画像に含まれる前記観察対象の複数位置の座標情報を取得し、前記異なる時刻に撮影された観察対象の対応する複数位置の座標情報に基づいて、前記観察対象の状態変化の遷移動画を生成する動画生成手段、前記遷移動画を出力する出力手段、として機能させる。 According to the third aspect of the present invention, the program comprises: image acquisition means for acquiring a plurality of images of an observation target captured at different times; and a plurality of positions of the observation target included in the images. a moving image generating means for acquiring coordinate information of and generating a transition moving image of a state change of the observation target based on the coordinate information of the plurality of corresponding positions of the observation target photographed at the different times; and outputting the transition moving image. function as output means.

本発明によれば、観察対象の時間経過に応じた状態の遷移を観察するためにさらに視覚的にその状態の遷移を確認しやすい仕組みを提供することができる。 According to the present invention, it is possible to provide a mechanism that makes it easier to visually confirm the state transitions in order to observe the state transitions of the observation target according to the passage of time.

本実施形態による動画生成システムの構成を示す図である。It is a figure which shows the structure of the moving image production|generation system by this embodiment. 本実施形態による動画生成装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the moving image production|generation apparatus by this embodiment. 本実施形態による動画生成装置の機能ブロック図である。1 is a functional block diagram of a moving image generating device according to this embodiment; FIG. 本実施形態による動画生成装置の処理フローを示す第一の図である。FIG. 4 is a first diagram showing a processing flow of the moving image generating device according to this embodiment; 本実施形態による動画生成装置の処理フローを示す第二の図である。FIG. 4 is a second diagram showing the processing flow of the moving image generating device according to this embodiment; 本実施形態による特定電子基準点の補正処理の処理フローを示す図である。FIG. 5 is a diagram showing a processing flow of correction processing for specific electronic reference points according to the present embodiment; 本実施形態による電子基準点の推定処理の概要を示す図である。FIG. 4 is a diagram showing an overview of electronic reference point estimation processing according to the present embodiment; 本実施形態による再計算対象点の最新の緯度経度の算出処理フローを示す図である。It is a figure which shows the calculation processing flow of the latest latitude longitude of the recalculation object point by this embodiment. 本実施形態による再計算対象点の算出処理の概要を示す図である。It is a figure which shows the outline|summary of the calculation process of the recalculation object point by this embodiment. 本実施形態による動画生成装置の出力例を示す第一の図である。FIG. 4 is a first diagram showing an output example of the moving image generating device according to the embodiment; 本実施形態による動画生成装置の出力例を示す第二の図である。FIG. 4 is a second diagram showing an output example of the moving image generating device according to this embodiment; 本実施形態による動画生成装置の出力例を示す第三の図である。FIG. 13 is a third diagram showing an output example of the moving image generating device according to this embodiment; 本実施形態による動画生成装置の出力例を示す第四の図である。FIG. 11 is a fourth diagram showing an output example of the moving image generating device according to this embodiment; 本実施形態による動画生成装置の最小構成を示す図である。It is a figure which shows the minimum structure of the moving image production|generation apparatus by this embodiment.

以下、図面を参照して本実施形態による動画生成装置を説明する。
図1は本実施形態による動画生成システムの構成を示す図である。
この図で示すように、動画生成システム100は、動画生成装置1と、GNSSアンテナ2と、撮影装置3とを含んで構成される。動画生成装置1は情報処理装置の一例である。管理者は、GNSSアンテナ2を地表に設置する。GNSSアンテナ2は、複数のGNSS(global navigation satellite system)衛星から受信した衛星測位信号を受信してGNSSアンテナ2の設置されている座標を算出する位置センサを少なくとも備えた位置測位装置の一例である。GNSSアンテナ2は地表や地物(ビルやその他構造物)などの観察対象の所望の位置に複数設置されている。GNSSアンテナ2は、算出した自装置の座標と自装置のIDと、座標の算出時刻とを少なくとも含む位置情報(地点データ)を、所定の間隔で、通信ネットワーク等で接続された動画生成装置1へ送信する。撮影装置3はカメラを搭載したドローン31や航空機32、地上レーザスキャナ33、人工衛星などであってもよい。なお地上レーザスキャナ33はGNSSアンテナ2の機能を備えており、自装置が位置する座標(緯度、経度、高度)を検知できてよい。
Hereinafter, a moving image generating device according to this embodiment will be described with reference to the drawings.
FIG. 1 is a diagram showing the configuration of a moving image generation system according to this embodiment.
As shown in this figure, the moving image generating system 100 includes a moving image generating device 1, a GNSS antenna 2, and an imaging device 3. FIG. The moving image generation device 1 is an example of an information processing device. The administrator installs the GNSS antenna 2 on the surface of the earth. The GNSS antenna 2 is an example of a positioning device including at least a position sensor that receives satellite positioning signals from a plurality of GNSS (global navigation satellite system) satellites and calculates the coordinates at which the GNSS antenna 2 is installed. . A plurality of GNSS antennas 2 are installed at desired positions of observation targets such as the ground surface and features (buildings and other structures). The GNSS antenna 2 transmits position information (point data) including at least the calculated coordinates of the device itself, the ID of the device itself, and the calculation time of the coordinates to the video generation device 1 connected via a communication network or the like at predetermined intervals. Send to The imaging device 3 may be a drone 31 equipped with a camera, an aircraft 32, a terrestrial laser scanner 33, an artificial satellite, or the like. Note that the terrestrial laser scanner 33 has the function of the GNSS antenna 2, and may be able to detect the coordinates (latitude, longitude, altitude) at which its own device is located.

撮影装置3は、GNSSアンテナ2が設置された観察対象を撮影する。撮影装置3はその撮影により生成した画像を動画生成装置1へ送信する。撮影装置3は時刻の経過に従って複数回の撮影によりそれぞれ画像を生成し、動画生成装置1へ送信する。動画生成装置1への画像の送信はどのような手法を取ってもよい。管理者が、撮影装置3の撮影した画像を動画生成装置1へ記録してもよい。 The photographing device 3 photographs an observation target on which the GNSS antenna 2 is installed. The photographing device 3 transmits the image generated by the photographing to the moving image generating device 1 . The photographing device 3 generates images by photographing a plurality of times as time elapses, and transmits the images to the moving image generating device 1 . Any method may be used to transmit images to the moving image generating device 1 . The administrator may record the image captured by the image capturing device 3 in the moving image generating device 1 .

図2は動画生成装置のハードウェア構成を示す図である。
動画生成装置1のコンピュータは、図2で示すようにCPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、HDD104、通信モジュール105、データベース106、等のハードウェアを備える。
FIG. 2 is a diagram showing the hardware configuration of the video generating device.
As shown in FIG. 2, the computer of the motion picture generating apparatus 1 includes hardware such as a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, an HDD 104, a communication module 105, a database 106, and the like. Have clothing.

図3は動画生成装置の機能ブロック図である。
動画生成装置1のCPU101は、表示プログラムを実行する。これにより動画生成装置1は、制御部11、画像取得部12、記録部13、動画生成部14、座標管理部15、出力部16、電子基準点算出部17の各機能を発揮する。
制御部11は、動画生成装置1の各機能を制御する。
画像取得部12は、異なる時刻に撮影された観察対象の画像を複数取得する。
記録部13は、処理に必要な各情報をデータベース106等に記録する。
動画生成部14は、画像に含まれる観察対象の複数位置の座標情報を取得し、異なる時刻に撮影された観察対象の対応する複数位置の座標情報に基づいて、観察対象の状態変化の遷移動画を生成する。動画生成部14は、観察対象の所定期間の成長量を取得し、当該所定期間の成長量に基づいて、観察対象の状態変化の遷移動画を生成してよい。または動画生成部14は、画像から観察対象のエリアを特定し、当該特定した観察対象のエリアの状態変化の遷移動画を生成してよい。
座標管理部15は、観察対象の画像内の再計算対象点の周りの複数の電子基準点を特定する。
出力部16は、遷移動画を出力する。
電子基準点算出部17は、再計算対象点を基準として特定した電子基準点の今日の座標を少なくとも算出する。
FIG. 3 is a functional block diagram of the motion picture generation device.
The CPU 101 of the moving image generating device 1 executes a display program. As a result, the motion picture generation device 1 exhibits the functions of the control section 11 , the image acquisition section 12 , the recording section 13 , the motion picture generation section 14 , the coordinate management section 15 , the output section 16 , and the electronic reference point calculation section 17 .
The control unit 11 controls each function of the video generating device 1 .
The image acquisition unit 12 acquires a plurality of images of an observation target that are captured at different times.
The recording unit 13 records each information necessary for processing in the database 106 or the like.
The moving image generation unit 14 acquires coordinate information of a plurality of positions of the observation target included in the image, and based on the coordinate information of the corresponding plurality of positions of the observation target photographed at different times, transition animation of the state change of the observation target. to generate The moving image generation unit 14 may acquire the amount of growth of the observation target during a predetermined period, and generate a transition moving image of the state change of the observation target based on the amount of growth during the predetermined period. Alternatively, the moving image generation unit 14 may identify an area to be observed from the image and generate a transition moving image of state changes in the identified area to be observed.
The coordinate management unit 15 identifies a plurality of electronic reference points around the recalculation target point in the image to be observed.
The output unit 16 outputs transition moving images.
The electronic reference point calculation unit 17 calculates at least today's coordinates of the electronic reference point specified with reference to the recalculation target point.

図4は動画生成装置の処理フローを示す第一の図である。
以下、動画生成装置1の処理の詳細について説明する。
動画生成装置1の画像取得部12は撮影装置3から観察対象の画像を取得する(ステップS101)。記録部13は観察対象のIDと観察対象の画像を紐づけてデータベース106に記録する(ステップS102)。一例として画像は、地表の観察対象を含む矩形範囲のIDと、その画像の矩形範囲を示す位置情報(例えば矩形範囲の各頂点座標)と、その矩形範囲について撮影装置3が撮影して生成した画像とを紐づけて、データベース106に記録してよい。なお撮影対象の画像が示す地表の範囲には予めGNSSアンテナ2が複数設置されているものとする。
FIG. 4 is a first diagram showing the processing flow of the moving image generating device.
Details of the processing of the moving image generating device 1 will be described below.
The image acquiring unit 12 of the moving image generating device 1 acquires an image of an observation target from the photographing device 3 (step S101). The recording unit 13 associates the ID of the observation target with the image of the observation target and records them in the database 106 (step S102). As an example, an image includes an ID of a rectangular area including an object to be observed on the earth's surface, position information indicating the rectangular area of the image (for example, each vertex coordinate of the rectangular area), and the rectangular area captured by the imaging device 3 and generated. It may be recorded in the database 106 in association with the image. It is assumed that a plurality of GNSS antennas 2 are installed in advance in the range of the ground surface indicated by the image to be captured.

動画生成装置1は、複数の各GNSSアンテナ2から位置情報を受信する(ステップS103)。動画生成装置1の記録部13は、位置情報に含まれるGNSSアンテナ2のIDに紐づけて、当該位置情報に含まれる時刻と座標とをデータベース106に順次記録する(ステップS104)。 The moving image generating device 1 receives position information from each of the plurality of GNSS antennas 2 (step S103). The recording unit 13 of the moving image generating device 1 sequentially records the time and coordinates included in the position information in the database 106 in association with the ID of the GNSS antenna 2 included in the position information (step S104).

以上の処理によりデータベース106には、観察対象を含む矩形範囲のID、監視対象を撮影した画像、観察対象に複数設置されたGNSSアンテナ2の座標、などの情報が記録される。動画生成装置1の画像取得部12は異なる日時に生成された観察対象の画像を順次取得する。また記録部13は、異なる日時の各GNSSアンテナ2の位置情報を順次取得する。記録部13はそれら異なる日時の観察対象の画像や、各GNSSアンテナ2の位置情報を同様に順次、データベース106に記録していく。 Information such as the ID of the rectangular range including the observation target, the captured image of the monitoring target, the coordinates of the multiple GNSS antennas 2 installed on the observation target, and the like are recorded in the database 106 by the above processing. The image acquisition unit 12 of the moving image generation device 1 sequentially acquires images of an observation target generated on different dates and times. Also, the recording unit 13 sequentially acquires position information of each GNSS antenna 2 at different dates and times. The recording unit 13 similarly sequentially records the images of the observation target at different dates and times and the position information of each GNSS antenna 2 in the database 106 .

そして所定のタイミングで動画生成部14が観察対象の状態変化の遷移を表す動画像を生成する(ステップS104)。所定のタイミングは、例えば管理者による動画像生成タイミングの入力を受け付けたタイミング、災害の発生を自動検知したタイミングなどであってよい。この動画像の生成において、動画生成部14は、画像の矩形範囲を示す位置情報と、画像に写るGNSSアンテナ2の位置と、GNSSアンテナ2から受信した位置情報(座標)とに基づいて、画像に写るGNSSアンテナ2の位置情報(座標)を特定する。なお動画生成部14は観察対象を含む画像にGNSSアンテナ2が含まれない場合には、観察対象と当該観察対象の近傍の複数のGNSSアンテナ2が含まれる画像をデータベース106から取得すればよい。動画生成部14は、異なる日時の観察対象の画像におけるGNSSアンテナ2の位置情報に基づいて、それら画像の位置を合わせる。動画生成部14は、観察対象の画像におけるGNSSアンテナ2の位置情報を合わせた異なる日時のそれら画像を日時の順に表示する動画像を生成する。各画像を撮影した日時の間隔が短く、各画像として長い期間にわたって撮影された多くの画像が含まれる場合、それらを短時間で日時の順に表示することにより、観察対象の動画像として表示することができる。 Then, at a predetermined timing, the moving image generation unit 14 generates a moving image representing the transition of the state change of the observation target (step S104). The predetermined timing may be, for example, the timing at which an administrator's input of timing for generating a moving image is received, the timing at which the occurrence of a disaster is automatically detected, or the like. In generating this moving image, the moving image generating unit 14 generates an image based on the position information indicating the rectangular range of the image, the position of the GNSS antenna 2 appearing in the image, and the position information (coordinates) received from the GNSS antenna 2. The position information (coordinates) of the GNSS antenna 2 shown in . When the GNSS antenna 2 is not included in the image including the observation target, the moving image generator 14 may acquire from the database 106 an image including the observation target and a plurality of GNSS antennas 2 in the vicinity of the observation target. Based on the position information of the GNSS antenna 2 in the images of the observation target at different dates and times, the moving image generation unit 14 aligns the images. The moving image generation unit 14 generates a moving image that displays the images of different dates and times in the order of date and time by combining the position information of the GNSS antenna 2 in the image of the observation target. When the interval between the dates and times when each image was taken is short and each image contains many images taken over a long period of time, by displaying them in the order of date and time in a short time, they can be displayed as a moving image of the observation target. can be done.

上述の処理によればGNSSアンテナ2の位置情報(座標)を受信して、観察対象の画像に写るGNSSアンテナ2の画像内位置に対応する位置情報(座標)を特定し、その後、各画像の位置をGNSSアンテナ2の位置情報に基づいて合わせている。しかしながら、動画生成装置1はGNSSアンテナ2から位置情報を取得しなくても、他の位置情報に基づいて、異なる日時の各画像の位置を合わせるようにしてもよい。例えば動画生成部14は、観察対象の画像の各画像内位置に対応する地表座標の情報が含まれた各画像を取得し、その画像内の各位置の地表座標に基づいて、異なる日時に撮影された画像の位置を合わせるようにしてもよい。観察対象の画像内の所定位置に対応する地表座標の情報は、管理者が入力した情報であってもよい。つまり、動画生成部14は、異なる日時の観察対象の画像における複数の所定位置の位置情報に基づいて、それら画像の位置を合わせ、観察対象の画像における所定位置の位置情報を合わせた異なる日時のそれら画像を日時の順に表示する動画像を生成するようにしてもよい。 According to the above-described process, the position information (coordinates) of the GNSS antenna 2 is received, the position information (coordinates) corresponding to the position in the image of the GNSS antenna 2 appearing in the image of the observation target is specified, and then each image is The position is adjusted based on the position information of the GNSS antenna 2 . However, even if the moving image generating device 1 does not acquire the positional information from the GNSS antenna 2, the positions of the images of different dates and times may be aligned based on other positional information. For example, the moving image generation unit 14 acquires each image containing information on the ground coordinate corresponding to each position in the image of the image to be observed, and shoots at different dates and times based on the ground coordinate of each position in the image. You may make it match|combine the position of the image which carried out. The information of the coordinates on the ground corresponding to the predetermined position in the image to be observed may be information input by the administrator. That is, the moving image generation unit 14 aligns the positions of the images based on the position information of a plurality of predetermined positions in the image of the observation target on different dates and times, and combines the position information of the predetermined positions in the image of the observation target for different dates and times. A moving image may be generated in which these images are displayed in chronological order.

出力部16は、生成した動画像を出力する(ステップS105)。この時、出力部16は、生成した観察対象の動画像における地表座標に基づいて、観察対象を含む地図データや空撮画像内の位置に合せて、動画像を地図データや空撮画像を重畳し、出力するようにしてもよい。これにより、動画生成装置1は、地図データや空撮画像に重畳した観察対象の動画像を端末などの装置のディスプレイに表示することができる。 The output unit 16 outputs the generated moving image (step S105). At this time, the output unit 16 superimposes the moving image on the map data and the aerial image in accordance with the position in the map data and the aerial image including the observation object based on the ground surface coordinates in the generated moving image of the observation object. and output. Thereby, the moving image generation device 1 can display the moving image of the observation target superimposed on the map data or the aerial image on the display of the device such as a terminal.

図5は動画生成装置の処理フローを示す第二の図である。
動画生成装置1は、過去から現在までに撮影された観察対象の複数の画像を用いて、過去、現在、将来の観察対象の状態変化の遷移動画を示す動画像を生成してよい。以下の動画生成装置1が、過去に撮影された観察対象の複数の画像を用いて、過去、現在、将来の観察対象の状態変化の遷移動画を示す動画像を生成する処理について説明する。
FIG. 5 is a second diagram showing the processing flow of the motion picture generating device.
The moving image generation device 1 may generate moving images showing transition moving images of state changes of the observation target in the past, present, and future, using a plurality of images of the observation target photographed from the past to the present. A process of generating a moving image showing a transition moving image of state changes of an observation target in the past, present, and future by using a plurality of images of the observation target taken in the past by the moving image generating apparatus 1 will be described below.

動画生成装置1の座標管理部15は、観察対象の画像内の各位置の座標を取得して再計算対象点と特定する(ステップS201)。観察対象の画像内の各位置はGNSSアンテナ2の座標等である。座標管理部15は、再計算対象点の周りの複数の電子基準点を特定する(ステップS202)。これを特定電子基準点(座標基準点)と呼ぶこととする。例えば座標管理部15は再計算対象点の周りの電子基準点のうち、再計算対象点に直線距離が近い3つ以上の電子基準点を特定電子基準点と特定してよい。または座標管理部15は、再計算対象点を中心とした数10km,数100kmの半径の円に含まれる電子基準点を全て特定し、それら電子基準点が2つ未満であれば、さらに再計算対象点を中心とする半径を拡大した円に含まれる電子基準点を全て特定するようにしてもよい。座標管理部15は再計算対象点に直線距離が近い5つ、6つ等の数の電子基準点を特定電子基準点と特定してもよい。 The coordinate management unit 15 of the moving image generation device 1 acquires the coordinates of each position in the image to be observed and identifies them as recalculation target points (step S201). Each position in the image of the observation target is the coordinates of the GNSS antenna 2 or the like. The coordinate management unit 15 identifies a plurality of electronic reference points around the recalculation target point (step S202). This is called a specific electronic reference point (coordinate reference point). For example, the coordinate management unit 15 may specify, as specific electronic reference points, three or more electronic reference points that are close to the recalculation target point from among the electronic reference points around the recalculation target point. Alternatively, the coordinate management unit 15 identifies all electronic reference points included in circles with radii of several tens of kilometers and several hundreds of kilometers centered on the point to be recalculated, and if the number of electronic reference points is less than two, further recalculation All electronic reference points included in a circle with an enlarged radius centered on the target point may be identified. The coordinate management unit 15 may specify, as specific electronic reference points, five, six, or the like electronic reference points that are close to the recalculation target point in a straight line.

座標管理部15は再計算対象点を基準として特定した特定電子基準点の最新の座標(緯度、経度、標高)の出力を電子基準点算出部17に要求する。当該要求には今日の日時が含まれてよい。なお所定の任意の日時の再計算対象点の最新の座標を算出したい場合にはこの日時情報を任意の日時に変更すればよい。電子基準点算出部17はGPS等を含むGNSSなどの衛星測位信号受信装置から取得した電子基準点の座標情報に基づいて、座標管理部15が再計算対象点を基準として特定した電子基準点の今日の座標を算出する(ステップS203)。当該座標は予め算出されていてもよい。予め各電子基準点の今日の座標が算出されている場合には、この時点で電子基準点算出部17は特定電子基準点の座標をデータベース等から読み込むようにすればよい。そして座標管理部15は、再計算対象点を基準として特定した各特定電子基準点の今日の最新の座標を取得し、その座標を用いて再計算対象点の今日の最新の座標(緯度,経度)と移動速度とを算出する(ステップS204)。 The coordinate management unit 15 requests the electronic reference point calculation unit 17 to output the latest coordinates (latitude, longitude, altitude) of the specific electronic reference point specified with reference to the recalculation target point. The request may include today's date and time. If it is desired to calculate the latest coordinates of the point to be recalculated for a predetermined arbitrary date and time, the date and time information may be changed to an arbitrary date and time. Based on the coordinate information of the electronic reference points acquired from the satellite positioning signal receiver such as GNSS including GPS, the electronic reference point calculation unit 17 determines the electronic reference points specified by the coordinate management unit 15 with reference to the recalculation target point. Today's coordinates are calculated (step S203). The coordinates may be calculated in advance. If today's coordinates of each electronic reference point are calculated in advance, the electronic reference point calculator 17 may read the coordinates of the specific electronic reference point from a database or the like at this point. Then, the coordinate management unit 15 acquires today's latest coordinates (latitude, longitude ) and the moving speed are calculated (step S204).

座標管理部15は、当該再計算対象点について観察対象の画像から取得した座標と、新たに算出した今日の最新の座標との差に基づいて、当該再計算対象点の移動方向ベクトルを算出する(ステップS205)。座標管理部15はそれら新たに算出した座標、移動速度、移動方向ベクトルを、再計算対象点の最新の座標情報と特定する。座標管理部は、観察対象の画像において特定した再計算対象点の最新の座標を、当該観察対象のIDに紐づけて記録する。 The coordinate management unit 15 calculates the movement direction vector of the recalculation target point based on the difference between the coordinates obtained from the observation target image and the newly calculated today's latest coordinates for the recalculation target point. (Step S205). The coordinate management unit 15 identifies the newly calculated coordinates, moving speed, and moving direction vector as the latest coordinate information of the point to be recalculated. The coordinate management unit records the latest coordinates of the recalculation target point specified in the image of the observation target in association with the ID of the observation target.

また座標管理部15は、再計算対象点に基づいて特定した特定電子基準点の将来の複数の所定日時の座標(緯度、経度、標高)の出力を電子基準点算出部17に要求する。当該要求には将来の所定の複数の日時が含まれてよい。電子基準点算出部17はGPSなどの衛星測位信号受信装置から過去に取得した座標などの情報に基づいて、座標管理部15が再計算対象点を基準として特定した電子基準点の所定の将来の複数の日時それぞれにおける座標(緯度,経度)をステップS203と同様に算出する(ステップS206)。当該座標は予め算出されていてもよい。予め各電子基準点の所定の将来の複数の日時における座標が算出されている場合には、この時点で電子基準点算出部17は特定電子基準点の所定の将来の複数の日時における座標をデータベース等から読み込むようにすればよい。そして座標管理部15は、再計算対象点を基準として特定した各特定電子基準点の所定の将来の複数の日時における座標を取得し、その座標を用いて再計算対象点の所定の将来の複数の日時における座標(緯度,経度)と移動速度とを算出する(ステップS207)。 The coordinate management unit 15 also requests the electronic reference point calculation unit 17 to output the coordinates (latitude, longitude, altitude) of a plurality of predetermined future dates and times of the specific electronic reference point specified based on the recalculation target points. The request may include a number of predetermined dates and times in the future. Based on information such as coordinates acquired in the past from a satellite positioning signal receiver such as GPS, the electronic reference point calculation unit 17 determines the predetermined future position of the electronic reference point specified by the coordinate management unit 15 with reference to the point to be recalculated. Coordinates (latitude, longitude) for each of the plurality of dates and times are calculated in the same manner as in step S203 (step S206). The coordinates may be calculated in advance. If the coordinates of each electronic reference point at a plurality of predetermined future dates and times are calculated in advance, the electronic reference point calculation unit 17 stores the coordinates of the specific electronic reference point at a plurality of predetermined future dates and times in the database at this point. It should be read from etc. Then, the coordinate management unit 15 acquires the coordinates of each specific electronic reference point specified based on the recalculation target point at a plurality of predetermined future dates and times, and uses the coordinates to acquire the coordinates of the recalculation target point at a plurality of predetermined future dates. The coordinates (latitude, longitude) and moving speed at the date and time are calculated (step S207).

座標管理部15は、当該再計算対象点について観察対象の画像から取得した座標と、新たに算出した所定の将来の日時における再計算対象点の座標との差に基づいて、当該再計算対象点の将来の複数の日時それぞれにおける移動方向ベクトルを算出する(ステップS208)。座標管理部15はそれら新たに算出した所定の将来の複数の日時それぞれの座標、移動速度、移動方向ベクトルを、再計算対象点の所定の将来の座標情報と特定する。座標管理部15は、観察対象の画像において特定した再計算対象点の所定の将来の複数の日時それぞれの座標情報を、当該観察対象のIDに紐づけて記録する。なお、座標管理部15は、異なる複数の将来の複数の日時における、再計算対象点の座標、移動速度、移動ベクトルを同様に算出し、当該観察対象のIDや将来の複数の日時の情報に紐づけて記録する。座標管理部15は、1つまたは複数の将来の所定の日時における再計算対象点についての座標、移動速度、移動ベクトルを繰り返し算出する。 The coordinate management unit 15 calculates the recalculation target point based on the difference between the coordinates obtained from the observation target image for the recalculation target point and the newly calculated coordinates of the recalculation target point at a predetermined future date and time. A movement direction vector at each of a plurality of future dates and times is calculated (step S208). The coordinate management unit 15 identifies the coordinates, moving speed, and moving direction vector of each of the newly calculated predetermined future dates and times as the predetermined future coordinate information of the recalculation target point. The coordinate management unit 15 records the coordinate information of each of a plurality of predetermined future dates and times of the recalculation target point specified in the image of the observation target in association with the ID of the observation target. Note that the coordinate management unit 15 similarly calculates the coordinates, moving speed, and moving vector of the point to be recalculated at a plurality of different future dates and times, and stores the ID of the observation target and the information of the plurality of future dates and times. Link and record. The coordinate management unit 15 repeatedly calculates coordinates, moving speeds, and moving vectors for recalculation target points at one or more predetermined future dates and times.

これにより動画生成装置1は、観察対象の再計算対象点として特定した位置に関する過去、現在、1つまたは複数の将来の所定の日時における、座標、移動速度、移動ベクトルを、記憶することができる。 As a result, the moving image generating device 1 can store coordinates, moving speeds, and moving vectors at predetermined dates and times in the past, present, and one or more futures regarding positions specified as recalculation target points of observation targets. .

そして動画生成部14は、それら観察対象の再計算対象点として特定した複数の位置に関する過去、現在、将来の所定の複数の日時の、座標、移動速度、移動ベクトルを用いて、過去、現在、将来の所定の日時、のそれぞれにおける観察対象の3次元形状を算出する(ステップS209)。過去、現在、将来の所定の日時の座標、移動速度、移動ベクトルを用いれば、観察対象の過去、現在、将来の形状(状態)を、公知の3次元モデル生成処理を用いて算出することができる。動画生成部14は、生成した観察対象の過去、現在、将来の形状に基づいて、その観察対象の3次元形状の形状変化の遷移動画を生成する(ステップS210)。一例として、動画生成部14は、所定の期間の間隔で数多くの観察対象の過去、現在、将来の形状を算出すれば、それらの形状を順に表示することにより観察対象の3次元形状の形状変化の遷移動画を生成することができる。 Then, the moving image generation unit 14 uses the coordinates, moving speeds, and moving vectors of a plurality of predetermined dates and times in the past, present, and future regarding the plurality of positions specified as the recalculation target points of the observation target to generate the past, present, and The three-dimensional shape of the observation target at each predetermined future date and time is calculated (step S209). By using coordinates, moving speeds, and moving vectors at predetermined dates and times in the past, present, and future, the past, present, and future shapes (states) of the observation target can be calculated using a known three-dimensional model generation process. can. Based on the generated past, present, and future shapes of the observed object, the moving image generating unit 14 generates a transition moving image of the shape change of the three-dimensional shape of the observed object (step S210). As an example, if the moving image generation unit 14 calculates the past, present, and future shapes of many observation targets at intervals of a predetermined period, the motion picture generation unit 14 displays the shapes in order, thereby showing the shape change of the three-dimensional shape of the observation target. transition animation can be generated.

出力部16は、生成した観察対象の過去、現在、将来の3次元形状の形状変化の遷移動画を出力する(ステップS211)。この時、出力部16は、生成した観察対象の動画像における地表座標に基づいて、観察対象を含む地図データや空撮画像内の位置に合せて、動画像を地図データや空撮画像を重畳し、出力するようにしてもよい。これにより、動画生成装置1は、地図データや空撮画像に重畳した観察対象の動画像を端末などの装置のディスプレイに表示することができる。 The output unit 16 outputs a transition moving image of shape changes of the generated past, present, and future three-dimensional shapes of the observation target (step S211). At this time, the output unit 16 superimposes the moving image on the map data and the aerial image in accordance with the position in the map data and the aerial image including the observation object based on the ground surface coordinates in the generated moving image of the observation object. and output. Thereby, the moving image generation device 1 can display the moving image of the observation target superimposed on the map data or the aerial image on the display of the device such as a terminal.

再計算対象点を基準として特定した電子基準点の最新の座標に基づいて再計算対象点の最新の緯度,経度を算出する上述の処理の詳細を以下説明する。 Details of the above-described processing of calculating the latest latitude and longitude of the recalculation target point based on the latest coordinates of the electronic control point specified with the recalculation target point as a reference will be described below.

まず電子基準点算出部17が、予め国土地理院で管理している電子基準点に近い複数のIGS点の座標及びその単位期間あたりの移動速度を読み込む。IGS点の座標及びその単位期間あたりの移動速度はIGS点のデータを蓄積しているサーバなどにアクセスして取得する。IGS点は全世界で300点以上定められた点であり、日本においては筑波や臼田に定められており、また韓国、中国、ロシアにも一つまたは複数点が定められている。また電子基準点算出部17は、電子基準点の座標の情報を当該電子基準点の座標情報を記憶している衛星測位信号受信装置20にアクセスして読み込む。電子基準点の座標は国土地理院によって1997年1月1日に定められた座標値である(通常、『測地成果2000』と呼ばれている)。 First, the electronic reference point calculation unit 17 reads the coordinates of a plurality of IGS points near the electronic reference points managed in advance by the Geospatial Information Authority of Japan and their movement speeds per unit period. The coordinates of the IGS points and their moving speeds per unit period are obtained by accessing a server storing data on the IGS points. More than 300 IGS points have been set all over the world. In Japan, Tsukuba and Usuda points are set, and one or more points are set in Korea, China, and Russia. Further, the electronic reference point calculation unit 17 accesses the satellite positioning signal receiving device 20 storing the coordinate information of the electronic reference point and reads information on the coordinates of the electronic reference point. The coordinates of the electronic reference point are the coordinate values determined by the Geospatial Information Authority of Japan on January 1, 1997 (usually referred to as "geographic results 2000").

電子基準点算出部17は、各電子基準点の座標と、その近傍(周辺)の3つ以上のIGS点の座標及びその単位期間あたりの移動速度とを用いて、基線解析によって各電子基準点の座標を化成し、電子基準点化成値を算出する。ここで、基線解析は例えば『土屋淳、外1名、「やさしいGPS測量」、社団法人日本測量協会、1991年10月5日,p.238-305』に記載されているような公知の技術を利用すればよい。なお電子基準点算出部17は、電子基準点1300点のうち選点した電子基準点についてその電子基準点化成値(座標)を算出してもよい。そして電子基準点算出部17は、日本全国のまたは定められた電子基準点についての電子基準点化成値(座標)をそれぞれ所定の期間毎(例えば一年や一ヶ月毎)に予め算出しておく。なお電子基準点化成値の算出は地震などによる急激な変動のあった期間を除くようにしてもよい。電子基準点化成値(座標)の算出日時はそれぞれの電子基準点において異なっていてもよい。電子基準点算出部17は各電子基準点について算出した電子基準点化成値(座標)とその算出日時とを対応付けてデータベース106へ書き込んでおく。 The electronic reference point calculation unit 17 uses the coordinates of each electronic reference point, the coordinates of three or more IGS points in the vicinity (periphery), and the moving speed per unit period of each electronic reference point by baseline analysis. , and calculate the electronic reference point chemical value. Here, the baseline analysis is described, for example, in "Atsushi Tsuchiya, 1 Other, 'Easy GPS Survey', Japan Surveyor Association, October 5, 1991, p. 238-305” can be used. Note that the electronic reference point calculation unit 17 may calculate the electronic reference point formation values (coordinates) for electronic reference points selected from among the 1300 electronic reference points. Then, the electronic reference point calculation unit 17 preliminarily calculates the electronic reference point formation values (coordinates) for the electronic reference points all over Japan or for the predetermined electronic reference points for each predetermined period (for example, every year or one month). . It should be noted that the calculation of the electronic reference point formation value may exclude a period of sudden fluctuation due to an earthquake or the like. The calculation date and time of the electronic reference point chemical conversion values (coordinates) may be different for each electronic reference point. The electronic reference point calculation unit 17 writes the electronic reference point formation value (coordinates) calculated for each electronic reference point and the calculation date and time in the database 106 in association with each other.

また電子基準点算出部17は、過去に算出された電子基準点化成値(座標)と新たに算出された電子基準点化成値(座標)との差を算出し、当該座標の差と、電子基準点化成値(座標)を算出した期間間隔とを用いて、ある期間単位における移動速度、つまりある期間単位にどのくらい座標が移動するのかの割合を算出する。例えば電子基準点化成値(座標)の算出期間が1ヵ月毎であり、期間単位が1年の線形的な移動速度を算出する場合で、地震などの大きな変動がなければ、1ヵ月毎に算出された電子基準点化成値(座標)のうちの、連続する2ヶ月間の間に算出された2つの電子基準点化成値(座標)の差を12倍することにより、1年間における移動速度が計算できる。または電子基準点算出部17は、カルマンフィルターなどの予測フィルターを用いて各電子基準点の移動速度を算出してもよい。 Further, the electronic reference point calculation unit 17 calculates the difference between the previously calculated electronic reference point formation value (coordinates) and the newly calculated electronic reference point formation value (coordinates), Using the period intervals for which the reference point conversion values (coordinates) are calculated, the movement speed in a certain period unit, that is, the ratio of how much the coordinates move in a certain period unit is calculated. For example, if the calculation period of the GNSS CORSs chemical values (coordinates) is every month, and the period unit is one year, and the linear movement speed is calculated, if there are no major fluctuations such as earthquakes, it will be calculated every month. By multiplying the difference between the two electronic reference point chemical values (coordinates) calculated for two consecutive months out of the calculated electronic reference point chemical values (coordinates), the moving speed in one year is can be calculated. Alternatively, the electronic reference point calculator 17 may calculate the movement speed of each electronic reference point using a prediction filter such as a Kalman filter.

そして電子基準点算出部17はデータベース106に書き込まれている各電子基準点についての電子基準点化成値(座標)とその算出日時に対応付けて、移動速度をさらに書き込む。そして電子基準点算出部17は電子基準点化成値(座標)を算出したすべての電子基準点についての移動速度を算出し、データベース106へ書き込む。つまり、以上の電子基準点算出部17の処理によれば、データベース106には各電子基準点について同一または異なる日時で算出された電子基準点化成値(座標)と移動速度とその算出日時が対応付けられて記録されることとなる。そして、上述の電子基準点算出部17の処理によってデータベース106に処理結果が記録されていき、その後、座標管理部15からの要求によりステップS106において電子基準点算出部17は以下のように特定電子基準点の座標や移動速度を補正する。 Then, the electronic reference point calculation unit 17 further writes the movement speed in association with the electronic reference point formation value (coordinates) for each electronic reference point written in the database 106 and the calculation date and time. Then, the electronic reference point calculation unit 17 calculates the moving speeds for all the electronic reference points for which the electronic reference point formation values (coordinates) have been calculated, and writes them to the database 106 . In other words, according to the processing of the electronic reference point calculation unit 17, the database 106 corresponds to electronic reference point chemical values (coordinates), moving speeds, and calculation dates calculated at the same or different dates for each electronic reference point. It will be attached and recorded. Then, the processing result is recorded in the database 106 by the above-described processing of the electronic reference point calculation unit 17, and thereafter, in step S106 in response to a request from the coordinate management unit 15, the electronic reference point calculation unit 17 performs the following specific electronic reference point calculation unit. Correct the coordinates of the reference point and the movement speed.

図6は特定電子基準点の補正処理の処理フローを示す図である。
特定電子基準点の座標や移動速度の補正値の算出の具体例は、まず電子基準点算出部17が座標管理部15からの特定電子基準点の座標の出力要求に基づいて、再計算対象点の座標を基準としてステップS202において特定された複数の特定電子基準点の識別情報を取得する(ステップS301)。例えばデータベース106に電子基準点の識別情報と座標とが紐づいて記録されていれば、再計算対象点の座標の近傍の特定電子基準点の座標に基づいてその識別情報を取得することができる。電子基準点算出部17は、複数の特定電子基準点の識別情報に基づいて、それら特定電子基準点について同一または異なる日時に算出された電子基準点化成値(座標)と、当該特定電子基準点の移動速度をデータベース106から読み取る(ステップS302)。
FIG. 6 is a diagram showing the processing flow of the specific electronic reference point correction processing.
A specific example of calculation of the coordinates of the specific electronic reference point and the correction value of the moving speed is as follows. The identification information of the plurality of specific electronic control points specified in step S202 is acquired with reference to the coordinates of (step S301). For example, if the identification information and the coordinates of the electronic reference points are linked and recorded in the database 106, the identification information can be obtained based on the coordinates of the specific electronic reference points near the coordinates of the recalculation target point. . The electronic reference point calculation unit 17 calculates the electronic reference point chemical values (coordinates) calculated at the same or different date and time for the specific electronic reference points based on the identification information of a plurality of specific electronic reference points, and the specific electronic reference points. is read from the database 106 (step S302).

そして電子基準点算出部17は、それぞれ同一または異なる日時で算出された各特定電子基準点についての電子基準点化成値(座標)を、それら電子基準点化成値に対応する各移動速度を用いて、本処理を行っている日や、将来の所定の日時の座標値に補正する(ステップS303)。例えば、ある特定電子基準点の電子基準点化成値とその座標(X,Y,Z)における単位期間(1年とする)あたりの移動速度(Vx,Vy,Vz)が1月1日に算出され、再化成処理の日がその年の4月1日であれば、1月1日から4月1日までは90日あるので、特定電子基準点の電子基準点化成値における座標の補正値Hは、H=(X,Y,Z)+(Vx,Vy,Vz)×(90/365)で算出することができる。この処理により電子基準点算出部17は本処理を行っている日や所定の将来の日時における各特定電子基準点の座標となるよう電子基準点化成値を補正する。 Then, the electronic reference point calculation unit 17 calculates the electronic reference point formation values (coordinates) for each specific electronic reference point calculated on the same or different date and time using each moving speed corresponding to the electronic reference point formation values. , the coordinate values are corrected to the day on which this processing is being performed or a predetermined future date and time (step S303). For example, the electronic reference point formation value of a specific electronic reference point and the movement speed (Vx, Vy, Vz) per unit period (one year) at its coordinates (X, Y, Z) are calculated on January 1st. If the re-formation treatment date is April 1st of the year, there are 90 days from January 1st to April 1st. H can be calculated by H=(X, Y, Z)+(Vx, Vy, Vz)×(90/365). Through this processing, the electronic reference point calculation unit 17 corrects the electronic reference point formation values so that the coordinates of each specific electronic reference point on the day on which this processing is being performed or on a predetermined future date and time.

電子基準点化成値の補正が終了すると次に電子基準点算出部17は、各特定電子基準点における補正後の電子基準点化成値とその移動速度を用いて、四次元統合網平均計算式により、特定電子基準点ごとの同一時点(例えば本処理を行っている今日の日時や所定の将来の日時)における座標とその座標における移動速度との推定値を算出する(ステップS304)。四次元統合網平均とは、三次元の座標と速度の四次元の情報を用いて行う統合網平均計の計算手法である。ここで四次元統合網平均計算式は式(1)により表される式である。 After the correction of the electronic reference point formation value is completed, the electronic reference point calculation unit 17 uses the corrected electronic reference point formation value and its moving speed at each specific electronic reference point, and calculates the four-dimensional integrated network average calculation formula. , and an estimated value of the coordinates at the same point in time (for example, today's date and time when this process is being performed or a predetermined future date and time) and the moving speed at those coordinates for each specific electronic control point (step S304). Four-dimensional integrated network averaging is a calculation method of integrated network average using three-dimensional coordinates and four-dimensional information of velocity. Here, the four-dimensional integrated network average calculation formula is expressed by formula (1).

Figure 2023023112000002
Figure 2023023112000002

この式(1)においてベクトルVは残差、ベクトルXは未知の測位点の座標、ベクトルSは未知の測位点の座標の変化率(移動速度)、L(数式中では小文字のl(エル)を使用)は観測値(既知の測位点の座標とIGS点とを結ぶ基線の長さと、そのベクトル)、Aは計画行列(デザインマトリックス)、Gは係数行列である。なお測位点は特定電子基準点である。そして式(1)を最小二乗コロケーションで解くと、 In this formula (1), the vector V is the residual, the vector X is the coordinates of the unknown positioning point, the vector S is the rate of change (moving speed) of the coordinates of the unknown positioning point, L (lowercase l in the formula) is used) is the observed value (the length of the base line connecting the coordinates of the known positioning point and the IGS point and its vector), A is the design matrix, and G is the coefficient matrix. The positioning points are specific electronic reference points. And solving equation (1) with least-squares collocation, we get

Figure 2023023112000003
Figure 2023023112000003

Figure 2023023112000004
Figure 2023023112000004

となり、X,S,Vの推定値X^,S^,V^(^は推定値を表す)は、 As a result, the estimated values X^, S^, V^ (^ represents the estimated value) of X, S, and V are

Figure 2023023112000005
Figure 2023023112000005

Figure 2023023112000006
Figure 2023023112000006

Figure 2023023112000007
Figure 2023023112000007

により算出することができる。以上の処理によれば、電子基準点算出部17が同一日に統一して作成(化成)された複数の特定電子基準点の座標を用いて、さらに四次元統合網平均によってその値を推定するので、精度の高い現在の特定電子基準点の座標と移動速度を算出することができる。 It can be calculated by According to the above processing, the electronic reference point calculation unit 17 uses the coordinates of a plurality of specific electronic reference points created (formed) on the same day, and further estimates the values by the four-dimensional integrated network average. Therefore, the coordinates and moving speed of the current specific electronic reference point can be calculated with high accuracy.

図7は電子基準点の推定処理の概要を示す図である。
この図ではIGS点4つ(IGS点1~4)、特定電子基準点4つ(電子基準点A~D)を用いて、当該4つの特定電子基準点の今日や将来の所定の日時の座標を推定処理してその緯度と移動速度を求めている様子を示している。このような四次元統合網平均により、同日における精度の高い座標および移動速度の算出を行うことができる。
FIG. 7 is a diagram showing an outline of the electronic reference point estimation process.
In this figure, four IGS points (IGS points 1 to 4) and four specific GNSS CORSs points (Electronic GNSS CORSs A to D) are used to calculate the coordinates of the four specified GNSS CORSs on today and a predetermined future date and time. is estimated and its latitude and moving speed are obtained. With such a four-dimensional integrated network average, highly accurate coordinates and moving speeds on the same day can be calculated.

図8は再計算対象点の最新の緯度経度の算出処理フローを示す図である。
次に、上述の処理によって推定された特定電子基準点の情報を用いて観察対象において特定した再計算対象点の各座標の推定を行うステップS204、ステップS207の処理の詳細について以下説明する。
FIG. 8 is a diagram showing a processing flow for calculating the latest latitude and longitude of recalculation target points.
Next, the details of the processing in steps S204 and S207 for estimating each coordinate of the recalculation target points specified in the observation target using the information on the specific electronic reference point estimated by the above processing will be described below.

まず座標管理部15は、再計算対象点を基準とした複数の特定電子基準点の今日または所定の将来の日時の最新の座標と移動速度とを電子基準点算出部17から取得する(ステップS701)。また座標管理部15は、観察対象において特定した複数の再計算対象点について過去に算出された座標と当該座標における移動速度とをデータベース106から取得する(ステップS702)。座標管理部15は、再計算対象点についての座標や移動速度が過去に算出されていない場合には、地図データに含まれる再計算対象点についての座標や移動速度を取得してもよい。 First, the coordinate management unit 15 acquires from the electronic reference point calculation unit 17 the latest coordinates and moving speeds of a plurality of specific electronic reference points with reference to the recalculation target point for today or a predetermined future date and time (step S701). ). The coordinate management unit 15 also acquires from the database 106 the coordinates calculated in the past for the plurality of recalculation target points specified in the observation target and the moving speeds at the coordinates (step S702). If the coordinates and moving speed of the recalculation target point have not been calculated in the past, the coordinate management unit 15 may acquire the coordinates and moving speed of the recalculation target point included in the map data.

そして座標管理部15は再計算対象点の座標を、特定電子基準点の座標が算出された日(本処理を行っている日や所定の将来の日時)と同一の日の座標へと補正する(ステップS703)。この処理は上述の電子基準点における電子基準点化成値の補正と同様の処理である。そして座標管理部15は、それら同一日に統一して作成(化成)された再計算対象点における座標とその移動速度と、当該同一日の座標として算出された複数の特定電子基準点の座標およびその座標における移動速度とを用いて、四次元統合網平均計算式により、再計算対象点ごとの同一時点における推定値(座標と移動速度)を算出する(ステップS704)。この四次元統合網平均の計算についても上述した特定電子基準点における推定処理と同様である。なおこの計算においてベクトルVは残差、ベクトルXは未知の測位点の座標、ベクトルSは未知の測位点の座標の変化率(移動速度)、Lは観測値(既知の測位点の座標と電子基準点とを結ぶ基線の長さと、そのベクトル)、Aは計画行列(デザインマトリックス)、Gは係数行列であり、測位点は再計算対象点となる。以上の処理によれステップS204、ステップS207における座標管理部15の再計算対象点の最新の座標(緯度,経度)と移動速度との算出が終了する。座標管理部15による上述の処理によれば、過去、現在、将来の所定日時の座標や移動速度を精度よく算出することができる。 Then, the coordinate management unit 15 corrects the coordinates of the recalculation target point to the coordinates of the same date as the date when the coordinates of the specific electronic reference point were calculated (the date when this process is being performed or a predetermined future date and time). (Step S703). This processing is the same processing as the correction of the electronic reference point chemical conversion value at the electronic reference point described above. Then, the coordinate management unit 15 stores the coordinates of the points to be recalculated and their moving speeds uniformly created (formed) on the same day, the coordinates of a plurality of specific electronic reference points calculated as the coordinates on the same day, and the Estimated values (coordinates and moving speed) at the same point in time for each recalculation target point are calculated by the four-dimensional integrated network average calculation formula using the moving speed at the coordinates (step S704). Calculation of this four-dimensional integrated network average is also the same as the above-described estimation processing at the specific electronic reference point. In this calculation, vector V is the residual, vector X is the coordinates of the unknown positioning point, vector S is the rate of change (moving speed) of the coordinates of the unknown positioning point, and L is the observed value (the coordinates of the known positioning point and electronic The length of the base line connecting the reference point and its vector), A is a design matrix, G is a coefficient matrix, and the positioning point is a recalculation target point. Calculation of the latest coordinates (latitude, longitude) and moving speed of the point to be recalculated by the coordinate management unit 15 in steps S204 and S207 is completed by the above processing. According to the above-described processing by the coordinate management unit 15, it is possible to accurately calculate the past, present, and future coordinates and moving speed at predetermined dates and times.

図9は再計算対象点の算出処理の概要を示す図である。
この図では特定電子基準点8つ(電子基準点A~H)、再計算対象点Xの1つと、を用いて、当該再計算対象点Xの座標と移動速度とを算出する様子を示している。このように、それぞれの特定電子基準点の過去に算出された座標を推定処理により同一日に統一して作成(化成)する処理と、図6で示す四次元統合網平均により、再計算対象点Xの精度の高い座標および移動速度の算出を行うことができる。
FIG. 9 is a diagram showing an outline of calculation processing of recalculation target points.
This figure shows how eight specific electronic reference points (electronic reference points A to H) and one recalculation target point X are used to calculate the coordinates and moving speed of the recalculation target point X. there is In this way, the process of unifying and creating (formation) the coordinates calculated in the past of each specific electronic reference point on the same day by the estimation process, and the recalculation target point by the four-dimensional integrated network average shown in FIG. It is possible to calculate the coordinates of X with high accuracy and the moving speed.

図10は動画生成装置の出力例を示す第一の図である。
動画生成装置1は観察対象が山体などの地形情報であるとする。動画生成装置1は、過去、現在、将来の所定日時の山体の各位置(再計算対象点)の座標情報を上述の処理により算出する。動画生成装置1は、それら座標情報を用いて、過去、現在、将来の山体の形状変化の遷移動画を生成する。動画生成装置1は、過去、現在、将来の山体の形状変化の遷移動画を端末のディスプレイに表示する。
FIG. 10 is a first diagram showing an output example of the moving image generating device.
The motion picture generation device 1 assumes that the object to be observed is terrain information such as a mountain. The moving image generating device 1 calculates the coordinate information of each position (recalculation target point) of the mountain body at a predetermined date and time in the past, present, and future by the above-described processing. The moving image generating device 1 uses the coordinate information to generate transition moving images of past, present, and future shape changes of mountain bodies. The moving image generation device 1 displays transition moving images of past, present, and future shape changes of mountain bodies on the display of the terminal.

動画生成装置1は、例えば山体に崩落などがあった場合に外部の災害発生報知装置や地震計などのセンサなどから災害発生信号を取得する。動画生成装置1は、この災害発生信号の取得をトリガとして山体などの観察対象の形状変化の遷移動画を生成してよい。または動画生成装置1は、地上レーザスキャナ33から得た3D画像の災害発生前後の観察対象の形状の変化を、当該災害発生前後の3D画像が示す形状に基づいて検出して、この形状変化をトリガとして山体などの観察対象の形状変化の遷移動画を生成してよい。この場合、動画生成装置1は、災害発生信号に含まれる位置情報(緯度経度)、時刻や、形状変化を検出した時刻や地上レーザスキャナ33の位置情報に基づいて、撮影装置3(ドローン31、航空機32、地上レーザスキャナ33など)の撮影した観察対象を含む過去の画像を特定する。そして動画生成装置1は、上述の処理と同様にこの画像を用いて過去、現在、将来の山体の形状変化の遷移動画を生成する。この遷移動画の生成処理において、動画生成部14は、地上レーザスキャナ33から得た3D画像の、災害発生時刻の前後の画像と、他のドローン31や航空機32などの少なくとも一つまたは複数の撮影装置3から得た3D画像の、縮尺や基準座標を統合して、それらが3D画像を合成した遷移動画を生成するようにしてよい。この処理は、動画生成部14が、観察対象の画像に基づいて生成した3D画像の形状の変化や、センサから取得した信号の受信に基づいて処理開始タイミングを特定し、当該処理開始タイミングの前後の観察対象の画像を用いて遷移動画を生成する処理の一態様である。なお他の動画生成装置の出力例においても同様に観察対象の画像に基づいて生成した3D画像の形状の変化や、センサから取得した信号の受信に基づいて処理開始タイミングを特定し、当該処理開始タイミングの前後の観察対象の画像を用いて遷移動画を生成するようにしてもよい。 The video generating device 1 acquires a disaster occurrence signal from an external disaster alerting device or a sensor such as a seismometer when, for example, a mountain collapses. The motion picture generation device 1 may generate a transition motion picture of a change in shape of an observation target such as a mountain body using the acquisition of the disaster occurrence signal as a trigger. Alternatively, the moving image generation device 1 detects a change in the shape of the observation target in the 3D image obtained from the terrestrial laser scanner 33 before and after the disaster based on the shape shown by the 3D image before and after the disaster, and detects the shape change. As a trigger, a transition video of shape change of an observation target such as a mountain body may be generated. In this case, the moving image generating device 1 generates the position information (latitude and longitude) included in the disaster occurrence signal, the time, the time when the shape change is detected, and the position information of the ground laser scanner 33, based on the image capturing device 3 (drone 31, (aircraft 32, terrestrial laser scanner 33, etc.). Then, the moving image generating device 1 uses this image to generate transition moving images of past, present, and future shape changes of mountain bodies in the same manner as in the above-described processing. In this transition moving image generation process, the moving image generation unit 14 generates 3D images obtained from the terrestrial laser scanner 33, images before and after the disaster occurrence time, and at least one or more shots of other drones 31, aircraft 32, and the like. The scale and reference coordinates of the 3D images obtained from the device 3 may be integrated to generate a transition animation in which the 3D images are combined. In this processing, the moving image generation unit 14 identifies the processing start timing based on the change in the shape of the 3D image generated based on the image of the observation target and the reception of the signal acquired from the sensor, and performs the processing before and after the processing start timing. This is one mode of processing for generating a transition moving image using an observation target image of . It should be noted that in the output examples of other moving image generating devices, the processing start timing is specified based on the change in the shape of the 3D image generated based on the image of the observation target and the reception of the signal acquired from the sensor, and the processing is started. A transition moving image may be generated using images of the observation target before and after the timing.

動画生成装置1は、観察対象となる地盤沈下の発生しているエリアまたは発生する可能性のあるエリアを観察対象としてもよい。動画生成装置1は、過去、現在、将来の所定日時の地盤沈下の観察エリアの各位置(再計算対象点)の座標情報、移動ベクトルを上述の処理により算出する。動画生成装置1は、それら座標情報を用いて、過去、現在、将来の地盤沈下の観察エリアの形状変化の遷移動画を生成する。動画生成装置1は、過去、現在、将来の地盤沈下の観察エリアの形状変化の遷移動画を端末のディスプレイに表示する。 The moving image generation device 1 may set an observation target to be an area where ground subsidence is occurring or may occur. The moving image generating device 1 calculates the coordinate information and the movement vector of each position (recalculation target point) of the ground subsidence observation area at a predetermined date and time in the past, present, and future by the above-described processing. The moving image generation device 1 uses the coordinate information to generate transition moving images of changes in the shape of the past, present, and future ground subsidence observation areas. The moving image generation device 1 displays transition moving images of changes in the shape of the observation area of ground subsidence in the past, present, and future on the display of the terminal.

図11は動画生成装置の出力例を示す第二の図である。
動画生成装置1は観察対象が飛行場で、樹木の生えているエリアがある場合には、そのエリアの樹木の形状変化の遷移動画を生成するようにしてもよい。この場合、動画生成装置1の動画生成部14は、観察対象である飛行場の画像から樹木の生えているエリアを各画素の色情報に基づいて特定する。または動画生成部14は観察対象の画像において樹木の形状のパターン認識や、機械学習モデルを用いた認識処理により、観察対象の画像における樹木を特定するようにしてもよい。データベース106には予め地域に応じた樹木の単位期間あたり成長量の情報が記録されている。動画生成部14は、観察対象の画像に樹木を特定した場合に、その樹木の将来の各日時における3次元形状を、当該樹木の期間あたりの成長量に応じて算出する。そして、動画生成部14は、過去、現在、複数の将来日時の、観察対象の一つである樹木の形状変化の遷移動画を生成する。一例として動画生成部14は、図11に示すように、樹木の形状変化の遷移を示す遷移動画を生成することができる。動画生成装置1は上記の他の形状変化の遷移動画に、樹木の形状変化の遷移を示す遷移動画を重ねた動画を生成するようにしてもよい。
FIG. 11 is a second diagram showing an output example of the moving image generating device.
If the object of observation is an airport and there is an area with trees, the moving image generating device 1 may generate a transition moving image of the shape change of the trees in that area. In this case, the moving image generating unit 14 of the moving image generating device 1 identifies an area where trees grow from the image of the airport to be observed, based on the color information of each pixel. Alternatively, the moving image generation unit 14 may identify the tree in the observation target image by pattern recognition of the shape of the tree in the observation target image or recognition processing using a machine learning model. In the database 106, information on the amount of growth of trees per unit period corresponding to the region is recorded in advance. When a tree is specified in the observation target image, the moving image generation unit 14 calculates the three-dimensional shape of the tree at each future date and time according to the amount of growth of the tree per period. Then, the moving image generation unit 14 generates transition moving images of changes in the shape of a tree, which is one of the observation targets, at past, present, and a plurality of future dates and times. As an example, the moving image generation unit 14 can generate transition moving images showing transitions of tree shape changes, as shown in FIG. 11 . The moving image generating device 1 may generate a moving image by superimposing a transition moving image showing a transition of tree shape change on the other transition moving image of shape change.

図12は動画生成装置の出力例を示す第三の図である。
動画生成装置1は観察対象が宅地エリアで、その宅地エリア内に樹木の生えているエリアがある場合には、そのエリアの樹木の形状変化の遷移動画を生成するようにしてもよい。この場合も同様に、動画生成装置1の動画生成部14は、観察対象である宅地エリアの画像から樹木の生えているエリアを各画素の色情報に基づいて特定する。または動画生成部14は観察対象の画像において樹木の形状のパターン認識や、機械学習モデルを用いた認識処理により、観察対象の画像における樹木を特定するようにしてもよい。データベース106には予め地域に応じた樹木の単位期間あたり成長量の情報が記録されている。動画生成部14は、観察対象の画像に樹木を特定した場合に、その樹木の将来の各日時における3次元形状を、当該樹木の期間あたりの成長量に応じて算出する。そして、動画生成部14は、過去、現在、複数の将来日時の、観察対象の一つである樹木の形状変化の遷移動画を生成する。動画生成装置1は上記の他の形状変化の遷移動画に、樹木の形状変化の遷移を示す遷移動画を重ねた動画を生成するようにしてもよい。
FIG. 12 is a third diagram showing an output example of the moving image generating device.
If the observation target is a residential land area and there is an area with trees in the residential land area, the moving image generation device 1 may generate a transition moving image of the shape change of the trees in that area. In this case as well, the moving image generating unit 14 of the moving image generating device 1 identifies an area where trees grow from the image of the residential land area to be observed, based on the color information of each pixel. Alternatively, the moving image generation unit 14 may identify the tree in the observation target image by pattern recognition of the shape of the tree in the observation target image or recognition processing using a machine learning model. In the database 106, information on the amount of growth of trees per unit period corresponding to the region is recorded in advance. When a tree is specified in the observation target image, the moving image generation unit 14 calculates the three-dimensional shape of the tree at each future date and time according to the amount of growth of the tree per period. Then, the moving image generation unit 14 generates transition moving images of changes in the shape of a tree, which is one of the observation targets, at past, present, and a plurality of future dates and times. The moving image generating device 1 may generate a moving image by superimposing a transition moving image showing a transition of tree shape change on the other transition moving image of shape change.

図13は動画生成装置の出力例を示す第四の図である。
動画生成装置1は撮影装置3(地上レーザスキャナ33など)が撮影した現在の観察対象の画像と、管理者が作成した将来の複数の画像を用いて、当該観察対象の状態変化の遷移動画を生成するようにしてもよい。そして動画生成部14は、撮影装置3が撮影した画像に含まれる観察対象の複数位置の座標情報と、管理者が作成した将来の複数の画像に含まれる観察対象の複数の位置の座標情報とを合わせて、観察対象の状態変化の遷移動画を生成するようにしてもよい。例えば図13に示すように、過去または現在の宅地エリアや宅地造成地の画像と、管理者が作成した将来の状態の対応する宅地エリアや宅地造成地の画像を時系列に表示することで、動画生成部14は、観察対象である宅地エリアや宅地造成地の状態変化の遷移動画を生成することができる。
FIG. 13 is a fourth diagram showing an output example of the motion picture generating device.
The moving image generation device 1 uses the current image of the observation target captured by the imaging device 3 (the terrestrial laser scanner 33, etc.) and a plurality of future images created by the administrator to create a transition moving image of the state change of the observation target. may be generated. Then, the moving image generation unit 14 generates the coordinate information of the plurality of positions of the observation target included in the image captured by the imaging device 3 and the coordinate information of the plurality of positions of the observation target included in the plurality of future images created by the administrator. may be combined to generate a transition video of the state change of the observation target. For example, as shown in FIG. 13, by displaying in chronological order an image of a residential land area or a developed residential land in the past or present and an image of the corresponding residential land area or developed residential land in the future state created by the administrator, The moving image generation unit 14 can generate transition moving images of state changes of a residential land area or a residential land development site to be observed.

なお、観察対象は工事現場であり、動画生成装置1は同様に、工事現場の状態変化の遷移動画を生成するようにしてもよい。この場合も、撮影装置3は、ドローン31、航空機32、地上に設置された複数の定点カメラ(地上レーザスキャナ33など)であってよい。 Note that the object of observation is the construction site, and the moving image generation device 1 may similarly generate a transition moving image of the state change of the construction site. Also in this case, the imaging device 3 may be a drone 31, an aircraft 32, or a plurality of fixed-point cameras (such as a ground laser scanner 33) installed on the ground.

図14は動画生成装置の最小構成を示す図である。
動画生成装置1は、少なくとも、画像取得部と、動画生成部とを備える。
画像取得部12は、異なる時刻に撮影された観察対象の画像を複数取得する。
動画生成部14は、画像に含まれる観察対象の複数位置の座標情報を取得し、異なる時刻に撮影された観察対象の対応する複数位置の座標情報に基づいて、観察対象の状態変化の遷移動画を生成する。
FIG. 14 is a diagram showing the minimum configuration of the moving image generating device.
The moving image generating device 1 includes at least an image acquiring section and a moving image generating section.
The image acquisition unit 12 acquires a plurality of images of an observation target that are captured at different times.
The moving image generation unit 14 acquires coordinate information of a plurality of positions of the observation target included in the image, and based on the coordinate information of the corresponding plurality of positions of the observation target photographed at different times, transition animation of the state change of the observation target. to generate

上述の各装置は内部に、コンピュータシステムを有している。そして、上述した各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。 Each of the devices described above has an internal computer system. Each process described above is stored in a computer-readable recording medium in the form of a program, and the above process is performed by reading and executing this program by a computer. Here, the computer-readable recording medium refers to magnetic disks, magneto-optical disks, CD-ROMs, DVD-ROMs, semiconductor memories, and the like. Alternatively, the computer program may be distributed to a computer via a communication line, and the computer receiving the distribution may execute the program.

また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。 Further, the program may be for realizing part of the functions described above. Further, it may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.

1・・・動画生成装置
2・・・GNSSアンテナ
3・・・撮影装置
11・・・制御部
12・・・画像取得部
13・・・記録部
14・・・動画生成部
15・・・座標管理部
16・・・出力部
17・・・電子基準点算出部
REFERENCE SIGNS LIST 1 motion picture generation device 2 GNSS antenna 3 photographing device 11 control unit 12 image acquisition unit 13 recording unit 14 motion picture generation unit 15 coordinates Management unit 16 Output unit 17 Electronic reference point calculation unit

本発明は、動画生成装置、動画生成方法、プログラム、動画生成システムに関する。 The present invention relates to a moving image generating device, a moving image generating method, a program , and a moving image generating system .

そこでこの発明は、上述の課題を解決する動画生成装置、動画生成方法、プログラム、動画生成システムを提供することを目的としている。 SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide a moving image generating apparatus, a moving image generating method, a program , and a moving image generating system that solve the above-described problems.

本発明の第1の態様によれば、動画生成装置は、異なる時刻に撮影された観察対象の画像を複数取得する画像取得部と、前記画像に含まれる前記観察対象の複数位置の座標情報を取得し、前記異なる時刻に撮影された観察対象の対応する複数位置の座標情報であって前記複数位置の過去の日時から将来の日時までの複数の座標情報を算出する座標管理部と、前記複数位置の過去の日時から将来の日時までの複数の座標情報に基づいて前記日時それぞれにおける前記観察対象の3次元形状を算出しそれら観察対象の3次元形状に基づいて前記観察対象の状態変化の遷移動画を生成する動画生成部と、前記遷移動画を出力する出力部と、を備える。 According to the first aspect of the present invention, a moving image generating device includes an image acquisition unit that acquires a plurality of images of an observation target captured at different times, and coordinate information of a plurality of positions of the observation target included in the images. a coordinate management unit that obtains and calculates a plurality of pieces of coordinate information of the plurality of positions corresponding to the observation target photographed at the different times, the plurality of pieces of coordinate information from the past date and time to the future date and time of the plurality of positions; A three-dimensional shape of the observation target at each date and time is calculated based on a plurality of pieces of coordinate information from a past date and time to a future date and time of the position , and a state change of the observation target is calculated based on the three-dimensional shape of the observation target. A moving image generation unit that generates a transition moving image, and an output unit that outputs the transition moving image.

本発明の第2の態様によれば、動画生成方法は、異なる時刻に撮影された観察対象の画像を複数取得し、前記画像に含まれる前記観察対象の複数位置の座標情報を取得し、前記異なる時刻に撮影された観察対象の対応する複数位置の座標情報であって前記複数位置の過去の日時から将来の日時までの複数の座標情報を算出し、前記複数位置の過去の日時から将来の日時までの複数の座標情報に基づいて前記日時それぞれにおける前記観察対象の3次元形状を算出しそれら観察対象の3次元形状に基づいて前記観察対象の状態変化の遷移動画を生成し、前記遷移動画を出力する。 According to a second aspect of the present invention, a moving image generation method acquires a plurality of images of an observation target captured at different times, acquires coordinate information of a plurality of positions of the observation target included in the images, and calculating a plurality of pieces of coordinate information from the past date and time to the future date and time of the plurality of positions, which are the coordinate information of the plurality of corresponding positions of the observation target photographed at different times, and calculating the future date and time from the past date and time of the plurality of positions; calculating a three-dimensional shape of the observation target at each of the dates and times based on a plurality of pieces of coordinate information up to the date and time ; generating a transition video of state changes of the observation target based on the three-dimensional shapes of the observation target; Output video.

本発明の第3の態様によれば、プログラムは、動画生成装置のコンピュータを、異なる時刻に撮影された観察対象の画像を複数取得する画像取得手段、前記画像に含まれる前記観察対象の複数位置の座標情報を取得し、前記異なる時刻に撮影された観察対象の対応する複数位置の座標情報であって前記複数位置の過去の日時から将来の日時までの複数の座標情報を算出する座標管理手段、前記複数位置の過去の日時から将来の日時までの複数の座標情報に基づいて前記日時それぞれにおける前記観察対象の3次元形状を算出しそれら観察対象の3次元形状に基づいて前記観察対象の状態変化の遷移動画を生成する動画生成手段、として機能させる。 According to the third aspect of the present invention, the program comprises: image acquisition means for acquiring a plurality of images of an observation target captured at different times; and a plurality of positions of the observation target included in the images. coordinate information , and calculates a plurality of pieces of coordinate information from the past date and time to the future date and time of the plurality of positions, which are the coordinate information of the plurality of positions corresponding to the observation object photographed at the different times. calculating a three-dimensional shape of the observation target at each date and time based on a plurality of pieces of coordinate information from a past date and time to a future date and time at the plurality of positions; It functions as animation generation means for generating transition animations of state changes.

本発明の第1の態様によれば、動画生成装置は、異なる時刻に撮影された観察対象の画像を複数取得する画像取得部と、前記画像に含まれる前記観察対象の複数位置の位置センサから地表座標系の座標情報を取得し、前記異なる時刻に撮影された観察対象の対応する過去の日時の複数位置の前記座標情報に基づいて過去の日時から将来の日時までの複数日時の座標情報を算出する座標管理部と、前記複数位置の前記過去の日時から前記将来の日時までの複数日時の座標情報に基づいて前記日時それぞれの複数の前記画像における前記観察対象の3次元形状を算出し、それら各画像の観察対象の3次元形状における前記座標情報を用いて位置を合わせて、当該各画像に基づく前記観察対象の状態変化の遷移動画を生成する動画生成部と、前記遷移動画を出力する出力部と、を備える。 According to the first aspect of the present invention, a moving image generating device includes an image acquisition unit that acquires a plurality of images of an observation target captured at different times, and position sensors at a plurality of positions of the observation target included in the images. Acquiring coordinate information of a ground coordinate system , and obtaining coordinate information of a plurality of dates and times from the past date and time to a future date and time based on the coordinate information of the plurality of positions of corresponding past dates and times of the observation object photographed at the different times. calculating the three-dimensional shape of the observation target in the plurality of images at each of the dates and times based on coordinate information of the plurality of dates and times from the past date and time to the future date and time of the plurality of positions, and a moving image generating unit that aligns the positions of the images using the coordinate information in the three-dimensional shape of the observation target and generates a transition moving image of the state change of the observation target based on each of the images ; and outputting the transition moving image. and an output unit.

本発明の第2の態様によれば、動画生成方法は、異なる時刻に撮影された観察対象の画像を複数取得し、前記画像に含まれる前記観察対象の複数位置の位置センサから地表座標系の座標情報を取得し、前記異なる時刻に撮影された観察対象の対応する過去の日時の複数位置の前記座標情報に基づいて過去の日時から将来の日時までの複数日時の座標情報を算出し、前記複数位置の前記過去の日時から前記将来の日時までの複数日時の座標情報に基づいて前記日時それぞれの複数の前記画像における前記観察対象の3次元形状を算出し、それら各画像の観察対象の3次元形状における前記座標情報を用いて位置を合わせて、当該各画像に基づく前記観察対象の状態変化の遷移動画を生成し、前記遷移動画を出力する。 According to the second aspect of the present invention, a moving image generation method acquires a plurality of images of an observation target captured at different times, and uses position sensors at a plurality of positions of the observation target included in the images to convert the coordinates of the ground surface coordinate system. acquiring coordinate information, and calculating coordinate information for a plurality of dates and times from the past date and time to a future date and time based on the coordinate information for a plurality of positions of the observation target photographed at the different times and corresponding to the past date and time; calculating the three-dimensional shape of the observation target in the plurality of images at each of the dates and times based on the coordinate information of the plurality of dates and times from the past date and time to the future date and time at the plurality of positions; Positions are aligned using the coordinate information in the dimensional shape, transition animations of state changes of the observation target based on the respective images are generated, and the transition animations are output.

本発明の第3の態様によれば、プログラムは、動画生成装置のコンピュータを、異なる時刻に撮影された観察対象の画像を複数取得する画像取得手段、前記画像に含まれる前記観察対象の複数位置の位置センサから地表座標系の座標情報を取得し、前記異なる時刻に撮影された観察対象の対応する過去の日時の複数位置の前記座標情報に基づいて過去の日時から将来の日時までの複数日時の座標情報を算出する座標管理手段、前記複数位置の前記過去の日時から前記将来の日時までの複数日時の座標情報に基づいて前記日時それぞれの複数の前記画像における前記観察対象の3次元形状を算出し、それら各画像の観察対象の3次元形状における前記座標情報を用いて位置を合わせて、当該各画像に基づく前記観察対象の状態変化の遷移動画を生成する動画生成手段、として機能させる。 According to the third aspect of the present invention, the program comprises: image acquisition means for acquiring a plurality of images of an observation target captured at different times; and a plurality of positions of the observation target included in the images. a plurality of dates and times from the past date and time to the future date and time based on the coordinate information of the corresponding past dates and times of the plurality of positions of the observation object photographed at the different times. coordinate management means for calculating the coordinate information of the plurality of positions, based on the coordinate information of the plurality of dates and times from the past date and time to the future date and time, the three-dimensional shape of the observation target in the plurality of images at each of the dates and times. The position of each image is calculated using the coordinate information in the three-dimensional shape of the observation target, and the position of each image is adjusted to generate a transition animation of the state change of the observation target based on each image .

Claims (13)

異なる時刻に撮影された観察対象の画像を複数取得する画像取得部と、
前記画像に含まれる前記観察対象の複数位置の座標情報を取得し、前記異なる時刻に撮影された観察対象の対応する複数位置の座標情報に基づいて、前記観察対象の状態変化の遷移動画を生成する動画生成部と、
前記遷移動画を出力する出力部と、
を備える動画生成装置。
an image acquisition unit that acquires a plurality of images of an observation target captured at different times;
Acquiring coordinate information of a plurality of positions of the observation target included in the image, and generating a transition video of the state change of the observation target based on the coordinate information of the corresponding plurality of positions of the observation target photographed at the different times. a video generation unit that
an output unit that outputs the transition video;
A moving image generation device comprising:
前記観察対象の複数位置の座標情報を複数の電子基準点の座標の四次元統合網平均計算を用いた化成値に基づいて算出する座標管理部と、
を備える請求項1に記載の動画生成装置。
a coordinate management unit that calculates the coordinate information of the plurality of positions of the observation target based on the chemical value obtained by using the four-dimensional integrated network average calculation of the coordinates of the plurality of electronic reference points;
The moving image generation device according to claim 1, comprising:
前記動画生成部は、前記観察対象の所定期間の成長量を取得し、当該所定期間の成長量に基づいて、前記観察対象の状態変化の遷移動画を生成する
請求項1または請求項2に記載の動画生成装置。
3. The moving image generation unit according to claim 1, wherein the moving image generation unit acquires the amount of growth of the observation target during a predetermined period of time, and generates a transition moving image of the state change of the observation target based on the amount of growth of the observation target during the predetermined period of time. video generator.
前記動画生成部は、前記画像から前記観察対象のエリアを特定し、当該特定した前記観察対象のエリアの前記状態変化の遷移動画を生成する
請求項1から請求項3の何れか一項に記載の動画生成装置。
4. The moving image generation unit according to any one of claims 1 to 3, wherein the moving image generation unit identifies the observation target area from the image, and generates a transition moving image of the state change in the identified observation target area. video generator.
前記観察対象が地形であり、
前記動画生成部は、前記地形の状態変化の遷移動画を生成する
請求項1から請求項4の何れか一項に記載の動画生成装置。
The observation target is terrain,
The moving image generation device according to any one of claims 1 to 4, wherein the moving image generating unit generates a transition moving image of state change of the terrain.
前記観察対象が山体であり、
前記動画生成部は、前記山体の状態変化の遷移動画を生成する
請求項1から請求項4の何れか一項に記載の動画生成装置。
The observation target is a mountain body,
The moving image generating device according to any one of claims 1 to 4, wherein the moving image generating unit generates transition moving images of state changes of the mountain body.
前記観察対象が地盤沈下エリアであり、
前記動画生成部は、前記地盤沈下エリアの状態変化の遷移動画を生成する
請求項1から請求項4の何れか一項に記載の動画生成装置。
The observation target is a land subsidence area,
The moving image generation device according to any one of claims 1 to 4, wherein the moving image generating unit generates transition moving images of state changes of the ground subsidence area.
前記観察対象が樹木であり、
前記動画生成部は、前記樹木の状態変化の遷移動画を生成する
請求項1から請求項4の何れか一項に記載の動画生成装置。
The observation target is a tree,
The moving image generation device according to any one of claims 1 to 4, wherein the moving image generating unit generates transition moving images of state changes of the tree.
前記観察対象が宅地造成地であり、
前記動画生成部は、前記宅地造成地の状態変化の遷移動画を生成する
請求項1から請求項4の何れか一項に記載の動画生成装置。
The observation target is a residential land development site,
The moving image generation device according to any one of claims 1 to 4, wherein the moving image generating unit generates transition moving images of state changes of the residential land development.
前記観察対象が工事現場であり、
前記動画生成部は、前記工事現場の状態変化の遷移動画を生成する
請求項1から請求項4の何れか一項に記載の動画生成装置。
The observation target is a construction site,
The moving image generating device according to any one of claims 1 to 4, wherein the moving image generating unit generates transition moving images of state changes of the construction site.
前記動画生成部は、前記観察対象の画像に基づいて生成した3D画像の形状の変化に基づいて処理開始タイミングを特定し、当該処理開始タイミングの前後の前記観察対象の画像を用いて前記遷移動画を生成する
請求項1から請求項10の何れか一項に記載の動画生成装置。
The moving image generation unit identifies a processing start timing based on a change in shape of the 3D image generated based on the observation target image, and uses the observation target images before and after the processing start timing to generate the transition moving image. 11. The moving image generating apparatus according to any one of claims 1 to 10, wherein the moving image generating apparatus generates a
異なる時刻に撮影された観察対象の画像を複数取得し、
前記画像に含まれる前記観察対象の複数位置の座標情報を取得し、前記異なる時刻に撮影された観察対象の対応する複数位置の座標情報に基づいて、前記観察対象の状態変化の遷移動画を生成し、
前記遷移動画を出力する
動画生成方法。
Acquire multiple images of the observation target taken at different times,
Acquiring coordinate information of a plurality of positions of the observation target included in the image, and generating a transition video of the state change of the observation target based on the coordinate information of the corresponding plurality of positions of the observation target photographed at the different times. death,
A video generation method for outputting the transition video.
動画生成装置のコンピュータを、
異なる時刻に撮影された観察対象の画像を複数取得する画像取得手段、
前記画像に含まれる前記観察対象の複数位置の座標情報を取得し、前記異なる時刻に撮影された観察対象の対応する複数位置の座標情報に基づいて、前記観察対象の状態変化の遷移動画を生成する動画生成手段、
前記遷移動画を出力する出力手段、
として機能させるプログラム。
The computer of the video production device,
image acquisition means for acquiring a plurality of images of the observation target taken at different times;
Acquiring coordinate information of a plurality of positions of the observation target included in the image, and generating a transition video of the state change of the observation target based on the coordinate information of the corresponding plurality of positions of the observation target photographed at the different times. video generating means for
output means for outputting the transition video;
A program that acts as a
JP2021128338A 2021-08-04 2021-08-04 Animation generation device, animation generation method, program, animation generation system Active JP7195659B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021128338A JP7195659B1 (en) 2021-08-04 2021-08-04 Animation generation device, animation generation method, program, animation generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021128338A JP7195659B1 (en) 2021-08-04 2021-08-04 Animation generation device, animation generation method, program, animation generation system

Publications (2)

Publication Number Publication Date
JP7195659B1 JP7195659B1 (en) 2022-12-26
JP2023023112A true JP2023023112A (en) 2023-02-16

Family

ID=84600906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021128338A Active JP7195659B1 (en) 2021-08-04 2021-08-04 Animation generation device, animation generation method, program, animation generation system

Country Status (1)

Country Link
JP (1) JP7195659B1 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008145935A (en) * 2006-12-13 2008-06-26 Doshisha Historical map output unit, historical map output method, and program
JP2008164508A (en) * 2006-12-28 2008-07-17 Nippo:Kk Positioning point estimating apparatus and positioning point estimation method, and program thereof, and recording medium
WO2017110278A1 (en) * 2015-12-25 2017-06-29 富士フイルム株式会社 Information processing device and information processing method
WO2017170968A1 (en) * 2016-03-30 2017-10-05 株式会社小松製作所 Simulation system and simulation method
WO2017199539A1 (en) * 2016-05-18 2017-11-23 ソニー株式会社 Information processing device, program, and information processing method
JP6528293B1 (en) * 2018-05-23 2019-06-12 株式会社日豊 Dynamic coordinate management apparatus, dynamic coordinate management method, program
JP2019125251A (en) * 2018-01-18 2019-07-25 ヤフー株式会社 Information processor, data structure, information processing method, and program
US20200065583A1 (en) * 2018-08-24 2020-02-27 Loveland Innovations, LLC Image analysis and estimation of rooftop solar exposure
JP2020091702A (en) * 2018-12-06 2020-06-11 オリンパス株式会社 Imaging apparatus and imaging method

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008145935A (en) * 2006-12-13 2008-06-26 Doshisha Historical map output unit, historical map output method, and program
JP2008164508A (en) * 2006-12-28 2008-07-17 Nippo:Kk Positioning point estimating apparatus and positioning point estimation method, and program thereof, and recording medium
WO2017110278A1 (en) * 2015-12-25 2017-06-29 富士フイルム株式会社 Information processing device and information processing method
WO2017170968A1 (en) * 2016-03-30 2017-10-05 株式会社小松製作所 Simulation system and simulation method
WO2017199539A1 (en) * 2016-05-18 2017-11-23 ソニー株式会社 Information processing device, program, and information processing method
JP2019125251A (en) * 2018-01-18 2019-07-25 ヤフー株式会社 Information processor, data structure, information processing method, and program
JP6528293B1 (en) * 2018-05-23 2019-06-12 株式会社日豊 Dynamic coordinate management apparatus, dynamic coordinate management method, program
US20200065583A1 (en) * 2018-08-24 2020-02-27 Loveland Innovations, LLC Image analysis and estimation of rooftop solar exposure
US20210110156A1 (en) * 2018-08-24 2021-04-15 Loveland Innovations, LLC Image analysis and estimation of rooftop solar exposure
JP2020091702A (en) * 2018-12-06 2020-06-11 オリンパス株式会社 Imaging apparatus and imaging method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
佐藤絵里子,外3名: "過去風景動画の自動生成に関する基礎的研究", IEICE TECHNICAL REPORT, JPN6021039542, June 2017 (2017-06-01), JP, ISSN: 0004613842 *
国立大学法人筑波大学,国立大学法人豊橋技術科学大学: "一枚の景観写真から時間経過のアニメーションを自動生成できるAI技術を開発〜高解像度かつ長尺のタイムラプ", [ONLINE], JPN7021004214, 5 November 2019 (2019-11-05), ISSN: 0004613843 *

Also Published As

Publication number Publication date
JP7195659B1 (en) 2022-12-26

Similar Documents

Publication Publication Date Title
Sermet et al. Crowdsourced approaches for stage measurements at ungauged locations using smartphones
CN102575933B (en) System that generates map image integration database and program that generates map image integration database
KR100529401B1 (en) Apparatus and method of dem generation using synthetic aperture radar(sar) data
Diefenbach et al. Rapid, low-cost photogrammetry to monitor volcanic eruptions: an example from Mount St. Helens, Washington, USA
KR100538343B1 (en) Method for constituting gis of river information by updating river area facilities information to digital map via mobile internet
Giordan et al. Brief Communication: The use of an unmanned aerial vehicle in a rockfall emergency scenario
KR101011813B1 (en) Installaion for displaying overlap line of adjoined digital aerial photograph
CN102741706A (en) Method for geo-referencing an imaged area
KR100822814B1 (en) Method for overlapping real-time landscape image and gis data
Nota et al. Improving UAV-SfM time-series accuracy by co-alignment and contributions of ground control or RTK positioning
CN114646992A (en) Positioning method, positioning device, computer equipment, storage medium and computer program product
Mirko et al. Assessing the Impact of the Number of GCPS on the Accuracy of Photogrammetric Mapping from UAV Imagery
CN108253942B (en) Method for improving oblique photography measurement space-three quality
Dinkov et al. Advantages, disadvantages and applicability of GNSS post-processing kinematic (PPK) method for direct georeferencing of UAV images
Iizuka et al. Improving the 3D model accuracy with a post-processing kinematic (PPK) method for UAS surveys
Li et al. Evaluating the potentiality of using control-free images from a mini Unmanned Aerial Vehicle (UAV) and Structure-from-Motion (SfM) photogrammetry to measure paleoseismic offsets
US20230281942A1 (en) Measurement processing device, method, and program
JP7195659B1 (en) Animation generation device, animation generation method, program, animation generation system
Kröhnert et al. Versatile mobile and stationary low-cost approaches for hydrological measurements
JP5567522B2 (en) Stereo pair search device and stereo pair search method from single image
JP2019203795A (en) Dynamic coordinate management device, dynamic coordinate management method, and program
KR100538321B1 (en) A Computer-Readable Storage Medium Holding the Computer Program for Constituting GIS of River Information by Updating River Pathway Changes to Digital Map via Mobile Internet.
JP5297366B2 (en) Imaging object information generation apparatus and imaging object information generation program
Niu et al. 3D geopositioning accuracy analysis based on integration of QuickBird and IKONOS imagery
Hostens Determining the Effect of Mission Design and Point Cloud Filtering on the Quality and Accuracy of SfM Photogrammetric Products Derived from sUAS Imagery

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210810

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220413

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220826

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220826

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220902

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220928

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221207

R150 Certificate of patent or registration of utility model

Ref document number: 7195659

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150