JP7092312B2 - Plane data processing device, plane data processing method and plane data processing program - Google Patents

Plane data processing device, plane data processing method and plane data processing program Download PDF

Info

Publication number
JP7092312B2
JP7092312B2 JP2020062484A JP2020062484A JP7092312B2 JP 7092312 B2 JP7092312 B2 JP 7092312B2 JP 2020062484 A JP2020062484 A JP 2020062484A JP 2020062484 A JP2020062484 A JP 2020062484A JP 7092312 B2 JP7092312 B2 JP 7092312B2
Authority
JP
Japan
Prior art keywords
data
prediction
plane data
prediction data
division
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020062484A
Other languages
Japanese (ja)
Other versions
JP2021163039A (en
Inventor
政寛 富樫
正太 小林
祐輔 久野
洵平 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Information Systems Japan Corp
Original Assignee
Toshiba Information Systems Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Information Systems Japan Corp filed Critical Toshiba Information Systems Japan Corp
Priority to JP2020062484A priority Critical patent/JP7092312B2/en
Publication of JP2021163039A publication Critical patent/JP2021163039A/en
Application granted granted Critical
Publication of JP7092312B2 publication Critical patent/JP7092312B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

この発明は、平面データ処理装置、平面データ処理方法及び平面データ処理用プログラムに関するものである。 The present invention relates to a plane data processing apparatus, a plane data processing method, and a plane data processing program.

特許文献1には、平面データではなく、広く物に取り付けられたセンサのデータを用いて、物の異常や故障を事前に検知する技術が開示されており、この検知のために、潜在変数とニューラルネットワークを用いた機械学習によるVAE(Variational Auto Encoder)を用いることが記載されている。 Patent Document 1 discloses a technique for detecting an abnormality or failure of an object in advance by using data of a sensor widely attached to an object instead of planar data, and for this detection, a latent variable and a latent variable are disclosed. It is described that VAE (Variational Auto Encoder) by machine learning using a neural network is used.

更に、特許文献2には、データの発生確率分布を推定するために、上記VAEを用いることが開示されている。 Further, Patent Document 2 discloses that the above-mentioned VAE is used to estimate the generation probability distribution of data.

また、特許文献3には、カメラ映像の処理により物体の移動を認識する装置が開示されており、この特許文献3の発明では、対象画像から部分テンプレートを切り出す際に入力画像をニューラルネットワークで学習して物体らしき領域を抽出することが開示されている。 Further, Patent Document 3 discloses a device that recognizes the movement of an object by processing a camera image, and in the invention of Patent Document 3, an input image is learned by a neural network when a partial template is cut out from a target image. It is disclosed that a region that seems to be an object is extracted.

更に、特許文献4には、ニューラルネットワークを用いた推定技術が開示されている。この特許文献4の発明では、ニューラルネットワークを用いたエンコーダとデコーダとが備えられ、エンコーダの最終層にドロップアウト層と全結合層との組み合わせからなる少なくとも1つの一体化層を設けるというものである。 Further, Patent Document 4 discloses an estimation technique using a neural network. In the invention of Patent Document 4, an encoder and a decoder using a neural network are provided, and at least one integrated layer composed of a combination of a dropout layer and a fully connected layer is provided in the final layer of the encoder. ..

国際公開第2019/244930号公報International Publication No. 2019/24930 特開2019-219915号公報JP-A-2019-219915 特開平5-298591号公報Japanese Unexamined Patent Publication No. 5-298591 特開2019-139482号公報Japanese Unexamined Patent Publication No. 2019-139482

いずれの特許文献に記載の発明においても、構成を簡易にして軽量化を図りながら、予測を行うというものではない。 In any of the inventions described in the patent documents, prediction is not made while simplifying the configuration and reducing the weight.

本発明では、平面データの予測を簡易にして軽量化が可能な平面データ処理装置の提供を目的とする。 An object of the present invention is to provide a plane data processing apparatus capable of simplifying prediction of plane data and reducing the weight.

本発明に係る平面データ処理装置は、入力される平面データを所定範囲で規格化する前処理部と、平面データの空間解像度を低下させて特徴量データを抽出する第1のエンコーダと、前記特徴量データの空間解像度を上昇させて第1の予測データを求める第1のデコーダと、前記第1のデコーダにより求められた第1の予測データを前記第1の予測データの形態に応じて複数の分割予測データに分割する分割手段と、前記分割手段が分割した異なる形態の前記分割予測データが入力され、当該分割予測データの空間解像度を維持したまま予測を行い第2の予測データを得る第2のデコーダと、前記第2の予測データに対して、前記規格化と逆の処理を行い予測平面データを作成する後処理部とを具備することを特徴とする。
The plane data processing apparatus according to the present invention has a preprocessing unit that standardizes input plane data within a predetermined range, a first encoder that lowers the spatial resolution of the plane data and extracts feature amount data, and the above-mentioned features. A first decoder that increases the spatial resolution of the amount data to obtain the first prediction data, and a plurality of first prediction data obtained by the first decoder according to the form of the first prediction data. A second division means for dividing into division prediction data and the division prediction data having different forms divided by the division means are input, and prediction is performed while maintaining the spatial resolution of the division prediction data to obtain a second prediction data. It is characterized by comprising a decoder of the above and a post-processing unit that performs the reverse processing of the standardization on the second prediction data to create prediction plane data.

本発明の第1形態に係る平面データ処理装置100を示すブロック図。The block diagram which shows the plane data processing apparatus 100 which concerns on 1st Embodiment of this invention. 本発明の実施形態に用いられる平面データの一例を示す図。The figure which shows an example of the plane data used in embodiment of this invention. 本発明の第2の実施形態に係る平面データ処理装置100Aを示す図。The figure which shows the plane data processing apparatus 100A which concerns on the 2nd Embodiment of this invention. 本発明の実施形態に係るコンピュータシステムの構成図。The block diagram of the computer system which concerns on embodiment of this invention. 本発明の実施形態に係るコンピュータシステムのCPU210が、第1の実施形態または第2の実施形態の平面データ処理装置として動作する場合の動作を示すフローチャート。The flowchart which shows the operation when the CPU 210 of the computer system which concerns on embodiment of this invention operates as a plane data processing apparatus of 1st Embodiment or 2nd Embodiment. 本発明の第3の実施形態に係る平面データ処理装置100Bを示すブロック図。The block diagram which shows the plane data processing apparatus 100B which concerns on 3rd Embodiment of this invention. 本発明に係る第1乃至第3の実施形態に用いられるフィルタの構成図。FIG. 3 is a block diagram of a filter used in the first to third embodiments according to the present invention. 本発明に係る第1乃至第3の実施形態に用いられるフィルタによる1区画目の処理の説明図。The explanatory view of the processing of the 1st section by the filter used in 1st to 3rd Embodiment which concerns on this invention. 本発明に係る第1乃至第3の実施形態に用いられるフィルタによる2区画目以降の処理の説明図。It is explanatory drawing of the process of the 2nd and subsequent sections by the filter used in the 1st to 3rd Embodiment which concerns on this invention. 本発明の第3の実施形態に係る平面データ処理装置100Bの分割手段170が行う処理を示す図。The figure which shows the processing performed by the division means 170 of the plane data processing apparatus 100B which concerns on 3rd Embodiment of this invention. 本発明の実施形態に係る第3の実施形態の効果を示す図。The figure which shows the effect of the 3rd Embodiment which concerns on embodiment of this invention. コンピュータシステムのCPU210が、第3の実施形態の平面データ処理装置として動作する場合の動作を示すフローチャート。The flowchart which shows the operation when the CPU 210 of a computer system operates as a plane data processing apparatus of 3rd Embodiment. 等時間間隔tの時刻t0、t1、t2において、得られた3つの平面データから上記時間間隔tの後の時刻t3における平面データを予測することを示した図。The figure which showed that the plane data at the time t3 after the time interval t is predicted from the three plane data obtained at the time t0, t1, t2 of the equal time interval t. 等時間間隔tの時刻t0、t1、t2において、得られた3つの平面データから上記時間間隔tの3回分後の時刻t5における平面データを予測することを示した図。It is a figure which showed that the plane data at the time t5 three times after the time interval t is predicted from the three plane data obtained at the time t0, t1, t2 of the equal time interval t. 予測をする場合に第1の検出対象が存在から消滅し、当初存在しなかった第2の検出対象が現れ、徐々に存在感を大きくする場合の予測経過を示す図。The figure which shows the prediction progress in the case where the 1st detection target disappears from the existence when making a prediction, the 2nd detection target which did not exist at the beginning appears, and the presence is gradually increased. 複数の検出対象についての追跡予測であり、負の値の部分を有する場合の追跡予測を示す図。The figure which is the follow-up prediction for a plurality of detection targets and shows the follow-up prediction when it has a part of a negative value. 本発明の実施形態で用いる平面データの構造を示す図。The figure which shows the structure of the plane data used in embodiment of this invention. 第1の実施形態と第2の実施形態に係る平面データ処理におけるデータ構造の流れを示す図。The figure which shows the flow of the data structure in the plane data processing which concerns on 1st Embodiment and 2nd Embodiment. 第3の実施形態に係る平面データ処理におけるデータ構造の流れを示す図。The figure which shows the flow of the data structure in the plane data processing which concerns on 3rd Embodiment. 本発明の第4の実施形態に係る平面データ処理装置、平面データ処理方法及び平面データ処理用プログラムが採用する処理手法を示す図。The figure which shows the processing method adopted by the plane data processing apparatus, plane data processing method and plane data processing program which concerns on 4th Embodiment of this invention. 脳波トポグラフィを示す図。The figure which shows the electroencephalogram topography. 水が流れている、ある水路の断面における流量を示した図。The figure which showed the flow rate in the cross section of a certain channel through which water is flowing. 監視位置から前方の移動体或いは静止体の距離を、塗り潰しパターンにより示した図。The figure which showed the distance of the moving body or the stationary body in front from a monitoring position by a fill pattern. 従来のタッチパネルに備えられたタッチセンサにより得られた時系列データ(実際の平面データ)の変遷と、従来のタッチパネルの画面上に実際には表示されないが、表示した場合の実際入力位置TPと、実際入力位置TPから作成しタッチパネルの画面上に表示される入力描画位置DPを示す図。The transition of time-series data (actual plane data) obtained by the touch sensor provided on the conventional touch panel, and the actual input position TP when it is displayed but not actually displayed on the screen of the conventional touch panel. The figure which shows the input drawing position DP created from the actual input position TP and displayed on the touch panel screen. 本発明の第5の実施形態の構成を採用したタッチパネルに備えられたタッチセンサにより得られた時系列データ(実際の平面データ)の変遷と、本発明の第5の実施形態の構成を採用したタッチパネルの画面上に表示された描画予測位置の変遷を示す図。The transition of time series data (actual plane data) obtained by the touch sensor provided in the touch panel provided with the configuration of the fifth embodiment of the present invention and the configuration of the fifth embodiment of the present invention are adopted. The figure which shows the transition of the drawing prediction position displayed on the touch panel screen.

以下添付図面を参照して、本発明の実施形態に係る平面データ処理装置、平面データ処理方法及び平面データ処理用プログラムを説明する。各図において、同一の構成要素には、同一の符号を付して重複する説明を省略する。 Hereinafter, the plane data processing apparatus, the plane data processing method, and the plane data processing program according to the embodiment of the present invention will be described with reference to the attached drawings. In each figure, the same components are designated by the same reference numerals and duplicated description will be omitted.

図1は、第1の実施形態に係る平面データ処理装置100を示すブロック図である。この平面データ処理装置100は、センサなどにより得た平面データを、入力部110から入力し、処理を行い、処理結果を出力部160から出力することができる。平面データ処理装置100には、入力部110と出力部160との間に、前処理部120、エンコーダ130、デコーダ140、後処理部150が設けられる。 FIG. 1 is a block diagram showing a plane data processing apparatus 100 according to the first embodiment. The plane data processing device 100 can input the plane data obtained by a sensor or the like from the input unit 110, perform processing, and output the processing result from the output unit 160. The plane data processing apparatus 100 is provided with a pre-processing unit 120, an encoder 130, a decoder 140, and a post-processing unit 150 between the input unit 110 and the output unit 160.

前処理部120は、入力部110にて入力される平面データを所定範囲に規制する規格化を行うものである。例えば、規格化によって平面データの各値を0から10の範囲の値とすることができる。エンコーダ130は、規格化された平面データの空間解像度を低下させて特徴量データを生成するものである。ここに、特徴量データとは、機械学習における学習対象データである平面データの特徴を数値化したものである。このエンコーダ130では、時系列で平面データが入力される場合に、時間的に所定範囲の平面データを連結してエンコードを行う。第1の実施形態では、CNNによって特徴量データを求めても良いし、他の機械学習において用いられている手法を用いて特徴量データを抽出するようにしても良い。 The preprocessing unit 120 standardizes the plane data input by the input unit 110 within a predetermined range. For example, by normalization, each value of the plane data can be set to a value in the range of 0 to 10. The encoder 130 reduces the spatial resolution of standardized planar data to generate feature data. Here, the feature amount data is a numerical value of the features of the plane data which is the learning target data in machine learning. In this encoder 130, when plane data is input in time series, plane data in a predetermined range is concatenated in time for encoding. In the first embodiment, the feature amount data may be obtained by CNN, or the feature amount data may be extracted by using a method used in other machine learning.

デコーダ140は、時系列毎の前記特徴量データの空間解像度を上昇させて予測データを求めるものであり、機械学習を採用して現在より先の(未来の)平面データの各値についての予測データを求める。上記のように特徴量データには形状特徴量と位置(移動)特徴量が含まれるので、予測データでは、形状とその位置に関するデータが含まれる。機械学習の手法は問わない。後処理部150は、上記デコーダ140の出力に対して、上記前処理部120が行った規格化と逆の処理を行って予測平面データを作成するものである。出力部160は、予測平面データをディスプレイ画面に表示し、或いはプリントアウトし、または記憶部へ記憶するものである。 The decoder 140 obtains prediction data by increasing the spatial resolution of the feature amount data for each time series, and employs machine learning to predict prediction data for each value of (future) plane data ahead of the present. Ask for. As described above, since the feature amount data includes the shape feature amount and the position (movement) feature amount, the prediction data includes data related to the shape and its position. The machine learning method does not matter. The post-processing unit 150 creates predicted plane data by performing the reverse processing of the normalization performed by the pre-processing unit 120 on the output of the decoder 140. The output unit 160 displays the predicted plane data on the display screen, prints it out, or stores it in the storage unit.

ここに、平面データとは、複数のデータ(数値)を平面的に並べて構成されたデータを言う。そして、平面データ処理とは、上記平面データの時系列変化を予測する処理を指すものとする。 Here, the plane data means data composed by arranging a plurality of data (numerical values) in a plane. The plane data processing refers to a process of predicting a time-series change of the plane data.

上記平面データは、カメラにより得られる1フレーム分の画像データであっても良く、タッチパネル等により得られるデータ、においセンサのデータ、サーモビューワによって得られるデータ、視線検出データ、量子ビットの量子計測・センシングデータ、パーティクルフィルタの対象物の位置データ、音圧センサによる音圧マップのデータ、測定した温度や湿度やその他の値を2次元的に並べたデータ、ドローンを含むロボットの時系列な制御データ、物体の温度や照度を平面的に配置したデータ、空間の気流を平面的に配置したデータ、指紋を平面的に捕らえるセンサのデータであっても良い。 The plane data may be one frame of image data obtained by a camera, such as data obtained by a touch panel or the like, odor sensor data, data obtained by a thermo-viewer, line-of-sight detection data, and quantum bit measurement. Sensing data, position data of object of particle filter, sound pressure map data by sound pressure sensor, data of measured temperature, humidity and other values arranged in two dimensions, time series control data of robot including drone , Data in which the temperature and illuminance of an object are arranged in a plane, data in which an air flow in a space is arranged in a plane, and data of a sensor that captures a fingerprint in a plane may be used.

図2に、平面データの一例を示す。図2(A)は、例えば0から255の解像度を用いて、例えばタッチパネルの押圧力等の入力検出値の平面分布を表したもので、値が大きくやや濃いメッシュの部分に、例えばユーザによる指のタッチ入力があったことを示す。図2(B)は、負の値を用いた、例えば物体の温度分布を示す。図示する分布図は、中央部において温度が高く、円形状の周辺部に温度が低い負の値の部分を有するものを示す。本実施形態では、図2(A)に示す如き、タッチ入力部分(領域)や物体の温度分布が時間と共に移動するときのデータの遷移を予測可能とし、更に、図2(B)の如き温度分布を有する物体等の移動経路に係る平面データについても、追跡予測を可能にする。 FIG. 2 shows an example of plane data. FIG. 2A shows, for example, a planar distribution of input detection values such as pressing force of a touch panel using a resolution of 0 to 255, and a finger on a slightly dark mesh portion having a large value, for example, by a user. Indicates that there was a touch input of. FIG. 2B shows, for example, the temperature distribution of an object using negative values. The illustrated distribution map shows one having a high temperature in the central portion and a low temperature portion in the peripheral portion of the circular shape. In the present embodiment, as shown in FIG. 2A, it is possible to predict the transition of data when the temperature distribution of the touch input portion (region) or the object moves with time, and further, the temperature as shown in FIG. 2B. It enables tracking prediction even for plane data related to the movement path of an object having a distribution.

図3は、第2の実施形態に係る平面データ処理装置100Aを示す図である。平面データ処理装置100Aでは、第2の実施形態のエンコーダ130は、畳み込みニューラルネットワーク(以下、CNN)135により構成される。この第2の実施形態以降では、機械学習をCNN(Convolutional Neural Network)によって行うことを基本として説明を行うため、以下では、「特徴量データ」の語を、CNNにおいて用いる「特徴マップデータ」に変えて説明を行う。特徴マップデータは、平面データを畳み込みによって生成される。
特徴マップとは、「平面データのある位置近傍の矩形領域に含まれる値の分布の特徴を複数のフィルタによって数量化する処理を、平面データの各点について同様に実施し空間方向およびチャンネル方向に並べた3次元配列」である。フィルタとは、「ある矩形領域に特定のパターンが含まれる場合大きな値に変換し、そうでなければ小さな値へ変換する処理」である。
また、第1の実施形態のデコーダ140は、トランスポーズド(Transposed)畳み込みニューラルネットワーク(以下、TCNN)145により構成されている。ニューラルネットワークにおけるTCNNは、転置畳み込みとでも称すべき処理であり、元となる特徴マップを拡大(空間解像度を上昇)させてから畳み込む処理を行うものである。
FIG. 3 is a diagram showing a plane data processing device 100A according to the second embodiment. In the planar data processing apparatus 100A, the encoder 130 of the second embodiment is configured by a convolutional neural network (hereinafter, CNN) 135. In the second and subsequent embodiments, the explanation will be based on the fact that machine learning is performed by a CNN (Convolutional Neural Network). Therefore, in the following, the term "feature amount data" will be referred to as "feature map data" used in CNN. I will change it and explain it. Feature map data is generated by convolving plane data.
The feature map is "a process of quantifying the features of the distribution of values contained in the rectangular area near the position of the plane data by multiple filters in the same way for each point of the plane data in the spatial direction and the channel direction. It is a three-dimensional array arranged side by side. The filter is "a process of converting a rectangular area to a large value when it contains a specific pattern, and converting it to a small value otherwise".
Further, the decoder 140 of the first embodiment is configured by a Transposed convolutional neural network (hereinafter, TCNN) 145. TCNN in a neural network is a process that should be called transposed convolution, and is a process of enlarging (increasing the spatial resolution) the original feature map and then convolving it.

図4は、本発明の実施形態に係るコンピュータシステムの構成図である。このコンピュータシステムによって、第1の実施形態または第2の実施形態に係る平面データ処理装置が実現される。このコンピュータシステムは、CPU210が主メモリ211に格納されたプログラムを実行して各部を制御することにより平面データ処理装置が実現される。CPU210には、バス212を介して外部記憶コントローラ221、入力部コントローラ231、出力部コントローラ241が接続されている。 FIG. 4 is a block diagram of a computer system according to an embodiment of the present invention. This computer system realizes the plane data processing apparatus according to the first embodiment or the second embodiment. In this computer system, a plane data processing device is realized by the CPU 210 executing a program stored in the main memory 211 to control each unit. An external storage controller 221, an input unit controller 231 and an output unit controller 241 are connected to the CPU 210 via the bus 212.

外部記憶コントローラ221には、外部記憶装置220が接続されている。外部記憶装置220には、平面データ処理用プログラムや平面データ処理に必要なデータ等が記憶されており、CPU210は、平面データ処理用プログラムや平面データ処理に必要なデータ等を主メモリ211へ読み出してこのプログラムを実行し、平面データ処理を行う。入力部コントローラ231には、平面データおよびその他のデータ或いはコマンドなどを入力するための入力部230が接続されている。出力部コントローラ241には、平面データ処理の結果およびその他の情報を表示するための表示ディスプレイ装置或いはプリントアウトするためのプリンタや情報を記憶するための外部記憶装置等である出力部240が接続されている。このコンピュータシステムに備えられている構成は、一例に過ぎず、他の構成が備えられる。 An external storage device 220 is connected to the external storage controller 221. The external storage device 220 stores a plane data processing program, data necessary for plane data processing, and the like, and the CPU 210 reads out the plane data processing program, data necessary for plane data processing, and the like to the main memory 211. Execute this program to process plane data. An input unit 230 for inputting plane data and other data or commands is connected to the input unit controller 231. The output unit 240 is connected to the output unit controller 241 as a display display device for displaying the result of plane data processing and other information, a printer for printing out, an external storage device for storing information, and the like. ing. The configuration provided in this computer system is merely an example, and other configurations are provided.

上記コンピュータシステムにおいて、CPU210が平面データ処理用プログラムを実行することにより、当該CPU210は、第1の実施形態の前処理部120、エンコーダ130、デコーダ140、後処理部150として機能し、また第2の実施形態の前処理部120、CNN135、TCNN145、後処理部150としても機能する。また、第2の実施形態のCNN135とTCNN145については、それぞれハードウエアにより構成し、インタフェースを介してバス212に接続する構成を採用しても良い。 In the above computer system, when the CPU 210 executes a program for plane data processing, the CPU 210 functions as a pre-processing unit 120, an encoder 130, a decoder 140, and a post-processing unit 150 of the first embodiment, and also functions as a second processing unit. Also functions as the pretreatment unit 120, CNN135, TCNN145, and posttreatment unit 150 of the embodiment. Further, the CNN 135 and the TCNN 145 of the second embodiment may be configured by hardware, respectively, and may be connected to the bus 212 via an interface.

図5は、上記コンピュータシステムのCPU210が、第1の実施形態または第2の実施形態の平面データ処理装置として動作する場合の動作を示すフローチャートである。予測処理では、CPU210は、時刻t0、t1、・・・、tn(nは正の整数)においてそれぞれ1セットの平面データである入力データt0、入力データt1、・・・、入力データtnを取り込み、これらの平面データに対して前処理であるデータの規格化を行う(S11)。次に、CPU210は、空間解像度の低下によるエンコードを行い、特徴マップを生成する(S12)。第2の実施形態では、CPU210はCNN135として空間解像度の低下により特徴マップの生成を行う。この特徴マップの抽出では、形状特徴量と位置(移動)特徴量を共に抽出する。 FIG. 5 is a flowchart showing an operation when the CPU 210 of the computer system operates as the plane data processing device of the first embodiment or the second embodiment. In the prediction process, the CPU 210 takes in input data t0, input data t1, ..., And input data tn, which are a set of plane data, respectively, at time t0, t1, ..., Tn (n is a positive integer). , Data standardization, which is preprocessing, is performed on these plane data (S11). Next, the CPU 210 performs encoding due to a decrease in spatial resolution to generate a feature map (S12). In the second embodiment, the CPU 210 generates a feature map as a CNN 135 by lowering the spatial resolution. In the extraction of this feature map, both the shape feature amount and the position (movement) feature amount are extracted.

次に、特徴マップはデコーダ140として動作機能するCPU210に渡され、CPU210はデコーダ140として、所定時刻先の平面データを予測し空間解像度を空間解像度低下前と同一まで上昇させ、予測データ(予測した平面データ)を生成する(S13)。第2の実施形態では図5の左側に記載の通り、CPU210はTCNN145を用いた機械学習によって所定時刻先の平面データを予測及び空間解像度の上昇処理を実行し、予測データ(逆規格化前のもの)を生成する。デコーダ140として機能するCPU210は、予測データの生成を行うと、この予測データに対してステップS11の前処理において行った規格化と逆の処理である後処理(スケーリング)を行って予測平面データを作成する(S14)。最終的に、CPU210は上記で作成した予測平面データを出力して(S15)、終了となる。 Next, the feature map is passed to the CPU 210 that operates as the decoder 140, and the CPU 210 predicts the plane data ahead of a predetermined time and raises the spatial resolution to the same level as before the decrease in the spatial resolution, and predicts the predicted data (predicted). Plane data) is generated (S13). In the second embodiment, as shown on the left side of FIG. 5, the CPU 210 predicts the plane data ahead of a predetermined time and executes the spatial resolution increase processing by machine learning using TCNN145, and predicts the prediction data (before denormalization). Thing) is generated. When the CPU 210 functioning as the decoder 140 generates the prediction data, the CPU 210 performs post-processing (scaling) on the prediction data, which is the reverse of the normalization performed in the pre-processing of step S11, to obtain the prediction plane data. Create (S14). Finally, the CPU 210 outputs the prediction plane data created above (S15), and ends.

例えば、CNN135は、図6Aに示すように、幅方向にX区画と、高さ方向にY区画とのX×Yの区画に値を有するフィルタを、Zチャネル備えたものであるとする。この場合に図6Bに示すように、時系列t0、t1、t2、・・・に入力される平面データを処理するときには、次のようである。上記のエンコーダ130(CNN135)として機能するCPU210は、各時刻での入力データを1つに連結させてからCNNを行う。例えば、第2の実施形態では、時刻t0、t1、t2、…の平面データをチャンネル方向に連結し、Z個の矩形領域(1区画)に含まれる全数値を1つのフィルタに適用し、1つの数値を出力する(図6B)。
この処理が平面データの畳み込み処理の際の並列データの1区画分の処理である。この処理結果が1フィルタ分の出力となり、平面データの全区画分に同様の処理が行われる(図6C)。全区画分の出力は、平面上に並べられ、全フィルタ分の出力がチャンネル方向に連結される。
また、デコーダ140として機能するCPU210は、特徴マップからデータの予測データを生成する。上記のようにCNN135によるエンコードとTCNN145によるデコードという手段で平面データについて移動している対象を的確に捕らえて次に移動する適切な位置予測を実現できる。図6は、第3の実施形態に係る平面データ処理装置100Bを示すブロック図である。本実施形態では、入力部110に入力される平面データを所定範囲に規制する規格化を行う前処理部120と、規格化された平面データに対して空間解像度を低下させて特徴マップデータを生成する第1のエンコーダ130Bとを備える。この空間解像度の低下では、形状と位置(移動)の2つの特徴を含んだ特徴マップの抽出が行える程度まで空間解像度が低下される。前処理部120で行う規格化では、ニューラルネットワーク内で符号情報を保持させるため、ゼロ点を保持させて符号付きのまま規格化を実施する。更に、平面データ処理装置100Bは、時系列の特徴マップデータに対して空間解像度を空間解像度低下前と同一まで上昇させて第1の予測データを求める第1のデコーダ140Bを備える。このように、「特徴マップデータに対して空間解像度を上昇させる」とは、「空間解像度を特徴マップから上昇させて平面データと同一にする」ことを意味する。
For example, as shown in FIG. 6A, it is assumed that the CNN 135 is provided with a Z channel having a filter having values in the X × Y compartments of the X compartment in the width direction and the Y compartment in the height direction. In this case, as shown in FIG. 6B, when processing the plane data input to the time series t0, t1, t2, ..., It is as follows. The CPU 210 functioning as the encoder 130 (CNN135) performs CNN after concatenating the input data at each time into one. For example, in the second embodiment, the plane data at times t0, t1, t2, ... Are connected in the channel direction, and all the numerical values included in the Z rectangular regions (1 section) are applied to one filter, and 1 Two numerical values are output (Fig. 6B).
This processing is processing for one section of parallel data at the time of convolution processing of plane data. The processing result becomes the output for one filter, and the same processing is performed for all the sections of the plane data (FIG. 6C). The outputs of all the partitions are arranged on a plane, and the outputs of all the filters are connected in the channel direction.
Further, the CPU 210 functioning as the decoder 140 generates predicted data of data from the feature map. As described above, by means of encoding by CNN135 and decoding by TCNN145, it is possible to accurately capture a moving object for planar data and realize an appropriate position prediction to move to the next. FIG. 6 is a block diagram showing a plane data processing device 100B according to a third embodiment. In the present embodiment, the preprocessing unit 120 that regulates the plane data input to the input unit 110 to a predetermined range, and the feature map data are generated by lowering the spatial resolution with respect to the standardized plane data. It is provided with a first encoder 130B to be used. In this decrease in spatial resolution, the spatial resolution is reduced to the extent that a feature map including two features of shape and position (movement) can be extracted. In the normalization performed by the preprocessing unit 120, in order to retain the code information in the neural network, the zero point is retained and the normalization is carried out with the sign. Further, the planar data processing apparatus 100B includes a first decoder 140B that increases the spatial resolution of the time-series feature map data to the same level as before the decrease in the spatial resolution to obtain the first predicted data. As described above, "increasing the spatial resolution with respect to the feature map data" means "increasing the spatial resolution from the feature map to make it the same as the planar data".

第1のデコーダ140Bの出力側には、分割手段170が設けられている。分割手段170は、第1のデコーダ140Bの出力である上記予測データをデータの形態に応じて複数の分割予測データに分割する。ここでは、データ形態が正のデータと負のデータの2形態としているため、2つの分割予測データに分割する。図7は、本発明の第3の実施形態に係る平面データ処理装置100Bの分割手段170が行う処理を示す図である。この分割に際して、データ形態が負のデータを正のデータとする処理を行うが、この場合には負の符号を取り去り、元から正であるデータを「0」に置換する。例えば、図7(A)から図7(B)のデータを作り出す。また、データ形態が正であるデータは、そのまま残し、元が負であるデータを「0」に置換する。例えば、図7(A)から図7(C)のデータを作り出す。 A dividing means 170 is provided on the output side of the first decoder 140B. The division means 170 divides the prediction data, which is the output of the first decoder 140B, into a plurality of division prediction data according to the data form. Here, since the data form is divided into two forms, positive data and negative data, the data is divided into two divided prediction data. FIG. 7 is a diagram showing processing performed by the dividing means 170 of the plane data processing apparatus 100B according to the third embodiment of the present invention. At the time of this division, a process is performed in which data having a negative data form is regarded as positive data. In this case, the negative sign is removed and the originally positive data is replaced with "0". For example, the data of FIGS. 7 (A) to 7 (B) is created. Further, the data whose data form is positive is left as it is, and the data whose original is negative is replaced with "0". For example, the data of FIGS. 7 (A) to 7 (C) is created.

分割手段170の出力側には、第2のデコーダ180が設けられている。第2のデコーダ180は、上記分割手段170が分割した異なる1つ1つの分割予測データを入力し、この分割予約データの空間解像度を低下させることなく、換言すれば空間解像度を維持した状態で、予測を行い第2の予測データを得る。上記第2のデコーダ180は、上記分割手段170による分割数に対応する数のCNN185AとCNN185Bとにより構成されている。このCNN185AとCNN185Bは、1層でのニューラルネットワークのモデル構築されたものを用いることが可能である。 A second decoder 180 is provided on the output side of the dividing means 170. The second decoder 180 inputs different division prediction data divided by the division means 170, and does not lower the spatial resolution of the division reservation data, in other words, maintains the spatial resolution. Make a prediction and obtain the second prediction data. The second decoder 180 is composed of a number of CNN185A and CNN185B corresponding to the number of divisions by the division means 170. As the CNN185A and CNN185B, it is possible to use a model-constructed neural network with one layer.

CNN185Aは、元から正の符号の数値により構成される第1の予測データを用いて正側の第2の予測データを得る。CNN185Bは、元の負の符号から正の符号に変更された数値により構成される第1の予測データを用いて負側の第2の予測データを得る。正側の第2の予測データと負側の第2の予測データとは減算手段190へ送出される。減算手段190は、負側の第2の予測データの符号が正であるから、正側の第2の予測データから負側の第2の予測データの減算を行う。この結果正および負の符号付きの第2の予測データが得られる。 The CNN185A obtains the second prediction data on the positive side by using the first prediction data originally composed of numerical values having a positive sign. CNN185B obtains a second negative predictive data using a first predictive data composed of numerical values changed from the original negative sign to a positive sign. The second prediction data on the positive side and the second prediction data on the negative side are sent to the subtraction means 190. Since the sign of the second predicted data on the negative side is positive, the subtracting means 190 subtracts the second predicted data on the negative side from the second predicted data on the positive side. As a result, positive and negative signed second prediction data are obtained.

減算手段190の出力(減算結果)は、後処理部150へ送られる。後処理部150は、上記減算手段190の出力に対して、上記前処理部120が行った規格化と逆の処理を行って予測平面データを作成するものである。出力部160は、予測平面データをディスプレイ画面に表示し、或いはプリントアウトし、または記憶部へ記憶するものである。本実施形態によれば、高精度化と高速化の課題を解決することが期待できる。図8は、この第3の実施形態の効果を示す図である。ここでは、第2の実施形態を1.0とし、エンコーダは最適設計とした。第3の実施形態によって予測精度は40%向上した。CNN2層化と比較すると、第3の実施形態によって予測精度は3.5倍に向上した。
上記第3の実施形態についても、図4のコンピュータシステムによって実現可能である。この場合に、CNN135、CNN185A、CNN185BとTCNN145については、ソフトウエアにより構成することができるが、それぞれハードウエアにより構成し、インタフェースを介してバス212に接続する構成を採用しても良い。図9は、上記コンピュータシステムのCPU210が、第3の実施形態の平面データ処理装置として動作する場合の動作を示すフローチャートである。CPU210は、前処理部120として、時刻t0、t1、・・・、tn(nは正の整数)においてそれぞれ1セットの平面データである入力データt0、入力データt1、・・・、入力データtnを取り込み、これらの平面データに対して前処理であるデータの規格化を行う(S11)。次に、CNN135として機能するCPU210によるエンコードが行われ、特徴マップの生成が行われる(S22)。CPU210が行うCNN135としての処理においては、形状特徴と位置(移動)特徴の2つの特徴を含んだ特徴マップの抽出が行われる。
The output (subtraction result) of the subtraction means 190 is sent to the post-processing unit 150. The post-processing unit 150 creates predicted plane data by performing the reverse processing of the standardization performed by the pre-processing unit 120 on the output of the subtraction means 190. The output unit 160 displays the predicted plane data on the display screen, prints it out, or stores it in the storage unit. According to this embodiment, it can be expected to solve the problems of high accuracy and high speed. FIG. 8 is a diagram showing the effect of this third embodiment. Here, the second embodiment is set to 1.0, and the encoder is set to the optimum design. The third embodiment improved the prediction accuracy by 40%. Compared with the CNN2 stratification, the prediction accuracy was improved by 3.5 times by the third embodiment.
The third embodiment can also be realized by the computer system of FIG. In this case, CNN135, CNN185A, CNN185B and TCNN145 can be configured by software, but each may be configured by hardware and connected to the bus 212 via an interface. FIG. 9 is a flowchart showing an operation when the CPU 210 of the computer system operates as the plane data processing device of the third embodiment. The CPU 210, as the preprocessing unit 120, has input data t0, input data t1, ..., Input data tn, which are one set of plane data, respectively, at time t0, t1, ... Is taken in, and data that is preprocessing is standardized for these plane data (S11). Next, encoding is performed by the CPU 210 that functions as the CNN 135, and a feature map is generated (S22). In the processing performed by the CPU 210 as the CNN 135, a feature map including two features, a shape feature and a position (movement) feature, is extracted.

次に、第1のデコーダ140BであるTCNN145内において、CPU210は第1のデコーダ140Bとして予測し、予測した平面データの空間解像度を空間解像度低下前と同一まで上昇させることにより、所定時刻先の予測データである平面データ(予測した符号付き平面データ)を生成する(S23)。 Next, in TCNN145, which is the first decoder 140B, the CPU 210 predicts as the first decoder 140B, and by increasing the spatial resolution of the predicted plane data to the same level as before the decrease in spatial resolution, the prediction ahead of a predetermined time is made. Plane data (predicted signed plane data), which is data, is generated (S23).

予測した符号付き平面データは分割手段170へ渡される。CPU210は分割手段170として、第1のデコーダ140Bの出力である上記予測データをデータの形態に応じて複数の分割予測データに分割する。ここでは、データ形態が正のデータと負のデータであるとしているため、正側分割予測データと負側分割データに分割する(S24)。この分割に際して、正側予測データは正の値のデータをそのまま残し、負の値のデータを「0」に置換したものである。負側予測データは、負の値の符号を取り去った状態で残し、正の値のデータを「0」に置換したものである。 The predicted signed plane data is passed to the dividing means 170. As the division means 170, the CPU 210 divides the prediction data, which is the output of the first decoder 140B, into a plurality of division prediction data according to the data form. Here, since it is assumed that the data forms are positive data and negative data, the data is divided into positive side division prediction data and negative side division data (S24). At the time of this division, the positive value data is left as it is, and the negative value data is replaced with "0". The negative prediction data is left in a state where the sign of the negative value is removed, and the data of the positive value is replaced with "0".

次に、2つの分割予測データに分割された2つの分割予測データは、CNN185AとCNN185Bへ送られる。CPU210は、CNN185AとCNN185Bして空間解像度を低下させることなく、換言すれば空間解像度を維持した状態で予測を行い第2の予測データを得る(S25)。 Next, the two division prediction data divided into the two division prediction data are sent to CNN185A and CNN185B. The CPU 210 performs prediction with CNN185A and CNN185B without lowering the spatial resolution, in other words, while maintaining the spatial resolution, and obtains the second prediction data (S25).

CNN185AとCNN185Bとして動作するCPU210によって、予測データの生成が行われると、CPU210は減算手段190として、負側の第2の予測データの符号が正であるから、正側の第2の予測データから負側の第2の予測データの減算を行う(S26)。この結果、正および負の符号付きの第2の予測データが得られる。この予測データに対してCPU210は、ステップS11の前処理において行った規格化と逆の処理である後処理(スケーリング)を行って予測平面データを作成する(S14)。最終的に、CPU210は、上記で作成した予測平面データを出力して(S15)、終了となる。 When the prediction data is generated by the CPU 210 operating as the CNN185A and the CNN185B, the CPU 210 acts as the subtraction means 190 and since the sign of the second prediction data on the negative side is positive, the second prediction data on the positive side is used. The second prediction data on the negative side is subtracted (S26). As a result, second prediction data with positive and negative signs is obtained. The CPU 210 creates prediction plane data by performing post-processing (scaling), which is the reverse processing of normalization performed in the pre-processing of step S11, with respect to the prediction data (S14). Finally, the CPU 210 outputs the prediction plane data created above (S15), and ends.

図10は、等時間間隔tの時刻t0、t1、t2において、得られた3つの平面データから上記時間間隔tの後の時刻t3における平面データを予測することを示した図である。また、図11は、等時間間隔tの時刻t0、t1、t2において、得られた3つの平面データから上記時間間隔tの3回分後の時刻t5における平面データを予測することを示した図である。これら図10および図11に示した平面データに関する予測処理は、本発明の実施形態において実現可能であり、例えば、図6の構成において、CPU210が図9に示すフローチャートを実行すると実現される平面移動である。 FIG. 10 is a diagram showing that the plane data at the time t3 after the time interval t is predicted from the obtained three plane data at the time t0, t1 and t2 at the equal time interval t. Further, FIG. 11 is a diagram showing that at the time t0, t1 and t2 at the equal time interval t, the plane data at the time t5 three times after the time interval t is predicted from the obtained three plane data. be. The prediction processing regarding the plane data shown in FIGS. 10 and 11 can be realized in the embodiment of the present invention. For example, in the configuration of FIG. 6, the plane movement realized when the CPU 210 executes the flowchart shown in FIG. Is.

図12は、図10と同じ予測をする場合に平面データの右側にある第1の検出対象DD1が存在していた状態から消滅し、当初の時刻t0では存在しなかった第2の検出対象DD2が事項t1で平面データの右下側に現れ、時刻t2、t3と時間と共に徐々に存在感を大きくする場合の予測経過を示す図である。図13は、図12と同じく複数の検出対象についての追跡予測であり、図1(B)と同じく正負の値の部分を有する場合の追跡予測を示す図である。時刻t0、t1、t2の平面データのいずれにも正負の値が存在し、正の大きな値の部分Pが、平面上で領域が小さくなりながら移動している。また、負の絶対値が大きな値の部分Mが、平面上で領域が大きくなりながら移動している。時刻t3の平面データは、時刻t0、t1、t2の平面データから予測される。時刻t3の平面データにおいては、正の大きな値の部分Pは消失し、負の絶対値が大きな値の部分Mが移動するであろう予測領域FM1と、新たに生じるであろう負の絶対値が大きな値の部分FM2が予測されている。これら図12、図13に示した平面データに関する予測処理は、本発明の第1乃至第3の実施形態において実現可能であり、例えば図6の構成において、CPU210が図9に示すフローチャートを実行すると実現される平面移動である。 FIG. 12 shows that the first detection target DD1 on the right side of the plane data disappears from the state where the first detection target DD1 was present when the same prediction as in FIG. 10 was made, and the second detection target DD2 that did not exist at the initial time t0. Is a diagram showing the prediction progress when the item t1 appears on the lower right side of the plane data and the presence gradually increases with time t2 and t3. FIG. 13 is a follow-up prediction for a plurality of detection targets as in FIG. 12, and is a diagram showing a follow-up prediction in the case of having positive and negative value portions as in FIG. 1 (B). Positive and negative values exist in any of the plane data at time t0, t1, and t2, and the portion P having a large positive value moves while the area becomes smaller on the plane. Further, the portion M having a large negative absolute value moves while the region becomes large on the plane. The plane data at time t3 is predicted from the plane data at times t0, t1, and t2. In the plane data at time t3, the part P with a large positive value disappears, and the part M with a large negative absolute value moves to the prediction region FM1 and a new negative absolute value that will occur. Partial FM2 with a large value is predicted. The prediction processing regarding the plane data shown in FIGS. 12 and 13 can be realized in the first to third embodiments of the present invention. For example, in the configuration of FIG. 6, when the CPU 210 executes the flowchart shown in FIG. It is a plane movement that is realized.

図14から図16は、平面データ処理におけるデータ構造を示したものである。図14は、平面データが時刻t0、t1、・・・、tnにおいて発生することを示している。この図14において、XとYは平面データにおいて、X方向に並ぶデータ(数値)の数、Y方向に並ぶデータ(数値)数であり、XとYにより平面データのサイズを示し、本実施形態では、各時刻t0、t1、・・・、tnにおいて得られたデータが時系列に並んでいる時系列の平面データを用いた処理を行うことを示している。図15は、第1の実施形態と第2の実施形態に係る平面データ処理におけるデータ構造の流れを示す図である。この図15に明らかな通り、第1の実施形態と第2の実施形態とにおいては、入力に係る時系列の平面データ(図14に示されている時刻t0、t1、・・・、tnにおいて発生する時系列データ)を1つに連結してCNN135へ入力して、CNN135によるエンコーダの処理によって特徴マップを得る。上記の「連結」については、図5のフローチャートを用いて説明した通りに、形状特徴量と位置(移動)特徴量を共に抽出するために行われる。次に、この特徴マップはTCNN145へ送られて、TCNN145においてデコードされて予測データが生成され、出力される。 14 to 16 show a data structure in plane data processing. FIG. 14 shows that plane data occurs at times t0, t1, ..., Tn. In FIG. 14, X and Y are the number of data (numerical values) arranged in the X direction and the number of data (numerical values) arranged in the Y direction in the plane data, and the size of the plane data is indicated by X and Y. Then, it is shown that the processing using the time-series plane data in which the data obtained at each time t0, t1, ..., Tn is arranged in the time-series is performed. FIG. 15 is a diagram showing a flow of a data structure in the plane data processing according to the first embodiment and the second embodiment. As is clear from FIG. 15, in the first embodiment and the second embodiment, at the time series plane data (time t0, t1, ..., Tn shown in FIG. 14) related to the input. The generated time series data) are concatenated into one and input to the CNN135, and the feature map is obtained by the processing of the encoder by the CNN135. The above "concatenation" is performed to extract both the shape feature amount and the position (movement) feature amount as described using the flowchart of FIG. Next, this feature map is sent to TCNN145, decoded in TCNN145 to generate prediction data, and output.

図16は、第3の実施形態に係る平面データ処理におけるデータ構造の流れを示す図である。この第3の実施形態では、入力に係る時系列の平面データを時系列の順に1つの時系列ずつCNN135へ入力して、CNN135において特徴マップを得る。この特徴マップは、TCNN145へ送られて、TCNN145においてデコードされる。TCNN145による処理結果である予測データ1は、正および負の予測データ1として分割して、正側の予測データ2をCNN185Aへ与えられ、負側の予測データ2をCNN185Bへ与えられる。CNN185AとCNN185Bは、データに対して空間解像度を維持したまま(低下させることなく)予測を行い第2の予測データ(予測データ2正側及び予測データ2負側)を得る。図6に示した減算手段190は、2つの第2の予測データに対する減算を行い、最終的な予測データを得て、結果を出力する。このように第3の実施形態が採用するデータ構造の流れは、高精度かつ高速化を狙った構成が採用されている。 FIG. 16 is a diagram showing a flow of a data structure in the plane data processing according to the third embodiment. In this third embodiment, the plane data of the time series related to the input is input to the CNN 135 one by one in the order of the time series, and the feature map is obtained in the CNN 135. This feature map is sent to TCNN145 and decoded at TCNN145. The prediction data 1 which is the processing result by TCNN145 is divided into positive and negative prediction data 1, and the positive side prediction data 2 is given to CNN185A and the negative side prediction data 2 is given to CNN185B. CNN185A and CNN185B make predictions on the data while maintaining (without reducing) the spatial resolution, and obtain second prediction data (prediction data 2 positive side and prediction data 2 negative side). The subtraction means 190 shown in FIG. 6 performs subtraction on the two second prediction data, obtains the final prediction data, and outputs the result. As described above, the flow of the data structure adopted in the third embodiment adopts a configuration aiming at high accuracy and high speed.

以上のように、第3の実施形態に係る平面データ処理装置では、ニューラルネットワークの層を極限まで浅くして省力化を図り、高精度かつ高速に平面データに対する予測などの処理を行う手法を実現したものである。各時刻で取得される平面データを並列処理するCNNを実現するため、CNNとしてはCNN135、CNN185A、CNN185Bを用いており、CNNの個数は増えるが、各CNNについては1層のニューラルネットワークのモデルで実現可能となる。即ち、ニューラルネットワークの層を深くすることなく、従って構成の複雑さと大型化を回避し、予測などの平面データ処理の高精度化と高速化が期待できる。また、正側の予測データ2をCNN185Aへ与え、負側の予測データ2をCNN185Bへ与えて処理を行うため、処理する平面データの正負値の分布や分布の変化にもよるが、CNN185Aの構造とCNN185Bの構造を同じ構成とすることができ、開発期間の短縮化が可能性である。また、CNN185AとCNN185Bにおける学習についても、CNN185Aが予測データの正側のみの分布、CNN185Bが予測データの負側のみの分布を学習すればよいことから、収束までの時間短縮を図ることが可能である。 As described above, in the planar data processing apparatus according to the third embodiment, the layer of the neural network is made as shallow as possible to save labor, and a method of performing processing such as prediction for planar data with high accuracy and high speed is realized. It was done. In order to realize a CNN that processes plane data acquired at each time in parallel, CNN135, CNN185A, and CNN185B are used as CNNs. It will be feasible. That is, it is expected that the layer of the neural network will not be deepened, and therefore the complexity and size of the configuration will be avoided, and the accuracy and speed of plane data processing such as prediction will be improved. Further, since the positive side prediction data 2 is given to the CNN185A and the negative side prediction data 2 is given to the CNN185B for processing, the structure of the CNN185A depends on the distribution of the positive and negative values of the plane data to be processed and the change in the distribution. And CNN185B can have the same structure, and the development period can be shortened. Also, regarding learning in CNN185A and CNN185B, since CNN185A only needs to learn the distribution on the positive side of the prediction data and CNN185B only needs to learn the distribution on the negative side of the prediction data, it is possible to shorten the time until convergence. be.

図17は、第4の実施形態に係る平面データ処理装置、平面データ処理方法及び平面データ処理用プログラムが採用する処理手法を示す図である。本実施形態においては、平面データ処理装置100(100A、100B)において予測などの処理を行った結果を、次の予測などの処理に用いるフィードバック経路(或いは、フィードバック手段)を有するものである。例えば、Step1として時刻t0(2つ前過去)、t1(1つ前過去)、t2(現在)の3時点における平面データを用いて、時刻t3(1つ先の未来)の平面データを予測する。次に、t1(1つ前過去)、t2(現在)の2時点における平面データに加えて、Step1で求めた時刻t3(1つ先の未来)の予測データである平面データを用いて、予測を行う。 FIG. 17 is a diagram showing a processing method adopted by the plane data processing apparatus, the plane data processing method, and the plane data processing program according to the fourth embodiment. In the present embodiment, the planar data processing apparatus 100 (100A, 100B) has a feedback path (or feedback means) for using the result of processing such as prediction for the next processing such as prediction. For example, the plane data at the time t3 (the future one ahead) is predicted by using the plane data at three time points of time t0 (two past past), t1 (one past past), and t2 (present) as Step1. .. Next, in addition to the plane data at the two time points of t1 (one past past) and t2 (present), the plane data which is the prediction data of the time t3 (one future future) obtained by Step 1 is used for prediction. I do.

以下同様に処理を行う。3回目以降の予測等の処理においては、予想等の時点で2回前に予測した時刻における実際の平面データが得られていれば、これを用いて処理を行う。つまり、3枚の平面データを用いる場合には、実際の平面データ2枚と1回前に予測などの処理により得た平面データを利用する。本実施形態によれば、実際の平面データが得られていないときにも予測データを求めることができ、より高精度の予測処理を実現できるようになる。なお、上記実施形態では、2つ先の時刻でのデータを予測することを示したが、3つ先以降の時刻でのデータを予測する際に、得られていない時刻の平面データを代替するように予測結果を用いることができる。また、正負の符号を有するデータのようにデータの形態が異なるデータが存在している平面データを用いた場合にも高精度に予測することができる。また、デコーダとしてのTCNNやCNNに関し、ニューラルネットワークの層を極限まで浅くでき、ネットワークモデルを省力化可能である。本発明の実施形態によってデコーダで正側と負側のデータ別にCNNを2回追加することになるが、各CNNは1層でのニューラルネットワークのモデル構築が可能となる。本発明の実施形態では、予測精度を損なうことなくデータ予測処理時間の短縮を図ることが期待できる。 The same processing is performed below. In the processing such as prediction from the third time onward, if the actual plane data at the time predicted two times before is obtained at the time of prediction or the like, the processing is performed using this. That is, when using three plane data, two actual plane data and the plane data obtained by a process such as prediction one time before are used. According to this embodiment, the prediction data can be obtained even when the actual plane data is not obtained, and the prediction processing with higher accuracy can be realized. In the above embodiment, it is shown that the data at the time two ahead is predicted, but when predicting the data at the time three or later ahead, the plane data at the time not obtained is replaced. As you can see, the prediction result can be used. Further, even when plane data in which data having different data forms such as data having positive and negative signs exists is used, it is possible to predict with high accuracy. Further, regarding TCNN and CNN as decoders, the layer of the neural network can be made as shallow as possible, and the network model can be labor-saving. According to the embodiment of the present invention, the decoder will add CNNs twice for each of the positive and negative data, and each CNN will be able to build a model of the neural network in one layer. In the embodiment of the present invention, it can be expected that the data prediction processing time can be shortened without impairing the prediction accuracy.

上記において説明した第1乃至第4の実施形態に係る平面データ処理装置、平面データ処理方法及び平面データ処理用プログラムは、以下に示す平面データの処理に用いることができる。図18は、脳波トポグラフィを示す図である。脳波トポグラフィは、頭皮表面の脳電位の等電位図を描いたものである。脳電位の大きさを塗り潰しパターンの変化として示しており、正常者の脳波トポグラフィは、概ね左右対称である。感情や行動によっても波形に変化があり、感情や心の動きの観察に用いることが期待される。測定した脳電位を頭部を上部から目視した場合の頭部輪郭線により形成される楕円状の領域の測定位置に該当する座標位置に並べて本実施形態の平面データとすることができる。この脳波トポグラフィによる平面データを測定間隔の時系列データとして、平面データ処理を行う。これによって、予測した時刻の脳波トポグラフィを見ることができるので、実際の測定時間を短縮化して被験者の負担を低減することができる。 The plane data processing apparatus, plane data processing method, and plane data processing program according to the first to fourth embodiments described above can be used for processing the plane data shown below. FIG. 18 is a diagram showing electroencephalogram topography. EEG topography is an equipotential diagram of the brain potential on the surface of the scalp. The magnitude of the brain potential is shown as a change in the fill pattern, and the brain wave topography of a normal person is generally symmetrical. The waveform changes depending on emotions and behaviors, and it is expected to be used for observing emotions and emotional movements. The measured brain potential can be arranged at the coordinate position corresponding to the measurement position of the elliptical region formed by the contour line of the head when the head is visually viewed from above, and can be used as the plane data of the present embodiment. Plane data processing is performed using the plane data obtained by this electroencephalogram topography as time-series data of the measurement interval. As a result, the electroencephalogram topography at the predicted time can be viewed, so that the actual measurement time can be shortened and the burden on the subject can be reduced.

図19は、水が流れている、ある水路の断面における流量を示した図である。この図においては、流量の大小について塗り潰しパターンの変化として示している。流量は流速×断面積であるから、所定位置に流速センサを設けて断面の所定位置の流速を求めて、各位置における単位面積当たりの流量を平面データとして本発明実施形態の平面データ処理を行うことが可能である。図19のような流量対応の図を表示する場所を複数地点に設け、場所毎に流量を予測して図の如き表示を行い、図における水の部分が大流量の塗り潰しパターンに近づくほど流量が大きいものとして、危険を察知することが期待される。水路や排水溝を利用する農業や河川管理における防災、海の津波検出など漁業での利用を想定することができる。 FIG. 19 is a diagram showing a flow rate in a cross section of a channel through which water is flowing. In this figure, the magnitude of the flow rate is shown as a change in the filling pattern. Since the flow rate is the flow velocity × the cross-sectional area, a flow velocity sensor is provided at a predetermined position to obtain the flow velocity at a predetermined position in the cross section, and the plane data processing of the embodiment of the present invention is performed using the flow rate per unit area at each position as plane data. It is possible. Places for displaying the flow rate correspondence diagram as shown in Fig. 19 are provided at multiple points, the flow rate is predicted for each location and displayed as shown in the figure, and the flow rate increases as the water part in the figure approaches the large flow rate fill pattern. As a big thing, it is expected to detect danger. It can be assumed to be used in fishing such as disaster prevention in agriculture and river management using waterways and drains, and tsunami detection in the sea.

図20は、監視位置から前方の移動体或いは静止体の距離を、塗り潰しパターンの変化として示した図である。距離の測定には光線の照射と反射によるセンサを用い、或いは監視カメラを用いた画像処理などを採用することができる。図のような画面の単位面積エリアの塗り潰しパターンを数値データとして1画面毎に平面データを得る。平面データを時々刻々と得て本発明実施形態の平面データ処理を行うことが可能である。この処理によって、図20(A)の場合には、静止物体および移動物体の距離(位置)を予測して危険を検知することを目指すことができ、また、物体の移動先を推定する。また、図20(B)に示す場合には、人や移動している物の距離(位置)から歩いていることや走っているという行動を予測することも可能である。更に、混雑の度合いや人の動き(移動方向と移動速度)の監視なども可能である。センサによっては暗闇でも使用できるものがあり、画像処理(動画予測)システムよりも簡素な構成による構築が期待される。 FIG. 20 is a diagram showing the distance of a moving body or a stationary body in front of the monitoring position as a change in the filling pattern. For the distance measurement, a sensor based on irradiation and reflection of light rays can be used, or image processing using a surveillance camera or the like can be adopted. Plane data is obtained for each screen using the fill pattern of the unit area area of the screen as shown in the figure as numerical data. It is possible to obtain plane data from moment to moment and perform plane data processing according to the embodiment of the present invention. By this process, in the case of FIG. 20A, it is possible to predict the distance (position) between the stationary object and the moving object to detect the danger, and to estimate the moving destination of the object. Further, in the case shown in FIG. 20B, it is possible to predict the behavior of walking or running from the distance (position) of a person or a moving object. Furthermore, it is possible to monitor the degree of congestion and the movement of people (movement direction and movement speed). Some sensors can be used even in the dark, and are expected to be constructed with a simpler configuration than an image processing (video prediction) system.

次に、第5の実施形態を説明する。この第5の実施形態は、図4のコンピュータシステムによって実現可能である。入力部230と出力部240によってタッチパネルが構成されている。図21(A)は、従来のエッジデバイスのタッチセンサにより得られた時刻t0、t1、t2、t3、t4の時系列データ(実際の平面データ)の変遷を示す図である。タッチによりセンサから大きな入力値が得られるエリアEは、図21(A)に示すようにパネル上を移動して行く。 Next, a fifth embodiment will be described. This fifth embodiment can be realized by the computer system of FIG. A touch panel is composed of an input unit 230 and an output unit 240. FIG. 21 (A) is a diagram showing the transition of time series data (actual plane data) at times t0, t1, t2, t3, and t4 obtained by a touch sensor of a conventional edge device. Area E, where a large input value is obtained from the sensor by touch, moves on the panel as shown in FIG. 21 (A).

図21(B)は、時刻t0、t1、t2、t3、t4におけるタッチパネルの画面上に実際には表示されないが、表示した場合の実際入力位置TPと、実際入力位置TPから作成しタッチパネルの画面上に表示される入力描画位置DPを示す図である。入力描画位置DPには描画軌跡が線分となって表示される様子が示されている。この図21(B)によれば、タッチパネルの画面上には、実際入力位置TPより遅延した位置に入力描画位置DPが表示されていることが分かる。 FIG. 21B is not actually displayed on the touch panel screen at times t0, t1, t2, t3, and t4, but is created from the actual input position TP and the actual input position TP when displayed, and is the touch panel screen. It is a figure which shows the input drawing position DP displayed above. The input drawing position DP shows how the drawing locus is displayed as a line segment. According to FIG. 21B, it can be seen that the input drawing position DP is displayed on the screen of the touch panel at a position delayed from the actual input position TP.

第5の実施形態に係る平面データ処理装置は、図4のコンピュータシステムにより、CPU210が主メモリ211に格納されたプログラムを実行して各部を制御することにより実現される。この第5の実施形態の装置は、タッチパネルを構成する入力部110に入力される平面データを所定範囲に規制する規格化を行う前処理部120と、規格化された平面データに対して空間解像度を低下させて特徴マップデータを生成する第1のエンコーダ130Bとを備える。前処理部120で行う規格化では、ニューラルネットワーク内で符号情報を保持させるため、ゼロ点を保持させて符号付きのまま規格化を実施する。更に、平面データ処理装置100Bは、時系列の特徴マップデータに対して空間解像度を上昇させて第1の予測データを求める第1のデコーダ140Bを備える。 The plane data processing apparatus according to the fifth embodiment is realized by the computer system of FIG. 4 in which the CPU 210 executes a program stored in the main memory 211 to control each unit. The device of the fifth embodiment has a preprocessing unit 120 that standardizes the plane data input to the input unit 110 constituting the touch panel within a predetermined range, and a spatial resolution with respect to the standardized plane data. A first encoder 130B for generating feature map data is provided. In the normalization performed by the preprocessing unit 120, in order to retain the code information in the neural network, the zero point is retained and the normalization is carried out with the sign. Further, the planar data processing apparatus 100B includes a first decoder 140B that obtains the first prediction data by increasing the spatial resolution with respect to the time-series feature map data.

第5の実施形態の装置は、分割手段170とCNN185A、CNN185B、減算手段190、後処理部150を備える。以上のように第5の実施形態の構成は、第3の実施形態と基本的には同じであり、入力部230と出力部240によってタッチパネルが構成されている点で第3の実施形態と異なる。 The apparatus of the fifth embodiment includes a dividing means 170, a CNN185A, a CNN185B, a subtracting means 190, and a post-processing unit 150. As described above, the configuration of the fifth embodiment is basically the same as that of the third embodiment, and is different from the third embodiment in that the touch panel is configured by the input unit 230 and the output unit 240. ..

更に、第5の実施形態の装置は、第4の実施形態に示したフィードバック手段を有する。 Further, the apparatus of the fifth embodiment has the feedback means shown in the fourth embodiment.

CPU210が主メモリ211に格納されたプログラムを実行して各部を制御することにより第5の実施形態に係る平面データ処理装置が実現される場合の動作を説明する。CPU210は、前処理部120として、時刻t0、t1、・・・、tn(nは正の整数)においてそれぞれ1セットの平面データである入力データt0、入力データt1、・・・、入力データtnを取り込み、これらの平面データに対して前処理であるデータの規格化を行う。 The operation when the plane data processing apparatus according to the fifth embodiment is realized by the CPU 210 executing a program stored in the main memory 211 to control each unit will be described. The CPU 210, as the preprocessing unit 120, has input data t0, input data t1, ..., Input data tn, which are one set of plane data, respectively, at time t0, t1, ... Is taken in, and the data that is the preprocessing is standardized for these plane data.

次に、CPU210は、CNN135として機能し、エンコードにより形状特徴と位置(移動)特徴の2つの特徴を含んだ特徴マップを抽出する。次に、CPU210は第1のデコーダ140BのTCNN145として空間解像度の上昇処理により所定時刻先の予測データである平面データを予測した符号付き平面データを生成する。 Next, the CPU 210 functions as a CNN 135, and extracts a feature map including two features, a shape feature and a position (movement) feature, by encoding. Next, the CPU 210 generates signed plane data in which the plane data, which is the prediction data ahead of a predetermined time, is predicted by the space resolution increase processing as TCNN145 of the first decoder 140B.

次にCPU210は分割手段170として、上記TCNN145により生成された予測データを、正のデータと負のデータにより構成される2つの分割予測データに分割する。この分割に際して、負の符号を取り去り、「0」に置換する。 Next, the CPU 210, as the dividing means 170, divides the prediction data generated by the TCNN145 into two division prediction data composed of positive data and negative data. At the time of this division, the negative sign is removed and replaced with "0".

次にCPU210はCNN185AとCNN185Bとして、空間解像度を低下させることなく、換言すれば空間解像度を維持した状態で、分割手段170により分割された2つの分割予測データのそれぞれを用いて予測を行い第2の予測データを得る。次にCPU210は、減算手段190として、正側の第2の予測データから負側の第2の予測データの減算を行う。この結果正および負の符号付きの第2の予測データが得られる。この予測データに対してCPU210は、前処理部120として行った規格化と逆の処理である後処理(スケーリング)を行って予測平面データを作成する。最終的に、CPU210は、上記で作成した予測平面データをタッチパネルにおいて表示出力する。 Next, the CPU 210, as CNN185A and CNN185B, makes a prediction using each of the two division prediction data divided by the division means 170 without lowering the spatial resolution, in other words, while maintaining the spatial resolution. Get the prediction data of. Next, the CPU 210, as the subtracting means 190, subtracts the second predicted data on the negative side from the second predicted data on the positive side. As a result, positive and negative signed second prediction data are obtained. The CPU 210 creates prediction plane data by performing post-processing (scaling), which is the reverse processing of normalization performed by the pre-processing unit 120, with respect to the prediction data. Finally, the CPU 210 displays and outputs the predicted plane data created above on the touch panel.

この第5の実施形態では、上記において予測した平面データを最新に入力した平面データとして、予測に用いる。即ち、この第5の実施形態では、図17を用いて説明した通り、n(正の整数)枚の予測用平面データを用いて予測する場合に、予測した平面データが得られた以降は、予測された平面データをn枚の予測用平面データ入れて次の平面データを予測する。そして、予測処理を続ける間に最新の平面データ(実平面データという)の入力があると、この最新の実平面データを、予測処理に用いていた実平面データに対応する予測データに変えてn枚の予測用平面データとする。 In this fifth embodiment, the plane data predicted above is used for prediction as the latest input plane data. That is, in this fifth embodiment, as described with reference to FIG. 17, when prediction is made using n (positive integer) sheets of prediction plane data, after the predicted plane data is obtained, after that, The predicted plane data is input to n sheets of prediction plane data to predict the next plane data. Then, if the latest plane data (called real plane data) is input while the prediction processing is continued, the latest real plane data is changed to the prediction data corresponding to the real plane data used in the prediction processing. It is the plane data for prediction of the sheet.

以上のように処理を行う第5の実施形態によって、図22に示されるように、実際入力位置に一致する位置に(遅延を解消して)描画予測位置PPが表示される。 According to the fifth embodiment in which the processing is performed as described above, as shown in FIG. 22, the drawing prediction position PP is displayed at the position corresponding to the actual input position (eliminating the delay).

図22(A)は、第5の実施形態の構成を採用したエッジデバイスのタッチセンサにより得られた時刻t0、t1、t2、t3、t4の時系列データ(実際の平面データ)の変遷を示す図である。タッチによりセンサから大きな入力値が得られるエリアEは、実際のタッチ入力位置であり、図22(A)に示すようにパネル上を移動して行く。 FIG. 22A shows the transition of time series data (actual plane data) at time t0, t1, t2, t3, and t4 obtained by the touch sensor of the edge device adopting the configuration of the fifth embodiment. It is a figure. Area E, where a large input value is obtained from the sensor by touch, is an actual touch input position, and moves on the panel as shown in FIG. 22 (A).

図22(B)は、時刻t0、t1、t2、t3、t4におけるタッチパネルの画面上に表示された描画予測位置PPを示す図である。この描画予測位置PPはこの第5の実施形態による処理で予測された位置である。描画予測位置PPには描画軌跡が線分となって表示される様子が示されている。描画軌跡に係る線分は、既に描画予測位置PPより先に予測された位置データの集合を用いて作成され、表示されるものである。この図22(B)と上記図22(A)とを比較すると、図22(A)の実際入力位置であるエリアEの位置に対し、タッチパネルの画面上の概ね同じ位置に描画予測位置PPが表示されていることが分かる。本実施形態によれば、実際の平面データが得られていないときにも予測データを求めることができ、より高精度で高速な予測処理及び表示処理を実現できるようになる。 FIG. 22B is a diagram showing a drawing prediction position PP displayed on the screen of the touch panel at times t0, t1, t2, t3, and t4. This drawing predicted position PP is a position predicted by the process according to the fifth embodiment. It is shown that the drawing locus is displayed as a line segment in the drawing prediction position PP. The line segment related to the drawing locus is created and displayed using a set of position data already predicted before the drawing prediction position PP. Comparing this FIG. 22 (B) with FIG. 22 (A), the drawing predicted position PP is located at substantially the same position on the touch panel screen with respect to the position of the area E which is the actual input position of FIG. 22 (A). You can see that it is displayed. According to this embodiment, prediction data can be obtained even when actual plane data is not obtained, and more accurate and high-speed prediction processing and display processing can be realized.

本発明に係る複数の実施形態を説明したが、これらの実施形態は例として提示するものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although a plurality of embodiments according to the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

100、100A、100B・・・平面データ処理装置、110・・・入力部、120・・・前処理部、130、・・・エンコーダ、130B・・・第1のエンコーダ、135、185A、185B・・・CNN、140・・・デコーダ、140B・・・第1のデコーダ、145・・・TCNN、150・・・後処理部、160・・・出力部、170・・・分割手段、180・・・第2デコーダ、210・・・CPU、211・・・主メモリ、212・・・バス、220・・・外部記憶装置、221・・・外部記憶コントローラ、231・・・入力部コントローラ、241・・・出力部コントローラ 100, 100A, 100B ... Plane data processing device, 110 ... Input unit, 120 ... Preprocessing unit, 130, ... Encoder, 130B ... First encoder, 135, 185A, 185B ... CNN, 140 ... Decoder, 140B ... First decoder, 145 ... TCNN, 150 ... Post-processing unit, 160 ... Output unit, 170 ... Dividing means, 180 ... 2nd decoder, 210 ... CPU, 211 ... main memory, 212 ... bus, 220 ... external storage device, 221 ... external storage controller, 231 ... input unit controller, 241.・ ・ Output controller

Claims (15)

入力される平面データを所定範囲で規格化する前処理部と、
前記平面データの空間解像度を低下させて特徴量データを抽出する第1のエンコーダと、
前記特徴量データの空間解像度を上昇させて第1の予測データを求める第1のデコーダと、
前記第1のデコーダにより求められた第1の予測データを前記第1の予測データの形態に応じて複数の分割予測データに分割する分割手段と、
前記分割手段が分割した異なる形態の前記分割予測データが入力され、当該分割予測データの空間解像度を維持したまま予測を行い第2の予測データを得る第2のデコーダと、
前記第2の予測データに対して、前記規格化と逆の処理を行い予測平面データを作成する後処理部と
を具備することを特徴とする平面データ処理装置。
A pre-processing unit that standardizes the input plane data within a predetermined range,
A first encoder that reduces the spatial resolution of the plane data and extracts feature data,
A first decoder that increases the spatial resolution of the feature amount data to obtain the first prediction data, and
A division means for dividing the first prediction data obtained by the first decoder into a plurality of division prediction data according to the form of the first prediction data.
A second decoder in which the division prediction data of different forms divided by the division means is input, prediction is performed while maintaining the spatial resolution of the division prediction data, and the second prediction data is obtained.
A plane data processing apparatus comprising: a post-processing unit that performs the reverse processing of the standardization on the second prediction data to create prediction plane data.
前記第1のエンコーダは、畳み込みニューラルネットワークにより構成され、
前記第1のデコーダは、トランスポーズド畳み込みニューラルネットワークにより構成され、
前記第2のデコーダは、畳み込みニューラルネットワークにより構成され、
ていること特徴とする請求項1に記載の平面データ処理装置。
The first encoder is configured by a convolutional neural network.
The first decoder is configured by a transposed convolutional neural network.
The second decoder is composed of a convolutional neural network.
The plane data processing apparatus according to claim 1, wherein the plane data processing apparatus is characterized by the above.
前記第2のデコーダは、前記分割手段による分割数に対応する数の畳み込みニューラルネットワークにより構成されていることを特徴とする請求項2に記載の平面データ処理装置。 The plane data processing apparatus according to claim 2, wherein the second decoder is configured by a number of convolutional neural networks corresponding to the number of divisions by the division means. 前記分割手段は、前記第1の予測データが正負の形態を採る場合に応じて、前記第1の予測データを正データにより構成される第1の分割予測データと、前記第1の予測データを負データにより構成される第2の分割予測データと、を生成する
ことを特徴とする請求項3に記載の平面データ処理装置。
The division means obtains the first division prediction data in which the first prediction data is composed of positive data and the first prediction data, depending on the case where the first prediction data takes a positive or negative form. The plane data processing apparatus according to claim 3, further comprising generating a second split prediction data composed of negative data.
前記第2のデコーダによる前記第1の分割予測データのデコード結果から前記第2のデコーダによる前記第2の分割予測データのデコード結果を減算する減算手段を具備することを特徴とする請求項4に記載の平面データ処理装置。 The fourth aspect of claim 4 is provided with a subtraction means for subtracting the decoding result of the second division prediction data by the second decoder from the decoding result of the first division prediction data by the second decoder. The plane data processing device described. 入力される平面データを所定範囲で規格化する前処理ステップと、
規格化された前記平面データの空間解像度を低下させて特徴量データを抽出する第1のエンコードステップと、
前記特徴量データに対して空間解像度を上昇させて第1の予測データを求める第1のデコードステップと、
前記第1のデコードステップにより求められた第1の予測データを前記第1の予測データの形態に応じて複数の分割予測データに分割する分割ステップと、
前記分割ステップにおいて分割した異なる形態の前記分割予測データが入力され、当該分割予測データの空間解像度を維持したまま予測を行い第2の予測データを得る第2のデコードステップと、
前記第2の予測データに対して、前記規格化と逆の処理を行い予測平面データを作成する後処理ステップと
を具備することを特徴とする平面データの時系列変化を予測する平面データ処理方法。
A preprocessing step that standardizes the input plane data within a predetermined range,
A first encoding step of reducing the spatial resolution of the normalized planar data to extract feature data, and
The first decoding step of increasing the spatial resolution with respect to the feature amount data to obtain the first prediction data,
A division step of dividing the first prediction data obtained by the first decoding step into a plurality of division prediction data according to the form of the first prediction data, and a division step.
A second decoding step in which different forms of the divided prediction data divided in the divided step are input, prediction is performed while maintaining the spatial resolution of the divided prediction data, and a second prediction data is obtained.
A plane data processing method for predicting a time-series change in plane data, which comprises a post-processing step of creating a predicted plane data by performing the reverse processing of the standardization on the second prediction data. ..
前記第1のエンコードステップは、畳み込みニューラルネットワークを用いて処理を実行し、
前記第1のデコードステップは、トランスポーズド畳み込みニューラルネットワークを用いて処理を実行し、
前記第2のデコードステップでは、畳み込みニューラルネットワークにより処理を実行する、
こと特徴とする請求項6に記載の平面データ処理方法。
The first encoding step performs processing using a convolutional neural network.
In the first decoding step, processing is executed using a transposed convolutional neural network.
In the second decoding step, the process is executed by the convolutional neural network.
The plane data processing method according to claim 6, wherein the plane data processing method is characterized.
前記第2のデコードステップでは、前記分割ステップによる分割数に対応する数の畳み込みニューラルネットワークを用いて処理を実行することを特徴とする請求項7に記載の平面データ処理方法。 The plane data processing method according to claim 7, wherein in the second decoding step, processing is executed using a convolutional neural network having a number corresponding to the number of divisions by the division step. 前記分割ステップでは、前記第1の予測データが正負の形態を採る場合に応じて、前記第1の予測データを正データにより構成される第1の分割予測データと、前記第1の予測データを負データにより構成される第2の分割予測データと、を生成する
ことを特徴とする請求項8に記載の平面データ処理方法。
In the division step, depending on the case where the first prediction data takes a positive or negative form, the first division prediction data in which the first prediction data is composed of positive data and the first prediction data are combined. The plane data processing method according to claim 8, wherein the second division prediction data composed of negative data and the second division prediction data are generated.
前記第2のデコードステップによる前記第1の分割予測データのデコード結果から前記第2のデコードステップによる前記第2の分割予測データのデコード結果を減算する減算ステップを具備することを特徴とする請求項9に記載の平面データ処理方法。 The claim is characterized by comprising a subtraction step of subtracting the decoding result of the second division prediction data by the second decoding step from the decoding result of the first division prediction data by the second decoding step. 9. The plane data processing method according to 9. コンピュータを、
入力される平面データを所定範囲で規格化する前処理手段、
規格化された前記平面データの空間解像度を低下させて特徴量データを抽出する第1のエンコード手段、
前記特徴量データの空間解像度を上昇させて第1の予測データを求める第1のデコード手段、
前記第1のデコード手段により求められた第1の予測データを前記第1の予測データの形態に応じて複数の分割予測データに分割する分割手段、
前記分割手段が分割した異なる形態の前記分割予測データが入力され、当該分割予測データの空間解像度を維持したまま予測を行い第2の予測データを得る第2のデコード手段と、
前記第2の予測データに対して、前記規格化と逆の処理を行い予測平面データを作成する後処理手段
として機能させることを特徴とする平面データの時系列変化を予測する平面データ処理用プログラム。
Computer,
Preprocessing means that standardizes the input plane data within a predetermined range,
A first encoding means for extracting feature data by lowering the spatial resolution of the normalized planar data,
A first decoding means for increasing the spatial resolution of the feature amount data to obtain the first predicted data,
A division means for dividing the first prediction data obtained by the first decoding means into a plurality of division prediction data according to the form of the first prediction data.
A second decoding means in which the divided prediction data in a different form divided by the dividing means is input, prediction is performed while maintaining the spatial resolution of the divided prediction data, and the second prediction data is obtained.
A plane data processing program for predicting time-series changes in plane data, characterized in that the second prediction data is processed in the reverse of the normalization to function as a post-processing means for creating prediction plane data. ..
前記第1のエンコード手段は、畳み込みニューラルネットワークにより構成され、
前記第1のデコード手段は、トランスポーズド畳み込みニューラルネットワークにより構成され、
前記第2のデコード手段は、畳み込みニューラルネットワークにより構成され、
ていること特徴とする請求項11に記載の平面データ処理用プログラム。
The first encoding means is configured by a convolutional neural network.
The first decoding means is configured by a transposed convolutional neural network.
The second decoding means is configured by a convolutional neural network.
The program for plane data processing according to claim 11, wherein the program is characterized by the above.
前記第2のデコード手段は、前記分割手段による分割数に対応する数の畳み込みニューラルネットワークにより構成されていることを特徴とする請求項12に記載の平面データ処理用プログラム。 The program for plane data processing according to claim 12, wherein the second decoding means is composed of a number of convolutional neural networks corresponding to the number of divisions by the division means. 前記コンピュータを前記分割手段として、前記第1の予測データが正負の形態を採る場合に応じて、前記第1の予測データを正データにより構成される第1の分割予測データと、前記第1の予測データを負データにより構成される第2の分割予測データと、を生成するように機能させる
ことを特徴とする請求項13に記載の平面データ処理用プログラム。
The first division prediction data in which the first prediction data is composed of positive data and the first division prediction data according to the case where the first prediction data takes a positive or negative form by using the computer as the division means. The plane data processing program according to claim 13, wherein the prediction data functions to generate a second divided prediction data composed of negative data.
前記コンピュータを、
前記第2のデコード手段による前記第1の分割予測データのデコード結果から前記第2のデコード手段による前記第2の分割予測データのデコード結果を減算する減算手段として機能させることを特徴とする請求項14に記載の平面データ処理用プログラム。
The computer
The claim is characterized in that it functions as a subtracting means for subtracting the decoding result of the second division prediction data by the second decoding means from the decoding result of the first division prediction data by the second decoding means. 14. The program for processing plane data according to 14.
JP2020062484A 2020-03-31 2020-03-31 Plane data processing device, plane data processing method and plane data processing program Active JP7092312B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020062484A JP7092312B2 (en) 2020-03-31 2020-03-31 Plane data processing device, plane data processing method and plane data processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020062484A JP7092312B2 (en) 2020-03-31 2020-03-31 Plane data processing device, plane data processing method and plane data processing program

Publications (2)

Publication Number Publication Date
JP2021163039A JP2021163039A (en) 2021-10-11
JP7092312B2 true JP7092312B2 (en) 2022-06-28

Family

ID=78003354

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020062484A Active JP7092312B2 (en) 2020-03-31 2020-03-31 Plane data processing device, plane data processing method and plane data processing program

Country Status (1)

Country Link
JP (1) JP7092312B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019504659A (en) 2015-11-29 2019-02-21 アーテリーズ インコーポレイテッド Automated cardiac volume segmentation
JP2019139482A (en) 2018-02-09 2019-08-22 株式会社デンソーアイティーラボラトリ Information estimation device and information estimation method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019504659A (en) 2015-11-29 2019-02-21 アーテリーズ インコーポレイテッド Automated cardiac volume segmentation
JP2019139482A (en) 2018-02-09 2019-08-22 株式会社デンソーアイティーラボラトリ Information estimation device and information estimation method

Also Published As

Publication number Publication date
JP2021163039A (en) 2021-10-11

Similar Documents

Publication Publication Date Title
CN110147743B (en) Real-time online pedestrian analysis and counting system and method under complex scene
US20240112051A1 (en) Machine learning models operating at different frequencies for autonomous vehicles
JP6494331B2 (en) Robot control apparatus and robot control method
CN108171196B (en) Face detection method and device
KR20190019822A (en) System and method for semantic segmentation of images
EP3121791B1 (en) Method and system for tracking objects
CN113312973B (en) Gesture recognition key point feature extraction method and system
KR101959436B1 (en) The object tracking system using recognition of background
KR102664916B1 (en) Method and apparatus for performing behavior prediction using Explanable Self-Focused Attention
JP2021135650A (en) Image prediction system
WO2021098573A1 (en) Hand gesture estimation method and apparatus, device, and computer storage medium
JPWO2019111932A1 (en) Model learning device, model learning method and computer program
KR20210098515A (en) Target detection, intelligent driving method, apparatus, device and storage medium
JP7092312B2 (en) Plane data processing device, plane data processing method and plane data processing program
Yang et al. Improved visual background extractor with adaptive range change
Iqbal et al. Data-driven transition matrix estimation in probabilistic learning models for autonomous driving
JP2019194758A (en) Information processing device, information processing method, and program
CN111915587A (en) Video processing method, video processing device, storage medium and electronic equipment
WO2023205431A1 (en) Distortion prediction for additive manufacturing using image analysis
KR102013367B1 (en) System for providing touch interaction of virtual space
JP2021163038A (en) Plane data processing device, plane data processing method and plane data processing program
CN114140765B (en) Obstacle sensing method and device and storage medium
Verma et al. Generation of future image frames using optical flow
KR20230147498A (en) Apparatus and method for performing learning for target lesion detection
Dos Santos et al. Pedestrian trajectory prediction with pose representation and latent space variables

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220607

R150 Certificate of patent or registration of utility model

Ref document number: 7092312

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150