JP6899674B2 - Information processing equipment, information processing methods, and information processing programs - Google Patents

Information processing equipment, information processing methods, and information processing programs Download PDF

Info

Publication number
JP6899674B2
JP6899674B2 JP2017051858A JP2017051858A JP6899674B2 JP 6899674 B2 JP6899674 B2 JP 6899674B2 JP 2017051858 A JP2017051858 A JP 2017051858A JP 2017051858 A JP2017051858 A JP 2017051858A JP 6899674 B2 JP6899674 B2 JP 6899674B2
Authority
JP
Japan
Prior art keywords
data
moving image
image data
dimension
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017051858A
Other languages
Japanese (ja)
Other versions
JP2018156316A (en
Inventor
誠 藤吉
誠 藤吉
寿英 三宅
寿英 三宅
達也 堅多
達也 堅多
正純 中山
正純 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Zosen Corp
Original Assignee
Hitachi Zosen Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Zosen Corp filed Critical Hitachi Zosen Corp
Priority to JP2017051858A priority Critical patent/JP6899674B2/en
Publication of JP2018156316A publication Critical patent/JP2018156316A/en
Application granted granted Critical
Publication of JP6899674B2 publication Critical patent/JP6899674B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、入力データとクラスとの対応関係を学習させた識別器によってクラス判定する情報処理装置等に関する。 The present invention relates to an information processing device or the like that determines a class by a classifier that has learned the correspondence between input data and a class.

分類対象である入力データを識別器に入力することにより、その入力データが何れのクラスに分類されるかを判定する手法が知られている。このような識別器は、入力データとクラスとの対応関係を予め学習させることにより、様々な入力データを自動で分類することができる。 A method is known in which input data to be classified is input to a classifier to determine which class the input data is classified into. Such a classifier can automatically classify various input data by learning the correspondence between the input data and the class in advance.

例えば、下記非特許文献1には、ファジィc平均(以下FCM:Fuzzy-C-Means)識別器を用いて駐車場の駐車スペースにおける車両の有無を判定するシステムが開示されている。より詳細には、非特許文献1には、駐車スペースを撮影した画像とその駐車スペースにおける車両の有無との対応関係を学習させたFCM識別器により、入力した画像中の駐車スペースにおける車両の有無を判定することが記載されている。 For example, Non-Patent Document 1 below discloses a system for determining the presence or absence of a vehicle in a parking space of a parking lot using a fuzzy c average (hereinafter FCM: Fuzzy-C-Means) classifier. More specifically, in Non-Patent Document 1, the presence or absence of a vehicle in the parking space in the input image is described by an FCM classifier that learns the correspondence between the photographed image of the parking space and the presence or absence of the vehicle in the parking space. Is described to determine.

市橋秀友、堅多達也、藤吉誠、野津亮、本田克宏、“ファジィc平均識別器による駐車場のカメラ方式車両検知システム”、知能と情報(日本知能情報ファジィ学会誌)、2010年5月6日、Vol.22、No.5、pp.599-608Hidetomo Ichihashi, Tatsuya Kenta, Makoto Fujiyoshi, Ryo Nozu, Katsuhiro Honda, "Camera-type vehicle detection system for parking lots using fuzzy c average classifier", Intelligence and Information (Journal of the Japan Intelligent Information Fuzzy Society), May 2010 6th, Vol.22, No.5, pp.599-608

しかしながら、上記従来技術では、個々の静止画データについて判定を行うことができるものの、動画データを用いた判定を行うことはできず、このため経時変化する事象に関する判定能力に限界があった。動画データを用いた判定を行うことができなかった要因としては、動画データは静止画データと比較して非常にデータ量が大きく、それゆえ実用に足りるような時間で判定結果を出力することが困難であったことが挙げられる。 However, in the above-mentioned prior art, although it is possible to make a judgment on individual still image data, it is not possible to make a judgment using moving image data, and therefore, there is a limit to the ability to judge an event that changes with time. The reason why the judgment using the moving image data could not be performed is that the moving image data has a much larger amount of data than the still image data, and therefore the judgment result is output in a time sufficient for practical use. It was difficult.

本発明の一態様は、上記の問題点に鑑みてなされたものであり、その目的は、動画データを入力データとして識別器によりクラス判定することができる情報処理装置等を実現することを目的とする。 One aspect of the present invention has been made in view of the above problems, and an object of the present invention is to realize an information processing device or the like capable of class determination by a classifier using moving image data as input data. To do.

上記の課題を解決するために、本発明に係る情報処理装置は、入力データが所定の複数のクラスの何れに該当するかを、ファジィc平均法を用いた識別器によって判定する情報処理装置であって、上記入力データとして動画データを取得する動画取得部と、上記動画データを用いて生成された、該動画データよりもデータ量が小さく、かつ、上記動画データの有していた経時変化する特徴が反映されている判定用データを上記識別器に入力して判定結果を出力させる判定部と、を備えている構成である。 In order to solve the above problems, the information processing device according to the present invention is an information processing device that determines which of a plurality of predetermined classes the input data corresponds to by a classifier using the fuzzy c averaging method. Therefore, the moving image acquisition unit that acquires the moving image data as the input data, the amount of data generated by using the moving image data is smaller than that of the moving image data, and the moving image data has a time-dependent change. The configuration includes a determination unit for inputting determination data reflecting the characteristics into the classifier and outputting the determination result.

また、本発明に係る情報処理方法は、上記の課題を解決するために、入力データが所定の複数のクラスの何れに該当するかを、ファジィc平均法を用いた識別器によって判定する情報処理装置による情報処理方法であって、上記入力データとして動画データを取得する動画取得ステップと、上記動画データを用いて生成された、該動画データよりもデータ量が小さく、かつ、上記動画データの有していた経時変化する特徴が反映されている判定用データを上記識別器に入力して判定結果を出力させる判定ステップと、を含む方法である。 Further, in the information processing method according to the present invention, in order to solve the above-mentioned problems, information processing for determining which of a plurality of predetermined classes the input data corresponds to is determined by a classifier using the fuzzy c averaging method. It is an information processing method by an apparatus, and has a moving image acquisition step of acquiring moving image data as the input data, a data amount smaller than the moving image data generated by using the moving image data, and the presence of the moving image data. This is a method including a determination step of inputting determination data reflecting the characteristics that change with time into the classifier and outputting the determination result.

本発明の一態様によれば、動画データを入力データとして識別器によりクラス判定することが可能になるという効果を奏する。 According to one aspect of the present invention, there is an effect that the class can be determined by the classifier using the moving image data as the input data.

本発明の一実施形態に係る情報処理装置の要部構成の一例を示すブロック図である。It is a block diagram which shows an example of the main part structure of the information processing apparatus which concerns on one Embodiment of this invention. FCM識別器を構築する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process of constructing an FCM classifier. 動画データ、圧縮次元データ、およびトレンドデータの例を示す図である。It is a figure which shows the example of moving image data, compression dimension data, and trend data. FCM識別器が判定対象とする各動作パターンについて、次元番号毎のトレンドデータをグラフで示した図である。It is a figure which showed the trend data for each dimension number in the graph for each operation pattern which the FCM classifier makes a determination target. 正解率の高いFCM識別器の構築に用いたトレンドデータを2つ統合した統合データによりFCM識別器を構築した例を示す図である。It is a figure which shows the example which constructed the FCM classifier by the integrated data which integrated two trend data used for constructing the FCM classifier with a high accuracy rate. 構築したFCM識別器を用いて動画データのクラス判定を行う処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which performs the class determination of moving image data using the constructed FCM classifier. クラス判定処理を行わせるためのUI画面の一例を示す図である。It is a figure which shows an example of the UI screen for performing a class determination process.

〔実施形態1〕
本発明の一実施形態について図1から図7に基づいて説明する。
[Embodiment 1]
An embodiment of the present invention will be described with reference to FIGS. 1 to 7.

〔装置構成〕
本実施形態に係る情報処理装置の構成を図1に基づいて説明する。図1は、情報処理装置1の要部構成の一例を示すブロック図である。情報処理装置1は、入力データとクラスとの対応関係を学習させたFCM識別器(ファジィc平均法を用いた識別器)によってクラス判定する機能を備えている。情報処理装置1は、例えばパーソナルコンピュータ等であってもよい。
〔Device configuration〕
The configuration of the information processing apparatus according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing an example of a main configuration of the information processing device 1. The information processing device 1 has a function of class determination by an FCM classifier (a classifier using the fuzzy c averaging method) that has learned the correspondence between the input data and the class. The information processing device 1 may be, for example, a personal computer or the like.

情報処理装置1は、情報処理装置1の各部を統括して制御する制御部11、情報処理装置1が使用する各種データを格納する記憶部12、情報処理装置1に対するデータ等の入力を受け付ける入力部13、およびデータを出力する出力部14を備えている。なお、記憶部12は、情報処理装置1の外部に設けられていてもよい。 The information processing device 1 is a control unit 11 that controls each part of the information processing device 1, a storage unit 12 that stores various data used by the information processing device 1, and an input that receives input of data or the like to the information processing device 1. A unit 13 and an output unit 14 for outputting data are provided. The storage unit 12 may be provided outside the information processing device 1.

また、制御部11には、動画取得部111、静止画取得部112、次元圧縮部113、トレンドデータ生成部(判定用データ生成部)114、識別器構築部115、判定部116、および正解率算出部117が含まれている。そして、記憶部12には、動画データ121が格納されている。 Further, the control unit 11 includes a moving image acquisition unit 111, a still image acquisition unit 112, a dimensional compression unit 113, a trend data generation unit (determination data generation unit) 114, a classifier construction unit 115, a determination unit 116, and a correct answer rate. The calculation unit 117 is included. The moving image data 121 is stored in the storage unit 12.

動画取得部111は、FCM識別器の入力データとして動画データを取得する。動画取得部111は、記憶部12に格納されている動画データ121を取得してもよいし、入力部13等から情報処理装置1に入力された動画データをそのまま取得してもよい。 The moving image acquisition unit 111 acquires moving image data as input data of the FCM classifier. The moving image acquisition unit 111 may acquire the moving image data 121 stored in the storage unit 12, or may acquire the moving image data input to the information processing device 1 from the input unit 13 or the like as it is.

静止画取得部112は、動画データから該動画データを構成する複数の時系列の静止画データを取得する。以下では、この複数の時系列の静止画データを連続画像データと呼ぶ。静止画取得部112は、動画データ121を構成する静止画を所定時間間隔で切り出すことによって連続画像データを取得してもよい。 The still image acquisition unit 112 acquires a plurality of time-series still image data constituting the moving image data from the moving image data. Hereinafter, the plurality of time-series still image data will be referred to as continuous image data. The still image acquisition unit 112 may acquire continuous image data by cutting out the still images constituting the moving image data 121 at predetermined time intervals.

次元圧縮部113は、連続画像データのそれぞれを次元圧縮して圧縮次元データを生成する。圧縮次元データは、連続画像データを主成分分析することによって生成することができる。圧縮次元データは、その生成元となった連続画像データよりもデータ量が小さく、かつ連続画像データの有していた特徴点が反映されているデータである。 The dimensional compression unit 113 dimensionally compresses each of the continuous image data to generate compressed dimensional data. Compressed dimension data can be generated by principal component analysis of continuous image data. The compressed dimension data is data in which the amount of data is smaller than that of the continuous image data from which the continuous image data is generated and the feature points of the continuous image data are reflected.

トレンドデータ生成部114は、圧縮次元データのうち一部の次元番号の圧縮次元データを、当該圧縮次元データの元になった静止画データの時系列順に結合してトレンドデータ(判定用データ)を生成する。トレンドデータは、動画取得部111が取得した動画データよりもデータ量が小さく、かつ、当該動画データの有していた経時変化する特徴が反映されているデータである。 The trend data generation unit 114 combines the compressed dimension data of a part of the compressed dimension data in chronological order of the still image data that is the source of the compressed dimension data to obtain the trend data (determination data). Generate. The trend data is data in which the amount of data is smaller than the moving image data acquired by the moving image acquisition unit 111 and the characteristic of the moving image data that changes with time is reflected.

識別器構築部115は、トレンドデータを用いてFCM識別器を構築する。具体的には、識別器構築部115は、各クラスについて、当該クラスが既知である動画データ(より詳細には、該動画データから切り出された連続画像データから生成されたトレンドデータ)を訓練データとしてFCM識別器を構築する。次に、識別器構築部115は、上記構築したFCM識別器を用いたクラス判定を判定部116に行わせる。このクラス判定には、クラスが既知である複数の動画データから切り出された連続画像データからそれぞれ生成されたトレンドデータを教師データとして用いる。そして、識別器構築部115は、このクラス判定の結果が誤りであったトレンドデータを訓練データに追加してFCM識別器を再構築する。識別器構築部115は、これらの処理を所定回数繰り返すことにより、FCM識別器を構築する。なお、クラス判定の正解率を正解率算出部117に算出させて、その正解率が閾値に到達するまで上記の処理を繰り返すことにより、FCM識別器を構築する。この場合、所定回数繰り返しても閾値に到達しなければ、その時点で学習を終了してもよい。 The classifier construction unit 115 constructs an FCM classifier using the trend data. Specifically, the classifier construction unit 115 trains the moving image data (more specifically, the trend data generated from the continuous image data cut out from the moving image data) for which the class is known for each class. As an FCM classifier is constructed. Next, the classifier construction unit 115 causes the determination unit 116 to perform a class determination using the FCM classifier constructed above. For this class determination, trend data generated from continuous image data cut out from a plurality of moving image data whose classes are known is used as teacher data. Then, the classifier construction unit 115 reconstructs the FCM classifier by adding the trend data in which the result of this class determination is incorrect to the training data. The classifier construction unit 115 builds an FCM classifier by repeating these processes a predetermined number of times. The FCM classifier is constructed by having the correct answer rate calculation unit 117 calculate the correct answer rate of the class determination and repeating the above process until the correct answer rate reaches the threshold value. In this case, if the threshold value is not reached even after repeating the predetermined number of times, the learning may be terminated at that point.

判定部116は、識別器構築部115が構築したFCM識別器にトレンドデータを入力して判定結果を出力させる。なお、詳細は後述するが、FCM識別器の入力データは、複数のトレンドデータを用いて生成された統合データであってもよい。統合データを用いる場合、FCM識別器の構築においても統合データを訓練データおよび教師データとして用いる。なお、統合データの詳細は後述する。 The determination unit 116 inputs the trend data to the FCM classifier constructed by the classifier construction unit 115 and outputs the determination result. Although the details will be described later, the input data of the FCM classifier may be integrated data generated by using a plurality of trend data. When the integrated data is used, the integrated data is also used as training data and teacher data in the construction of the FCM classifier. The details of the integrated data will be described later.

正解率算出部117は、FCM識別器の正解率を計算する。正解率は、クラスが既知である入力データをFCM識別器に入力し、その出力結果と既知のクラスとが一致していれば正解、不一致であれば不正解とする処理を、複数の入力データについて行うことにより算出できる。 The correct answer rate calculation unit 117 calculates the correct answer rate of the FCM classifier. The correct answer rate is a process in which input data whose class is known is input to the FCM classifier, and if the output result matches the known class, the answer is correct, and if they do not match, the answer is incorrect. It can be calculated by doing about.

動画データ121は、クラス判定の対象となるデータであり、FCM識別器に入力されるデータである。また、動画データ121には、FCM識別器を構築するために用いる教師データが含まれていてもよい。教師データは、クラスが既知である動画データであり、判定対象のクラスのそれぞれについて複数用意される。FCM識別器は、教師データの中から選択した(選択方法は特に限定されず、例えばランダムに選択してもよい)データを訓練データとして構築することができる。 The moving image data 121 is data to be classified and is input to the FCM classifier. Further, the moving image data 121 may include teacher data used for constructing the FCM classifier. The teacher data is moving image data whose class is known, and a plurality of teacher data are prepared for each of the classes to be determined. The FCM classifier can construct data selected from the teacher data (the selection method is not particularly limited and may be randomly selected, for example) as training data.

〔処理の流れ(FCM識別器の構築)〕
FCM識別器を構築する処理(情報処理方法)の流れを図2に基づいて説明する。図2は、FCM識別器を構築する処理の一例を示すフローチャートである。なお、本処理の前に、FCM識別器による判定の対象となる各状態を撮影した動画データが入力部13を介して情報処理装置1に入力され、記憶部12に動画データ121(教師データ)として格納されている。つまり、ここで構築するFCM識別器は、入力された動画データに写っている対象が、所定の複数の状態(クラス)の何れに該当するかを判定するためのものである。
[Processing flow (construction of FCM classifier)]
The flow of the process (information processing method) for constructing the FCM classifier will be described with reference to FIG. FIG. 2 is a flowchart showing an example of a process for constructing an FCM classifier. Prior to this processing, moving image data obtained by capturing each state to be determined by the FCM classifier is input to the information processing device 1 via the input unit 13, and moving image data 121 (teacher data) is input to the storage unit 12. It is stored as. That is, the FCM classifier constructed here is for determining which of a plurality of predetermined states (classes) the target in the input moving image data corresponds to.

S1では、動画取得部111は、記憶部12から各状態の動画データ121を取得する。続くS2では、静止画取得部112は、S1で取得された動画データ121を連続画像データに変換する。例えば、静止画取得部112は、動画データ121を構成する静止画を0.1秒間隔で切り出すことによって連続画像データを取得してもよい。 In S1, the moving image acquisition unit 111 acquires the moving image data 121 of each state from the storage unit 12. In the following S2, the still image acquisition unit 112 converts the moving image data 121 acquired in S1 into continuous image data. For example, the still image acquisition unit 112 may acquire continuous image data by cutting out the still images constituting the moving image data 121 at intervals of 0.1 seconds.

なお、静止画を切り出す時間間隔は、動画データ121の内容に応じて変更することが好ましい。より詳細には、動きの速い動画データ121の場合、動画データ121の画像が経時変化する様子が各静止画から把握できる程度に短い間隔で切り出すことが望ましい。逆に、動きの遅い動画データ121の場合、同様の静止画が多数切り出されることがなく、各静止画が異なるものとなる程度に長い間隔で切り出すことが望ましい。 The time interval for cutting out the still image is preferably changed according to the content of the moving image data 121. More specifically, in the case of the fast-moving moving image data 121, it is desirable to cut out the image of the moving image data 121 at short intervals so that it can be grasped from each still image. On the contrary, in the case of the slow-moving moving image data 121, it is desirable that a large number of similar still images are not cut out and the still images are cut out at long intervals so as to be different.

S3では、次元圧縮部113は、静止画取得部112が取得した連続画像データのそれぞれについて次元圧縮を行い、圧縮次元データを生成する。例えば、100次元に次元圧縮した場合、連続画像データのそれぞれについて、100の圧縮次元データが生成される。 In S3, the dimensional compression unit 113 performs dimensional compression on each of the continuous image data acquired by the still image acquisition unit 112, and generates compressed dimensional data. For example, when dimensionally compressed to 100 dimensions, 100 compressed dimensional data are generated for each of the continuous image data.

S4では、トレンドデータ生成部114は、各連続画像データの圧縮次元データのうち、n次元目の圧縮次元データからトレンドデータを生成する。S4の処理を行うのが初回であればn=1とする。つまり、1次元目の圧縮次元データからトレンドデータを生成する。なお、以下nを次元番号と呼ぶ。基本的には、次元番号が小さい圧縮次元データの方が次元番号の大きい圧縮次元データと比べて、連続画像データの特徴点をよく反映している。 In S4, the trend data generation unit 114 generates trend data from the compression dimension data of the nth dimension among the compression dimension data of each continuous image data. If the processing of S4 is performed for the first time, n = 1. That is, trend data is generated from the first-dimensional compressed dimension data. Hereinafter, n is referred to as a dimension number. Basically, the compressed dimension data having a small dimension number reflects the feature points of the continuous image data better than the compressed dimension data having a large dimension number.

S5では、識別器構築部115は、S4で生成されたトレンドデータを用いてFCM識別器を構築する。なお、S1〜S4の処理は、所定数の教師データ(クラスが既知の動画データ121)のそれぞれについて行われる。そして、S5では、各教師データから生成されたトレンドデータの一部を訓練データとしてFCM識別器が構築される。 In S5, the classifier construction unit 115 constructs an FCM classifier using the trend data generated in S4. The processing of S1 to S4 is performed for each of a predetermined number of teacher data (moving image data 121 whose class is known). Then, in S5, an FCM classifier is constructed using a part of the trend data generated from each teacher data as training data.

S6では、正解率算出部117は、S5で構築されたFCM識別器の正解率を計算する。具体的には、判定部116は、S5で構築されたFCM識別器により、所定数の教師データを入力としてクラス判定を行う。そして、正解率算出部117は、このクラス判定の結果について正解率を算出する。正解率は、各クラスについて算出する。 In S6, the correct answer rate calculation unit 117 calculates the correct answer rate of the FCM classifier constructed in S5. Specifically, the determination unit 116 uses the FCM classifier constructed in S5 to perform class determination by inputting a predetermined number of teacher data. Then, the correct answer rate calculation unit 117 calculates the correct answer rate for the result of this class determination. The correct answer rate is calculated for each class.

S7では、識別器構築部115は、所定数のFCM識別器を構築済みであるか否かを判定する。上記所定数は、S3の次元圧縮における次元数以下で適宜設定すればよい。所定数を大きくするほど、判定精度の高いFCM識別器を構築できる可能性が高まるが、構築に要する時間も長くなるので、必要な精度と許容できる処理時間に応じて上記所定数を設定することが好ましい。 In S7, the classifier construction unit 115 determines whether or not a predetermined number of FCM classifiers have been constructed. The predetermined number may be appropriately set to be equal to or less than the number of dimensions in the dimension compression of S3. The larger the predetermined number, the higher the possibility that an FCM classifier with high determination accuracy can be constructed, but the time required for construction also increases. Therefore, set the predetermined number according to the required accuracy and the allowable processing time. Is preferable.

S7で識別器構築部115が構築済みではないと判定した場合(S7でNO)、トレンドデータ生成部114は、次元番号nに1を加算して(S8)、S4の処理を行う。これにより、前回生成したトレンドデータよりも次元番号が1大きい圧縮次元データからトレンドデータが生成される。一方、S7で識別器構築部115が構築済みであると判定した場合(S7でYES)、処理はS9に進む。 When it is determined in S7 that the classifier construction unit 115 has not been constructed (NO in S7), the trend data generation unit 114 adds 1 to the dimension number n (S8) and performs the process of S4. As a result, the trend data is generated from the compressed dimension data whose dimension number is one larger than the previously generated trend data. On the other hand, when it is determined in S7 that the classifier construction unit 115 has already been constructed (YES in S7), the process proceeds to S9.

S9では、識別器構築部115は、S6で正解率が計算済みとなった所定数のFCM識別器のうち、正解率の高いFCM識別器を複数特定し、それらのFCM識別器の構築に用いたトレンドデータを特定する。そして、トレンドデータ生成部114は、特定されたそれらのトレンドデータを統合する。以下、統合により生成されたトレンドデータを統合データと呼ぶ。 In S9, the classifier construction unit 115 identifies a plurality of FCM classifiers having a high correct answer rate from the predetermined number of FCM classifiers for which the correct answer rate has been calculated in S6, and uses them for constructing the FCM classifiers. Identify the trend data that was there. Then, the trend data generation unit 114 integrates those identified trend data. Hereinafter, the trend data generated by the integration will be referred to as integrated data.

S10では、識別器構築部115は、S9で得られた統合データを用いてFCM識別器を構築する。これにより、FCM識別器を構築する処理は終了となる。 In S10, the classifier construction unit 115 constructs an FCM classifier using the integrated data obtained in S9. This completes the process of constructing the FCM classifier.

〔FCM識別器の構築例〕
FCM識別器の構築例を図3〜図5に基づいて説明する。図3は、動画データ121、圧縮次元データ、およびトレンドデータの例を示す図である。
[Example of constructing FCM classifier]
An example of constructing the FCM classifier will be described with reference to FIGS. 3 to 5. FIG. 3 is a diagram showing an example of moving image data 121, compressed dimension data, and trend data.

これらの例では、車のワイパーの5つの動作パターンを判定対象のクラスとしている。具体的な動作パターンは、(1)ワイパーが低速動作と一時停止を繰り返す、(2)ワイパーが低速で動作、(3)ワイパーが高速で動作、(4)ワイパーが停止、および(5)ワイパーが動作途中で停止(異常停止)、の5つである。 In these examples, the five operation patterns of the wiper of the car are set as the class to be determined. Specific operation patterns are (1) the wiper repeats low-speed operation and pause, (2) the wiper operates at low speed, (3) the wiper operates at high speed, (4) the wiper stops, and (5) the wiper. Is stopped in the middle of operation (abnormal stop).

図3の例では、12秒間の動画データ(上記(1)〜(5)の何れかの動作パターンのワイパーを撮影したもの)から0.1秒間隔で静止画を切り出して画像1〜画像120までの120枚の連続画像データを取得している。 In the example of FIG. 3, still images are cut out at 0.1 second intervals from the 12-second moving image data (photographed by the wiper of any of the operation patterns (1) to (5) above), and images 1 to 120. Up to 120 continuous image data have been acquired.

また、図3の例では、これらの連続画像データのそれぞれを100次元に次元圧縮して圧縮次元データを生成している。具体的には、画像1からは、A1_1〜A1_100の100個の要素からなる圧縮次元データを生成している。画像2以降も同様であり、各連続画像データについて、100個の要素からなる圧縮次元データが生成される。 Further, in the example of FIG. 3, each of these continuous image data is dimensionally compressed to 100 dimensions to generate compressed dimensional data. Specifically, the image 1, and generates a compressed dimension data consisting of 100 elements of A 1_1 to A 1_100. The same applies to image 2 and subsequent images, and compression dimension data composed of 100 elements is generated for each continuous image data.

そして、図3の例では、各圧縮次元データの構成要素のうち、次元番号が同じである要素を、その圧縮次元データの元になった静止画データの時系列順で結合したものをトレンドデータとしている。具体的には、各圧縮次元データの構成要素のうち、次元番号が1であるA1_1〜A120_1をこの順(画像1〜120の順)で並べたものを、次元番号1についてのトレンドデータとしている。そして、同じ要領で次元番号2〜10についてもトレンドデータを生成している。 Then, in the example of FIG. 3, among the components of each compressed dimension data, the elements having the same dimension number are combined in chronological order of the still image data that is the source of the compressed dimension data, and the trend data is obtained. It is supposed to be. Specifically, trend data of the components of the compressed dimension data, what dimension number is arranged A 1_1 to A 120 _ 1 is 1 in this order (the order of image 1 to 120), the dimension number 1 It is supposed to be. Then, the trend data is generated for the dimension numbers 2 to 10 in the same manner.

なお、図3では、1つの動作パターンに対応する動画データからトレンドデータを生成する例を示しているが、他の動作パターンの動画データについても同様にトレンドデータを生成する。このようにして生成したトレンドデータは、各動作パターンの特徴を表すものとなる。これについて、図4に基づいて説明する。 Although FIG. 3 shows an example of generating trend data from moving image data corresponding to one operation pattern, trend data is similarly generated for moving image data of other operation patterns. The trend data generated in this way represents the characteristics of each operation pattern. This will be described with reference to FIG.

図4は、FCM識別器が判定対象とする各動作パターンについて、次元番号毎のトレンドデータをグラフで示した図である。図示のように、トレンドデータのグラフ形状は、同じ動作パターンに対応しているものであっても、次元番号ごとにそれぞれ異なっている。このことから、各次元番号のトレンドデータは、同じ動作パターンに対応しているものであっても、それぞれ異なる特徴を示すものとなっていることが分かる。また、トレンドデータのグラフ形状は、同じ次元番号に対応しているものであっても、動作パターンごとにそれぞれ異なっている。このことから、トレンドデータは、各次元番号において、各動作パターンの特徴を示すものとなっていることが分かる。 FIG. 4 is a graph showing trend data for each dimension number for each operation pattern to be determined by the FCM classifier. As shown in the figure, the graph shape of the trend data is different for each dimension number even if it corresponds to the same operation pattern. From this, it can be seen that the trend data of each dimension number shows different characteristics even if they correspond to the same operation pattern. Further, the graph shape of the trend data is different for each operation pattern even if it corresponds to the same dimension number. From this, it can be seen that the trend data shows the characteristics of each operation pattern at each dimension number.

ただし、例えば次元番号1のような、動作パターンごとの差異が大きいトレンドデータが存在する一方、例えば次元番号3のような、動作パターンごとの差異が小さいトレンドデータも存在する。このため、何れのトレンドデータを用いるかによって、構築されるFCM識別器の判定精度は異なるものとなる。 However, while there is trend data such as dimension number 1 in which the difference for each operation pattern is large, there is also trend data such as dimension number 3 in which the difference for each operation pattern is small. Therefore, the determination accuracy of the constructed FCM classifier differs depending on which trend data is used.

そこで、本実施形態では、図2のS4〜S8に示したように、複数の次元番号のトレンドデータをそれぞれ用いて複数のFCM識別器を構築する。そして、構築した各FCM識別器に所定数の教師データを入力して判定結果を取得し、その判定結果から正解率を計算する。これにより、高い判定精度のFCM識別器を構築できるトレンドデータを選別することができる。 Therefore, in the present embodiment, as shown in S4 to S8 of FIG. 2, a plurality of FCM classifiers are constructed by using the trend data of a plurality of dimension numbers. Then, a predetermined number of teacher data is input to each of the constructed FCM classifiers to obtain a determination result, and the correct answer rate is calculated from the determination result. As a result, trend data capable of constructing an FCM classifier with high determination accuracy can be selected.

なお、トレンドデータの選別方法はこの例に限られない。例えば、トレンドデータの経時変化が、動画像データの特徴点を反映している程度を統計的に評価し、動画像データの特徴点をよく反映しているトレンドデータを選別してもよい。また、例えば、図4に示すように各トレンドデータの経時変化の態様を可視化して、ユーザが動画像データの特徴点をよく反映しているトレンドデータを選別してもよい。 The method of selecting trend data is not limited to this example. For example, the degree to which the time-dependent change of the trend data reflects the feature points of the moving image data may be statistically evaluated, and the trend data that well reflects the feature points of the moving image data may be selected. Further, for example, as shown in FIG. 4, the mode of the time-dependent change of each trend data may be visualized, and the user may select the trend data that well reflects the feature points of the moving image data.

また、本実施形態では、高い判定精度のFCM識別器を構築できるトレンドデータを複数組み合わせることにより、さらに判定精度の高いFCM識別器を構築する。図5は、正解率の高いFCM識別器の構築に用いたトレンドデータを2つ統合した統合データによりFCM識別器を構築した例を示す図である。 Further, in the present embodiment, an FCM classifier having a higher determination accuracy is constructed by combining a plurality of trend data capable of constructing an FCM classifier having a higher determination accuracy. FIG. 5 is a diagram showing an example in which an FCM classifier is constructed by integrated data in which two trend data used for constructing an FCM classifier having a high accuracy rate are integrated.

図示の例では、次元番号1のトレンドデータと次元番号8のトレンドデータ(何れも120個の構成要素を有する)を結合して、構成要素数が240個の統合データを生成している。より詳細には、次元番号1のトレンドデータの構成要素の後に、次元番号8のトレンドデータの構成要素をそのままつなぎ合わせて統合データとしている。なお、トレンドデータの統合の方法は、各トレンドデータの特徴点が失われないようなものであればよく、図示の例に限られない。例えば、次元番号8のトレンドデータの構成要素の後に、次元番号1のトレンドデータの構成要素をつなぎ合わせてもよい。また、統合するトレンドデータの数は3以上であってもよい。また、統合するトレンドデータの実効値に大きな差がある場合には、例えば波形を−1〜1の数値範囲に正規化するなどして差を小さくしてから統合してもよい。さらに、例えば、各時系列の特徴が消えなければ、統合対象のトレンドデータの構成要素を加算したり、掛け合わせたりして得た値を統合データとしてもよい。また、統合対象のトレンドデータの相関係数を統合データとすることも可能である。どのような統合データを用いるかはFCM識別器の判定対象等に応じて適宜決定すればよい。例えば、統合方式の異なる複数の統合データをそれぞれ用いてFCM識別器を構築し、その正解率を比較することにより、より好ましい統合方式を特定することができる。 In the illustrated example, the trend data of dimension number 1 and the trend data of dimension number 8 (each having 120 components) are combined to generate integrated data having 240 components. More specifically, after the component of the trend data of dimension number 1, the component of the trend data of dimension number 8 is directly connected to form integrated data. The method of integrating the trend data is not limited to the illustrated example as long as the feature points of the trend data are not lost. For example, the component of the trend data of dimension number 8 may be followed by the component of the trend data of dimension number 1. Further, the number of trend data to be integrated may be 3 or more. If there is a large difference in the effective values of the trend data to be integrated, the waveform may be normalized to a numerical range of -1 to 1 to reduce the difference and then integrated. Further, for example, if the characteristics of each time series do not disappear, the value obtained by adding or multiplying the components of the trend data to be integrated may be used as the integrated data. It is also possible to use the correlation coefficient of the trend data to be integrated as the integrated data. What kind of integrated data is used may be appropriately determined according to the determination target of the FCM classifier and the like. For example, a more preferable integrated method can be specified by constructing an FCM classifier using a plurality of integrated data having different integrated methods and comparing the correct answer rates.

このような統合データを用いてFCM識別器を構築することにより、さらに判定精度の高いFCM識別器を構築することができる。図5の例では、次元番号1のトレンドデータを用いて構築したFCM識別器の正解率が、5つの動作パターンの総合で93.75%であり、次元番号8のトレンドデータを用いて構築したFCM識別器の正解率が、5つの動作パターンの総合で91.63%である。何れも高い正解率であるが、統合データを用いて構築したFCM識別器の正解率はこれらの何れをも上回り、5つの動作パターンの総合で98.11%であった。 By constructing an FCM classifier using such integrated data, it is possible to construct an FCM classifier with even higher determination accuracy. In the example of FIG. 5, the correct answer rate of the FCM classifier constructed using the trend data of dimension number 1 is 93.75% in total of the five operation patterns, and it is constructed using the trend data of dimension number 8. The correct answer rate of the FCM classifier is 91.63% in total of the five operation patterns. The correct answer rate was high in all cases, but the correct answer rate of the FCM classifier constructed using the integrated data exceeded all of these, and the total of the five operation patterns was 98.11%.

〔処理の流れ(FCM識別器を用いた判定)〕
上述のようにして構築したFCM識別器を用いて動画データ121のクラス判定を行うときの処理(情報処理方法)について図6に基づいて説明する。図6は、構築したFCM識別器を用いた動画データ121のクラス判定処理の一例を示すフローチャートである。
[Processing flow (judgment using FCM classifier)]
The process (information processing method) when class determination of the moving image data 121 is performed using the FCM classifier constructed as described above will be described with reference to FIG. FIG. 6 is a flowchart showing an example of the class determination process of the moving image data 121 using the constructed FCM classifier.

まず、動画取得部111は、記憶部12から判定対象の動画データ121を取得する(S11、動画取得ステップ)。次に、静止画取得部112は、S11で取得された動画データ121を連続画像データに変換する(S12、静止画取得ステップ)。そして、次元圧縮部113は、静止画取得部112が取得した連続画像データのそれぞれについて次元圧縮を行い、圧縮次元データを生成する(S13、次元圧縮ステップ)。次元圧縮の際の次元数は、FCM識別器を構築したときと同じとする。 First, the moving image acquisition unit 111 acquires the moving image data 121 to be determined from the storage unit 12 (S11, moving image acquisition step). Next, the still image acquisition unit 112 converts the moving image data 121 acquired in S11 into continuous image data (S12, still image acquisition step). Then, the dimensional compression unit 113 performs dimensional compression on each of the continuous image data acquired by the still image acquisition unit 112 to generate compressed dimensional data (S13, dimensional compression step). The number of dimensions at the time of dimension compression is the same as when the FCM classifier is constructed.

続いて、トレンドデータ生成部114は、S13で生成された圧縮次元データを用いて統合データを生成する(S14、判定用データ生成ステップ)。より詳細には、トレンドデータ生成部114は、S13で生成された圧縮次元データの各要素の値に関するトレンドデータを生成する。そして、生成したトレンドデータのうち、適切なトレンドデータを選択し、それらを統合して統合データを生成する。なお、適切なトレンドデータは、FCM識別器を構築したときに用いたトレンドデータと同じ次元番号のトレンドデータである。例えば、次元番号1と8のトレンドデータをこの順で結合した統合データでFCM識別器を構築していた場合、S14でも次元番号1と8のトレンドデータをこの順で結合した統合データを生成する。 Subsequently, the trend data generation unit 114 generates integrated data using the compressed dimension data generated in S13 (S14, determination data generation step). More specifically, the trend data generation unit 114 generates trend data relating to the value of each element of the compression dimension data generated in S13. Then, from the generated trend data, appropriate trend data is selected and integrated to generate integrated data. The appropriate trend data is trend data having the same dimension number as the trend data used when the FCM classifier was constructed. For example, when the FCM classifier is constructed with the integrated data in which the trend data of the dimension numbers 1 and 8 are combined in this order, the integrated data in which the trend data of the dimension numbers 1 and 8 are combined in this order is also generated in S14. ..

そして、判定部116は、構築済みのFCM識別器にS14で生成された統合データを入力してクラス判定を行い(S15、判定ステップ)、判定結果を出力部14に出力させる(S16)。これによりクラス判定処理は終了する。 Then, the determination unit 116 inputs the integrated data generated in S14 into the constructed FCM classifier, performs class determination (S15, determination step), and outputs the determination result to the output unit 14 (S16). This ends the class determination process.

〔UI(User Interface)例〕
ユーザが情報処理装置1にクラス判定処理を行わせるためのUIは、例えば図7のようなものであってもよい。図7は、クラス判定処理を行わせるためのUI画面の一例を示す図である。なお、出力部14が画像を表示する表示装置であれば、UI画面は出力部14に表示させればよく、出力部14が情報処理装置1に接続された表示装置に画像を出力させる画像出力部であれば、UI画面は出力部14を介して表示装置に表示させればよい。
[UI (User Interface) example]
The UI for the user to cause the information processing device 1 to perform the class determination process may be, for example, the one shown in FIG. 7. FIG. 7 is a diagram showing an example of a UI screen for performing class determination processing. If the output unit 14 is a display device that displays an image, the UI screen may be displayed on the output unit 14, and the output unit 14 outputs an image to the display device connected to the information processing device 1. If it is a unit, the UI screen may be displayed on the display device via the output unit 14.

図7のUI画面2には、判定対象の動画データを表示させる動画表示領域21、判定対象の動画データを選択するためのデータ選択キー22、クラス判定処理を開始させるスタートキー23、およびUI画面2の表示を終了する終了キー24が含まれている。また、UI画面2には、判定対象の各クラスとその説明文の表示領域25と、結果表示領域26が含まれている。 The UI screen 2 of FIG. 7 includes a moving image display area 21 for displaying the moving image data to be judged, a data selection key 22 for selecting the moving image data to be judged, a start key 23 for starting the class judgment process, and a UI screen. The end key 24 for ending the display of 2 is included. Further, the UI screen 2 includes a display area 25 for each class to be determined and its description, and a result display area 26.

本UI画面を使用するユーザは、まず、データ選択キーを選択して記憶部12に格納されている動画データ121のうち所望のものを選択する。これにより、動画表示領域には、選択した動画データ121が表示される。そして、ユーザは、表示された動画データ121が所望の内容であることを確認した後、スタートキーを選択する。 The user who uses this UI screen first selects a data selection key and selects a desired moving image data 121 stored in the storage unit 12. As a result, the selected moving image data 121 is displayed in the moving image display area. Then, the user selects the start key after confirming that the displayed moving image data 121 has the desired content.

これにより、上述のクラス判定処理(より詳細には図6のS12〜S15の処理)が行われ、判定結果表示領域に判定結果が表示される。FCM識別器では、1つのクラスタが複数のクラスタに同時に部分的に所属することを許容するので、基本的に複数のクラスが判定結果として出力される。図示の例では、結果表示領域26において、クラス1に該当する確率が5.35%、クラス2に該当する確率が94.63%、クラス3に該当する確率が0.02%と表示されており、他のクラスに該当する確率は0と表示されている。図示の例のように、判定部116は、最も確率の高いクラスを他のクラスと異なる表示態様でハイライト表示することが好ましい。これにより、動画データ121が該当する可能性の高いクラスをユーザに一目で認識させることができる。 As a result, the above-mentioned class determination process (more specifically, the processes of S12 to S15 in FIG. 6) is performed, and the determination result is displayed in the determination result display area. Since the FCM classifier allows one cluster to partially belong to a plurality of clusters at the same time, basically a plurality of classes are output as a determination result. In the illustrated example, in the result display area 26, the probability of corresponding to class 1 is displayed as 5.35%, the probability of corresponding to class 2 is 94.63%, and the probability of corresponding to class 3 is 0.02%. The probability of falling into another class is displayed as 0. As shown in the illustrated example, the determination unit 116 preferably highlights the class with the highest probability in a display mode different from that of other classes. As a result, the user can be made to recognize the class to which the moving image data 121 is likely to correspond at a glance.

〔動画データ以外のデータを併用したFCM識別器の構築〕
FCM識別器は、動画データと動画データ以外のデータを併用して構築することもできる。例えば、トレンドデータ生成部114は、動画データから取得した静止画データの次元圧縮データから成るトレンドデータと、動画データに含まれる音声データの特徴を時系列で示す音声特徴データとを用いて判定用データを生成してもよい。音声特徴データは、音声データの特徴を時系列で示すものであればよく、例えば音声データをフーリエ変換することによって生成されるスペクトルデータを音声特徴データとしてもよい。このような音声特徴データと、動画データ由来のトレンドデータとをそのまま結合させることにより、FCM識別器に入力する判定用データを生成することができる。無論、この場合、FCM識別器の構築の際には、学習データから、上記判定用データと同じ手法で生成したデータを用いる。
[Construction of FCM classifier using data other than video data]
The FCM classifier can also be constructed by using moving image data and data other than moving image data in combination. For example, the trend data generation unit 114 makes a determination using trend data composed of dimensionally compressed data of still image data acquired from moving image data and audio feature data indicating the characteristics of audio data included in the moving image data in chronological order. Data may be generated. The voice feature data may be any one that shows the features of the voice data in time series, and for example, the spectrum data generated by Fourier transforming the voice data may be used as the voice feature data. By combining such voice feature data and trend data derived from moving image data as they are, it is possible to generate determination data to be input to the FCM classifier. Of course, in this case, when constructing the FCM classifier, data generated from the training data by the same method as the above-mentioned determination data is used.

また、例えば動画データの撮影期間中に計測された振動の特徴を時系列で示す振動特徴データを用いて判定用データを生成することも可能である。この他にも、例えば動画データの撮影期間中に任意のセンサで検知した事象について、その事象の特徴を時系列で示す特徴データを用いて判定用データを生成すること等も可能である。 Further, for example, it is also possible to generate determination data using vibration characteristic data showing vibration characteristics measured during the shooting period of moving image data in time series. In addition to this, for example, for an event detected by an arbitrary sensor during the shooting period of moving image data, it is also possible to generate determination data using feature data showing the features of the event in chronological order.

なお、動画データを用いて構築したFCM識別器と、動画データ以外のデータを用いて構築したFCM識別器とを併用して、動画データに撮影されている事象を判定してもよい。例えば、これら2種の識別器の判定結果が同じクラスを示していれば、動画データに撮影されている事象は当該クラスの示す事象である可能性が高い。つまり、2種の識別器の併用により、クラス判定結果の信頼性を高めることができる。一方、これら2種の識別器の判定結果が異なるクラスを示している場合には、何れか一方の識別器の判定が誤っている可能性もあるが、異音が発生している等の事態も想定される。よって、2種の識別器の判定結果が異なるクラスを示している場合には、動画データの撮影対象に異常が発生していると判定することもできる。つまり、2種の識別器の併用により、動作異常を検出することも可能になる。例えば、ワイパーの動作を撮影した動画データと、その音声データとをそれぞれ用いてクラス判定を行い、それらのクラス判定結果が不一致である場合に、ワイパーの動作異常が発生したと判定することもできる。 In addition, the FCM classifier constructed by using the moving image data and the FCM classifier constructed by using the data other than the moving image data may be used in combination to determine the event captured in the moving image data. For example, if the determination results of these two types of classifiers indicate the same class, it is highly possible that the event captured in the moving image data is the event indicated by the class. That is, the reliability of the class determination result can be improved by using the two types of classifiers together. On the other hand, if the judgment results of these two types of classifiers indicate different classes, there is a possibility that the judgment of one of the classifiers is incorrect, but a situation such as an abnormal noise occurring. Is also assumed. Therefore, when the determination results of the two types of classifiers indicate different classes, it can be determined that an abnormality has occurred in the shooting target of the moving image data. That is, by using the two types of classifiers together, it is possible to detect an operation abnormality. For example, it is possible to perform class determination using the video data obtained by capturing the operation of the wiper and the audio data thereof, and if the class determination results do not match, it can be determined that the wiper operation abnormality has occurred. ..

〔変形例〕
上述の情報処理装置1は、FCM識別器の構築と、構築したFCM識別器による判定との両方を行っているが、これらの処理は個別の装置で行ってもよい。つまり、本発明の情報処理装置は、他の情報処理装置で構築されたFCM識別器を用いてクラス判定を行うものであってもよい。この場合、他の情報処理装置はクラウド上に配置されたサーバであってもよい。また、本発明の情報処理装置は、他の情報処理装置にクラス判定させるためのFCM識別器を構築するものであってもよい。
[Modification example]
The information processing device 1 described above performs both the construction of the FCM classifier and the determination by the constructed FCM classifier, but these processes may be performed by individual devices. That is, the information processing apparatus of the present invention may perform class determination using an FCM classifier constructed by another information processing apparatus. In this case, the other information processing device may be a server located on the cloud. Further, the information processing apparatus of the present invention may construct an FCM classifier for causing another information processing apparatus to determine the class.

上述の実施形態では、動画データに撮影されている事象を複数のクラスとしているが、判定対象とするクラスには動画データに撮影されている事象の後に生じると予測される事象を示すクラスが含まれていてもよい。 In the above-described embodiment, the events recorded in the moving image data are set as a plurality of classes, but the class to be determined includes a class indicating an event predicted to occur after the event recorded in the moving image data. It may be.

例えば、動画データに撮影されている事象が、ごみ焼却炉の燃焼室内でごみが燃えているという事象である場合に、燃えているごみが、その後、正常に燃え続けるという事象と、異常燃焼となるという事象とをそれぞれ判定対象のクラスとしてもよい。これにより、燃焼室内を撮影した画像から、その画像の撮影後に、ごみの燃焼状態がどのようになるかを予測することも可能になる。 For example, when the event recorded in the video data is that the garbage is burning in the combustion chamber of the garbage incinerator, the burning garbage continues to burn normally after that, and abnormal combustion. The event of becoming may be set as the class to be determined. This makes it possible to predict what the combustion state of waste will be after taking the image from the image taken in the combustion chamber.

〔ソフトウェアによる実現例〕
情報処理装置1の制御ブロック(特に制御部11に含まれる各部)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Example of realization by software]
The control block (particularly each unit included in the control unit 11) of the information processing device 1 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or may be realized by a CPU (Central Processing Unit). It may be realized by software using.

後者の場合、情報処理装置1は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In the latter case, the information processing unit 1 is a CPU that executes instructions of a program that is software that realizes each function, and a ROM (Read Only Memory) in which the program and various data are readablely recorded by a computer (or CPU). Alternatively, it is equipped with a storage device (referred to as a "recording medium"), a RAM (Random Access Memory) for developing the above program, and the like. Then, the object of the present invention is achieved by the computer (or CPU) reading the program from the recording medium and executing the program. As the recording medium, a "non-temporary tangible medium", for example, a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. Further, the program may be supplied to the computer via an arbitrary transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. It should be noted that one aspect of the present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the above program is embodied by electronic transmission.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims, and the embodiments obtained by appropriately combining the technical means disclosed in the different embodiments. Is also included in the technical scope of the present invention.

〔まとめ〕
本発明の一態様に係る情報処理装置は、入力データが所定の複数のクラスの何れに該当するかを、ファジィc平均法を用いた識別器によって判定する情報処理装置であって、上記入力データとして動画データを取得する動画取得部と、上記動画データを用いて生成された、該動画データよりもデータ量が小さく、かつ、上記動画データの有していた経時変化する特徴が反映されている判定用データを上記識別器に入力して判定結果を出力させる判定部と、を備えている構成である。
[Summary]
The information processing device according to one aspect of the present invention is an information processing device that determines which of a plurality of predetermined classes the input data corresponds to by a classifier using the fuzzy c averaging method, and is the above-mentioned input data. The moving image acquisition unit that acquires the moving image data and the characteristic that the amount of data is smaller than that of the moving image data generated by using the moving image data and that the moving image data has with time change are reflected. The configuration includes a determination unit that inputs determination data to the classifier and outputs a determination result.

上記の構成によれば、識別器に入力する判定用データが、動画データを用いて生成されたものであり、該動画データよりもデータ量が小さく、かつ、上記動画データの有していた経時変化する特徴が反映されているデータである。動画データよりもデータ量が小さい判定用データを用いることにより、識別器の判定にかかる処理時間を短縮することができる。また、判定用データには動画データの有していた経時変化する特徴が反映されているのでこの特徴に基づく判定が可能である。よって、動画データを入力データとして、実用に耐える処理時間で識別器によりクラス判定することが可能になる。 According to the above configuration, the determination data to be input to the classifier is generated by using the moving image data, the amount of data is smaller than that of the moving image data, and the time elapsed of the moving image data. The data reflects the changing characteristics. By using the determination data whose amount of data is smaller than that of the moving image data, the processing time required for the determination of the classifier can be shortened. Further, since the determination data reflects the characteristic of the moving image data that changes with time, the determination based on this characteristic is possible. Therefore, it is possible to use the moving image data as input data and determine the class by the classifier with a processing time that can withstand practical use.

上記情報処理装置は、上記動画データから、該動画データを構成する複数の時系列の静止画データを取得する静止画取得部と、上記静止画データのそれぞれを次元圧縮して圧縮次元データを生成する次元圧縮部と、上記圧縮次元データのうち一部の次元番号の圧縮次元データを結合して上記判定用データを生成する判定用データ生成部と、を備えていてもよい。 The information processing apparatus generates compressed dimensional data by dimensionally compressing each of the still image acquisition unit that acquires a plurality of time-series still image data constituting the moving image data and the still image data from the moving image data. A determination data generation unit that combines the compression dimension data of a part of the compression dimension data to generate the determination data may be provided.

上記の構成によれば、動画データから時系列の静止画データを取得し、静止画データのそれぞれを次元圧縮して圧縮次元データを生成し、各静止画データに対応する圧縮次元データのうち一部の次元の圧縮次元データを用いて判定用データを生成する。これらの構成では、何れも時系列のデータを取得することが可能であるから、これらの構成により生成された判定用データには、動画データが有していた、経時変化する特徴を反映させることができる。また、これらの構成は、何れもデータ量を減らすものであるから、これらの構成により生成された判定用データは、動画データよりもデータ量が小さい。よって、実用に耐える処理時間でのクラス判定を可能にする判定用データを生成し、これにより、動画データを入力データとして識別器によりクラス判定することができる。 According to the above configuration, time-series still image data is acquired from moving image data, each of the still image data is dimensionally compressed to generate compressed dimension data, and one of the compressed dimension data corresponding to each still image data is generated. Judgment data is generated using the compressed dimension data of the dimension of the part. Since it is possible to acquire time-series data in any of these configurations, the judgment data generated by these configurations should reflect the characteristics of the moving image data that change with time. Can be done. Further, since all of these configurations reduce the amount of data, the judgment data generated by these configurations has a smaller amount of data than the moving image data. Therefore, it is possible to generate determination data that enables class determination in a processing time that can withstand practical use, and thereby, class determination can be performed by a classifier using moving image data as input data.

上記判定用データ生成部は、複数次元の上記圧縮次元データを用いて上記判定用データを生成してもよい。 The determination data generation unit may generate the determination data using the compression dimension data having a plurality of dimensions.

異なる次元の圧縮次元データは、静止画データの異なる特徴点に対応しているから、複数次元の圧縮次元データを用いて判定用データを生成する上記の構成によれば、複数の異なる特徴点に基づいてクラス判定を行うことができる。これにより、1つの特徴点に基づいてクラス判定を行う場合と比べて、判定精度を向上させることが可能になる。 Since the compressed dimensional data of different dimensions correspond to different feature points of the still image data, according to the above configuration for generating determination data using the compressed dimensional data of multiple dimensions, a plurality of different feature points can be obtained. The class judgment can be made based on the above. This makes it possible to improve the determination accuracy as compared with the case where the class determination is performed based on one feature point.

上記判定用データ生成部は、上記圧縮次元データと、上記動画データに含まれる音声データの特徴を時系列で示す音声特徴データとを用いて上記判定用データを生成してもよい。 The determination data generation unit may generate the determination data by using the compression dimension data and the audio feature data showing the characteristics of the audio data included in the moving image data in chronological order.

上記の構成によれば、圧縮次元データと、動画データに含まれる音声データの特徴を時系列で示す音声特徴データとを用いて判定用データを生成する。よって、音声データの特徴も加味したクラス判定を行うことができる。 According to the above configuration, determination data is generated using the compressed dimension data and the voice feature data showing the features of the voice data included in the moving image data in chronological order. Therefore, the class determination can be performed in consideration of the characteristics of the voice data.

上記複数のクラスには、動画データである入力データに撮影されている事象の後に生じると予測される事象を示すクラスが含まれていてもよい。 The plurality of classes may include a class indicating an event predicted to occur after the event captured in the input data which is the moving image data.

上記の構成によれば、動画データに撮影されている事象の後に生じる事象、すなわち動画データに撮影されていない事象を予測することができる。1つの静止画データからはこのような予測は困難であるが、時系列の判定用データを用いる上記構成によれば、このような予測も可能となる。例えば、動画データに撮影されている事象が、ごみ焼却炉の燃焼室内でごみが燃えているという事象である場合に、燃えているごみが、その後、正常に燃え続けるか、異常燃焼となるかを予測することも可能になる。 According to the above configuration, it is possible to predict an event that occurs after an event that is captured in the moving image data, that is, an event that is not captured in the moving image data. Such a prediction is difficult from one still image data, but such a prediction is possible according to the above configuration using time-series determination data. For example, if the event recorded in the video data is that the garbage is burning in the combustion chamber of the garbage incinerator, whether the burning garbage continues to burn normally or becomes abnormal combustion after that. Can also be predicted.

本発明の一態様に係る情報処理方法は、入力データが所定の複数のクラスの何れに該当するかを、ファジィc平均法を用いた識別器によって判定する情報処理装置による情報処理方法であって、上記入力データとして動画データを取得する動画取得ステップと、上記動画データを用いて生成された、該動画データよりもデータ量が小さく、かつ、上記動画データの有していた経時変化する特徴が反映されている判定用データを上記識別器に入力して判定結果を出力させる判定ステップと、を含む方法である。この情報処理方法によれば、上記情報処理装置と同様の作用効果を奏する。 The information processing method according to one aspect of the present invention is an information processing method using an information processing apparatus that determines which of a plurality of predetermined classes the input data corresponds to by a classifier using the fuzzy c averaging method. , The moving image acquisition step of acquiring the moving image data as the input data, and the feature that the amount of data is smaller than the moving image data generated by using the moving image data and that the moving image data has a time-varying feature. This is a method including a determination step in which the reflected determination data is input to the classifier and the determination result is output. According to this information processing method, the same operation and effect as the above-mentioned information processing apparatus can be obtained.

上述の情報処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記情報処理装置が備える各部(ソフトウェア要素)として動作させることにより上記情報処理装置をコンピュータにて実現させる情報処理プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。 The information processing device described above may be realized by a computer. In this case, the information processing device is realized by the computer by operating the computer as each part (software element) included in the information processing device. A program and a computer-readable recording medium on which it is recorded also fall within the scope of the present invention.

1 情報処理装置
121 動画データ
111 動画取得部
112 静止画取得部
113 次元圧縮部
114 トレンドデータ生成部(判定用データ生成部)
116 判定部
1 Information processing device 121 Video data 111 Video acquisition unit 112 Still image acquisition unit 113 Dimensional compression unit 114 Trend data generation unit (judgment data generation unit)
116 Judgment unit

Claims (5)

入力データが所定の複数のクラスの何れに該当するかを、ファジィc平均法を用いた識別器によって判定する情報処理装置であって、
上記入力データとして動画データを取得する動画取得部と、
上記動画データを用いて生成された、該動画データよりもデータ量が小さく、かつ、上記動画データの有していた経時変化する特徴が反映されている判定用データを上記識別器に入力して判定結果を出力させる判定部と、
上記動画データから、該動画データを構成する複数の時系列の静止画データを取得する静止画取得部と、
上記静止画データのそれぞれを次元圧縮して圧縮次元データを生成する次元圧縮部と、
上記圧縮次元データのうち一部の次元番号の圧縮次元データを結合して上記判定用データを生成する判定用データ生成部と、を備え、
上記識別器は、それぞれが異なる次元番号の圧縮次元データを用いて構築された識別器からなる識別器群の中で正解率が高かった複数の識別器の学習に使用された次元番号の圧縮次元データを結合して生成された統合データを用いて構築された識別器であり、
上記判定用データ生成部は、上記統合データと同じ次元番号の圧縮次元データを結合して上記判定用データを生成する、ことを特徴とする情報処理装置。
An information processing device that determines which of a plurality of predetermined classes the input data corresponds to by a classifier using the fuzzy c averaging method.
A video acquisition unit that acquires video data as the above input data,
The determination data generated by using the moving image data, which is smaller than the moving image data and reflects the characteristics of the moving image data that change with time, is input to the classifier. A judgment unit that outputs the judgment result and
A still image acquisition unit that acquires a plurality of time-series still image data constituting the moving image data from the moving image data,
A dimensional compression unit that dimensionally compresses each of the above still image data to generate compressed dimensional data,
A determination data generation unit that combines the compression dimension data of a part of the compression dimension data to generate the determination data is provided.
The above classifier is a compressed dimension of the dimension number used for learning a plurality of classifiers having a high accuracy rate in a group of classifiers composed of classifiers constructed by using compressed dimension data having different dimension numbers. It is a classifier constructed using integrated data generated by combining data.
The determination data generation unit is an information processing device characterized in that the compression dimension data having the same dimension number as the integrated data is combined to generate the determination data.
上記判定用データ生成部は、上記圧縮次元データと、上記動画データに含まれる音声データの特徴を時系列で示す音声特徴データとを用いて上記判定用データを生成することを特徴とする請求項に記載の情報処理装置。 The claim that the determination data generation unit generates the determination data by using the compression dimension data and the audio feature data showing the characteristics of the audio data included in the moving image data in time series. The information processing apparatus according to 1. 上記複数のクラスには、動画データである入力データに撮影されている事象の後に生じると予測される事象を示すクラスが含まれていることを特徴とする請求項1または2に記載の情報処理装置。 The information processing according to claim 1 or 2 , wherein the plurality of classes include a class indicating an event predicted to occur after an event being photographed in the input data which is moving image data. apparatus. 入力データが所定の複数のクラスの何れに該当するかを、ファジィc平均法を用いた識別器によって判定する情報処理装置による情報処理方法であって、
上記入力データとして動画データを取得する動画取得ステップと、
上記動画データから、該動画データを構成する複数の時系列の静止画データを取得する静止画取得ステップと、
上記静止画データのそれぞれを次元圧縮して圧縮次元データを生成する次元圧縮ステップと、
上記圧縮次元データのうち一部の次元番号の圧縮次元データを結合して、上記動画データよりもデータ量が小さく、かつ、上記動画データの有していた経時変化する特徴が反映されている判定用データを生成する判定用データ生成ステップと、
上記判定用データを上記識別器に入力して判定結果を出力させる判定ステップと、を含み、
上記識別器は、それぞれが異なる次元番号の圧縮次元データを用いて構築された識別器群の中で正解率が高かった複数の識別器の学習に使用された次元番号の圧縮次元データを結合して生成された統合データを用いて構築された識別器であり、
上記判定用データ生成ステップでは、上記統合データと同じ次元番号の圧縮次元データを結合して上記判定用データを生成する、ことを特徴とする情報処理方法。
It is an information processing method by an information processing device that determines which of a plurality of predetermined classes the input data corresponds to by a classifier using the fuzzy c averaging method.
A video acquisition step to acquire video data as the above input data,
A still image acquisition step of acquiring a plurality of time-series still image data constituting the moving image data from the moving image data, and
A dimensional compression step that dimensionally compresses each of the above still image data to generate compressed dimensional data,
By combining the compressed dimension data of some dimension number of the compressed-dimensional data, the data amount than the moving picture data is small and characteristics that change over time and had the video data is reflected Judgment data generation step to generate judgment data and
It said determination data and the determination step of outputting the judgment result is inputted to the discriminator, only including,
The above classifiers combine the compressed dimension data of the dimension numbers used for learning of a plurality of classifiers having a high accuracy rate in the classifier group constructed by using the compressed dimension data of different dimension numbers. It is a classifier constructed using the integrated data generated by
An information processing method characterized in that in the determination data generation step, compressed dimension data having the same dimension number as the integrated data is combined to generate the determination data.
請求項1に記載の情報処理装置としてコンピュータを機能させるための情報処理プログラムであって、上記動画取得部上記判定部、上記静止画取得部、上記次元圧縮部、および上記判定用データ生成部としてコンピュータを機能させるための情報処理プログラム。 The information processing program for operating a computer as the information processing device according to claim 1, wherein the moving image acquisition unit , the determination unit , the still image acquisition unit, the dimension compression unit, and the determination data generation unit. An information processing program to make a computer function as.
JP2017051858A 2017-03-16 2017-03-16 Information processing equipment, information processing methods, and information processing programs Active JP6899674B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017051858A JP6899674B2 (en) 2017-03-16 2017-03-16 Information processing equipment, information processing methods, and information processing programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017051858A JP6899674B2 (en) 2017-03-16 2017-03-16 Information processing equipment, information processing methods, and information processing programs

Publications (2)

Publication Number Publication Date
JP2018156316A JP2018156316A (en) 2018-10-04
JP6899674B2 true JP6899674B2 (en) 2021-07-07

Family

ID=63718200

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017051858A Active JP6899674B2 (en) 2017-03-16 2017-03-16 Information processing equipment, information processing methods, and information processing programs

Country Status (1)

Country Link
JP (1) JP6899674B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7278088B2 (en) * 2019-01-31 2023-05-19 キヤノン株式会社 Information processing device, information processing method, and program
JP7401747B2 (en) * 2019-11-29 2023-12-20 富士通株式会社 Sorting program, sorting device and sorting method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002197465A (en) * 2000-03-31 2002-07-12 Fujitsu Ltd Device for automatically detecting mouth shape, and device for automatically recognizing word by using the same
JP2011059186A (en) * 2009-09-07 2011-03-24 Gifu Univ Speech section detecting device and speech recognition device, program and recording medium
JP5755171B2 (en) * 2012-03-30 2015-07-29 公立大学法人大阪府立大学 Combustion state detection device and combustion control device in incinerator
JP6008618B2 (en) * 2012-07-02 2016-10-19 日立造船株式会社 Garbage condition detection device in a garbage incinerator
CN107533363B (en) * 2015-04-17 2020-06-30 三菱电机株式会社 Gesture recognition device, gesture recognition method, and information processing device

Also Published As

Publication number Publication date
JP2018156316A (en) 2018-10-04

Similar Documents

Publication Publication Date Title
CN108965826B (en) Monitoring method, monitoring device, processing equipment and storage medium
US20200371491A1 (en) Determining Operating State from Complex Sensor Data
JP4356716B2 (en) Abnormality monitoring device
CN107644194B (en) System and method for providing monitoring data
CN102340625B (en) The video camera of the video capture method that event starts and the video that capturing events starts
US10115298B2 (en) Method of trend analysis and automatic tuning of alarm parameters
US11023577B2 (en) Anomaly detection for time series data having arbitrary seasonality
KR20190069421A (en) System and method for predictive failure detection in a vehicle
KR102033050B1 (en) Unsupervised Learning Technique for Time Difference Model
JP6973533B2 (en) Analytical device, analysis method and program
CN109447025B (en) Fatigue detection method, device, system and computer readable storage medium
JP6899674B2 (en) Information processing equipment, information processing methods, and information processing programs
CN110475124B (en) Video jamming detection method and device
JP2006268200A (en) Flame/gas smoke detecting system, and flame/gas smoke detecting method
JP2016173682A (en) Abnormality determination device and abnormality determination method
CN106781167B (en) Method and device for monitoring motion state of object
US11397874B2 (en) Image capturing apparatus, generating apparatus, control method, and storage medium
US11527091B2 (en) Analyzing apparatus, control method, and program
CN104067606A (en) Camera, camera system, and self-diagnosis method
CN114071127A (en) Live video delay testing method and device, storage medium and electronic equipment
EP3635913A1 (en) Alarm processing devices, methods, and systems
US20100121805A1 (en) Systems and methods involving rule engines
CN113409822A (en) Object state determination method and device, storage medium and electronic device
JP3994416B1 (en) Abnormality detection device, program, and abnormality detection method
JP7175061B1 (en) Program, information processing device, and method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170622

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210615

R150 Certificate of patent or registration of utility model

Ref document number: 6899674

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250