JP7315022B2 - 機械学習装置、機械学習方法、及び、機械学習プログラム - Google Patents

機械学習装置、機械学習方法、及び、機械学習プログラム Download PDF

Info

Publication number
JP7315022B2
JP7315022B2 JP2021560763A JP2021560763A JP7315022B2 JP 7315022 B2 JP7315022 B2 JP 7315022B2 JP 2021560763 A JP2021560763 A JP 2021560763A JP 2021560763 A JP2021560763 A JP 2021560763A JP 7315022 B2 JP7315022 B2 JP 7315022B2
Authority
JP
Japan
Prior art keywords
data
unit
machine learning
unit data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021560763A
Other languages
English (en)
Other versions
JPWO2021106028A1 (ja
JPWO2021106028A5 (ja
Inventor
航介 吉見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2021106028A1 publication Critical patent/JPWO2021106028A1/ja
Publication of JPWO2021106028A5 publication Critical patent/JPWO2021106028A5/ja
Application granted granted Critical
Publication of JP7315022B2 publication Critical patent/JP7315022B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • G06V10/7792Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being an automated module, e.g. "intelligent oracle"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Description

本願発明は、時系列のデータに対して所定の判定を行う際に用いる学習モデルを生成するシステムにおいて、その教師データを生成する技術に関する。
現在、画像認識等を行う多くのシステムにおいて、統計的機械学習の手法が用いられている。この統計的機械学習では、認識対象のドメインに関連した正解ラベル(正解情報)が付与されたデータ(教師データ)を大量に用意し、これらの教師データを学習および評価用に用いることが必要となる。しかしながら、このような教師データの準備には、時間的、金銭的、労力的な観点で、極めて高いコストがかかっているという問題がある。したがって、このような教師データを効率的に得る(データに対するラベルの付与を効率的に行う)技術への期待が高まってきている。
このような技術に関連する技術として、特許文献1には、分類または回帰のための機械学習モデルを用いて、ラベル付けされていないかまたは部分的にラベル付けされた目標データセットをモデリングする方法が開示されている。この方法では、目標データセットを機械学習モデルによって処理する。この方法では、ラベル付けまたはラベル検証のためのユーザに対する提示用に、目標データセットのサブグループを作成する。この方法では、サブグループのラベル検証またはユーザ再ラベル付けまたはユーザラベル付けを受信する。そしてこの方法では、更新された目標データセットを機械学習モデルによって再処理する。
また、特許文献2には、状況別に用意された対象物の複数の画像例をもとに、この対象物の特徴を学習して予め当該状況別に構築された複数種類の辞書を備える画像認識システムが開示されている。このシステムは、撮像装置で画像が得られたときの場所および時間帯に応じた辞書を選択し、撮像装置で得られた画像から抽出した抽出画像と選択した辞書中の複数種類のパターンとを順次照合していくことによって、対象物であるか否かの判定を行う。
また、特許文献3には、画像内容を表す定義ラベルを予め定義しておき、インデキシング対象の映像の中で前記定義ラベルに該当するシーンが出現したときに当該シーンに定義ラベルを付与する映像インデキシング装置が開示されている。その装置は、第1のクラス識別関数と、第2のクラス識別関数とを、辞書データとして記憶する。第1のクラス識別関数は、定義ラベルと、学習用の画像として与えられた当該定義ラベルを表す正しい正事例画像から抽出された特徴量により算出された、処理対象画像がその定義ラベルを表す画像であるか否かを判別する。第2のクラス識別関数は、学習用の画像として与えられた当該定義ラベルを表す正しい正事例画像と正しくない負事例画像とから抽出された特徴量により算出された、正事例画像と負事例画像とを識別する。この装置は、インデキシング対象の映像が与えられたときに、当該映像から選択したフレーム画像について、第1のクラス識別関数を用いて定義ラベルを表す画像であるか否かを判別し、その定義ラベルを付与する候補となるフレーム画像を求める。この装置は、候補となるフレーム画像について、第2のクラス識別関数を用いて正事例画像もしくは負事例画像のどちらに該当するかを判別することにより、候補となるフレーム画像から負事例画像に該当する画像を排除し、正事例画像に該当する定義ラベルを付与すべき画像に定義ラベルを付与する。
特表2018-537798号公報 特開2011-059810号公報 特開2009-181306号公報
例えば、監視映像等の時系列のデータから目的とする対象物を識別するようなシステムでは、ポジティブデータ(検出したい対象物を含む画像)とネガティブデータ(検出したい対象物を含まない画像)とを用いて統計的機械学習を行う。この場合、ポジティブデータに対しては、含まれる対象物の種別に応じて、例えば「車両」、「歩行者」等のクラス分けが行われ、当該クラスを表すラベルを画像に付与したラベル付与データ(教師データ)が生成される。一方、ネガティブデータに対しては、「その他」あるいは「ネガティブ」というような1つのクラスを表すラベルが割り当てられたラベル付与データが生成される。
そして、上述した監視映像等から目的とする対象物を識別するようなシステムでは、統計的機械学習の際に使用する時系列の画像には、一般的に、大量のネガティブデータが含まれていることが多い。このような場合、機械学習の際に使用するラベル付与データの大部分が、「その他」あるいは「ネガティブ」というような特定の1つのクラスに属することになり、学習データにおける不均衡(data imbalance)が生じる。その結果、このようなシステムでは、機械学習を行なった結果を表す学習モデルの精度が低下するという問題がある。
また、実際の判定結果において、監視映像に対象物が写っている期間において、ある画像(フレーム)においては対象物の検出に成功する一方、別の画像においては対象物の検出に失敗する(「ポジティブ」を「ネガティブ」と誤判定する)場合がある。あるいはその逆に、実際には当該対象物が含まれない画像において、当該対象物を誤って検出する(「ネガティブ」を「ポジティブ」と誤判定する)ことも起こり得る。
このような誤判定は、対象物の動き、対象物の姿勢、背景の変異、光源やノイズの変異などに起因する画像の変異に対して、現在の判定手段が有する判定能力では対応しきれていないことによって生じる現象であると考えられる。このような誤判定が発生した画像は、学習モデルの精度を高めるための教師データとして好適であると考えられるが、一般的にはこのような誤判定が発生した画像が監視映像全体に占める(即ち、教師データとして占める)割合は、例えば「ネガティブ」であることを正しく判定しているときの画像などが占める割合と比較して非常に小さい。したがって、このような誤判定を回避するように機械学習を行った結果は学習モデルに反映され難く、効率的に統計的機械学習を行うことが困難であるという問題もある。
即ち、時系列のデータに基づいて機械学習を行う場合において、上述したような問題を解消して、効率的に機械学習の精度を高めることが課題である。上述した特許文献1乃至3が示す技術は、この課題を解決するのに十分であるとは言えない。
本願発明の主たる目的は、時系列のデータに基づいて機械学習を行う場合において、効率的に学習モデルの精度を高めることである。
本願発明の一態様に係る機械学習装置は、時系列のデータを構成する1以上の単位データに対して所定の判定を行う際に用いる学習モデルを生成した判定手段から出力された、前記単位データに対する判定結果において、時間の経過に伴う一貫性の崩れを検出する検出手段と、前記検出手段による検出結果に基づいて、前記判定手段が前記学習モデルを更新する際に教師データとして用いる前記単位データを選択する選択手段と、を備える。
上記目的を達成する他の見地において、本願発明の一態様に係る機械学習方法は、情報処理装置によって、時系列のデータを構成する1以上の単位データに対して所定の判定を行う際に用いる学習モデルを生成した判定手段から出力された、前記単位データに対する判定結果において、時間の経過に伴う一貫性の崩れを検出し、前記一貫性の崩れの検出結果に基づいて、前記判定手段が前記学習モデルを更新する際に教師データとして用いる前記単位データを選択する。
また、上記目的を達成する更なる見地において、本願発明の一態様に係る機械学習プログラムは、時系列のデータを構成する1以上の単位データに対して所定の判定を行う際に用いる学習モデルを生成した判定手段から出力された、前記単位データに対する判定結果において、時間の経過に伴う一貫性の崩れを検出する検出処理と、前記検出処理による検出結果に基づいて、前記判定手段が前記学習モデルを更新する際に教師データとして用いる前記単位データを選択する選択処理と、をコンピュータに実行させる。
更に、本願発明は、係る機械学習プログラム(コンピュータプログラム)が格納された、コンピュータ読み取り可能な、不揮発性の記録媒体によっても実現可能である。
本願発明は、時系列のデータに基づいて機械学習を行う場合において、効率的に学習モデルの精度を高めることを可能とする。
本願発明の第1の実施形態に係る機械学習装置10の構成を示すブロック図である。 本願発明の第1の実施形態に係る判定部13による判定結果を例示する図である。 本願発明の第1の実施形態に係る分割部15により複数のチャンクに分割された入力動画像100を例示する図である。 本願発明の第1の実施形態に係る変換部14による画像変換処理を例示する図である。 本願発明の第1の実施形態に係る生成部16がユーザによるラベルの入力操作を受け付ける際に、表示画面200に表示する第一の画面の内容を例示する図である。 図5に例示する第一の画面において、ラベル付与が完了したラベル付与選択画像の割合の表示態様のバリエーションを例示する図である。 本願発明の第1の実施形態に係る生成部16がユーザによる正解情報の入力操作を受け付ける際に、表示画面200に表示する第二の画面の内容を例示する図である。 本願発明の第1の実施形態に係る機械学習装置10の動作を示すフローチャート(1/2)である。 本願発明の第1の実施形態に係る機械学習装置10の動作を示すフローチャート(2/2)である。 本願発明の第2の実施形態に係る機械学習装置30の構成を示すブロック図である。 本願発明の第1の実施形態に係る機械学習装置10あるいは第2の実施形態に係る機械学習装置30を実行可能な情報処理装置900の構成を示すブロック図である。
後述する実施形態を一例とする開示は、時系列のデータに対して所定の判定(識別とも呼ばれる)を行う際に用いる学習モデルを生成した判定手段(識別器とも呼ばれる)から出力された判定(識別)結果において、時間の経過に伴う一貫性(時間的一貫性)の崩れを検出することによって、学習モデルの精度を効率的に高められる教師データを生成できると考えられることに着想を得た。
即ち、時系列のデータに対して所定の判定を行う場合において、一般的に、正しい判定結果は時間的一貫性を保持すると推定される。例えば、監視映像から歩行者や車両等の対象物を検出する場合に、当該監視映像に対象物が写っている間、当該対象物を継続して検出することが期待される。しかしながら、前述した通り、判定対象のデータにおいて、判定手段の判定能力では対応しきれていない事象が偶発的に発生したときに誤判定が発生し、判定結果における時間的一貫性の崩れが発生する。
したがって、この時間的一貫性の崩れの検出結果に基づいて教師データとして使用するデータを選択することによって、機械学習において好適である少数の誤判定時のデータを優先的に教師データに含めることができる。そして、それとともに、このように教師データを生成することによって、本来であれば教師データにおいて大多数を占める、例えば「ネガティブ」であることを継続的に(時間的一貫性が保持されて)正しく判定しているときのデータの割合を削減することができる。
このように生成された教師データは、学習内容の不均衡を解消するとともに、機械学習の精度を高める上で好適なデータを優先的に含むことから、効率的に学習モデルの精度を高めることが期待できる。
以下、本願発明の実施の形態について図面を参照して詳細に説明する。
<第1の実施形態>
図1は、本願発明の第1の実施の形態に係る機械学習装置10の構成を示すブロック図である。本実施形態に係る機械学習装置10は、監視カメラにより監視対象エリアが撮影された入力動画像100(時系列のデータ)に基づいて、例えば、人物が当該監視対象エリアに侵入したか否かを判定する際に用いる学習モデルを生成する装置である。尚、機械学習装置10が入力動画像100に基づいて機械学習を行う内容は、例えば、入力動画像100から目的とする対象物(歩行者や車両など)を検出することなどでもよい。
機械学習装置10には、管理端末装置20が通信可能に接続されている。管理端末装置20は、機械学習装置10を使用するユーザが、機械学習装置10に対して情報を入力したり、機械学習装置10から出力された情報を確認したりする際に使用する、例えばパーソナルコンピュータ等の情報処理装置である。なお、管理端末装置20は、機械学習装置10に内蔵されてもよい。
機械学習装置10は、検出部11、選択部12、判定部13、変換部14、分割部15、及び、生成部16を備えている。但し、検出部11、選択部12、判定部13、変換部14、分割部15、及び、生成部16は、順に、検出手段、選択手段、判定手段、変換手段、分割手段、及び、生成手段の一例である。
判定部13は、入力動画像100を構成する単位データである画像(フレーム)と学習モデル130とに基づいて、人物が監視対象エリアに侵入したか否かを判定する。判定部13はこの判定を行う際に用いる学習モデル130を、教師データ160に基づいて更新する。但し、学習モデル130は、図示されていない、例えばメモリやハードディスク等の記憶デバイスに記憶されていることとする。
図2は、本実施形態に係る判定部13による判定結果を例示する図である。図2に示す例では、判定部13は、入力動画像100を構成する画像Iにおいて、左側から右側に移動する人物が、各画像内に示す境界線の右側の領域(監視対象エリア)に侵入したか否かを判定する。
図2に例示する通り、判定部13は、画像Iaに対しては、人物が監視対象エリアに侵入していないことを正しく判定している。判定部13は、画像Ibに対しては、人物が監視対象エリアに侵入していないのにもかかわらず、人物が監視対象エリアに侵入したと誤って判定している。判定部13は、画像Icに対しては、人物が監視対象エリアに侵入しているのにもかかわらず、人物が監視対象エリアに侵入していないと誤って判定している。判定部13は、画像Idに対しては、人物が監視対象エリアに侵入したことを正しく判定している。
図2に示す例において、判定部13は、画像Ib及び画像Icに対して誤った判定を行っており、これは、判定部13が有する現在の判定能力が、画像Ib及び画像Icに対応できていないことに起因する。そして、この画像Ib及び画像Icに対する判定部13による判定が行われる際に、判定結果における時間的一貫性の崩れが生じている。
機械学習装置10が、人物が監視対象エリアに侵入したか否かを判定する場合、判定部13による判定結果は、侵入が発生したことを表す「ポジティブ」と、侵入が発生しなかったことを表す「ネガティブ」との2種類である。この場合、判定部13による入力動画像100におけるある画像に対する判定結果Xは、one-hotベクトル表現を用いて、例えば式1の通りに表すことができる。

Figure 0007315022000001

ただし、式1において、tは、入力動画像100における判定対象の画像を識別可能な時系列における識別子を表し、Tは転置ベクトルを表す符号である。
尚、判定部13による判定結果が3種類以上となる場合、判定結果Xは、3次元以上のベクトルにより、同様に表すことができる。また、判定部13は、判定対象である個々の画像全体に関して所定の判定を行うのではなく、個々の画像における予め定められた検出窓やアンカー毎に、所定の判定を行ってもよい。
入力動画像100に含まれる時系列の画像の数をN(Nは任意の自然数)とした場合、その時系列の画像Iは、{I,I,・・・,I}と表され、判定部13による各画像に対する判定結果Xは{X,X,・・・,X}と表される。
検出部11は、画像Iに対する判定結果Xに関する時間的一貫性の崩れを検出する。検出部11は、この際、時間的一貫性の崩れを表す値として、検出対象である画像Iに対する判定結果Xと、当該画像Iと隣接する画像に対する判定結果との相違(距離)を算出する。
検出部11による時間的一貫性の崩れの検出において、当該画像Iと隣接する画像とを含む評価対象期間を、例えば式2に示すτとする。

Figure 0007315022000002

但し、式2において、a及びbは評価対象期間を定義するパラメータである。a及びbの値は、予め与えられた固定値でもよいし、所定の設定基準に従って動的に設定された値でもよい。
図1に示す分割部15は、上述したa及びbの値を動的に設定する。図3は、本実施形態に係る分割部15により、複数のチャンクCに分割された入力動画像100を例示する図である。ここでチャンクCは、時間的に連続し、かつ、判定部13による判定に関して同一のイベントを表す動画像とみなすことができる、入力動画像100における一部分を表す。
図3に例示するチャンクC(iは任意の自然数)は、画像の左側から人物が現れ、その人物が画像の右側に進んで監視対象エリアに侵入したのち、画像の右側に消えるまでのイベントを表す動画像である。チャンクCi+2は、画像の右側から人物が現れ、その人物が画像の左側に進んで監視対象エリアから退出したのち、画像の左側に消えるまでのイベントを表す動画像である。チャンクCi+1は、時間軸においてチャンクCとチャンクCi+2とに挟まれた、画像に人物が存在しないイベントを表す動画像である。
分割部15は、例えば入力動画像100を構成する画像Iの類似性などに基づいて、入力動画像100をM個(Mは任意の自然数)のチャンク{C,C,・・・,C}に分割する。
検出部11により算出される時間的一貫性の崩れTCLは、例えば式3に示す通り定義することができる。

Figure 0007315022000003

但し、式3において「dist」は[0,1]に正規化された距離関数を表す。式3に示す関数「dist」内における第2項(第二のベクトル)におけるXの添え字の部分は、集合τから集合{t}を除いた差集合を表す。即ち、当該第2項は、評価対象期間τ内の画像Iに対する判定結果Xのうち、X(第一のベクトル)を除くXの平均値を表す。また、当該距離関数としては、周知の様々な関数が使用可能であり、例えば、「dist」内における第1項及び第2項のそれぞれを確率分布と見なした交差エントロピーを表す関数などでもよい。
図1に示す変換部14は、入力動画像100を構成する画像Iに対して、所定の画像変換処理を行う。図4は本実施形態に係る変換部14による画像変換処理を例示する図である。変換部14は、図4に例示する通り、画像I(元画像)に対して、例えば、平行移動、回転、色調変換、ぼかし、部分欠落、ノイズ添加等の画像変換処理を行う。尚、図4に例示する画像変換処理は一例であり、変換部14は、上述した画像変換処理とは異なる画像変換処理を、画像Iに施してもよい。
変換部14により行われる画像変換処理は、微小な変換処理であることとする。即ち、例えば平行移動の場合は数画素程度の移動であればよく、回転の場合は数度程度の回転であればよい。
変換部14は画像変換処理を施した画像Iを判定部13に入力する。判定部13は、変換部14から入力された画像変換処理後の画像Iに対しても同様に、人物が監視対象エリアに侵入したか否かの判定を行う。
また、判定部13による判定内容が、例えば上述したような、人物が監視対象エリアに侵入したか否かなど、画像内における検出対象(人物等)の位置によって判定結果に影響を及ぼすような内容である場合、変換部14は、平行移動や回転等の変換処理の前後で画像の位置が変わるような画像変換処理を除外してもよい。即ち、変換部14は、判定部13による判定内容に応じて、画像Iに施す変換処理を変更してもよい。
検出部11は、判定部13による判定結果において、変換部14による画像変換処理に伴う一貫性の崩れを、上述した時間的一貫性の崩れと同様に検出する。検出部11により算出される画像変換処理に伴う一貫性の崩れACLは、例えば式4に示す通り定義することができる。

Figure 0007315022000004

但し、式4において、「mean」は平均値を表し、「dist」内における第2項は、平行移動や回転等の1以上の種別の画像変換処理のうちのi(iは任意の自然数)番目の種別の画像変換処理が施された画像に対する判定部13による判定結果を表す。
図1に示す選択部12は、検出部11により検出された、画像Iに対する判定結果Xに関する時間的一貫性の崩れTCLに基づいて、画像Iにラベルを付与する(即ち画像Iを判定部13による機械学習における教師データとして用いる)優先度Yを算出する。優先度Yは、時系列の画像の数Nを用いて、{Y,Y,・・・,Y}と表される。
選択部12は、上述した時間的一貫性の崩れTCLに基づいて優先度Yを算出してもよいし、あるいは、時間的一貫性の崩れTCLと画像変換処理に伴う一貫性の崩れACLとの両方に基づいて優先度Yを算出してもよい。選択部12は、時間的一貫性の崩れTCLと画像変換処理に伴う一貫性の崩れACLとの両方に基づいて優先度Yを算出する場合、例えば式5を用いて優先度Yを算出する。

Figure 0007315022000005

但し、式5において、δは0から1の間のいずれかの値をとる重み付けを示す係数である。
選択部12は、所定の選択基準と、画像Iに関する優先度Yとに基づいて、ラベルを付与する(判定部13による機械学習における教師データとして用いる)画像Iを選択する。選択部12による選択結果Zは、時系列の画像の数Nを用いて、{Z,Z,・・・,Z}と表される。但し選択結果Zの値は、ラベルが付与される(教師データとして使用する)ことを表す「1」、あるいは、ラベルが付与されない(教師データとして使用しない)ことを表す「0」となる。
選択部12がラベルを付与する画像Iを選択する際に用いる選択基準の第一の例は、優先度Yが閾値α以上であることである。この場合、選択部12は、例えば式6を満たす画像Iを示す識別子tの集合Sαを求める。

Figure 0007315022000006

選択部12がラベルを付与する画像Iを選択する際に用いる選択基準の第二の例は、画像Iの全体に対する選択する画像Iが占める割合が所定の値β以下となるように、優先度Yが最も高い画像Iから優先度Yの順番に画像Iを選択することである。この場合、選択部12は、例えば式7を満たす画像Iを示す識別子tの集合Sβを求める。

Figure 0007315022000007

但し、式7において、Yβ+、Yβ-は、それぞれ、値が集合Yにおける上位側の割合βに含まれる優先度の集合と、それ以外の優先度の集合を表し、min(Yβ+)、max(Yβ-)は、それぞれ、集合Yβ+に含まれる優先度の最低値と、集合Yβ-に含まれる優先度の最高値とを表す。また式7において、#Yβ+、#Yは、それぞれ、集合Yβ+、集合Yの要素数を表す。
選択部12がラベルを付与する画像Iを選択する際に用いる選択基準の第三の例は、選択する画像Iの個数が所定の値γ以下となるように、優先度Yが最も高い画像Iから優先度Yの順番に画像Iを選択することである。選択部12は、この第三の例の選択基準に基づく画像Iの選択動作を、上述したM個に分割したチャンクC毎に行う場合、例えば式8を満たす画像Iを示す識別子tの集合Sγを求める。

Figure 0007315022000008

但し、式8において、Cj+、Cj-は、それぞれ、チャンクC(jは1乃至Mのいずれかの整数)の中で優先度の高さがγ番目までに含まれる優先度の集合と、チャンクCに含まれるそれ以外の優先度の集合とを表す。また、式8において、#Cj+は、集合Cj+の要素数を表す。
選択部12は、ラベルを付与する画像Iを選択する際に、上述した複数の選択基準を組み合わせて使用してもよい。選択部12は、また、上述したラベルを付与する画像Iの選択動作を、チャンクCに分割される前の入力動画像100において行ってもよいし、チャンクCごとに上述した少なくともいずれかの選択基準を適用することによって行ってもよい。その際、選択部12は、チャンクC毎に個別に値が設定されたα、β、γを用いてもよい。
図1に示す生成部16は、選択部12によって選択されたラベル(正解情報)を付与する画像I(ラベル付与選択画像)を、例えば管理端末装置20における表示画面200に表示することによって、ユーザに提示する。そして生成部16は、当該ユーザによる管理端末装置20に対する入力操作によって入力されたラベルを、ラベル付与選択画像に付与することによって、教師データ160を生成する。
図5は、本実施形態に係る生成部16が、ユーザによるラベルの入力操作を受け付ける際に、表示画面200に表示する第一の画面の内容を例示する図である。図5に例示する通り、生成部16は、チャンクC毎に、ラベル付与選択画像の時間軸における位置を、例えば縦線によって模式的に表示する。尚、この縦線の長さ(高さ)は、そのラベル付与選択画像の優先度Yの高さを表している。
生成部16は、図5に例示する第一の画面において、チャンクCごとに色分けして表示するようにしてもよい。ユーザは、表示画面200において、例えばマウスカーソルを、ラベルの入力操作を行いたいチャンクCの表示箇所まで移動させた後にマウスをクリックすることによって、チャンクCを選択可能である。生成部16は、ユーザによって選択されたチャンクC(図5におけるチャンクC)を、例えば太枠によって強調表示する。
生成部16は、各チャンクCに含まれるラベル付与選択画像の総数を表示する。図5に示す例では、チャンクCに含まれるラベル付与選択画像の総数は52個である。その際、生成部16は、図5に例示する通り、ラベル付与選択画像の総数をユーザが視覚的に認識できるように、ラベル付与選択画像の総数に応じた大きさの円の中に、その総数を表示するようにしてもよい。
生成部16は、各チャンクCにおいて、ラベル付与選択画像の総数に対するラベルの付与が完了したラベル付与選択画像の割合を、ユーザが視覚的に認識できるように表示する。図6は図5に例示する第一の画面において、ラベル付与が完了したラベル付与選択画像の割合の表示態様のバリエーションを例示する図である。
生成部16は、例えば図6に例示する第一の表示態様の様に、ラベルの付与が完了したラベル付与選択画像の割合を、ラベル付与選択画像の総数を表示する円の底部から広がる領域の大きさによって表してもよい。生成部16は、また、例えば図6に例示する第二の表示態様の様に、ラベルの付与が完了したラベル付与選択画像の割合を、ラベル付与選択画像の総数を表示する円に含まれる扇形の領域の中心角の角度によって表してもよい。生成部16は、また、例えば図6に例示する第三の表示態様の様に、ラベルの付与が完了したラベル付与選択画像の割合を、ラベル付与選択画像の総数を表示する円の同心円の大きさによって表してもよい。
生成部16は、また、図5に例示する通り、ユーザによって選択されたチャンクCにおけるラベル付与選択画像を代表する代表画像の内容(ビュー)と、その代表画像の優先度Yの値(スコア)もあわせて表示画面200に表示する。当該代表画像は、例えば、チャンクCに含まれるラベル付与選択画像のうち、その優先度Yが最も高い画像である。
図7は、本実施形態に係る生成部16が、ユーザによるラベルの入力操作を受け付ける際に、表示画面200に表示する第二の画面の内容を例示する図である。生成部16は、ユーザが、図5に例示する第一の画面におけるあるチャンクCの表示領域にマウスカーソルを移動させたのち、マウスをダブルクリックした、あるいは、右クリックにより表示されるプルダウンメニューにおいて選択入力した場合に、表示画面200に表示する画面を、第一の画面から第二の画面に切り替える。
生成部16は、図7に例示する通り、ユーザによって選択されたチャンクCに含まれるラベル付与選択画像のサムネイル画像を、時系列の順に表示する。生成部16は、あるいは、当該サムネイル画像を、例えば、優先度Yの順や、ラベル付与の完了/未完了の区分の順に表示してもよい。生成部16は、サムネイル画像において、ユーザによるラベルの付与が完了していることを表すラベル付与完了フラグもあわせて表示してもよい。ユーザはこの第二の画面に表示されたシークバーを左右に動かすことによって、サムネイル画像をスライドさせたのち、ラベルを付与したいラベル付与選択画像を選択することができる。
生成部16は、ユーザにより選択されたラベル付与選択画像の拡大画像と、当該ラベル付与選択画像に関するラベル選択ボタンを表示画面200に表示する。本実施形態に係る判定部13は、人物が監視対象エリアに侵入したか否かを判定するので、ラベル選択ボタンは、「Alert」(人物が監視対象エリアに侵入した)及び「No alert」(人物が監視対象エリアに侵入していない)の二者択一のボタンとなる。ラベル選択ボタンは、判定部13による判定内容によっては、3つ以上の選択肢を有するボタンであってもよい。
生成部16は、「Alert」及び「No alert」のうち、ユーザが当該ラベル付与選択画像に付与するラベルとして選択した方のボタンを強調表示する。尚、ユーザによるラベルの付与がまだ行われていないラベル付与選択画像に対しては、判定部13による判定結果が、ラベルの初期値(デフォルト値)として与えられている。生成部16は、ユーザがラベル選択ボタンにおけるいずれかの選択肢を選択したのちラベル付与完了フラグボタンをクリックすることによって、ラベル付与選択画像に対してラベル選択ボタンが示すラベルを付与する。生成部16は、それとともに、ラベル付与完了フラグボタンを強調表示する。生成部16は、また、ユーザがラベル選択ボタンにおけるいずれかの選択肢を選択した際に、ユーザによるラベル付与完了フラグボタンのクリックを待たずに、ラベル付与選択画像に対するラベルの付与、及び、ラベル付与完了フラグボタンの強調表示を行うようにしてもよい。
生成部16は、図7に例示する第二の画面において、ユーザが「Prev」ボタンをクリックした場合、現在表示しているラベル付与選択画像の1つ前に位置するラベル付与選択画像に関する第二の画面を表示画面200に表示する。生成部16は、ユーザが「Next」ボタンをクリックした場合、現在表示しているラベル付与選択画像の1つ後に位置するラベル付与選択画像に関する第二の画面を表示画面200に表示する。生成部16は、「Back」ボタンをクリックした場合、図5に例示する第一の画面を表示画面200に表示する。
生成部16は、上述の通りにユーザによってラベルが付与されたラベル付与選択画像を表す教師データ160を生成し、教師データ160を判定部13に入力する。判定部13は、生成部16から入力された教師データ160を用いて機械学習を行い、学習モデル130を更新する。
次に図8A及び8Bのフローチャートを参照して、本実施形態に係る機械学習装置10の動作(処理)について詳細に説明する。
分割部15は、入力動画像100を、複数の時間的に連続するチャンクCに分割する(ステップS101)。変換部14は、入力動画像100に含まれる画像Iに対して1以上の種別の画像変換処理を行い、画像変換処理を施した画像Iを判定部13に入力する(ステップS102)。
判定部13は、画像変換処理を施す前の画像I、及び、画像変換処理を施した画像Iに関して、学習モデル130に基づいて、所定の判定を行う(ステップS103)。検出部11は、判定部13による判定結果において、時間的な一貫性の崩れ、及び、画像変換処理に伴う一貫性の崩れを検出する(ステップS104)。
選択部12は、検出部11による、時間的な一貫性の崩れ、及び、画像変換処理に伴う一貫性の崩れの検出結果に基づいて、画像Iにラベル付与優先度を付与する(ステップS105)。選択部12は、ラベル付与優先度が閾値α以上である画像Iを選別する(ステップS106)。
選択部12は、選別された画像Iが所属するチャンクC毎に上限個数γに収まるように、ラベル付与優先度が最も高い画像Iから、ラベル付与優先度の順番に画像Iをさらに選別する(ステップS107)。選択部12は、入力動画像100に含まれる全ての画像Iに占める個数の割合がβとなるように、ラベル付与優先度が最も高い画像Iから、ラベル付与優先度の順番に画像Iをさらに選別する(ステップS108)。
生成部16は、選択部12によって選別された画像Iを、管理端末装置20の表示画面200に表示する(ステップS109)。生成部16は、選択部12によって選別された画像Iに対して、ラベルを付与するユーザによる入力操作を受け付ける(ステップS110)。
生成部16は、選択部12によって選別された画像Iにラベルを付与した教師データ160を生成する(ステップS111)。判定部13は、生成部16によって生成された教師データ160を用いて機械学習を行ない、学習モデル130を更新し(ステップS112)、全体の処理は終了する。
本実施形態に係る機械学習装置10は、時系列のデータに基づいて機械学習を行う場合において、効率的に学習モデルの精度を高めることができる。その理由は、機械学習装置10は、時系列の画像Iに対する所定の判定を行う際に用いる学習モデル130を生成した判定部13から出力された判定結果において時間的な一貫性の崩れを検出し、その検出結果に基づいて、判定部13が学習モデル130を更新する際に教師データ160として用いる画像Iを選択するからである。
以下に、本実施形態に係る機械学習装置10によって実現される効果について、詳細に説明する。
監視映像等の時系列のデータから目的とする対象物を識別するようなシステムでは、ポジティブデータとネガティブデータとを用いて統計的機械学習を行うが、この統計的機械学習の際に使用する時系列の画像には、大量のネガティブデータが含まれていることが多い。このような場合、機械学習の際に使用するラベル付与データの大部分が、特定の1つのクラスに属することになり、学習データにおける不均衡が生じ、その結果として、機械学習を行なった結果を表す学習モデルの精度が低下する問題がある。
また、実際の判定結果において、判定対象のデータにおいて、判定手段の判定能力では対応しきれていない事象が偶発的に発生したときに誤判定が発生する。このような誤判定が発生したときのデータは、教師データとして好適であると考えられるが、一般的にはこのような誤判定が発生したデータが教師データとして占める割合は、非常に小さい。したがって、このような誤判定を回避するように機械学習を行った結果は学習モデルに反映され難く、効率的に統計的機械学習を行うことが困難であるという問題もある。
このような問題に対して、本実施形態に係る機械学習装置10は、検出部11と、選択部12とを備え、例えば図1乃至図8Bを参照して上述した通り動作する。即ち、検出部11は、入力動画像100(時系列のデータ)を構成する1以上の画像I(単位データ)に対して所定の判定を行う際に用いる学習モデル130を生成した判定部13から出力された、当該画像Iに対する判定結果において、時間の経過に伴う一貫性の崩れを検出する。そして、選択部12は、検出部11による検出結果に基づいて、判定部13が学習モデル130を更新する際に教師データ160として用いる画像Iを選択する。
即ち、本実施形態に係る機械学習装置10は、画像Iに対する判定結果における、時間的一貫性の崩れの検出結果に基づいて教師データ160として用いる画像Iを選択するので、学習内容の不均衡を解消するとともに、機械学習の精度を高める上で好適なデータを優先的に含むような教師データ160を生成することを実現する。これにより、機械学習装置10は、時系列のデータに基づいて機械学習を行う場合において、効率的に学習モデルの精度を高めることができる。
また、本実施形態に係る機械学習装置10は、画像Iに対して所定の変換処理を行い、変換後の画像Iを判定部13に入力する変換部14をさらに備える。そして検出部11は、判定部13による画像Iに対する判定結果において、当該変換処理に伴う一貫性の崩れを検出する。ある画像Iに対して、いくつかの微小な変換処理(平行移動、回転、色調変換等)を行い、それらの変換処理が施された画像Iに対して判定を行った場合、通常、その判定結果の一貫性が保持されることが期待される。しかしながら、例えば、ある特定の変換処理が施された画像Iに対する判定において、誤判定が発生することによって、変換処理に伴う判定結果の一貫性が崩れることがある。この誤判定は、時間的な一貫性の崩れの場合と同様に、判定対象のデータにおいて、判定部13の判定能力では対応しきれていない事象が、当該変換処理によって偶発的に発生したことによって生じると考えられる。機械学習装置10は、画像Iに対する判定結果における時間的な一貫性の崩れに加えて変換処理に伴う一貫性の崩れも検出し、その検出結果に基づいて教師データ160として用いる画像Iを選択するので、学習モデルの精度をさらに高めることができる。
また、本実施形態に係る機械学習装置10は、入力動画像100を、例えば所定部13による判定内容に関するイベントの発生状況などに基づいて、複数の時間的に連続するチャンクCに分割する分割部15をさらに備える。そして検出部11及び選択部12は、上述した動作をチャンクCごとに行う。この際、機械学習装置10は、例えば、選択部12が同一のチャンクCにおいて選択する画像Iの個数などを絞り込むことによって、多数の類似する画像Iを選択し、その結果として機械学習の精度が低下することを回避することができる。また、機械学習装置10は、検出部11や選択部12等による処理を、チャンクCごとに並列化することによって、処理速度を向上することができる。
また、本実施形態に係る機械学習装置10は、選択部12により選択された画像Iをユーザに提示したのち、そのユーザによる入力操作によって入力されたラベル(正解情報)を当該画像Iに付与することによって、教師データ160を生成する生成部16をさらに備える。そして、生成部16は、例えば、図5乃至図7を参照して上述した通り、ユーザによるラベルの入力操作を実現するユーザインタフェースを備える。これにより、機械学習装置10は、ユーザによるラベルの入力操作の作業効率を向上させることができる。
尚、機械学習装置10が処理対象とするデータは、入力動画像100のような画像(映像)データに限定されず、画像データ以外の時系列のデータであってもよい。機械学習装置10は、例えば、監視対象の設備から発生する音声データに異常音が含まれか否かを判定する際に使用する学習モデルを生成する装置でもよい。機械学習装置10は、あるいは例えば、監視対象の設備の状態(例えば、温度、電流、電圧、電波の受信状態など)を表す時系列のデータにおいて、異常が発生したか否かを判定する際に使用する学習モデルを生成する装置などでもよい。
<第2の実施形態>
図9は、本願発明の第2の実施形態に係る機械学習装置30の構成を示すブロック図である。機械学習装置30は、検出部31、及び、選択部32を備えている。但し、検出部31、及び、選択部32は、順に、検出手段、及び、選択手段の一例である。
検出部31は、時系列のデータ300を構成する1以上の単位データ301に対して所定の判定を行う際に用いる学習モデル330を生成した判定部33から出力された、単位データ301に対する判定結果において、時間の経過に伴う一貫性の崩れを検出する。但し、判定部33は、機械学習装置30に備えられてもよいし、機械学習装置30と通信可能な外部の装置に備えられてもよい。
時系列のデータ300は、例えば、第1の実施形態に係る入力動画像100のようなデータであり、その場合、単位データ301は、入力動画像100を構成する画像(フレーム)である。判定部33による判定動作は、例えば、単位データ301が画像である場合、第1の実施形態に係る判定部13が行うような人物が監視対象エリアに侵入したか否かを判定する動作であってもよいし、それとは異なる判定動作であってもよい。
検出部31は、第1の実施形態に係る検出部11と同様に、例えば、ベクトルとして表される単位データ301に対する判定結果と式3とを用いて、判定部33による判定結果における時間的な一貫性の崩れを検出する。
選択部32は、検出部31により検出された時間的な一貫性の崩れに基づいて、判定部33が学習モデル330を更新する際に教師データ320として用いる単位データ301を選択する。より具体的には、選択部32は、第1の実施形態に係る選択部12と同様に、検出部31により検出された時間的な一貫性の崩れに基づいて、単位データ301に対してラベル付与優先度を付与する。そして、選択部32は、ラベル付与優先度が、例えば第1の実施形態において示した3つの選択基準などの所定の選択基準を満たす単位データ301を選択する。
機械学習装置30は、例えば第1の実施形態に係る生成部16に相当する機能を備えることによって、選択部32によって選択された単位データ301に対して、ユーザにより入力されたラベルを付与した教師データ320を生成することができる。そして、判定部33は、教師データ320を用いて、学習モデル330を更新する。
本実施形態に係る機械学習装置30は、時系列のデータに基づいて機械学習を行う場合において、効率的に学習モデルの精度を高めることができる。その理由は、機械学習装置30は、時系列のデータ300の単位データ301に対する所定の判定を行う際に用いる学習モデル330を生成した判定部33から出力された判定結果において時間的な一貫性の崩れを検出し、その検出結果に基づいて、判定部33が学習モデル330を更新する際に教師データ320として用いる単位データ301を選択するからである。
<ハードウェア構成例>
上述した各実施形態において図1に示した機械学習装置10、あるいは、図9に示した機械学習装置30における各部は、専用のHW(HardWare)(電子回路)によって実現することができる。また、図1及び図9において、少なくとも、下記構成は、ソフトウェアプログラムの機能(処理)単位(ソフトウェアモジュール)と捉えることができる。
・検出部11及び31、
・選択部12及び32、
・判定部13及び33、
・変換部14、
・分割部15、
・生成部16。
但し、これらの図面に示した各部の区分けは、説明の便宜上の構成であり、実装に際しては、様々な構成が想定され得る。この場合のハードウェア環境の一例を、図10を参照して説明する。
図10は、本願発明の第1の実施形態に係る機械学習装置10あるいは第2の実施形態に係る機械学習装置30を実行可能な情報処理装置900(コンピュータ)の構成を例示的に説明する図である。即ち、図10は、図1及び図9に示した機械学習装置10及び30を実現可能なコンピュータ(情報処理装置)の構成であって、上述した実施形態における各機能を実現可能なハードウェア環境を表す。
図10に示した情報処理装置900は、構成要素として下記を備えているが、下記のうちの一部の構成要素を備えない場合もある。
・CPU(Central_Processing_Unit)901、
・ROM(Read_Only_Memory)902、
・RAM(Random_Access_Memory)903、
・ハードディスク(記憶装置)904、
・外部装置との通信インタフェース905、
・バス906(通信線)、
・CD-ROM(Compact_Disc_Read_Only_Memory)等の記録媒体907に格納されたデータを読み書き可能なリーダライタ908、
・モニターやスピーカ、キーボード等の入出力インタフェース909。
即ち、上記構成要素を備える情報処理装置900は、これらの構成がバス906を介して接続された一般的なコンピュータである。情報処理装置900は、CPU901を複数備える場合もあれば、マルチコアにより構成されたCPU901を備える場合もある。情報処理装置900は、CPU901に加えてGPU(Graphical_Processing_Unit)(不図示)を備えてもよい。
そして、上述した実施形態を例に説明した本願発明は、図10に示した情報処理装置900に対して、次の機能を実現可能なコンピュータプログラムを供給する。その機能とは、その実施形態の説明において参照したブロック構成図(図1及び図9)における上述した構成、或いはフローチャート(図8A及び8B)の機能である。本願発明は、その後、そのコンピュータプログラムを、当該ハードウェアのCPU901に読み出して解釈し実行することによって達成される。また、当該装置内に供給されたコンピュータプログラムは、読み書き可能な揮発性のメモリ(RAM903)、または、ROM902やハードディスク904等の不揮発性の記憶デバイスに格納すれば良い。
また、前記の場合において、当該ハードウェア内へのコンピュータプログラムの供給方法は、現在では一般的な手順を採用することができる。その手順としては、例えば、CD-ROM等の各種記録媒体907を介して当該装置内にインストールする方法や、インターネット等の通信回線を介して外部よりダウンロードする方法等がある。そして、このような場合において、本願発明は、係るコンピュータプログラムを構成するコード或いは、そのコードが格納された記録媒体907によって構成されると捉えることができる。
以上、上述した実施形態を模範的な例として本願発明を説明した。しかしながら、本願発明は、上述した実施形態には限定されない。即ち、本願発明は、本願発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。
尚、上述した各実施形態の一部又は全部は、以下の付記のようにも記載されうる。しかしながら、上述した各実施形態により例示的に説明した本願発明は、以下には限られない。
(付記1)
時系列のデータを構成する1以上の単位データに対して所定の判定を行う際に用いる学習モデルを生成した判定手段から出力された、前記単位データに対する判定結果において、時間の経過に伴う一貫性の崩れを検出する検出手段と、
前記検出手段による検出結果に基づいて、前記判定手段が前記学習モデルを更新する際に教師データとして用いる前記単位データを選択する選択手段と、
を備える機械学習装置。
(付記2)
前記選択手段は、前記検出結果に基づいて、前記単位データを前記教師データとして用いる優先度を算出し、前記優先度に基づいて前記教師データとして用いる前記単位データを選択する、
付記1に記載の機械学習装置。
(付記3)
前記単位データに対して所定の変換処理を行い、変換後の前記単位データを前記判定手段に入力する変換手段をさらに備え、
前記検出手段は、前記判定手段による前記単位データに対する判定結果において、前記変換処理に伴う一貫性の崩れを検出する、
付記2に記載の機械学習装置。
(付記4)
前記変換手段は、前記単位データが画像を表す場合において、前記所定の変換処理として、平行移動、回転、色調変換、部分欠落の少なくともいずれかを行う、
付記3に記載の機械学習装置。
(付記5)
前記選択手段は、前記検出手段による検出結果が示す、前記単位データに対する判定結果における、前記時間の経過に伴う一貫性の崩れを示す値と、前記変換処理に伴う一貫性の崩れを示す値と、に対して、重み付けを施した値の合計を算出する、
付記3または付記4に記載の機械学習装置。
(付記6)
前記検出手段は、前記単位データの所定の集合のうちの、特定の前記単位データに対する前記判定結果を表す第一のベクトルと、前記所定の集合における前記特定の単位データを除く前記単位データに対する前記判定結果の平均を表す第二のベクトルとの距離を、前記時間の経過に伴う一貫性の崩れを表す値として算出する、
付記2乃至付記5のいずれか一項に記載の機械学習装置。
(付記7)
前記選択手段は、前記優先度が閾値以上である前記単位データを選択する、
付記2乃至付記6のいずれか一項に記載の機械学習装置。
(付記8)
前記選択手段は、前記単位データの全体に対する選択する前記単位データが占める割合が所定の値以下となるように、前記優先度が最も高い前記単位データから前記優先度の順番に前記単位データを選択する、
付記2乃至付記6のいずれか一項に記載の機械学習装置。
(付記9)
前記選択手段は、選択する前記単位データの個数が所定の値以下となるように、前記優先度が最も高い前記単位データから前記優先度の順番に前記単位データを選択する、
付記2乃至付記6のいずれか一項に記載の機械学習装置。
(付記10)
前記時系列のデータを、複数の時間的に連続するチャンクに分割する分割手段をさらに備え、
前記検出手段は、前記チャンクごとに、前記単位データに対する判定結果において、前記時間の経過に伴う一貫性の崩れを検出し、
前記選択手段は、前記チャンクごとに、前記教師データとして用いる前記単位データを選択する、
付記1乃至付記9のいずれか一項に記載の機械学習装置。
(付記11)
前記分割手段は、前記時系列のデータにおける、前記所定の判定に関するイベントの発生状況に基づいて、前記時系列のデータを前記チャンクに分割する、
付記10に記載の機械学習装置。
(付記12)
前記選択手段により選択された前記単位データをユーザに提示したのち、前記ユーザによる入力操作によって入力された正解情報を前記単位データに付与することによって前記教師データを生成する生成手段をさらに備える、
付記1乃至付記11のいずれか一項に記載の機械学習装置。
(付記13)
前記生成手段は、前記選択手段により選択された1以上の前記単位データの時間軸における位置、及び、1以上の前記単位データに対する前記正解情報の付与状況を前記ユーザに提示する、
付記12に記載の機械学習装置。
(付記14)
前記生成手段は、前記選択手段により選択された1以上の前記単位データの各々を表す画像を、表示画面において表示基準に従って順番に表示するとともに、表示した1以上の前記単位データのいずれかを前記ユーザが選択する入力操作を受け付ける、
付記12または付記13に記載の機械学習装置。
(付記15)
前記生成手段は、前記表示基準として、時系列の順番、あるいは前記検出結果に基づいて、前記単位データを前記教師データとして用いる優先度の順番を用いる、
付記14に記載の機械学習装置。
(付記16)
前記判定手段をさらに備える、
付記1乃至付記15のいずれか一項に記載の機械学習装置。
(付記17)
情報処理装置によって、
時系列のデータを構成する1以上の単位データに対して所定の判定を行う際に用いる学習モデルを生成した判定手段から出力された、前記単位データに対する判定結果において、時間の経過に伴う一貫性の崩れを検出し、
前記一貫性の崩れの検出結果に基づいて、前記判定手段が前記学習モデルを更新する際に教師データとして用いる前記単位データを選択する、
機械学習方法。
(付記18)
時系列のデータを構成する1以上の単位データに対して所定の判定を行う際に用いる学習モデルを生成した判定手段から出力された、前記単位データに対する判定結果において、時間の経過に伴う一貫性の崩れを検出する検出処理と、
前記検出処理による検出結果に基づいて、前記判定手段が前記学習モデルを更新する際に教師データとして用いる前記単位データを選択する選択処理と、
をコンピュータに実行させるための機械学習プログラムが格納された記録媒体。
10 機械学習装置
100 入力動画像
11 検出部
12 選択部
13 判定部
130 学習モデル
14 変換部
15 分割部
16 生成部
160 教師データ
20 管理端末装置
200 表示画面
30 機械学習装置
300 時系列のデータ
301 単位データ
31 検出部
32 選択部
320 教師データ
33 判定部
330 学習モデル
900 情報処理装置
901 CPU
902 ROM
903 RAM
904 ハードディスク(記憶装置)
905 通信インタフェース
906 バス
907 記録媒体
908 リーダライタ
909 入出力インタフェース

Claims (10)

  1. 時系列のデータを構成する1以上の単位データに対して所定の判定を行う際に用いる学習モデルを生成した判定手段から出力された、前記単位データに対する前記学習モデルを用いた判定結果において、時間の経過に伴う一貫性の崩れを検出する検出手段と、
    前記検出手段による検出結果に基づいて、前記判定手段が前記学習モデルを更新する際に教師データとして用いる前記単位データを選択する選択手段と、
    を備える機械学習装置。
  2. 前記選択手段は、前記検出結果に基づいて、前記単位データを前記教師データとして用いる優先度を算出し、前記優先度に基づいて前記教師データとして用いる前記単位データを選択する、
    請求項1に記載の機械学習装置。
  3. 前記単位データに対して所定の変換処理を行い、変換後の前記単位データを前記判定手段に入力する変換手段をさらに備え、
    前記検出手段は、前記判定手段による前記単位データに対する前記判定結果において、前記変換処理に伴う一貫性の崩れを検出する、
    請求項2に記載の機械学習装置。
  4. 前記変換手段は、前記単位データが画像を表す場合において、前記変換処理として、平行移動、回転、色調変換、部分欠落の少なくともいずれかを行う、
    請求項3に記載の機械学習装置。
  5. 前記選択手段は、前記検出結果が示す、前記単位データに対する前記判定結果における、前記時間の経過に伴う一貫性の崩れを示す値と、前記変換処理に伴う一貫性の崩れを示す値と、に対して、重み付けを施した値の合計を算出する、
    請求項3または請求項4に記載の機械学習装置。
  6. 前記検出手段は、前記単位データの所定の集合のうちの、特定の前記単位データに対する前記判定結果を表す第一のベクトルと、前記集合における特定の前記単位データを除く前記単位データに対する前記判定結果の平均を表す第二のベクトルとの距離を、前記時間の経過に伴う一貫性の崩れを表す値として算出する、
    請求項2乃至請求項5のいずれか一項に記載の機械学習装置。
  7. 前記時系列のデータを、複数の時間的に連続するチャンクに分割する分割手段をさらに備え、
    前記検出手段は、前記チャンクごとに、前記単位データに対する前記判定結果において、前記時間の経過に伴う一貫性の崩れを検出し、
    前記選択手段は、前記チャンクごとに、前記教師データとして用いる前記単位データを選択する、
    請求項1乃至請求項6のいずれか一項に記載の機械学習装置。
  8. 前記選択手段により選択された前記単位データをユーザに提示したのち、前記ユーザによる入力操作によって入力された正解情報を前記単位データに付与することによって前記教師データを生成する生成手段をさらに備える、
    請求項1乃至請求項7のいずれか一項に記載の機械学習装置。
  9. 情報処理装置によって、
    時系列のデータを構成する1以上の単位データに対して所定の判定を行う際に用いる学習モデルを生成した判定手段から出力された、前記単位データに対する前記学習モデルを用いた判定結果において、時間の経過に伴う一貫性の崩れを検出し、
    前記一貫性の崩れの検出結果に基づいて、前記判定手段が前記学習モデルを更新する際に教師データとして用いる前記単位データを選択する、
    機械学習方法。
  10. 時系列のデータを構成する1以上の単位データに対して所定の判定を行う際に用いる学習モデルを生成した判定手段から出力された、前記単位データに対する前記学習モデルを用いた判定結果において、時間の経過に伴う一貫性の崩れを検出する検出処理と、
    前記検出処理による検出結果に基づいて、前記判定手段が前記学習モデルを更新する際に教師データとして用いる前記単位データを選択する選択処理と、
    をコンピュータに実行させるための機械学習プログラム。
JP2021560763A 2019-11-25 2019-11-25 機械学習装置、機械学習方法、及び、機械学習プログラム Active JP7315022B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/045908 WO2021106028A1 (ja) 2019-11-25 2019-11-25 機械学習装置、機械学習方法、及び、機械学習プログラムが格納された記録媒体

Publications (3)

Publication Number Publication Date
JPWO2021106028A1 JPWO2021106028A1 (ja) 2021-06-03
JPWO2021106028A5 JPWO2021106028A5 (ja) 2022-06-22
JP7315022B2 true JP7315022B2 (ja) 2023-07-26

Family

ID=76130092

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021560763A Active JP7315022B2 (ja) 2019-11-25 2019-11-25 機械学習装置、機械学習方法、及び、機械学習プログラム

Country Status (3)

Country Link
US (1) US20220405894A1 (ja)
JP (1) JP7315022B2 (ja)
WO (1) WO2021106028A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023177871A (ja) * 2022-06-03 2023-12-14 パナソニックIpマネジメント株式会社 学習装置および学習方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016076073A (ja) 2014-10-06 2016-05-12 日本電気株式会社 データ処理装置、データ処理方法、及び、コンピュータ・プログラム
JP2018081545A (ja) 2016-11-17 2018-05-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像データ抽出装置及び画像データ抽出方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016076073A (ja) 2014-10-06 2016-05-12 日本電気株式会社 データ処理装置、データ処理方法、及び、コンピュータ・プログラム
JP2018081545A (ja) 2016-11-17 2018-05-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像データ抽出装置及び画像データ抽出方法

Also Published As

Publication number Publication date
JPWO2021106028A1 (ja) 2021-06-03
WO2021106028A1 (ja) 2021-06-03
US20220405894A1 (en) 2022-12-22

Similar Documents

Publication Publication Date Title
US10896351B2 (en) Active machine learning for training an event classification
JP6446971B2 (ja) データ処理装置、データ処理方法、及び、コンピュータ・プログラム
US20180107881A1 (en) Anomalous event retriever
US20180174062A1 (en) Root cause analysis for sequences of datacenter states
JP2008250908A (ja) 映像判別方法および映像判別装置
US10289884B2 (en) Image analyzer, image analysis method, computer program product, and image analysis system
CN111783665A (zh) 一种动作识别方法、装置、存储介质和电子设备
JP2017102906A (ja) 情報処理装置、情報処理方法及びプログラム
JP2017102865A (ja) 情報処理装置、情報処理方法及びプログラム
EP4036792A1 (en) Method and device for classifying pixels of an image
JP6577397B2 (ja) 画像解析装置、画像解析方法、画像解析プログラム、および画像解析システム
US11455489B2 (en) Device that updates recognition model and method of updating recognition model
CN112613349A (zh) 基于深度混合卷积神经网络的时序动作检测方法及装置
JP7315022B2 (ja) 機械学習装置、機械学習方法、及び、機械学習プログラム
JP2020170252A (ja) 画像処理装置、情報処理方法及びプログラム
EP2608152B1 (en) Medical imaging diagnosis apparatus and medical imaging diagnosis method for providing diagnostic basis
KR102230559B1 (ko) 데이터 프로그래밍에 기반한 레이블링 모델 생성 방법 및 장치
JP2021111228A (ja) 学習装置、学習方法、及びプログラム
US20070043722A1 (en) Classification system
JP2010128947A (ja) 非定常度推定装置、非定常度推定方法、非定常度推定プログラム
US20220405299A1 (en) Visualizing feature variation effects on computer model prediction
JP2020204800A (ja) 学習用データセット生成システム、学習サーバ、及び学習用データセット生成プログラム
KR102342495B1 (ko) 데이터 프로그래밍에 기반한 레이블링 모델 생성 방법 및 장치
AU2021251463B2 (en) Generating performance predictions with uncertainty intervals
US11657099B2 (en) Information processing apparatus evaluating similarity between medical data, information processing method, and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220413

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230626

R151 Written notification of patent or utility model registration

Ref document number: 7315022

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151