JP2019215728A - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP2019215728A JP2019215728A JP2018112829A JP2018112829A JP2019215728A JP 2019215728 A JP2019215728 A JP 2019215728A JP 2018112829 A JP2018112829 A JP 2018112829A JP 2018112829 A JP2018112829 A JP 2018112829A JP 2019215728 A JP2019215728 A JP 2019215728A
- Authority
- JP
- Japan
- Prior art keywords
- data
- label
- information processing
- identification
- identification model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2113—Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2132—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/285—Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
- G06V10/7784—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
- G06V10/7788—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
Description
本実施形態では、検査ライン上で、検査対象物が運ばれており、検査対象物を撮影した画像に基づいて検査をし、検査結果を表示するタスクを例として説明を行う。
図1は、情報処理システムのシステム構成の一例を示す図である。
情報処理装置101は、検査の処理を行う。情報処理装置101には、画像撮影装置102により撮影された画像が入力される。
画像撮影装置102は、検査対象物104の画像の撮影を行う。
ユーザインターフェース103は、情報処理装置101の検査結果や、ユーザに入力を促すための情報を表示したり、ユーザ操作に応じて、データを入力したりする装置である。ユーザインターフェース103は、モニタ、キーボード等から構成され、情報処理装置101から送信される検査結果を示す画像等を表示し、また、検査結果に対してユーザが判断した結果等を入力する。
検査対象物104は、本実施形態における検査対象である。
光源105は、検査対象物104に光を照射する。検査対象物104に照射された光を画像撮影装置102により、受光して、検査対象の画像を撮影する。
情報処理装置101は、ハードウェア構成として、CPU201、主記憶装置202、補助記憶装置203、入力I/F204、出力I/F205を含む。CPU201、主記憶装置202、補助記憶装置203、入力I/F204、出力I/F205は、システムバス206を介して、相互に接続されている。
CPU201は、情報処理装置101の処理を制御する中央演算装置である。主記憶装置202は、CPU201のワークエリアとして機能したり、プログラム等を記憶したりする記憶装置である。補助記憶装置203は、後述する学習用データ、各種設定値、各種閾値等のデータ、各種プログラム等を記憶する記憶装置である。
入力I/F204は、情報処理装置101の入力インターフェースである。入力II/F204は、ネットワーク等を介して画像撮影装置102より撮影画像を受け付け、撮影画像をCPU201に入力したり、ユーザインターフェース103を介してユーザ操作を受け付け、ユーザ操作をCPU201に入力したりする。
出力I/F205は、情報処理装置101の出力インターフェースである。出力I/F205は、ユーザインターフェース103へ検出結果の情報を出力する。CPU201が主記憶装置202又は補助記憶装置203に記憶されたプログラムに基づき処理を実行することによって、後述する図2の情報処理装置101の機能構成及び、後述する図5、図6、図7、図8、及び図10のフローチャートの処理が実現される。
情報処理装置101は、特徴量抽出部301、識別器判定部302、閾値調節部303、可視化画像表示部304、スコアバー表示部305を含む。
特徴量抽出部301は、画像撮影装置102により撮影された判定対象の画像データを取得する。画像撮影装置102から動画データが入力される場合には、特徴量抽出部301は、検査対象物104が所定の位置に到達した時点での静止画(フレーム)を取得する。また、特徴量抽出部301は、画像撮影装置102により撮影された検査対象領域の画像データから特徴量を算出する。本実施形態で利用される画像データの特徴量については、図3のS302等の説明にて後述する。検査対象領域とは、画像撮影装置102により撮影される領域であり、検査対象物104を含む。
識別器判定部302は、特徴量抽出部301で抽出された特徴量を基に正常モデル識別器を生成し、生成された正常モデル識別器と判定対象のデータから求めた特徴量とを用いて、判定対象のデータの認識スコアを算出する。ここにおける正常モデル識別器とは、正常データのみを用いて正常の範囲を定義し、正常の範囲に含まれるか否か判定することにより、正常データとそれ以外の異常データを識別する。また、認識スコアとは、値が高ければ高いほど異常らしい(異常の可能性が高い)、といえ、値が低ければ低いほど正常らしい(正常の可能性が高い)、といえる。実施形態1の判定対象のデータは、外見検査のデータである。
正常と異常との異なる2クラスのデータがあるので、それぞれクラスに対し、閾値を設定する必要があるので、閾値調節部303が示すように二つの閾値を設定しなければならない。
可視化画像表示部304は、欠陥画像の候補となるデータをユーザインターフェース103に表示する。例えば、可視化画像表示部304は、閾値調節部303で設定した正常異常クラスの2つの閾値におけるデータを表示する。可視化画像表示部304は、表示した画像に対し、欠陥部分を強調するようにして画像全体を表示する。
スコアバー表示部305は、識別器判定部302で算出した認識スコアを小さい順にデータを並べ、閾値調節部303で決定した閾値を基に結果をユーザインターフェース103に表示する。
認識評価値401は、現在の正常モデル識別器の認識性能を評価した評価値を示し、二値分類器の性能評価値、例えばAUC(ROC曲線で描かれた曲線下部面積)等の評価値を算出した結果を示す。
可視化画像402、403は、可視化画像を示し、閾値を決定する際に、402と403との間に閾値があるかどうかを判定するために、見やすく可視化し表示した結果を示す。
カーソル404は、四角形のカーソルを示し、可視化画像402を選択中であることを示している。
ボタン405、406、407は、それぞれ正常のクラス、異常のクラス、ラベルノイズに対応するボタンを示しており、可視化画像402にユーザがラベルを付けるために、対応するラベルをボタン405、406、407から選択できる機能を持っている。
カーソル409は、閾値調整機能における閾値決定のカーソルを示す。カーソル408と同様に、異常データのラベル確定データと、異常データの識別境界データとを、ユーザが操作して分けることができるようにしている。
スコアバー410、411、412は、スコアバーを示す。スコアバーは、カーソル408、409で設定された閾値により、スコアバーが3つの領域に区切られている。データごとに認識スコアが格納されており、スコアバーの領域の長さは、データの数に対応している。ここで、スコアバー410の領域が、確実に正常ラベルをもつラベル確定データに対応するデータ領域を示す。スコアバー411の領域が、スコアバー領域が正常であるか、異常であるか分からない境界にある識別境界データを示すデータ領域を示す。スコアバー412の領域が、確実に異常ラベルをもつラベル確定データに対応するデータ領域を示す。
(S501:データ入力)
S501において、CPU201は、画像撮影装置102により撮影された判定対象の画像データを取得する。また、CPU201は、補助記憶装置203等から複数の学習用の画像データを取得する。ここで、検査対象領域が画像上の一部である場合、CPU201は、画像内の検査対象領域のみを評価対象として取得する。学習用の画像データは、正常であるか、異常であるかのラベルが予め付与されている教師付きの学習データであることを想定している。
S502において、CPU201は、S501で取得した判定対象の画像データの検査対象領域(以下、入力画像という)から、特徴量を抽出する。
複数の特徴量を用いる場合、例えば、CPU201は、対象画像の検査対象領域に対して、ハール・ウェーブレット(Haar Wavelet)変換をかけて、階層的な変換画像を生成する。ハール・ウェーブレット変換処理とは、画像データについて位置情報を保持したまま周波数変換する処理である。本実施形態では、CPU201は、S501で取得した画像データの特徴量を算出する処理として、ハール・ウェーブレット変換処理を用いる。
CPU201は、1つの入力画像からハール・ウェーブレット変換処理を用いて生成した合計N種類の画像に対して、それぞれ画素値の最大値、平均値、標準偏差を特徴量として算出する。つまり、CPU201は、1つの入力画像から、計N種類の画像を生成し、生成した画像それぞれについて統計特徴量を3種類ずつ抽出する。結果的に、CPU201は、1つの入力画像から合計で3N個の特徴量を抽出する。
このように、S502の処理により、CPU201は、入力画像及び学習用データから複数の特徴量を抽出することができる。学習用データの特徴量については、予め算出して補助記憶装置203に記憶しておいてもよい。
S503において、CPU201は、S502で算出した特徴量を用いて、後述の識別モデルの生成又は更新を行う。
ここでは、部分空間法の1つである投影距離法を識別モデルの生成に用いる。投影距離とは、簡単に述べると、それぞれの特徴量を軸とする特徴空間における特徴ベクトルと、パターンの分布の分散が最大となる向きを持つ超平面(主平面)との最短距離である。ここで生成又は更新した識別モデルを利用して、CPU201は、正常データと異常データとの判別を行う。
S504において、CPU201は、S503で生成又は更新した識別モデルを利用して、テストデータに対する正常異常判定を行う。より具体的には、CPU201は、テストデータから特徴量抽出を行い、S503で生成又は更新された識別モデルを用いて、正常異常判定を行う。ここでは、CPU201は、テストデータに対し投影距離を算出し、閾値処理をしたうえで、正常異常判定を行う。
(S601:識別モデルの生成又は更新)
S601において、CPU201は、識別モデルの生成又は更新を行う。モデルの生成を行う場合は、CPU201は、S502で算出された特徴量に対し、学習を行う。既に識別モデルが生成されており識別モデルの更新を行うときは、CPU201は、ラベル確定データと、S605でラベルを付与した識別境界データと、の両方を用いて、識別モデルの更新を行う。
(S602:スコアバーの表示)
S602において、CPU201は、S601で生成された識別モデルを用いて、学習データ又はテストデータに対し、認識スコアを算出し、算出した認識スコアが小さい順にデータを並べ替え、並べ替えた結果をユーザインターフェース103上に表示する。
S603において、CPU201は、正常クラス及び異常クラスのデータセットそれぞれに対し閾値を設定し、ラベル確定データと、識別境界データと、を分類する。
ラベル確定データと識別境界データとを分類するため、ユーザがスコアバーに示されたテストデータの認識スコアをみて、正常データのラベル確定データを決定するために、CPU201は、異常データのうち、認識スコアの値が最も低いデータを基準として、正常データのラベル確定データを(式1)のように決定する。
OKDataScore<min(Score(NG))(式1)
ここで、OKDataScoreは正常データの認識スコアを示し、異常データの認識スコアのうちで値が最も低いデータを基準に正常データのラベル確定データを決定していることを示す。
ユーザが、スコアバーに示されたテストデータの認識スコアをみて、異常データのラベルの確定データを決定するために、CPU201は、正常データのうち、認識スコアの値が最も高いデータを基準として、異常データのラベル確定データを(式2)のように決定する。
NGDataScore>max(Score(OK))(式2)
ここで、NGDataScoreは異常データの認識スコアを示し、正常データの認識スコアのうちで値が最も低いデータを基準に異常データのラベル確定データを決定していることを示す。
S604において、CPU201は、S603で設定された識別境界データをユーザに順に提示し、提示されたデータが正常異常のどちらに属するかをユーザに判断させる。S604の処理は、識別境界データを画面に表示する表示制御の処理の一例である。
(S605:ユーザによる識別境界データのラベルの入力を受付)
S605において、CPU201は、S604で提示された識別境界データに対し、ユーザによる識別境界データのラベルのユーザインターフェース103を介した入力を受け付ける。ユーザは、ユーザインターフェース103で画像を確認するか、実際の検査対象物を確認して識別境界データのラベルを決定する。
S606において、CPU201は、S605で付与された識別境界データのラベルの結果を用いて、評価値が閾値(本実施形態ではx)以上であるか否かを判定する。CPU201は、評価値がx以上であるのであれば、S601に戻り、識別モデルの更新を行い、評価値がx未満であれば、識別モデルの更新を行わず、図6に示すフローチャートの処理を終了する。S606の処理は、評価値が閾値以上かを判定する処理の一例である。
CPU201は、評価値として、二値分類器の性能評価値を用い、例えば、S501で予め付与されたデータのラベルと、S605で入力されたラベルの判定結果との並びから、ROC曲線を描き、描いたROC曲線に基づいて、評価値エリアアンダーカーブ(AUC:ROC曲線の下部面積)を算出する。CPU201は、ここで算出したAUCがx以上であれば、S601に戻り、識別モデルの更新を行う。CPU201は、評価値がx未満であれば、識別モデルの更新を行わず、図6に示すフローチャートの処理を終了する。
ここでは、AUCを評価値として用いると述べたが、CPU201は、適合率と再現率との調和平均であるF値を評価値として用いるようにしてもよい。
実施形態1では、情報処理システムは、データをカテゴリごとに閾値パラメータを設定し、カテゴリの境界にあるデータに対し、ユーザによる正常異常の判断が正しいかどうかを判定し、識別モデルを生成した。
これに対し、本実施形態の情報処理システムは、学習データに、誤ったラベルが付与されたラベルノイズを含むデータがある場合、識別モデルの更新を行うか否かを判定し、どのデータを識別モデルの更新に利用するかを判定する仕組みについて述べる。
本実施形態における情報処理システムのシステム構成、情報処理装置101のハードウェア構成及び機能構成は、実施形態1と同様である。
S703において、CPU201は、正常クラス及び異常クラスのデータセットそれぞれに対し閾値を設定し、ラベル確定データと、識別境界データとを分類する。
ラベル確定データと識別境界データとを分類するため、ユーザがスコアバーに示されたテストデータの認識スコアをみて、正常データのラベル確定データを決定するために、CPU201は、異常データのうち、認識スコアの値が低いデータを基準として、正常データのラベル確定データを(式3)のように決定する。
OKDataScore<min(Score(NG))−α(α>0)(式3)
ここで、OKDataScoreは正常データの認識スコアを、αは正の定数を示し、異常データのうちで認識スコアの値が最も低いデータを基準に閾値を設定していることを示す。αは正の定数であるので、(式1)に比べ、正常データのラベル確定データを少なく設定しているといえる。
ユーザが、スコアバーに示されたテストデータの認識スコアをみて、異常データのラベルの確定データを決定するために、CPU201は、異常データの側の閾値を正常データのうちで認識スコアの値が高いデータを基準として、異常データのラベル確定データを(式4)のように決定する。
NGDataScore>max(Score(OK))+β(β>0)(式4)
ここで、NGDataScoreは異常データのラベル認識スコアを、βは正の定数を示し、正常データの認識スコアのうちで値が最も高いデータを基準に閾値を設定していることを示す。βは正の定数を示し、(式2)に比べ、異常データのラベル確定データを少なく設定しているといえる。
S706において、CPU201は、S605で付与された識別境界データのラベルの結果を用いて、ラベルノイズの割合が閾値(本実施形態ではy%)以上であるか否かを判定する。CPU201は、ラベルノイズの割合がy%以上であるのであれば、S707に進み、ラベルノイズの割合がy%未満であれば、図7に示すフローチャートの処理を終了する。S706の処理は、ラベルノイズデータの割合が閾値以上かを判定する処理の一例である。
(S707:ラベル確定データと、ユーザがラベルを確認した識別境界データを抽出)
S707において、CPU201は、ラベル確定データとユーザがラベルを確認した識別境界データとを抽出する。そして、CPU201は、S701に戻り、識別モデルの更新を行う。
ラベルノイズを持つデータは識別モデルの更新に利用しないほうがよいため、ラベルノイズをもつデータを識別モデルの更新に用いず、ラベルノイズデータ以外の識別境界データのみを識別モデルの更新に用いる。この処理は、CPU201は、ラベルノイズデータを対象学習データから除去して識別モデルを更新する処理の一例である。
実施形態1では、情報処理システムは、データのカテゴリごとに閾値パラメータを設定し、カテゴリの境界にあるデータに対し、ユーザによる正常異常の判断が正しいかどうかを判断し、精度の高い識別モデルを生成した。
これに対し、本実施形態の情報処理システムは、識別境界データのラベルを半自動で設定することにより、再目視の対象をより少なく抑える手法について述べる。
本実施形態における情報処理システムのシステム構成、情報処理装置101のハードウェア構成及び機能構成は、実施形態1と同様である。
(S804:識別境界データの認識スコアの差分値を算出)
S804において、CPU201は、識別境界データの認識スコアの差分値を算出する。
(S805:ユーザに差分値が大きい前後のデータを順に表示)
S805において、CPU201は、認識スコア順に並んだ識別境界データに対し、隣り合う前後のデータの認識スコアの差分値が所定の値より大きい値をもつ隣り合う前後のデータを順にユーザインターフェース103に表示していく。一般に認識スコア順に並んだ識別境界データに対し、正常と異常とを分ける閾値は差分値が大きくなることが考えられる。よって、ユーザは、データ間の認識スコアの差分値をみることで、識別境界データの正常と異常とを分ける閾値がどこであるのかを把握することができる。
実施形態1では、検査ライン上で、検査対象物が運ばれており、情報処理システムが画像を撮影して検査し、検査結果を表示するタスクを例とした。
これに対し、本実施形態では、情報処理システムを異常行動検知に活用する場合、異常行動を検知する識別モデルの精度を向上させていく手法について述べる。実施形態4の判定対象のデータは、異常行動検知のデータである。
図9は、実施形態4の情報処理システムのシステム構成の一例を示す図である。
情報処理装置901は、動画像を対象に異常行動を行っている人物を検出する。情報処理装置901には、画像撮影装置902で撮影された画像が入力される。
画像撮影装置902は、検査対象物の画像の撮影を行う。
ユーザインターフェース903は、異常行動検出結果や、ユーザに入力を促すための情報を表示したり、ユーザ操作に応じて、データを入力したりする装置である。モニタ、キーボード等から構成され、情報処理装置101から送信される認識結果を表示し、また、認識結果に対してユーザが判断した結果等を入力する。
異常行動監視対象904は、画像撮影装置902の異常行動監視対象である人を示す。
情報処理装置901のハードウェア構成は、実施形態1と同様である。
図10のS1003、S1004、S1005、S1006、S1007、S1008は、実施形態1で示した図6のS601、S602、S603、S604、S605、S606と同じであるので説明は省略する。
(S1001:歩行軌跡の取得)
S1001において、CPU201は、複数の画像データから人i(i=1,2,...,N)ごとにオプティカルフロー等を用いて歩行軌跡を取得する。
S1002において、CPU201は、入力された時間tにおける2次元座標はPt=(pxt,pyt)で表されるため、人ごとに移動軌跡PtがM個並んだ大きさ2M個の歩行軌跡座標値ベクトルyiを考える。但し、撮影する時間の長さによって、歩行軌跡座標値ベクトルの長さが異なるので、CPU201は、等間隔に画像を間引くことにより、歩行軌跡座標値ベクトルyiの長さを2Mに正規化する。
次に、CPU201は、設定した歩行軌跡座標値ベクトルを基に歩行軌跡座標値行列を算出する。人に対し、yiの平均値Ciを算出する。平均値の算出方法は、(式5)に示す。
S1009において、CPU201は、S1002で生成した識別モデルを用いて、テストデータの異常行動検知が行われているかの判定を行う。ここでは、S504と同様に部分空間法の1つである投影距離法を識別モデルの生成に用いる。
認識評価値1101は、認識評価値を示し、二値分類器の性能評価値、例えばAUC等の評価値を算出した結果を示す。
動画画像1102、1103は、閾値を決定する際に、動画画像1102と動画画像1103との間に閾値があるかどうかを見やすく可視化した動画画像を示す。
カーソル1104は、四角形のカーソルを示し、動画画像1103を選択中であることを示している。
ボタン1105、1106、1107は、それぞれ正常のクラス、異常のクラス、ラベルノイズに対応するボタンを示しており、動画画像1103にユーザがラベルを付けるために、対応するラベルをボタン1105、1106、1107から選択できる機能を持っている。
カーソル1109は、閾値調整機能における閾値決定のカーソルを示す。カーソル1108と同様に、異常行動データのラベル確定データと、異常行動データの識別境界データを、ユーザが操作してわけることができるようにしている。
スコアバー1110、1111、1112は、スコアバーを示す。スコアバーは、カーソル1108、1109で設定された閾値により、スコアバーが3つの領域に区切られている。データごとに認識スコアが格納されており、スコアバーの領域の長さは、データの数に対応している。ここで、スコアバー1110の領域が、確実に正常行動であるラベル確定データに対応するデータ領域を示す。スコアバー1111の領域が、正常行動であるか、異常行動であるか分からない境界にある識別境界データを示すデータ領域を示す。スコアバー1112の領域が、確実に異常行動であるラベル確定データに対応するデータ領域を示す。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
任意の実施形態を組み合わせて実施してもよい。
103 ユーザインターフェース
201 CPU
Claims (13)
- 識別モデルを更新する更新手段と、
前記更新された識別モデルにより、判定対象のデータの認識スコアを決定する決定手段と、
前記認識スコアに基づいて、カテゴリごとに閾値を設定し、前記判定対象のデータを、付与されたラベルのカテゴリである可能性が高いラベル確定データと、付与されたラベルのカテゴリである可能性が低い識別境界データとに分類する分類手段と、
前記識別境界データを画面に表示する表示制御手段と、
前記識別境界データに関するラベルの入力を受け付ける受付手段と、
前記ラベルの入力の結果による前記識別モデルの認識性能を評価した評価値に基づき、前記更新手段により前記識別モデルを更新するか判定する判定手段と、
を有する情報処理装置。 - 前記ラベルの入力の結果による前記識別モデルの認識性能を評価した評価値が閾値以上の場合は、前記判定手段は、前記更新手段により前記識別モデルを更新すると判定する請求項1記載の情報処理装置。
- 前記評価値は、二値分類器の性能評価値である請求項1又は2記載の情報処理装置。
- 識別モデルを更新する更新手段と、
前記更新された識別モデルにより、スコアを決定する決定手段と、
前記スコアに基づいて、カテゴリごとに閾値を設定し、対象のデータを、付与されたラベルのカテゴリである可能性が高いラベル確定データと、付与されたラベルのカテゴリである可能性が低い識別境界データとに分類する分類手段と、
前記識別境界データを画面に表示する表示制御手段と、
前記識別境界データに関するラベルの入力を受け付ける受付手段と、
前記ラベルの入力の結果による、誤ったラベルが付与されたラベルノイズデータの割合に基づき、前記更新手段により前記識別モデルを更新するか判定する判定手段と、
を有する情報処理装置。 - 前記ラベルの入力の結果によるラベルノイズデータの割合が閾値以上の場合は、前記判定手段は、前記更新手段により前記識別モデルを更新すると判定する請求項4記載の情報処理装置。
- 前記ラベルの入力の結果によるラベルノイズデータの割合が閾値以上の場合は、前記更新手段は、ラベルノイズデータを対象学習データから除去して前記識別モデルを更新する請求項4又は5記載の情報処理装置。
- 前記表示制御手段は、識別境界データの認識スコアの差分値が所定の値よりも大きい値を有する前後の識別境界データを順に表示する請求項1乃至6何れか1項記載の情報処理装置。
- 前記表示制御手段は、識別境界データの認識スコアの差分値が所定の値よりも小さい値を有する前後の識別境界データを表示しないよう制御する請求項1乃至7何れか1項記載の情報処理装置。
- 前記判定対象のデータは、外見検査のデータである請求項1乃至8何れか1項記載の情報処理装置。
- 前記判定対象のデータは、異常行動検知のデータである請求項1乃至8何れか1項記載の情報処理装置。
- 識別モデルを更新する更新手段を有する情報処理装置が実行する情報処理方法であって、
前記更新された識別モデルにより、判定対象のデータの認識スコアを決定する決定工程と、
前記認識スコアに基づいて、カテゴリごとに閾値を設定し、前記判定対象のデータを、付与されたラベルのカテゴリである可能性が高いラベル確定データと、付与されたラベルのカテゴリである可能性が低い識別境界データとに分類する分類工程と、
前記識別境界データを画面に表示する表示制御工程と、
前記識別境界データに関するラベルの入力を受け付ける受付工程と、
前記ラベルの入力の結果による前記識別モデルの認識性能を評価した評価値に基づき、前記更新手段により前記識別モデルを更新するか判定する判定工程と、
を含む情報処理方法。 - 識別モデルを更新する更新手段を有する情報処理装置が実行する情報処理方法であって、
前記更新された識別モデルにより、スコアを決定する決定工程と、
前記スコアに基づいて、カテゴリごとに閾値を設定し、対象のデータを、付与されたラベルのカテゴリである可能性が高いラベル確定データと、付与されたラベルのカテゴリである可能性が低い識別境界データとに分類する分類工程と、
前記識別境界データを画面に表示する表示制御工程と、
前記識別境界データに関するラベルの入力を受け付ける受付工程と、
前記ラベルの入力の結果による、誤ったラベルが付与されたラベルノイズデータの割合に基づき、前記更新手段により前記識別モデルを更新するか判定する判定工程と、
を含む情報処理方法。 - コンピュータを、請求項1乃至10何れか1項記載の情報処理装置の各手段として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018112829A JP2019215728A (ja) | 2018-06-13 | 2018-06-13 | 情報処理装置、情報処理方法及びプログラム |
US16/435,002 US11455489B2 (en) | 2018-06-13 | 2019-06-07 | Device that updates recognition model and method of updating recognition model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018112829A JP2019215728A (ja) | 2018-06-13 | 2018-06-13 | 情報処理装置、情報処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019215728A true JP2019215728A (ja) | 2019-12-19 |
JP2019215728A5 JP2019215728A5 (ja) | 2021-07-26 |
Family
ID=68839987
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018112829A Pending JP2019215728A (ja) | 2018-06-13 | 2018-06-13 | 情報処理装置、情報処理方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11455489B2 (ja) |
JP (1) | JP2019215728A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7474399B1 (ja) | 2023-08-31 | 2024-04-25 | 雲南電網有限責任公司徳宏供電局 | インクリメンタル時空間学習に基づく異常行動認識監視方法 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111428757B (zh) * | 2020-03-05 | 2021-09-10 | 支付宝(杭州)信息技术有限公司 | 模型训练方法、异常数据检测方法、装置和电子设备 |
CN111783797B (zh) * | 2020-06-30 | 2023-08-18 | 杭州海康威视数字技术股份有限公司 | 目标检测方法、装置及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004150963A (ja) * | 2002-10-31 | 2004-05-27 | Matsushita Electric Ind Co Ltd | 欠陥判定方法 |
JP2013142558A (ja) * | 2012-01-06 | 2013-07-22 | Keyence Corp | 外観検査装置、外観検査方法及びコンピュータプログラム |
WO2014155690A1 (ja) * | 2013-03-29 | 2014-10-02 | 富士通株式会社 | モデル更新方法、装置、およびプログラム |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS54106208A (en) * | 1978-02-07 | 1979-08-21 | Matsushita Electric Ind Co Ltd | Cleaner for automatic focusing device of optical information recording and reproducing apparatus |
US8873840B2 (en) * | 2010-12-03 | 2014-10-28 | Microsoft Corporation | Reducing false detection rate using local pattern based post-filter |
JP5545877B2 (ja) | 2011-01-28 | 2014-07-09 | 日本電信電話株式会社 | コンテンツ認識モデル学習装置、コンテンツ認識モデル学習方法及びコンテンツ認識モデル学習プログラム |
US10311096B2 (en) * | 2012-03-08 | 2019-06-04 | Google Llc | Online image analysis |
US10572735B2 (en) * | 2015-03-31 | 2020-02-25 | Beijing Shunyuan Kaihua Technology Limited | Detect sports video highlights for mobile computing devices |
CN104899579A (zh) * | 2015-06-29 | 2015-09-09 | 小米科技有限责任公司 | 人脸识别方法和装置 |
US10657364B2 (en) * | 2016-09-23 | 2020-05-19 | Samsung Electronics Co., Ltd | System and method for deep network fusion for fast and robust object detection |
WO2018140415A1 (en) * | 2017-01-24 | 2018-08-02 | Tietronix Software, Inc. | System and method for three-dimensional augmented reality guidance for use of medical equipment |
JP6224857B1 (ja) * | 2017-03-10 | 2017-11-01 | ヤフー株式会社 | 分類装置、分類方法および分類プログラム |
WO2018189875A1 (ja) * | 2017-04-14 | 2018-10-18 | 株式会社日立ハイテクノロジーズ | 撮像装置および形態特徴データ表示方法 |
EP3616387A1 (en) * | 2017-04-24 | 2020-03-04 | Carnegie Mellon University | Virtual sensor system |
EP4361947A3 (en) * | 2018-03-23 | 2024-06-19 | Memorial Sloan-Kettering Cancer Center | Systems and methods for multiple instance learning for classification and localization in biomedical imagining |
TW202022883A (zh) * | 2018-12-11 | 2020-06-16 | 晶睿通訊股份有限公司 | 神經網路物體分類的機器持續學習方法及其監控攝影設備 |
US20200293261A1 (en) * | 2019-03-15 | 2020-09-17 | Microsoft Technology Licensing, Llc | User Interaction with Shared Content During a Virtual Meeting |
-
2018
- 2018-06-13 JP JP2018112829A patent/JP2019215728A/ja active Pending
-
2019
- 2019-06-07 US US16/435,002 patent/US11455489B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004150963A (ja) * | 2002-10-31 | 2004-05-27 | Matsushita Electric Ind Co Ltd | 欠陥判定方法 |
JP2013142558A (ja) * | 2012-01-06 | 2013-07-22 | Keyence Corp | 外観検査装置、外観検査方法及びコンピュータプログラム |
WO2014155690A1 (ja) * | 2013-03-29 | 2014-10-02 | 富士通株式会社 | モデル更新方法、装置、およびプログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7474399B1 (ja) | 2023-08-31 | 2024-04-25 | 雲南電網有限責任公司徳宏供電局 | インクリメンタル時空間学習に基づく異常行動認識監視方法 |
Also Published As
Publication number | Publication date |
---|---|
US20190385016A1 (en) | 2019-12-19 |
US11455489B2 (en) | 2022-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6118752B2 (ja) | 学習データ生成装置 | |
JP6446971B2 (ja) | データ処理装置、データ処理方法、及び、コンピュータ・プログラム | |
US10891508B2 (en) | Image processing apparatus, method, and non-transitory computer-readable storage medium | |
US20170344832A1 (en) | System and method for event monitoring and detection | |
JP5085621B2 (ja) | 画像認識処理に適用する特徴情報選択装置、画像認識処理装置、監視システム、方法、及びプログラム | |
KR20150107599A (ko) | 사상(事象) 검출 장치 및 사상 검출 방법 | |
JP2017102906A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2019215728A (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN111783665A (zh) | 一种动作识别方法、装置、存储介质和电子设备 | |
CN103793926A (zh) | 基于样本重选择的目标跟踪方法 | |
JP2011210054A (ja) | 対象物検知装置及びその学習装置 | |
JP2010231254A (ja) | 画像解析装置、画像解析方法およびプログラム | |
JP2017102865A (ja) | 情報処理装置、情報処理方法及びプログラム | |
Lai et al. | Decision support for video-based detection of flu symptoms | |
US20200034649A1 (en) | Object tracking system, intelligent imaging device, object feature extraction device, and object feature extraction method | |
US20150070509A1 (en) | Sensor information management device and sensor information management method | |
US20200257372A1 (en) | Out-of-vocabulary gesture recognition filter | |
CN117133050A (zh) | 轿厢异常行为检测方法、装置、设备及存储介质 | |
CN114846513A (zh) | 动作分析***和动作分析程序 | |
JP7120590B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN105809180A (zh) | 图像处理方法及装置 | |
KR102342495B1 (ko) | 데이터 프로그래밍에 기반한 레이블링 모델 생성 방법 및 장치 | |
JP5505936B2 (ja) | 画像処理ユニット、および画像処理プログラム | |
JP5241687B2 (ja) | 物体検出装置及び物体検出プログラム | |
JP7315022B2 (ja) | 機械学習装置、機械学習方法、及び、機械学習プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210517 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210517 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220517 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220715 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221011 |