JP7207846B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP7207846B2
JP7207846B2 JP2017059238A JP2017059238A JP7207846B2 JP 7207846 B2 JP7207846 B2 JP 7207846B2 JP 2017059238 A JP2017059238 A JP 2017059238A JP 2017059238 A JP2017059238 A JP 2017059238A JP 7207846 B2 JP7207846 B2 JP 7207846B2
Authority
JP
Japan
Prior art keywords
data
learning
characteristic
neural network
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017059238A
Other languages
English (en)
Other versions
JP2018163444A (ja
Inventor
泰弘 奥野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017059238A priority Critical patent/JP7207846B2/ja
Priority to US15/927,965 priority patent/US10810464B2/en
Publication of JP2018163444A publication Critical patent/JP2018163444A/ja
Application granted granted Critical
Publication of JP7207846B2 publication Critical patent/JP7207846B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2178Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
    • G06F18/2185Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor the supervisor being an automated module, e.g. intelligent oracle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • G06V10/7788Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Description

本発明は、入力データの所定のデータ特性に特有の特徴を修正する技術に関する。
非特許文献1には、ニューラルネットワークが所定の判定をするような画像を生成する方法が開示されている。具体的には、ニューラルネットワークのパラメータと教師値が固定であり、その教師値が出力されるように入力画像を更新する。
特開2016-62225号公報
Simonyan, K., Vedaldi, A., & Zisserman, A. (2013). Deep inside convolutional networks: Visualising image classification models and saliency maps. arXiv preprint arXiv:1312.6034.
しかしながら、非特許文献1には、所定のデータ特性を有するデータから所定のデータ特性に特有の特徴を修正することについては開示されていなかった。
上記課題を解決するために、本発明は、データの生成または取得方法に起因するデータ特性を判別するニューラルネットワークへ入力したデータに対する判別結果において前記データのデータ特性が実写ではないと判別されたデータを当該ニューラルネットワークが実写によるデータであることを示すデータ特性を有する判別するデータへ、前記ニューラルネットワークに入力されたデータを修正する修正手段と、対象物の存在を認識する認識器に、前記対象物の存在に関するラベルが付与された学習データを学習させる学習手段と、を有し、前記学習手段では、前記修正手段により前記データ特性が修正されているデータに前記対象物の存在に関するラベルが付与された学習データを学習させることを特徴とする。
本発明によれば、データに対し、そのデータ特性に特有の特徴を修正することができるようになる。
第1の実施形態に係る情報処理装置の概略ブロック図。 第1の実施形態に係る情報処理装置による処理を示すフローチャート。 第1の実施形態に係るデータ修正部による処理を示すフローチャート。 第1の実施形態におけるデータ更新処理の詳細を示すフローチャート。 第1の実施形態におけるデータ特性認識ニューラルネットワークの模式図。 第1の実施形態に係る学習重み設定部による設定処理を示すフローチャート。 第2の実施形態におけるデータ特性認識ニューラルネットワークの模式図。 第2の実施形態におけるデータ更新処理の詳細を示すフローチャート。 第3の実施形態に係る情報処理装置の概略ブロック図。 第3の実施形態に係る学習重み設定部による設定処理を示すフローチャート。 第4の実施形態に係る情報処理装置の概略ブロック図。 第4の実施形態における差異データの表示処理を示すフローチャート。
[第1の実施形態]
以下、本発明の第1の実施形態の詳細について図面を参照しつつ説明する。本実施形態は、CG(コンピュータグラフィックス)画像を入力画像とし、CG画像に特有の特徴を修正した画像、すなわち実写画像に特徴を近づけた画像を生成するものである。ここで、本実施形態において生成されるCG画像に特有の特徴を修正した画像の用途の一例について説明する。
画像、音声などのデータの内容を認識する認識器を学習する際に、学習データを人工的に作成したデータを学習データとして使用することが一般的に行われている。例えば、特許文献1には、人間の顔の検出器を学習するために、照明条件を変動させた多数の顔画像をCGによって生成して、これを学習データとしている。学習データを人工的に生成することにより、実際に画像を撮影するのに比べて多くのバリエーションの画像を簡易に用意することができる。
ここで、画像中に特定の対象物(例えば、人間の顔)が存在するかしないかを認識する認識器を学習する場合について考える。学習データとしては、認識対象の画像(正事例)と認識対象でない画像(負事例)を用意し、これを用いて学習することが一般的である。ここで、特許文献1のように、学習画像をCGで作成しても構わない。その場合、正事例の画像をCGで生成することは一般的だが、負事例の画像はCGでは作らないことが一般的である。CG画像を生成するためには3Dモデルの作成が必要であり、認識対象ではないあらゆる対象に対して3Dモデリングをすることは煩雑だからである。また、負事例とは認識対象を含まない画像であるが、そのような画像を収集することは比較的容易であるため、負事例をCGで生成することは少ない。
以上のように正事例にCG画像を含み、負事例にCG画像を含まないような学習データで学習した場合、画像がCGであるかどうかを見分けるような認識器が学習されてしまうことがある。これは、学習データ中ではCGであれば必ず正事例であるので、正事例である根拠が画像中の物体の特徴に由来するのか、画像がCGであることによる特徴に由来するのか、区別することができないためである。例えば、ニューラルネットワークで学習した場合、顔らしい画像特徴だけではなく、CGに特有の画像特徴にも強く反応するような認識器が学習されてしまう。CGに特有の特徴の例をあげると、ノイズのない均一な領域、彩度が非常に高い色、単純な照明モデルによる整い過ぎたグラデーションなどである。例え人間がCGと実写との差が気にならなかったり、大差ないように感じたとしても、CGと実写画像との間に何らかの統計的な差異が存在すれば、その特徴に反応するように学習されてしまうことがある。
そして、認識実行時に入力される画像は実写画像であり、それらはすべてCGに特有の特徴を持っていないので、前述のようにCGに特有の特徴を学習した認識器は認識に失敗しやすく、認識性能が低下するという問題がある。
本実施形態では、CG画像に特有の特徴を修正した画像を生成するものであるが、例えば学習データとしてこの修正された画像を利用すれば、認識器の認識精度の低下を軽減することが可能になる。
以下、本実施形態では、対象のデータは画像データであるとして説明するが、音声データなど他の種類のデータであっても構わない。また、認識処理の出力として、所定の物体(例えば、人間の顔、自動車、標識など)が画像中にあるか否かの結果を出力する例を挙げるが、本実施形態はこれに限定されるものではない。例えば、画像に対して何らかの評価値(例えば、顔の笑顔度、年齢、自動車の台数など)を出力するような認識器であっても構わない。また、以下では、認識すべき対象のことを「ターゲット」と記載する。
図1は、本実施形態に係る情報処理装置の概略ブロック図である。第1特性データ保持部120および第2特性データ保持部121は、ともに所定のターゲットを学習するための学習データを保持する保持部であるが、データの特性によって2つに分けられている。第1特性データ保持部120は第1のデータ特性を有する第1特定データを複数保持しており、第2特性データ保持部121は第2のデータ特性を有する第2特性データを複数保持している。
ここで「データ特性」とは、データの内容に関する特性ではなく、そのデータを作成もしくは取得した方法などに起因する特性のことである。画像を例にとれば、何が写っている画像かを表す特性ではなく、画像の生成方法、例えばCGで作成されたか、実写であるかなどを表す特性である。
また、CG、実写といったデータ特性以外の例としては、例えば、使用した撮影機材の種類や撮影環境の種別などが挙げられる。データ特性が使用した撮影機材の種類や撮影環境の種別などの場合にも、データ特性の異なるデータを正事例、負事例の学習データとして認識器を学習すると、データ特性の違いに反応し易く、認識精度の低くなる可能性がある。それは、撮影機材の種別により、例えばコントラスト、ダイナミックレンジ、色再現の範囲、色調の傾向、ノイズの特性などの特徴が異なり、これによって、画像から撮影機材の識別ができてしまう場合があるからである。また、各環境の背景や照明条件などによって、画像から撮影環境の識別ができてしまうような場合もあるからである。
本実施形態では、データ特性の種類について特に限定されるものではないが、以下の説明においては、第1のデータ特性はカメラなどを用いて実際の対象物を撮影した実写画像のような実データであるというデータ特性とする。また、第2のデータ特性は、CG画像のような人工データであるというデータ特性とする。なお、本実施形態では、データを画像として説明するが、データが音声データである場合にも上記の例と同様に扱うことが可能である。例えば、第1のデータ特性として実際の音を録音した実録音データ特性、第2のデータ特性として人工的に音声合成した人工音データ特性としてもよい。
第1特性データ保持部120および第2特性データ保持部121に保持されているデータは、ともに所定のターゲットを学習するための学習データでもあり、個々のデータにはターゲットに関するターゲットラベルが予め付されている。ターゲットラベルとは、例えば、認識すべきターゲットが人間の顔であるならば、人間の顔が写っている画像か、写っていない画像かを表す2クラスの教師値のことである。これは、前述したデータ特性とは異なり、画像の内容に応じて付されたラベルである。例えば、顔画像であれば0、顔でない画像であれば1というようにターゲットラベルが付されている。なお、ターゲットラベルは上記のような単なる2値ラベルに限定されるものではなく、複数の認識対象を表す複数の値を持つものや、実数値、ベクトル値などであってもよい。データとラベルとを関連付ける方法としては、例えばデータのファイル名とラベルの値とのテーブルを作成し、そのテーブルをデータと同じ場所に格納しておけばよい。
ニューラルネットワーク保持部122は、データ特性を認識する認識器としてのデータ特性認識ニューラルネットワーク(ネットワークの構造や学習パラメータ)を保持している。学習パラメータとは、データ特性認識ニューラルネットワークが学習するパラメータのことで、ネットワーク間の結合重みやバイアス値などのことである。ニューラルネットワークの構造とは、中間層の数、各中間層のユニット(ニューロン)数や各ユニットの結合構造を記載したものである。これらは、後述する第1の学習部110によって学習された後に、ニューラルネットワーク保持部122に格納される。
ターゲット認識器保持部123は、後述する第2の学習部111によって学習される、ターゲットを認識するための認識器が保持されている。
第1の学習部110と第2の学習部111は、ニューラルネットワーク保持部122に保持されるデータ特性認識ニューラルネットワークおよびターゲット認識器保持部123に保持される認識器を学習するための機能部である。第1の学習部110と第2の学習部111は、学習する内容、すなわち認識する対象がそれぞれ異なるものであり、その詳細については後述する。
データ修正部112は、第2特性データ保持部121に保持されている第2特性データを修正する。また、データ修正部112は、第2の学習部111が修正された第2特性データを用いて学習する際の重みを設定する学習重み設定部114という機能部を含む構成となっている。認識部113は、未知の画像データに対して認識処理を行う。修正済データ保持部124は、データ修正部112によって修正された第2特性データを保持する。
なお、本実施形態の情報処理装置は、CPU、ROM、RAM、HDD等のハードウェア構成を備え、CPUがROMやHD等に格納されたプログラムを実行することにより、例えば、上述の各機能構成や後述するフローチャートの処理が実現される。RAMは、CPUがプログラムを展開して実行するワークエリアとして機能する記憶領域を有する。ROMは、CPUが実行するプログラム等を格納する記憶領域を有する。HDは、CPUが処理を実行する際に要する各種のプログラムに関するデータ等を含む各種のデータを格納する記憶領域を有する。
以下、本実施形態に係る情報処理装置の全体の処理の流れについて説明する。図2は、本実施形態に係る情報処理装置による処理の流れを示すフローチャートである。ステップS201では、第1の学習部110が、データ特性認識ニューラルネットワークを学習する。第1の学習部110は、第1特性データ保持部120に保持されている第1特性データおよび第2特性データ保持部121に保持されている第2特性データを学習データとし、データ特性を認識する認識器としてデータ特性認識ニューラルネットワークを学習する。
第1特性データには第1のデータ特性であるというデータ特性ラベルが付され、第2特性データには第2のデータ特性であるというデータ特性ラベルが付されている。データ特性ラベルは、前述したターゲットラベルとは別のものである。第1の学習部110は両者を判別できるようにデータ特性認識ニューラルネットワークを学習する。第1の学習部110は、以上のようにして学習を行い、第1特性データと第2特性データを判別するデータ特性認識ニューラルネットワークをニューラルネットワーク保持部122に格納する。
図5は、本実施形態において第1の学習部110によって学習されるデータ特性認識ニューラルネットワークの一例を示す模式図である。図5に示すデータ特性認識ニューラルネットワークは、データ501を入力層502に入力すると、1つ以上の中間層503を経て、実写画像であるかCG画像であるかの2クラスを表す出力層504に出力するものである。ニューラルネットワークの各層には、複数のユニット(ニューロン)がある。出力層の表現は1-of-k表現となっており、ラベルがL(Lは整数)ならばL番ユニットの値が1で、他のユニットの値は0となるよう設定するものである。認識時には出力層のユニットの値は総和が1となるようなSoftmax処理がなされ、出力層の各ユニットの値は各クラスに対するクラス確率とみなすことができる。出力層504では、データが実写画像(第1のデータ特性)であるクラス確率がユニット505に、データがCG画像(第2のデータ特性)であるクラス確率がユニット506に出力される。
なお、ニューラルネットワークの構造はこの例に限定されるものではなく、例えば、非特許文献1に記載があるような畳み込みニューラルネットワークの構造であってもよい。ニューラルネットの学習方法は周知の技術であり、詳しい説明は省略するが、誤差逆伝搬法などの方法を用いて行えばよい。図5では、矢印507がニューラルネットワークの出力値を算出するフィードフォワードの方向を示しており、矢印508が誤差逆伝搬を行うフィードバックの方向を示している。
次に、ステップS202では、データ修正部112が、第2特性データ保持部121に保持されている第2特性データを修正し、修正されたデータを修正済データ保持部124に格納する。
データ修正部112は、ステップS201で学習したデータ特性認識ニューラルネットワークによって第1のデータ特性であると認識されるように第2特性データを修正するものである。本実施形態で対象としているデータは画像データであるので、データ修正部112は画像データを修正するものである。また、第1のデータ特性は実写画像(実データ)の特性、第2のデータ特性はCG画像(人工データ)の特性であるので、データ修正部112は、CG画像に対してそれが実写画像と認識されるように第2特性データを修正するものである。なお、データ修正部112におけるデータ修正の方法の詳細については後述する。
さらに、ステップS202では、データ修正部112が、修正前の第2特性データに付されていたターゲットラベルを、修正済の第2特性データと関連付けて修正済データ保持部124に格納する。さらに、データ修正部112は、学習重み設定部114が算出する学習重みも、修正済の第2特性データと関連付けて修正済データ保持部124に格納する。学習重みは0から1までの実数であり、次ステップS203で行う学習処理において各データがどの程度の重みで学習されるべきかを表すものである。学習重み設定部114の処理の詳細については後述する。ターゲットラベルや学習重み値を修正済の第2特性データと関連付けて格納する方法としては、例えば、修正済の第2特性データのファイル名とターゲットラベルと学習重み値とのテーブルを作成し、修正済データ保持部124に格納すればよい。
次に、ステップS203では、第2の学習部111が、ターゲットを認識するターゲット認識器を学習する。第2の学習部111は、修正済データ保持部124に保持された修正済み第2特性データと、第1特性データ保持部120に保持された第1特性データとを学習データとし、ターゲットとする認識対象を含むかどうかを認識するターゲット認識器を学習する。修正済み第2特性データと第1特性データにはそれぞれターゲットに関するターゲットラベルが付されているのは前述のとおりであり、第2の学習部111は、それを用いて学習する。
また、修正済み第2特性データには、前述の通り学習重みが付与されており、学習の際には各データに付与された学習重みに従って学習が実行される。なお、第1特性データについては学習重みが1であるとして学習すればよい。
第2の学習部111は、画像データにターゲットが写っているか否かを判別するターゲット認識器を以上のようにして学習し、ターゲット認識器保持部123に格納する。なお、第2の学習部111によって学習されるターゲット認識器は特定の方法に限定されるものではなく、例えば、第1の学習部110と同様にニューラルネットワークによる方式でよい。または、サポートベクトルマシン(SVM)や決定木などの他の方式を用いてもよい。これらの方式を採用した際の学習方法については周知の技術であるので、ここでは詳細な説明を省略する。
続いて、ステップS204では、認識部113が未知の画像データに対して認識処理を行う。認識部113は、例えば、ユーザによって指定された画像データに対してターゲット認識器保持部123に保持されているターゲット認識器を用いて認識処理を行い、認識結果を出力する。ステップS203までの処理によってターゲット認識器が学習された後は、本ステップS204における認識処理は任意の入力画像に対して何度でも繰り返し行うことができる。
なお、ここでは説明を簡単にするために、第1の学習部110で用いられる第1特性データおよび第2特性データと、第2の学習部110で用いられる第1特性データおよび第2特性データは共通のもととして説明をした。そのために、第1特性データおよび第2特性データにはデータ特性ラベルとターゲットラベルとが付されているものとして説明した。しかし、第1の学習部110で用いられる第1特性データおよび第2特性データと、第2の学習部110で用いられる第1特性データおよび第2特性データとを別々のものとしてもよい。この場合、第1の学習部110で用いられる第1特性データおよび第2特性データは、データ特性ラベルが付されていればよく、ターゲットラベルは必ずしも必要ない。また、第2の学習部111で用いられる第1特性データおよび第2特性データは、ターゲットラベルのみが付されていればよく、データ特ラベルは必ずしも必要ない。この場合には、第1の特性データと第2の特性データとを区別できなくなるので、第2の学習部111の学習データとして供される全てのデータを修正処理すればよい。
また、本実施形態の情報処理装置が、ステップS201からS204までの処理を全て行う構成としているが、これらの処理をすべて本実施形態の装置で行う必要はない。すなわち、ステップS201におけるデータ特性認識ニューラルネットワークの学習は別の装置で行われ、本実施形態はその学習されたデータ特性認識ニューラルネットワークを取得してステップS202で用いるという形態であっても構わない。また、ステップS203のターゲット認識器の学習についても、本実施形態の情報処理装置が修正した第2特性データを用いて、別の装置により行うようにしてもよいし、ステップS204の認識処理についても別の装置で行うようにしてもよい。以上で、本実施形態に係る情報処理装置の全体の処理の流れについての説明を終える。
次に、本実施形態に係るデータ修正部112による修正処理について説明する。図3は、本実施形態における修正処理の流れを説明するフローチャートである。まず、ステップS301で、データ修正部112は、第2特性データ保持部121の中から第2特性データを1つロードする。また、後述するデータ更新処理を実行した繰り返し回数を表す変数Nを0に初期化する。
次に、ステップS302で、データ修正部112は、ニューラルネットワーク保持部122に保持されているデータ特性認識ニューラルネットワークを用いて、前ステップS301でロードしたデータに対してデータ特性の判定を行う。本実施形態では、第1のデータ特性として実写画像の特性を、第2のデータ特性としてCG画像の特性を用いているので、入力されたデータが実写画像かCG画像かを判定する。
本実施形態では、データ特性認識ニューラルネットワークの出力層504における実写クラス確率505がCGクラス確率506よりも所定の閾値以上の差で大きければ、データが実写画像であると認識するものとする。以下、この閾値を実写画像判定閾値と記す。実写画像判定閾値は、0から0.5までの実数値であり、例えば、実写クラス確率505がCGクラス確率506よりも0.2以上大きい場合に実写画像であると判定するようにしたい場合、実写画像判定閾値は0.2に設定する。この場合、実写クラス確率505が0.6以上であるときに、実写画像であると判定される。
なお、実写画像判定閾値は、ユーザが決めてもよいし、実際にCG画像と実写画像との認識器を学習した後にサンプルデータに対する出力層504の値を確認して、閾値をどの程度にすれば実写判定精度がよくなるかによって閾値を決めるなどしてもよい。本ステップS302でデータが実写画像(第1のデータ特性)であると判定されればステップS303に進み、CG画像(第2のデータ特性)であると判定されればステップS304に進む。
ステップS304で、データ修正部112は、データ更新処理の繰り返し回数を表す変数Nが別途定める所定の閾値Nmaxを超えているかどうかを判定する。閾値Nmaxはデータ更新処理の繰り返し回数の上限を示すための閾値で、本実施形態ではユーザが別途定めておく定数である。変数Nが閾値Nmaxを超えていない場合はステップS305に進み、変数Nが閾値Nmaxを超えている場合ステップS303に進む。
ステップS305で、データ修正部112は、データ特性認識ニューラルネットワークによってデータが第1のデータ特性(実写画像)であると認識されるようにデータを更新する。これは、非特許文献1に記載の方法と同様の処理である。このステップS305におけるデータ更新処理の詳細について、図4のフローチャートを用いてより詳しく説明する。
図4は、本実施形態におけるデータ更新処理の詳細を示すフローチャートである。ステップS401で、データ修正部112は、データをデータ特性認識ニューラルネットワークに入力し、出力値を得る。本ステップでは、図5の出力値算出方向を示す矢印507の方向にフィードフォワード処理を行い、出力値を得る。出力値とは、図5の出力層504の各ユニット(505,506)の値であり、データ特性が第1の特性および第2の特性らしい確率を示すものである。本実施形態においては、第1のデータ特性および第2のデータ特性は実写の特性およびCGの特性であるので、出力層504の各ユニットは実写クラス確率505およびCGクラス確率506を表している。
ステップS402で、データ修正部112は、実写と判定されるために必要な出力目標値と前ステップで得た出力値との誤差を算出する。実写と判定されるために必要な実写クラス確率505とCGクラス確率506の出力目標値は、それぞれ以下の数式1および数式2で算出することができる。
Figure 0007207846000001
Figure 0007207846000002

ステップS402で算出する誤差は、上記の実写クラス確率目標値と実写クラス確率505との差、および上記のCGクラス確率目標値とCGクラス確率506との差である。
ステップS403で、データ修正部112は、前ステップS402で算出した誤差を用いて誤差逆伝搬法によってデータの更新を行い、更新データを得る。ここで、誤差逆伝搬法による更新は、ニューラルネットワークの学習パラメータを更新するものではなく、データの値のみを更新するものである。図5中の誤差伝搬方向を示す矢印508の方向に、誤差をニューラルネットワークの出力層からデータ入力層に向けて伝搬させ、ステップS402で算出された誤差を小さくするようにデータの値を更新する。
本実施形態では、対象のデータが画像データであるので、この処理によって画像の画素値が変更される。以上のような処理をすることにより、CGか実写かを認識する認識器であるデータ特性認識ニューラルネットワークの出力が実写と判定される出力目標値に近づくようデータが更新される。すなわち、データがCGであると判断するための特徴が修正される(消される)ように更新された更新データが生成される。
ここで、データが実写とCGの合成画像であり、CGの領域を示すマスクが既知である場合には、データのマスク内(CG領域)のみを更新するようにしてもよい。そして、マスク外は更新前のデータ、マスク内は更新後のデータとなるように更新前データと更新後データを合成したものを更新データとすればよい。なお、対象のデータが音声データの場合は、データ修正部112によって音声データを表現しているデータの値が変更されることになる。以上で、本実施形態におけるデータ更新処理の説明を終える。
図3に戻り、ステップS306で、データ更新処理の繰り返し回数を表す変数Nを1加算する。ステップS306以降は、再びS302に戻り、データが実写画像と判定されるまでデータ更新処理を繰り返す。
ステップS303で、学習重み設定部114はデータの学習重みを設定する。学習重み設定部114の処理の詳細については後述する。
ステップS307で、データ修正部112は、修正されたデータを修正済データ保持部124に格納する。データ修正部112は、修正前のデータにつけられていたターゲットラベルと、ステップS303で設定された学習重みも、修正されたデータと関連付けて修正済データ保持部124に格納する。
ステップS308では、データ修正部112が、第2特性データ保持部121に保持されている第2特性データの全てに対して以上の処理が完了したかどうかを判定する。完了していなければ、ステップS301に戻って別のデータに対して処理を行う。以上で、本実施形態に係るデータ修正部112による修正処理の説明を終える。
次に、学習重み設定部114による学習重みの設定について説明する。図6は、本実施形態に係る学習重み設定部114による設定処理の流れを説明するフローチャートである。まず、ステップS601で、学習重み設定部11は、図3のフローチャートにおける変数Nが閾値Nmax以上であるかどうかを判定する。Nmax以上であればステップS602に進み、変数NがNmax以上でなければステップS603に進む。
ステップS602で、学習重み設定部114は、学習重みを所定の設定値として0に設定する。これは、データ修正の回数が所定の閾値Nmax以上になった場合には、そのデータをS203におけるターゲット認識器の学習に使用しないようにすることを意味する。なお、変数Nが閾値Nmax以上になった場合の学習重みは、必ずしも0に設定するように限定するものではなく、別途定める所定の値(例えば、0に近い値)に設定するなどしてもよい。
ステップS603では、学習重み設定部114が、変数Nの値に応じて学習重みを設定する。本ステップにおいて、学習重み設定部114は、例えば以下の数式3で示す関数によって学習重みを設定する。
学習重み = a (数式3)
ここで、aは別途定める0から1までの実数とする。これは、データ更新を行った回数に応じて学習重みを減らすよう設定する処理の一例であり、修正回数を学習データの信頼度とみなして学習重みを減少させていくことを意味する処理である。なお、学習重み設定部114による学習重みの設定方法は上述の方法に限定されるものではない。例えば、変数Nに応じて減少する上記とは別の関数によって設定したり、または、変数Nが所定回数増える毎に段階的に学習重みを減らすように設定するなどしてもよい。以上により、本実施形態における学習重み設定部114による設定処理ついての説明を終える。
なお、本実施形態では、説明を簡単にするためにデータ特性は2種類あるとしていたが、データ特性は2種類以上あってもよい。この場合、例えば、第1特性データと第2特性データに加えて、第3特性データを更に準備し、第1の学習部110は3種類のデータ特性を判別するようにデータ特性認識ニューラルネットワークを学習すればよい。データ特性認識ニューラルネットワークの構造は、図5の出力層504を2ユニットから3ユニットに増やした構造にすればよい。データ修正部112による修正処理のステップS305では、3つあるデータ特性のうち所定のデータ特性に判定されるようにデータを修正すればよい。このように複数のデータ特性のデータがある場合とは、例えば以下のような場合である。撮影機材が複数種類あり、認識時にはそのうちの1種類の機材を使って認識をするという場合で、認識用でない機材で取得したデータからその機材特有の特徴を学習しないようにしたい場合などである。または、CGなどの人工データの作成方法が複数種類あり、それぞれ別のデータ特性を持っている場合などである。
以上のように、本実施形態では、データ修正部112により、例えば人工データ(CG画像など)のような特定のデータ特性を持つデータからそのデータ特性に特有の特徴を修正することが可能になる。そして、この修正されたデータを用いてターゲット認識器を学習すれば、人工データに特有の特徴に強く反応しないように認識器が学習され、認識精度を向上させることが可能になる。
また、データ修正部112によって学習データにCGなどの人工データに特有の特徴が修正される(消される)ことにより、人工データ特有の特徴を抽出するために学習パラメータを使用しなくてもよくなる。そのため、学習パラメータを効率的に使った学習が可能となる。すなわち、同じ学習パラメータ数であれば、本実施形態により認識精度が向上するということである。または、学習パラメータ数が少ない設定で、従来同等の性能に到達することができ、メモリ使用量の削減、計算ハードウェアの削減、処理速度の向上などの効果があるということである。
また、学習重み設定部114により修正回数に応じてデータの学習重みを調節することにより、実写データの特性から離れたデータ特性であったデータに対して学習重みを下げることができ、認識の精度を向上させることができる。
また、本実施形態では、データ修正部112によって修正されたデータ(修正済み第2特性データ)は修正前のデータと同じように扱うことができる。そのため、例えば、修正前のデータが画像であれば、修正後のデータも同じ画像である。学習データのバリエーションを増やすために、画像に対して回転・反転・変形・色変換などのデータ変換処理を行うことが一般的であるが、それらの処理も修正後データに対してそのまま用いることができる。
また、本実施形態において、データ修正部112の処理は、第2の学習部111の方法とは独立であることから、ターゲット認識器を学習するための第2の学習部111としては任意の学習方法を用いることができる。ユーザが元々人工画像をそのまま使用して学習をしていた場合、第1の学習部110とデータ修正部112を導入してデータを修正しても、従来から使用していたターゲット認識器の学習方法はそのまま使用することができる。
[第2の実施形態]
次に、本発明の第2の実施形態について説明する。本実施形態は、第1の実施形態と同様にデータ特性に関する特徴を修正するのに加えて、ターゲットのクラスに関する特徴がデータ修正前の特徴から大きく変化しないようにするものである。つまり、対象画像からCG的特徴を消すようにデータを更新する際に、画像の内容に関する特徴も変更されることを抑制するものである。以下、第1の実施形態において既に説明をした構成については同一の符号を付し、その説明は省略する。
まず、本実施形態は、後述するターゲット出力値を保持するためのターゲット出力値保持部(不図示)を有する。また、本実施形態は、第1の学習部110が学習するデータ特性認識ニューラルネットワークの構造および学習する対象が第1の実施形態とは異なる。図7に、本実施形態におけるデータ特性認識ニューラルネットワークの構造を示す。図7に示すニューラルネットワークは、図5と比較して、データ特性を学習するだけでなく、ターゲットクラスも同時に学習する点が異なっている。入力層702は1つであるが、出力層が2つある。データ特性出力層704は第1のデータ特性のクラス確率(実写クラス確率705)および第2のデータ特性のクラス確率(CGクラス確率706)を出力する。ターゲット出力層707はターゲットクラス確率708と非ターゲットクラス確率709を出力する。
学習時には2つの出力層にそれぞれのラベルを与えて学習を行えばよい。このような設定で学習をすることは一般的にマルチタスク学習として知られている周知の方法であるので、詳細な説明は省略する。またターゲット出力層707については2クラスの認識を行う例を挙げているが、これに限定されるものではなく、2クラス以上の多クラスの認識を行う設定であってもよいし、実数値で表される認識結果を出力する回帰学習の設定でもよい。
また、本実施形態は、図3のステップS305におけるデータ修正部112のデータ更新処理の内容が第1の実施形態とは異なっている。図8は、本実施形態においてデータ修正部112がステップS305で実施するデータ更新処理の流れを説明するフローチャートである。まず、ステップS801で、データ修正部112は、図7で説明した本実施形態のデータ特性認識ニューラルネットワークにデータを入力し、出力値を得る。ここで、出力値とはデータ特性出力層704の出力とターゲット出力層707の出力である。以下では、前者をデータ特性出力値、後者をターゲット出力値と記す。
ステップS802では、図3のステップS301で設定してステップS307で更新する変数Nの値が0であるか否かを判定する。すなわち、処理対象としているデータがまだ一度も更新されていないデータであるか否かを判定する。変数Nが0である場合はステップS803に進み、そうでない場合はステップS804に進む。
ステップS803では、データ修正部112が、ステップS801で得た出力値のうち、ターゲット出力値をターゲット出力値保持部に格納する。ここで格納されるターゲット出力値は変数Nが0であるときのターゲット出力値、すなわち、データ更新処理が行われる前のデータに対するターゲット出力値がターゲット出力目標値保持部に格納される。
ステップS804では、データ修正部112が、図4におけるステップS402での処理と同様に、ステップS801で得たデータ特性出力値と実写画像判定されるデータ特性出力目標値との誤差を算出する。実写画像判定されるデータ特性出力目標値は、図4のステップS402で説明した通り、数式1および数式2によって算出できる。ステップS805では、データ修正部112が、ステップS801で得たターゲット出力値と、ステップS803で保存していたターゲット出力目標値との誤差を算出する。
ステップS806では、データ修正部112が、ステップS804で算出したデータ特性に関する誤差と、ステップS806で算出したターゲットに関する誤差の両方を用いて、誤差逆伝搬法でデータを更新する。ここで、データ特性の誤差からの誤差逆伝搬とターゲットの誤差からの誤差逆伝搬には、それぞれ異なる重みを与えて誤差逆伝搬を行ってもよい。その重みによって、データからCG的な特徴を消すようデータ修正する効果を優先するのか、ターゲットに関する特徴を保存する効果を優先するのかを調整することができる。
なお、本実施形態では、データ更新前のターゲット出力結果が変わらないように誤差逆伝搬を行ったが、他の方法も考えられる。例えば、ターゲット出力値の目標値として所定のターゲット出力値を別途定めておき、その出力値になるように誤差逆伝搬する方法もある。その場合は、上述の説明におけるステップS803でデータ特性認識ニューラルネットワークのターゲット出力値の初期値を保持していたが、それに代えて所定の値をターゲット出力目標値として保持しておけばよい。
また、本実施形態では、情報処理装置が有する第1の学習部110によって、ターゲットのクラスに関する特徴がデータ修正前の特徴から大きく変わらないようにニューラルネットワークを学習している。しかし、本実施形態は、別の装置によって上述のように学習されたデータ特性認識ニューラルネットワークを用いて、データ修正部112がデータを修正するような形態も含むものである。
以上説明したように、本実施形態によれば、画像からCG的特徴が消される(修正される)ようにデータを更新する際、画像の内容に関する特徴が元のデータから変更されることを抑制することが可能になる。
[第3の実施形態]
次に、本発明の第3の実施形態について説明する。本実施形態は、学習重み設定部114が、データ修正部112によって修正されたデータのデータ修正量に応じて学習重みを設定することを特徴とする。以下、第1、第2の実施形態において既に説明をした構成については同一の符号を付し、その説明は省略する。
図9は、本実施形態に係る情報処理装置の概略ブロック図である。本実施形態の情報処理装置が第1の実施形態と相違する点は、本実施形態では学習重み設定部114のサブ機能部としてデータ修正量算出部115が追加されており、また学習重み設定部114の処理の内容が異なる点である。
図10は、本実施形態における学習重み設定部114による設定処理のフローチャートである。まず、ステップS1001で、学習重み設定部114は、変数Nが所定の閾値Nmax以上であるか否かを判定する。変数Nが閾値Nmax以上であればステップS1002に進み、学習重みを所定の値(例えば、0)に設定する。変数Nが閾値Nmax以上でない場合は、ステップS1003に進む。
ステップS1003では、データ修正量算出部115が、データ修正量を算出する。データ修正量算出部115は、データ修正部112によって修正される前のデータと、データ修正部112によって修正された後のデータとの差異を数値化するものである。差異を数値化するための算出方法は特定の補法に限定されないが、例えば以下の方法(1)や(2)を用いて算出すればよい。
(1)修正前のデータと修正後のデータとの差分の二乗平均平方根を算出する。例えば、データが画像である場合、画像差分の二乗平均平方根を以下の数式4より算出する。
Figure 0007207846000003

ここで、Nは画像の総画素数、iは画素のインデックス、(r,g,b)は修正前画像のRGB画素値、(r’,g’,b’)は修正後画像のRGB画素値である。また、各画素位置における修正量がわずかならば無視してもよいという場合は、各画素における値の差が所定の閾値以下のものは差を0とみなして算出するなどしてもよい。なお、データが画像でない場合でも同様の算出が可能である。
(2)データ特性認識ニューラルネットワークに修正前のデータを入力した場合の出力値と、修正後のデータを入力した場合の出力値との、各ユニットの二乗平均平方根を算出する。これは、例えば、以下の数式5より算出する。
Figure 0007207846000004

ここで、Nは出力層のユニット数、iは出力層のユニットのインデックス、uは修正前データに対する出力層ユニットの出力値、u’は修正後データに対する出力層ユニットの出力値である。
ステップS1004では、学習重み設定部114は、が、前ステップで算出した修正量を学習重みに換算し、その値で学習重みを設定する。この換算処理は、データ修正量が大きいほど学習重みが小さくなるように、かつ、学習重みが0から1までの範囲になるように換算するものである。
第1の実施形態では学習重みはデータ更新回数に応じて決めていたが、本実施形態は、データ修正部112によって修正された修正量に応じて学習重みを設定するものである。この構成によって、本実施形態では、更新回数が多くても少なくても、実際にデータがどの程度修正されたかに従って学習重みを設定できる。
[第4の実施形態]
次に、本発明の第4の実施形態について説明する。本実施形態は、データ修正部112によって修正されたデータに対して、データのどの部分がどの程度修正されたかを表示部に表示するものである。以下、第1~第3の実施形態において既に説明をした構成については同一の符号を付し、その説明は省略する。
図11は、本実施形態に係る情報処理装置の概略ブロック図である。本実施形態の情報処理装置は、修正される前のデータと修正された後のデータとの差異データを生成する差異データ生成部116、差異データを表示装置に表示させる表示制御部117、生成された差異データを保持するための差異データ保持部126を備える。なお、ターゲット認識器を学習する処理に係る機能部は省略している。また、第1の実施形態または第2の実施形態で説明した方法によって生成された修正済みデータが、すでに修正済データ保持部124に格納されているものとする。修正済データ保持部124に修正済みデータが格納された以降、本実施形態で説明する表示制御部117の処理は任意のタイミングで実行することができる。
図12は、本実施形態における差異データの表示処理の流れを説明するフローチャートである。本実施形態に係る表示制御部117の処理は、ユーザが情報処理装置の入力部(マウス、キーボードなど)を使って第2特性データ保持部121の中のデータを1つ指定することに応じて開始される。以下、ユーザが指定したこのデータを「修正前データ」と記す。なお、ユーザが逐一データを指定するのではなく、ユーザが特定の条件を指定し、係る条件の全てまたは一部を満たすデータについて、以下の処理を繰り返すようにしてもよい。
まず、ステップS1201では、差異データ生成部116が、修正済データ保持部124の中に格納されているデータの中から、ユーザにより指定された修正前データに対応するデータをロードする。以下、このデータを「修正後データ」と記す。なお、このステップS1201では、修正済データ保持部124から修正後データを取得する代わりに、データ修正部112を用いて、ユーザが指定した修正前データに対する修正後データを随時生成してもよい。
次に、ステップS1203では、差異データ生成部116が、修正前データと修正後データとの差異データを生成し、差異データ保持部126に格納する。差異データの生成法は特に限定しないが、例えば、データの各次元における画素値のユークリッド距離を画素値とした画像を差異データとして生成する。例えば、データが画像である場合、各画素位置における2つの画像のRGB値のユークリッド距離を画素値とした差異画像を生成する。このとき、差異画像の画素値の大きさに応じて画素値をカラー化してもよい。大きいほど赤く、小さいほど青くなるようなカラーチャートを用いるのが一般的である。
次に、ステップS1204では、表示制御部117が、生成した差異データを表示装置に表示させる。表示装置104とは例えば液晶ディスプレイである。このとき、表示制御部117は、差異データを所定の透明度で、修正前データもしくは修正後データの表示に重ね合わせて表示してもよい。また、差異データの差異値が所定の閾値以上となった部分だけを表示してもよい。
ステップS1205では、表示制御部117が、ユーザに処理の終了を問い合わせる。そして、終了でなければステップS1201に戻り差異データ生成部116が次に表示するデータを指定し、終了であれば本処理を終了する。
なお、本実施形態では、ユーザが修正前データを指定してそれに対応する修正後データとの差異を表示する例を示しているが、修正後データを指定してそれに対応する修正前データとの差異を表示するものであってもよい。また、表示するデータの指定は、ユーザが指定する代わりに、修正量が大きいデータから順に次々と自動的に指定される形態でもよいし、修正量が所定の閾値を超えるデータが次々と自動的に指定される形態でもよい。その場合、データ修正量は、例えば第3の実施形態で説明した方法で算出すればよい。
また、本実施形態の説明では、修正済データ保持部124に修正済みデータが事前に格納されているという前提で説明したが、事前に修正済データが生成されていなくてもよい。その場合は、事前にデータ特性認識ニューラルネットワークの学習までが完了していれば、ユーザが指定した修正前データに対してデータ修正部112を用いて修正後データを随時生成することができる。
また、本実施形態においてもデータは画像データであるとして説明をしたが、対象のデータは画像に限られるものではなく、例えば音声データなどであってもよい。音声データを可視化する方法としては、例えば音声の波形やスペクトルを表示する方法が考えられる。その場合は、修正前データの音声波形と修正後データの音声波形やスペクトルとの差異を表示するようにすればよい。
以上説明したように、本実施形態によれば、ユーザは、例えばCGなどの人工的に作ったデータのどの部分に人工データ特有の特徴が表れているかを確認することができる。そのため、ユーザは、人工データの品質を確認できるだけでなく、人工データ作成時に注意すべき点の知見が得られる。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
122 ニューラルネットワーク保持部
112 データ修正部

Claims (8)

  1. データの生成または取得方法に起因するデータ特性を判別するニューラルネットワークへ入力したデータに対する判別結果において前記データのデータ特性が実写ではないと判別されたデータを当該ニューラルネットワークが実写によるデータであることを示すデータ特性を有する判別するデータへ、前記ニューラルネットワークに入力されたデータを修正する修正手段と、
    対象物の存在を認識する認識器に、前記対象物の存在に関するラベルが付与された学習データを学習させる学習手段と、
    を有し、
    前記学習手段では、前記修正手段により前記データ特性が修正されているデータに前記対象物の存在に関するラベルが付与された学習データを学習させることを特徴とする情報処理装置。
  2. 前記修正手段は、前記ニューラルネットワークが判別した前記データの前記データ特性と実写により生成または取得されたデータのデータ特性との誤差を小さくするように前記ニューラルネットワークに入力されたデータを修正することを特徴とする請求項1に記載の情報処理装置。
  3. 前記学習手段が、前記認識器に学習させる前記修正されたデータを学習に用いる重みを設定する設定手段を更に有することを特徴とする請求項2に記載の情報処理装置。
  4. 前記設定手段は、前記修正手段が前記誤差を小さくするように該データを修正した回数が所定回数を超える場合に、前記重みを小さくする設定をすることを特徴とする請求項3に記載の情報処理装置。
  5. 前記ニューラルネットワークに入力されたデータと、前記修正手段によって修正されたデータとの差異を表示させる表示制御手段を更に有することを特徴とする請求項1からのいずれか1項に記載の情報処理装置。
  6. 前記データは、画像データであることを特徴とする請求項1からのいずれか1項に記載の情報処理装置。
  7. データの生成または取得方法に起因するデータ特性を判別するニューラルネットワークへ入力したデータに対する判別結果において前記データのデータ特性が実写ではないと判別されたデータを、当該ニューラルネットワークが実写によるデータであることを示すデータ特性を有する判別するデータへ、前記ニューラルネットワークによって入力されたデータを修正する修正ステップと、
    対象物の存在を認識する認識器に、前記対象物の存在に関するラベルが付与された学習データを学習させる学習ステップと、
    を有し、
    前記学習ステップでは、前記修正ステップにより前記データ特性が修正されているデータに前記対象物の存在に関するラベルが付与された学習データを学習させることを特徴とする情報処理方法。
  8. コンピュータを、請求項1からのいずれか1項に記載の情報処理装置として機能させるためのプログラム。
JP2017059238A 2017-03-24 2017-03-24 情報処理装置、情報処理方法及びプログラム Active JP7207846B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017059238A JP7207846B2 (ja) 2017-03-24 2017-03-24 情報処理装置、情報処理方法及びプログラム
US15/927,965 US10810464B2 (en) 2017-03-24 2018-03-21 Information processing apparatus, information processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017059238A JP7207846B2 (ja) 2017-03-24 2017-03-24 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2018163444A JP2018163444A (ja) 2018-10-18
JP7207846B2 true JP7207846B2 (ja) 2023-01-18

Family

ID=63583486

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017059238A Active JP7207846B2 (ja) 2017-03-24 2017-03-24 情報処理装置、情報処理方法及びプログラム

Country Status (2)

Country Link
US (1) US10810464B2 (ja)
JP (1) JP7207846B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11922314B1 (en) * 2018-11-30 2024-03-05 Ansys, Inc. Systems and methods for building dynamic reduced order physical models
JP7167668B2 (ja) * 2018-11-30 2022-11-09 コニカミノルタ株式会社 学習方法、学習装置、プログラムおよび記録媒体
JP7426602B2 (ja) * 2019-11-06 2024-02-02 パナソニックIpマネジメント株式会社 映像生成装置、映像生成方法およびプログラム
JP6992099B2 (ja) * 2020-01-16 2022-01-13 本田技研工業株式会社 情報処理装置、車両、車両の制御方法、プログラム、情報処理サーバ、情報処理方法
WO2023152882A1 (ja) * 2022-02-10 2023-08-17 日本電気株式会社 モデル訓練装置、モデル訓練方法、及び非一時的なコンピュータ可読媒体

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006165889A (ja) 2004-12-06 2006-06-22 Sharp Corp 管理装置、印刷処理システム、管理装置の制御方法、管理装置の制御プログラム、管理装置の制御プログラムが記録された記録媒体

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6409433B2 (ja) 2014-09-17 2018-10-24 大日本印刷株式会社 画像生成装置、画像検出システム及び画像生成方法
US10235623B2 (en) * 2016-02-12 2019-03-19 Adobe Inc. Accurate tag relevance prediction for image search
JP6656357B2 (ja) * 2016-04-04 2020-03-04 オリンパス株式会社 学習方法、画像認識装置およびプログラム
EP3267368B1 (en) * 2016-07-06 2020-06-03 Accenture Global Solutions Limited Machine learning image processing
US11200483B2 (en) * 2016-08-30 2021-12-14 Lunit Inc. Machine learning method and apparatus based on weakly supervised learning
US10255681B2 (en) * 2017-03-02 2019-04-09 Adobe Inc. Image matting using deep learning
US10691922B2 (en) * 2018-05-17 2020-06-23 Accenture Global Solutions Limited Detection of counterfeit items based on machine learning and analysis of visual and textual data

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006165889A (ja) 2004-12-06 2006-06-22 Sharp Corp 管理装置、印刷処理システム、管理装置の制御方法、管理装置の制御プログラム、管理装置の制御プログラムが記録された記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
岸本 達雄 他,ニューラルネットワークを用いた色ずれの補正,第45回 システム制御情報学会研究発表講演会講演論文集,システム制御情報学会,2001年05月08日,pp.603~604

Also Published As

Publication number Publication date
US20180276503A1 (en) 2018-09-27
US10810464B2 (en) 2020-10-20
JP2018163444A (ja) 2018-10-18

Similar Documents

Publication Publication Date Title
JP7207846B2 (ja) 情報処理装置、情報処理方法及びプログラム
US10614347B2 (en) Identifying parameter image adjustments using image variation and sequential processing
TWI649698B (zh) 物件偵測裝置、物件偵測方法及電腦可讀取媒體
US11508038B2 (en) Image processing method, storage medium, image processing apparatus, learned model manufacturing method, and image processing system
CN109711401B (zh) 一种基于Faster Rcnn的自然场景图像中的文本检测方法
WO2019214240A1 (zh) 动态图片的生成
US11301723B2 (en) Data generation device, data generation method, and computer program product
CN110348358B (zh) 一种肤色检测***、方法、介质和计算设备
CN109478316A (zh) 实时自适应阴影和高光增强
CN113658091A (zh) 一种图像评价方法、存储介质及终端设备
JP7443030B2 (ja) 学習方法、プログラム、学習装置、および、学習済みウエイトの製造方法
US11526691B2 (en) Learning device, learning method, and storage medium
JP2021018477A (ja) 情報処理装置、情報処理方法、及びプログラム
KR102537207B1 (ko) 머신 러닝에 기반한 이미지 처리 방법 및 장치
CN114926876A (zh) 图像关键点检测方法、装置、计算机设备和存储介质
CN116888665A (zh) 电子设备及其控制方法
JP7437918B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN112634143A (zh) 图像色彩校正模型训练方法、装置及电子设备
WO2023188160A1 (ja) 入力支援装置、入力支援方法、及び非一時的なコンピュータ可読媒体
US11995153B2 (en) Information processing apparatus, information processing method, and storage medium
JPWO2019116494A1 (ja) 学習装置、学習方法、および学習プログラム
US20230088317A1 (en) Information processing apparatus, information processing method, and storage medium
US11175863B2 (en) Image processing apparatus, learning apparatus, image processing method, learning method, and storage medium for estimating printing result
CN113506332B (zh) 目标对象识别的方法、电子设备及存储介质
US20230290108A1 (en) Machine-Learning Models Trained to Modify Image Illumination Without Ground-Truth Images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220225

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221025

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221025

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221108

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230105

R151 Written notification of patent or utility model registration

Ref document number: 7207846

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151