JP2013003686A - 認識装置および方法、プログラム、並びに記録媒体 - Google Patents

認識装置および方法、プログラム、並びに記録媒体 Download PDF

Info

Publication number
JP2013003686A
JP2013003686A JP2011131681A JP2011131681A JP2013003686A JP 2013003686 A JP2013003686 A JP 2013003686A JP 2011131681 A JP2011131681 A JP 2011131681A JP 2011131681 A JP2011131681 A JP 2011131681A JP 2013003686 A JP2013003686 A JP 2013003686A
Authority
JP
Japan
Prior art keywords
image
hough transform
feature
target object
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011131681A
Other languages
English (en)
Inventor
Yuichi Hasegawa
雄一 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011131681A priority Critical patent/JP2013003686A/ja
Priority to US13/462,074 priority patent/US9053383B2/en
Priority to CN2012101857713A priority patent/CN102982307A/zh
Publication of JP2013003686A publication Critical patent/JP2013003686A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】画像認識に係る技術について、画像の欠損、ノイズなどに対する耐性をさらに高めることができるようにする。
【解決手段】入力画像から得られる所定の特徴点を抽出し、入力画像に含まれる所定の図形を特定するための軌跡が表示された画像であって、特徴点に対応する軌跡画像を、ハフ変換を用いて取得し、認識対象オブジェクトが含まれている学習画像に基づいて得られた軌跡画像と、認識対象オブジェクトが含まれていない学習画像に基づいて得られた軌跡画像とから求められた複数の特徴量を用いた統計学習により生成された識別器を用い、特徴量に基づいて、入力画像から認識対象オブジェクトを検出する。
【選択図】図12

Description

本技術は、認識装置および方法、プログラム、並びに記録媒体に関し、特に、画像認識に係る技術について、画像の欠損、ノイズなどに対する耐性をさらに高めることができるようにする認識装置および方法、プログラム、並びに記録媒体に関する。
従来より、画像からオブジェクトを検出(認識)するための主な特徴量として、エッジ抽出により得られる輪郭特徴量が用いられている。これらの技術においては、エッジ抽出で得られた輪郭特徴量の様々な変化形が新たな特徴量として定義されて、オブジェクトの認識が行われる。
また、例えば、ブースティング(Boosting)による統計学習は、有効な機械学習の方法として様々な画像認識タスクに用いられてきた。例えば、そのような機械学習の方法としてAdaBoostと呼ばれる統計的な機械学習方法が知られている。
AdaBoostでは、検出しようとする対象物体の含まれる学習画像と、対象物体の含まれていない学習画像とがサンプルとして用いられて弱識別器(Weak Learnerとも称される)が生成され、多数の弱識別器が組み合わされて強い識別器が構築される。このようにして得られた強い識別器を用いれば、任意の画像から対象物体を検出することができるようになる。
さらに、例えば、入力された画像から輪郭が充分に抽出できなくても、画像から2つの領域のテクスチャの類似の特徴を充分に抽出できれば、統合識別器を用いて、画像から物体を検出できるようにする技術も提案されている(例えば、特許文献1参照)。
特開2009−140283号公報
しかしながら、従来の統計学習による画像認識は、サンプルとなる学習画像において認識すべきオブジェクトの一部が他の物体の背後に隠れている場合、認識すべき物体の特徴点を適切に学習できないことがある。
また、例えば、サンプルとなる学習画像からエッジを抽出して特徴点を統計学習する場合、カメラの性能、画像の明暗、ノイズの大きさなどによって、同じオブジェクトであっても異なるエッジの抽出が行われることがある。そのような場合、統計学習により得られた識別器を用いても、ターゲットとなるオブジェクトを適切に認識できない。
このように、従来の統計学習による画像認識に係る技術は、画像の欠損、ノイズなどに対する耐性を高めることができないという問題があった。
本技術はこのような状況に鑑みて開示するものであり、画像認識に係る技術について、画像の欠損、ノイズなどに対する耐性をさらに高めることができるようにするものである。
本技術の一側面は、入力画像に対してハフ変換を施すハフ変換部と、認識対象オブジェクトが含まれている学習画像に前記ハフ変換を施して得られたデータと、前記認識対象オブジェクトが含まれていない学習画像に前記ハフ変換を施して得られたデータとから求められた複数の特徴量を用いた統計学習により生成された識別器を用い、前記特徴量に基づいて、前記入力画像から前記認識対象オブジェクトを検出する検出部とを備える認識装置である。
前記ハフ変換部は、前記入力画像に含まれる所定の図形を特定するための軌跡が表示された画像であって、前記特徴点に対応する軌跡画像を、ハフ変換を用いて取得し、前記検出部は、認識対象オブジェクトが含まれている学習画像に基づいて得られた前記軌跡画像と、前記認識対象オブジェクトが含まれていない学習画像に基づいて得られた前記軌跡画像とから求められた複数の特徴量を用いた統計学習により生成された識別器を用い、前記特徴量に基づいて、前記入力画像から前記認識対象オブジェクトを検出するようにすることができる。
前記入力画像から得られる所定の特徴点を抽出する特徴点抽出部をさらに備え、前記特徴点抽出部は、前記入力画像に所定のフィルタ処理を施すことで得られたエッジ画像から前記特徴点を抽出し、前記ハフ変換を施して得られたデータは、前記エッジ画像に含まれる所定の図形を特定するための軌跡が表示された軌跡画像のデータとされるようにすることができる。
前記入力画像から得られる所定の特徴点を抽出する特徴点抽出部をさらに備え、前記特徴点抽出部は、前記入力画像に所定のフィルタ処理を施すことで得られたエッジ画像の画素値が所定の閾値判定により2値化され、さらに前記エッジが細線化された画像から前記特徴点を抽出するようにすることができる。
前記ハフ変換部は、前記入力画像に含まれる所定の図形を特定するための軌跡が表示された画像であって、前記特徴点に対応する軌跡画像を、ハフ変換を用いて取得し、前記軌跡画像は、所定の図形を表す数式のパラメタのそれぞれを軸として構成されるパラメタ空間に、前記特徴点を投票して得られた軌跡が表示された画像とされるようにすることができる。
前記ハフ変換部は、前記入力画像に含まれる所定の図形を特定するための軌跡が表示された画像であって、前記特徴点に対応する軌跡画像を、ハフ変換を用いて取得し、所定の図形を極座標に係る関数によって特定し、前記特徴点に対応する軌跡画像を、ハフ変換を用いて取得するようにすることができる。
本発明の一側面は、ハフ変換部が、前記入力画像にハフ変換を施し、検出部が、認識対象オブジェクトが含まれている学習画像に前記ハフ変換を施して得られたデータと、前記認識対象オブジェクトが含まれていない学習画像に前記ハフ変換を施して得られたデータとから求められた複数の特徴量を用いた統計学習により生成された識別器を用い、前記特徴量に基づいて、前記入力画像から前記認識対象オブジェクトを検出するステップを含む認識方法である。
本発明の一側面は、コンピュータを、入力画像に対してハフ変換を施すハフ変換部と、認識対象オブジェクトが含まれている学習画像に前記ハフ変換を施して得られたデータと、前記認識対象オブジェクトが含まれていない学習画像に前記ハフ変換を施して得られたデータとから求められた複数の特徴量を用いた統計学習により生成された識別器を用い、前記特徴量に基づいて、前記入力画像から前記認識対象オブジェクトを検出する検出部とを備える認識装置として機能させるプログラムである。
本技術の一側面においては、入力画像に対してハフ変換が施され、認識対象オブジェクトが含まれている学習画像に前記ハフ変換を施して得られたデータと、前記認識対象オブジェクトが含まれていない学習画像に前記ハフ変換を施して得られたデータとから求められた複数の特徴量を用いた統計学習により生成された識別器を用い、前記特徴量に基づいて、前記入力画像から前記認識対象オブジェクトが検出される。
本技術によれば、画像認識に係る技術について、画像の欠損、ノイズなどに対する耐性をさらに高めることができる。
従来の画像識別システムの構成例を示すブロック図である。 図1の識別器生成部のより詳細な構成例を示すブロック図である。 直線上の特徴点をパラメタ空間に投票して得られる軌跡の例を示す図である。 直線を極座標を用いて表す場合の例について説明する図である。 直線上の特徴点をパラメタ空間に投票して得られる軌跡の別の例を示す図である。 ハフ変換における入力画像の例を示す図である。 画像のエッジを抽出するフィルタの構成例を示す図である。 図6の画像から得られたエッジ画像の例を示す図である。 図8のエッジ画像の画素を2値化して得られた画像の例を示す図である。 図9の画像のエッジを細線化して得られた画像の例を示す図である。 図10の画像の画素を特徴点としてパラメタ空間に投票して得られた軌跡の例を示す図である。 本技術を適用した画像識別システムの一実施の形態の構成例を示すブロック図である。 図12の学習装置による学習処理の例を説明するフローチャートである。 図12の認識装置によるオブジェクト検出処理の例を説明するフローチャートである。 ハフ変換により円を検出する場合の例を説明する図である。 パーソナルコンピュータの構成例を示すブロック図である。
以下、図面を参照して、ここで開示する技術の実施の形態について説明する。
最初に従来の統計学習による画像認識に係る技術について説明する。
図1は、従来の画像識別システムの一実施の形態の構成例を示すブロック図である。この画像識別システムは、学習装置11、識別器記録部12、および認識装置13からなり、入力された画像の中で認識対象オブジェクトの画像が存在する領域を認識させるものである。
学習装置11は、入力された学習画像に基づいて、認識装置13において画像上における認識対象オブジェクトの有無を識別する処理を行うときに用いられる、識別用特徴量および統合識別器を生成し、識別器記録部12に記録させる。認識装置13は、識別器記録部12に記録されている識別用特徴量および統合識別器を用いて、入力された入力画像に認識対象物体の画像が存在するか否かを識別し、その識別結果を出力する。
学習装置11は、特徴点抽出部21、特徴量計算部22、識別器生成部23および統合識別器生成部27から構成される。
特徴点抽出部21は、入力された学習画像から、その学習画像の画素のいくつかを識別器を生成するときに用いられる特徴点として抽出し、抽出した特徴点と学習画像とを特徴量計算部22に供給する。ここで、識別器とは、統計学習により生成された、複数の弱識別器からなる強い識別器とされる。
なお、学習画像は、認識対象オブジェクトが含まれているものと含まれていないものが多数入力されるものとし、各学習画像に認識対象オブジェクトが含まれているか否かを示す正誤情報が付与されているものとする。
特徴量計算部22は、特徴点抽出部21から供給された各特徴点について、特徴量を計算し、求められた特徴量と学習画像とを識別器生成部23に供給する。例えば、特徴点として画像の中の所定の位置の画素が抽出された場合、当該画素がエッジを構成する画素である度合を表す数値などが特徴量とされる。
識別器生成部23は、特徴量計算部22から供給された学習画像および特徴量に基づいて、例えばAdaBoostによる統計学習処理を行い、認識対象オブジェクトを認識する識別器を生成する。また、識別器生成部23は、生成した識別器を統合識別器生成部27に供給する。
統合識別器生成部27は、識別器生成部23からの識別器を統合して統合識別器を生成し、生成した統合識別器を識別器記録部12に供給して記録させる。また、統合識別器生成部27は、統合識別器を用いて認識対象オブジェクトの認識を行うときに用いられる特徴点の特徴量を、識別用特徴量として識別器記録部12に供給し、記録させる。
また、認識装置13は、特徴点抽出部31、特徴量計算部32、識別計算部35、および識別結果出力部36から構成される。なお、認識装置13の特徴点抽出部31と特徴量計算部32のそれぞれは、認識対象オブジェクトを認識しようとする入力画像に対して、学習装置11の特徴点抽出部21と特徴量計算部22のそれぞれと同様の処理を行うものであるので、その説明は省略する。
識別計算部35は、識別器記録部12に記録されている識別用特徴量および統合識別器を読み出す。また、識別計算部35は、特徴量計算部32からの特徴量のうちの識別用特徴量に対応するものを、読み出した統合識別器に代入して演算を行う。識別結果出力部36は、識別計算部35における演算結果を取得し、その演算結果に基づいて、認識対象オブジェクトが入力画像で認識されたか否かの識別結果を出力する。
図2は、図1の識別器生成部23のより詳細な構成例を示すブロック図である。同図に示されるように、識別器生成部23は、サンプリング部101、重み設定部102、並び替え部103、識別器設定部104、識別器選択部105、および重み更新部106から構成される。
サンプリング部101は、例えば、重み設定部102により設定される学習画像単位の重みに応じて、複数の学習画像のそれぞれの同じ位置の特徴点の特徴量のうち、M個の特徴量をサンプリングして並び替え部103に供給する。
並び替え部103は、例えば、サンプリングされたM個の特徴量を昇べきの順、または降べきの順に並び替えて識別器設定部104に供給する。
識別器設定部104は、学習画像に認識対象オブジェクトが含まれているか否かを示す正誤情報に基づいて、昇べきの順、または降べきの順に並び替えられた特徴量のそれぞれについて、閾値を変化させながら誤り率計算部104aを制御して、誤り率を計算させる。そして、識別器設定部104は、誤り率が最小となるように閾値を設定する(この閾値が、弱識別器として設定される)。さらに、識別器設定部104は、弱識別器ごとの誤り率を識別器選択部105に供給する。
識別器選択部105は、弱識別器のうち、誤り率が最小となる弱識別器を選択して、弱識別器からなる識別器を更新し、最終的な識別器および識別器に対応する特徴量を統合識別器生成部27に供給する。さらに、識別器選択部105は、選択した弱識別器の誤り率に基づいて信頼度を計算し、重み更新部106に供給する。
重み更新部106は、供給された信頼度に基づいて学習画像ごとの重みを再計算すると共に、重みを正規化して更新し、更新結果を重み設定部102に供給する。重み設定部102は、重み更新部106より供給されてくる重みの更新結果に基づいて、学習画像単位の重みを設定する。
このようにして、従来の画像識別システムによる画像認識が行われていた。なお、従来の従来の統計学習による画像認識に係る技術については、例えば、特開2009−140283号公報などに詳細に開示されている。
しかしながら、従来の統計学習による画像認識は、学習画像において認識対象オブジェクトの一部が他の物体の背後に隠れている場合、認識すべき物体の特徴点を適切に学習できないことがある。
また、例えば、学習画像からエッジを抽出して特徴点を統計学習する場合、カメラの性能、画像の明暗、ノイズの大きさなどによって、同じオブジェクトであっても異なるエッジの抽出が行われることがある。そのような場合、統計学習により得られた識別器を用いても、ターゲットとなるオブジェクトを適切に認識できない。
このように、従来の統計学習による画像認識に係る技術は、画像の欠損、ノイズなどに対する耐性を高めることができないという問題があった。
そこで、本技術においては、ハフ変換を用いた統計学習による画像認識が行われるようにする。
ここで、ハフ変換について説明する。
ハフ変換は,画像から直線を検出するための手法としてHoughにより提案されたものである。また、その後、円形や楕円形などの解析的な図形を検出できるように拡張されている。
ハフ変換を用いた画像認識を行うことにより、画像中のノイズ、解析アルゴリズムの不完全性による誤差、オクルージョン、欠落などといった不完全な情報をもつ画像から安定的に認識対象オブジェクトを検出することができる。
ハフ変換による図形の検出は、画像中の特徴点が与えられたとき、その特徴点を含む全ての図形に関する仮定を生成し、多くの特徴点によって同一の仮説が支持されるとき、その仮説を正しいものと考えて図形の検出とする手法である。これは、「投票による情報の統合」、「多数決の原理」に基づく検出手法といえるので、個々の情報に誤りや欠落が含まれていても、全体としては安定的な検出が可能となるという特徴を有している。
次に、ハフ変換による図形の検出について説明する。ここでは、直線を検出する場合の例について説明する。
いま、画像の中の複数の特徴点によって直線が形成されているものとする。この画像中の直線を式(1)により表現する。なお、式(1)は、画像の中の画素位置が(x,y)座標により表されているものとし、変数aとbは直線の傾きと位置を定めるパラメタとされる。
Figure 2013003686
・・・(1)
式(1)において、特徴点の座標(xi,yi) (i=1, 2, ...,n)が与えられたとき、式(1)の直線のパラメタを軸として構成される2次元の空間(ab空間)において、式(2)により表される軌跡が描かれる。
Figure 2013003686
・・・(2)
例えば、図3の左側に示されるように、画像の中に座標(x1,y1)、座標(x2,y2)、および座標(x3,y3)で表される3つの特徴点が存在したとする。この場合、直線のパラメタを軸として構成されるab空間において、図3の右側に示されるような、3つの軌跡が描かれる。これらの軌跡の交点(A,B)は、図3の左側のxy空間において3つの特徴点を通る直線に対応しているということができ、これにより画像の中に、式(3)で表される直線の存在が検出される。
Figure 2013003686
・・・(3)
ところで、式(1)により画像の中の垂直の線を表現する場合、変数aの値が無限大となってしまうので、上述した方式での直線の検出には限界がある。このため、ハフ変換においては、極座標が用いられることが多い。
例えば、図4に示されるように、検出される直線151を仮定し、直線151を極座標を用いて表すと、式(4)のようになる。
Figure 2013003686
・・・(4)
式(4)における変数ρは、原点(0,0)を通る直線であって、直線151に対する垂線161を引いたとき、原点と、垂線161および直線151の交点との間の距離とされる。また、式(4)における変数θは、垂線161がx軸との間になす角度とされる。
式(4)を式(1)に代入すると、aを式(5)として表すことができ、bを式(6)として表すことができる。
Figure 2013003686
・・・(5)
Figure 2013003686
・・・(6)
従って、図3を参照して上述した場合と同様に、図5に示されるように、実画像空間(xy空間)における直線上の各特徴点が、パラメタ空間(ρθ空間)における軌跡によって表される。
図5は、xy空間における直線上に存在する3つの特徴点に対応するρθ空間における軌跡と、xy空間における直線上に存在しない1つの特徴点に対応するρθ空間における軌跡を示した図である。図5の左側がパラメタ空間(ρθ空間)を表しており、横軸はθの値を表し、縦軸はρの値を表している。図5の右側が実画像空間(xy空間)を表しており、横軸はxの値を表し、縦軸はyの値を表している。いまの場合、パラメタ空間における軌跡は、いずれも後述する式(7)により表される三角関数のカーブを描くことになる。
図5に示されるように、xy空間における直線上に存在する3つの特徴点に対応するρθ空間における軌跡は、図中左側のρθ空間内の一点で交わっている。一方、xy空間における直線上に存在しない1つの特徴点に対応するρθ空間における軌跡は、他の軌跡と交わらない。
図5に示されるように画像をハフ変換して解析することで、各軌跡の交点(ρ,θ)により画像の中の直線の存在が検出されることになる。
なお、ハフ変換において、特徴点に対応するパラメタ空間の軌跡を得る工程は、特徴点のパラメタ空間への「投票」と称される。また、ハフ変換においては、軌跡の交点を適宜、「ピーク」と称し、軌跡の交点を検出する工程は、「ピーク検出」と称される。
ハフ変換を用いた実際の画像の中でのオブジェクトの検出は、例えば、次のようにして行われる。例えば、図6に示されるようなCDジャケットの画像を認識させる場合を考える。
最初に図6に示されるような画像が入力され、画像の中のエッジが抽出される。この際、例えば、入力画像についてグレースケール化(RGB平均化、YUVのYの計算などでもよい)され、エッジ検出のためのフィルタ処理がなされる。例えば、図7に示されるような3×3のフィルタ処理が施され、グレースケール化された画像のエッジが抽出される。
図8は、図6に示される画像をグレースケール化し、図7のフィルタ処理を施して得られたエッジ画像である。図8に示されるように、図6の画像におけるエッジが図中に白く表示されており、エッジ以外の部分は黒く表示されている。
そして、エッジ画像の画素値が所定の閾値判定により2値化され、エッジが細線化される。図9は、図8のエッジ画像の画素値を2値化して得られた画像の例を示す図である。図10は、図9の画像のエッジを細線化して得られた画像の例を示す図である。
さらに、例えば、図10に示される画像の各画素を特徴点とし、パラメタ空間への投票が行われる。例えば、実画像空間の特徴点を(x,y)で表した場合、投票されて得られた軌跡は、式(7)により表される。
Figure 2013003686
・・・(7)
例えば、図10に示される画像をラスタスキャンして、全画素の座標位置のそれぞれを特徴点(x,y)とした式(7)の軌跡がパラメタ空間内に描かれる。なお、パラメタ空間内に描かれる軌跡に係る値(例えば、画素値)には、特徴点の画素の値が用いられる。このようにすることで、パラメタ空間内において、実画像空間のエッジの画素に対応する軌跡が重なり合って明るく表示される部分が出現する。この部分がピークとなる。
図11は、図10に示される画像から得られたパラメタ空間における軌跡の例を示す図である。なお、同図の横軸はθの値を表し、縦軸はρの値を表している。同図に示されるように、実画像空間のエッジの画素に対応する軌跡が重なり合って明るく表示されており、これによりピーク検出することができる。なお、図11の例では、図10に示される画像から得られたパラメタ空間における軌跡が画像として表示されているが、実際にはハフ変換によって、この画像における軌跡を特定するデータが得られることになる。
このようにして得られたピークに基づいて、画像の中に存在するエッジなどの直線が特定され、オブジェクトの形状を認識させることが可能となる。
なお、上述した例においては、エッジ画像を2値化、細線化してからパラメタ空間への投票が行われるようにしたが、エッジ画像の各画素がそのまま特徴点とされ、パラメタ空間への投票が行われるようにしてもよい。
このようにして、ハフ変換を用いた実際の画像の中でのオブジェクトの検出が行われる。
上述したように、ハフ変換を用いたオブジェクトの検出は、「投票による情報の統合」、「多数決の原理」に基づく検出手法といえるので、個々の情報に誤りや欠落が含まれていても、全体としては安定的な検出が可能となるという特徴を有している。
例えば、後述する学習装置に入力する画像(学習画像と称する)において認識対象オブジェクトの一部が他の物体の背後に隠れている場合でも、隠れていない部分の特徴点から、エッジを構成する直線の存在が検出されるようにすることができる。また、例えば、カメラの性能、画像の明暗、ノイズの大きさなどによって、エッジの抽出が多少異なるような場合でも、複数の特徴点に対応するパラメタ空間の軌跡が得られるので、安定的にピーク検出を行うことが可能となる。
本技術では、上述のようなハフ変換の特性を利用して、画像認識に係る技術について、画像の欠損、ノイズなどに対する耐性をさらに高めるようになされている。
図12は、本技術を適用した画像識別システムの一実施の形態の構成例を示すブロック図である。この画像識別システムは、学習装置211、識別器記録部212、および認識装置213からなり、入力された画像の中で認識対象オブジェクトの画像が存在する領域を認識させるものである。
学習装置211は、入力された学習画像に基づいて、認識装置213において画像上における認識対象オブジェクトの有無を識別する処理を行うときに用いられる、識別用特徴量および統合識別器を生成し、識別器記録部212に記録させる。認識装置213は、識別器記録部212に記録されている識別用特徴および統合識別器を用いて、入力された入力画像に認識対象物体の画像が存在するか否かを識別し、その識別結果を出力する。
学習装置211は、ハフ変換部220、特徴点抽出部221、特徴量計算部222、識別器生成部223および統合識別器生成部227から構成される。
ハフ変換部220は、上述したように、ハフ変換を行って、学習画像に対応するパラメタ空間内の軌跡を得る。すなわち、学習画像のエッジが抽出されて得られたエッジ画像に基づいて、各特徴点のパラメタ空間への投票が行われる。投票の結果、得られたパラメタ空間内の軌跡の画像が特徴点抽出部221に供給される。なお、ここでいうパラメタ空間内の軌跡の画像は、実際には、画像ではなく、座標位置毎の数値を表すデータ等として取り扱われることになる。従って、図12に示される画像識別システムにおいて処理される軌跡の画像は、例えば、その画像に対応するデータ(軌跡に係るデータ)を意味するものとされる。
特徴点抽出部221は、ハフ変換部220から供給されたパラメタ空間内の軌跡に係るデータから、その画像の画素のいくつかを識別器を生成するときに用いられる特徴点として抽出し、抽出した特徴点と学習画像とを特徴量計算部222に供給する。ここで、識別器とは、統計学習により生成された、複数の弱識別器からなる強い識別器とされる。
なお、学習画像は、認識対象オブジェクトが含まれているものと含まれていないものが多数入力されるものとし、各学習画像に認識対象オブジェクトが含まれているか否かを示す正誤情報が付与されているものとする。
特徴量計算部222は、特徴点抽出部221から供給された各特徴点について、特徴量を計算し、求められた特徴量と学習画像とを識別器生成部223に供給する。例えば、特徴点として画像の中の所定の位置の画素が抽出された場合、当該画素の輝度値を表す数値などが特徴量とされる。
識別器生成部223は、特徴量計算部222から供給された軌跡に係るデータおよび特徴量に基づいて、例えばAdaBoostによる統計学習処理を行い、認識対象オブジェクトを認識する識別器を生成する。また、識別器生成部223は、生成した識別器を統合識別器生成部227に供給する。
統合識別器生成部227は、識別器生成部223からの識別器を統合して統合識別器を生成し、生成した統合識別器を識別器記録部212に供給して記録させる。また、統合識別器生成部227は、統合識別器を用いて認識対象オブジェクトの認識を行うときに用いられる特徴点の特徴量を、識別用特徴量として識別器記録部212に供給し、記録させる。
なお、図12の識別器生成部223の詳細な構成は、図2を参照して上述した構成と同様のものなので、ここでは詳細な説明を省略する。
また、認識装置213は、特徴点抽出部231、特徴量計算部232、識別計算部235、および識別結果出力部236から構成される。なお、認識装置213のハフ変換部230、特徴点抽出部231、および特徴量計算部232のそれぞれは、認識対象オブジェクトを認識しようとする入力画像に対して、学習装置11のハフ変換部230、特徴点抽出部221と特徴量計算部222のそれぞれと同様の処理を行うものであるので、その説明は省略する。
識別計算部235は、識別器記録部212に記録されている識別用特徴量および統合識別器を読み出す。また、識別計算部235は、特徴量計算部232からの特徴量のうちの識別用特徴量に対応するものを、読み出した統合識別器に代入して演算を行う。識別結果出力部236は、識別計算部235における演算結果を取得し、その演算結果に基づいて、認識対象オブジェクトが入力画像で認識されたか否かの識別結果を出力する。
次に、図13のフローチャートを参照して、図12の学習装置211による学習処理の例について説明する。
ステップS21において、ハフ変換部220は、学習画像のエッジ画像を取得する。
ステップS22において、ハフ変換部220は、ステップS21の処理で取得されたエッジ画像に基づいて、パラメタ空間に投票すべき特徴点を抽出する。なお、パラメタ空間に投票すべき特徴点として、エッジ画像の全画素が抽出されるようにしてもよい。
ステップS23において、ハフ変換部220は、ステップS22の処理で抽出された各特徴点をパラメタ空間に投票し、投票の結果、得られたパラメタ空間内の軌跡に係るデータを取得する。
ステップS24において、特徴点抽出部221は、ステップS23の処理で取得された画像から、その画像の画素のいくつかを識別器を生成するときに用いられる特徴点として抽出する。なお、ステップS23の処理で取得された画像の全画素が特徴点として抽出されるようにしてもよい。
ステップS25において、特徴量計算部222は、特徴点抽出部221から供給された各特徴点について、特徴量を計算する。このとき、例えば、画素の輝度値を表す数値などが特徴量として計算される。
ステップS26において、識別器生成部223は、特徴量計算部222から供給された軌跡に係るデータおよび特徴量に基づいて、例えばAdaBoostによる統計学習処理を行い、認識対象オブジェクトを認識する識別器を生成する。
このとき、例えば、図2を参照して上述したように、識別器生成部223の内部で次のような処理が実行される。
すなわち、サンプリング部101が、例えば、重み設定部102により設定される学習画像単位の重みに応じて、複数の軌跡画像のそれぞれの同じ位置の特徴点の特徴量をサンプリングする。そして、並び替え部103が、例えば、サンプリングされた特徴量を昇べきの順、または降べきの順に並び替える。さらに、識別器設定部104が、正誤情報に基づいて、並び替えられた特徴量のそれぞれについて、閾値を変化させながら誤り率計算部104aを制御して、誤り率を計算させる。そして、識別器設定部104は、誤り率が最小となるように閾値を設定する(この閾値が、弱識別器として設定される)。さらに、識別器選択部105が、弱識別器のうち、誤り率が最小となる弱識別器を選択して、弱識別器からなる識別器を更新し、最終的な識別器および識別器に対応する特徴量を統合識別器生成部27に供給するなどの処理が実行される。
ステップS27において、統合識別器生成部227は、ステップS26の処理で生成された識別器を統合して統合識別器を生成する。このとき、生成された統合識別器は識別器記録部212に供給されて記録される。また、統合識別器を用いて認識対象オブジェクトの認識を行うときに用いられる特徴点の特徴量も、識別用特徴量として識別器記録部212に供給されて記録される。
このようにして学習処理が実行される。
次に、図14のフローチャートを参照して、図12の認識装置213によるオブジェクト検出処理の例について説明する。
ステップS41において、ハフ変換部230は、入力画像のエッジ画像を取得する。
ステップS42において、ハフ変換部220は、ステップS41の処理で取得されたエッジ画像に基づいて、パラメタ空間に投票すべき特徴点を抽出する。なお、パラメタ空間に投票すべき特徴点として、エッジ画像の全画素が抽出されるようにしてもよい。
ステップS43において、ハフ変換部220は、ステップS42の処理で抽出された各特徴点をパラメタ空間に投票し、投票の結果、得られたパラメタ空間内の軌跡に係るデータを取得する。
ステップS44において、特徴点抽出部221は、ステップS43の処理で取得された画像の画素を特徴点として抽出する。ここでは、図13のステップS24の処理で抽出された特徴点に対応する特徴点が抽出される。
ステップS45において、特徴量計算部222は、特徴点抽出部221から供給された各特徴点について、特徴量を計算する。このとき、例えば、画素の輝度値を表す数値などが特徴量として計算される。
ステップS46において、識別計算部235は、識別器記録部12から識別用特徴量および統合識別器を読み出して、読み出した統合識別器に特徴量を代入して計算する。
ここで、統合識別器を構成する弱識別器に代入される特徴量は、識別用特徴量とされた特徴量が求められた、学習画像の特徴点と同じ位置にある、入力画像上の特徴から求められた特徴量である。また、識別用特徴量とされる特徴量は、学習処理時において、統合識別器を構成する弱識別器の設定に用いられた特徴量である。
ステップS46の計算の結果として、入力画像中に認識対象オブジェクトが存在することを示す「+1」、または入力画像中に認識対象オブジェクトが存在しないことを示す「−1」が得られる。識別計算部235は、統合識別器での演算結果を識別結果出力部236に供給する。
ステップS47において、識別結果出力部236は、認識対象オブジェクトの検出結果を出力する。すなわち、認識対象オブジェクトが入力画像において認識されたか否かの識別結果が出力される。
このようにして、オブジェクト検出処理が実行される。
ところで以上においては、ハフ変換を用いて画像の中の直線を検出する場合の例について説明したが、例えば、ハフ変換を用いて画像の中の円を検出することもできる。
いま、画像の中の複数の特徴点によって円が形成されているものとする。この画像中の円を式(8)により表現する。なお、式(8)は、画像の中の画素位置が(u,v)座標により表されているものとし、変数a、b、rは円の大きさと位置を定めるパラメタとされる。
Figure 2013003686
・・・(8)
式(8)において、特徴点の座標(ui,vi) (i=1, 2, ...,n)が与えられたとき、式(8)の円のパラメタを軸として構成される3次元の空間(abr空間)において、式(9)により表される軌跡が描かれる。
Figure 2013003686
・・・(9)
例えば、図15の左側に示されるように、画像の中に座標(u1,v1)で表される特徴点が存在したとする。この場合、円のパラメタを軸として構成されるabr空間において、図15の右側に示されるような、円錐状の軌跡が描かれる。実画像空間(uv空間)の複数の特徴点についてパラメタ空間(abr空間)への投票を行って得られた軌跡の交点(A,B,R)を検出することで、画像の中の式(10)で表される円の存在が検出される。
Figure 2013003686
・・・(10)
このようにハフ変換によって円が検出されるようにすることも可能である。
さらに、何らかの数式により表現される図形であれば、上述した場合と同様にハフ変換を用いて検出することが可能となる。
なお、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば図16に示されるような汎用のパーソナルコンピュータ700などに、ネットワークや記録媒体からインストールされる。
図16において、CPU(Central Processing Unit)701は、ROM(Read Only Memory)702に記憶されているプログラム、または記憶部708からRAM(Random Access Memory)703にロードされたプログラムに従って各種の処理を実行する。RAM703にはまた、CPU701が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU701、ROM702、およびRAM703は、バス704を介して相互に接続されている。このバス704にはまた、入出力インタフェース705も接続されている。
入出力インタフェース705には、キーボード、マウスなどよりなる入力部706、LCD(Liquid Crystal display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部707、ハードディスクなどより構成される記憶部708、モデム、LANカードなどのネットワークインタフェースカードなどより構成される通信部709が接続されている。通信部709は、インターネットを含むネットワークを介しての通信処理を行う。
入出力インタフェース705にはまた、必要に応じてドライブ710が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア711が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部708にインストールされる。
上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、インターネットなどのネットワークや、リムーバブルメディア711などからなる記録媒体からインストールされる。
なお、この記録媒体は、図16に示される、装置本体とは別に、ユーザにプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フロッピディスク(登録商標)を含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)(登録商標)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア711により構成されるものだけでなく、装置本体に予め組み込まれた状態でユーザに配信される、プログラムが記録されているROM702や、記憶部708に含まれるハードディスクなどで構成されるものも含む。
なお、本明細書において上述した一連の処理は、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
なお、本技術は以下のような構成も取ることができる。
(1) 入力画像に対してハフ変換を施すハフ変換部と、
認識対象オブジェクトが含まれている学習画像に前記ハフ変換を施して得られたデータと、前記認識対象オブジェクトが含まれていない学習画像に前記ハフ変換を施して得られたデータとから求められた複数の特徴量を用いた統計学習により生成された識別器を用い、前記特徴量に基づいて、前記入力画像から前記認識対象オブジェクトを検出する検出部と
を備える認識装置。
(2) 前記ハフ変換部は、
前記入力画像に含まれる所定の図形を特定するための軌跡に係るデータであって、前記特徴点に対応する軌跡データを、ハフ変換を用いて取得し、
前記検出部は、
認識対象オブジェクトが含まれている学習画像に基づいて得られた前記軌跡データと、前記認識対象オブジェクトが含まれていない学習画像に基づいて得られた前記軌跡データとから求められた複数の特徴量を用いた統計学習により生成された識別器を用い、前記特徴量に基づいて、前記入力画像から前記認識対象オブジェクトを検出する
(1)に記載の認識装置。
(3) 前記入力画像から得られる所定の特徴点を抽出する特徴点抽出部をさらに備え、
前記特徴点抽出部は、
前記入力画像に所定のフィルタ処理を施すことで得られたエッジ画像から前記特徴点を抽出し、
前記ハフ変換を施して得られたデータは、前記エッジ画像に含まれる所定の図形を特定するための軌跡に係るデータとされる
(1)または(2)のいずれかに記載の認識装置。
(4) 前記入力画像から得られる所定の特徴点を抽出する特徴点抽出部をさらに備え、
前記特徴点抽出部は、
前記入力画像に所定のフィルタ処理を施すことで得られたエッジ画像の画素値が所定の閾値判定により2値化され、さらに前記エッジが細線化された画像から前記特徴点を抽出する
(1)または(2)のいずれかに記載の認識装置。
(5) 前記ハフ変換部は、
前記入力画像に含まれる所定の図形を特定するための軌跡に係るデータであって、前記特徴点に対応する軌跡データを、ハフ変換を用いて取得し、
前記軌跡データは、
所定の図形を表す数式のパラメタのそれぞれを軸として構成されるパラメタ空間に、前記特徴点を投票して得られた軌跡に係るデータとされる
(1)乃至(4)のいずれかに記載の認識装置。
(6) 前記ハフ変換部は、
前記入力画像に含まれる所定の図形を特定するための軌跡に係るデータであって、前記特徴点に対応する軌跡データを、ハフ変換を用いて取得し、
所定の図形を極座標に係る関数によって特定し、前記特徴点に対応する軌跡データを、ハフ変換を用いて取得する
(1)乃至(4)のいずれかに記載の認識装置。
(7) ハフ変換部が、前記入力画像にハフ変換を施し、
検出部が、認識対象オブジェクトが含まれている学習画像に前記ハフ変換を施して得られたデータと、前記認識対象オブジェクトが含まれていない学習画像に前記ハフ変換を施して得られたデータとから求められた複数の特徴量を用いた統計学習により生成された識別器を用い、前記特徴量に基づいて、前記入力画像から前記認識対象オブジェクトを検出するステップ
を含む認識方法。
(8) コンピュータを、
入力画像に対してハフ変換を施すハフ変換部と、
認識対象オブジェクトが含まれている学習画像に前記ハフ変換を施して得られたデータと、前記認識対象オブジェクトが含まれていない学習画像に前記ハフ変換を施して得られたデータとから求められた複数の特徴量を用いた統計学習により生成された識別器を用い、前記特徴量に基づいて、前記入力画像から前記認識対象オブジェクトを検出する検出部とを備える認識装置として機能させる
プログラム。
(9) (8)に記載のプログラムが記録されている記録媒体。
211 学習装置, 212 識別器記録部, 213 認識装置, 220 ハフ変換部, 221 特徴点抽出部, 222 特徴量計算部, 223 識別器生成部, 227 統合識別器生成部, 230 ハフ変換部, 231 特徴点抽出部, 232 特徴量計算部, 235 識別計算部, 236 識別結果出力部

Claims (9)

  1. 入力画像に対してハフ変換を施すハフ変換部と、
    認識対象オブジェクトが含まれている学習画像に前記ハフ変換を施して得られたデータと、前記認識対象オブジェクトが含まれていない学習画像に前記ハフ変換を施して得られたデータとから求められた複数の特徴量を用いた統計学習により生成された識別器を用い、前記特徴量に基づいて、前記入力画像から前記認識対象オブジェクトを検出する検出部と
    を備える認識装置。
  2. 前記ハフ変換部は、
    前記入力画像に含まれる所定の図形を特定するための軌跡に係るデータであって、前記特徴点に対応する軌跡データを、ハフ変換を用いて取得し、
    前記検出部は、
    認識対象オブジェクトが含まれている学習画像に基づいて得られた前記軌跡データと、前記認識対象オブジェクトが含まれていない学習画像に基づいて得られた前記軌跡データとから求められた複数の特徴量を用いた統計学習により生成された識別器を用い、前記特徴量に基づいて、前記入力画像から前記認識対象オブジェクトを検出する
    請求項1に記載の認識装置。
  3. 前記入力画像から得られる所定の特徴点を抽出する特徴点抽出部をさらに備え、
    前記特徴点抽出部は、
    前記入力画像に所定のフィルタ処理を施すことで得られたエッジ画像から前記特徴点を抽出し、
    前記ハフ変換を施して得られたデータは、前記エッジ画像に含まれる所定の図形を特定するための軌跡に係るデータとされる
    請求項1に記載の認識装置。
  4. 前記入力画像から得られる所定の特徴点を抽出する特徴点抽出部をさらに備え、
    前記特徴点抽出部は、
    前記入力画像に所定のフィルタ処理を施すことで得られたエッジ画像の画素値が所定の閾値判定により2値化され、さらに前記エッジが細線化された画像から前記特徴点を抽出する
    請求項1に記載の認識装置。
  5. 前記ハフ変換部は、
    前記入力画像に含まれる所定の図形を特定するための軌跡に係るデータであって、前記特徴点に対応する軌跡データを、ハフ変換を用いて取得し、
    前記軌跡データは、
    所定の図形を表す数式のパラメタのそれぞれを軸として構成されるパラメタ空間に、前記特徴点を投票して得られた軌跡に係るデータとされる
    請求項1に記載の認識装置。
  6. 前記ハフ変換部は、
    前記入力画像に含まれる所定の図形を特定するための軌跡に係るデータであって、前記特徴点に対応する軌跡データを、ハフ変換を用いて取得し、
    所定の図形を極座標に係る関数によって特定し、前記特徴点に対応する軌跡データを、ハフ変換を用いて取得する
    請求項1に記載の認識装置。
  7. ハフ変換部が、前記入力画像にハフ変換を施し、
    検出部が、認識対象オブジェクトが含まれている学習画像に前記ハフ変換を施して得られたデータと、前記認識対象オブジェクトが含まれていない学習画像に前記ハフ変換を施して得られたデータとから求められた複数の特徴量を用いた統計学習により生成された識別器を用い、前記特徴量に基づいて、前記入力画像から前記認識対象オブジェクトを検出するステップ
    を含む認識方法。
  8. コンピュータを、
    入力画像に対してハフ変換を施すハフ変換部と、
    認識対象オブジェクトが含まれている学習画像に前記ハフ変換を施して得られたデータと、前記認識対象オブジェクトが含まれていない学習画像に前記ハフ変換を施して得られたデータとから求められた複数の特徴量を用いた統計学習により生成された識別器を用い、前記特徴量に基づいて、前記入力画像から前記認識対象オブジェクトを検出する検出部とを備える認識装置として機能させる
    プログラム。
  9. 請求項8に記載のプログラムが記録されている記録媒体。
JP2011131681A 2011-06-13 2011-06-13 認識装置および方法、プログラム、並びに記録媒体 Withdrawn JP2013003686A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011131681A JP2013003686A (ja) 2011-06-13 2011-06-13 認識装置および方法、プログラム、並びに記録媒体
US13/462,074 US9053383B2 (en) 2011-06-13 2012-05-02 Recognizing apparatus and method, program, and recording medium
CN2012101857713A CN102982307A (zh) 2011-06-13 2012-06-06 识别设备和方法、程序及记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011131681A JP2013003686A (ja) 2011-06-13 2011-06-13 認識装置および方法、プログラム、並びに記録媒体

Publications (1)

Publication Number Publication Date
JP2013003686A true JP2013003686A (ja) 2013-01-07

Family

ID=47293249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011131681A Withdrawn JP2013003686A (ja) 2011-06-13 2011-06-13 認識装置および方法、プログラム、並びに記録媒体

Country Status (3)

Country Link
US (1) US9053383B2 (ja)
JP (1) JP2013003686A (ja)
CN (1) CN102982307A (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6336391B2 (ja) * 2012-09-06 2018-06-06 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP6448325B2 (ja) * 2014-11-19 2019-01-09 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6617830B2 (ja) * 2016-04-28 2019-12-11 富士通株式会社 骨格推定装置、骨格推定方法および骨格推定プログラム
EP3693924B1 (en) * 2017-10-03 2023-08-02 Fujitsu Limited Posture recognition system, image correction program, and image correction method
JP2021096652A (ja) * 2019-12-17 2021-06-24 富士通株式会社 画像識別装置、方法、及びプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5638465A (en) * 1994-06-14 1997-06-10 Nippon Telegraph And Telephone Corporation Image inspection/recognition method, method of generating reference data for use therein, and apparatuses therefor
WO2007138898A1 (ja) * 2006-05-25 2007-12-06 Nec Corporation 認識システム、認識方法および認識プログラム
JP5041229B2 (ja) 2007-12-07 2012-10-03 ソニー株式会社 学習装置および方法、認識装置および方法、並びにプログラム
JP4720913B2 (ja) * 2009-02-19 2011-07-13 ソニー株式会社 学習装置、学習方法、識別装置、識別方法、及び、プログラム
CN101986348A (zh) * 2010-11-09 2011-03-16 上海电机学院 一种视觉目标识别与跟踪方法
KR101472615B1 (ko) * 2010-12-21 2014-12-16 삼성전기주식회사 차선이탈 경보 시스템 및 방법
CN102073850A (zh) * 2010-12-24 2011-05-25 北京理工大学 一种基于图像处理的类圆柱体计数统计方法

Also Published As

Publication number Publication date
US20120314939A1 (en) 2012-12-13
US9053383B2 (en) 2015-06-09
CN102982307A (zh) 2013-03-20

Similar Documents

Publication Publication Date Title
JP7490141B2 (ja) 画像検出方法、モデルトレーニング方法、画像検出装置、トレーニング装置、機器及びプログラム
JP4877374B2 (ja) 画像処理装置及びプログラム
JP6403233B2 (ja) ユーザー認証方法、これを実行する装置及びこれを保存した記録媒体
JP4720913B2 (ja) 学習装置、学習方法、識別装置、識別方法、及び、プログラム
JP5671928B2 (ja) 学習装置、学習方法、識別装置、識別方法、およびプログラム
EP3611690A1 (en) Recognition device, recognition method, and recognition program
US11403560B2 (en) Training apparatus, image recognition apparatus, training method, and program
CN102982305A (zh) 信息处理设备和处理信息的方法、存储介质以及程序
JP2013003686A (ja) 認識装置および方法、プログラム、並びに記録媒体
US11417129B2 (en) Object identification image device, method, and computer program product
US10937150B2 (en) Systems and methods of feature correspondence analysis
AG Development of portable automatic number plate recognition (ANPR) system on Raspberry Pi
JP2013191066A (ja) 照合装置、方法及びプログラム
JP5201184B2 (ja) 画像処理装置及びプログラム
JP2012048624A (ja) 学習装置、方法及びプログラム
JP2020017136A (ja) 物体検出認識装置、方法、及びプログラム
JP5337252B2 (ja) 特徴抽出装置
US20220383616A1 (en) Information processing apparatus and image processing method
Xu et al. Pedestrian detection based on motion compensation and HOG/SVM classifier
JP2015001859A (ja) 情報処理装置、情報処理システム及びプログラム
CN108133210B (zh) 一种图像格式识别方法及装置
CN103136524A (zh) 能够抑制检测结果冗余的对象检测***和方法
CN105760881A (zh) 基于Haar分类器方法的人脸建模检测方法
JP5800557B2 (ja) パターン認識装置、パターン認識方法及びプログラム
CN113139578B (zh) 一种基于最优训练集的深度学习图像分类方法及***

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140902