JP6664163B2 - 画像識別方法、画像識別装置及びプログラム - Google Patents

画像識別方法、画像識別装置及びプログラム Download PDF

Info

Publication number
JP6664163B2
JP6664163B2 JP2015155462A JP2015155462A JP6664163B2 JP 6664163 B2 JP6664163 B2 JP 6664163B2 JP 2015155462 A JP2015155462 A JP 2015155462A JP 2015155462 A JP2015155462 A JP 2015155462A JP 6664163 B2 JP6664163 B2 JP 6664163B2
Authority
JP
Japan
Prior art keywords
image
area
feature amount
identification target
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015155462A
Other languages
English (en)
Other versions
JP2017033469A (ja
Inventor
貴之 猿田
貴之 猿田
俊太 舘
俊太 舘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015155462A priority Critical patent/JP6664163B2/ja
Priority to US15/222,639 priority patent/US10438059B2/en
Publication of JP2017033469A publication Critical patent/JP2017033469A/ja
Application granted granted Critical
Publication of JP6664163B2 publication Critical patent/JP6664163B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、画像を予め定められたクラスごとの領域に分割するための技術に関する。
従来から、画像シーンの認識や被写体に応じた画質補正等の後段処理のために、画像を複数の小領域を分割し、被写体の分類に関するクラスを識別する処理が知られている。非特許文献1に記載の方法では、まず、色情報、テクスチャ情報に基づいて入力画像をSP(スーパーピクセル)と呼ばれる小領域に分割する。そして、分割した各小領域のクラスをRecursive−Neural−Networks(RNNs)と呼ばれる識別器を用いて識別する。
しかしながら、小領域の特徴量のみに基づいて識別を行うと信頼度が高い(識別スコア、識別尤度が高い)にも関わらず誤検出する場合がある。そこで、画像のグローバル特徴量を用いて類似画像を選択して、類似画像内の各領域のクラス情報に基づいて識別対象画像の各領域のクラスを推定する技術が知られている。非特許文献2には、識別対象画像のグローバル特徴量に基づいて類似画像を選択し、選択された類似画像を用いて識別対象画像の各小領域のクラスを決定することが開示されている。
R.Socher,"Parsing Natural Scenes and Natural Language with Recursive Neural Networks",International Conference on Machine Learning 2011. J.Tighe,"SuperParsin:Scalable Nonparametric Image Parsing with Superpixels",European Conference on Computer Vision 2010. P.Viola,"Rapid Object Detection using a Boosted Cascade of Simple Features",Computer Vision and Pattern Recognition 2001. P.Felzenswalb,"Object Detection with Dicriminatively Trained Part Based Models",IEEE Conference on Computer Vision and Pattern Analysis and Machine Intelligenve,2010. Y.Yang,"Articulated Human Detection with Flexible Mixtures of Parts",Computer Vision and Pattern Recognition 2011. S.Lazebnik,C.Schmid and J.Ponce,"Beyond Bags of Features,Spatial Pyramid Matching for Recognizing",Natural Scene Categories",CVPR2006. A.Oliva and A.Torralba,"Modeling the shape of the scene:a holistic representation of the spatial envelope",International Journal of Computer Vision,2001. L.Bourdev,"Detecting People Using Mutually Consistent Poselet Activations",European Conference on Computer Vision 2010.
しかし、非特許文献2の方法のように、画像のグローバル特徴量のみで類似画像を検索すると、識別対象の特定領域を精度よく抽出できない場合がある。例えば、浜辺のシーンに写っている黒人の肌領域を抽出する際、画像のグローバル特徴量のみで類似画像を検索すると、浜辺の画像が類似画像として選択される。このようなケースでは、黒人の画像を類似画像として選択する場合に比べて、識別対象(人体)の特定領域(肌領域)を精度よく抽出することができない。
上記課題を解決するために、本発明は、識別対象画像から識別対象の少なくとも1つのパーツを検出するステップと、前記検出されたパーツに基づいて問合せ領域を設定するステップと、前記設定された問合せ領域の特徴量を取得するステップと、前記取得された特徴量に基づいて前記識別対象画像に対応する少なくとも1つのインスタンス画像を選択するステップと、前記選択されたインスタンス画像に基づいて前記識別対象画像から前記識別対象の特定領域を特定するステップと、を有することを特徴とする。
以上の構成によれば、本発明は、識別対象画像から識別対象の特定領域を精度よく識別することが可能になる。
第1の実施形態に関わる画像認識システムの構成図。 第1の実施形態に関わる識別対象画像を説明する図。 第1の実施形態に関わる画像認識装置のハードウェア構成を示すブロック図。 各実施形態に関わる画像認識装置の機能構成を示すブロック図。 各実施形態に関わる画像認識処理の詳細を示すフローチャート。 第1の実施形態に関わるパーツ検出処理の詳細を示すフローチャート。 第1の実施形態において髪領域設定の処理を説明する図。 第1の実施形態においてパーツ検出処理の検出結果の例を示す図。 第1の実施形態において検出される識別対象領域の例を示す図。 第1の実施形態の領域設定部によって設定される問合せ領域の例を示す。 各実施形態に関わる学習装置の機能構成を示すブロック図。 各実施形態に関わる学習処理の詳細を示すフローチャート。 各実施形態に関わる画像認識装置の機能構成を示すブロック図。 第3の実施形態においてユーザが被写体領域を設定する様子を説明する図。 その他の実施形態において識別対象の特定領域の他の例を説明する図。
[第1の実施形態]
以下、図面を参照して本発明の実施形態を詳細に説明する。図1は、本実施形態に係る画像認識システムを示す構成図である。本実施形態の画像認識システムは、カメラ10と画像認識装置20とがネットワーク15を介して接続されている。なお、カメラ10と画像認識装置20とが一体に構成されていてもよい。カメラ10は、画像認識装置20による画像処理の対象となる識別対象画像を撮影する。図1では、シーン(撮影状況)30を、カメラ10が撮影する例を示している。同図では、被写体として木(tree)30a、自動車(car)30b、建物(building)30c、空(sky)30d、道(road)30e、人体(body)30f等が画角(撮影範囲)内に存在している。画像認識装置20は、カメラ10で撮像(撮影)されたシーン30における識別対象物の特定領域を抽出する。
本実施形態においては、識別対象物を人体とし、その肌領域を特定領域とする。識別対象物は人体に限定されるものではなく、また、特定領域も髪領域や服領域など、肌領域に限定されるものではない。なお、画像認識装置20はカメラ10により撮影された画像を識別対象画像として処理する例に限らず、例えば、カメラ以外の装置、媒体から入力される画像データや、画像認識装置20に予め保存された画像データを識別対象画像として処理するものであってもよい。
図2は、本実施形態における識別対象画像の一例を示す図である。本実施形態では、図2(a)に示されるように、カメラで撮影された識別対象画像100における人の肌領域を特定領域として抽出する。図2(b)は、本実施形態の画像認識方法によって抽出される肌領域101の例を示す。ここでいう肌領域とは、図2(b)に示されるように、露出している肌領域を示している。図中では、目や口といった器官領域も含めて肌領域としているが、含めなくてもよい。
図3は、本実施形態に関わる画像認識装置20のハードウェア構成を示す概略ブロック図である。CPU401は、画像認識装置20全体を制御する。CPU401がROM403やHD404等に格納されたプログラムを実行することにより、後述する画像認識装置20の機能構成及び画像認識装置20に係るフローチャートの処理が実現される。RAM402は、CPU401がプログラムを展開して実行するワークエリアとして機能する記憶領域である。ROM403は、CPU401が実行するプログラム等を格納する記憶領域である。HD404は、CPU401が処理を実行する際に要する各種のプログラム、閾値に関するデータ等を含む各種のデータを格納する記憶領域である。操作部405は、ユーザによる入力操作を受け付ける。表示部406は、画像認識装置20の情報を表示する。ネットワークI/F407は、画像認識装置20と外部の機器とを接続する。
図4は各実施形態に関わる画像認識装置20の機能構成を示す概略ブロック図であり、図4(a)が本実施形態における概略ブロック図である。なお、同図では図1で示したカメラ10に相当する撮影装置500も示している。撮影装置500は図1のカメラ10に相当し、識別対象画像を撮影する。本実施形態の画像認識装置20は、識別対象画像を識別する画像識別装置として機能し、取得部501、パーツ検出部502、領域設定部503、特徴量取得部504、類似インスタンス選択部505、特定領域抽出部506、学習用データ保持部507を有する。なお、学習用データ保持部507は、不揮発性の記憶装置として画像認識装置20と接続された構成としてもよい。以下、画像認識装置20が有するこれらの機能部の詳細について、図5のフローチャート等を用いて説明する。
図5は各実施形態に関わる画像認識装置20によって実行される画像認識処理の流れを示すフローチャートであり、図5(a)が本実施形態におけるフローチャートである。同図において、まず取得工程S110では、取得部501が、図1で示したようなシーン30を撮影装置500が撮影した画像を、識別対象画像100として取得する。なお、識別対象画像100は、図示しない外部装置に格納されている画像であってもよい。その場合、取得部501は外部装置から読み出された画像を識別対象画像100として取得する。外部装置に格納されている画像は、例えば撮影装置500等で予め撮影された画像であってもよいし、ネットワーク等を経由するなどの他の方法で取得されてから格納された画像であってもよい。また、取得部501は、識別対象画像の他に、シーン情報や撮影情報を取得する場合もあるが、それについては後述する。
次に、パーツ検出工程S120では、パーツ検出部502が、取得部501により取得された識別対象画像100に対してパーツ検出を行う。ここで、図6を用いて、パーツ検出工程S120においてパーツ検出部502によって実行されるパーツ検出処理の詳細について説明する。ここでは、識別対象を人体としてパーツ検出処理を行う例について説明する。
図6において、工程S1201では、識別対象画像100に対して顔検出を行う。顔検出は、例えば非特許文献3に記載されているHaar−like特徴を用いた顔検出器を用いればよい。以降の工程では、ここで検出した各顔検出領域に対して処理が行われる。次に、工程S1202では、識別画像内の人物の数を数える。例えば、工程S1201において顔検出された領域のうち信頼度(スコア)が所定の閾値を超えるような、信頼度の高い検出領域の数を数えればよい。
工程S1203では、工程S1201で検出された各顔検出領域700に対して髪領域701を設定する。図7は、本工程における髪領域設定の処理を説明する図である。ここでは、図7に示すように識別対象画像100において顔検出領域700が検出されている場合、周囲の領域を髪領域701として設定する。また別の方法として、髪領域701は顔検出時に推定された顔サイズに対して予め設定された所定サイズで設定してもよいし、顔位置の周りで高周波数領域を抽出することで設定してもよい。ここで髪領域701は過不足なくすべての髪の領域を含むように設定する必要はなく、髪の一部を領域内に捉えていればよい。ここで設定された髪領域は、後述する問合せ領域設定工程で利用される。なお、本工程で設定する領域として髪領域を例に説明したが、人物領域における非肌領域を含む領域であればよい。例えば、服領域や器官検出を行って器官領域を検出してもよい。
工程S1204では、工程S1201で検出された各顔検出領域のサイズが画像縦サイズに対して所定の割合以上であるかをチェックする。ここで、検出された顔検出領域のサイズが小さい場合、処理を工程S1205に進め、その上半身検出を行う。
工程S1205では、上半身検出を行う。上半身検出には非特許文献4にあるようなDeformablePartModelsを利用してもよいし、上半身だけの学習画像を集め、HOGのテンプレートなどを予め学習しておき、それを用いて検出してもよい。もしくは、後述するパーツ検出器の上半身パーツのみを検出する検出器を利用してもよい。また、ここでは上半身を検出する例を示しているが、例えば頭部検出など別領域の検出でもよい。頭部とは頭から肩にかけたオメガシェイプを示しており、HOGのテンプレートなどで検出すればよい。
工程S1206では、上半身検出結果に基づいてパーツ検出(姿勢推定)を行うかどうかを判定する。具体的には、上半身検出サイズが画像縦サイズ×βに対して小さい場合、処理を工程S1207に進め、パーツ検出(姿勢推定)を行う。βは実数値であり、予め定めておく。
工程S1207のパーツ検出(姿勢推定)では、人体の上腕や下肢などのパーツごとに検出を行い、そのパーツの位置を推定することで姿勢を推定する方法を利用する。その具体的な方法は、例えば、非特許文献5に開示されているような姿勢推定技術を用いればよい。
図8は、パーツ検出部502によって実行されるパーツ検出処理の検出結果の例を示す図であり、図8(a)は識別対象画像100を示している。また、図8(b)〜(d)は、識別対象画像100に対して、顔検出結果(顔検出領域700)、上半身検出結果(上半身領域702)およびパーツ検出結果(各パーツ領域703)を示している。
工程S1208では、顔検出結果、髪領域検出結果、上半身検出結果およびパーツ検出結果のうち、少なくとも1つ以上を用いて識別対象の領域を検出する。図9は、工程S1208の処理によって検出される識別対象領域の例を示している。工程S1208では、図9(a)〜(c)それぞれに示すように、顔のアップ写真、バストアップ写真、全身写真それぞれに対応した領域を識別対象領域704として切り出す。ここで切り出す領域は、必ずしも人物領域の輪郭に沿って検出する必要はない。図5の次工程であるS130において、問合せ領域を設定するための人体領域を設定できればよい。
なお、上述したパーツ検出工程S120の詳細フローでは、各人体検出モジュールをシーケンスに動作させたが、並列に動作させて統合してもよいし、一つの人体検出モジュールのみを利用してもよい。また、それぞれのモジュールの切替えを検出サイズによって行っているが、各検出結果の信頼度に基づいて切替えを行ってもよい。
図5の説明に戻ると、問合せ領域設定工程S130では、領域設定部503が、パーツ検出工程S120において検出された結果に基づいて問合せ領域を設定する。本実施形態において、領域設定部503は、パーツ検出工程S120において設定された識別対象領域に対して、識別対象の存在範囲内に問合せ領域を設定する。具体的には、識別対象領域をそのまま問合せ領域として設定してもよいし、各人体検出モジュールの検出領域もしくはその組み合わせを問合せ領域として設定してもよい。図10には、領域設定部503によって設定される問合せ領域の例を示す。領域設定部503は、例えば、図10(a)のように顔領域およびパーツ領域の組み合わせで問合せ領域705に設定する。もしくは、図10(b)のようにパーツ領域を2つ以上選択することで問合せ領域705を設定する、または、図10(c)のように識別対象領域704に対してランダムに部分領域もしくはその組み合わせを設定する。なお、ここではすべて矩形領域で問合せ領域を設定する例を示したが、それに限定するものではない。例えば、新たにスーパーピクセルなどの小領域を取得して、その小領域もしくはその組み合わせで設定してもよい。
次に、特徴量取得工程S140では、特徴量取得部504が、問合せ領域設定工程S130において設定された問合せ領域から特徴量を取得する。特徴量の例としては、各問合せ領域内の色特徴やテクスチャ特徴の統計量を用いればよい。問合せ領域が複数領域による組み合わせの場合には、各領域の統計量をそれぞれ取得してもよいし、まとめて統計量を取得してもよい。ここでは、例えば、
・RGB、HSV、Lab、YCbCr色空間の各成分
・Gabor filter、LoGのフィルタ応答
を用いるものとする。この場合、色特徴は4(色空間)×3(成分)の12次元となり、フィルタ応答に関しては、Gaborfilter、LoGフィルタの数に対応した次元数となる。領域ごとに特徴づけを行うため、各領域の内の画素ごとに得られる特徴量から統計量を求めるものとし、用いる統計量は、平均、標準偏差、歪度、尖度の4つを用いるとする。歪度は分布の非対称性の度合いを示し、尖度は分布が平均の近くに密集している度合いを示す統計量である。よって、色特徴は4(色空間)×3(成分)×4(統計量)の48次元となり、テクスチャ特徴の次元数は(フィルタ応答数)×4(統計量)となる。また、この他に問合せ領域の重心座標や小領域の面積なども特徴量としてもよい。問合せ領域を組み合わせで設定した場合には、両方の重心座標を保持してもよいし、片方の問合せ領域を顔領域などの特徴的な位置に固定し、もう一方の問合せ領域との重心座標の差(オフセット)を保持しておいてもよい。
次に、類似インスタンス選択工程S150では、類似インスタンス選択部505が、識別対象画像の各問合せ領域から得られた特徴量に基づいて類似インスタンス画像を選択する。まず、問合せ領域設定工程S130において設定された問合せ領域の特徴量に基づいて、類似インスタンス画像を選択する方法について説明する。本実施形態において、識別対象画像における識別対象領域に対して問合せ領域がN個セットされたとする。識別対象画像をIとおいて、各問合せ領域をS(n=1,2,・・・N)とおけば、識別対象画像における識別対象領域の問合せ領域の集合Sは数1式のように表わされる。
S={S,S,・・・,S} (数1)
なお、識別対象領域をそのまま問合せ領域として設定した場合には、N=1であると考えればよい。また、それぞれの問合せ領域が顔領域、髪領域、上半身領域、被写体領域のように各検出モジュールに対応して設定された問合せ領域でもよい。各問合せ領域から得られる特徴量f(S)は、問合せ領域を例えばペアとした場合、各問合せ領域をSn1、Sn2とおくと、下記の数2式または数3式で表わされる。
f(Sn1)+f(Sn2) (数2)
f(Sn1+Sn2) (数3)
次に、識別対象画像について、各学習画像との類似度を算出する。以下は簡単のため、ペアではなく、識別対象領域をそのまま問合せ領域として設定された場合を例にして説明する。各学習画像との類似度は、学習画像の各問合せ領域と識別対象画像の各問合せ領域との特徴量の類似度に基づいて決定される。なお、学習画像の各問合せ領域の特徴量は、後述する学習処理によって予め求められ、学習用データ保持部507に保存されている。
ここで、各学習画像の各問合せ領域をSlm(l=1、2、・・・、L、m=1、2、・・・、M)とする。lは各学習画像の表すインデックスであり、mは各学習画像に設定される問合せ領域のインデックスを表している。ここでは、各学習画像に対して設定される問合せ領域の数をMとし、全学習画像に対して同数であるとしているが、学習画像ごとに異なってもよい。類似インスタンス画像は、識別対象画像の各問合せ領域に対して類似度が最大の学習画像の問合せ領域を選択してもよいし、識別対象画像の複数の問合せ領域との類似度の和(平均)が最も高い学習画像を選択してもよい。前者の場合、選択される学習画像の問合せ領域は数4式で表わされ、ここで
Figure 0006664163

は類似度が最大の学習画像の問合せ領域を示している。また、後者の場合、選択される学習画像は数5式により表わされ、この数5式により、識別対象画像と類似度の高い学習画像を選択することができる。なお、数4式、数5式では類似インスタンス画像を1枚選択する例について述べたが、複数枚選択してもよい。
Figure 0006664163
Figure 0006664163

次に、特定領域抽出工程S160では、特定領域抽出部506が、類似インスタンス選択工程S150において選択された類似インスタンス画像、およびその教師データに基づいて、識別対象画像内の特定領域を抽出する。この特定領域の抽出の方法に関し、本実施形態では、2つの方法について説明する。なお、教師データとは、画像中のどの画素が特定領域であるかを示すデータである。また、識別を行う対象は識別対象画像内の識別対象領域の各画素もしくは各領域でもよいし、識別対象画像中のすべての画素もしくは領域に対して行ってもよい。
1つ目の方法では、得られた類似インスタンス画像中の特定領域から、特定領域がもつ分布を推定し、モデル(検出器)を生成して、そのモデル(検出器)により識別対象画像中の特定領域を抽出する。例えば、類似インスタンス画像内の特定領域の色分布に対してガウス分布をフィッティングして、その特定領域がもつ分布を推定すればよい。具体的には、類似インスタンス画像の特定領域の各画素のRGB値を取得して、そのRGB値についてガウス分布の平均および標準偏差を最尤推定によって推定すればよい。ここでは各画素のRGB値を用いたが、画素ではなく小領域ごとに推定してもよいし、他の色空間の値、前述の特徴量取得工程S140で説明したようなテクスチャ特徴も合わせて高次元空間でガウス分布を推定してもよい。また、以上のように各画素や小領域ごとのRGB値や特徴量を取得してもよいが、周辺の画素や小領域のRGB値や特徴量との差分値をベクトル化して、分布を推定してもよい。もしくは、複数のガウス分布で構成されるGaussianMixtureModel(以下、GMM)を推定してもよい。GMMによる確率密度関数は、下記の数6式のように表わされる。
Figure 0006664163

ただし、
Figure 0006664163

は下記の数7式を満たす。また、数6式におけるθは数8式である。また、N(・;μ、Σ)は平均ベクトルμ、共分散行列Σを持つ多次元正規分布であり、数9式のように表わされる。
Figure 0006664163

θ={α,μ,Σ│j=1,2,・・・,GMMnum} (数8)
ある。
Figure 0006664163

ただし、数6式〜数9式におけるjは各ガウスカーネルを表すインデックスであり、GMMnumはガウスカーネルの数、αjはガウスカーネルjの混合比、μjはガウスカーネルjの平均値、Σjはガウスカーネルjの共分散行列を表している。
ここで、確率密度関数の推定はEM法で行えばよい。各Eステップ、Mステップで行う処理を以下に示す。
Eステップ:
Figure 0006664163

Mステップ:
Figure 0006664163
Figure 0006664163
Figure 0006664163

ただし、数10式〜数13式のwは事前分布であり、下記の数14式のように表わされる。
Figure 0006664163

ここで、tはEMステップの各イタレーションを示しており、
Figure 0006664163

に適当な初期値を与え、所定回数だけEステップとMステップを繰り返せばよい。もしくは、前回の結果に対して閾値以下しか変化しない場合に収束したとして処理を終了すればよい。また、nは観測データのインデックスを表しており、本実施形態においては類似インスタンス画像の特定領域の各画素を表している。そして、最終的に得られた確率密度関数に基づいて、識別対象画像の識別対象領域の各画素が特定領域であるかどうかの尤度を求める。特定領域抽出部506は、求めた尤度を出力してもよいし、尤度が所定の閾値以上の領域を特定領域として抽出し、出力してもよい。
2つ目の方法では、得られた確率密度関数に従って、識別対象画像の各画素(または領域)が特定領域(肌領域)であるかどうかの確率を算出する。もしくはベイズの定理に基づいて、下記の数15式より確率を算出する。
Figure 0006664163

ただし、P(C|v)は特定領域(肌領域)である確率を表している。vは識別対象画像の各画素もしくは各領域の値を表しており、具体的には、各画素もしくは各領域のRGB値や特徴量でよい。P(v|C)は選択した類似インスタンス画像の特定領域である画素もしくは領域がvである確率(頻度)を、P(v|CNS)は非特定領域である画素もしくは領域がvである確率(頻度)を表している。また、P(C)、P(CNS)は事前確率で0.5でもよいし、類似インスタンス画像の特定領域、非特定領域の出現確率を用いてもよい。特定領域抽出に際して、オフライン時に学習した識別器を用いる例については、第2の実施形態で説明する。最終的な特定領域は、確率値(0〜1の実数値)で出力してもよいし、予め決められた閾値以上の領域を特定領域として特定してもよい。
次に、オフライン時の学習処理について説明する。図11は各実施形態に関わる学習装置300の機能構成を示す概略ブロック図であり、図11(a)が本実施形態における概略ブロック図である。学習装置300は、パーツ検出部301、領域設定部302、特徴量取得部303、学習用データ保持部507を有している。なお、学習用データ保持部507は、不揮発性の記憶装置として学習装置300と接続された構成としてもよい。また、学習装置300は、図4(a)で説明した画像認識装置20と同一の装置として構成されていてもよい。また、その際、パーツ検出部301、領域設定部302、特徴量取得部303は、画像認識装置20におけるパーツ検出部502、領域設定部503、特徴量取得部504と共用であってもよい。また、学習用データ保持部507は、オフライン時とオンライン時で共有する。
次に、図12のフローチャートを用いて、学習装置300が有する各機能部の詳細について説明する。図12は各実施形態に関わる学習装置300による学習処理を示すフローチャートであり、図12(a)が本実施形態におけるフローチャートである。まず、パーツ検出工程T110では、パーツ検出部301が、学習用データ保持部507に保持されている学習用データに対してパーツ検出を行う。学習用データには、学習画像と、教師データとして各学習画像の特定領域およびその特徴量とが含まれる。このパーツ検出工程T110の処理は図5(a)で説明した認識時のパーツ検出工程S120と同様の処理であり、その際に用いるパーツ検出器は認識時のパーツ検出工程S120と同様のものでよい。本工程T110において検出された各学習用データに対するパーツ検出結果は、領域設定部302に送信される。
次に、問合せ領域設定工程T120では、問合せ領域設定部302が、パーツ検出工程T110においてパーツ検出された学習用データに対して問合せ領域を設定する。この問合せ領域の設定方法も、認識時の問合せ領域設定工程S130と同様でよい。各学習用データに設定された問合せ領域は、特徴量取得部303に送信される。
次に、特徴量取得工程T130では、特徴量取得部303が問合せ領域設定工程T120において設定された各学習用データの問合せ領域の特徴量を取得する。用いる特徴量についても、認識時の特徴量取得工程T140と同様でよい。取得された特徴量は、学習用データ保持部507に送信される。そして、取得された特徴量は、認識時の類似インスタンス選択工程T150において類似インスタンス選択時に利用される。
以上、本実施形態では、画像認識装置20は識別対象画像に対してパーツ検出を行い、識別対象領域を抽出する。抽出された識別対象領域に対して問合せ領域を設定して、その問合せ領域の特徴量に基づいて学習用データから類似インスタンス画像を選択する。そして、選択された類似インスタンス画像に基づいてモデル(検出器)を生成して、識別対象画像の特定領域を抽出する。学習用データ内の類似インスタンス画像を用いることにより、識別対象画像の特定領域を精度よく検出できるようになる。
(変形例)
第1の実施形態においては、問合せ領域に関する画像特徴量について述べたが、それだけに限定するものではない。例えば、問合せ領域が含まれる識別対象画像のシーン情報や撮影情報を問合せ領域の特徴量として追加取得してもよい。シーン情報は、非特許文献6に記載されているようなSpatial Pyramid Matching Kernelや、非特許文献7に記載されているようなGIST特徴量を利用すればよい。また、シーン情報は、識別対象画像をブロック状に分割して各ブロックの色分布をヒストグラム化した特徴量などでもよい。その他にも、シーン情報は、画像全体を表す特徴量や、画像の各部分から得られる特徴量を統計量として集計したものであれば種々のものを利用することが可能である。
また、撮影情報とは、カメラ10で撮影した際に取得される画像以外の情報のことであり、画像を出力するまでにカメラ10で取得される全ての情報が含まれる。例えば、撮影情報には、フォーカスを合わせる際等に取得される距離情報や、シャッタースピード情報、撮影の際のカメラパラメータを決定するための色温度及び測光値に関する情報、それらにより決定されたカメラパラメータ等の情報がある。その他にも、撮影情報は、撮影日時情報、GPS情報、カメラ内の姿勢センサーによる天地判定に関する情報等でもよい。
なお、上述したシーン情報は、画像全体から得られる情報であるため、識別対象画像に対して1つ得られるものである。そのため、問合せ領域の特徴量として利用する場合には、問合せ領域から得られる特徴量にシーン情報を組み合わせて利用すればよい。シーン情報や撮影情報を問合せ領域の特徴量として追加で設定することで、同じ撮影条件で撮影した画像を類似インスタンス画像として取得することが可能になり、特定領域の検出精度が向上する。
[第2の実施形態]
本発明の第2の実施形態は、オンライン時に特定領域抽出用のモデルを生成するのではなく、オフライン時に複数のモデル(識別器)を生成しておくものである。そして、認識時には複数のモデル(識別器)を用いて識別対象物の特定領域を抽出する。第1の実施形態では、認識時(オンライン時)に学習データより選択された類似インスタンス画像によりモデル(辞書)を生成して識別対象画像の特定領域を抽出していた。本実施形態においては、学習データ同士で予め類似度を算出して、複数の類似インスタンス画像からモデル(辞書)を生成しておく。そして、オンライン時に学習データとの類似度に基づいて、モデルを選択するか、もしくは複数のモデルによる特定領域検出結果を統合する。以下、本発明の第2の実施形態の詳細について説明する。なお、第1の実施形態において既に説明した構成については同一の符号を付し、その説明は省略する。
図4(b)は、本実施形態における画像認識装置20の機能構成を示す概略ブロック図である。第1の実施形態と異なる点は、特定領域抽出辞書保持部508を有すること、類似インスタンス選択部505および特定領域抽出部506の処理内容が異なることである。これらの機能部の処理の詳細については、画像認識処理のフローに沿って説明する。
本実施形態に関わる画像認識装置による画像認識処理のフローチャートは、図5(a)に示した第1の実施形態と同じであるが、一部の工程で処理の内容が異なる。本実施形態の取得工程S110〜特徴量取得工程S140の処理は、第1の実施形態における取得工程S110〜特徴量取得工程S140の処理と同様であるが、類似インスタンス選択工程S150および特定領域抽出工程S160の処理が異なる。
類似インスタンス選択工程S150では、類似インスタンス選択部505が、識別対象画像の問合せ領域と各学習用データに設定された問合せ領域の特徴量と比較して類似インスタンス画像を選択する。第1の実施形態と異なるのは、類似インスタンス画像を選択することでモデル(検出器)を生成するのではなく、特定領域抽出工程S160で利用する辞書を選択するもしくは各辞書の重みを決定することである。例えば、特定領域抽出辞書が5個あるとして、各特定領域抽出辞書を学習した学習用データの中で代表画像をそれぞれ定めておく。各代表画像を類似インスタンス画像A〜Eとおいて、識別対象画像Iと類似インスタンス画像Aとの類似度をS(I、A)とする。例えば、各類似インスタンス画像A〜Eとの類似度が下記の数16式のような場合であれば、類似インスタンス画像Aを代表画像にする辞書Aを選択してもよいし、各辞書の結果を類似度に基づいて重み付き平均してもよい。
S(I,A)=0.8,S(I,B)=0.6,S(I,C)=0.2,S(I,D)=0.1,S(I,E)=0.2 (数16)
ここでは、代表画像とのみ比較を行ったが、辞書を生成した際に用いたすべての学習用データとの類似度を算出して平均することで各辞書の学習用データとの類似度を算出してもよい。なお、特定領域抽出辞書の学習方法および代表画像の設定方法については後述する。
特定領域抽出工程S160では、特定領域抽出部506が、上述したように類似インスタンス選択工程S150において推定された類似度に基づいて辞書を選択するか、類似度に応じて各辞書による認識結果を重み付き平均する。辞書の学習方法や認識時の特徴量については後述するが、認識する対象は識別対象画像(もしくはその識別対象領域)の画素もしくは領域でもよい。最終的な特定領域は、確率値(0〜1の実数値)で出力してもよいし、予め決められた閾値以上の領域を特定領域として特定してもよい。
次に、本実施形態において、事前に行うオフライン(学習)処理について説明する。図11(b)は、本実施形態における学習装置300の機能構成を示す概略ブロック図である。本実施形態の学習装置300は、第1の実施形態における学習装置の機能部に加えて、類似インスタンス選択部304、特定領域抽出辞書学習部305、特定領域抽出辞書保持部508を有している。なお、特定領域抽出辞書保持部508は、不揮発性の記憶装置として画像認識装置20と接続された構成としてもよい。また、学習装置300は、図4(b)で説明した本実施形態の画像認識装置20と同一の装置として構成されていてもよい。また、その際、パーツ検出部301、領域設定部302、特徴量取得部303は、画像認識装置20におけるパーツ検出部502、領域設定部503、特徴量取得部504と共用であってもよい。また、学習用データ保持部507は、オフライン時とオンライン時で共有する。本実施形態に関わる学習装置300が有する機能部の処理の詳細については、図12(b)等を用いて後述する。
図12(b)は本実施形態に関わる学習装置300による学習処理を示すフローチャートである。この図12(b)のフローチャートにおいて、パーツ検出工程T210〜特徴量取得工程T230までの処理は、第1の実施形態におけるパーツ検出工程T110〜特徴量取得工程T130の処理と同様である。
類似インスタンス選択工程T240では、類似インスタンス選択部304が、特徴量取得工程T230で取得した特徴量に基づいて各学習画像同士の類似度を算出して、類似インスタンス画像を選択する。この類似インスタンス選択部304による処理は、基本的に第1の実施形態の類似インスタンス選択工程T150における処理と同様である。異なる点は、次の特定領域抽出辞書学習工程T250で辞書を複数学習するため、各辞書を学習する際に用いる学習画像を類似度に基づいて複数枚選択することである。その際、同じ学習画像を複数の辞書学習のために選択してもよい。選択された学習画像リストは、特定領域抽出辞書学習部305に送信される。
特定領域抽出辞書学習工程T250では、特定領域抽出辞書学習部305が、類似インスタンス選択工程T240において選択された学習画像リストに基づいて複数の特定領域抽出辞書を学習する。特定領域抽出辞書とは、画素もしくは領域の特徴量を入力として、特定領域であるかどうかを示す尤度(スコア)を出力する識別器およびそのパラメータを表している。例えば、SupportVectorMashines(SVMs)などを学習すればよい。入力する特徴量は、画素もしくは領域のRGB値もしくはヒストグラムでもよいし、上述の特徴量取得工程T230で説明したテクスチャ特徴量などでもよい。また、第1の実施形態と同様に周辺の画素や小領域に対する特徴量の差分値を識別器への入力としてもよい。学習された辞書は特定領域抽出辞書保持部508に保持され、認識時に利用される。
以上、本実施形態によれば、画像認識装置20は識別対象画像に対してパーツ検出を行い、識別対象領域を抽出する。抽出された被写体領域に対して問合せ領域を設定して、その問合せ領域の特徴量に基づいて学習用データから類似インスタンス画像を選択する。そして、選択された類似インスタンス画像に基づいて識別対象画像の特定領域を抽出する辞書を選択する、もしくは各辞書での検出結果の重みを決定する。学習用データ内の類似インスタンス画像を用いて辞書を選択することにより、識別対象画像の特定領域を精度よく検出できるようになる。
[第3の実施形態]
本発明の第3の実施形態は、パーツ検出器を用いて識別対象物の各パーツの位置や識別対象物の範囲を検出するのではなく、表示装置に表示された識別対象上で各パーツの位置や識別対象物の範囲をユーザに設定させ、その設定結果を取得するものである。以下、本発明の第3の実施形態について説明する。なお、第1、第2の実施形態において既に説明をした構成については同一の符号を付し、その説明は省略する。
図13(a)は、本実施形態に関わる画像認識装置20の機能構成を示す概略ブロック図である。第1の実施形態と比較すると、パーツ検出部502の代わりにユーザ設定取得部509が追加されている。なお、学習装置の構成は第1の実施形態と同様である。
図5(b)は、本実施形態に関わる画像認識装置20の画像認識処理の詳細を示すフローチャートである。同図において、取得工程S310は、第1の実施形態における取得工程S110と同様である。
次に、ユーザ設定取得工程S320において、ユーザ設定取得部509は、識別対象画像100を表示部406に表示し、ユーザが識別対象画像内のパーツ領域もしくは被写体領域を設定できるようにする。図14は、ユーザが識別対象領域および顔領域を設定している様子を表している。ユーザ60は、操作部405(例えば、マウス)を使用して、識別対象画像100内の識別対象領域706および顔領域707を設定する。そして、ユーザ設定取得部509は、ユーザにより設定された識別対象領域706および顔領域707の情報(位置、サイズ等)を取得する。図14では、自由曲線で各領域を設定しているが、矩形領域で設定できるようにしてもよい。また、操作部405の具体的な手段はマウスに限定するものではない。
問合せ領域設定工程S330から特定領域抽出工程S360までの処理は、第1の実施形態における問合せ領域設定工程S130から特定領域抽出工程S160までの処理内容と同様である。
なお、本実施形態の基本的な構成は第1の実施形態と同様であるとして説明したが、第2の実施形態の画像認識装置20におけるパーツ検出部502をユーザ設定取得部509に変更するようにしてもよい。また、本実施形態の学習装置についても第1の実施形態と同様の構成と説明したが、パーツ検出部301に代えて学習時にもユーザ設定取得部509を利用してもよいし、パーツ検出部301とユーザ設定取得部509とを併用するようにしてもよい。
以上、本実施形態によれば、画像認識装置20は識別対象画像に対してユーザが識別対象領域もしくはパーツ位置を設定した結果を取得する。取得された設定結果としの被写体領域もしくはパーツ位置に対して問合せ領域を設定して、その問合せ領域の特徴量に基づいて学習用データから類似インスタンス画像を選択する。そして、選択された類似インスタンス画像に基づいて識別対象画像の特定領域を抽出する。学習用データ内の類似インスタンス画像を用いることにより、識別対象画像の特定領域を精度よく検出できるようになる。
[第4の実施形態]
本発明の第4の実施形態は、特定領域抽出部506によって特定された特定領域の特徴量に基づいて、再度類似インスタンス画像を選択し、選択された類似インスタンス画像を用いて識別対象物の特定領域を再検出するものである。以下、本発明の第4の実施形態について説明する。なお、第1〜第3の実施形態において既に説明した構成については同一の符号を付し、その説明は省略する。
図13(b)は、本実施形態における画像認識装置20の機能構成を示す概略ブロック図である。第1の実施形態と比較すると、本実施形態の画像認識装置20は、第2特徴量取得部510と第2特定領域抽出部511が追加されている。なお、学習装置の構成は第1の実施形態と同様である。
図5(c)は、本実施形態に関わる画像認識装置20の画像認識処理の詳細を示すフローチャートである。同図において、取得工程S410から特定領域抽出工程S460までの処理は、第1の実施形態における取得工程S110から特定領域抽出工程S160までの処理と同様であるため説明を省略する。
次に、第2特徴量取得工程S470で、第2特徴量取得部510は、特定領域抽出工程S460で抽出された識別対象画像の特定領域の特徴量を取得する。または、第2特徴量取得部510は、特定領域を含む領域を設定して、その設定した領域内で特徴量を取得するようにしてもよい。その際、問合せ領域設定工程S430のように問合せ領域を設定してから特徴量を取得してもよい。
次に、第2類似インスタンス選択工程S480で、類似インスタンス選択部505は、第2特徴量取得工程S470において取得された特徴量に基づいて、再度類似インスタンス画像を学習用データ保持部507から選択する。ここでの選択方法は、類似インスタンス選択工程S450の処理内容と同様であるため説明を省略する。
次に、第2特定領域抽出工程S490で、第2特定領域抽出部511は、第2類似インスタンス選択工程S480で選択された類似インスタンス画像を用いて、識別対象画像内の特定領域を抽出する。このとき、第2特定領域抽出部511は、類似インスタンス選択工程S450で選択された類似インスタンス画像を更に利用してもよい。特定領域の抽出方法は、第1の実施形態で説明した特定領域抽出工程S460の処理内容と同様の処理であるため説明を省略する。
なお、本実施形態に関わる画像認識装置20の基本的な構成は、第1の実施形態と同様であるとして説明したが、第2の実施形態の画像認識装置20に第2特徴量取得部510と第2特定領域抽出部511とを追加する形態であってもよい。その場合の学習処理に関しては、特定領域抽出時の辞書は予め学習しておくが、第2特定領域抽出部511で用いる辞書は認識時に類似インスタンス画像を選択して、その類似インスタンス画像に基づいて生成してもよい。
以上、本実施形態によれば、画像認識装置20は識別対象画像に対して検出された特定領域の特徴量に基づいて、再度学習用データから類似インスタンス画像を選択する。そして、学習用データ内の類似インスタンス画像を用いて、特定領域を再度特定することにより、識別対象画像の特定領域を精度よく検出できるようになる。
[その他の実施形態]
上述の各実施形態においては、識別対象物の特定領域として人物領域における肌領域を検出する構成を例に説明してきたが、本発明は、識別対象物の特定領域として人物領域における肌領域に限定するものではない。例えば、識別対象物は複数のパーツや部分領域で構成されているものであればよく、図15(a)、(b)に示されるような馬や車を識別対象物として、馬の領域や車のボディ領域を特定領域として抽出することもできる。なお、図15(a)、(b)において、パーツ検出結果708を検出するためのパーツ検出器としては、上述の非特許文献4に記載されているDeformablePartsModelsを利用することができる。または、非特許文献8に記載されているposeletsを利用してもよい。
また、本発明は、上記実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。本発明は上記実施例に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施例の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。即ち、上述した各実施例及びその変形例を組み合わせた構成も全て本発明に含まれるものである。
20 画像認識装置
501 取得部
502 パーツ検出部
503 領域設定部
504 特徴量取得部
505 類似インスタンス選択部
506 特定領域抽出部
507 学習用データ保持部

Claims (13)

  1. 識別対象画像から識別対象の少なくとも1つのパーツを検出するステップと、
    前記検出されたパーツに基づいて問合せ領域を設定するステップと、
    前記設定された問合せ領域の特徴量を取得するステップと、
    前記取得された特徴量に基づいて前記識別対象画像に対応する少なくとも1つのインスタンス画像を選択するステップと、
    前記選択されたインスタンス画像に基づいて前記識別対象画像から前記識別対象の特定領域を特定するステップと、
    を有することを特徴とする画像識別方法。
  2. 前記選択されたインスタンス画像に基づいて辞書を生成するステップを更に有し、
    前記生成した辞書に基づいて前記特定領域を特定することを特徴とする請求項1に記載の画像識別方法。
  3. 前記特定された特定領域の特徴量を取得するステップと、
    前記取得された特定領域の特徴量に基づいて少なくとも1つのインスタンス画像を選択するステップと、を更に有し、
    前記問合せ領域に基づいて取得された特徴量により選択されたインスタンス画像に加えて、前記特定領域に基づいて取得された特徴量により選択されたインスタンス画像に基づいて前記識別対象画像から前記識別対象の特定領域を再度特定することを特徴とする請求項1または2に記載の画像識別方法。
  4. 識別対象画像から識別対象の少なくとも1つのパーツを検出するステップと、
    前記検出されたパーツに基づいて問合せ領域を設定するステップと、
    前記設定された問合せ領域の特徴量を取得するステップと、
    前記取得された特徴量に基づいて複数の辞書を重みをつけて選択するステップと、
    前記特徴量と前記選択された辞書とに基づいて前記識別対象画像から前記識別対象の特定領域を特定するステップと、
    を有することを特徴とする画像識別方法。
  5. 前記特定された特定領域の特徴量を取得するステップと、
    前記取得された特定領域の特徴量に基づいて少なくとも1つの辞書を選択するステップと、を更に有し、
    前記問合せ領域に基づいて取得された特徴量により選択された辞書に加えて、前記特定領域に基づいて取得された特徴量により選択された辞書に基づいて前記識別対象画像から前記識別対象の特定領域を再度特定することを特徴とする請求項に記載の画像識別方法。
  6. 前記問合せ領域は前記識別対象の存在範囲内に設定されることを特徴とする請求項1からのいずれか1項に記載の画像識別方法。
  7. 前記問合せ領域は前記検出されたパーツの組合せにより設定されることを特徴とする請求項に記載の画像識別方法。
  8. ユーザの設定結果を取得し、当該設定結果に基づいて前記少なくとも1つのパーツを検出することを特徴とする請求項1からのいずれか1項に記載の画像識別方法。
  9. 前記識別対象は人物であることを特徴とする請求項1からのいずれか1項に記載の画像識別方法。
  10. 前記特定領域は人物の肌領域、服領域、髪領域のいずれかであることを特徴とする請求項1からのいずれか1項に記載の画像識別方法。
  11. コンピュータに、請求項1から10のいずれか1項に記載の画像識別方法を実行させるためのプログラム。
  12. 識別対象画像から識別対象の少なくとも1つのパーツを検出する検出手段と、
    前記検出手段により検出されたパーツに基づいて問合せ領域を設定する設定手段と、
    前記設定手段により設定された問合せ領域の特徴量を取得する取得手段と、
    前記取得手段により取得された特徴量に基づいて前記識別対象画像に対応する少なくとも1つのインスタンス画像を選択する選択手段と、
    前記選択手段により選択されたインスタンス画像に基づいて前記識別対象画像から前記識別対象の特定領域を特定する特定手段と、
    を有することを特徴とする画像識別装置。
  13. 識別対象画像から識別対象の少なくとも1つのパーツを検出する検出手段と、
    前記検出手段により検出されたパーツに基づいて問合せ領域を設定する設定手段と、
    前記設定手段により設定された問合せ領域の特徴量を取得する取得手段と、
    前記取得手段により取得された特徴量に基づいて複数の辞書を重みをつけて選択する選択手段と、
    前記特徴量と前記選択手段により選択された辞書とに基づいて前記識別対象画像から前記識別対象の特定領域を特定する特定手段と、
    を有することを特徴とする画像識別装置
JP2015155462A 2015-08-05 2015-08-05 画像識別方法、画像識別装置及びプログラム Expired - Fee Related JP6664163B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015155462A JP6664163B2 (ja) 2015-08-05 2015-08-05 画像識別方法、画像識別装置及びプログラム
US15/222,639 US10438059B2 (en) 2015-08-05 2016-07-28 Image recognition method, image recognition apparatus, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015155462A JP6664163B2 (ja) 2015-08-05 2015-08-05 画像識別方法、画像識別装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2017033469A JP2017033469A (ja) 2017-02-09
JP6664163B2 true JP6664163B2 (ja) 2020-03-13

Family

ID=57989282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015155462A Expired - Fee Related JP6664163B2 (ja) 2015-08-05 2015-08-05 画像識別方法、画像識別装置及びプログラム

Country Status (2)

Country Link
US (1) US10438059B2 (ja)
JP (1) JP6664163B2 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6338429B2 (ja) * 2014-04-15 2018-06-06 キヤノン株式会社 被写体検出装置、被写体検出方法及びプログラム
TWI680747B (zh) * 2014-11-12 2020-01-01 日商新力股份有限公司 資訊處理裝置、資訊處理方法及資訊處理程式
CN106803056B (zh) * 2015-11-26 2020-11-06 华为技术有限公司 一种肢体关系的估计方法及装置
WO2017168949A1 (ja) * 2016-03-29 2017-10-05 ソニー株式会社 情報処理装置、撮像装置、画像再生装置、および方法とプログラム
WO2018088794A2 (ko) * 2016-11-08 2018-05-17 삼성전자 주식회사 디바이스가 이미지를 보정하는 방법 및 그 디바이스
CN110473232B (zh) * 2017-07-14 2024-02-09 腾讯科技(深圳)有限公司 图像识别方法、装置、存储介质及电子设备
WO2019107167A1 (ja) * 2017-11-30 2019-06-06 パナソニックIpマネジメント株式会社 画像処理装置、画像処理システム、撮像装置、撮像システム、及び画像処理方法
JP7161318B2 (ja) * 2018-06-20 2022-10-26 矢崎総業株式会社 乗車人数監視システム
CN110929057A (zh) * 2018-08-30 2020-03-27 深圳市蓝灯鱼智能科技有限公司 图像处理方法、装置和***、存储介质及电子装置
CN109344872A (zh) * 2018-08-31 2019-02-15 昆明理工大学 一种少数民族服装图像的识别方法
CN110910334B (zh) * 2018-09-15 2023-03-21 北京市商汤科技开发有限公司 一种实例分割方法、图像处理设备及计算机可读存储介质
US10719707B2 (en) * 2018-11-13 2020-07-21 Vivotek Inc. Pedestrian detection method and related monitoring camera
JP2020085546A (ja) * 2018-11-19 2020-06-04 国立研究開発法人産業技術総合研究所 構造物の点検・補修支援システム
US10853704B2 (en) 2018-12-18 2020-12-01 Clarifai, Inc. Model-based image labeling and/or segmentation
JP6745465B1 (ja) * 2019-03-06 2020-08-26 パナソニックIpマネジメント株式会社 車両及びカメラモジュール
CN109948494B (zh) * 2019-03-11 2020-12-29 深圳市商汤科技有限公司 图像处理方法及装置、电子设备和存储介质
US11315352B2 (en) 2019-05-08 2022-04-26 Raytheon Company Calculating the precision of image annotations
CN111311670B (zh) * 2020-02-19 2023-09-19 中冶赛迪信息技术(重庆)有限公司 一种基于图像识别的冷床冲顶识别方法、***及设备
CN112053333B (zh) * 2020-08-31 2023-04-07 中冶赛迪信息技术(重庆)有限公司 一种基于机器视觉的方坯检测方法、***、设备及介质
CN112487869A (zh) * 2020-11-06 2021-03-12 深圳优地科技有限公司 机器人路口通行方法、装置和智能设备
CN113762221B (zh) * 2021-11-05 2022-03-25 通号通信信息集团有限公司 人体检测方法及装置
CN116993967A (zh) * 2022-04-25 2023-11-03 追觅创新科技(苏州)有限公司 地面材质的识别方法及装置、存储介质、电子装置
CN115937219B (zh) * 2023-03-14 2023-05-12 合肥合滨智能机器人有限公司 一种基于视频分类的超声图像部位识别方法及***
CN117095423B (zh) * 2023-10-20 2024-01-05 上海银行股份有限公司 一种银行单据字符的识别方法及装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2973676B2 (ja) * 1992-01-23 1999-11-08 松下電器産業株式会社 顔画像特徴点抽出装置
WO2006023046A1 (en) * 2004-06-21 2006-03-02 Nevengineering, Inc. Single image based multi-biometric system and method
JP4303191B2 (ja) * 2004-11-26 2009-07-29 富士フイルム株式会社 画像認識システム、画像認識方法、及び画像認識プログラム
JP4540661B2 (ja) * 2006-02-28 2010-09-08 三洋電機株式会社 物体検出装置
JP4444936B2 (ja) * 2006-09-19 2010-03-31 富士フイルム株式会社 撮影装置および方法並びにプログラム
JP4264663B2 (ja) * 2006-11-21 2009-05-20 ソニー株式会社 撮影装置、画像処理装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム
JP4874913B2 (ja) * 2007-09-28 2012-02-15 富士フイルム株式会社 頭頂位置算出装置、それを用いた画像処理装置および頭頂位置算出方法並びにプログラム
JP5202148B2 (ja) * 2008-07-15 2013-06-05 キヤノン株式会社 画像処理装置、画像処理方法、及びコンピュータプログラム
JP5390943B2 (ja) * 2008-07-16 2014-01-15 キヤノン株式会社 画像処理装置及び画像処理方法
US8290208B2 (en) * 2009-01-12 2012-10-16 Eastman Kodak Company Enhanced safety during laser projection
JP5366756B2 (ja) * 2009-10-19 2013-12-11 キヤノン株式会社 情報処理装置及び情報処理方法
JP2011090466A (ja) * 2009-10-21 2011-05-06 Sony Corp 情報処理装置及び方法、並びにプログラム
JP5618686B2 (ja) * 2010-08-03 2014-11-05 キヤノン株式会社 視線検出装置、視線検出方法及びプログラム
JP5719230B2 (ja) 2011-05-10 2015-05-13 キヤノン株式会社 物体認識装置、物体認識装置の制御方法、およびプログラム
JP5801601B2 (ja) * 2011-05-10 2015-10-28 キヤノン株式会社 画像認識装置、画像認識装置の制御方法、およびプログラム
JP5785034B2 (ja) * 2011-08-26 2015-09-24 株式会社ザクティ 電子カメラ
JP5918996B2 (ja) * 2011-12-27 2016-05-18 キヤノン株式会社 被写体認識装置および辞書データ登録方法
JP5963525B2 (ja) * 2012-04-27 2016-08-03 キヤノン株式会社 認識装置、その制御方法、および制御プログラム、並びに撮像装置および表示装置
US9600711B2 (en) * 2012-08-29 2017-03-21 Conduent Business Services, Llc Method and system for automatically recognizing facial expressions via algorithmic periocular localization
KR101549645B1 (ko) * 2014-01-28 2015-09-03 영남대학교 산학협력단 표정 동작사전을 이용한 표정인식 방법 및 장치

Also Published As

Publication number Publication date
JP2017033469A (ja) 2017-02-09
US20170039417A1 (en) 2017-02-09
US10438059B2 (en) 2019-10-08

Similar Documents

Publication Publication Date Title
JP6664163B2 (ja) 画像識別方法、画像識別装置及びプログラム
KR102596897B1 (ko) 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치
JP5629803B2 (ja) 画像処理装置、撮像装置、画像処理方法
JP5010905B2 (ja) 顔認証装置
JP4743823B2 (ja) 画像処理装置、撮像装置、画像処理方法
Portmann et al. People detection and tracking from aerial thermal views
US9275273B2 (en) Method and system for localizing parts of an object in an image for computer vision applications
JP6332937B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5424819B2 (ja) 画像処理装置、画像処理方法
CN108629336B (zh) 基于人脸特征点识别的颜值计算方法
JP6112801B2 (ja) 画像認識装置及び画像認識方法
JP2006293644A (ja) 情報処理装置、情報処理方法
CN108416291B (zh) 人脸检测识别方法、装置和***
JP6351243B2 (ja) 画像処理装置、画像処理方法
JP6822482B2 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
JP2014093023A (ja) 物体検出装置、物体検出方法及びプログラム
JP2021503139A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP5241606B2 (ja) オブジェクト識別装置及びオブジェクト識別方法
KR101558547B1 (ko) 얼굴 포즈 변화에 강한 연령 인식방법 및 시스템
WO2020195732A1 (ja) 画像処理装置、画像処理方法、およびプログラムが格納された記録媒体
Borghi et al. Face Verification from Depth using Privileged Information.
Sun et al. Human recognition for following robots with a Kinect sensor
JP2023115104A (ja) 画像処理装置、画像処理方法、及びプログラム
CN113436735A (zh) 基于人脸结构度量的体重指数预测方法、设备和存储介质
JP2015187769A (ja) 物体検出装置、物体検出方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180730

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200218

R151 Written notification of patent or utility model registration

Ref document number: 6664163

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees