JP7193006B2 - 画像形成装置、判定装置、画像形成方法、及び画像形成プログラム - Google Patents

画像形成装置、判定装置、画像形成方法、及び画像形成プログラム Download PDF

Info

Publication number
JP7193006B2
JP7193006B2 JP2021549130A JP2021549130A JP7193006B2 JP 7193006 B2 JP7193006 B2 JP 7193006B2 JP 2021549130 A JP2021549130 A JP 2021549130A JP 2021549130 A JP2021549130 A JP 2021549130A JP 7193006 B2 JP7193006 B2 JP 7193006B2
Authority
JP
Japan
Prior art keywords
image
keypoints
image forming
captured
forming
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021549130A
Other languages
English (en)
Other versions
JP2022520995A (ja
Inventor
ヤドン パン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JP2022520995A publication Critical patent/JP2022520995A/ja
Application granted granted Critical
Publication of JP7193006B2 publication Critical patent/JP7193006B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/203Drawing of straight lines or curves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Description

本開示は、画像形成装置、判定装置、画像形成方法、及び画像形成プログラムに関する。
ニューラルネットワークを用いて人間の動作を分類(判定)する技術が研究されている(例えば、非特許文献1)。非特許文献1に開示されている技術では、「人型の画像」を形成し、該人型画像の訓練を、カメラからの画像群及び人の動作を分類するためのオプティカルフロー(optical flow)を訓練する畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)に統合している。この非特許文献1の技術で用いられる人型画像は、人間の体の各部が特定の色でペイントされた画像であり、該各部は、人間の体において自由度を有する2つの関節の間の部分、又は、体の末端の部分である。
M. Zolfaghari et al., "Chained multi-stream networks exploiting pose, motion, and appearance for action classification and detection". in 2017 IEEE International Conference on Computer Vision (ICCV), pp. 2923-2932, IEEE.
しかしながら、非特許文献1の技術で用いられる上記人型画像は、特定のポーズ(姿勢)の特徴ではなく、体の特徴を強調している。このため、非特許文献1に開示されている技術では、人のポーズを精度良く分類(判定)することができない可能性がある。
本開示の目的は、判定対象物のポーズの判定精度を向上させることができる、画像形成装置、判定装置、画像形成方法、及び画像形成プログラムを提供することにある。
第1の態様にかかる画像形成装置は、姿勢の判定対象物が写っている第1画像領域と、前記第1画像領域を囲み前記判定対象物が写っていない第2画像領域とを含む処理対象画像に含まれる、前記判定対象物の複数の所定のキーポイントに基づいて、特徴抽出画像(Feature extracted image)を形成する形成手段を具備し、前記形成手段は、前記処理対象画像において、各描線グループが前記複数の所定のキーポイントに含まれる少なくとも2つのキーポイントを含む、複数の描線グループのそれぞれについて、各描線グループに含まれるキーポイント上を通り且つ少なくとも一端が前記処理対象画像の端まで延びる直線を引くことによって、特徴マップ(texture map)を形成する描線手段を含む。
第2の態様にかかる画像形成方法は、姿勢の判定対象物が写っている第1画像領域と、前記第1画像領域を囲み前記判定対象物が写っていない第2画像領域とを含む処理対象画像に含まれる、前記判定対象物の複数の所定のキーポイントに基づいて、特徴抽出画像(Feature extracted image)を形成することを含み、前記特徴抽出画像を形成することは、前記処理対象画像において、各描線グループが前記複数の所定のキーポイントに含まれる少なくとも2つのキーポイントを含む、複数の描線グループのそれぞれについて、各描線グループに含まれるキーポイント上を通り且つ少なくとも一端が前記処理対象画像の端まで延びる直線を引くことによって、特徴マップ(texture map)を形成することを含む。
第3の態様にかかる画像形成プログラムは、姿勢の判定対象物が写っている第1画像領域と、前記第1画像領域を囲み前記判定対象物が写っていない第2画像領域とを含む処理対象画像に含まれる、前記判定対象物の複数の所定のキーポイントに基づいて、特徴抽出画像(Feature extracted image)を形成することを画像形成装置に実行させ、前記特徴抽出画像を形成することは、前記処理対象画像において、各描線グループが前記複数の所定のキーポイントに含まれる少なくとも2つのキーポイントを含む、複数の描線グループのそれぞれについて、各描線グループに含まれるキーポイント上を通り且つ少なくとも一端が前記処理対象画像の端まで延びる直線を引くことによって、特徴マップ(texture map)を形成することを含む。
本開示により、判定対象物の姿勢の判定精度を向上させることができる、画像形成装置、判定装置、画像形成方法、及び画像形成プログラムを提供することができる。
第1実施形態における画像形成装置の一例を示すブロック図である。 オープンポーズで用いられるキーポイント群の説明に供する図である。 第2実施形態における画像形成装置を含む判定装置の一例を示すブロック図である。 撮像画像の一例を示す図である。 正規化画像の説明に供する図である。 特徴マップの形成方法の説明に供する図である。 特徴マップのタイプの説明に供する図である。 部分画像の切り取り方法及び部分画像のペイント方法の説明に供する図である。 ペイントルールテーブルの一例を示す図である。 第2実施形態における画像形成装置の処理動作の一例を示すフローチャートである。 人物画像及び肯定的なラベルの説明に供する図である。 人物画像及び否定的なラベルの説明に供する図である。 肯定的なラベルが付される特徴抽出画像の一例を示す図である。 否定的なラベルが付される特徴抽出画像の一例を示す図である。 画像形成装置のハードウェア構成例を示す図である。
以下、図面を参照しつつ、実施形態について説明する。なお、実施形態において、同一又は同等の要素には、同一の符号を付し、重複する説明は省略される。
<第1実施形態>
図1は、第1実施形態における画像形成装置の一例を示すブロック図である。図1において画像形成装置10は、特徴抽出画像形成部11を有する。以下では、特徴抽出画像形成部11を、単に「画像形成部11」と呼ぶことがある。
画像形成部11は、「処理対象画像」に含まれる、ポーズ(姿勢)についての判定対象物の所定の複数の「キーポイント(部位ポイント)」に基づいて、「特徴抽出画像(Feature extracted image)」を形成する。
判定対象物は、例えば、人間である。また、「処理対象画像」は、判定対象物が写っている「第1画像領域」、及び、判定対象物が写っていない、第1画像領域を囲む「第2画像領域」を含んでいる。すなわち、処理対象画像には、判定対象物の画像(第1画像領域)以外に、例えば判定対象物の背景に対応する画像(第2画像領域)が含まれている。また、処理対象画像は、例えば、撮像装置(不図示)によって撮像された、判定対象物が写った撮像画像から、抽出された「正規化画像」である。
また、上記所定の複数の「キーポイント」は、判定するポーズに応じた複数のキーポイントである。該複数のキーポイントは、例えば、カーネギーメロン大学(CMU)で開発された「オープンポーズ(OpenPose)」で用いられるキーポイント群のうちの一部であってもよい。
図2は、オープンポーズで用いられるキーポイント群の説明に供する図である。図2に示すように、オープンポーズでは、キーポイントk00~k17が用いられる。キーポイントk00は、鼻に対応する。キーポイントk01は、首に対応する。キーポイントk02は、右肩に対応する。キーポイントk03は、右肘に対応する。キーポイントk04は、右手首に対応する。キーポイントk05は、左肩に対応する。キーポイントk06は、左肘に対応する。キーポイントk07は、左手首に対応する。キーポイントk08は、右臀部に対応する。キーポイントk09は、右膝に対応する。キーポイントk10は、右足首に対応する。キーポイントk11は、左臀部に対応する。キーポイントk12は、左膝に対応する。キーポイントk13は、左足首に対応する。キーポイントk14は、右目に対応する。キーポイントk15は、左目に対応する。キーポイントk16は、右耳に対応する。キーポイントk17は、左耳に対応する。
図1の説明に戻り、画像形成部11は、描線部11Aを含む。描線部11Aは、処理対象画像を用いて、「特徴マップ(texture map)」を形成する。例えば、描線部11Aは、複数の「描線グループ」のそれぞれについて、各描線グループに含まれるすべてのキーポイント上を通り且つ少なくとも一端が処理対象画像の端まで延びる直線を引くことによって、特徴マップを形成する。各「描線グループ」は、上記の所定の複数のキーポイントに含まれる少なくとも2つのキーポイントを含んでいる。
すなわち、このように形成された特徴マップにおいては、各直線の一端が判定対象物のボディ部分からはみ出して処理対象画像の端まで延びる複数の直線が引かれている。これにより、特徴マップは、判定対象物のボディ(本体)の特徴ではなく、判定対象物のポーズの特徴を強調することができている。従って、この特徴マップに基づく特徴抽出画像を用いて判定対象物のポーズを判定することによって、ポーズ判定の精度を向上させることができる。
以上のように第1実施形態によれば、画像形成装置10において特徴抽出画像形成部11は、描線部11Aを有する。描線部11Aは、処理対象画像において、複数の「描線グループ」のそれぞれについて、各描線グループに含まれるすべてのキーポイント上を通り且つ少なくとも一端が処理対象画像の端まで延びる直線を引くことによって、特徴マップを形成する。各「描線グループ」は、上記の所定の複数のキーポイントに含まれる少なくとも2つのキーポイントを含んでいる。
この画像形成装置10の構成により、判定対象物のボディ(本体)の特徴ではなく、判定対象物のポーズの特徴(つまり、判定対象物の姿勢における空間的特徴(spatial feature))が強調された特徴マップを形成することができる。この特徴マップに基づく特徴抽出画像を用いて判定対象物のポーズを判定することによって、ポーズ判定の精度を向上させることができる。
<第2実施形態>
第2実施形態は、より具体的な実施形態に関する。
<画像形成装置の構成例>
図3は、第2実施形態における画像形成装置を含む判定装置の一例を示すブロック図である。図3には、第2実施形態における判定装置30の他に、撮像装置20が示されている。
撮像装置20は、撮像画像を判定装置30へ出力する。図4は、撮像画像の一例を示す図である。図4の撮像画像PI1には、二人の画像が写っている。すなわち、撮像画像PI1には、判定対象物DT1の画像及び判定対象物DT2の画像が含まれている。
判定装置30は、画像形成装置40と、判定処理装置(判定手段)50とを有している。
画像形成装置40は、キーポイント検出部41と、グルーピング部42と、正規化画像形成部43と、特徴抽出画像形成部44とを有している。以下では、特徴抽出画像形成部44を、単に「画像形成部44」と呼ぶことがある。
キーポイント検出部41は、撮像装置20から受け取る撮像画像において、判定対象物のキーポイント群を検出する。ここでは、該検出されるキーポイント群は、上記オープンポーズで用いられるキーポイント群であるものとする。
グルーピング部42は、検出されたキーポイント群から、上記の所定の複数のキーポイントを選択すると共に、選択された複数のキーポイントを上記の複数の描線グループにグルーピングする。
ここで、判定対象ポーズを「キョロポーズ(kyoro pose)」とする。本明細書では、日本語によって「キョロキョロ(kyoro-kyoro)」と表される人間の所定動作に含まれる1つのポーズを、「キョロポーズ」と呼んでいる。「キョロキョロ」と表される所定動作は、頭を振って人の前方向ではなく、別の方向を見る動作である。従って、「キョロポーズ」は、人間の頭部の延びる方向が体の伸びる方向と異なるときの瞬間姿勢と定義することができる。例えば不審者は「キョロキョロ」と表される動作を行う傾向にあるので、「キョロポーズ」は、例えば公共スペースにおいて不審者を特定するための特徴として用いることができる。
判定対象のポーズが「キョロポーズ」である場合、複数の描線グループは、例えば次のように定義することができる。すなわち、「描線グループ1」は、キーポイントk00及びキーポイントk01を含む。「描線グループ2」は、キーポイントk01、キーポイントk02、及びキーポイントk05を含む。「描線グループ3」は、キーポイントk01及びキーポイントk09を含む。「描線グループ4」は、キーポイントk01及びキーポイントk12を含む。「描線グループ5」は、キーポイントk00、キーポイントk16、及びキーポイントk17を含む。
正規化画像形成部43は、キーポイント検出部41及びグルーピング部42による処理によって描線グループが検出されている撮像画像PI1から、「正規化画像」を抽出する。図5は、正規化画像の説明に供する図である。上記の通り、撮像画像PI1には、判定対象物DT1の画像及び判定対象物DT2の画像が含まれているため、撮像画像PI1からは、図5に示すように、2つの正規化画像PT1,PT2が抽出される。正規化画像PT1,PT2は、それぞれ、判定対象物が写っている「第1画像領域」、及び、判定対象物が写っていない、第1画像領域を囲む「第2画像領域」を含んでいる。これらの正規化画像PT1及び正規化画像PT2のそれぞれが、画像形成部44において「処理対象画像」として用いられる。なお、正規化画像PT1及び正規化画像PT2を抽出する際には、オープンポーズで用いられるキーポイント群に基づいて算出可能な「矩形範囲(bounding box)」が用いられてもよい。
画像形成部44は、第1実施形態の画像形成部11と同様に、「処理対象画像」に含まれる、ポーズについての判定対象物の所定の複数の「キーポイント」に基づいて、「特徴抽出画像(Feature extracted image)」を形成する。
図3に示すように画像形成部44は、描線部44Aと、クロップ(crop)部44Bと、ペイント部44Cとを有している。
描線部44Aは、第1実施形態の描線部11Aと同様に、処理対象画像を用いて、「特徴マップ(texture map)」を形成する。この特徴マップの形成方法については、後に詳しく説明する。
クロップ部44Bは、描線部44Aにて形成された特徴マップから、所定の複数のキーポイントのうちの「第1基準ポイント」を所定位置に含み且つ「所定のサイズルール」に応じたサイズの「部分画像」を切り取る。この部分画像の切り取り方法については、後に詳しく説明する。
ペイント部44Cは、クロップ部44Bにて切り取られた部分画像において、描線部44Aによって引かれた複数の直線によって区切られた複数の部分領域(zone)を複数の色でそれぞれペイントすることによって、「特徴抽出画像」を形成する。各部分領域は、描線部44Aによって引かれた複数の直線との位置関係によって定義され、ペイントされる色が予め定めされている。このペイント方法については、後に詳しく説明する。
以上のようにして形成された特徴抽出画像は、判定処理装置50の教師あり学習に用いられてもよいし、学習後の判定処理装置50における判定対象物のポーズの判定に用いられてもよい。
判定処理装置50は、例えばニューラルネットワーク(不図示)を含んでいる。判定処理装置50は、画像形成装置40で形成された特徴抽出画像を用いて、ニューラルネットワークに対して教師あり学習を行う。また、判定処理装置50は、学習されたニューラルネットワークに対して、画像形成装置40で形成された特徴抽出画像を入力することにより、判定対象物のポーズを判定(分類)する。
〈特徴マップの形成方法〉
まず、描線部44Aが特徴マップを形成するためには、次の条件(条件I)が満たされる必要がある。すなわち、「処理対象画像において、キーポイントk09及びキーポイントk12の両方が利用可能であること」、「キーポイントk01、キーポイントk02、及びキーポイントk05のうちの少なくとも2つが利用可能であること」、及び、「キーポイントk00、キーポイントk16、及びキーポイントk17のうちの少なくとも2つが利用可能であること」が全て満たされる必要がある。すなわち、この条件が満たされずに形成された特徴マップに基づいて形成された特徴抽出画像は、ポーズ判定の精度を高めることができない可能性がある。
描線部44Aは、上記の描線グループ1から描線グループ5のそれぞれについて、直線を引くことを試みる。図6は、特徴マップの形成方法の説明に供する図である。図6では、左及び中央の図に処理対象画像が示され、右の図に特徴マップが示されている。
すなわち、描線部44Aは、直線I(ラインI)として、キーポイントk01及びキーポイントk00を通る直線を引く。この直線Iの両端は共に処理対象画像の端(エッジ)まで延びている。ここで、処理対象画像においてキーポイントk01が利用可能でない場合、キーポイントk02とキーポイントk05との中点を、キーポイントk01として扱う。
また、描線部44Aは、直線IIとして、キーポイントk01及びキーポイントk02を通る直線、キーポイントk01及びキーポイントk05を通る直線、又は、キーポイントk02及びキーポイントk05を通る直線を引く。これらの3つの直線は、キーポイントk01がキーポイントk02とキーポイントk05との中点として定義されるので、等価である。この直線IIの両端は共に処理対象画像の端(エッジ)まで延びている。
また、描線部44Aは、直線IIIとして、キーポイントk01及びキーポイントk09を通る直線を引く。ただし、直線IIIは、直線IIよりも下の領域にのみ存在する。すなわち、直線IIIは、一端がキーポイントk01であり、キーポイントk01からキーポイントk09へ延び、他端が処理対象画像の端となっている。
また、描線部44Aは、直線IVとして、キーポイントk01及びキーポイントk12を通る直線を引く。ただし、直線IVは、直線IIよりも下の領域にのみ存在する。すなわち、直線IVは、一端がキーポイントk01であり、キーポイントk01からキーポイントk12へ延び、他端が処理対象画像の端となっている。
また、描線部44Aは、キーポイントk00、キーポイントk16、及びキーポイントk17のうちの2つのみが利用可能である場合に、直線Vを引く。描線部44Aは、この利用可能な2つのキーポイントを通る直線を、直線Vとして引く。直線Vの両端は共に処理対象画像の端まで延びている。
このように4つ又は5つの直線が引かれた特徴マップは、3つの条件(条件II、条件III、条件IV)によって、5つのタイプ(タイプ1A、タイプ1B、タイプ2A、タイプ2B、タイプ3)に分類することができる。図7は、特徴マップのタイプの説明に供する図である。条件IIは、「直線Iが利用可能であること」である。条件IIIは、「直線Vが利用可能であること」である。条件IVは、「直線III及び直線IVが直線Iを基準として同じ側に存在すること」である。図6には、タイプ1Aの例が示されている。タイプ1Aは、「キョロポーズ」に対応する。
〈部分画像の切り取り方法〉
図8は、部分画像の切り取り方法及び部分画像のペイント方法の説明に供する図である。図8には、特徴マップの一例と、該特徴マップから切り取られる部分画像と、該部分画像に色が付されたものである特徴抽出画像とが示されている。
上記の通り、クロップ部44Bは、描線部44Aにて形成された特徴マップから、所定の複数のキーポイントのうちの「第1基準ポイント」を所定位置に含み且つ「所定のサイズルール」に応じたサイズの「部分画像」を切り取る。
例えば、クロップ部44Bは、次のルールに従って、特徴マップから部分画像を切り取る。すなわち、該ルールは、「部分画像において、キーポイントk01を中心にすること」、「部分画像の高さ(つまり、縦の長さ)が、特徴マップの上端からキーポイントk01までの距離の2倍であること」、「部分画像の幅(つまり、横の長さ)に対する高さの割合が、3/2であること」である。このルールは、特定のポーズについての判定精度を高めるために、調整されてもよい。すなわち、該ルールでは、キーポイントk01が上記の「第1基準ポイント」であり、部分画像の中心が上記の「所定位置」である。また、「部分画像の高さ(つまり、縦の長さ)が、特徴マップの上端からキーポイントk01までの距離の2倍であること」、及び、「部分画像の幅(つまり、横の長さ)に対する高さの割合が、3/2であること」が、上記の「所定のサイズルール」に対応している。
〈ペイント方法〉
図9は、ペイントルールテーブルの一例を示す図である。図9のペイントルールテーブルでは、部分画像において4つ又は5つの直線によって区切られた複数の領域と、各領域をペイントする色に関する情報とが対応づけられている。
図9のペイントルールテーブルに従うと、ペイント部44Cは、直線IIよりも下で且つ直線Iに対して反時計回りに隣接するゾーンを、カラーコード「#101010」の色でペイントする。直線IIよりも下の各ゾーンは、1つのカラーコードと1対1で対応している。また、ペイント部44Cは、直線IIよりも上で、直線Vよりも上で、且つ、直線Iの左側のゾーンを、カラーコード「#202020」、カラーコード「#A0A0A0」を足し合わせた色でペイントする。
<画像形成装置の動作例>
以上の構成を有する画像形成装置の処理動作の一例について説明する。図10は、第2実施形態における画像形成装置の処理動作の一例を示すフローチャートである。図10のフローは、画像形成装置40が撮像装置20からの撮像画像を受け取ったときにスタートする。
画像形成装置40においてキーポイント検出部41は、撮像画像において、判定対象物のキーポイント群を検出する(ステップS101)。
グルーピング部42は、検出されたキーポイント群から、所定の複数のキーポイントを選択すると共に、選択された複数のキーポイントを複数の描線グループにグルーピングする(ステップS102)。
正規化画像形成部43は、ステップS101及びステップS102の処理が施された撮像画像から、正規化画像を抽出する(ステップS103)。
描線部44Aは、ステップS103で抽出された正規化画像を処理対象画像として、処理対象画像を用いて特徴マップを形成する(ステップS104)。
クロップ部44Bは、描線部44Aにて形成された特徴マップから、部分画像を切り取る(ステップS105)。
ペイント部44Cは、部分画像において、描線部44Aによって引かれた複数の直線によって区切られた複数の部分領域(zone)を複数の色でそれぞれペイントすることによって、特徴抽出画像を形成する(ステップS106)。
このように形成された形成された特徴抽出画像は、上記の通り、判定処理装置50の教師あり学習に用いられてもよいし、学習後の判定処理装置50における判定対象物のポーズの判定に用いられてもよい。
〈特徴抽出画像の有用性テスト〉
「キョロポーズ」の判定(認識)を通して、第2実施形態における特徴抽出画像の有用性をテストした。まず、45000個の撮像画像を用意した。これらの撮像画像は、RGBカメラによって撮影されたものであり、各撮像画像には、実際の人物の画像が含まれている。人物の画像において頭部の延びる方向が体の延びる方向と異なる、25000個の撮像画像に対して肯定的なラベルを付し、頭部の延びる方向と体の伸びる方向が略同じである、20000個の撮像画像に否定的なラベルを付した。すなわち、図11に示すような人の画像が撮像画像に含まれていれば、その撮像画像には肯定的なラベルが付される一方、図12に示すような人の画像が撮像画像に含まれていれば、その撮像画像には否定的なラベルが付される。図11は、人物画像及び肯定的なラベルの説明に供する図である。図12は、人物画像及び否定的なラベルの説明に供する図である。
そして、このように用意された45000個の撮像画像を用いて、上記の特徴抽出画像を形成した。図11に示すような人の画像が含まれる撮像画像に基づいて形成された特徴抽出画像が、図13に示されている。また、図12に示すような人の画像が含まれる撮像画像に基づいて形成された特徴抽出画像が、図14に示されている。こうして、肯定的なラベルが付された25000個の特徴抽出画像、及び、否定的なラベルが付された20000個の特徴抽出画像の特徴抽出画像セットが得られた。
同じ構成の2つのCNNの一方のCNN(第1のCNN)を45000個の撮像画像そのもので学習させ、他方のCNN(第2のCNN)を45000個の特徴抽出画像で学習させた。
そして、肯定的なラベルが付された3000個の撮像画像及び否定的なラベルが付された3000個の撮像画像を含む別の6000個の撮像画像、及び、これらから形成された6000個の特徴抽出画像を用意した。
そして、上記の別の6000個の撮像画像を上記の学習後の第1のCNNによって判定した。すなわち、学習後の第1のCNNに対して、上記の別の6000個の撮像画像に含まれる人の画像のポーズがキョロポーズであるか否かを判定させた。同様に、上記の6000個の特徴抽出画像を上記の学習後の第2のCNNによって判定した。
このようなテストによって、学習後の第1のCNNによる判定の誤り率は、0.29となり、学習後の第2のCNNによる判定の誤り率は、0.21となった。すなわち、上記の特徴抽出画像を用いることにより、ポーズの判定精度を向上することができることを示す結果が得られた。
以上のように第2実施形態によれば、画像形成装置40においてクロップ部44Bは、描線部44Aにて形成された特徴マップから、所定の複数のキーポイントのうちの「第1基準ポイント」を所定位置に含み且つ「所定のサイズルール」に応じたサイズの「部分画像」を切り取る。
この画像形成装置40の構成により、正規化された部分画像を形成することができる。
また、画像形成装置40においてペイント部44Cは、クロップ部44Bにて切り取られた部分画像において、描線部44Aによって引かれた複数の直線によって区切られた複数の部分領域を複数の色でそれぞれペイントすることによって、特徴抽出画像を形成する。
この画像形成装置40により、ポーズの判定精度の向上に寄与する特徴抽出画像を形成することができる。なお、ペイントする前の部分画像を特徴抽出画像として用いてもよい。ただし、ペイントすることによって、特徴抽出画像によるポーズの判定精度をペイントしない場合に比べてさらに向上させることができる。
<他の実施形態>
図15は、画像形成装置のハードウェア構成例を示す図である。図15において画像形成装置100は、プロセッサ101と、メモリ102とを有している。第1実施形態及び第2実施形態の画像形成装置10,40の画像形成部11,44と、キーポイント検出部41と、グルーピング部42と、正規化画像形成部43とは、プロセッサ101がメモリ102に記憶されたプログラムを読み込んで実行することにより実現されてもよい。プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、画像形成装置10,40に供給することができる。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によって画像形成装置10,40に供給されてもよい。
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
姿勢の判定対象物が写っている第1画像領域と、前記第1画像領域を囲み前記判定対象物が写っていない第2画像領域とを含む処理対象画像に含まれる、前記判定対象物の複数の所定のキーポイントに基づいて、特徴抽出画像(Feature extracted image)を形成する形成手段を具備し、
前記形成手段は、前記処理対象画像において、各描線グループが前記複数の所定のキーポイントに含まれる少なくとも2つのキーポイントを含む、複数の描線グループのそれぞれについて、各描線グループに含まれるキーポイント上を通り且つ少なくとも一端が前記処理対象画像の端まで延びる直線を引くことによって、特徴マップ(texture map)を形成する描線手段を含む、
画像形成装置。
(付記2)
前記形成手段は、前記特徴マップから、前記複数の所定のキーポイントのうちの第1基準ポイントを所定位置に含み且つ所定のサイズルールに応じたサイズの部分画像を切り取るクロップ手段をさらに含む、
付記1記載の画像形成装置。
(付記3)
前記形成手段は、前記部分画像において前記複数の直線によって区切られた複数の部分領域にそれぞれ異なる色を付すことによって、前記特徴抽出画像を形成するペイント手段をさらに含む、
付記2記載の画像形成装置。
(付記4)
前記判定対象物は、人間であり、
前記複数の所定のキーポイントは、前記人間の頭部に対応する頭部グループ、前記人間の胴体に対応する胴体グループ、及び、前記人間の脚に対応する脚グループのいずれかにそれぞれ分類され、
前記複数の描線グループは、前記頭部グループに含まれる第1キーポイントと前記胴体グループに含まれる前記第1基準ポイントとを含む、第1描線グループを含む、
付記2又は3に記載の画像形成装置。
(付記5)
前記頭部グループは、鼻、左耳、及び右耳にそれぞれ対応する複数のキーポイントを含み、
前記胴体グループは、首、左肩、及び右肩にそれぞれ対応する複数のキーポイントを含み、
前記脚グループは、左膝及び右膝にそれぞれ対応する複数のキーポイントを含む、
付記4記載の画像形成装置。
(付記6)
前記第1キーポイントは、鼻に対応するキーポイントであり、
前記第1基準ポイントは、首に対応するキーポイントである、
付記4又は5に記載の画像形成装置。
(付記7)
前記処理対象画像は、前記判定対象物が写った撮像画像から抽出された正規化画像である、
付記1から6のいずれか1項に記載の画像形成装置。
(付記8)
付記1から7のいずれか1項に記載の画像形成装置と、
ニューラルネットワークを含み、前記特徴抽出画像(Feature extracted image)を用いて前記判定対象物の姿勢を判定する判定手段と、
を具備する判定装置。
(付記9)
姿勢の判定対象物が写っている第1画像領域と、前記第1画像領域を囲み前記判定対象物が写っていない第2画像領域とを含む処理対象画像に含まれる、前記判定対象物の複数の所定のキーポイントに基づいて、特徴抽出画像(Feature extracted image)を形成することを含み、
前記特徴抽出画像を形成することは、前記処理対象画像において、各描線グループが前記複数の所定のキーポイントに含まれる少なくとも2つのキーポイントを含む、複数の描線グループのそれぞれについて、各描線グループに含まれるキーポイント上を通り且つ少なくとも一端が前記処理対象画像の端まで延びる直線を引くことによって、特徴マップ(texture map)を形成することを含む、
画像形成方法。
(付記10)
前記特徴抽出画像を形成することは、前記特徴マップから、前記複数の所定のキーポイントのうちの第1基準ポイントを所定位置に含み且つ所定のサイズルールに応じたサイズの部分画像を切り取ることをさらに含む、
付記9記載の画像形成方法。
(付記11)
前記特徴抽出画像を形成することは、前記部分画像において前記複数の直線によって区切られた複数の部分領域を複数の色でそれぞれペイントすることをさらに含む、
付記10記載の画像形成方法。
(付記12)
前記判定対象物は、人間であり、
前記複数の所定のキーポイントは、前記人間の頭部に対応する頭部グループ、前記人間の胴体に対応する胴体グループ、及び、前記人間の脚に対応する脚グループのいずれかにそれぞれ分類され、
前記複数の描線グループは、前記頭部グループに含まれる第1キーポイントと前記胴体グループに含まれる前記第1基準ポイントとを含む、第1描線グループを含む、
付記10又は11に記載の画像形成方法。
(付記13)
前記頭部グループは、鼻、左耳、及び右耳にそれぞれ対応する複数のキーポイントを含み、
前記胴体グループは、首、左肩、及び右肩にそれぞれ対応する複数のキーポイントを含み、
前記脚グループは、左膝及び右膝にそれぞれ対応する複数のキーポイントを含む、
付記12記載の画像形成方法。
(付記14)
前記第1キーポイントは、鼻に対応するキーポイントであり、
前記第1基準ポイントは、首に対応するキーポイントである、
付記12又は13に記載の画像形成方法。
(付記15)
前記処理対象画像は、前記判定対象物が写った撮像画像から抽出された正規化画像である、
付記9から14のいずれか1項に記載の画像形成方法。
(付記16)
姿勢の判定対象物が写っている第1画像領域と、前記第1画像領域を囲み前記判定対象物が写っていない第2画像領域とを含む処理対象画像に含まれる、前記判定対象物の複数の所定のキーポイントに基づいて、特徴抽出画像(Feature extracted image)を形成することを画像形成装置に実行させ、
前記特徴抽出画像を形成することは、前記処理対象画像において、各描線グループが前記複数の所定のキーポイントに含まれる少なくとも2つのキーポイントを含む、複数の描線グループのそれぞれについて、各描線グループに含まれるキーポイント上を通り且つ少なくとも一端が前記処理対象画像の端まで延びる直線を引くことによって、特徴マップ(texture map)を形成することを含む、
画像形成プログラムが格納された非一時的なコンピュータ可読媒体。
10 画像形成装置
11 特徴抽出画像形成部
11A 描線部
20 撮像装置
30 判定装置
40 画像形成装置
41 キーポイント検出部
42 グルーピング部
43 正規化画像形成部
44 特徴抽出画像形成部
44A 描線部
44B クロップ部
44C ペイント部
50 判定処理装置(判定手段)

Claims (10)

  1. 姿勢の判定対象物が写っている第1画像領域と、前記第1画像領域を囲み前記判定対象物が写っていない第2画像領域とを含む処理対象画像に含まれる、前記判定対象物の複数の所定のキーポイントに基づいて、特徴抽出画像を形成する形成手段を具備し、
    前記形成手段は、前記処理対象画像において、各描線グループが前記複数の所定のキーポイントに含まれる少なくとも2つのキーポイントを含む、複数の描線グループのそれぞれについて、各描線グループに含まれるキーポイント上を通り且つ少なくとも一端が前記処理対象画像の端まで延びる直線を引くことによって、特徴マップを形成する描線手段を含む、
    画像形成装置。
  2. 前記形成手段は、前記特徴マップから、前記複数の所定のキーポイントのうちの第1基準ポイントを所定位置に含み且つ所定のサイズルールに応じたサイズの部分画像を切り取るクロップ手段をさらに含む、
    請求項1記載の画像形成装置。
  3. 前記形成手段は、前記部分画像において前記複数の直線によって区切られた複数の部分領域にそれぞれ異なる色を付すことによって、前記特徴抽出画像を形成するペイント手段をさらに含む、
    請求項2記載の画像形成装置。
  4. 前記判定対象物は、人間であり、
    前記複数の所定のキーポイントは、前記人間の頭部に対応する頭部グループ、前記人間の胴体に対応する胴体グループ、及び、前記人間の脚に対応する脚グループのいずれかにそれぞれ分類され、
    前記複数の描線グループは、前記頭部グループに含まれる第1キーポイントと前記胴体グループに含まれる前記第1基準ポイントとを含む、第1描線グループを含む、
    請求項2又は3に記載の画像形成装置。
  5. 前記頭部グループは、鼻、左耳、及び右耳にそれぞれ対応する複数のキーポイントを含み、
    前記胴体グループは、首、左肩、及び右肩にそれぞれ対応する複数のキーポイントを含み、
    前記脚グループは、左膝及び右膝にそれぞれ対応する複数のキーポイントを含む、
    請求項4記載の画像形成装置。
  6. 前記第1キーポイントは、鼻に対応するキーポイントであり、
    前記第1基準ポイントは、首に対応するキーポイントである、
    請求項4又は5に記載の画像形成装置。
  7. 前記処理対象画像は、前記判定対象物が写った撮像画像から抽出された正規化画像である、
    請求項1から6のいずれか1項に記載の画像形成装置。
  8. 請求項1から7のいずれか1項に記載の画像形成装置と、
    ニューラルネットワークを含み、前記特徴抽出画像を用いて前記判定対象物の姿勢を判定する判定手段と、
    を具備する判定装置。
  9. 画像形成装置によって実行される画像形成方法であって、
    姿勢の判定対象物が写っている第1画像領域と、前記第1画像領域を囲み前記判定対象物が写っていない第2画像領域とを含む処理対象画像に含まれる、前記判定対象物の複数の所定のキーポイントに基づいて、特徴抽出画像を形成することを含み、
    前記特徴抽出画像を形成することは、前記処理対象画像において、各描線グループが前記複数の所定のキーポイントに含まれる少なくとも2つのキーポイントを含む、複数の描線グループのそれぞれについて、各描線グループに含まれるキーポイント上を通り且つ少なくとも一端が前記処理対象画像の端まで延びる直線を引くことによって、特徴マップを形成することを含む、
    画像形成方法。
  10. 姿勢の判定対象物が写っている第1画像領域と、前記第1画像領域を囲み前記判定対象物が写っていない第2画像領域とを含む処理対象画像に含まれる、前記判定対象物の複数の所定のキーポイントに基づいて、特徴抽出画像を形成することを画像形成装置に実行させ、
    前記特徴抽出画像を形成することは、前記処理対象画像において、各描線グループが前記複数の所定のキーポイントに含まれる少なくとも2つのキーポイントを含む、複数の描線グループのそれぞれについて、各描線グループに含まれるキーポイント上を通り且つ少なくとも一端が前記処理対象画像の端まで延びる直線を引くことによって、特徴マップを形成することを含む、
    画像形成プログラム。
JP2021549130A 2019-03-01 2019-03-01 画像形成装置、判定装置、画像形成方法、及び画像形成プログラム Active JP7193006B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/007986 WO2020178876A1 (en) 2019-03-01 2019-03-01 Image forming apparatus, determination apparatus, image forming method, and non-transitory computer readable medium storing image forming program

Publications (2)

Publication Number Publication Date
JP2022520995A JP2022520995A (ja) 2022-04-04
JP7193006B2 true JP7193006B2 (ja) 2022-12-20

Family

ID=72338236

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021549130A Active JP7193006B2 (ja) 2019-03-01 2019-03-01 画像形成装置、判定装置、画像形成方法、及び画像形成プログラム

Country Status (3)

Country Link
US (1) US11941864B2 (ja)
JP (1) JP7193006B2 (ja)
WO (1) WO2020178876A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021071794A (ja) * 2019-10-29 2021-05-06 キヤノン株式会社 主被写体判定装置、撮像装置、主被写体判定方法、及びプログラム
CN112949382A (zh) * 2021-01-22 2021-06-11 深圳市商汤科技有限公司 摄像头移动的检测方法及设备、电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008007471A1 (fr) 2006-07-10 2008-01-17 Kyoto University Procédé de suivi d'un marcheur et dispositif de suivi d'un marcheur
WO2010135455A1 (en) 2009-05-19 2010-11-25 Digimarc Corporation Histogram methods and systems for object recognition
US20120045132A1 (en) 2010-08-23 2012-02-23 Sony Corporation Method and apparatus for localizing an object within an image
WO2012046392A1 (ja) 2010-10-08 2012-04-12 パナソニック株式会社 姿勢推定装置及び姿勢推定方法
CN102508867A (zh) 2011-10-09 2012-06-20 南京大学 一种人体运动的运动图检索方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017216000A1 (de) * 2017-09-11 2019-03-14 Conti Temic Microelectronic Gmbh Gestensteuerung zur Kommunikation mit einem autonomen Fahrzeug auf Basis einer einfachen 2D Kamera
WO2019216593A1 (en) * 2018-05-11 2019-11-14 Samsung Electronics Co., Ltd. Method and apparatus for pose processing
US11074717B2 (en) * 2018-05-17 2021-07-27 Nvidia Corporation Detecting and estimating the pose of an object using a neural network model

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008007471A1 (fr) 2006-07-10 2008-01-17 Kyoto University Procédé de suivi d'un marcheur et dispositif de suivi d'un marcheur
WO2010135455A1 (en) 2009-05-19 2010-11-25 Digimarc Corporation Histogram methods and systems for object recognition
US20120045132A1 (en) 2010-08-23 2012-02-23 Sony Corporation Method and apparatus for localizing an object within an image
WO2012046392A1 (ja) 2010-10-08 2012-04-12 パナソニック株式会社 姿勢推定装置及び姿勢推定方法
CN102508867A (zh) 2011-10-09 2012-06-20 南京大学 一种人体运动的运动图检索方法

Also Published As

Publication number Publication date
US11941864B2 (en) 2024-03-26
WO2020178876A1 (en) 2020-09-10
JP2022520995A (ja) 2022-04-04
US20220139007A1 (en) 2022-05-05

Similar Documents

Publication Publication Date Title
US20210366124A1 (en) Graphical fiducial marker identification
CA2395886C (en) Method for video-based nose location tracking and hands-free computer input devices based thereon
US20070242856A1 (en) Object Recognition Method and Apparatus Therefor
US20230360432A1 (en) Facial authentication device, facial authentication method, and program recording medium
JP7193006B2 (ja) 画像形成装置、判定装置、画像形成方法、及び画像形成プログラム
JP4479194B2 (ja) 動作識別装置、及び対象物の姿勢識別装置
US20140163424A1 (en) Posture estimation device, posture estimation system, and posture estimation method
US8897568B2 (en) Device and method that compare facial images
KR101265466B1 (ko) 얼굴표정을 이용한 감정인식 장치, 감정인식 방법 및 그 기록매체
JP4912206B2 (ja) 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム
WO2018170695A1 (zh) 一种表观特征的描述属性识别方法及装置
JP2009211490A (ja) 画像認識方法および装置
JP6875058B2 (ja) 複数の認識エンジンを用いてコンテキストを推定するプログラム、装置及び方法
JP2005351814A (ja) 検出装置および検出方法
KR101396713B1 (ko) 약 영상을 이용한 약 식별장치
Singh et al. Template matching for detection & recognition of frontal view of human face through Matlab
US11527090B2 (en) Information processing apparatus, control method, and non-transitory storage medium
WO2021054217A1 (ja) 画像処理装置、画像処理方法及びプログラム
JP4158153B2 (ja) 顔画像検出方法
Sombatpiboonporn et al. Human edge segmentation from 2D images by histogram of oriented gradients and edge matching algorithm
KR20180104918A (ko) Rgb-d 영상 기반 손 검출 장치 및 그 방법
JP2021051376A (ja) 画像処理装置、画像処理方法及びプログラム
Achkar et al. Ethnicity recognition system using back propagation algorithm of an MLP
JP2021051375A (ja) 画像処理装置、画像処理方法及びプログラム
Yu et al. CPR++: Object Localization via Single Coarse Point Supervision

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210819

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221121

R151 Written notification of patent or utility model registration

Ref document number: 7193006

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151