JP2022070648A - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP2022070648A
JP2022070648A JP2020179823A JP2020179823A JP2022070648A JP 2022070648 A JP2022070648 A JP 2022070648A JP 2020179823 A JP2020179823 A JP 2020179823A JP 2020179823 A JP2020179823 A JP 2020179823A JP 2022070648 A JP2022070648 A JP 2022070648A
Authority
JP
Japan
Prior art keywords
region
feature
area
information processing
divided
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020179823A
Other languages
English (en)
Other versions
JP7524713B2 (ja
Inventor
超 張
Chao Zhang
優 薄波
Masaru Usunami
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2020179823A priority Critical patent/JP7524713B2/ja
Priority claimed from JP2020179823A external-priority patent/JP7524713B2/ja
Priority to CN202180068094.4A priority patent/CN116261742A/zh
Priority to DE112021005703.0T priority patent/DE112021005703T5/de
Priority to PCT/JP2021/032490 priority patent/WO2022091577A1/ja
Priority to US18/247,289 priority patent/US20230419500A1/en
Publication of JP2022070648A publication Critical patent/JP2022070648A/ja
Application granted granted Critical
Publication of JP7524713B2 publication Critical patent/JP7524713B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/422Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】撮像された画像から検出した領域を好適に分割できる技術を提供する。【解決手段】情報処理装置が、撮像された画像から、所定の特徴を有する特徴領域を検出する検出手段と、前記特徴領域の慣性主軸で前記特徴領域を分割する分割手段とを有する。【選択図】図1

Description

本発明は、撮像された画像から検出した領域を分割する技術に関する。
撮像された画像から人体などの所定の物体を検出する際に、所定の物体の領域よりも広い領域が検出され、所定の物体が高精度に検出できないことがある。ここで、動きのある領域を検出し、検出した領域に含まれた物体が人体であるか否かを識別する場合を考える。この場合には、物体とその影を含む領域が検出されることがある。物体とその影を含む領域が検出されると、影の影響を受けて、物体が人体であるか否かを高精度に識別できない。
特許文献1には、予め定められた基準輝度値に基づいて、背景差分画像(対象物とその影を含む画像)から影を削除する技術が開示されている。
特開2008-245063号公報
しかしながら、暗い環境下や逆光で撮像が行われた場合には、物体(対象物)の輝度値が影の輝度値に近くなるため、特許文献1に開示の技術で高精度に影を削除することはできない(物体の少なくとも一部が削除されてしまう)。つまり、特許文献1に開示の技術を用いても、物体とその影を含む領域を物体の領域と影の領域とに高精度に分離(分割)することはできない。
本発明は上記実情に鑑みなされたものであって、撮像された画像から検出した領域を好適に分割できる技術を提供することを目的とする。
上記目的を達成するために本発明は、以下の構成を採用する。
本発明の第一側面は、撮像された画像から、所定の特徴を有する特徴領域を検出する検出手段と、前記特徴領域の慣性主軸で前記特徴領域を分割する分割手段とを有することを特徴とする情報処理装置を提供する。
多くの場合、分離(分割)すべき2つの物体の間で、物体が伸びる方向は異なる。例えば、地面に人が立っている場合には、人は地面に略垂直な方向に伸び、影は地面に沿った方向に伸びる。そこで、上述した構成では、検出した特徴領域の慣性主軸で特徴領域を分割するとしている。こうすることで、特徴領域を好適に(所望の2つの物体にそれぞれ対応する2つの分割領域が得られるように)分割することができる。
特徴領域の慣性主軸は2つ存在し、使用する慣性主軸に依っては特徴領域を好適に分割できない。このため、前記分割手段は、前記特徴領域の重心が、前記特徴領域の外接矩形の中心を通る水平軸と垂直軸によって得られる4つの象限のうち、第1象限または第3象限に位置する場合には、前記特徴領域の2つの慣性主軸のうち、前記水平軸からの偏角が小さい方の慣性主軸で前記特徴領域を分割し、前記特徴領域の重心が、前記4つの象限の
うち、第2象限または第4象限に位置する場合には、前記特徴領域の2つの慣性主軸のうち、前記水平軸からの偏角が大きい方の慣性主軸で前記特徴領域を分割するとしてもよい。こうすることで、特徴領域をより好適に分割することができる(特徴領域の好適な分割をより確実に実現することができる)。
分割すべきでない1つの物体の領域と同等の特徴領域が検出された場合などのように、慣性主軸で特徴領域を分割すべきでない場合がある。そして、そのような場合に、特徴領域の外接矩形に占める特徴領域の割合は大きい傾向にある。このため、前記分割手段が前記特徴領域を分割して得た2つの分割領域を採用するか、前記特徴領域を採用するかを判断する判断手段をさらに有し、前記判断手段は、前記特徴領域の外接矩形に占める前記特徴領域の割合に対応する評価値が所定の閾値未満である場合に、前記2つの分割領域を採用すると判断し、前記評価値が前記所定の閾値以上である場合に、前記特徴領域を採用すると判断するとしてもよい。こうすることで、特徴領域をより好適に分割することができる(特徴領域を分割すべき場合に分割結果を採用し、特徴領域を分割すべきでない場合に特徴領域を採用する(分割結果を採用しない)という動作を高精度に実現することができる)。
前記評価値は、前記特徴領域の外接矩形の面積に対する、前記2つの分割領域それぞれの外接矩形の合計面積の割合であるとしてもよい。前記評価値は、前記特徴領域の外接矩形の面積に対する、前記2つの分割領域それぞれの外接矩形の論理和の面積の割合であるとしてもよい。
採用する領域の外接矩形に含まれた物体が所定の物体であるか否かを識別する識別手段をさらに有し、前記2つの分割領域が採用される場合に、前記識別手段は、前記2つの分割領域のそれぞれについて、その分割領域の外接矩形に含まれた物体が所定の物体であるか否かを識別するとしてもよい。こうすることで、所定の物体を高精度に識別(検出)することができる。例えば、特徴領域に所定の物体が含まれている場合には、特徴領域の分割によって、所定の物体の領域により近い分割領域が得られる。このため、得られた分割領域の外接矩形に含まれた物体が所定の物体であることは、特徴領域の外接矩形を用いる場合よりも高精度に識別(検出)することができる。
前記所定の物体は人体であるとしてもよい。こうすることで、人体を高精度に識別(検出)することができる。
前記検出手段は、動きのある領域を、前記特徴領域として検出するとしてもよい。前記検出手段は、所定範囲内の画素値を有する領域を、前記特徴領域として検出するとしてもよい。前記検出手段は、エッジで囲まれた領域を、前記特徴領域として検出するとしてもよい。
本発明の第二側面は、撮像された画像から、所定の特徴を有する特徴領域を検出する検出ステップと、前記特徴領域の慣性主軸で前記特徴領域を分割する分割ステップとを有することを特徴とする情報処理方法を提供する。
なお、本発明は、上記構成ないし機能の少なくとも一部を有する情報処理システム、人体検出装置、人体検出システムなどとして捉えることができる。また、本発明は、上記処理の少なくとも一部を含む、情報処理方法、人体検出方法、情報処理システムの制御方法、又は人体検出システムの制御方法や、これらの方法をコンピュータに実行させるためのプログラム、又は、そのようなプログラムを非一時的に記録したコンピュータ読取可能な記録媒体として捉えることもできる。上記構成及び処理の各々は技術的な矛盾が生じない限り互いに組み合わせて本発明を構成することができる。
本発明によれば、撮像された画像から検出した領域を好適に分割することができる。
図1は、本発明が適用された情報処理装置の構成例を示すブロック図である。 図2は、本発明の実施形態1に係るカメラ(情報処理装置)の構成例を示すブロック図である。 図3は、本発明の実施形態1に係るカメラの処理フロー例を示すフローチャートである。 図4は、本発明の実施形態1に係るカメラの動作の具体例を示す図である。 図5は、本発明の実施形態1に係るカメラの動作の具体例を示す図である。 図6は、本発明の実施形態1に係る表示例を示す図である。 図7は、本発明の実施形態2に係るカメラ(情報処理装置)の構成例を示すブロック図である。 図8は、本発明の実施形態2に係るカメラの処理フロー例を示すフローチャートである。 図9は、本発明の実施形態2に係るカメラの動作の具体例を示す図である。 図10(A)~10(C)は、領域分割の一例を示す図である。
<適用例>
本発明の適用例について説明する。
従来技術では、撮像された画像から人体などの所定の物体を検出する際に、所定の物体の領域よりも広い領域が検出され、所定の物体が高精度に検出できないことがある。ここで、動きのある領域を検出し、検出した領域に含まれた物体が人体であるか否かを識別する場合を考える。この場合には、物体とその影を含む領域が検出されることがある。物体とその影を含む領域が検出されると、影の影響を受けて、物体が人体であるか否かを高精度に識別できない。
検出された領域を輝度値に基づいて分割する従来技術も提案されているが、当該従来技術では領域を好適に分割することができない。例えば、暗い環境下や逆光で撮像が行われた場合には、物体の輝度値が影の輝度値に近くなるため、物体とその影を含む領域を物体の領域と影の領域とに高精度に分離(分割)することができない。
図1は、本発明が適用された情報処理装置100の構成例を示すブロック図である。情報処理装置100は、領域検出部101と領域分割部102を有する。領域検出部101は、撮像された画像から、所定の特徴を有する特徴領域を検出する。領域分割部102は、領域検出部101により検出された特徴領域の慣性主軸で、特徴領域を分割する。領域検出部101は本発明の検出手段の一例であり、領域分割部102は本発明の分割手段の一例である。特徴領域は、例えば、動きのある領域、所定範囲内の画素値(RGB値や輝度値など)を有する領域、エッジで囲まれた領域などである。つまり、所定の特徴は、「領域に動きがある」、「領域が所定範囲内の画素値を有する」、「領域がエッジで囲まれている」などである。所定範囲は、例えば、人体などの所定の物体が取り得る画素値の範囲である。撮像の環境(例えば、太陽や照明などからの光)は時刻に依存するため、所定範囲は時刻に依って変化してもよい。
多くの場合、分離(分割)すべき2つの物体の間で、物体が伸びる方向は異なる。例え
ば、地面に人が立っている場合には、人は地面に略垂直な方向に伸び、影は地面に沿った方向に伸びる。そこで、上述した構成では、検出した特徴領域の慣性主軸で特徴領域を分割するとしている。こうすることで、特徴領域を好適に(所望の2つの物体にそれぞれ対応する2つの分割領域が得られるように)分割することができる。
<実施形態1>
本発明の実施形態1について説明する。
図2は、実施形態1に係るカメラ200(情報処理装置)の構成例を示すブロック図である。カメラ200は、撮像部210、制御部220、記憶部230、及び、表示部240を有する。
なお、実施形態1では、本発明をカメラに適用した場合の例を説明するが、本発明が適用される情報処理装置はカメラに限られない。例えば、本発明は、カメラ(撮像部210)とは別体のパーソナルコンピュータ(PC)に適用されてもよい。表示部240は、本発明が適用される情報処理装置とは別体の表示装置(モニタ)であってもよい。本発明が適用される情報処理装置がカメラとは別体の装置である場合には、情報処理装置の設置場所は特に限定されない。例えば、情報処理装置はカメラと同じ部屋に設置されてもよいし、そうでなくてもよい。上述したPCは、クラウド上のコンピュータであってもよいし、スマートフォンやタブレット端末などの各種端末であってもよい。
撮像部210は、画像を撮像して制御部220へ出力する。実施形態1では、撮像部210が動画を撮像するとする。撮像部210は、動画のフレームを撮像して制御部220へ出力する処理を、順次行う。なお、撮像部210は、静止画を撮像して制御部220へ出力する処理を、順次行ってもよい。
制御部220は、CPU(Central Processing Unit)やRAM(Random Access Memory)、ROM(Read Only Memory)などを含み、各構成要素の制御や、各種情報処理などを行う。
記憶部230は、制御部220で実行されるプログラムや、制御部220で使用される各種データなどを記憶する。例えば、記憶部230は、ハードディスクドライブやソリッドステートドライブなどの補助記憶装置である。
表示部240は、制御部220から出力された情報に基づく表示を行う。
制御部220について、より詳細に説明する。制御部220は、領域検出部221、慣性主軸算出部222、領域分割部223、領域選択部224、及び、人体識別部225を有する。
領域検出部221は、撮像部210により撮像された画像から、所定の特徴を有する特徴領域を検出する。そして、領域検出部221は、撮像部210により撮像された画像と、検出した特徴領域を示す情報とを、慣性主軸算出部222へ出力する。特徴領域は、例えば、動きのある領域、所定範囲内の画素値(RGB値や輝度値など)を有する領域、エッジで囲まれた領域などである。つまり、所定の特徴は、「領域に動きがある」、「領域が所定範囲内の画素値を有する」、「領域がエッジで囲まれている」などである。所定範囲は、例えば、所定の物体(実施形態1では人体)が取り得る画素値の範囲である。撮像の環境(例えば、太陽や照明などからの光)は時刻に依存するため、所定範囲は時刻に依って変化してもよい。領域検出部221は本発明の検出手段の一例である。
なお、特徴領域の検出方法(動きの有無の判定方法や、エッジの検出方法など)は特に限定されず、特徴領域の検出には、提案されている様々な方法を用いることができる。動きの有無は、背景差分法により判定されてもよいし、フレーム間差分法により判定されてもよい。背景差分法は、例えば、撮像された画像のうち、所定の背景画像との画素値の差分(絶対値)が所定の閾値以上の画素を、動きのある画素として検出する方法である。フレーム間差分法は、例えば、撮像された現在の画像(現在のフレーム)のうち、撮像された過去の画像(過去のフレーム)との画素値の差分が所定の閾値以上の画素を、動きのある画素として検出する方法である。フレーム間差分法において、例えば、過去のフレームは、現在のフレームの所定数前のフレームであり、所定数は1以上である。所定数(現在のフレームから過去のフレームまでのフレーム数)は、制御部220の処理のフレームレートや、撮像部210による撮像のフレームレートなどに応じて決定されてもよい。
慣性主軸算出部222は、領域検出部221により検出された特徴領域を示す情報に基づいて、特徴領域の慣性主軸を算出する。そして、慣性主軸算出部222は、撮像部210により撮像された画像、領域検出部221により検出された特徴領域を示す情報、及び、算出した慣性主軸を示す情報を、領域分割部223へ出力する。慣性主軸の算出方法は特に限定されず、慣性主軸の算出には、提案されている様々な方法を用いることができる。
領域分割部223は、領域検出部221により検出された特徴領域を、慣性主軸算出部222により算出された慣性主軸で分割することにより、2つの分割領域を得る。そして、領域分割部223は、撮像部210により撮像された画像、領域検出部221により検出された特徴領域を示す情報、及び、取得した2つの分割領域を示す情報を、領域選択部224へ出力する。領域分割部223は本発明の分割手段の一例である。
領域選択部224は、領域分割部223により得られた2つの分割領域を採用するか、領域検出部221により検出された特徴領域を採用するかを判断する(採用する領域を選択する)。領域選択部224は本発明の判断手段の一例である。
分割すべきでない1つの物体の領域と同等の特徴領域が検出された場合などのように、慣性主軸で特徴領域を分割すべきでない場合がある。そして、そのような場合に、特徴領域の外接矩形に占める特徴領域の割合は大きい傾向にある。このため、特徴領域の外接矩形に占める特徴領域の割合に対応する評価値が所定の閾値未満である場合に、領域選択部224は、2つの分割領域を採用すると判断する。一方で、評価値が所定の閾値以上である場合には、領域選択部224は、特徴領域を採用すると判断する。こうすることで、特徴領域をより好適に分割することができる(特徴領域を分割すべき場合に分割結果を採用し、特徴領域を分割すべきでない場合に特徴領域を採用する(分割結果を採用しない)という動作を高精度に実現することができる)。
実施形態1では、領域選択部224は、領域検出部221により検出された特徴領域を示す情報に基づいて、特徴領域の外接矩形を算出し、領域分割部223により得られた2つの分割領域を示す情報に基づいて、2つの分割領域それぞの外接矩形を算出する。そして、領域選択部224は、特徴領域の外接矩形の面積(外接矩形内の画素数)に対する、2つの分割領域それぞれの外接矩形の合計面積の割合を、評価値として算出する。
なお、特徴領域の外接矩形の面積に対する、2つの分割領域それぞれの外接矩形の論理和の面積の割合が、評価値として算出されてもよい。こうすることで、特徴領域の外接矩形に占める特徴領域の割合により近い評価値を算出でき、領域の採用/不採用をより好適に判断することができる。もちろん、特徴領域の外接矩形に占める特徴領域の割合、つまり特徴領域の外接矩形の面積に対する特徴領域の面積の割合が、評価値として算出されて
もよい。
領域選択部224は、採用する領域を決定すると、撮像部210により撮像された画像と、採用する領域の外接矩形を示す情報とを、人体識別部225へ出力する。
人体識別部225は、領域選択部224から出力された情報(撮像部210により撮像された画像、及び、採用する領域の外接矩形を示す情報)に基づいて、採用する領域の外接矩形に含まれた物体が人体(所定の物体)であるか否かを識別する。2つの分割領域が採用される場合には、人体識別部225は、2つの分割領域のそれぞれについて、その分割領域の外接矩形に含まれた物体が人体であるか否かを識別する。こうすることで、人体を高精度に識別(検出)することができる。例えば、特徴領域に人体が含まれている場合には、特徴領域の分割によって、人体の領域により近い分割領域が得られる。このため、得られた分割領域の外接矩形に含まれた物体が人体であることは、特徴領域の外接矩形を用いる場合よりも高精度に識別(検出)することができる。人体識別部225は本発明の識別手段の一例である。
人体識別部225は、人体識別を終えると、撮像部210により撮像された画像と、人体識別の結果とを、表示部240へ出力する。こうすることで、表示部240は、人体識別の結果を、撮像された画像と共に表示することができる。例えば、人体識別の結果には、採用する領域の外接矩形を示す情報や、外接矩形に含まれた物体が人体であるか否かを示す情報などが含まれる。そして、表示部240は、採用する領域の外接矩形を、撮像された画像に重ねて表示する。外接矩形の態様(線種や輝度、色など)は、外接矩形に含まれた物体が人体であるか否かに応じて変更される。
なお、人体識別部225は、人体識別の結果を、撮像された画像と紐づけて記憶媒体に記録してもよい。記憶媒体は、カメラ200の一部であってもよいし、そうでなくてもよい。
また、人体識別部225による人体識別にはどのようなアルゴリズムを用いてもよい。例えば、HoGやHaar-likeなどの画像特徴とブースティングを組み合わせた識別器を用いてもよい。既存の機械学習により生成された学習済みモデルを用いてもよく、具体的にはディープラーニング(例えば、R-CNN、Fast R-CNN、YOLO、SSDなど)により生成された学習済みモデルを用いてもよい。
図3は、カメラ200の処理フロー例を示すフローチャートである。カメラ200は、図3の処理フローを繰り返し実行する。制御部220の処理のフレームレート(繰り返し周期)は特に限定されないが、実施形態1では、撮像部210による撮像のフレームレート(例えば30fps)と同じであるとする。
まず、撮像部210は、画像を撮像する(ステップS301)。次に、領域検出部221は、ステップS301で撮像された画像から、所定の特徴を有する特徴領域を検出する(ステップS302)。そして、慣性主軸算出部222は、ステップS302で検出された特徴領域の慣性主軸を算出する(ステップS303)。次に、領域分割部223は、ステップS302で検出された特徴領域を、ステップS303で算出された慣性主軸で分割することにより、2つの分割領域を得る(ステップS304)。
そして、領域選択部224は、ステップS302で検出された特徴領域とステップS304で得られた2つの分割領域とに基づいて評価値を算出し、算出した評価値が所定の閾値未満であるか否かを判定する(ステップS305)。評価値が所定の閾値未満であると判定された場合(ステップS305:YES)にはステップS306へ処理が進められ、
評価値が所定の閾値以上であると判定された場合(ステップS305:NO)にはステップS307へ処理が進められる。
ステップS306では、人体識別部225は、ステップS304で得られた2つの分割領域のそれぞれについて、その分割領域の外接矩形に含まれた物体が人体であるか否かを識別する。ステップS307では、人体識別部225は、ステップS302で検出された特徴領域の外接矩形に含まれた物体が人体であるか否かを識別する。ステップS306の処理またはステップS307の処理が行われた後、ステップS308へ処理が進められる。ステップS308では、表示部240は、ステップS301~S307の処理結果を表示する。
カメラ200の動作の具体例について、図4を用いて説明する。図4の例では、人体とその影を含む特徴領域401が検出されている(ステップS302)。人体識別を高精度に行うために、特徴領域401は、人体の領域と影の領域とに分割すべきである。慣性主軸算出部222は、特徴領域401の重心402を算出し、重心402を通る、特徴領域401の慣性主軸403を算出する(ステップS303)。そして、領域分割部223は、特徴領域401を慣性主軸403で分割することにより、2つの分割領域404,405を得る(ステップS304)。図4から明らかなように、分割領域404は人体に対応し、分割領域405は影に対応する。このため、分割領域404,405を採用して人体識別を行うべきである。領域選択部224は、特徴領域401の外接矩形406、分割領域404の外接矩形407、及び、分割領域405の外接矩形408を算出する。そして、領域選択部224は、外接矩形406の面積に対する、外接矩形407の面積と外接矩形408の面積との和(合計面積)の割合を、評価値として算出する。図4から明らかなように、評価値として比較的小さい値(所定の閾値未満の値)が得られる(ステップS305:YES)。このため、分割領域404,405を採用して人体識別を行うことができる(ステップS306)。
カメラ200の動作の他の具体例について、図5を用いて説明する。図5の例では、人体の領域と同等の特徴領域501が検出されている(ステップS302)。人体識別を高精度に行うために、特徴領域501は分割すべきでない。慣性主軸算出部222は、特徴領域501の重心502を算出し、重心502を通る、特徴領域501の慣性主軸503を算出する(ステップS303)。そして、領域分割部223は、特徴領域501を慣性主軸503で分割することにより、2つの分割領域504,505を得る(ステップS304)。図5から明らかなように、分割領域504は人体の上半身に対応し、分割領域505は人体の下半身に対応する。分割領域504,505を採用して人体識別を行うと、人体が検出できなかったり、人体の一部が検出されたりしてしまう。このため、分割領域504,505を採用して人体識別を行うべきではなく、特徴領域501を採用して人体識別を行うべきである。領域選択部224は、特徴領域501の外接矩形506、分割領域504の外接矩形507、及び、分割領域505の外接矩形508を算出する。そして、領域選択部224は、外接矩形506の面積に対する、外接矩形507の面積と外接矩形508の面積との和(合計面積)の割合を、評価値として算出する。図5から明らかなように、評価値として比較的大きい値(所定の閾値以上の値)が得られる(ステップS305:NO)。このため、分割領域504,505を採用せず、特徴領域501を採用して人体識別を行うことができる(ステップS306)。
図6は、表示部240による表示の一例を示す図である。図6では、撮像された画像は、人体601、自動車602、及び、それらの影を含む。人体601については、評価値が閾値未満となるため、人体601を含む枠603(分割領域の外接矩形)と、人体601の影を含む枠604(分割領域の外接矩形)とが表示される。自動車602については、評価値が閾値以上となるため、自動車602とその影を含む枠605(特徴領域の外接
矩形)が表示される。枠603に含まれる物体は人体として識別され、枠604に含まれる物体と枠605に含まれる物体とは人体として識別されないため、枠603は実線で、枠604,605は破線で表示される。
以上述べたように、実施形態1によれば、特徴領域の慣性主軸で特徴領域が分割される。これにより、特徴領域を好適に(所望の2つの物体にそれぞれ対応する2つの分割領域が得られるように)分割することができる。さらに、特徴領域の外接矩形に占める前記特徴領域の割合に対応する評価値に基づいて、特徴領域を分割して得た2つの分割領域を採用するか、前記特徴領域を採用するかが判断される。これにより、特徴領域をより好適に分割することができる(特徴領域を分割すべき場合に分割結果を採用し、特徴領域を分割すべきでない場合に特徴領域を採用する(分割結果を採用しない)という動作を高精度に実現することができる)。
<実施形態2>
本発明の実施形態2について説明する。特徴領域の慣性主軸は2つ存在し、使用する慣性主軸に依っては特徴領域を好適に分割できない。実施形態2では、特徴領域をより好適に分割することができる(特徴領域の好適な分割をより確実に実現することができる)ように、使用する慣性主軸を選択する。
図7は、実施形態2に係るカメラ700(情報処理装置)の構成例を示すブロック図である。カメラ700は、撮像部210、制御部720、記憶部230、及び、表示部240を有する。制御部720は、制御部220(図2)と同様の機能を有する。制御部720は、領域検出部221、慣性主軸算出部222、慣性主軸選択部721、領域分割部223、領域選択部224、及び、人体識別部225を有する。
慣性主軸算出部222は、撮像部210により撮像された画像、領域検出部221により検出された特徴領域を示す情報、及び、算出した慣性主軸を示す情報を、慣性主軸選択部721へ出力する。実施形態2では、慣性主軸算出部222が特徴領域の2つの慣性主軸を算出するとするが、そうでなくてもよい。例えば、慣性主軸算出部222が、2つの慣性主軸のうちの一方を算出し、慣性主軸選択部721が、必要に応じて、慣性主軸算出部222により算出された慣性主軸を補正して、2つの慣性主軸のうちの他方を取得してもよい。
慣性主軸選択部721は、特徴領域の2つの慣性主軸のうちの一方を選択する。特徴領域の重心が、特徴領域の外接矩形の中心を通る水平軸と垂直軸によって得られる4つの象限のうち、第1象限または第3象限に位置する場合には、2つの慣性主軸のうち、水平軸(水平方向)からの偏角が小さい方の慣性主軸が選択される。特徴領域の重心が、4つの象限のうち、第2象限または第4象限に位置する場合には、特徴領域の2つの慣性主軸のうち、水平軸からの偏角が大きい方の慣性主軸が選択される。そして、慣性主軸選択部721は、撮像部210により撮像された画像、領域検出部221により検出された特徴領域を示す情報、及び、選択した慣性主軸を示す情報を、領域分割部223へ出力する。領域分割部223は、領域検出部221により検出された特徴領域を、慣性主軸選択部721により選択された慣性主軸で分割する。こうすることで、特徴領域をより好適に分割することができる(特徴領域の好適な分割をより確実に実現することができる)。
図8は、カメラ700の処理フロー例を示すフローチャートである。カメラ700は、図8の処理フローを繰り返し実行する。制御部720の処理のフレームレート(繰り返し周期)は特に限定されないが、実施形態2では、撮像部210による撮像のフレームレート(例えば30fps)と同じであるとする。
図8の処理フローでは、ステップS303の処理とステップS304の処理との間に、ステップS800の処理が行われる。ステップS800では、慣性主軸選択部721は、ステップS303で算出された2つの慣性主軸のうちの一方を選択する。ステップS304では、領域分割部223は、ステップS302で検出された特徴領域を、ステップS800で選択された慣性主軸で分割する。
カメラ200の動作の具体例について、図9を用いて説明する。
図9の例では、人体とその影を含む特徴領域901が検出されている(ステップS302)。人体識別を高精度に行うために、特徴領域901は、人体の領域と影の領域とに分割すべきである。慣性主軸算出部222は、特徴領域901の重心902を算出し、重心902を通る、特徴領域901の慣性主軸903,904を算出する(ステップS303)。水平方向から慣性主軸903までの偏角θ1は、水平方向から慣性主軸904までの偏角θ2よりも小さい。慣性主軸903と慣性主軸904とは互いに直交するため、偏角θ2は、偏角θ1+90°である。
慣性主軸選択部721は、慣性主軸903,904のうちの一方を選択する(ステップS800)。図9から明らかなように、特徴領域901を慣性主軸903で分割しても、特徴領域901は人体の領域と影の領域とに分割されず、特徴領域901を慣性主軸904で分割することで、特徴領域901を人体の領域と影の領域とに分割することができる。そのため、慣性主軸選択部721は慣性主軸904を選択する必要がある。
慣性主軸選択部721は、領域検出部221により検出された特徴領域を示す情報に基づいて、特徴領域901の重心902と、特徴領域901の外接矩形の中心905とを算出する。そして、慣性主軸選択部721は、重心902の座標と中心905の座標とに基づいて、中心905を通る水平軸と垂直軸によって得られる4つの象限のうち、重心902が位置する象限を判断する。ここで、図9で水平軸として示されている矢印の方向に進むにつれて水平座標(水平方向の位置座標)が増加し、垂直軸として示されている矢印の方向に進むにつれて垂直座標(垂直方向の位置座標)が増加する場合を考える。この場合には、重心902の水平座標が中心905の水平座標よりも大きく、且つ、重心902の垂直座標が中心905の垂直座標よりも大きければ、重心901は第1象限に位置すると判断できる。重心902の水平座標が中心905の水平座標よりも小さく、且つ、重心902の垂直座標が中心905の垂直座標よりも大きければ、重心901は第2象限に位置すると判断できる。重心902の水平座標が中心905の水平座標よりも小さく、且つ、重心902の垂直座標が中心905の垂直座標よりも小さければ、重心901は第3象限に位置すると判断できる。重心902の水平座標が中心905の水平座標よりも大きく、且つ、重心902の垂直座標が中心905の垂直座標よりも小さければ、重心901は第4象限に位置すると判断できる。
そして、慣性主軸選択部721は、重心902が位置する象限の判断結果に応じて、慣性主軸903,904のうちの一方を選択する。重心902が第1象限または第3象限に位置する場合には、慣性主軸選択部721は、慣性主軸903,904のうち、水平軸(水平方向)からの偏角が小さい慣性主軸903を選択する。重心902が第2象限または第4象限に位置する場合には、慣性主軸選択部721は、慣性主軸903,904のうち、水平軸からの偏角が大きい慣性主軸904を選択する。図9では、重心902が第4象限に位置するため、慣性主軸選択部721は、慣性主軸904を選択することができる。ひいては、特徴領域901を人体の領域と影の領域とに分割することができる。
以上述べたように、実施形態2によれば、特徴領域の外接矩形の中心を通る水平軸と垂直軸によって得られる4つの象限のうち、特徴領域の重心が位置する象限に応じて、使用
する慣性主軸が選択される。これにより、特徴領域をより好適に分割することができる(特徴領域の好適な分割をより確実に実現することができる)。
<その他>
上記実施形態は、本発明の構成例を例示的に説明するものに過ぎない。本発明は上記の具体的な形態には限定されることはなく、その技術的思想の範囲内で種々の変形が可能である。例えば、識別する所定の物体は人体でなくてもよく、自動車や建物、指、腕、胴体、動物などであってもよい。また、特徴領域を人体の領域と影の領域に分割する例を説明したが、これに限られない。本発明によれば、図10(A)に示すように、特徴領域を2つの建物(2つの建物にそれぞれ対応する2つの領域)に分割することもできる。図10(B)に示すように、特徴領域を電柱の領域と影の領域とに分割することもできる。図10(C)に示すように、特徴領域を親指の領域と人差し指の領域とに分割することもできる。特徴領域(人体の領域)を胴体の領域と腕の領域とに分割することもできる。このように、本発明は、様々な用途で利用することができる。
<付記1>
撮像された画像から、所定の特徴を有する特徴領域を検出する検出手段(101,221)と、
前記特徴領域の慣性主軸で前記特徴領域を分割する分割手段(102,223)と
を有することを特徴とする情報処理装置(100,200,700)。
<付記2>
撮像された画像から、所定の特徴を有する特徴領域を検出する検出ステップ(S302)と、
前記特徴領域の慣性主軸で前記特徴領域を分割する分割ステップ(S304)と
を有することを特徴とする情報処理方法。
100:情報処理装置 101:領域検出部 102:領域分割部
200:カメラ(情報処理装置)
210:撮像部 220:制御部 230:記憶部 240:表示部
221:領域検出部 222:慣性主軸算出部 223:領域分割部
224:領域選択部 225:人体識別部
700:カメラ(情報処理装置) 720:制御部 721:慣性主軸選択部

Claims (12)

  1. 撮像された画像から、所定の特徴を有する特徴領域を検出する検出手段と、
    前記特徴領域の慣性主軸で前記特徴領域を分割する分割手段と
    を有することを特徴とする情報処理装置。
  2. 前記分割手段は、
    前記特徴領域の重心が、前記特徴領域の外接矩形の中心を通る水平軸と垂直軸によって得られる4つの象限のうち、第1象限または第3象限に位置する場合には、前記特徴領域の2つの慣性主軸のうち、前記水平軸からの偏角が小さい方の慣性主軸で前記特徴領域を分割し、
    前記特徴領域の重心が、前記4つの象限のうち、第2象限または第4象限に位置する場合には、前記特徴領域の2つの慣性主軸のうち、前記水平軸からの偏角が大きい方の慣性主軸で前記特徴領域を分割する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記分割手段が前記特徴領域を分割して得た2つの分割領域を採用するか、前記特徴領域を採用するかを判断する判断手段をさらに有し、
    前記判断手段は、
    前記特徴領域の外接矩形に占める前記特徴領域の割合に対応する評価値が所定の閾値未満である場合に、前記2つの分割領域を採用すると判断し、
    前記評価値が前記所定の閾値以上である場合に、前記特徴領域を採用すると判断することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記評価値は、前記特徴領域の外接矩形の面積に対する、前記2つの分割領域それぞれの外接矩形の合計面積の割合である
    ことを特徴とする請求項3に記載の情報処理装置。
  5. 前記評価値は、前記特徴領域の外接矩形の面積に対する、前記2つの分割領域それぞれの外接矩形の論理和の面積の割合である
    ことを特徴とする請求項3に記載の情報処理装置。
  6. 採用する領域の外接矩形に含まれた物体が所定の物体であるか否かを識別する識別手段をさらに有し、
    前記2つの分割領域が採用された場合に、前記識別手段は、前記2つの分割領域のそれぞれについて、その分割領域の外接矩形に含まれた物体が所定の物体であるか否かを識別する
    ことを特徴とする請求項3~5のいずれか1項に記載の情報処理装置。
  7. 前記所定の物体は人体である
    ことを特徴とする請求項6に記載の情報処理装置。
  8. 前記検出手段は、動きのある領域を、前記特徴領域として検出する
    ことを特徴とする請求項1~7のいずれか1項に記載の情報処理装置。
  9. 前記検出手段は、所定範囲内の画素値を有する領域を、前記特徴領域として検出する
    ことを特徴とする請求項1~7のいずれか1項に記載の情報処理装置。
  10. 前記検出手段は、エッジで囲まれた領域を、前記特徴領域として検出する
    ことを特徴とする請求項1~7のいずれか1項に記載の情報処理装置。
  11. 撮像された画像から、所定の特徴を有する特徴領域を検出する検出ステップと、
    前記特徴領域の慣性主軸で前記特徴領域を分割する分割ステップと
    を有することを特徴とする情報処理方法。
  12. 請求項11に記載の情報処理装置の各ステップをコンピュータに実行させるためのプログラム。
JP2020179823A 2020-10-27 2020-10-27 情報処理装置および情報処理方法 Active JP7524713B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020179823A JP7524713B2 (ja) 2020-10-27 情報処理装置および情報処理方法
CN202180068094.4A CN116261742A (zh) 2020-10-27 2021-09-03 信息处理装置及信息处理方法
DE112021005703.0T DE112021005703T5 (de) 2020-10-27 2021-09-03 Informationsverarbeitungseinrichtung und informationsverarbeitungsverfahren
PCT/JP2021/032490 WO2022091577A1 (ja) 2020-10-27 2021-09-03 情報処理装置および情報処理方法
US18/247,289 US20230419500A1 (en) 2020-10-27 2021-09-03 Information processing device and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020179823A JP7524713B2 (ja) 2020-10-27 情報処理装置および情報処理方法

Publications (2)

Publication Number Publication Date
JP2022070648A true JP2022070648A (ja) 2022-05-13
JP7524713B2 JP7524713B2 (ja) 2024-07-30

Family

ID=

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022224638A1 (ja) * 2021-04-23 2022-10-27 オムロン株式会社 情報処理装置、情報処理方法、及び制御プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022224638A1 (ja) * 2021-04-23 2022-10-27 オムロン株式会社 情報処理装置、情報処理方法、及び制御プログラム

Also Published As

Publication number Publication date
DE112021005703T5 (de) 2023-08-17
WO2022091577A1 (ja) 2022-05-05
CN116261742A (zh) 2023-06-13
US20230419500A1 (en) 2023-12-28

Similar Documents

Publication Publication Date Title
US11010905B2 (en) Efficient object detection and tracking
US10445887B2 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
CN106774936B (zh) 人机交互方法及***
JP4689684B2 (ja) 動作に基づくトラッキング
US10600189B1 (en) Optical flow techniques for event cameras
US10255683B1 (en) Discontinuity detection in video data
JP2023518562A (ja) デバイスのハンドジェスチャベースの制御のための方法及びシステム
JP2019186955A (ja) 情報処理システム、情報処理方法及びプログラム
KR20190046351A (ko) 침입 탐지방법 및 그 장치
WO2020202865A1 (ja) 人検出装置および人検出方法
US20180307896A1 (en) Facial detection device, facial detection system provided with same, and facial detection method
JP2012238293A (ja) 入力装置
CN111145215A (zh) 一种目标跟踪方法及装置
WO2020137193A1 (ja) 人検出装置および人検出方法
CN110557628A (zh) 一种检测摄像头遮挡的方法、装置及电子设备
TWI749370B (zh) 臉部辨識方法及其相關電腦系統
CN114140745A (zh) 施工现场人员属性检测方法、***、装置及介质
WO2022091577A1 (ja) 情報処理装置および情報処理方法
US10965858B2 (en) Image processing apparatus, control method thereof, and non-transitory computer-readable storage medium for detecting moving object in captured image
CN111986229A (zh) 视频目标检测方法、装置及计算机***
JP7074174B2 (ja) 識別器学習装置、識別器学習方法およびコンピュータプログラム
WO2011096571A1 (ja) 入力装置
KR20220144889A (ko) 디바이스의 손 제스처 기반 제어를 위한 방법 및 시스템
JP7524713B2 (ja) 情報処理装置および情報処理方法
CN115311723A (zh) 活体检测方法、装置及计算机可读存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240304

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240701