JP7143931B2 - 制御方法、学習装置、識別装置及びプログラム - Google Patents

制御方法、学習装置、識別装置及びプログラム Download PDF

Info

Publication number
JP7143931B2
JP7143931B2 JP2021503238A JP2021503238A JP7143931B2 JP 7143931 B2 JP7143931 B2 JP 7143931B2 JP 2021503238 A JP2021503238 A JP 2021503238A JP 2021503238 A JP2021503238 A JP 2021503238A JP 7143931 B2 JP7143931 B2 JP 7143931B2
Authority
JP
Japan
Prior art keywords
image
coordinate values
discriminator
feature points
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021503238A
Other languages
English (en)
Other versions
JPWO2020178881A1 (ja
Inventor
康敬 馬場崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2020178881A1 publication Critical patent/JPWO2020178881A1/ja
Application granted granted Critical
Publication of JP7143931B2 publication Critical patent/JP7143931B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Geometry (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Description

本発明は、機械学習及び機械学習に基づく識別に関する制御方法、学習装置、識別装置、及びプログラムの技術分野に関する。
画像から所定の特徴点を抽出する方法の一例が特許文献1に開示されている。特許文献1には、入力された画像における局所的な領域ごとに、コーナ検出器などの公知の特徴点抽出器を用いて、角や交点となる特徴点を抽出する方法が記載されている。
特開2014-228893号公報
特許文献1の方法では、抽出可能な特徴点の種類が限られており、予め指定された任意の特徴点に関する情報を与えられた画像から精度よく取得することができない。
本発明の目的は、上述した課題を鑑み、予め指定された特徴点に関する情報を画像から高精度に取得することが可能な制御方法、学習装置、識別装置、及びプログラムを提供することを主な課題とする。
制御方法の一の態様は、情報処理システムが実行する制御方法であって、対象物を撮影したサンプル画像と、前記サンプル画像に含まれる前記対象物の特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された前記サンプル画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器を生成し、前記第1識別器に前記サンプル画像を入力することで出力される予測座標値に基づいて、前記サンプル画像から前記特徴点の候補領域を設定し、前記候補領域を前記サンプル画像から切り出した画像に基づき、入力された画像内の各ブロックでの前記特徴点に対する信頼度を示す信頼度マップを出力するように学習された第2識別器を生成し、前記第1識別器に対象画像を入力することで、前記特徴点に関する予測座標値を取得し、前記予測座標値に基づいて、前記対象画像から前記特徴点の候補領域を設定し、前記第2識別器に、前記対象画像から前記候補領域を切り出した画像を入力することで、当該切り出した画像に対する前記信頼度マップを出力する。
学習装置の一の態様は、学習装置であって、対象物を撮影したサンプル画像と、前記サンプル画像に含まれる前記対象物の特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器を生成する第1学習手段と、前記第1識別器に前記サンプル画像を入力することで出力される予測座標値に基づいて、前記サンプル画像から前記特徴点の候補領域を設定する候補領域設定手段と、前記候補領域を前記サンプル画像から切り出した画像に基づき、入力された画像内の各ブロックでの前記特徴点に対する信頼度を示す信頼度マップを出力するように学習された第2識別器を生成する第2学習手段と、を有する。
識別装置の一の態様は、識別装置であって、対象物を撮影したサンプル画像と、前記サンプル画像に含まれる前記対象物の特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器に対象画像を入力することで、前記特徴点に関する予測座標値を取得する第1識別器処理手段と、前記予測座標値に基づいて、前記対象画像から前記特徴点の候補領域を設定する候補領域設定手段と、入力された画像から前記特徴点の当該画像内の各ブロックでの信頼度を示す信頼度マップを出力するように学習された第2識別器に、前記対象画像から前記候補領域を切り出した画像を入力することで、当該切り出した画像に対する前記信頼度マップを出力する第2識別器処理手段と、を備える。
制御方法の一態様は、学習装置が実行する制御方法であって、対象物を撮影したサンプル画像と、前記サンプル画像に含まれる前記対象物の特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器を生成し、前記第1識別器に前記サンプル画像を入力することで出力される予測座標値に基づいて、前記サンプル画像から前記特徴点の候補領域を設定し、前記候補領域を前記サンプル画像から切り出した画像に基づき、入力された画像内の各ブロックでの前記特徴点に対する信頼度を示す信頼度マップを出力するように学習された第2識別器を生成する。
制御方法の一態様は、識別装置が実行する制御方法であって、対象物を撮影したサンプル画像と、前記サンプル画像に含まれる前記対象物の特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器に対象画像を入力することで、前記特徴点に関する予測座標値を取得し、前記予測座標値に基づいて、前記対象画像から前記特徴点の候補領域を設定し、入力された画像から前記特徴点の当該画像内の各ブロックでの信頼度を示す信頼度マップを出力するように学習された第2識別器に、前記対象画像から前記候補領域を切り出した画像を入力することで、当該切り出した画像に対する前記信頼度マップを出力する。
プログラムの一の態様は、コンピュータが実行するプログラムであって、対象物を撮影したサンプル画像と、前記サンプル画像に含まれる前記対象物の特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器を生成する第1学習手段と、前記第1識別器に前記サンプル画像を入力することで出力される予測座標値に基づいて、前記サンプル画像から前記特徴点の候補領域を設定する候補領域設定手段と、前記候補領域を前記サンプル画像から切り出した画像に基づき、入力された画像内の各ブロックでの前記特徴点に対する信頼度を示す信頼度マップを出力するように学習された第2識別器を生成する第2学習手段
として前記コンピュータを機能させる。
プログラムの一の態様は、コンピュータが実行するプログラムであって、対象物を撮影したサンプル画像と、前記サンプル画像に含まれる前記対象物の特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器に対象画像を入力することで、前記特徴点に関する予測座標値を取得する第1識別器処理手段と、前記予測座標値に基づいて、前記対象画像から前記特徴点の候補領域を設定する候補領域設定手段と、入力された画像から前記特徴点の当該画像内の各ブロックでの信頼度を示す信頼度マップを出力するように学習された第2識別器に、前記対象画像から前記候補領域を切り出した画像を入力することで、当該切り出した画像に対する前記信頼度マップを出力する第2識別器処理手段として前記コンピュータを機能させる。
本発明によれば、特徴点に関する高精度な情報を対象画像から生成するための識別器を学習することができる。また、学習された識別器に基づいて特徴点に関する高精度な情報を対象画像から生成することができる。
実施形態における情報処理システムの概略構成を示す。 情報処理システムの機能ブロック図である。 (A)~(C)は、特徴点として鼻の座標値を抽出する場合において、第1識別器にそれぞれ入力された教師画像を、予測座標値に相当する予測位置及び正解座標値に相当する正解位置と共に示した図である。(D)は、(A)に示す教師画像を、設定された候補領域と共に示した図である。 学習処理の手順を示すフローチャートである。 (A)は、特徴点が表れた対象画像上に、対象の特徴点(ここでは鼻)に対する予測座標値を示す予測位置を明示した図である。(B)は、(A)の対象画像上に、候補領域を示した図である。(C)は、候補領域に対する信頼度マップを示した図である。 (A)は、特徴点が隠れた対象画像上に、対象の特徴点(ここでは鼻)に対する予測座標値を示す予測位置を明示した図である。(B)は、(A)の対象画像上に、候補領域を示した図である。(C)は、候補領域に対する信頼度マップを示した図である。 識別処理の手順を示すフローチャートである。 魚を撮影した対象画像上に、各特徴点に対する識別装置による処理結果を明示した図である。 テニスコートを撮影した対象画像上に、識別装置が抽出した座標値に対応する抽出位置を明示した図である。 人物を撮影した対象画像上に、識別装置が抽出した座標値に対応する抽出位置を明示した図である。 (A)~(C)は、図3(A)に示す教師画像に、異なる3つの候補パラメータを適用することで設定した候補領域を明示した図である。 (A)~(C)は、図3(A)に示す教師画像上に変形例1において正解座標値として教師ラベルに記録される正解位置を明示した図である。 変形例1に係る情報処理システムのブロック構成図である。 変形例3に係る情報処理システムのブロック構成図である。
以下、図面を参照しながら、制御方法、学習装置、識別装置、及びプログラムの実施形態について説明する。
[全体構成]
図1は、本実施形態における情報処理システム100の概略構成を示す。情報処理システム100は、2つの学習モデル(それぞれ、「第1学習モデル」、「第2学習モデル」とも呼ぶ。)を用いた画像内の特徴点の抽出に関する処理を行う。
ここで、第1学習モデルは、画像がサンプルとして入力された場合に、画像内における特徴点を抽出するための候補となる領域(「候補領域AC」とも呼ぶ。)を設定するための座標値を出力する演算モデルである。また、第2学習モデルは、画像から切り出された候補領域ACの画像がサンプルとして入力された場合に、当該候補領域ACの画像内における特徴点に対する信頼度マップを出力する演算モデルである。第1学習モデル及び第2学習モデルは、それぞれ、ニューラルネットワークに基づく学習モデルであってもよく、サポートベクターマシーンなどの他の種類の学習モデルであってもよい。本実施形態において、学習がなされた第1学習モデルは第1識別器として機能し、学習がなされた第2学習モデルは第2識別器として機能する。
情報処理システム100は、学習装置10と、記憶装置20と、識別装置30と、を備える。
学習装置10は、教師画像21及び教師ラベル22に基づき第1学習モデル及び第2学習モデルの学習を行う。
記憶装置20は、学習装置10及び識別装置30によるデータの参照及び書込みが可能な装置であって、教師画像21と、教師ラベル22と、第1識別器情報23と、領域パラメータ情報24と、第2識別器情報25とを記憶する。なお、記憶装置20は、学習装置10又は識別装置30のいずれかに接続又は内蔵されたハードディスクなどの外部記憶装置であってもよく、フラッシュメモリなどの記憶媒体であってもよく、学習装置10及び識別装置30とデータ通信を行うサーバ装置などであってもよい。例えば、記憶装置20が記憶媒体である場合には、学習装置10により生成された第1識別器情報23、領域パラメータ情報24、第2識別器情報25が記憶媒体に記憶された後、識別装置30は当該記憶媒体からこれらの情報を読み出すことで識別処理を実行する。
教師画像21は、第1学習モデル及び第2学習モデルの学習に用いる複数の画像である。教師画像21は、情報処理システム100において抽出される特徴点を含んでいる。例えば、情報処理システム100が人物の複数の基幹点を抽出するシステムである場合には、各教師画像21には、当該基幹点の少なくとも1つが表示された人物像が含まれる。このように、教師画像21は、情報処理システム100が抽出すべき特徴点を少なくとも1つ含んでいる。
教師ラベル22は、教師画像21の各々に含まれる特徴点の正解となる画像内の座標値(「正解座標値」とも呼ぶ。)を示す情報と、当該特徴点の識別情報とを含んでいる。例えば、ある教師画像21に特徴点である鼻が表示されている場合、教師ラベル22には、対象の教師画像21における当該鼻の正解座標値を示す情報と、鼻であることを示す情報が含まれる。特徴点の識別情報と特徴点の正解座標値を含む教師ラベル22は、教師画像21と共に学習データとして機能し、第1学習モデル及び第2学習モデルの学習に用いられる。なお、教師ラベル22は、抽出対象となる特徴点に対する信頼度マップの情報をさらに含んでもよい。この信頼度マップは、例えば、各特徴点の正解座標値での信頼度を最大値とした2次元方向の正規分布を形成するように定義される。この場合、信頼度マップは、第2学習モデルの正解の信頼度マップとして、教師画像21と共に学習データとして機能し、第2学習モデルの学習に用いられる。
第1識別器情報23は、第1識別器を機能させるために必要な種々の情報を含んでいる。例えば、第1識別器情報23は、情報処理システム100が抽出すべき特徴点ごとに、学習装置10が教師画像21及び教師ラベル22を用いて第1学習モデルを学習することで得られたパラメータ情報を含んでいる。例えば、第1学習モデルが畳み込みニューラルネットワークなどのニューラルネットワークである場合、パラメータ情報は、層構造、各層のニューロン構造、各層におけるフィルタ数及びフィルタサイズ、並びに各フィルタの各要素の重みなどの情報を含んでいる。以後では、第1識別器から出力される座標値を「予測座標値」と呼ぶ。
領域パラメータ情報24は、候補領域ACを定めるためのパラメータ(「領域パラメータ」とも呼ぶ。)に関する情報であり、学習装置10により生成される。例えば、候補領域ACが矩形領域として設定される場合には、領域パラメータ情報24は、候補領域ACの縦幅及び横幅を示す情報である。なお、候補領域ACは、矩形領域であることに限定されない。例えば、候補領域ACが円領域として設定される場合には、領域パラメータ情報24は、候補領域ACの半径又は直径を示す情報となり、候補領域ACが楕円領域として設定される場合には、領域パラメータ情報24は、候補領域ACの長径及び短径を示す情報となる。以後では、一例として、候補領域ACは、矩形領域であるものとして説明を行う。
第2識別器情報25は、第2識別器を機能させるために必要な種々の情報を含んでいる。例えば、第2識別器情報25は、情報処理システム100が抽出すべき特徴点の種類毎に、第2学習モデルを学習装置10が学習することで得られたパラメータ情報を含んでいる。後述するように、第2学習モデルの学習には、第1識別器により出力された特徴点の予測座標値に基づき設定された教師画像21内の候補領域ACを切り出した画像が用いられる。
識別装置30は、第1識別器情報23を参照することで構成した第1識別器と、第2識別器情報25を参照することで構成した第2識別器とを用いて、識別装置30に入力された対象画像Imに含まれる特徴点の座標値を算出する。
[ハードウェア構成]
図1は、学習装置10及び識別装置30のハードウェア構成についても示している。ここで、学習装置10及び識別装置30のハードウェア構成について、引き続き図1を参照して説明する。
学習装置10は、ハードウェアとして、プロセッサ11と、メモリ12と、インターフェース13とを含む。プロセッサ11、メモリ12及びインターフェース13は、データバス19を介して接続されている。
プロセッサ11は、メモリ12に記憶されているプログラムを実行することにより、第1学習モデル及び第2学習モデルの学習に関する処理を実行する。プロセッサ11は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)などのプロセッサである。
メモリ12は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリなどの各種のメモリにより構成される。また、メモリ12には、学習装置10が実行する学習に関する処理を実行するためのプログラムが記憶される。また、メモリ12は、作業メモリとして使用され、記憶装置20から取得した情報等を一時的に記憶する。インターフェース13は、記憶装置20とデータの送受信を行うためのインターフェースであり、ネットワークアダプタ、USB、SATA(Serial AT Attachment)などが該当する。例えば、学習装置10が記憶装置20とネットワークを介して通信可能である場合、インターフェース13は、記憶装置20に対してデータの書込み指示の送信や記憶装置20に記憶されたデータの受信を行う。
識別装置30は、ハードウェアとして、プロセッサ31と、メモリ32と、インターフェース33とを含む。
プロセッサ31は、メモリ32に記憶されているプログラムを実行することにより、対象画像Imに対して予め指定された特徴点の抽出処理を実行する。プロセッサ31は、CPU、GPUなどのプロセッサである。
メモリ32は、RAM、ROM、フラッシュメモリなどの各種のメモリにより構成される。また、メモリ32には、識別装置30が実行する学習に関する処理を実行するためのプログラムが記憶される。また、メモリ32は、作業メモリとして使用され、第1識別器情報23及び第2識別器情報25等から取得した情報を一時的に記憶する。また、メモリ32は、インターフェース33に入力される対象画像Imを一時的に記憶する。
インターフェース33は、対象画像Imをメモリ32に供給するためのインターフェースである。例えば、対象画像Imが外部装置から供給される場合、インターフェース33は、記憶装置20とデータの送受信を行ったり、図示しない外部装置から対象画像Imを受信したりするためのインターフェースであり、ネットワークアダプタ、USB、SATAなどが該当する。なお、記憶装置20と接続するためのインターフェースと対象画像Imを受信するためのインターフェースとは異なるインターフェースであってもよい。
なお、学習装置10及び識別装置30のハードウェア構成は、図1に示す構成に限定されない。例えば、学習装置10は、ユーザ入力を受け付けるための入力部、ディスプレイやスピーカなどの出力部などをさらに備えてもよい。同様に、識別装置30は、ユーザ入力を受け付けるための入力部、ディスプレイやスピーカなどの出力部、プロセッサ31が実行した処理結果を外部装置へ送信したり記憶装置20とのデータ通信を行ったりするための通信インターフェースなどを備えてもよい。
[学習処理]
次に、学習装置10が実行する学習処理の詳細について説明する。
(1)機能構成
図2は、情報処理システム100の機能ブロック図である。図2に示すように、学習装置10のプロセッサ11は、機能的には、第1学習部14と、候補領域設定部15と、第2学習部16とを備える。
第1学習部14は、教師画像21及び教師ラベル22に基づき第1学習モデルの学習を行うことで第1識別器を生成し、生成した第1識別器に必要なパラメータ等を含む第1識別器情報23を記憶装置20に保存する。ここで、第1学習モデルは、入力された画像に対し、当該画像内に含まれていると推定される特徴点の座標値(即ち画像内の位置)を直接出力する演算モデルである。第1学習モデルは、種々の学習器を用いた学習モデルであってもよく、特徴点の座標値を直接出力する演算モデルであればよい。
また、第1学習部14は、教師画像21を第1識別器に入力することで、予測座標値「Cp1」を算出する。そして、算出した予測座標値Cp1を候補領域設定部15に供給する。
候補領域設定部15は、第1学習部14から供給された予測座標値Cp1に基づき、第1学習部14で用いられた教師画像21に対して候補領域ACを設定する。本実施形態では、一例として、候補領域設定部15は、予測座標値Cp1を中心とした矩形領域を、候補領域ACとして設定する。本実施形態では、候補領域設定部15は、候補領域ACの大きさ及び形状を決定するための領域パラメータである縦幅及び横幅を、複数の教師画像21に対する予測座標値Cp1と対応する正解座標値との差のばらつきに基づき決定する。この具体例については、図3を参照して後述する。そして、候補領域設定部15は、教師画像21から候補領域ACを切出した画像(「切出し画像Ic1」とも呼ぶ。)を第2学習部16に供給する。
また、候補領域設定部15は、抽出すべき特徴点ごとに生成した領域パラメータを示す情報を、領域パラメータ情報24として記憶装置20に記憶する。
第2学習部16は、候補領域設定部15から供給された切出し画像Ic1に基づき第2学習モデルの学習を行うことで第2識別器を生成し、生成した第2識別器に必要なパラメータ等を含む第2識別器情報25を記憶装置20に記憶する。ここで、第2学習モデルは、画像が入力された場合に、対象の特徴点に対して当該画像内の各ブロックにおける信頼度を示した信頼度マップを出力する演算モデルである。第2学習モデルは、種々の学習モデルであってもよく、入力された画像から当該画像に対する信頼度マップを出力する演算モデルであればよい。なお、信頼度が出力される単位となるブロックは、入力された画像に対して所定の規則に基づき区切られた領域であり、各ブロックは、画像内の各画素に対応するものであってもよく、N×Nの画素群(Nは正数)に対応するものであってもよく、1つの画素をさらに区切ったサブピクセルに対応するものであってもよい。
ここで、候補領域設定部15の処理について、図3を参照して具体的に説明する。
図3(A)~(C)は、特徴点として鼻の座標値を抽出する場合において、第1識別器にそれぞれ入力された教師画像21を、予測座標値Cp1に相当する予測位置P1~P3及び正解座標値に相当する正解位置T1~T3と共に示した図である。図3(A)~(C)の例では、鼻が表示された教師画像21が第1識別器に入力された場合に、教師ラベル22が示す鼻の正解座標値(正解位置T1~T3に相当)に対して縦方向及び横方向にずれた位置を示す予測座標値Cp1(予測位置P1~P3に相当)が出力されている。図3(D)は、図3(A)に示す教師画像21を、設定された候補領域ACと共に示した図である。
この場合、候補領域設定部15は、鼻の特徴点が表示された教師画像21毎に、正解座標値と予測座標値Cp1との差のばらつきに基づき、図3(D)に示す矩形領域の候補領域ACを設定する。具体的には、まず、鼻の特徴点が表示された教師画像21毎に、正解座標値と予測座標値Cp1との差(例えば正解座標値に対する予測座標値Cp1の相対座標値)を算出する。そして、例えば、候補領域設定部15は、正解座標値を候補領域ACの中心とした場合に、所定割合以上の教師画像21に対する予測座標値Cp1が候補領域AC内に含まれるように、候補領域ACの縦幅「H」及び横幅「W」を設定する。他の例では、候補領域設定部15は、正解座標値と予測座標値Cp1との差のばらつきが正規分布に従うとみなし、縦方向に対する所定割合の信頼区間(例えば95%~99%信頼区間)を縦幅Hとし、横方向に対する所定割合の信頼区間を横幅Wとして設定してもよい。
なお、図3(D)の例では、候補領域設定部15は、図3(A)に示す教師画像21に対し、予測位置P1を中心とする候補領域ACを設定している。また、候補領域設定部15は、図3(B)及び図3(C)に示す教師画像21に対しても同様に候補領域ACを設定し、候補領域ACに対応する各教師画像21の切出し画像Ic1を第2学習部16に供給する。
(2)処理フロー
図4は、学習装置10が実行する学習処理の手順を示すフローチャートである。学習装置10は、図4に示すフローチャートの処理を、情報処理システム100が抽出すべき特徴点の種類毎に実行する。
まず、学習装置10の第1学習部14は、教師画像21及び教師ラベル22が示す特徴点の正解座標値に基づき、第1学習モデルの学習を行う(ステップS11)。そして、第1学習部14は、ステップS11の学習により得られた第1学習モデルのパラメータを第1識別器情報23として保存する。また、第1学習部14は、学習済みの第1学習モデルである第1識別器から、対象の特徴点が表示された教師画像21の夫々に対し、予測座標値Cp1を取得する(ステップS12)。
次に、学習装置10の候補領域設定部15は、ステップS12で算出した予測座標値Cp1と、これに対応する教師ラベル22が示す正解座標値との差のばらつきに基づき、候補領域を決定するための領域パラメータを生成する(ステップS13)。そして、候補領域設定部15は、ステップS12で算出した予測座標値Cp1と、ステップS13で生成した領域パラメータとに基づき、ステップS11で用いた教師画像21の各々に対して候補領域ACを設定する(ステップS14)。また、候補領域設定部15は、ステップS13で生成した領域パラメータを示す領域パラメータ情報24を、記憶装置20に記憶する。
そして、学習装置10の第2学習部16は、教師画像21の各々から候補領域ACを切り出した切出し画像Ic1及び対象の特徴点の正解座標値に基づき、第2学習モデルの学習を行う(ステップS14)。そして、第2学習部16は、ステップS14の学習により得られた第2学習モデルのパラメータ等を第2識別器情報25として記憶装置20に記憶する。
(3)効果
次に、図2に示す学習装置10の機能構成に基づく効果について説明する。
一般に、第1学習モデルのように、入力された画像に対して特徴点の座標値(即ち画像内の位置)を直接出力する学習モデルを用いる場合、学習に要する処理コスト及び学習後の識別処理に要する処理コストが軽量となるという利点が存在する。一方、このような学習モデルを学習した識別器は、出力する特徴点の座標値の位置精度が比較的低くなるという課題が存在し、対象の特徴点が隠れている場合であっても、必ず特徴点の座標値を出力してしまうといった課題も存在する。
また、第2学習モデルのように、入力された画像に対して信頼度マップを出力する学習モデルを用いる場合、信頼度マップに基づき特定される特徴点の位置精度が高くなり、対象の特徴点が隠れている場合には信頼度の閾値処理などによって当該特徴点の抽出を防ぐことができるといった利点が存在する。一方、このような学習モデルは、特徴点毎に、画像内の各ブロック(例えば画素毎)の信頼度を算出することになり、学習処理及び学習後の識別処理に要する処理コストが高くなるという課題が存在する。
以上を勘案し、本実施形態では、学習装置10は、第1学習モデルを学習した第1識別器が出力する予測座標値Cp1に基づき候補領域ACを設定し、候補領域ACに対応する切出し画像Ic1を用いて第2学習モデルの学習を行う。これにより、学習装置10は、候補領域ACの位置を定める予測座標値を出力するように第1学習モデルを低処理コストにより学習しつつ、第2学習モデルに使用する画像領域を好適に限定して第2学習モデルの学習に要する処理コストを低減することができる。また、後述するように、識別装置30は、学習装置10により学習された第1識別器及び第2識別器を用いることで、対象画像Imから特徴点の座標値を高精度に抽出しつつ、対象の特徴点が隠れている場合に誤って特徴点の座標値を出力してしまうことを好適に抑制する。
[識別処理]
次に、識別装置30が実行する識別処理の詳細について説明する。
(1)機能ブロック
識別装置30の機能的な構成について、再び図2の機能ブロック図を参照して説明する。図2に示すように、識別装置30のプロセッサ31は、機能的には、第1識別器処理部34と、候補領域設定部35と、第2識別器処理部36と、特徴点抽出部37と、を備える。
第1識別器処理部34は、対象画像Imが識別装置30に入力された場合に、第1識別器情報23を参照することで構成した第1識別器に基づき、対象画像Imに対する処理を実行する。具体的には、第1識別器処理部34は、第1識別器に対象画像Imを入力することで、情報処理システム100が抽出すべき特徴点に対する予測座標値「Cp2」を算出する。そして、第1識別器処理部34は、算出した予測座標値Cp2を候補領域設定部35に供給する。
候補領域設定部35は、領域パラメータ情報24を参照することで、第1識別器処理部34から供給された予測座標値Cp2から対象画像Imに対する候補領域ACを設定する。例えば、領域パラメータ情報24が候補領域ACの縦幅H及び横幅Wの情報を示す場合、候補領域設定部35は、予測座標値Cp2を中心として、縦幅H及び横幅Wの候補領域ACを対象画像Imに対して設定する。そして、候補領域設定部35は、設定した候補領域ACを対象画像Imから切り出した切出し画像「Ic2」を、第2識別器処理部36に対して供給する。
第2識別器処理部36は、第2識別器情報25を参照することで構成した第2識別器に基づき、切出し画像Ic2に対する処理を実行する。具体的には、第2識別器処理部36は、第2識別器に切出し画像Ic2を入力することで、対象の特徴点に対する信頼度を切出し画像Ic2の各ブロックに対して示した信頼度マップ「Mc」を生成する。そして、第2識別器処理部36は、生成した信頼度マップMcを特徴点抽出部37に供給する。
特徴点抽出部37は、第2識別器処理部36から供給された信頼度マップMcに基づき、対象の特徴点の対象画像Imにおける座標値を算出する。特徴点抽出部37は、算出した特徴点の座標値の情報を、記憶装置20に記憶してもよく、識別装置30と通信を行う他の装置に送信してもよく、特徴点に基づき所定の処理を行う識別装置30内の他の処理部に供給してもよい。
ここで、特徴点抽出部37が実行する特徴点の座標値の抽出方法の具体例である第1抽出例~第3抽出例について説明する。
第1抽出例では、特徴点抽出部37は、信頼度マップMcにおいて信頼度が最大となる座標値に対応する信頼度が所定の閾値以上である場合に、信頼度が最大となる座標値を特徴点の座標値として抽出する。この場合、上述の閾値は、例えば、対象の特徴点が画像中に表示されているとみなすことができる信頼度の下限値になるように定められ、学習又は実験等に基づき予め定められた値である。そして、特徴点抽出部37は、信頼度マップMcにおいて信頼度が最大となる座標値に対応する信頼度が所定の閾値未満である場合には、特徴点が存在しないと判断する。このように、特徴点抽出部37は、特徴点である可能性が最も高い位置に対する信頼度に対して閾値判定を行うことで、特徴点が対象画像Im中において隠れているにも関わらず誤って特徴点の座標値を抽出することを好適に防ぐことができる。
なお、特徴点抽出部37は、信頼度の離散データである信頼度マップMcに近似する連続関数(回帰曲線)を公知の解析処理に基づき算出し、求めた連続関数の値に基づき特徴点の座標値を特定してもよい。この場合、特徴点抽出部37は、算出した連続関数により、信頼度マップMcのブロックよりも詳細に区切った各サブブロック(例えばサブピクセル単位)での信頼度を生成する。そして、特徴点抽出部37は、信頼度が最大かつ閾値以上となるサブブロックの位置の座標値を、特徴点の座標値として算出する。これにより、特徴点抽出部37は、離散データである信頼度マップMcに対する補間等を行い、特徴点となる座標値をより高精度に算出することができる。
第2抽出例では、特徴点抽出部37は、信頼度マップMcの重心位置(即ち重心の座標値)を算出し、当該重心位置に対する信頼度が閾値以上である場合に、当該重心位置の座標値を特徴点の座標値とみなす。この場合、特徴点抽出部37は、信頼度マップMcの各ブロックでの信頼度を各ブロックの重みとみなすことで、上述の重心位置の座標値を算出する。なお、特徴点抽出部37は、重心位置の座標値をサブピクセル単位により特定してもよい。また、特徴点抽出部37は、第1抽出例と同様、信頼度マップMcに近似する連続関数を算出し、切出し画像Ic2内の連続関数の値に基づき重心位置の座標値を算出してもよい。第2抽出例によっても、特徴点抽出部37は、特徴点となる座標値を高精度に算出しつつ、特徴点が隠れている場合に誤って特徴点の座標値を抽出することを防ぐことができる。
第3抽出例では、特徴点抽出部37は、信頼度マップMcにおける信頼度の極大値を特定し、特定した極大値がそれぞれ所定の閾値以上であるか否か判定する。そして、特徴点抽出部37は、閾値以上となる極大値に対応する局所ピーク位置の座標値を、特徴点の座標値として抽出する。なお、第3抽出例においても、第1抽出例と同様、信頼度マップMcに近似する連続関数を算出し、局所ピーク位置の座標値を、特徴点の座標値としてサブピクセル単位により特定してもよい。第3抽出例によれば、特徴点抽出部37は、第1抽出例及び第2抽出例と同様の効果に加え、候補領域AC内に対象の特徴点が複数存在する場合であっても、それぞれの特徴点の座標値を好適に抽出することができる。
(2)具体例
次に、識別装置30による処理の具体例について、図5及び図6を参照して説明する。
図5(A)は、第1識別器処理部34に入力された対象画像Im上に、対象の特徴点(ここでは鼻)に対して第1識別器処理部34が算出した予測座標値Cp2を示す予測位置P4を明示した図である。図5(B)は、図5(A)の対象画像Im上に、候補領域設定部35が設定した候補領域ACを示した図である。図5(C)は、候補領域ACに相当する切出し画像Ic2に対して第2識別器処理部36が算出した信頼度マップMcを示した図である。なお、図5(C)では、候補領域AC内の信頼度が高い程、黒に高くなるように便宜上表示している。
この場合、第1識別器処理部34は、図5(A)に示す予測位置P4に相当する予測座標値Cp2を候補領域設定部35に供給し、候補領域設定部35は、領域パラメータ情報24が示す縦幅H及び横幅Wに基づき、図5(B)に示すように、当該予測位置P4を中心位置とする候補領域ACを設定する。そして、第2識別器処理部36は、候補領域ACを切り出した切出し画像Ic2を第2識別器に入力することで、切出し画像Ic2内のブロック毎(例えば画素毎)の信頼度を示す信頼度マップMcを算出する。そして、特徴点抽出部37は、信頼度マップMcに基づき、切出し画像Ic2の上から5番目かつ左から4番目のブロックB4の信頼度が最も高く、かつ、所定の閾値以上であると判断する。よって、特徴点抽出部37は、ブロックB4に対応する対象画像Im内の座標値を特徴点の座標値として取得する。
図6(A)は、第1識別器処理部34に入力された対象画像Im上に、対象の特徴点(ここでは鼻)に対して第1識別器処理部34が算出した予測座標値Cp2を示す予測位置P5を明示した図である。図6(B)は、図6(A)の対象画像Im上に、候補領域設定部35が設定した候補領域ACを示した図である。図6(C)は、候補領域ACに相当する切出し画像Ic2に対して第2識別器処理部36が算出した信頼度マップMcを示した図である。なお、図6(A)~(C)の例では、対象の特徴点(ここでは鼻)が対象者の前方に載置されたディスプレイにより対象画像Im上において非表示となっている。また、図6(C)では、切出し画像Ic2内の信頼度が高い程、黒に高くなるように便宜上表示している。
この場合、第1識別器処理部34は、図6(A)に示す予測位置P4に相当する予測座標値Cp2を候補領域設定部35に供給し、候補領域設定部35は、領域パラメータ情報24に基づき、図6(B)に示すように、当該予測位置P4を中心位置とする候補領域ACを設定する。そして、第2識別器処理部36は、候補領域ACを切り出した切出し画像Ic2を第2識別器に入力することで、切出し画像Ic2内のブロック毎(例えば画素毎)の信頼度を示す信頼度マップMcを算出する。
ここで、第2識別器処理部36が算出した図6(C)に示す信頼度マップMcでは、切出し画像Ic2の各ブロックにおける信頼度がいずれも閾値よりも低くなっている。よって、この場合、特徴点抽出部37は、対象となる特徴点が切出し画像Ic2内に存在しないと判断し、特徴点抽出を行わない。
(3)処理フロー
図7は、識別装置30が実行する識別処理の手順を示すフローチャートである。識別装置30は、図7に示すフローチャートの処理を、対象画像Imが入力された場合に、検出すべき特徴点の種類毎に実行する。
まず、識別装置30は、入力された対象画像Imを第1識別器に入力する処理を行う(ステップS21)。この場合、識別装置30は、第1識別器情報23を参照することで第1識別器を構成し、対象画像Imを上記の第1識別器に入力することで、予測座標値Cp2を取得する。
次に、識別装置30は、第1識別器から出力される予測座標値Cp2に基づき、対象画像Imに対して候補領域ACを設定する(ステップS22)。具体的には、識別装置30は、領域パラメータ情報24が示す領域パラメータと、予測座標値Cp2とに基づき、対象画像Imに対して候補領域ACを設定する。
そして、識別装置30は、候補領域ACを対象画像Imから切り出した切出し画像Ic2を、第2識別器に入力する(ステップS23)。この場合、識別装置30は、第2識別器情報25を参照することで第2識別器を構成し、切出し画像Ic2を上記の第2識別器に入力することで、切出し画像Ic2の各ブロックでの信頼度を示した信頼度マップMcを取得する。そして、識別装置30は、第2識別器が出力する信頼度マップMcに基づき、対象の特徴点の有無の判定及び対象の特徴点が存在する場合の特徴点の座標値の抽出を行う(ステップS24)。これにより、識別装置30は、対象の特徴点が隠れている場合には特徴点の座標値を出力せず、対象の特徴点が対象画像Im上に存在する場合に限り当該特徴点の座標値を出力することができる。
(4)効果
次に、図2に示す識別装置30の機能構成に基づく効果について説明する。
上述したように、入力された画像に対して特徴点の座標値を直接出力する第1学習モデルのみを用いて特徴点抽出を行う場合、処理コストが軽量となる一方、特徴点抽出の位置精度が比較的低くなるといった課題や、特徴点が隠れている場合であっても座標値を出力してしまうといった課題がある。
一方、入力された画像に対して信頼度マップを出力する第2学習モデルのみを用いて特徴点抽出を行う場合、信頼度マップに基づき特定される特徴点の位置精度が高くなり、対象の特徴点が隠れている場合には信頼度の閾値処理などによって当該特徴点の抽出を防ぐことが可能となる。一方、このような学習モデルは、特徴点の種類毎に、入力された画像内の各ブロックの信頼度を算出することになり、学習処理及び学習後の識別処理に要する処理コストが高くなる。
以上勘案し、本実施形態では、識別装置30は、第1学習モデルを学習した第1識別器を用いて低処理コストにより教師画像21に対して候補領域ACを設定し、第2学習モデルを学習した第2識別器に対して候補領域ACに対応する切出し画像Ic2を入力する。これにより、識別装置30は、第2識別器に入力させる画像サイズを好適に縮小して処理コストの増大を抑制しつつ、対象の特徴点に対する座標値を高精度に特定するための信頼度マップMcを取得できる。また、識別装置30は、オクルージョンが発生した特徴点に対し、誤った特徴点の座標値を出力するのを好適に抑制することができる。
次に、識別装置30の識別処理の適用例について、図8~図10を参照して説明する。
図8は、魚を撮影した対象画像Im上に、各特徴点に対する識別装置30による処理結果を明示した図である。図8では、第1識別器処理部34が算出する予測座標値Cp2に対応する予測位置P6~P9、候補領域AC、特徴点抽出部37が抽出した各特徴点の座標値に対応する抽出位置Pa6~Pa9がそれぞれ明示されている。
この例では、学習装置10は、魚の尾びれ、背びれ、腹、頭の各特徴点を抽出するための学習を図4のフローチャートの処理に基づき実行し、識別装置30は、図7のフローチャートの処理に基づき、信頼度マップMcから、抽出位置Pa6~Pa9に相当する各特徴点の座標値を算出している。具体的には、識別装置30は、第1識別器に対象画像Imを入力することで、抽出対象の特徴点(尾びれ、背びれ、腹、頭)の夫々に対する予測座標値Cp2(予測位置P6~P9に相当)を算出し、これらの予測座標値Cp2に対してそれぞれ候補領域ACを設定している。そして、識別装置30は、候補領域ACの切出し画像Ic2を第2識別器に入力することで信頼度マップMc2を対象の特徴点ごとに算出し、信頼度マップMcに基づき各特徴点の座標値(抽出位置Pa6~Pa9に相当)を算出している。
図8に示すように、抽出位置Pa6~Pa9は、予測位置P6~P9よりもより正確な特徴点の位置を指し示している。例えば、識別装置30は、このように高精度に算出された各特徴点の抽出位置Pa6~Pa9を示す座標値を用いることで、対象画像Imに表示された魚の自動測定などを好適に実行することができる。
図9は、テニスコートを撮影した対象画像Im上に、識別装置30が抽出した座標値に対応する抽出位置Pa10~Pa13を明示した図である。
この例では、学習装置10は、テニスコートの手前側コートの左コーナ、右コーナ、左ポールの頂点、右ポールの頂点の各特徴点を抽出するための学習を図4のフローチャートの処理に基づき実行する。そして、識別装置30は、図7のフローチャートの処理に基づき、信頼度マップMcに基づく各特徴点の座標値(抽出位置Pa10~Pa13に相当)を高精度に算出している。
このようなスポーツ観戦中に撮影された画像を対象画像Imとして特徴点抽出を行うことで、スポーツ観戦におけるAR(Augmented Reality)のキャリブレーションなどを好適に実行することができる。例えば、識別装置30を内蔵するヘッドマウントディスプレイなどを用いてARによる画像を現実世界に重畳表示する際に、識別装置30は、ヘッドマウントディスプレイがユーザの視点近傍から撮影する対象画像Imに基づき、対象のスポーツにおいて基準となる所定の特徴点の座標値を算出する。これにより、ヘッドマウントディスプレイは、ARのキャリブレーションを的確に実行し、現実世界に的確に対応付けた画像を表示させることが可能となる。
図10は、人物を撮影した対象画像Im上に、識別装置30が抽出した座標値に対応する抽出位置Pa14、Pa15を明示した図である。
この例では、学習装置10は、人の足首(ここでは左足首)を特徴点として抽出するための学習を図4のフローチャートの処理に基づき実行し、識別装置30は、図7のフローチャートの処理に基づき、信頼度マップMcに基づく各特徴点の座標値(抽出位置Pa14、Pa15に相当)を算出している。
なお、図10の例では、人が複数存在するため、識別装置30は、例えば、入力された対象画像Imを複数の領域に分割し、分割後の複数の領域を対象画像Imとして図7のフローチャートの処理をそれぞれ実行してもよい。この場合、識別装置30は、入力された対象画像Imを予め定めた大きさにより分割してもよく、公知の人物検知アルゴリズムにより検知した人物ごとに対象画像Imを分割してもよい。
このように人を撮影した画像を対象画像Imとして特徴点抽出を行うことで、セキュリティ分野に応用することも可能である。例えば、識別装置30は、高精度に抽出された足首の座標値(抽出位置Pa14、Pa15に相当)を用いることで、人の位置を正確に捕捉し、例えば予め定められた所定エリアへの人の進入検知などを好適に実行することができる。
[変形例]
次に、上述の実施形態に好適な変形例について説明する。以下に説明する変形例は、任意に組み合わせて上述の実施形態に適用してもよい。
(変形例1)
学習装置10は、図4のステップS13において、第1識別器による予測座標値Cp1と、これに対応する教師ラベル22が示す正解座標値との差のばらつきに基づき、候補領域ACを決定するための領域パラメータを生成した。しかし、候補領域ACの決定方法は、これに限定されない。以下では、候補領域ACの他の決定方法(第2~第4の決定方法)について具体的に説明する。
候補領域ACの第2の決定方法として、学習装置10は、第2識別器が出力する信頼度マップMcの精度が最大となるような領域パラメータを学習することで、領域パラメータ情報24を生成してもよい。具体的には、学習装置10は、領域パラメータの候補となるパラメータ(「候補パラメータ」とも呼ぶ。)の各々に対する信頼度マップMcの精度に基づき、領域パラメータとして定める候補パラメータを選定してもよい。
この場合、学習装置10は、例えば、第1識別器が出力する予測座標値Cp1に対し、複数の候補パラメータを適用することで、教師画像21に対して複数パターンの候補領域ACを設定する。図11(A)~(C)は、図3(A)に示す教師画像21に、異なる3つの候補パラメータを適用することで設定した候補領域ACを明示した図である。図11(A)の例では、第1の候補パラメータとして横幅W1及び縦幅H1を用い、図11(B)の例では、第2の候補パラメータとして横幅W2及び縦幅H2を用い、図11(C)の例では、第3の候補パラメータとして横幅W3及び縦幅H3を用いている。
学習装置10は、このように設定した複数パターンの候補領域ACに基づき第2学習モデルの学習を行う。そして、学習装置10は、学習された第2学習モデル(即ち第2識別器)が出力する信頼度マップMcに基づき特定した特徴点の座標値と、教師ラベル22が示す正解座標値とを比較することで、各候補パラメータを用いた場合の信頼度マップMcの精度を算出する。例えば、学習装置10は、この場合、信頼度マップMcに基づき特定した特徴点の座標値と、教師ラベル22が示す正解座標値との差のばらつき(例えば分散値)が小さいほど、信頼度マップMcの精度が高いとみなす。そして、学習装置10は、最も精度が高くなった候補パラメータを、領域パラメータとして定める。なお、この場合、学習装置10は、最も精度が高くなった候補パラメータを基準としてその近傍値を指し示す候補パラメータを新たに設定してもよい。この場合、学習装置10は、新たに設定した各候補パラメータを適用した場合に得られる信頼度マップMcの精度を算出し、基準とした候補パラメータを適用した場合に得られる信頼度マップMcの精度と比較することで、より適した領域パラメータの探索を行ってもよい。
候補領域ACの第3の決定方法として、学習装置10は、第1学習モデルとして、候補領域を決定するための複数の座標値を出力する学習モデルを用いてもよい。
この場合、例えば、第1学習モデルは、矩形領域となる候補領域ACの対角位置の頂点の座標値を出力する演算モデルであり、学習装置10は、この第1学習モデルを、教師画像21及び教師ラベル22に基づき学習を行う。この場合、教師ラベル22には、対応する教師画像21において設定すべき候補領域ACの対角位置の頂点を示す正解座標値が記録されている。この場合、教師ラベル22に記録される候補領域ACの対角位置の頂点の座標値は、好適には、当該候補領域ACが対象の特徴点が属する物又は部位(例えば鼻の場合には顔全体)以外を含まないように予め定められる。これにより、特徴点を抽出するのに好適な候補領域ACを指し示す対角位置の頂点の座標値を出力する第1学習モデルを学習することができる。
図12(A)は、図3(A)に示す教師画像21上に、本変形例の教師ラベル22が示す正解座標値に相当する正解位置T11、T12を明示した図である。この例では、設定すべき候補領域ACの左上角及び右下角の座標値が正解座標値として教師ラベル22に記録される。そして、正解位置T11、T12により特定される候補領域ACは、対象の特徴点である鼻を含む顔以外の対象物が含まれないに設定される。
なお、この場合の第1学習モデルは、対角位置の頂点の座標値を出力する演算モデルに限定されない。例えば候補領域ACを円領域とする場合には、第1学習モデルは、設定すべき候補領域ACの中心を通る直線が当該候補領域ACの境界と交わる2つの交点の座標値を出力する演算モデルであってもよい。
図12(B)は、候補領域ACを円領域とする場合の正解座標値が示す正解位置T13、T14を教師画像21上に明示した図である。この例においても、正解位置T13、T14により特定される候補領域ACは、対象の特徴点である鼻を含む顔以外の対象物が含まれないように好適に設定される。図12(C)は、候補領域ACを楕円領域とする場合の正解座標値が示す正解位置T15~T17を教師画像21上に明示した図である。この例では、3つの正解座標値に基づき候補領域ACが特定される。そして、この例においても、正解位置T15~T17により特定される候補領域ACは、対象の特徴点である鼻を含む顔以外の対象物が含まれないに好適に設定される。
このように、第1学習モデルは、候補領域ACの形状に応じ、当該形状を特定するのに必要な複数の座標値を出力する演算モデルであればよい。
図13は、候補領域ACの第3の決定方法を実行する場合の情報処理システム100Aのブロック構成図である。図13に示すように、候補領域ACの第3の決定方法では、情報処理システム100Aは、領域パラメータ情報24を有しない。また、教師ラベル22は、候補領域ACを特定するための複数の正解座標値の情報を含む。そして、候補領域設定部15は、第1学習部14から供給される複数の予測座標値Cp1に基づき、教師画像21に対する候補領域ACを設定する。同様に、候補領域設定部35は、第1識別器処理部34から供給される複数の予測座標値Cp2に基づき、対象画像Imに対する候補領域ACを設定する。
候補領域ACの第4の決定方法として、学習装置10は、第3の決定方法で用いた学習モデル(即ち候補領域ACを決定するための複数の座標値を出力する学習モデル)に対し、信頼度マップMcの精度が最大となるような矩形の候補領域ACの座標値を出力するように学習を行うことで、第1識別器を生成する。
具体的には、学習装置10は、候補領域ACを決定するための領域パラメータの候補となる候補パラメータの集合
{(y_min1,x_min1,y_max1,x_max1),{(y_min2,x_min2, y_max2, x_max2),, ….}
を予め記憶しておく。ここでは、学習装置10は、一例として、矩形領域の頂点のうち、x座標及びy座標が最小となる頂点と、x座標及びy座標が最大となる頂点とをそれぞれ示す座標の組(例えば図12(A)に示す位置T11、T12の座標の組)を、候補パラメータとして記憶する。そして、学習装置10は、それらの各候補パラメータに基づく候補領域ACを切り出した切出し画像Ic1を第2識別器に入力することで、候補パラメータ毎に信頼度マップMcを取得する。そして、学習装置10は、取得した信頼度マップMcの精度が最大となる候補パラメータを、第1学習器が出力すべき正解データ(即ち教師ラベル22)として採用する。
学習装置10は、この処理を教師画像21毎に行い、教師画像21及び特徴点毎に適した候補パラメータを決定して、第1学習器の学習を行う。そして、学習装置10は、このように第1学習器を学習することで得た第1識別器の識別器情報を、第1識別器情報23に記憶する。学習装置10は、このような第1識別器を構築することで、信頼度マップMcの精度を最大化する候補領域ACを、入力される対象画像Im及び特徴点毎に予測することが可能となる。
(変形例2)
図1に示す情報処理システム100の構成は一例であり、本発明を適用可能な構成はこれに限定されない。
例えば、学習装置10と識別装置30とは同一装置により構成されてもよい。他の例では、情報処理システム100は、記憶装置20を有しなくともよい。この場合、学習装置10は、第1識別器情報23、領域パラメータ情報24及び第2識別器情報25の生成後にこれらの情報を識別装置30に対して送信し、識別装置30は、受信した第1識別器情報23、領域パラメータ情報24及び第2識別器情報25をメモリ32内又は外部記憶装置に参照可能に記憶する。
(変形例3)
識別装置30は、特徴点抽出部37に相当する機能を有しなくともよい。
図14は、変形例3における情報処理システム100Bの機能ブロック図である。図14の構成例では、例えば、識別装置30は、第2識別器処理部36が信頼度マップMcの生成後、特徴抽出処理を行う代わりに、信頼度マップMcを記憶装置20に記憶させる。この場合、例えば、図示しない外部装置は、記憶装置20に記憶された信頼度マップMcを参照することで、特徴点抽出部37に相当する処理を実行する。なお、識別装置30は、信頼度マップMcを記憶装置20に記憶する代わりに、上述の外部装置に対して信頼度マップMcを送信してもよい。他の例では、識別装置30又は上述の外部装置は、信頼度マップMcを入力として所定の処理を実行してもよい。
その他、上記の実施形態(変形例を含む、以下同じ)の一部又は全部は、以下の付記のようにも記載され得るが以下には限られない。
[付記1]
情報処理システムが実行する制御方法であって、
教師画像と、前記教師画像に含まれる特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器を生成し、
前記第1識別器に前記教師画像を入力することで出力される予測座標値に基づいて、前記教師画像から前記特徴点の候補領域を設定し、
前記候補領域を前記教師画像から切り出した画像に基づき、入力された画像内の各ブロックでの前記特徴点に対する信頼度を示す信頼度マップを出力するように学習された第2識別器を生成し、
前記第1識別器に対象画像を入力することで、前記特徴点に関する予測座標値を取得し、
前記予測座標値に基づいて、前記対象画像から前記特徴点の候補領域を設定し、
前記第2識別器に、前記対象画像から前記候補領域を切り出した画像を入力することで、当該切り出した画像に対する前記信頼度マップを出力する、制御方法。
[付記2]
教師画像と、前記教師画像に含まれる特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器を生成する第1学習部と、
前記第1識別器に前記教師画像を入力することで出力される予測座標値に基づいて、前記教師画像から前記特徴点の候補領域を設定する候補領域設定部と、
前記候補領域を前記教師画像から切り出した画像に基づき、入力された画像内の各ブロックでの前記特徴点に対する信頼度を示す信頼度マップを出力するように学習された第2識別器を生成する第2学習部と、
を有する学習装置。
[付記3]
前記候補領域設定部は、前記予測座標値と、当該予測座標値に対する前記正解座標値との差を複数の前記教師画像に対して算出し、算出した前記差のばらつきに基づき、前記予測座標値から前記候補領域を設定する、付記2に記載の学習装置。
[付記4]
前記特徴点に関する正解座標値は、当該特徴点に対する候補領域を指定する複数の正解座標値であり、
前記第1学習部は、前記教師画像と、前記複数の正解座標値とに基づき、入力された画像から前記候補領域を指定する複数の予測座標値を出力する前記第1識別器を生成し、
前記候補領域設定部は、前記複数の予測座標値から前記候補領域を設定する、付記2に記載の学習装置。
[付記5]
前記第1学習部は、前記複数の正解座標値の複数の候補のうち、当該候補の各々が示す候補領域に対する前記信頼度マップの精度が最大となる候補を選定し、当該候補と、前記教師画像とに基づき、入力された画像から前記候補領域を指定する複数の予測座標値を出力する前記第1識別器を生成する、付記4に記載の学習装置。
[付記6]
前記候補領域設定部は、前記予測座標値から前記候補領域を設定するためのパラメータを生成する場合に、前記パラメータに対する複数の候補の各々に対する前記信頼度マップの精度に基づき、前記パラメータとして用いる前記候補を決定する、付記2に記載の学習装置。
[付記7]
教師画像と、前記教師画像に含まれる特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器に対象画像を入力することで、前記特徴点に関する予測座標値を取得する第1識別器処理部と、
前記予測座標値に基づいて、前記対象画像から前記特徴点の候補領域を設定する候補領域設定部と、
前記候補領域を前記教師画像から切り出した画像に基づき、入力された画像から前記特徴点の当該画像内の各ブロックでの信頼度を示す信頼度マップを出力するように学習された第2識別器に、前記対象画像から前記候補領域を切り出した画像を入力することで、当該切り出した画像に対する前記信頼度マップを出力する第2識別器処理部と、
を備える識別装置。
[付記8]
前記信頼度マップに基づき前記特徴点の候補となる座標値を算出し、当該座標値に対応する信頼度が所定の閾値以上の場合に、当該座標値を前記特徴点の座標値として決定する特徴点抽出部をさらに備える、付記6に記載の識別装置。
[付記9]
前記特徴点抽出部は、前記信頼度マップの重心位置を、前記特徴点の座標値として決定する、付記7または8に記載の識別装置。
[付記10]
前記特徴点抽出部は、前記信頼度の極大点となる座標値を、前記特徴点の座標値として決定する、付記7または8に記載の識別装置。
[付記11]
前記特徴点抽出部は、前記信頼度マップを近似させた関数に基づき、前記特徴点の座標値を決定する、付記7~10のいずれか一項に記載の識別装置。
[付記12]
前記候補領域設定部は、前記第1識別器が出力する予測座標値から前記候補領域を設定するためのパラメータである領域パラメータを記憶した記憶装置から読み出した当該領域パラメータと、前記予測座標値とに基づき、前記候補領域を設定する、付記6~10のいずれか一項に記載の識別装置。
[付記13]
学習装置が実行する制御方法であって、
教師画像と、前記教師画像に含まれる特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器を生成し、
前記第1識別器に前記教師画像を入力することで出力される予測座標値に基づいて、前記教師画像から前記特徴点の候補領域を設定し、
前記候補領域を前記教師画像から切り出した画像に基づき、入力された画像内の各ブロックでの前記特徴点に対する信頼度を示す信頼度マップを出力するように学習された第2識別器を生成する、制御方法。
[付記14]
識別装置が実行する制御方法であって、
教師画像と、前記教師画像に含まれる特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器に対象画像を入力することで、前記特徴点に関する予測座標値を取得し、
前記予測座標値に基づいて、前記対象画像から前記特徴点の候補領域を設定し、
前記候補領域を前記教師画像から切り出した画像に基づき、入力された画像から前記特徴点の当該画像内の各ブロックでの信頼度を示す信頼度マップを出力するように学習された第2識別器に、前記対象画像から前記候補領域を切り出した画像を入力することで、当該切り出した画像に対する前記信頼度マップを出力する、制御方法。
[付記15]
コンピュータが実行するプログラムであって、
教師画像と、前記教師画像に含まれる特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器を生成する第1学習部と、
前記第1識別器に前記教師画像を入力することで出力される予測座標値に基づいて、前記教師画像から前記特徴点の候補領域を設定する候補領域設定部と、
前記候補領域を前記教師画像から切り出した画像に基づき、入力された画像内の各ブロックでの前記特徴点に対する信頼度を示す信頼度マップを出力するように学習された第2識別器を生成する第2学習部
として前記コンピュータを機能させる、プログラム。
[付記16]
コンピュータが実行するプログラムであって、
教師画像と、前記教師画像に含まれる特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器に対象画像を入力することで、前記特徴点に関する予測座標値を取得する第1識別器処理部と、
前記予測座標値に基づいて、前記対象画像から前記特徴点の候補領域を設定する候補領域設定部と、
前記候補領域を前記教師画像から切り出した画像に基づき、入力された画像から前記特徴点の当該画像内の各ブロックでの信頼度を示す信頼度マップを出力するように学習された第2識別器に、前記対象画像から前記候補領域を切り出した画像を入力することで、当該切り出した画像に対する前記信頼度マップを出力する第2識別器処理部
として前記コンピュータを機能させる、プログラム。
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。すなわち、本願発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。また、引用した上記の特許文献等の各開示は、本書に引用をもって繰り込むものとする。
10 学習装置
11、31 プロセッサ
12、32 メモリ
20 記憶装置
21 教師画像
22 教師ラベル
23 第1識別器情報
24 領域パラメータ情報
25 第2識別器情報
30 識別装置
13、33 インターフェース

100、100A、100B 情報処理システム

Claims (10)

  1. 情報処理システムが実行する制御方法であって、
    対象物を撮影したサンプル画像と、前記サンプル画像に含まれる前記対象物の特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された前記サンプル画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器を生成し、
    前記第1識別器に前記サンプル画像を入力することで出力される予測座標値に基づいて、前記サンプル画像から前記特徴点の候補領域を設定し、
    前記候補領域を前記サンプル画像から切り出した画像に基づき、入力された画像内の各ブロックでの前記特徴点に対する信頼度を示す信頼度マップを出力するように学習された第2識別器を生成し、
    前記第1識別器に対象画像を入力することで、前記特徴点に関する予測座標値を取得し、
    前記予測座標値に基づいて、前記対象画像から前記特徴点の候補領域を設定し、
    前記第2識別器に、前記対象画像から前記候補領域を切り出した画像を入力することで、当該切り出した画像に対する前記信頼度マップを出力する、制御方法。
  2. 対象物を撮影したサンプル画像と、前記サンプル画像に含まれる前記対象物の特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器を生成する第1学習手段と、
    前記第1識別器に前記サンプル画像を入力することで出力される予測座標値に基づいて、前記サンプル画像から前記特徴点の候補領域を設定する候補領域設定手段と、
    前記候補領域を前記サンプル画像から切り出した画像に基づき、入力された画像内の各ブロックでの前記特徴点に対する信頼度を示す信頼度マップを出力するように学習された第2識別器を生成する第2学習手段と、
    を有する学習装置。
  3. 前記候補領域設定手段は、前記予測座標値と、当該予測座標値に対する前記正解座標値との差を複数の前記サンプル画像に対して算出し、算出した前記差のばらつきに基づき、前記予測座標値から前記候補領域を設定する、請求項2に記載の学習装置。
  4. 対象物を撮影したサンプル画像と、前記サンプル画像に含まれる前記対象物の特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器に対象画像を入力することで、前記特徴点に関する予測座標値を取得する第1識別器処理手段と、
    前記予測座標値に基づいて、前記対象画像から前記特徴点の候補領域を設定する候補領域設定手段と、
    入力された画像から前記特徴点の当該画像内の各ブロックでの信頼度を示す信頼度マップを出力するように学習された第2識別器に、前記対象画像から前記候補領域を切り出した画像を入力することで、当該切り出した画像に対する前記信頼度マップを出力する第2識別器処理手段と、
    を備える識別装置。
  5. 前記信頼度マップに基づき前記特徴点の候補となる座標値を算出し、当該座標値に対応する信頼度が所定の閾値以上の場合に、当該座標値を前記特徴点の座標値として決定する特徴点抽出手段をさらに備える、請求項4に記載の識別装置。
  6. 前記特徴点抽出手段は、前記信頼度マップの重心位置を、前記特徴点の座標値として決定する、請求項5に記載の識別装置。
  7. 学習装置が実行する制御方法であって、
    対象物を撮影したサンプル画像と、前記サンプル画像に含まれる前記対象物の特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器を生成し、
    前記第1識別器に前記サンプル画像を入力することで出力される予測座標値に基づいて、前記サンプル画像から前記特徴点の候補領域を設定し、
    前記候補領域を前記サンプル画像から切り出した画像に基づき、入力された画像内の各ブロックでの前記特徴点に対する信頼度を示す信頼度マップを出力するように学習された第2識別器を生成する、制御方法。
  8. 識別装置が実行する制御方法であって、
    対象物を撮影したサンプル画像と、前記サンプル画像に含まれる前記対象物の特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器に対象画像を入力することで、前記特徴点に関する予測座標値を取得し、
    前記予測座標値に基づいて、前記対象画像から前記特徴点の候補領域を設定し、
    入力された画像から前記特徴点の当該画像内の各ブロックでの信頼度を示す信頼度マップを出力するように学習された第2識別器に、前記対象画像から前記候補領域を切り出した画像を入力することで、当該切り出した画像に対する前記信頼度マップを出力する、制御方法。
  9. コンピュータが実行するプログラムであって、
    対象物を撮影したサンプル画像と、前記サンプル画像に含まれる前記対象物の特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器を生成する第1学習手段と、
    前記第1識別器に前記サンプル画像を入力することで出力される予測座標値に基づいて、前記サンプル画像から前記特徴点の候補領域を設定する候補領域設定手段と、
    前記候補領域を前記サンプル画像から切り出した画像に基づき、入力された画像内の各ブロックでの前記特徴点に対する信頼度を示す信頼度マップを出力するように学習された第2識別器を生成する第2学習手段
    として前記コンピュータを機能させるプログラム。
  10. コンピュータが実行するプログラムであって、
    対象物を撮影したサンプル画像と、前記サンプル画像に含まれる前記対象物の特徴点に関する正解座標値を含む教師ラベルとに基づき、入力された画像から前記特徴点に関する予測座標値を出力するように学習された第1識別器に対象画像を入力することで、前記特徴点に関する予測座標値を取得する第1識別器処理手段と、
    前記予測座標値に基づいて、前記対象画像から前記特徴点の候補領域を設定する候補領域設定手段と、
    入力された画像から前記特徴点の当該画像内の各ブロックでの信頼度を示す信頼度マップを出力するように学習された第2識別器に、前記対象画像から前記候補領域を切り出した画像を入力することで、当該切り出した画像に対する前記信頼度マップを出力する第2識別器処理手段
    として前記コンピュータを機能させるプログラム。
JP2021503238A 2019-03-01 2019-03-01 制御方法、学習装置、識別装置及びプログラム Active JP7143931B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/008018 WO2020178881A1 (ja) 2019-03-01 2019-03-01 制御方法、学習装置、識別装置及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2020178881A1 JPWO2020178881A1 (ja) 2021-11-04
JP7143931B2 true JP7143931B2 (ja) 2022-09-29

Family

ID=72338189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021503238A Active JP7143931B2 (ja) 2019-03-01 2019-03-01 制御方法、学習装置、識別装置及びプログラム

Country Status (5)

Country Link
US (1) US20220138984A1 (ja)
EP (1) EP3933755A4 (ja)
JP (1) JP7143931B2 (ja)
AU (1) AU2019433083B2 (ja)
WO (1) WO2020178881A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7419993B2 (ja) 2020-07-02 2024-01-23 コニカミノルタ株式会社 信頼度推定プログラム、信頼度推定方法、および信頼度推定装置
KR20230110986A (ko) * 2022-01-17 2023-07-25 연세대학교 산학협력단 자궁 경부에 대한 정보 제공 방법 및 이를 이용한 자궁 경부에 대한 정보 제공용 디바이스

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009211177A (ja) 2008-02-29 2009-09-17 Canon Inc 特徴点位置決定方法及び装置
US20140355821A1 (en) 2013-06-04 2014-12-04 Apple Inc. Object Landmark Detection in Images
JP2016197371A (ja) 2015-04-06 2016-11-24 大日本印刷株式会社 識別器生成装置、識別器生成方法、推定装置、推定方法、およびプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6082312B2 (ja) 2013-05-17 2017-02-15 日本電信電話株式会社 テンプレート画像候補領域決定装置、テンプレート画像候補領域決定方法、及びプログラム
DE102017216802A1 (de) * 2017-09-22 2019-03-28 Continental Teves Ag & Co. Ohg Verfahren und vorrichtung zum erkennen von fahrspuren, fahrerassistenzsystem und fahrzeug

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009211177A (ja) 2008-02-29 2009-09-17 Canon Inc 特徴点位置決定方法及び装置
US20140355821A1 (en) 2013-06-04 2014-12-04 Apple Inc. Object Landmark Detection in Images
JP2016197371A (ja) 2015-04-06 2016-11-24 大日本印刷株式会社 識別器生成装置、識別器生成方法、推定装置、推定方法、およびプログラム

Also Published As

Publication number Publication date
EP3933755A1 (en) 2022-01-05
AU2019433083A1 (en) 2021-08-05
EP3933755A4 (en) 2022-03-16
US20220138984A1 (en) 2022-05-05
JPWO2020178881A1 (ja) 2021-11-04
AU2019433083B2 (en) 2023-05-18
WO2020178881A1 (ja) 2020-09-10

Similar Documents

Publication Publication Date Title
US10991072B2 (en) Method and device for fusing panoramic video images
CN109325437B (zh) 图像处理方法、装置和***
Tsai et al. Real-time indoor scene understanding using bayesian filtering with motion cues
US11514625B2 (en) Motion trajectory drawing method and apparatus, and device and storage medium
EP2182469A2 (en) System and method for sensing facial gesture
CN111242852A (zh) 边界感知对象移除和内容填充
CN113761999B (zh) 一种目标检测方法、装置、电子设备和存储介质
CN110675487A (zh) 基于多角度二维人脸的三维人脸建模、识别方法及装置
CN111488812B (zh) 障碍物位置识别方法、装置、计算机设备和存储介质
CN103514432A (zh) 人脸特征提取方法、设备和计算机程序产品
KR102476016B1 (ko) 안구 위치 정보 확정 방법 및 장치
US10950056B2 (en) Apparatus and method for generating point cloud data
CN113870401B (zh) 表情生成方法、装置、设备、介质和计算机程序产品
JP7143931B2 (ja) 制御方法、学習装置、識別装置及びプログラム
CN103778406A (zh) 对象检测方法及设备
CN111382618B (zh) 一种人脸图像的光照检测方法、装置、设备和存储介质
CN109544516B (zh) 图像检测方法及装置
US20230237777A1 (en) Information processing apparatus, learning apparatus, image recognition apparatus, information processing method, learning method, image recognition method, and non-transitory-computer-readable storage medium
JP7238998B2 (ja) 推定装置、学習装置、制御方法及びプログラム
EP3309750B1 (en) Image processing apparatus and image processing method
Cui et al. Dense depth-map estimation based on fusion of event camera and sparse LiDAR
KR20160046399A (ko) 텍스쳐 맵 생성 방법 및 장치와 데이터 베이스 생성 방법
CN112883920A (zh) 基于点云深度学习的三维人脸扫描特征点检测方法和装置
CN111931694A (zh) 确定人物的视线朝向的方法、装置、电子设备和存储介质
JP2018120402A (ja) イベント検出装置、イベント検出方法、プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210621

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220829

R151 Written notification of patent or utility model registration

Ref document number: 7143931

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151