JP6946831B2 - 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法 - Google Patents
人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法 Download PDFInfo
- Publication number
- JP6946831B2 JP6946831B2 JP2017149344A JP2017149344A JP6946831B2 JP 6946831 B2 JP6946831 B2 JP 6946831B2 JP 2017149344 A JP2017149344 A JP 2017149344A JP 2017149344 A JP2017149344 A JP 2017149344A JP 6946831 B2 JP6946831 B2 JP 6946831B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- person
- line
- partial image
- sight direction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Ophthalmology & Optometry (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Biodiversity & Conservation Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Geometry (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
まず、図1を用いて、本発明が適用される場面の一例について説明する。図1は、本実施形態に係る視線方向推定装置1及び学習装置2の適用場面の一例を模式的に例示する。
[ハードウェア構成]
<視線方向推定装置>
次に、図3を用いて、本実施形態に係る視線方向推定装置1のハードウェア構成の一例について説明する。図3は、本実施形態に係る視線方向推定装置1のハードウェア構成の一例を模式的に例示する。
次に、図4を用いて、本実施形態に係る学習装置2のハードウェア構成の一例を説明する。図4は、本実施形態に係る学習装置2のハードウェア構成の一例を模式的に例示する。
<視線方向推定装置>
次に、図5を用いて、本実施形態に係る視線方向推定装置1のソフトウェア構成の一例を説明する。図5は、本実施形態に係る視線方向推定装置1のソフトウェア構成の一例を模式的に例示する。
次に、学習器について説明する。図5に示されるとおり、本実施形態では、人物の視線方向を推定するための機械学習を行った学習済みの学習器として、畳み込みニューラルネットワーク5が利用される。
次に、図6を用いて、本実施形態に係る学習装置2のソフトウェア構成の一例を説明する。図6は、本実施形態に係る学習装置2のソフトウェア構成の一例を模式的に例示する。
視線方向推定装置1及び学習装置2の各ソフトウェアモジュールに関しては後述する動作例で詳細に説明する。なお、本実施形態では、視線方向推定装置1及び学習装置2の各ソフトウェアモジュールがいずれも汎用のCPUによって実現される例について説明している。しかしながら、以上のソフトウェアモジュールの一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。また、視線方向推定装置1及び学習装置2それぞれのソフトウェア構成に関して、実施形態に応じて、適宜、ソフトウェアモジュールの省略、置換及び追加が行われてもよい。
[視線方向推定装置]
次に、図7を用いて、視線方向推定装置1の動作例を説明する。図7は、視線方向推定装置1の処理手順の一例を例示するフローチャートである。以下で説明する人物Aの視線方向を推定する処理手順は、本発明の「推定方法」の一例である。ただし、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
まず、制御部11は、起動時に、プログラム121を読み込んで、初期設定の処理を実行する。具体的には、制御部11は、学習結果データ122を参照して、畳み込みニューラルネットワーク5の構造、各ニューロン間の結合の重み及び各ニューロンの閾値の設定を行う。そして、制御部11は、以下の処理手順に従って、人物Aの視線方向を推定する処理を実行する。
ステップS101では、制御部11は、画像取得部111として動作し、人物Aの顔を含み得る画像123をカメラ3から取得する。取得する画像123は、動画像であってもよいし、静止画像であってもよい。画像123のデータを取得すると、制御部11は、次のステップS102に処理を進める。
ステップS102では、制御部11は、画像抽出部112として動作し、ステップS101で取得した画像123において、人物Aの顔の写る顔領域を検出する。顔領域の検出には、パターンマッチング等の公知の画像解析方法が用いられてよい。
ステップS103では、制御部11は、画像抽出部112として動作し、ステップS102で検出した顔領域において、顔に含まれる各器官を検出することで、当該各器官の位置を推定する。各器官の検出には、パターンマッチング等の公知の画像解析方法が用いられてよい。検出対象となる器官は、例えば、目、口、鼻等である。検出対象となる器官は、後述する部分画像の抽出方法に応じて異なっていてもよい。顔の各器官の検出が完了すると、制御部11は、次のステップS104に処理を進める。
ステップS104では、制御部11は、画像抽出部112として動作し、人物Aの目を含む部分画像を画像123から抽出する。本実施形態では、制御部11は、部分画像として、人物Aの右目を含む第1部分画像1231と人物Aの左目を含む第2部分画像1232とを抽出する。また、本実施形態では、上記ステップS102及びS103により、画像123において顔領域を検出し、検出した顔領域において各器官の位置を推定している。そこで、制御部11は、推定した各器官の位置に基づいて、各部分画像(1231、1232)を抽出する。
図8Aに例示されるとおり、第1の方法では、目と鼻との間の距離を基準に各部分画像(1231、1232)を抽出する。図8Aは、第1の方法により、第1部分画像1231を抽出する場面の一例を模式的に例示する。
図8Bに例示されるとおり、第2の方法では、両目の目尻間の距離を基準に各部分画像(1231、1232)を抽出する。図8Bは、第2の方法により、第1部分画像1231を抽出する場面の一例を模式的に例示する。
図8Cに例示されるとおり、第3の方法では、両目における目頭及び目尻の中点間の距離を基準に各部分画像(1231、1232)を抽出する。図8Cは、第3の方法により、第1部分画像1231を抽出する場面の一例を模式的に例示する。
以上の3つの方法によれば、人物Aの各目を含む各部分画像(1231、1232)を適切に抽出することができる。各部分画像(1231、1232)の抽出が完了すると、制御部11は、次のステップS105に処理を進める。
ステップS105では、制御部11は、推定部113として動作し、抽出した第1部分画像1231及び第2部分画像1232を畳み込みニューラルネットワーク5の入力として用いて、当該畳み込みニューラルネットワーク5の演算処理を実行する。これにより、ステップS106では、制御部11は、視線情報125に対応する出力値を当該畳み込みニューラルネットワーク5から取得する。
次に、図9を用いて、学習装置2の動作例を説明する。図9は、学習装置2の処理手順の一例を例示するフローチャートである。なお、以下で説明する学習器の機械学習に関する処理手順は、本発明の「学習方法」の一例である。ただし、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
ステップS201では、学習装置2の制御部21は、学習データ取得部211として動作し、第1部分画像2231、第2部分画像2232、及び視線情報225の組を学習データ222として取得する。
次のステップS202では、制御部21は、学習処理部212として動作して、ステップS201で取得した学習データ222を用いて、第1部分画像2231及び第2部分画像2232を入力すると視線情報225に対応する出力値を出力するように、畳み込みニューラルネットワーク6の機械学習を実施する。
次のステップS203では、制御部21は、学習処理部212として動作して、構築した畳み込みニューラルネットワーク6の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を学習結果データ122として記憶部22に格納する。これにより、制御部21は、本動作例に係る畳み込みニューラルネットワーク6の学習処理を終了する。
以上のように、本実施形態に係る視線方向推定装置1は、上記ステップS101〜S104の処理により、人物Aの顔の写る画像123を取得し、取得した画像123から、当該人物Aの右目及び左目をそれぞれ個別に含む第1部分画像1231及び第2部分画像1232を抽出する。そして、視線方向推定装置1は、上記ステップS105及びS106により、抽出した第1部分画像1231及び第2部分画像1232を学習済みのニューラルネットワーク(畳み込みニューラルネットワーク5)に入力することで、人物Aの視線方向を推定する。この学習済みのニューラルネットワークは、上記学習装置2により、第1部分画像2231、第2部分画像2232、及び視線情報225を含む学習データ222を用いて作成される。
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
上記実施形態では、視線方向推定装置1は、カメラ3から画像123を直接取得している。しかしながら、画像123の取得方法は、このような例に限られなくてもよい。例えば、カメラ3により撮影された画像123は、NAS等のデータサーバに保存されてもよい。この場合、視線方向推定装置1は、上記ステップS101において、当該データサーバにアクセスすることで、画像123を間接的に取得してもよい。
上記実施形態では、視線方向推定装置1は、ステップS102及びS103により、顔領域の及び顔領域に含まれる器官の検出を行った後に、この検出結果を利用して、各部分画像(1231、1232)を抽出している。しかしながら、各部分画像(1231、1232)を抽出する方法は、このような例に限られなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、制御部11は、上記ステップS102及びS103を省略し、パターンマッチング等の公知の画像解析方法により、ステップS101で取得した画像123において、人物Aの各目の写る領域を検出してもよい。そして、制御部11は、この各目の写る領域の検出結果を利用して、各部分画像(1231、1232)を抽出してもよい。
また、上記実施形態では、視線方向推定装置1は、上記ステップS105において、第1部分画像1231及び第2部分画像1232を結合することで得られる結合画像を、畳み込みニューラルネットワーク5の最も入力側に配置された畳み込み層51に入力している。しかしながら、第1部分画像1231及び第2部分画像1232をニューラルネットワークに入力する方法は、このような例に限られなくてもよい。例えば、ニューラルネットワークでは、第1部分画像1231を入力する部分と第2部分画像1232を入力する部分とが分かれていてもよい。
また、上記実施形態では、制御部11は、上記ステップS105において、第1部分画像1231及び第2部分画像1232を畳み込みニューラルネットワーク5に入力する前に、第1部分画像1231及び第2部分画像1232のサイズを調整してもよい。このとき、制御部11は、第1部分画像1231及び第2部分画像1232の解像度を低下させてもよい。
上記実施形態では、人物Aの視線方向を推定するためのニューラルネットワークとして、畳み込みニューラルネットワークを利用している。しかしながら、上記実施形態において人物Aの視線方向の推定に利用可能なニューラルネットワークの種類は、畳み込みニューラルネットワークに限られなくてもよく、実施の形態に応じて適宜選択されてよい。人物Aの視線方向を推定するためのニューラルネットワークとして、例えば、一般的な多層構造のニューラルネットワークが用いられてよい。
上記実施形態では、人物Aの視線方向を推定するのに利用する学習器として、ニューラルネットワークを用いている。しかしながら、学習器の種類は、部分画像を入力として利用可能であれば、ニューラルネットワークに限られなくてもよく、実施の形態に応じて適宜選択されてよい。利用可能な学習器として、例えば、サポートベクターマシン、自己組織化マップ、強化学習により機械学習を行う学習器等を挙げることができる。
上記実施形態では、制御部11は、上記ステップS106において、畳み込みニューラルネットワーク5から視線情報125を直接的に取得している。しかしながら、視線情報を学習器から取得する方法は、このような例に限られなくてもよい。例えば、視線方向推定装置1は、学習器の出力と視線方向の角度とを対応付けたテーブル形式等の参照情報を記憶部12に保持していてもよい。この場合、制御部11は、上記ステップS105において、第1部分画像1231及び第2部分画像1232を入力として用いて、畳み込みニューラルネットワーク5の演算処理を行うことで、当該畳み込みニューラルネットワーク5から出力値を得てもよい。そして、上記ステップS106において、制御部11は、参照情報を参照することで、畳み込みニューラルネットワーク5から得た出力値に対応する視線情報125を取得してもよい。このように、制御部11は、視線情報125を間接的に取得してもよい。
また、上記実施形態では、学習結果データ122は、畳み込みニューラルネットワーク5の構成を示す情報を含んでいる。しかしながら、学習結果データ122の構成は、このような例に限られなくてもよい。例えば、利用するニューラルネットワークの構成が共通化されている場合には、学習結果データ122は、畳み込みニューラルネットワーク5の構成を示す情報を含んでいなくてもよい。
11…制御部、12…記憶部、13…外部インタフェース、
14…通信インタフェース、15…入力装置、
16…出力装置、17…ドライブ、
111…画像取得部、112…画像抽出部、113…推定部、
114…解像度変換部、
121…プログラム、122・122A…学習結果データ、
123…画像、1231…第1部分画像、1232…第2部分画像、
125…視線情報、
2…学習装置、
21…制御部、22…記憶部、23…外部インタフェース、
24…通信インタフェース、25…入力装置、
26…出力装置、27…ドライブ、
211…学習データ取得部、212…学習処理部、
221…学習プログラム、222…学習データ、
3…カメラ(撮影装置)、
5・5A…畳み込みニューラルネットワーク、
51・51A…畳み込み層、52・52A…プーリング層、
53…全結合層、54…出力層、
56・58…畳み込み層、57・59…プーリング層、
6…畳み込みニューラルネットワーク、
61…畳み込み層、62…プーリング層、
63…全結合層、64…出力層、
91・92…記憶媒体
Claims (7)
- 人物の顔を含む画像を取得する画像取得部と、
前記人物の目を含む部分画像を前記画像から抽出する画像抽出部と、
視線方向を推定するための機械学習を行った学習済みの学習器に前記部分画像を入力することで、前記人物の視線方向を示す視線情報を当該学習器から取得する推定部と、
を備え、
前記画像抽出部は、
前記画像において、前記人物の顔の写る顔領域を検出し、
前記顔領域において、前記顔の少なくとも2つの器官の位置を推定し、かつ
推定した前記2つの器官の間の距離に基づいて、前記部分画像を前記画像から抽出し、
前記器官は、目尻、目頭、及び鼻を含み、
前記画像抽出部は、前記目尻及び前記目頭の中点を前記部分画像の中心に設定し、前記目頭及び前記鼻の間の距離を基準に前記部分画像のサイズを決定する、
人物の視線方向を推定するための情報処理装置。 - 人物の顔を含む画像を取得する画像取得部と、
前記人物の目を含む部分画像を前記画像から抽出する画像抽出部と、
視線方向を推定するための機械学習を行った学習済みの学習器に前記部分画像を入力することで、前記人物の視線方向を示す視線情報を当該学習器から取得する推定部と、
を備え、
前記画像抽出部は、
前記画像において、前記人物の顔の写る顔領域を検出し、
前記顔領域において、前記顔の少なくとも2つの器官の位置を推定し、かつ
推定した前記2つの器官の間の距離に基づいて、前記部分画像を前記画像から抽出し、
前記器官は、目尻及び目頭を含み、
前記画像抽出部は、前記目尻及び前記目頭の中点を前記部分画像の中心に設定し、両目の前記目尻間の距離を基準に前記部分画像のサイズを決定する、
人物の視線方向を推定するための情報処理装置。 - 人物の顔を含む画像を取得する画像取得部と、
前記人物の目を含む部分画像を前記画像から抽出する画像抽出部と、
視線方向を推定するための機械学習を行った学習済みの学習器に前記部分画像を入力することで、前記人物の視線方向を示す視線情報を当該学習器から取得する推定部と、
を備え、
前記画像抽出部は、
前記画像において、前記人物の顔の写る顔領域を検出し、
前記顔領域において、前記顔の少なくとも2つの器官の位置を推定し、かつ
推定した前記2つの器官の間の距離に基づいて、前記部分画像を前記画像から抽出し、
前記器官は、目尻及び目頭を含み、
前記画像抽出部は、前記目尻及び前記目頭の中点を前記部分画像の中心に設定し、両目における前記目頭及び前記目尻の中点間の距離を基準に前記部分画像のサイズを決定する、
人物の視線方向を推定するための情報処理装置。 - 前記部分画像の解像度を低下させる解像度変換部を更に備え、
前記推定部は、解像度を低下させた前記部分画像を学習済みの前記学習器に入力することで、前記視線情報を前記学習器から取得する、
請求項1から3のいずれか1項に記載の情報処理装置。 - コンピュータが、
人物の顔を含む画像を取得する画像取得ステップと、
前記人物の目を含む部分画像を前記画像から抽出する画像抽出ステップと、
視線方向を推定するための学習を行った学習済みの学習器に前記部分画像を入力することで、前記人物の視線方向を示す視線情報を当該学習器から取得する推定ステップと、
を実行し、
前記画像抽出ステップにおいて、前記コンピュータが、前記画像において、前記人物の顔の写る顔領域を検出し、前記顔領域において、前記顔の少なくとも2つの器官の位置を推定し、かつ推定した前記2つの器官の間の距離に基づいて、前記部分画像を前記画像から抽出し、
前記器官は、目尻、目頭、及び鼻を含み、
前記画像抽出ステップにおいて、前記コンピュータが、前記目尻及び前記目頭の中点を前記部分画像の中心に設定し、前記目頭及び前記鼻の間の距離を基準に前記部分画像のサイズを決定する、
人物の視線方向を推定するための推定方法。 - コンピュータが、
人物の顔を含む画像を取得する画像取得ステップと、
前記人物の目を含む部分画像を前記画像から抽出する画像抽出ステップと、
視線方向を推定するための学習を行った学習済みの学習器に前記部分画像を入力することで、前記人物の視線方向を示す視線情報を当該学習器から取得する推定ステップと、
を実行し、
前記画像抽出ステップにおいて、前記コンピュータが、前記画像において、前記人物の顔の写る顔領域を検出し、前記顔領域において、前記顔の少なくとも2つの器官の位置を推定し、かつ推定した前記2つの器官の間の距離に基づいて、前記部分画像を前記画像から抽出し、
前記器官は、目尻及び目頭を含み、
前記画像抽出ステップにおいて、前記コンピュータが、前記目尻及び前記目頭の中点を前記部分画像の中心に設定し、両目の前記目尻間の距離を基準に前記部分画像のサイズを決定する、
人物の視線方向を推定するための推定方法。 - コンピュータが、
人物の顔を含む画像を取得する画像取得ステップと、
前記人物の目を含む部分画像を前記画像から抽出する画像抽出ステップと、
視線方向を推定するための学習を行った学習済みの学習器に前記部分画像を入力することで、前記人物の視線方向を示す視線情報を当該学習器から取得する推定ステップと、
を実行し、
前記画像抽出ステップにおいて、前記コンピュータが、前記画像において、前記人物の顔の写る顔領域を検出し、前記顔領域において、前記顔の少なくとも2つの器官の位置を推定し、かつ推定した前記2つの器官の間の距離に基づいて、前記部分画像を前記画像から抽出し、
前記器官は、目尻及び目頭を含み、
前記画像抽出ステップにおいて、前記コンピュータが、前記目尻及び前記目頭の中点を前記部分画像の中心に設定し、両目における前記目頭及び前記目尻の中点間の距離を基準に前記部分画像のサイズを決定する、
人物の視線方向を推定するための推定方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017149344A JP6946831B2 (ja) | 2017-08-01 | 2017-08-01 | 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法 |
DE102018208920.5A DE102018208920A1 (de) | 2017-08-01 | 2018-06-06 | Informationsverarbeitungsvorrichtung und Abschätzungsverfahren für ein Abschätzen einer Blickrichtung einer Person und eine Lernvorrichtung und ein Lernverfahren |
CN201810601945.7A CN109325396A (zh) | 2017-08-01 | 2018-06-12 | 信息处理装置及估计方法、以及学习装置及学习方法 |
US16/015,297 US20190043216A1 (en) | 2017-08-01 | 2018-06-22 | Information processing apparatus and estimating method for estimating line-of-sight direction of person, and learning apparatus and learning method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017149344A JP6946831B2 (ja) | 2017-08-01 | 2017-08-01 | 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019028843A JP2019028843A (ja) | 2019-02-21 |
JP6946831B2 true JP6946831B2 (ja) | 2021-10-13 |
Family
ID=65019944
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017149344A Active JP6946831B2 (ja) | 2017-08-01 | 2017-08-01 | 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20190043216A1 (ja) |
JP (1) | JP6946831B2 (ja) |
CN (1) | CN109325396A (ja) |
DE (1) | DE102018208920A1 (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11556741B2 (en) | 2018-02-09 | 2023-01-17 | Pupil Labs Gmbh | Devices, systems and methods for predicting gaze-related parameters using a neural network |
EP3749172B1 (en) | 2018-02-09 | 2022-03-30 | Pupil Labs GmbH | Devices, systems and methods for predicting gaze-related parameters |
US11194161B2 (en) | 2018-02-09 | 2021-12-07 | Pupil Labs Gmbh | Devices, systems and methods for predicting gaze-related parameters |
US10684681B2 (en) * | 2018-06-11 | 2020-06-16 | Fotonation Limited | Neural network image processing apparatus |
US11537202B2 (en) | 2019-01-16 | 2022-12-27 | Pupil Labs Gmbh | Methods for generating calibration data for head-wearable devices and eye tracking system |
US11676422B2 (en) | 2019-06-05 | 2023-06-13 | Pupil Labs Gmbh | Devices, systems and methods for predicting gaze-related parameters |
US11144754B2 (en) * | 2019-08-19 | 2021-10-12 | Nvidia Corporation | Gaze detection using one or more neural networks |
CN110969084B (zh) * | 2019-10-29 | 2021-03-05 | 深圳云天励飞技术有限公司 | 一种关注区域检测方法、装置、可读存储介质及终端设备 |
CN111178278B (zh) * | 2019-12-30 | 2022-04-08 | 上海商汤临港智能科技有限公司 | 视线方向确定方法、装置、电子设备及存储介质 |
WO2021140642A1 (ja) | 2020-01-10 | 2021-07-15 | オムロン株式会社 | 視線推定装置、視線推定方法、モデル生成装置、及びモデル生成方法 |
JP6932269B1 (ja) * | 2020-02-21 | 2021-09-08 | 三菱電機株式会社 | 運転支援制御装置及び運転支援制御方法 |
JP6865996B1 (ja) * | 2020-12-18 | 2021-04-28 | サスメド株式会社 | 認知・運動機能異常評価システムおよび認知・運動機能異常評価用プログラム |
JP7296069B2 (ja) * | 2021-01-28 | 2023-06-22 | 独立行政法人国立高等専門学校機構 | 視線入力装置、および視線入力方法 |
JP7219788B2 (ja) * | 2021-04-09 | 2023-02-08 | 本田技研工業株式会社 | 情報処理装置、情報処理方法、学習方法、およびプログラム |
CN113158879B (zh) * | 2021-04-19 | 2022-06-10 | 天津大学 | 基于匹配特征的三维注视点估计及三维眼动模型建立方法 |
WO2023007730A1 (ja) * | 2021-07-30 | 2023-02-02 | 日本電気株式会社 | 情報処理システム、情報処理装置、情報処理方法、及び記録媒体 |
JP2023106888A (ja) * | 2022-01-21 | 2023-08-02 | オムロン株式会社 | 情報処理装置および情報処理方法 |
US11726340B1 (en) * | 2022-03-28 | 2023-08-15 | Honeywell International Inc. | Systems and methods for transforming video data in an indirect vision system |
WO2024013907A1 (ja) * | 2022-07-13 | 2024-01-18 | 日本電信電話株式会社 | 情報提供装置、情報提供方法及び情報提供プログラム |
CN116958945B (zh) * | 2023-08-07 | 2024-01-30 | 北京中科睿途科技有限公司 | 面向智能座舱的司机视线估计方法和相关设备 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040108971A1 (en) * | 1998-04-09 | 2004-06-10 | Digilens, Inc. | Method of and apparatus for viewing an image |
CN1174337C (zh) * | 2002-10-17 | 2004-11-03 | 南开大学 | 识别人眼注视与否的方法和装置及其应用 |
JP4532419B2 (ja) * | 2006-02-22 | 2010-08-25 | 富士フイルム株式会社 | 特徴点検出方法および装置並びにプログラム |
JP2007265367A (ja) * | 2006-03-30 | 2007-10-11 | Fujifilm Corp | 視線検出方法および装置ならびにプログラム |
JP5221436B2 (ja) * | 2009-04-02 | 2013-06-26 | トヨタ自動車株式会社 | 顔特徴点検出装置及びプログラム |
JP2012038106A (ja) * | 2010-08-06 | 2012-02-23 | Canon Inc | 情報処理装置、情報処理方法、およびプログラム |
JP6157165B2 (ja) * | 2013-03-22 | 2017-07-05 | キヤノン株式会社 | 視線検出装置及び撮像装置 |
JP6707900B2 (ja) | 2016-02-26 | 2020-06-10 | 三菱自動車工業株式会社 | 車両の冷却装置 |
US10565433B2 (en) * | 2017-03-30 | 2020-02-18 | George Mason University | Age invariant face recognition using convolutional neural networks and set distances |
-
2017
- 2017-08-01 JP JP2017149344A patent/JP6946831B2/ja active Active
-
2018
- 2018-06-06 DE DE102018208920.5A patent/DE102018208920A1/de not_active Withdrawn
- 2018-06-12 CN CN201810601945.7A patent/CN109325396A/zh active Pending
- 2018-06-22 US US16/015,297 patent/US20190043216A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
CN109325396A (zh) | 2019-02-12 |
DE102018208920A1 (de) | 2019-02-07 |
JP2019028843A (ja) | 2019-02-21 |
US20190043216A1 (en) | 2019-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6946831B2 (ja) | 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法 | |
RU2770752C1 (ru) | Способ и устройство для обучения модели распознавания лица и устройство для определения ключевой точки лица | |
KR102574141B1 (ko) | 이미지 디스플레이 방법 및 디바이스 | |
EP3755204B1 (en) | Eye tracking method and system | |
JP6608890B2 (ja) | 機械学習装置、ロボットシステム及び機械学習方法 | |
JP6821707B2 (ja) | 畳み込み画像変換推定を実行するための方法およびシステム | |
CN102985933B (zh) | 区分真人面部与平坦表面 | |
US8615135B2 (en) | Feature point positioning apparatus, image recognition apparatus, processing method thereof and computer-readable storage medium | |
JP5227629B2 (ja) | オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム | |
KR20180057096A (ko) | 표정 인식과 트레이닝을 수행하는 방법 및 장치 | |
JP2017059207A (ja) | 画像認識方法 | |
CN112257696B (zh) | 视线估计方法及计算设备 | |
JP2019117577A (ja) | プログラム、学習処理方法、学習モデル、データ構造、学習装置、および物体認識装置 | |
KR20180130869A (ko) | 손 제스처를 검출하는 컨볼루션 신경망, 그리고 손 제스처에 의한 기기 제어시스템 | |
CN111696196B (zh) | 一种三维人脸模型重建方法及装置 | |
US11562489B2 (en) | Pixel-wise hand segmentation of multi-modal hand activity video dataset | |
JP5027030B2 (ja) | オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム | |
CN111626379B (zh) | 肺炎x光图像检测方法 | |
JP2017130042A (ja) | 映像処理装置、映像処理方法、及びプログラム | |
JP6996455B2 (ja) | 検出器生成装置、モニタリング装置、検出器生成方法及び検出器生成プログラム | |
KR20210018114A (ko) | 교차 도메인 메트릭 학습 시스템 및 방법 | |
CN112733773A (zh) | 一种对象检测方法、装置、计算机设备和存储介质 | |
JP5513960B2 (ja) | 画像処理装置 | |
KR20230093191A (ko) | 오차 종류별 관절 인식 방법, 서버 | |
JP6875646B2 (ja) | 画像処理装置、および、画像処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200305 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210415 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210601 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210615 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210726 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210817 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210830 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6946831 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |