CN102959585B - 属性确定方法、属性确定装置及属性确定*** - Google Patents

属性确定方法、属性确定装置及属性确定*** Download PDF

Info

Publication number
CN102959585B
CN102959585B CN201180032551.0A CN201180032551A CN102959585B CN 102959585 B CN102959585 B CN 102959585B CN 201180032551 A CN201180032551 A CN 201180032551A CN 102959585 B CN102959585 B CN 102959585B
Authority
CN
China
Prior art keywords
attribute
angle
head
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201180032551.0A
Other languages
English (en)
Other versions
CN102959585A (zh
Inventor
植木一也
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Electrical Scheme Innovation Corporation
Original Assignee
Japan Electrical Scheme Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Electrical Scheme Innovation Corp filed Critical Japan Electrical Scheme Innovation Corp
Publication of CN102959585A publication Critical patent/CN102959585A/zh
Application granted granted Critical
Publication of CN102959585B publication Critical patent/CN102959585B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明提供属性确定方法、属性确定装置、程序、记录介质以及属性确定***,具有高检测精度,利用这样的方法、装置和***,甚至可以在人并不完全正面面向的情况下也能够确定人的属性。本发明的属性确定方法包括:图像获取步骤(S11),获取待确定图像;头部区域检测步骤(S21),从待确定图像中检测头部区域;以及属性确定步骤(S22),基于头部图像来确定属性。

Description

属性确定方法、属性确定装置及属性确定***
技术领域
本发明涉及属性确定方法、属性确定装置、程序、记录介质以及属性确定***。
背景技术
从图像中检测人并且确定诸如年龄和性别等属性的***在各种场合中使用,例如,各种图像通信(例如,视频会议和视频电话);数据库搜索;安全***(例如,建筑物安全);以及脸部识别***。例如,存在一种方法,通过利用作为人脸的特征部位的脸部部位(例如,眼睛、眉毛、鼻孔和嘴)执行模式识别来确定图像示出了人的脸部,检测图像中的人,并且进一步确定属性(例如,参见专利文献1)。按照以下顺序执行检测脸部部位的方法。首先检测人的头部,然后提取脸部部位。
现有技术文献
[专利文献]
[专利文献1]JPH10(1998)-307923A
发明内容
本发明要解决的技术问题
然而,在使用脸部的属性确定方法中,存在以下问题:如果脸部特征部位的一部分被隐藏,以及如果只能利用几乎正面面向的人来执行检测和确定,则对人的检测和对属性的确定是困难的。因此,在应用这种类型的方法的情况下,需要在适合于拍摄正面面向的人的位置处提供摄像机。然而,通常在这样的位置提供摄像机是困难的。
因此,本发明意在提供一种高检测精度的属性确定方法、属性确定装置、程序、记录介质以及属性确定***,利用这样的方法、装置和***甚至可以在人并不完全正面面向的情况下也能够确定人的属性。
解决问题的手段
为了实现上述目的,本发明的属性确定方法包括:
图像获取步骤,在所述图像获取步骤中获取待确定图像;
头部区域检测步骤,在所述头部区域检测步骤中从所述待确定图像中检测头部区域;以及
属性确定步骤,在属性确定步骤中基于头部图像来确定属性。
本发明的属性确定装置包括:
图像获取单元,所述图像获取单元获取待确定图像;
头部区域检测单元,所述头部区域检测单元从所述待确定图像中检测头部区域;以及
属性确定单元,所述属性确定单元基于头部图像来确定属性。
本发明的程序使计算机执行本发明的属性确定方法。
本发明的记录介质记录有本发明的程序。
本发明的属性确定***包括:
图像获取单元,所述图像获取单元获取待确定图像;
头部区域检测单元,所述头部区域检测单元从所述待确定图像中检测头部区域;
属性确定单元,所述属性确定单元基于头部图像来确定属性;
预先获取的头部检测模型和头部确定规则中的至少一个;
用于基于所述头部图像来确定属性的属性确定模型和属性确定规则中的至少一个;以及
输出单元,所述输出单元输出属性确定的结果,其中
所述图像获取单元和所述输出单元经由所述***外部提供的通信网络连接至所述头部区域检测单元、所述属性确定单元、所述头部检测模型和所述头部确定规则中的至少一个、以及所述属性确定模型和所述属性确定规则中的至少一个。
本发明的效果
根据本发明,可以提供一种属性确定方法、属性确定装置、程序、记录介质以及属性确定***,具有高检测精度,利用这样的方法、装置和***甚至可以在人并不完全正面面向的情况下也能够确定人的属性。
附图说明
图1A是示出了本发明的属性确定方法的示例(实施例1)的流程图。
图1B是示出了本发明的属性确定装置的示例(实施例1)配置的框图。
图1C是示出了实施例1的属性确定装置的另一示例的框图。
图2A至2D是用于说明本发明中向用于学习的图像应用头部区域(正例)的示例的视图。
图3A和3B是用于说明本发明中头部区域检测步骤的示例的视图。
图4A是示出了本发明的属性确定方法的另一示例(实施例2)的流程图。
图4B是示出了本发明的属性确定装置的另一示例(实施例2)的配置的框图。
图5A是示出了本发明的属性确定方法的又一示例(实施例3)的流程图。
图5B是示出了本发明的属性确定装置的又一示例(实施例3)配置的框图。
图6A和6B是用于说明本发明中向头部区域中应用角度训练数据的示例的视图。
图7是示出了使用本发明的属性确定装置的属性确定***的示例(实施例5)的配置的框图。
具体实施方式
接着,描述本发明的实施例。这里应注意,本发明不限于以下描述的实施例。在以下图1至7中,相同部分由相同的数字和符号来指示。
[实施例1]
图1A示出了实施例1的属性确定方法的流程图。图1B示出了实施例1的属性确定装置的框图。如图1B所示,实施例1的属性确定装置包括图像获取装置(单元)111、计算装置(单元)112、输出装置(单元)131和数据存储装置(单元)140,作为主要部件。图像获取装置111电连接至计算装置120。计算装置120电连接至输出装置131和数据存储装置140。计算装置120包括头部区域检测装置(单元)121和属性确定装置(单元)122。将预先获得的头部检测模型141和属性确定模型142存储在数据存储装置140中。头部区域检测装置121连接至头部检测模型141。属性确定装置122连接至属性确定模块142。
图像获取装置111的示例包括电荷耦合器件(CCD)摄像机、互补金属氧化物半导体(CMOS)摄像机和图像扫描仪。计算装置120的示例包括中央处理单元(CPU)。输出装置131的示例包括通过图像输出数据的监视器(例如,诸如液晶显示器(LCD)和阴极射线管(CRT)显示器等图像显示器)、通过打印输出数据的打印机、以及通过声音输出数据的扬声器。输出装置131是可选部件。本发明的属性确定装置优选地包括输出装置131,尽管该装置并不始终是必要的。数据存储装置140的示例包括随机存取存储器(RAM)、只读存储器(ROM)、硬盘(HD)、光盘和软(注册商标名称)盘(FD)。例如,数据存储装置140可以是内置型或外部型,例如,外部存储设备。关于图像获取装置,计算装置、输出装置和数据存储装置,同样适用于以下描述的实施例。
在本发明中,不对属性进行具体限定,并且属性的示例包括性别、年龄、种族、头部角度、头发长度、戴或不戴帽子、头发颜色、发型、脸部的方向、脸部表情、戴或不戴眼镜或太阳镜、戴或不戴面具、以及有或没有髭或胡须。
例如,使用如下图1B的属性确定装置来执行实施例1的属性确定方法。
首先,在执行属性确定方法之前,使用机器学习(模式识别)技术来执行学习。具体地,首先,利用作为正例的用于学习的图像的头部区域和作为反例的用于学习的图像的非头部区域,通过机器学习(模式识别)来执行学习,形成头部检测模型141。具体地,例如,如图2A至2D所示,首先,通过分别对用于学习的图像10a(正面面向的男性)、10b(正面面向的女性)、10c(侧面面向的男性)、和10d(背面面向的女性)施加标记11a、11b、11c和11d,来应用头部区域。例如,人使用传统已知的输入装置(例如,键盘、鼠标等)进行输入,来进行对头部区域的训练数据的应用。考虑到检测精度,用于学习的图像的数目越多越好。此外,优选地准备大量用于学习的图像来形成头部检测模型。
接着,通过对头部区域应用用于确定属性的训练数据并且使用分别被应用了用于确定属性的训练数据的多个头部区域,由机器学习(模式识别)来形成属性确定模型。在实施例1的属性确定方法中,用于确定属性的训练数据的示例包括诸如性别和年龄等训练数据。具体地,例如,对图2A中示出的用于学习的图像的头部区域应用用于确定属性的训练数据“性别:男性”。例如,对图2B中示出的用于学习的图像的头部区域应用用于确定属性的训练数据“性别:女性”。此外,例如,对图2A中示出的用于学习的图像的头部区域应用用于确定属性(例如,年龄)的训练数据,例如“年龄:30”,并且对图2B中示出的用于学习的图像应用“年龄:20”。此外,在使用用于属性确定的“方向”项目的情况下,例如,也可以应用用于确定头部方向属性的训练数据,例如,以1度为基础指示的方向数据(例如,向左60°)和根据8个方向的方向数据(例如,0°,45°,90°等)。在通过机器学习执行学习来执行属性确定的情况下,可以使用估计连续值(例如,年龄)的方法(回归)和估计类别(例如,男性/女性)的方法(分类)。人使用传统已知的输入装置(例如,键盘、鼠标等)进行输入,来进行对用于确定属性(例如,性别和年龄)的训练数据的应用。同样,可以不采用学习而是采用人制定规则并确定属性的方法(属性确定规则)来执行属性确定。
接着,如图1A的流程图所示,执行以下步骤。首先,图像获取装置111获取待确定图像(步骤S11)。
接着,通过头部区域检测装置121参考使用多个用于学***方向从要检测的图像20的左上端开始移动图像补丁并且按顺序连续向下移动,通过所谓的光栅扫描来搜索头部区域。此外,例如,如图3B所示,通过改变待确定图像20的获取尺寸并且搜索头部区域,检测头部区域的数据。优选地以这种方式检测头部区域的数据,这是因为可以同时执行头部区域的对准。这里应注意,头部的方向不限于该示例。例如,可以通过将待确定图像中的圆形对象检测为头部区域并且执行对检测到的头部区域的对准,来执行检测。例如,可以通过计算装置中包含的对准装置(单元)(未示出)来执行对准。
接着,属性确定装置122通过参考使用分别被应用了用于确定属性的训练数据的许多头部区域执行学习而预先获取的属性确定模型142,基于头部图像来确定属性(步骤S22)。确定项的示例包括性别、年龄、种族、头部角度、头发长度、戴或不戴帽子、头发颜色、发型、脸部的方向、脸部表情、戴或不戴眼镜或太阳镜、戴或不戴面具、以及有或没有髭或胡须。例如,在确定项是性别的情况下,基于性别度(例如,0或1)来进行确定。可以基于头部区域数据来计算性别度。具体地,例如准则设定如下。即,如果性别度是“0到小于0.5”,则确定为“女性”,如果性别度是“0.5到1”则确定为“男性”。根据计算的性别度的值来执行对性别的确定。用于根据性别度来确定性别的准则不限于该示例。例如,准则可以如下。即,如果性别度是“0到0.3”则确定为“女性”,并且如果性别度是“0.7到1”则确定为“男性”,如果性别度是“大于0.3并小于0.7”,则确定为“不可确定”。同样关于年龄等,例如通过设定预定准则,根据基于头部区域数据计算的值来执行对年龄等的确定。
接着,输出装置131输出属性的确定结果(步骤S31)。确定项的示例与上述确定项相同。输出步骤S31是可选步骤。本发明的属性确定方法优选地包括输出步骤S31,尽管这并不始终是必要的。
如上所述,根据实施例1的属性确定方法,由于基于头部本身确定属性,因此甚至可以在人没有完全正面面向的情况下也能够执行对人的检测和对属性的确定。此外,根据实施例1的属性确定方法,如上所述,例如由于基于头部本身确定属性,因此甚至在脸部不可见的情况下也能够确定属性。例如,能够扩展用于放置图像获取装置(例如,监视摄像机等)的位置的选择范围。例如,能够使用现有的监视摄像机等。此外,由于不使用脸部而使用头部本身来确定属性,因此与使用脸部的情况(其中除非使用示出了人几乎正面面向的图像,否则属性确定有困难)相比,例如,可以利用示出了从任何方向拍摄的人的图像(帧)(例如,示出了从背侧拍摄的人的图像)来进行属性确定。因此,例如,不需要拍摄许多帧。此外,由于示出了从任何方向拍摄的人的图像可以用于确定属性,因此例如可以获取各种信息。应理解,可以以更高精度确定属性。关于这些效果,同样适用于以下描述的实施例。
在实施例1的属性确定方法中的头部区域检测步骤(图1A中的S21)中,通过参考头部检测模型来从待确定图像中检测头部区域。然而,本发明不限于此。例如,可以通过参考头部确定规则来检测头部区域。头部确定规则的示例包括诸如“待确定图像中的圆形对象是头部区域”等规则。此外,例如,可以通过参考头部检测模型和头部确定规则两者来检测头部区域。在这种情况下,例如,如图1C所示,头部确定规则241可以存储在数据存储装置140中,并且头部区域检测装置121可以连接至头部确定规则241。
在实施例1的属性确定方法中的属性确定步骤(图1A中的S22)中,通过参考属性确定模型,基于头部图像来执行对属性的确定。然而,本发明不限于此。例如,可以通过参考属性确定规则来确定属性。属性确定规则的示例包括以下规则:例如,“如果头发较长则确定为女性并且如果头发较短则确定为男性”。此外,例如可以通过参考属性确定模型和属性确定规则两者来确定属性。在这种情况下,例如,如图1C所示,属性确定规则242可以存储在数据存储装置140中,并且属性确定装置122可以连接至属性确定规则242。
[实施例2]
图4A示出了实施例2的属性确定方法的流程图。图4B示出了实施例2的的属性确定装置的框图。如图4B所示,在实施例2的属性确定装置中,计算装置(单元)120包括整体属性确定装置(单元)122-1、部分检测装置(单元)123、部分属性确定装置(单元)124和组合装置(单元)125,并且整体属性确定模型142-1和部分属性确定模型144存储在数据存储装置140中。整体属性确定装置122-1连接至整体属性确定模型142-1,部分属性确定装置(单元)124连接至部分属性确定模型144。除了这些以外,实施例2的配置与图1中示出的实施例1的属性检测装置的配置相同。
在本发明中,部分是头部区域的一部分,并且部分的示例包括头发(头发的区域、长度等)、眼睛、鼻子、嘴、眉毛、耳朵、戴在头上的某物(帽子、头巾等)、眼镜、太阳镜、面具等。关于眼睛、眉毛和耳朵,例如,可以将眼睛、眉毛和耳朵中的每一个视为分开的部分,或者可以将眼睛、眉毛和耳朵中的二者视为一个部分。
例如,使用如下图4B的属性确定装置来执行实施例2的属性确定方法。关于作为示例部分是头发的情况,描述实施例2的属性确定方法。然而,本发明的属性确定方法不限于该示例。
首先,在执行属性确定方法之前,使用机器学习(模式识别)技术来执行学习。具体地,首先,按照与实施例1相同的方式,通过机器学习(模式识别)学习用于学习的图像来形成头部检测模型141。接着,按照与实施例1中属性确定模型142的形成相同的方式,形成整体属性确定模型142-1。
另一方面,根据用于学习的图像的头部区域,形成关于头发的部分属性确定模型144。具体地,例如,首先对通过剪切掉图2A中示出的用于学习的图像的头发区域而获得图像应用训练数据“性别:男性”;并且向通过剪切掉图2B中示出的用于学习的图像的头发区域而获得图像应用训练数据“性别:女性”。例如,人使用传统已知的输入装置(例如,键盘、鼠标等)进行输入,来形成训练数据。接着,使用通过剪切掉头发区域而获得的分别被应用了训练数据的多个图像,形成关于头发的部分属性确定模型144。
接着,如图4A的流程图所示,执行以下步骤。首先,图像获取装置111获取待确定图像(步骤S111)。
接着,按照与实施例1中的方式相同的方式,头部区域检测装置121通过参考预先形成的头部检测模型141从待确定图像中检测头部区域数据(步骤S21)。在检测头部区域数据之后,部分检测装置123检测在检测到的头部区域数据中包含的头发区域(步骤S23)。
接着,按照与实施例1的属性确定步骤S22中的方式相同的方式,整体属性确定装置122-1通过参考预先获取的整体属性确定模型142-1,基于头部图像来确定属性(步骤S22-1)。在确定项是性别的情况下,例如,按照与实施例1中的方式相同的方式,基于性别度(例如,0到1)进行确定。
与基于头部图像的属性确定彼此并行地,部分属性确定装置124通过参考预先获取的部分属性确定模型144来确定头发区域的属性(步骤S24)。在确定项是性别的情况下,例如,可以在相关部分(头发区域)处基于性别度(例如,0到1)来进行确定。
接着,组合装置125将整体属性确定步骤S22-1中获得确定结果与部分属性确定步骤S24中获得的确定结果相组合(步骤S25)。在组合步骤S25中,可以通过以下公式(1)来执行确定项(确定结果)的组合。在以下公式(1)中,“n”表示待确定图像(帧)的数目。
在确定项是性别的情况下,例如可以通过以下公式(2)执行确定结果的组合。
在公式(2)中,“整体性别度”是指在整体属性确定步骤S22-1中计算的性别度。“部分性别度”是指在部分属性确定步骤S24中计算的性别度。例如,“整体性别置信度”可以由大于但不大于1的值来表示,并且指示在整体属性确定步骤S22-1中计算的性别度的可靠性级别。此外,例如,“部分性别置信度”可以由大于0但不大于1的值来表示,并且指示在部分属性确定步骤S24中计算的性别度的可靠性级别。整体性别置信度和部分性别置信度可以根据要使用的模型的性能来确定。例如,在以下情况下:当基于整体图像确定性别时可靠性是70%精度并且当基于提取出了头发的图像来确定性别时可靠性是80%精度,可以通过增大后者的置信度来进行高检测精度的确定。
此外,例如,在待确定整体图像较暗的条件下,由于整体头部区域的颜色变暗,因此存在性别度向男性偏移的情况,尽管事实上图像中的人是女性。这样,在待确定整体图像较暗的条件下,由于在整体头部区域处确定性别的可靠性较低,因此将整体性别的置信度设为低(接近0的数值)。另一方面,例如,在黄色人种(黑头发种族)普遍作为待确定人的区域中,在头部区域附近的背景是黑色的条件下,由于人看起来似乎具有较长头发,所以尽管事实上人的头发较短,也存在性别度向着女性偏移的情况。这样,在头部区域附近的背景是黑色的条件下,由于利用头发长度(部分)确定性别的可靠性较低,因此将置信等级设为低(接近0的数值)。
接着,输出装置输出组合的属性确定结果(步骤S31)。例如,基于实施例1中描述的准则,根据通过组合计算的性别度的值来确定性别。
在实施例2的属性确定方法中,基于整体头部区域来确定属性,基于头部区域的一部分来确定属性,并且然后通过组合这些确定结果来确定属性。因此,例如可以以较高精度确定属性。
公式(2)是针对使用一个帧情况的公式。在使用多于一个帧的情况下,可以通过公式(3)来执行确定结果的组合。例如,通过增加帧的数目,可以基于图像以更高精度来确定属性。在公式(3)中,“n”表示帧的数目。
此外,在实施例2的属性确定方法中的部分属性确定步骤(图4A中的S24)中,通过参考部分属性确定模型,基于头部区域的部位的图像来确定属性。然而,本发明不限于此。例如,可以通过参考部分属性确定规则来确定头部区域的部位的属性。部分属性确定规则的示例包括以下规则:例如“如果头发较长则确定为女性,并且如果头发较短则确定为男性”。可以如下准备部分属性确定规则。例如,可以通过以下操作来形成规则:对图2A中示出的用于学习的图像的头部区域应用训练数据“头发长度:短”,并且对图2B中示出的用于学习的图像的头部区域应用训练数据“头发长度:长”;形成头发长度估计模型;基于头发长度估计模型来估计头发的长度;并且基于头发的长度来确定性别,例如“短:男性”和“长:女性”。此外,例如,可以通过参考部分属性确定模型和部分属性确定规则两者来确定头部区域的部位的属性。在这种情况下,例如,部分属性确定规则可以存储在数据存储装置中,并且部分属性确定装置可以连接至部分属性确定规则。
[实施例3]
图5A示出了实施例3的属性确定方法的流程图。图5B示出了实施例36的属性确定装置的框图。如图5B所示,在实施例3的属性确定装置中,计算装置(单元)120包括非基于角度的属性确定装置(单元)122-2、角度确定装置(单元)126、基于角度的属性确定装置(单元)127、和组合装置(单元)128,并且非基于角度的属性确定模型142-2、角度确定模型146、和基于角度的属性确定模型147存储在数据存储装置140中。非基于角度的属性确定装置122-2连接至非基于角度的属性确定模型142-2。角度确定装置126连接至角度确定模型146。基于角度的属性确定装置127连接至基于角度的属性确定模型147。除了这些之外,实施例3的配置与图1B中示出的实施例1的属性确定装置的配置相同。
例如,使用如下图5B的属性确定装置来执行实施例1的属性确定方法。
首先,在执行属性确定方法之前,使用机器学习(模式识别)技术来执行学习。具体地,首先按照与实施例1中的方式相同的方式,通过机器学习(模式识别)学习用于学习的图像,来形成头部检测模型141。接着,按照与实施例1的属性确定模型142的形成相同的方式,形成非基于角度的属性确定模型142-2,非基于角度的属性确定模型142-2用于基于头部图像而不参考头部的角度来确定属性。
另一方面,根据用于学习的图像的头部区域,形成参照头部区域的角度的角度确定模型146。具体地,例如,如图6A所示,在指定角度沿逆时针方向增大,并且正面方向(鼻子的方向)为0°的情况下,对略微面向左侧的人的学习图像的头部区域应用训练数据“角度:10°”。使用被应用了角度训练数据的多个头部区域来形成角度确定模型146。此外,例如,向被应用了角度训练数据的头部区域应用诸如“性别:男性”等训练数据。相应地,例如,向头部区域应用诸如“角度:10°,性别:男性”等训练数据。使用被分别应用了诸如性别等训练数据的多个头部图像来形成基于角度的属性确定模型147。人使用传统已知的输入装置(例如,键盘、鼠标等)进行输入,来进行诸如角度和性别等训练数据的应用。优选地关于用于学习的图像中具有不同角度的头部区域来形成角度确定模型和基于角度的属性确定模型。可以利用沿着点头方向的角度或沿着摇头方向的角度来指定角度。
接着,如图5A的流程图所示,执行以下步骤。首先,图像获取装置111获取待确定图像(步骤S11)。
接着,按照与实施例1中的方式相同的方式,头部区域检测装置121通过参考预先形成的头部检测模型141从待确定图像中检测头部区域数据(步骤S21)。
接着,按照与实施例1中属性确定步骤S22中的方式相同的方式,非基于角度的属性确定装置122-2通过参考预先获取的非基于角度的属性确定模型142-2,基于头部图像来确定属性,非基于角度的属性确定装置122-2基于头部图像而不参考头部的角度来确定属性(步骤S22-2)。在确定项是性别的情况下,例如,按照与实施例1中的方式相同的方式,基于性别度(例如,0到1)来进行确定。
与基于头部图像而不参考头部的角度的属性确定彼此并行地,角度确定装置126通过参照预先获取的角度确定模型146来提取成预先定义的特定角度的头部图像(步骤S26)。例如,在仅利用其中各自的头部几乎正面面向的图像来进行确定的情况下,例如,将特定角度区域定义为0°±10°。随后,基于角度的属性确定装置127通过参考预先获取的基于角度的属性确定模型147来确定成预先定义的特定角度的提取的头部图像的属性(步骤S27)。在确定项是性别的情况下,例如,按照与上述相同的方式,可以基于性别度(例如,0到1)来进行确定。
接着,组合装置128将在非基于角度的属性确定步骤S22-2中获得的确定结果与基于角度的属性确定步骤S27中获得的确定结果相组合(步骤S28)。在组合步骤S28中,可以通过公式(1)来执行确定项(确定结果)的组合。在确定项是性别的情况下,例如可以通过以下公式(4)来执行确定结果的组合。
在公式(4)中,“整体性别度”是指在非基于角度的属性确定步骤S22-2中计算的性别度。例如,“整体性别置信度”可以由大于0并不大于1的值来表示,并且指示在非基于角度的属性确定步骤S22-2中计算的性别度的可靠性级别。“基于角度的性别度”是指在基于角度的属性确定步骤S27中计算的性别度。例如,“基于角度的性别置信度”可以由大于0并不大于1的值来表示,并且指示在基于角度的属性确定步骤S27中计算的性别度的可靠性级别。整体性别置信度和基于角度的性别置信度可以根据要使用的模型的性能来确定。例如,在以下情况下:当基于整体图像来确定性别时可靠性是70%精度并且当基于成特定角度的图像来确定性别时可靠性是80%精度,可以通过增大后者的置信度来进行高检测精度的确定。
接着,输出装置131输出组合的属性确定结果(步骤S31)。例如,基于实施例1中描述的准则,根据通过组合计算的性别度的值来确定性别。
在实施例3的属性确定方法中,基于头部图像而不参考头部的角度来确定属性,确定成特定角度的属性,并且然后通过组合这些确定结果来确定属性。因此,例如,以更高精度来确定属性。
公式(4)是针对使用一个待确定图像(帧)的公式。在使用多于一个帧的情况下,通过公式(5)来执行确定结果的组合。通过增加帧的数目,例如,可以以更高精度基于图像来确定属性。在公式(5)中,“n”表示帧的数目。
此外,在实施例3的属性确定方法中的基于角度的属性确定步骤(图5A中的S27)中,通过参考基于角度的属性确定模型,基于成角度的图像来确定属性。然而,本发明不限于此。例如,可以通过参考基于角度的属性确定规则来确定成角度的属性。基于角度的属性确定规则的示例包括以下规则:例如,“如果从侧面在头部区域中看到喉结则确定为男性,并且如果从侧面在头部区域中没有看到喉结则确定为女性”。此外,例如,可以通过参照基于角度的属性确定模型和基于角度的属性确定模型来确定成角度的属性。在这种情况下,例如,基于角度的属性确定规则可以存储在数据存储装置中,并且基于角度的属性确定装置可以连接至基于角度的属性确定规则。
在实施例3的属性确定方法中,如上所述,头部区域的角度由数值(0°至360°)表示,通过应用角度训练数据来形成角度确定模型,并且在角度确定步骤中确定头部区域的角度。在这种类型的角度显示方法中,例如,存在引起错误识别的情况,即在人面向从正向(角度:0°)向左1°(角度:1°)的情况与人面向从正向(角度:0°)向右1°(角度:1°)的情况之间存在较大差异(角度差:358°),尽管事实上它们之间角度差相对于正向(角度:0°)是2°(例如,在容限内)。
为了避免这种错误识别,在本发明的属性确定方法中,优选地,头部区域的角度由坐标(x,y)示出。具体地,例如,如图6B所示,头部区域的角度由半径为1的圆形的圆周上的坐标示出,该圆形以x-y平面上的x轴和y轴的交点为圆心,x-y平面的x轴和y轴彼此垂直相交,并且垂直于作为身体轴方向的z轴。在人的正面方向(鼻子的方向)的角度被指定为0°并且由坐标a1(1,0)示出的情况下,例如,角度10°可以由坐标(cos10°,sin10°)来示出。根据8个方向的方向可以由45°:a2(1/√2,1/√2)、90°:a3(0,1)、135°:a4(-1/√2,1/√2)、180°:a5(-1,0)、225°:a6(-1/√2,-1/√2)、270°:a7(0,-1)和315°:a8(1/√2,-1/√2)来表示。通过由坐标示出角度,例如可以识别诸如上述角度之间的角度等任何角度。通过以这种方式由坐标示出头部区域的角度,向用于学习的图像的头部区域应用角度训练数据,并且使用分别被应用了角度训练数据的多个头部区域,来形成角度确定模型。通过参考角度确定模型,在角度确定步骤中确定头部区域的角度。
在本发明的属性确定方法中,例如,部分属性确定步骤和基于角度的属性确定步骤可以组合执行。在这种情况下,例如,可以通过将在部分属性确定步骤中获得的确定结果与在基于角度的属性确定步骤中获得的确定结果相组合来确定属性。此外,在实施例3的属性确定方法中,确定性别作为属性。例如,可以确定角度本身作为属性。
[实施例4]
实施例4的程序是允许计算机执行属性确定方法的程序。实施例4的程序例如可以记录在记录介质中。不存在对记录介质的具体限制,并且记录介质的示例包括随机存取存储器(RAM)、只读存储器(ROM)、硬盘(HD)、光盘和软(注册商标)盘(FD)。
[实施例5]
图7示出了使用本发明的属性确定装置的属性确定***的示例的配置。如图7所示,属性确定***具备:图像获取装置(单元)111a、111b和111c;输出装置(单元)131a、131b和131c;通信接口150a、150b和150c;以及服务器170。图像获取装置111a和输出装置131a连接至通信接口150a。图像获取装置111a、输出装置131a和通信接口150a布置在地点“X”处。图像获取装置111b和输出装置131b连接至通信接口150b。图像获取装置111b、输出装置131b和通信接口150b布置在地点“Y”处。图像获取装置111c和输出装置131c连接至通信接口150c。图像获取装置111c、输出装置131c和通信接口150c布置在地点“Z”处。通信接口150a、150b和150c经由网络160连接至服务器170.
该属性确定***包括服务器170侧的头部区域检测装置和属性确定装置,并且头部区域检测模型和属性确定模型存储在服务器170中。例如,向服务器170发送使用图像获取装置111a在地点“X”处获取的待确定图像,在服务器170处检测到头部区域,并且基于头部的图像执行对属性的确定。然后,在检测到的头部区域和确定的属性之中,输出装置131a至少输出属性。例如,头部确定规则和属性确定规则也可以存储在服务器中。
根据实施例5的属性确定***,通过就地布置图像获取装置和输出装置,并且在其他地点布置服务器等,头部区域检测和属性确定可以在线执行。因此,例如,该***不需要用于布置设备的空间,并且维护不复杂。此外,例如,甚至在设置了设备的地点彼此远离的情况下,也可以集中或远程控制该***。实施例5的属性确定***可以是与实施例2的部分属性确定和实施例3的基于角度的属性确定相对应的***。此外,例如实施例5的属性确定***可以是与云计算相对应的***。
尽管参照本发明的示例性实施例具体示出和描述了本发明,但是本发明不限于这些实施例。本领域技术人员应当理解,可以在不背离权利要求所限定的本发明的精神和范围的前提下进行各种形式和细节的改变。
本申请基于并要求2010年6月30日递交的日本专利申请No.2010-149935的优先权权益,其全部公开内容通过引用合并于此。
工业实用性
根据本发明,可以提供了一种高检测精度的属性确定方法、一种高检测精度的属性确定装置、程序、记录介质以及一种高检测精度的属性确定***,利用这样的方法、装置和***,甚至可以在人并不完全正面面向的情况下也能够确定人的属性。因此,例如可以使用现有的监视摄像机等来确定人的属性,并且本发明可以应用于广泛领域。
附图标记说明
10a、10b、10c和10d用于学习的图像
11a、11b、11c和11d标记
20待确定图像
111、111a、111b和111c图像获取装置
120计算装置
121头部区域检测装置
122属性确定装置
122-1整体属性确定装置
122-2非基于角度的属性确定装置
123部分检测装置
124部分属性确定装置
125和128组合装置
126角度确定装置
127基于角度的属性确定装置
131、131a、131b和131c输出装置
140数据存储装置
141头部检测模型
142属性确定模型
142-1整体属性确定模型
142-2非基于角度的属性确定模型
144部分属性确定模型
146角度确定模型
147基于角度的属性确定模型
150a、150b和150c通信接口
160网络
170服务器
241头部确定规则
242属性确定规则

Claims (17)

1.一种属性确定方法,包括:
图像获取步骤,在所述图像获取步骤中获取待确定图像;
头部区域检测步骤,在所述头部区域检测步骤中从所述待确定图像中检测头部区域;以及
属性确定步骤,在属性确定步骤中基于头部图像来确定属性,
其中,所述属性确定步骤包括:
整体属性确定步骤,在所述整体属性确定步骤中基于整体头部区域来确定所述属性;
部分检测步骤,在所述部分检测步骤中检测所述头部区域的一部分;
部分属性确定步骤,在所述部分属性确定步骤中基于所述头部区域的所述一部分来确定所述属性;以及
组合步骤,在所述组合步骤中将在所述整体属性确定步骤和所述部分属性确定步骤中获得的确定结果相组合,其中使用确定项的可靠性级别来执行所述确定项的组合。
2.根据权利要求1所述的方法,还包括:
对准步骤,在对准步骤中对所述头部区域检测步骤中检测到的所述头部区域进行对准。
3.根据权利要求1所述的方法,其中,
在所述头部区域检测步骤中,通过参照预先获取的头部检测模型和头部确定规则中的至少一个,从所述待确定图像中检测所述头部区域;并且
在所述属性确定步骤中,通过参照预先获取的属性确定模型和属性确定规则中的至少一个,基于所述头部图像来确定所述属性。
4.根据权利要求1所述的方法,其中,
在所述部分属性确定步骤中,通过参照预先获取的部分属性确定模型和部分属性确定规则中的至少一个,来确定所述头部区域的所述一部分的所述属性。
5.根据权利要求1所述的方法,其中,所述属性确定步骤包括:
非基于角度的属性确定步骤,在所述非基于角度的属性确定步骤中,基于所述头部图像而不参考头部的角度来确定所述属性;
角度确定步骤,在所述角度确定步骤中确定在所述头部区域检测步骤中检测到的所述头部区域的角度;
基于角度的属性确定步骤,在所述基于角度的属性确定步骤中,基于成预先定义的特定角度的图像来确定所述属性;以及
组合步骤,在所述组合步骤中,将在所述非基于角度的属性确定步骤和所述基于角度的属性确定步骤中获得的确定结果相组合。
6.根据权利要求5所述的方法,其中,
在所述基于角度的属性确定步骤中,通过参照预先获取的基于角度的属性确定模型和基于角度的属性确定规则中的至少一个来确定所述基于角度的属性。
7.根据权利要求5所述的方法,其中,在所述角度确定步骤中,所述头部区域的角度由半径为1的圆形的圆周上的坐标示出,所述圆形以x-y平面上x轴和y轴的交点为圆心,所述x轴和所述y轴彼此垂直相交,并且垂直于作为身体轴方向的z轴。
8.根据权利要求1所述的方法,其中,
在所述组合步骤中,通过以下公式(1)执行确定项的组合:
n是待确定图像的数目。
9.一种属性确定装置,包括:
图像获取单元,所述图像获取单元获取待确定图像;
头部区域检测单元,所述头部区域检测单元从所述待确定图像中检测头部区域;以及
属性确定单元,所述属性确定单元基于头部图像来确定属性,
其中,所述属性确定单元包括:
整体属性确定单元,所述整体属性确定单元基于整体头部区域来确定所述属性;
部分检测单元,所述部分检测单元检测所述头部区域的一部分;
部分属性确定单元,所述部分属性确定单元基于所述头部区域的所述一部分来确定所述属性;以及
组合单元,所述组合单元将所述整体属性确定单元和所述部分属性确定单元获得的确定结果相组合,其中使用确定项的可靠性级别来执行所述确定项的组合。
10.根据权利要求9所述的装置,还包括:
对准单元,所述对准单元对所述头部区域检测单元检测到的所述头部区域进行对准。
11.根据权利要求9所述的装置,还包括:
预先获取的头部检测模型和头部确定规则中的至少一个,以及预先获取的属性确定模型和属性确定规则中的至少一个,其中,
所述头部区域检测单元通过参照所述头部检测模型和所述头部确定规则中的至少一个,从所述待确定图像中检测所述头部区域;并且
所述属性确定单元通过参照所述属性确定模型和所述属性确定规则中的至少一个,基于所述头部图像来确定所述属性。
12.根据权利要求9所述的装置,还包括:
预先获取的部分属性确定模型和部分属性确定规则中的至少一个,其中,
所述部分属性确定单元通过参照所述部分属性确定模型和所述部分属性确定规则中的至少一个,来确定所述头部区域的所述一部分的所述属性。
13.根据权利要求9所述的装置,其中,所述属性确定单元包括:
非基于角度的属性确定单元,所述非基于角度的属性确定单元基于所述头部图像而不参考头部的角度来确定所述属性;
角度确定单元,所述角度确定单元确定所述头部区域检测单元检测到的所述头部区域的角度;
基于角度的属性确定单元,所述基于角度的属性确定单元基于成预先定义的特定角度的图像来确定所述属性;以及
组合单元,所述组合单元将所述非基于角度的属性确定单元和所述基于角度的属性确定单元获得的确定结果相组合。
14.根据权利要求13所述的装置,还包括:
预先获取的基于角度的属性确定模型和基于角度的属性确定规则中的至少一个,其中
所述基于角度的属性确定单元通过参照所述基于角度的属性确定模型和所述基于角度的属性确定规则中的至少一个来确定所述基于角度的属性。
15.根据权利要求13所述的装置,其中,所述角度确定单元通过半径为1的圆形的圆周上的坐标来示出所述头部区域的角度,所述圆形以x-y平面上x轴和y轴的交点为圆心,所述x轴和所述y轴彼此垂直相交,并且垂直于作为身体轴方向的z轴。
16.根据权利要求9所述的装置,其中,
所述组合单元通过以下公式(1)来执行确定项的组合:
n是待确定图像的数目。
17.一种属性确定***,包括:
图像获取单元,所述图像获取单元获取待确定图像;
头部区域检测单元,所述头部区域检测单元从所述待确定图像中检测头部区域;
属性确定单元,所述属性确定单元基于头部图像来确定属性;
预先获取的头部检测模型和头部确定规则中的至少一个;
用于基于所述头部图像来确定属性的属性确定模型和属性确定规则中的至少一个;以及
输出单元,所述输出单元输出属性确定的结果,
其中:
所述图像获取单元和所述输出单元经由所述***外部提供的通信网络连接至所述头部区域检测单元、所述属性确定单元、所述头部检测模型和所述头部确定规则中的至少一个、以及所述属性确定模型和所述属性确定规则中的至少一个;并且
所述属性确定单元包括:
整体属性确定单元,所述整体属性确定单元基于整体头部区域来确定所述属性;
部分检测单元,所述部分检测单元检测所述头部区域的一部分;
部分属性确定单元,所述部分属性确定单元基于所述头部区域的所述一部分来确定所述属性;以及
组合单元,所述组合单元将所述整体属性确定单元和所述部分属性确定单元获得的确定结果相组合,其中使用确定项的可靠性级别来执行所述确定项的组合。
CN201180032551.0A 2010-06-30 2011-05-12 属性确定方法、属性确定装置及属性确定*** Expired - Fee Related CN102959585B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010149935 2010-06-30
JP2010-149935 2010-06-30
PCT/JP2011/060980 WO2012002047A1 (ja) 2010-06-30 2011-05-12 属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム

Publications (2)

Publication Number Publication Date
CN102959585A CN102959585A (zh) 2013-03-06
CN102959585B true CN102959585B (zh) 2016-03-30

Family

ID=45401782

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201180032551.0A Expired - Fee Related CN102959585B (zh) 2010-06-30 2011-05-12 属性确定方法、属性确定装置及属性确定***

Country Status (4)

Country Link
US (1) US8989456B2 (zh)
JP (1) JP5594791B2 (zh)
CN (1) CN102959585B (zh)
WO (1) WO2012002047A1 (zh)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160063317A1 (en) * 2013-04-02 2016-03-03 Nec Solution Innovators, Ltd. Facial-expression assessment device, dance assessment device, karaoke device, and game device
CN103530651A (zh) * 2013-10-22 2014-01-22 东南大学 一种基于标记分布的头部姿态估计方法
IL301616A (en) 2016-03-01 2023-05-01 Ascendis Pharma Bone Diseases As PTH medications
US20190224329A1 (en) 2016-09-29 2019-07-25 Ascendis Pharma Bone Diseases A/S Incremental Dose Finding in Controlled-Release PTH Compounds
US11564974B2 (en) 2016-09-29 2023-01-31 Ascendis Pharma Growth Disorders A/S Combination therapy with controlled-release CNP agonists
PL3518960T3 (pl) 2016-09-29 2023-12-27 Ascendis Pharma Bone Diseases A/S Schemat dawkowania związku pth o kontrolowanym uwalnianiu
DK3518961T3 (da) 2016-09-29 2023-04-24 Ascendis Pharma Bone Diseases As PTH-forbindelser med lave forhold mellem top og bund
JP6809262B2 (ja) * 2017-02-08 2021-01-06 トヨタ自動車株式会社 ドライバ状態検出装置
CN107862263A (zh) * 2017-10-27 2018-03-30 苏州三星电子电脑有限公司 智能设备的性别识别方法与性别识别装置
AU2019246390A1 (en) 2018-03-28 2020-08-06 Ascendis Pharma A/S Conjugates
IL308797A (en) 2018-03-28 2024-01-01 Ascendis Pharma Oncology Div A/S IL-2 conjugates
BR112020022306A2 (pt) 2018-05-18 2021-02-23 Ascendis Pharma Bone Diseases A/S dose de partida de conjugados de pth
CN109447021B (zh) * 2018-11-08 2020-11-27 北京灵汐科技有限公司 一种属性检测方法及属性检测装置
EP3923905A1 (en) 2019-02-11 2021-12-22 Ascendis Pharma Bone Diseases A/S Liquid pharmaceutical formulations of pth conjugates
CN110796013A (zh) * 2019-09-29 2020-02-14 浙江新再灵科技股份有限公司 一种常驻人口信息收集方法及***
US20230042670A1 (en) 2020-01-13 2023-02-09 Ascendis Pharma Bone Diseases A/S Hypoparathyroidism Treatment
CN111428671A (zh) * 2020-03-31 2020-07-17 杭州博雅鸿图视频技术有限公司 人脸结构化信息识别方法、***、装置及存储介质
CN111598867B (zh) * 2020-05-14 2021-03-09 国家卫生健康委科学技术研究所 用于检测特定面部综合征的方法、装置及计算机可读存储介质
JP6785481B1 (ja) * 2020-05-22 2020-11-18 パナソニックIpマネジメント株式会社 画像追尾装置
IL298642A (en) 2020-06-03 2023-01-01 Ascendis Pharma Oncology Div A/S il-2 sequences and uses thereof
CA3189715A1 (en) 2020-08-28 2022-03-03 Ascendis Pharma Oncology Division A/S Glycosylated il-2 proteins and uses thereof
AU2021349316A1 (en) 2020-09-28 2023-04-27 Ascendis Pharma Bone Diseases A/S Improvement of physical and mental well-being of patients with hypoparathyroidism
CN112906651B (zh) * 2021-03-25 2023-07-11 中国联合网络通信集团有限公司 目标检测方法及装置
AU2022350937A1 (en) 2021-09-22 2024-03-21 Ascendis Pharma Bone Diseases A/S Long-acting pth compound treatments
WO2024094673A1 (en) 2022-11-02 2024-05-10 Ascendis Pharma Bone Diseases A/S Pth treatment regimen comprising two pth compounds

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008282089A (ja) * 2007-05-08 2008-11-20 Omron Corp 人物属性推定装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10307923A (ja) 1997-05-01 1998-11-17 Mitsubishi Electric Corp 顔部品抽出装置および顔の向き検出装置
US6381346B1 (en) * 1997-12-01 2002-04-30 Wheeling Jesuit University Three-dimensional face identification system
GB2395264A (en) * 2002-11-29 2004-05-19 Sony Uk Ltd Face detection in images
JP2008090814A (ja) * 2006-09-08 2008-04-17 Seiko Epson Corp 印刷装置、画像検索方法、および、画像検索プログラム
JP5109564B2 (ja) * 2007-10-02 2012-12-26 ソニー株式会社 画像処理装置、撮像装置、これらにおける処理方法およびプログラム
JP5206095B2 (ja) * 2008-04-25 2013-06-12 ソニー株式会社 構図判定装置、構図判定方法、プログラム
JP5251547B2 (ja) * 2008-06-06 2013-07-31 ソニー株式会社 画像撮影装置及び画像撮影方法、並びにコンピュータ・プログラム
JP4720880B2 (ja) * 2008-09-04 2011-07-13 ソニー株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP5091078B2 (ja) 2008-10-03 2012-12-05 日本特殊陶業株式会社 可燃性ガス検出装置
JP2010092199A (ja) 2008-10-07 2010-04-22 Sony Corp 情報処理装置および方法、プログラム、並びに記録媒体
US20100111375A1 (en) * 2008-10-31 2010-05-06 Michael Jeffrey Jones Method for Determining Atributes of Faces in Images

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008282089A (ja) * 2007-05-08 2008-11-20 Omron Corp 人物属性推定装置

Also Published As

Publication number Publication date
US8989456B2 (en) 2015-03-24
WO2012002047A1 (ja) 2012-01-05
JP5594791B2 (ja) 2014-09-24
US20130101224A1 (en) 2013-04-25
CN102959585A (zh) 2013-03-06
JPWO2012002047A1 (ja) 2013-08-22

Similar Documents

Publication Publication Date Title
CN102959585B (zh) 属性确定方法、属性确定装置及属性确定***
US7450737B2 (en) Head detecting apparatus, head detecting method, and head detecting program
US9672416B2 (en) Facial expression tracking
US6611613B1 (en) Apparatus and method for detecting speaking person's eyes and face
WO2021139484A1 (zh) 目标跟踪方法、装置、电子设备及存储介质
US9953215B2 (en) Method and system of temporal segmentation for movement analysis
CN108304819B (zh) 姿态识别***及方法、存储介质
CN105740778B (zh) 一种改进的三维人脸活体检测方法及其装置
CN106897658A (zh) 人脸活体的鉴别方法和装置
EP2704056A2 (en) Image processing apparatus, image processing method
CN110688930A (zh) 人脸检测方法、装置、移动终端及存储介质
CN103201763A (zh) 属性确定方法、属性确定装置、程序、记录介质及属性确定***
EP3376431B1 (en) Method and apparatus for identifying pupil in image
CN111353336B (zh) 图像处理方法、装置及设备
JP7131587B2 (ja) 情報処理システム、情報処理装置、情報処理方法およびプログラム
CN101390128A (zh) 脸部器官的位置的检测方法及检测***
CN107844742A (zh) 人脸图像眼镜去除方法、装置及存储介质
JP5431830B2 (ja) 部品検出装置、部品検出方法、プログラムおよび記録媒体
CN113963426B (zh) 模型训练、戴口罩人脸识别方法、电子设备及存储介质
CN110175553A (zh) 基于步态识别与人脸识别建立特征库的方法及装置
JP6305856B2 (ja) 画像処理装置、画像処理方法、およびプログラム
EP2998928B1 (en) Apparatus and method for extracting high watermark image from continuously photographed images
CN102971766B (zh) 头部检测方法、头部检测装置、属性判定方法、属性判定装置和属性判定***
Chew et al. Nose tip detection on a three-dimensional face range image invariant to head pose
CN113762164A (zh) 一种消防通道障碍物识别方法及***

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: JAPAN ELECTRICAL SCHEME INNOVATION CORPORATION

Free format text: FORMER OWNER: NEC SOFT, LTD.

Effective date: 20140821

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20140821

Address after: Tokyo, Japan, Japan

Applicant after: Japan Electrical Scheme Innovation Corporation

Address before: Tokyo, Japan

Applicant before: NEC Soft, Ltd.

C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160330

Termination date: 20200512

CF01 Termination of patent right due to non-payment of annual fee