CN109686418A - 面瘫程度评价方法、装置、电子设备及存储介质 - Google Patents
面瘫程度评价方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN109686418A CN109686418A CN201811534193.3A CN201811534193A CN109686418A CN 109686418 A CN109686418 A CN 109686418A CN 201811534193 A CN201811534193 A CN 201811534193A CN 109686418 A CN109686418 A CN 109686418A
- Authority
- CN
- China
- Prior art keywords
- target face
- value
- area
- evaluation
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/30—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Physical Education & Sports Medicine (AREA)
- Epidemiology (AREA)
- Medical Informatics (AREA)
- Primary Health Care (AREA)
- Public Health (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本申请提出了一种面瘫程度评价方法、装置、电子设备及存储介质,涉及虚拟康复技术领域,该方法包括:根据目标人脸在静止状态下的面部坐标值,获得目标人脸在静止状态下的第一评分值;根据目标人脸在运动状态下的面部坐标值,获得目标人脸的第二评分值及第三评分值,其中,运动状态至少包括抬额头、闭眼、耸鼻、示齿、撇嘴中的至少之一,第二评分值表征对目标人脸处于运动状态时,对面部表情的局部评分,第三评分值表征对目标人脸处于运动状态,对面部表情的联动评分;根据第一评分值、第二评分值及第三评分值,获得目标人脸的面瘫程度评价值。本申请所提供的一种面瘫程度评价方法、装置、电子设备及存储介质,能够使面瘫程度的评价更加客观化。
Description
技术领域
本申请涉及虚拟康复技术领域,具体而言,涉及一种面瘫程度评价方法、装置、电子设备及存储介质。
背景技术
面瘫会使患者口斜眼歪,影响患者正常表情的表达,甚至会影响患者仪容仪表形象,对患者心理健康产生极大的负面影响,对患者的社会交往产生阻碍。我国面瘫患者众多,受面瘫危害非常严重,发病率呈逐年上升趋势,面瘫患者各个年龄段都有,由于年轻人社会工作压力的增大,发病呈年轻化趋势。
面瘫会给患者的身心健康带来一些负面的影响,影响着患者的日常生活工作,面瘫在功能上会影响眼及口的功能,使视力障碍严重者眼部感染,咀嚼障碍影响进食。此外由于外表的缺陷使人自卑自闭、抑郁等。面瘫患者若及早治疗,可使面瘫完全康复。治疗时,康复医生需对面瘫患者进行面瘫评估,进而制定针对性的面瘫康复训练处方,并通过评估观察患者后续康复情况。
发明内容
本申请的目的在于提供一种面瘫程度评价方法、装置、电子设备及存储介质,能够使面瘫程度的评价更加客观化。
为了实现上述目的,本申请实施例采用的技术方案如下:
第一方面,本申请实施例提供了一种面瘫程度评价方法,应用于对目标人脸的面瘫程度进行评价,所述方法包括:
根据所述目标人脸在静止状态下的面部坐标值,获得所述目标人脸在静止状态下的第一评分值;
根据所述目标人脸在运动状态下的面部坐标值,获得所述目标人脸的第二评分值及第三评分值,其中,所述运动状态至少包括抬额头、闭眼、耸鼻、示齿、撇嘴中的至少之一,所述第二评分值表征对所述目标人脸处于运动状态时,对面部表情的局部评分,所述第三评分值表征对所述目标人脸处于运动状态,对面部表情的联动评分;
根据所述第一评分值、所述第二评分值及所述第三评分值,获得所述目标人脸的面瘫程度评价值。
第二方面,本申请实施例提供了一种面瘫程度评价装置,应用于对目标人脸的面瘫程度进行评价,所述装置包括:
第一处理模块,用于根据所述目标人脸在静止状态下的面部坐标值,获得所述目标人脸在静止状态下的第一评分值;
第二处理模块,用于根据所述目标人脸在运动状态下的面部坐标值,获得所述目标人脸的第二评分值及第三评分值,其中,所述运动状态至少包括抬额头、闭眼、耸鼻、示齿、撇嘴中的至少之一,所述第二评分值表征对所述目标人脸处于运动状态时,对面部表情的局部评分,所述第三评分值表征对所述目标人脸处于运动状态,对面部表情的联动评分;
第三处理模块,用于根据所述第一评分值、所述第二评分值及所述第三评分值,获得所述目标人脸的面瘫程度评价值。
第三方面,本申请实施例提供了一种电子设备,所述电子设备包括存储器,用于存储一个或多个程序;处理器。当所述一个或多个程序被所述处理器执行时,实现上述的面瘫程度评价方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述的面瘫程度评价方法。
相对于现有技术,本申请实施例所提供的一种面瘫程度评价方法、装置、电子设备及存储介质,通过由于目标人脸在静止状态下获得的第一评分值,以及目标人脸在运动状态下获得的表征面部表情的局部评分的第二评分值,以及目标人脸在运动状态下获得的表征面部表情的联动评分的第三评分值,最后得到表征目标人脸面瘫程度的面瘫程度评价值,相比于现有技术,避免了在评价患者面瘫程度时,依靠人为的主观因素,使面瘫程度的评价更加客观化。
为使本申请的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它相关的附图。
图1示出了本申请实施例所提供的一种电子设备的一种示意性结构图;
图2示出了本申请实施例所提供的一种面瘫程度评价方法的一种示意性流程图;
图3为人脸特征点集分布模型的一种示意图;
图4为图2中S101的子步骤的一种示意性流程图;
图5为图2中S103的子步骤的一种示意性流程图;
图6为图2中S103的子步骤的另一种示意性流程图;
图7示出了本申请实施例所提供的一种面瘫程度评价方法的另一种示意性流程图;
图8为一种人脸旋转角度示意图;
图9示出了本申请实施例所提供的一种面瘫程度评价装置的一种示意性结构图。
图中:100-电子设备;101-存储器;102-处理器;103-存储控制器;104-外设接口;105-射频单元;106-通讯总线/信号线;107-摄像单元;108-显示单元;200-面瘫程度评价装置;201-预处理模块;202-第一处理模块;203-第二处理模块;204-第三处理模块。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
下面结合附图,对本申请的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
临床常用的评估标准主要有House-Brackman面神经分级***、诺丁汉面神经分级***等,康复医生通过观察患者面部状态特征,人为的定义患者为正常、轻度功能障碍、中度功能障碍、中重度功能障碍、重度功能障碍或完全无功能等。但不同医生按照同一评估标准人工地对同一患者进行面瘫评估,评估结果往往并不一致。
基于上述缺陷,本申请实施例所提供的一种可能的实现方式为:通过由于目标人脸在静止状态下获得的第一评分值,以及目标人脸在运动状态下获得的表征面部表情的局部评分的第二评分值,以及目标人脸在运动状态下获得的表征面部表情的联动评分的第三评分值,最后得到表征目标人脸面瘫程度的面瘫程度评价值。
请参阅图1,图1示出了本申请实施例所提供的一种电子设备100的一种示意性结构图,在本申请实施例中,所述电子设备100可以是,但不限于智能手机、个人电脑(personal computer,PC)、平板电脑、膝上型便携计算机、个人数字助理(personaldigital assistant,PDA)等等。所述电子设备100包括存储器101、存储控制器103、一个或多个(图中仅示出一个)处理器102、外设接口104、射频单元105、摄像单元107、显示单元108等。这些组件通过一条或多条通讯总线/信号线106相互通讯。
存储器101可用于存储软件程序以及模组,如本申请实施例所提供的面瘫程度评价装置200对应的程序指令/模组,处理器102通过运行存储在存储器101内的软件程序以及模组,从而执行各种功能应用以及图像处理,如本申请实施例所提供的面瘫程度评价方法。
其中,所述存储器101可以是,但不限于,随机存取存储器(Random AccessMemory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(ProgrammableRead-Only Memory,PROM),可擦除只读存储器(Erasable Programmable Read-OnlyMemory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-OnlyMemory,EEPROM)等。
处理器102可以是一种集成电路芯片,具有信号处理能力。上述的处理器102可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(NetworkProcessor,NP)、语音处理器以及视频处理器等;还可以是数字信号处理器、专用集成电路、现场可编程门阵列或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器102也可以是任何常规的处理器等。
外设接口104将各种输入/输出装置耦合至处理器102以及存储器101。在一些可能的实现方式中,外设接口104,处理器102以及存储控制器103可以在单个芯片中实现。在本申请其他的一些可能的实现方式中,他们还可以分别由独立的芯片实现。
射频单元105用于接收以及发送电磁波,实现电磁波与电信号的相互转换,从而与通讯网络或者其他设备进行通讯。
摄像单元107用于拍摄图片,以使处理器102对拍摄的照片进行处理。
显示单元108用于为用户提供图形输出界面,显示图像信息,以供用户获得面瘫程度评价结果。
可以理解,图1所示的结构仅为示意,电子设备100还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。图1中所示的各组件可以采用硬件、软件或其组合实现。
请参阅图2,图2示出了本申请实施例所提供的一种面瘫程度评价方法的一种示意性流程图,该面瘫程度评价方法应用于对目标人脸的面瘫程度进行评价,在对面瘫患者的面瘫程度进行评价时,通过采集面瘫患者的面部图像,进而根据患者的目标人脸在面部图像中的坐标值,获得目标人脸的面部肌肉在静止状态下以及在运动状态下各自的评分值,进而获得对患者的面瘫程度进行评价。
可选地,作为一种可能的实现方式,该面瘫程度评价方法包括以下步骤:
S101,根据目标人脸在静止状态下的面部坐标值,获得目标人脸在静止状态下的第一评分值。
一般来说,面瘫患者多为单侧面瘫,人脸会分别患侧及健侧,患侧为出现面瘫侧,健侧为未出现面瘫侧,也就是说,即使是面瘫患者,也是存在一半的面部区域是正常的,而非整个面部区域均出现面瘫。
因此,基于上述面瘫患者的症状特点,将目标人脸在电子设备100采集的图像中分为第一区域和第二区域;并且,利用在电子设备100中的特征点集模型获得目标人脸在图像中每一特征点的坐标值,进而根据电子设备100采集的目标人脸在静止状态下的图像,以及目标人脸在静止状态下,每一面部特征点的面部坐标值,获得目标人脸在静止状态下的第一评分值,用以评价患者在静止状态下的面瘫程度。
比如,请参阅图3,图3为人脸特征点集分布模型的一种示意图,该人脸模型特征点集包含的所有特征点分布可以由Dlib开源库获得,电子设备100在根据所获得的目标人脸的图像,并结合该人脸特征点集分布模型,以及结合Dlib开源库,即可得到目标人脸的每一面部特征点的面部坐标值,进而计算目标人脸在静止状态下的第一评分值。
可选地,在电子设备100采集的图像中,将目标人脸分为第一区域和第二区域,比如在如图3所示的示意图中,以点27和点8的连线为界,将目标人脸的左侧作为第一区域,将目标人脸的右侧作为第二区域。由此,在对目标人脸在静止状态下的面瘫程度进行评价时,请参阅图4,图4为图2中S101的子步骤的一种示意性流程图,作为一种可能的实现方式,S101包括以下子步骤:
S101-1,根据第一区域与第二区域各自的眼部坐标值,得到目标人脸在静止状态下的眼睑评价值。
在本申请实施例中,以如图3中第一区域为健侧、第二区域为患侧为例,基于每一面部特征点在二维图像中的面部坐标值,分别得到第一区域与第二区域各自的眼部坐标值,比如,第一区域的下眼睑的特征点40和特征点41的坐标值分别为D40(x40,y40)和D41(x41,y41),而第二区域的下眼睑的特征点46和特征点47的坐标值分别为D46(x46,y46)和D47(x47,y47),计算第一区域中两个下眼睑特征点40和特征点41两者纵坐标的算术平均值L=(y40+y41)/2;并计算第二区域中两个下眼睑点特征点46和特征点47两者纵坐标的算术平均值R=(y46+y47)/2;若R与L两者的差值大于设定的阈值e1,则判定第二区域与第一区域相比,眼睑下垂,此时记目标人脸的眼睑评价值为预设的分数,比如记1分;反之,若R与L两者的差值小于或等于设定的阈值e1,则判定第二区域与第一区域相比,眼睑无明显下垂,此时计0分。
S101-2,根据第一区域与第二区域各自的鼻部坐标值,得到目标人脸在静止状态下的鼻部评价值。
同理,对于患者的鼻部在静止状态的评价,分别得到第一区域与第二区域各自的鼻部坐标值,对鼻部评价值进行计算。
比如,取特征点31和特征点35分别作为第一区域和第二区域的鼻部特征点,则第一区域与第二区域的鼻部坐标值分别为D31(x31,y31)和D35(x35,y35),计算特征点31与特征点35两者纵坐标的差值Δb=y31-y35,若Δb大于设定的阈值e2,则判定第二区域与第一区域相比,无皱襞,此时记鼻部评价值为2分;若Δb小于或等于设定的阈值e2,且大于设定的阈值e3,即e3<Δb≤e2,则判定第一区域与第二区域的皱襞不完全一致,此时记鼻部评价值为1分;而若Δb小于或等于设定的阈值e3,Δb≤e3,则判定第一区域与第二区域的皱襞一致,此时记鼻部评价值为0分。
S101-3,根据第一区域与第二区域各自的口部坐标值,得到目标人脸在静止状态下的口部评价值。
对于患者的口部在静止状态的评价,分别得到第一区域与第二区域各自的口部坐标值,进而对口部评价值进行计算。
比如,取特征点48和特征点54分别作为第一区域和第二区域的口部特征点,则第一区域与第二区域的口部坐标值分别为D48(x48,y48)和D54(x54,y54),计算特征点48与特征点54两者纵坐标的差值Δk=|y48-y54|,若Δk大于设定的阈值e4,则判定第二区域与第一区域相比,嘴角向上或向下倾斜,此时记口部评价值为1分;反之,若Δk小于或等于设定的阈值e4,则判定第二区域与第一区域相比,嘴角无明显倾斜,此时记口部评价值为0分。
S101-4,根据眼睑评价值、鼻部评价值及口部评价值,获得目标人脸在静止状态下的第一评分值。
综合上述计算获得的眼睑评价值、鼻部评价值及口部评价值,作为一种可能的实现方式,目标人脸在静止状态下的第一评分值的计算公式为:
S=S0*(S1+S2+S3),
其中,S为第一评分值,S1为眼睑评价值,S2为鼻部评价值,S3为口部评价值,S0为预设的比例系数,比如,可以将S0设置为5。
值得说明的是,上述S101的各个子步骤中,S101-1与S101-2及S101-3之间并没有执行的先后顺序,这三个子步骤有时可以按序执行(比如依次执行S101-1、S101-2、S101-3,或者是依次执行S101-2、S101-1、S101-3),有时也可以三个子步骤并发执行,这取决于具体所涉及的功能或计算机程序而定。
请继续参阅图3,S103,根据目标人脸在运动状态下的面部坐标值,获得目标人脸的第二评分值及第三评分值。
对患者的面瘫程度进行评价,不仅需要考虑目标人脸在静止状态下的评分,还需要考虑目标人脸的面部肌肉处于运动状态下的评分值,其中,面部肌肉的运动状态至少包括抬额头、闭眼、耸鼻、示齿、撇嘴中的至少之一,而第二评分值表征对目标人脸处于运动状态时,对面部表情的局部评分,比如对于执行耸鼻动作时获得的第二评分值,表征的是对耸鼻动作的局部评分;第三评分值则表征对目标人脸处于运动状态,对面部表情的联动评分,比如对于同样的耸鼻动作时获得的第三评分值,表征的是目标人脸在执行耸鼻动作时,口部(眼部或其他眉毛等其他区域)的联动状态的评价。
可选地,请参阅图5,图5为图2中S103的子步骤的一种示意性流程图,对于第二评价值的计算,作为一种可能的实现方式,S103包括以下子步骤:
S103-1,根据目标人脸在抬额头状态下,第一区域及第二区域各自的眼睑坐标值及眉毛坐标值,得到目标人脸在运动状态下的抬额运动评价值。
在上述以第一区域为健侧、第二区域为患侧的示例中,根据患者执行抬额头动作时目标人脸的图像,计算特征点42与特征点22纵坐标的差值EBR42-22=y42-y22,特征点42与特征点23纵坐标的差值EBR42-23=y42-y23,特征点47和特征点24纵坐标的差值EBR47-24=y47-y24,特征点46和特征点25纵坐标的差值EBR46-25=y46-y25,特征点45和特征点26纵坐标的差值EBR45-26=y45-y26,并计算上述各个纵坐标差值的算术平均值EBRn=(EBR42-22+EBR42-23+EBR47-24+EBR46-25+EBR45-26)/5;且按照同样的方式,计算得到前述各个坐标点在目标人脸处于静止状态时纵坐标的算术平均值EBRor;并获取第一区域中眉毛的特征点17的坐标值D17(x17,y17)、特征点18的坐标值D18(x18,y18)、特征点19的坐标值D19(x19,y19)、特征点20的坐标值D20(x20,y20)、特征点21的坐标值D21(x21,y21),计算这5个特征点纵坐标的算术平均值lbr=(y17+y18+y19+y20+y21)/5;获取第二区域中眉毛的特征点22的坐标值D22(x22,y22)、特征点23的坐标值D23(x23,y23)、特征点24的坐标值D24(x24,y24)、特征点25的坐标值D25(x25,y25)、特征点26的坐标值D26(x26,y26),计算这5个特征点纵坐标的算术平均值rbr=(y22+y23+y24+y25+y26)/5;若EBRn减去EBRor的差值小于设定的阈值EBR1,记抬额运动评价值为1分;若EBRn减去EBRor的差值大于或等于设定的阈值EBR1,且小于设定的阈值EBR2,记抬额运动评价值为2分;若EBRn减去EBRor的差值大于或等于设定的阈值EBR2,且小于设定的阈值EBR3,记抬额运动评价值为3分;若EBRn减去EBRor的差值大于或等于设定的阈值EBR3,且|lbr-rbr|的值大于设定的阈值T1,记抬额运动评价值为4分;若EBRn减去EBRor的差值大于或等于设定的阈值EBR3,且|lbr-rbr|的值小于或等于设定的阈值T1,记抬额运动评价值为5分。
可选地,作为一种可能的实现方式,在计算获得EBRn时,可以选择在连续多帧图像中,比如连续8秒的多帧图片中,选取计算获得多个EBRn中的最大值EBRn-max,作为上述计算用的EBRn。
S103-2,根据目标人脸在闭眼状态下,第一区域及第二区域各自的眼睑坐标值,得到目标人脸在运动状态下的闭眼运动评价值。
在上述以第一区域为健侧、第二区域为患侧的示例中,根据患者执行闭眼动作时目标人脸的图像,获得第二区域上下眼睑的特征点44、特征点43、特征点47和特征点46各自的坐标值分别为D44(x44,y44)、D43(x43,y43)、D47(x47,y47)及D46(x46,y46),计算差值EC47-43=y47-y43,EC46-44=y46-y44,并得到EC47-43与EC46-44的算术平均值ECn=(EC47-43+EC46-44)/2;且可以按照前述计算方式,获得特征点44、特征点43、特征点47和特征点46各自目标人脸处于静止状态时计算得到的ECor;并且,获取第一区域中的特征点38的坐标值D38(x38,y38)、特征点37的坐标值D37(x37,y37),计算获得第一区域中特征点38与特征点37纵坐标的算术平均值lt=(y38+y37)/2;获取第一区域中特征点40的坐标值D40(x40,y40)、特征点41的坐标值D41(x41,y41),并计算第一区域中特征点40与特征点41纵坐标的算术平均值lb=(y40+y41)/2;获取第二区域中特征点43的坐标值D43(x43,y43)、特征点44的坐标值D44(x44,y44),并计算第二区域中特征点40与特征点41纵坐标的算术平均值rt=(y43+y44)/2;获取第二区域中特征点47的坐标值D47(x47,y47)、特征点46的坐标值D46(x46,y46),并计算第二区域中特征点47与特征点46纵坐标的算术平均值rb=(y47+y46)/2。若ECn减去ECor的差值小于设定的阈值EC1,则记闭眼运动评价值为1分;若ECn减去ECor的差值大于或等于设定的阈值EC1,且小于设定阈值EC2,则记闭眼运动评价值为2分;若ECn减去ECor的差值大于或等于设定的阈值EC2,且小于设定阈值EC3,则记闭眼运动评价值为3分;若ECn减去ECor的差值大于或等于设定的阈值EC3,且|lt-rt|的值或|lb-rb|的值大于设定的阈值T2,则记闭眼运动评价值为4分;若ECn减去ECor的差值大于或等于设定的阈值EC3,且|lt-rt|的值和|lb-rb|的值均小于或等于设定的阈值T2,则记闭眼运动评价值为5分。
S103-3,根据目标人脸在耸鼻状态下,第一区域及第二区域各自的鼻部坐标值,得到目标人脸在运动状态下的耸鼻运动评价值。
在上述以第一区域为健侧、第二区域为患侧的示例中,根据患者执行耸鼻动作时目标人脸的图像,计算第二区域中特征点35与特征点27纵坐标的差值NRn=y35-y27;并按照相同的计算方式,计算得到前述坐标点在目标人脸处于静止状态时纵坐标的算术平均值NRor;获取第一区域中特征点31与第二区域中特征点35纵坐标的相对差值NRj=|y31-y35|;若NRn与NRor的差值小于设定的阈值NR1,则记耸鼻运动评价值为1分;若NRn与NRor的差值大于或等于设定的阈值NR1,且小于设定的阈值NR2,则记耸鼻运动评价值为2分;若NRn与NRor的差值大于或等于设定的阈值NR2,且小于设定的阈值NR3,则记耸鼻运动评价值为3分;若NRn与NRor的差值大于或等于设定的阈值NR3,且NRj大于设定的阈值T3,则记耸鼻运动评价值为4分;若NRn与NRor的差值大于或等于设定的阈值NR3,且NRj小于或等于设定的阈值T3,则记耸鼻运动评价值为5分。
S103-4,根据目标人脸在示齿状态下,第一区域及第二区域各自的口部坐标值,得到目标人脸在运动状态下的示齿运动评价值。
在上述以第一区域为健侧、第二区域为患侧的示例中,根据患者执行示齿动作时目标人脸的图像,计算特征点64与特征点27纵坐标的差值MOY64-27=y64-y27,以及特征点64与特征点27横坐标的差值MOX64-27=x64-x27,特征点63与特征点27纵坐标的差值MOY63-27=y63-y27,以及特征点65与特征点27纵坐标的差值MOY65-27=y65-y27,并得到算术平均值MOn=(MOY64-27+MOX64-27+MOY63-27+MOY65-27)/4;并按照相同的计算方式,计算得到前述坐标点在目标人脸处于静止状态时的算术平均值MOor;获取第一区域中特征点48的横坐标、第二区域中特征点54的横坐标以及特征点27的横坐标,得到特征点48与特征点27的横坐标差值lmo=x48-x27,以及特征点54与特征点27的横坐标差值rmo=x54-x27;若MOn减去MOor的差值小于设定的阈值MO1,记示齿运动评价值为1分;若MOn减去MOor的差值大于或等于设定的阈值MO1,且小于设定的阈值MO2,记示齿运动评价值为2分;若MOn减去MOor的差值大于或等于设定的阈值MO2,且小于设定的阈值MO3,记示齿运动评价值为3分;若MOn减去MOor的差值大于或等于设定的阈值MO3,且|lmo-rmo|的值大于设定的阈值T4,记示齿运动评价值为4分;若MOn减去MOor的差值大于或等于设定的阈值MO3,且|lmo-rmo|的值小于或等于设定的阈值T4,记示齿运动评价值为5分。
S103-5,根据目标人脸在撇嘴状态下,第一区域及第二区域各自的口部坐标值,得到目标人脸在运动状态下的撇嘴运动评价值。
在上述以第一区域为健侧、第二区域为患侧的示例中,根据患者执行撇嘴动作时目标人脸的图像,计算第二区域中特征点54与特征点27横坐标的差值MPn=x54-x27;并按照相同的计算方式,计算得到前述坐标点在目标人脸处于静止状态时横坐标的差值MPor;获取第一区域中特征点48的横坐标、第二区域中特征点54的横坐标以及鼻部的特征点27的横坐标,计算特征点48与特征点27横坐标的差值lmp=x48-x27,以及特征点54与特征点27横坐标的差值rmp=x54-x27;若MPn减去MPor的差值小于设定的阈值MP1,记撇嘴运动评价值为1分;若MPn减去MPor的差值大于或等于设定的阈值MP1,且小于设定的阈值MP2,记撇嘴运动评价值为2分;若MPn减去MPor的差值大于或等于设定的阈值MP2,且小于设定的阈值MP3,记撇嘴运动评价值为3分;若MPn减去MPor的差值大于或等于设定的阈值MP3,且|lmp-rmp|大于设定的阈值T5,记撇嘴运动评价值为4分;若MPn减去MPor的差值大于或等于设定的阈值MP3,且|lmp-rmp|小于或等于设定的阈值T5,记撇嘴运动评价值为5分。
S103-6,根据抬额运动评价值、闭眼运动评价值、耸鼻运动评价值、示齿运动评价值及撇嘴运动评价值,获得目标人脸在运动状态下的第二评分值。
综合上述计算获得的抬额运动评价值、闭眼运动评价值、耸鼻运动评价值、示齿运动评价值及撇嘴运动评价值,作为一种可能的实现方式,目标人脸在运动状态下的第二评分值的计算公式为:
D=D0*(D1+D2+D3+D4+D5),
其中,D为第二评分值,D1为抬额运动评价值,D2为闭眼运动评价值,D3为耸鼻运动评价值,D4为示齿运动评价值,D5为撇嘴运动评价值,D0为预设的比例系数,比如,可以将D0设置为4。
在面瘫患者中,联带运动指的是面瘫患者的一组面肌在运动时,另一组面肌可能会不由自主地一并运动。与第二评分值不同的是,第三评分值表征的是目标人脸处于运动状态时,对面部表情的联动评分,因此,在本申请实施例中,第三评分值可以与第二评分值一起计算,区别仅在于,参与计算的坐标点不同。
可选地,请参阅图6,图6为图2中S103的子步骤的另一种示意性流程图,该目标人脸包括有用户在目标人脸中选定的目标区域,该目标区域为用户选定的患侧区域,比如上述示例中的第二区域,对于第三评价值的计算,作为一种可能的实现方式,S103包括以下子步骤:
S103-7,根据目标人脸在抬额头状态下,目标区域的口部坐标值,得到目标人脸在运动状态下的抬额联动评价值。
S103-8,根据目标人脸在闭眼状态下,目标区域的眉毛坐标值,得到目标人脸在运动状态下的闭眼联动评价值。
S103-9,根据目标人脸在耸鼻状态下,目标区域的口部坐标值,得到目标人脸在运动状态下的耸鼻联动评价值。
S103-10,根据目标人脸在示齿状态下,目标区域的眼部坐标值,得到目标人脸在运动状态下的示齿联动评价值。
S103-11,根据目标人脸在撇嘴状态下,目标区域的眼部坐标值,得到目标人脸在运动状态下的撇嘴联动评价值。
在上述以第一区域为健侧、第二区域为患侧的示例中,则以第二区域作为目标区域,以计算抬额联动评价值为例,根据患者执行抬额头动作时目标人脸的图像,取第二区域的口部特征点54,以及鼻部特征点27,分别计算特征点54与特征点27两者横坐标的差值X27-54=|x27-x54|,以及两者的纵坐标的差值Y27-54=|y27-y54|;并按照同样的方式,计算得到前述各个坐标点在目标人脸处于静止状态时横坐标的差值X′27-54=|x′27-x′54|,以及两者的纵坐标的差值Y′27-54=|y′27-y′54|;然后计算两个特征点在抬额头状态下时相对于静止状态时的偏移量为:若偏移量F的值小于设定的阈值F0,记抬额联动评价值为0分;若偏移量F的值大于或等于设定的阈值F0,且小于设定的阈值F1,记抬额联动评价值为1分;若偏移量F的值大于或等于设定的阈值F1,且小于设定的阈值F2,记抬额联动评价值为2分;若偏移量F的值大于或等于设定的阈值F2,记抬额联动评价值为3分。
同理,闭眼联动评价值、耸鼻联动评价值、示齿联动评价值及撇嘴联动评价值均可按照上述计算抬额联动评价值的方式进行计算,在此既不做赘述,区别仅在于:抬额联动评价值用到的特征点为特征点54和特征点27,而闭眼联动评价值用到的特征点为特征点24和特征点27,耸鼻联动评价值用到的特征点为特征点54和特征点27,而示齿联动评价值用到的特征点为特征点46和特征点27,撇嘴联动评价值用到的特征点为特征点46和特征点27。
S103-12,根据抬额联动评价值、闭眼联动评价值、耸鼻联动评价值、示齿联动评价值及撇嘴联动评价值,获得目标人脸在运动状态下的第三评分值。
综合上述计算获得的抬额联动评价值、闭眼联动评价值、耸鼻联动评价值、示齿联动评价值及撇嘴联动评价值,作为一种可能的实现方式,目标人脸在运动状态下的第三评分值的计算公式为:
I=I0*(I1+I2+I3+I4+I5),
其中,I为第二评分值,I1为抬额联动评价值,I2为闭眼联动评价值,I3为耸鼻联动评价值,I4为示齿联动评价值,I5为撇嘴联动评价值,I0为预设的比例系数,比如,可以将I0设置为1。
请继续参阅图2,S105,根据第一评分值、第二评分值及第三评分值,获得目标人脸的面瘫程度评价值。
综合上述计算获得的第一评分值、第二评分值及第三评分值,作为一种可能的实现方式,计算面瘫程度评价值的公式为:
A=D-S-I,
其中,A为面瘫程度评价值,D为第二评分值,S为第一评分值,I为第三评分值。
基于上述设计,本申请实施例所提供的一种面瘫程度评价方法,通过由于目标人脸在静止状态下获得的第一评分值,以及目标人脸在运动状态下获得的表征面部表情的局部评分的第二评分值,以及目标人脸在运动状态下获得的表征面部表情的联动评分的第三评分值,最后得到表征目标人脸面瘫程度的面瘫程度评价值,相比于现有技术,避免了在评价患者面瘫程度时,依靠人为的主观因素,使面瘫程度的评价更加客观化。
电子设备100在执行上述步骤以对患者的面瘫程度进行评价时,由于所获取的图像中,由于图像中的目标人脸可能并不是水平的,会导致在通过上述步骤计算时,产生较大的误差,因为一旦目标人脸不是水平的,则两个特征点的横坐标之差和纵坐标之差都会被减少。
因此,可选地,请参阅图7,图7示出了本申请实施例所提供的一种面瘫程度评价方法的另一种示意性流程图,作为一种可能的实现方式,在执行S101之前,该面瘫程度评价方法还包括以下步骤:
S100,在获取的多帧图片中,旋转目标人脸,以使目标人脸处于水平状态。
一般来说,即使是面瘫患者,眼部内侧的两个特征点,即在如图3所示的示意图中,特征点39和特征点42,也是对称的。
因此,可选地,作为一种可能的实现方式,电子设备100在旋转目标人脸时,将所述目标人脸的两个内眼点连线与坐标横轴的角度,作为目标人脸的旋转角度。
比如,请参阅图8,图8为一种人脸旋转角度示意图,连接特征点39与特征点42两个点,得到线段d,并根据特征点39与特征点42两个点的坐标值,利用反正切函数,得到线段d与水平线(即图8中的x轴)的倾角α,将目标人脸旋转α角度,从而使线段d与水平线相平行,进而再执行后续S101等的步骤。
基于上述设计,本申请实施例所提供的一种面瘫程度评价方法,通过在获取的多帧图片中,将目标人脸进行旋转,以使目标人脸处于水平状态,进而提高在对目标人脸进行面瘫程度评价时的计算精度。
请参阅图9,图9示出了本申请实施例所提供的一种面瘫程度评价装置200的一种示意性结构图,应用于对目标人脸的面瘫程度进行评价,该面瘫程度评价装置200包括第一处理模块202、第二处理模块203及第三处理模块204。
第一处理模块202用于根据所述目标人脸在静止状态下的面部坐标值,获得所述目标人脸在静止状态下的第一评分值。
可选地,作为一种可能的实现方式,第一处理模块202具体用于:
根据所述第一区域与所述第二区域各自的眼部坐标值,得到所述目标人脸在静止状态下的眼睑评价值;
根据所述第一区域与所述第二区域各自的鼻部坐标值,得到所述目标人脸在静止状态下的鼻部评价值;
根据所述第一区域与所述第二区域各自的口部坐标值,得到所述目标人脸在静止状态下的口部评价值;
根据所述眼睑评价值、所述鼻部评价值及所述口部评价值,获得所述目标人脸在静止状态下的所述第一评分值。
第二处理模块203用于根据所述目标人脸在运动状态下的面部坐标值,获得所述目标人脸的第二评分值及第三评分值,其中,所述运动状态至少包括抬额头、闭眼、耸鼻、示齿、撇嘴中的至少之一,所述第二评分值表征对所述目标人脸处于运动状态时,对面部表情的局部评分,所述第三评分值表征对所述目标人脸处于运动状态,对面部表情的联动评分。
可选地,作为一种可能的实现方式,第二处理模块203具体用于:
根据所述目标人脸在抬额头状态下,所述第一区域及所述第二区域各自的眼睑坐标值及眉毛坐标值,得到所述目标人脸在运动状态下的抬额运动评价值;
根据所述目标人脸在闭眼状态下,所述第一区域及所述第二区域各自的眼睑坐标值,得到所述目标人脸在运动状态下的闭眼运动评价值;
根据所述目标人脸在耸鼻状态下,所述第一区域及所述第二区域各自的鼻部坐标值,得到所述目标人脸在运动状态下的耸鼻运动评价值;
根据所述目标人脸在示齿状态下,所述第一区域及所述第二区域各自的口部坐标值,得到所述目标人脸在运动状态下的示齿运动评价值;
根据所述目标人脸在撇嘴状态下,所述第一区域及所述第二区域各自的口部坐标值,得到所述目标人脸在运动状态下的撇嘴运动评价值;
根据所述抬额运动评价值、所述闭眼运动评价值、所述耸鼻运动评价值、所述示齿运动评价值及所述撇嘴运动评价值,获得所述目标人脸在所述运动状态下的第二评分值。
可选地,作为一种可能的实现方式,所述目标人脸包括用户在所述目标人脸中选定的目标区域,第二处理模块203还具体用于:
根据所述目标人脸在抬额头状态下,所述目标区域的口部坐标值,得到所述目标人脸在运动状态下的抬额联动评价值;
根据所述目标人脸在闭眼状态下,所述目标区域的眉毛坐标值,得到所述目标人脸在运动状态下的闭眼联动评价值;
根据所述目标人脸在耸鼻状态下,所述目标区域的口部坐标值,得到所述目标人脸在运动状态下的耸鼻联动评价值;
根据所述目标人脸在示齿状态下,所述目标区域的眼部坐标值,得到所述目标人脸在运动状态下的示齿联动评价值;
根据所述目标人脸在撇嘴状态下,所述目标区域的眼部坐标值,得到所述目标人脸在运动状态下的撇嘴联动评价值;
根据所述抬额联动评价值、所述闭眼联动评价值、所述耸鼻联动评价值、所述示齿联动评价值及所述撇嘴联动评价值,获得所述目标人脸在所述运动状态下的第三评分值。
第三处理模块204用于根据所述第一评分值、所述第二评分值及所述第三评分值,获得所述目标人脸的面瘫程度评价值。
可选地,作为一种可能的实现方式,计算所述面瘫程度评价值的公式为:
A=D-S-I,
其中,A为所述面瘫程度评价值,D为所述第二评分值,S为所述第一评分值,I为所述第三评分值。
可选地,作为一种可能的实现方式,请继续参阅图9,该面瘫程度评价装置200还包括预处理模块201,该预处理模块201用于在获取的多帧图片中,旋转所述目标人脸,以使所述目标人脸处于水平状态。
可选地,作为一种可能的实现方式,该预处理模块201具体用于:
将所述目标人脸的两个内眼点连线与坐标横轴的角度,作为所述目标人脸的旋转角度。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
综上所述,本申请实施例所提供的一种面瘫程度评价方法、装置、电子设备及存储介质,通过由于目标人脸在静止状态下获得的第一评分值,以及目标人脸在运动状态下获得的表征面部表情的局部评分的第二评分值,以及目标人脸在运动状态下获得的表征面部表情的联动评分的第三评分值,最后得到表征目标人脸面瘫程度的面瘫程度评价值,相比于现有技术,避免了在评价患者面瘫程度时,依靠人为的主观因素,使面瘫程度的评价更加客观化;还通过在获取的多帧图片中,将目标人脸进行旋转,以使目标人脸处于水平状态,进而提高在对目标人脸进行面瘫程度评价时的计算精度。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
对于本领域技术人员而言,显然本申请不限于上述示范性实施例的细节,而且在不背离本申请的精神或基本特征的情况下,能够以其它的具体形式实现本申请。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本申请的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本申请内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
Claims (10)
1.一种面瘫程度评价方法,其特征在于,应用于对目标人脸的面瘫程度进行评价,所述方法包括:
根据所述目标人脸在静止状态下的面部坐标值,获得所述目标人脸在静止状态下的第一评分值;
根据所述目标人脸在运动状态下的面部坐标值,获得所述目标人脸的第二评分值及第三评分值,其中,所述运动状态至少包括抬额头、闭眼、耸鼻、示齿、撇嘴中的至少之一,所述第二评分值表征对所述目标人脸处于运动状态时,对面部表情的局部评分,所述第三评分值表征对所述目标人脸处于运动状态,对面部表情的联动评分;
根据所述第一评分值、所述第二评分值及所述第三评分值,获得所述目标人脸的面瘫程度评价值。
2.如权利要求1所述的方法,其特征在于,所述目标人脸包括第一区域及第二区域,所述根据所述目标人脸在静止状态下的面部坐标值,获得所述目标人脸在静止状态下的第一评分值的步骤,包括:
根据所述第一区域与所述第二区域各自的眼部坐标值,得到所述目标人脸在静止状态下的眼睑评价值;
根据所述第一区域与所述第二区域各自的鼻部坐标值,得到所述目标人脸在静止状态下的鼻部评价值;
根据所述第一区域与所述第二区域各自的口部坐标值,得到所述目标人脸在静止状态下的口部评价值;
根据所述眼睑评价值、所述鼻部评价值及所述口部评价值,获得所述目标人脸在静止状态下的所述第一评分值。
3.如权利要求1所述的方法,其特征在于,所述目标人脸包括第一区域及第二区域,所述根据所述目标人脸在运动状态下的面部坐标值,获得所述目标人脸的第二评分值的步骤,包括:
根据所述目标人脸在抬额头状态下,所述第一区域及所述第二区域各自的眼睑坐标值及眉毛坐标值,得到所述目标人脸在运动状态下的抬额运动评价值;
根据所述目标人脸在闭眼状态下,所述第一区域及所述第二区域各自的眼睑坐标值,得到所述目标人脸在运动状态下的闭眼运动评价值;
根据所述目标人脸在耸鼻状态下,所述第一区域及所述第二区域各自的鼻部坐标值,得到所述目标人脸在运动状态下的耸鼻运动评价值;
根据所述目标人脸在示齿状态下,所述第一区域及所述第二区域各自的口部坐标值,得到所述目标人脸在运动状态下的示齿运动评价值;
根据所述目标人脸在撇嘴状态下,所述第一区域及所述第二区域各自的口部坐标值,得到所述目标人脸在运动状态下的撇嘴运动评价值;
根据所述抬额运动评价值、所述闭眼运动评价值、所述耸鼻运动评价值、所述示齿运动评价值及所述撇嘴运动评价值,获得所述目标人脸在所述运动状态下的第二评分值。
4.如权利要求1所述的方法,其特征在于,所述目标人脸包括用户在所述目标人脸中选定的目标区域,所述根据所述目标人脸在运动状态下的面部坐标值,获得所述目标人脸的第三评分值的步骤,包括:
根据所述目标人脸在抬额头状态下,所述目标区域的口部坐标值,得到所述目标人脸在运动状态下的抬额联动评价值;
根据所述目标人脸在闭眼状态下,所述目标区域的眉毛坐标值,得到所述目标人脸在运动状态下的闭眼联动评价值;
根据所述目标人脸在耸鼻状态下,所述目标区域的口部坐标值,得到所述目标人脸在运动状态下的耸鼻联动评价值;
根据所述目标人脸在示齿状态下,所述目标区域的眼部坐标值,得到所述目标人脸在运动状态下的示齿联动评价值;
根据所述目标人脸在撇嘴状态下,所述目标区域的眼部坐标值,得到所述目标人脸在运动状态下的撇嘴联动评价值;
根据所述抬额联动评价值、所述闭眼联动评价值、所述耸鼻联动评价值、所述示齿联动评价值及所述撇嘴联动评价值,获得所述目标人脸在所述运动状态下的第三评分值。
5.如权利要求1所述的方法,其特征在于,根据所述第一评分值、所述第二评分值及所述第三评分值,计算所述面瘫程度评价值的公式为:
A=D-S-I,
其中,A为所述面瘫程度评价值,D为所述第二评分值,S为所述第一评分值,I为所述第三评分值。
6.如权利要求1所述的方法,其特征在于,在所述根据所述目标人脸在静止状态下的面部坐标值,获得所述目标人脸在静止状态下的第一评分值的步骤之前,所述方法还包括:
在获取的多帧图片中,旋转所述目标人脸,以使所述目标人脸处于水平状态。
7.如权利要求6所述的方法,其特征在于,所述在获取的多帧图片中,旋转所述目标人脸的步骤,包括:
将所述目标人脸的两个内眼点连线与坐标横轴的角度,作为所述目标人脸的旋转角度。
8.一种面瘫程度评价装置,其特征在于,应用于对目标人脸的面瘫程度进行评价,所述装置包括:
第一处理模块,用于根据所述目标人脸在静止状态下的面部坐标值,获得所述目标人脸在静止状态下的第一评分值;
第二处理模块,用于根据所述目标人脸在运动状态下的面部坐标值,获得所述目标人脸的第二评分值及第三评分值,其中,所述运动状态至少包括抬额头、闭眼、耸鼻、示齿、撇嘴中的至少之一,所述第二评分值表征对所述目标人脸处于运动状态时,对面部表情的局部评分,所述第三评分值表征对所述目标人脸处于运动状态,对面部表情的联动评分;
第三处理模块,用于根据所述第一评分值、所述第二评分值及所述第三评分值,获得所述目标人脸的面瘫程度评价值。
9.一种电子设备,其特征在于,包括:
存储器,用于存储一个或多个程序;
处理器;
当所述一个或多个程序被所述处理器执行时,实现如权利要求1-7中任一项所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1-7中任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811534193.3A CN109686418A (zh) | 2018-12-14 | 2018-12-14 | 面瘫程度评价方法、装置、电子设备及存储介质 |
PCT/CN2019/123478 WO2020119584A1 (zh) | 2018-12-14 | 2019-12-06 | 面瘫程度评价方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811534193.3A CN109686418A (zh) | 2018-12-14 | 2018-12-14 | 面瘫程度评价方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109686418A true CN109686418A (zh) | 2019-04-26 |
Family
ID=66187741
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811534193.3A Pending CN109686418A (zh) | 2018-12-14 | 2018-12-14 | 面瘫程度评价方法、装置、电子设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN109686418A (zh) |
WO (1) | WO2020119584A1 (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020119584A1 (zh) * | 2018-12-14 | 2020-06-18 | 深圳先进技术研究院 | 面瘫程度评价方法、装置、电子设备及存储介质 |
CN111553250A (zh) * | 2020-04-25 | 2020-08-18 | 深圳德技创新实业有限公司 | 一种基于人脸特征点的精准面瘫程度评测方法及装置 |
CN111680545A (zh) * | 2020-04-25 | 2020-09-18 | 深圳德技创新实业有限公司 | 一种基于语义分割的精准面瘫程度评测方法及装置 |
CN112001213A (zh) * | 2020-04-25 | 2020-11-27 | 深圳德技创新实业有限公司 | 一种基于3d点云分割的精准面瘫程度评测方法及装置 |
CN112466437A (zh) * | 2020-11-03 | 2021-03-09 | 桂林医学院附属医院 | 一种中风信息处理*** |
CN113327247A (zh) * | 2021-07-14 | 2021-08-31 | 中国科学院深圳先进技术研究院 | 一种面神经功能评估方法、装置、计算机设备及存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113343927B (zh) * | 2021-07-03 | 2023-06-23 | 郑州铁路职业技术学院 | 一种适用于面瘫患者的智能化人脸识别方法和*** |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016083826A1 (en) * | 2014-11-28 | 2016-06-02 | The Nottingham Trent University | Facial exercise system |
CN107713984A (zh) * | 2017-02-07 | 2018-02-23 | 王俊 | 面瘫客观评估方法及其*** |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4756589B2 (ja) * | 2005-12-07 | 2011-08-24 | ソニー株式会社 | 画像処理装置および方法、プログラム、並びに記録媒体 |
CN106980815A (zh) * | 2017-02-07 | 2017-07-25 | 王俊 | 基于h‑b分级评分监督下的面瘫客观评估方法 |
CN109686418A (zh) * | 2018-12-14 | 2019-04-26 | 深圳先进技术研究院 | 面瘫程度评价方法、装置、电子设备及存储介质 |
-
2018
- 2018-12-14 CN CN201811534193.3A patent/CN109686418A/zh active Pending
-
2019
- 2019-12-06 WO PCT/CN2019/123478 patent/WO2020119584A1/zh active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016083826A1 (en) * | 2014-11-28 | 2016-06-02 | The Nottingham Trent University | Facial exercise system |
CN107713984A (zh) * | 2017-02-07 | 2018-02-23 | 王俊 | 面瘫客观评估方法及其*** |
Non-Patent Citations (1)
Title |
---|
韩真真 等: "量表在面瘫治疗中的应用与分析", 《天津中医药》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020119584A1 (zh) * | 2018-12-14 | 2020-06-18 | 深圳先进技术研究院 | 面瘫程度评价方法、装置、电子设备及存储介质 |
CN111553250A (zh) * | 2020-04-25 | 2020-08-18 | 深圳德技创新实业有限公司 | 一种基于人脸特征点的精准面瘫程度评测方法及装置 |
CN111680545A (zh) * | 2020-04-25 | 2020-09-18 | 深圳德技创新实业有限公司 | 一种基于语义分割的精准面瘫程度评测方法及装置 |
CN112001213A (zh) * | 2020-04-25 | 2020-11-27 | 深圳德技创新实业有限公司 | 一种基于3d点云分割的精准面瘫程度评测方法及装置 |
CN112001213B (zh) * | 2020-04-25 | 2024-04-12 | 深圳德技创新实业有限公司 | 一种基于3d点云分割的精准面瘫程度评测方法及装置 |
CN112466437A (zh) * | 2020-11-03 | 2021-03-09 | 桂林医学院附属医院 | 一种中风信息处理*** |
CN113327247A (zh) * | 2021-07-14 | 2021-08-31 | 中国科学院深圳先进技术研究院 | 一种面神经功能评估方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2020119584A1 (zh) | 2020-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109686418A (zh) | 面瘫程度评价方法、装置、电子设备及存储介质 | |
Climent-Pérez et al. | A review on video-based active and assisted living technologies for automated lifelogging | |
Egede et al. | Fusing deep learned and hand-crafted features of appearance, shape, and dynamics for automatic pain estimation | |
CN110399849A (zh) | 图像处理方法及装置、处理器、电子设备及存储介质 | |
KR101284561B1 (ko) | 멀티 모달리티 감정인식 시스템, 감정인식 방법 및 그 기록매체 | |
US11158403B1 (en) | Methods, systems, and computer readable media for automated behavioral assessment | |
CN109659006A (zh) | 面肌训练方法、装置及电子设备 | |
Cvetkoska et al. | Smart mirror E-health assistant—Posture analyze algorithm proposed model for upright posture | |
Maroto-Gómez et al. | A bio-inspired motivational decision making system for social robots based on the perception of the user | |
Kukharev et al. | Digital facial anthropometry: application and implementation | |
Maskeliūnas et al. | BiomacVR: A virtual reality-based system for precise human posture and motion analysis in rehabilitation exercises using depth sensors | |
Tanikawa et al. | Objective three-dimensional assessment of lip form in patients with repaired cleft lip | |
Shajahan et al. | Application of artificial intelligence in prosthodontics | |
Agarwal et al. | Skin disease classification using CNN algorithms | |
TWI383776B (zh) | 體重預測系統及其方法 | |
Pikulkaew et al. | Pain detection using deep learning with evaluation system | |
Vu et al. | facial anthropometric, landmark extraction, and nasal reconstruction technology | |
Zhang et al. | Non-linear finite element model established on pectoralis major muscle to investigate large breast motions of senior women for bra design | |
TWI829944B (zh) | 虛擬化身臉部表情產生系統和虛擬化身臉部表情產生方法 | |
Eldib et al. | Sleep analysis for elderly care using a low-resolution visual sensor network | |
Leone et al. | Ambient and wearable sensor technologies for energy expenditure quantification of ageing adults | |
Yoelin et al. | The use of a novel artificial intelligence platform for the evaluation of rhytids | |
CN110164547A (zh) | 一种基于人脸区域及舌苔的中医面诊*** | |
Trotman et al. | Influence of objective three-dimensional measures and movement images on surgeon treatment planning for lip revision surgery | |
Faraway et al. | Shape change along geodesics with application to cleft lip surgery |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190426 |