CN105183170B - 头戴式可穿戴设备及其信息处理方法、装置 - Google Patents

头戴式可穿戴设备及其信息处理方法、装置 Download PDF

Info

Publication number
CN105183170B
CN105183170B CN201510609800.8A CN201510609800A CN105183170B CN 105183170 B CN105183170 B CN 105183170B CN 201510609800 A CN201510609800 A CN 201510609800A CN 105183170 B CN105183170 B CN 105183170B
Authority
CN
China
Prior art keywords
image
result
analysis result
analysis
pupil
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510609800.8A
Other languages
English (en)
Other versions
CN105183170A (zh
Inventor
张敬宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd filed Critical BOE Technology Group Co Ltd
Priority to CN201510609800.8A priority Critical patent/CN105183170B/zh
Publication of CN105183170A publication Critical patent/CN105183170A/zh
Priority to US15/326,114 priority patent/US10325144B2/en
Priority to PCT/CN2016/073629 priority patent/WO2017049843A1/zh
Application granted granted Critical
Publication of CN105183170B publication Critical patent/CN105183170B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Eye Examination Apparatus (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种头戴式可穿戴设备及其信息处理方法、装置,所述头戴式可穿戴设备,包括:用于获取谈话对象的面部图像和肢体图像的图像获取器;与图像获取器连接的控制器,用于对所述面部图像和肢体图像进行分析,并获得分析结果;与所述控制器连接的输出模块,用于将所述分析结果输出。上述该头戴式可穿戴设备携带方便、成本低廉,且可通过谈话对象的图像信息确定当前谈话对象说话的心理情况,操作简便。

Description

头戴式可穿戴设备及其信息处理方法、装置
技术领域
本发明涉及一种头戴式可穿戴设备及头戴式可穿戴设备的信息处理方法、头戴式可穿戴设备的信息处理装置。
背景技术
随着互联网技术的发展,越来越多的智能穿戴设备走入了人们的生活。智能穿戴设备可以给用户的生活带来极大的便利,以智能眼镜为例,用户可以通过智能眼镜拍摄看到的景物,并通过网络进行分享。
当前,社会上双方交流时假话/谎话非常多,若需要确定某人说话的真实性,可通过现有技术的测谎仪实现。例如,将测谎仪各种接触点连接到被测人的身体,通过提出问题,被测者脑电波或心率的变化,综合判断对方的说谎指数。
然而,现有技术中的测谎仪需要反复测试,可且测试过程中需要连接到被测人身体,操作复杂,成本高,且携带不方便,为此,如何采用简单便携的智能穿戴设备测试交流对象说话的心里情况(如说话的真实性等)成为急需解决的问题。
发明内容
本发明提供一种头戴式可穿戴设备及其信息处理方法、装置,该头戴式可穿戴设备携带方便、成本低廉,且可通过谈话对象的图像确定当前谈话对象说话心理情况,操作非常方便。
第一方面,本发明一种头戴式可穿戴设备,包括:
用于获取谈话对象的面部图像和肢体图像的图像获取器;
与图像获取器连接的控制器,用于对所述面部图像和肢体图像进行分析,并获得分析结果;
与所述控制器连接的输出模块,用于将所述分析结果输出。
可选地,所述图像获取器为用于采集谈话对象的面部图像和肢体图像的第一摄像头;
或者,所述图像获取器包括:用于采集谈话对象的肢体图像的第二摄像头,和用于接收谈话对象的头戴式可穿戴设备发送的谈话对象的面部图像的接收器。
可选地,所述第一摄像头和/或第二摄像头为双目摄像头。
可选地,所述输出模块为用于显示分析结果的显示屏;或者,所述输出模块为用于语音播放所述分析结果的语音播放器。
可选地,所述头戴式可穿戴设备为智能眼镜。
可选地,所述智能眼镜还包括:眼镜本体,所述图像获取器、所述控制器和所述输出模块均位于所述眼镜本体上。
可选地,所述分析结果包括:对所述肢体图像进行分析获取的行为分析结果,以及对所述面部图像进行分析获取的心率分析结果和瞳孔分析结果。
可选地,所述头戴式可穿戴设备还包括:
连接所述控制器的选择模块,用于接收使用者的选择指令,以使控制器获取与所述选择指令对应的分析结果。
可选地,所述选择模块包括第一选择模块,用于接收使用者的兴趣分析指令;以及第二选择模块,用于接收使用者的可信度分析指令。
可选地,所述头戴式可穿戴设备还包括:
与所述控制器连接的无线模块,用于与网络设备通过无线网络交互信息;
和/或,与所述控制器连接的GPS模块,用于对头戴式可穿戴设备进行定位;
和/或,与所述控制器连接用于采集头戴式可穿戴设备的使用者的面部图像的图像采集器、与所述控制器连接的用于发送图像采集器采集的图像的发送器。
第二方面,本发明还提供一种头戴式可穿戴设备的信息处理方法,包括:
获取谈话对象的图像信息,所述图像信息包括:谈话对象的面部图像和肢体图像;
对所述肢体图像进行分析,获取行为分析结果;以及对所述面部图像进行分析,获取心率分析结果和瞳孔分析结果;
根据所述行为分析结果、心率分析结果和瞳孔分析结果,确定所述谈话对象的谈话内容输出结果;
将所述谈话内容输出结果输出至所述头戴式可穿戴设备的使用者。
可选地,对所述肢体图像进行分析之前,所述方法还包括:接收选择指令的步骤,
若接收的选择指令为兴趣分析指令,则行为分析结果为对所述谈话内容是否感兴趣的行为分析结果;所述心率分析结果为对所述谈话内容是否感兴趣的心率分析结果,所述瞳孔分析结果为,对所述谈话内容是否感兴趣的瞳孔分析结果;
若接收的选择指令为可信度分析指令,则行为分析结果为该谈话内容的可信率的行为分析结果;所述心率分析结果为该谈话内容的可信率的心率分析结果,所述瞳孔分析结果为该谈话内容的可信率的瞳孔分析结果。
可选地,对所述肢体图像进行分析,获取行为分析结果,具体包括:
将当前时间点的肢体图像与第一时间点的肢体图像进行比较;
若所述当前时间点的肢体图像相对于所述第一时间点的肢体图像接近所述使用者,则确定所述谈话者对当前谈话内容感兴趣,获得行为分析结果;
其中,所述第一时间点为与当前时间点间隔预设时长的时间点。
可选地,对所述面部图像进行分析,获取心率分析结果和瞳孔分析结果,具体包括:
采用非接触式脉搏血氧定量分析法对所述面部图像进行分析,获取心率分析结果;
获取当前时间点的面部图像中的瞳孔区域,以及第二时间点的面部图像中的瞳孔区域;
将当前时间点的瞳孔区域与第二时间点的区域进行比较,获得所述瞳孔分析结果;
其中,所述第二时间点为与当前时间点间隔预设时间段的时间点。
可选地,根据所述行为分析结果、心率分析结果和瞳孔分析结果,确定所述谈话对象的谈话内容输出结果,具体包括:
所述行为分析结果、心率分析结果和瞳孔分析结果中有至少两个结果为正向结果,则确定所述谈话对象的谈话内容输出结果为正向结果;
或者,
根据预先确定的各分析结果的权重系数,将各分析结果与各自的权重系数相乘,再将各相乘的结果相加,获得所述谈话对象的谈话内容输出结果;
或者,
获取所有分析结果的平均值,将所述平均值作为所述谈话对象的谈话内容输出结果。
第三方面,本发明提供一种头戴式可穿戴设备的信息处理装置,包括:
获取单元,用于获取谈话对象的图像信息,所述图像信息包括:谈话对象的面部图像和肢体图像;
处理单元,用于对所述肢体图像进行分析,获取行为分析结果;以及对所述面部图像进行分析,获取心率分析结果和瞳孔分析结果;
分析单元,用于根据所述行为分析结果、心率分析结果和瞳孔分析结果,确定所述谈话对象的谈话内容输出结果;
输出单元,用于将所述谈话内容输出结果输出至所述头戴式可穿戴设备的使用者。
可选地,所述装置还包括:
接收单元,用于在处理单元对肢体图像和面部图像进行分析之前,接收用户的选择指令;
若所述选择指令为兴趣分析指令,处理单元的行为分析结果为对所述谈话内容是否感兴趣的行为分析结果,所述心率分析结果为对所述谈话内容是否感兴趣的心率分析结果,所述瞳孔分析结果为,对所述谈话内容是否感兴趣的瞳孔分析结果;
若所述选择指令为可信度分析指令,处理单元的行为分析结果为该谈话内容的可信率的行为分析结果;所述心率分析结果为该谈话内容的可信率的心率分析结果,所述瞳孔分析结果为该谈话内容的可信率的瞳孔分析结果。
可选地,所述处理单元,具体用于
将当前时间点的肢体图像与第一时间点的肢体图像进行比较;
若所述当前时间点的肢体图像相对于所述第一时间点的肢体图像接近所述使用者,则确定所述谈话者对当前谈话内容感兴趣,获得行为分析结果;
其中,所述第一时间点为与当前时间点间隔预设时长的时间点。
可选地,所述处理单元,具体用于
采用非接触式脉搏血氧定量分析法对所述面部图像进行分析,获取心率分析结果;
获取当前时间点的面部图像中的瞳孔区域,以及第二时间点的面部图像中的瞳孔区域;
将当前时间点的瞳孔区域与第二时间点的区域进行比较,获得所述瞳孔分析结果;
其中,所述第二时间点为与当前时间点间隔预设时间段的时间点。
可选地,所述分析单元,具体用于
所述行为分析结果、心率分析结果和瞳孔分析结果中有至少两个结果为正向结果,则确定所述谈话对象的谈话内容输出结果为正向结果;
或者,
根据预先确定的各分析结果的权重系数,将各分析结果与各自的权重系数相乘,再将各相乘的结果相加,获得所述谈话对象的谈话内容输出结果;
或者,
获取所有分析结果的平均值,将所述平均值作为所述谈话对象的谈话内容输出结果。
由上述技术方案可知,本发明的头戴式可穿戴设备及其信息处理方法、装置,可通过头戴式的图像获取器获取谈话对象的图像,控制器分析该图像,确定该谈话对象对当前谈话的真实性/兴趣性,并通过输出模块输出结果。进而,本发明的头戴式可穿戴设备携带方便、成本低廉,且可通过谈话对象的图像确定当前谈话对象说话的心理情况,操作非常方便,能够较好的推广使用,提高了用户的使用体验。
附图说明
图1为本发明一实施例提供的头戴式可穿戴设备的结构示意图;
图2为本发明另一实施例提供的头戴式可穿戴设备的结构示意图;
图3为本发明一实施例提供的头戴式可穿戴设备的信息处理方法的流程示意图;
图4为本发明另一实施例提供的头戴式可穿戴设备的信息处理方法的流程示意图;
图5为本发明一实施例提供的头戴式可穿戴设备的场景图;
图6为本发明一实施例提供的面部图像中的分析区域的示意图;
图7为本发明一实施例提供的头戴式可穿戴设备的信息处理装置的结构示意图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
图1示出了本发明一实施例提供的头戴式可穿戴设备的结构示意图,如图1所示,本实施例的头戴式可穿戴设备包括:图像获取器11、与图像获取器11连接的控制器12,以及与该控制器12连接的输出模块13;
其中,上述图像获取器11可用于获取谈话对象的面部图像和肢体图像;控制器12可用于对谈话对象的面部图像和肢体图像进行分析,并获得分析结果,输出模块13可用于将分析结果输出。
本实施例中的图像获取器11可为用于采集谈话对象的面部图像和肢体图像的第一摄像头,例如,该第一摄像头可为双目摄像头,该双目摄像头具有较高的像素,可从不同方向/位置获取谈话对象的两幅图像,进而可较好的获取谈话对象的面部图像的细微变化,以便控制器进行后续分析。
当然,在其他实施例中,上述图像获取器11还可包括两个以上的具有水平夹角的摄像头。应说明的是,这两个摄像头可间距预设距离,均可拍摄高清图像,也能够同时实现同两个角度/方向/位置获取谈话对象的两幅图像,进而可实现较好获取谈话对象的面部图像的细微变化,以使控制器可对后续分析能够获取到准确结果。
上述的输出模块13可用于显示分析结果的显示屏,如液晶显示屏。或者,在其他实施例中,输出模块13还可为语音播放器,如麦克风,将该分析结果采用语音方式播放。
本实施例的头戴式可穿戴设备可通过头戴式的图像获取器采集谈话对象的图像,控制器分析该图像,确定该谈话对象对当前谈话的真实性/兴趣性,并通过输出模块输出结果。进而,本发明的头戴式可穿戴设备携带方便、成本低廉,可能够较好的推广使用,提高了用户的使用体验。
举例来说,图1中所示的头戴式可穿戴设备还可包括:无线模块和/或全球定位***(Global Positioning System,简称GPS)模块;其中,无线模块、GPS模块均与控制器连接,该无线模块用于实现控制器与其他网络设备(如智能终端等)交互信息。例如,控制器可通过无线模块将分析结果发送智能终端,以使智能终端显示等。
GPS模块可用于实现对头戴式可穿戴设备进行定位,提供位置信息等。
举例来说,上述的头戴式可穿戴设备可为智能眼镜,该智能眼镜包括眼镜本体,前述图1中的图像采集器、控制器和输出模块均可安装在眼镜本体上。
此外,在具体应用中,上述图1所示的头戴式可穿戴设备还可包括:与控制器12连接的选择模块(图中未示出),该选择模块用于接收使用者的选择指令,以使控制器获取与选择指令对应的分析结果。
进一步地,所述选择模块包括第一选择模块,用于接收使用者的兴趣分析指令;以及第二选择模块,用于接收使用者的可信度分析指令。
举例来说,上述的选择模块可为选择性的按钮,例如,智能眼镜的眼镜本体上设置有用于供使用者选择分析方向的按钮,所述按钮连接控制器;在使用者触发所述按钮之后,所述控制器12根据触发的按钮所属的分析方向获取该分析方向的分析结果。
或者,智能眼镜的眼镜本体上设置有开启智能模式或关闭智能模式的按钮,在使用者选择开启智能模式按钮之后,所述控制器12按照默认分析方向获取分析结果。通常默认分析方式可为谈话感兴趣分析方向。
例如,A和B谈话时,A可戴上述的智能眼镜,进而该智能眼镜可实时获取B的面部图像和肢体图像,并进行分析向A输出分析结果,以使A确定当前B是否感兴趣当前的谈话,或者确定当前B的说话的可信度等。
需要说明的是,图1中所示的控制器12在选择模块接收选择指令之后,控制器12根据选择指令可获取相应地的分析结果,例如,将当前时间点的肢体图像与第一时间点的肢体图像进行比较;若所述当前时间点的肢体图像相对于所述第一时间点的肢体图像接近所述使用者,则确定所述谈话者对当前谈话内容感兴趣,获得行为分析结果;
其中,所述第一时间点为与当前时间点间隔预设时长的时间点。
该控制器12还可对所述面部图像进行分析,获取心率分析结果和瞳孔分析结果,例如,所述控制器采用非接触式脉搏血氧定量分析法对所述面部图像进行分析,获取心率分析结果;所述控制器获取当前时间点的面部图像中的瞳孔区域,以及第二时间点的面部图像中的瞳孔区域;将当前时间点的瞳孔区域与第二时间点的区域进行比较,获得所述瞳孔分析结果;
其中,所述第二时间点为与当前时间点间隔预设时间段的时间点。
进一步地,本实施例的控制器12还可包括图中未示出的分析模块121,该分析模块121可用于根据所述行为分析结果、心率分析结果和瞳孔分析结果,确定所述谈话对象的谈话内容输出结果。
例如,分析模块121可用于在行为分析结果、心率分析结果和瞳孔分析结果中有至少两个结果为正向结果,则确定所述谈话对象的谈话内容输出结果为正向结果;
或者,分析模块121可用于根据预先确定的各分析结果的权重系数,将各分析结果与各自的权重系数相乘,再将各相乘的结果相加,获得所述谈话对象的谈话内容输出结果;
或者,分析模块121可用于获取所有分析结果的平均值,将所述平均值作为所述谈话对象的谈话内容输出结果。需要说明的是,该处的正向结果为使用者想要的结果可理解为正向结果。如此,在对各种分析结果进行分析的过程中,有效的避免了误判。以在行为分析结果、心率分析结果和瞳孔分析结果中有至少两个结果为正向结果,则确定所述谈话对象的谈话内容输出结果为正向结果为例进行说明:心率分析时,心率平稳分析为没有说谎(正向结果);瞳孔分析时瞳孔变大分析为说谎(负向结果),行为分析结时谈话对象靠近使用者则分析为没有说谎(正向结果),这样则可以分析出此时谈话对象是没有说谎的,避免了单独使用面部图像分析或肢体图像进行分析而造成的误判。或者,可以根据各分析结果的权重系数的不同进行误判的排除,原理和上述类似,在此处不再赘述。
本实施例的智能眼镜还可以实现拍照、导航等功能。本实施例的智能眼镜可为智能社交眼镜,该智能眼镜的硬件可包括:眼镜支架即眼镜本体;以及眼镜支架上安装的双目摄像头、控制器/处理器、无线模块和GPS模块、电源模块等。
本发明的头戴式可穿戴设备携带方便、成本低廉。此外,头戴式可穿戴设备仅通过获取谈话对象的图像信息,确定谈话对象的心率变化、眼球动作、瞳孔变化等的分析结果,进而获得该谈话对象的谈话可信度或谈话兴趣度,操作非常方便,能够较好的推广使用,提高了用户的使用体验。
在另一应用场景中,前述图1中所述的图像获取器可包括:用于采集谈话对象的肢体图像的第二摄像头,和用于接收谈话对象的头戴式可穿戴设备发送的谈话对象的面部图像的接收器;如图2所示,图2示出了另一头戴式可穿戴设备的结构示意图。
图2中示出的头戴式可穿戴设备包括:第二摄像头21、与第二摄像头21连接的控制器22,以及与该控制器22连接的输出模块23,以及与控制器连接的接收模块24;
其中,该第二摄像头21可采集谈话对象的肢体图像,接收模块24接收谈话对象的头戴式可穿戴设备发送的谈话对象的面部图像;控制器22用于对谈话对象的面部图像和肢体图像进行分析,获取分析结果,输出模块23用于将分析结果输出。
应说明的是,本实施例中的接收模块24可接收的是谈话对象的头戴式可穿戴设备发送的谈话对象的面部图像。在其他实施例中,该接收模块24还可用于接收任一智能设备发送的谈话对象的面部图像,该任一智能设备只要能够实时获取谈话对象的面部图像,且能够发送谈话对象的面部图像即可。
另外,本实施例的第二摄像头优选使用双目摄像头,该双目摄像头具有较高的像素,可从不同方向/位置获取谈话对象的肢体的两幅图像,以便控制器进行后续分析。
可选地,本实施例的头戴式可穿戴设备还可包括下述的图像采集器(如图2所示的第三摄像头25)和发送模块26(如发送器);图像采集器和发送模块26均与控制器连接。
该图像采集器即对应的第三摄像头25可用于采集头戴式可穿戴设备的使用者的面部图像,发送模块26可将使用者的面部图像的发送至谈话对象的头戴式可穿戴设备。
也就是说,在双方谈话时,可各使用一个上述图2所示的头戴式可穿戴设备,以确定对方对当前谈话内容的兴趣值如兴趣指数,或者确定对方当前说话的可信度等信息。
例如,A和B谈话时,A和B均带上图2所示的可穿戴设备,此时,A戴的可穿戴设备a获取B的肢体图像和A的面部图像,B戴的可穿戴设备b获取B的面部图像和A的肢体图像,进而A戴的可穿戴设备a接收B戴的可穿戴设备b发送的B的面部图像,分析B的面部图像和B的肢体图像,以便获取B是否对当前谈话内容感兴趣的结果,或者,获取B当前说话的可信度的信息等。
在实际应用中,图2所示的头戴式可穿戴设备可为智能眼镜(如图5所示的场景示意图)。该智能眼镜换包括眼镜本体,前述的第二摄像头21、图像采集器、所述控制器22和所述输出模块23、发送模块26、接收模块24均位于所述眼镜本体上。
当然,图2所示的头戴式可穿戴设备也可包括:与控制器连接的选择模块(图中未示出),该选择模块用于接收使用者的选择指令,以使控制器获取与选择指令对应的分析结果。
举例来说,上述的选择模块可为选择性的按钮,例如,所述眼镜本体上设置有用于供使用者选择分析方向的按钮,所述按钮连接控制器;
其中,在使用者触发所述按钮之后,所述控制器根据触发的按钮所属的分析方向获取该分析方向的分析结果。
当然,眼镜本体上还可设置有开启或关闭智能模式的按钮,在使用者选择开启智能模式按钮之后,所述控制器按照默认分析方向获取分析结果。
本实施例的智能眼镜能够对谈话对象的谈话内容进行定性分析,该智能眼镜结构紧凑,且携带方便,成本低廉,能够较好的推广使用,提高了用户的使用体验。
图3示出了本发明一实施例提供的头戴式可穿戴设备的信息处理方法的流程示意图,如图3所示,本实施例的头戴式可穿戴设备如下所述。
301、获取谈话对象的图像信息,所述图像信息包括:谈话对象的面部图像和肢体图像。
举例来说,若使用者使用的图1所示的头戴式可穿戴设备,则步骤301可具体为:采用图像获取器如双目摄像头实时采集谈话对象的图像信息。
若使用者使用的图2所示的头戴式可穿戴设备,则步骤301可具体为:采用第一图像采集器实时采集谈话对象的肢体图像,以及接收模块接收所述谈话对象的头戴式可穿戴设备发送的谈话对象的面部图像。
302、对所述肢体图像进行分析,获取行为分析结果;以及对所述面部图像进行分析,获取心率分析结果和瞳孔分析结果。
在图3所示的方法为前述图1和图2所示的头戴式可穿戴设备时,该步骤302和下述的步骤303可通过头戴式可穿戴设备的控制器进行处理。举例来说,控制器可通过非接触式脉搏血氧定量法,获得心率分析结果。
在本实施例中,使用者选择的是兴趣分析方向,则行为分析结果为对所述谈话内容是否感兴趣的行为分析结果;所述心率分析结果为对所述谈话内容是否感兴趣的心率分析结果,所述瞳孔分析结果为,对所述谈话内容是否感兴趣的瞳孔分析结果;
如果使用者选择的是可信度分析方向,则行为分析结果为该谈话内容的可信率的行为分析结果;所述心率分析结果为该谈话内容的可信率的心率分析结果,所述瞳孔分析结果为该谈话内容的可信率的瞳孔分析结果。
303、根据所述行为分析结果、心率分析结果和瞳孔分析结果,确定所述谈话对象的谈话内容输出结果;
304、将所述谈话内容输出结果输出至所述头戴式可穿戴设备的使用者。
在图3所示的方法为前述图1和图2所示的头戴式可穿戴设备时,该步骤304可通过头戴式可穿戴设备的输出模块输出。
通常,人在说谎时,手势及言语使用等方面存在显著变化,为此,上述实施例中可针对面部图像中眼球区域和瞳孔区域进行分析,获得分析结果。
本实施例的头戴式可穿戴设备可为前述的智能眼镜,该智能眼镜可通过获取谈话对象的图像信息,确定谈话对象的心率变化、眼球动作、瞳孔变化等的分析结果,进而获得该谈话对象的谈话可信度或谈话兴趣度。
图4示出了本发明一实施例提供的智能眼镜的信息处理方法的流程示意图,如图4所示,本实施例的智能眼镜的信息处理方法如下所述。应说明的是,本实施例的智能眼镜可为前述图1或图2所示的头戴式可穿戴设备。
401、智能眼镜的选择模块接收选择指令。
当然,在实际应用中,选择指令可为兴趣分析指令或可信度分析指令。另外,在其他实施例中,该选择模块还可为接收单元等,本实施例中不对接收选择指令的模块/单元名称进行限定,其实现功能均为接收选择指令即可。
402、智能眼镜的图像获取器实时获取谈话对象的图像信息,该图像信息包括谈话对象的肢体图像和面部图像。
也就是说,使用者在佩戴该智能眼镜时,开启社交功能按钮(如上举例的按钮),两个以上的摄像头会自动拍摄谈话对象的面部图像集肢体图像。
403、智能眼镜的控制器对所述肢体图像进行分析,获取行为分析结果。
举例来说,步骤403可包括如下子步骤:
4031、智能眼镜的控制器将当前时间点的肢体图像与第一时间点的肢体图像进行比较;
4032、若当前时间点的肢体图像相对于所述第一时间点的肢体图像接近所述使用者,则确定所述谈话者对当前谈话内容感兴趣,获得行为分析结果;
其中,所述第一时间点为与当前时间点间隔预设时长的时间点。
404、智能眼镜的控制器对所述面部图像进行分析,获取心率分析结果和瞳孔分析结果。
举例来说,步骤404可包括如下子步骤:
4041、智能眼镜的控制器采用非接触式脉搏血氧定量分析法对所述面部图像进行分析,获取心率分析结果。
也就是说,通过非接触时脉搏血氧定量法,获得心率变化数值,进而获得谈话对象的心率变化曲线,当高于某一限定阈值可认为,谈话对象说话的可信度低。通常,普通人在说谎时,心率会发生较大变化。
4042、智能眼镜的控制器获取当前时间点的面部图像中的瞳孔区域,以及第二时间点的面部图像中的瞳孔区域;
4043、智能眼镜的控制器将当前时间点的瞳孔区域与第二时间点的区域进行比较,获得所述瞳孔分析结果;
其中,所述第二时间点为与当前时间点间隔预设时间段的时间点。
通常,大多数人的在说谎话时,眼球的运动方向时右上方;人们在试图记起确实发生的事情时,眼球的运动方向时左上方,为此可根据面部图像中瞳孔区域眼球的运动方向确定谈话对象是否在说谎。
此外,当人遇到令人厌恶的刺激或惹人生气话题时,瞳孔会不由自主地收缩;相反,当遇到令人心情愉快话题时,瞳孔会自动放大,当人感到恐慌、愉悦、喜爱、兴奋或激动时,瞳孔会放大到平常的4倍及以上。
405、智能眼镜的控制器根据所述行为分析结果、心率分析结果和瞳孔分析结果,确定所述谈话对象的谈话内容输出结果。
举例来说,智能眼镜的控制器可根据所述行为分析结果、心率分析结果和瞳孔分析结果中有至少两个结果为正向结果,则确定所述谈话对象的谈话内容输出结果为正向结果。该处的正向结果为使用者想要的结果可理解为正向结果。
也就是说,若选择指令为兴趣分析指令,则心率分析结果为感兴趣,瞳孔分析结果为感兴趣,行为分析结果为不感兴趣,则输出结果为感兴趣;
或者,若选择指令为可信度分析指令,则行为分析结果为可信度低,心率分析结果为可信度低,瞳孔分析结果为可信度高,则输出结果为可信度低。
在另一种可能的实现方式中,智能眼镜的控制器可根据预先确定的各分析结果的权重系数,将各分析结果与各自的权重系数相乘,再将各相乘的结果相加,获得所述谈话对象的谈话内容输出结果。
在第三种可能的实现方式中,智能眼镜的控制器可获取所有分析结果的平均值,将所述平均值作为所述谈话对象的谈话内容输出结果。
406、智能眼镜的输出模块将所述谈话内容输出结果输出至智能眼镜的使用者。
本实施例的智能眼镜还可通过获取谈话对象的图像信息,确定谈话对象的心率变化、眼球动作、瞳孔变化等的分析结果,进而获得该谈话对象的谈话可信度或谈话兴趣度,操作方便,成本低,可较好的提高用户体验。
为更好的说明本发明的实施例,以下对步骤4041中的智能眼镜的控制器采用非接触式脉搏血氧定量分析法对所述面部图像进行分析,获取心率分析结果,详细说明如下。
目前,血氧饱和度摄像技术的非接触式脉搏血氧定量分析法是利用普通的光学摄像头可以检测到人体的心率,例如拍摄一段包括人的面部图像的视频,从视频的每一图像中确定相同的分析区域(如图6所示的虚线框);
针对视频中每一图像的分析区域,可提取G通道和B通道内各像素的平均值;
根据视频中所有图像的分析区域中G通道像素平均值随时间变化的曲线,以及B通道像素平均值随时间变化的曲线,获得人体的心率变化曲线。
本实施例中的头戴式可穿戴设备可应用各种场景,如测谎场景,相亲场景、问答场景等。
在本发明实施例的第三方面,本发明实施例还提供一种头戴式可穿戴设备的信息处理装置,如图7所示,本实施例的头戴式可穿戴设备的信息处理装置包括:获取单元71、处理单元72、分析单元73、输出单元74;
其中,获取单元71用于获取谈话对象的图像信息,所述图像信息包括:谈话对象的面部图像和肢体图像;
处理单元72用于对所述肢体图像进行分析,获取行为分析结果;以及对所述面部图像进行分析,获取心率分析结果和瞳孔分析结果;
分析单元73用于根据所述行为分析结果、心率分析结果和瞳孔分析结果,确定所述谈话对象的谈话内容输出结果;
输出单元74用于将所述谈话内容输出结果输出至所述头戴式可穿戴设备的使用者。
举例来说,前述的处理单元72用于对所述肢体图像进行分析,获取行为分析结果,可具体说明如下:
将当前时间点的肢体图像与第一时间点的肢体图像进行比较;
若所述当前时间点的肢体图像相对于所述第一时间点的肢体图像接近所述使用者,则确定所述谈话者对当前谈话内容感兴趣,获得行为分析结果;
其中,所述第一时间点为与当前时间点间隔预设时长的时间点。
此外,前述的处理单元72用于对所述面部图像进行分析,获取心率分析结果和瞳孔分析结果,可具体说明如下:
采用非接触式脉搏血氧定量分析法对所述面部图像进行分析,获取心率分析结果;
获取当前时间点的面部图像中的瞳孔区域,以及第二时间点的面部图像中的瞳孔区域;
将当前时间点的瞳孔区域与第二时间点的区域进行比较,获得所述瞳孔分析结果;
其中,所述第二时间点为与当前时间点间隔预设时间段的时间点。
进一步地,前述的分析单元73可具体用于
所述行为分析结果、心率分析结果和瞳孔分析结果中有至少两个结果为正向结果,则确定所述谈话对象的谈话内容输出结果为正向结果;
或者,根据预先确定的各分析结果的权重系数,将各分析结果与各自的权重系数相乘,再将各相乘的结果相加,获得所述谈话对象的谈话内容输出结果;
或者,获取所有分析结果的平均值,将所述平均值作为所述谈话对象的谈话内容输出结果。
另外,在一种可选的实现场景中,前述的头戴式可穿戴设备的信息处理装置还可包括下述的图中未示出的接收单元;
该接收单元用于在处理单元72对肢体图像和面部图像进行分析之前,接收用户的选择指令;
相应地,处理单元72的行为分析结果为对所述谈话内容是否感兴趣的行为分析结果,所述心率分析结果为对所述谈话内容是否感兴趣的心率分析结果,所述瞳孔分析结果为,对所述谈话内容是否感兴趣的瞳孔分析结果;
在第二种可选的实现场景中,该接收单元用于在处理单元72对肢体图像和面部图像进行分析之前,接收用户的可信度分析指令,
相应地,处理单元72的行为分析结果为该谈话内容的可信率的行为分析结果;所述心率分析结果为该谈话内容的可信率的心率分析结果,所述瞳孔分析结果为该谈话内容的可信率的瞳孔分析结果。
在具体实现过程中,本实施例的头戴式可穿戴设备的信息处理装置可通过计算机软件方式实现,可集成在头戴式可穿戴设备的某一实体结构中,进而实现上述过程。当然,结合前述图1和图2所示的头戴式可穿戴设备的结构,本实施例的信息处理装置也可通过实体电路结构实现,本实施例不对其进行限定,根据具体情况进行处理。
本领域普通技术人员可以理解:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明权利要求所限定的范围。

Claims (20)

1.一种头戴式可穿戴设备,其特征在于,包括:
用于获取谈话对象的面部图像和肢体图像的图像获取器;
与图像获取器连接的控制器,用于对所述面部图像和肢体图像进行分析,并获得分析结果;所述分析结果包括谈话对象的谈话可信度;
与所述控制器连接的输出模块,用于将所述分析结果输出。
2.根据权利要求1所述的设备,其特征在于,所述图像获取器为用于采集谈话对象的面部图像和肢体图像的第一摄像头;
或者,所述图像获取器包括:用于采集谈话对象的肢体图像的第二摄像头,和用于接收谈话对象的头戴式可穿戴设备发送的谈话对象的面部图像的接收器。
3.根据权利要求2所述的设备,其特征在于,所述第一摄像头和/或第二摄像头为双目摄像头。
4.根据权利要求1所述的设备,其特征在于,所述输出模块为用于显示分析结果的显示屏;或者,所述输出模块为用于语音播放所述分析结果的语音播放器。
5.根据权利要求1所述的设备,其特征在于,所述头戴式可穿戴设备为智能眼镜。
6.根据权利要求5所述的设备,其特征在于,所述智能眼镜还包括:眼镜本体,所述图像获取器、所述控制器和所述输出模块均位于所述眼镜本体上。
7.根据权利要求1所述的设备,其特征在于,所述分析结果包括:对所述肢体图像进行分析获取的行为分析结果,以及对所述面部图像进行分析获取的心率分析结果和瞳孔分析结果。
8.根据权利要求1至7任一所述的设备,其特征在于,所述头戴式可穿戴设备还包括:
连接所述控制器的选择模块,用于接收使用者的选择指令,以使控制器获取与所述选择指令对应的分析结果。
9.根据权利要求8所述的设备,其特征在于,所述选择模块包括第一选择模块,用于接收使用者的兴趣分析指令;以及第二选择模块,用于接收使用者的可信度分析指令。
10.根据权利要求1至7任一所述的设备,其特征在于,所述头戴式可穿戴设备还包括:
与所述控制器连接的无线模块,用于与网络设备通过无线网络交互信息;
和/或,与所述控制器连接的GPS模块,用于对头戴式可穿戴设备进行定位;
和/或,与所述控制器连接用于采集头戴式可穿戴设备的使用者的面部图像的图像采集器、与所述控制器连接的用于发送图像采集器采集的图像的发送器。
11.一种头戴式可穿戴设备的信息处理方法,其特征在于,包括:
获取谈话对象的图像信息,所述图像信息包括:谈话对象的面部图像和肢体图像;
对所述肢体图像进行分析,获取行为分析结果;以及对所述面部图像进行分析,获取心率分析结果和瞳孔分析结果;
根据所述行为分析结果、心率分析结果和瞳孔分析结果,确定所述谈话对象的谈话内容输出结果;所述谈话内容输出结果包括谈话对象的谈话可信度;
将所述谈话内容输出结果输出至所述头戴式可穿戴设备的使用者。
12.根据权利要求11所述的方法,其特征在于,对所述肢体图像进行分析之前,所述方法还包括:接收选择指令的步骤,
若接收的选择指令为兴趣分析指令,则行为分析结果为对所述谈话内容是否感兴趣的行为分析结果;所述心率分析结果为对所述谈话内容是否感兴趣的心率分析结果,所述瞳孔分析结果为,对所述谈话内容是否感兴趣的瞳孔分析结果;
若接收的选择指令为可信度分析指令,则行为分析结果为该谈话内容的可信率的行为分析结果;所述心率分析结果为该谈话内容的可信率的心率分析结果,所述瞳孔分析结果为该谈话内容的可信率的瞳孔分析结果。
13.根据权利要求11所述的方法,其特征在于,对所述肢体图像进行分析,获取行为分析结果,具体包括:
将当前时间点的肢体图像与第一时间点的肢体图像进行比较;
若所述当前时间点的肢体图像相对于所述第一时间点的肢体图像接近所述使用者,则确定所述谈话者对当前谈话内容感兴趣,获得行为分析结果;
其中,所述第一时间点为与当前时间点间隔预设时长的时间点。
14.根据权利要求11所述的方法,其特征在于,对所述面部图像进行分析,获取心率分析结果和瞳孔分析结果,具体包括:
采用非接触式脉搏血氧定量分析法对所述面部图像进行分析,获取心率分析结果;
获取当前时间点的面部图像中的瞳孔区域,以及第二时间点的面部图像中的瞳孔区域;
将当前时间点的瞳孔区域与第二时间点的区域进行比较,获得所述瞳孔分析结果;
其中,所述第二时间点为与当前时间点间隔预设时间段的时间点。
15.根据权利要求11所述的方法,其特征在于,根据所述行为分析结果、心率分析结果和瞳孔分析结果,确定所述谈话对象的谈话内容输出结果,具体包括:
所述行为分析结果、心率分析结果和瞳孔分析结果中有至少两个结果为正向结果,则确定所述谈话对象的谈话内容输出结果为正向结果;
或者,
根据预先确定的各分析结果的权重系数,将各分析结果与各自的权重系数相乘,再将各相乘的结果相加,获得所述谈话对象的谈话内容输出结果;
或者,
获取所有分析结果的平均值,将所述平均值作为所述谈话对象的谈话内容输出结果。
16.一种头戴式可穿戴设备的信息处理装置,其特征在于,包括:
获取单元,用于获取谈话对象的图像信息,所述图像信息包括:谈话对象的面部图像和肢体图像;
处理单元,用于对所述肢体图像进行分析,获取行为分析结果;以及对所述面部图像进行分析,获取心率分析结果和瞳孔分析结果;
分析单元,用于根据所述行为分析结果、心率分析结果和瞳孔分析结果,确定所述谈话对象的谈话内容输出结果;所述谈话内容输出结果包括谈话对象的谈话可信度;
输出单元,用于将所述谈话内容输出结果输出至所述头戴式可穿戴设备的使用者。
17.根据权利要求16所述的装置,其特征在于,所述装置还包括:
接收单元,用于在处理单元对肢体图像和面部图像进行分析之前,接收用户的选择指令;
若所述选择指令为兴趣分析指令,处理单元的行为分析结果为对所述谈话内容是否感兴趣的行为分析结果,所述心率分析结果为对所述谈话内容是否感兴趣的心率分析结果,所述瞳孔分析结果为,对所述谈话内容是否感兴趣的瞳孔分析结果;
若所述选择指令为可信度分析指令,处理单元的行为分析结果为该谈话内容的可信率的行为分析结果;所述心率分析结果为该谈话内容的可信率的心率分析结果,所述瞳孔分析结果为该谈话内容的可信率的瞳孔分析结果。
18.根据权利要求16所述的装置,其特征在于,所述处理单元,具体用于
将当前时间点的肢体图像与第一时间点的肢体图像进行比较;
若所述当前时间点的肢体图像相对于所述第一时间点的肢体图像接近所述使用者,则确定所述谈话者对当前谈话内容感兴趣,获得行为分析结果;
其中,所述第一时间点为与当前时间点间隔预设时长的时间点。
19.根据权利要求16所述的装置,其特征在于,所述处理单元,具体用于
采用非接触式脉搏血氧定量分析法对所述面部图像进行分析,获取心率分析结果;
获取当前时间点的面部图像中的瞳孔区域,以及第二时间点的面部图像中的瞳孔区域;
将当前时间点的瞳孔区域与第二时间点的区域进行比较,获得所述瞳孔分析结果;
其中,所述第二时间点为与当前时间点间隔预设时间段的时间点。
20.根据权利要求16所述的装置,其特征在于,所述分析单元,具体用于
所述行为分析结果、心率分析结果和瞳孔分析结果中有至少两个结果为正向结果,则确定所述谈话对象的谈话内容输出结果为正向结果;
或者,
根据预先确定的各分析结果的权重系数,将各分析结果与各自的权重系数相乘,再将各相乘的结果相加,获得所述谈话对象的谈话内容输出结果;
或者,
获取所有分析结果的平均值,将所述平均值作为所述谈话对象的谈话内容输出结果。
CN201510609800.8A 2015-09-22 2015-09-22 头戴式可穿戴设备及其信息处理方法、装置 Active CN105183170B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201510609800.8A CN105183170B (zh) 2015-09-22 2015-09-22 头戴式可穿戴设备及其信息处理方法、装置
US15/326,114 US10325144B2 (en) 2015-09-22 2016-02-05 Wearable apparatus and information processing method and device thereof
PCT/CN2016/073629 WO2017049843A1 (zh) 2015-09-22 2016-02-05 可穿戴设备及其信息处理方法、信息处理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510609800.8A CN105183170B (zh) 2015-09-22 2015-09-22 头戴式可穿戴设备及其信息处理方法、装置

Publications (2)

Publication Number Publication Date
CN105183170A CN105183170A (zh) 2015-12-23
CN105183170B true CN105183170B (zh) 2018-09-25

Family

ID=54905296

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510609800.8A Active CN105183170B (zh) 2015-09-22 2015-09-22 头戴式可穿戴设备及其信息处理方法、装置

Country Status (3)

Country Link
US (1) US10325144B2 (zh)
CN (1) CN105183170B (zh)
WO (1) WO2017049843A1 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105183170B (zh) 2015-09-22 2018-09-25 京东方科技集团股份有限公司 头戴式可穿戴设备及其信息处理方法、装置
CN107625527B (zh) * 2016-07-19 2021-04-20 杭州海康威视数字技术股份有限公司 一种测谎方法及装置
CN106236062B (zh) * 2016-08-09 2019-10-29 浙江大学 一种实时监测警员生命体征和执勤现场状况的警用设备
US20180160959A1 (en) * 2016-12-12 2018-06-14 Timothy James Wilde Modular electronic lie and emotion detection systems, methods, and devices
CN107396849A (zh) * 2017-07-28 2017-11-28 深圳市沃特沃德股份有限公司 获取宠物喜好的方法及装置及宠物穿戴设备
US11119573B2 (en) * 2018-09-28 2021-09-14 Apple Inc. Pupil modulation as a cognitive control signal
CN109829927B (zh) * 2019-01-31 2020-09-01 深圳职业技术学院 一种电子眼镜及高空景象图像重建方法
US11386804B2 (en) * 2020-05-13 2022-07-12 International Business Machines Corporation Intelligent social interaction recognition and conveyance using computer generated prediction modeling

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001056007A1 (en) * 2000-01-28 2001-08-02 Intersense, Inc. Self-referenced tracking
GB2400667B (en) * 2003-04-15 2006-05-31 Hewlett Packard Development Co Attention detection
JP4367663B2 (ja) * 2007-04-10 2009-11-18 ソニー株式会社 画像処理装置、画像処理方法、プログラム
US20160191995A1 (en) * 2011-09-30 2016-06-30 Affectiva, Inc. Image analysis for attendance query evaluation
US20130245396A1 (en) * 2010-06-07 2013-09-19 Affectiva, Inc. Mental state analysis using wearable-camera devices
US20170095192A1 (en) * 2010-06-07 2017-04-06 Affectiva, Inc. Mental state analysis using web servers
US20130137076A1 (en) * 2011-11-30 2013-05-30 Kathryn Stone Perez Head-mounted display based education and instruction
CN103941574A (zh) 2014-04-18 2014-07-23 邓伟廷 智能眼镜
US10712897B2 (en) * 2014-12-12 2020-07-14 Samsung Electronics Co., Ltd. Device and method for arranging contents displayed on screen
US9972216B2 (en) * 2015-03-20 2018-05-15 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for storing and playback of information for blind users
CN104820495B (zh) * 2015-04-29 2019-06-21 姜振宇 一种异常微表情识别与提醒方法及装置
CN105183170B (zh) 2015-09-22 2018-09-25 京东方科技集团股份有限公司 头戴式可穿戴设备及其信息处理方法、装置

Also Published As

Publication number Publication date
US20170262696A1 (en) 2017-09-14
WO2017049843A1 (zh) 2017-03-30
CN105183170A (zh) 2015-12-23
US10325144B2 (en) 2019-06-18

Similar Documents

Publication Publication Date Title
CN105183170B (zh) 头戴式可穿戴设备及其信息处理方法、装置
US11580983B2 (en) Sign language information processing method and apparatus, electronic device and readable storage medium
JP6574937B2 (ja) 通信システム、制御方法、および記憶媒体
CN110326300B (zh) 信息处理设备、信息处理方法及计算机可读存储介质
JP6760271B2 (ja) 情報処理装置、情報処理方法およびプログラム
WO2021036318A1 (zh) 一种视频图像处理方法及装置
CN104820495B (zh) 一种异常微表情识别与提醒方法及装置
WO2017130486A1 (ja) 情報処理装置、情報処理方法およびプログラム
TW201327449A (zh) 用以將虛擬的社交網路帶入至真實生活中之社交系統及方法
US20150170674A1 (en) Information processing apparatus, information processing method, and program
EP4270245A1 (en) User determination method, electronic device, and computer-readable storage medium
KR102263154B1 (ko) 스마트 미러 기반 얼굴 감성 표현 시스템 및 그 운용방법
CN108401129A (zh) 基于穿戴式设备的视频通话方法、装置、终端及存储介质
EP3087727B1 (en) An emotion based self-portrait mechanism
CN104702848B (zh) 显示取景信息的方法及装置
CN108898058A (zh) 心理活动的识别方法、智能领带及存储介质
CN112836685A (zh) 一种辅助阅读方法、***及存储介质
US10643636B2 (en) Information processing apparatus, information processing method, and program
CN108509863A (zh) 信息提示方法、装置和电子设备
CN104809440A (zh) 一种异常视线停驻的识别与提醒方法及装置
Valeriani et al. Towards a wearable device for controlling a smartphone with eye winks
CN111698600A (zh) 一种处理执行方法、装置及可读介质
KR20210070119A (ko) 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템
CN115700847A (zh) 绘本阅读方法及相关设备
CN104809439B (zh) 一种异常眨眼动作的识别与提醒方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant