CN109199411A - 基于模型融合的案件知情者识别方法 - Google Patents

基于模型融合的案件知情者识别方法 Download PDF

Info

Publication number
CN109199411A
CN109199411A CN201811135018.7A CN201811135018A CN109199411A CN 109199411 A CN109199411 A CN 109199411A CN 201811135018 A CN201811135018 A CN 201811135018A CN 109199411 A CN109199411 A CN 109199411A
Authority
CN
China
Prior art keywords
twitching
eyelid
testee
duration
attentively
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811135018.7A
Other languages
English (en)
Other versions
CN109199411B (zh
Inventor
唐闺臣
梁瑞宇
谢跃
徐梦圆
叶超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Institute of Technology
Original Assignee
Nanjing Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Institute of Technology filed Critical Nanjing Institute of Technology
Priority to CN201811135018.7A priority Critical patent/CN109199411B/zh
Publication of CN109199411A publication Critical patent/CN109199411A/zh
Application granted granted Critical
Publication of CN109199411B publication Critical patent/CN109199411B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1103Detecting eye twinkling
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Animal Behavior & Ethology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Evolutionary Biology (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Fuzzy Systems (AREA)
  • Human Computer Interaction (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Dentistry (AREA)

Abstract

本发明公开了一种基于模型融合的案件知情者识别方法,包括以下步骤,提取各个被测试者在观看单一图片时的32维眼动特征;基于32维眼动特征训练支撑向量机模型A,来识别每个被测试者在单一图片时的言语置信度,并输出每个被测试者在单一图片时的概率f1(xi)和f2(xi);提取各个被测试者在观看组合图片时的110维眼动特征;基于110维眼动特征训练支撑向量机模型B,来识别每个被测试者在组合图片时的言语置信度,并输出每个被测试者在组合图片时的概率g1(xi)和g2(xi);运用乘法规则,融合支撑向量机模型A和B的分类器概率,得到联合概率,取各个被测试者的概率最大的类别为最后的决策结果。本发明可以有效抑制反测谎手段,提高了算法效率。

Description

基于模型融合的案件知情者识别方法
技术领域
本发明涉及刑侦审讯分析技术领域,具体涉及一种基于模型融合的案件知情者识别方法。
背景技术
在刑侦背景下,审讯犯罪嫌疑人的关键在于对犯罪嫌疑人的异常情绪进行评测,即所谓″测谎″。审讯人员通过观察犯罪嫌疑人的表现判断其心理状态,并针对其言语中的漏洞,采用一些审讯技巧,突破犯罪嫌疑人的心理防线,迫使其说出事实真相。但是,正常人的测谎能力近乎于猜测,通常依靠直觉判断,因此,准确率仅比随机概率高一点点,而且通常还要依靠少数有丰富经验的审讯专家,这显然是耗时而低效的。
由于人在说谎时的心理变化会引起一些生理参数(如皮肤电、心跳、血压、呼吸脑电波、声音等)的变化,因此,通过检测这些变化来评估被测者是否案件知情是一种有效的辅助手段。在早期的研究中,利用多道生理仪对犯罪嫌疑人进行案件知情识别是最常用的方法之一。但是,多道生理仪所采用的生理指标经常受到各种因素的影响,包括人的身体机能、心理状态、任务刺激强度以及测谎员能力等。
近年来,随着脑认知神经技术的发展,研究人员能够直接观察撒谎行为发生时内部相关脑区的神经活动,与依靠外部生理活动变化的传统的测谎技术相比更加客观,更能揭示撒谎活动的内部规律,成为测谎技术发展方向之一。然而,此类技术所需的专业设备庞大而贵重,限制了其实用性,而且也有相应的反测谎手段影响测试结果。
由此可知,基于上述生理信号的测谎技术,在实际实用上仍然存在一些亟待改进的地方,主要原因在于:1)被测者的配合程度,绝大多数的生理学测谎方法,在采集生理参数比如心电、皮电活动、血压、脑电波等时,都需要将接触式传感仪的电极或传感器贴片贴在被测人的身体某处,需要被测者必须主观配合,否则,被测者可采用隐蔽性的反测谎技术(如动脚趾、胡思乱想等)来干扰测试结果;2)测量手段的隐蔽性,情绪压力在测谎中具有重要的研究意义,但是,明显的测试设备本身就会给患者造成一定的额外压力,该情况下的情绪波动带来的测量影响是难以估计的。虽然语音测谎技术具有一定的隐蔽性,但是语音易受外部环境影响,比如方言、口音、插话等,技术难度较大,目前研究刚刚起步。因此,有效的测谎应该具有非接触性,强隐蔽性,且所分析信号便于采集和处理的特点。
由此可见,上述现有的案件知情者识别方法,仍存在有不便与缺陷,而亟待加以进一步改进。为了解决案件知情者识别方法存在的问题,相关领域技术人员莫不费尽心思来谋求解决之道,但长久以来一直未见适用的方法被发展完成,而一般案件知情者识别算法又不能适切的解决上述问题,此显然是相关业者急欲解决的问题。相对于其它反测谎手段来说,一些眼动指标不受人意识控制,有意控制某些眼动指标反而会出现指标异常。因此,用眼动指标进行案件知情者识别具有一定的可行性,如何实现时当前需要解决的问题。
发明内容
为了克服现有技术中案件知情者识别方法,存在的不便与缺陷。本发明的基于模型融合的案件知情者识别方法,解决现有技术中的案件知情者识别方法受检测人配合程度制约、测试方法不隐秘,测试效率低等技术问题,采用眼动数据进行案件知情者识别,可以有效抑制反测谎手段,并采用32眼动特征和110维眼动特征模型融合算法,有效利用了不同模式下的被试心理表现,提高了算法效率,方法巧妙新颖,识别精确度高,具有良好的应用前景。
为了达到上述目的,本发明所采用的技术方案是:
一种基于模型融合的案件知情者识别方法,包括以下步骤,
步骤(A),提取各个被测试者在观看单一图片时的32维眼动特征;
步骤(B),基于32维眼动特征训练支撑向量机模型A,来识别每个被测试者在单一图片时的言语置信度,并输出每个被测试者在单一图片时的概率f1(xi)和f2(xi),其中,xi代表第i个被测试者,f1和f2分别表示第i个被测试者在单一图片时是知情者或者不是知情者的概率;
步骤(C),提取各个被测试者在观看组合图片时的110维眼动特征;
步骤(D),基于110维眼动特征训练支撑向量机模型B,来识别每个被测试者在组合图片时的言语置信度,并输出每个被测试者在组合图片时的概率g1(xi)和g2(xi),其中,xi代表第i个被测试者,g1和g2分别表示第i个被测试者在组合图片时是知情者或者不是知情者的概率;
步骤(E),运用乘法规则,融合支撑向量机模型A和B的分类器概率,得到联合概率f1(xi)g1(xi)和f2(xi)g2(xi),取各个被测试者概率最大对应的的类别为最后的决策结果。
前述的基于模型融合的案件知情者识别方法,步骤(A),所述32维眼动特征,包括眨眼统计量6项:眨眼次数、眨眼频率、眨眼总持续时间、平均眨眼时长、眨眼持续时长最大值、眨眼持续时长最小值;注视统计量11项:注视次数、注视频率、注视总时长、平均注视时长、注视时长最大值、注视时长最小值、总注视偏差、平均注视偏差、最大注视偏差、最小注视偏差、扫视路径长度;眼跳统计量15项:眼跳次数、眼跳频率、眼跳总时长、眼跳平均时长、眼跳时长最大值、眼跳时长最小值、总的眼跳幅度、平均眼跳幅度、最大眼跳幅度、最小眼跳幅度、总眼跳速度、平均眼跳速度、眼跳最大速度、眼跳最小速度、平均眼跳延迟时间。
前述的基于模型融合的案件知情者识别方法,步骤(C),所述110维眼动特征是指组合图片上分10个区,每个区有11维特征,包括兴趣区中注视时间总和Net Dwell Time、兴趣区中注视与眼跳时间之和Dwell Time、进入兴趣区的眼跳时间与Dwell time之和GlanceDuration、离开兴趣区的眼跳时间与Glance Duration之和、首次注视时长、眼跳从其他区域跳到该区域的次数、注视次数、兴趣区中注视时间总和Net Dwell Time占总时间的比例、兴趣区中注视与眼跳时间之和Dwell Time占总时间的比例、总注视时长、总注视占总时间的比例。
本发明的有益效果是:本发明的基于模型融合的案件知情者识别方法,解决现有技术中的案件知情者识别方法受检测人配合程度制约、测试方法不隐秘,测试效率低等技术问题,采用眼动数据进行案件知情者识别,可以有效抑制反测谎手段,并采用32眼动特征和110维眼动特征模型融合算法,有效利用了不同模式下的被试心理表现,提高了算法效率,方法巧妙新颖,识别精确度高,具有良好的应用前景。
附图说明
图1是本发明的基于眼动数据分析的异常情绪识别方法的流程图。
具体实施方式
下面将结合说明书附图,对本发明作进一步的说明。
如图1所示,本发明的基于模型融合的案件知情者识别方法,包括以下步骤,
步骤(A),提取各个被测试者在观看单一图片时的32维眼动特征,所述32维眼动特征,包括眨眼统计量6项:眨眼次数、眨眼频率、眨眼总持续时间、平均眨眼时长、眨眼持续时长最大值、眨眼持续时长最小值;注视统计量11项:注视次数、注视频率、注视总时长、平均注视时长、注视时长最大值、注视时长最小值、总注视偏差、平均注视偏差、最大注视偏差、最小注视偏差、扫视路径长度;眼跳统计量15项:眼跳次数、眼跳频率、眼跳总时长、眼跳平均时长、眼跳时长最大值、眼跳时长最小值、总的眼跳幅度、平均眼跳幅度、最大眼跳幅度、最小眼跳幅度、总眼跳速度、平均眼跳速度、眼跳最大速度、眼跳最小速度、平均眼跳延迟时间;
步骤(B),基于32维眼动特征训练支撑向量机(SVM)模型A,来识别每个被测试者在单一图片时的言语置信度,并输出每个被测试者在单一图片时的概率f1(xi)和f2(xi),其中,xi代表第i个被测试者,f1和f2分别表示第i个被测试者在单一图片时是知情者或者不是知情者的概率;
步骤(C),提取各个被测试者在观看组合图片时的110维眼动特征,所述110维眼动特征是指组合图片上分10个区,每个区有11维特征,包括兴趣区中注视时间总和Net DwellTime、兴趣区中注视与眼跳时间之和Dwell Time、进入兴趣区的眼跳时间与Dwell time之和Glance Duration、离开兴趣区的眼跳时间与Glance Duration之和、首次注视时长、眼跳从其他区域跳到该区域的次数、注视次数、兴趣区中注视时间总和Net Dwell Time占总时间的比例、兴趣区中注视与眼跳时间之和Dwell Time占总时间的比例、总注视时长、总注视占总时间的比例;
步骤(D),基于110维眼动特征训练支撑向量机模型B,来识别每个被测试者在组合图片时的言语置信度,并输出每个被测试者在组合图片时的概率g1(xi)和g2(xi),其中,xi代表第i个被测试者,g1和g2分别表示第i个被测试者在组合图片时是知情者或者不是知情者的概率;
步骤(E),运用乘法规则,融合支撑向量机模型A和B的分类器概率,得到联合概率f1(xi)g1(xi)和f2(xi)g2(xi),取各个被测试者的概率最大时对应的类别为最后的决策结果,该最后的决策结果即为案件知情者识别结果。
本发明的基于模型融合的案件知情者识别方法,识别效果如表1所示,对比算法包括支撑向量机(SVM)、人工神经网络(ANN)、决策树(DT)和随机森林(RF),从表1中可知,对于单一图片来说,RF算法最高,ANN算法最低;而对于组合图片来说,ANN算法最高,RF算法最低,相对来说,SVM算法和DT算法的识别率适中,适合两种模型,采用模型融合策略后,支撑向量机(SVM)的识别率可达到86.1%,针对两种模式的最高识别率分别提高9.2%和17.6%,因此,运用乘法规则,融合支撑向量机模型A和B的分类器概率,得到联合概率f1(xi)g1(xi)和f2(xi)g2(xi),取各个被测试者的概率最大时对应的类别为最后的决策结果,能够大大提高决策结果的准确性,而且,本发明的32眼动特征和110维眼动特征的选择十分合理,能够准确的反应眼动过程中的所有指标。
表1两种模式下的算法识别率对比
综上所述,本发明的基于模型融合的案件知情者识别方法,解决现有技术中的案件知情者识别方法受检测人配合程度制约、测试方法不隐秘,测试效率低等技术问题,采用眼动数据进行案件知情者识别,可以有效抑制反测谎手段,并采用32眼动特征和110维眼动特征模型融合算法,有效利用了不同模式下的被试心理表现,提高了算法效率,方法巧妙新颖,识别精确度高,具有良好的应用前景。
以上显示和描述了本发明的基本原理、主要特征及优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

Claims (3)

1.基于模型融合的案件知情者识别方法,其特征在于:包括以下步骤,
步骤(A),提取各个被测试者在观看单一图片时的32维眼动特征;
步骤(B),基于32维眼动特征训练支撑向量机模型A,来识别每个被测试者在单一图片时的言语置信度,并输出每个被测试者在单一图片时的概率f1(xi)和f2(xi),其中,xi代表第i个被测试者,f1和f2分别表示第i个被测试者在单一图片时是知情者或者不是知情者的概率;
步骤(C),提取各个被测试者在观看组合图片时的110维眼动特征;
步骤(D),基于110维眼动特征训练支撑向量机模型B,来识别每个被测试者在组合图片时的言语置信度,并输出每个被测试者在组合图片时的概率g1(xi)和g2(xi),其中,xi代表第i个被测试者,g1和g2分别表示第i个被测试者在组合图片时是知情者或者不是知情者的概率;
步骤(E),运用乘法规则,融合支撑向量机模型A和B的分类器概率,得到联合概率f1(xi)g1(xi)和f2(xi)g2(xi),取各个被测试者概率最大对应的的类别为最后的决策结果。
2.根据权利要求1所述的基于模型融合的案件知情者识别方法,其特征在于:步骤(A),所述32维眼动特征,包括眨眼统计量6项:眨眼次数、眨眼频率、眨眼总持续时间、平均眨眼时长、眨眼持续时长最大值、眨眼持续时长最小值;注视统计量11项:注视次数、注视频率、注视总时长、平均注视时长、注视时长最大值、注视时长最小值、总注视偏差、平均注视偏差、最大注视偏差、最小注视偏差、扫视路径长度;眼跳统计量15项:眼跳次数、眼跳频率、眼跳总时长、眼跳平均时长、眼跳时长最大值、眼跳时长最小值、总的眼跳幅度、平均眼跳幅度、最大眼跳幅度、最小眼跳幅度、总眼跳速度、平均眼跳速度、眼跳最大速度、眼跳最小速度、平均眼跳延迟时间。
3.根据权利要求1所述的基于模型融合的案件知情者识别方法,其特征在于:步骤(C),所述110维眼动特征是指组合图片上分10个区,每个区有11维特征,包括兴趣区中注视时间总和Net Dwell Time、兴趣区中注视与眼跳时间之和Dwell Time、进入兴趣区的眼跳时间与Dwell time之和Glance Duration、离开兴趣区的眼跳时间与Glance Duration之和、首次注视时长、眼跳从其他区域跳到该区域的次数、注视次数、兴趣区中注视时间总和NetDwell Time占总时间的比例、兴趣区中注视与眼跳时间之和Dwell Time占总时间的比例、总注视时长、总注视占总时间的比例。
CN201811135018.7A 2018-09-28 2018-09-28 基于模型融合的案件知情者识别方法 Active CN109199411B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811135018.7A CN109199411B (zh) 2018-09-28 2018-09-28 基于模型融合的案件知情者识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811135018.7A CN109199411B (zh) 2018-09-28 2018-09-28 基于模型融合的案件知情者识别方法

Publications (2)

Publication Number Publication Date
CN109199411A true CN109199411A (zh) 2019-01-15
CN109199411B CN109199411B (zh) 2021-04-09

Family

ID=64981889

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811135018.7A Active CN109199411B (zh) 2018-09-28 2018-09-28 基于模型融合的案件知情者识别方法

Country Status (1)

Country Link
CN (1) CN109199411B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110327061A (zh) * 2019-08-12 2019-10-15 北京七鑫易维信息技术有限公司 一种基于眼动追踪技术的性格确定装置、方法及设备
CN110693509A (zh) * 2019-10-17 2020-01-17 中国人民公安大学 一种案件相关性确定方法、装置、计算机设备和存储介质
CN110956143A (zh) * 2019-12-03 2020-04-03 交控科技股份有限公司 一种异常行为检测方法、装置、电子设备及存储介质
CN111568367A (zh) * 2020-05-14 2020-08-25 中国民航大学 一种识别和量化眼跳入侵的方法

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005047211A1 (de) * 2005-10-01 2007-04-05 Carl Zeiss Meditec Ag Vorrichtung und Verfahren zum Erfassen von Augenbewegungen
CN101098241A (zh) * 2006-06-26 2008-01-02 腾讯科技(深圳)有限公司 虚拟形象实现方法及其***
WO2009116043A1 (en) * 2008-03-18 2009-09-24 Atlas Invest Holdings Ltd. Method and system for determining familiarity with stimuli
US7792335B2 (en) * 2006-02-24 2010-09-07 Fotonation Vision Limited Method and apparatus for selective disqualification of digital images
CN202060785U (zh) * 2011-03-31 2011-12-07 上海天岸电子科技有限公司 人眼瞳孔测谎仪
CN202472688U (zh) * 2011-12-03 2012-10-03 辽宁科锐科技有限公司 基于眼球特征的审讯辅助研判分析仪
CN103116763A (zh) * 2013-01-30 2013-05-22 宁波大学 一种基于hsv 颜色空间统计特征的活体人脸检测方法
CN103211605A (zh) * 2013-05-14 2013-07-24 重庆大学 一种心理测试***及心理测试方法
CN203379122U (zh) * 2013-07-26 2014-01-08 蔺彬涛 无线脑电及眼动测谎仪
CN105147248A (zh) * 2015-07-30 2015-12-16 华南理工大学 基于生理信息的抑郁症评估***及其评估方法
US20160132726A1 (en) * 2014-05-27 2016-05-12 Umoove Services Ltd. System and method for analysis of eye movements using two dimensional images
CN206285117U (zh) * 2016-08-31 2017-06-30 北京新科永创科技有限公司 智能审讯终端
CN106999111A (zh) * 2014-10-01 2017-08-01 纽洛斯公司 用于检测不可见人类情感的***和方法
CN107480716A (zh) * 2017-08-15 2017-12-15 安徽大学 一种结合eog和视频的扫视信号识别方法及***
WO2018005594A1 (en) * 2016-06-28 2018-01-04 Google Llc Eye gaze tracking using neural networks
CN108108715A (zh) * 2017-12-31 2018-06-01 厦门大学 基于生物启发和深度属性学习相结合的人脸美感预测方法
US20180268733A1 (en) * 2017-03-15 2018-09-20 International Business Machines Corporation System and method to teach and evaluate image grading performance using prior learned expert knowledge base
CN109063551A (zh) * 2018-06-20 2018-12-21 新华网股份有限公司 讲话真实度测试方法和***

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005047211A1 (de) * 2005-10-01 2007-04-05 Carl Zeiss Meditec Ag Vorrichtung und Verfahren zum Erfassen von Augenbewegungen
US7792335B2 (en) * 2006-02-24 2010-09-07 Fotonation Vision Limited Method and apparatus for selective disqualification of digital images
CN101098241A (zh) * 2006-06-26 2008-01-02 腾讯科技(深圳)有限公司 虚拟形象实现方法及其***
WO2009116043A1 (en) * 2008-03-18 2009-09-24 Atlas Invest Holdings Ltd. Method and system for determining familiarity with stimuli
CN202060785U (zh) * 2011-03-31 2011-12-07 上海天岸电子科技有限公司 人眼瞳孔测谎仪
CN202472688U (zh) * 2011-12-03 2012-10-03 辽宁科锐科技有限公司 基于眼球特征的审讯辅助研判分析仪
CN103116763A (zh) * 2013-01-30 2013-05-22 宁波大学 一种基于hsv 颜色空间统计特征的活体人脸检测方法
CN103211605A (zh) * 2013-05-14 2013-07-24 重庆大学 一种心理测试***及心理测试方法
CN203379122U (zh) * 2013-07-26 2014-01-08 蔺彬涛 无线脑电及眼动测谎仪
US20160132726A1 (en) * 2014-05-27 2016-05-12 Umoove Services Ltd. System and method for analysis of eye movements using two dimensional images
CN106999111A (zh) * 2014-10-01 2017-08-01 纽洛斯公司 用于检测不可见人类情感的***和方法
CN105147248A (zh) * 2015-07-30 2015-12-16 华南理工大学 基于生理信息的抑郁症评估***及其评估方法
WO2018005594A1 (en) * 2016-06-28 2018-01-04 Google Llc Eye gaze tracking using neural networks
CN206285117U (zh) * 2016-08-31 2017-06-30 北京新科永创科技有限公司 智能审讯终端
US20180268733A1 (en) * 2017-03-15 2018-09-20 International Business Machines Corporation System and method to teach and evaluate image grading performance using prior learned expert knowledge base
CN107480716A (zh) * 2017-08-15 2017-12-15 安徽大学 一种结合eog和视频的扫视信号识别方法及***
CN108108715A (zh) * 2017-12-31 2018-06-01 厦门大学 基于生物启发和深度属性学习相结合的人脸美感预测方法
CN109063551A (zh) * 2018-06-20 2018-12-21 新华网股份有限公司 讲话真实度测试方法和***

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
C. MENG AND X. ZHAO: "Webcam-Based Eye Movement Analysis Using CNN", 《IEEE ACCESS》 *
DAVID A. LEOPOLD等: "Multistable phenomena:changing views in perception", 《TRENDS IN COGNITIVE SCIENCES》 *
任延涛 等: "基于眼运动追踪技术的测谎模式构建", 《中国刑警学院学报》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110327061A (zh) * 2019-08-12 2019-10-15 北京七鑫易维信息技术有限公司 一种基于眼动追踪技术的性格确定装置、方法及设备
CN110693509A (zh) * 2019-10-17 2020-01-17 中国人民公安大学 一种案件相关性确定方法、装置、计算机设备和存储介质
CN110693509B (zh) * 2019-10-17 2022-04-05 中国人民公安大学 一种案件相关性确定方法、装置、计算机设备和存储介质
CN110956143A (zh) * 2019-12-03 2020-04-03 交控科技股份有限公司 一种异常行为检测方法、装置、电子设备及存储介质
CN111568367A (zh) * 2020-05-14 2020-08-25 中国民航大学 一种识别和量化眼跳入侵的方法
CN111568367B (zh) * 2020-05-14 2023-07-21 中国民航大学 一种识别和量化眼跳入侵的方法

Also Published As

Publication number Publication date
CN109199411B (zh) 2021-04-09

Similar Documents

Publication Publication Date Title
Zhang et al. Multimodal depression detection: Fusion of electroencephalography and paralinguistic behaviors using a novel strategy for classifier ensemble
CN109199411A (zh) 基于模型融合的案件知情者识别方法
CN109199412B (zh) 基于眼动数据分析的异常情绪识别方法
CN112259237B (zh) 基于多情感刺激和多级分类模型的抑郁评估***
Zhu et al. Detecting emotional reactions to videos of depression
CN113729707A (zh) 一种基于fecnn-lstm的眼动和ppg多模态融合的情感识别方法
Sulaiman et al. EEG-based stress features using spectral centroids technique and k-nearest neighbor classifier
Hartmann et al. EpiScan: online seizure detection for epilepsy monitoring units
Berbano et al. Classification of stress into emotional, mental, physical and no stress using electroencephalogram signal analysis
Das et al. Analyzing gaming effects on cognitive load using artificial intelligent tools
Kaur et al. Using virtual reality to examine the neural and physiological anxiety-related responses to balance-demanding target-reaching leaning tasks
CN113729729B (zh) 基于图神经网络和脑网络的精神***症早期检测***
Wang et al. A hybrid classification to detect abstinent heroin-addicted individuals using EEG microstates
CN114305454A (zh) 基于域对抗神经网络的疲劳状态识别方法及装置
CN113397482A (zh) 一种人类行为分析方法及***
Cakmak et al. Neuro signal based lie detection
Reches et al. A novel ERP pattern analysis method for revealing invariant reference brain network models
Altaf et al. Machine Learning Approach for Stress Detection based on Alpha-Beta and Theta-Beta Ratios of EEG Signals
Mantri et al. Real time multimodal depression analysis
CN115363585A (zh) 一种基于去习惯化与观影任务的标准化群体抑郁风险筛查***及方法
Ma et al. Dynamic threshold distribution domain adaptation network: A cross-subject fatigue recognition method based on EEG signals
Zhu et al. Visceral versus verbal: Can we see depression?
CN113855022A (zh) 基于眼动生理信号的情绪评估方法及装置
CN112687373A (zh) 一种心理渴求度的量化***及其方法
Chu et al. Detecting Lies: Finding the Degree of Falsehood from Observers’ Physiological Responses

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant