CN108764364A - 一种评测应激反应状态的方法及装置 - Google Patents

一种评测应激反应状态的方法及装置 Download PDF

Info

Publication number
CN108764364A
CN108764364A CN201810575497.8A CN201810575497A CN108764364A CN 108764364 A CN108764364 A CN 108764364A CN 201810575497 A CN201810575497 A CN 201810575497A CN 108764364 A CN108764364 A CN 108764364A
Authority
CN
China
Prior art keywords
user
evaluation
stress reaction
test
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201810575497.8A
Other languages
English (en)
Inventor
姜涵予
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201810575497.8A priority Critical patent/CN108764364A/zh
Publication of CN108764364A publication Critical patent/CN108764364A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Evolutionary Biology (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明提供了一种评测应激反应状态的方法及装置,其中,该方法包括:取应激反应评测方案,基于所述应激反应评测方案,向用户输出引导指令,并采集用户响应引导指令所作出的响应行为,应激反应评测方案是根据用户基础信息确定的,用户基础信息根据不同评测项目选取不同用户,根据用户的响应行为,确定用户的评测结果,评测结果包括:是否有急性应激反应、是否有创伤后应激反应、是否有适应反应。本发明通过生成应激反应评测方案,分析用户应激反应评测结果,以此判定被检测人是否存在应激反应。

Description

一种评测应激反应状态的方法及装置
技术领域
本发明涉及用户行为数据处理技术领域,具体而言,涉及一种评测应激反应状态的方法及装置。
背景技术
应激反应是指各种紧张性刺激物(应激源)引起的个体非特异性反应。包括生理反应和心理反应两大类,生理反应表现为交感神经兴奋、垂体和肾上腺皮质激素分泌增多、血糖升高、血压上升、心率加快和呼吸加速等;心理反应包括情绪反应与自我防御反应、应对反应等。应激反应是刺激物同个体自身的身心特***互作用的结果,而不仅仅由刺激物引起,还与个体对应激源的认识、个体处理应激事件的经验等有关。应激反应可能会引起精神失常,抑郁,妄想症等一系列精神问题,所以,提早预防应激反应障碍是非常有必要的。
发明内容
有鉴于此,本发明的目的在于提供一种评测应激反应状态的方法和装置,以检查儿童是否发育正常以及被检测人是否存在应激反应障碍。
第一方面,本发明实施例提供了一种评测应激反应状态的方法,其中,包括:
获取应激反应评测方案;
基于所述应激反应评测方案,向用户输出引导指令,并采集用户响应引导指令所作出的响应行为;应激反应评测方案是根据用户基础信息确定的,所述用户基础信息根据不同评测项目选取不同用户;
根据用户的响应行为,确定用户的评测结果;所述评测结果包括:是否有急性应激反应、是否有创伤后应激反应、是否有适应反应。
结合第一方面,本发明实施例提供了第一方面的第一种可能的实施方式,其中,所述应激反应评测方案包括评测应激反应场景方案和评测应激反应采集方案;
所述评测应激反应场景方案包括场景参与形式和场景主题;所述场景参与形式为独立参与;
所述评测应激反应采集方案包括以下任意一个或多个:视频采集、音频采集和传感器信号采集;
或,所述评测应激反应采集方案包括以下一个或多个:肢体动作采集、语音语调采集和面部表情采集。
结合第一方面的第一种可能的实施方式,本发明实施例提供了第一方面的第二种可能的实施方式,其中,根据用户的响应行为,确定用户的评测结果包括:
通过视频采集设备生成用户行为视频;
根据用户行为视频中图片与参考图片的相似度确定用户的肢体动作弧线和面部表情变化情况;
所述参考图片是预先存储在处理器中的;
根据用户的肢体动作弧线和面部表情变化情况确定用户的评测结果;
根据用户的响应行为,确定用户的评测结果包括:
通过音频采集设备生成用户行为音频;
根据用户行为音频中的音频信号频谱与参考音频信号频谱的相似度确定用户的语音语调变化情况;
所述参考音频信号是预先存储在处理器中的;
根据用户的语音语调变化情况确定用户的评测结果。
结合第一方面的第一种可能的实施方式,本发明实施例提供了第一方面的第三种可能的实施方式,其中,根据用户的响应行为,确定用户的评测结果包括:
通过不同角度的摄像头获取用户的响应行为,以生成多个用户行为视频;
将多个用户行为视频转换为静态图片组;
将静态图片组压缩,得到第一图片组;
按照预定的灰度阈值对压缩后的图片进行灰度化,得到第二图片组;
对比第二图片组中的每一帧图片与每一帧参考图片的灰度等级,得到两幅图片灰度等级不同的像素点数目;
计算第二图片组中的每一帧图片总体灰度差异平均数,所述总体灰度差异平均数为第二图片组中每张图片的灰度差异平均数的总和除以第二图片组中图片的的总数;所述灰度差异平均数为灰度等级不同的像素点数目的总和除以参考图片数量的结果;
根据设定的相似度等级划分规则,获取总体灰度差异平均数所对应的图片相似度;
根据图片相似度确定用户的肢体动作弧线和面部表情变化情况;
根据用户的肢体动作弧线和面部表情变化情况确定用户的评测结果;
根据用户的响应行为,确定用户的评测结果还包括:
通过不同角度的音频采集设备获取用户的响应行为,以生成多个用户音频信号;
对采集到的用户音频信号提取音频信号频谱;
识别音频信号频谱的波峰位置;
获取各波峰位置对应的特征值和时间点,根据各特征值和时间点得到用户音频信号的第一时间序列;
对比第一时间序列与第二时间序列,根据对比结果得到用户音频信号与参考音频信号的相似度;所述第二时间序列为参考音频信号的时间序列;
根据音频信号相似度确定用户的语音语调变化情况;
根据用户的语音语调变化情况确定用户的评测结果。
结合第一方面的第二种可能的实施方式,本发明实施例提供了第一方面的第四种可能的实施方式,其中,
所述应激反应评测方案,包括在独立的场景内,测试在播放相关视频时用户的反应;
所述视频采集设备设置在场景内不同角度的位置,用于采集用户在观看播放的相关视频时不同角度下的身体动作、表情;
所述声音采集设备设置在场景内不同角度的位置,用于采集用户在观看播放的相关视频时不同角度下的声音;
所述声音播放设备设置在场景内不同角度的位置,用于播放音频提示,以引导用户在场景内的行为;
所述视频播放设备设置在场景内不同角度的位置,用于播放视频提示,以引导用户在场景内的行为;
应激反应评测方案包括:
用户在独立的情况下,测试在观看播放的相关视频时用户的反应;
声音播放设备和视频播放设备用于给用户提供提示;视频采集设备和音频采集设备用于采集用户在观看播放的相关视频的过程中的身体动作和语音语调。
第二方面,本发明实施例还提供了一种评测应激反应状态的装置,应用于如权利要求1-5任一项所述的方法,其特征在于,该装置包括:评测室主体和设置在评测室主体上的采集模块、提示模块和处理器,处理器分别与采集模块、提示模块电性连接;
所述采集模块用于采集评测室主体内的用户响应引导指令所作出的响应行为,并将采集到的响应行为发送到处理器;
所述提示模块用于向评测室主体内的用户发出引导指令;
所述处理器,用于按照如权利要求1-5任一项所述的方法执行相应的动作。
结合第二方面,本发明实施例提供了第二方面的第一种可能的实施方式,其中,所述采集模块包括声音采集设备,和/或视频采集设备,和/或传感器采集设备;
所述提示模块包括声音播放设备,和/或视频播放设备;
所述声音采集设备包括话筒和录音机;
所述视频采集设备包括摄像头、录像机和图像传感器;
所述声音播放设备包括广播、音箱和扬声器;
所述视频播放设备包括电视机、电脑和交互屏;
所述传感器采集设备包括光敏传感器、声敏传感器、气敏传感器、化学传感器;
所述交互屏包括主交互屏和辅助交互屏,主交互屏用于根据***提供的问题,与用户进行人机交互;辅助交互屏用于辅助人机交互。
结合第二方面的第一种可能的实施方式,本发明实施例提供了第二方面的第二种可能的实施方式,其中,所述评测室主体由设置在四个角落的采集柱支撑,以使评测室保持立体结构;
采集模块,用于采集用户的音视频;
提示模块,用于给用户提供帮助;
其中,所述采集模块和所述提示模块均设置在采集柱上;
所述采集柱上设置有滑轮,采集模块和提示模块可沿滑轮从评测室主体顶面板朝评测室底面板的方向滑动。
结合第二方面,本发明实施例提供了第二方面的第三种可能的实施方式,其中,所述评测室主体上还设置虚拟现实模块,所述虚拟现实模块用于构建用户在评测室内的数据交互。
结合第二方面,本发明实施例提供了第二方面的第四种可能的实施方式,其中,所述评测室四周由自动幕布围成,自动幕布可为卷轴或者平拉。
本发明实施例提供的一种评测应激反应状态的方法和装置,采用获取用户基础信息来构建应激反应评测方案,并引导用户做出响应,并采集用户的响应行为,进行分析得出用户的应激反应评测结果,即对温度、触觉和痛觉有没有反应。与现有技术中的人工评测相比,其更适配于待评测用户,并可以根据用户个人情况生成用户个性化的应激反应评测方案,更易得出较为准确的评测结果。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本发明实施例所提供的一种评测应激反应状态的方法的流程图;
图2示出了本发明实施例所提供的另一种评测应激反应状态的方法的流程图;
图3示出了本发明实施例所提供的一种评测应激反应状态的装置的结构示意图;
图4示出了本发明实施例所提供的一种评测应激反应状态的装置的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
针对应激反应的检查在现实中非常普遍,检查过程绝大多数以人工检查为主,得到的检测结果一般是直接基于即可得到的结果,并且很少以年龄、性别等基础信息对用户进行区分检测。针对该种情况,申请人提供了一种进行评测应激反应状态的方法。
如图1所示,包括:
S101,获取应激反应评测方案;
S102,基于应激反应评测方案,向用户输出引导指令,并采集用户响应引导指令所作出的响应行为;应激反应评测方案是根据用户基础信息确定的,所述用户基础信息根据不同评测项目选取不同用户;
S103,根据用户的响应行为,确定用户的评测结果;所述评测结果包括:是否有急性应激反应、是否有创伤后应激反应、是否有适应反应。
其中,被测对象为48-72个月的儿童。
获取应激反应评测方法首先要获取应激反应评测方案,应激反应评测方案包括评测应激反应场景方案和评测应激反应采集方案;
评测应激反应场景方案包括场景参与形式和场景主题;场景参与形式为独立参与;
评测应激反应采集方案包括以下任意一个或多个:视频采集、音频采集和传感器信号采集;
或,评测应激反应采集方案包括以下一个或多个:肢体动作采集、语音语调采集和面部表情采集。
其中,应激反应场景方案主要是建立对应激反应测试的相应反应行为与场景的对应关系,包含建立对应行为与场景设定元素的对应关系,场景设定元素包含场景适应年龄段、场景参与者、场景主题、场景形式等的对应关系;包含建立对应行为与场景设定的对应关系,场景设定包含适应年龄段、人与人的设定、人与物的设定、行为与流程内容的对应关系。场景适应年龄段是根据用户输入的用户基础信息确定的,根据不同的年龄段确定不同的应激反应场景方案。场景参与形式为独立参与。场景的参与者包括用户独自参与应激反应评测。场景主题为应激反应检测。场景形式是虚拟的,可以利用虚拟现实来实现用户的应激反应评测。
应激反应采集方案就是根据应激反应评测方案生成的如何采集用户信息的方案。针对用户在场景中的行为,建立对用户肢体动作、语音语调和面部表情等的采集方案。应激反应采集方案包括以下任意一个或多个:视频采集、音频采集和传感器信号采集,或者应激反应采集方案包括以下一个或多个:肢体动作采集、语音语调采集和面部表情采集。传感器信号采集所使用的传感器包括光敏传感器、声敏传感器、气敏传感器、化学传感器、压敏传感器、温敏传感器以及流体传感器等。
视频采集和面部表情的采集可以通过视频采集设备采集,语音语调的采集可以通过音频采集设备采集,同时也可以利用传感器来采集用户的各种行为反应。通过视频采集设备生成用户行为视频,根据用户行为视频中图片与参考图片的相似度确定用户的肢体动作弧线和面部表情变化情况。参考图片是预先存储在处理器中的,参考图片记录用户在观看相关视频的过程中可能出现的肢体动作和面部表情,比如,当看到比较激烈的视频时,肢体可能出现自我防御的动作,面部会相对紧张的表情,其它例子与此相似,不再赘述。将这些图片作为参考图片预先存储在处理器中,与采集设备或传感器采集到的图片作对比,可以得到用户对应激反应障碍的结果。对于用户的语音语调也同样处理,将参考音频预先存储在处理器中,如用户在观看相关视频时会发出惊吓的声音等,其它例子与此相似,不再赘述。根据用户的肢体动作弧线和面部表情变化情况确定用户的评测结果,根据用户的响应行为,确定用户的评测结果包括:通过音频采集设备生成用户行为音频,根据用户行为音频中的音频信号频谱与参考音频信号频谱的相似度确定用户的语音语调变化情况,参考音频信号是预先存储在处理器中的,根据用户的语音语调变化情况确定用户的评测结果。
根据用户的响应行为,确定用户的评测结果包括:
通过视频采集设备生成用户行为视频;
根据用户行为视频中图片与参考图片的相似度确定用户的肢体动作弧线和面部表情变化情况;
所述参考图片是预先存储在处理器中的;
根据用户的肢体动作弧线和面部表情变化情况确定用户的评测结果;
根据用户的响应行为,确定用户的评测结果包括:
通过音频采集设备生成用户行为音频;
根据用户行为音频中的音频信号频谱与参考音频信号频谱的相似度确定用户的语音语调变化情况;
所述参考音频信号是预先存储在处理器中的;
根据用户的语音语调变化情况确定用户的评测结果。
将采集到的视频信息和语音信息经过处理器的分析即可得到最后的评测结果,通过不同角度的摄像头获取用户的响应行为,以生成多个用户行为视频,安装在不同角度的摄像头可以将用户的所用行为进行不同角度的拍摄,将多个用户行为视频转换为静态图片组,将静态图片组压缩,得到第一图片组,将压缩后的图片灰度化(灰度阈值为56),得到第二图片组,对比第二图片组中的每一帧图片与每一帧参考图片的灰度等级,得到两幅图片灰度等级不同的像素点数目,计算第二图片组中的每一帧图片总体灰度差异平均数,所述总体灰度差异平均数为第二图片组中每张图片的灰度差异平均数的总和除以第二图片组中图片的的总数,所述灰度差异平均数为灰度等级不同的像素点数目的总和除以参考图片数量的结果,根据设定的相似度等级划分规则,获取总体灰度差异平均数所对应的图片相似度,根据图片相似度确定用户的肢体动作弧线和面部表情变化情况,相似度越高,说明采集到的用户视频图片与参考图片的重合度越高,即可判断出用户的反应情况。
根据用户的响应行为,确定用户的评测结果还包括:
通过不同角度的摄像头获取用户的响应行为,以生成多个用户行为视频;
将多个用户行为视频转换为静态图片组;
将静态图片组压缩,得到第一图片组;
按照预定的灰度阈值对压缩后的图片进行灰度化(灰度阈值为56),得到第二图片组;
对比第二图片组中的每一帧图片与每一帧参考图片的灰度等级,得到两幅图片灰度等级不同的像素点数目;
计算第二图片组中的每一帧图片总体灰度差异平均数,所述总体灰度差异平均数为第二图片组中每张图片的灰度差异平均数的总和除以第二图片组中图片的的总数;所述灰度差异平均数为灰度等级不同的像素点数目的总和除以参考图片数量的结果;
根据设定的相似度等级划分规则,获取总体灰度差异平均数所对应的图片相似度;
根据图片相似度确定用户的肢体动作弧线和面部表情变化情况;
根据用户的肢体动作弧线和面部表情变化情况确定用户的评测结果;
根据用户的响应行为,确定用户的评测结果还包括:
通过不同角度的音频采集设备获取用户的响应行为,以生成多个用户音频信号;
对采集到的用户音频信号提取音频信号频谱;
识别音频信号频谱的波峰位置;
获取各波峰位置对应的特征值和时间点,根据各特征值和时间点得到用户音频信号的第一时间序列;
对比第一时间序列与第二时间序列,根据对比结果得到用户音频信号与参考音频信号的相似度;所述第二时间序列为参考音频信号的时间序列;
根据音频信号相似度确定用户的语音语调变化情况;
根据用户的语音语调变化情况确定用户的评测结果。
通过不同角度的音频采集设备获取用户的响应行为,以生成多个用户音频信号,对采集到的用户音频信号提取音频信号频谱,识别音频信号频谱的波峰位置,获取各波峰位置对应的特征值和时间点,根据各特征值和时间点得到用户音频信号的第一时间序列,对比第一时间序列与第二时间序列,根据对比结果得到用户音频信号与参考音频信号的相似度;所述第二时间序列为参考音频信号的时间序列,根据音频信号相似度确定用户的语音语调变化情况,根据用户的语音语调变化情况确定用户的评测结果。
应激反应评测方案,包括在独立的场景内,测试在播放相关视频时用户的反应,视频采集设备设置在场景内不同角度的位置,用于采集用户在观看相关视频时不同角度下的身体动作、表情,用户在观看视频时的身体动作、表情,声音采集设备设置在场景内不同角度的位置,用于采集用户在观看视频时不同角度下的声音,用户在观看视频时的声音,声音播放设备设置在场景内不同角度的位置,用于播放音频提示,以引导用户在场景内的行为,视频播放设备设置在场景内不同角度的位置,用于播放视频提示,以引导用户在场景内的行为。
应激反应评测方案,包括:用户在独立的情况下,测试在播放相关视频时用户的反应,声音播放设备和视频播放设备用于给用户播放相关视频以及给用户提示信息,视频采集设备和音频采集设备采集用户在观看视频时的身体动作和语音语调。
本申请所提供的方法中,步骤S103包括如下步骤:
将用户的响应行为输入到评测模型中,以使模型输出评测结果;其中,模型用于表征如下两点:
1.从看到播放的相关视频全过程的反应的角度来确定评测结果;
2.评测结果与年龄及特定行为的对应关系。
当然,步骤S103还可以通过查表的方式来确定,并不必然采用输入到模型中的方式来实现。
举例说明,首先是采集用户基础信息,由用户录入初始信息,可以是被评测用户录入或者由其监护人录入。
例:采集被评测用户的基础信息
1)用户1:年龄:54个月、性别:男性、身高:100CM,体重:16kg;
2)用户2:年龄:60个月、性别:女性、身高:109CM,体重:19kg;
3)用户3:年龄:72个月、性别:男性、身高:115CM,体重:20.5kg。
根据以上信息,输出评测方案:
用户1:用户单独进入构建的环境,观察用户观看相关视频过程中的反应;
用户2:用户单独进入构建的环境,观察用户观看相关视频过程中的反应;
用户3:用户单独进入构建的环境,观察用户观看相关视频过程中的反应。
2)评测场景
用户1:虚拟场景、独立;
用户2:虚拟场景、独立;
用户3:虚拟场景、独立。
3)采集方案(匹配孩子身高、多角度采集)
用户1:1米的采集柱,含多个摄像头、声音播放设备、声音采集设备;
用户2:1.5米的采集柱,含多个摄像头、声音播放设备、声音采集设备;
用户3:1.5米的采集柱,含多个摄像头、声音播放设备、声音采集设备。
采集柱是指集成了多哥可旋转摄像头、声音播放设备、采集声音的设备等的集成采集装置。
评测方根据方案配置场景、道具、内容、流程。
用户1:划分评测区、准备道具、安装调试采集设备;
用户2:划分评测区、准备道具、安装调试采集设备;
用户3:划分评测区、准备道具、安装调试采集设备。
被评估用户进入构建的场景,被评估用户按流程去完成指定特定行为的流程和内容。
采集***采集用户在场景中的动作行为、语音语调、人机交互结果、表情等数据,采集***上传采集的数据到服务端数据分析平台。
用户1:采集用户在观看相关视频过程中的身体动作、声音、表情;
用户2:采集用户在观看相关视频过程中的身体动作、声音、表情;
用户3:采集用户在观看相关视频过程中的身体动作、声音、表情。
服务端数据分析平台分析用户的各类行为数据,并给各类数据结果进行赋值,赋值结果主要为应激反应增强、应激反应减退以及应激反应缺乏。
48-72个月的被测者作为被评测用户,应激反应评测的方案举例如下:
本发明实施例还提供一种评测应激反应状态的装置,应用于如前所述所有方法的装置。如图2所示,该装置包括评测室主体、采集模块201、提示模块202和处理器203。该评测室是一个立体的结构,四周由采集柱作为支撑柱使评测室保持立体结构,评测室四周可以由幕布围成,幕布可以是平拉或者为卷轴的形式。
其中,自动幕布可以通过计算机设备控制视频的播放和停止,可以不用投影机放在测试环境中,以避免影响用户体验。在幕布上可以播放动态投影和静态投影,播放给用户观看的相关视频。
为了能够有效的对光线进行遮挡,自动幕布采用白塑幕。
如图3所示,采集模块、提示模块和处理器设置在评测室主体30内,处理器311也可以设置在评测室主体30外。采集模块、提示模块分别和处理器311电性相连。采集模块将在评测室主体内采集到的用户响应行为上传到处理器311,由处理器311进行分析处理。采集模块包括声音采集设备、视频采集设备和传感器采集设备,声音采集设备包括话筒和录音机,视频采集设备包括摄像头305、录像机和图像传感器等。提示模块设置在评测室主体30内,以发出引导指令引导评测用户按照指令行为。提示模块包括声音播放设备,视频播放设备,和文字指示设备等。声音播放设备包括广播、音箱和扬声器307,视频播放设备包括电视机、电脑和交互屏,文字指示设备包括提示板、文字标志,交互屏包括主交互屏306和辅助交互屏310,主交互屏306用于根据***提供的问题,与用户进行人机交互,辅助交互屏310用于辅助人机交互。
评测室内部设置有采集柱301,采集模块和提示模块可以设置在采集柱301上,采集柱301上设置有滑轮,滑轮沿整个采集柱平行布置,以使采集模块和提示模块可以沿着滑轮从评测室顶面板向底面板的方向上下滑动,滑轮可以是多条,以安装不同角度的采集模块和提示模块。评测室顶面板上安装灯具303,营造构建交互环境光效,也可以安装身高采集设备304,如超声波身高测量组件等。评测室的底面板上安装有人体信号采集设备308,包括体重采集设备,人体成分测量组件等,同时也设置有电源,以使整个评测室保持正常运行。评测室的前面板上设置有主交互屏306,以及扬声器307,交互屏306和扬声器307也可以安装在其他面板上,辅助交互屏310主要是为主交互屏306提供辅助作用,所以辅助交互屏310的安装位置可以在主交互屏306周围的任何面板上。评测室内还设置虚拟现实装置,以采集用户在评测室内的交互数据。评测室主体30内还设置有电源309。
如图4所示,是评测室主体的平面结构图,其中顶面板上设置有灯具405和身高采集设备404,前面板上设置有主交互屏407、扬声器408和视频采集设备409,底面板上设置有人体信号采集设备410和电源411,右面板上设置有辅助交互屏402和处理器403,采集柱401、411、412、413同时作为评测室主体的支撑柱。每两个支撑柱之间设置有幕布406、414、415、416。
本发明实施例所提供的一种应激反应评测的装置可以为设备上的特定硬件或者安装于设备上的软件或固件等。本发明实施例所提供的装置,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,前述描述的***、装置和单元的具体工作过程,均可以参考上述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的实施例中,应该理解到,所揭露装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围。都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (10)

1.一种评测应激反应状态的方法,其特征在于,包括:
获取应激反应评测方案;
基于所述应激反应评测方案,向用户输出引导指令,并采集用户响应引导指令所作出的响应行为;应激反应评测方案是根据用户基础信息确定的,所述用户基础信息根据不同评测项目选取不同用户;
根据用户的响应行为,确定用户的评测结果;所述评测结果包括:是否有急性应激反应、是否有创伤后应激反应、是否有适应反应。
2.根据权利要求1所述的一种评测应激反应状态的方法,其特征在于:
所述应激反应评测方案包括评测应激反应场景方案和评测应激反应采集方案;
所述评测应激反应场景方案包括场景参与形式和场景主题;所述场景参与形式为独立参与;
所述评测应激反应采集方案包括以下任意一个或多个:视频采集、音频采集和传感器信号采集;
或,所述评测应激反应采集方案包括以下一个或多个:肢体动作采集、语音语调采集和面部表情采集。
3.根据权利要求1所述的一种评测应激反应状态的方法,其特征在于:
根据用户的响应行为,确定用户的评测结果包括:
通过视频采集设备生成用户行为视频;
根据用户行为视频中图片与参考图片的相似度确定用户的肢体动作弧线和面部表情变化情况;
所述参考图片是预先存储在处理器中的;
根据用户的肢体动作弧线和面部表情变化情况确定用户的评测结果;
根据用户的响应行为,确定用户的评测结果包括:
通过音频采集设备生成用户行为音频;
根据用户行为音频中的音频信号频谱与参考音频信号频谱的相似度确定用户的语音语调变化情况;
所述参考音频信号是预先存储在处理器中的;
根据用户的语音语调变化情况确定用户的评测结果。
4.根据权利要求1所述的一种评测应激反应状态的方法,其特征在于:
根据用户的响应行为,确定用户的评测结果包括:
通过不同角度的摄像头获取用户的响应行为,以生成多个用户行为视频;
将多个用户行为视频转换为静态图片组;
将静态图片组压缩,得到第一图片组;
按照预定的灰度阈值对压缩后的图片进行灰度化,得到第二图片组;
对比第二图片组中的每一帧图片与每一帧参考图片的灰度等级,得到两幅图片灰度等级不同的像素点数目;
计算第二图片组中的每一帧图片总体灰度差异平均数,所述总体灰度差异平均数为第二图片组中每张图片的灰度差异平均数的总和除以第二图片组中图片的的总数;所述灰度差异平均数为灰度等级不同的像素点数目的总和除以参考图片数量的结果;
根据设定的相似度等级划分规则,获取总体灰度差异平均数所对应的图片相似度;
根据图片相似度确定用户的肢体动作弧线和面部表情变化情况;
根据用户的肢体动作弧线和面部表情变化情况确定用户的评测结果;
根据用户的响应行为,确定用户的评测结果还包括:
通过不同角度的音频采集设备获取用户的响应行为,以生成多个用户音频信号;
对采集到的用户音频信号提取音频信号频谱;
识别音频信号频谱的波峰位置;
获取各波峰位置对应的特征值和时间点,根据各特征值和时间点得到用户音频信号的第一时间序列;
对比第一时间序列与第二时间序列,根据对比结果得到用户音频信号与参考音频信号的相似度;所述第二时间序列为参考音频信号的时间序列;
根据音频信号相似度确定用户的语音语调变化情况;
根据用户的语音语调变化情况确定用户的评测结果。
5.根据权利要求3所述的一种评测应激反应的方法,其特征在于:
所述应激反应评测方案,包括在独立的场景内,测试在播放相关视频时用户的反应;
所述视频采集设备设置在场景内不同角度的位置,用于采集用户在观看播放的相关视频时不同角度下的身体动作、表情;
所述声音采集设备设置在场景内不同角度的位置,用于采集用户在观看播放的相关视频时不同角度下的声音;
所述声音播放设备设置在场景内不同角度的位置,用于播放音频提示,以引导用户在场景内的行为;
所述视频播放设备设置在场景内不同角度的位置,用于播放视频提示,以引导用户在场景内的行为;
应激反应评测方案包括:
用户独立的情况下,测试在播放相关视频时用户的反应;
声音播放设备和视频播放设备用于给用户提供提示;视频采集设备和音频采集设备用于采集用户在观看播放的相关视频的过程中的身体动作和语音语调。
6.一种评测应激反应状态的装置,应用于如权利要求1-5任一项所述的方法,其特征在于,该装置包括:评测室主体和设置在评测室主体上的采集模块、提示模块和处理器,处理器分别与采集模块、提示模块电性连接;
所述采集模块用于采集评测室主体内的用户响应引导指令所作出的响应行为,并将采集到的响应行为发送到处理器;
所述提示模块用于向评测室主体内的用户发出引导指令;
所述处理器,用于按照如权利要求1-5任一项所述的方法执行相应的动作。
7.根据权利要求6所述的一种评测应激反应状态的装置,其特征在于:
所述采集模块包括声音采集设备,和/或视频采集设备,和/或传感器采集设备;
所述提示模块包括声音播放设备,和/或视频播放设备;
所述声音采集设备包括话筒和录音机;
所述视频采集设备包括摄像头、录像机和图像传感器;
所述声音播放设备包括广播、音箱和扬声器;
所述视频播放设备包括电视机、电脑和交互屏;
所述传感器采集设备包括光敏传感器、声敏传感器、气敏传感器、化学传感器;
所述交互屏包括主交互屏和辅助交互屏,主交互屏用于根据***提供的问题,与用户进行人机交互;辅助交互屏用于辅助人机交互。
8.根据权利要求6所述的一种评测应激反应状态的装置,其特征在于:
所述评测室主体由设置在四个角落的采集柱支撑,以使评测室保持立体结构;
采集模块,用于采集用户的音视频;
提示模块,用于给用户提供帮助;
其中,所述采集模块和所述提示模块均设置在采集柱上;
所述采集柱上设置有滑轮,采集模块和提示模块可沿滑轮从评测室主体顶面板朝评测室底面板的方向滑动。
9.根据权利要求6所述的一种评测应激反应状态的装置,其特征在于:
所述评测室主体上还设置虚拟现实模块,所述虚拟现实模块用于构建用户在评测室内的数据交互。
10.根据权利要求6所述的一种评测应激反应状态的装置,其特征在于:
所述评测室四周由自动幕布围成,自动幕布可为卷轴或者平拉。
CN201810575497.8A 2018-06-06 2018-06-06 一种评测应激反应状态的方法及装置 Withdrawn CN108764364A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810575497.8A CN108764364A (zh) 2018-06-06 2018-06-06 一种评测应激反应状态的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810575497.8A CN108764364A (zh) 2018-06-06 2018-06-06 一种评测应激反应状态的方法及装置

Publications (1)

Publication Number Publication Date
CN108764364A true CN108764364A (zh) 2018-11-06

Family

ID=63999117

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810575497.8A Withdrawn CN108764364A (zh) 2018-06-06 2018-06-06 一种评测应激反应状态的方法及装置

Country Status (1)

Country Link
CN (1) CN108764364A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113080900A (zh) * 2020-04-26 2021-07-09 合肥工业大学 一种突发噪声环境下人体应激反应测试方法及***

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113080900A (zh) * 2020-04-26 2021-07-09 合肥工业大学 一种突发噪声环境下人体应激反应测试方法及***
CN113080900B (zh) * 2020-04-26 2024-02-06 合肥工业大学 一种突发噪声环境下人体应激反应测试方法及***

Similar Documents

Publication Publication Date Title
US9514439B2 (en) Method and system for determining audience response to a sensory stimulus
KR20240011874A (ko) 신경 상태의 검출을 위해 생체 센서 데이터를 사용하여 라이브 엔터테인먼트를 디렉팅
CN104602120B (zh) 信息处理设备及方法
CN108937969A (zh) 一种评测认知状态的方法及装置
CN107945625A (zh) 一种英语发音测试与评价***
CN211355518U (zh) 一种抑郁症诊断装置
JP2007102344A (ja) 自動評価装置、プログラムおよび方法
CN108877841A (zh) 一种评测语言状态的方法及装置
CN108784709A (zh) 一种评测动作行为状态的方法及装置
CN108937861A (zh) 一种评测睡眠状态的方法及装置
CN108937970A (zh) 一种评测情感状态的方法及装置
CN108764204A (zh) 一种评测知觉状态的方法及装置
CN108937971A (zh) 一种评测注意力状态的方法及装置
CN108764364A (zh) 一种评测应激反应状态的方法及装置
CN108777171A (zh) 一种评测感觉状态的方法及装置
Kunka et al. Objectivization of audio-visual correlation analysis
CN108777165A (zh) 一种评测社交状态的方法及装置
CN108877836A (zh) 一种评测言语状态的方法及装置
CN108766574A (zh) 一种评测定向力状态的方法及装置
CN108764200A (zh) 一种评测意识状态的方法及装置
CN108766575A (zh) 一种评测智力发育的方法及装置
JP2004056161A (ja) マルチメディア通信システム
CN101454805A (zh) 训练辅助设备、训练辅助方法和训练辅助程序
CN108766533A (zh) 一种评测意志状态的方法及装置
US20200021875A1 (en) Systems and methods for providing media content for an exhibit or display

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20181106