CN113095165A - 一种用于完善面试表现的模拟面试方法和装置 - Google Patents
一种用于完善面试表现的模拟面试方法和装置 Download PDFInfo
- Publication number
- CN113095165A CN113095165A CN202110317335.6A CN202110317335A CN113095165A CN 113095165 A CN113095165 A CN 113095165A CN 202110317335 A CN202110317335 A CN 202110317335A CN 113095165 A CN113095165 A CN 113095165A
- Authority
- CN
- China
- Prior art keywords
- interview
- audio
- image
- information
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 238000004088 simulation Methods 0.000 title abstract description 6
- 239000013598 vector Substances 0.000 claims abstract description 54
- 239000011159 matrix material Substances 0.000 claims abstract description 48
- 238000004422 calculation algorithm Methods 0.000 claims description 15
- 230000014509 gene expression Effects 0.000 claims description 13
- 230000008859 change Effects 0.000 claims description 12
- 230000009471 action Effects 0.000 claims description 10
- 230000001815 facial effect Effects 0.000 claims description 10
- 238000004458 analytical method Methods 0.000 claims description 9
- 230000004424 eye movement Effects 0.000 claims description 9
- 239000013604 expression vector Substances 0.000 claims description 8
- 238000012549 training Methods 0.000 claims description 7
- 238000007635 classification algorithm Methods 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 5
- 230000009466 transformation Effects 0.000 claims description 5
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 230000002194 synthesizing effect Effects 0.000 claims 1
- 230000006399 behavior Effects 0.000 abstract description 12
- 230000008921 facial expression Effects 0.000 abstract description 3
- 230000006872 improvement Effects 0.000 abstract description 2
- 238000012545 processing Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 206010039509 Scab Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
- G06Q10/105—Human resources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Multimedia (AREA)
- Human Resources & Organizations (AREA)
- Human Computer Interaction (AREA)
- Strategic Management (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Entrepreneurship & Innovation (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Economics (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种用于完善面试表现的模拟面试方法和装置,属于音视频处理技术领域。方法包括:建立面试的数据库;采集面试的音频数据和影像数据,将所述音频数据转换为文字信息,从所述音频数据中提取得到音频信息,从所述影像数据中提取得到影像信息;分析所述文字信息、音频信息和影像信息,分别构成面试回答的文字向量、音频矩阵和影像矩阵;依据所述面试岗位的问题库、行为注意重点表和能力要求表、以及与所述问题库中的问题对应的答案关键词,与所述面试回答的文字向量、音频矩阵和影像矩阵进行比对,得到二者的相关系数和/或距离参数;将所述相关系数和/或距离参数转换为面试意见及建议。本发明通过分析面试者在肢体动作、脸部表情、说话方式方面的行为特点,提供具有岗位针对性的改进意见。
Description
技术领域
本发明涉及一种用于完善面试表现的模拟面试方法和装置,属于音视频处理技术领域。
背景技术
在招聘面试、入学升学的面试场景中,面试者能掌握的信息是极其匮乏的,这尤其体现在面试者得不到有效的面试反馈。实际上,在一场面试结束后,面试者只能通过回忆来猜测自己面试表现不佳的地方,摸索着提高自己的面试技能。同时,缺少模拟面试的机会也让人们的面试水平停滞不前。人们想要模拟实际的面试场景缺乏有效的途径,往往只能自己想象实际的场景。
市场上有少数创业公司推出了AI面试的服务,但这些AI面试服务往往是提供给企业的,即使是针对面试者的服务,也仅限于对岗位匹配度、面试表现进行打分。对于面试者来说,这些打分只是概括性的整体评价,无法得到直观、可操作的反馈意见。
现有评估受试者表现方法中,利用图像分析、自然语言处理、语音识别以及机器学习技术,提供受试者表现的评分结果。但是现有方法只是简单进行了面试者的面部特征、回答文字的特征、语音特征的拼接,最终进行维度单一的岗位匹配度或面试表现评分,给到面试者的反馈缺少个性化、针对性,面试者仍然得不到有效的面试反馈,他们的面试表现也难以提高。
发明内容
本发明的目的在于解决现有技术不能给出实用的面试表现改进意见的问题,提出了一种用于完善面试表现的模拟面试方法和装置,该技术方案能识别面试者在肢体动作、脸部表情、说话方式的行为,提供具有岗位针对性的改进意见。
为了实现上述目的,本发明采取如下技术方案。
一种用于完善面试表现的模拟面试方法,包括:建立面试的数据库,所述数据库包括面试岗位库,以及与所述面试岗位库对应的问题库、行为注意重点表和能力要求表、与所述问题库中的问题对应的答案关键词;采集面试的音频数据和影像数据,将所述音频数据转换为文字信息,从所述音频数据中提取得到音频信息,从所述影像数据中提取得到影像信息;分析所述文字信息、音频信息和影像信息,分别构成面试回答的文字向量、音频矩阵和影像矩阵;依据所述面试岗位的问题库、行为注意重点表和能力要求表、以及与所述问题库中的问题对应的答案关键词,与所述面试回答的文字向量、音频矩阵和影像矩阵进行比对,得到二者的相关系数和/或距离参数;将所述相关系数和/或距离参数转换为面试意见及建议。
进一步地,所述文字向量的构成方法包括:由自然语言处理的中文预训练模型从所述文字信息中提取面试者回答文字的向量低维度特征;利用文字分类算法得到回答用词丰富度的分类结果,作为文字向量。作为优选,所述文字的向量低维度特征是文字的Embedding特征,所述是文字分类算法是AdaBoost算法。
进一步地,所述音频矩阵的构成方法包括:通过时域分析和频域变换计算出所述音频信息的幅度、频率;通过神经网络对所述音频信息进行时序建模,输出流利度评分;综合所述幅度、频率以及流利度评分作为音频矩阵。
进一步地,所述影像矩阵的构成方法包括:在所述影像信息的每帧图像中定位面试者的骨骼关键点,根据骨骼关键点的运动轨迹识别面试者的手部动作向量和坐姿变化向量,提取面试者凝视方向,利用聚类算法判断面试者是否在进行眼神交流,同时计算面试者眼神的运动频率,得出面试者的眼神运动向量;利用人脸检测算法检测影像中的人脸区域,在人脸区域内计算局部图像特征,作为面试者微表情的表征信息,经过微表情分类器,判断出面试者脸部微表情向量;将所述手部动作向量、坐姿变化向量、眼神运动向量和脸部微表情向量共同作为影像矩阵。作为优选,所述人脸检测算法是Viola-Jones算法,所述局部图像特征是局部HOG特征,所述微表情分类器是SVM分类器。
进一步地,所述相关系数和/或距离参数转换包括:将所述文本向量比对后的相关系数和/或距离参数转换为回答的用词丰富度意见及建议,包含语气词、口头表达、专业词汇的用词意见及建议;将所述音频矩阵比对后的相关系数和/或距离参数转换为音频的幅度、频率、流利度意见及建议,包含音频的清晰度、接受度、语速、音调以及流利程度的意见及建议;将所述影像矩阵比对后的相关系数和/或距离参数转换为动作意见及建议,包含手部动作、坐姿变化、眼神运动、脸部微表情的意见及建议。
另一方面,本发明公开了一种用于完善面试表现的模拟面试装置,包括:数据库模块,所述数据库包括面试岗位库,以及与所述面试岗位库对应的问题库、行为注意重点表和能力要求表、与所述问题库中的问题对应的答案关键词;信息采集模块,采集面试的音频数据和影像数据,将所述音频数据转换为文字信息,从所述音频数据中提取得到音频信息,从所述影像数据中提取得到影像信息;信息分析模块,分析所述文字信息、音频信息和影像信息,构成面试回答的文字向量、音频矩阵和影像矩阵;比对模块,依据所述面试岗位的问题库、行为注意重点表和能力要求表、以及与所述问题库中的问题对应的答案关键词,与所述面试回答的文字向量、音频矩阵和影像矩阵进行比对,得到二者的相关系数和/或距离参数;建议反馈模块,将所述相关系数和/或距离参数转换为面试意见和建议。
本发明提出了一种用于完善面试表现的模拟面试方法和装置,其技术方案具有如下有益效果:
1.所述装置提供了一个特定的面试场所,能够完整地采集面试相关信息,可供面试者进行面试训练;
2.所述方法能够识别出面试者的手部动作、坐姿变化、眼神运动、脸部微表情、音频幅度和频率、流利度以及回答用词的丰富度,这能让面试者一目了然地关注到自己面试过程中有意或无意展示出的肢体动作、声音大小、语速、用词这些信息。回顾这些信息,能够帮助面试者了解自己的行为习惯、说话习惯;
3.所述方法能利用岗位对应的行为注意重点,能够帮助面试者抓住面试中说话方式、肢体动作、脸部表情的关键点;
4.所述装置是24小时都能够参与和获取的,任何面试者都能随时、不限次数地进行模拟面试,通过一次次的训练能够提高面试者的面试技能。
附图说明
图1是一个实施例中用于完善面试表现的模拟面试方法流程图。
图2是一个实施例中分析面试信息的流程图。
图3是一个实施例中用于完善面试表现的模拟面试装置结构示意图。
具体实施方式
下面结合附图详细描述本发明用于完善面试表现的模拟面试方法和装置的具体实施例。
图1是一个实施例中用于完善面试表现的模拟面试方法流程图,图3是一个实施例中用于完善面试表现的模拟面试装置结构示意图。如图所示,某公司的人力资源经理建立销售岗位的面试数据库,包括问题库、针对面试者的行为注意重点表和能力要求表、与问题库中的问题对应的答案关键词,这些资料都存储到图1所示的数据库模块中。
上述数据库中的问题库包含:请分享一次你成功的销售经历并说出自己的感悟、请分享一次你失败的销售经历并分析理由、你怎么找到产品的***、假设你向中超的足球队推荐本公司的球员表现自动评估***,请阐述你的销售思路等。
上述行为注意重点表包含眼神飘忽、肩膀内缩、表情僵硬、语言结巴、用词单一等栏目:这些肢体动作、说话方式、脸部表情暴露出了面试者的不自信以及沟通能力的不足;能力要求表包含:逻辑能力、沟通交流能力、应变能力等内容。
上述与问题对应的答案关键词包括:一次成功的销售经历的感悟——了解商品的优势和特点、找到了合适的***等;一次失败的销售经历的理由——***分析不准确、宣传不到位等;找到产品的***——根据产品的特点建立***画像、合作各大网络平台发送定向广告等;推荐球员表现自动评估***——向正在培训青年球员的球队加大推荐力度、首先联系某只球队进行试用,以建立有效的实例等。
模拟面试开始后,数据库模块从销售岗位的面试数据库的问题库中抽取出一定数量的面试问题,例如15个面试问题;面试问题以文字、图片或转换为语音的方式呈现,如面试问题合成为语音,声音由显示屏发出,同时显示屏中会显示出人工智能面试官的影像。
模拟面试过程中,信息采集模块所包含的摄像头、麦克风等设备,能够采集面试的影像信息和音频信息;当没有新的音频生成时,面试者的音频信息转换为文字信息,此次的回答文字就与该问题的答案关键词进行匹配,由匹配的准确率决定怎么选择下一个问题,这需要提前由人力资源经理决定,例如匹配准确率达到80%以上选择答案关键词更多的下一个问题,匹配准确率在60-80%之间选择关键词数量相同的问题,准确率在60%以下选择关键词更少的问题。
图2是一个实施例中分析面试信息的流程图。模拟面试结束后,信息采集模块将采集到的文字信息、音频信息以及影像信息,一并传送给信息分析模块,生成此次面试的文字向量、音频矩阵以及影像矩阵;生成文字向量的方法包括:由自然语言处理的中文预训练模型提取文字信息的低维度embedding特征,并利用AdaBoost算法进行回答用词丰富度的分类结果作为文字向量。
生成音频矩阵的方法包括:通过时域分析和频域转换计算出音频信息的幅度、频率;另外通过神经网络对音频信息进行时序建模,输出流利度评分;综合幅度、频率以及流利度评分作为音频矩阵。
生成影像矩阵的方法包括:在影像信息的每帧图像中定位面试者的骨骼关键点,根据骨骼关键点的运动轨迹识别面试者的手部动作向量和坐姿变化向量;并提取每帧图像中面试者的凝视方向,利用聚类算法判断面试者是否在进行眼神交流,同时计算面试者眼神的运动频率,综合得到面试者的眼神运动向量;同时利用Viola-Jones算法检测出人脸区域,计算区域内的局部HOG特征,经过SVM分类器,得到面试者脸部微表情向量;将手部动作向量、坐姿变化向量、眼神运动向量、脸部微表情向量共同作为影像矩阵。
信息分析模块生成的文字向量、音频矩阵以及影像矩阵会发送至比对模块,对照上述的行为注意重点表和能力要求表、问题库中的问题对应的答案关键词,得到二者的相关系数和/或距离参数;再由建议模块将相关系数和/或距离参数转换为面试意见及建议。
针对文字向量,将文字向量比对后的相关系数和/或距离参数转换为回答的用词丰富度意见以及建议,包含在语气词、口头表达、专业词汇几个方面的用词意见以及建议,典型的如少用语气词或口头表达,多用专业词汇,给出专业词汇的用词建议。
针对音频矩阵比对后的相关系数和/或距离参数,转换为音频的清晰度、接受度、语速、音调、流利度这些方面的意见及建议,如指出面试中语速太快、音调太高以及不够流利的部分,并建议面试者有意识地调整说话时的习惯。
针对影像矩阵比对后的相关系数和/或距离参数,转换为动作意见以及建议,包括手部动作、坐姿变化、眼神运动、脸部微表情几个方面:如要控制自己的坐姿端正、眼神专注、适当地使用肢体动作等。
上述的面试意见及建议组成了针对面试者的改进意见文档,能够帮助面试者改善自己的面试表现。
以上所述为本发明的较佳实施例而已,本发明不应该局限于该实施例和附图所公开的内容。凡是不脱离本发明所公开的精神下完成的等效或修改,都落入本发明保护的范围。
Claims (10)
1.一种用于完善面试表现的模拟面试方法,其特征在于,包括:
建立面试的数据库,所述数据库包括面试岗位库,以及与所述面试岗位库对应的问题库、行为注意重点表和能力要求表、与所述问题库中的问题对应的答案关键词;
采集面试的音频数据和影像数据,将所述音频数据转换为文字信息,从所述音频数据中提取得到音频信息,从所述影像数据中提取得到影像信息;
分析所述文字信息、音频信息和影像信息,分别构成面试回答的文字向量、音频矩阵和影像矩阵;
依据所述面试岗位的问题库、行为注意重点表和能力要求表、以及与所述问题库中的问题对应的答案关键词,与所述面试回答的文字向量、音频矩阵和影像矩阵进行比对,得到二者的相关系数和/或距离参数;
将所述相关系数和/或距离参数转换为面试意见及建议。
2.如权利要求1所述的模拟面试方法,其特征在于,所述文字向量的构成方法包括:由自然语言处理的中文预训练模型从所述文字信息中提取面试者回答文字的向量低维度特征;利用文字分类算法得到回答用词丰富度的分类结果,作为文字向量。
3.如权利要求1所述的模拟面试方法,其特征在于,所述音频矩阵的构成方法包括:通过时域分析和频域变换计算出所述音频信息的幅度、频率;通过神经网络对所述音频信息进行时序建模,输出流利度评分;综合所述幅度、频率以及流利度评分作为音频矩阵。
4.如权利要求1所述的模拟面试方法,其特征在于,所述影像矩阵的构成方法包括:在所述影像信息的每帧图像中定位面试者的骨骼关键点,根据骨骼关键点的运动轨迹识别面试者的手部动作向量和坐姿变化向量,提取面试者凝视方向,利用聚类算法判断面试者是否在进行眼神交流,同时计算面试者眼神的运动频率,得出面试者的眼神运动向量;利用人脸检测算法检测影像中的人脸区域,在人脸区域内计算局部图像特征,作为面试者微表情的表征信息,经过微表情分类器,判断出面试者脸部微表情向量;将所述手部动作向量、坐姿变化向量、眼神运动向量和脸部微表情向量共同作为影像矩阵。
5.如权利要求1所述的模拟面试方法,其特征在于,所述相关系数和/或距离参数转换包括:将所述文本向量比对后的相关系数和/或距离参数转换为回答的用词丰富度意见及建议,包含语气词、口头表达、专业词汇的用词意见及建议;将所述音频矩阵比对后的相关系数和/或距离参数转换为音频的幅度、频率、流利度意见及建议,包含音频的清晰度、接受度、语速、音调以及流利程度的意见及建议;将所述影像矩阵比对后的相关系数和/或距离参数转换为动作意见及建议,包含手部动作、坐姿变化、眼神运动、脸部微表情的意见及建议。
6.如权利要求2所述的模拟面试方法,其特征在于,所述文字的向量低维度特征是文字的Embedding特征,所述是文字分类算法是AdaBoost算法。
7.如权利要求4所述的模拟面试方法,其特征在于,所述人脸检测算法是Viola-Jones算法,所述局部图像特征是局部HOG特征,所述微表情分类器是SVM分类器。
8.一种用于完善面试表现的模拟面试装置,其特征在于,所述模拟面试装置包括:
数据库模块,所述数据库包括面试岗位库,以及与所述面试岗位库对应的问题库、行为注意重点表和能力要求表、与所述问题库中的问题对应的答案关键词;
信息采集模块,采集面试的音频数据和影像数据,将所述音频数据转换为文字信息,从所述音频数据中提取得到音频信息,从所述影像数据中提取得到影像信息;
信息分析模块,分析所述文字信息、音频信息和影像信息,构成面试回答的文字向量、音频矩阵和影像矩阵;
比对模块,依据所述面试岗位的问题库、行为注意重点表和能力要求表、以及与所述问题库中的问题对应的答案关键词,与所述面试回答的文字向量、音频矩阵和影像矩阵进行比对,得到二者的相关系数和/或距离参数;
建议反馈模块,将所述相关系数和/或距离参数转换为面试意见和建议。
9.如权利要求8所述的模拟面试装置,其特征在于,所述文字向量的构成为:由自然语言处理的中文预训练模型从所述文字信息中提取面试者回答文字的向量低维度特征;利用文字分类算法得到回答用词丰富度的分类结果,作为文字向量;所述音频矩阵的构成为:通过时域分析和频域变换计算出所述音频信息的幅度、频率;通过神经网络对所述音频信息进行时序建模,输出流利度评分;综合所述幅度、频率以及流利度评分作为音频矩阵;所述影像矩阵的构成为:在所述影像信息的每帧图像中定位面试者的骨骼关键点,根据骨骼关键点的运动轨迹识别面试者的手部动作向量和坐姿变化向量,提取面试者凝视方向,利用聚类算法判断面试者是否在进行眼神交流,同时计算面试者眼神的运动频率,得出面试者的眼神运动向量;利用人脸检测算法检测影像中的人脸区域,在人脸区域内计算局部图像特征,作为面试者微表情的表征信息,经过微表情分类器,判断出面试者脸部微表情向量;将所述手部动作向量、坐姿变化向量、眼神运动向量和脸部微表情向量共同作为影像矩阵。
10.如权利要求8所述的模拟面试装置,其特征在于,所述相关系数和/或距离参数转换包括:将所述文本向量比对后的相关系数和/或距离参数转换为回答的用词丰富度意见及建议,包含语气词、口头表达、专业词汇的用词意见及建议;将所述音频矩阵比对后的相关系数和/或距离参数转换为音频的幅度、频率、流利度意见及建议,包含音频的清晰度、接受度、语速、音调以及流利程度的意见及建议;将所述影像矩阵比对后的相关系数和/或距离参数转换为动作意见及建议,包含手部动作、坐姿变化、眼神运动、脸部微表情的意见及建议。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110317335.6A CN113095165A (zh) | 2021-03-23 | 2021-03-23 | 一种用于完善面试表现的模拟面试方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110317335.6A CN113095165A (zh) | 2021-03-23 | 2021-03-23 | 一种用于完善面试表现的模拟面试方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113095165A true CN113095165A (zh) | 2021-07-09 |
Family
ID=76669525
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110317335.6A Pending CN113095165A (zh) | 2021-03-23 | 2021-03-23 | 一种用于完善面试表现的模拟面试方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113095165A (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008293098A (ja) * | 2007-05-22 | 2008-12-04 | Toyota Central R&D Labs Inc | 応答スコア情報生成装置、対話処理装置 |
KR101747712B1 (ko) * | 2016-04-22 | 2017-06-16 | 동서대학교산학협력단 | 스마트폰을 통한 면접 자동인식 실시간관리방법 |
CN107705090A (zh) * | 2017-09-27 | 2018-02-16 | 重庆市智汇人才开发有限公司 | 人才招聘***及方法 |
CN109299322A (zh) * | 2018-08-28 | 2019-02-01 | 南京葡萄诚信息科技有限公司 | 一种将短文本分类应用于视频中的状态判断方法 |
CN109298779A (zh) * | 2018-08-10 | 2019-02-01 | 济南奥维信息科技有限公司济宁分公司 | 基于虚拟代理交互的虚拟训练***与方法 |
CN110135800A (zh) * | 2019-04-23 | 2019-08-16 | 南京葡萄诚信息科技有限公司 | 一种人工智能视频面试方法及*** |
CN111126553A (zh) * | 2019-12-25 | 2020-05-08 | 平安银行股份有限公司 | 智能机器人面试方法、设备、存储介质及装置 |
CN111460798A (zh) * | 2020-03-02 | 2020-07-28 | 平安科技(深圳)有限公司 | 近义词推送方法、装置、电子设备及介质 |
CN111695352A (zh) * | 2020-05-28 | 2020-09-22 | 平安科技(深圳)有限公司 | 基于语义分析的评分方法、装置、终端设备及存储介质 |
-
2021
- 2021-03-23 CN CN202110317335.6A patent/CN113095165A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008293098A (ja) * | 2007-05-22 | 2008-12-04 | Toyota Central R&D Labs Inc | 応答スコア情報生成装置、対話処理装置 |
KR101747712B1 (ko) * | 2016-04-22 | 2017-06-16 | 동서대학교산학협력단 | 스마트폰을 통한 면접 자동인식 실시간관리방법 |
CN107705090A (zh) * | 2017-09-27 | 2018-02-16 | 重庆市智汇人才开发有限公司 | 人才招聘***及方法 |
CN109298779A (zh) * | 2018-08-10 | 2019-02-01 | 济南奥维信息科技有限公司济宁分公司 | 基于虚拟代理交互的虚拟训练***与方法 |
CN109299322A (zh) * | 2018-08-28 | 2019-02-01 | 南京葡萄诚信息科技有限公司 | 一种将短文本分类应用于视频中的状态判断方法 |
CN110135800A (zh) * | 2019-04-23 | 2019-08-16 | 南京葡萄诚信息科技有限公司 | 一种人工智能视频面试方法及*** |
CN111126553A (zh) * | 2019-12-25 | 2020-05-08 | 平安银行股份有限公司 | 智能机器人面试方法、设备、存储介质及装置 |
CN111460798A (zh) * | 2020-03-02 | 2020-07-28 | 平安科技(深圳)有限公司 | 近义词推送方法、装置、电子设备及介质 |
CN111695352A (zh) * | 2020-05-28 | 2020-09-22 | 平安科技(深圳)有限公司 | 基于语义分析的评分方法、装置、终端设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
杨娜: "传感器与测试技术", 航空工业出版社, pages: 174 - 196 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10643487B2 (en) | Communication and skills training using interactive virtual humans | |
CN107203953B (zh) | 一种基于互联网、表情识别和语音识别的教学***及其实现方法 | |
Chen et al. | Automated scoring of interview videos using Doc2Vec multimodal feature extraction paradigm | |
CN112749869A (zh) | 适性化职缺媒合***及方法 | |
CN115239527A (zh) | 基于知识库的教学特征融合与建模的教学行为分析*** | |
CN111428175A (zh) | 基于微表情识别的在线课程推荐方法及相关设备 | |
Alemi et al. | Virtual reality assisted pronunciation training (VRAPT) for young EFL learners | |
CN117055724A (zh) | 虚拟教学场景中生成式教学资源***及其工作方法 | |
Chou et al. | An AI mock-interview platform for interview performance analysis | |
Desai et al. | ASL citizen: a community-sourced dataset for advancing isolated sign language recognition | |
CN110956142A (zh) | 一种智能交互培训*** | |
Yu et al. | The BURCHAK corpus: A challenge data set for interactive learning of visually grounded word meanings | |
Fuyuno et al. | Multimodal analysis of public speaking performance by EFL learners: Applying deep learning to understanding how successful speakers use facial movement | |
Wei | Development and evaluation of an emotional lexicon system for young children | |
CN113095165A (zh) | 一种用于完善面试表现的模拟面试方法和装置 | |
KR102173821B1 (ko) | 스피치 훈련 시스템 | |
Gromang et al. | The development of video analysis instrument to determine teacher's character | |
Escudeiro et al. | Digital assisted communication | |
CN111461153A (zh) | 人群特征深度学习方法 | |
CN115617976B (zh) | 问答方法、装置、电子设备和存储介质 | |
CN110059231B (zh) | 一种回复内容的生成方法及装置 | |
US20240221524A1 (en) | Method and system for intelligent interpretation of information to autonomously design in-class/hybrid/remote assessment | |
Svetleff et al. | Facial Expression of Emotion Assessment from Video in Adult Second Language Learners | |
KR20220134408A (ko) | 캐릭터를 활용한 인공지능 자연어 처리 기반의 화상교육 콘텐츠 제공 방법 및 장치 | |
Hasan | Multimodal Representation Learning and Its Application to Human Behavior Analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |