CN117068896A - 一种基于人脸识别与语音指示的电梯智能控制方法及*** - Google Patents
一种基于人脸识别与语音指示的电梯智能控制方法及*** Download PDFInfo
- Publication number
- CN117068896A CN117068896A CN202311321821.0A CN202311321821A CN117068896A CN 117068896 A CN117068896 A CN 117068896A CN 202311321821 A CN202311321821 A CN 202311321821A CN 117068896 A CN117068896 A CN 117068896A
- Authority
- CN
- China
- Prior art keywords
- floor
- person
- floors
- voice
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000001514 detection method Methods 0.000 claims description 24
- 230000015654 memory Effects 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 10
- 230000008676 import Effects 0.000 claims description 10
- 239000013598 vector Substances 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 7
- 230000009467 reduction Effects 0.000 claims description 6
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 210000000887 face Anatomy 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000001815 facial effect Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000012795 verification Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000036544 posture Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 244000052616 bacterial pathogen Species 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000000306 component Substances 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000008030 elimination Effects 0.000 description 2
- 238000003379 elimination reaction Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000000638 solvent extraction Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000002618 waking effect Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 206010011409 Cross infection Diseases 0.000 description 1
- 206010029803 Nosocomial infection Diseases 0.000 description 1
- 229910000831 Steel Inorganic materials 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 239000008358 core component Substances 0.000 description 1
- 239000002537 cosmetic Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004793 poor memory Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66B—ELEVATORS; ESCALATORS OR MOVING WALKWAYS
- B66B1/00—Control systems of elevators in general
- B66B1/34—Details, e.g. call counting devices, data transmission from car to control system, devices giving information to the control system
- B66B1/46—Adaptations of switches or switchgear
- B66B1/468—Call registering systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66B—ELEVATORS; ESCALATORS OR MOVING WALKWAYS
- B66B1/00—Control systems of elevators in general
- B66B1/34—Details, e.g. call counting devices, data transmission from car to control system, devices giving information to the control system
- B66B1/3407—Setting or modification of parameters of the control system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66B—ELEVATORS; ESCALATORS OR MOVING WALKWAYS
- B66B2201/00—Aspects of control systems of elevators
- B66B2201/40—Details of the change of control mode
- B66B2201/402—Details of the change of control mode by historical, statistical or predicted traffic data, e.g. by learning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66B—ELEVATORS; ESCALATORS OR MOVING WALKWAYS
- B66B2201/00—Aspects of control systems of elevators
- B66B2201/40—Details of the change of control mode
- B66B2201/46—Switches or switchgear
- B66B2201/4607—Call registering systems
- B66B2201/4623—Wherein the destination is registered after boarding
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66B—ELEVATORS; ESCALATORS OR MOVING WALKWAYS
- B66B2201/00—Aspects of control systems of elevators
- B66B2201/40—Details of the change of control mode
- B66B2201/46—Switches or switchgear
- B66B2201/4607—Call registering systems
- B66B2201/4638—Wherein the call is registered without making physical contact with the elevator system
- B66B2201/4646—Wherein the call is registered without making physical contact with the elevator system using voice recognition
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66B—ELEVATORS; ESCALATORS OR MOVING WALKWAYS
- B66B2201/00—Aspects of control systems of elevators
- B66B2201/40—Details of the change of control mode
- B66B2201/46—Switches or switchgear
- B66B2201/4607—Call registering systems
- B66B2201/4676—Call registering systems for checking authorization of the passengers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Elevator Control (AREA)
Abstract
本发明公开了一种基于人脸识别与语音指示的电梯智能控制方法及***,属于升降机领域,本发明通过提供零接触智能电梯解决方案,可通过人脸识别获取电梯运行权限,再利用语音识别的方式完成楼层选取基础乘梯动作,避免选择楼层时发生交叉感染,同时提高了楼层选择的智能化和自动化水平,将历史前往楼层和前往楼层的时间进行提取并导入楼层预测策略中预测该时间该人员期望前往的楼层,提取该人员的语音数据中关于楼层的词语表示,与该人员期望前往的楼层数进行对比,判断楼层的词语表示是否在期望前往的楼层数中,提高了楼层选择的准确性,进一步避免用户选错楼层。
Description
技术领域
本发明属于升降机技术领域,具体的说是一种基于人脸识别与语音指示的电梯智能控制方法及***。
背景技术
电梯是一种在多层建筑物中垂直运输人员或货物的设备。它通常由一个电动机、钢丝绳和吊舱组成,并通过电子控制***实现运行和楼层选择等功能,其主要包括:电动机:电梯的核心部件,通过电源驱动电动机来提供动力。电动机通常使用交流或直流电机,可以是齿轮驱动、牵引驱动或液压驱动等。钢丝绳和吊舱:电梯通过钢丝绳将吊舱与电动机连接起来。吊舱是电梯内部的载人或载货部分,可以举升或下降;楼层选择***:电梯配有按钮或面板,供乘客选择目标楼层。乘客可以通过按钮选择上行、下行或停止等运行状态;电子控制***:控制电梯的运行和操作,包括电机驱动、楼层选择、门控制、安全保护等功能。电子控制***使用传感器和编码器等设备来感知电梯的位置和运行状态,并根据预设的逻辑和算法进行控制,在现有技术进行电梯楼层选择时通常是通过按按钮的方式进行选择,这种方式会导致手部与电梯接触,电梯中人多时容易按错楼层或者容易导致病菌的传播,自动化和智能化效果较差,现有技术中均存在上述问题;
例如申请公开号为CN104444657A的中国专利公开了一种用于电梯轿厢楼层选择的控制方法,包括:在轿厢内设置检测区域,并对进入检测的区域移动终端的号码进行提取;采用轿厢控制电路生成推送信息,并将该推送信息发送至与提取到号码所对应的移动终端上;移动终端接收所述推送信息,并将所要到达楼层对应的数字作为回复信息进行反馈;将接收的回复信息中的数字进行提取,并识别获得所要到达的楼层数字;并且,控制轿厢移动至对应楼层。该发明主动推送楼层选择信息,方便、快捷的实现楼层的选择,自动化程度高,且方便轿厢内的任何位置的人员都可以选择对应楼层,提高自动选择的功能,实现无卡式的楼层选择;
同时例如在申请公开号为CN108529359A的中国专利中公开一种电梯楼层选择控制方法,包括如下步骤:步骤1,乘客利用移动设备扫描电梯轿厢内的二维码,登陆服务器,进入电梯乘坐***,输入信息;步骤2,服务器验证输入信息是否完善,若完善则跳转至楼层选择界面,供乘客选择或输入目的楼层;步骤3,服务器将乘客输入的目的楼层发送给控制器;步骤4,控制器根据服务器发送的目的楼层,控制电梯运行至目的楼层。此种方法可实现用手机选择电梯楼层,实现对访客的有效管理。
以上专利均存在本背景技术提出的问题:在现有技术进行电梯楼层选择时通常是通过按按钮的方式进行选择,这种方式会导致手部与电梯接触,电梯中人多时容易按错楼层或者容易导致病菌的传播,自动化和智能化效果较差,为了解决这些问题,本申请设计了一种基于人脸识别与语音指示的电梯智能控制方法及***。
发明内容
针对现有技术的不足,本发明提出了一种基于人脸识别与语音指示的电梯智能控制方法及***,本发明通过提供零接触智能电梯解决方案,可通过人脸识别获取电梯运行权限,再利用语音识别的方式完成楼层选取基础乘梯动作,避免选择楼层时发生交叉感染,同时提高了楼层选择的智能化和自动化水平,通过电梯中的语言采集终端对电梯内语音进行采集,且导入语音提取策略中对核对人员的语音数据进行分离,得到该人员的语音数据,将历史前往楼层和前往楼层的时间进行提取并导入楼层预测策略中预测该时间该人员期望前往的楼层,提取该人员的语音数据中关于楼层的词语表示,与该人员期望前往的楼层数进行对比,判断楼层的词语表示是否在期望前往的楼层数中,提高了楼层选择的准确性,进一步避免用户选错楼层。
为实现上述目的,本发明提供如下技术方案:
一种基于人脸识别与语音指示的电梯智能控制方法,其包括以下具体步骤:S1、人员进入电梯,电梯中的图像采集终端对人员面部图像进行采集;
S2、将人员面部图像导入面部核对策略中进行人员身份的核对,并对该人员的历史前往电梯楼层数据进行提取;
S3、电梯中的语言采集终端对电梯内语音进行采集,且导入语音提取策略中对核对人员的语音数据进行分离,得到该人员的语音数据;
S4、将历史前往楼层和前往楼层的时间进行提取并导入楼层预测策略中预测该时间该人员期望前往的楼层;
S5、提取该人员的语音数据中关于楼层的词语表示,与该人员期望前往的楼层数进行对比;
S6、判断楼层的词语表示是否在期望前往的楼层数中;
S7、若楼层的词语表示在期望前往的楼层数中,则前往词语表示的楼层,若楼层的词语表示不在期望前往的楼层数中,则向该人员发布楼层核对命令,请求人员核对该楼层信息,核对完成后再前往核对后的楼层。
具体的,所述S2的面部核对策略包括以下具体步骤:
S21、对进入电梯内部的人员面部图像进行提取,提取人员眼部图像,取双眼中心处的连线,测量其延长线与图像的上下边框所成的角度,设为基准角度;
S22、使面部图像在边框中转动基准角度,与储存的工作人员标准图像位置对应,提取面部图像的特征序列和储存的工作人员标准图像特征序列,将标准图像的特征序列和面部图像特征序列导入相似度检测网络中进行相似度检测,以相似度最大的工作人员标准图像对应的身份作为核对人员的身份;
S23、确定人员身份后,提取该人员的历史前往电梯楼层数据,历史前往电梯楼层数据包括近一周该时间段前往各个楼层的次数和当天前往各个楼层的次数。
具体的,所述S3中的语音提取策略包括以下具体步骤:
S31、对采集的电梯内的语音导入自适应滤波器进行降噪处理,从降噪后的语音信号中提取符合核对人员身份的声纹特征向量;
S32、从语音信号中获取核对人员的语音信息,将人员的语音信息导入语音识别引擎转化为文字信号,获取文字信号中的数字楼层信息,作为楼层的词语表示。
具体的,所述S4中的楼层预测策略包括以下具体步骤:
S41、提取该人员的近一周该时间段前往各个楼层的次数,计算其近一周该时间段前往各个楼层的期望,,其中,/>为该人员的近一周该时间段前往k楼层的期望,为该人员的近一周该时间段前往k楼层的次数,/>为该人员的近一周该时间段前往i楼层的次数,n为电梯总楼层数;
S42、提取该人员当天前往各个楼层的次数,计算其当天前往各个楼层的期望,,其中,/>为该人员的当天前往k楼层的期望,/>为该人员的当天前往k楼层的次数,/>为该人员的当天前往j楼层的次数;
S43、将其近一周该时间段前往k楼层的概率和当天前往各个楼层的概率代入该人员前往k楼层期望值公式中计算该人员前往k楼层期望值,该人员前往k楼层期望值公式为:,其中/>为当天前往k楼层的期望的占比系数,/>为近一周该时间段前往k楼层的期望的占比系数,其中,/>,/>;
S44、提取设定的期望阈值,将各楼层的期望值与期望阈值进行对比,将期望值大于等于期望阈值的楼层设为该时间该人员期望前往的楼层。
具体的,所述S5包括以下具体步骤:
S51、提取该人员的语音数据中关于楼层的词语表示,同时提取该时间该人员期望前往的楼层;
S52、将语音数据中关于楼层的词语表示与该时间该人员期望前往的楼层进行核对。
具体的,所述S4还包括以下具体步骤:
S45、对于识别不清楚的文字信号中的数字楼层信息,例如十层和四层,我们将识别不清楚的文字信号中的数字楼层的楼层期望值进行降序排列,判断是否有楼层期望值大于等于期望阈值,若有,则选择其中楼层期望值大的对应楼层作为楼层的词语表示,若没有,则将识别不清楚的文字信号中的数字楼层任一项作为楼层的词语表示。
一种基于人脸识别与语音指示的电梯智能控制***,其基于上述所述的一种基于人脸识别与语音指示的电梯智能控制方法实现,包括面部采集模块、身份核对模块、储存模块、语音识别模块、楼层预测模块、楼层核对模块、控制模块和核对命令发布模块,所述控制模块用于控制面部采集模块、身份核对模块、储存模块、语音识别模块、楼层预测模块、楼层核对模块和核对命令发布模块的运行,所述面部采集模块用于通过图像采集终端对人员面部图像进行采集,所述身份核对模块用于将人员面部图像导入面部核对策略中进行人员身份的核对,所述储存模块用于对人员的历史前往电梯楼层数据进行储存,所述语音识别模块用于通过电梯中的语言采集终端对电梯内语音进行采集,且导入语音提取策略中对核对人员的语音数据进行分离,得到该人员的语音数据。
具体的,所述楼层预测模块用于将历史前往楼层和前往楼层的时间进行提取并导入楼层预测策略中预测该时间该人员期望前往的楼层,所述楼层核对模块用于提取该人员的语音数据中关于楼层的词语表示,与该人员期望前往的楼层数进行对比,判断楼层的词语表示是否在期望前往的楼层数中,所述核对命令发布模块用于向该人员发布楼层核对命令,请求人员核对该楼层信息,核对完成后再前往核对后的楼层。
具体的,所述身份核对模块包括基准角度测量单元和人员身份核对单元,所述基准角度测量单元用于对进入电梯内部的人员面部图像进行提取,提取人员眼部图像,取双眼中心处的连线,测量其延长线与图像的上下边框所成的角度,设为基准角度,所述人员身份核对单元用于提取面部图像的特征序列和储存的工作人员标准图像特征序列,将标准图像的特征序列和面部图像特征序列导入相似度检测网络中进行相似度检测,以相似度最大的工作人员标准图像对应的身份作为核对人员的身份。
具体的,所述楼层预测模块包括一周楼层期望计算单元和当天楼层期望计算单元,所述一周楼层期望计算单元用于提取该人员的近一周该时间段前往各个楼层的次数,计算其近一周该时间段前往各个楼层的期望,所述当天楼层期望计算单元用于提取该人员当天前往各个楼层的次数,计算其当天前往各个楼层的期望。
一种电子设备,包括:处理器和存储器,其中,所述存储器中存储有可供处理器调用的计算机程序;
所述处理器通过调用所述存储器中存储的计算机程序,执行上述所述的一种基于人脸识别与语音指示的电梯智能控制方法。
一种计算机可读存储介质,储存有指令,当所述指令在计算机上运行时,使得计算机执行如上述所述的一种基于人脸识别与语音指示的电梯智能控制方法。
与现有技术相比,本发明的有益效果是:
1、本发明通过提供零接触智能电梯解决方案,可通过人脸识别获取电梯运行权限,再利用语音识别的方式完成楼层选取基础乘梯动作,避免选择楼层时发生交叉感染,同时提高了楼层选择的智能化和自动化水平。
2、通过电梯中的语言采集终端对电梯内语音进行采集,且导入语音提取策略中对核对人员的语音数据进行分离,得到该人员的语音数据,将历史前往楼层和前往楼层的时间进行提取并导入楼层预测策略中预测该时间该人员期望前往的楼层,提取该人员的语音数据中关于楼层的词语表示,与该人员期望前往的楼层数进行对比,判断楼层的词语表示是否在期望前往的楼层数中,提高了楼层选择的准确性,进一步避免用户选错楼层。
附图说明
图1为本发明一种基于人脸识别与语音指示的电梯智能控制方法具体步骤示意图;
图2为本发明一种基于人脸识别与语音指示的电梯智能控制方法的S2具体步骤示意图;
图3为本发明一种基于人脸识别与语音指示的电梯智能控制***的框架示意图。
图4为本发明一种基于人脸识别与语音指示的电梯智能控制***的楼层预测模块示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。
实施例1
请参阅图1-图2,本发明提供的实施例:一种基于人脸识别与语音指示的电梯智能控制方法,其包括以下具体步骤:S1、人员进入电梯,电梯中的图像采集终端对人员面部图像进行采集;
S2、将人员面部图像导入面部核对策略中进行人员身份的核对,并对该人员的历史前往电梯楼层数据进行提取;
在本实施例中,S2的面部核对策略包括以下具体步骤:
S21、对进入电梯内部的人员面部图像进行提取,提取人员眼部图像,取双眼中心处的连线,测量其延长线与图像的上下边框所成的角度,设为基准角度;
S22、使面部图像在边框中转动基准角度,与储存的工作人员标准图像位置对应,提取面部图像的特征序列和储存的工作人员标准图像特征序列,将标准图像的特征序列和面部图像特征序列导入相似度检测网络中进行相似度检测,以相似度最大的工作人员标准图像对应的身份作为核对人员的身份;
这里通过部分代码实现该步骤:
import cv2
import dlib
import numpy as np
# 加载人脸检测器和关键点检测器
detector = dlib.get_frontal_face_detector()
predictor = dlib.shape_predictor("shape_predictor_68_face_landmarks.dat") # 请下载并提供正确的路径
# 加载工作人员标准图像的特征序列,这里用随机生成的示例数据代替
standard_features = np.random.rand(68, 2)
def preprocess_image(image):
# 进行人脸检测和关键点检测
gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
faces = detector(gray)
if len(faces) == 0:
return None, None
face = faces[0]
landmarks = predictor(gray, face)
# 提取眼部图像并计算角度
left_eye = landmarks.part(36)
right_eye = landmarks.part(45)
eye_center = ((left_eye.x + right_eye.x) // 2, (left_eye.y +right_eye.y) // 2)
angle = np.arctan2(right_eye.y - left_eye.y, right_eye.x - left_eye.x) * 180.0 / np.pi
在此需要说明的是,在这个过程中输入的是一张含有人脸的图像,输出的是所有人脸的矩形框。一般来说,人脸检测应该能够检测出图像中的所有人脸,不能有漏检,更不能有错检。获得人脸之后,第二步我们要做的工作就是人脸对齐,由于原始图像中的人脸可能存在姿态、位置上的差异,为了之后的统一处理,我们要把人脸“摆正”。为此,需要检测人脸中的关键点,比如眼睛的位置、鼻子的位置、嘴巴的位置、脸的轮廓点等。根据这些关键点可以使用仿射变换将人脸统一校准,以消除姿势不同带来的误差。随着人脸检测面临的要求越来越高,比如:人脸尺度多变、数量冗大、姿势多样,包括俯拍人脸、戴帽子口罩等的遮挡、表情夸张、化妆伪装、光照条件恶劣、分辨率低甚至连肉眼都较难区分等。在这样复杂的环境下基于Haar特征的人脸检测表现的不尽人意。我们采用一种基于卷积神经网络的一种高精度的实时人脸检测和对齐技术,即MTCNN算法。
MTCNN算法包含三个子网络:Proposal Network(P-Net)、Refine Network(R-Net)、Output Network(O-Net),这三个网络对人脸的处理依次从粗到细。在使用这三个子网络之前,需要使用图像金字塔将原始图像缩放到不同的尺度,然后将不同尺度的图像送入这三个子网络中进行训练,目的是为了可以检测到不同大小的人脸,从而实现多尺度目标检测,由于MTCNN包含三个子网络,因此其损失函数也由三部分组成。针对人脸识别问题,直接使用交叉熵代价函数,对于框回归和关键点定位,使用L2损失。最后把这三部分的损失各自乘以自身的权重累加起来,形成最后的总损失。在训练P-Net和R-Net的时候,我们主要关注目标框的准确度,而较少关注关键点判定的损失,因此关键点损失所占的权重较小。对于O-Net,比较关注的是关键点的位置,因此关键点损失所占的权重就会比较大。
将输入的人脸图像转换为一个向量的表示,也就是所谓的特征。因此,利用经典的人脸识别***——谷歌人脸识别***facenet,该网络主要包含两部分:MTCNN部分:用于人脸检测和人脸对齐,输出160×160大小的图像;CNN部分:可以直接将人脸图像(默认输入是160×160大小)映射到欧几里得空间,空间距离的长度代表了人脸图像的相似性,只要该映射空间生成,人脸识别、验证和聚类等任务就可完成;
S23、确定人员身份后,提取该人员的历史前往电梯楼层数据,历史前往电梯楼层数据包括近一周该时间段前往各个楼层的次数和当天前往各个楼层的次数;
S3、电梯中的语言采集终端对电梯内语音进行采集,且导入语音提取策略中对核对人员的语音数据进行分离,得到该人员的语音数据;
在本实施例中,S3中的语音提取策略包括以下具体步骤:
S31、对采集的电梯内的语音导入自适应滤波器进行降噪处理,从降噪后的语音信号中提取符合核对人员身份的声纹特征向量;
在这里通过代码实现上述步骤:
import numpy as np
from scipy.io import wavfile
import librosa
import librosa.display
# 加载录音文件
sample_rate, audio = wavfile.read("recorded_audio.wav") # 请提供正确的文件路径
# 自适应滤波器降噪
denoised_audio = librosa.effects.preemphasis(audio)
denoised_audio = librosa.effects.decompose.nn_filter(denoised_audio,aggregate=np.median, metric='cosine' width=int(librosa.time_to_frames(2, sr=sample_rate)))
# 提取声纹特征向量,这里用示例MFCC特征代替
mfcc_features = librosa.feature.mfcc(y=denoised_audio, sr=sample_rate, n_mfcc=13)
# 对特征向量进行平均,得到声纹特征向量
voiceprint_feature = np.mean(mfcc_features, axis=1)
# 此处假设您已经有了一个储存的标准声纹特征向量
standard_voiceprint_feature = np.random.rand(13)
# 计算相似度,这里使用余弦相似度作为示例
similarity = np.dot(voiceprint_feature, standard_voiceprint_feature)/ (
np.linalg.norm(voiceprint_feature) * np.linalg.norm(standard_voiceprint_feature)
)
print("Similarity:", similarity)
S32、从语音信号中获取核对人员的语音信息,将人员的语音信息导入语音识别引擎转化为文字信号,获取文字信号中的数字楼层信息,作为楼层的词语表示;
在此需要说明的是,对于语音交互实现基础乘梯动作指令方面,针对电梯密闭空间下的特殊声场环境,将采用多麦克风阵列,内置波束形成、混响消除、回声消除等语音降噪算法,与免唤醒、多轮对话的技术结合,在多人同时乘梯的情形下,只需一次唤醒,乘客依次说出目标楼层,无需重复唤醒;
利用近场/远场语音识别技术,其中,远场语音识别,是以麦克风阵列远距离拾取的语音数据作为输入数据,通过语音识别的算法将语音信号转写成文字的技术。虽然和近场语音识别技术在原理上是相同的,但是由于音源和麦克风之间的空间距离增大,在声波传播过程中会出现信号强度的衰减和各种噪音干扰,因此需要特殊的语音数据拾取和预处理技术。不同的拾取设备和预处理技术常常会使用于语音识别的声波信号特征发生改变,因此针对不同的远场语音拾取技术,需要对语音识别引擎进行定制化适配和优化,当语音信号在传播过程中有所衰减,影响采集信号的强度和分辨率,则使用灵敏度非常高的指向性麦克风,同时将麦克风的参数调整到适合远场语音数据的模式,可以最大限度采集清晰的远场语音信号,语音指令声波在传输过程中受到周围噪音的污染,降低声波信号的信噪比,使用定向波束成形技术,抑制方向外的噪音,从而减少噪音对语音信号的干扰,在一个房间里,麦克风拾取的声波不仅仅直接来自于音源,还有音源发出后经过墙壁反射的迟到的声波,形成声音的残留,造成混响。利用多个麦克风采集的数据,通过多通道回声消除算法,将这些不同时间达到的声音数据分离开来,从而消除了混响对声音数据的影响;
S4、将历史前往楼层和前往楼层的时间进行提取并导入楼层预测策略中预测该时间该人员期望前往的楼层;
在本实施例中,S4中的楼层预测策略包括以下具体步骤:
S41、提取该人员的近一周该时间段前往各个楼层的次数,计算其近一周该时间段前往各个楼层的期望,,其中,/>为该人员的近一周该时间段前往k楼层的期望,为该人员的近一周该时间段前往k楼层的次数,/>为该人员的近一周该时间段前往i楼层的次数,n为电梯总楼层数;
这里通过示例代码实现:
import numpy as np
# 假设您已经获取了名称为floor_counts的字典,包含了近一周该时间段内每个楼层的访问次数,例如{"Floor1": 10, "Floor2": 20, "Floor3": 15, ...}
floor_counts = {
"Floor1": 10,
"Floor2": 20,
"Floor3": 15,
# 其他楼层
}
# 计算期望P1k
expected_probabilities = {}
for floor, count in floor_counts.items():
denominator = 1 + sum(floor_counts.values()) - count
expected_probabilities[floor] = count / denominator
# 输出结果
for floor, probability in expected_probabilities.items():
print(f"Expected Probability for {floor}: {probability}")
S42、提取该人员当天前往各个楼层的次数,计算其当天前往各个楼层的期望,,其中,/>为该人员的当天前往k楼层的期望,/>为该人员的当天前往k楼层的次数,/>为该人员的当天前往j楼层的次数;
S43、将其近一周该时间段前往k楼层的概率和当天前往各个楼层的概率代入该人员前往k楼层期望值公式中计算该人员前往k楼层期望值,该人员前往k楼层期望值公式为:,其中/>为当天前往k楼层的期望的占比系数,/>为近一周该时间段前往k楼层的期望的占比系数,其中,/>,/>;
S44、提取设定的期望阈值,将各楼层的期望值与期望阈值进行对比,将期望值大于等于期望阈值的楼层设为该时间该人员期望前往的楼层;
在此需要说明的是,有一些记性较差、或者记忆力偏差的人员记错楼层,容易导致其进入楼层发生错误,在这里通过统计该人员前往各楼层的期望值,对前往期望值较小的楼层的人员进行提醒,进而避免其楼层出错;
S4还包括以下具体步骤:
S45、对于识别不清楚的文字信号中的数字楼层信息,例如十层和四层、一层和七层,我们将识别不清楚的文字信号中的数字楼层的楼层期望值进行降序排列,判断是否有楼层期望值大于等于期望阈值,若有,则选择其中楼层期望值大的对应楼层作为楼层的词语表示,若没有,则将识别不清楚的文字信号中的数字楼层任一项作为楼层的词语表示;
S5、提取该人员的语音数据中关于楼层的词语表示,与该人员期望前往的楼层数进行对比;
S5包括以下具体步骤:
S51、提取该人员的语音数据中关于楼层的词语表示,同时提取该时间该人员期望前往的楼层;
S52、将语音数据中关于楼层的词语表示与该时间该人员期望前往的楼层进行核对;
S6、判断楼层的词语表示是否在期望前往的楼层数中;
S7、若楼层的词语表示在期望前往的楼层数中,则前往词语表示的楼层,若楼层的词语表示不在期望前往的楼层数中,则向该人员发布楼层核对命令,请求人员核对该楼层信息,核对完成后再前往核对后的楼层。
实施例2
如图3-4所示,一种基于人脸识别与语音指示的电梯智能控制***,其基于上述的一种基于人脸识别与语音指示的电梯智能控制方法实现,包括面部采集模块、身份核对模块、储存模块、语音识别模块、楼层预测模块、楼层核对模块、控制模块和核对命令发布模块,控制模块用于控制面部采集模块、身份核对模块、储存模块、语音识别模块、楼层预测模块、楼层核对模块和核对命令发布模块的运行,面部采集模块用于通过图像采集终端对人员面部图像进行采集,身份核对模块用于将人员面部图像导入面部核对策略中进行人员身份的核对,储存模块用于对人员的历史前往电梯楼层数据进行储存,语音识别模块用于通过电梯中的语言采集终端对电梯内语音进行采集,且导入语音提取策略中对核对人员的语音数据进行分离,得到该人员的语音数据。
在本实施例中,楼层预测模块用于将历史前往楼层和前往楼层的时间进行提取并导入楼层预测策略中预测该时间该人员期望前往的楼层,楼层核对模块用于提取该人员的语音数据中关于楼层的词语表示,与该人员期望前往的楼层数进行对比,判断楼层的词语表示是否在期望前往的楼层数中,核对命令发布模块用于向该人员发布楼层核对命令,请求人员核对该楼层信息,核对完成后再前往核对后的楼层。
在本实施例中,身份核对模块包括基准角度测量单元和人员身份核对单元,基准角度测量单元用于对进入电梯内部的人员面部图像进行提取,提取人员眼部图像,取双眼中心处的连线,测量其延长线与图像的上下边框所成的角度,设为基准角度,人员身份核对单元用于提取面部图像的特征序列和储存的工作人员标准图像特征序列,将标准图像的特征序列和面部图像特征序列导入相似度检测网络中进行相似度检测,以相似度最大的工作人员标准图像对应的身份作为核对人员的身份。
在本实施例中,楼层预测模块包括一周楼层期望计算单元和当天楼层期望计算单元,一周楼层期望计算单元用于提取该人员的近一周该时间段前往各个楼层的次数,计算其近一周该时间段前往各个楼层的期望,当天楼层期望计算单元用于提取该人员当天前往各个楼层的次数,计算其当天前往各个楼层的期望。
实施例3
本实施例提供一种电子设备,包括:处理器和存储器,其中,存储器中存储有可供处理器调用的计算机程序;
处理器通过调用存储器中存储的计算机程序,执行上述的一种基于人脸识别与语音指示的电梯智能控制方法。
该电子设备可因配置或性能不同而产生比较大的差异,能够包括一个或一个以上的处理器(Central Processing Units,CPU)和一个或一个以上的存储器,其中,该存储器中存储有至少一条计算机程序,该计算机程序由该处理器加载并执行以实现上述方法实施例提供的一种基于人脸识别与语音指示的电梯智能控制方法。该电子设备还能够包括其他用于实现设备功能的部件,例如,该电子设备还能够具有有线或无线网络接口以及输入输出接口等部件,以便进行数据的输入输出。本实施例在此不做赘述。
实施例4
本实施例提出一种计算机可读存储介质,其上存储有可擦写的计算机程序;
当计算机程序在计算机设备上运行时,使得计算机设备执行上述的一种基于人脸识别与语音指示的电梯智能控制方法。
例如,计算机可读存储介质能够是只读存储器(Read-Only Memory,简称:ROM)、随机存取存储器(Random Access Memory,简称:RAM)、只读光盘(Compact Disc Read-OnlyMemory,简称:CD-ROM)、磁带、软盘和光数据存储设备等。
应理解,在本申请的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
应理解,根据A确定B并不意味着仅仅根据A确定B,还能够根据A和/或其它信息确定B。
上述实施例,可以全部或部分地通过软件、硬件、固件或其他任意组合来实现。当使用软件实现时,上述实施例可以全部或部分地以计算机程序产品的形式实现。计算机程序产品包括一个或多个计算机指令或计算机程序。在计算机上加载或执行计算机指令或计算机程序时,全部或部分地产生按照本发明实施例的流程或功能。计算机可以为通用计算机、专用计算机、计算机网络、或者其他可编程装置。计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线网络或/和无线网络方式向另一个网站站点、计算机、服务器或数据中心进行传输。计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集合的服务器、数据中心等数据存储设备。可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质。半导体介质可以是固态硬盘。
本领域普通技术人员可以意识到,结合本发明中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的***、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
在本说明书的描述中,参考术语“一个实施例”、“示例”、“具体示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上公开的本发明优选实施例只是用于帮助阐述本发明。优选实施例并没有详尽叙述所有的细节,也不限制该发明仅为的具体实施方式。显然,根据本说明书的内容,可做很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本发明的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本发明。本发明仅受权利要求书及其全部范围和等效物的限制。
Claims (12)
1.一种基于人脸识别与语音指示的电梯智能控制方法,其特征在于,其包括以下具体步骤:S1、人员进入电梯,电梯中的图像采集终端对人员面部图像进行采集;
S2、将人员面部图像导入面部核对策略中进行人员身份的核对,并对该人员的历史前往电梯楼层数据进行提取;
S3、电梯中的语言采集终端对电梯内语音进行采集,且导入语音提取策略中对核对人员的语音数据进行分离,得到该人员的语音数据;
S4、将历史前往楼层和前往楼层的时间进行提取并导入楼层预测策略中预测该时间该人员期望前往的楼层;
S5、提取该人员的语音数据中关于楼层的词语表示,与该人员期望前往的楼层数进行对比;
S6、判断楼层的词语表示是否在期望前往的楼层数中;
S7、若楼层的词语表示在期望前往的楼层数中,则前往词语表示的楼层,若楼层的词语表示不在期望前往的楼层数中,则向该人员发布楼层核对命令,请求人员核对该楼层信息,核对完成后再前往核对后的楼层。
2.如权利要求1所述的一种基于人脸识别与语音指示的电梯智能控制方法,其特征在于,所述S2的面部核对策略包括以下具体步骤:
S21、对进入电梯内部的人员面部图像进行提取,提取人员眼部图像,取双眼中心处的连线,测量其延长线与图像的上下边框所成的角度,设为基准角度;
S22、使面部图像在边框中转动基准角度,与储存的工作人员标准图像位置对应,提取面部图像的特征序列和储存的工作人员标准图像特征序列,将标准图像的特征序列和面部图像特征序列导入相似度检测网络中进行相似度检测,以相似度最大的工作人员标准图像对应的身份作为核对人员的身份;
S23、确定人员身份后,提取该人员的历史前往电梯楼层数据,历史前往电梯楼层数据包括近一周该时间段前往各个楼层的次数和当天前往各个楼层的次数。
3.如权利要求2所述的一种基于人脸识别与语音指示的电梯智能控制方法,其特征在于,所述S3中的语音提取策略包括以下具体步骤:
S31、对采集的电梯内的语音导入自适应滤波器进行降噪处理,从降噪后的语音信号中提取符合核对人员身份的声纹特征向量;
S32、从语音信号中获取核对人员的语音信息,将人员的语音信息导入语音识别引擎转化为文字信号,获取文字信号中的数字楼层信息,作为楼层的词语表示。
4.如权利要求3所述的一种基于人脸识别与语音指示的电梯智能控制方法,其特征在于,所述S4中的楼层预测策略包括以下具体步骤:
S41、提取该人员的近一周该时间段前往各个楼层的次数,计算其近一周该时间段前往各个楼层的期望,,其中,/>为该人员的近一周该时间段前往k楼层的期望,/>为该人员的近一周该时间段前往k楼层的次数,/>为该人员的近一周该时间段前往i楼层的次数,n为电梯总楼层数;
S42、提取该人员当天前往各个楼层的次数,计算其当天前往各个楼层的期望,,其中,/>为该人员的当天前往k楼层的期望,/>为该人员的当天前往k楼层的次数,/>为该人员的当天前往j楼层的次数;
S43、将其近一周该时间段前往k楼层的概率和当天前往各个楼层的概率代入该人员前往k楼层期望值公式中计算该人员前往k楼层期望值,该人员前往k楼层期望值公式为:,其中/>为当天前往k楼层的期望的占比系数,/>为近一周该时间段前往k楼层的期望的占比系数,其中,/>,/>;
S44、提取设定的期望阈值,将各楼层的期望值与期望阈值进行对比,将期望值大于等于期望阈值的楼层设为该时间该人员期望前往的楼层。
5.如权利要求4所述的一种基于人脸识别与语音指示的电梯智能控制方法,其特征在于,所述S5包括以下具体步骤:
S51、提取该人员的语音数据中关于楼层的词语表示,同时提取该时间该人员期望前往的楼层;
S52、将语音数据中关于楼层的词语表示与该时间该人员期望前往的楼层进行核对。
6.如权利要求5所述的一种基于人脸识别与语音指示的电梯智能控制方法,其特征在于,所述S4还包括以下具体步骤:
S45、对于识别不清楚的文字信号中的数字楼层信息,将识别不清楚的文字信号中的数字楼层的楼层期望值进行降序排列,判断是否有楼层期望值大于等于期望阈值,若有,则选择其中楼层期望值大的对应楼层作为楼层的词语表示,若没有,则将识别不清楚的文字信号中的数字楼层任一项作为楼层的词语表示。
7.一种基于人脸识别与语音指示的电梯智能控制***,其基于如权利要求1-6任一项所述的一种基于人脸识别与语音指示的电梯智能控制方法实现,其特征在于,包括面部采集模块、身份核对模块、储存模块、语音识别模块、楼层预测模块、楼层核对模块、控制模块和核对命令发布模块,所述控制模块用于控制面部采集模块、身份核对模块、储存模块、语音识别模块、楼层预测模块、楼层核对模块和核对命令发布模块的运行,所述面部采集模块用于通过图像采集终端对人员面部图像进行采集,所述身份核对模块用于将人员面部图像导入面部核对策略中进行人员身份的核对,所述储存模块用于对人员的历史前往电梯楼层数据进行储存,所述语音识别模块用于通过电梯中的语言采集终端对电梯内语音进行采集,且导入语音提取策略中对核对人员的语音数据进行分离,得到该人员的语音数据。
8.如权利要求7所述的一种基于人脸识别与语音指示的电梯智能控制***,其特征在于,所述楼层预测模块用于将历史前往楼层和前往楼层的时间进行提取并导入楼层预测策略中预测该时间该人员期望前往的楼层,所述楼层核对模块用于提取该人员的语音数据中关于楼层的词语表示,与该人员期望前往的楼层数进行对比,判断楼层的词语表示是否在期望前往的楼层数中,所述核对命令发布模块用于向该人员发布楼层核对命令,请求人员核对该楼层信息,核对完成后再前往核对后的楼层。
9.如权利要求8所述的一种基于人脸识别与语音指示的电梯智能控制***,其特征在于,所述身份核对模块包括基准角度测量单元和人员身份核对单元,所述基准角度测量单元用于对进入电梯内部的人员面部图像进行提取,提取人员眼部图像,取双眼中心处的连线,测量其延长线与图像的上下边框所成的角度,设为基准角度,所述人员身份核对单元用于提取面部图像的特征序列和储存的工作人员标准图像特征序列,将标准图像的特征序列和面部图像特征序列导入相似度检测网络中进行相似度检测,以相似度最大的工作人员标准图像对应的身份作为核对人员的身份。
10.如权利要求9所述的一种基于人脸识别与语音指示的电梯智能控制***,其特征在于,所述楼层预测模块包括一周楼层期望计算单元和当天楼层期望计算单元,所述一周楼层期望计算单元用于提取该人员的近一周该时间段前往各个楼层的次数,计算其近一周该时间段前往各个楼层的期望,所述当天楼层期望计算单元用于提取该人员当天前往各个楼层的次数,计算其当天前往各个楼层的期望。
11.一种电子设备,其特征在于,包括:处理器和存储器,其中,所述存储器中存储有可供处理器调用的计算机程序;
所述处理器通过调用所述存储器中存储的计算机程序,执行权利要求1-6任一项所述的一种基于人脸识别与语音指示的电梯智能控制方法。
12.一种计算机可读存储介质,其特征在于:储存有指令,当所述指令在计算机上运行时,使得计算机执行如权利要求1-6任意一项所述的一种基于人脸识别与语音指示的电梯智能控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311321821.0A CN117068896B (zh) | 2023-10-13 | 2023-10-13 | 一种基于人脸识别与语音指示的电梯智能控制方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311321821.0A CN117068896B (zh) | 2023-10-13 | 2023-10-13 | 一种基于人脸识别与语音指示的电梯智能控制方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117068896A true CN117068896A (zh) | 2023-11-17 |
CN117068896B CN117068896B (zh) | 2024-01-26 |
Family
ID=88711967
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311321821.0A Active CN117068896B (zh) | 2023-10-13 | 2023-10-13 | 一种基于人脸识别与语音指示的电梯智能控制方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117068896B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5272288A (en) * | 1990-09-11 | 1993-12-21 | Otis Elevator Company | Elevator traffic predictions using historical data checked for certainty |
JP2013063810A (ja) * | 2011-09-15 | 2013-04-11 | Hitachi Building Systems Co Ltd | エレベータ監視装置 |
JP2017001803A (ja) * | 2015-06-09 | 2017-01-05 | 東芝エレベータ株式会社 | エレベータの制御装置 |
CN107879206A (zh) * | 2017-11-08 | 2018-04-06 | 广东欧珀移动通信有限公司 | 电梯调度方法、装置、设备及存储介质 |
KR20190002131A (ko) * | 2017-06-29 | 2019-01-08 | 황성수 | 인공 지능형 이용자 기반 엘리베이터 장치의 제어 방법 |
CN111627443A (zh) * | 2020-07-27 | 2020-09-04 | 北京声智科技有限公司 | 电梯推荐方法、装置、设备及介质 |
CN111792464A (zh) * | 2020-07-21 | 2020-10-20 | 睿住科技有限公司 | 电梯的控制方法、电梯及存储介质 |
-
2023
- 2023-10-13 CN CN202311321821.0A patent/CN117068896B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5272288A (en) * | 1990-09-11 | 1993-12-21 | Otis Elevator Company | Elevator traffic predictions using historical data checked for certainty |
JP2013063810A (ja) * | 2011-09-15 | 2013-04-11 | Hitachi Building Systems Co Ltd | エレベータ監視装置 |
JP2017001803A (ja) * | 2015-06-09 | 2017-01-05 | 東芝エレベータ株式会社 | エレベータの制御装置 |
KR20190002131A (ko) * | 2017-06-29 | 2019-01-08 | 황성수 | 인공 지능형 이용자 기반 엘리베이터 장치의 제어 방법 |
CN107879206A (zh) * | 2017-11-08 | 2018-04-06 | 广东欧珀移动通信有限公司 | 电梯调度方法、装置、设备及存储介质 |
CN111792464A (zh) * | 2020-07-21 | 2020-10-20 | 睿住科技有限公司 | 电梯的控制方法、电梯及存储介质 |
CN111627443A (zh) * | 2020-07-27 | 2020-09-04 | 北京声智科技有限公司 | 电梯推荐方法、装置、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN117068896B (zh) | 2024-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110826466B (zh) | 基于lstm音像融合的情感识别方法、装置及存储介质 | |
US11501794B1 (en) | Multimodal sentiment detection | |
US7936249B2 (en) | System for security control and/or transportation of persons with an elevator installation, method of operating this system, and method of retrofitting an elevator installation with this system | |
WO2019094515A1 (en) | Sound processing method and interactive device | |
CN107481718A (zh) | 语音识别方法、装置、存储介质及电子设备 | |
CN103413113A (zh) | 一种服务机器人智能情感交互的方法 | |
KR102290186B1 (ko) | 사람의 감성 상태를 결정하기 위하여 영상을 처리하는 감성인식 방법 | |
US11328733B2 (en) | Generalized negative log-likelihood loss for speaker verification | |
CN110386515B (zh) | 基于人工智能的控制电梯停靠楼层的方法、及相关设备 | |
US11776550B2 (en) | Device operation based on dynamic classifier | |
CN109215646A (zh) | 语音交互处理方法、装置、计算机设备及存储介质 | |
CN112607534A (zh) | 一种用户乘梯引导方法及*** | |
CN114187637A (zh) | 车辆控制方法、装置、电子设备及存储介质 | |
CN110718217B (zh) | 一种控制方法、终端及计算机可读存储介质 | |
CN117068896B (zh) | 一种基于人脸识别与语音指示的电梯智能控制方法及*** | |
CN108675071B (zh) | 基于人工神经网络处理器的云端协同智能芯片 | |
CN115761576A (zh) | 视频动作识别方法、装置及存储介质 | |
CN111951793B (zh) | 唤醒词识别的方法、装置及存储介质 | |
CN117063229A (zh) | 交互语音信号处理方法、相关设备及*** | |
CN115862597A (zh) | 人物类型的确定方法、装置、电子设备和存储介质 | |
CN110569827B (zh) | 一种基于卷积神经网络的人脸识别提醒*** | |
JP2021162685A (ja) | 発話区間検知装置、音声認識装置、発話区間検知システム、発話区間検知方法及び発話区間検知プログラム | |
CN111807173A (zh) | 基于深度学习的电梯控制方法、电子设备及存储介质 | |
CN116526634B (zh) | 一种基于语音交互的充电***及实现方法 | |
WO2023238953A1 (ja) | 認証装置および認証方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |