CN109101108A - 基于三支决策优化智能座舱人机交互界面的方法及*** - Google Patents

基于三支决策优化智能座舱人机交互界面的方法及*** Download PDF

Info

Publication number
CN109101108A
CN109101108A CN201810823980.3A CN201810823980A CN109101108A CN 109101108 A CN109101108 A CN 109101108A CN 201810823980 A CN201810823980 A CN 201810823980A CN 109101108 A CN109101108 A CN 109101108A
Authority
CN
China
Prior art keywords
gesture
granularity
area image
computer interaction
gesture area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810823980.3A
Other languages
English (en)
Other versions
CN109101108B (zh
Inventor
刘群
张刚强
王如琪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN201810823980.3A priority Critical patent/CN109101108B/zh
Publication of CN109101108A publication Critical patent/CN109101108A/zh
Application granted granted Critical
Publication of CN109101108B publication Critical patent/CN109101108B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于智能驾驶领域,为一种基于三支决策优化智能座舱人机交互界面的方法及***,方法包括采集座舱内的手势视频,进行预处理,得到手势图像;对手势图像的手势和背景分割,得到手势区域图像;为其进行多粒度表达,利用卷积神经网络提取手势区域图像的多粒度特征;从粗粒度到细粒度计算每一粒度手势区域图像分类到各类别的条件概率,利用三支决策序贯的完成手势识别;将识别后的手势进行语义转换,人机交互界面根据语义转换后的结果进行操作;采用加权求和的方式获得最佳粒度,以该最佳粒度作为最细粒度。本发明不仅能够更精准的识别座舱内手势,执行手势命令,还能够减少座舱人机交互界面的交互时间,为用户提供更舒适的交互体验。

Description

基于三支决策优化智能座舱人机交互界面的方法及***
技术领域
本发明属于智能驾驶领域,尤其涉及一种基于三支决策优化智能座舱人机交互界面的方法及***。
背景技术
随着人工智能和深度学习技术的发展,智能驾驶已经吸引了很多人的关注。手势识别作为智能驾驶中典型的人机交互方式之一,对座舱内人机交互(HMI)界面的优化设计是非常重要的。精准快速的手势识别不仅能够提供更舒适的交互体验,也能提高驾驶者的安全性。
当前手势识别方法主要有基于传感器设备和基于计算机视觉的两种方式。前者虽然有较好的识别率,但是其成本较大,交互体验不能满足当前的需求,后者虽然采集手势图像比较容易,但是已有的包括:基于模板匹配、基于几何特征提取、基于隐马尔可夫模型和基于神经网络的手势识别方法仍然存在模型识别精度低或者识别速度慢等问题,并不能很好的适应当前精准实时的手势识别需求。模型识别精度低的主要原因在于未能很好的提取手势的特征,而识别速度慢的主要是因为模型太过复杂导致的,现有方法往往不能同时解决这两个问题。
发明内容
基于以上问题,利用深度神经网络提取特征的能力,结合多粒度信息表达方式和三支决策思想,选择合适的粒度能够同时解决手势识别精度低和识别速度慢的优化问题。
本发明提供了一种基于三支决策优化智能座舱人机交互界面的方法,包括以下步骤:
S1、采集座舱内的手势视频,对其进行预处理,得到静态的手势图像;
S2、对手势图像中的手势和背景进行分割处理,得到手势区域图像;
S3、为手势区域图像由粗粒度到细粒度进行多粒度表达;利用卷积神经网络提取手势区域图像的多粒度特征;
S4、从粗粒度到细粒度计算每一粒度手势区域图像分类到各类别的条件概率,利用三支决策序贯的完成手势识别;
S5、将识别后的手势进行语义转换,对人机交互界面根据语义转换后的手势识别结果进行相应的操作;
S6、采用加权求和的方式获得最佳粒度,以该最佳粒度作为最细粒度,重复执行步骤S3~S5。
进一步的,所述为手势区域图像由粗粒度到细粒度进行多粒度表达,对于同一手势区域图像,其多粒度信息表示方式具体如下:
其中,Ai表示手势区域图像在不同粒度的信息,A1表示手势区域图像在粗粒度的信息,An表示手势区域图像在细粒度的信息,即细粒度包含粗粒度;i=1,2,...,n,n表示粒度数。
进一步的,所述利用卷积神经网络提取手势区域图像的多粒度特征,包括利用卷积神经网络中不同的卷积核,提取手势图像的多粒度图像特征。
进一步的,所述步骤S4包括从手势区域图像提取粗粒度特征进行三支决策,若能确定手势的分类类别,则不继续细粒度的特征提取和进一步的三支决策,否则提取更细粒度的特征进行三支决策,直到确定手势区域图像的分类类别。
进一步的,所述步骤S6包括采用加权求和的方式获得最终每一粒度的人机交互界面优化结果,从而确定手势对人机交互界面优化效果最佳的粒度;
Result=w×Acc+(1-w)×Time
Time=T1+T2
其中,Result为手势区域图像的最佳粒度,Acc表示手势识别精度,Time表示手势识别过程中花费的时间,w表示权值,T1表示提取手势区域图像的多粒度特征的时间;T2表示识别手势的时间。
本发明提供了一种基于三支决策优化智能座舱人机交互界面的***,包括电性连接的摄像头、座舱手势获取模块、手势图像分割模块、多粒度特征提取模块、三支决策手势识别模块、手势语义转换模块和最佳粒度获取模块;
所述座舱手势获取模块通过摄像头采集座舱内的手势视频,将视频帧转变为一系列的静态手势图像;
所述手势图像分割模块用于将手势图像的手势和背景进行分割处理,获取手势区域图像;
所述手势多粒度特征提取模块用于提取出手势区域图像从粗粒度到细粒度的多粒度特征;
所述三支决策手势识别模块用于依据所提取的多粒度特征在每一粒度对手势区域图像进行三支决策,从而将手势分类;
所述手势语义转换模块用于将分类后的手势进行语义转换;
所述最佳粒度获取模块用于获取最佳粒度,并将所述最佳粒度发送到多粒度特征提取模块。
进一步的,所述手势多粒度特征提取模块包括卷积神经网络单元,利用卷积神经网络单元中的不同卷积核,提取出手势区域图像的多粒度图像特征;多粒度信息表示方式具体为其中,Ai表示手势区域图像在不同粒度的信息,A1表示手势区域图像在粗粒度的信息,An表示手势区域图像在细粒度的信息,即细粒度包含粗粒度;i=1,2,...,n,n表示粒度数。
进一步的,所述三支决策手势识别模块包括对手势区域图像的粗粒度特征进行三支决策,若能确定手势的分类类别,则不继续细粒度的特征提取和进一步的三支决策,否则提取更细粒度的特征进行三支决策,直到确定手势区域图像的分类类别。
进一步的,所述最佳粒度获取模块包括采用加权求和的方式获得最终每一粒度的人机交互界面优化结果,从而确定手势区域图像的最佳粒度;
Result=w×Acc+(1-w)×Time
Time=T1+T2
其中,Result为手势区域图像的最佳粒度,Acc表示手势识别精度,Time表示手势识别过程中花费的时间,w表示权值,T1表示提取手势区域图像的多粒度特征的时间;T2表示识别手势的时间。
本发明的有益效果:
本发明利用粒计算中“逐步计算”的思想,为手势图像构建多粒度信息表达方式,利用卷积神经网络提取多粒度的手势图像特征,从粗粒度到细粒度,在每一粒度应用三支决策的方法进行手势识别,然后对识别的手势进行相应的语义转化,并将手势识别结果应用在座舱内的HMI界面优化中。
本发明能够利用所获取手势不同粒度的特征,结合三支决策思想,更精准的识别手势,更快速的执行相应的语义操作,这不仅能够减少座舱HMI界面的交互时间,还能够为用户提供更舒适的交互体验。
附图说明
图1为本发明采用的流程示意图;
图2为本发明采用的多粒度特征提取示意图;
图3为本发明采用的三支决策手势识别流程图。
图4为本发明采用的HMI界面优化设计方法。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
为了更好的说明该方法的具体实施步骤,结合图1和举例的方式说明如下:
实施例1
本发明包括以下步骤:
S1、采集座舱内的手势视频,对其进行预处理,得到静态的手势图像;
S2、对手势图像中的手势和背景进行分割处理,得到手势区域图像;
S3、为手势区域图像由粗粒度到细粒度进行多粒度表达;利用卷积神经网络提取手势区域图像的多粒度特征;
S4、从粗粒度到细粒度计算每一粒度手势区域图像分类到各类别的条件概率,利用三支决策序贯的完成手势识别;
S5、将识别后的手势区域图像进行语义转换,对人机交互界面根据语义转换后的手势识别结果进行操作;
所述为手势区域图像由粗粒度到细粒度进行多粒度表达,对于同一手势区域图像,其多粒度信息表示方式具体如下:
其中,Ai表示手势区域图像在不同粒度的信息,A1表示手势区域图像在粗粒度的信息,An表示手势区域图像在细粒度的信息,即细粒度包含粗粒度;i=1,2,...,n,n表示粒度数。
所述利用卷积神经网络提取手势区域图像的多粒度特征,包括利用卷积神经网络中的不同卷积核,提取手势图像的多粒度图像特征,如图2所示,利用卷积神经网络CNN,提取手势区域图像的n个粒度的特征(依次为粗粒度到细粒度的特征)。
进一步的,所述步骤S4包括从对手势区域图像的粗粒度特征进行三支决策,若能确定手势的分类类别,则不继续细粒度的特征提取和进一步的三支决策,否则提取更细粒度的特征进行三支决策,直到确定出手势区域图像的分类类别。
其中,三支决策的流程图如图3所示,将输入的数据集,提取手势区域图像的多粒度特征,计算条件概率并进行三支决策。
选择softmax函数计算条件概率,将手势x分类为类别j的条件概率为:
其中,l=1,2,...,k,k表示手势区域图像的类别总数;θ为参数向量。
三支决策模型利用一组决策阈值α,β,γ,将手势对象划入正域(POS)、边界域(BND)和负域(NEG)中,对于正域和负域采用接受和拒绝规则,直接得到手势识别结果,而边界域采用延迟决策,当在更细粒度获取到更多信息时继续应用三支决策。
正域、边界域和负域的表达式如下:
POS(α,β)={x∈U|p(X|[x])≥α}
BND(α,β)={x∈U|β<p(X|[x])<α}
NEG(α,β)={x∈U|p(X|[x])≤β}
其中,p(X|[x])是分类的条件概率,[x]是包含x的等价类。
三支决策的阈值αi,βi,γi的计算方式如下:
分别为采取不同行动的损失函数,分别表示在第i粒度手势x属于类别X时分别采取接受、延迟和拒绝决策的损失函数,分别表示在第i粒度手势x不属于类别X时分别采取接受、延迟和拒绝决策的损失函数,每一粒度的损失函数分别由专家根据经验给出。
多粒度三支决策阈值的设置原则如下,即只有在必须或者有益于决策的情况下才进行更细粒度的决策。这为不同粒度下三支决策阈值的设置提供了依据,即粗粒度选择更大的接受阈值和更小的拒绝阈值,i=1,2,…,n-1表示由粗粒度到细粒度的序列,则不同粒度的阈值具体描述如下:
0≤βi<αi≤1,1≤i<n,
β1≤β2≤…≤βi<αi≤…≤α2≤α1
当i=n粒度时,三支决策变为二支决策,其决策阈值计算方式为:
三支决策是一种符合人类思维的决策方式,相比于传统的二支决策多了一个不承诺选择,即当信息不足以接受或者拒绝时采用第三种延迟决策。二支决策过程快速简洁,但是当获取信息不足或者获取信息需要一定代价时三支决策更加合适。选用三支决策进行手势识别的目的就是因为获取不同粒度的手势特征所需要花费的时间是不同的,对于实时性要求很高的HMI界面操作而言,考虑时间代价是非常有必要的。在三支决策手势识别中,关键的步骤是提取多粒度特征、计算三支决策的阈值对和条件概率。
实施例2
在步骤S1~S5的基础上,本实施例还增加了步骤S6、采用加权求和的方式获得最佳粒度,以该最佳粒度作为最细粒度,重复执行步骤S3~S5。
HMI界面优化设计方法如图4所示,采用加权求和的方式获得最终每一粒度的人机交互界面优化结果,从而确定手势区域图像的最佳粒度,以该最佳粒度作为最细粒度,利用卷积神经网络对新手势提取多粒度特征,并序贯的进行三支决策;
Result=w×Acc+(1-w)×Time
Time=T1+T2
其中,Result为手势区域图像的最佳粒度,Acc表示手势识别精度,Time表示手势识别过程中花费的时间,w表示权值,T1表示提取手势区域图像的多粒度特征的时间;T2表示识别手势的时间。
本实施例较实施例1能够节省更多的时间资源,有着更小的计算复杂度,例如,在实施例1的情况下,不使用最佳粒度,设定提取5个粒度的特征,花费的时间是100,而如果知道3个粒度的效果比5个粒度的识别效果稍微差一点,但是时间是40,那么综合考虑,在5到3粒度其实比5到1粒度更加的适合实际应用。
其中,人机交互界面优化设计表示将最佳粒度求出后,作为后续手势图像处理的最细粒度。由于不同粒度所提取特征的信息量不同,会得到不同的识别结果,且细粒度特征提取相较于粗粒度花费的时间更多,对手势识别精度和识别时间加权考虑,能够为手势特征提取选择一个最合适的粒度,以满足座舱内基于手势的HMI界面优化设计目标。
本发明提供了一种基于三支决策优化智能座舱人机交互界面的***,包括电性连接的摄像头、座舱手势获取模块、手势图像分割模块、多粒度特征提取模块、三支决策手势识别模块、手势语义转换模块和最佳粒度获取模块;
所述座舱手势获取模块通过摄像头采集座舱内的手势视频,将视频帧转变为一系列的静态手势图像;
所述手势图像分割模块用于将手势图像的手势和背景进行分割处理,获取手势区域图像;
所述手势多粒度特征提取模块用于提取出手势区域图像从粗粒度到细粒度的多粒度特征;
所述三支决策手势识别模块用于依据所提取的多粒度特征在每一粒度对手势区域图像进行三支决策,从而将手势分类;
所述手势语义转换模块用于将分类后的手势进行语义转换;
所述最佳粒度获取模块用于获取最佳粒度,并将所述最佳粒度发送到多粒度特征提取模块。
进一步的,所述手势多粒度特征提取模块包括卷积神经网络单元,利用卷积神经网络单元中的不同卷积核,提取出手势区域图像的多粒度图像特征;多粒度信息表示方式具体为其中,Ai表示手势区域图像在不同粒度的信息,A1表示手势区域图像在粗粒度的信息,An表示手势区域图像在细粒度的信息,即细粒度包含粗粒度;i=1,2,...,n,n表示粒度数。
进一步的,所述三支决策手势识别模块包括对手势区域图像的粗粒度特征进行三支决策,若能确定手势的分类类别,则不继续细粒度的特征提取和进一步的三支决策,否则提取更细粒度的特征进行三支决策,直到确定出手势区域图像的分类类别。
进一步的,所述最佳粒度获取模块包括采用加权求和的方式获得最终每一粒度的人机交互界面优化结果,从而确定手势区域图像的最佳粒度;
Result=w×Acc+(1-w)×Time
Time=T1+T2
其中,Result为手势区域图像的最佳粒度,Acc表示手势识别精度,Time表示手势识别过程中花费的时间,w表示权值,T1表示提取手势区域图像的多粒度特征的时间;T2表示识别手势的时间。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序指令相关的硬件来完成的,该程序可以存储于计算机可读的存储介质中,存储介质可以包括:ROM、RAM、磁盘或光盘等。
以上所举实施例,对本发明的目的、技术方案和优点进行了进一步的详细说明,所应理解的是,以上所举实施例仅为本发明的优选实施方式而已,并不用以限制本发明,凡在本发明的精神和原则之内对本发明所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种基于三支决策优化智能座舱人机交互界面的方法,其特征在于,所述方法包括:
S1、采集座舱内的手势视频,对其进行预处理,得到一系列静态的手势图像;
S2、对手势图像中的手势和背景进行分割处理,得到手势区域图像;
S3、为手势区域图像由粗粒度到细粒度进行多粒度表达;利用卷积神经网络提取手势区域图像的多粒度特征;
S4、从粗粒度到细粒度计算每一粒度手势区域图像分类到各类别的条件概率,利用三支决策序贯的完成手势识别;
S5、将识别后的手势进行语义转换,对人机交互界面根据语义转换后的手势识别结果进行相应的操作;
S6、采用加权求和的方式获得最佳粒度,以该最佳粒度作为最细粒度,重复执行步骤S3~S5。
2.根据权利要求1所述的一种基于三支决策优化智能座舱人机交互界面的方法,其特征在于,所述为手势区域图像由粗粒度到细粒度进行多粒度表达,对于同一手势区域图像,其多粒度信息表示方式具体如下:
其中,Ai表示手势区域图像在不同粒度的信息,A1表示手势区域图像在粗粒度的信息,An表示手势区域图像在细粒度的信息,即细粒度包含粗粒度;i=1,2,...,n,n表示粒度数。
3.根据权利要求2所述的一种基于三支决策优化智能座舱人机交互界面的方法,其特征在于,所述利用卷积神经网络提取手势区域图像的多粒度特征包括,利用卷积神经网络中不同的卷积核,提取出手势区域图像的多粒度图像特征。
4.根据权利要求1所述的一种基于三支决策优化智能座舱人机交互界面的方法,其特征在于,所述步骤S4包括从对手势区域图像的粗粒度特征进行三支决策,若能确定手势的分类类别,则不继续细粒度的特征提取和进一步的三支决策,否则提取更细粒度的特征进行三支决策,直到确定手势区域图像的分类类别。
5.根据权利要求1所述的一种基于三支决策优化智能座舱人机交互界面的方法,其特征在于,所述步骤S6包括采用加权求和的方式获得最终每一粒度的人机交互界面优化结果,从而确定手势区域图像的最佳粒度;
Result=w×Acc+(1-w)×Time
Time=T1+T2
其中,Result为手势区域图像的最佳粒度,Acc表示手势识别精度,Time表示手势识别过程中花费的时间,w表示权值,T1表示提取手势区域图像的多粒度特征的时间;T2表示识别手势的时间。
6.一种基于三支决策优化智能座舱人机交互界面的***,其特征在于,所述***包括电性连接的摄像头、座舱手势获取模块、手势图像分割模块、多粒度特征提取模块、三支决策手势识别模块、手势语义转换模块和最佳粒度获取模块;
所述座舱手势获取模块通过摄像头采集座舱内的手势视频,将视频帧转变为一系列的静态手势图像;
所述手势图像分割模块用于将手势图像的手势和背景进行分割处理,获取手势区域图像;
所述手势多粒度特征提取模块用于提取出手势区域图像从粗粒度到细粒度的多粒度特征;
所述三支决策手势识别模块用于依据所提取的多粒度特征在每一粒度对手势区域图像进行三支决策,从而将手势分类;
所述手势语义转换模块用于将分类后的手势进行语义转换;
所述最佳粒度获取模块用于获取最佳粒度,并将所述最佳粒度发送到多粒度特征提取模块。
7.根据权利要求6所述的一种基于三支决策优化智能座舱人机交互界面的***,其特征在于,所述手势多粒度特征提取模块包括卷积神经网络单元,利用卷积神经网络单元中的不同卷积核,提取出手势区域图像的多粒度图像特征;多粒度信息表示方式具体为其中,Ai表示手势区域图像在不同粒度的信息,A1表示手势区域图像在粗粒度的信息,An表示手势区域图像在细粒度的信息,即细粒度包含粗粒度;i=1,2,...,n,n表示粒度数。
8.根据权利要求6所述的一种基于三支决策优化智能座舱人机交互界面的***,其特征在于,所述三支决策手势识别模块包括对手势区域图像的粗粒度特征进行三支决策,若能确定手势的分类类别,则不继续细粒度的特征提取和进一步的三支决策,否则提取更细粒度的特征进行三支决策,直到确定出手势区域图像的分类类别。
9.根据权利要求6所述的一种基于三支决策优化智能座舱人机交互界面的***,其特征在于,所述最佳粒度获取模块包括采用加权求和的方式获得最终每一粒度的人机交互界面优化结果,从而确定手势区域图像的最佳粒度;
Result=w×Acc+(1-w)×Time
Time=T1+T2
其中,Result为手势区域图像的最佳粒度,Acc表示手势识别精度,Time表示手势识别过程中花费的时间,w表示权值,T1表示提取手势区域图像的多粒度特征的时间;T2表示识别手势的时间。
CN201810823980.3A 2018-07-25 2018-07-25 基于三支决策优化智能座舱人机交互界面的方法及*** Active CN109101108B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810823980.3A CN109101108B (zh) 2018-07-25 2018-07-25 基于三支决策优化智能座舱人机交互界面的方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810823980.3A CN109101108B (zh) 2018-07-25 2018-07-25 基于三支决策优化智能座舱人机交互界面的方法及***

Publications (2)

Publication Number Publication Date
CN109101108A true CN109101108A (zh) 2018-12-28
CN109101108B CN109101108B (zh) 2021-06-18

Family

ID=64847467

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810823980.3A Active CN109101108B (zh) 2018-07-25 2018-07-25 基于三支决策优化智能座舱人机交互界面的方法及***

Country Status (1)

Country Link
CN (1) CN109101108B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109816022A (zh) * 2019-01-29 2019-05-28 重庆市地理信息中心 一种基于三支决策与cnn的图像识别方法
CN109820479A (zh) * 2019-01-08 2019-05-31 西北大学 一种荧光分子断层成像可行域优化方法
CN110298263A (zh) * 2019-06-10 2019-10-01 中南大学 基于rfid***的实时精确且无接触的手势识别方法及***
CN110458233A (zh) * 2019-08-13 2019-11-15 腾讯云计算(北京)有限责任公司 混合粒度物体识别模型训练及识别方法、装置及存储介质
CN111046732A (zh) * 2019-11-11 2020-04-21 华中师范大学 一种基于多粒度语义解析的行人重识别方法及存储介质
CN111104339A (zh) * 2019-12-31 2020-05-05 上海艺赛旗软件股份有限公司 基于多粒度学习的软件界面元素检测方法、***、计算机设备和存储介质
CN111814737A (zh) * 2020-07-27 2020-10-23 西北工业大学 一种基于序贯三支决策的目标意图识别方法
CN112580785A (zh) * 2020-12-18 2021-03-30 河北工业大学 基于三支决策的神经网络拓扑结构优化方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101639351B1 (ko) * 2015-01-15 2016-07-13 주식회사 엔씨소프트 웨어러블 입력 시스템 및 모션 인식 방법
CN107578023A (zh) * 2017-09-13 2018-01-12 华中师范大学 人机交互手势识别方法、装置及***
CN107958255A (zh) * 2017-11-21 2018-04-24 中国科学院微电子研究所 一种基于图像的目标检测方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101639351B1 (ko) * 2015-01-15 2016-07-13 주식회사 엔씨소프트 웨어러블 입력 시스템 및 모션 인식 방법
CN107578023A (zh) * 2017-09-13 2018-01-12 华中师范大学 人机交互手势识别方法、装置及***
CN107958255A (zh) * 2017-11-21 2018-04-24 中国科学院微电子研究所 一种基于图像的目标检测方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
时煜斌: ""基于三支决策的机器人触感手势识别研究"", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109820479A (zh) * 2019-01-08 2019-05-31 西北大学 一种荧光分子断层成像可行域优化方法
CN109820479B (zh) * 2019-01-08 2021-08-27 西北大学 一种荧光分子断层成像可行域优化方法
CN109816022A (zh) * 2019-01-29 2019-05-28 重庆市地理信息中心 一种基于三支决策与cnn的图像识别方法
CN110298263A (zh) * 2019-06-10 2019-10-01 中南大学 基于rfid***的实时精确且无接触的手势识别方法及***
CN110458233A (zh) * 2019-08-13 2019-11-15 腾讯云计算(北京)有限责任公司 混合粒度物体识别模型训练及识别方法、装置及存储介质
CN110458233B (zh) * 2019-08-13 2024-02-13 腾讯云计算(北京)有限责任公司 混合粒度物体识别模型训练及识别方法、装置及存储介质
CN111046732A (zh) * 2019-11-11 2020-04-21 华中师范大学 一种基于多粒度语义解析的行人重识别方法及存储介质
CN111046732B (zh) * 2019-11-11 2023-11-28 华中师范大学 一种基于多粒度语义解析的行人重识别方法及存储介质
CN111104339B (zh) * 2019-12-31 2023-06-16 上海艺赛旗软件股份有限公司 基于多粒度学习的软件界面元素检测方法、***、计算机设备和存储介质
CN111104339A (zh) * 2019-12-31 2020-05-05 上海艺赛旗软件股份有限公司 基于多粒度学习的软件界面元素检测方法、***、计算机设备和存储介质
CN111814737A (zh) * 2020-07-27 2020-10-23 西北工业大学 一种基于序贯三支决策的目标意图识别方法
CN111814737B (zh) * 2020-07-27 2022-02-18 西北工业大学 一种基于序贯三支决策的目标意图识别方法
CN112580785B (zh) * 2020-12-18 2022-04-05 河北工业大学 基于三支决策的神经网络拓扑结构优化方法
CN112580785A (zh) * 2020-12-18 2021-03-30 河北工业大学 基于三支决策的神经网络拓扑结构优化方法

Also Published As

Publication number Publication date
CN109101108B (zh) 2021-06-18

Similar Documents

Publication Publication Date Title
CN109101108A (zh) 基于三支决策优化智能座舱人机交互界面的方法及***
US11379711B2 (en) Video action detection method based on convolutional neural network
CN108875674B (zh) 一种基于多列融合卷积神经网络的驾驶员行为识别方法
CN107273845B (zh) 一种基于置信区域和多特征加权融合的人脸表情识别方法
CN109741318B (zh) 基于有效感受野的单阶段多尺度特定目标的实时检测方法
Alani et al. Hand gesture recognition using an adapted convolutional neural network with data augmentation
CN112150821B (zh) 轻量化车辆检测模型构建方法、***及装置
CN112507777A (zh) 一种基于深度学习的光学遥感图像舰船检测与分割方法
WO2018028255A1 (zh) 基于对抗网络的图像显著性检测方法
CN113158862B (zh) 一种基于多任务的轻量级实时人脸检测方法
Yamashita et al. Hand posture recognition based on bottom-up structured deep convolutional neural network with curriculum learning
Sajanraj et al. Indian sign language numeral recognition using region of interest convolutional neural network
CN113487610B (zh) 疱疹图像识别方法、装置、计算机设备和存储介质
CN112381030A (zh) 一种基于特征融合的卫星光学遥感图像目标检测方法
CN113743505A (zh) 基于自注意力和特征融合的改进ssd目标检测方法
CN113255602A (zh) 基于多模态数据的动态手势识别方法
CN114723010B (zh) 一种异步事件数据的自动学习增强方法及***
CN114492634B (zh) 一种细粒度装备图片分类识别方法及***
CN111126155A (zh) 一种基于语义约束生成对抗网络的行人再识别方法
Li et al. Gadet: A geometry-aware x-ray prohibited items detector
CN117710841A (zh) 一种无人机航拍图像的小目标检测方法、装置
CN117079095A (zh) 基于深度学习的高空抛物检测方法、***、介质和设备
Gupta et al. Progression modelling for online and early gesture detection
WO2022126367A1 (en) Sequence processing for a dataset with frame dropping
CN113705489A (zh) 基于先验区域知识指导的遥感影像细粒度飞机识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant