CN116934959A - 基于手势识别的粒子影像生成方法、装置、电子设备和介质 - Google Patents

基于手势识别的粒子影像生成方法、装置、电子设备和介质 Download PDF

Info

Publication number
CN116934959A
CN116934959A CN202310744097.6A CN202310744097A CN116934959A CN 116934959 A CN116934959 A CN 116934959A CN 202310744097 A CN202310744097 A CN 202310744097A CN 116934959 A CN116934959 A CN 116934959A
Authority
CN
China
Prior art keywords
gesture
particle
acquiring
algorithm
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310744097.6A
Other languages
English (en)
Inventor
吕小琳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial and Commercial Bank of China Ltd ICBC
Original Assignee
Industrial and Commercial Bank of China Ltd ICBC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial and Commercial Bank of China Ltd ICBC filed Critical Industrial and Commercial Bank of China Ltd ICBC
Priority to CN202310744097.6A priority Critical patent/CN116934959A/zh
Publication of CN116934959A publication Critical patent/CN116934959A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

提供了一种基于手势识别的粒子影像生成方法、装置、电子设备和介质,可以应用于人工智能技术领域和物联网技术领域。所述方法包括:获取手势动作信息和手势识别分析算法包;基于所述手势动作信息,利用手势识别分析算法包,获取手势动作参数;基于所述手势动作参数,利用粒子引擎,获取手势粒子三维模型;以及将所述手势粒子三维模型进行渲染和绘制,输出手势粒子影像。本发明的基于手势识别的粒子影像生成方法能够实现手势和屏幕的互动,定义用户不同的手势控制以及不同类型的图像或动画,具有灵活可拓展的优点。

Description

基于手势识别的粒子影像生成方法、装置、电子设备和介质
技术领域
本发明涉及人工智能技术领域和物联网技术领域,更具体地涉及一种基于手势识别的粒子影像生成方法、装置、电子设备和介质。
背景技术
在如今数字技术的快速发展下,人机交互方式正在变得越来越多样和丰富。其中,手势识别技术得到了快速发展,各种研究提出了基于图像、深度摄像头、传感器等的手势识别方法,基于手势识别的互动技术允许用户通过手部动作和姿势与计算机***进行直接的交互,无需借助物理接触,从而为人机交互带来了全新的可能性。
在手势识别的应用领域中,粒子生成***能够将手势动作转化为具有视觉效果的粒子图像,通过用户的手势来控制和创造出动态、生动的图像效果。这种技术广泛应用于虚拟现实、增强现实和艺术创作等领域,为用户提供了一种全新的交互和娱乐体验。
然而,在传统的粒子影像设计领域,粒子特效往往是通过后期处理预先设计好的,用户只能单向被动地观看粒子变化;同时,尽管手势识别技术取得了显著的进展,但在对于多种手势类型的识别仍然存在准确性和鲁棒性的挑战,因此,需要进一步改进算法和模型;此外,要实现手势和粒子影像互动,需要在实时场景中进行,对于算法的实时性和效率要求较高,而在目前的研究中,一些复杂的粒子生成算法可能会导致计算量较大,影响实时性能。因此,为了使用户更具有参与感、控制感和沉浸感,需要进一步提高手势识别和粒子影像的互动效果。
发明内容
鉴于上述问题,根据本发明的第一方面,提供了一种基于手势识别的粒子影像生成方法,其特征在于,所述方法包括:获取手势动作信息和手势识别分析算法包;基于所述手势动作信息,利用手势识别分析算法包,获取手势动作参数;基于所述手势动作参数,利用粒子引擎,获取手势粒子三维模型;以及将所述手势粒子三维模型进行渲染和绘制,输出手势粒子影像。
根据一些示例性实施例,所述获取手势动作信息包括:以预设的时间间隔获取手势动作。
根据一些示例性实施例,所述手势识别分析算法包提供的算法包括:手部检测算法、手部关键点定位算法、三维重建算法、手部识别算法、跟踪算法和时间序列分析算法。
根据一些示例性实施例,所述基于所述手势动作信息,利用手势识别和分析算法包,获取手势动作参数,具体包括:基于手势动作信息,利用所述手部检测算法,获取手部区域;基于所述手部区域和所述手部关键点定位算法,获取手部关键点;基于三维重建算法,获取所述手势动作参数中的坐标向量参数;基于手部识别算法,获取所述手势动作参数中的类型参数;以及基于跟踪算法和时间序列分析算法,获取所述手势动作参数中的时间权重参数。
根据一些示例性实施例,所述基于三维重建算法,获取所述手势动作参数中的坐标向量参数,具体包括:基于所述手部关键点和所述三维重建算法,获取空间位置坐标;利用第一映射函数,将所述空间位置坐标映射为图形界面中的位置坐标;以及基于相邻时刻获取的所述位置坐标,获取所述坐标向量参数。
根据一些示例性实施例,所述基于手部识别算法,获取所述手势动作参数的类型参数,具体包括:基于所述手部关键点,提取手部特征,其中,所述手部特征包括手部的形状和轮廓;基于所述手部特征,确定手势类型,其中,所述手势类型包括手指完全握紧的第一状态、手指完全张开的第二状态以及介于所述第一状态和所述第二状态之间的中间状态;以及基于所述手势类型和所述手部识别算法,获取所述类型参数。
根据一些示例性实施例,所述基于所述手势类型和所述手部识别算法,获取所述类型参数,具体包括:获取第一取值范围,其中,所述第一取值范围的最大值对应于所述第一状态,所述第一取值范围的最小值对应于所述第二状态;基于所述手部识别算法,获得所述手势类型的形状特征;以及利用第二映射函数,将所述形状特征映射到所述第一取值范围的取值,以获得所述类型参数。
根据一些示例性实施例,所述基于跟踪算法和时间序列分析算法,获取所述手势动作参数中的时间权重参数,具体包括:基于所述手部关键点和所述跟踪算法,获取时间序列数据;以及基于所述时间序列数据和所述时间序列分析算法获取所述时间权重参数。
根据一些示例性实施例,所述基于所述手势动作参数,利用粒子引擎,获取手势粒子三维模型,具体包括:获取粒子生成器;基于所述坐标向量参数,获取粒子***坐标;基于所述类型参数,获取干扰值;基于所述时间权重参数,获取粒子响应属性;以及基于所述粒子生成器、所述粒子***坐标、所述干扰值和所述粒子响应属性,获取所述手势粒子三维模型。
根据一些示例性实施例,所述粒子响应属性包括:粒子持续时间、透明度、大小和运动速度。
根据一些示例性实施例,所述将所述手势粒子三维模型进行渲染和绘制,输出手势粒子影像,还具体包括:将所述手势动作信息与所述手势粒子影像叠加,输出合成影像。
根据本发明的第二方面,提出了一种基于手势识别的粒子影像生成装置,所述装置包括:信息和算法包获取模块,用于:获取手势动作信息和手势识别分析算法包;手势动作参数获取模块,用于:基于所述手势动作信息,利用手势识别分析算法包,获取手势动作参数;手势粒子三维模型获取模块,用于:基于所述手势动作参数,利用粒子引擎,获取手势粒子三维模型;手势粒子影像获取模块,用于:将所述手势粒子三维模型进行渲染和绘制,输出手势粒子影像。
根据一些示例性实施例,所述手势动作参数获取模块包括手部区域获取模块、手部关键点获取模块、坐标向量参数获取模块、类型参数获取模块和时间权重参数获取模块。
根据一些示例性实施例,所述手部区域获取模块可以用于基于手势动作信息,利用所述手部检测算法,获取手部区域。
根据一些示例性实施例,所述手部关键点获取模块可以用于基于所述手部区域和所述手部关键点定位算法,获取手部关键点。
根据一些示例性实施例,所述坐标向量参数获取模块可以用于基于三维重建算法,获取所述手势动作参数中的坐标向量参数。
根据一些示例性实施例,所述类型参数获取模块可以用于基于手部识别算法,获取所述手势动作参数中的类型参数。
根据一些示例性实施例,所述时间权重参数获取模块可以用于基于跟踪算法和时间序列分析算法,获取所述手势动作参数中的时间权重参数。
根据一些示例性实施例,所述坐标向量参数获取模块可以包括空间位置坐标获取单元、图形界面位置坐标获取单元和坐标向量参数获取单元。
根据一些示例性实施例,所述空间位置坐标获取单元可以用于基于所述手部关键点和所述三维重建算法,获取空间位置坐标。
根据一些示例性实施例,所述图形界面位置坐标获取单元可以用于利用第一映射函数,将所述空间位置坐标映射为图形界面中的位置坐标。
根据一些示例性实施例,所述坐标向量参数获取单元可以用于基于相邻时刻获取的所述位置坐标,获取所述坐标向量参数。
根据一些示例性实施例,所述类型参数获取模块包括手部特征提取单元、手势类型确定单元和类型参数确定模块。
根据一些示例性实施例,所述手部特征提取单元可以用于基于所述手部关键点,提取手部特征,其中,所述手部特征包括手部的形状和轮廓。
根据一些示例性实施例,所述手势类型确定单元可以用于基于所述手部特征,确定手势类型,其中,所述手势类型包括手指完全握紧的第一状态、手指完全张开的第二状态以及介于所述第一状态和所述第二状态之间的中间状态。
根据一些示例性实施例,所述类型参数确定模块可以用于基于所述手势类型和所述手部识别算法,获取所述类型参数。
根据一些示例性实施例,所述类型参数确定模块可以包括第一取值范围获取单元、形状特征获取单元和类型参数获取单元。
根据一些示例性实施例,所述第一取值范围获取单元可以用于获取第一取值范围,其中,所述第一取值范围的最大值对应于所述第一状态,所述第一取值范围的最小值对应于所述第二状态。
根据一些示例性实施例,所述形状特征获取单元可以用于基于所述手部识别算法,获得所述手势类型的形状特征。
根据一些示例性实施例,所述类型参数获取单元可以用于利用第二映射函数,将所述形状特征映射到所述第一取值范围的取值,以获得所述类型参数。
根据一些示例性实施例,所述时间权重参数可以包括时间序列数据获取单元和时间权重参数获取单元。
根据一些示例性实施例,所述时间序列数据获取单元可以用于基于所述手部关键点和所述跟踪算法,获取时间序列数据。
根据一些示例性实施例,所述时间权重参数获取单元可以用于基于所述时间序列数据和所述时间序列分析算法获取所述时间权重参数。
根据一些示例性实施例,所述手势粒子三维模型获取模块1230可以包括粒子生成器获取单元、粒子***坐标获取单元、干扰值获取单元、粒子响应属性获取单元和手势粒子三维模型获取单元。
根据一些示例性实施例,所述粒子生成器获取单元可以用于获取粒子生成器。
根据一些示例性实施例,所述粒子***坐标获取单元可以用于基于所述坐标向量参数,获取粒子***坐标。
根据一些示例性实施例,所述干扰值获取单元可以用于基于所述类型参数,获取干扰值。
根据一些示例性实施例,所述粒子响应属性获取单元可以用于基于所述时间权重参数,获取粒子响应属性。
根据一些示例性实施例,所述手势粒子三维模型获取单元可以用于基于所述粒子生成器、所述粒子***坐标、所述干扰值和所述粒子响应属性,获取所述手势粒子三维模型。
根据本发明的第三方面,提供一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行如上所述的方法。
根据本发明的第四方面,提供一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行如上所述的方法。
根据本发明的第五方面,提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上所述的方法。
上述一个或多个实施例具有如下优点或有益效果:根据本发明提供的基于手势识别的粒子影像生成方式,支持操作者对粒子图像的实时控制,可定义用户不同的手势控制以及不同类型的图像或动画,具有灵活可拓展的优点。本发明具有良好的实用性和创新性,具有互动性强、体验感强等优点,适用于商场、博物馆、画廊、体验中心等场所,可以用作新形式的广告/影视/艺术作品/大屏展示方面,人的手势与图像的互动会增强艺术性和体验感,可以为用户带来全新的互动及视觉盛宴。
附图说明
通过以下参照附图对本发明实施例的描述,本发明的上述内容以及其他目的、特征和优点将更为清楚,在附图中:
图1示意性示出了根据本发明实施例的基于手势识别的粒子影像生成方法、装置、设备、介质的应用场景图。
图2示意性示出了根据本发明实施例的基于手势识别的粒子影像生成方法的流程图。
图3示意性示出了根据本发明实施例的获取手势动作参数的方法的流程图。
图4示意性示出了根据本发明实施例的获取坐标向量参数的方法的流程图。
图5示意性示出了根据本发明实施例的基于手部识别算法获取类型参数的方法的流程图。
图6示意性示出了根据本发明实施例的提取手部形状的示意图。
图7示意性示出了根据本发明实施例的基于所述手势类型和所述手部识别算法获取所述类型参数的方法的流程图。
图8示意性示出了根据本发明实施例的获取时间权重参数的方法的流程图。
图9示意性示出了根据本发明实施例的获取手势粒子三维模型的方法的流程图。
图10A~图10C示意性示出了根据本发明实施例的手势粒子三维模型的示意图。
图11示意性示出了根据本发明实施例的手势动作和粒子实现互动的示意图。
图12示意性示出了根据本发明实施例的基于手势识别的粒子影像生成的装置的结构框图。
图13示意性示出了根据本发明实施例的适于基于手势识别的粒子影像生成方法的电子设备的方框图。
具体实施方式
以下,将参照附图来描述本发明的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本发明的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本发明实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本发明的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本发明。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的***”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的***等)。
在本发明的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,采取了必要保密措施,且不违背公序良俗。
首先,对本文中记载的技术术语作如下解释和说明。
手势识别(Gesture Recognition):一种人机交互技术,用于识别和解释人类使用手势动作进行交流和控制的行为。它通过分析和解释人体手部的动作和姿势,将其转化为可以理解的指令或控制信号,从而实现与计算机或其他智能设备的交互。
粒子引擎:一种用于模拟和渲染粒子***的计算机程序或库,通常提供了一套功能和算法,用于创建、管理和渲染粒子***,可以定义粒子的属性,并根据设定的规则和参数来模拟粒子的运动和行为。粒子引擎还可以处理粒子之间的相互作用,并提供各种特效和效果。
手势识别分析算法包:一种软件工具或库,提供了用于手势识别和分析的算法和函数,通常实现了一系列用于手势识别的计算机视觉和计算机学习算法。
粒子***是一种模拟和描述大量微小粒子在空间中运动和相互作用的技术。在传统的影像设计领域,粒子特效是通过后期影视软件预先设计好的,用户只能单向被动的观看粒子变化,因此,用户无法与之互动或参与其中,也无法对粒子***进行任何操作或调整。而手势和粒子互动技术可以为用户提供更多创意表达和个性化定制的可能性,用户可以通过不同的手势动作创造出独特的粒子效果,展现个人的创造力和表达方式。然而,尽管手势识别技术取得了显著的进展,但在对于多种手势类型的识别仍然存在准确性和鲁棒性的挑战,因此,需要进一步改进算法和模型;此外,要实现手势和粒子影像互动,需要在实时场景中进行,对于算法的实时性和效率要求较高,而在目前的研究中,一些复杂的粒子生成算法可能会导致计算量较大,影响实时性能。
基于此,本发明的实施例提供一种基于手势识别的粒子影像生成方法,所述方法包括:获取手势动作信息和手势识别分析算法包;基于所述手势动作信息,利用手势识别分析算法包,获取手势动作参数;基于所述手势动作参数,利用粒子引擎,获取手势粒子三维模型;以及将所述手势粒子三维模型进行渲染和绘制,输出手势粒子影像。在根据本发明实施例的方法中,能够定义用户不同的手势控制以及不同类型的图像或动画,具有灵活可拓展的优点,以实现手势和屏幕的互动,使用户更具有参与感、控制感和沉浸感。
需要说明的是,本发明确定的基于手势识别的粒子影像生成方法、装置、设备和介质可用于人工智能技术领域和物联网技术领域,也可用于金融领域,还可以用于除人工智能技术领域和物联网技术领域以及金融领域之外的多种领域。本发明的实施例提供的基于手势识别的粒子影像生成方法、装置、设备和介质的应用领域不做限定。
图1示意性示出了根据本发明实施例的基于手势识别的粒子影像生成方法、装置、设备、介质的应用场景图。
如图1所示,根据该实施例的应用场景100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等(仅为示例)。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对用户利用终端设备101、102、103所浏览的网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
需要说明的是,本发明实施例所提供的基于手势识别的粒子影像生成方法一般可以由服务器105执行。相应地,本发明实施例所提供的基于手势识别的粒子影像的装置一般可以设置于服务器105中。本发明实施例所提供的基于手势识别的粒子影像生成方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群执行。相应地,本发明实施例所提供的基于手势识别的粒子影像的装置也可以设置于不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
图2示意性示出了根据本发明实施例的基于手势识别的粒子影像生成方法的流程图。
如图2所示,该实施例的基于手势识别的粒子影像生成方法200可以包括操作S210~操作S240。
在操作S210,获取手势动作信息和手势识别分析算法包。
在本发明的实施例中,可以通过使用相应的传感器设备或摄像头,例如,摄像头和红外传感器等,捕捉用户的手势图像数据,以检测和跟踪用户的手部动作。具体地,需要将选择的传感器设备或摄像头安装在适当的位置,并进行必要的配置和校准,确保设备能够准确捕捉到用户的手势动作图像,并具有适当的视野范围和分辨率。
在本发明的实施例中,在获取所述手势动作信息后,可以对采集到的手势图像数据进行预处理,包括图像的缩放、裁剪、灰度化和滤波等操作,以便于提高后续的分析效果。
在本发明的实施例中,所述获取手势动作信息包括以预设的时间间隔获取手势动作。
需要说明的是,为了实现手势动作信息同步控制图像的个性化效果,需要对手势动作信息进行实时捕捉和识别处理。因此,所述预设的时间间隔应该尽可能小。
根据本发明的实施例,通过实时捕捉、识别处理及实时渲染***的支持,可实现手势同步控制图像的效果,人的手势与图像的互动会增强艺术性和体验感,可以为用户带来全新的互动及视觉盛宴。
在本发明的实施例中,可以选择合适的手势识别分析算法包,并进行相应的安装和导入,以便在代码中使用相应的功能。具体地,用于手势识别和参数提取的常用算法包包括:OpenCV(Open Source Computer Vision Library)、Mediapipe和TensorFlow等。
需要说明的是,此处列举的手势识别分析算法包仅为示例性的,不意图限制本发明实施例中手势识别分析算法包的类型,即,本发明实施例中手势识别分析算法包还可以包括其他的类型。
在本发明的实施例中,所述手势识别分析算法包提供的算法包括:手部检测算法、手部关键点定位算法、三维重建算法、手部识别算法、跟踪算法和时间序列分析算法。具体地,所述手部检测算法用于检测手部的存在和位置,可以使用Haar特征分类器和基于深度学习的目标检测算法;所述手部关键点定位算法用于检测或预测手部关键点的位置;所述三维重建算法可以使用结构光三维重建算法,基于投影结构光或摄像头等设备,获取手部信息,并利用三维点云等方法,计算坐标向量参数;所述手部识别算法可以使用预先定义的手势模板进行相似度计算,也可以使用卷积神经网络或循环神经网络等深度学习模型对输入的手势类型进行识别;所述跟踪算法可以实时追踪手部的运动轨迹,以获取手部在不同时间点上的位置数据;所述时间序列分析算法用于描述手势动作中各个位置的持续时间。
在操作S220,基于所述手势动作信息,利用手势识别分析算法包,获取手势动作参数。
在本发明的实施例中,所述手势动作参数可以包括坐标向量参数、类型参数和时间权重参数。其中,所述坐标向量参数可以用于描述手势的位置信息,包括手部的位置和手部关键点的位置等;所述类型参数可以用于描述手势的类型,例如握拳、手指张开等,为了进一步细化手势的类型,所述类型参数可以为数值形式;所述时间权重参数描述了手势动作在时间维度上的特征。
根据本发明的实施例,实时对输入的手势信息进行处理并输出手势动作参数,能够支持多种手势信息,适应复杂性,并具有可定制性。
图3示意性示出了根据本发明实施例的获取手势动作参数的方法的流程图。
如图3所示,该实施例的获取手势动作参数的方法可以包括操作S310~操作S350。
在操作S310,基于手势动作信息,利用所述手部检测算法,获取手部区域。
在本发明的实施例中,可以通过训练基于Haar特征的分类器,可以检测图像中的手部区域,该算法基于特征的级联分类器,可以有效地检测手部的存在和定位。
在操作S320,基于所述手部区域和所述手部关键点定位算法,获取手部关键点。
在本发明的实施例中,可以使用基于特征描述符的关键点定位算法或基于深度学习的关键点定位算法。例如,通过训练Hourglass网络,可以对手部关键点进行定位,使其能够准确预测手部关键点的位置。
在操作S330,基于三维重建算法,获取所述手势动作参数中的坐标向量参数。
在本发明的实施例中,为了计算准确的坐标,基于手部的关键点,可以包括以下步骤:利用三维重建算法将其转换为三维点云或三维模型,这可以通过立体视觉、结构光或运动估计等方法实现;计算三维点云或三维模型中摄像头和手部关键点之间的距离和角度,获得坐标向量参数。
图4示意性示出了根据本发明实施例的获取坐标向量参数的方法的流程图。
如图4所示,该实施例的获取坐标向量参数的方法可以包括操作S410~操作S430。
在操作S410,基于所述手部关键点和所述三维重建算法,获取空间位置坐标。
在操作S420,利用第一映射函数,将所述空间位置坐标映射为图形界面中的位置坐标。
在本发明的实施例中,根据图形界面的坐标***和设备的坐标***之间的差异,使用第一映射函数将获取到的三维手部坐标映射到图形界面中的坐标。其中,所述第一映射函数可以是线性的变换或复杂的非线性变换,具体取决于设备的布局和坐标系的差异。
在操作S430,基于相邻时刻获取的所述位置坐标,获取所述坐标向量参数。
在本发明的实施例中,基于三维重建算法可以获取手部的准确位置和姿态信息,这使得在手势与粒子的互动过程中,可以更精确地捕捉用户手部的位置和动作,以提供更精确的坐标向量参数。
返回图3,在操作S340,基于手部识别算法,获取所述手势动作参数中的类型参数。
在本发明的实施例中,为了在互动过程中实现不同的手势动作对应不同的粒子效果,需要获取类型参数,可以根据手势的不同类型来调整或触发不同的粒子效果。
图5示意性示出了根据本发明实施例的基于手部识别算法获取类型参数的方法的流程图。
如图5所示,该实施例的基于手部识别算法获取类型参数的方法可以包括操作S510~操作S530。
在操作S510,基于所述手部关键点,提取手部特征,其中,所述手部特征包括手部的形状和轮廓。
在本发明的实施例中,基于检测到的手部关键点,可以利用几何形状建模方法来估计手部的形状。具体地,可以使用基于所述手部关键点连接的线段拟合、基于手指关节的凸包或凸壳建模等。
图6示意性示出了根据本发明实施例的提取手部形状的示意图。
在本发明的实施例中,通过将检测到的手部关键点按照特定的顺序进行连接,形成手部的骨架或拓扑结构,这可以通过手指关节的连接关系和手掌的位置来确定。如图6所示,手指的关节可以按照从手掌到指尖的顺序进行连接,手掌可以与手指的关节连接形成一个整体。
在本发明的实施例中,可以进一步对于估计的手部形状进行优化,例如,去除异常点或噪声点,以得到更准确的线段表示。
在本发明的实施例中,根据手部形状的估计结果,可以使用图像处理算法提取手部的轮廓,例如,边缘检测、二值化和轮廓提取等。
返回图5,在操作S520,基于所述手部特征,确定手势类型,其中,所述手势类型包括手指完全握紧的第一状态、手指完全张开的第二状态以及介于所述第一状态和所述第二状态之间的中间状态。
在本发明的实施例中,可以通过以下步骤确定手势类型:特征提取,从所述手部特征中提取特征;将提取的特征转化为机器学习算法可以处理的形式;使用已标注的手势样本数据集,训练一个手势类型分类器,并使用训练好的分类器判断所述手势类型。
在本发明的实施例中,手势类型可以包括手指完全握紧,即握拳的状态;手指完全张开,即五指张开的状态;以及处于两种状态之间手指弯曲的中间状态。
在操作S530,基于所述手势类型和所述手部识别算法,获取所述类型参数。
图7示意性示出了根据本发明实施例的基于所述手势类型和所述手部识别算法获取所述类型参数的方法的流程图。
如图7所示,该实施例的基于所述手势类型和所述手部识别算法获取所述类型参数的方法可以包括操作S710~操作S730。
在操作S710,获取第一取值范围,其中,所述第一取值范围的最大值对应于所述第一状态,所述第一取值范围的最小值对应于所述第二状态。
在操作S720,基于所述手部识别算法,获得所述手势类型的形状特征。
在操作S730,利用第二映射函数,将所述形状特征映射到所述第一取值范围的取值,以获得所述类型参数。
在本发明的实施例中,所述第二映射函数用于将不同的手势形状映射为取值。其中,可以使用条件语句、查找表或数学函数等方式实现。
在本发明的实施例中,将所述手势类型映射到所述第一取值范围,可以用于后续控制粒子***的行为和效果,实现不同手势可以对应不同的粒子效果。
返回图3,在操作S350,基于跟踪算法和时间序列分析算法,获取所述手势动作参数中的时间权重参数。
图8示意性示出了根据本发明实施例的获取时间权重参数的方法的流程图。
如图8所示,该实施例的获取时间权重参数的方法可以包括操作S810~操作S820。
在操作S810,基于所述手部关键点和所述跟踪算法,获取时间序列数据。
在本发明的实施例中,可以通过跟踪算法,如卡尔曼滤波、分割跟踪等,在连续帧之间进行手部关键点的跟踪,以获取手部在不同时间点上的位置数据,即时间序列数据。
在操作S820,基于所述时间序列数据和所述时间序列分析算法获取所述时间权重参数。
在本发明的实施例中,可以通过时间序列分析算法获取手势动作在各个位置的持续时间,例如,滑动窗口法,具体地,可以包括以下步骤:根据手势动作的时间尺度和需要的时间精度,选择合适的窗口长度;将窗口应用于时间序列数据,从起始位置开始滑动;滑动窗口按固定的步长移动,继续计算下一个窗口的持续时间;根据手势在每个窗口中的持续时间,计算时间权重参数。
在操作S230,基于所述手势动作参数,利用粒子引擎,获取手势粒子三维模型。
根据本发明的实施例,能够基于手势动作参数,利用粒子图形软件生成对应的粒子模型。
图9示意性示出了根据本发明实施例的获取手势粒子三维模型的方法的流程图。
如图9所示,该实施例的获取手势粒子三维模型的方法可以包括操作S910~操作S950。
在操作S910,获取粒子生成器。
在本发明的实施例中,粒子生成器可以定义粒子的属性和行为,并将它们发射到场景中,其中包括:粒子属性,可以设置粒子的位置、速度、大小、颜色、形状等属性,以控制粒子的外观;粒子发射器,可以基于坐标向量参数确定粒子的发射位置、方向和速度,进一步地,可以通过设置发射器的形状、大小、发射速率等参数来调整粒子的生成方式;粒子生命周期,定义粒子存在的时间范围,可以通过时间权重参数设置粒子的初始生命周期和衰减速度,使粒子在一段时间后逐渐消失;粒子***,可以基于类型参数的参数值为粒子引入力场和引力,以模拟物理效果;粒子行为:可以设置粒子的行为规则,如旋转、缩放、碰撞检测。
在操作S920,基于所述坐标向量参数,获取粒子***坐标。
在操作S930,基于所述类型参数,获取干扰值。
在本发明的实施例中,可以将手势动作参数与粒子***中的物理力绑定,其中,坐标向量参数可控制物理力(粒子***)的坐标,类型参数代表物理力的类型,如,手指完全握紧代表引力,可以设置力的数值为正数;手指完全张开代表斥力,可以将力的数值设置为负数。通过不断接收实时更新的手势动作参数,从而实现单一或多个粒子受到粒子***的引力、斥力干扰,以在粒子***空间中改变位置。
在操作S940,基于所述时间权重参数,获取粒子响应属性。
在本发明的实施例中,所述粒子响应属性包括:粒子持续时间、透明度、大小和运动速度。
在本发明的实施例中,所述粒子响应属性用于描述粒子的初始生命周期和衰减速度,以表示手势动作的持续时间和特性。
在操作S950,基于所述粒子生成器、所述粒子***坐标、所述干扰值和所述粒子响应属性,获取所述手势粒子三维模型。
图10A~图10C示意性示出了根据本发明实施例的手势粒子三维模型的示意图。
如图10A~图10C所示,在粒子三维模型中,粒子被分散在空间中,每个粒子具有自己的位置、速度、大小、颜色等属性。当输入手势后,粒子由于***的存在,其状态发生改变,逐渐形成聚集的特定形状。
在操作S240,将所述手势粒子三维模型进行渲染和绘制,输出手势粒子影像。
图11示意性示出了根据本发明实施例的手势动作和粒子实现互动的示意图。
如图11所示,在本发明的实施例中,通过计算机图形学软件的3D渲染能力,将变化的模型实时渲染成图像视频流,然后再向显示终端投射,从而实现操控者手势变化与生成的粒子图像变化的实时互动效果。
在本发明的实施例中,所述将所述手势粒子三维模型进行渲染和绘制,输出手势粒子影像,还具体包括:将所述手势动作信息与所述手势粒子影像叠加,输出合成影像。其中,通过合成显示画面,可以进一步增强用户的参与感和观感。
根据本发明提供的基于手势识别的粒子影像生成方式,支持操作者对粒子图像的实时控制,可定义用户不同的手势控制以及不同类型的图像或动画,具有灵活可拓展的优点。通过实时捕捉、识别处理及实时渲染***的支持,可实现手势同步控制图像的效果。本发明具有良好的实用性和创新性,具有互动性强、体验感强等优点,适用于商场、博物馆、画廊、体验中心等场所,可以用作新形式的广告/影视/艺术作品/大屏展示方面,人的手势与图像的互动会增强艺术性和体验感,可以为用户带来全新的互动及视觉盛宴。
图12示意性示出了根据本发明实施例的基于手势识别的粒子影像生成的装置的结构框图。
如图12所示,根据该实施例的基于手势识别的粒子影像生成的装置1200包括信息和算法包获取模块1210、手势动作参数获取模块1220、手势粒子三维模型获取模块1230和手势粒子影像获取模块1240。
所述信息和算法包获取模块1210可以用于获取手势动作信息和手势识别分析算法包。在一实施例中,所述信息和算法包获取模块1210可以用于执行前文描述的操作S210,在此不再赘述。
所述手势动作参数获取模块1220可以用于基于所述手势动作信息,利用手势识别分析算法包,获取手势动作参数。在一实施例中,所述手势动作参数获取模块1220可以用于执行前文描述的操作S220,在此不再赘述。
所述手势粒子三维模型获取模块1230可以用于基于所述手势动作参数,利用粒子引擎,获取手势粒子三维模型。在一实施例中,所述手势粒子三维模型获取模块1230可以用于执行前文描述的操作S230,在此不再赘述。
所述手势粒子影像获取模块1 240可以用于将所述手势粒子三维模型进行渲染和绘制,输出手势粒子影像。在一实施例中,所述手势粒子影像获取模块1240可以用于执行前文描述的操作S240,在此不再赘述。
根据本发明的实施例,所述手势动作参数获取模块1220包括手部区域获取模块、手部关键点获取模块、坐标向量参数获取模块、类型参数获取模块和时间权重参数获取模块。
所述手部区域获取模块可以用于基于手势动作信息,利用所述手部检测算法,获取手部区域。在一实施例中,所述手部区域获取模块可以用于执行前文描述的操作S310,在此不再赘述。
所述手部关键点获取模块可以用于基于所述手部区域和所述手部关键点定位算法,获取手部关键点。在一实施例中,所述手部关键点获取模块可以用于执行前文描述的操作S320,在此不再赘述。
所述坐标向量参数获取模块可以用于基于三维重建算法,获取所述手势动作参数中的坐标向量参数。在一实施例中,所述坐标向量参数获取模块可以用于执行前文描述的操作S330,在此不再赘述。
所述类型参数获取模块可以用于基于手部识别算法,获取所述手势动作参数中的类型参数。在一实施例中,所述类型参数获取模块可以用于执行前文描述的操作S340,在此不再赘述。
所述时间权重参数获取模块可以用于基于跟踪算法和时间序列分析算法,获取所述手势动作参数中的时间权重参数。在一实施例中,所述时间权重参数获取模块可以用于执行前文描述的操作S350,在此不再赘述。
根据本发明的实施例,所述坐标向量参数获取模块可以包括空间位置坐标获取单元、图形界面位置坐标获取单元和坐标向量参数获取单元。
所述空间位置坐标获取单元可以用于基于所述手部关键点和所述三维重建算法,获取空间位置坐标。在一实施例中,所述空间位置坐标获取单元可以用于执行前文描述的操作S410,在此不再赘述。
所述图形界面位置坐标获取单元可以用于利用第一映射函数,将所述空间位置坐标映射为图形界面中的位置坐标。在一实施例中,所述图形界面位置坐标获取单元可以用于执行前文描述的操作S420,在此不再赘述。
所述坐标向量参数获取单元可以用于基于相邻时刻获取的所述位置坐标,获取所述坐标向量参数。在一实施例中,所述坐标向量参数获取单元可以用于执行前文描述的操作S430,在此不再赘述。
根据本发明的实施例,所述类型参数获取模块包括手部特征提取单元、手势类型确定单元和类型参数确定模块。
所述手部特征提取单元可以用于基于所述手部关键点,提取手部特征,其中,所述手部特征包括手部的形状和轮廓。在一实施例中,所述手部特征提取单元可以用于执行前文描述的操作S510,在此不再赘述。
所述手势类型确定单元可以用于基于所述手部特征,确定手势类型,其中,所述手势类型包括手指完全握紧的第一状态、手指完全张开的第二状态以及介于所述第一状态和所述第二状态之间的中间状态。在一实施例中,所述手势类型确定单元可以用于执行前文描述的操作S520,在此不再赘述。
所述类型参数确定模块可以用于基于所述手势类型和所述手部识别算法,获取所述类型参数。在一实施例中,所述类型参数确定模块可以用于执行前文描述的操作S530,在此不再赘述。
根据本发明的实施例,所述类型参数确定模块可以包括第一取值范围获取单元、形状特征获取单元和类型参数获取单元。
所述第一取值范围获取单元可以用于获取第一取值范围,其中,所述第一取值范围的最大值对应于所述第一状态,所述第一取值范围的最小值对应于所述第二状态。在一实施例中,所述第一取值范围获取单元可以用于执行前文描述的操作S710,在此不再赘述。
所述形状特征获取单元可以用于基于所述手部识别算法,获得所述手势类型的形状特征。在一实施例中,所述形状特征获取单元可以用于执行前文描述的操作S720,在此不再赘述。
所述类型参数获取单元可以用于利用第二映射函数,将所述形状特征映射到所述第一取值范围的取值,以获得所述类型参数。在一实施例中,所述类型参数获取单元可以用于执行前文描述的操作S730,在此不再赘述。
根据本发明的实施例,所述时间权重参数可以包括时间序列数据获取单元和时间权重参数获取单元。
所述时间序列数据获取单元可以用于基于所述手部关键点和所述跟踪算法,获取时间序列数据。在一实施例中,所述时间序列数据获取单元可以用于执行前文描述的操作S810,在此不再赘述。
所述时间权重参数获取单元可以用于基于所述时间序列数据和所述时间序列分析算法获取所述时间权重参数。在一实施例中,所述时间权重参数获取单元可以用于执行前文描述的操作S820,在此不再赘述。
根据本发明的实施例,所述手势粒子三维模型获取模块1230可以包括粒子生成器获取单元、粒子***坐标获取单元、干扰值获取单元、粒子响应属性获取单元和手势粒子三维模型获取单元。
所述粒子生成器获取单元可以用于获取粒子生成器。在一实施例中,所述粒子生成器获取单元可以用于执行前文描述的操作S910,在此不再赘述。
所述粒子***坐标获取单元可以用于基于所述坐标向量参数,获取粒子***坐标。在一实施例中,所述粒子***坐标获取单元可以用于执行前文描述的操作S920,在此不再赘述。
所述干扰值获取单元可以用于基于所述类型参数,获取干扰值。在一实施例中,所述干扰值获取单元可以用于执行前文描述的操作S930,在此不再赘述。
所述粒子响应属性获取单元可以用于基于所述时间权重参数,获取粒子响应属性。在一实施例中,所述粒子响应属性获取单元可以用于执行前文描述的操作S940,在此不再赘述。
所述手势粒子三维模型获取单元可以用于基于所述粒子生成器、所述粒子***坐标、所述干扰值和所述粒子响应属性,获取所述手势粒子三维模型。在一实施例中,所述手势粒子三维模型获取单元可以用于执行前文描述的操作S950,在此不再赘述。
图13示意性示出了根据本发明实施例的适于基于手势识别的粒子影像生成方法的电子设备的方框图。
如图13所示,根据本发明实施例的电子设备1300包括处理器1301,其可以根据存储在只读存储器(ROM)1302中的程序或者从存储部分1308加载到随机访问存储器(RAM)1303中的程序而执行各种适当的动作和处理。处理器1301例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC))等等。处理器1301还可以包括用于缓存用途的板载存储器。处理器1301可以包括用于执行根据本发明实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 1303中,存储有电子设备1300操作所需的各种程序和数据。处理器1301、ROM 1302以及RAM 1303通过总线1304彼此相连。处理器1301通过执行ROM 1302和/或RAM1303中的程序来执行根据本发明实施例的方法流程的各种操作。需要注意,所述程序也可以存储在除ROM 1302和RAM 1303以外的一个或多个存储器中。处理器1301也可以通过执行存储在所述一个或多个存储器中的程序来执行根据本发明实施例的方法流程的各种操作。
根据本发明的实施例,电子设备1300还可以包括输入/输出(I/O)接口1305,输入/输出(I/O)接口1305也连接至总线1304。电子设备1300还可以包括连接至I/O接口1305的以下部件中的一项或多项:包括键盘、鼠标等的输入部分1306;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分1307;包括硬盘等的存储部分1308;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分1309。通信部分1309经由诸如因特网的网络执行通信处理。驱动器1310也根据需要连接至I/O接口1305。可拆卸介质1311,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1310上,以便于从其上读出的计算机程序根据需要被安装入存储部分1308。
本发明还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/***中所包含的;也可以是单独存在,而未装配入该设备/装置/***中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本发明实施例的方法。
根据本发明的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质,例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。例如,根据本发明的实施例,计算机可读存储介质可以包括上文描述的ROM 1302和/或RAM 1303和/或ROM 1302和RAM 1303以外的一个或多个存储器。
本发明的实施例还包括一种计算机程序产品,其包括计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。当计算机程序产品在计算机***中运行时,该程序代码用于使计算机***实现本发明实施例所提供的方法。
在该计算机程序被处理器1301执行时执行本发明实施例的***/装置中限定的上述功能。根据本发明的实施例,上文描述的***、装置、模块、单元等可以通过计算机程序模块来实现。
在一种实施例中,该计算机程序可以依托于光存储器件、磁存储器件等有形存储介质。在另一种实施例中,该计算机程序也可以在网络介质上以信号的形式进行传输、分发,并通过通信部分1309被下载和安装,和/或从可拆卸介质1311被安装。该计算机程序包含的程序代码可以用任何适当的网络介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
在这样的实施例中,该计算机程序可以通过通信部分1309从网络上被下载和安装,和/或从可拆卸介质1311被安装。在该计算机程序被处理器1301执行时,执行本发明实施例的***中限定的上述功能。根据本发明的实施例,上文描述的***、设备、装置、模块、单元等可以通过计算机程序模块来实现。
根据本发明的实施例,可以以一种或多种程序设计语言的任意组合来编写用于执行本发明实施例提供的计算机程序的程序代码,具体地,可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。程序设计语言包括但不限于诸如Java,C++,python,“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本发明各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上对本发明的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本发明的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。不脱离本发明的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本发明的范围之内。

Claims (15)

1.一种基于手势识别的粒子影像生成方法,其特征在于,所述方法包括:
获取手势动作信息和手势识别分析算法包;
基于所述手势动作信息,利用手势识别分析算法包,获取手势动作参数;
基于所述手势动作参数,利用粒子引擎,获取手势粒子三维模型;以及
将所述手势粒子三维模型进行渲染和绘制,输出手势粒子影像。
2.根据权利要求1所述的方法,其特征在于,所述获取手势动作信息包括:以预设的时间间隔获取手势动作。
3.根据权利要求2所述的方法,其特征在于,所述手势识别分析算法包提供的算法包括:手部检测算法、手部关键点定位算法、三维重建算法、手部识别算法、跟踪算法和时间序列分析算法。
4.根据权利要求3所述的方法,其特征在于,所述基于所述手势动作信息,利用手势识别和分析算法包,获取手势动作参数,具体包括:
基于手势动作信息,利用所述手部检测算法,获取手部区域;
基于所述手部区域和所述手部关键点定位算法,获取手部关键点;
基于三维重建算法,获取所述手势动作参数中的坐标向量参数;
基于手部识别算法,获取所述手势动作参数中的类型参数;以及
基于跟踪算法和时间序列分析算法,获取所述手势动作参数中的时间权重参数。
5.根据权利要求4所述的方法,其特征在于,所述基于三维重建算法,获取所述手势动作参数中的坐标向量参数,具体包括:
基于所述手部关键点和所述三维重建算法,获取空间位置坐标;
利用第一映射函数,将所述空间位置坐标映射为图形界面中的位置坐标;以及
基于相邻时刻获取的所述位置坐标,获取所述坐标向量参数。
6.根据权利要求4所述的方法,其特征在于,所述基于手部识别算法,获取所述手势动作参数的类型参数,具体包括:
基于所述手部关键点,提取手部特征,其中,所述手部特征包括手部的形状和轮廓;
基于所述手部特征,确定手势类型,其中,所述手势类型包括手指完全握紧的第一状态、手指完全张开的第二状态以及介于所述第一状态和所述第二状态之间的中间状态;以及
基于所述手势类型和所述手部识别算法,获取所述类型参数。
7.根据权利要求6所述的方法,其特征在于,所述基于所述手势类型和所述手部识别算法,获取所述类型参数,具体包括:
获取第一取值范围,其中,所述第一取值范围的最大值对应于所述第一状态,所述第一取值范围的最小值对应于所述第二状态;
基于所述手部识别算法,获得所述手势类型的形状特征;以及
利用第二映射函数,将所述形状特征映射到所述第一取值范围的取值,以获得所述类型参数。
8.根据权利要求4所述的方法,其特征在于,所述基于跟踪算法和时间序列分析算法,获取所述手势动作参数中的时间权重参数,具体包括:
基于所述手部关键点和所述跟踪算法,获取时间序列数据;以及
基于所述时间序列数据和所述时间序列分析算法获取所述时间权重参数。
9.根据权利要求4所述的方法,其特征在于,所述基于所述手势动作参数,利用粒子引擎,获取手势粒子三维模型,具体包括:
获取粒子生成器;
基于所述坐标向量参数,获取粒子***坐标;
基于所述类型参数,获取干扰值;
基于所述时间权重参数,获取粒子响应属性;以及
基于所述粒子生成器、所述粒子***坐标、所述干扰值和所述粒子响应属性,获取所述手势粒子三维模型。
10.根据权利要求9所述的方法,其特征在于,所述粒子响应属性包括:粒子持续时间、透明度、大小和运动速度。
11.根据权利要求1所述的方法,其特征在于,所述将所述手势粒子三维模型进行渲染和绘制,输出手势粒子影像,还具体包括:
将所述手势动作信息与所述手势粒子影像叠加,输出合成影像。
12.一种基于手势识别的粒子影像生成装置,其特征在于,所述装置包括:
信息和算法包获取模块,用于:获取手势动作信息和手势识别分析算法包;
手势动作参数获取模块,用于:基于所述手势动作信息,利用手势识别分析算法包,获取手势动作参数;
手势粒子三维模型获取模块,用于:基于所述手势动作参数,利用粒子引擎,获取手势粒子三维模型;
手势粒子影像获取模块,用于:将所述手势粒子三维模型进行渲染和绘制,输出手势粒子影像。
13.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行根据权利要求1~11中任一项所述的方法。
14.一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行根据权利要求1~11中任一项所述的方法。
15.一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现根据权利要求1~11中任一项所述的方法。
CN202310744097.6A 2023-06-21 2023-06-21 基于手势识别的粒子影像生成方法、装置、电子设备和介质 Pending CN116934959A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310744097.6A CN116934959A (zh) 2023-06-21 2023-06-21 基于手势识别的粒子影像生成方法、装置、电子设备和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310744097.6A CN116934959A (zh) 2023-06-21 2023-06-21 基于手势识别的粒子影像生成方法、装置、电子设备和介质

Publications (1)

Publication Number Publication Date
CN116934959A true CN116934959A (zh) 2023-10-24

Family

ID=88388631

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310744097.6A Pending CN116934959A (zh) 2023-06-21 2023-06-21 基于手势识别的粒子影像生成方法、装置、电子设备和介质

Country Status (1)

Country Link
CN (1) CN116934959A (zh)

Similar Documents

Publication Publication Date Title
US11928592B2 (en) Visual sign language translation training device and method
US10664060B2 (en) Multimodal input-based interaction method and device
CN114902294B (zh) 移动增强现实中的细粒度视觉识别
CN108875633B (zh) 表情检测与表情驱动方法、装置和***及存储介质
Zhou et al. Virtual reality: A state-of-the-art survey
JP2016218999A (ja) ターゲット環境の画像内に表現されたオブジェクトを検出するように分類器をトレーニングする方法およびシステム
Ranjan et al. Learning multi-human optical flow
CN111294665A (zh) 视频的生成方法、装置、电子设备及可读存储介质
Alkawaz et al. Blend shape interpolation and FACS for realistic avatar
US20210166461A1 (en) Avatar animation
CN116097316A (zh) 用于非模态中心预测的对象识别神经网络
Zingsheim et al. Collaborative VR-based 3D labeling of live-captured scenes by remote users
Raajan et al. Augmented reality based virtual reality
Dani et al. Mid-air fingertip-based user interaction in mixed reality
Ekmen et al. From 2D to 3D real-time expression transfer for facial animation
WO2022026603A1 (en) Object recognition neural network training using multiple data sources
Ren et al. Immersive and perceptual human-computer interaction using computer vision techniques
Hsu et al. A multimedia presentation system using a 3D gesture interface in museums
CN116934959A (zh) 基于手势识别的粒子影像生成方法、装置、电子设备和介质
KR20140078083A (ko) 증강 현실이 구현된 만화책
CN114489341A (zh) 手势的确定方法和装置、电子设备和存储介质
CN112686990A (zh) 一种三维模型显示方法、装置、存储介质和计算机设备
Han et al. Connecting users to virtual worlds within MPEG-V standardization
Jain et al. [POSTER] AirGestAR: Leveraging Deep Learning for Complex Hand Gestural Interaction with Frugal AR Devices
Unal et al. Augmented reality and new opportunities for cultural heritage

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination