CN116563701A - 目标对象检测方法、装置、设备及存储介质 - Google Patents

目标对象检测方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN116563701A
CN116563701A CN202310422676.9A CN202310422676A CN116563701A CN 116563701 A CN116563701 A CN 116563701A CN 202310422676 A CN202310422676 A CN 202310422676A CN 116563701 A CN116563701 A CN 116563701A
Authority
CN
China
Prior art keywords
image
target object
features
fusion
fusion feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310422676.9A
Other languages
English (en)
Inventor
潘蓝根
余静
黄思创
薛静文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial and Commercial Bank of China Ltd ICBC
Original Assignee
Industrial and Commercial Bank of China Ltd ICBC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial and Commercial Bank of China Ltd ICBC filed Critical Industrial and Commercial Bank of China Ltd ICBC
Priority to CN202310422676.9A priority Critical patent/CN116563701A/zh
Publication of CN116563701A publication Critical patent/CN116563701A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供了一种目标对象检测方法、装置、设备及存储介质,涉及人工智能技术领域、计算机视觉技术领域。该方法包括:对待检测图像、对象深度信息和对象法向量信息分别进行特征提取,得到图像特征、深度特征和法向量特征,其中,待检测图像、对象深度信息和对象法向量信息均与至少一个目标对象相关联;融合图像特征、深度特征和法向量特征,得到初始融合特征;提取初始融合特征在至少一个预设方向的特征信息,得到至少一个方向融合特征;以及根据至少一个方向融合特征,对至少一个目标对象进行目标对象检测,得到目标对象检测结果。

Description

目标对象检测方法、装置、设备及存储介质
技术领域
本公开涉及人工智能技术领域、计算机视觉技术领域,尤其涉及一种目标对象检测方法、装置、设备、介质和程序产品。
背景技术
随着人工智能技术的快速发展以及智能机器人的普及,营业大厅等业务经营场所通常需要设置可移动的智能服务机器人来协助业务员为用户提供业务服务。而在营业大厅中的用户数量较多,且智能服务机器人通常基于安装的单目图像采集装置采集到的单目图像来识别用户等目标对象的位置,已实现控制智能服务机器人准确地避让用户。但是发明人发现在人流量较大的情况下,智能服务机器人难以实现准确地避让,会出现智能服务机器人与用户或者行李箱等目标对象发生碰撞。
发明内容
鉴于上述问题,本公开提供了目标对象检测方法、装置、设备、介质和程序产品。
根据本公开的第一个方面,提供了一种目标对象检测方法,包括:
对待检测图像、对象深度信息和对象法向量信息分别进行特征提取,得到图像特征、深度特征和法向量特征,其中,上述待检测图像、上述对象深度信息和上述对象法向量信息均与至少一个目标对象相关联;
融合上述图像特征、上述深度特征和上述法向量特征,得到初始融合特征;
提取上述初始融合特征在至少一个预设方向的特征信息,得到至少一个方向融合特征;以及
根据至少一个上述方向融合特征,对上述至少一个目标对象进行目标对象检测,得到目标对象检测结果。
根据本公开的实施例,上述预设方向包括与上述待检测图像的图像水平方向相对应的预设水平方向,上述方向融合特征包括与上述预设水平方向对应的第一方向融合特征;
其中,上述提取上述初始融合特征在至少一个预设方向的特征信息,得到至少一个方向融合特征包括:
将上述初始融合特征输入至第一融合特征提取层,输出上述第一方向融合特征;
其中,上述第一融合特征提取层基于与上述预设水平方向相对应的第一卷积核构建得到。
根据本公开的实施例,上述预设方向包括与上述待检测图像的图像竖直方向相对应的预设竖直方向,上述方向融合特征包括与上述预设竖直方向对应的第二方向融合特征;
其中,上述提取上述初始融合特征在至少一个预设方向的特征信息,得到至少一个方向融合特征包括:
将上述初始融合特征输入至第二融合特征提取层,输出上述第二方向融合特征;
其中,上述第二融合特征提取层基于与上述预设竖直方向相对应的第二卷积核构建得到。
根据本公开的实施例,上述预设方向包括与上述待检测图像的图像水平方向相对应的预设水平方向,以及与上述待检测图像的图像竖直方向相对应的预设竖直方向,上述方向融合特征包括与上述预设水平方向对应的第一方向融合特征,以及与上述预设竖直方向对应的第二方向融合特征;
其中,上述提取上述初始融合特征在至少一个预设方向的特征信息,得到至少一个方向融合特征包括:
将上述初始融合特征分别输入至第一融合特征提取层和第二融合特征提取层,输出上述第一方向融合特征和上述第二方向融合特征;
其中,上述第一融合特征提取层基于与上述预设水平方向相对应的第一卷积核构建得到,上述第二融合特征提取层基于与上述预设竖直方向相对应的第二卷积核构建得到。
根据本公开的实施例,上述根据至少一个上述方向融合特征,对上述至少一个目标对象进行目标对象检测,得到目标对象检测结果包括:
基于注意力机制融合上述第一方向融合特征和上述第二方向融合特征,得到目标融合特征;以及
将上述目标融合特征输入至目标对象检测层,输出上述目标对象检测结果。
根据本公开的实施例,上述对象深度信息包括对象深度图像,上述对象法向量信息包括对象法向量图像;
上述目标对象检测方法还包括:
对上述待检测图像进行深度信息检测,得到上述对象深度图像;
对上述对象深度图像进行法向量信息检测,得到上述对象法向量图像。
根据本公开的实施例,上述目标对象检测方法还包括:
获取与上述待检测图像相对应的待检测点云数据,上述待检测点云数据与至少一个上述目标对象相关联;
对上述待检测点云数据进行深度信息检测,得到上述对象深度信息;以及
对上述对象深度信息进行法向量信息检测,得到上述对象法向量信息。
本公开的第二方面提供了一种目标对象检测装置,包括:
第一特征提取模块,用于对待检测图像、对象深度信息和对象法向量信息分别进行特征提取,得到图像特征、深度特征和法向量特征,其中,上述待检测图像、上述对象深度信息和上述对象法向量信息均与至少一个目标对象相关联;
融合模块,用于融合上述图像特征、上述深度特征和上述法向量特征,得到初始融合特征;
第二特征提取模块,用于提取上述初始融合特征在至少一个预设方向的特征信息,得到至少一个方向融合特征;以及
目标对象检测模块,用于根据至少一个上述方向融合特征,对上述至少一个目标对象进行目标对象检测,得到目标对象检测结果。
本公开的第三方面提供了一种电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序,其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得一个或多个处理器执行上述方法。
本公开的第四方面还提供了一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行上述方法。
本公开的第五方面还提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述方法。
根据本公开提供目标对象检测方法、装置、设备、介质和程序产品,通过融合与目标对象相关的图像特征、深度特征和法向量特征,可以使得到的初始融合特征至少包含有目标对象表面的法向量信息,提升初始融合特征的语义信息丰富程度,然后对得到的初始融合特征在至少一个预设方向进行特征信息提取,可以使得到的方向融合特征更加准确地表征目标对象在待检测空间中,与预设方向对应的方向上的语义信息,进而根据方向融合特征对目标对象进行目标对象检测,可以使目标对象检测结果更准确地表征目标对象在待检测空间中的位置,实现提升目标对象检测精度的技术效果。
附图说明
通过以下参照附图对本公开实施例的描述,本公开的上述内容以及其他目的、特征和优点将更为清楚,在附图中。
图1示意性示出了根据本公开实施例的目标对象检测方法、装置的应用场景图。
图2示意性示出了根据本公开实施例的目标对象检测方法的流程图。
图3示意性示出了根据本公开另一实施例的目标对象检测方法的流程图。
图4A示意性示出了根据本公开实施例的提取初始融合特征在至少一个预设方向的特征信息的原理图。
图4B示意性示出了根据本公开另一实施例的提取初始融合特征在至少一个预设方向的特征信息的原理图。
图5示意性示出了根据本公开实施例的目标对象检测模型的原理图。
图6A示意性示出了根据本公开实施例的待检测图像的示意图。
图6B示意性示出了根据本公开实施例的对象深度图像的示意图。
图6C示意性示出了根据本公开实施例的对象法向量图像的示意图。
图6D示意性示出了根据本公开实施例的目标对象检测结果的示意图。
图7示意性示出了根据本公开实施例的目标对象检测装置的结构框图。
图8示意性示出了根据本公开实施例的适于实现目标对象检测方法的电子设备的方框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的***”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的***等)。
在本公开的技术方案中,所涉及的数据(如包括但不限于用户个人信息)的收集、存储、使用、加工、传输、提供、公开和应用等处理,均符合相关法律法规的规定,采取了必要保密措施,且不违背公序良俗。
随着人工智能技术的快速发展以及智能机器人的普及,营业大厅等业务经营场所通常需要设置可移动的智能服务机器人来协助业务员为用户提供业务服务。而在营业大厅中的用户数量较多,且智能服务机器人通常基于安装的单目图像采集装置采集到的单目图像来识别用户等目标对象的位置,已实现控制智能服务机器人准确地避让用户。
但是发明人发现相关技术中基于单目图像的目标检测方法难以准确地确定目标对象的位置,尤其难以准确地预测目标对象在空间中的深度位置,目标对象检测精度较低。而通常的改进思路为添加激光雷达等探测设备来辅助进行目标对象检测,这会导致智能服务机器人的制造成本上升,且深度信息的检测效果仍难以满足实际的需求。
本公开的实施例提供了一种目标对象检测方法、装置、设备、介质和程序产品。该目标对象检测方法包括:对待检测图像、对象深度信息和对象法向量信息分别进行特征提取,得到图像特征、深度特征和法向量特征,其中,待检测图像、对象深度信息和对象法向量信息均与至少一个目标对象相关联;融合图像特征、深度特征和法向量特征,得到初始融合特征;提取初始融合特征在至少一个预设方向的特征信息,得到至少一个方向融合特征;以及根据至少一个方向融合特征,对至少一个目标对象进行目标对象检测,得到目标对象检测结果。
根据本公开的实施例,通过融合与目标对象相关的图像特征、深度特征和法向量特征,可以使得到的初始融合特征至少包含有目标对象表面的法向量信息,提升初始融合特征的语义信息丰富程度,然后对得到的初始融合特征在至少一个预设方向进行特征信息提取,可以使得到的方向融合特征更加准确地表征目标对象在待检测空间中,与预设方向对应的方向上的语义信息,进而根据方向融合特征对目标对象进行目标对象检测,可以使目标对象检测结果更准确地表征目标对象在待检测空间中的位置,实现提升目标对象检测精度的技术效果。
图1示意性示出了根据本公开实施例的目标对象检测方法、装置的应用场景图。
如图1所示,根据该实施例的应用场景100可以包括第一终端设备101、第二终端设备102、车辆103、网络104和服务器105。网络104用以在第一终端设备101、第二终端设备102、车辆103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用第一终端设备101、第二终端设备102、车辆103中的至少一个通过网络104与服务器105交互,以接收或发送消息等。第一终端设备101、第二终端设备102、车辆103上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等(仅为示例)。
第一终端设备101、第二终端设备102可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
车辆103可以安装有图像采集装置和图像处理装置。例如具有图像采集装置和图像处理器的乘用车、工程用车或无人车等等。
服务器105可以是提供各种服务的服务器,例如对用户利用第一终端设备101、第二终端设备102、车辆103所浏览的网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
需要说明的是,本公开实施例所提供的目标对象检测方法一般可以由服务器105执行。相应地,本公开实施例所提供的目标对象检测装置一般可以设置于服务器105中。本公开实施例所提供的目标对象检测方法也可以由不同于服务器105且能够与第一终端设备101、第二终端设备102、车辆103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的目标对象检测装置也可以设置于不同于服务器105且能够与第一终端设备101、第二终端设备102、车辆103和/或服务器105通信的服务器或服务器集群中。
或者,,本公开实施例所提供的目标对象检测方法一般也可以由第一终端设备101、第二终端设备102、车辆103中的任意一项执行。相应地,本公开实施例所提供的目标对象检测装置一般也可以设置于第一终端设备101、第二终端设备102、车辆103中的任意一项中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、车辆、网络和服务器。
以下将基于图1描述的场景,通过图2~图6D对本公开实施例的目标对象检测方法进行详细描述。
图2示意性示出了根据本公开实施例的目标对象检测方法的流程图。
如图2所示,该实施例的目标对象检测方法包括操作S210~操作S240。
在操作S210,对待检测图像、对象深度信息和对象法向量信息分别进行特征提取,得到图像特征、深度特征和法向量特征,其中,待检测图像、对象深度信息和对象法向量信息均与至少一个目标对象相关联。
根据本公开的实施例,待检测图像可以是记录待检测空间中的目标对象的图片、视频帧等任意类型的图像。对象深度信息可以是表征待检测图像中像素的深度信息的图像、向量等信息。对象法向量信息可以是表征目标对象表面法向量的图像、向量等类型的信息。
在本公开个的一个实施例中,待检测图像可以是单目图像。
需要说明的是,待检测图像可以是针对待检测空间中的目标对象进行图像采集后得到的,对象深度信息和对象法向量信息可以是基于针对待检测图像进行深度信息检测和法向量信息检测后得到的。但不仅限于此,还可以通过其他的方式来得到对象深度信息和对象法向量信息,例如基于激光雷达等探测装置针对待检测空间中的目标对象进行探测后,得到相应地对象深度信息和对象法向量信息。本公开的实施例对获取到对象深度信息和对象法向量信息的具体方式不做限定,本领域技术人员可以根据实际需求进行选择。
应该理解的是,目标对象的数量可以是一个或多个。在目标对象包括多个的情况下,待检测图像、对象深度信息和对象法向量信息均可以至少表征一个相同的目标对象,以实现对该相同的目标对象进行目标对象检测。
根据本公开的实施例,可以基于神经网络算法来进行特征提取,例如可以基于卷积神经网络,来对待检测图像、对象深度信息和对象法向量信息分别进行特征提取。但不仅限于此,还可以基于其他类型的神经网络算法,例如循环神经网络算法等来对待检测图像、对象深度信息和对象法向量信息分别进行特征提取,本公开的实施例对此不做限定。
在操作S220,融合图像特征、深度特征和法向量特征,得到初始融合特征。
根据本公开的实施例,可以基于深度学习算法来融合图像特征、深度特征和法向量特征,例如可以基于注意力网络、多层感知器等深度学习算法来融合融合图像特征、深度特征和法向量特征。但不仅限于此,还可以基于其他类型的算法来融合图像特征、深度特征和法向量特征,本公开的实施例对此不做限定。
根据本公开的实施例,融合特征可以至少包含有能够表征目标对象的深度信息,以及表征目标对象表面的法向量信息的语义信息,从而可以提升初始融合特征的语义信息丰富程度,至少部分避免丢失待检测空间中目标对象的语义信息的技术问题。
在操作S230,提取初始融合特征在至少一个预设方向的特征信息,得到至少一个方向融合特征。
根据本公开的实施例,可以基于可以基于神经网络算法来进行特征提取,例如可以基于卷积神经网络,来对初始融合特征进行特征提取,本公开的实施例对此不做限定。
需要说明的是,本公开的实施例对预设方向的具体方向类型不做限定,例如可以是与待检测图像相对应的水平方向、竖直方向。但不仅限于此,还可以是其他类型的方向,例如还可以是与与待检测图像相对应的水平方向具有预设角度的方向,本公开的实施例对此不做限定。
应该理解的是,本公开的实施例对方向融合特征的数量不做限定,只要能够满足需求即可。
在操作S240,根据至少一个方向融合特征,对至少一个目标对象进行目标对象检测,得到目标对象检测结果。
根据本公开的实施例,可以基于目标检测算法来处理至少一个方向融合特征和初始融合特征,从而实现对至少一个目标对象进行目标对象检测。或者,还可以基于目标检测算法来处理至少一个方向融合特征,得到目标对象检测结果。
根据本公开的实施例,通过融合与目标对象相关的图像特征、深度特征和法向量特征,可以使得到的初始融合特征至少包含有目标对象表面的法向量信息,提升初始融合特征的语义信息丰富程度,然后对得到的初始融合特征在至少一个预设方向进行特征信息提取,可以使得到的方向融合特征更加准确地表征目标对象在待检测空间中,与预设方向对应的方向上的语义信息,进而根据方向融合特征对目标对象进行目标对象检测,可以使目标对象检测结果更准确地表征目标对象在待检测空间中的位置,实现提升目标对象检测精度的技术效果。
在本公开的一个实施例中,预设方向可以根据待检测图像中目标对象的排列方式来确定,例如在待检测图像中多个车辆按照道路行驶标志线行驶的情况下,可以将预设方向与道路行驶标志线的方向作为预设方向,从而使得到的方向融合特征更精准地表征车辆再待检测图像中的位置。
图3示意性示出了根据本公开另一实施例的目标对象检测方法的流程图。
根据本公开的实施例,对象深度信息包括对象深度图像,对象法向量信息包括对象法向量图像。
如图3所示,目标对象检测方法还可以包括操作S310~操作S320。
在操作S310,对待检测图像进行深度信息检测,得到对象深度图像。
在操作S320,对对象深度图像进行法向量信息检测,得到对象法向量图像。
根据本公开的实施例,待检测图像可以是单目图像,可以通过单目深度估计算法,来对待监测图像进行深度信息检测,得到对象深度图像。得到的对象深度图像中的深度图像素,可以表征对应的待检测图像中的图像像素的深度信息。
应该理解的是,单目深度轨估计算法可以实现对待检测图像进行特征提取、深度分类和深度回归,并基于采集待检测图像的图像采集装置的相机参数来进行坐标转换,得到逐像素级的对象深度图像。
根据本公开的实施例,可以将对象深度图像,输入至法向量信息生成模型,输出对象法向量图像。法向量信息生成模型可以基于SNE(Stochastic Neighbor Embedding)模型算法构建得到。通过对生成的对象深度图像进行法向量信息检测,可以利用空间变化关系,深度平面拟合等方法,获得逐像素级的对象法向量图像。对象法向量图像中的法向量图像素,可以是包含3个维度(即x、y和z维度)的像素法向量分量,像素法向量分量可以较为准确地表征目标对象在待检测空间中的表面图像语义信息,进而使后续得到的初始融合特征可以有助于提升后续目标对象检测结果的检测精度。
根据本公开的实施例,目标对象检测方法还可以包括如下操作。
获取与待检测图像相对应的待检测点云数据,待检测点云数据与至少一个目标对象相关联;对待检测点云数据进行深度信息检测,得到对象深度信息;以及对对象深度信息进行法向量信息检测,得到对象法向量信息。
根据本公开的实施例,待检测点云数据可以是基于激光雷达等探测装置对待检测空间中的目标对象进行探测后得到的,待检测点云数据与待检测图像可以包含有至少一个目标对象。
根据本公开的实施例,可以通过确定待检测点云数据的坐标位置来确定对象深度信息,进而通过与上述实施例相同或相应的算法来确定对象法向量信息。
根据本公开的实施例,通过对待检测点云数据进行深度信息检测来得到对象深度信息,可以进一步提升对象深度信息的精准程度,从而提升初始融合特征所表征的语义信息精准程度,从而实现提升目标对象检测结果精度的技术效果。
根据本公开的实施例,预设方向包括与待检测图像的图像水平方向相对应的预设水平方向,方向融合特征包括与预设水平方向对应的第一方向融合特征。
操作S230中,提取初始融合特征在至少一个预设方向的特征信息,得到至少一个方向融合特征可以包括:将初始融合特征输入至第一融合特征提取层,输出第一方向融合特征;其中,第一融合特征提取层基于与预设水平方向相对应的第一卷积核构建得到。
图4A示意性示出了根据本公开实施例的提取初始融合特征在至少一个预设方向的特征信息的原理图。
如图4A所示,初始融合特征401可以输入至第一融合特征提取层410,输出第一方向融合特征402。第一融合特征提取层410可以是基于卷积神经网络算法构建得到的。相应地,第一融合特征提取层410可以基于第一卷积核411构建得到。第一卷积核411可以是1×5维的卷积核,从而可以通过第一卷积核411实现对初始融合特征401在预设水平方向的特征提取,得到第一方向融合特征402。
根据本公开的实施例,通过提取初始融合特征在预设水平方向的的特征信息,可以有效地分解得到图像特征、对象法向量特征和对象深度特征在水平方向的空间位置信息,使得到的第一方向融合特征较为突出地表征目标对象在待检测空间中水平方向的空间位置关系。因此根据第一方向融合特征来进行目标对象检测,可以至少提升目标对象检测结果在预设水平方向表征目标对象位置的精确度。
根据本公开的实施例,预设方向包括与待检测图像的图像竖直方向相对应的预设竖直方向,方向融合特征包括与预设竖直方向对应的第二方向融合特征。
操作S230中,提取初始融合特征在至少一个预设方向的特征信息,得到至少一个方向融合特征可以包括:将初始融合特征输入至第二融合特征提取层,输出第二方向融合特征;其中,第二融合特征提取层基于与预设竖直方向相对应的第二卷积核构建得到。
图4B示意性示出了根据本公开另一实施例的提取初始融合特征在至少一个预设方向的特征信息的原理图。
如图4B所示,初始融合特征401可以输入至第二融合特征提取层420,输出第二方向融合特征403。第二融合特征提取层420可以是基于卷积神经网络算法构建得到的。相应地,第二融合特征提取层420可以基于第二卷积核421构建得到。第二卷积核421可以是5×1维的卷积核,从而可以通过第二卷积核421实现对初始融合特征401在预设竖直方向的特征提取,得到第二方向融合特征403。
根据本公开的实施例,通过提取初始融合特征在预设竖直方向的的特征信息,可以有效地分解得到图像特征、对象法向量特征和对象深度特征在待检测空间的场景纵深方向的空间位置信息,使得到的第二方向融合特征较为突出地表征目标对象在待检测空间中场景深度方向(或称场景纵深方向)的空间位置关系。因此根据第二方向融合特征来进行目标对象检测,可以至少提升目标对象检测结果在场景方向表征目标对象位置的精确度。
根据本公开的实施例,预设方向包括与待检测图像的图像水平方向相对应的预设水平方向,以及与待检测图像的图像竖直方向相对应的预设竖直方向,方向融合特征包括与预设水平方向对应的第一方向融合特征,以及与预设竖直方向对应的第二方向融合特征。
操作S230中,提取初始融合特征在至少一个预设方向的特征信息,得到至少一个方向融合特征可以包括:将初始融合特征分别输入至第一融合特征提取层和第二融合特征提取层,输出第一方向融合特征和第二方向融合特征;其中,第一融合特征提取层基于与预设水平方向相对应的第一卷积核构建得到,第二融合特征提取层基于与预设竖直方向相对应的第二卷积核构建得到。
根据本公开的实施例,通过分别提取得到第一方向融合特征和第二方向融合特征,可以根据第一方向融合特征较为突出地表征目标对象在待检测空间中水平方向的空间位置关系,并根据第二方向融合特征较为突出地表征目标对象在待检测空间中场景深度方向(或称场景纵深方向)的空间位置关系。
需要说明的是,本公开实施例中所记载的预设水平方向和预设竖直方向,可以是待检测空间中的空间水平反向和空间竖直方向,但不仅限于此,还可以是相对于待检测图像的水平方向,以及相对于待检测图像的竖直方向。
根据本公开的实施例,操作S230中,根据至少一个方向融合特征,对至少一个目标对象进行目标对象检测,得到目标对象检测结果可以包括:
基于注意力机制融合第一方向融合特征和第二方向融合特征,得到目标融合特征;以及将目标融合特征输入至目标对象检测层,输出目标对象检测结果。
图5示意性示出了根据本公开实施例的目标对象检测模型的原理图。
如图5所示,目标对象检测模型500可以包括:深度检测层511、法向量检测层512、第一特征提取层521、第二特征提取层522、第三特征提取层523、第一融合层531、第一融合特征提取层541、第二融合特征提取层542、第二融合层551和目标对象检测层561。
待检测图像501可以是安装在无人车上的单目图像采集装置采集到的图像。单目图像采集装置的安装位置可以相对于无人车的水平反向安装,以采集到具有较大的视场角宽度的待监测图像501,提升无人车感知周围环境的范围。
待检测图像501可以输入至目标对象检测模型500的深度检测层511,输出对象深度图像。对象深度图像可以输入至法向量检测层512,输出对象法向量图像。
深度检测层511可以是基于包含有密集特征提取的编码器和用于预测所需深度的解码器的BTS算法模型构建得到的,法向量检测层512可以是基于SNE(StochasticNeighbor Embedding,随机临近嵌入)模型算法构建得到的。
待检测图像501可以输入至第一特征提取层521,输出待检测图像的图像特征。对象深度图像可以输入至第二特征提取层522,输出深度特征。对象法向量图像可以输入至第三特征提取层523,输出法向量特征。图像特征、深度特征和法向量特征可以输入至第一融合层531,输出初始融合特征。
根据本公开的实施例,第一特征提取层521、第二特征提取层522或第三特征提取层523,可以是基于Resnet(Residual Networks,残差网络)算法构建得到的神经网络层。
在本公开的一个实施例中,第一融合层531可以基于待检测图像、对象深度图像和对象法向量图像各自相同的图像通道进行加权处理,得到初始融合特征。
在本公开的一个实施例中,第一融合层可以是基于多层感知器算法构建得到的神经网络层,从而充分融合图像特征、深度特征和法向量特征。
在本公开的一个实施例中,第一融合层还可以是基于注意力网络算法(例如Transformer算法)构建得到的注意力网络层,以提升初始融合特征所表征的深度特征信息和法向量特征信息的信息准确度,进而提升后续的目标对象检测精度。
初始融合特征分别输入至第一融合特征提取层541、第二融合特征提取层542,输出与预设水平方向对应的第一方向融合特征,以及与预设竖直方向对应的第二方向融合特征。
根据本公开的实施例,第一融合特征提取层541可以包括基于1×5维的第一卷积核构建得到的第一融合特征提取子层,以及基于第一注意力权重参数构建得到的第一特征增强子层。第一特征增强子层可以增强第一方向融合特征在待检测空间中水平方向的空间位置特性。
根据本公开的实施例,第二融合特征提取层542可以包括基于5×1维的第二卷积核构建得到的第二融合特征提取子层,以及基于第二注意力权重参数构建得到的第二特征增强子层。第二特征增强子层可以增强第二方向融合特征在待检测空间中场景纵深方向的空间位置特性。
应该理解的是,第一注意力权重参数和第二注意力权重参数可以是经过训练方法训练后得到的权重参数。
第一方向融合特征和第二方向融合特征可以输入至第二融合层551,输出目标融合特征。第二融合层551可以是基于多层感知器算法构建得到的神经网络层。
目标融合特征可以输入至目标对象检测层561,输出目标对象检测结果502。
目标对象检测层561可以是基于全连接层构建得到的目标对象检测头,目标对象检测层561输出的目标对象检测结果502可以是表征与目标对象对应的三维目标检测框。
图6A示意性示出了根据本公开实施例的待检测图像的示意图。
图6B示意性示出了根据本公开实施例的对象深度图像的示意图。
图6C示意性示出了根据本公开实施例的对象法向量图像的示意图。
图6D示意性示出了根据本公开实施例的目标对象检测结果的示意图。
结合图6A至图6D所示,待检测图像601可以包含有车辆(目标对象)。根据本公开实施例提供的目标对象检测方法处理待检测图像601,可以得到对象深度图像602和对象法向量图像603。通过根据本公开实施例提供的目标对象检测方法处理待检测图像601、对象深度图像602和对象法向量图像603,可以实现对车辆的目标对象检测,得到目标对象检测结果604。
如图6D所示,目标对象检测结果604可以包含有与车辆对应的三维检测框。
在本公开的一个实施例中,可以在银行营业网点等室内场景中应用本公开实施例提供的目标对象检测方法。
例如,可以通过服务咨询机器人的图像采集装置来采集银行营业网点内的待检测图像。根据本公开实施例提供的目标对象检测方法处理待检测图像,得到目标对象检测结果。服务咨询机器人可以根据目标对象检测结果确定银行营业网点内用户的位置,从而可以实现自动躲避用户,避免发生碰撞。或者还可以根据目标对象检测结果确定银行营业网点内需要进行服务咨询的用户位置,从而提升服务效率。
基于上述目标对象检测方法,本公开还提供了一种目标对象检测装置。以下将结合图8对该装置进行详细描述。
图7示意性示出了根据本公开实施例的目标对象检测装置的结构框图。
如图7所示,该实施例的目标对象装置700包括第一特征提取模块710、融合模块720、第二特征提取模块730和目标对象检测模块740。
第一特征提取模块710用于对待检测图像、对象深度信息和对象法向量信息分别进行特征提取,得到图像特征、深度特征和法向量特征,其中,待检测图像、对象深度信息和对象法向量信息均与至少一个目标对象相关联。
融合模块720用于融合图像特征、深度特征和法向量特征,得到初始融合特征。
第二特征提取模块730用于提取初始融合特征在至少一个预设方向的特征信息,得到至少一个方向融合特征。
目标对象检测模块740用于根据至少一个方向融合特征,对至少一个目标对象进行目标对象检测,得到目标对象检测结果。
根据本公开的实施例,预设方向包括与待检测图像的图像水平方向相对应的预设水平方向,方向融合特征包括与预设水平方向对应的第一方向融合特征。
其中,第二特征提取模块包括第一方向融合特征获得单元。
第一方向融合特征获得单元用于将初始融合特征输入至第一融合特征提取层,输出第一方向融合特征;其中,第一融合特征提取层基于与预设水平方向相对应的第一卷积核构建得到。
根据本公开的实施例,预设方向包括与待检测图像的图像竖直方向相对应的预设竖直方向,方向融合特征包括与预设竖直方向对应的第二方向融合特征。
其中,第二特征提取模块包括第二方向融合特征获得单元。
第二方向融合特征获得单元将初始融合特征输入至第二融合特征提取层,输出第二方向融合特征;其中,第二融合特征提取层基于与预设竖直方向相对应的第二卷积核构建得到。
根据本公开的实施例,预设方向包括与待检测图像的图像水平方向相对应的预设水平方向,以及与待检测图像的图像竖直方向相对应的预设竖直方向,方向融合特征包括与预设水平方向对应的第一方向融合特征,以及与预设竖直方向对应的第二方向融合特征。
其中,第二特征提取模块包括方向融合特征获得单元。
方向融合特征获得单元用于将初始融合特征分别输入至第一融合特征提取层和第二融合特征提取层,输出第一方向融合特征和第二方向融合特征;其中,第一融合特征提取层基于与预设水平方向相对应的第一卷积核构建得到,第二融合特征提取层基于与预设竖直方向相对应的第二卷积核构建得到。
根据本公开的实施例,目标对象检测模块包括:目标融合特征获得单元和目标对象检测结果获得单元。
目标融合特征获得单元用于基于注意力机制融合第一方向融合特征和第二方向融合特征,得到目标融合特征。
目标对象检测结果获得单元用于将目标融合特征输入至目标对象检测层,输出目标对象检测结果。
根据本公开的实施例,对象深度信息包括对象深度图像,对象法向量信息包括对象法向量图像。
目标对象检测装置还包括:第一深度信息检测模块和第一法向量信息检测模块。
第一深度信息检测模块用于对待检测图像进行深度信息检测,得到对象深度图像。
第一法向量信息检测模块用于对对象深度图像进行法向量信息检测,得到对象法向量图像。
根据本公开的实施例,目标对象检测装置还包括:待检测点云数据获取模块、第二深度信息检测模块和第二法向量信息检测模块。
待检测点云数据获取模块用于获取与待检测图像相对应的待检测点云数据,待检测点云数据与至少一个目标对象相关联。
第二深度信息检测模块用于对待检测点云数据进行深度信息检测,得到对象深度信息。
第二法向量信息检测模块用于对对象深度信息进行法向量信息检测,得到对象法向量信息。
根据本公开的实施例,第一特征提取模块710、融合模块720、第二特征提取模块730和目标对象检测模块740中的任意多个模块可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本公开的实施例,第一特征提取模块710、融合模块720、第二特征提取模块730和目标对象检测模块740中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上***、基板上的***、封装上的***、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,第一特征提取模块710、融合模块720、第二特征提取模块730和目标对象检测模块740中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
图8示意性示出了根据本公开实施例的适于实现目标对象检测方法的电子设备的方框图。
如图8所示,根据本公开实施例的电子设备800包括处理器801,其可以根据存储在只读存储器(ROM)802中的程序或者从存储部分808加载到随机访问存储器(RAM)803中的程序而执行各种适当的动作和处理。处理器801例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC))等等。处理器801还可以包括用于缓存用途的板载存储器。处理器801可以包括用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 803中,存储有电子设备800操作所需的各种程序和数据。处理器801、ROM802以及RAM 803通过总线804彼此相连。处理器801通过执行ROM 802和/或RAM 803中的程序来执行根据本公开实施例的方法流程的各种操作。需要注意,所述程序也可以存储在除ROM 802和RAM 803以外的一个或多个存储器中。处理器801也可以通过执行存储在所述一个或多个存储器中的程序来执行根据本公开实施例的方法流程的各种操作。
根据本公开的实施例,电子设备800还可以包括输入/输出(I/O)接口805,输入/输出(I/O)接口805也连接至总线804。电子设备800还可以包括连接至输入/输出(I/O)接口805的以下部件中的一项或多项:包括键盘、鼠标等的输入部分806;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分807;包括硬盘等的存储部分808;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分809。通信部分809经由诸如因特网的网络执行通信处理。驱动器810也根据需要连接至输入/输出(I/O)接口805。可拆卸介质811,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器810上,以便于从其上读出的计算机程序根据需要被安装入存储部分808。
本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/***中所包含的;也可以是单独存在,而未装配入该设备/装置/***中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。
根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质,例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。例如,根据本公开的实施例,计算机可读存储介质可以包括上文描述的ROM 802和/或RAM 803和/或ROM 802和RAM 803以外的一个或多个存储器。
本公开的实施例还包括一种计算机程序产品,其包括计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。当计算机程序产品在计算机***中运行时,该程序代码用于使计算机***实现本公开实施例所提供的方法。
在该计算机程序被处理器801执行时执行本公开实施例的***/装置中限定的上述功能。根据本公开的实施例,上文描述的***、装置、模块、单元等可以通过计算机程序模块来实现。
在一种实施例中,该计算机程序可以依托于光存储器件、磁存储器件等有形存储介质。在另一种实施例中,该计算机程序也可以在网络介质上以信号的形式进行传输、分发,并通过通信部分809被下载和安装,和/或从可拆卸介质811被安装。该计算机程序包含的程序代码可以用任何适当的网络介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
在这样的实施例中,该计算机程序可以通过通信部分809从网络上被下载和安装,和/或从可拆卸介质811被安装。在该计算机程序被处理器801执行时,执行本公开实施例的***中限定的上述功能。根据本公开的实施例,上文描述的***、设备、装置、模块、单元等可以通过计算机程序模块来实现。
根据本公开的实施例,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例提供的计算机程序的程序代码,具体地,可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。程序设计语言包括但不限于诸如Java,C++,python,“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合或/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。

Claims (11)

1.一种目标对象检测方法,包括:
对待检测图像、对象深度信息和对象法向量信息分别进行特征提取,得到图像特征、深度特征和法向量特征,其中,所述待检测图像、所述对象深度信息和所述对象法向量信息均与至少一个目标对象相关联;
融合所述图像特征、所述深度特征和所述法向量特征,得到初始融合特征;
提取所述初始融合特征在至少一个预设方向的特征信息,得到至少一个方向融合特征;以及
根据至少一个所述方向融合特征,对所述至少一个目标对象进行目标对象检测,得到目标对象检测结果。
2.根据权利要求1所述的方法,其中,所述预设方向包括与所述待检测图像的图像水平方向相对应的预设水平方向,所述方向融合特征包括与所述预设水平方向对应的第一方向融合特征;
其中,所述提取所述初始融合特征在至少一个预设方向的特征信息,得到至少一个方向融合特征包括:
将所述初始融合特征输入至第一融合特征提取层,输出所述第一方向融合特征;
其中,所述第一融合特征提取层基于与所述预设水平方向相对应的第一卷积核构建得到。
3.根据权利要求1所述的方法,其中,所述预设方向包括与所述待检测图像的图像竖直方向相对应的预设竖直方向,所述方向融合特征包括与所述预设竖直方向对应的第二方向融合特征;
其中,所述提取所述初始融合特征在至少一个预设方向的特征信息,得到至少一个方向融合特征包括:
将所述初始融合特征输入至第二融合特征提取层,输出所述第二方向融合特征;
其中,所述第二融合特征提取层基于与所述预设竖直方向相对应的第二卷积核构建得到。
4.根据权利要求1所述的方法,其中,所述预设方向包括与所述待检测图像的图像水平方向相对应的预设水平方向,以及与所述待检测图像的图像竖直方向相对应的预设竖直方向,所述方向融合特征包括与所述预设水平方向对应的第一方向融合特征,以及与所述预设竖直方向对应的第二方向融合特征;
其中,所述提取所述初始融合特征在至少一个预设方向的特征信息,得到至少一个方向融合特征包括:
将所述初始融合特征分别输入至第一融合特征提取层和第二融合特征提取层,输出所述第一方向融合特征和所述第二方向融合特征;
其中,所述第一融合特征提取层基于与所述预设水平方向相对应的第一卷积核构建得到,所述第二融合特征提取层基于与所述预设竖直方向相对应的第二卷积核构建得到。
5.根据权利要求4所述的方法,其中,所述根据至少一个所述方向融合特征,对所述至少一个目标对象进行目标对象检测,得到目标对象检测结果包括:
基于注意力机制融合所述第一方向融合特征和所述第二方向融合特征,得到目标融合特征;以及
将所述目标融合特征输入至目标对象检测层,输出所述目标对象检测结果。
6.根据权利要求1所述的方法,其中,所述对象深度信息包括对象深度图像,所述对象法向量信息包括对象法向量图像;
所述目标对象检测方法还包括:
对所述待检测图像进行深度信息检测,得到所述对象深度图像;
对所述对象深度图像进行法向量信息检测,得到所述对象法向量图像。
7.根据权利要求1所述的方法,还包括:
获取与所述待检测图像相对应的待检测点云数据,所述待检测点云数据与至少一个所述目标对象相关联;
对所述待检测点云数据进行深度信息检测,得到所述对象深度信息;以及
对所述对象深度信息进行法向量信息检测,得到所述对象法向量信息。
8.一种目标对象检测装置,包括:
第一特征提取模块,用于对待检测图像、对象深度信息和对象法向量信息分别进行特征提取,得到图像特征、深度特征和法向量特征,其中,所述待检测图像、所述对象深度信息和所述对象法向量信息均与至少一个目标对象相关联;
融合模块,用于融合所述图像特征、所述深度特征和所述法向量特征,得到初始融合特征;
第二特征提取模块,用于提取所述初始融合特征在至少一个预设方向的特征信息,得到至少一个方向融合特征;以及
目标对象检测模块,用于根据至少一个所述方向融合特征,对所述至少一个目标对象进行目标对象检测,得到目标对象检测结果。
9.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行根据权利要求1至7中任一项所述的方法。
10.一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行根据权利要求1至7中任一项所述的方法。
11.一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现根据权利要求1至7中任一项所述的方法。
CN202310422676.9A 2023-04-19 2023-04-19 目标对象检测方法、装置、设备及存储介质 Pending CN116563701A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310422676.9A CN116563701A (zh) 2023-04-19 2023-04-19 目标对象检测方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310422676.9A CN116563701A (zh) 2023-04-19 2023-04-19 目标对象检测方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN116563701A true CN116563701A (zh) 2023-08-08

Family

ID=87497438

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310422676.9A Pending CN116563701A (zh) 2023-04-19 2023-04-19 目标对象检测方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN116563701A (zh)

Similar Documents

Publication Publication Date Title
US20210118153A1 (en) Determining structure and motion in images using neural networks
CN109410218B (zh) 用于生成车辆损伤信息的方法和装置
US11392792B2 (en) Method and apparatus for generating vehicle damage information
KR20190128724A (ko) 타겟 인식 방법, 장치, 저장 매체 및 전자 기기
US20220156483A1 (en) Efficient three-dimensional object detection from point clouds
CN111310770B (zh) 目标检测方法和装置
CN114663871A (zh) 图像识别方法、训练方法、装置、***及存储介质
KR102387357B1 (ko) 바운딩 박스를 시공간상으로 매칭하여 영상 내 객체를 검출하는 방법 및 장치
CN113421217A (zh) 可行驶区域检测方法和装置
CN111310595B (zh) 用于生成信息的方法和装置
CN116343169A (zh) 路径规划方法、目标对象运动控制方法、装置及电子设备
CN116563701A (zh) 目标对象检测方法、装置、设备及存储介质
CN115409985A (zh) 目标对象检测方法、装置、电子设备及可读存储介质
CN109657523B (zh) 一种可行驶区域检测方法和装置
CN116758198B (zh) 图像重建方法、装置、设备及存储介质
Bae et al. Method to improve efficiency of human detection using scalemap
CN113963322B (zh) 一种检测模型训练方法、装置及电子设备
US20230267749A1 (en) System and method of segmenting free space based on electromagnetic waves
EP4390871A1 (en) Video anonymization method and apparatus, electronic device, and storage medium
EP4141789A1 (en) An automated imaging system for object footprint detection and a method thereof
US20220366548A1 (en) Method and device with data processing using neural network
CN116310878A (zh) 目标检测方法及电子设备
CN118135348A (zh) 目标模型的训练方法、目标检测方法及装置
CN116109902A (zh) 模糊图像的目标检测模型训练方法、装置及目标检测方法
CN115935963A (zh) 异常轨迹识别方法、装置和计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination