CN117423067B - 一种基于tof技术的客流统计终端 - Google Patents

一种基于tof技术的客流统计终端 Download PDF

Info

Publication number
CN117423067B
CN117423067B CN202311733884.7A CN202311733884A CN117423067B CN 117423067 B CN117423067 B CN 117423067B CN 202311733884 A CN202311733884 A CN 202311733884A CN 117423067 B CN117423067 B CN 117423067B
Authority
CN
China
Prior art keywords
target
vector
target vector
super
representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311733884.7A
Other languages
English (en)
Other versions
CN117423067A (zh
Inventor
罗红强
雷波
雷敏
李勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Huaxin Zhiyun Technology Co ltd
Original Assignee
Chengdu Huaxin Zhiyun Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Huaxin Zhiyun Technology Co ltd filed Critical Chengdu Huaxin Zhiyun Technology Co ltd
Priority to CN202311733884.7A priority Critical patent/CN117423067B/zh
Publication of CN117423067A publication Critical patent/CN117423067A/zh
Application granted granted Critical
Publication of CN117423067B publication Critical patent/CN117423067B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于TOF技术的客流统计终端,属于数据处理技术领域,融合了TOF技术以及深度学习技术,通过TOF深度相机作为数据源,能够保证目标轮廓的稳定性,从而提高检测精度,同时通过深度学习技术对TOF深度相机采集到深度图像进行识别,可以有效地检测出TOF深度相机视野中的目标,最后结合目标跟踪算法,能够有效地实现客流统计,并且为了保证目标的识别准确性,还提出了目标识别模型的获取方法,能够有效地对目标识别模型的超参数进行优化,从而提高目标识别模型的识别能力。

Description

一种基于TOF技术的客流统计终端
技术领域
本发明属于数据处理技术领域,具体涉及一种基于TOF技术的客流统计终端。
背景技术
在许多公共场合都部署了客流量统计***,以便实时获取某一区域的客流量大小。现有技术主要用于采用视觉技术处理图像,从而获取客流统计结果。而传统彩色相机只能获得目标区域的颜色或灰度信息,受这一条件限制,任何算法都将在环境光照发生较大变化或目标物体与背景颜色过于接近时失效。考虑一个极端情况,一个人穿着白衣服戴着白帽子站在一堵白墙前面,可能任何算法都无法准确地检测目标。且在传统彩色相机下目标物体的轮廓存在明显抖动,且会随着环境光照发生较大改变,从而导致客流统计结果不准确。
发明内容
本发明提供一种基于TOF技术的客流统计终端,用以解决现有技术中客流统计不准确的问题。
一种基于TOF技术的客流统计终端,包括数据采集模块、数据处理模块、目标识别模块以及客流统计模块;
所述数据采集模块,用于获取设置于客流统计目标地点的TOF深度相机所采集的深度视频流,所述深度视频流包括多张深度图像,所述深度图像是由TOF深度相机面向地面方向所采集的图像;
所述数据处理模块,用于对每张深度图像进行预处理,获取预处理之后的各个深度图像,并对预处理之后的各个深度图像进行分割,获取分割区域;
所述目标识别模块,用于将分割区域缩放至统一尺寸,得到缩放之后的分割区域,并通过预先训练完成的目标识别模型对缩放之后的分割区域进行识别,确定深度图像中每个分割区域对应的目标识别结果;所述目标识别结果包括分割区域存在人或者分割区域不存在人;
所述客流统计模块,用于根据深度视频流中每张深度图像对应的分割区域所对应的目标识别结果,进行客流统计,以获取客流统计结果。
进一步地,对每张深度图像进行预处理,获取预处理之后的深度图像,包括:对所述深度图像依次进行腐蚀操作、膨胀操作以及中值滤波操作,得到预处理之后的深度图像。
进一步地,对预处理之后的深度图像进行分割,获取分割区域,包括:采用最大稳定极值区域分割算法对预处理之后的深度图像进行分割,得到深度图像对应的至少一个分割区域。
进一步地,预先训练完成的目标识别模型的获取方法为:
采用SVM深度学习模型构建目标识别模型,并初始化目标识别模型的超参数,得到超参数向量,重复获取多个超参数向量;
获取预先存储的训练数据,所述训练数据包括统一尺寸的训练分割区域图像以及训练分割区域图像对应的目标识别结果;
按预设比例将多个超参数向量进行划分为第一目标向量、第二目标向量以及第三目标向量;
将训练分割区域图像作为目标识别模型的输入数据,将训练分割区域图像对应的目标识别结果作为目标识别模型的实际输出数据,获取每个超参数向量对应的适应度值,从而得到第一目标向量的适应度值、第二目标向量的适应度值以及第三目标向量的适应度值;
根据第一目标向量的适应度值、第二目标向量的适应度值以及第三目标向量的适应度值,确定适应度值最大的目标向量作为全局最优值,确定适应度值最小的目标向量作为全局最劣值;
针对第一目标向量,根据全局最优值,并采用全局探索策略在超参数解空间内对第一目标向量进行搜索,得到更新后的第一目标向量;
针对第二目标向量,根据全局最优值或者全局最劣值,并采用跟随搜索策略在超参数解空间内对第二目标向量进行搜索,得到更新后的第二目标向量;
针对第三目标向量,根据全局最优值,采用信息融合搜索策略在超参数解空间内对第三目标向量进行搜索,得到更新后的第三目标向量;
根据更新后的第一目标向量、更新后的第二目标向量以及更新后的第三目标向量,重新确定全局最优值;
判断是否满足搜索结束条件,若是,则输出重新确定的全局最优值,否则返回第一目标向量、第二目标向量以及第三目标向量划分的步骤。
进一步地,将训练分割区域图像作为目标识别模型的输入数据,将训练分割区域图像对应的目标识别结果作为目标识别模型的实际输出数据,获取每个超参数向量对应的适应度值,包括:
确定批次训练数量,并以批次训练数量为基础,随机确定多个训练分割区域图像以及训练分割区域图像对应的目标识别结果;
将超参数向量应用至目标识别模型中之后,将随机确定的多个训练分割区域图像依次输入目标识别模型,以获取多个实际输出数据;
根据随机确定的多个训练分割区域图像对应的目标识别结果以及实际输出数据,获取超参数向量对应的适应度值为:
其中,表示适应度值;/>表示第m个训练分割区域图像输入目标识别模型之后,得到的实际输出数据中第n个概率值;m=1,2,…,M,M表示随机确定多个训练分割区域图像总数;n=1,2,…,N,N表示目标识别模型单次输出的概率值总数;/>表示第m个训练分割区域图像对应的目标识别结果中第n个期望概率值;
遍历所有超参数向量,获取每个超参数向量对应的适应度值。
进一步地,针对第一目标向量,根据全局最优值,并采用全局探索策略在超参数解空间内对第一目标向量进行搜索,包括:
随机确定一个第一目标向量,并根据全局最优值,并采用全局探索策略在超参数解空间内对随机确定的第一目标向量更新为:
其中,表示第t次搜索过程中第i个第一目标向量中的第j个超参数;i=1,2,…,I,I表示第一目标向量的总数;j=1,2,…,JJ表示超参数向量中超参数的总数;/>表示更新后的/>,/>表示第一更新步长因子,/>表示(0,1)之间的第一随机数,/>表示(0,1)之间的第二随机数,/>表示位于(0,1)之间的第一预设阈值,/>表示第t次搜索过程中全局最优值中的第j个超参数;/>表示位于超参数上下限之间的随机向量,随机向量的维度与超参数向量的维度相同,且随机向量中参数按照(0,1)正态分布;/>表示第一更新步长因子的最大值,/>表示第一更新步长因子的最小值,/>表示圆周率,/>表示最大搜索次数;
判断是否还有第一目标向量未更新,若是,则返回随机确定一个第一目标向量的步骤,否则得到更新后的第一目标向量。
进一步地,针对第二目标向量,根据全局最优值或者全局最劣值,并采用跟随搜索策略在超参数解空间内对第二目标向量进行搜索,包括:
随机确定一个第二目标向量,根据全局最优值或者全局最劣值,并采用跟随搜索策略在超参数解空间内对随机确定的第二目标向量更新为:
其中,表示第t次搜索过程中第h个第二目标向量中的第j个超参数;h=1,2,…,H,H表示第二目标向量的总数,/>表示/>在第t次搜索过程中的更新量,/>表示第t+1次搜索过程中的更新量,/>表示第二更新步长因子,/>表示第一学习因子,/>表示第二学习因子,/>表示第t次搜索过程中第h个第二目标向量的历史最优值中的第j个超参数,表示(0,1)之间的第二随机数,/>表示(0,1)之间的第三随机数,/>表示更新后的,/>表示全局最劣值中第j个超参数;
判断是否还有第二目标向量未更新,若是,则返回随机确定一个第二目标向量的步骤,否则得到更新后的第二目标向量。
进一步地,针对第三目标向量,根据全局最优值,采用信息融合搜索策略在超参数解空间内对第三目标向量进行搜索,包括:
随机确定一个第三目标向量,根据全局最优值,采用信息融合搜索策略在超参数解空间内对该随机确定的第三目标向量更新为:
其中,表示第t次搜索过程中第k个第三目标向量,k=1,2,…,K,K表示第三目标向量的总数,/>表示第三目标向量的更新量,/>表示更新后的/>,/>表示与/>不同的随机第三目标向量,/>表示/>的下一状态,/>表示(0,1)之间的第四随机数,/>表示第t次搜索过程中的第三更新步长因子,/>表示第t-1次搜索过程中的第三更新步长因子,/>表示步长调节因子,/>表示第t次搜索过程中全局最优值,/>表示/>的适应度值,/>表示/>的适应度值。
进一步地,判断是否满足搜索结束条件,包括:
判断当前搜索次数是否大于或者等于最大搜索次数,若是,则判定满足搜索结束条件,否则判定未满足搜索结束条件。
进一步地,根据深度视频流中每张深度图像对应的分割区域所对应的目标识别结果,进行客流统计,以获取客流统计结果,包括:
根据深度视频流中每张深度图像对应的分割区域所对应的目标识别结果,确定当前帧深度图像中是否存在人头,若是,则获取分割区域中人头的最小外接圆形的中心,得到当前帧深度图像的人头特征,否则不对该图像进行处理;
当下一帧深度图像到来时,获取下一帧深度图像的人头特征;
根据当前帧深度图像的人头特征以及下一帧深度图像的人头特征,对人头进行追踪,获取客流统计结果;
其中,追踪的逻辑为:当下一帧深度图像存在与当前帧深度图像不同的人头特征时,则判定新目标进入TOF深度相机的摄像区域;当当前帧深度图像存在与下一帧深度图像不同的人头特征时,则判定跟踪目标走出TOF深度相机的摄像区域;根据相邻两帧之间的同一人头特征确定行进方向,当行进方向为进入客流统计目标地点且跟踪目标走出TOF深度相机的摄像区域时,则客流统计结果加一。
本发明提供的一种基于TOF技术的客流统计终端,融合了TOF技术以及深度学习技术,通过TOF深度相机作为数据源,能够保证目标轮廓的稳定性,从而提高检测精度,同时通过深度学习技术对TOF深度相机采集到深度图像进行识别,可以有效地检测出TOF深度相机视野中的目标,最后结合目标跟踪算法,能够有效地实现客流统计,并且为了保证目标的识别准确性,还提出了目标识别模型的获取方法,能够有效地对目标识别模型的超参数进行优化,从而提高目标识别模型的识别能力。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1为本发明实施例提供的一种基于TOF技术的客流统计终端的结构示意图。
其中,1-数据采集模块、2-数据处理模块、3-目标识别模块、4-客流统计模块。
通过上述附图,已示出本发明明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本发明构思的范围,而是通过参考特定实施例为本领域技术人员说明本发明的概念。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
下面结合附图详细说明本发明的实施例。
如图1所示,一种基于TOF(Time of flight,飞行时间技术)技术的客流统计终端,包括数据采集模块1、数据处理模块2、目标识别模块3以及客流统计模块4。
所述数据采集模块1,用于获取设置于客流统计目标地点的TOF深度相机所采集的深度视频流,所述深度视频流包括多张深度图像,所述深度图像是由TOF深度相机面向地面方向所采集的图像。
当TOF深度相机的拍摄角度为倾斜时,可能会存在遮挡,导致识别效果降低,因此本实施例中TOF深度相机面向地面方向采集图像,优选为TOF深度相机的镜头轴线垂直于地面,从而可以拍摄到下方的每一个人,从而减少因为遮挡导致的统计误差。
采集视频流的目的,是为了方便统计目标的行进方向,从而提升客流要统计的准确性,例如:当同一目标从外部区域进入客流统计目标地点之后,会先从深度图像靠近外部区域的一侧出现,并逐渐向客流统计目标地点移动,最终从靠近客流统计目标地点的一侧消失,此时则可以认为客流统计目标地点的客流加一。若需要统计走出客流统计目标地点的人数,则反向识别即可。
所述数据处理模块2,用于对每张深度图像进行预处理,获取预处理之后的各个深度图像,并对预处理之后的各个深度图像进行分割,获取分割区域。
对深度图像进行预处理的目的是使后续识别更加精准或者减少数据量,以加快后续的识别过程,因此可以采用滤波、降维等数据操作对深度图像进行预处理。为了准确识别目标,需要先对深度图像进行分割,以确定可能存在目标的区域,再通过深度学习技术对这些分割区域进行是被,从而可以有效地确定深度图像中的目标。
由于人头区域必定是连通区域,因此可以检测深度图像中的连通区域,从而可以进行图像分割。
所述目标识别模块3,用于将分割区域缩放至统一尺寸,得到缩放之后的分割区域,并通过预先训练完成的目标识别模型对缩放之后的分割区域进行识别,确定深度图像中每个分割区域对应的目标识别结果。所述目标识别结果包括分割区域存在人或者分割区域不存在人。
预先训练完成的目标识别模型的输入数据维度是固定的,为了保证目标识别模型的识别准确率,因此需要现将分割区域缩放至统一尺寸。
当分割区域存在人时,则有可能客流增加,但是也有可能是从客流统计目标地点中走出的人,因此需要进一步对识别到的人进行追踪,以确定最终的客流统计结果。值得说明的是,若是TOF深度相机设置于某个单向入口通道处时,识别到一个新的目标,就可以将客流统计结果加一。
所述客流统计模块4,用于根据深度视频流中每张深度图像对应的分割区域所对应的目标识别结果,进行客流统计,以获取客流统计结果。
例如:根据视频流,对同一目标进行持续跟踪,当目标进入客流统计目标地点之后,则可以将客流加一。
本发明提供的一种基于TOF技术的客流统计终端,融合了TOF技术以及深度学习技术,通过TOF深度相机作为数据源,能够保证目标轮廓的稳定性,从而提高检测精度,同时通过深度学习技术对TOF深度相机采集到深度图像进行识别,可以有效地检测出TOF深度相机视野中的目标,最后结合目标跟踪算法,能够有效地实现客流统计,并且为了保证目标的识别准确性,还提出了目标识别模型的获取方法,能够有效地对目标识别模型的超参数进行优化,从而提高目标识别模型的识别能力。
在本实施例中,对每张深度图像进行预处理,获取预处理之后的深度图像,包括:对所述深度图像依次进行腐蚀操作、膨胀操作以及中值滤波操作,得到预处理之后的深度图像。值得说明的是,除了上述预处理操作之外,还可以采用其他数据预处理操作,以使后续的识别更加准确以及迅速。
在本实施例中,对预处理之后的深度图像进行分割,获取分割区域,包括:采用最大稳定极值区域分割算法对预处理之后的深度图像进行分割,得到深度图像对应的至少一个分割区域。值得说明的是,除了上述的图像分割方法之外,还可以采用其他图像分割方法,例如:基于阈值的分割方法、基于区域的分割方法等等。
在本实施例中,预先训练完成的目标识别模型的获取方法为:
采用SVM(support vector machines,支持向量机)深度学习模型构建目标识别模型,并初始化目标识别模型的超参数,得到超参数向量,重复获取多个超参数向量。
可选的,本实施例提供一种初始化的方法,包括:在SVM深度学习模型的超参数上限与超参数下限之间随机生成超参数,从而可以得到超参数向量。值得说明的是,当超参数不同时,其上下限可能不同,因此每个超参数均应在其对应的上下限之间生成,当后续更新之后,也需要对每个超参数进行超限处理,最终保证SVM深度学习模型的超参数在其允许的范围之内。为了提升搜索效果以及搜索速度,还可以引入混沌搜索策略对SVM深度学习模型的超参数进行初始化。
获取预先存储的训练数据,所述训练数据包括统一尺寸的训练分割区域图像以及训练分割区域图像对应的目标识别结果。
统一尺寸的训练分割区域图像为通过图像分割获取的图像,而训练分割区域图像对应的目标识别结果为人工标签,可以将其作为真值标签,从而可以对目标识别模型进行训练。
按预设比例将多个超参数向量进行划分为第一目标向量、第二目标向量以及第三目标向量。
将多个超参数向量进行划分为第一目标向量、第二目标向量以及第三目标向量的目的为:对不同的目标向量采用不同的策略进行搜索,从而平衡全局搜索以及局部搜索,最终提升目标识别模型的超参数优化效果。
可选的,也可以将超参数向量按照适应度值按从大到小的顺序排序之后,再划分为第一目标向量、第二目标向量以及第三目标向量。
将训练分割区域图像作为目标识别模型的输入数据,将训练分割区域图像对应的目标识别结果作为目标识别模型的实际输出数据,获取每个超参数向量对应的适应度值,从而得到第一目标向量的适应度值、第二目标向量的适应度值以及第三目标向量的适应度值。
根据第一目标向量的适应度值、第二目标向量的适应度值以及第三目标向量的适应度值,确定适应度值最大的目标向量作为全局最优值,确定适应度值最小的目标向量作为全局最劣值。
针对第一目标向量,根据全局最优值,并采用全局探索策略在超参数解空间内对第一目标向量进行搜索,得到更新后的第一目标向量。
针对第二目标向量,根据全局最优值或者全局最劣值,并采用跟随搜索策略在超参数解空间内对第二目标向量进行搜索,得到更新后的第二目标向量。
针对第三目标向量,根据全局最优值,采用信息融合搜索策略在超参数解空间内对第三目标向量进行搜索,得到更新后的第三目标向量。
根据更新后的第一目标向量、更新后的第二目标向量以及更新后的第三目标向量,重新确定全局最优值。
判断是否满足搜索结束条件,若是,则输出重新确定的全局最优值,否则返回第一目标向量、第二目标向量以及第三目标向量划分的步骤。
可选的,搜索结束条件可以为:重新确定的全局最优值所对应的适应度值大于预设阈值时,则结束;或者,当搜索次数大于最大搜索次数之后,则结束。
在本实施例中,将训练分割区域图像作为目标识别模型的输入数据,将训练分割区域图像对应的目标识别结果作为目标识别模型的实际输出数据,获取每个超参数向量对应的适应度值,包括:
确定批次训练数量,并以批次训练数量为基础,随机确定多个训练分割区域图像以及训练分割区域图像对应的目标识别结果。
将超参数向量应用至目标识别模型中之后,将随机确定的多个训练分割区域图像依次输入目标识别模型,以获取多个实际输出数据。
根据随机确定的多个训练分割区域图像对应的目标识别结果以及实际输出数据,获取超参数向量对应的适应度值为:
其中,表示适应度值。/>表示第m个训练分割区域图像输入目标识别模型之后,得到的实际输出数据中第n个概率值。m=1,2,…,M,M表示随机确定多个训练分割区域图像总数。n=1,2,…,N,N表示目标识别模型单次输出的概率值总数。/>表示第m个训练分割区域图像对应的目标识别结果中第n个期望概率值。
遍历所有超参数向量,获取每个超参数向量对应的适应度值。
在本实施例中,针对第一目标向量,根据全局最优值,并采用全局探索策略在超参数解空间内对第一目标向量进行搜索,包括:
随机确定一个第一目标向量,并根据全局最优值,并采用全局探索策略在超参数解空间内对随机确定的第一目标向量更新为:
其中,表示第t次搜索过程中第i个第一目标向量中的第j个超参数。i=1,2,…,I,I表示第一目标向量的总数。j=1,2,…,JJ表示超参数向量中超参数的总数。/>表示更新后的/>,/>表示第一更新步长因子,/>表示(0,1)之间的第一随机数,/>表示(0,1)之间的第二随机数,/>表示位于(0,1)之间的第一预设阈值,/>表示第t次搜索过程中全局最优值中的第j个超参数。/>表示位于超参数上下限之间的随机向量,随机向量的维度与超参数向量的维度相同,且随机向量中参数按照(0,1)正态分布。/>表示第一更新步长因子的最大值,/>表示第一更新步长因子的最小值,/>表示圆周率,/>表示最大搜索次数。
通过具有选择操作的全局探索策略进行所述,可以以变步长向全局最优值的方向进行搜索,不仅能够有效地实现全局搜索,还能够在算法后期实现局部精细搜索,有效地提升了算法的寻优能力。还可以进行随机搜索,有助于发现解空间中未被探索的区域,从而帮助算法跳出局部解,最终实现全局寻优。
可选的,为了保证算法后期的稳定性,第一预设阈值可以设置为随迭代逐渐增加,例如:/>,/>表示第一预设阈值的最大值,表示第一预设阈值的最小值;当算法前期,就会更倾向于进行随机搜索,当算法后期,就会更倾向于精细搜索,从而实现全局寻优。
为了保证搜索效率,还可以采用贪心算法与全局探索策略结合的方式,在超参数解空间内对随机确定的第一目标向量进行更新。
判断是否还有第一目标向量未更新,若是,则返回随机确定一个第一目标向量的步骤,否则得到更新后的第一目标向量。
在本实施例中,针对第二目标向量,根据全局最优值或者全局最劣值,并采用跟随搜索策略在超参数解空间内对第二目标向量进行搜索,包括:
随机确定一个第二目标向量,根据全局最优值或者全局最劣值,并采用跟随搜索策略在超参数解空间内对随机确定的第二目标向量更新为:
其中,表示第t次搜索过程中第h个第二目标向量中的第j个超参数。h=1,2,…,H,H表示第二目标向量的总数,/>表示/>在第t次搜索过程中的更新量,/>表示第t+1次搜索过程中的更新量,/>表示第二更新步长因子,/>表示第一学习因子,/>表示第二学习因子,/>表示第t次搜索过程中第h个第二目标向量的历史最优值中第j个超参数,表示(0,1)之间的第二随机数,/>表示(0,1)之间的第三随机数,/>表示更新后的/>,/>表示全局最劣值中第j个超参数。
通过跟随搜索策略在超参数解空间内对随机确定的第二目标向量进行更新,引入历史最优值以及全局最优值进行更新,能够有效保证第二目标向量的向优性,拥有比第一目标向量更好的搜索方向。从而保证种群的收敛性,同时引入全局最劣值进行更新,能够避免第二目标向量陷入局部最优,能够同时兼顾一定的全局搜索功能。
判断是否还有第二目标向量未更新,若是,则返回随机确定一个第二目标向量的步骤,否则得到更新后的第二目标向量。
在本实施例中,针对第三目标向量,根据全局最优值,采用信息融合搜索策略在超参数解空间内对第三目标向量进行搜索,包括:
随机确定一个第三目标向量,根据全局最优值,采用信息融合搜索策略在超参数解空间内对该随机确定的第三目标向量更新为:
其中,表示第t次搜索过程中第k个第三目标向量,k=1,2,…,K,K表示第三目标向量的总数,/>表示第三目标向量的更新量,/>表示更新后的/>,/>表示与/>不同的随机第三目标向量,/>表示/>的下一状态,/>表示(0,1)之间的第四随机数,/>表示第t次搜索过程中的第三更新步长因子,/>表示第t-1次搜索过程中的第三更新步长因子,/>表示步长调节因子,/>表示第t次搜索过程中全局最优值,/>表示/>的适应度值,/>表示/>的适应度值。
虽然第一目标向量以及第二目标向量在更新时,均兼顾了一定的全局搜索功能,但是其并未有效利用其他超参数向量中蕴含的信息,因此本实施例采用信息融合搜索策略在超参数解空间内对该随机确定的第三目标向量进行更新,能够有效地利用其他超参数向量的信息进行更新,有助于探索不同超参数向量在解空间所在位置之间的空白区域,能够有助于搜索到最优解。
在本实施例中,判断是否满足搜索结束条件,包括:
判断当前搜索次数是否大于或者等于最大搜索次数,若是,则判定满足搜索结束条件,否则判定未满足搜索结束条件。
在本实施例中,根据深度视频流中每张深度图像对应的分割区域所对应的目标识别结果,进行客流统计,以获取客流统计结果,包括:
根据深度视频流中每张深度图像对应的分割区域所对应的目标识别结果,确定当前帧深度图像中是否存在人头,若是,则获取分割区域中人头的最小外接圆形的中心,得到当前帧深度图像的人头特征,否则不对该图像进行处理。
通过仅对当前帧深度图像的人头特征进行跟踪,能够有效地减少跟踪计算量,使该基于TOF技术的客流统计终端能够快速地跟踪目标。
当下一帧深度图像到来时,获取下一帧深度图像的人头特征。
根据当前帧深度图像的人头特征以及下一帧深度图像的人头特征,对人头进行追踪,获取客流统计结果。
其中,追踪的逻辑为:当下一帧深度图像存在与当前帧深度图像不同的人头特征时,则判定新目标进入TOF深度相机的摄像区域。当当前帧深度图像存在与下一帧深度图像不同的人头特征时,则判定跟踪目标走出TOF深度相机的摄像区域。根据相邻两帧之间的同一人头特征确定行进方向,当行进方向为进入客流统计目标地点且跟踪目标走出TOF深度相机的摄像区域时,则客流统计结果加一。
对同一人头特征追踪的方法为:
获取代价函数为:
其中,表示代价函数,/>表示第一权重系数,/>表示第二权重系数,表示相邻两帧深度图像之间人头特征之间的距离,即根据相邻两帧深度图像之间人头特征坐标,获取的欧式距离。/>表示相邻两帧中人体头部特征区域(即人头的最小外接圆形)之间的深度均值相似性,即根据相邻两帧中人体头部特征区域的深度均值,获取的欧式距离。
本领域内的技术人员应明白,本发明的实施例可提供为方法、***、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
本领域普通技术人员可以理解实现上述事实和方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,涉及的程序或者所述的程序可以存储于一计算机所可读取存储介质中,该程序在执行时,包括如下步骤:此时引出相应的方法步骤,所述的存储介质可以是ROM/RAM、磁碟、光盘等等。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (4)

1.一种基于TOF技术的客流统计终端,其特征在于,包括数据采集模块、数据处理模块、目标识别模块以及客流统计模块;
所述数据采集模块,用于获取设置于客流统计目标地点的TOF深度相机所采集的深度视频流,所述深度视频流包括多张深度图像,所述深度图像是由TOF深度相机面向地面方向所采集的图像;
所述数据处理模块,用于对每张深度图像进行预处理,获取预处理之后的各个深度图像,并对预处理之后的各个深度图像进行分割,获取分割区域;
所述目标识别模块,用于将分割区域缩放至统一尺寸,得到缩放之后的分割区域,并通过预先训练完成的目标识别模型对缩放之后的分割区域进行识别,确定深度图像中每个分割区域对应的目标识别结果;所述目标识别结果包括分割区域存在人或者分割区域不存在人;
所述客流统计模块,用于根据深度视频流中每张深度图像对应的分割区域所对应的目标识别结果,进行客流统计,以获取客流统计结果;
对每张深度图像进行预处理,获取预处理之后的深度图像,包括:对所述深度图像依次进行腐蚀操作、膨胀操作以及中值滤波操作,得到预处理之后的深度图像;
对预处理之后的深度图像进行分割,获取分割区域,包括:采用最大稳定极值区域分割算法对预处理之后的深度图像进行分割,得到深度图像对应的至少一个分割区域;
预先训练完成的目标识别模型的获取方法为:
采用SVM深度学习模型构建目标识别模型,并初始化目标识别模型的超参数,得到超参数向量,重复获取多个超参数向量;
获取预先存储的训练数据,所述训练数据包括统一尺寸的训练分割区域图像以及训练分割区域图像对应的目标识别结果;
按预设比例将多个超参数向量进行划分为第一目标向量、第二目标向量以及第三目标向量;
将训练分割区域图像作为目标识别模型的输入数据,将训练分割区域图像对应的目标识别结果作为目标识别模型的实际输出数据,获取每个超参数向量对应的适应度值,从而得到第一目标向量的适应度值、第二目标向量的适应度值以及第三目标向量的适应度值;
根据第一目标向量的适应度值、第二目标向量的适应度值以及第三目标向量的适应度值,确定适应度值最大的目标向量作为全局最优值,确定适应度值最小的目标向量作为全局最劣值;
针对第一目标向量,根据全局最优值,并采用全局探索策略在超参数解空间内对第一目标向量进行搜索,得到更新后的第一目标向量;
针对第二目标向量,根据全局最优值或者全局最劣值,并采用跟随搜索策略在超参数解空间内对第二目标向量进行搜索,得到更新后的第二目标向量;
针对第三目标向量,根据全局最优值,采用信息融合搜索策略在超参数解空间内对第三目标向量进行搜索,得到更新后的第三目标向量;
根据更新后的第一目标向量、更新后的第二目标向量以及更新后的第三目标向量,重新确定全局最优值;
判断是否满足搜索结束条件,若是,则输出重新确定的全局最优值,否则返回第一目标向量、第二目标向量以及第三目标向量划分的步骤;
针对第一目标向量,根据全局最优值,并采用全局探索策略在超参数解空间内对第一目标向量进行搜索,包括:
随机确定一个第一目标向量,并根据全局最优值,并采用全局探索策略在超参数解空间内对随机确定的第一目标向量更新为:
其中,表示第t次搜索过程中第i个第一目标向量中第j个超参数;i=1,2,…,I,I表示第一目标向量的总数;j=1,2,…,JJ表示超参数向量中超参数的总数;/>表示更新后的,/>表示第一更新步长因子,/>表示(0,1)之间的第一随机数,/>表示(0,1)之间的第二随机数,/>表示位于(0,1)之间的第一预设阈值,/>表示第t次搜索过程中全局最优值中第j个超参数;/>表示位于超参数上下限之间的随机向量,随机向量的维度与超参数向量的维度相同,且随机向量中参数按照(0,1)正态分布;/>表示第一更新步长因子的最大值,/>表示第一更新步长因子的最小值,/>表示圆周率,/>表示最大搜索次数;
判断是否还有第一目标向量未更新,若是,则返回随机确定一个第一目标向量的步骤,否则得到更新后的第一目标向量;
针对第二目标向量,根据全局最优值或者全局最劣值,并采用跟随搜索策略在超参数解空间内对第二目标向量进行搜索,包括:
随机确定一个第二目标向量,根据全局最优值或者全局最劣值,并采用跟随搜索策略在超参数解空间内对随机确定的第二目标向量更新为:
其中,表示第t次搜索过程中第h个第二目标向量中的第j个超参数;h=1,2,…,H,H表示第二目标向量的总数,/>表示/>在第t次搜索过程中的更新量,/>表示第t+1次搜索过程中的更新量,/>表示第二更新步长因子,/>表示第一学习因子,/>表示第二学习因子,/>表示第t次搜索过程中第h个第二目标向量的历史最优值中的第j个超参数,/>表示(0,1)之间的第二随机数,/>表示(0,1)之间的第三随机数,/>表示更新后的/>表示全局最劣值中第j个超参数;
判断是否还有第二目标向量未更新,若是,则返回随机确定一个第二目标向量的步骤,否则得到更新后的第二目标向量;
针对第三目标向量,根据全局最优值,采用信息融合搜索策略在超参数解空间内对第三目标向量进行搜索,包括:
随机确定一个第三目标向量,根据全局最优值,采用信息融合搜索策略在超参数解空间内对该随机确定的第三目标向量更新为:
其中,表示第t次搜索过程中第k个第三目标向量,k=1,2,…,K,K表示第三目标向量的总数,/>表示第三目标向量的更新量,/>表示更新后的/>,/>表示与/>不同的随机第三目标向量,/>表示/>的下一状态,/>表示(0,1)之间的第四随机数,/>表示第t次搜索过程中的第三更新步长因子,/>表示第t-1次搜索过程中的第三更新步长因子,/>表示步长调节因子,/>表示第t次搜索过程中全局最优值,/>表示/>的适应度值,/>表示/>的适应度值。
2.根据权利要求1所述的基于TOF技术的客流统计终端,其特征在于,将训练分割区域图像作为目标识别模型的输入数据,将训练分割区域图像对应的目标识别结果作为目标识别模型的实际输出数据,获取每个超参数向量对应的适应度值,包括:
确定批次训练数量,并以批次训练数量为基础,随机确定多个训练分割区域图像以及训练分割区域图像对应的目标识别结果;
将超参数向量应用至目标识别模型中之后,将随机确定的多个训练分割区域图像依次输入目标识别模型,以获取多个实际输出数据;
根据随机确定的多个训练分割区域图像对应的目标识别结果以及实际输出数据,获取超参数向量对应的适应度值为:
其中,表示适应度值;/>表示第m个训练分割区域图像输入目标识别模型之后,得到的实际输出数据中第n个概率值;m=1,2,…,M,M表示随机确定的多个训练分割区域图像总数;n=1,2,…,N,N表示目标识别模型单次输出的概率值总数;/>表示第m个训练分割区域图像对应的目标识别结果中第n个期望概率值;
遍历所有超参数向量,获取每个超参数向量对应的适应度值。
3.根据权利要求1-2任一所述的基于TOF技术的客流统计终端,其特征在于,判断是否满足搜索结束条件,包括:
判断当前搜索次数是否大于或者等于最大搜索次数,若是,则判定满足搜索结束条件,否则判定未满足搜索结束条件。
4.根据权利要求1所述的基于TOF技术的客流统计终端,其特征在于,根据深度视频流中每张深度图像对应的分割区域所对应的目标识别结果,进行客流统计,以获取客流统计结果,包括:
根据深度视频流中每张深度图像对应的分割区域所对应的目标识别结果,确定当前帧深度图像中是否存在人头,若是,则获取分割区域中人头的最小外接圆形的中心,得到当前帧深度图像的人头特征,否则不对该图像进行处理;
当下一帧深度图像到来时,获取下一帧深度图像的人头特征;
根据当前帧深度图像的人头特征以及下一帧深度图像的人头特征,对人头进行追踪,获取客流统计结果;
其中,追踪的逻辑为:当下一帧深度图像存在与当前帧深度图像不同的人头特征时,则判定新目标进入TOF深度相机的摄像区域;当当前帧深度图像存在与下一帧深度图像不同的人头特征时,则判定跟踪目标走出TOF深度相机的摄像区域;根据相邻两帧之间的同一人头特征确定行进方向,当行进方向为进入客流统计目标地点且跟踪目标走出TOF深度相机的摄像区域时,则客流统计结果加一。
CN202311733884.7A 2023-12-18 2023-12-18 一种基于tof技术的客流统计终端 Active CN117423067B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311733884.7A CN117423067B (zh) 2023-12-18 2023-12-18 一种基于tof技术的客流统计终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311733884.7A CN117423067B (zh) 2023-12-18 2023-12-18 一种基于tof技术的客流统计终端

Publications (2)

Publication Number Publication Date
CN117423067A CN117423067A (zh) 2024-01-19
CN117423067B true CN117423067B (zh) 2024-03-12

Family

ID=89525143

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311733884.7A Active CN117423067B (zh) 2023-12-18 2023-12-18 一种基于tof技术的客流统计终端

Country Status (1)

Country Link
CN (1) CN117423067B (zh)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110008799A (zh) * 2018-11-09 2019-07-12 阿里巴巴集团控股有限公司 指定区域的人流状况估算方法和装置
CN110717408A (zh) * 2019-09-20 2020-01-21 台州智必安科技有限责任公司 一种基于tof相机的人流计数方法
CN111428318A (zh) * 2020-04-30 2020-07-17 上海工程技术大学 一种基于鲸鱼算法优化的滚动轴承退化趋势预测方法
CN112132102A (zh) * 2020-09-28 2020-12-25 天津工业大学 一种深度神经网络结合人工蜂群优化的智能故障诊断方法
CN112232155A (zh) * 2020-09-30 2021-01-15 墨奇科技(北京)有限公司 非接触指纹识别的方法、装置、终端及存储介质
CN113255223A (zh) * 2021-06-02 2021-08-13 西安建筑科技大学 一种空调负荷短期预测方法及***
CN113947009A (zh) * 2021-08-31 2022-01-18 西北大学 基于柯西扰动麻雀优化的稀疏lstm滑坡动态预测方法
CN115064734A (zh) * 2022-07-06 2022-09-16 山东大学 一种多策略改进麻雀算法的燃料电池停机吹扫方法及***
CN115376037A (zh) * 2022-07-12 2022-11-22 北京交通大学 一种基于视频的车站关键区域安全状态监测方法
CN115496103A (zh) * 2022-09-26 2022-12-20 重庆邮电大学 一种压缩感知域下基于改进的pso-lstsvm的流体管道泄漏识别方法
CN115498283A (zh) * 2022-08-27 2022-12-20 湖州师范学院 改进麻雀算法优化的锂离子电池健康状态预测方法
CN115880380A (zh) * 2022-09-09 2023-03-31 大连大学 一种基于改进麻雀搜索算法优化caen的图像数据压缩方法
CN117079120A (zh) * 2023-03-21 2023-11-17 大连海事大学 一种基于改进ga算法的目标识别模型优化方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080247652A1 (en) * 2007-04-04 2008-10-09 Motorola, Inc. Q-metric based support vector machine
CN109933881A (zh) * 2019-03-06 2019-06-25 武汉大学 一种基于优化深度信念网络的电力电子电路故障诊断方法
CN110717400A (zh) * 2019-09-12 2020-01-21 北京华捷艾米科技有限公司 一种客流统计方法、装置及***
US20210326700A1 (en) * 2020-03-12 2021-10-21 Genotaur, Inc. Neural network optimization
CN115147868B (zh) * 2022-06-29 2023-11-28 珠海视熙科技有限公司 客流相机的人体检测方法、客流相机、装置及存储介质

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110008799A (zh) * 2018-11-09 2019-07-12 阿里巴巴集团控股有限公司 指定区域的人流状况估算方法和装置
CN110717408A (zh) * 2019-09-20 2020-01-21 台州智必安科技有限责任公司 一种基于tof相机的人流计数方法
CN111428318A (zh) * 2020-04-30 2020-07-17 上海工程技术大学 一种基于鲸鱼算法优化的滚动轴承退化趋势预测方法
CN112132102A (zh) * 2020-09-28 2020-12-25 天津工业大学 一种深度神经网络结合人工蜂群优化的智能故障诊断方法
CN112232155A (zh) * 2020-09-30 2021-01-15 墨奇科技(北京)有限公司 非接触指纹识别的方法、装置、终端及存储介质
CN113255223A (zh) * 2021-06-02 2021-08-13 西安建筑科技大学 一种空调负荷短期预测方法及***
CN113947009A (zh) * 2021-08-31 2022-01-18 西北大学 基于柯西扰动麻雀优化的稀疏lstm滑坡动态预测方法
CN115064734A (zh) * 2022-07-06 2022-09-16 山东大学 一种多策略改进麻雀算法的燃料电池停机吹扫方法及***
CN115376037A (zh) * 2022-07-12 2022-11-22 北京交通大学 一种基于视频的车站关键区域安全状态监测方法
CN115498283A (zh) * 2022-08-27 2022-12-20 湖州师范学院 改进麻雀算法优化的锂离子电池健康状态预测方法
CN115880380A (zh) * 2022-09-09 2023-03-31 大连大学 一种基于改进麻雀搜索算法优化caen的图像数据压缩方法
CN115496103A (zh) * 2022-09-26 2022-12-20 重庆邮电大学 一种压缩感知域下基于改进的pso-lstsvm的流体管道泄漏识别方法
CN117079120A (zh) * 2023-03-21 2023-11-17 大连海事大学 一种基于改进ga算法的目标识别模型优化方法

Non-Patent Citations (10)

* Cited by examiner, † Cited by third party
Title
Efficient Selection of Gaussian Kernel SVM Parameters for Imbalanced Data;Chen-An Tsai, 等;Genes (Basel);20230225;第14卷(第3期);1-7 *
GA-SVM based feature selection and parameter optimization in hospitalization expense modeling;Zhou Tao等;Applied Soft Computing;20190228;第75卷;323-332 *
Methods for Hyperparameters Optimization in Learning Approaches: An Overview;Nicoletta Del Buono 等;LOD 2020: Machine Learning, Optimization, and Data Science;20210108;100–112 *
Synthesizing ranking functions for loop programs via SVM;Yi Li, Xie Li, 等;Theoretical Computer Science;20220713;1-6 *
基于TOF相机的公交客流量采集***;武孝勇;中国优秀硕士学位论文全文数据库 (信息科技辑);20181215(第(2018)12期);I138-1654 *
基于群智能优化的机器学习方法研究及应用;赵东;中国博士学位论文全文数据库 (信息科技辑);20170915(第(2017)09期);I140-8 *
基于计算机视觉的行人交通信息智能检测理论和关键技术研究;王爱丽;中国博士学位论文全文数据库 (信息科技辑);20161215(第(2016)12期);I138-26 *
多策略融合的改进麻雀搜索算法及其应用;付华;控制与决策;20210901;1-6 *
新型群智能优化算法综述;林诗洁;董晨;陈明志;张凡;陈景辉;;计算机工程与应用;20180615(第12期);:1-9 *
武孝勇.基于TOF相机的公交客流量采集***.中国优秀硕士学位论文全文数据库 (信息科技辑).2018,(第(2018)12期), I138-1654. *

Also Published As

Publication number Publication date
CN117423067A (zh) 2024-01-19

Similar Documents

Publication Publication Date Title
Wojke et al. Simple online and realtime tracking with a deep association metric
CN112052797B (zh) 基于MaskRCNN的视频火灾识别方法及***
CN110298404B (zh) 一种基于三重孪生哈希网络学习的目标跟踪方法
Xu et al. Mhp-vos: Multiple hypotheses propagation for video object segmentation
US11403859B2 (en) Three dimensional (3D) object detection
CN107273905B (zh) 一种结合运动信息的目标主动轮廓跟踪方法
JP2019036009A (ja) 制御プログラム、制御方法、及び情報処理装置
CN106373146B (zh) 一种基于模糊学习的目标跟踪方法
CN108694724A (zh) 一种长时间目标跟踪方法
Ruta et al. Detection, tracking and recognition of traffic signs from video input
CN104835145A (zh) 基于自适应Codebook背景模型的前景检测方法
CN110781785A (zh) 基于Faster RCNN算法改进的交通场景下行人检测方法
CN112287906B (zh) 一种基于深度特征融合的模板匹配跟踪方法及***
He et al. Fast online multi-pedestrian tracking via integrating motion model and deep appearance model
CN115035159A (zh) 一种基于深度学习和时序特征增强的视频多目标跟踪方法
CN117423067B (zh) 一种基于tof技术的客流统计终端
CN116912763A (zh) 一种融合步态人脸模态的多行人重识别方法
CN108256444B (zh) 一种用于车载视觉***的目标检测方法
CN113850166A (zh) 一种基于卷积神经网络的船舶图像识别方法及***
Wang et al. Scalable learning framework for traversable region detection fusing with appearance and geometrical information
Allebosch et al. Edge based Foreground Background Estimation with Interior/Exterior Classification.
CN117011335B (zh) 一种基于自适应双解码器的多目标跟踪方法及***
Jiang et al. Online layered multiple object tracking using residual-residual networks
Kang Multiple Object Tracking in Videos
Yue et al. Infrared small target recognition based on Yolov5 and centriod tracking algorithm

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant