CN114998275A - 目标对象的状态识别方法和深度学习模型的训练方法 - Google Patents
目标对象的状态识别方法和深度学习模型的训练方法 Download PDFInfo
- Publication number
- CN114998275A CN114998275A CN202210658887.8A CN202210658887A CN114998275A CN 114998275 A CN114998275 A CN 114998275A CN 202210658887 A CN202210658887 A CN 202210658887A CN 114998275 A CN114998275 A CN 114998275A
- Authority
- CN
- China
- Prior art keywords
- image
- state
- frame image
- image data
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 107
- 238000013136 deep learning model Methods 0.000 title claims abstract description 82
- 238000012549 training Methods 0.000 title claims abstract description 55
- 230000033001 locomotion Effects 0.000 claims abstract description 113
- 238000012545 processing Methods 0.000 claims abstract description 106
- 230000003287 optical effect Effects 0.000 claims description 33
- 238000000605 extraction Methods 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 14
- 238000003860 storage Methods 0.000 claims description 14
- 230000004044 response Effects 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 12
- 238000012986 modification Methods 0.000 claims description 8
- 230000004048 modification Effects 0.000 claims description 8
- 238000013473 artificial intelligence Methods 0.000 abstract description 4
- 238000013135 deep learning Methods 0.000 abstract description 2
- 239000003245 coal Substances 0.000 description 17
- 238000010586 diagram Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 10
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000013481 data capture Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000005286 illumination Methods 0.000 description 5
- 238000005065 mining Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000002902 bimodal effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了一种目标对象的状态识别方法、深度学习模型的训练方法、装置、设备、介质和产品,涉及人工智能领域,具体为计算机视觉、图像处理、深度学习等技术领域,适用于工业设备的目标对象的状态识别场景。目标对象的状态识别方法包括:处理与目标对象相关联的视频数据,得到待识别图像数据,其中,待识别图像数据包含与视频数据相关联的时间信息和与目标对象相关联的图像数据;对待识别图像数据进行识别,得到目标对象的运动状态和目标对象的遮挡状态。
Description
技术领域
本公开涉及人工智能领域,具体为计算机视觉、图像处理、深度学习等技术领域,更具体地,涉及一种目标对象的状态识别方法、深度学习模型的训练方法、装置、电子设备、介质和程序产品。
背景技术
在一些场景下,需要识别目标对象的相关状态,相关状态表示目标对象正在运动或者处于静止状态,或者表示目标对象是否被其他对象遮挡。但是,相关技术在识别目标对象的相关状态时,由于外部因素的影响导致识别效果不佳。
发明内容
本公开提供了一种目标对象的状态识别方法、深度学习模型的训练方法、装置、电子设备、存储介质以及程序产品。
根据本公开的一方面,提供了一种目标对象的状态识别方法,包括:处理与目标对象相关联的视频数据,得到待识别图像数据,其中,所述待识别图像数据包含与所述视频数据相关联的时间信息和与所述目标对象相关联的图像数据;对所述待识别图像数据进行识别,得到所述目标对象的运动状态和所述目标对象的遮挡状态。
根据本公开的另一方面,提供了一种深度学习模型的训练方法,包括:处理与目标对象相关联的历史视频数据,得到样本图像数据,其中,所述样本图像数据包含与所述历史视频数据相关联的时间信息和与所述目标对象相关联的图像数据,所述样本图像数据包括运动状态标签和遮挡状态标签;利用待训练深度学习模型处理所述样本图像数据,得到所述目标对象的运动状态识别结果和所述目标对象的遮挡状态识别结果;基于所述运动状态识别结果、所述运动状态标签、所述遮挡状态识别结果以及所述遮挡状态标签,训练所述待训练深度学习模型。
根据本公开的另一方面,提供了一种目标对象的状态识别装置,包括:处理模块以及识别模块。处理模块,用于处理与目标对象相关联的视频数据,得到待识别图像数据,其中,所述待识别图像数据包含与所述视频数据相关联的时间信息和与所述目标对象相关联的图像数据;识别模块,用于对所述待识别图像数据进行识别,得到所述目标对象的运动状态和所述目标对象的遮挡状态。
根据本公开的另一方面,提供了一种深度学习模型的训练装置,包括:第一处理模块、第二处理模块和训练模块。第一处理模块,用于处理与目标对象相关联的历史视频数据,得到样本图像数据,其中,所述样本图像数据包含与所述历史视频数据相关联的时间信息和与所述目标对象相关联的图像数据,所述样本图像数据包括运动状态标签和遮挡状态标签;第二处理模块,用于利用待训练深度学习模型处理所述样本图像数据,得到所述目标对象的运动状态识别结果和所述目标对象的遮挡状态识别结果;训练模块,用于基于所述运动状态识别结果、所述运动状态标签、所述遮挡状态识别结果以及所述遮挡状态标签,训练所述待训练深度学习模型。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器和与所述至少一个处理器通信连接的存储器。其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述的目标对象的状态识别方法和/或深度学习模型的训练方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行上述的目标对象的状态识别方法和/或深度学习模型的训练方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序/指令,所述计算机程序/指令被处理器执行时实现上述目标对象的状态识别方法的步骤和/或深度学习模型的训练方法的步骤。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1示意性示出了根据本公开一实施例的目标对象的状态识别和/或深度学习模型的训练方法的***架构;
图2示意性示出了根据本公开一实施例的目标对象的状态识别方法的流程图;
图3示意性示出了根据本公开一实施例的目标对象的状态识别方法的原理图;
图4示意性示出了根据本公开一实施例的深度学习模型的训练方法的流程图;
图5示意性示出了根据本公开一实施例的深度学习模型的示意图;
图6示意性示出了根据本公开一实施例的目标对象的状态识别方法和深度学习模型的训练方法的原理图;
图7示意性示出了根据本公开一实施例的目标对象的状态识别装置的框图;
图8示意性示出了根据本公开一实施例的深度学习模型的训练装置的框图;以及
图9是用来实现本公开实施例的用于执行目标对象的状态识别和/或深度学习模型的训练方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的***”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的***等)。
随着智慧矿山的大力推进,可以利用人工智能、图像算法等技术对煤矿生产作业状态进行智能化监控,以便及时发现煤矿的异常动态,并可以自动生成、推送告警信息。另外,可以将针对煤矿的数据分析结果通过安全监督部门中转接入综合信息***,继而实现全天候的远程检测。
智慧矿山的建设涵盖多种智能化任务,例如人员入井自动识别任务、摄像头遮挡任务、摄像头挪动角度自动识别任务、识别运输设备的运行状态任务等。以识别运输设备运动状态的任务为例,例如需要判断运输设备处于运动状态或静止状态,同时需要识别运输设备是否空载,运输设备例如包括传送带。但是,由于矿区场景极易受到光照、反光、摄像头视角、人员走动等因素的影响,现有的识别算法应用困难、效果不稳定、鲁棒性较差,且无法持续迭代。
在一示例中,可以通过外接运动检测装置或者通过传送带工作电流判断传送带是否运动。但是,通过引入额外的装置判断传送带的状态,增加了设备成本。
在另一种示例中,可以通过传统的图像处理方法对传送带的运动状态进行识别。例如,通过采集针对传送带的视频数据,对视频数据中相邻视频帧求取背景差分,从而获取前景信息。然后,利用单阈值的最大类问方差法(OTSU)进行二值化、形态学处理等方法获取视频帧中大致的运动区域和运动区域面积与视频帧总面积之间的比值,将该比值与预先设定的面积比值进行比较,以识别传送带是否运动。最大类间方差法是由日本学者大津(Nobuyuki Otsu)于1979年提出的一种自适合于双峰情况的自动求取阈值的方法,又叫大津法。但是,该方式难以解决摄像头视角差异大、光照变化带来的反光影响等问题,使得该方式的鲁棒性较差。
在另一种示例中,可以利用感知哈希算法(Perceptual hash algorithm,phash)、尺度不变特征转换(Scale-invariant feature transform,SIFT)、方向梯度直方图(Histogram of Oriented Gradient,HOG)等传统图像特征提取方法提取视频数据中相邻视频帧的特征,并计算特征之间的距离,将该距离和设置的距离阈值进行比较得到传送带的运动状态。还可以通过卷积神经网络(Convolutional Neural Networks,CNN)技术优化对视频帧特征的提取能力。但是,该方式受限于提取的图像特征质量,且传统算法提取的图像特征表征性较弱、鲁棒性较差,因此极易受到图像细小扰动造成的图像差异的影响,不适用于复杂多样的矿区场景,即使通过引入深度神经网络来提高图像特征提取能力,但是目前该方法在实际矿区场景下很难实现训练优化。另外,该方式在处理视频数据时,仅仅确定两帧之间的特征差异,没有充分利用视频的时空信息,因此实时性和应用性较差。
上述的多种方式通常将识别传送带运动状态的任务和识别传送带是否空载(是否运输煤炭)的任务进行割离,将这两个任务分开处理,增加了算法耗时。另外,上述方式难以实现持续迭代训练,因此在多样化的矿区场景下由于存在摄像头视角、光照等影响,难以实现算法的自迭代,使得算法的泛化性能难以得到保证。
有鉴于此,本公开的实施例提供了一种优化的目标对象的状态识别方法和深度学习模型的训练方法。
示例性地,目标对象的状态识别方法包括:处理与目标对象相关联的视频数据,得到待识别图像数据,待识别图像数据包含与视频数据相关联的时间信息和与目标对象相关联的图像数据。然后,对待识别图像数据进行识别,得到目标对象的运动状态和目标对象的遮挡状态。
示例性地,深度学习模型的训练方法包括:处理与目标对象相关联的历史视频数据,得到样本图像数据,其中,样本图像数据包含与历史视频数据相关联的时间信息和与目标对象相关联的图像数据,样本图像数据包括运动状态标签和遮挡状态标签。然后,利用待训练深度学习模型处理样本图像数据,得到目标对象的运动状态识别结果和目标对象的遮挡状态识别结果。接下来,基于运动状态识别结果、运动状态标签、遮挡状态识别结果以及遮挡状态标签,训练待训练深度学习模型。
图1示意性示出了根据本公开一实施例的目标对象的状态识别和/或深度学习模型的训练方法的***架构。需要注意的是,图1所示仅为可以应用本公开实施例的***架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、***、环境或场景。
如图1所示,根据该实施例的***架构100可以包括视频数据采集装置101,网络102和服务器103。网络102用以在视频数据采集装置101和服务器103之间提供通信链路的介质。网络102可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
视频数据采集装置101可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。本公开实施例的视频数据采集装置101例如可以运行应用程序。
服务器103可以是提供各种服务的服务器,例如服务器103可以是云服务器,即服务器103具有云计算功能。
需要说明的是,本公开实施例所提供的目标对象的状态识别方法和/或深度学习模型的训练方法可以由服务器103执行。相应地,本公开实施例所提供的目标对象的状态识别装置和/或深度学习模型的训练装置可以设置于服务器103中。
在一种示例中,针对视频数据采集装置101采集的与目标对象相关联的历史视频数据,服务器103可以基于历史视频数据训练深度学习模型。
在一种示例中,服务器103可以处理视频数据采集装置101采集的与目标对象相关联的视频数据,从而得到目标对象的运动状态和目标对象的遮挡状态。例如,服务器103可以利用经训练的深度学习模型处理视频数据,从而得到目标对象的运动状态和目标对象的遮挡状态。
应该理解,图1中的视频数据采集装置、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的视频数据采集装置、网络和服务器。
下面结合图1的***架构,参考图2~图6来描述根据本公开示例性实施方式的目标对象的状态识别方法和/或深度学习模型的训练方法。本公开实施例的目标对象的状态识别方法和/或深度学习模型的训练方法例如可以由图1所示的服务器来执行,图1所示的服务器例如以下文的电子设备相同或类似。
图2示意性示出了根据本公开一实施例的目标对象的状态识别方法的流程图。
如图2所示,本公开实施例的目标对象的状态识别方法200例如可以包括操作S210~操作S220。
在操作S210,处理与目标对象相关联的视频数据,得到待识别图像数据,待识别图像数据包含与视频数据相关联的时间信息和与目标对象相关联的图像数据。
在操作S220,对待识别图像数据进行识别,得到目标对象的运动状态和目标对象的遮挡状态。
示例性地,与目标对象相关联的视频数据例如表示视频数据是针对目标对象进行采集的数据,该视频数据中包括目标对象的相关信息。或者,与目标对象相关联的视频数据还可以表示视频数据是利用目标对象对其他对象进行采集的数据,该视频数据中包括其他对象的相关信息。
视频数据中通常包括多帧连续的视频帧,多帧连续的视频帧中包括时间信息。通过对视频数据进行处理,可以得到待识别图像数据,待识别图像数据可以包括多帧连续的视频帧中的至少部分。该待识别图像数据中包括时间信息和与目标对象相关联的图像数据。
得到待识别图像数据之后,可以对待识别图像数据进行图像识别,以便同时得到目标对象的运动状态和遮挡状态,运动状态表示目标对象是否正在运动,遮挡状态表示目标对象是否被遮挡。
根据本公开的实施例,通过处理视频数据可以得到包含时间信息和图像信息的待识别图像数据,对待识别图像数据进行识别可以同时得到目标对象的运动状态和遮挡状态。由此可见,通过处理视频数据得到包含时间信息和图像信息的待识别图像数据之后,基于待识别图像数据即可同时执行运动状态识别任务和遮挡状态识别任务,降低了任务的处理耗时,实现了多任务处理的效果。
在本公开的一示例中,目标对象例如包括传送装置,视频数据包括对传送装置进行视频采集得到的数据。运动状态表征了传送装置是否在运动。遮挡状态表征了传送装置上是否存在待传送物。待传送物例如包括煤炭,遮挡状态例如包括传送带上是否具有煤炭,如果传送带上有煤炭,此时遮挡状态为被遮挡,如果传送带上没有煤炭,此时遮挡状态为未被遮挡。
在本公开的另一示例中,目标对象例如包括视频数据采集装置,视频数据包括利用视频数据采集装置对其他对象进行视频采集得到的数据。运动状态表征了视频数据采集装置是否在运动,例如表征了视频数据采集装置是否存在抖动、旋转等等,视频数据采集装置例如包括摄像头。遮挡状态表征了视频数据采集装置是否被遮挡,例如表征了摄像头在采集数据时前方是否被遮挡。在一种示例中,当摄像头存在污渍时,表示摄像头被遮挡。
由于目标对象的不同,使得本公开实施例的目标对象的状态识别方法适用于各种不同的场景,提高了目标对象的状态识别方法的适用范围。
图3示意性示出了根据本公开一实施例的目标对象的状态识别方法的原理图。
如图3所示,可以从视频数据310中提取多帧图像,然后通过多种方式对多帧图像进行处理,得到包含多个通道的待识别图像数据。待识别图像数据例如包括第一待识别图像数据341、第二待识别图像数据342、第三待识别图像数据343。第一待识别图像数据341例如包括三个第一通道,第二待识别图像数据342例如包括三个第二通道,第三待识别图像数据343例如包括三个第三通道。
其中一种方式,多帧图像例如包括第一帧图像321和第二帧图像322。第二帧图像322的采集时刻例如在第一帧图像321的采集时刻之后。例如,第二帧图像322为当前帧图像,第一帧图像321为当前帧图像的上一帧图像。
基于第一帧图像321和第二帧图像322得到第一差值图像331。例如,将第一帧图像321的像素逐个和第二针图像322中对应像素进行相减,或者,将第一帧图像321中局部的像素逐个和第二针图像322中局部的对应像素进行相减,从而得到第一差值图像331,图像的局部包括目标对象所在的区域或者重要的区域,图中以虚线框指示图像的局部,虚线框也可以称为电子围栏。第一差值图像331包含了第一帧图像321和第二帧图像322之间的差异,因此第一差值图像331包含了与视频数据310相关联的时间信息。
接下来,将第一帧图像321、第二帧图像322和第一差值图像331进行组合,得到包含三个第一通道的第一待识别图像数据341。
可以理解,本公开的实施例结合电子围栏区域进行约束,在深度学习模型350对当前帧图像的运动状态和遮挡状态进行推理预测时,根据电子围栏坐标对当前帧图像、上一帧图像进行裁剪,基于两帧图像得到差值图像,将两帧图像和差值图像合并得到包含三个第一通道的第一待识别图像数据341输入深度学习模型350中进行识别。同时,通过设置较低的抽帧频率,比如1秒抽取1帧,在保证性能的同时,提高了视频处理速度,便于深度学习模型350在边缘端的部署。
另一种方式,多帧图像例如包括第三帧图像323和第四帧图像324。第四帧图像324的采集时刻例如在第三帧图像323的采集时刻之后。例如,第四帧图像324为当前帧图像,第三帧图像323为当前帧图像的上一帧图像。
基于第三帧图像323和第四帧图像324得到第二差值图像332。例如,将第三帧图像323的像素逐个和第四帧图像324中对应像素进行相减,或者,将第三帧图像323中局部的像素逐个和第四帧图像324中局部的对应像素进行相减,得到第二差值图像332。
基于第三帧图像323和第四帧图像324,得到与第一方向关联的第一光流图像333和与第二方向关联的第二光流图像334,或者,基于第三帧图像323的局部和第四帧图像324的局部,得到与第一方向关联的第一光流图像333和与第二方向关联的第二光流图像334。第一方向例如为图像的横向方向(x方向),第二方向例如为图像的纵向方向(y方向)。光流(optical flow)可以表示图像亮度模式的表观运动,光流表达了图像的变化,包含图像中对象的运动信息。
第二差值图像332、第一光流图像333和第二光流图像334包含了第三帧图像323和第四帧图像324之间的差异,因此第二差值图像332、第一光流图像333和第二光流图像334包含了与视频数据310相关联的时间信息。
接下来,将第二差值图像332、第一光流图像333和第二光流图像334进行组合,得到包含三个第二通道的第二待识别图像数据342。
另一种方式,多帧图像例如包括第五帧图像325、第六帧图像326和第七帧图像327。第六帧图像326的采集时刻例如在第五帧图像325的采集时刻之后,第七帧图像327的采集时刻例如在第六帧图像326的采集时刻之后。例如,第六帧图像326为当前帧图像,第五帧图像325为当前帧图像的上一帧图像,第七帧图像327为当前帧图像的下一帧图像。第五帧图像325、第六帧图像326和第七帧图像327是针对视频数据310中不同时刻的图像,因此第五帧图像325、第六帧图像326和第七帧图像327包含了与视频数据310相关联的时间信息。
接下来,将第五帧图像325、第六帧图像326和第七帧图像327进行组合,得到包含三个第三通道的第三待识别图像数据343。
在得到第一待识别图像数据341、第二待识别图像数据342或者第三待识别图像数据343之后,可以将第一待识别图像数据341、第二待识别图像数据342或者第三待识别图像数据343输入深度学习模型350中。利用深度学习模型350对第一待识别图像数据341、第二待识别图像数据342、第三待识别图像数据343中的任意一个进行图像识别,得到目标对象的运动状态和遮挡状态360。运动状态和遮挡状态360例如是针对当前帧图像的预测结果。
根据本公开的实施例,视频数据310中的多帧视频帧包含了时间信息,通过多种方式对视频数据310进行处理,得到包含时间信息和图像信息的待识别图像数据,基于包含时间信息的待识别图像数据进行识别,充分考虑了视频数据中的时间信息,在基于图像信息识别遮挡状态的同时提高了运动状态的识别准确性。
根据本公开的实施例,在得到目标对象的运动状态和遮挡状态之后,可以基于运动状态和遮挡状态来进行告警。例如,当运动状态表示目标对象长时间运动或静止时,可以进行告警。或者,当遮挡状态表示目标对象长时间被遮挡或未被遮挡时,可以进行告警。
例如,可以基于运动状态生成第一告警数据,基于遮挡状态生成第二告警数据。
示例性地,基于运动状态生成第一告警数据包括以下操作。
在得到针对当前帧图像的运动状态对应的状态值之后,可以将得到的状态值存储至状态列表中。当确定状态列表中运动状态包括M1个状态值时,确定M1个状态值中第一状态值的数量是否大于等于M2,M1为大于0的整数,M2小于等于M1。
如果确定第一状态值的数量大于等于M2,确定处于两个不相邻的第一状态值之间的第二状态值的数量是否小于等于M3,M3小于M1。
如果确定第二状态值的数量小于等于M3,将第二状态值修改为第一状态值,得到更新后的运动状态。
然后,基于更新后的运动状态包含的第一状态值数量或第二状态值数量,生成第一告警数据。
例如,以M1=5,M2=3,M3=1为例进行说明。状态列表例如为[A A A B A],A表示第一状态值,B表示第二状态值。第一状态值例如表示静止,第二状态值例如表示运动。或者,第一状态值例如表示运动,第二状态值例如表示静止。状态列表中状态值的数量5大于等于M1=5,进一步确定第一状态值A的数量4大于等于M2=3。然后,确定处于两个不相邻的第一状态值(第三个A和第五个A)之间的第二状态值(第四个B)的数量小于等于M3=1,表示第二状态值B是不稳定的异常值的可能性较大,此时将状态列表中的第二状态值B修改为第一状态值A,得到更新后的运动状态[A A A A A]。
得到更新后的运动状态[A A A A A]之后,可以确定是否生成第一告警数据。例如,当目标对象为传送带时,第一状态值A例如表示静止,更新后的运动状态表示传送带长时间处于静止状态(不工作),此时可以生成第一告警信息。当目标对象为摄像头时,第一状态值A例如表示运动,更新后的运动状态表示摄像头长时间处于抖动或旋转等状态,此时可以生成第一告警信息。生成第一告警信息之后,可以清空状态列表,并基于生成的第一告警信息更新告警列表。
示例性地,基于遮挡状态生成第二告警数据包括以下操作。
如果确定遮挡状态包括N1个状态值,确定N1个状态值中第三状态值的数量是否大于等于N2,N1为大于0的整数,N2小于等于N1。
如果确定第三状态值的数量大于等于N2,确定处于两个不相邻的第三状态值之间的第四状态值的数量是否小于等于N3,N3小于N1。
如果确定第四状态值的数量小于等于N3,将第四状态值修改为第三状态值,得到更新后的遮挡状态。
基于更新后的遮挡状态包含的第三状态值数量或第四状态值数量,生成第二告警数据。
可以理解,生成第二告警数据的原理和生成第一告警数据的原理类似,在此不再赘述。
当目标对象为传送带时,如果更新后的遮挡状态表示传送带长时间处于非遮挡状态,表示传送带上没有煤矿而处于空载状态,此时可以生成第二告警信息。当目标对象为摄像头时,如果更新后的遮挡状态表示摄像头长时间处于遮挡状态,表示摄像头可能存在污渍或被外部遮挡而影响数据采集效果,此时可以生成第二告警信息。
根据本公开的实施例,通过设置多个阈值得到告警平滑判断策略,可以通过告警平滑判断策略进行告警。例如,在得到目标对象的运动状态和遮挡状态之后,可以基于运动状态和遮挡状态进行告警,以便在目标对象异常时及时采取相关措施,保证目标对象的正常工作。
图4示意性示出了根据本公开一实施例的深度学习模型的训练方法的流程图。
如图4所示,本公开实施例的目标对象的状态识别方法400例如可以包括操作S410~操作S430。
在操作S410,处理与目标对象相关联的历史视频数据,得到样本图像数据,样本图像数据包含与历史视频数据相关联的时间信息和与目标对象相关联的图像数据,样本图像数据包括运动状态标签和遮挡状态标签。
在操作S420,利用待训练深度学习模型处理样本图像数据,得到目标对象的运动状态识别结果和目标对象的遮挡状态识别结果。
在操作S430,基于运动状态识别结果、运动状态标签、遮挡状态识别结果以及遮挡状态标签,训练待训练深度学习模型。
示例性地,历史视频数据例如与上文的视频数据类似,在此不再赘述。历史视频数据例如包括表征目标对象是否运动的运动状态标签和表征目标对象是否被遮挡的遮挡状态标签,可以将针对历史视频数据的标签作为样本图像数据的标签。
待训练深度学习模型例如包括分类模型,深度学习模型可以对样本图像数据进行识别得到分类结果,分类结果例如包括目标对象的运动状态识别结果和目标对象的遮挡状态识别结果。
在得到运动状态识别结果和遮挡状态识别结果之后,可以基于运动状态识别结果和运动状态标签之间的差异、遮挡状态识别结果和遮挡状态标签之间的差异训练待训练深度学习模型,以得到经训练深度学习模型。
根据本公开的实施例,通过处理历史视频数据可以得到包含时间信息和图像信息的样本图像数据,利用样本图像数据训练深度学习模型,使得深度学习模型具有同时识别运动状态和遮挡状态的能力。由此可见,通过处理历史视频数据得到包含时间信息和图像信息的样本图像数据之后,基于样本图像数据训练深度学习模型,实现了深度学习模型同时执行运动状态识别任务和遮挡状态识别任务,降低了任务的处理耗时,实现了多任务处理的效果。
在本公开的一示例中,目标对象例如包括传送装置,历史视频数据包括对传送装置进行视频采集得到的数据。运动状态识别结果表征了传送装置是否在运动。遮挡状态识别结果表征了传送装置上是否存在待传送物。待传送物例如包括煤炭,遮挡状态识别结果例如表征传送带上是否具有煤炭,如果传送带上有煤炭,此时遮挡状态识别结果为被遮挡,如果传送带上没有煤炭,此时遮挡状态识别结果为未被遮挡。
在本公开的另一示例中,目标对象例如包括视频数据采集装置,历史视频数据包括利用视频数据采集装置对其他对象进行视频采集得到的数据。运动状态识别结果表征了视频数据采集装置是否在运动,例如表征了视频数据采集装置是否存在抖动、旋转等等,视频数据采集装置例如包括摄像头。遮挡状态识别结果表征了视频数据采集装置是否被遮挡,例如表征了摄像头在采集数据时前方是否被遮挡。在一种示例中,当摄像头存在污渍时,表示摄像头被遮挡。
在训练深度学习模型时,通常需要大量的样本图像数据进行训练。以目标对象为传送带为例,大量的历史视频数据通常是关于传送带运动且被煤炭遮挡的数据,而传送带静止、未被煤炭遮挡的数据较少,导致用于训练深度学习模型的样本不均衡。因此,本公开的实施例可以对历史视频数据进行处理,以扩充样本的多样性。
例如,从历史视频数据中提取多帧图像,分别对多帧图像进行提取,得到与多帧图像一一对应的多帧局部图像。换言之,从多帧图像中随机提取局部图像作为样本,提高了样本的数量。在一示例中,可以直接对帧图像整体进行随机提取得到预设尺寸的局部图像。或者,可以标记帧图像中的感兴趣区域(Region of Interest,ROI),该感兴趣区域例如为目标对象所在的区域或重要的区域,然后从感兴趣区域中随机裁剪预设尺寸的局部图像。预设尺寸例如为128*128、256*256、344*344、512*512等等。
另外,由于实际场景中光照不均衡,存在反光等因素的影响,因此可以通过HSV颜色空间变换方式调整图像颜色、通过gamma变换方式对图像的像素值进行非线性映射等色彩增强策略,扩充了样本数量和样本多样性,同时保证了模型训练中样本包含多尺度信息,提高了模型的泛化性。
得到与多帧局部图像之后,可以对多帧局部图像进行处理,得到包含多个通道的样本图像数据。得到多个通道的样本图像数据例如与上文提及的得到多通道的待识别图像数据的过程类似。
在一种方式中,多帧局部图像例如包括第一帧图像和第二帧图像。基于第一帧图像和第二帧图像,得到第一差值图像,将第一帧图像、第二帧图像和第一差值图像进行组合,得到包含三个第一通道的第一样本图像数据。
在另一种方式中,多帧局部图像例如包括第三帧图像和第四帧图像。基于第三帧图像和第四帧图像,得到第二差值图像,基于第三帧图像和第四帧图像,得到与第一方向关联的第一光流图像和与第二方向关联的第二光流图像。将第二差值图像、第一光流图像和第二光流图像进行组合,得到包含三个第二通道的第二样本图像数据。
在另一种方式中,多帧局部图像例如包括第五帧图像、第六帧图像和第七帧图像。将第五帧图像、第六帧图像和第七帧图像进行组合,得到包含三个第三通道的第三样本图像数据。
图5示意性示出了根据本公开一实施例的深度学习模型的示意图。
如图5所示,待训练深度学习模型例如包括卷积神经网络模型,卷积神经网络模型例如包括resnet18模型。待训练深度学习模型例如包括前序网络层510、第一后序网络层520和第二后序网络层530,第一后序网络层520和第二后序网络层530并联。例如,第一后序网络层520与前序网络层510连接,第二后序网络层530与前序网络层510连接。
例如,利用前序网络层510对样本图像数据进行特征提取,得到前序特征。利用第一后序网络层520处理前序特征,得到目标对象的运动状态识别结果。利用第二后序网络层530处理前序特征,得到目标对象的遮挡状态识别结果。
在一示例中,第一后序网络层520例如包括全连接层,第二后序网络层530例如包括全连接层。
图5中各层的参数k表示卷积核大小、s表示卷积计算步长stride、p表示padding填充大小。例如有一个n×n的图像,如果用f×f的过滤器进行卷积,那么输出的维度就是(n-f+1)×(n-f+1),输出的特征图尺寸变小了,当我们不希望每次卷积尺度都变小时,可以通过padding填充进行扩充,以增大尺寸。
为了降低深度学***衡了不同数据类别的影响,数量类别包括静止样本类别、运动样本类别、有煤(被遮挡)样本类别、无煤(未被遮挡)样本类别等。通过多任务的联合训练,同步提高了两个任务的处理性能,提高了模型的特征提取能力。
图6示意性示出了根据本公开一实施例的目标对象的状态识别方法和深度学习模型的训练方法的原理图。
如图6所示,在深度学习模型640的训练阶段,通过对历史视频数据610进行抽帧,得到视频帧620。标记视频帧620中的ROI区域,将标记的视频帧620存储至图像库630中。针对存储在图像库630中的视频帧,从视频帧的ROI区域中裁剪局部图像进行处理,得到三通道的样本图像数据(第一样本图像数据、第二样本图像数据或第三样本图像数据)。将三通道的样本图像数据输入深度学习模型640中进行处理,得到针对当前帧图像的预测结果650,基于针对当前帧图像的预测结果650和样本图像数据的标签之间的差异训练深度学习模型640。
在经训练的深度学习模型640的使用阶段,通过对视频数据610进行抽帧,得到视频帧620。将视频帧620存储至图像库630中。对存储在图像库630中的视频帧,处理视频帧得到三通道的待识别图像数据(第一待识别图像数据、第二待识别图像数据或第三待识别图像数据),利用经训练的深度学习模型640预测待识别图像数据中电子围栏指示的局部区域,得到针对当前帧图像的预测结果650。将针对当前帧图像的预测结果存储至状态列表660中,基于状态列表660进行告警并更新告警列表670。
可以理解,本公开的实施例可以适用于矿区传送带的状态识别场景,并可以进一步延伸至矿山、安全生成场景中摄像头转动、遮挡等相似性场景,提高不同场景的适用性。随着视频数据的增加,迭代训练优化多任务分类模型可以进一步提升模型的效果,有效解决了多任务欠耦合、模型泛化差、光照、视角变化造成精度差等难题。
图7示意性示出了根据本公开一实施例的目标对象的状态识别装置的框图。
如图7所示,本公开实施例的目标对象的状态识别装置700例如包括处理模块710以及识别模块720。
处理模块710可以用于处理与目标对象相关联的视频数据,得到待识别图像数据,其中,待识别图像数据包含与视频数据相关联的时间信息和与目标对象相关联的图像数据。根据本公开实施例,处理模块710例如可以执行上文参考图2描述的操作S210,在此不再赘述。
识别模块720可以用于对待识别图像数据进行识别,得到目标对象的运动状态和目标对象的遮挡状态。根据本公开实施例,识别模块720例如可以执行上文参考图2描述的操作S220,在此不再赘述。
根据本公开实施例,处理模块710包括:提取子模块和处理子模块。提取子模块,用于从视频数据中提取多帧图像;处理子模块,用于对多帧图像进行处理,得到包含多个通道的待识别图像数据。
根据本公开实施例,待识别图像数据包括第一待识别图像数据,多个通道包括三个第一通道;多帧图像包括第一帧图像和第二帧图像;处理子模块包括:第一获得单元和第一组合单元。第一获得单元,用于基于第一帧图像和第二帧图像,得到第一差值图像;第一组合单元,用于将第一帧图像、第二帧图像和第一差值图像进行组合,得到第一待识别图像数据。
根据本公开实施例,待识别图像数据包括第二待识别图像数据,多个通道包括三个第二通道;多帧图像包括第三帧图像和第四帧图像;处理子模块包括:第二获得单元、第三获得单元和第二组合单元。第二获得单元,用于基于第三帧图像和第四帧图像,得到第二差值图像;第三获得单元,用于基于第三帧图像和第四帧图像,得到与第一方向关联的第一光流图像和与第二方向关联的第二光流图像;第二组合单元,用于将第二差值图像、第一光流图像和第二光流图像进行组合,得到第二待识别图像数据。
根据本公开实施例,待识别图像数据包括第三待识别图像数据,多个通道包括三个第三通道;多帧图像包括第五帧图像、第六帧图像和第七帧图像;处理子模块包括:第三组合单元,用于将第五帧图像、第六帧图像和第七帧图像进行组合,得到第三待识别图像数据。
根据本公开实施例,识别模块720还用于:利用深度学习模型对待识别图像数据进行识别,得到运动状态和遮挡状态。
根据本公开实施例,目标对象包括传送装置,视频数据包括对传送装置进行视频采集得到的数据,运动状态表征了传送装置是否在运动,遮挡状态表征了传送装置上是否存在待传送物。
根据本公开实施例,目标对象包括视频数据采集装置,视频数据包括利用视频数据采集装置进行视频采集得到的数据,运动状态表征了视频数据采集装置是否在运动,遮挡状态表征了视频数据采集装置是否被遮挡。
根据本公开实施例,装置700还可以包括第一生成模块和第二生成模块中的至少一项。第一生成模块,用于基于运动状态,生成第一告警数据;第二生成模块,用于基于遮挡状态,生成第二告警数据。
根据本公开实施例,第一生成模块包括:第一确定子模块、第二确定子模块、第一修改子模块和第一生成子模块。第一确定子模块,用于响应于确定运动状态包括M1个状态值,确定M1个状态值中第一状态值的数量是否大于等于M2,M1为大于0的整数,M2小于等于M1;第二确定子模块,用于响应于确定第一状态值的数量大于等于M2,确定处于两个不相邻的第一状态值之间的第二状态值的数量是否小于等于M3,M3小于M1;第一修改子模块,用于响应于确定第二状态值的数量小于等于M3,将第二状态值修改为第一状态值,得到更新后的运动状态;第一生成子模块,用于基于更新后的运动状态包含的第一状态值数量或第二状态值数量,生成第一告警数据。
根据本公开实施例,第二生成模块包括:第三确定子模块、第四确定子模块、第二修改子模块和第二生成子模块。第三确定子模块,用于响应于确定遮挡状态包括N1个状态值,确定N1个状态值中第三状态值的数量是否大于等于N2,N1为大于0的整数,N2小于等于N1;第四确定子模块,用于响应于确定第三状态值的数量大于等于N2,确定处于两个不相邻的第三状态值之间的第四状态值的数量是否小于等于N3,N3小于N1;第二修改子模块,用于响应于确定第四状态值的数量小于等于N3,将第四状态值修改为第三状态值,得到更新后的遮挡状态;第二生成子模块,用于基于更新后的遮挡状态包含的第三状态值数量或第四状态值数量,生成第二告警数据。
图8示意性示出了根据本公开一实施例的深度学习模型的训练装置的框图。
如图8所示,本公开实施例的深度学习模型的训练装置800例如包括第一处理模块810、第二处理模块820以及训练模块830。
第一处理模块810可以用于处理与目标对象相关联的历史视频数据,得到样本图像数据,其中,样本图像数据包含与历史视频数据相关联的时间信息和与目标对象相关联的图像数据,样本图像数据包括运动状态标签和遮挡状态标签。根据本公开实施例,第一处理模块810例如可以执行上文参考图4描述的操作S410,在此不再赘述。
第二处理模块820可以利用待训练深度学习模型处理样本图像数据,得到目标对象的运动状态识别结果和目标对象的遮挡状态识别结果。根据本公开实施例,第二处理模块820例如可以执行上文参考图4描述的操作S420,在此不再赘述。
训练模块830可以用于基于运动状态识别结果、运动状态标签、遮挡状态识别结果以及遮挡状态标签,训练待训练深度学习模型。根据本公开实施例,训练模块830例如可以执行上文参考图4描述的操作S430,在此不再赘述。
根据本公开实施例,第一处理模块810包括:第一提取子模块、第二提取子模块和第一处理子模块。第一提取子模块,用于从历史视频数据中提取多帧图像;第二提取子模块,用于分别对多帧图像进行提取,得到与多帧图像一一对应的多帧局部图像;第一处理子模块,用于对多帧局部图像进行处理,得到包含多个通道的样本图像数据。
根据本公开实施例,样本图像数据包括第一样本图像数据,多个通道包括三个第一通道;多帧局部图像包括第一帧图像和第二帧图像;第一处理子模块包括:第一获得单元和第一组合单元。第一获得单元,用于基于第一帧图像和第二帧图像,得到第一差值图像;第一组合单元,用于将第一帧图像、第二帧图像和第一差值图像进行组合,得到第一样本图像数据。
根据本公开实施例,样本图像数据包括第二样本图像数据,多个通道包括三个第二通道;多帧局部图像包括第三帧图像和第四帧图像;第一处理子模块包括:第二获得单元、第三获得单元和第二组合单元。第二获得单元,用于基于第三帧图像和第四帧图像,得到第二差值图像;第三获得单元,用于基于第三帧图像和第四帧图像,得到与第一方向关联的第一光流图像和与第二方向关联的第二光流图像;第二组合单元,用于将第二差值图像、第一光流图像和第二光流图像进行组合,得到第二样本图像数据。
根据本公开实施例,样本图像数据包括第三样本图像数据,多个通道包括三个第三通道;多帧局部图像包括第五帧图像、第六帧图像和第七帧图像;第一处理子模块包括:第三组合单元,用于将第五帧图像、第六帧图像和第七帧图像进行组合,得到第三样本图像数据。
根据本公开实施例,待训练深度学习模型包括前序网络层、第一后序网络层和第二后序网络层,第一后序网络层与前序网络层连接,第二后序网络层与前序网络层连接;其中,第二处理模块820包括:第三提取子模块、第二处理子模块和第三处理子模块。第三提取子模块,用于利用前序网络层对样本图像数据进行特征提取,得到前序特征;第二处理子模块,用于利用第一后序网络层处理前序特征,得到目标对象的运动状态识别结果;第三处理子模块,用于利用第二后序网络层处理前序特征,得到目标对象的遮挡状态识别结果。
根据本公开实施例,第一后序网络层包括全连接层,第二后序网络层包括全连接层。
在本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供、公开和应用等处理,均符合相关法律法规的规定,采取了必要保密措施,且不违背公序良俗。
在本公开的技术方案中,在获取或采集用户个人信息之前,均获取了用户的授权或同意。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
根据本公开实施例,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,计算机指令用于使计算机执行上文所描述的目标对象的状态识别方法。
根据本公开实施例,提供了一种计算机程序产品,包括计算机程序/指令,计算机程序/指令被处理器执行时实现上文所描述的目标对象的状态识别方法。
图9是用来实现本公开实施例的用于执行目标对象的状态识别和/或深度学习模型的训练方法的电子设备的框图。
图9示出了可以用来实施本公开实施例的示例电子设备900的示意性框图。电子设备900旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图9所示,设备900包括计算单元901,其可以根据存储在只读存储器(ROM)902中的计算机程序或者从存储单元908加载到随机访问存储器(RAM)903中的计算机程序,来执行各种适当的动作和处理。在RAM 903中,还可存储设备900操作所需的各种程序和数据。计算单元901、ROM 902以及RAM 903通过总线904彼此相连。输入/输出(I/O)接口905也连接至总线904。
设备900中的多个部件连接至I/O接口905,包括:输入单元906,例如键盘、鼠标等;输出单元907,例如各种类型的显示器、扬声器等;存储单元908,例如磁盘、光盘等;以及通信单元909,例如网卡、调制解调器、无线通信收发机等。通信单元909允许设备900通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元901可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元901的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元901执行上文所描述的各个方法和处理,例如目标对象的状态识别方法和/或深度学习模型的训练方法。例如,在一些实施例中,目标对象的状态识别方法和/或深度学习模型的训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元908。在一些实施例中,计算机程序的部分或者全部可以经由ROM 902和/或通信单元909而被载入和/或安装到设备900上。当计算机程序加载到RAM 903并由计算单元901执行时,可以执行上文描述的目标对象的状态识别方法和/或深度学习模型的训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元901可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行目标对象的状态识别方法和/或深度学习模型的训练方法。
本文中以上描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程目标对象的状态识别装置和/或深度学习模型的训练装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式***的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (39)
1.一种目标对象的状态识别方法,包括:
处理与目标对象相关联的视频数据,得到待识别图像数据,其中,所述待识别图像数据包含与所述视频数据相关联的时间信息和与所述目标对象相关联的图像数据;以及
对所述待识别图像数据进行识别,得到所述目标对象的运动状态和所述目标对象的遮挡状态。
2.根据权利要求1所述的方法,其中,所述处理与目标对象相关联的视频数据,得到待识别图像数据包括:
从所述视频数据中提取多帧图像;以及
对所述多帧图像进行处理,得到包含多个通道的所述待识别图像数据。
3.根据权利要求2所述的方法,其中,所述待识别图像数据包括第一待识别图像数据,所述多个通道包括三个第一通道;所述多帧图像包括第一帧图像和第二帧图像;所述对所述多帧图像进行处理,得到包含多个通道的所述待识别图像数据包括:
基于所述第一帧图像和所述第二帧图像,得到第一差值图像;以及
将所述第一帧图像、所述第二帧图像和所述第一差值图像进行组合,得到所述第一待识别图像数据。
4.根据权利要求2所述的方法,其中,所述待识别图像数据包括第二待识别图像数据,所述多个通道包括三个第二通道;所述多帧图像包括第三帧图像和第四帧图像;所述对所述多帧图像进行处理,得到包含多个通道的所述待识别图像数据包括:
基于所述第三帧图像和所述第四帧图像,得到第二差值图像;
基于所述第三帧图像和所述第四帧图像,得到与第一方向关联的第一光流图像和与第二方向关联的第二光流图像;以及
将所述第二差值图像、所述第一光流图像和所述第二光流图像进行组合,得到所述第二待识别图像数据。
5.根据权利要求2所述的方法,其中,所述待识别图像数据包括第三待识别图像数据,所述多个通道包括三个第三通道;所述多帧图像包括第五帧图像、第六帧图像和第七帧图像;所述对所述多帧图像进行处理,得到包含多个通道的所述待识别图像数据包括:
将所述第五帧图像、所述第六帧图像和所述第七帧图像进行组合,得到所述第三待识别图像数据。
6.根据权利要求1-5中任意一项所述的方法,其中,所述对所述待识别图像数据进行识别,得到所述目标对象的运动状态和所述目标对象的遮挡状态包括:
利用深度学习模型对所述待识别图像数据进行识别,得到所述运动状态和所述遮挡状态。
7.根据权利要求1-6中任意一项所述的方法,其中,所述目标对象包括传送装置,所述视频数据包括对所述传送装置进行视频采集得到的数据,所述运动状态表征了所述传送装置是否在运动,所述遮挡状态表征了所述传送装置上是否存在待传送物。
8.根据权利要求1-6中任意一项所述的方法,其中,所述目标对象包括视频数据采集装置,所述视频数据包括利用所述视频数据采集装置进行视频采集得到的数据,所述运动状态表征了所述视频数据采集装置是否在运动,所述遮挡状态表征了所述视频数据采集装置是否被遮挡。
9.根据权利要求1-8中任意一项所述的方法,还包括以下至少一项:
基于所述运动状态,生成第一告警数据;以及
基于所述遮挡状态,生成第二告警数据。
10.根据权利要求9所述的方法,其中,所述基于所述运动状态,生成第一告警数据包括:
响应于确定所述运动状态包括M1个状态值,确定所述M1个状态值中第一状态值的数量是否大于等于M2,M1为大于0的整数,M2小于等于M1;
响应于确定所述第一状态值的数量大于等于M2,确定处于两个不相邻的所述第一状态值之间的第二状态值的数量是否小于等于M3,M3小于M1;
响应于确定所述第二状态值的数量小于等于M3,将所述第二状态值修改为所述第一状态值,得到更新后的运动状态;以及
基于所述更新后的运动状态包含的所述第一状态值数量或所述第二状态值数量,生成所述第一告警数据。
11.根据权利要求9所述的方法,其中,所述基于所述遮挡状态,生成第二告警数据包括:
响应于确定所述遮挡状态包括N1个状态值,确定所述N1个状态值中第三状态值的数量是否大于等于N2,N1为大于0的整数,N2小于等于N1;
响应于确定所述第三状态值的数量大于等于N2,确定处于两个不相邻的所述第三状态值之间的第四状态值的数量是否小于等于N3,N3小于N1;
响应于确定所述第四状态值的数量小于等于N3,将所述第四状态值修改为所述第三状态值,得到更新后的遮挡状态;以及
基于所述更新后的遮挡状态包含的所述第三状态值数量或所述第四状态值数量,生成所述第二告警数据。
12.一种深度学习模型的训练方法,包括:
处理与目标对象相关联的历史视频数据,得到样本图像数据,其中,所述样本图像数据包含与所述历史视频数据相关联的时间信息和与所述目标对象相关联的图像数据,所述样本图像数据包括运动状态标签和遮挡状态标签;
利用待训练深度学习模型处理所述样本图像数据,得到所述目标对象的运动状态识别结果和所述目标对象的遮挡状态识别结果;以及
基于所述运动状态识别结果、所述运动状态标签、所述遮挡状态识别结果以及所述遮挡状态标签,训练所述待训练深度学习模型。
13.根据权利要求12所述的方法,其中,所述处理与目标对象相关联的历史视频数据,得到样本图像数据包括:
从所述历史视频数据中提取多帧图像;
分别对所述多帧图像进行提取,得到与所述多帧图像一一对应的多帧局部图像;以及
对所述多帧局部图像进行处理,得到包含多个通道的所述样本图像数据。
14.根据权利要求13所述的方法,其中,所述样本图像数据包括第一样本图像数据,所述多个通道包括三个第一通道;所述多帧局部图像包括第一帧图像和第二帧图像;所述对所述多帧局部图像进行处理,得到包含多个通道的所述样本图像数据包括:
基于所述第一帧图像和所述第二帧图像,得到第一差值图像;以及
将所述第一帧图像、所述第二帧图像和所述第一差值图像进行组合,得到所述第一样本图像数据。
15.根据权利要求13所述的方法,其中,所述样本图像数据包括第二样本图像数据,所述多个通道包括三个第二通道;所述多帧局部图像包括第三帧图像和第四帧图像;所述对所述多帧局部图像进行处理,得到包含多个通道的所述样本图像数据包括:
基于所述第三帧图像和所述第四帧图像,得到第二差值图像;
基于所述第三帧图像和所述第四帧图像,得到与第一方向关联的第一光流图像和与第二方向关联的第二光流图像;以及
将所述第二差值图像、所述第一光流图像和所述第二光流图像进行组合,得到所述第二样本图像数据。
16.根据权利要求13所述的方法,其中,所述样本图像数据包括第三样本图像数据,所述多个通道包括三个第三通道;所述多帧局部图像包括第五帧图像、第六帧图像和第七帧图像;所述对所述多帧局部图像进行处理,得到包含多个通道的所述样本图像数据包括:
将所述第五帧图像、所述第六帧图像和所述第七帧图像进行组合,得到所述第三样本图像数据。
17.根据权利要求12所述的方法,其中,所述待训练深度学习模型包括前序网络层、第一后序网络层和第二后序网络层,所述第一后序网络层与所述前序网络层连接,所述第二后序网络层与所述前序网络层连接;
其中,所述利用待训练深度学习模型处理所述样本图像数据,得到所述目标对象的运动状态识别结果和所述目标对象的遮挡状态识别结果包括:
利用所述前序网络层对所述样本图像数据进行特征提取,得到前序特征;
利用所述第一后序网络层处理所述前序特征,得到所述目标对象的运动状态识别结果;以及
利用所述第二后序网络层处理所述前序特征,得到所述目标对象的遮挡状态识别结果。
18.根据权利要求17所述的方法,其中,所述第一后序网络层包括全连接层,所述第二后序网络层包括全连接层。
19.一种目标对象的状态识别装置,包括:
处理模块,用于处理与目标对象相关联的视频数据,得到待识别图像数据,其中,所述待识别图像数据包含与所述视频数据相关联的时间信息和与所述目标对象相关联的图像数据;以及
识别模块,用于对所述待识别图像数据进行识别,得到所述目标对象的运动状态和所述目标对象的遮挡状态。
20.根据权利要求19所述的装置,其中,所述处理模块包括:
提取子模块,用于从所述视频数据中提取多帧图像;以及
处理子模块,用于对所述多帧图像进行处理,得到包含多个通道的所述待识别图像数据。
21.根据权利要求20所述的装置,其中,所述待识别图像数据包括第一待识别图像数据,所述多个通道包括三个第一通道;所述多帧图像包括第一帧图像和第二帧图像;所述处理子模块包括:
第一获得单元,用于基于所述第一帧图像和所述第二帧图像,得到第一差值图像;以及
第一组合单元,用于将所述第一帧图像、所述第二帧图像和所述第一差值图像进行组合,得到所述第一待识别图像数据。
22.根据权利要求20所述的装置,其中,所述待识别图像数据包括第二待识别图像数据,所述多个通道包括三个第二通道;所述多帧图像包括第三帧图像和第四帧图像;所述处理子模块包括:
第二获得单元,用于基于所述第三帧图像和所述第四帧图像,得到第二差值图像;
第三获得单元,用于基于所述第三帧图像和所述第四帧图像,得到与第一方向关联的第一光流图像和与第二方向关联的第二光流图像;以及
第二组合单元,用于将所述第二差值图像、所述第一光流图像和所述第二光流图像进行组合,得到所述第二待识别图像数据。
23.根据权利要求20所述的装置,其中,所述待识别图像数据包括第三待识别图像数据,所述多个通道包括三个第三通道;所述多帧图像包括第五帧图像、第六帧图像和第七帧图像;所述处理子模块包括:
第三组合单元,用于将所述第五帧图像、所述第六帧图像和所述第七帧图像进行组合,得到所述第三待识别图像数据。
24.根据权利要求19-23中任意一项所述的装置,其中,所述识别模块还用于:
利用深度学习模型对所述待识别图像数据进行识别,得到所述运动状态和所述遮挡状态。
25.根据权利要求19-24中任意一项所述的装置,其中,所述目标对象包括传送装置,所述视频数据包括对所述传送装置进行视频采集得到的数据,所述运动状态表征了所述传送装置是否在运动,所述遮挡状态表征了所述传送装置上是否存在待传送物。
26.根据权利要求19-24中任意一项所述的装置,其中,所述目标对象包括视频数据采集装置,所述视频数据包括利用所述视频数据采集装置进行视频采集得到的数据,所述运动状态表征了所述视频数据采集装置是否在运动,所述遮挡状态表征了所述视频数据采集装置是否被遮挡。
27.根据权利要求19-26中任意一项所述的装置,还包括以下至少一项:
第一生成模块,用于基于所述运动状态,生成第一告警数据;以及
第二生成模块,用于基于所述遮挡状态,生成第二告警数据。
28.根据权利要求27所述的装置,其中,所述第一生成模块包括:
第一确定子模块,用于响应于确定所述运动状态包括M1个状态值,确定所述M1个状态值中第一状态值的数量是否大于等于M2,M1为大于0的整数,M2小于等于M1;
第二确定子模块,用于响应于确定所述第一状态值的数量大于等于M2,确定处于两个不相邻的所述第一状态值之间的第二状态值的数量是否小于等于M3,M3小于M1;
第一修改子模块,用于响应于确定所述第二状态值的数量小于等于M3,将所述第二状态值修改为所述第一状态值,得到更新后的运动状态;以及
第一生成子模块,用于基于所述更新后的运动状态包含的所述第一状态值数量或所述第二状态值数量,生成所述第一告警数据。
29.根据权利要求27所述的装置,其中,所述第二生成模块包括:
第三确定子模块,用于响应于确定所述遮挡状态包括N1个状态值,确定所述N1个状态值中第三状态值的数量是否大于等于N2,N1为大于0的整数,N2小于等于N1;
第四确定子模块,用于响应于确定所述第三状态值的数量大于等于N2,确定处于两个不相邻的所述第三状态值之间的第四状态值的数量是否小于等于N3,N3小于N1;
第二修改子模块,用于响应于确定所述第四状态值的数量小于等于N3,将所述第四状态值修改为所述第三状态值,得到更新后的遮挡状态;以及
第二生成子模块,用于基于所述更新后的遮挡状态包含的所述第三状态值数量或所述第四状态值数量,生成所述第二告警数据。
30.一种深度学习模型的训练装置,包括:
第一处理模块,用于处理与目标对象相关联的历史视频数据,得到样本图像数据,其中,所述样本图像数据包含与所述历史视频数据相关联的时间信息和与所述目标对象相关联的图像数据,所述样本图像数据包括运动状态标签和遮挡状态标签;
第二处理模块,用于利用待训练深度学习模型处理所述样本图像数据,得到所述目标对象的运动状态识别结果和所述目标对象的遮挡状态识别结果;以及
训练模块,用于基于所述运动状态识别结果、所述运动状态标签、所述遮挡状态识别结果以及所述遮挡状态标签,训练所述待训练深度学习模型。
31.根据权利要求30所述的装置,其中,所述第一处理模块包括:
第一提取子模块,用于从所述历史视频数据中提取多帧图像;
第二提取子模块,用于分别对所述多帧图像进行提取,得到与所述多帧图像一一对应的多帧局部图像;以及
第一处理子模块,用于对所述多帧局部图像进行处理,得到包含多个通道的所述样本图像数据。
32.根据权利要求31所述的装置,其中,所述样本图像数据包括第一样本图像数据,所述多个通道包括三个第一通道;所述多帧局部图像包括第一帧图像和第二帧图像;所述第一处理子模块包括:
第一获得单元,用于基于所述第一帧图像和所述第二帧图像,得到第一差值图像;以及
第一组合单元,用于将所述第一帧图像、所述第二帧图像和所述第一差值图像进行组合,得到所述第一样本图像数据。
33.根据权利要求31所述的装置,其中,所述样本图像数据包括第二样本图像数据,所述多个通道包括三个第二通道;所述多帧局部图像包括第三帧图像和第四帧图像;所述第一处理子模块包括:
第二获得单元,用于基于所述第三帧图像和所述第四帧图像,得到第二差值图像;
第三获得单元,用于基于所述第三帧图像和所述第四帧图像,得到与第一方向关联的第一光流图像和与第二方向关联的第二光流图像;以及
第二组合单元,用于将所述第二差值图像、所述第一光流图像和所述第二光流图像进行组合,得到所述第二样本图像数据。
34.根据权利要求31所述的装置,其中,所述样本图像数据包括第三样本图像数据,所述多个通道包括三个第三通道;所述多帧局部图像包括第五帧图像、第六帧图像和第七帧图像;所述第一处理子模块包括:
第三组合单元,用于将所述第五帧图像、所述第六帧图像和所述第七帧图像进行组合,得到所述第三样本图像数据。
35.根据权利要求30所述的装置,其中,所述待训练深度学习模型包括前序网络层、第一后序网络层和第二后序网络层,所述第一后序网络层与所述前序网络层连接,所述第二后序网络层与所述前序网络层连接;
其中,所述第二处理模块包括:
第三提取子模块,用于利用所述前序网络层对所述样本图像数据进行特征提取,得到前序特征;
第二处理子模块,用于利用所述第一后序网络层处理所述前序特征,得到所述目标对象的运动状态识别结果;以及
第三处理子模块,用于利用所述第二后序网络层处理所述前序特征,得到所述目标对象的遮挡状态识别结果。
36.根据权利要求35所述的装置,其中,所述第一后序网络层包括全连接层,所述第二后序网络层包括全连接层。
37.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-18中任一项所述的方法。
38.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-18中任一项所述的方法。
39.一种计算机程序产品,包括计算机程序/指令,其特征在于,所述计算机程序/指令被处理器执行时实现根据权利要求1-18中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210658887.8A CN114998275A (zh) | 2022-06-09 | 2022-06-09 | 目标对象的状态识别方法和深度学习模型的训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210658887.8A CN114998275A (zh) | 2022-06-09 | 2022-06-09 | 目标对象的状态识别方法和深度学习模型的训练方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114998275A true CN114998275A (zh) | 2022-09-02 |
Family
ID=83033167
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210658887.8A Pending CN114998275A (zh) | 2022-06-09 | 2022-06-09 | 目标对象的状态识别方法和深度学习模型的训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114998275A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117474983A (zh) * | 2023-12-27 | 2024-01-30 | 广东力创信息技术有限公司 | 一种基于光视联动的预警方法以及相关装置 |
-
2022
- 2022-06-09 CN CN202210658887.8A patent/CN114998275A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117474983A (zh) * | 2023-12-27 | 2024-01-30 | 广东力创信息技术有限公司 | 一种基于光视联动的预警方法以及相关装置 |
CN117474983B (zh) * | 2023-12-27 | 2024-03-12 | 广东力创信息技术有限公司 | 一种基于光视联动的预警方法以及相关装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220383535A1 (en) | Object Tracking Method and Device, Electronic Device, and Computer-Readable Storage Medium | |
CN109154976B (zh) | 通过机器学习训练对象分类器的***和方法 | |
JP5325899B2 (ja) | 侵入警報ビデオ処理装置 | |
CN107844794B (zh) | 图像识别方法和装置 | |
Shah et al. | Video background modeling: recent approaches, issues and our proposed techniques | |
CN110968718B (zh) | 目标检测模型负样本挖掘方法、装置及电子设备 | |
CN115294332B (zh) | 一种图像处理方法、装置、设备和存储介质 | |
CN112883902A (zh) | 视频检测方法、装置、电子设备及存储介质 | |
CN111783665A (zh) | 一种动作识别方法、装置、存储介质和电子设备 | |
CN113469025B (zh) | 应用于车路协同的目标检测方法、装置、路侧设备和车辆 | |
CN112784760B (zh) | 人体行为识别方法、装置、设备以及存储介质 | |
US20230394792A1 (en) | Information processing device, information processing method, and program recording medium | |
CN113326773A (zh) | 识别模型训练方法、识别方法、装置、设备及存储介质 | |
CN115049954A (zh) | 目标识别方法、装置、电子设备和介质 | |
CN114998275A (zh) | 目标对象的状态识别方法和深度学习模型的训练方法 | |
CN115861400A (zh) | 目标对象检测方法、训练方法、装置以及电子设备 | |
Huang et al. | Detecting shadows in high-resolution remote-sensing images of urban areas using spectral and spatial features | |
CN111898463B (zh) | 烟火检测识别方法和装置、存储介质及电子装置 | |
CN113627298A (zh) | 目标检测模型的训练方法及检测目标对象的方法、装置 | |
Gragnaniello et al. | Onfire contest 2023: real-time fire detection on the edge | |
KR20210008574A (ko) | 프레임 분할과 지능형 검출 pool을 이용한 다수의 카메라 영상에서 실시간 객체 검출 방법 | |
CN113139483B (zh) | 人体行为识别方法、装置、设备、存储介质以及程序产品 | |
CN113095313A (zh) | 文本字符串的识别方法、装置和服务器 | |
CN113283305B (zh) | 人脸识别方法、装置、电子设备及计算机可读存储介质 | |
CN114037865A (zh) | 图像处理方法、装置、设备、存储介质和程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |