CN115239508A - 基于人工智能的场景规划调整方法、装置、设备及介质 - Google Patents
基于人工智能的场景规划调整方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN115239508A CN115239508A CN202210924723.5A CN202210924723A CN115239508A CN 115239508 A CN115239508 A CN 115239508A CN 202210924723 A CN202210924723 A CN 202210924723A CN 115239508 A CN115239508 A CN 115239508A
- Authority
- CN
- China
- Prior art keywords
- area
- image
- personnel
- divided
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q40/00—Finance; Insurance; Tax strategies; Processing of corporate or income taxes
- G06Q40/08—Insurance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Business, Economics & Management (AREA)
- Multimedia (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Development Economics (AREA)
- Economics (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- Technology Law (AREA)
- General Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及人工智能技术领域,尤其涉及一种基于人工智能的场景规划调整方法、装置、设备及介质。该方法通过人员检测模型对场景实际图像处理,得到人员分布热力图,根据人员分布热力图叠加结果确定人员轨迹信息,并根据人员轨迹信息和区域划分图像,统计人员数量,若人员数量与预设阈值的比较结果满足条件,则将区域划分图像输入对抗生成网络,得到区域更新图像,根据预设的生成损失函数,更新网络参数,得到训练好的对抗生成网络,确定训练好的对抗生成网络的输出为目标更新图像,通过生成损失函数对对抗生成网络进行在线训练,能够根据实时的人员分布信息确定场景规划调整方案,提高了场景规划的效率和准确率,进而提高了场景的实时利用率。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于人工智能的场景规划调整方法、装置、设备及介质。
背景技术
目前,由于保险业务网点需要提供多项不同的业务办理服务,为了提高服务效率,通常根据业务办理量,由人工在保险业务网点内预先划分多个对应的业务区域。
然而,业务办理量具备时效性,即不同时间各类业务的办理量存在波动,且各类业务的办理时长、等待时长等都会对业务区域的利用率造成影响,另外,政策变动、活动更新等因素也会导致业务办理量出现变动,进而导致预划分的业务区域难以满足实时业务办理客户的需求,因此,如何对网点区域划分进行动态管理,以提高网点场景的实时利用率成为了亟需解决的问题。
发明内容
有鉴于此,本发明实施例提供了一种基于人工智能的场景规划调整方法、装置、设备及介质,以解决网点场景的实时利用率较低的问题。
第一方面,本发明实施例提供一种基于人工智能的场景规划调整方法,所述场景规划调整方法包括:
将在N个目标时间点采集的网点场景的实际图像输入训练好的人员检测模型,得到对应目标时间点的人员分布热力图,N为大于零的整数;
将N个人员分布热力图进行加权叠加,根据叠加结果确定人员轨迹信息,并根据所述人员轨迹信息和预设的区域划分图像,确定所述区域划分图像中各划分区域的人员数量;
针对任一划分区域,将所述划分区域的人员数量与所述划分区域的预设阈值进行比较,若比较结果满足预设条件,则将所述区域划分图像输入对抗生成网络,得到区域更新图像;
根据以所述区域更新图像和所述区域划分图像的差异计算的生成损失函数,采用梯度下降法更新所述对抗生成网络的参数,直至所述生成损失函数收敛,得到训练好的对抗生成网络;
将所述区域划分图像输入所述训练好的对抗生成网络,得到目标区域图像,所述目标区域图像用于指导对所述网点场景进行场景规划调整。
第二方面,本发明实施例提供一种基于人工智能的场景规划调整装置,所述场景规划调整装置包括:
人员检测模块,用于将在N个目标时间点采集的网点场景的实际图像输入训练好的人员检测模型,得到对应目标时间点的人员分布热力图,N为大于零的整数;
数量确定模块,用于将N个人员分布热力图进行加权叠加,根据叠加结果确定人员轨迹信息,并根据所述人员轨迹信息和预设的区域划分图像,确定所述区域划分图像中各划分区域的人员数量;
阈值比较模块,用于针对任一划分区域,将所述划分区域的人员数量与所述划分区域的预设阈值进行比较,若比较结果满足预设条件,则将所述区域划分图像输入对抗生成网络,得到区域更新图像;
网络训练模块,用于根据以所述区域更新图像和所述区域划分图像的差异计算的生成损失函数,采用梯度下降法更新所述对抗生成网络的参数,直至所述生成损失函数收敛,得到训练好的对抗生成网络;
图像生成模块,用于将所述区域划分图像输入所述训练好的对抗生成网络,得到目标区域图像,所述目标区域图像用于指导对所述网点场景进行场景规划调整。
第三方面,本发明实施例提供一种计算机设备,所述计算机设备包括处理器、存储器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面所述的场景规划调整方法。
第四方面,本发明实施例提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面所述的场景规划调整方法。
本发明实施例与现有技术相比存在的有益效果是:
将在N个目标时间点采集的网点场景的实际图像输入训练好的人员检测模型,得到对应目标时间点的人员分布热力图,将N个人员分布热力图进行加权叠加,根据叠加结果确定人员轨迹信息,并根据人员轨迹信息和预设的区域划分图像,确定区域划分图像中各划分区域的人员数量,针对任一划分区域,将划分区域的人员数量与划分区域的预设阈值进行比较,若比较结果满足预设条件,则将区域划分图像输入对抗生成网络,得到区域更新图像,根据以区域更新图像和区域划分图像的差异计算的生成损失函数,采用梯度下降法更新对抗生成网络的参数,直至生成损失函数收敛,得到训练好的对抗生成网络,将区域划分图像输入训练好的对抗生成网络,得到目标更新图像,通过生成损失函数对对抗生成网络进行在线学习,从而能够根据实时的人员分布信息确定场景规划调整方案,提高了场景规划的效率和准确率,进而提高了网点场景的实时利用率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例一提供的一种基于人工智能的场景规划调整方法的一应用环境示意图;
图2是本发明实施例一提供的一种基于人工智能的场景规划调整方法的流程示意图;
图3是本发明实施例二提供的一种基于人工智能的场景规划调整方法的流程示意图;
图4是本发明实施例三提供的一种基于人工智能的场景规划调整装置的结构示意图;
图5是本发明实施例四提供的一种计算机设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定***结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的***、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
应当理解,当在本发明说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本发明说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本发明说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本发明说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本发明的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
本发明实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互***、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
应理解,以下实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
为了说明本发明的技术方案,下面通过具体实施例来进行说明。
本发明实施例一提供的一种基于人工智能的场景规划调整方法,可应用在如图1的应用环境中,其中,客户端与设备端进行通信。其中,客户端包括但不限于掌上电脑、桌上型计算机、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本、云端终端设备、个人数字助理(personal digital assistant,PDA)等计算机设备。设备端可以用独立的图像采集设备或者是多个图像采集设备组成的图像采集设备集群来实现。
参见图2,是本发明实施例一提供的一种基于人工智能的场景规划调整方法的流程示意图,上述场景规划调整方法可以应用于图1中的客户端,客户端对应的计算机设备连接设备端,设备端中的图像采集设备可以是指摄像头、摄像机等,图像采集设备具备存储功能,即图像采集设备可以将采集到的网点场景图像存储于图像采集设备内,客户端对应的计算机设备从设备端获取存储的网点场景的实际图像,客户端部署有训练好的人员检测模型和对抗生成模型,训练好的人员检测模型可以用于提取人员分布信息,对抗生成模型可以用于生成目标区域图像以指导网点场景进行场景规划调整。如图2所示,该场景规划调整方法可以包括以下步骤:
步骤S201,将在N个目标时间点采集的网点场景的实际图像输入训练好的人员检测模型,得到对应目标时间点的人员分布热力图。
其中,N为大于零的整数,目标时间点可以是指预先设置的图像采集时间点,预先设置的图像采集时间点可以包含于图像采集时间段,图像采集时间段用于采集网点场景图像以确定该图像采集时间段内的人员分布信息。
网点场景可以是指业务网点场景,业务网点场景可以是指保险业务办理场景,实际图像可以是指通过图像采集设备采集到的网点场景图像,为便于后续处理,实际图像可以是俯视图形式。
人员检测模型可以是指神经网络模型,人员分布热力图可以是指以热力值表征人员位置信息的图像。
具体地,在本实施例中,俯视图形式的实际图像可以通过部署于网点场景顶部的俯视视角摄像机进行采集,需要说明的是,若单个俯视视角摄像机无法采集到完整的网点场景俯视图,实施者可以通过将多个部署于网点场景顶部不同位置的俯视视角摄像机采集的图像拼接得到实际图像,在每个摄像机的位姿已知的情况下,能够直接根据摄像机位姿对应的单应性矩阵将不同摄像机采集的图像转换至同一图像坐标系,通常以地面坐标系作为上述同一图像坐标系,此时,建议多个部署于网点场景顶部不同位置的俯视视角摄像机存在重合区域,从而便于验证拼接结果,避免摄像机位姿偏移对拼接得到的实际图像造成影响,进而影响后续处理步骤。
N个目标时间点包含于同一图像采集时间段,以确保目标时间点的连续性,从而能够从N个目标时间点所采集的实际图像中提取到人员轨迹信息,在本实施例中,N个目标时间点时序连续且相邻目标时间点之间的间隔为0.5秒。
需要说明的是,人员分布热力图与实际图像的尺寸一致,以便于快速确定人员分布对应的真实网点场景位置,由于用于采集实际图像的图像采集设备位姿已知,因此可以将实际图像中每个坐标点与真实网点场景中的位置对应,人员分布热力图为灰度图像,灰度值的值域为[0,1],一像素点的灰度值越大表示该像素点对应位置在采集时刻距离人员停留时刻的时间越短。
在一实施方式中,俯视图形式的实际图像还可以通过部署于网点场景上方的斜俯视视角摄像机进行采集,此时,对采集到的图像需要进行仿射变换,以将采集到的图像转换为俯视图像,同样,实施者可以通过多个部署于网点场景上方的斜俯视视角摄像机所采集图像进行拼接得到实际图像,此时,在拼接得到实际图像前,需要对每个采集到的图像均进行仿射变换。
可选的是,人员检测模型包括第一编码器和第一解码器,以网点场景的历史图像作为人员检测模型训练时的训练样本,以均方误差损失作为人员检测模型训练时的损失函数;
人员检测模型的训练过程包括:
获取历史图像中人员位置对应的图像坐标点,以图像坐标点为中心,采用预设的高斯核进行卷积操作,得到图像坐标点在历史图像中对应的热斑,确定包含热斑的历史图像作为人员检测模型训练时的标签;
将训练样本输入第一编码器进行特征提取,得到样本场景特征;
将样本场景特征输入第一解码器中,得到样本人员分布热力图;
根据样本人员分布热力图与标签,计算均方误差损失,并以均方误差损失为依据,采用梯度下降法反向更新人员检测模型的参数,直至均方误差损失收敛,得到训练好的人员检测模型。
其中,历史图像可以是指历史人员数量统计时采集的网点场景图像,第一编码器可以用于对历史图像进行特征提取,第一解码器可以用于对样本场景特征进行特征重构。
高斯核可以是指高斯核函数对应的卷积模板,高斯核卷积过程可以是指高斯模糊过程,热斑可以是指经高斯核卷积后得到的热力分布区域。
本实施例通过高斯模糊对人员位置对应的图像坐标点进行处理,从而得到人员位置的热力分布,便于为人员检测模型提供监督信息丰富的标签,进而确保了训练好的人员检测模型的准确率。
上述将在N个目标时间点采集的网点场景的实际图像输入训练好的人员检测模型,得到对应目标时间点的人员分布热力图的步骤,通过神经网络模型提取实际图像中人员分布信息,能够有效表征人员的真实位置信息,从而提高后续各业务区域人员数量统计的准确率。
步骤S202,将N个人员分布热力图进行加权叠加,根据叠加结果确定人员轨迹信息,并根据人员轨迹信息和预设的区域划分图像,确定区域划分图像中各划分区域的人员数量。
其中,加权叠加可以是指由待叠加人员分布热力图对应坐标的热力值与已叠加人员分布热力图对应坐标的热力值进行加权叠加,热力值也即灰度值,人员轨迹信息可以是指人员的移动信息,即人员在各个目标时间点的位置信息,区域划分图像可以是指包含网点场景内预设划分业务区域信息的图像。
具体地,加权叠加可以是指为N个人员分布热力图分配对应的权重,权重的分配可以根据N个人员分布热力图的时序确定,例如,时序越靠后的人员分布热力图对应的权重越大,时序越靠前的人员分布热力图对应的权重越小。
区域划分图像也与实际图像尺寸一致,则确定区域划分图像中各划分区域的人员数量时,针对任一划分区域,该划分区域内包含多个像素点,对人员轨迹信息指向该划分区域内像素点的人员进行统计,得到第一统计结果,将停留于该划分区域内像素点且停留时长大于预设时长阈值的人员进行统计,得到第二统计结果,将第一统计结果与第二统计结果相加,并确定相加结果为该划分区域的人员数量,需要说明的是,第一统计结果与第二统计结果不进行重复统计,即得到第一统计结果时被统计的轨迹不用于第二统计结果的统计,预设时长阈值在本实施例中设置为5秒,实施者可根据实际情况调整该预设时长阈值。
上述将N个人员分布热力图进行加权叠加,根据叠加结果确定人员轨迹信息,并根据人员轨迹信息和预设的区域划分图像,确定区域划分图像中各划分区域的人员数量的步骤,通过人员轨迹统计人员数量,避免了瞬时采集的实际图像难以完全确定业务办理人员数量的问题,有效提高了人员统计的准确率。
步骤S203,针对任一划分区域,将划分区域的人员数量与划分区域的预设阈值进行比较,若比较结果满足预设条件,则将区域划分图像输入对抗生成网络,得到区域更新图像。
其中,预设阈值可以是指人员数量阈值,人员数量阈值可以用于表征划分区域的人员承受能力,即最多允许办理和等待的人数,预设条件可以是用于衡量划分区域的人员数量是否超过了该划分区域的人员承受能力。
对抗生成网络可以包括生成模型和评价模型,生成模型可以用于生成新的区域更新图像,评价模型可以用于对生成的区域更新图像进行评价,区域更新图像可以是指包含更新后划分区域信息的图像。
具体地,当一划分区域内人员数量过多时,会导致该划分区域过于拥挤,给需要办理业务的人员带来较差的体验,且影响业务办理效率,因此,预设阈值可以根据划分区域的实际面积确定,例如,实际面积为3平方米的划分区域,预设阈值可以设置为3。
生成模型可以包括第二编码器和第二解码器,第二编码器的输入为区域划分图像,第二编码器的输出为区域划分特征,第二编码器用于提取区域划分图像的特征,第二解码器的输入为区域划分特征,第二解码器的输出为区域更新图像,第二解码器用于对区域划分特征进行重构。
评价模型可以包括第三编码器和第二全连接层,第三编码器的输入为区域更新图像,第三编码器的输出为区域更新特征,第三编码器用于提取区域更新图像的特征。第二全连接层的输入为区域更新特征,第二全连接层的输出为评价指标,第二全连接层用于将区域更新特征映射至评价指标空间,区域更新特征在输入第二全连接层时需要进行压扁操作。
可选的是,若比较结果满足预设条件,则将区域划分图像输入对抗生成网络,得到区域更新图像包括:
检测每个划分区域的人员数量是否大于对应划分区域的预设阈值,若存在人员数量大于预设阈值的划分区域,则检测是否存在任一划分区域的人员数量小于对应划分区域的预设阈值;
若存在任一划分区域的人员数量小于对应划分区域的预设阈值,则确定比较结果满足预设条件,并将区域划分图像输入对抗生成网络,得到区域更新图像。
其中,存在人员数量大于预设阈值的划分区域,说明该划分区域需要进行扩张以适应实际人员数量,但在网点场景面积固定的情况下,需要其他划分区域能够提供一定区域才能进行扩张,因此,在存在任一划分区域的人员数量小于对应划分区域的预设阈值时,将区域划分图像输入对抗生成网络。
本实施例根据每个划分区域的人员数量与预设阈值的比较结果,确定现有网点场景面积是否能够进行规划优化,从而避免了无效计算,提高场景规划调整的效率。
可选的是,在检测是否存在任一划分区域的人员数量小于对应划分区域的预设阈值之后,还包括:
若不存在任一划分区域的人员数量小于对应划分区域的预设阈值,则确定比较结果不满足预设条件;
在比较结果不满足预设条件时,计算所有划分区域的面积之和,根据计算结果和预设扩张面积,确定场景扩张后的尺寸。
其中,不存在任一划分区域的人员数量小于对应划分区域的预设阈值时,说明网点场景已经无法满足实际人员数量,预设扩张面积可以是指预设设置的网点场景的增加面积,在本实施例中,预设扩张面积设置为15平方米,尺寸用于指导管理人员进行场景规划的扩张调整。
本实施例在每个划分区域的人员数量均超过阈值时,确定场景扩张尺寸,避免了无效计算,从而提高了场景规划调整的效率。
上述针对任一划分区域,将划分区域的人员数量与划分区域的预设阈值进行比较,若比较结果满足预设条件,则将区域划分图像输入对抗生成网络,得到区域更新图像的步骤,通过对抗生成网络得到区域更新图像,能够在避免耗费较多资源的同时,得到最优化的区域更新方式,进而提高了网点业务场景的规划调整的效率。
步骤S204,根据以区域更新图像和区域划分图像的差异计算的生成损失函数,采用梯度下降法更新对抗生成网络的参数,直至生成损失函数收敛,得到训练好的对抗生成网络。
其中,区域更新图像和区域划分图像的差异可以是指区域更新图像中更新区域和区域划分图像中对应划分区域的差异。
梯度下降法可以是指随机梯度下降法、批次梯度下降法等,训练好的对抗生成网络可以是指在线学习更新好的对抗生成网络,在线学习可以是指根据当次区域划分图像和人员分布信息进行的实时训练学习,能够有效适应于实时信息的变化,提高区域更新图像生成的准确率。
具体地,在区域划分图像中,各个区域可以由不同的像素值表示,例如,区域划分图像中包含3个划分区域,第一个划分区域包含的像素点的像素值均为1,第二个划分区域包含的像素点的像素值均为2,第三个划分区域包含的像素点的像素值均为3,从而能够在单张区域划分图像中快速识别各划分区域,相应地,区域更新图像中第一划分区域对应更新区域包含的像素点的像素值也均为1,区域更新图像中第二划分区域对应更新区域包含的像素点的像素值也均为2,区域更新图像中第三划分区域对应更新区域包含的像素点的像素值也均为3。
可选的是,生成损失函数包括区域损失项和阈值损失项;
以区域更新图像和区域划分图像的差异计算生成损失函数的计算过程包括:
将区域划分图像中不满足预设条件的划分区域确定为目标划分区域,并确定目标划分区域在区域更新图像中对应的参照划分区域;
计算参照划分区域重心与目标划分区域重心之间的距离,并确定计算结果为区域损失项;
计算目标划分区域的人员数量与参照划分区域的面积的比值,得到第一人员密度;
计算目标划分区域的预设阈值与目标划分区域的面积的比值,得到第二人员密度;
将第一人员密度与第二人员密度作差,并采用映射函数对作差结果处理,得到阈值损失项。
其中,目标划分区域可以是指需要进行面积调整的划分区域,参照划分区域可以是指与需要进行面积调整的划分区域对应的生成区域。
重心可以是指区域图像的几何中心,区域损失项可以用于确保划分区域在调整前后不出现较大的位置偏移,避免导致调整后区域远离业务办理位置。
面积可以通过像素点统计获取,人员密度可以用于表征区域的人员承受能力,第二人员密度可以用于表征目标划分区域的理论人员承受能力,第一人员密度可以用于表征参照划分区域的实际人员承受能力,当第一人员密度小于或者等于第二人员密度时,说明此时参照划分区域可以容纳实际人员数量。映射函数可以是指指数函数。
具体地,映射函数为f(r)=max(er-1,0),即当第一人员密度小于或者等于第二人员密度时,作差结果小于或者等于0,此时er-1小于或者等于0,则max(er-1,0)为0,当第一人员密度大于第二人员密度时,作差结果大于0,此时er-1大于0,则max(er-1,0)为er-1。
本实施例通过阈值损失和区域损失对训练过程进行监督,从而确保划分区域的规划调整在满足人员数量的同时,尽可能减少区域大幅度移动的情况,从而提高了场景的利用率。
可选的是,生成损失函数还包括形状损失项;
在得到阈值损失项之后,还包括:
通过边缘提取算法得到参照划分区域的边缘,边缘包括M个边缘点,M为大于零的整数;
计算每个边缘点的梯度,并将所有边缘点的梯度均值与预设梯度阈值相减,确定相减结果为形状损失项。
其中,边缘提取算法可以采用索贝尔算子、拉普拉斯算子等方式提取,边缘可以是指参照划分区域的外边缘,边缘点可以是指组成边缘的像素点。
梯度可以用于表征边缘点的平滑程度,梯度阈值可以用于衡量形状边缘的复杂程度。
具体地,当梯度大于梯度阈值时,说明形状较为复杂,此时难以落实到实际网点场景中,因此,以形状损失项对训练过程进行监督。
本实施例通过梯度计算形状损失项,从而有效避免了参照划分区域的形状过于复杂而导致难以实际实施调整的情况,提高了场景规划调整的可行性。
上述根据以区域更新图像和区域划分图像的差异计算的生成损失函数,采用梯度下降法更新对抗生成网络的参数,直至生成损失函数收敛,得到训练好的对抗生成网络的步骤,采用在线学习的方式对对抗生成网络进行训练,能够有效适应于实时人员分布信息和区域划分图像,从而提高区域更新图像生成的准确率。
步骤S205,将区域划分图像输入训练好的对抗生成网络,得到目标区域图像。
其中,目标区域图像用于指导对网点场景进行场景规划调整,目标区域图像包括至少一个目标划分区域。
具体地,根据目标区域图像中每个目标划分区域包含的像素点,可以确定网点场景内对应的划分区域,进而进行场景规划调整。
上述将区域划分图像输入训练好的对抗生成网络,得到目标区域图像的步骤,以训练好的对抗生成网络生成目标区域图像,确保所生成的目标区域图像满足评价模型的要求,从而提高网点场景的利用率。
本实施例通过生成损失函数对对抗生成网络进行在线学习,从而能够根据实时的人员分布信息确定场景规划调整方案,提高了场景规划的效率和准确率,进而提高了网点场景的实时利用率。
参见图3,是本发明实施例二提供的一种基于人工智能的场景规划调整方法的流程示意图,该场景规划调整方法中,N个人员分布热力图的加权叠加方式可以是根据每个人员分布热力图对应预分配的权重进行加权叠加,也可以是根据已叠加人员分布热力图和待叠加人员分布热力图对应的权重进行加权叠加。
当根据每个人员分布热力图对应预分配的权重进行加权叠加时,叠加过程参见实施例一,在此不再赘述。
当根据已叠加人员分布热力图和待叠加人员分布热力图对应的权重进行加权叠加时,叠加过程包括:
步骤S301,将第n张人员分布热力图确定为待叠加图,并将前n-1张人员分布热力图的叠加结果确定为临时叠加结果;
步骤S302,根据加权叠加公式将待叠加图与临时叠加结果进行叠加,得到更新叠加结果;
步骤S303,将n的值增加1,再次执行将第n张人员分布热力图确定为待叠加图,并将前n-1张人员分布热力图的叠加结果确定为临时叠加结果的步骤,直至n与N相同,得到N个人员分布热力图进行加权叠加的更新叠加结果。
其中,n为大于零且小于等于N的整数,n的初始值设置为1,待叠加图可以是指即将进行叠加的人员分布热力图,临时叠加结果可以是指所有已叠加的人员分布热力图的叠加结果,更新叠加结果可以是指将待叠加图叠加后的结果。
具体地,加权叠加公式为:
Sn=αSn-1+(1-α)sn
其中,Sn可以是指第n张人员分布热力图叠加后的结果,Sn-1可以是指第n-1张人员分布热力图叠加后的结果,也即第n张人员分布热力图叠加前的结果,sn可以是指第n张人员分布热力图,n的取值范围为[1,N],N为人员分布热力图的数量,α为衰减权重,衰减权重用于逐步减少人员的历史位置信息,相应地,(1-α)用于逐步记录人员的当前位置信息,从而可以得到人员轨迹信息,在本实施例中,衰减权重设置为0.95。
举例说明,对于一坐标点,该坐标点未曾有人员停留,而从第n个目标时间点开始,该坐标点有人员持续停留,则该坐标点的热力值从第n张人员分布热力图叠加后开始随着叠加张数增加而逐渐增加并趋向于1;而若坐标点有人员停留但从第n个目标时间点开始人员离开,则该坐标点的热力值从第n张人员分布热力图叠加后开始随着叠加张数增加而逐渐减少并趋向于0。
本实施例根据已叠加人员分布热力图和待叠加人员分布热力图对应的权重进行加权叠加,进而能够根据热力值得到较为准确的人员轨迹信息,提高人员数量统计的准确率,从而得到更准确的场景规划调整方式,以更有效地提高网点场景的利用率。
对应于上文实施例的一种基于人工智能的场景规划调整方法,图4示出了本发明实施例三提供的一种基于人工智能的场景规划调整装置的结构框图,上述场景规划调整装置应用于客户端,客户端对应的计算机设备连接设备端,设备端中的图像采集设备可以是指摄像头、摄像机等,图像采集设备具备存储功能,即图像采集设备可以将采集到的网点场景图像存储于图像采集设备内,客户端对应的计算机设备从设备端获取存储的网点场景的实际图像,客户端部署有训练好的人员检测模型和对抗生成模型,训练好的人员检测模型可以用于提取人员分布信息,对抗生成模型可以用于生成目标区域图像以指导网点场景进行场景规划调整。为了便于说明,仅示出了与本发明实施例相关的部分。
参见图4,该场景规划调整装置包括:
人员检测模块41,用于将在N个目标时间点采集的网点场景的实际图像输入训练好的人员检测模型,得到对应目标时间点的人员分布热力图,N为大于零的整数;
数量确定模块42,用于将N个人员分布热力图进行加权叠加,根据叠加结果确定人员轨迹信息,并根据人员轨迹信息和预设的区域划分图像,确定区域划分图像中各划分区域的人员数量;
阈值比较模块43,用于针对任一划分区域,将划分区域的人员数量与划分区域的预设阈值进行比较,若比较结果满足预设条件,则将区域划分图像输入对抗生成网络,得到区域更新图像;
网络训练模块44,用于根据以区域更新图像和区域划分图像的差异计算的生成损失函数,采用梯度下降法更新对抗生成网络的参数,直至生成损失函数收敛,得到训练好的对抗生成网络;
图像生成模块45,用于将区域划分图像输入训练好的对抗生成网络,得到目标区域图像,目标区域图像用于指导对网点场景进行场景规划调整。
可选的是,人员检测模型包括第一编码器和第一解码器,以网点场景的历史图像作为人员检测模型训练时的训练样本,以均方误差损失作为人员检测模型训练时的损失函数;
上述场景规划调整装置还包括:
标签获取模块,用于获取历史图像中人员位置对应的图像坐标点,以图像坐标点为中心,采用预设的高斯核进行卷积操作,得到图像坐标点在历史图像中对应的热斑,确定包含热斑的历史图像作为人员检测模型训练时的标签;
特征提取模块,用于将训练样本输入第一编码器进行特征提取,得到样本场景特征;
特征重构模块,用于将样本场景特征输入第一解码器中,得到样本人员分布热力图;
模型训练模块,用于根据样本人员分布热力图与标签,计算均方误差损失,并以均方误差损失为依据,采用梯度下降法反向更新人员检测模型的参数,直至均方误差损失收敛,得到训练好的人员检测模型。
可选的是,上述数量确定模块42包括:
初始化单元,用于将第n张人员分布热力图确定为待叠加图,并将前n-1张人员分布热力图的叠加结果确定为临时叠加结果,n为大于零且小于等于N的整数,n的初始值设置为1;
叠加单元,用于根据加权叠加公式将待叠加图与临时叠加结果进行叠加,得到更新叠加结果;
迭代单元,用于将n的值增加1,再次执行将第n张人员分布热力图确定为待叠加图,并将前n-1张人员分布热力图的叠加结果确定为临时叠加结果的步骤,直至n与N相同,得到N个人员分布热力图进行加权叠加的更新叠加结果。
可选的是,上述阈值比较模块43包括:
第一比较单元,用于检测每个划分区域的人员数量是否大于对应划分区域的预设阈值,若存在人员数量大于预设阈值的划分区域,则检测是否存在任一划分区域的人员数量小于对应划分区域的预设阈值;
第二比较单元,用于若存在任一划分区域的人员数量小于对应划分区域的预设阈值,则确定比较结果满足预设条件,并将区域划分图像输入对抗生成网络,得到区域更新图像。
可选的是,上述阈值比较模块43还包括:
第三比较单元,用于若不存在任一划分区域的人员数量小于对应划分区域的预设阈值,则确定比较结果不满足预设条件;
尺寸计算单元,用于在比较结果不满足预设条件时,计算所有划分区域的面积之和,根据计算结果和预设扩张面积,确定场景扩张后的尺寸,尺寸用于指导管理人员进行场景规划的扩张调整。
可选的是,生成损失函数包括区域损失项和阈值损失项;
上述网络训练模块44包括:
区域确定单元,用于将区域划分图像中不满足预设条件的划分区域确定为目标划分区域,并确定目标划分区域在区域更新图像中对应的参照划分区域;
区域损失计算单元,用于计算参照划分区域重心与目标划分区域重心之间的距离,并确定计算结果为区域损失项;
第一密度计算单元,用于计算目标划分区域的人员数量与参照划分区域的面积的比值,得到第一人员密度;
第二密度计算单元,用于计算目标划分区域的预设阈值与目标划分区域的面积的比值,得到第二人员密度;
阈值损失计算单元,用于将第一人员密度与第二人员密度作差,并采用映射函数对作差结果处理,得到阈值损失项。
可选的是,生成损失函数还包括形状损失项;
上述网络训练模块44还包括:
边缘提取单元,用于通过边缘提取算法得到参照划分区域的边缘,边缘包括M个边缘点,M为大于零的整数;
形状损失计算单元,用于计算每个边缘点的梯度,并将所有边缘点的梯度均值与预设梯度阈值相减,确定相减结果为形状损失项。
需要说明的是,上述模块、单元之间的信息交互、执行过程等内容,由于与本发明方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
图5为本发明实施例四提供的一种计算机设备的结构示意图。如图5所示,该实施例的计算机设备包括:至少一个处理器(图5中仅示出一个)、存储器以及存储在存储器中并可在至少一个处理器上运行的计算机程序,处理器执行计算机程序时实现上述任意各个基于人工智能的场景规划调整方法实施例中的步骤。
该计算机设备可包括,但不仅限于,处理器、存储器。本领域技术人员可以理解,图5仅仅是计算机设备的举例,并不构成对计算机设备的限定,计算机设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如还可以包括网络接口、显示屏和输入装置等。
所称处理器可以是CPU,该处理器还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific IntegratedCircuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器包括可读存储介质、内存储器等,其中,内存储器可以是计算机设备的内存,内存储器为可读存储介质中的操作***和计算机可读指令的运行提供环境。可读存储介质可以是计算机设备的硬盘,在另一些实施例中也可以是计算机设备的外部存储设备,例如,计算机设备上配备的插接式硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,存储器还可以既包括计算机设备的内部存储单元也包括外部存储设备。存储器用于存储操作***、应用程序、引导装载程序(BootLoader)、数据以及其他程序等,该其他程序如计算机程序的程序代码等。存储器还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。上述装置中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述方法实施例的步骤。其中,计算机程序包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质至少可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
本发明实现上述实施例方法中的全部或部分流程,也可以通过一种计算机程序产品来完成,当计算机程序产品在计算机设备上运行时,使得计算机设备执行时实现可实现上述方法实施例中的步骤。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/计算机设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/计算机设备实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于人工智能的场景规划调整方法,其特征在于,所述方法包括:
将在N个目标时间点采集的网点场景的实际图像输入训练好的人员检测模型,得到对应目标时间点的人员分布热力图,N为大于零的整数;
将N个人员分布热力图进行加权叠加,根据叠加结果确定人员轨迹信息,并根据所述人员轨迹信息和预设的区域划分图像,确定所述区域划分图像中各划分区域的人员数量;
针对任一划分区域,将所述划分区域的人员数量与所述划分区域的预设阈值进行比较,若比较结果满足预设条件,则将所述区域划分图像输入对抗生成网络,得到区域更新图像;
根据以所述区域更新图像和所述区域划分图像的差异计算的生成损失函数,采用梯度下降法更新所述对抗生成网络的参数,直至所述生成损失函数收敛,得到训练好的对抗生成网络;
将所述区域划分图像输入所述训练好的对抗生成网络,得到目标区域图像,所述目标区域图像用于指导对所述网点场景进行场景规划调整。
2.根据权利要求1所述的场景规划调整方法,其特征在于,所述人员检测模型包括第一编码器和第一解码器,以网点场景的历史图像作为所述人员检测模型训练时的训练样本,以均方误差损失作为所述人员检测模型训练时的损失函数;
所述人员检测模型的训练过程包括:
获取所述历史图像中人员位置对应的图像坐标点,以所述图像坐标点为中心,采用预设的高斯核进行卷积操作,得到所述图像坐标点在所述历史图像中对应的热斑,确定包含所述热斑的所述历史图像作为所述人员检测模型训练时的标签;
将训练样本输入所述第一编码器进行特征提取,得到样本场景特征;
将所述样本场景特征输入所述第一解码器中,得到样本人员分布热力图;
根据所述样本人员分布热力图与所述标签,计算所述均方误差损失,并以所述均方误差损失为依据,采用梯度下降法反向更新所述人员检测模型的参数,直至所述均方误差损失收敛,得到训练好的人员检测模型。
3.根据权利要求1所述的场景规划调整方法,其特征在于,所述将N个人员分布热力图进行加权叠加包括:
将第n张人员分布热力图确定为待叠加图,并将前n-1张人员分布热力图的叠加结果确定为临时叠加结果,n为大于零且小于等于N的整数,n的初始值设置为1;
根据加权叠加公式将所述待叠加图与所述临时叠加结果进行叠加,得到更新叠加结果;
将n的值增加1,再次执行将第n张人员分布热力图确定为待叠加图,并将前n-1张人员分布热力图的叠加结果确定为临时叠加结果的步骤,直至n与N相同,得到N个人员分布热力图进行加权叠加的更新叠加结果。
4.根据权利要求1所述的场景规划调整方法,其特征在于,所述若比较结果满足预设条件,则将所述区域划分图像输入对抗生成网络,得到区域更新图像包括:
检测每个划分区域的人员数量是否大于对应划分区域的预设阈值,若存在所述人员数量大于所述预设阈值的划分区域,则检测是否存在任一划分区域的人员数量小于对应划分区域的预设阈值;
若存在任一划分区域的人员数量小于对应划分区域的预设阈值,则确定所述比较结果满足所述预设条件,并将所述区域划分图像输入对抗生成网络,得到区域更新图像。
5.根据权利要求4所述的场景规划调整方法,其特征在于,在所述检测是否存在任一划分区域的人员数量小于对应划分区域的预设阈值之后,还包括:
若不存在任一划分区域的人员数量小于对应划分区域的预设阈值,则确定所述比较结果不满足所述预设条件;
在所述比较结果不满足所述预设条件时,计算所有划分区域的面积之和,根据计算结果和预设扩张面积,确定场景扩张后的尺寸,所述尺寸用于指导管理人员进行场景规划的扩张调整。
6.根据权利要求1至5任一项所述的场景规划调整方法,其特征在于,所述生成损失函数包括区域损失项和阈值损失项;
以所述区域更新图像和所述区域划分图像的差异计算生成损失函数的计算过程包括:
将所述区域划分图像中不满足所述预设条件的划分区域确定为目标划分区域,并确定所述目标划分区域在所述区域更新图像中对应的参照划分区域;
计算所述参照划分区域重心与所述目标划分区域重心之间的距离,并确定计算结果为所述区域损失项;
计算所述目标划分区域的人员数量与所述参照划分区域的面积的比值,得到第一人员密度;
计算所述目标划分区域的预设阈值与所述目标划分区域的面积的比值,得到第二人员密度;
将所述第一人员密度与所述第二人员密度作差,并采用映射函数对作差结果处理,得到所述阈值损失项。
7.根据权利要求6所述的场景规划调整方法,其特征在于,所述生成损失函数还包括形状损失项;
在所述得到所述阈值损失项之后,还包括:
通过边缘提取算法得到所述参照划分区域的边缘,所述边缘包括M个边缘点,M为大于零的整数;
计算每个边缘点的梯度,并将所有边缘点的梯度均值与预设梯度阈值相减,确定相减结果为所述形状损失项。
8.一种基于人工智能的场景规划调整装置,其特征在于,所述场景规划调整装置包括:
人员检测模块,用于将在N个目标时间点采集的网点场景的实际图像输入训练好的人员检测模型,得到对应目标时间点的人员分布热力图,N为大于零的整数;
数量确定模块,用于将N个人员分布热力图进行加权叠加,根据叠加结果确定人员轨迹信息,并根据所述人员轨迹信息和预设的区域划分图像,确定所述区域划分图像中各划分区域的人员数量;
阈值比较模块,用于针对任一划分区域,将所述划分区域的人员数量与所述划分区域的预设阈值进行比较,若比较结果满足预设条件,则将所述区域划分图像输入对抗生成网络,得到区域更新图像;
网络训练模块,用于根据以所述区域更新图像和所述区域划分图像的差异计算的生成损失函数,采用梯度下降法更新所述对抗生成网络的参数,直至所述生成损失函数收敛,得到训练好的对抗生成网络;
图像生成模块,用于将所述区域划分图像输入所述训练好的对抗生成网络,得到目标区域图像,所述目标区域图像用于指导对所述网点场景进行场景规划调整。
9.一种计算机设备,其特征在于,所述计算机设备包括处理器、存储器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的场景规划调整方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的场景规划调整方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210924723.5A CN115239508A (zh) | 2022-08-02 | 2022-08-02 | 基于人工智能的场景规划调整方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210924723.5A CN115239508A (zh) | 2022-08-02 | 2022-08-02 | 基于人工智能的场景规划调整方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115239508A true CN115239508A (zh) | 2022-10-25 |
Family
ID=83678125
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210924723.5A Pending CN115239508A (zh) | 2022-08-02 | 2022-08-02 | 基于人工智能的场景规划调整方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115239508A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116523319A (zh) * | 2023-06-30 | 2023-08-01 | 中国市政工程西南设计研究总院有限公司 | 智慧公园综合管理方法和*** |
CN117057234A (zh) * | 2023-08-14 | 2023-11-14 | 上海频准激光科技有限公司 | 基于激光器的光纤测温点定位*** |
-
2022
- 2022-08-02 CN CN202210924723.5A patent/CN115239508A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116523319A (zh) * | 2023-06-30 | 2023-08-01 | 中国市政工程西南设计研究总院有限公司 | 智慧公园综合管理方法和*** |
CN116523319B (zh) * | 2023-06-30 | 2023-09-08 | 中国市政工程西南设计研究总院有限公司 | 智慧公园综合管理方法和*** |
CN117057234A (zh) * | 2023-08-14 | 2023-11-14 | 上海频准激光科技有限公司 | 基于激光器的光纤测温点定位*** |
CN117057234B (zh) * | 2023-08-14 | 2024-03-22 | 上海频准激光科技有限公司 | 基于激光器的光纤测温点定位*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108205655B (zh) | 一种关键点预测方法、装置、电子设备及存储介质 | |
US20170177972A1 (en) | Method for analysing media content | |
EP4145353A1 (en) | Neural network construction method and apparatus | |
CN115239508A (zh) | 基于人工智能的场景规划调整方法、装置、设备及介质 | |
CN109657615B (zh) | 一种目标检测的训练方法、装置及终端设备 | |
US10762644B1 (en) | Multiple object tracking in video by combining neural networks within a bayesian framework | |
CN110245579B (zh) | 人流密度预测方法及装置、计算机设备及可读介质 | |
CN109413023B (zh) | 机器识别模型的训练及机器识别方法、装置、电子设备 | |
CN109272509A (zh) | 一种连续图像的目标检测方法、装置、设备及存储介质 | |
CN112508975A (zh) | 一种图像识别方法、装置、设备及存储介质 | |
CN108256431A (zh) | 一种手部位置标识方法及装置 | |
CN113177968A (zh) | 目标跟踪方法、装置、电子设备及存储介质 | |
CN112669345B (zh) | 一种面向云端部署的多目标轨迹跟踪方法及*** | |
WO2021217937A1 (zh) | 姿态识别模型的训练方法及设备、姿态识别方法及其设备 | |
CN112580558A (zh) | 红外图像目标检测模型构建方法、检测方法、装置及*** | |
CN109583367A (zh) | 图像文本行检测方法及装置、存储介质和电子设备 | |
CN113065379B (zh) | 融合图像质量的图像检测方法、装置、电子设备 | |
CN111626134A (zh) | 一种基于隐密度分布的密集人群计数方法、***及终端 | |
CN113297956A (zh) | 一种基于视觉的手势识别方法及*** | |
CN111353325A (zh) | 关键点检测模型训练方法及装置 | |
CN113673505A (zh) | 实例分割模型的训练方法、装置、***及存储介质 | |
CN115690545B (zh) | 训练目标跟踪模型和目标跟踪的方法和装置 | |
CN110633641A (zh) | 一种智能安防行人检测方法、***、装置及存储介质 | |
CN115471863A (zh) | 三维姿态的获取方法、模型训练方法和相关设备 | |
CN115620082A (zh) | 模型训练方法、头部姿态估计方法、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |