CN115543095A - 一种公共安全数字互动体验方法及*** - Google Patents
一种公共安全数字互动体验方法及*** Download PDFInfo
- Publication number
- CN115543095A CN115543095A CN202211532510.4A CN202211532510A CN115543095A CN 115543095 A CN115543095 A CN 115543095A CN 202211532510 A CN202211532510 A CN 202211532510A CN 115543095 A CN115543095 A CN 115543095A
- Authority
- CN
- China
- Prior art keywords
- public safety
- image
- scene
- experience
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/5866—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Architecture (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Library & Information Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及数字互动的技术领域,揭露了一种公共安全数字互动体验方法及***,所述方法包括:基于公共安全体验场景文本,利用扩散模型生成公共安全体验场景图像;基于生成的公共安全体验场景图像进行三维公共安全体验场景重建;对公共安全体验三维场景进行边缘结构增强;利用用户行为监测算法实时监测用户位置和用户动作;若监测到用户与公共安全体验三维场景中的物品发生交互动作,则对交互物品进行实时交互渲染。本发明基于用户输入的公共安全体验场景文本实现可自动调节的、多种类的公共安全体验场景构建,并基于三维重建方法得到公共安全体验三维场景,让体验者更直观、更深刻的体验到公共安全主题的模拟场景,并进行实时交互。
Description
技术领域
本发明涉及数字交互体验的技术领域,尤其涉及一种公共安全数字互动体验方法及***。
背景技术
现有的公共安全教育方法以文本教育为主,通过参观见学等方式提高人们的公共安全意识,但是该种方式存在受众面小,不易推广、实施成本高等缺点。且传统公共安全教育方法缺乏直观的场景体验并脱离事故现场,难以让人们足够重视公共安全防范的重要性,制约了公共安全知识的宣传、普及以及教育推进。针对该问题,本专利提出一种公共安全数字互动体验方法,通过数字化方式实现公共安全教育。
发明内容
有鉴于此,本发明提供一种公共安全数字互动体验方法,目的在于1)基于用户输入的公共安全体验场景文本实现可自动调节的、多种类的公共安全体验场景构建,并基于三维重建方法得到公共安全体验三维场景,在虚拟环境和真实环境之间搭建起一个桥梁,让体验者更直观、更深刻的体验到公共安全主题的模拟场景,解决了传统公共安全宣传、教育的枯燥传播问题;2)利用边缘结构增强方法对所生成的公共安全体验三维场景进行结构增强,有效标记场景中的物体,并利用用户行为监测算法实时监测用户位置和用户动作,若监测到用户与公共安全体验三维场景中的物品发生交互动作,则对交互物品进行实时交互渲染,用户可以实现在不借助复杂穿戴设备或亲临公共安全场景下,就能与公共安全主题下的物品进行实时交互。
为实现上述目的,本发明提供的一种公共安全数字互动体验方法,包括以下步骤:
S1:人工输入公共安全体验场景文本,基于输入文本利用扩散模型生成公共安全体验场景图像;
S2:基于生成的公共安全体验场景图像进行三维公共安全体验场景重建,得到公共安全体验三维场景;
S3:对公共安全体验三维场景进行边缘结构增强;
S4:利用用户行为监测算法实时监测用户位置和用户动作;
S5:若监测到用户与公共安全体验三维场景中的物品发生交互动作,则对交互物品进行实时交互渲染。
作为本发明的进一步改进方法:
可选地,所述S1中人工输入公共安全体验场景文本,包括:
用户在公共安全数字互动体验前向公共安全数字体验***输入公共安全体验场景文本,所述公共安全体验场景文本描述了待体验的公共安全体验场景布置情况以及场景中存在的物品,在本发明实施例中,所述公共安全体验场景包括地震安全体验场景,交通安全体验场景,城市安全体验场景以及应急救护体验场景等。
可选地,所述S1中基于输入文本利用扩散模型生成公共安全体验场景图像,包括:
构建扩散模型,将公共安全体验场景文本输入到扩散模型中,扩散模型输出对应的公共安全体验场景图像,所述扩散模型包括文本特征提取层以及图像生成层,所述公共安全体验场景图像的生成流程为:
将公共安全体验场景文本输入到扩散模型的文本特征提取层,文本特征提取层利用独热法对公共安全体验场景文本进行编码处理,利用embedding方法将编码后的文本转换为文本特征向量y;
将文本特征向量y输入到图像生成层,图像生成层基于文本特征向量的引导生成对应的公共安全体验场景图像f,所述公共安全体验场景图像的生成公式为:
其中:
可选地,所述S1中所述扩散模型的训练流程包括:
所述图像加噪扩散的流程为:
其中:
S12:在每一步加噪扩散过程中添加高斯噪声所掩盖内容的文本特征向量,得到基于文本特征向量条件的图像加噪扩散流程:
其中:
S13:加噪图像的采样过程即为加噪图像的复原过程,所述基于条件的加噪图像采样公式为:
其中:
可选地,所述S2中基于生成的公共安全体验场景图像进行三维公共安全体验场景重建,包括:
基于生成的公共安全体验场景图像进行三维公共安全体验场景重建,得到公共安全体验三维场景,所述三维公共安全体验场景的重建流程为:
S22:构建三维网格图像,将公共安全体验场景图像的每个特征向量匹配到三维网
格图像的网格顶点位置,所述三维网格图像中三维网格的边长为,其中v为所生成公
共安全体验场景图像f中行像素的数目,所述特征向量匹配的公式为:
其中:
S23:随机选取三维网格图像中的网格顶点作为初始建模点,选取与初始建模点坐标距离最小的邻近特征向量作为初始建模点的拓扑节点,并连接初始建模点和拓扑节点,寻找与初始建模点以及拓扑节点坐标距离最小的邻近特征向量,连接三个特征向量构成初始三角形;
S24:将所构成三角形的顶点为初始建模点,重复上述步骤,直到将三维网格图像中的所有特征向量相连;
S25:对于连接后的任意三角形,将三角形顶点所对应特征向量的像素分布梯度直方图渲染为三角形区域的像素分布结果,得到公共安全体验三维场景F。
可选地,所述S3中对重建得到的公共安全体验三维场景进行边缘结构增强,包括:
对重建得到的公共安全体验三维场景进行边缘结构增强,所述边缘结构增强的流程为:
其中:
S34:将公共安全体验三维场景中的像素点输入到基于三维滤波系数的滤波器中,所述滤波器的滤波公式为:
其中:
e表示自然常数。
可选地,所述S4中利用用户行为监测算法监测用户位置和用户动作,包括:
利用用户行为监测算法实时监测用户位置和用户动作,所述用户位置和用户动作的监测流程为:
S41:为用户发放交互手环,利用交互手环内的位置传感器以及姿态传感器实时确定用户的位置和姿态信息,其中所述用户的姿态信息包括手臂与身躯的夹角以及手臂的加速度;
S42:计算用户实时位置与公共安全体验三维场景中物品位置的距离,若距离小于预设位置阈值则表示用户处于物品附近;
S43:若监测到用户处于公共安全体验三维场景中物品的附近区域,则将用户的姿态信息输入到交互动作识别模型中,所述交互动作识别模型为二分类模型,输出结果为发生交互动作或未发生交互动作,在本发明实施例中,所述交互动作识别模型的结构为支持向量机模型。
可选地,所述S5中当监测到用户与公共安全体验三维场景中的物品发生交互动作,则对交互物品进行实时交互渲染,包括:
预设置所生成公共安全体验三维场景中不同物体的交互响应规则,当监测到用户与公共安全体验三维场景中的物品发生交互动作,则基于交互响应规则对交互物品进行实时交互渲染,所述交互渲染的方式包括基于交互响应规则的交互物品形状重构以及颜色重构。
为了解决上述问题,本发明提供一种公共安全数字互动体验***,其特征在于,所述***包括:
图像生成装置,用于接收公共安全体验场景文本,基于输入文本利用扩散模型生成公共安全体验场景图像;
三维重建装置,用于基于生成的公共安全体验场景图像进行三维公共安全体验场景重建,对公共安全体验三维场景进行边缘结构增强;
交互控制装置,用于利用用户行为监测算法实时监测用户位置和用户动作,若监测到用户与公共安全体验三维场景中的物品发生交互动作,则对交互物品进行实时交互渲染。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现上述所述的公共安全数字互动体验方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现上述所述的公共安全数字互动体验方法。
相对于现有技术,本发明提出一种公共安全数字互动体验方法,该技术具有以下优势:
首先,本方案提出一种基于公共安全体验场景文本的图像生成方法,通过构建扩散模型,将公共安全体验场景文本输入到扩散模型中,扩散模型输出对应的公共安全体验场景图像,所述扩散模型包括文本特征提取层以及图像生成层,所述公共安全体验场景图像的生成流程为:将公共安全体验场景文本输入到扩散模型的文本特征提取层,文本特征提取层利用独热法对公共安全体验场景文本进行编码处理,利用embedding方法将编码后的文本转换为文本特征向量y;将文本特征向量y输入到图像生成层,图像生成层基于文本特征向量的引导生成对应的公共安全体验场景图像f,所述公共安全体验场景图像的生成公式为:
其中:表示对扩散模型中待采样图像进行基于文本特征向量f引导
的T步采样,通过对加噪图像进行多步条件引导的采样降噪处理,最终成功降噪的图像即为
公共安全体验场景图像。所述扩散模型的训练流程包括:构建包含m张图像以及描述图像文
本特征向量的图像训练集,所述图像训练集包含多种不同公共安全体验场景的图像,对图
像训练集中的任意第i张基准图像,进行T步的图像加噪扩散;所述图像加噪扩散的流程
为:
其中:表示对图像进行T步图像加噪扩散的过程序
列,表示对第t-1步的图像加噪扩散结果添加高斯噪声,得到第t步的图
像加噪扩散结果的过程;表示在第t步图像加噪扩散过程中所添加的高斯噪声,所述高斯
噪声的分布为高斯分布,表示高斯分布的均值,表示第t步所添
加高斯噪声的方差;在每一步加噪扩散过程中添加高斯噪声所掩盖内容的文本特征向量,
得到基于文本特征向量条件的图像加噪扩散流程:
其中:表示复原条件,选取最小的T步加噪图像作为
待采样图像,表示基于条件复原的贝叶斯梯度,表示将采样
复原为的引导参数,表示符合正态分布的采样分布参数;表示将采样复原为的公式。本方案利用所构建的扩散模型,基于用户输入的公共安全体验场
景文本实现可自动调节的、多种类的公共安全体验场景构建,并基于三维重建方法得到公
共安全体验三维场景,在虚拟环境和真实环境之间搭建起一个桥梁,让体验者更直观、更深
刻的体验到公共安全主题的模拟场景,解决了传统公共安全宣传、教育的枯燥传播问题。
因此,本方案提出一种三维场景内物品实时交互方法,首先对重建得到的公共安
全体验三维场景进行边缘结构增强,所述边缘结构增强的流程为:计算重建得到的公共安
全体验三维场景F在X、Y、Z轴方向的二阶偏导数,构成公共安全体验三维场景F的偏导矩阵:
其中:偏导矩阵中的值表示公共安全体验三维场景F在任意两个方向的偏导
结果;对偏导矩阵进行特征分解,分解得到其中最大的三个特征值;构建三维
滤波系数;将公共安全体验三维场景中的像素点输入到基于
三维滤波系数的滤波器中,所述滤波器的滤波公式为:
其中:表示公共安全体验三维场景中任意像素点p的像素值,表示对应
像素点p的滤波结果,表示像素值阈值;e表示自然常数。利用用户行为监测算法实时监测
用户位置和用户动作,预设置所生成公共安全体验三维场景中不同物体的交互响应规则,
当监测到用户与公共安全体验三维场景中的物品发生交互动作,则基于交互响应规则对交
互物品进行实时交互渲染,所述交互渲染的方式包括基于交互响应规则的交互物品形状重
构以及颜色重构。本方案利用边缘结构增强方法对所生成的公共安全体验三维场景进行结
构增强,有效标记场景中的物体,并利用用户行为监测算法实时监测用户位置和用户动作,
若监测到用户与公共安全体验三维场景中的物品发生交互动作,则对交互物品进行实时交
互渲染,用户可以实现在不借助复杂穿戴设备或亲临公共安全场景下,就能与公共安全主
题下的物品进行实时交互。
附图说明
图1为本发明一实施例提供的一种公共安全数字互动体验方法的流程示意图;
图2为本发明一实施例提供的公共安全数字互动体验***的功能模块图;
图3为本发明一实施例提供的实现公共安全数字互动体验方法的电子设备的结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种公共安全数字互动体验方法。所述公共安全数字互动体验方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述公共安全数字互动体验方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。
实施例1:
S1:人工输入公共安全体验场景文本,基于输入文本利用扩散模型生成公共安全体验场景图像。
所述S1中人工输入公共安全体验场景文本,包括:
用户在公共安全数字互动体验前向公共安全数字体验***输入公共安全体验场景文本,所述公共安全体验场景文本描述了待体验的公共安全体验场景布置情况以及场景中存在的物品,在本发明实施例中,所述公共安全体验场景包括地震安全体验场景,交通安全体验场景,城市安全体验场景以及应急救护体验场景等。
所述S1中基于输入文本利用扩散模型生成公共安全体验场景图像,包括:
构建扩散模型,将公共安全体验场景文本输入到扩散模型中,扩散模型输出对应的公共安全体验场景图像,所述扩散模型包括文本特征提取层以及图像生成层,所述公共安全体验场景图像的生成流程为:
将公共安全体验场景文本输入到扩散模型的文本特征提取层,文本特征提取层利用独热法对公共安全体验场景文本进行编码处理,利用embedding方法将编码后的文本转换为文本特征向量y;
将文本特征向量y输入到图像生成层,图像生成层基于文本特征向量的引导生成对应的公共安全体验场景图像f,所述公共安全体验场景图像的生成公式为:
其中:
所述S1中所述扩散模型的训练流程包括:
所述图像加噪扩散的流程为:
其中:
S12:在每一步加噪扩散过程中添加高斯噪声所掩盖内容的文本特征向量,得到基于文本特征向量条件的图像加噪扩散流程:
其中:
S13:加噪图像的采样过程即为加噪图像的复原过程,所述基于条件的加噪图像采样公式为:
其中:
S2:基于生成的公共安全体验场景图像进行三维公共安全体验场景重建,得到公共安全体验三维场景。
所述S2中基于生成的公共安全体验场景图像进行三维公共安全体验场景重建,包括:
基于生成的公共安全体验场景图像进行三维公共安全体验场景重建,得到公共安全体验三维场景,所述三维公共安全体验场景的重建流程为:
S22:构建三维网格图像,将公共安全体验场景图像的每个特征向量匹配到三维网
格图像的网格顶点位置,所述三维网格图像中三维网格的边长为,其中v为所生成公
共安全体验场景图像f中行像素的数目,所述特征向量匹配的公式为:
其中:
S23:随机选取三维网格图像中的网格顶点作为初始建模点,选取与初始建模点坐标距离最小的邻近特征向量作为初始建模点的拓扑节点,并连接初始建模点和拓扑节点,寻找与初始建模点以及拓扑节点坐标距离最小的邻近特征向量,连接三个特征向量构成初始三角形;
S24:将所构成三角形的顶点为初始建模点,重复上述步骤,直到将三维网格图像中的所有特征向量相连;
S25:对于连接后的任意三角形,将三角形顶点所对应特征向量的像素分布梯度直方图渲染为三角形区域的像素分布结果,得到公共安全体验三维场景F。
S3:对公共安全体验三维场景进行边缘结构增强。
所述S3中对重建得到的公共安全体验三维场景进行边缘结构增强,包括:
对重建得到的公共安全体验三维场景进行边缘结构增强,所述边缘结构增强的流程为:
其中:
S34:将公共安全体验三维场景中的像素点输入到基于三维滤波系数的滤波器中,所述滤波器的滤波公式为:
其中:
e表示自然常数。
S4:利用用户行为监测算法实时监测用户位置和用户动作。
所述S4中利用用户行为监测算法监测用户位置和用户动作,包括:
利用用户行为监测算法实时监测用户位置和用户动作,所述用户位置和用户动作的监测流程为:
S41:为用户发放交互手环,利用交互手环内的位置传感器以及姿态传感器实时确定用户的位置和姿态信息,其中所述用户的姿态信息包括手臂与身躯的夹角以及手臂的加速度;
S42:计算用户实时位置与公共安全体验三维场景中物品位置的距离,若距离小于预设位置阈值则表示用户处于物品附近;
S43:若监测到用户处于公共安全体验三维场景中物品的附近区域,则将用户的姿态信息输入到交互动作识别模型中,所述交互动作识别模型为二分类模型,输出结果为发生交互动作或未发生交互动作,在本发明实施例中,所述交互动作识别模型的结构为支持向量机模型。
S5:若监测到用户与公共安全体验三维场景中的物品发生交互动作,则对交互物品进行实时交互渲染。
所述S5中当监测到用户与公共安全体验三维场景中的物品发生交互动作,则对交互物品进行实时交互渲染,包括:
预设置所生成公共安全体验三维场景中不同物体的交互响应规则,当监测到用户与公共安全体验三维场景中的物品发生交互动作,则基于交互响应规则对交互物品进行实时交互渲染,所述交互渲染的方式包括基于交互响应规则的交互物品形状重构以及颜色重构。
实施例2:
如图2所示,是本发明一实施例提供的公共安全数字互动体验***的功能模块图,其可以实现实施例1中的公共安全数字互动体验方法。
本发明所述公共安全数字互动体验***100可以安装于电子设备中。根据实现的功能,所述公共安全数字互动体验***可以包括图像生成装置101、三维重建装置102及交互控制装置103。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
图像生成装置101,用于接收公共安全体验场景文本,基于输入文本利用扩散模型生成公共安全体验场景图像;
三维重建装置102,用于基于生成的公共安全体验场景图像进行三维公共安全体验场景重建,对公共安全体验三维场景进行边缘结构增强;
交互控制装置103,用于利用用户行为监测算法实时监测用户位置和用户动作,若监测到用户与公共安全体验三维场景中的物品发生交互动作,则对交互物品进行实时交互渲染。
详细地,本发明实施例中所述公共安全数字互动体验***100中的所述各模块在使用时采用与上述的图1中所述的公共安全数字互动体验方法一样的技术手段,并能够产生相同的技术效果,这里不再赘述。
实施例3:
如图3所示,是本发明一实施例提供的实现公共安全数字互动体验方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11、通信接口13和总线,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如程序12。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card, SMC)、安全数字(SecureDigital, SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如程序12的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(用于实现数字互动体验的程序12等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述通信接口13可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接,并实现电子设备内部组件之间的连接通信。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
图3仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图3示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的程序12是多个指令的组合,在所述处理器10中运行时,可以实现:
接收公共安全体验场景文本,基于文本利用扩散模型生成公共安全体验场景图像;
基于生成的公共安全体验场景图像进行三维公共安全体验场景重建,得到公共安全体验三维场景;
对公共安全体验三维场景进行边缘结构增强;
利用用户行为监测算法实时监测用户位置和用户动作;
若监测到用户与公共安全体验三维场景中的物品发生交互动作,则对交互物品进行实时交互渲染。
具体地,所述处理器10对上述指令的具体实现方法可参考图1至图3对应实施例中相关步骤的描述,在此不赘述。
需要说明的是,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。并且本文中的术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (8)
1.一种公共安全数字互动体验方法,其特征在于,所述方法包括:
S1:人工输入公共安全体验场景文本,基于输入文本利用扩散模型生成公共安全体验场景图像;
S2:基于生成的公共安全体验场景图像进行三维公共安全体验场景重建,得到公共安全体验三维场景;
S3:对公共安全体验三维场景进行边缘结构增强,包括:
对重建得到的公共安全体验三维场景进行边缘结构增强,所述边缘结构增强的流程为:
其中:
偏导矩阵中的值表示公共安全体验三维场景F在任意两个方向的偏导结果;
S34:将公共安全体验三维场景中的像素点输入到基于三维滤波系数的滤波器中,所述滤波器的滤波公式为:
其中:
e表示自然常数;
S4:利用用户行为监测算法实时监测用户位置和用户动作;
S5:若监测到用户与公共安全体验三维场景中的物品发生交互动作,则对交互物品进行实时交互渲染。
2.如权利要求1所述的一种公共安全数字互动体验方法,其特征在于,所述S1中人工输入公共安全体验场景文本,包括:
用户在公共安全数字互动体验前向公共安全数字体验***输入公共安全体验场景文本,所述公共安全体验场景文本描述了待体验的公共安全体验场景布置情况以及场景中存在的物品。
3.如权利要求2所述的一种公共安全数字互动体验方法,其特征在于,所述S1中基于输入文本利用扩散模型生成公共安全体验场景图像,包括:
构建扩散模型,将公共安全体验场景文本输入到扩散模型中,扩散模型输出对应的公共安全体验场景图像,所述扩散模型包括文本特征提取层以及图像生成层,所述公共安全体验场景图像的生成流程为:
将公共安全体验场景文本输入到扩散模型的文本特征提取层,文本特征提取层利用独热法对公共安全体验场景文本进行编码处理,利用embedding方法将编码后的文本转换为文本特征向量y;
将文本特征向量y输入到图像生成层,图像生成层基于文本特征向量的引导生成对应的公共安全体验场景图像f,所述公共安全体验场景图像的生成公式为:
其中:
4.如权利要求3所述的一种公共安全数字互动体验方法,其特征在于,所述S1中所述扩散模型的训练流程包括:
所述图像加噪扩散的流程为:
其中:
S12:在每一步加噪扩散过程中添加高斯噪声所掩盖内容的文本特征向量,得到基于文本特征向量条件的图像加噪扩散流程:
其中:
S13:加噪图像的采样过程即为加噪图像的复原过程,所述基于条件的加噪图像采样公式为:
其中:
5.如权利要求1所述的一种公共安全数字互动体验方法,其特征在于,所述S2中基于生成的公共安全体验场景图像进行三维公共安全体验场景重建,包括:
基于生成的公共安全体验场景图像进行三维公共安全体验场景重建,得到公共安全体验三维场景,所述三维公共安全体验场景的重建流程为:
S22:构建三维网格图像,将公共安全体验场景图像的每个特征向量匹配到三维网格图
像的网格顶点位置,所述三维网格图像中三维网格的边长为,其中v为所生成公共安
全体验场景图像f中行像素的数目,所述特征向量匹配的公式为:
其中:
S23:随机选取三维网格图像中的网格顶点作为初始建模点,选取与初始建模点坐标距离最小的邻近特征向量作为初始建模点的拓扑节点,并连接初始建模点和拓扑节点,寻找与初始建模点以及拓扑节点坐标距离最小的邻近特征向量,连接三个特征向量构成初始三角形;
S24:将所构成三角形的顶点为初始建模点,重复上述步骤,直到将三维网格图像中的所有特征向量相连;
S25:对于连接后的任意三角形,将三角形顶点所对应特征向量的像素分布梯度直方图渲染为三角形区域的像素分布结果,得到公共安全体验三维场景F。
6.如权利要求1所述的一种公共安全数字互动体验方法,其特征在于,所述S4中利用用户行为监测算法监测用户位置和用户动作,包括:
利用用户行为监测算法实时监测用户位置和用户动作,所述用户位置和用户动作的监测流程为:
S41:为用户发放交互手环,利用交互手环内的位置传感器以及姿态传感器实时确定用户的位置和姿态信息,其中所述用户的姿态信息包括手臂与身躯的夹角以及手臂的加速度;
S42:计算用户实时位置与公共安全体验三维场景中物品位置的距离,若距离小于预设位置阈值则表示用户处于物品附近;
S43:若监测到用户处于公共安全体验三维场景中物品的附近区域,则将用户的姿态信息输入到交互动作识别模型中,所述交互动作识别模型为二分类模型,输出结果为发生交互动作或未发生交互动作。
7.如权利要求6所述的一种公共安全数字互动体验方法,其特征在于,所述S5中当监测到用户与公共安全体验三维场景中的物品发生交互动作,则对交互物品进行实时交互渲染,包括:
预设置所生成公共安全体验三维场景中不同物体的交互响应规则,当监测到用户与公共安全体验三维场景中的物品发生交互动作,则基于交互响应规则对交互物品进行实时交互渲染,所述交互渲染的方式包括基于交互响应规则的交互物品形状重构以及颜色重构。
8.一种公共安全数字互动体验***,其特征在于,所述***包括:
图像生成装置,用于接收公共安全体验场景文本,基于输入文本利用扩散模型生成公共安全体验场景图像;
三维重建装置,用于基于生成的公共安全体验场景图像进行三维公共安全体验场景重建,对公共安全体验三维场景进行边缘结构增强;
交互控制装置,用于利用用户行为监测算法实时监测用户位置和用户动作,若监测到用户与公共安全体验三维场景中的物品发生交互动作,则对交互物品进行实时交互渲染,以实现如权利要求1-7所述的一种公共安全数字互动体验方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211532510.4A CN115543095B (zh) | 2022-12-02 | 2022-12-02 | 一种公共安全数字互动体验方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211532510.4A CN115543095B (zh) | 2022-12-02 | 2022-12-02 | 一种公共安全数字互动体验方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115543095A true CN115543095A (zh) | 2022-12-30 |
CN115543095B CN115543095B (zh) | 2023-04-11 |
Family
ID=84721667
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211532510.4A Active CN115543095B (zh) | 2022-12-02 | 2022-12-02 | 一种公共安全数字互动体验方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115543095B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108919954A (zh) * | 2018-06-29 | 2018-11-30 | 蓝色智库(北京)科技发展有限公司 | 一种动态变化场景虚实物体碰撞交互方法 |
CN114399595A (zh) * | 2021-12-29 | 2022-04-26 | 江苏华实广告有限公司 | 三维全景数字展厅的图像自动处理方法、***及终端 |
CN114917590A (zh) * | 2022-07-21 | 2022-08-19 | 广州华立科技股份有限公司 | 一种虚拟现实的游戏*** |
-
2022
- 2022-12-02 CN CN202211532510.4A patent/CN115543095B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108919954A (zh) * | 2018-06-29 | 2018-11-30 | 蓝色智库(北京)科技发展有限公司 | 一种动态变化场景虚实物体碰撞交互方法 |
CN114399595A (zh) * | 2021-12-29 | 2022-04-26 | 江苏华实广告有限公司 | 三维全景数字展厅的图像自动处理方法、***及终端 |
CN114917590A (zh) * | 2022-07-21 | 2022-08-19 | 广州华立科技股份有限公司 | 一种虚拟现实的游戏*** |
Also Published As
Publication number | Publication date |
---|---|
CN115543095B (zh) | 2023-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110852941B (zh) | 一种基于神经网络的二维虚拟试衣方法 | |
CN111047509A (zh) | 一种图像特效处理方法、装置及终端 | |
CN112131985A (zh) | 一种基于OpenPose改进的实时轻量人体姿态估计方法 | |
Chelloug et al. | Real Objects Understanding Using 3D Haptic Virtual Reality for E-Learning Education. | |
CN114241558B (zh) | 模型的训练方法、视频生成方法和装置、设备、介质 | |
CN112381707B (zh) | 图像生成方法、装置、设备以及存储介质 | |
US11741678B2 (en) | Virtual object construction method, apparatus and storage medium | |
CN116309983B (zh) | 虚拟人物模型的训练方法、生成方法、装置和电子设备 | |
CN112699857A (zh) | 基于人脸姿态的活体验证方法、装置及电子设备 | |
Rara et al. | Model-based 3D shape recovery from single images of unknown pose and illumination using a small number of feature points | |
CN116778527A (zh) | 人体模型构建方法、装置、设备及存储介质 | |
CN112669431B (zh) | 图像处理方法、装置、设备、存储介质以及程序产品 | |
CN115543095B (zh) | 一种公共安全数字互动体验方法及*** | |
CN115222895B (zh) | 图像生成方法、装置、设备以及存储介质 | |
CN115311403B (zh) | 深度学习网络的训练方法、虚拟形象生成方法及装置 | |
CN116524162A (zh) | 三维虚拟形象迁移方法、模型更新方法及相关设备 | |
CN113627394B (zh) | 人脸提取方法、装置、电子设备及可读存储介质 | |
CN115035219A (zh) | 表情生成方法、装置和表情生成模型的训练方法、装置 | |
CN114862716A (zh) | 人脸图像的图像增强方法、装置、设备及存储介质 | |
CN113792671A (zh) | 人脸合成图像的检测方法、装置、电子设备及介质 | |
Lee et al. | Hand gesture recognition using blob detection for immersive projection display system | |
CN114821216A (zh) | 图片去网纹神经网络模型建模、使用方法及相关设备 | |
CN112132871A (zh) | 一种基于特征光流信息的视觉特征点追踪方法、装置、存储介质及终端 | |
Yoon et al. | 3D mesh transformation preprocessing system in the real space for augmented reality services | |
CN111582208A (zh) | 用于生成生物体姿态关键点信息的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |