CN113591843A - 仿初级视觉皮层的目标检测方法、装置及设备 - Google Patents

仿初级视觉皮层的目标检测方法、装置及设备 Download PDF

Info

Publication number
CN113591843A
CN113591843A CN202110785155.0A CN202110785155A CN113591843A CN 113591843 A CN113591843 A CN 113591843A CN 202110785155 A CN202110785155 A CN 202110785155A CN 113591843 A CN113591843 A CN 113591843A
Authority
CN
China
Prior art keywords
feature map
layer
image
model
cortex
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110785155.0A
Other languages
English (en)
Other versions
CN113591843B (zh
Inventor
赵小川
史津竹
李陈
刘华鹏
马燕琳
陈路豪
王子彻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China North Computer Application Technology Research Institute
Original Assignee
China North Computer Application Technology Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China North Computer Application Technology Research Institute filed Critical China North Computer Application Technology Research Institute
Priority to CN202110785155.0A priority Critical patent/CN113591843B/zh
Publication of CN113591843A publication Critical patent/CN113591843A/zh
Application granted granted Critical
Publication of CN113591843B publication Critical patent/CN113591843B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本申请实施例提供了一种仿初级视觉皮层的目标检测方法、装置及设备,仿初级视觉皮层的目标检测方法包括:获取图像;通过预设的仿初级视觉感知皮层模型对图像中的特征进行提取,得到第一特征图;仿初级视觉感知皮层模型反映图像与第一特征图的映射关系;仿初级视觉感知皮层模型包括VOneBlock层和第一卷积层;通过预设的目标检测模型在第一特征图中检测设定的目标对象,得到检测结果;其中,在第一特征图中存在目标对象的情况下,检测结果包括目标对象在图像中的位置信息和分类标签;目标检测模型反映第一特征图与检测结果的映射关系;根据检测结果执行对应操作。

Description

仿初级视觉皮层的目标检测方法、装置及设备
技术领域
本公开实施例涉及目标检测技术领域,更具体地,涉及仿初级视觉感知皮层的目标检测方法、装置及设备。
背景技术
目标检测的任务是在静态图像(或者动态视频)中检测出感兴趣的目标对象,是计算机视觉和数字图像处理的一个热门方向,并广泛应用于机器人导航、智能视频监控、工业检测、航空航天等诸多领域。
现有目标检测模型取得了大量研究成果,经典的方法有:Faster-RCNN、SSD、Yolo等,其中Yolo的最新版本已经更新到Yolov5。然而,现有的目标检测模型仍存在以下问题:在存在噪声干扰和AI对抗攻击的复杂环境下,容易发生目标误检和漏检的情况,其环境适应能力弱、鲁棒性差。因此,如何解决上述问题是本领域技术人员亟待解决的问题。
发明内容
本公开的一个目的是提供一种仿初级视觉皮层的目标检测方法、装置及设备的新的技术方案。
根据本公开的第一方面,提供了仿初级视觉皮层的目标检测方法的一个实施例,包括:
获取图像;
通过预设的仿初级视觉感知皮层模型对所述图像中的特征进行提取,得到第一特征图;所述仿初级视觉感知皮层模型反映所述图像与所述第一特征图的映射关系;所述仿初级视觉感知皮层模型包括VOneBlock层和第一卷积层;
通过预设的目标检测模型在所述第一特征图中检测设定的目标对象,得到检测结果;其中,在所述第一特征图中存在所述目标对象的情况下,所述检测结果包括所述目标对象在所述图像中的位置信息和分类标签;所述目标检测模型反映所述第一特征图与所述检测结果的映射关系;
根据所述检测结果执行对应操作。
可选地,所述通过预设的仿初级视觉感知皮层模型在所述图像中提取第一特征图的步骤包括:
通过所述VOneBlock层对所述图像中的特征进行提取,得到第二特征图;
通过所述第一卷积层对所述第二特征图的通道数量进行处理,得到第一特征图;所述第一特征图的通道数量与所述目标检测模型的输入通道数量相同。
可选地,所述仿初级视觉感知皮层模型还包括预处理层和特征融合层;
所述通过预设的仿初级视觉感知皮层模型对所述图像中的特征进行提取,得到第一特征图的步骤包括:
通过所述VOneBlock层对所述图像中的特征进行提取,得到第三特征图;
通过所述预处理层对所述图像中的特征进行提取,得到第四特征图;
通过所述特征融合层对所述第三特征图和所述第四特征图进行融合,得到所述第二特征图;所述第三特征图与所述第四特征图的尺寸相同;
通过所述第一卷积层对所述第二特征图的通道数量进行处理,得到第一特征图;所述第一特征图的通道数量与所述目标检测模型的输入通道数量相同。
可选地,所述预处理层包括聚焦层和第二卷积层;
所述通过所述预处理层对所述图像中的特征进行提取,得到第四特征图的步骤包括:
通过所述聚焦层对所述图像进行隔行采样与堆叠处理,得到下采样后的第五特征图;
通过所述第二卷积层对所述第五特征图进行压缩,得到所述第四特征图。
可选地,所述预处理层包括第三卷积层、C3层和第四卷积层;
所述通过所述预处理层对所述图像中的特征进行提取,得到第四特征图的步骤包括:
通过所述第三卷积层对所述图像进行压缩,得到第六特征图;
通过所述C3层对所述第六特征图进行特征提取,得到第七特征图;
通过所述第四卷积层对所述第七特征图进行压缩,得到所述第四特征图。
可选地,所述特征融合层的特征融合计算式如下:
O=I1+I2
式中,O为所述第二特征图对应的特征矩阵,I1为所述第三特征图对应的特征矩阵,I2为所述第四特征图对应的特征矩阵。
可选地,所述目标检测模型的构建步骤包括:
获取所述VOneBlock层的滑动窗口步长值的倒数值;
确定选定的目标检测模型中输入特征图尺寸为所述滑动窗口步长值倒数值乘以输入图像尺寸的第一网络层;
在所述选定的目标检测模型中截取包括所述第一网络层以及所述第一网络层以后的网络层作为所述目标检测模型。
根据本公开的第二方面,提供了仿初级视觉皮层的目标检测装置的一个实施例,包括:
图像获取模块,用于获取图像;
预处理模块,用于通过预设的仿初级视觉感知皮层模型对所述图像中的特征进行提取,得到第一特征图;所述仿初级视觉感知皮层模型反映所述图像与所述第一特征图的映射关系;所述仿初级视觉感知皮层模型包括VOneBlock层和第一卷积层;
目标检测模块,用于通过预设的目标检测模型在所述第一特征图中检测设定的目标对象,得到检测结果;其中,在所述第一特征图中存在所述目标对象的情况下,所述检测结果包括所述目标对象在所述图像中的位置信息和分类标签;所述目标检测模型反映所述第一特征图与所述检测结果的映射关系;
控制模块,用于根据所述检测结果执行对应操作。
根据本公开的第三方面,提供了目标检测设备的一个实施例,包括处理器和存储器,所述存储器用于存储计算机程序,所述计算机程序用于控制所述处理器执行本说明书第一方面所述的方法。
本公开实施例的一个有益效果在于,VOneBlock层是根据灵长类动物的初级视觉皮层(也称为V1区域)构建的神经网络层,可以模仿人脑视觉进行图像特征提取,因此,通过包括VOneBlock层的仿初级视觉感知皮层模型对图像中的特征进行提取,可以得到更接近人脑视觉处理后的特征的第一特征图;通过预设的目标检测模型在第一特征图中检测设定的目标对象,可以显著提高在高噪声干扰和AI对抗攻击的复杂环境下进行目标检测的准确性。
通过以下参照附图对本说明书的示例性实施例的详细描述,本说明书的其它特征及其优点将会变得清楚。
附图说明
被结合在说明书中并构成说明书的一部分的附图示出了本说明书的实施例,并且连同其说明一起用于解释本说明书的原理。
图1是可用于实现本公开实施例的仿初级视觉皮层的目标检测方法的***的结构示意图;
图2是根据一个实施例的仿初级视觉皮层的目标检测方法的流程示意图;
图3是根据一个实施例的仿初级视觉感知皮层模型的框架示意图;
图4是根据又一个实施例的仿初级视觉感知皮层模型的框架示意图;
图5是根据再一个实施例的仿初级视觉感知皮层模型的框架示意图;
图6是根据另一个实施例的仿初级视觉感知皮层模型的框架示意图;
图7是根据一个实施例的目标检测模型的框架示意图;
图8是根据一个实施例的仿初级视觉皮层的目标检测方法的示例的流程示意图;
图9是根据一个实施例的第一基础模型和第二基础模型的训练过程数据曲线;
图10是根据一个实施例的仿初级视觉皮层的目标检测装置的原理框图;
图11是根据一个实施例的目标检测设备的硬件结构示意图。
具体实施方式
现在将参照附图来详细描述本公开的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
<硬件配置>
图1是可用于实现本公开实施例的仿初级视觉皮层的目标检测方法的***的结构示意图。
如图1所示,该***包括目标检测设备1000和图像采集设备2000。目标检测设备1000与图像采集设备2000可以进行有线或者无线连接。
图像采集设备2000,可以是摄像头,可以是摄像机,还可以是摄影机,还可以是具有图像采集功能的其他设备,在本实施例中不对图像采集设备做具体限定。
目标检测设备1000可以是智能手机、便携式电脑、台式计算机、平板电脑、服务器等,在此不做限定。
目标检测设备1000可以包括但不限于处理器1100、存储器1200、接口装置1300、通信装置1400、显示装置1500、输入装置1600、扬声器1700、麦克风1800等等。其中,处理器1100可以是中央处理器CPU、图形处理器GPU、微处理器MCU等,用于执行计算机程序,该计算机程序可以采用比如x86、Arm、RISC、MIPS、SSE等架构的指令集编写。存储器1200例如包括ROM(只读存储器)、RAM(随机存取存储器)、诸如硬盘的非易失性存储器等。接口装置1300例如包括USB接口、串行接口、并行接口等。通信装置1400例如能够利用光纤或电缆进行有线通信,或者进行无线通信,具体地可以包括WiFi通信、蓝牙通信、2G/3G/4G/5G通信等。显示装置1500例如是液晶显示屏、触摸显示屏等。输入装置1600例如可以包括触摸屏、键盘、体感输入等。扬声器1700用于输出音频信号。麦克风1800用于采集音频信号。
应用于本公开实施例中,目标检测设备1000的存储器1200用于存储计算机程序,该计算机程序用于控制所述处理器1100进行操作以实现根据本公开实施例的方法。技术人员可以根据本公开所公开方案设计该计算机程序。该计算机程序如何控制处理器进行操作,这是本领域公知,故在此不再详细描述。目标检测设备1000可以安装有智能操作***(例如Windows、Linux、安卓、IOS等***)和应用软件。
本领域技术人员应当理解,尽管在图1中示出了目标检测设备1000的多个装置,但是,本公开实施例的目标检测设备1000可以仅涉及其中的部分装置,例如,只涉及处理器1100和存储器1200等。
下面,参照附图描述根据本发明的各个实施例和例子。
<方法实施例一>
图2是根据一个实施例的仿初级视觉皮层的目标检测方法的流程示意图,该实施例可以由目标检测设备实施。
如图2所示,本实施例的仿初级视觉皮层的目标检测方法可以包括步骤S2100-步骤S2400。
步骤S2100,获取图像。
该图像可以是通过摄像机直接获取的图像,也可以是从视频中提取出的图像帧,还可以是从获取图像中截取出的感兴趣区域图像。
步骤S2200,通过预设的仿初级视觉感知皮层模型对图像中的特征进行提取,得到第一特征图;仿初级视觉感知皮层模型反映图像与第一特征图的映射关系;仿初级视觉感知皮层模型包括VOneBlock层和第一卷积层。
在本公开的一个实施例中,仿初级视觉感知皮层模型的框架示意图如图3所示,包括VOneBlock层和第一卷积层。
该VOneBlock层是根据灵长类动物的初级视觉皮层(也称为V1区域)构建的神经网络层,采用Gabor滤波器为核心组件,模拟人类视觉感知皮层信息处理机理对输入图像进行仿生视觉特征提取,因此,通过包括VOneBlock层的仿初级视觉感知皮层模型对图像中的特征进行提取,可以得到更接近人脑视觉处理后特征的第一特征图。
在本实施例中,通过预设的仿初级视觉感知皮层模型在图像中提取第一特征图的步骤包括步骤S2211-步骤S2212。
步骤S2211,通过VOneBlock层对图像中的特征进行提取,得到第二特征图。
该VOneBlock层的可调参数包括:输入通道、输出通道和滑动窗口步长。其中,输入通道数根据输入图像的特征确定。例如,对于彩色图,输入通道数为3。又如,对于灰度图,输入通道数为1。滑动窗口步长可以预先根据应用场景或具体需求所设定。在一些场景下滑动窗口步长可以是2的倍数。例如,滑动窗口步长可以是2,可以是4,还可以是8。输出通道数可以预先根据应用场景或具体需求所设定,也可以与现有VOneBlock层保持一致。例如,该VOneBlock层的输出通道数可以是32。该VOneBlock层的其他参数与现有的VOneBlock层保持一致。
步骤S2212,通过第一卷积层对第二特征图的通道数量进行处理,得到第一特征图。第一特征图的通道数量与目标检测模型的输入通道数量相同。
该第一卷积层的可调参数包括:输入通道、输出通道、卷积核尺寸和滑动窗口步长。其中,第一卷积层的输入通道数等于VOneBlock层的输出通道数。第一卷积层的输出通道数根据目标检测模型的输入通道数设置。第一卷积层的卷积核尺寸可以为1×1。第一卷积层的滑动窗口步长可以为1。
在本公开的又一个实施例中,仿初级视觉感知皮层模型框架示意图如图4所示,还包括预处理层和特征融合层。
在本实施例中,通过预设的仿初级视觉感知皮层模型对图像中的特征进行提取,得到第一特征图的步骤包括步骤S2221-步骤S2224:
步骤S2221,通过VOneBlock层对图像中的特征进行提取,得到第三特征图。
该VOneBlock层的参数设置与步骤S2211中一致,在此不再赘述。
步骤S2222,通过预处理层对图像中的特征进行提取,得到第四特征图。
该预处理层可调参数包括:输入通道数和输出通道数。其中,预处理层的输入通道数、输出通道数、输入图像尺寸以及输出特征图的尺寸均与步骤S2211中的VOneBlock层的保持一致,在此不再赘述。
步骤S2223,通过特征融合层对第三特征图和第四特征图进行融合,得到第二特征图;第三特征图与第四特征图的尺寸相同。
该第三特征图与第四特征图的尺寸均为H×W×C×B,其中,H为特征图的高度,W为特征图的宽度,C为特征图的通道数,B为特征图的数量。
在本公开的一个实施例中,特征融合层的特征融合计算式如下:
O=I1+I2
式中,O为第二特征图对应的特征矩阵,I1为第三特征图对应的特征矩阵,I2为第四特征图对应的特征矩阵。
步骤S2224,通过第一卷积层对第二特征图的通道数量进行处理,得到第一特征图;第一特征图的通道数量与目标检测模型的输入通道数量相同。
该第一卷积层与步骤S2212中一致,在此不再赘述。
在本公开的再一个实施例中,仿初级视觉感知皮层模型框架示意图如图5所示,其中,仿初级视觉感知皮层模型中的预处理层包括聚焦层和第二卷积层。
在本实施例中,步骤S2222,通过预处理层对图像中的特征进行提取,得到第四特征图的步骤包括步骤S2222-1至步骤S2222-2。
步骤S2222-1,通过聚焦层对图像进行隔行采样与堆叠处理,得到下采样后的第五特征图。
该聚焦层的可调参数包括输入通道数、输出通道数、卷积核尺寸和滑动窗口步长。其中,聚焦层的输入通道数与VOneBlock层保持一致,在此不再赘述。聚焦层的输出通道数与第二卷积层的输入通道数保持一致,例如,聚焦层的输出通道数和第二卷积层的输入通道数可以为16。聚焦层的卷积核尺寸可以是3×3。聚焦层的滑动窗口步长可以是1。
步骤S2222-2,通过第二卷积层对第五特征图进行压缩,得到第四特征图。
该第二卷积层可调参数包括输入通道数、输出通道数、卷积核尺寸和滑动窗口步长。其中,第二卷积层输入通道数与聚焦层的输出通道数保持一致,例如,聚焦层的输出通道数和第二卷积层的输入通道数可以为16。第二卷积层的输出通道数与VOneBlock层保持一致,在此不再赘述。第二卷积层的卷积核尺寸可以为3×3。第二卷积层的滑动窗口步长为VOneBlock层滑动窗口步长的一半。例如,VOneBlock层滑动窗口步长为4时,第二卷积层的滑动窗口步长为2。
在本公开另的一个实施例中,仿初级视觉感知皮层模型框架示意图如图6所示,其中,仿初级视觉感知皮层模型中的预处理层包括第三卷积层、C3层和第四卷积层。
在本实施例中,通过预处理层对图像中的特征进行提取,得到第四特征图的步骤包括步骤S2231-步骤S2233。
步骤S2231,通过第三卷积层对图像进行压缩,得到第六特征图。
该第三卷积层可调参数包括输入通道数、输出通道数、卷积核尺寸和滑动窗口步长。其中,第三卷积层的输入通道数与VOneBlock层保持一致,在此不再赘述。第三卷积层的输出通道数与C3层的输入通道数相同。例如,第三卷积层的输出通道数和C3层的输入通道数可以为16。第三卷积层的卷积核尺寸可以是3×3。第三卷积层的滑动窗口步长与第四卷积层的滑动窗口步长的乘积等于VOneBlock层的滑动窗口步长。例如,在VOneBlock层的滑动窗口步长为4时,第三卷积层的滑动窗口步长与第四卷积层的滑动窗口步长的均可以是2。
步骤S2232,通过C3层对第六特征图进行特征提取,得到第七特征图。
该C3层可调参数包括输入通道数、输出通道数、卷积核尺寸和滑动窗口步长。其中,C3层的输出通道数与C3层的输入通道数相同。例如,C3层的输入通道数为16时,C3层的输出通道数为16。C3层的其他参数与现有Yolov5中的C3层的默认设置保持一致。
步骤S2233,通过第四卷积层对第七特征图进行压缩,得到第四特征图。
该第四卷积层可调参数包括输入通道数、输出通道数、卷积核尺寸和滑动窗口步长。其中,第四卷积层的输入通道数与C3层的输出通道数相同。例如,C3层的输出通道数为16时,第四卷积层的输入通道数为16。第四卷积层的输出通道数与VOneBlock层的输出通道数保持一致,在此不再赘述。第四卷积层的卷积核尺寸可以是3×3。第四卷积层的滑动窗口步长在步骤S2231中已经限定,在此不再赘述。
步骤S2300,通过预设的目标检测模型在第一特征图中检测设定的目标对象,得到检测结果;其中,在第一特征图中存在目标对象的情况下,检测结果包括目标对象在图像中的位置信息和分类标签;目标检测模型反映第一特征图与检测结果的映射关系。
该目标检测模型可以基于Faster-RCNN算法构建,还可以基于SSD算法构建,还可以基于Yolo算法构建,还可以基于任意一个可以实现目标检测功能的算法构建。本申请中对目标检测模型的构建算法不做具体限定。
在本公开的一个实施例中,目标检测模型的构建步骤包括步骤S2310-步骤S2330。
步骤S2310,获取VOneBlock层的滑动窗口步长值的倒数值。
在本公开的一个实施例中,目标检测模型基于Yolov5s算法构建。
在本实施例中,VOneBlock层的滑动窗口步长值为4,VOneBlock层的滑动窗口步长值的倒数值1/4。
步骤S2320,确定选定的目标检测模型中输入特征图尺寸为滑动窗口步长值倒数值乘以输入图像尺寸的第一网络层。
在目标检测模型基于Yolov5s算法构建的实施例中,选定的目标检测模型即基于Yolov5s算法构建目标检测模型。在本实施例中,Yolov5s中的第3个网络层输入特征图的尺寸为输入图像尺寸的1/4,即第一网络层为Yolov5s中的第3个网络层(即C3层)。
步骤S2330,在选定的目标检测模型中截取包括第一网络层以及第一网络层以后的网络层作为目标检测模型。
在目标检测模型基于Yolov5s算法构建的实施例中,在基于Yolov5s算法构建目标检测模型中截取第3个网络层及第3个网络层以后的网络作为目标检测模型。本实施例中,目标检测模型的框架示意图如图7所示,其中,模块1为仿初级视觉感知皮层模型,模块2为目标检测模型。在本实施例中,目标检测模型的输入通道数为64。
步骤S2400,根据检测结果执行对应操作。
在本公开的一个实施例中,目标检测的应用场景为在低光照环境的地下停车场进行人员搜救。在该场景下,当检测结果中包括人员的位置信息和分类标签时,执行的对应操作包括:根据被困人员在图像中的位置信息确定被困人员在地下停车场中的空间位置,并将该空间位置反馈给救援人员,救援人员根据该空间位置展开救援。在该场景下,采用本申请的目标检测方法在面对地下环境存在的光照变化等噪声干扰时,相比Yolov5s可以对人员进行较准确的目标检测。
在本公开的一个实施例中,目标检测的应用场景为在无人驾驶中基于识别到的交通标志规划车辆的行驶策略。在该场景下,当检测结果中包括交通标志的位置信息和分类标签时,执行的对应操作包括:根据图像中交通标志位置信息确定交通标志的空间位置,根据分类标签确定交通标志的类型。根据用户的需求、交通标志的空间位置以及交通标志的分类标签规划车辆的行驶策略。例如,接收到用户需要停车休息的请求且分类标签为停车标志时,无人驾驶车辆根据停车标志的空间位置规划到达停车场的路线并在到达指定停车位时停车。在该场景中,采用发明的目标检测方法在面对采用人工智能对抗技术对交通标志施加噪声干扰时,相比Yolov5s可以较准确的检测到交通标志牌,供无人驾驶车辆进行自主决策和行驶,提高自动驾驶的安全性。
在不同的应用场景下,还可以根据检测结果执行其他对应的操作,本申请中对执行的对应操作不做具体限定。
在本公开的一个实施例中,将仿初级视觉感知皮层模型与目标检测模型串联构成目标检测模型,目标检测模型用于对获取图像中的设定目标对象进行检测,得到检测结果。在图像中存在目标对象的情况下,检测结果包括目标对象在图像中的位置信息和分类标签;目标检测模型反映图像与检测结果的映射关系。
<示例>
图8是根据一个实施例的仿初级视觉皮层的目标检测方法的示例的流程示意图。
如图8所示,该方法可以包括步骤S3100-步骤S3400。
步骤S3100,通过无人驾驶车辆的车载摄像头获取的道路场景的实时图像。该图像为彩色图像。
步骤S3200,通过仿初级视觉感知皮层模型对道路场景的实时图像中的特征进行提取,得到第一特征图;仿初级视觉感知皮层模型包括VOneBlock层、聚焦层、第二卷积层、特征融合层以及第一卷积层。
该VOneBlock层的输入通道数可以是3,输出通道数可以是32,滑动窗口步长可以是4。该VOneBlock层的其他参数可以与现有的VOneBlock层保持一致。
该聚焦层的输入通道数可以是3,输出通道数可以是16,卷积核尺寸可以是3*3,滑动窗口步长可以是1。
该第二卷积层输入通道数可以是16,输出通道数可以是32,卷积核尺寸可以是3*3,滑动窗口步长可以是2。
该特征融合层的输入通道数可以是32,输出通道数可以是32,特征融合层的特征融合计算式如下:
O=I1+I2
式中,O为第二特征图对应的特征矩阵,I1为第三特征图对应的特征矩阵,I2为第四特征图对应的特征矩阵。
该第一卷积层的输入通道数可以是32,输出通道数可以是64,卷积核尺寸可以是1*1,滑动窗口步长可以是1。
本实施例中,通过仿初级视觉感知皮层模型对道路场景的实时图像中的特征进行提取,得到第一特征图的步骤包括步骤S3210-步骤S3250。
步骤S3210,通过聚焦层对道路场景的实时图像进行隔行采样与堆叠处理,得到下采样后的第五特征图。
步骤S3220,通过第二卷积层对第五特征图进行压缩,得到第四特征图。
步骤S3230,通过VOneBlock层对道路场景的实时图像中的特征进行提取,得到第三特征图。
步骤S3240,通过特征融合层对第三特征图和第四特征图进行融合,得到第二特征图;第三特征图与第四特征图的尺寸相同。
步骤S3250,通过第一卷积层对第二特征图的通道数量进行处理,得到第一特征图。
步骤S3300,通过预设的目标检测模型在第一特征图中检测交通标识,得到检测结果;其中,在第一特征图中存在交通标识目的情况下,检测结果包括交通标识在道路场景的实时图像中的位置信息和分类标签;目标检测模型反映第一特征图与检测结果的映射关系。
该目标检测模型为基于Yolov5s算法构建目标检测模型。该目标检测模型的构建步骤包括步骤S3310-步骤S3330。
步骤S3310,获取VOneBlock层的滑动窗口步长值的倒数值。在本实施例中,该倒数值为1/4。
步骤S3320,确定基于Yolov5s算法构建目标检测模型中输入特征图尺寸为输入图像尺寸的1/4的网络层,本实施例中为基于Yolov5s算法构建目标检测模型中的第3个网络层即C3层。
步骤S3330,在Yolov5s目标检测模型中截取包括第3个网络层以及第3个网络层以后的网络层作为目标检测模型。在本实施例中,目标检测模型的输入通道数为64。
步骤S3400,根据检测结果执行对应操作。
在本实施例中,当检测结果中包括交通标志的位置信息和分类标签时,执行的对应操作包括:根据图像中交通标志位置信息确定交通标志的空间位置,根据分类标签确定交通标志的类型。根据用户的需求、交通标志的空间位置以及交通标志的分类标签规划车辆的行驶策略。例如,接收到用户需要停车休息的请求且分类标签为停车标志时,无人驾驶车辆根据停车标志的空间位置规划到达停车场的路线并在到达指定停车位时停车。在该场景中采用发明的目标检测方法在面对采用人工智能对抗技术对交通标志施加噪声干扰时,相比Yolov5s可以较准确的检测到交通标志牌,供无人驾驶车辆进行自主决策和行驶,提高自动驾驶的安全性。
在本公开的一个实施例子中,在步骤S3100前,还包括将本实施例中的仿初级视觉感知皮层模型对应基础模型和目标检测模型对应基础模型串联成构成第一基础模型(VOneBlock层并联在模型中),采用coco 2017公开数据集中的train2017训练集对第一基础模型进行训练,训练回合epochs设置为300回合,第一基础模型训练的图像尺寸为640。第一基础模型训练的损失函数和超参数设置与现有网络Yolov5s保持一致。
同时,还包括将入图3所示的仿初级视觉感知皮层模型对应基础模型和本实施例中的目标检测模型对应基础模型串联成构成第二基础模型(VOneBlock层串联在模型中),采用同样的训练数据和训练方法对第二基础模型进行训练。
第一基础模型和第二基础模型的训练过程数据曲线如图9所示,图9采用Yolov5s提供的训练结果绘制工具生成,其中符号标记“①”的results01代表了第一基础模型的训练过程数据,符号标记“②”的results02代表了第二基础模型的训练过程数据,图9中的横轴表示训练回合数epochs。由图9可得,在训练相同的回合数epochs情况下,第一基础模型相比第二基础模型的各项训练性能指标更优。
图9中,第1行是在训练集下的训练过程曲线,其中,“Box”为训练集上的目标框损失,“Objectness”为训练集上的目标对象损失,“Classification”为训练集上的目标分类损失,“Precision”为训练集上的精准率,“Recall”为训练集上的召回率。第2行是在验证集下的训练过程曲线,其中,“val Box”为验证集上的目标框损失,“valObjectness”为验证集上的目标对象损失,“val Classification”为验证集上的目标分类损失,“[email protected]”为验证集上IOU为0.5下的均值平均精度,“[email protected]:0.95”为验证集上IOU为0.5~0.95下的均值平均精度。
将图4所示的仿初级视觉感知皮层模型对应基础模型和本实施例中的目标检测模型对应基础模型串联成构成第三基础模型(VOneBlock层并联在模型中),将图6所示的仿初级视觉感知皮层模型对应基础模型和本实施例中的目标检测模型对应基础模型串联成构成第四基础模型(VOneBlock层并联在模型中),采用同样的训练数据和训练方法对第三基础模型以及第四基础模型进行训练。
将第三基础模型以及第四基础模型的训练过程数据曲线与第二基础模型的训练过程数据曲线对比可知,第三基础模型以及第四基础模型的各项训练性能指标均优于第二基础模型。
由以上实验可知,VOneBlock层并联构成的基础模型(如第一基础模型、第三基础模型、第四基础模型)各项训练性能指标均优于VOneBlock层串连构成的基础模型(如第二基础模型)。
产生这种现象的原因分析:现有的VoneNets是目标分类模型,其中采用的仿视觉皮层模块VOneBlock采用了Gabor滤波器以及添加随机噪声训练等方法,可以提高目标分类模型的鲁棒性。但由于本发明关注的是目标检测模型的综合性能,目标检测模型不仅需要得到1幅图像中的多个目标的种类,同时还需要得到目标在图像中的准确位置,由于两类模型的训练方法、网络参数存在较大差异,因此,通过将VOneBlock层并联构成的基础模型(如第一目标检测模型、第三目标检测模型、第四目标检测模型)比VOneBlock层串连构成的基础模型(如第二目标检测模型)可以得到更优的训练结果。
本发明攻克了VOneBlock与现有目标检测模型无法有效融合的技术难题,将VOneBlock应用于目标检测领域,较大提高了在噪声干扰和AI对抗攻击的复杂环境下进行目标检测的准确性。
<装置实施例>
图10是根据一个实施例的仿初级视觉皮层的目标检测装置的原理框图。如图10所示,该仿初级视觉皮层的目标检测装置4000可以包括:
图像获取模块4100,用于获取图像。
预处理模块4200,用于通过预设的仿初级视觉感知皮层模型对图像中的特征进行提取,得到第一特征图;仿初级视觉感知皮层模型反映图像与第一特征图的映射关系;仿初级视觉感知皮层模型包括VOneBlock层和第一卷积层。
目标检测模块4300,用于通过预设的目标检测模型在第一特征图中检测设定的目标对象,得到检测结果;其中,在第一特征图中存在目标对象的情况下,检测结果包括目标对象在图像中的位置信息和分类标签;目标检测模型反映第一特征图与检测结果的映射关系。
控制模块4400,用于根据检测结果执行对应操作。
<设备实施例>
图11是根据一个实施例的目标检测设备的硬件结构示意图。
如图11所示,该目标检测设备5000包括处理器5100和存储器5200,该存储器5200用于存储可执行的计算机程序,该处理器5100用于根据该计算机程序的控制,执行如以上任意方法实施例的方法。
该目标检测设备5000可以是图1中的目标检测设备1000。
以上目标检测设备5000的各模块可以由本实施例中的处理器5100执行存储器5200存储的计算机程序实现,也可以通过其他电路结构实现,在此不做限定。本说明书的一个实施例或者多个实施例可以是***、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本说明书的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本说明书实施例操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本说明书的各个方面。
这里参照根据本说明书实施例的方法、装置(***)和计算机程序产品的流程图和/或框图描述了本说明书的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本说明书的多个实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。对于本领域技术人物来说公知的是,通过硬件方式实现、通过软件方式实现以及通过软件和硬件结合的方式实现都是等价的。
以上已经描述了本说明书的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人物来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人物能理解本文披露的各实施例。本申请的范围由所附权利要求来限定。

Claims (9)

1.一种仿初级视觉皮层的目标检测方法,其特征在于,包括:
获取图像;
通过预设的仿初级视觉感知皮层模型对所述图像中的特征进行提取,得到第一特征图;所述仿初级视觉感知皮层模型反映所述图像与所述第一特征图的映射关系;所述仿初级视觉感知皮层模型包括VOneBlock层和第一卷积层;
通过预设的目标检测模型在所述第一特征图中检测设定的目标对象,得到检测结果;其中,在所述第一特征图中存在所述目标对象的情况下,所述检测结果包括所述目标对象在所述图像中的位置信息和分类标签;所述目标检测模型反映所述第一特征图与所述检测结果的映射关系;
根据所述检测结果执行对应操作。
2.根据权利要求1所述的方法,其特征在于,所述通过预设的仿初级视觉感知皮层模型在所述图像中提取第一特征图的步骤包括:
通过所述VOneBlock层对所述图像中的特征进行提取,得到第二特征图;
通过所述第一卷积层对所述第二特征图的通道数量进行处理,得到第一特征图;所述第一特征图的通道数量与所述目标检测模型的输入通道数量相同。
3.根据权利要求2所述的方法,其特征在于,所述仿初级视觉感知皮层模型还包括预处理层和特征融合层;
所述通过预设的仿初级视觉感知皮层模型对所述图像中的特征进行提取,得到第一特征图的步骤包括:
通过所述VOneBlock层对所述图像中的特征进行提取,得到第三特征图;
通过所述预处理层对所述图像中的特征进行提取,得到第四特征图;
通过所述特征融合层对所述第三特征图和所述第四特征图进行融合,得到所述第二特征图;所述第三特征图与所述第四特征图的尺寸相同;
通过所述第一卷积层对所述第二特征图的通道数量进行处理,得到第一特征图;所述第一特征图的通道数量与所述目标检测模型的输入通道数量相同。
4.根据权利要求3所述的方法,其特征在于,所述预处理层包括聚焦层和第二卷积层;
所述通过所述预处理层对所述图像中的特征进行提取,得到第四特征图的步骤包括:
通过所述聚焦层对所述图像进行隔行采样与堆叠处理,得到下采样后的第五特征图;
通过所述第二卷积层对所述第五特征图进行压缩,得到所述第四特征图。
5.根据权利要求3所述的方法,其特征在于,所述预处理层包括第三卷积层、C3层和第四卷积层;
所述通过所述预处理层对所述图像中的特征进行提取,得到第四特征图的步骤包括:
通过所述第三卷积层对所述图像进行压缩,得到第六特征图;
通过所述C3层对所述第六特征图进行特征提取,得到第七特征图;
通过所述第四卷积层对所述第七特征图进行压缩,得到所述第四特征图。
6.根据权利要求3所述的方法,其特征在于,所述特征融合层的特征融合计算式如下:
O=I1+I2
式中,O为所述第二特征图对应的特征矩阵,I1为所述第三特征图对应的特征矩阵,I2为所述第四特征图对应的特征矩阵。
7.根据权利要求1所述的方法,其特征在于,所述目标检测模型的构建步骤包括:
获取所述VOneBlock层的滑动窗口步长值的倒数值;
确定选定的目标检测模型中输入特征图尺寸为所述滑动窗口步长值倒数值乘以输入图像尺寸的第一网络层;
在所述选定的目标检测模型中截取包括所述第一网络层以及所述第一网络层以后的网络层作为所述目标检测模型。
8.一种仿初级视觉皮层的目标检测装置,其特征在于,包括:
图像获取模块,用于获取图像;
预处理模块,用于通过预设的仿初级视觉感知皮层模型对所述图像中的特征进行提取,得到第一特征图;所述仿初级视觉感知皮层模型反映所述图像与所述第一特征图的映射关系;所述仿初级视觉感知皮层模型包括VOneBlock层和第一卷积层;
目标检测模块,用于通过预设的目标检测模型在所述第一特征图中检测设定的目标对象,得到检测结果;其中,在所述第一特征图中存在所述目标对象的情况下,所述检测结果包括所述目标对象在所述图像中的位置信息和分类标签;所述目标检测模型反映所述第一特征图与所述检测结果的映射关系;
控制模块,用于根据所述检测结果执行对应操作。
9.一种目标检测设备,其特征在于,包括处理器和存储器,所述存储器用于存储计算机程序,所述计算机程序用于控制所述处理器执行所述权利要求1-7任一项所述的方法。
CN202110785155.0A 2021-07-12 2021-07-12 仿初级视觉皮层的目标检测方法、装置及设备 Active CN113591843B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110785155.0A CN113591843B (zh) 2021-07-12 2021-07-12 仿初级视觉皮层的目标检测方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110785155.0A CN113591843B (zh) 2021-07-12 2021-07-12 仿初级视觉皮层的目标检测方法、装置及设备

Publications (2)

Publication Number Publication Date
CN113591843A true CN113591843A (zh) 2021-11-02
CN113591843B CN113591843B (zh) 2024-04-09

Family

ID=78246952

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110785155.0A Active CN113591843B (zh) 2021-07-12 2021-07-12 仿初级视觉皮层的目标检测方法、装置及设备

Country Status (1)

Country Link
CN (1) CN113591843B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080071710A1 (en) * 2006-09-01 2008-03-20 Massachusetts Institute Of Technology High-performance vision system exploiting key features of visual cortex
CN102306301A (zh) * 2011-08-26 2012-01-04 中南民族大学 模拟初级视皮层脉冲神经元的动作识别***
CN105405132A (zh) * 2015-11-04 2016-03-16 河海大学 基于视觉反差和信息熵的sar图像人造目标检测方法
CN109345589A (zh) * 2018-09-11 2019-02-15 百度在线网络技术(北京)有限公司 基于自动驾驶车辆的位置检测方法、装置、设备及介质
CN109711420A (zh) * 2018-12-20 2019-05-03 湖南商学院 基于人类视觉注意机制的多仿射目标的检测与识别方法
CN109993707A (zh) * 2019-03-01 2019-07-09 华为技术有限公司 图像去噪方法和装置
CN110309876A (zh) * 2019-06-28 2019-10-08 腾讯科技(深圳)有限公司 目标检测方法、装置、计算机可读存储介质和计算机设备
CN110688951A (zh) * 2019-09-26 2020-01-14 上海商汤智能科技有限公司 图像处理方法及装置、电子设备和存储介质
WO2021082231A1 (zh) * 2019-10-29 2021-05-06 北京市商汤科技开发有限公司 目标检测方法及装置、电子设备和存储介质

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080071710A1 (en) * 2006-09-01 2008-03-20 Massachusetts Institute Of Technology High-performance vision system exploiting key features of visual cortex
CN102306301A (zh) * 2011-08-26 2012-01-04 中南民族大学 模拟初级视皮层脉冲神经元的动作识别***
CN105405132A (zh) * 2015-11-04 2016-03-16 河海大学 基于视觉反差和信息熵的sar图像人造目标检测方法
CN109345589A (zh) * 2018-09-11 2019-02-15 百度在线网络技术(北京)有限公司 基于自动驾驶车辆的位置检测方法、装置、设备及介质
CN109711420A (zh) * 2018-12-20 2019-05-03 湖南商学院 基于人类视觉注意机制的多仿射目标的检测与识别方法
CN109993707A (zh) * 2019-03-01 2019-07-09 华为技术有限公司 图像去噪方法和装置
CN110309876A (zh) * 2019-06-28 2019-10-08 腾讯科技(深圳)有限公司 目标检测方法、装置、计算机可读存储介质和计算机设备
CN110688951A (zh) * 2019-09-26 2020-01-14 上海商汤智能科技有限公司 图像处理方法及装置、电子设备和存储介质
US20210117674A1 (en) * 2019-09-26 2021-04-22 Shanghai Sensetime Intelligent Technology Co., Ltd. Image processing method and device and storage medium
WO2021082231A1 (zh) * 2019-10-29 2021-05-06 北京市商汤科技开发有限公司 目标检测方法及装置、电子设备和存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JOEL DAPELLO ET AL: "simulating a primary visual cortex at the front of cnns improves robustness to image perturbations Paper", 《NEURIPS 2020》, pages 1 - 15 *
胡晓光;高树辉;李卉;钟成;程承旗;: "基于仿生视觉的海面船只检测方法", 红外与激光工程, no. 02, pages 260 - 263 *
郭爱克, 杨先一: "视觉运动感知的神经网络研究", 中国科学B辑, no. 04, pages 48 - 56 *

Also Published As

Publication number Publication date
CN113591843B (zh) 2024-04-09

Similar Documents

Publication Publication Date Title
CN108632530B (zh) 一种车辆定损的数据处理方法、装置、设备及客户端、电子设备
CN110221690B (zh) 基于ar场景的手势交互方法及装置、存储介质、通信终端
EP3467707B1 (en) System and method for deep learning based hand gesture recognition in first person view
US20200364802A1 (en) Processing method, processing apparatus, user terminal and server for recognition of vehicle damage
WO2019214313A1 (zh) 一种车辆定损的交互处理方法、装置、处理设备及客户端
CN110136091B (zh) 图像处理方法及相关产品
CN110348463B (zh) 用于识别车辆的方法和装置
CN108765333B (zh) 一种基于深度卷积神经网络的深度图完善方法
CN107084740B (zh) 一种导航方法和装置
CN114494487B (zh) 基于全景图语义拼接的户型图生成方法、设备及存储介质
CN110910628B (zh) 车损图像拍摄的交互处理方法、装置、电子设备
CN111435422B (zh) 动作识别方法、控制方法及装置、电子设备和存储介质
US11386287B2 (en) Method and apparatus for computer vision
CN113393448A (zh) 一种形变检测方法、装置、设备及计算机可读存储介质
CN113378605A (zh) 多源信息融合方法及装置、电子设备和存储介质
CN109903308B (zh) 用于获取信息的方法及装置
CN111310595B (zh) 用于生成信息的方法和装置
CN110097600B (zh) 用于识别交通标志牌的方法及装置
CN105683959A (zh) 信息处理设备、信息处理方法及信息处理***
CN113591843B (zh) 仿初级视觉皮层的目标检测方法、装置及设备
CN113496235A (zh) 图像处理方法、装置及***、存储介质、计算设备
CN114494486B (zh) 户型图生成方法、设备及存储介质
CN111833253B (zh) 兴趣点空间拓扑构建方法和装置、计算机***和介质
CN113538516B (zh) 基于记忆信息的目标对象跟踪方法、装置及电子设备
CN113542866B (zh) 视频处理方法、装置、设备及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant