CN116934830A - 图像处理方法、装置、电子设备及存储介质 - Google Patents
图像处理方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN116934830A CN116934830A CN202210369448.5A CN202210369448A CN116934830A CN 116934830 A CN116934830 A CN 116934830A CN 202210369448 A CN202210369448 A CN 202210369448A CN 116934830 A CN116934830 A CN 116934830A
- Authority
- CN
- China
- Prior art keywords
- image
- running
- self
- vehicle
- encoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 30
- 230000011218 segmentation Effects 0.000 claims abstract description 77
- 238000012360 testing method Methods 0.000 claims abstract description 47
- 238000012545 processing Methods 0.000 claims abstract description 38
- 238000000034 method Methods 0.000 claims abstract description 36
- 230000008569 process Effects 0.000 claims abstract description 22
- 238000012549 training Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000004378 air conditioning Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 abstract description 11
- 238000010191 image analysis Methods 0.000 abstract description 2
- 238000004590 computer program Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/189—Recording image signals; Reproducing recorded image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0092—Image segmentation from stereoscopic image signals
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本申请涉及图像分析技术,提供一种图像处理方法、装置、电子设备及存储介质。所述图像处理方法包括:获取行驶车辆在行驶过程中的行驶左图像及行驶右图像,生成与行驶左图像对应的实例分割左图像及与行驶右图像对应的实例分割右图像,基于自编码器对行驶左图像进行重构处理,得到预测视差图,根据行驶左图像、预测视差图及行驶右图像生成第一误差值,并根据实例分割左图像、预测视差图及实例分割右图像生成第二误差值,根据第一误差值及第二误差值调整自编码器,得到自编码模型,获取待测车辆在行驶过程中的测试行驶图像,根据自编码模型对测试行驶图像进行重构得到目标视差图,转换目标视差图,能够生成精细化的深度图像。
Description
技术领域
本申请涉及图像分析技术领域,尤其涉及一种图像处理方法、装置、电子设备及存储介质。
背景技术
在车辆处于自动行驶过程中,需要利用深度图像以时刻监测车辆周围的行人、车辆或者障碍物。然而,深度图像的生成精确度及精细度会导致大量的数据计算,从而影响自动驾驶。
发明内容
鉴于以上内容,有必要提供一种图像处理方法、装置、电子设备及存储介质,能够生成精确的深度图像以避免影响车辆的自动行驶。
本申请提供一种图像处理方法,所述图像处理方法包括:
获取行驶车辆在行驶过程中的车辆行驶图像,所述车辆行驶图像包括行驶左图像及行驶右图像;
对所述车辆行驶图像进行实例分割处理,得到实例分割图像,所述实例分割图像包括与所述行驶左图像对应的实例分割左图像,及与所述行驶右图像对应的实例分割右图像;
基于预先构建好的自编码器对所述行驶左图像进行重构处理,得到预测视差图;
根据所述行驶左图像、所述预测视差图及所述行驶右图像生成所述自编码器对所述车辆行驶图像的第一误差值,并根据所述实例分割左图像、所述预测视差图及所述实例分割右图像生成所述自编码器对所述实例分割图像的第二误差值;
根据所述第一误差值及所述第二误差值调整所述自编码器,得到自编码模型;
获取待测车辆在行驶过程中的测试行驶图像,并根据所述自编码模型对所述测试行驶图像进行重构处理,得到目标视差图;
转换所述目标视差图,得到与所述测试行驶图像对应的深度图像。
根据本申请可选实施例,所述获取行驶车辆在行驶过程中的车辆行驶图像包括以下一种或者多种方式的组合:
控制双目摄像机对所述行驶车辆在行驶过程中的视野进行拍摄,得到所述行驶左图像及所述行驶右图像;
从第一预设数据库中获取与所述行驶车辆对应的图像作为所述行驶左图像,从所述第一预设数据库中获取所述行驶左图像的拍摄时刻,并从第二预设数据库中获取同时与所述行驶车辆及所述拍摄时刻对应的图像作为所述行驶右图像。
根据本申请可选实施例,所述对所述车辆行驶图像进行实例分割处理,得到实例分割图像包括:
将所述车辆行驶图像输入至预先训练好的实例分割模型中,得到输出图像;
基于所述输出图像检测所述实例分割模型对所述车辆行驶图像的分割准确度;
若所述分割准确度大于预设阈值,则将所述输出图像确定为所述实例分割图像。
根据本申请可选实施例,所述自编码器中包括编码器及解码器,所述基于预先构建好的自编码器对所述行驶左图像进行重构处理,得到预测视差图包括:
基于所述编码器对所述行驶左图像进行编码处理,得到所述行驶左图像的特征向量;
基于所述解码器对所述特征向量进行映射处理,得到所述预测视差图。
根据本申请可选实施例,所述根据所述行驶左图像、所述预测视差图及所述行驶右图像生成所述自编码器对所述车辆行驶图像的第一误差值包括:
从所述预测视差图中获取所述行驶左图像中每个像素点所对应的预测视差值;
定位所述行驶左图像中每个像素点的第一像素位置;
基于所述预测视差值与所述第一像素位置,确定第二像素位置;
从所述行驶左图像中获取所述第一像素位置所对应的像素点的RGB像素值;
根据所述第一像素位置所对应的像素点的RGB像素值及所述第二像素位置生成所述自编码器对所述行驶左图像的预测右图像;
根据所述行驶右图像及所述预测右图像生成所述第一误差值,包括:
其中,MSE是指所述第一误差值,y为所述行驶右图像的RGB像素值,为所述预测右图像的RGB像素值。
根据本申请可选实施例,所述根据所述第一误差值及所述第二误差值调整所述自编码器,得到自编码模型包括:
计算所述第一误差值与所述第二误差值的总和,得到所述自编码器的训练总误差值;
调整所述自编码器中的配置参数,直至所述训练总误差值不再降低,得到所述自编码模型。
根据本申请可选实施例,所述转换所述目标视差图,得到与所述测试行驶图像对应的深度图像包括:
获取所述测试行驶图像的拍摄装置的焦距值,并获取所述拍摄装置中镜头之间的镜头距离;
从所述目标视差图中获取所述测试行驶图像中每个像素点的目标视差值;
根据所述焦距值、所述镜头距离及所述目标视差值计算所述测试行驶图像中每个像素点所对应的深度像素值,所述深度像素值的计算公式为:
其中,z是指所述深度像素值,b是指所述镜头距离,f是指所述焦距值,d是指目标视差值;
根据所述测试行驶图像中每个像素点及所述深度像素值生成所述深度图像。
本申请提供一种图像处理装置,所述图像处理装置包括:
获取单元,用于获取行驶车辆在行驶过程中的车辆行驶图像,所述车辆行驶图像包括行驶左图像及行驶右图像;
分割单元,用于对所述车辆行驶图像进行实例分割处理,得到实例分割图像,所述实例分割图像包括与所述行驶左图像对应的实例分割左图像,及与所述行驶右图像对应的实例分割右图像;
重构单元,用于基于预先构建好的自编码器对所述行驶左图像进行重构处理,得到预测视差图;
生成单元,用于根据所述行驶左图像、所述预测视差图及所述行驶右图像生成所述自编码器对所述车辆行驶图像的第一误差值,并根据所述实例分割左图像、所述预测视差图及所述实例分割右图像生成所述自编码器对所述实例分割图像的第二误差值;
调整单元,用于根据所述第一误差值及所述第二误差值调整所述自编码器,得到自编码模型;
所述重构单元,还用于获取待测车辆在行驶过程中的测试行驶图像,并根据所述自编码模型对所述测试行驶图像进行重构处理,得到目标视差图;
转换单元,用于转换所述目标视差图,得到与所述测试行驶图像对应的深度图像。
本申请提供一种电子设备,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述至少一个指令以实现所述的图像处理方法。
本申请提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现所述的图像处理方法。
由以上技术方案可以看出,本申请通过对所述车辆行驶图像进行实例分割处理,能够准确的识别出所述车辆行驶图像中的标签信息,通过所述行驶左图像编码生成的预测视差图分析所述自编码器对所述车辆行驶图像的第一误差值及所述自编码器对所述实例分割图像的第二误差值,增强了所述预测视差图在同一物件上的一致性,进而能够剔除所述自编码器对图像编码的干扰,提高了所述第一误差值及所述第二误差值的准确性,通过结合所述第一误差值及所述第二误差值调整所述自编码器,能够进一步提高所述自编码模型的图像处理能力,从而基于所述自编码模型对所述测试行驶图像进行处理,能够提高所述深度图像的精确度及精细度,从而提高自动驾驶的精确度。
附图说明
图1是本申请图像处理方法的较佳实施例的应用环境图。
图2是本申请图像处理方法的较佳实施例的流程图。
图3是本申请图像处理装置的较佳实施例的功能模块图。
图4是本申请实现图像处理方法的较佳实施例的电子设备的结构示意图。
具体实施方式
为了使本申请的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本申请进行详细描述。
如图1所示,是本申请一种图像处理方法的较佳实施例的应用环境图。所述图像处理方法可应用于一个或者多个电子设备1中,所述电子设备1与双目摄像机2及拍摄装置3相通信,所述双目摄像机2及所述拍摄装置3可以是任意能够实现拍摄的装置。
所述图像处理方法可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互***、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
所述图像处理方法应用于一个或者多个电子设备中,所述电子设备是一种能够按照事先设定或存储的计算机可读指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字信号处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述电子设备可以是任何一种可与用户进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(Internet Protocol Television,IPTV)、智能穿戴式设备等。
所述电子设备可以包括网络设备和/或用户设备。其中,所述网络设备包括,但不限于单个网络电子设备、多个网络电子设备组成的电子设备组或基于云计算(CloudComputing)的由大量主机或网络电子设备构成的云。
所述电子设备所处的网络包括,但不限于:互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
如图2所示,是本申请一种图像处理方法的较佳实施例的流程图。根据不同的需求,该流程图中各个步骤的顺序可以根据实际检测要求进行调整,某些步骤可以省略。所述方法的执行主体为电子设备,例如图1所示的电子设备1。
S10,获取行驶车辆在行驶过程中的车辆行驶图像,所述车辆行驶图像包括行驶左图像及行驶右图像。
在本申请的至少一个实施例中,所述行驶车辆可以是指任意需要进行自动驾驶的车辆。
所述车辆行驶图像是指所述行驶车辆在行驶过程中由双目摄像机拍摄所生成的图像。其中,所述双目摄像机中包含有两个镜头。
所述行驶左图像是指由所述双目摄像机的左镜头对所述行驶车辆在行驶过程中的视野进行拍摄所得到的图像。所述行驶左图像可以从与所述左镜头有存储关系的第一预设数据库中获取。其中,所述第一预设数据库中存储有所述左镜头拍摄的多张图像及每张图像的拍摄时刻。
所述行驶右图像是指由所述双目摄像机的右镜头对所述行驶车辆在行驶过程中的视野进行拍摄所得到的图像。所述行驶右图像可以从与所述右镜头有存储关系的第二预设数据库中获取。其中,所述第二预设数据库中存储有所述右镜头拍摄的多张图像及每张图像的拍摄时刻。
在本申请的至少一个实施例中,所述电子设备获取行驶车辆在行驶过程中的车辆行驶图像包括以下一种或者多种方式的组合:
(1)控制双目摄像机对所述行驶车辆在行驶过程中的视野进行拍摄,得到所述行驶左图像及所述行驶右图像。
通过所述双目摄像机能够实时获取到所述行驶车辆在行驶过程中的视野图像。
(2)从第一预设数据库中获取与所述行驶车辆对应的图像作为所述行驶左图像,从所述第一预设数据库中获取所述行驶左图像的拍摄时刻,并从第二预设数据库中获取同时与所述行驶车辆及所述拍摄时刻对应的图像作为所述行驶右图像。
通过所述行驶车辆及所述拍摄时刻,能够准确的获取到与所述行驶左图像对应的行驶右图像。
本实施例,能够从多方面获取到所述车辆行驶图像,有利于对所述自编码器的调整。
S11,对所述车辆行驶图像进行实例分割处理,得到实例分割图像,所述实例分割图像包括与所述行驶左图像对应的实例分割左图像,及与所述行驶右图像对应的实例分割右图像。
在本申请的至少一个实施例中,所述实例分割图像中包含有所述车辆行驶图像的标签信息。可以理解的是,当所述车辆行驶图像中携带有小猫的图像信息时,则所述实例分割图像中携带有指示小猫的框图信息。
在本申请的至少一个实施例中,所述电子设备对所述车辆行驶图像进行实例分割处理,得到实例分割图像包括:
将所述车辆行驶图像输入至预先训练好的实例分割模型中,得到输出图像;
基于所述输出图像检测所述实例分割模型对所述车辆行驶图像的分割准确度;
若所述分割准确度大于预设阈值,则将所述输出图像确定为所述实例分割图像。
其中,所述实例分割模型中包括特征提取网络层、特征映射层、分类层等。所述特征提取网络层用于提取所述车辆行驶图像中的特征信息,所述特征提取网络层可以包括多个卷积层。所述特征映射层用于将同一主体的特征信息映射为特征图,例如,若所述车辆行驶图像中携带有行人主体及小猫主体,则所述特征映射层所得到的特征图包含有与所述行人主体对应的特征图,及与所述小猫主体的特征图。所述分类层用于识别出所述特征图中所对应的类型。所述分类层中包含有全连接层。
所述预设阈值可以根据实际需求设定的数值,例如,所述预设阈值可以为95%。
通过所述实例分割模型能够实现自动化的对所述车辆行驶图像进行实例分割,提高所述输出图像的生成效率,同时,通过对所述输出图像进行检测,能够提高所述实例分割图像的准确性。
本实施例中,所述电子设备基于所述输出图像检测所述实例分割模型对所述车辆行驶图像的分割准确度包括:
识别所述车辆行驶图像中主体标签所在的主***置;
从所述输出图像中获取与所述主体标签对应的预测位置;
计算所述预测位置与所述主***置的位置差值在所述主***置上的比值,得到所述分割准确度。
通过同一主体标签对所述主***置及所述预测位置进行分析,提高所述分割准确度的计算准确性。
S12,基于预先构建好的自编码器对所述行驶左图像进行重构处理,得到预测视差图。
在本申请的至少一个实施例中,所述预测视差图中包含有所述行驶左图像中每个像素点的预测视差值。
在本申请的至少一个实施例中,所述自编码器中包括编码器及解码器,所述电子设备基于预先构建好的自编码器对所述行驶左图像进行重构处理,得到预测视差图包括:
基于所述编码器对所述行驶左图像进行编码处理,得到所述行驶左图像的特征向量;
基于所述解码器对所述特征向量进行映射处理,得到所述预测视差图。
通过上述实施方式,能够快速的生成所述预测视差图。
S13,根据所述行驶左图像、所述预测视差图及所述行驶右图像生成所述自编码器对所述车辆行驶图像的第一误差值,并根据所述实例分割左图像、所述预测视差图及所述实例分割右图像生成所述自编码器对所述实例分割图像的第二误差值。
在本申请的至少一个实施例中,所述电子设备根据所述行驶左图像、所述预测视差图及所述行驶右图像生成所述自编码器对所述车辆行驶图像的第一误差值包括:
从所述预测视差图中获取所述行驶左图像中每个像素点所对应的预测视差值;
定位所述行驶左图像中每个像素点的第一像素位置;
基于所述预测视差值与所述第一像素位置,确定第二像素位置;
从所述行驶左图像中获取所述第一像素位置所对应的像素点的RGB像素值;
根据所述第一像素位置所对应的像素点的RGB像素值及所述第二像素位置生成所述自编码器对所述行驶左图像的预测右图像;
根据所述行驶右图像及所述预测右图像生成所述第一误差值,包括:
其中,MSE是指所述第一误差值,y为所述行驶右图像的RGB像素值,为所述预测右图像的RGB像素值。
其中,所述预测右图像是以所述行驶左图像中第一像素位置上的RGB像素值作为第二像素位置上的RGB像素值而生成的图像,例如,所述行驶左图像中第一像素位置(100,200)所对应的像素点的RGB像素值为x,所述行驶左图像中第一像素位置(100,200)在所述预测视差图中的预测视差值为(20,0),则所述预测右图像中第二像素位置为(120,200),第二像素位置(120,200)所对应的像素点的RGB像素值为x。
具体地,所述电子设备基于所述预测视差值与所述第一像素位置,确定第二像素位置包括:
计算所述预测视差值与所述第一像素位置的总和,得到所述第二像素位置。
例如:所述第一像素位置为(100,200),则所述第一像素位置(100,200)在所述预测视差图中的预测视差值为(20,0),则所述预测右图像中第二像素位置为(120,200)。
通过所述行驶左图像及所述预测视差图能够准确的确定出所述预测右图像,进而通过分析所述行驶右图像与所述预测右图像的像素关系,能够准确的确定出所述第一误差值。
在本申请的至少一个实施例中,所述电子设备根据所述实例分割左图像、所述预测视差图及所述实例分割右图像生成所述自编码器对所述实例分割图像的第二误差值的方式与所述电子设备根据所述行驶左图像、所述预测视差图及所述行驶右图像生成所述自编码器对所述车辆行驶图像的第一误差值的方式相似,本申请对此不再赘述。
S14,根据所述第一误差值及所述第二误差值调整所述自编码器,得到自编码模型。
在本申请的至少一个实施例中,所述自编码模型是指训练总误差值不再降低时的自编码器。
在本申请的至少一个实施例中,所述电子设备根据所述第一误差值及所述第二误差值调整所述自编码器,得到自编码模型包括:
计算所述第一误差值与所述第二误差值的总和,得到所述自编码器的训练总误差值;
调整所述自编码器中的配置参数,直至所述训练总误差值不再降低,得到所述自编码模型。
其中,所述配置参数是指所述解码器及所述编码器中初始化配置的参数,例如,所述配置参数包括所述解码器中反卷积层的层数及反卷积层中卷积核的大小,所述配置参数还包括所述编码器中卷积层的层数及卷积层中卷积核的大小。
通过所述第一误差值及所述第二误差值,能够准确的确定出所述训练总误差值,从而提高所述自编码模型的准确性。
S15,获取待测车辆在行驶过程中的测试行驶图像,并根据所述自编码模型对所述测试行驶图像进行重构处理,得到目标视差图。
在本申请的至少一个实施例中,所述测试行驶图像是指所述待测车辆在行驶过程中的视野所对应的图像。
所述目标视差图中包含有所述测试行驶图像中每个像素点所对应的视差值。
在本申请的至少一个实施例中,所述电子设备根据所述自编码模型对所述测试行驶图像进行重构处理,得到目标视差图的方式与所述电子设备基于预先构建好的自编码器对所述行驶左图像进行重构处理,得到预测视差图的方式相似,本申请对此不再赘述。
S16,转换所述目标视差图,得到与所述测试行驶图像对应的深度图像。
在本申请的至少一个实施例中,所述深度图像是指所述待测车辆在行驶过程中的视野所对应的深度图。所述深度图像中包含有所述测试行驶图像的拍摄装置到视野物体的距离值。
在本申请的至少一个实施例中,所述电子设备转换所述目标视差图,得到与所述测试行驶图像对应的深度图像包括:
获取所述测试行驶图像的拍摄装置的焦距值,并获取所述拍摄装置中镜头之间的镜头距离;
从所述目标视差图中获取所述测试行驶图像中每个像素点的目标视差值;
根据所述焦距值、所述镜头距离及所述目标视差值计算所述测试行驶图像中每个像素点所对应的深度像素值,所述深度像素值的计算公式为:
其中,z是指所述深度像素值,b是指所述镜头距离,f是指所述焦距值,d是指目标视差值;
根据所述测试行驶图像中每个像素点及所述深度像素值生成所述深度图像。
通过上述实施方式,能够准确的生成所述深度图像,从而有利于控制对所述待测车辆的自动驾驶。
由以上技术方案可以看出,本申请通过对所述车辆行驶图像进行实例分割处理,能够准确的识别出所述车辆行驶图像中的标签信息,通过所述行驶左图像编码生成的预测视差图分析所述自编码器对所述车辆行驶图像的第一误差值及所述自编码器对所述实例分割图像的第二误差值,增强了所述预测视差图在同一物件上的一致性,进而能够剔除所述自编码器对图像编码的干扰,提高了所述第一误差值及所述第二误差值的准确性,通过结合所述第一误差值及所述第二误差值调整所述自编码器,能够进一步提高所述自编码模型的图像处理能力,从而基于所述自编码模型对所述测试行驶图像进行处理,能够提高所述深度图像的精确度及精细度,从而提高自动驾驶的精确度。
如图3所示,是图3是本申请图像处理装置的较佳实施例的功能模块图。所述图像处理装置11包括获取单元110、分割单元111、重构单元112、生成单元113、调整单元114及转换单元115。本申请所称的模块/单元是指一种能够被处理器13所获取,并且能够完成固定功能的一系列计算机可读指令段,其存储在存储器12中。在本实施例中,关于各模块/单元的功能将在后续的实施例中详述。
具体地,获取单元可以用于获取行驶车辆在行驶过程中的车辆行驶图像,所述车辆行驶图像包括行驶左图像及行驶右图像,分割单元可以用于对所述车辆行驶图像进行实例分割处理,得到实例分割图像,所述实例分割图像包括与所述行驶左图像对应的实例分割左图像,及与所述行驶右图像对应的实例分割右图像,重构单元可以用于基于预先构建好的自编码器对所述行驶左图像进行重构处理,得到预测视差图,生成单元可以用于根据所述行驶左图像、所述预测视差图及所述行驶右图像生成所述自编码器对所述车辆行驶图像的第一误差值,并根据所述实例分割左图像、所述预测视差图及所述实例分割右图像生成所述自编码器对所述实例分割图像的第二误差值,调整单元可以用于根据所述第一误差值及所述第二误差值调整所述自编码器,得到自编码模型,所述重构单元还可以用于获取待测车辆在行驶过程中的测试行驶图像,并根据所述自编码模型对所述测试行驶图像进行重构处理,得到目标视差图,转换单元可以用于转换所述目标视差图,得到与所述测试行驶图像对应的深度图像。
本申请通过对所述车辆行驶图像进行实例分割处理,能够准确的识别出所述车辆行驶图像中的标签信息,通过所述行驶左图像编码生成的预测视差图分析所述自编码器对所述车辆行驶图像的第一误差值及所述自编码器对所述实例分割图像的第二误差值,增强了所述预测视差图在同一物件上的一致性,进而能够剔除所述自编码器对图像编码的干扰,提高了所述第一误差值及所述第二误差值的准确性,通过结合所述第一误差值及所述第二误差值调整所述自编码器,能够进一步提高所述自编码模型的图像处理能力,从而基于所述自编码模型对所述测试行驶图像进行处理,能够提高所述深度图像的精确度及精细度,从而提高自动驾驶的精确度。
如图4所示,是本申请实现图像处理方法的较佳实施例的电子设备的结构示意图。
在本申请的一个实施例中,所述电子设备1包括,但不限于,存储器12、处理器13,以及存储在所述存储器12中并可在所述处理器13上运行的计算机程序,例如图像处理程序。
本领域技术人员可以理解,所述示意图仅仅是电子设备1的示例,并不构成对电子设备1的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备1还可以包括输入输出设备、网络接入设备、总线等。
所述处理器13可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器13是所述电子设备1的运算核心和控制中心,利用各种接口和线路连接整个电子设备1的各个部分,及获取所述电子设备1的操作***以及安装的各类应用程序、程序代码等。
所述处理器13获取所述电子设备1的操作***以及安装的各类应用程序。所述处理器13获取所述应用程序以实现上述各个图像处理方法实施例中的步骤,例如图2所示的步骤。
示例性的,所述计算机程序可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器12中,并由所述处理器13获取,以完成本申请。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序在所述电子设备1中的获取过程。
所述存储器12可用于存储所述计算机程序和/或模块,所述处理器13通过运行或获取存储在所述存储器12内的计算机程序和/或模块,以及调用存储在存储器12内的数据,实现所述电子设备1的各种功能。所述存储器12可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据电子设备的使用所创建的数据等。此外,存储器12可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。
所述存储器12可以是电子设备1的外部存储器和/或内部存储器。进一步地,所述存储器12可以是具有实物形式的存储器,如内存条、TF卡(Trans-flash Card)等等。
所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器获取时,可实现上述各个方法实施例的步骤。
其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可获取文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
结合图2,所述电子设备1中的所述存储器12存储多个指令以实现一种图像处理方法,所述处理器13可获取所述多个指令从而实现:获取行驶车辆在行驶过程中的车辆行驶图像,所述车辆行驶图像包括行驶左图像及行驶右图像;对所述车辆行驶图像进行实例分割处理,得到实例分割图像,所述实例分割图像包括与所述行驶左图像对应的实例分割左图像,及与所述行驶右图像对应的实例分割右图像;基于预先构建好的自编码器对所述行驶左图像进行重构处理,得到预测视差图;根据所述行驶左图像、所述预测视差图及所述行驶右图像生成所述自编码器对所述车辆行驶图像的第一误差值,并根据所述实例分割左图像、所述预测视差图及所述实例分割右图像生成所述自编码器对所述实例分割图像的第二误差值;根据所述第一误差值及所述第二误差值调整所述自编码器,得到自编码模型;获取待测车辆在行驶过程中的测试行驶图像,并根据所述自编码模型对所述测试行驶图像进行重构处理,得到目标视差图;转换所述目标视差图,得到与所述测试行驶图像对应的深度图像。
具体地,所述处理器13对上述指令的具体实现方法可参考图2对应实施例中相关步骤的描述,在此不赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的***,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本申请的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本申请内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。本申请中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本申请的技术方案而非限制,尽管参照较佳实施例对本申请进行了详细说明,本领域的普通技术人员应当理解,可以对本申请的技术方案进行修改或等同替换,而不脱离本申请技术方案的精神和范围。
Claims (10)
1.一种图像处理方法,其特征在于,所述图像处理方法包括:
获取行驶车辆在行驶过程中的车辆行驶图像,所述车辆行驶图像包括行驶左图像及行驶右图像;
对所述车辆行驶图像进行实例分割处理,得到实例分割图像,所述实例分割图像包括与所述行驶左图像对应的实例分割左图像,及与所述行驶右图像对应的实例分割右图像;
基于预先构建好的自编码器对所述行驶左图像进行重构处理,得到预测视差图;
根据所述行驶左图像、所述预测视差图及所述行驶右图像生成所述自编码器对所述车辆行驶图像的第一误差值,并根据所述实例分割左图像、所述预测视差图及所述实例分割右图像生成所述自编码器对所述实例分割图像的第二误差值;
根据所述第一误差值及所述第二误差值调整所述自编码器,得到自编码模型;
获取待测车辆在行驶过程中的测试行驶图像,并根据所述自编码模型对所述测试行驶图像进行重构处理,得到目标视差图;
转换所述目标视差图,得到与所述测试行驶图像对应的深度图像。
2.如权利要求1所述的图像处理方法,其特征在于,所述获取行驶车辆在行驶过程中的车辆行驶图像包括以下一种或者多种方式的组合:
控制双目摄像机对所述行驶车辆在行驶过程中的视野进行拍摄,得到所述行驶左图像及所述行驶右图像;
从第一预设数据库中获取与所述行驶车辆对应的图像作为所述行驶左图像,从所述第一预设数据库中获取所述行驶左图像的拍摄时刻,并从第二预设数据库中获取同时与所述行驶车辆及所述拍摄时刻对应的图像作为所述行驶右图像。
3.如权利要求1所述的图像处理方法,其特征在于,所述对所述车辆行驶图像进行实例分割处理,得到实例分割图像包括:
将所述车辆行驶图像输入至预先训练好的实例分割模型中,得到输出图像;
基于所述输出图像检测所述实例分割模型对所述车辆行驶图像的分割准确度;
若所述分割准确度大于预设阈值,则将所述输出图像确定为所述实例分割图像。
4.如权利要求1所述的图像处理方法,其特征在于,所述自编码器中包括编码器及解码器,所述基于预先构建好的自编码器对所述行驶左图像进行重构处理,得到预测视差图包括:
基于所述编码器对所述行驶左图像进行编码处理,得到所述行驶左图像的特征向量;
基于所述解码器对所述特征向量进行映射处理,得到所述预测视差图。
5.如权利要求1所述的图像处理方法,其特征在于,所述根据所述行驶左图像、所述预测视差图及所述行驶右图像生成所述自编码器对所述车辆行驶图像的第一误差值包括:
从所述预测视差图中获取所述行驶左图像中每个像素点所对应的预测视差值;
定位所述行驶左图像中每个像素点的第一像素位置;
基于所述预测视差值与所述第一像素位置,确定第二像素位置;
从所述行驶左图像中获取所述第一像素位置所对应的像素点的RGB像素值;
根据所述第一像素位置所对应的像素点的RGB像素值及所述第二像素位置生成所述自编码器对所述行驶左图像的预测右图像;
根据所述行驶右图像及所述预测右图像生成所述第一误差值,包括:
其中,MSE是指所述第一误差值,y为所述行驶右图像的RGB像素值,为所述预测右图像的RGB像素值。
6.如权利要求1所述的图像处理方法,其特征在于,所述根据所述第一误差值及所述第二误差值调整所述自编码器,得到自编码模型包括:
计算所述第一误差值与所述第二误差值的总和,得到所述自编码器的训练总误差值;
调整所述自编码器中的配置参数,直至所述训练总误差值不再降低,得到所述自编码模型。
7.如权利要求1所述的图像处理方法,其特征在于,所述转换所述目标视差图,得到与所述测试行驶图像对应的深度图像包括:
获取所述测试行驶图像的拍摄装置的焦距值,并获取所述拍摄装置中镜头之间的镜头距离;
从所述目标视差图中获取所述测试行驶图像中每个像素点的目标视差值;
根据所述焦距值、所述镜头距离及所述目标视差值计算所述测试行驶图像中每个像素点所对应的深度像素值,所述深度像素值的计算公式为:
其中,z是指所述深度像素值,b是指所述镜头距离,f是指所述焦距值,d是指目标视差值;
根据所述测试行驶图像中每个像素点及所述深度像素值生成所述深度图像。
8.一种图像处理装置,其特征在于,所述图像处理装置包括:
获取单元,用于获取行驶车辆在行驶过程中的车辆行驶图像,所述车辆行驶图像包括行驶左图像及行驶右图像;
分割单元,用于对所述车辆行驶图像进行实例分割处理,得到实例分割图像,所述实例分割图像包括与所述行驶左图像对应的实例分割左图像,及与所述行驶右图像对应的实例分割右图像;
重构单元,用于基于预先构建好的自编码器对所述行驶左图像进行重构处理,得到预测视差图;
生成单元,用于根据所述行驶左图像、所述预测视差图及所述行驶右图像生成所述自编码器对所述车辆行驶图像的第一误差值,并根据所述实例分割左图像、所述预测视差图及所述实例分割右图像生成所述自编码器对所述实例分割图像的第二误差值;
调整单元,用于根据所述第一误差值及所述第二误差值调整所述自编码器,得到自编码模型;
所述重构单元,还用于获取待测车辆在行驶过程中的测试行驶图像,并根据所述自编码模型对所述测试行驶图像进行重构处理,得到目标视差图;
转换单元,用于转换所述目标视差图,得到与所述测试行驶图像对应的深度图像。
9.一种电子设备,其特征在于,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述至少一个指令以实现如权利要求1至7中任意一项所述图像处理方法。
10.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现如权利要求1至7中任意一项所述图像处理方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210369448.5A CN116934830A (zh) | 2022-04-08 | 2022-04-08 | 图像处理方法、装置、电子设备及存储介质 |
US17/896,842 US20230326029A1 (en) | 2022-04-08 | 2022-08-26 | Method for processing images, electronic device, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210369448.5A CN116934830A (zh) | 2022-04-08 | 2022-04-08 | 图像处理方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116934830A true CN116934830A (zh) | 2023-10-24 |
Family
ID=88239604
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210369448.5A Pending CN116934830A (zh) | 2022-04-08 | 2022-04-08 | 图像处理方法、装置、电子设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20230326029A1 (zh) |
CN (1) | CN116934830A (zh) |
-
2022
- 2022-04-08 CN CN202210369448.5A patent/CN116934830A/zh active Pending
- 2022-08-26 US US17/896,842 patent/US20230326029A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230326029A1 (en) | 2023-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108961327B (zh) | 一种单目深度估计方法及其装置、设备和存储介质 | |
CN112446270B (zh) | 行人再识别网络的训练方法、行人再识别方法和装置 | |
CN107945204B (zh) | 一种基于生成对抗网络的像素级人像抠图方法 | |
Žbontar et al. | Stereo matching by training a convolutional neural network to compare image patches | |
CN109214986A (zh) | 从下采样的低分辨率lidar 3-d点云和摄像机图像生成高分辨率3-d点云 | |
CN109214987A (zh) | 从上采样的低分辨率lidar 3-d点云和摄像机图像生成高分辨率3-d点云 | |
CN112446380A (zh) | 图像处理方法和装置 | |
CN111476806B (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN112464912B (zh) | 基于YOLO-RGGNet的机器人端人脸检测方法 | |
CN113793382A (zh) | 视频图像的拼缝搜索方法、视频图像的拼接方法和装置 | |
CN113256699B (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
Zhang et al. | Exploring event-driven dynamic context for accident scene segmentation | |
EP4272176A2 (en) | Rendering new images of scenes using geometry-aware neural networks conditioned on latent variables | |
CN116258756B (zh) | 一种自监督单目深度估计方法及*** | |
CN112529917A (zh) | 一种三维目标分割方法、装置、设备和存储介质 | |
CN114820755B (zh) | 一种深度图估计方法及*** | |
CN116934830A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN114898447A (zh) | 一种基于自注意力机制的个性化注视点检测方法及装置 | |
CN111681270A (zh) | 一种实现图像帧之间配准的方法、装置和存储介质 | |
TWI831176B (zh) | 影像處理方法、裝置、電腦裝置及儲存介質 | |
CN117409059A (zh) | 图像深度识别方法、电子设备及存储介质 | |
TWI817594B (zh) | 圖像深度識別方法、電腦設備及儲存介質 | |
CN117409389A (zh) | 深度识别模型训练方法、图像深度识别方法及相关设备 | |
US20240046601A1 (en) | Deep recognition model training method, electronic device and readable storage medium | |
CN117333827A (zh) | 深度图像获取方法、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |