CN116228756B - 一种自动驾驶中相机坏点的检测方法及检测*** - Google Patents
一种自动驾驶中相机坏点的检测方法及检测*** Download PDFInfo
- Publication number
- CN116228756B CN116228756B CN202310504466.4A CN202310504466A CN116228756B CN 116228756 B CN116228756 B CN 116228756B CN 202310504466 A CN202310504466 A CN 202310504466A CN 116228756 B CN116228756 B CN 116228756B
- Authority
- CN
- China
- Prior art keywords
- dead
- image
- pixel
- camera
- dead pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/002—Diagnosis, testing or measuring for television systems or their details for television cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/90—Identifying an image sensor based on its output data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明属于自动驾驶视觉感知检测技术领域,具体涉及一种自动驾驶中相机坏点的检测方法及检测***,通过收集配有自动驾驶***的车辆的相机拍摄出的图像;仿真出图像上的坏点;对仿真出坏点的图像进行打标;根据打标后的图像获取分割出相机坏点的神经网络模型;通过神经网络模型检测坏点;对检测出的坏点进行处理;实现了不仅能检测出静态坏点,还能检测出传统解决方式无法识别的动态坏点,能够适应配有自动驾驶***的车辆在行驶过程下的动态环境。
Description
技术领域
本发明属于自动驾驶视觉感知检测技术领域,具体涉及一种自动驾驶中相机坏点的检测方法及检测***。
背景技术
随着大数据、云计算及AI技术的发展,全球汽车产业正向电动化、智能化,网联化方向转型。全球自动驾驶产业规模不断壮大,技术创新日新月异,商用探索迈入新阶段。摄像头提供的图像作为自动驾驶技术环境感知信息的主要依赖,图像需要有可靠的质量保证。
由于生产过程中相机内部半导体芯片的杂质颗粒、刻蚀工艺或外部环境温度变化等问题,相机成像出来的图像中会出现较周围像素点过亮、过暗的坏点。坏点的传统解决方式是分别拍摄全黑全白物体对比像素点灰度值看出,该方式只能在特定场景下检测出相机的坏点,无法动态地检测出相机因使用时长导致的零部件老化或外部环境温变化产生的坏点,即无法适应在配有自动驾驶***的车辆在行驶过程下的动态环境(光照、天气等)。
因此,基于上述技术问题需要设计一种新的自动驾驶中相机坏点的检测方法及检测***。
发明内容
本发明的目的是提供一种自动驾驶中相机坏点的检测方法及检测***。
为了解决上述技术问题,本发明提供了一种自动驾驶中相机坏点的检测方法,包括:
收集配有自动驾驶***的车辆的相机拍摄出的图像;
仿真出图像上的坏点;
对仿真出坏点的图像进行打标;
根据打标后的图像获取分割出相机坏点的神经网络模型;
通过神经网络模型检测坏点;
对检测出的坏点进行处理;
坏点的种类包括:单坏点、双坏点、局部坏点和簇状坏点;
所述单坏点为单个像素点坏死;
所述双坏点为相邻两个像素点坏死;
所述局部坏点为第一预设范围区域内出现连续位置的像素点坏死;
所述簇状坏点为第二预设范围区域内出现非连续位置的像素点坏死;
在坏点种类划分后,以语义分割的标准在仿真出坏点的图像上增加一类坏点种类。
进一步,所述收集配有自动驾驶***的车辆的相机拍摄出的图像包括:
使用一辆相机标定良好的自动驾驶专用采集车辆录制行驶过程中的视频,从该视频中提取图像作为数据集。
进一步,所述仿真出图像上的坏点包括:
从数据集中随机抽取图像,在图像上仿真出坏点;
所述仿真的方法包括:图像处理软件人工标记和/或通过OpenCV图像处理库自动生成。
进一步,所述根据打标后的图像获取分割出相机坏点的神经网络模型包括:
通过图像分割算法训练打标后的图像直至算法收敛,获取分割出相机坏点的神经网络模型。
进一步,所述通过神经网络模型检测坏点包括:
通过神经网络模型替换自动驾驶算法中原有分割模型,以对坏点进行检测。
进一步,所述对检测出的坏点进行处理包括:
收集相机图像中的坏点位置和数量;
若坏点数量大于最大阈值和/或坏点数量聚成团状且位于图像中、下部分,则触发图像质量过差的诊断信息;
若坏点数量小于最小阈值和/或仅位于图像上方五分之一区域以内,则对坏点进行填充。
进一步,所述对坏点进行填充的方法包括:
使用相邻像素点的灰度均值对坏点位置进行填充;
使用外层t圈像素点填充图像中第n行m列坏点的灰度值G(m,n);
。
另一方面,本发明还提供一种采用上述自动驾驶中相机坏点的检测方法的检测***,包括:
收集模块,收集配有自动驾驶***的车辆的相机拍摄出的图像;
仿真模块,仿真出图像上的坏点;
打标模块,对仿真出坏点的图像进行打标;
训练模块,根据打标后的图像获取分割出相机坏点的神经网络模型;
检测模块,通过神经网络模型检测坏点;
处理模块,对检测出的坏点进行处理。
本发明的有益效果是,本发明通过收集配有自动驾驶***的车辆的相机拍摄出的图像;仿真出图像上的坏点;对仿真出坏点的图像进行打标;根据打标后的图像获取分割出相机坏点的神经网络模型;通过神经网络模型检测坏点;对检测出的坏点进行处理;实现了不仅能检测出静态坏点,还能检测出传统解决方式无法识别的动态坏点,能够适应配有自动驾驶***的车辆在行驶过程下的动态环境。
本发明的其他特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点在说明书以及附图中所特别指出的结构来实现和获得。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明的一种自动驾驶中相机坏点的检测方法的流程图;
图2是本发明的一种自动驾驶中相机坏点的检测方法的具体流程图;
图3是本发明的检测***的原理框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
如图1至图3所示,本实施例1提供了一种自动驾驶中相机坏点的检测方法,包括:收集配有自动驾驶***的车辆的相机拍摄出的图像;仿真出图像上的坏点;对仿真出坏点的图像进行打标;根据打标后的图像获取分割出相机坏点的神经网络模型;通过神经网络模型检测坏点;对检测出的坏点进行处理;实现了不仅能检测出静态坏点,还能检测出传统解决方式无法识别的动态坏点,能够适应配有自动驾驶***的车辆在行驶过程下的动态环境。
在本实施例中,所述收集配有自动驾驶***的车辆的相机拍摄出的图像包括:使用一辆相机标定良好(相机安装位置达标)的自动驾驶专用采集车辆录制行驶过程中的视频,从该视频中提取图像作为数据集,为了在一定程度上保证后期神经网络分割算法的泛化能力,要求数据集的场景覆盖范围尽量广,图像数量尽量多。采集大量的图像可以使得后续的神经网络模型训练更加精准,使得神经网络模型可以适配更多的自动驾驶***,在更多的行驶环境中可以准确的识别坏点;直接在相机的视频中获取图像,使得图像的获取难度明显降低,更加方便的获取大量的图像,通过大量的图像可以便于后续的神经网络模型训练更加精准。
在本实施例中,所述仿真出图像上的坏点包括:从数据集中随机抽取一部分图像,在图像上仿真出坏点;所述仿真的方法包括:图像处理软件人工标记和/或通过OpenCV等图像处理库自动生成。
在本实施例中,为了在一定程度上保证后期神经网络分割算法的准确性,坏点的类型需要尽量多,所述坏点的种类包括:单坏点、双坏点、局部坏点和簇状坏点;所述单坏点为单个像素点坏死;所述双坏点为相邻两个像素点坏死;所述局部坏点为第一预设范围区域内出现连续位置的像素点坏死;所述簇状坏点为第二预设范围区域内出现非连续位置的像素点坏死;第一预设范围区域和第二预设范围区域可以是相同大小的区域,也可以是不同大小的区域;通过设置多种坏点的种类可以使得后续神经网络模型训练的精准程度,使得自动驾驶技术环境感知信息更加准确。
在本实施例中,所述对仿真出坏点的图像进行打标包括:以语义分割的标准在仿真出坏点的图像上增加一类坏点种类;动驾驶算法原有检测种类不做删减,如背景、行人、车辆、车道线、导流线、围栏、锥桶等,将坏点作为一类目标物检测;通过在图像上增加坏点种类的标记,使得在自动驾驶技术环境感知信息的标记更加多样化,使得自动驾驶技术环境感知信息更加准确。
在本实施例中,所述根据打标后的图像获取分割出相机坏点的神经网络模型包括:通过图像分割算法(包括但不限于DeepLab)训练打标后的图像直至算法收敛,获取可以分割出相机坏点的神经网络模型;通过该神经网络模型可以识别出图像中的坏点。
在本实施例中,所述通过神经网络模型检测坏点包括:通过神经网络模型替换自动驾驶算法中原有分割模型,以对坏点进行检测。
在本实施例中,所述对检测出的坏点进行处理包括:收集相机图像中的坏点位置和数量;若坏点数量大于最大阈值和/或坏点数量聚成团状且位于图像中、下部分,则触发图像质量过差的诊断信息,提示驾驶员主动接管,防止由于漏检行人、车辆等重要目标导致交通事故;若坏点数量小于最小阈值和/或仅位于图像上方五分之一区域以内(该位置不会影响近处目标的感知结果准确性),则对坏点进行填充;通过对坏点的处理可以更加精确的对目标进行感知,在检测到过多的坏点或坏点位置会影响检测精确度时,会及时进行报警以提醒驾驶员,避免危险的发生。
在本实施例中,所述对坏点进行填充的方法包括:使用相邻像素点的灰度均值对坏点位置进行填充;使用外层t圈像素点填充图像中第n行m列坏点的灰度值G(m,n);
;通过在不会影响近处目标的感知结果准确性的坏点或坏点数量较少时进行坏点的处理,提高识别的精确程度。
实施例2
在实施例1的基础上,本实施例2还提供一种采用实施例1中自动驾驶中相机坏点的检测方法的检测***,包括:收集模块,收集配有自动驾驶***的车辆的相机拍摄出的图像;仿真模块,仿真出图像上的坏点;打标模块,对仿真出坏点的图像进行打标;训练模块,根据打标后的图像获取分割出相机坏点的神经网络模型;检测模块,通过神经网络模型检测坏点;处理模块,对检测出的坏点进行处理;各模块的具体工作方法在实施例1中已经详细描述,在本实施例中不再赘述。
综上所述,本发明通过收集配有自动驾驶***的车辆的相机拍摄出的图像;仿真出图像上的坏点;对仿真出坏点的图像进行打标;根据打标后的图像获取分割出相机坏点的神经网络模型;通过神经网络模型检测坏点;对检测出的坏点进行处理;实现了不仅能检测出静态坏点,还能检测出传统解决方式无法识别的动态坏点,能够适应配有自动驾驶***的车辆在行驶过程下的动态环境。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本发明的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本发明各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上述依据本发明的理想实施例为启示,通过上述的说明内容,相关工作人员完全可以在不偏离本项发明技术思想的范围内,进行多样的变更以及修改。本项发明的技术性范围并不局限于说明书上的内容,必须要根据权利要求范围来确定其技术性范围。
Claims (4)
1.一种自动驾驶中相机坏点的检测方法,其特征在于,包括:
收集配有自动驾驶***的车辆的相机拍摄出的图像;
仿真出图像上的坏点;
对仿真出坏点的图像进行打标;
根据打标后的图像获取分割出相机坏点的神经网络模型;
通过神经网络模型检测坏点;
对检测出的坏点进行处理;
坏点的种类包括:单坏点、双坏点、局部坏点和簇状坏点;
所述单坏点为单个像素点坏死;
所述双坏点为相邻两个像素点坏死;
所述局部坏点为第一预设范围区域内出现连续位置的像素点坏死;
所述簇状坏点为第二预设范围区域内出现非连续位置的像素点坏死;
在坏点种类划分后,以语义分割的标准在仿真出坏点的图像上增加一类坏点种类;
所述根据打标后的图像获取分割出相机坏点的神经网络模型包括:
通过图像分割算法训练打标后的图像直至算法收敛,获取分割出相机坏点的神经网络模型;
所述通过神经网络模型检测坏点包括:
通过神经网络模型替换自动驾驶算法中原有分割模型,以对坏点进行检测;
所述对检测出的坏点进行处理包括:
收集相机图像中的坏点位置和数量;
若坏点数量大于最大阈值和/或坏点数量聚成团状且位于图像中、下部分,则触发图像质量过差的诊断信息;
若坏点数量小于最小阈值和/或仅位于图像上方五分之一区域以内,则对坏点进行填充;
所述对坏点进行填充的方法包括:
使用相邻像素点的灰度均值对坏点位置进行填充;
使用外层t圈像素点填充图像中第n行m列坏点的灰度值G(m,n);
。
2.如权利要求1所述的自动驾驶中相机坏点的检测方法,其特征在于,
所述收集配有自动驾驶***的车辆的相机拍摄出的图像包括:
使用一辆相机标定良好的自动驾驶专用采集车辆录制行驶过程中的视频,从该视频中提取图像作为数据集。
3.如权利要求2所述的自动驾驶中相机坏点的检测方法,其特征在于,
所述仿真出图像上的坏点包括:
从数据集中随机抽取图像,在图像上仿真出坏点;
所述仿真的方法包括:图像处理软件人工标记和/或通过OpenCV图像处理库自动生成。
4.一种采用如权利要求1所述自动驾驶中相机坏点的检测方法的检测***,其特征在于,包括:
收集模块,收集配有自动驾驶***的车辆的相机拍摄出的图像;
仿真模块,仿真出图像上的坏点;
打标模块,对仿真出坏点的图像进行打标;
训练模块,根据打标后的图像获取分割出相机坏点的神经网络模型;
检测模块,通过神经网络模型检测坏点;
处理模块,对检测出的坏点进行处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310504466.4A CN116228756B (zh) | 2023-05-08 | 2023-05-08 | 一种自动驾驶中相机坏点的检测方法及检测*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310504466.4A CN116228756B (zh) | 2023-05-08 | 2023-05-08 | 一种自动驾驶中相机坏点的检测方法及检测*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116228756A CN116228756A (zh) | 2023-06-06 |
CN116228756B true CN116228756B (zh) | 2023-07-25 |
Family
ID=86587593
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310504466.4A Active CN116228756B (zh) | 2023-05-08 | 2023-05-08 | 一种自动驾驶中相机坏点的检测方法及检测*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116228756B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116822256B (zh) * | 2023-08-29 | 2023-11-10 | 常州星宇车灯股份有限公司 | 一种利用场景仿真调试验证车道线拟合偏差问题的方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113362235A (zh) * | 2020-03-04 | 2021-09-07 | 福州瑞芯微电子股份有限公司 | 一种图像去雾方法及装置 |
CN114418895A (zh) * | 2022-01-25 | 2022-04-29 | 合肥英睿***技术有限公司 | 驾驶辅助方法及装置、车载设备及存储介质 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11087453B2 (en) * | 2018-06-11 | 2021-08-10 | Dynatek Labs, Inc. | Automated failure detection for medical device testing systems and methods |
CN112384946A (zh) * | 2018-07-13 | 2021-02-19 | 华为技术有限公司 | 一种图像坏点检测方法及装置 |
CN110458827B (zh) * | 2019-08-12 | 2023-04-07 | 深圳蓝影医学科技股份有限公司 | 医学影像坏点的检测方法、装置、设备及介质 |
CN111582309B (zh) * | 2020-04-05 | 2024-01-19 | 中国科学院微电子研究所 | 一种生成设计版图坏点检测模型的方法及检测坏点的方法 |
CN115455798A (zh) * | 2021-06-08 | 2022-12-09 | 寒武纪(昆山)信息科技有限公司 | 校正坏点的装置、板卡、方法及可读存储介质 |
CN115307882A (zh) * | 2022-08-05 | 2022-11-08 | 常州星宇车灯股份有限公司 | 一种车灯检测装置及检测方法 |
CN115330638A (zh) * | 2022-08-30 | 2022-11-11 | 北京地平线信息技术有限公司 | 图像坏点的校正方法、装置、电子设备和存储介质 |
CN115457215A (zh) * | 2022-10-09 | 2022-12-09 | 华东光电集成器件研究所 | 一种应用于自动驾驶的相机传感器建模方法 |
-
2023
- 2023-05-08 CN CN202310504466.4A patent/CN116228756B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113362235A (zh) * | 2020-03-04 | 2021-09-07 | 福州瑞芯微电子股份有限公司 | 一种图像去雾方法及装置 |
CN114418895A (zh) * | 2022-01-25 | 2022-04-29 | 合肥英睿***技术有限公司 | 驾驶辅助方法及装置、车载设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN116228756A (zh) | 2023-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111368687B (zh) | 一种基于目标检测和语义分割的人行道车辆违停检测方法 | |
CN112800860B (zh) | 一种事件相机和视觉相机协同的高速抛撒物检测方法和*** | |
CN110619279B (zh) | 一种基于跟踪的路面交通标志实例分割方法 | |
Bedruz et al. | Real-time vehicle detection and tracking using a mean-shift based blob analysis and tracking approach | |
KR20070027768A (ko) | 교통 표지판 탐지를 위한 방법 | |
CN111626170B (zh) | 一种铁路边坡落石侵限检测的图像识别方法 | |
CN111582339B (zh) | 一种基于深度学习的车辆检测与识别的方法 | |
CN111553214B (zh) | 一种驾驶员吸烟行为检测方法及*** | |
CN107563299B (zh) | 一种利用ReCNN融合上下文信息的行人检测方法 | |
CN109886086B (zh) | 基于hog特征和线性svm级联分类器的行人检测方法 | |
CN116228756B (zh) | 一种自动驾驶中相机坏点的检测方法及检测*** | |
CN111695373A (zh) | 斑马线的定位方法、***、介质及设备 | |
CN115171034A (zh) | 道路异物检测方法、场景中异物检测方法及装置 | |
CN109978916B (zh) | 基于灰度图像特征匹配的Vibe运动目标检测方法 | |
CN112598743B (zh) | 一种单目视觉图像的位姿估算方法及相关装置 | |
CN113947744A (zh) | 基于视频的火灾图像检测方法、***、设备及存储介质 | |
JP2004086417A (ja) | 横断歩道等における歩行者検出方法及び同装置 | |
CN117475353A (zh) | 基于视频的异常烟雾识别方法及*** | |
CN111797832A (zh) | 一种图像感兴趣区域自动生成方法及***及图像处理方法 | |
KR102486562B1 (ko) | 전광 표지판의 오작동 여부를 분석하는 영상 분석 시스템, 방법, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록매체 | |
Li-Yong et al. | A lane detection technique based on adaptive threshold segmentation of lane gradient image | |
CN113963230A (zh) | 一种基于深度学习的车位检测方法 | |
CN113435350A (zh) | 一种交通标线检测方法、装置、设备和介质 | |
CN106920398A (zh) | 一种智能车牌识别*** | |
CN111639597A (zh) | 举旗游行事件的检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |