CN110135437B - 用于车辆的定损方法、装置、电子设备和计算机存储介质 - Google Patents
用于车辆的定损方法、装置、电子设备和计算机存储介质 Download PDFInfo
- Publication number
- CN110135437B CN110135437B CN201910372962.2A CN201910372962A CN110135437B CN 110135437 B CN110135437 B CN 110135437B CN 201910372962 A CN201910372962 A CN 201910372962A CN 110135437 B CN110135437 B CN 110135437B
- Authority
- CN
- China
- Prior art keywords
- neural network
- convolutional neural
- feature
- vehicle
- damage
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/20—Administration of product repair or maintenance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/008—Registering or indicating the working of vehicles communicating information to a remotely located station
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Human Resources & Organizations (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Operations Research (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Quality & Reliability (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本公开的实施例涉及一种用于车辆的定损方法、装置、电子设备和计算机可读存储介质。该方法包括从输入图像中提取用于表征所述车辆的部件的第一特征和用于表征所述车辆的损伤类型的第二特征。此外,该方法还包括合并所述第一特征与所述第二特征,以生成第三特征,所述第三特征表征所述部件与所述损伤类型的对应关系。该方法进一步包括将所述第三特征变换为特征向量以及基于所述特征向量,确定所述车辆的损伤识别结果。本公开的技术方案通过提供受损车辆的照片或视频来快速且准确地车辆的受损情况,以便为定损、理赔、修理等后续工作提供客观依据。
Description
技术领域
本公开的实施例主要涉及计算机领域,并且更具体地,涉及用于车辆的定损方法、装置、电子设备和计算机可读存储介质。
背景技术
目前,对于车辆损伤理赔的判断(即,定损业务)主要依赖人工,如查勘员在车辆事故现场进行现场查勘判断,或者由用户通过手机对事故现场进行拍照或视频连线保险公司工作人员等。自动化的智能定损业务正在兴起。例如,传统的智能定损业务通常将针对用户输入的图像的特征提取与末端分类器(例如,SVM或xgboost等)进行结合,来对事故车辆进行定损。然而,这种定损方法是将特征提取训练与分类器训练划分为独立的两个环节,分类器训练无法指导特征提取训练,这严重地影响了性能。此外,这种传统的定损方法需要对提取的特征进行缓存,因此耗时费力。在目前的车辆定损业务中,尚未开发出基于全链路深度学习的并且支持受损部位和损伤类别同步识别的方案。
发明内容
根据本公开的示例实施例,提供了一种用于车辆定损的方案。
在本公开的第一方面中,提供了一种用于车辆的定损方法。该方法包括从输入图像中提取用于表征所述车辆的部件的第一特征和用于表征所述车辆的损伤类型的第二特征。此外,该方法还包括合并所述第一特征与所述第二特征,以生成第三特征,所述第三特征表征所述部件与所述损伤类型的对应关系。该方法进一步包括将所述第三特征变换为特征向量以及基于所述特征向量,确定所述车辆的损伤识别结果。
在本公开的第二方面中,提供了一种用于车辆的定损装置。该装置包括特征提取模块,被配置为从输入图像中提取用于表征所述车辆的部件的第一特征和用于表征所述车辆的损伤类型的第二特征。该装置还可以包括特征合并模块,被配置为合并所述第一特征与所述第二特征,以生成第三特征,所述第三特征表征所述部件与所述损伤类型的对应关系。此外,该装置进一步包括特征变换模块,被配置为将所述第三特征变换为特征向量。该装置还包括损伤识别模块,被配置为基于所述特征向量,确定所述车辆的损伤识别结果。
在本公开的第三方面中,提供了一种设备,包括一个或多个处理器;以及存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现根据本公开的第一方面的方法。
在本公开的第四方面中,提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现根据本公开的第一方面的方法。
应当理解,发明内容部分中所描述的内容并非旨在限定本公开的实施例的关键或重要特征,亦非用于限制本公开的范围。本公开的其它特征将通过以下的描述变得容易理解。
附图说明
结合附图并参考以下详细说明,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。在附图中,相同或相似的附图标注表示相同或相似的元素,其中:
图1示出了本公开的多个实施例能够在其中实现的示例环境的示意图;
图2示出了本公开的多个实施例能够在其中实现的详细示例环境的示意图;
图3示出了根据本公开的实施例的用于车辆定损的示例环境的示意图;
图4示出了根据本公开的实施例的用于车辆定损的过程的流程图;
图5示出了根据本公开的实施例的用于车辆定损的装置的示意框图;以及
图6示出了能够实施本公开的多个实施例的计算设备的框图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
在本公开的实施例的描述中,术语“包括”及其类似用语应当理解为开放性包含,即“包括但不限于”。术语“基于”应当理解为“至少部分地基于”。术语“一个实施例”或“该实施例”应当理解为“至少一个实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
如上文提及的,亟需一种车辆定损方法,来快速高效且低成本地获取车辆的损伤识别结果,从而降低车辆定损的时间和人力成本。传统的车辆定损方法通常将注意力集中在对接收到的车辆损伤图片进行特征提取,例如,通过诸如卷积神经网络(CNN)的深度学习模型来从图像中提取与车辆损伤有关的特征,然后在通过分类器(例如,SVM或xgboost等)来确定损伤类别。然而,分类器无法指导特征提取训练,这严重地影响了性能。此外,由于这种定损方法并非是端到端的,故还需要对提取的特征进行缓存,因此还需要较大的等待时长。
根据本公开的实施例,提出了一种基于图片的车辆定损方案。在该方案中,可以基于一个或若干个输入图像来确定受损车辆的损伤识别结果。该损伤识别结果与表征车辆的部件的第一特征以及表征车辆的损伤类型的第二特征相关联。具体地,可以从输入的图像或视频中提取出与车辆的部件相关的特征和与车辆的损伤类型相关的特征。进而,通过合并这两个特征,得到一个综合了识别到的车辆部件和损伤类型的特征向量,并给予该特征向量确定损伤识别结果。因此,用户可以通过提供受损车辆的照片或视频来快速且准确地车辆的受损情况,以便为定损、理赔、修理等后续工作提供客观依据。
以下将参照附图来具体描述本公开的实施例。图1示出了本公开的多个实施例能够在其中实现的示例环境100的示意图。如图1所示,示例环境100中包含计算设备110、输入图像120和输出结果130。此外,计算设备110中还包含卷积神经网络(CNN)140。输入图像120可以是用户输入的与受损车辆相关的一个图像,例如,受损车辆的照片。备选地或附加地,输入图像120还可以是与受损车辆相关的多帧图像,即,视频。计算设备110可以接收输入图像120,并通过计算设备110中的CNN 140来确定受损车辆的受损部位以及受损区域的损伤类型。之后,计算设备110向用户输出受损部件名称和受损类别名称。
在图1中,基于输入图像120生成输出结果130的关键在于两点。其一,计算设备110中的CNN 140是通过预先训练构建的,下文将通过图2对CNN 140的构建和使用进行描述。其二,输入图像120将分别被CNN 140中的第一卷积神经网络和第二卷积神经网络进行特征提取,提取的特征进而将被CNN 140中的第三卷积神经网络进行合并,并变换为特征向量。下文将参照图3来详细描述CNN 140所包含的多个网络及其连接关系。
图2示出了根据本公开的一些实施例的详细示例环境200的示意图。与图1类似地,示例环境200可以包含计算设备210、输入图像220和输出结果230。区别在于,示例环境200总体上可以包括模型训练***260和模型应用***270。作为示例,模型训练***210和/或模型应用***220可以由如图1所述的计算设备100或如图2所示的计算设备200实现。应当理解,仅出于示例性的目的描述示例环境200的结构和功能并不旨在限制本文所描述主题的范围。本文所描述主题可以在不同的结构和/或功能中实施。
如前所述,根据本公开的用于车辆定损的方案可以分为两个阶段:模型训练阶段和模型应用阶段。在模型训练阶段中,模型训练***260可以利用训练数据集250来训练用于车辆定损的CNN 240。在模型应用阶段中,模型应用***270可以接收经训练的CNN 240和输入图像220,从而生成输出结果230。在某些实施例中,训练数据集250可以是海量的受损车辆的图片。
应理解,CNN 240可以被构建为用于车辆定损的学习网络。这样的学习网络也可以被称为学习模型,或者被简称为网络或模型。在一些实施例中,用于车辆定损的学习网络可以包括多个网络,其中每个网络可以是一个多层神经网络,其可以由大量的神经元组成。通过训练过程,每个网络中的神经元的相应参数能够被确定。这些网络中的神经元的参数被统称为CNN 240的参数。
CNN 240的训练过程可以以迭代方式来被执行。具体地,模型训练***260可以从训练数据集250中获取至少一个受损车辆的图像,并且利用这至少一个图像来进行训练过程的一次迭代,以更新CNN240的相应参数。模型训练***260可以基于训练数据集250中的多个图像对重复执行上述过程,直至CNN 240的参数中的至少部分参数收敛,由此获得最终的模型参数。下文将结合根据本公开的实施例的用于车辆定损的示例环境来对模型的训练和应用过程进行进一步的详细描述。
图3示出了根据本公开的实施例的用于车辆定损的示例环境300的示意图。如图3所示,示例环境300可以包含CNN 310、输入图像320和输出结果330。CNN 310可以实现在如图1所述的计算设备100或如图2所示的计算设备200中。CNN 310可以进一步包括多个网络,例如,第一卷积神经网络311、第二卷积神经网络312、第三卷积神经网络313、第四卷积神经网络314以及第五卷积神经网络315。
在某些实施例中,第一卷积神经网络311用于从输入图像320中提取表征车辆的部件的第一特征Pm,第二卷积神经网络312用于从输入图像320中提取表征车辆的损伤类型的第二特征Dm,第三卷积神经网络313用于将第一特征Pm与第二特征Dm合并为第三特征Fm,第四卷积神经网络314用于将第三特征Fm变换为特征向量Vm,以及第五卷积神经网络315用于确定车辆的损伤识别结果,即,输出结果330。在图3中,第一卷积神经网络311与第二卷积神经网络312的输出连接至第三卷积神经网络313的输入,第三卷积神经网络313的输出连接至第四卷积神经网络314的输入,以及第四卷积神经网络314的输出连接至第五卷积神经网络315的输入。应理解,上述连接关系仅是示例性的,还可以利用其它连接关系来布置CNN310。
作为示例,当有输入图像320到达CNN 310时,第一卷积神经网络311和第二卷积神经网络312可以分别且同时对输入图像320进行特征提取。备选地或附加地,虽然未示出,但第一卷积神经网络311和第二卷积神经网络312也可以先后对输入图像320进行特征提取。
在某些实施例中,第一卷积神经网络311从输入图像320中提取表征受损车辆的部件的第一特征Pm,而第二卷积神经网络312从输入图像320中提取表征受损车辆的损伤类型的第二特征Dm。
这里,Pm的维度为H×W×Cp,Dm的维度为H×W×Cd。H、W分别为特征张量的高和宽,可以以像素为单位,从而提供像素级的车辆部件识别和损伤类型识别。在高为H、宽为W的矩阵中,通常可以以0或1、或者0到1中的任意值来表征车辆的部件及其在该矩阵中的位置或者损伤类型以及该损伤在矩阵中的位置。此外,Cp为车辆部件种类数,Cd为损伤类型数。例如,车辆部件可以包含车门、前窗、左侧窗、右侧窗、左侧后视镜、右侧后视镜等。损伤类型可以包括刮擦、凹陷、开裂等。应注意,车辆部件种类数Cp是计算设备110或***能够支持识别的车辆部件的总数。作为示例,当Cp为6时,车门、前窗、左侧窗、右侧窗、左侧后视镜、右侧后视镜的识别结果分别可以是H×W×Cp1、H×W×Cp2、H×W×Cp3、H×W×Cp4、H×W×Cp5和H×W×Cp6。类似地,当损伤类型数Cd为3时,刮擦、凹陷、开裂的识别结果分别可以是H×W×Cd1、H×W×Cd2和H×W×Cd3。应理解,例如,当输入图像320中仅识别出车门有刮擦时,则仅H×W×Cp1和H×W×Cd1会输出有效值,而其余识别结果均为零。
第一卷积神经网络311和第二卷积神经网络312的输出均连接至第三卷积神经网络313的输入。第一特征Pm和第二特征Dm在第三卷积神经网络313中被合并为第三特征Fm,进而经由第四卷积神经网络314将第三特征Fm变换为特征向量Vm。
在某些实施例中,可以将第一特征Pm与第二特征Dm串联,并经过第三卷积神经网络313,以形成维度为H×W×(Cp+Cd)的第三特征Fm。例如,第一特征Pm的维度可以为20×30×32(即,像素为20×30,车辆部件种类数为32),第二特征Dm的维度可以为20×30×6(即,像素为20×30,损伤类型数为6),则合并后的第三特征Fm维度为20×30×38。进而,经由第四卷积神经网络314将第三特征Fm变换成维度为10000×1特征向量Vm。
备选地或附加地,还可以将Pm中每种部件的结果分别与Dm进行合并,如将Pm中的第i个通道Pm,i(代表第i类部件的分割结果)与Dm进行合并得到Fm,i。具体合并方式为将Pm,i复制Cd次构成维度与Dm相同的张量Pm,i’,再由Fm,i=Pm,i’*Dm计算得到Fm,i,其中“*”代表张量中的相应元素相乘。随后,针对每个Fm,i分别通过第四卷积神经网络得到Vm,i。例如,Pm,i的维度可以为20*30*1,Pm,i’的维度和Dm的维度为20*30*6,则合并后的特征张量Fm,i维度为20*30*6,变换后的特征向量Vm,i维度为10000*1。
应理解,特征向量并非图像数据或上述二维矩阵的形式,而是浮点矩阵(一维)的形式,以便于后续在第五卷积神经网络315作为输入进行运算,得到最终的损伤识别结果。其中对于Cp种不同的车辆部件,损伤分类网络包含Cp个对应的分支,针对上述第一种合并方式,每个分支均将Vm作为输入,分别输出该部件的损伤类别。针对上述第二种合并方式,将Vm,i作为第i个分支的输入,得到第i种部件损伤类别识别结果。最后合并所有分支的识别结果,即可得到该输入图像或视频的所有损伤部件和损伤类别的识别结果。
上文描述的技术方案仅用于示例,而非限制本发明。应理解,还可以按照其他方式和连接关系来布置各个网络。为了更清楚地解释上述方案的原理,下文将参考图4来更详细描述车辆定损的过程。
图4示出了根据本公开的实施例的用于车辆定损的过程400的流程图。过程400可以由图1的计算设备110或图2的计算设备210来实现,这些计算设备均可以是设置在服务器侧或用户侧的独立设备。为了方便讨论,将结合图2和图3来描述过程400。
在410,计算设备210从输入图像220中提取用于表征车辆的部件的第一特征和用于表征车辆的损伤类型的第二特征。作为示例,如图3所示,输入图像320被传输至CNN 310。CNN 310包含预先构建的第一卷积神经网络311和第二卷积神经网络312。作为示例,第一卷积神经网络311和第二卷积神经网络312可以分别且同时对输入图像320进行特征提取。备选地或附加地,第一卷积神经网络311和第二卷积神经网络312也可以串联连接,以便先后对输入图像320进行特征提取。
在某些实施例中,可以通过预先构建的第一卷积神经网络311从输入图像320中提取第一特征Pm,第一卷积神经网络311被预先训练为具有任意输入图像与表征任意部件的第一特征之间的映射关系。作为示例,模型训练***260可以从训练数据集250中获取一个受损车辆的图像,并且利用该图像来进行训练过程的一次迭代,以更新第一卷积神经网络311的相应参数。优选地,模型训练***260可以基于训练数据集250中的多个图像对重复执行上述过程,直至第一卷积神经网络311的参数中的至少部分参数收敛,由此获得第一卷积神经网络311的模型参数,从而实现任意输入图像与表征相应部件的第一特征之间的映射。
在某些实施例中,可以通过预先构建的第二卷积神经网络312从输入图像320中提取第二特征Dm,第二卷积神经网络312被预先训练为具有任意输入图像与表征任意损伤类型的第二特征之间的映射关系。作为示例,模型训练***260可以从训练数据集250中获取一个受损车辆的图像,并且利用该图像来进行训练过程的一次迭代,以更新第二卷积神经网络312的相应参数。备选地或附加地,模型训练***260可以基于训练数据集250中的多个图像对重复执行上述过程,直至第二卷积神经网络312的参数中的至少部分参数收敛,由此获得第二卷积神经网络312的模型参数,从而实现任意输入图像与表征相应损伤类型的第二特征之间的映射。
在420,计算设备210合并第一特征Pm与第二特征Dm,以生成第三特征Fm。该第三特征Fm用于表征部件与损伤类型的对应关系。作为示例,如图3所示,第一特征Pm和第二特征Dm被计算设备210输入至计算设备210中的预先构建的第三卷积神经网络313。
在某些实施例中,可以通过第三卷积神经网络313将第一特征Pm与第二特征Dm合并为第三特征Fm。该第三卷积神经网络313被训练为具有表征任意部件的第一特征、表征任意损伤类型的第二特征之组合与经合并的相应第三特征之间的映射关系。如前文所述,合并的过程可以是将第一特征Pm与第二特征Dm串联,也可以将Pm中每种部件的识别结果分别与Dm进行合并。
在430,计算设备210将第三特征Fm变换为特征向量Vm。如图3所示,第三特征Fm被计算设备210输入至计算设备210中的预先构建的第四卷积神经网络314。作为示例,计算设备210可以通过第四卷积神经网络314将第三特征Fm变换为特征向量Vm,第四卷积神经网络314可以被训练为具有经合并的任意第三特征与经变换的相应特征向量之间的映射关系。在某些实施例中,第四卷积神经网络314可以包括卷积层、非线性层和全联接层中的至少一层。
在440,计算设备210基于特征向量Vm确定车辆的损伤识别结果(即,输出结果330)。作为示例,计算设备可以通过预先构建的第五卷积神经网络315确定车辆的损伤识别结果330,第五卷积神经网络315可以被训练为具有经变换的任意特征向量与相应损伤识别结果之间的映射关系。
作为示例,模型训练***260可以从第一卷积神经网络311和第二卷积神经网络312中获取相应模型参数,并从训练数据集250中获取一个受损车辆的图像,并且利用该图像来进行训练过程的一次迭代,以更新CNN 310中的其他网络。作为示例,可以先训练第一卷积神经网络311和第二卷积神经网络312,然后固定第一卷积神经网络311和第二卷积神经网络312的模型参数,以训练CNN 310中的第三卷积神经网络313、第四卷积神经网络314和第五卷积神经网络315,最后微调作为端到端***的CNN 310的模型参数。优选地,模型训练***260可以基于训练数据集250中的多个图像对重复执行上述过程,直至CNN 310的参数中的至少部分参数收敛,由此获得CNN 310的模型参数,从而实现任意输入图像与相应识别结果之间的映射。通过以上方式来确定损伤识别结果是十分高效的,由此可以基于输入图像以及CNN 310来确定与输入图像对应的损伤识别结果。
与传统技术相比,本公开的方案采用了端到端***,实现了同时输出受损部件与损伤类型的识别结果。相比特征提取加末端分类的方式,能有效提升特征学习的能力,并显著简化训练与预测流程。
以上讨论了在一些示例场景下综合索引要素库140或240中各要素特征数据来确定与输入图像120或220相似的一个或多个备选图像作为输出结果130或230的示例。然而,应当理解,这些场景的描述仅为了以示例方式来解释说明本公开的实施例。取决于实际需要,在不同或类似场景下,还可以选择不同的策略,以便使输出结果130或230的准确性得到最大化。还需要注意的是,本公开的技术方案本质上不限于应用到图像处理、图像识别领域,本公开的技术方案在应用于需要检索相似数据的其他领域时同样可以具备上文提到的各种优点。
图5示出了根据本公开的实施例的用于车辆的定损装置500的示意框图。装置500可以被包括在图1的计算设备110或图2的计算设备210中,或者被实现为计算设备110或计算设备210。如图5所示,装置500可以包括特征提取模块510,被配置为从输入图像中提取用于表征车辆的部件的第一特征和用于表征车辆的损伤类型的第二特征。装置500还可以包括特征合并模块520,被配置为合并第一特征与第二特征,以生成第三特征,第三特征表征部件与损伤类型的对应关系。装置500可以进一步包括特征变换模块530,被配置为将第三特征变换为特征向量。此外,装置500还可以包括损伤识别模块540,被配置为基于特征向量,确定车辆的损伤识别结果。
在一些实施例中,特征提取模块510还可以包括第一特征提取子模块,被配置为通过预先构建的第一卷积神经网络从输入图像中提取第一特征。第一卷积神经网络被训练为具有输入图像与表征部件的第一特征之间的映射关系。
在一些实施例中,特征提取模块510还可以包括第二特征提取子模块,被配置为通过预先构建的第二卷积神经网络从输入图像中提取第二特征。第二卷积神经网络被训练为具有输入图像与表征损伤类型的第二特征之间的映射关系。
在一些实施例中,特征合并模块520可以被进一步配置为通过预先构建的第三卷积神经网络将第一特征与第二特征合并为第三特征。第三卷积神经网络被训练为具有表征部件的第一特征、表征损伤类型的第二特征之组合与经合并的第三特征之间的映射关系。
在一些实施例中,特征变换模块530可以被进一步配置为通过预先构建的第四卷积神经网络将第三特征变换为特征向量。第四卷积神经网络被训练为具有经合并的第三特征与经变换的特征向量之间的映射关系。
在一些实施例中,损伤识别模块540可以被进一步配置为通过预先构建的第五卷积神经网络确定车辆的损伤识别结果。第五卷积神经网络被训练为具有经变换的特征向量与损伤识别结果之间的映射关系。
在一些实施例中,第一卷积神经网络和第二卷积神经网络被分别训练以确定各自的网络权重,并且其中第三卷积神经网络、第四卷积神经网络和第五卷积神经网络是基于网络权重而进一步训练得到的。
在一些实施例中,第四卷积神经网络包括卷积层、非线性层和全联接层中的至少一层。
根据本公开的一个或多个实施方式,基于上述各实施例的深度学习的卷积神经网络可以实现端到端地基于输入图像确定车辆的受损部件和损伤类型。相比传统的特征提取再结合末端分类器(例如SVM,xgboost等)的方法相比,本公开的全链路深度学习技术在计算效能、识别性能以及结构灵活性方面具有显著优势。
图6示出了可以用来实施本公开的实施例的示例设备600的示意性框图。设备600可以用于实现图1的计算设备110或图2的计算设备210。如图所示,设备600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的计算机程序指令或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序指令,来执行各种适当的动作和处理。在RAM 603中,还可存储设备600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理单元601执行上文所描述的各个方法和处理,例如过程300或400。例如,在一些实施例中,过程300或400可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由ROM 602和/或通信单元609而被载入和/或安装到设备600上。当计算机程序加载到RAM 603并由CPU 601执行时,可以执行上文描述的过程300或400的一个或多个步骤。备选地,在其他实施例中,CPU601可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行过程300。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、负载可编程逻辑设备(CPLD)等等。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
此外,虽然采用特定次序描绘了各操作,但是这应当理解为要求这样操作以所示出的特定次序或以顺序次序执行,或者要求所有图示的操作应被执行以取得期望的结果。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实现中。相反地,在单个实现的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实现中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。
Claims (16)
1.一种用于车辆的定损方法,包括:
通过预先构建的第一卷积神经网络从输入图像中提取用于表征所述车辆的部件的第一特征并且通过预先构建的第二卷积神经网络从所述输入图像中提取用于表征所述车辆的损伤类型的第二特征;
通过预先构建的第三卷积神经网络合并所述第一特征与所述第二特征,以生成第三特征,所述第三特征表征所述部件与所述损伤类型的对应关系;
通过预先构建的第四卷积神经网络将所述第三特征变换为特征向量;以及
通过预先构建的第五卷积神经网络、基于所述特征向量,确定所述车辆的损伤识别结果,
其中生成所述第三特征包括:
将所述第一特征与所述第二特征串联,以形成维度为H×W×(Cp+Cd)的第三特征,其中H、W分别为特征张量的高和宽,Cp为车辆部件种类数,Cd为损伤类型数,
其中所述第一卷积神经网络、所述第二卷积神经网络、所述第三卷积神经网络、所述第四卷积神经网络、所述第五卷积神经网络构成作为端到端***的神经网络,并且所述第一卷积神经网络和所述第二卷积神经网络被分别训练以确定模型参数,所述第三卷积神经网络、所述第四卷积神经网络和所述第五卷积神经网络的模型参数是在所述第一卷积神经网络和所述第二卷积神经网络的模型参数被固定时通过训练确定的,并且
其中所述神经网络的模型参数是在所述第一卷积神经网络、所述第二卷积神经网络、所述第三卷积神经网络、所述第四卷积神经网络、所述第五卷积神经网络的模型参数被确定之后,被微调确定的。
2.根据权利要求1所述的方法,其中所述第一卷积神经网络被训练为具有输入图像与表征部件的第一特征之间的映射关系。
3.根据权利要求2所述的方法,其中所述第二卷积神经网络被训练为具有输入图像与表征损伤类型的第二特征之间的映射关系。
4.根据权利要求3所述的方法,其中所述第三卷积神经网络被训练为具有表征部件的第一特征、表征损伤类型的第二特征之组合与经合并的第三特征之间的映射关系。
5.根据权利要求4所述的方法,其中所述第四卷积神经网络被训练为具有经合并的第三特征与经变换的特征向量之间的映射关系。
6.根据权利要求5所述的方法,其中所述第五卷积神经网络被训练为具有经变换的特征向量与损伤识别结果之间的映射关系。
7.根据权利要求5所述的方法,其中所述第四卷积神经网络包括卷积层、非线性层和全联接层中的至少一层。
8.一种用于车辆的定损装置,包括:
特征提取模块,被配置为通过预先构建的第一卷积神经网络从输入图像中提取用于表征所述车辆的部件的第一特征并且通过预先构建的第二卷积神经网络从所述输入图像中提取用于表征所述车辆的损伤类型的第二特征;
特征合并模块,被配置为通过预先构建的第三卷积神经网络合并所述第一特征与所述第二特征,以生成第三特征,所述第三特征表征所述部件与所述损伤类型的对应关系;
特征变换模块,被配置为通过预先构建的第四卷积神经网络将所述第三特征变换为特征向量;以及
损伤识别模块,被配置为通过预先构建的第五卷积神经网络、基于所述特征向量,确定所述车辆的损伤识别结果,
其中所述特征合并模块进一步被配置为将所述第一特征与所述第二特征串联,以形成维度为H×W×(Cp+Cd)的第三特征,其中H、W分别为特征张量的高和宽,Cp为车辆部件种类数,Cd为损伤类型数,
其中所述第一卷积神经网络、所述第二卷积神经网络、所述第三卷积神经网络、所述第四卷积神经网络、所述第五卷积神经网络构成作为端到端***的神经网络,并且所述第一卷积神经网络和所述第二卷积神经网络被分别训练以确定模型参数,所述第三卷积神经网络、所述第四卷积神经网络和所述第五卷积神经网络的模型参数是在所述第一卷积神经网络和所述第二卷积神经网络的模型参数被固定时通过训练确定的,并且
其中所述神经网络的模型参数是在所述第一卷积神经网络、所述第二卷积神经网络、所述第三卷积神经网络、所述第四卷积神经网络、所述第五卷积神经网络的模型参数被确定之后,被微调确定的。
9.根据权利要求8所述的装置,其中所述第一卷积神经网络被训练为具有输入图像与表征部件的第一特征之间的映射关系。
10.根据权利要求9所述的装置,其中所述第二卷积神经网络被训练为具有输入图像与表征损伤类型的第二特征之间的映射关系。
11.根据权利要求10所述的装置,其中所述第三卷积神经网络被训练为具有表征部件的第一特征、表征损伤类型的第二特征之组合与经合并的第三特征之间的映射关系。
12.根据权利要求11所述的装置,其中所述第四卷积神经网络被训练为具有经合并的第三特征与经变换的特征向量之间的映射关系。
13.根据权利要求12所述的装置,其中所述第五卷积神经网络被训练为具有经变换的特征向量与损伤识别结果之间的映射关系。
14.根据权利要求12所述的装置,其中所述第四卷积神经网络包括卷积层、非线性层和全联接层中的至少一层。
15.一种电子设备,所述电子设备包括:
一个或多个处理器;以及
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一项所述的方法。
16.一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如权利要求1-7中任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910372962.2A CN110135437B (zh) | 2019-05-06 | 2019-05-06 | 用于车辆的定损方法、装置、电子设备和计算机存储介质 |
US16/710,464 US11538286B2 (en) | 2019-05-06 | 2019-12-11 | Method and apparatus for vehicle damage assessment, electronic device, and computer storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910372962.2A CN110135437B (zh) | 2019-05-06 | 2019-05-06 | 用于车辆的定损方法、装置、电子设备和计算机存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110135437A CN110135437A (zh) | 2019-08-16 |
CN110135437B true CN110135437B (zh) | 2022-04-05 |
Family
ID=67576330
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910372962.2A Active CN110135437B (zh) | 2019-05-06 | 2019-05-06 | 用于车辆的定损方法、装置、电子设备和计算机存储介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11538286B2 (zh) |
CN (1) | CN110135437B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110569864A (zh) * | 2018-09-04 | 2019-12-13 | 阿里巴巴集团控股有限公司 | 基于gan网络的车损图像生成方法和装置 |
CN109359676A (zh) * | 2018-10-08 | 2019-02-19 | 百度在线网络技术(北京)有限公司 | 用于生成车辆损伤信息的方法和装置 |
WO2021136938A1 (en) * | 2020-01-03 | 2021-07-08 | Tractable Ltd | Method of determining repair operations for a damaged vehicle including using domain confusion loss techniques |
CN113505624A (zh) * | 2020-03-23 | 2021-10-15 | 虹软科技股份有限公司 | 车辆定损方法、车辆定损装置及应用其的电子设备 |
CN113496242A (zh) * | 2020-04-07 | 2021-10-12 | 华晨宝马汽车有限公司 | 对车辆的损伤部位进行分类的方法和设备 |
US11657373B2 (en) * | 2020-08-21 | 2023-05-23 | Accenture Global Solutions Limited | System and method for identifying structural asset features and damage |
CN112365008B (zh) * | 2020-10-27 | 2023-01-10 | 南阳理工学院 | 基于大数据的汽车配件选定方法及装置 |
CN112418168B (zh) * | 2020-12-10 | 2024-04-02 | 深圳云天励飞技术股份有限公司 | 车辆识别方法、装置、***、电子设备及存储介质 |
CN112801951A (zh) * | 2021-01-15 | 2021-05-14 | 深圳市商汤科技有限公司 | 目标部件的损伤检测方法、装置、设备及存储介质 |
CN112907576B (zh) * | 2021-03-25 | 2024-02-02 | 平安科技(深圳)有限公司 | 车辆损伤等级检测方法、装置、计算机设备及存储介质 |
US20230316606A1 (en) * | 2022-03-21 | 2023-10-05 | Adobe Inc. | Generating and modifying digital images using a joint feature style latent space of a generative neural network |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107403424A (zh) * | 2017-04-11 | 2017-11-28 | 阿里巴巴集团控股有限公司 | 一种基于图像的车辆定损方法、装置及电子设备 |
US20170372174A1 (en) * | 2016-06-28 | 2017-12-28 | Conduent Business Services, Llc | System and method for expanding and training convolutional neural networks for large size input images |
CN108446618A (zh) * | 2018-03-09 | 2018-08-24 | 平安科技(深圳)有限公司 | 车辆定损方法、装置、电子设备及存储介质 |
CN108549926A (zh) * | 2018-03-09 | 2018-09-18 | 中山大学 | 一种用于精细化识别车辆属性的深度神经网络及训练方法 |
CN109271908A (zh) * | 2018-09-03 | 2019-01-25 | 阿里巴巴集团控股有限公司 | 车损检测方法、装置及设备 |
CN109410218A (zh) * | 2018-10-08 | 2019-03-01 | 百度在线网络技术(北京)有限公司 | 用于生成车辆损伤信息的方法和装置 |
CN109614935A (zh) * | 2018-12-12 | 2019-04-12 | 泰康保险集团股份有限公司 | 车辆定损方法及装置、存储介质及电子设备 |
CN109657716A (zh) * | 2018-12-12 | 2019-04-19 | 天津卡达克数据有限公司 | 一种基于深度学习的车辆外观损伤识别方法 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9824453B1 (en) * | 2015-10-14 | 2017-11-21 | Allstate Insurance Company | Three dimensional image scan for vehicle |
US10692050B2 (en) * | 2016-04-06 | 2020-06-23 | American International Group, Inc. | Automatic assessment of damage and repair costs in vehicles |
US11144889B2 (en) * | 2016-04-06 | 2021-10-12 | American International Group, Inc. | Automatic assessment of damage and repair costs in vehicles |
US11288789B1 (en) * | 2016-05-20 | 2022-03-29 | Ccc Intelligent Solutions Inc. | Systems and methods for repairing a damaged vehicle using image processing |
CN107358596B (zh) * | 2017-04-11 | 2020-09-18 | 阿里巴巴集团控股有限公司 | 一种基于图像的车辆定损方法、装置、电子设备及*** |
CN107392218B (zh) * | 2017-04-11 | 2020-08-04 | 创新先进技术有限公司 | 一种基于图像的车辆定损方法、装置及电子设备 |
US20180350163A1 (en) * | 2017-06-06 | 2018-12-06 | Claim Genius Inc. | Method of Externally Assessing Damage to a Vehicle |
US11087292B2 (en) * | 2017-09-01 | 2021-08-10 | Allstate Insurance Company | Analyzing images and videos of damaged vehicles to determine damaged vehicle parts and vehicle asymmetries |
US20190095877A1 (en) * | 2017-09-26 | 2019-03-28 | Panton, Inc. | Image recognition system for rental vehicle damage detection and management |
CN108921068B (zh) * | 2018-06-22 | 2020-10-20 | 深源恒际科技有限公司 | 一种基于深度神经网络的汽车外观自动定损方法及*** |
CN108985343B (zh) * | 2018-06-22 | 2020-12-25 | 深源恒际科技有限公司 | 基于深度神经网络的汽车损伤检测方法和*** |
CN110569696A (zh) * | 2018-08-31 | 2019-12-13 | 阿里巴巴集团控股有限公司 | 用于车辆部件识别的神经网络***、方法和装置 |
CN109325531A (zh) * | 2018-09-17 | 2019-02-12 | 平安科技(深圳)有限公司 | 基于图像的车辆定损方法、装置、设备及存储介质 |
CN109215027B (zh) * | 2018-10-11 | 2024-05-24 | 平安科技(深圳)有限公司 | 一种基于神经网络的车辆定损方法、服务器及介质 |
CN109657599B (zh) * | 2018-12-13 | 2023-08-01 | 深源恒际科技有限公司 | 距离自适应的车辆外观部件的图片识别方法 |
CN109635742A (zh) * | 2018-12-13 | 2019-04-16 | 深源恒际科技有限公司 | 一种车辆图像定损中的子部件损伤识别方法 |
-
2019
- 2019-05-06 CN CN201910372962.2A patent/CN110135437B/zh active Active
- 2019-12-11 US US16/710,464 patent/US11538286B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170372174A1 (en) * | 2016-06-28 | 2017-12-28 | Conduent Business Services, Llc | System and method for expanding and training convolutional neural networks for large size input images |
CN107403424A (zh) * | 2017-04-11 | 2017-11-28 | 阿里巴巴集团控股有限公司 | 一种基于图像的车辆定损方法、装置及电子设备 |
CN108446618A (zh) * | 2018-03-09 | 2018-08-24 | 平安科技(深圳)有限公司 | 车辆定损方法、装置、电子设备及存储介质 |
CN108549926A (zh) * | 2018-03-09 | 2018-09-18 | 中山大学 | 一种用于精细化识别车辆属性的深度神经网络及训练方法 |
CN109271908A (zh) * | 2018-09-03 | 2019-01-25 | 阿里巴巴集团控股有限公司 | 车损检测方法、装置及设备 |
CN109410218A (zh) * | 2018-10-08 | 2019-03-01 | 百度在线网络技术(北京)有限公司 | 用于生成车辆损伤信息的方法和装置 |
CN109614935A (zh) * | 2018-12-12 | 2019-04-12 | 泰康保险集团股份有限公司 | 车辆定损方法及装置、存储介质及电子设备 |
CN109657716A (zh) * | 2018-12-12 | 2019-04-19 | 天津卡达克数据有限公司 | 一种基于深度学习的车辆外观损伤识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110135437A (zh) | 2019-08-16 |
US11538286B2 (en) | 2022-12-27 |
US20200357196A1 (en) | 2020-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110135437B (zh) | 用于车辆的定损方法、装置、电子设备和计算机存储介质 | |
EP3637317B1 (en) | Method and apparatus for generating vehicle damage information | |
EP3637310A1 (en) | Method and apparatus for generating vehicle damage information | |
US20210174493A1 (en) | Damage identification result optimization method and apparatus | |
US20200372611A1 (en) | Method and apparatus for processing image, device and computer readable storage medium | |
CN110264444B (zh) | 基于弱分割的损伤检测方法及装置 | |
US10970938B2 (en) | Method and apparatus for generating 3D information | |
WO2021253510A1 (zh) | 基于双向交互网络的行人搜索方法、***、装置 | |
WO2021135513A1 (zh) | 基于深度学习模型的车辆定损方法、装置、设备及介质 | |
CN114170516B (zh) | 一种基于路侧感知的车辆重识别方法、装置及电子设备 | |
CN109784243B (zh) | 身份确定方法及装置、神经网络训练方法及装置、介质 | |
CN114092759A (zh) | 图像识别模型的训练方法、装置、电子设备及存储介质 | |
CN113538235A (zh) | 图像处理模型的训练方法、装置、电子设备及存储介质 | |
CN110909578A (zh) | 一种低分辨率图像识别方法、装置和存储介质 | |
CN113378857A (zh) | 目标检测方法、装置、电子设备及存储介质 | |
CN113496148A (zh) | 一种多源数据融合方法及*** | |
CN113392241B (zh) | 测井图像清晰度的识别方法、装置、介质及电子设备 | |
CN111126054A (zh) | 确定相似文本的方法、装置、存储介质及电子设备 | |
CN114693963A (zh) | 基于电力数据特征提取的识别模型训练、识别方法及装置 | |
CN111144374B (zh) | 人脸表情识别方法及装置、存储介质和电子设备 | |
CN112541463A (zh) | 模型训练方法、外观分割方法、设备及存储介质 | |
CN113902045B (zh) | 一种基于图像识别的车险现场快速定损方法 | |
CN113963167B (zh) | 应用于目标检测的方法、装置及计算机程序产品 | |
CN112633089B (zh) | 一种视频行人重识别方法、智能终端及存储介质 | |
CN115457365A (zh) | 一种模型的解释方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |