CN110163810B - 一种图像处理方法、装置以及终端 - Google Patents
一种图像处理方法、装置以及终端 Download PDFInfo
- Publication number
- CN110163810B CN110163810B CN201910277018.9A CN201910277018A CN110163810B CN 110163810 B CN110163810 B CN 110163810B CN 201910277018 A CN201910277018 A CN 201910277018A CN 110163810 B CN110163810 B CN 110163810B
- Authority
- CN
- China
- Prior art keywords
- image data
- target image
- tag information
- scene
- display type
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 35
- 238000005457 optimization Methods 0.000 claims abstract description 328
- 238000012545 processing Methods 0.000 claims abstract description 44
- 238000001514 detection method Methods 0.000 claims description 59
- 238000000034 method Methods 0.000 claims description 46
- 238000012790 confirmation Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 description 20
- 230000006870 function Effects 0.000 description 18
- 238000012937 correction Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 12
- 235000013305 food Nutrition 0.000 description 10
- 238000003062 neural network model Methods 0.000 description 7
- 239000003086 colorant Substances 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000012217 deletion Methods 0.000 description 4
- 230000037430 deletion Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 235000021147 sweet food Nutrition 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 2
- 235000013361 beverage Nutrition 0.000 description 2
- 235000021185 dessert Nutrition 0.000 description 2
- 208000035874 Excoriation Diseases 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 235000008429 bread Nutrition 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 235000015219 food category Nutrition 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 235000013372 meat Nutrition 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 239000003643 water by type Substances 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
Abstract
本发明实施例公开了一种图像处理方法及装置,该图像处理方法包括:获取目标图像数据,并获取目标图像数据针对目标对象的显示类型;基于显示类型对应的识别模型,获取目标图像数据所包含的对象对应的对象标签信息,根据对象标签信息确定目标图像数据对应的场景标签信息;确定与场景标签信息相关联的场景优化参数信息;根据目标图像数据对应的基础优化参数信息与场景优化参数信息,对目标图像数据进行参数优化。采用本发明实施例,可以提高图像的处理效率。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种图像处理方法、装置以及终端。
背景技术
随着图像技术的不断发展和各种新兴图像运用的涌现,用户拍照或者录像的频率日益增加,通过终端设备拍摄而来的图像或视频无论在亮度、色调或者对比度都已经不能满足用户日益增长的消费和娱乐需要,因此对图像的质量提出了更高的要求。
现有技术中,可以通过调整图像参数来完成图像或者视频的优化过程。用户可以根据图像或者视频中目标物体或者背景手动调整图像参数,用于突出图像或者视频中的内容,例如对图像或者视频中的风景进行亮度提升,对图像或者视频中的人脸进行美颜或五官微调,对图像或者视频中的建筑物进行边缘锐化突出整体轮廓等。可见,在图像处理过程中,虽然可以根据人为经验实现对图像参数的优化过程,但对于经验不足的用户,需要经过多次调节才能达到用户满意的优化效果,进而导致图像处理的效率低下。
发明内容
本发明实施例提供一种图像处理方法和装置,可以提高图像处理的效率。
本发明实施例一方面提供了一种图像处理方法,包括:
获取目标图像数据,并获取所述目标图像数据针对目标对象的显示类型;
基于所述显示类型对应的识别模型,获取所述目标图像数据所包含的对象对应的对象标签信息,根据所述对象标签信息确定所述目标图像数据对应的场景标签信息;
确定与所述场景标签信息相关联的场景优化参数信息,根据所述目标图像数据对应的基础优化参数信息与所述场景优化参数信息,对所述目标图像数据进行参数优化。
其中,所述方法还包括:
根据所述显示类型与所述目标图像数据对应的第一图像质量信息,确定所述目标图像数据对应的基础优化参数信息。
其中,所述基于所述显示类型对应的识别模型,获取所述目标图像数据所包含的对象对应的对象标签信息,根据所述对象标签信息确定所述目标图像数据对应的场景标签信息,包括:
若所述显示类型为第一显示类型,则将所述目标图像数据输入第一模型中;所述第一模型是指第一显示类型对应的识别模型,所述第一显示类型是指所述目标对象在所述目标图像数据中所占区域比例大于第一比例阈值;
在所述第一模型中获取所述目标对象对应的对象标签信息,根据所述对象标签信息,确定所述目标图像数据对应的场景标签信息。
其中,所述基于所述显示类型对应的识别模型,获取所述目标图像数据所包含的对象对应的对象标签信息,根据所述对象标签信息确定所述目标图像数据对应的场景标签信息,包括:
若所述显示类型为第二显示类型,则为所述目标图像数据中的所述目标对象设置对象标识,并将所述目标图像数据输入第二模型中;所述第二模型是指所述第二显示类型对应的识别模型,所述第二显示类型是指所述目标对象在所述目标图像数据中所占区域比例小于或等于第一比例阈值且大于或等于第二比例阈值;
在所述第二模型中获取与所述目标图像数据所包含的对象相匹配的对象标签信息;
根据所述对象标识与所述对象标签信息,确定所述目标图像数据对应的场景标签信息。
其中,所述根据所述对象标识与所述对象标签信息,确定所述目标图像数据对应的场景标签信息,包括:
将所述对象标签信息添加至待选对象标签信息集合,并从所述待选对象标签信息集合中删除与所述目标对象相关联的对象标签信息,得到目标对象标签信息集合;
获取所述目标对象标签信息集合中每个对象标签信息分别对应的置信度;
根据最高置信度对应的对象标签信息与所述对象标识,确定所述目标图像数据对应的场景标签信息。
其中,所述基于所述显示类型对应的识别模型,获取所述目标图像数据所包含的对象对应的对象标签信息,根据所述对象标签信息确定所述目标图像数据对应的场景标签信息,包括:
若所述显示类型为第三显示类型,则将所述目标图像数据输入第三模型中;所述第三模型是指所述第三显示类型对应的识别模型,所述第三显示类型是指所述目标对象在所述目标图像数据中所占区域比例小于第二比例阈值;
在所述第三模型中获取与所述目标图像数据所包含的对象相匹配的对象标签信息;
根据所述对象标签信息,确定所述目标图像数据对应的场景标签信息。
其中,所述根据所述显示类型与所述目标图像数据对应的第一图像质量信息,确定所述目标图像数据对应的基础优化参数信息之前,还包括:
统计所述目标图像数据对应的第一图像质量信息,将所述第一图像质量信息与所述场景标签信息添加至信息提示窗口,并输出所述信息提示窗口;
响应针对所述信息提示窗口的确认操作,执行所述根据所述显示类型与所述目标图像数据对应的第一图像质量信息,确定所述目标图像数据对应的基础优化参数信息步骤。
其中,所述根据所述显示类型与所述目标图像数据对应的第一图像质量信息,确定所述目标图像数据对应的基础优化参数信息,包括:
根据所述显示类型获取所述目标图像数据对应的优化策略;
若所述优化策略为第一优化策略,则获取所述第一优化策略对应的第一参数调节规则,根据所述第一参数调节规则与所述第一图像质量信息,生成所述目标图像数据对应的基础优化参数信息;所述第一优化策略是指所述目标图像数据中存在目标对象时采用的优化策略;
若所述优化策略为第二优化策略,获取所述第二优化策略对应的第二参数调节规则,根据所述第二参数调节规则与所述第一图像质量信息,生成所述目标图像数据对应的基础优化参数信息;所述第二优化策略是指所述目标图像数据中不存在目标对象时采用的优化策略。
其中,所述场景标签信息包括一级场景标签信息与二级场景标签信息;
所述确定与所述场景标签信息相关联的场景优化参数信息,包括:
根据所述一级场景标签信息,在优化参数数据库中确定所述目标图像数据对应的待选优化参数集合;
根据所述二级场景标签信息,在所述待选优化参数集合中确定所述目标图像数据对应的场景优化参数信息。
其中,所述获取所述目标图像数据针对目标对象的显示类型之前,还包括:
获取所述目标图像数据对应的亮度信息;
若所述亮度信息大于或等于亮度阈值,则执行所述获取所述目标图像数据针对目标对象的显示类型步骤。
其中,所述方法还包括:
若所述亮度信息小于亮度阈值,则根据所述亮度信息确定所述目标图像数据对应的场景标签信息为夜景标签信息;
根据所述目标图像数据对应的第二图像质量信息,确定所述目标图像数据对应的夜景基础优化参数信息,并确定与所述夜景标签信息相关联的夜景场景优化参数信息;
根据所述夜景基础优化参数信息与所述夜景场景优化参数信息,对所述目标图像数据进行参数优化。
本发明实施例一方面提供了一种图像处理装置,包括:
显示类型获取模块,用于获取目标图像数据,并获取所述目标图像数据针对目标对象的显示类型;
标签信息获取模块,用于基于所述显示类型对应的识别模型,获取所述目标图像数据所包含的对象对应的对象标签信息,根据所述对象标签信息确定所述目标图像数据对应的场景标签信息;
第一参数优化模块,用于确定与所述场景标签信息相关联的场景优化参数信息,根据所述目标图像数据对应的基础优化参数信息与所述场景优化参数信息,对所述目标图像数据进行参数优化。
其中,所述装置还包括:
基础参数确定模块,用于根据所述显示类型与所述目标图像数据对应的第一图像质量信息,确定所述目标图像数据对应的基础优化参数信息。
其中,所述标签信息获取模块包括:
第一输入单元,用于若所述显示类型为第一显示类型,则将所述目标图像数据输入第一模型中;所述第一模型是指第一显示类型对应的识别模型,所述第一显示类型是指所述目标对象在所述目标图像数据中所占区域比例大于第一比例阈值;
第一场景标签确定单元,用于在所述第一模型中获取所述目标对象对应的对象标签信息,根据所述对象标签信息,确定所述目标图像数据对应的场景标签信息。
其中,所述标签信息获取模块包括:
第二输入单元,用于若所述显示类型为第二显示类型,则为所述目标图像数据中的所述目标对象设置对象标识,并将所述目标图像数据输入第二模型中;所述第二模型是指所述第二显示类型对应的识别模型,所述第二显示类型是指所述目标对象在所述目标图像数据中所占区域比例小于或等于第一比例阈值且大于或等于第二比例阈值;
第一对象标签获取单元,用于在所述第二模型中获取与所述目标图像数据所包含的对象相匹配的对象标签信息;
第二场景标签确定单元,用于根据所述对象标识与所述对象标签信息,确定所述目标图像数据对应的场景标签信息。
其中,所述第二场景标签确定单元包括:
删除子单元,用于将所述对象标签信息添加至待选对象标签信息集合,并从所述待选对象标签信息集合中删除与所述目标对象相关联的对象标签信息,得到目标对象标签信息集合;
置信度获取子单元,用于获取所述目标对象标签信息集合中每个对象标签信息分别对应的置信度;
场景确定子单元,用于根据最高置信度对应的对象标签信息与所述对象标识,确定所述目标图像数据对应的场景标签信息。
其中,所述标签信息获取模块包括:
第三输入单元,用于若所述显示类型为第三显示类型,则将所述目标图像数据输入第三模型中;所述第三模型是指所述第三显示类型对应的识别模型,所述第三显示类型是指所述目标对象在所述目标图像数据中所占区域比例小于第二比例阈值;
第二对象标签获取单元,用于在所述第三模型中获取与所述目标图像数据所包含的对象相匹配的对象标签信息;
第三场景标签获取单元,用于根据所述对象标签信息,确定所述目标图像数据对应的场景标签信息。
其中,所述装置还包括:
提示窗口输出模块,用于统计所述目标图像数据对应的第一图像质量信息,将所述第一图像质量信息与所述场景标签信息添加至信息提示窗口,并输出所述信息提示窗口;
响应操作模块,用于响应针对所述信息提示窗口的确认操作,执行所述根据所述显示类型与所述目标图像数据对应的第一图像质量信息,确定所述目标图像数据对应的基础优化参数信息步骤。
其中,基础参数确定模块,包括:
优化策略获取单元,用于根据所述显示类型获取所述目标图像数据对应的优化策略;
第一规则获取单元,用于若所述优化策略为第一优化策略,则获取所述第一优化策略对应的第一参数调节规则,根据所述第一参数调节规则与所述图像质量信息,生成所述目标图像数据对应的基础优化参数信息;所述第一优化策略是指所述目标图像数据中存在目标对象时采用的优化策略;
第二规则获取单元,用于若所述优化策略为第二优化策略,获取所述第二优化策略对应的第二参数调节规则,根据所述第二参数调节规则与所述第一图像质量信息,生成所述目标图像数据对应的基础优化参数信息;所述第二优化策略是指所述目标图像数据中不存在目标对象时采用的优化策略。
其中,所述场景标签信息包括一级场景标签信息与二级场景标签信息;
所述第一参数优化模块包括:
待选优化参数确定单元,用于根据所述一级场景标签信息,在优化参数数据库中确定所述目标图像数据对应的待选优化参数集合;
场景参数确定单元,用于根据所述二级场景标签信息,在所述待选优化参数集合中确定所述目标图像数据对应的场景优化参数信息。
其中,所述装置还包括:
亮度信息获取模块,用于获取所述目标图像数据对应的亮度信息;
第一判断模块,用于若所述亮度信息大于或等于亮度阈值,则执行所述获取所述目标图像数据针对目标对象的显示类型步骤。
其中,所述装置还包括:
第二判断模块,用于若所述亮度信息小于亮度阈值,则根据所述亮度信息确定所述目标图像数据对应的场景标签信息为夜景标签信息;
夜景参数信息获取模块,用于根据所述目标图像数据对应的第二图像质量信息,确定所述目标图像数据对应的夜景基础优化参数信息,并确定与所述夜景标签信息相关联的夜景场景优化参数信息;
第二参数优化模块,用于根据所述夜景基础优化参数信息与所述夜景场景优化参数信息,对所述目标图像数据进行参数优化。
本发明实施例一方面提供了一种终端,包括:处理器和存储器;
所述处理器和存储器相连,其中,所述存储器用于存储程序代码,所述处理器用于调用所述程序代码,以执行如本发明实施例中一方面中的方法。
本发明实施例另一方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时,执行如本发明实施例中一方面中的方法。
本发明实施例通过对目标图像数据进行目标对象检测,获得上述目标图像数据针对目标对象的显示类型,根据显示类型,可以获取上述目标图像数据所包含的对象对应的对象标签信息,进而根据上述对象标签信息确定所述目标图像数据对应的场景标签信息,可以根据目标图像数据对应的图像质量信息确定基础优化参数信息,根据上述场景标签信息确定场景优化参数信息,进而可以根据上述基础优化参数信息和场景优化参数信息,对目标图像数据进行参数优化。可见,在图像处理过程中,无需人工参与就可以根据图像对应的图像质量信息自动对该图像进行基础调整,并可以自动识别该图像中的场景,获取与上述场景相关联的场景参数对该图像进行参数优化,进而可以避免因手动进行图像优化而带来的繁琐步骤,从而提高图像数据处理的效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种图像处理方法的场景示意图;
图2是本发明实施例提供的一种图像处理方法的流程示意图;
图3是本发明实施例提供的一种图像处理方法的界面示意图;
图4是本发明实施例提供的另一种图像处理方法的流程示意图;
图5a-图5c是本发明实施例提供的另一种图像处理方法的界面示意图;
图6是本发明实施例提供的另一种图像处理方法的流程示意图;
图7a、图7b是本发明实施例提供的另一种图像处理方法的界面示意图;
图8是本发明实施例提供的另一种图像处理方法的流程示意图;
图9是本发明实施例提供的另一种图像处理方法的流程示意图;
图10是本发明实施例提供的一种图像处理流程示意图;
图11是本发明实施例提供的一种图像处理装置的结构示意图;
图12是本发明实施例提供的一种终端的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参见图1,是本发明实施例提供的一种图像处理方法的场景示意图。如图1所示,用户可以通过终端设备100a中的相机应用实时拍摄照片或者视频,将实时拍摄的照片或者视频的视频帧作为需要进行图像参数优化的目标图像数据200a。可选的,用户也可以从终端设备100a上存储图像或视频的应用中,选择图片作为目标图像数据200a。将目标图像数据200a输入至已经训练好的神经网络模型(也可以称为识别模型)中,利用上述神经网络模型的分类功能获取与目标图像数据200a对应的场景标签信息“山水”。
其中,上述神经网络模型可以包括多个用于实现不同功能的网络模型,例如用于人脸检测的网络模型(可以称为人脸检测模型),用于场景识别的网络模型(可以称为场景识别模型),用于年龄、性别检测的网络模型(可以称为年龄/性别检测模型)等,上述多种网络模型可以为卷积神经网络、深度信念网络、生成式对抗网络等。可以通过已经训练好的人脸检测模型对目标图像数据200a进行人脸检测,该人脸检测模型可以检测到该目标图像数据200a中存在人像,但因检测到的人脸区域所占目标图像数据200a的比例过小,可以将其确定为无效人脸,即该目标图像数据200a中的人脸相对于整张图像的后续场景识别结果不会造成任何影响,可以忽略不计,因此在后续的场景识别过程中可以忽略对人脸区域的识别,只需要对目标图像数据200a中除人脸区域之外的对象进行识别即可,进而可以提高后续场景识别的效率。随后可以利用已经训练好的场景识别模型对目标图像数据200a进行场景识别,可以得到该目标图像数据200a对应的多个标签信息及每个标签信息对应的置信度,分别可以表示为标签信息:土地,置信度:30.4%;标签信息:植物,置信度:40.5%;标签信息:山水,置信度:83.9%,可以将置信度为83.9%的标签信息“山水”确定为该目标图像数据200a对应的场景标签信息。
可以统计该目标图像数据200a对应的图像质量信息(也可以称为图像特征数据),图像质量信息可以包括平均亮度、对比度、平均色温、过曝光、欠曝光等,将统计得到的图像质量信息和上述通过神经网络模型获得的场景标签信息添加至信息提示窗口,并在上述终端设备100a上显示上述信息提示窗口,该目标图像数据200a对应的图像质量信息分别为平均亮度0.42,对比度0.50,平均色温7150K(K表示开尔文,一种温度的计量单位),过曝光0.26,欠曝光0.23,该目标图像数据200a对应的场景标签信息为“山水”,该场景标签信息“山水”对应的置信度为83.9%,进而可以确定该目标图像数据200a的场景为“山水”,用户可以对信息提示窗口中的信息进行确认,响应用户针对上述信息提示窗口的确认操作时,可以根据上述图像质量信息确定该目标图像数据200a对应的基础优化参数信息,并确定与场景“山水”相关联的场景优化参数信息,可以根据上述基础优化参数信息自动为目标图像数据200a进行基础优化,由于基础优化是根据目标图像数据的整体亮度、色温等信息对整个图像进行统一调节,并未考虑到目标图像数据中所包含的具体对象之间、或者对象与图像背景之间的差异,通过上述场景优化参数信息可以自动为上述基础优化后的目标图像数据200a进行场景参数优化,可以对目标图像数据中所包含的对象进行参数调整,得到最终的优化图像数据200b,并在终端设备100a的屏幕上显示上述优化图像数据200b。该优化图像数据200b中,不仅对目标图像数据200a的整体进行了参数调整,还对目标图像数据200a所包含的对象进行了不同程度的优化,因此,通过结合基础优化参数信息和场景优化参数信息可以更好地实现目标图像数据200a的参数优化,达到更好的优化效果。
其中,终端设备100a可以包括手机、平板电脑、笔记本电脑、掌上电脑、移动互联网设备(mobile internet device,MID)、POS(Point Of Sales,销售点)机、可穿戴设备(例如智能手表、智能手环等)或其他具有存储图像数据或者视频数据功能的终端设备,上述目标图像数据既可以是图片也可以是视频中的任一视频帧。
进一步的,请参见图2,是本发明实施例提供的一种图像处理方法的流程示意图。如图2所示,该图像处理方法可以包括如下步骤:
步骤S101,获取目标图像数据,并获取所述目标图像数据针对目标对象的显示类型;
具体的,终端设备可以通过用户实时拍摄照片或者视频,根据拍摄的照片或者视频的视频帧确定目标图像数据,并可以对目标图像数据进行目标对象检测,根据检测结果确定上述目标图像数据针对目标对象的显示类型。
其中,上述目标对象可以是指人脸、风光、美食、物体或者其余对象中的的任一种,这里不做限定。针对不同的目标对象,上述显示类型均可以包括多种显示类型,当目标对象在目标图像数据中所占区域比例超过某一比例阈值(如15%,这里的比例阈值可以根据实际需要进行设置,这里不做限定)时,可以将该目标图像数据针对目标对象的显示类型称之为超大目标对象显示类型;当目标对象在目标图像数据中所占区域比例处于预设的比例范围之间(如7%-15%)时,可以将目标图像数据针对目标对象的显示类型称之为有效目标对象显示类型;当目标对象在目标图像数据中所占区域比例小于某一比例阈值(如7%)、或者目标图像数据中不存在上述目标对象时,可以将目标图像数据针对目标对象的显示类型称之为无效目标对象显示类型。下面以目标对象是人脸为例,对显示类型进行具体说明:终端设备可以利用人脸检测技术对该目标图像数据进行人脸检测,得到该目标图像数据针对人脸的显示类型,显示类型可以包括三种,第一种为超大人脸显示类型,即检测到该目标图像数据中存在人脸,且人脸占了目标图像数据的大部分区域(如人脸的宽度超过目标图像数据宽度的15%);第二种为有效人脸显示类型,即检测到该目标图像数据中存在人脸,且人脸占了目标图像数据少部分区域(如人脸的宽度处于目标图像数据宽度的7%~15%之间,包括7%和15%);第三种为无效人脸显示类型,即检测到该目标图像数据中虽然存在人脸,但人脸仅占了目标图像数据的极少部分区域(如人脸的宽度小于目标图像数据宽度的7%),或者该目标图像数据中不存在人脸。
其中,上述人脸检测过程可以直接调用终端设备本地中的人脸检测技术,在无网络的环境中仍然可以对目标图像数据进行人脸检测。
步骤S102,基于所述显示类型对应的识别模型,获取所述目标图像数据所包含的对象对应的对象标签信息,根据所述对象标签信息确定所述目标图像数据对应的场景标签信息;
具体的,根据上述获取的显示类型,可以使用上述显示类型对应的识别模型对目标图像数据进行识别,将目标图像数据输入识别模型中,可以获取目标图像数据所包含的对象对应的对象标签信息。换言之,对于不同显示类型的目标图像数据可以使用不同的识别模型进行图像识别,例如,显示类型为超大人脸显示类型,可以使用年龄/性别检测模型对目标图像数据进行识别,获取目标图像数据中人脸对应的对象标签信息;显示类型为有效人脸显示类型或者无效人脸类型,可以使用场景识别模型对目标图像数据进行识别,获取目标图像数据中所包含的每个对象分别对应的对象标签信息。通过识别模型获取到对象标签信息后,可以根据对象标签信息确定目标图像数据对应的场景标签信息。例如,目标图像数据中包含超大人脸(或人像),通过年龄/性别检测模型对目标图像数据中的超大人脸进行性别和年龄检测,若检测到的结果为性别为女且年龄大于10岁,则该目标图像数据的对象标签信息为“女生”,可以确定该目标图像数据对应的场景标签信息为“女生”;若检测到的结果为性别为女且年龄小于10岁,则该目标图像数据的对象标签信息为“女童”,可以确定该目标图像数据对应的场景标签信息为“儿童”等。
需要说明的是,终端设备可以识别1400多个场景标签,由于在实际应用中,比较常用的场景标签仅有200个左右,为了方便人为管理,可以将上述常用的场景标签分为至少四个大类(即一级大类),至少十九个子类(即二级子类),每个一级大类和二级子类包括的场景标签均是预先设定好的,每个二级子类可以包括多个场景标签,每个二级子类包括的场景标签数量可以相同,也可以不同,这里不做限定。
其中,所述至少四个一级大类分别为人像A,风光B,美食C,物体D等。人像A可以至少包括五个二级子类,例如,分别为女生A1、男生A2、婴儿A3、多人A4、运动A5。风光B可以至少包括五个二级子类,例如,分别为山水B1、建筑B2、室内B3、夜景B4、天空B5。美食C可以至少包括五个二级子类,例如,分别为菜肴C1、甜点C2、肉类C3、饮品C4、餐厅C5。物体D可以至少包括四个二级子类,例如,分别为静物D1、动物D2、植物D3、图形D4。
在目标图像数据的处理过程中,可以在终端设备上显示上述四个一级大类和十九个二级子类。
另外,对于目标图像数据中包含人脸,且显示类型为有效人脸显示类型时,目标图像数据的场景类别既需要考虑目标图像数据中所包含的人,还要考虑目标图像数据中所包含的景(除人之外的其余对象),可以新增一个一级大类,称为人带景E。其中,人带景E可以至少包括四个二级子类,分别为人+风光E1,人+美食E2,人+物体E3,人+其他E4。因此终端设备中可以共设置有至少五个一级大类和至少二十三个二级子类。为方便描述,本发明实施例中将上述1400多个场景标签均称为对象标签信息,将上述至少五个一级大类及至少二十三个二级子类对应的标签称为场景标签信息,下面不再进行赘述。
步骤S103,确定与所述场景标签信息相关联的场景优化参数信息,根据所述目标图像数据对应的基础优化参数信息与所述场景优化参数信息,对所述目标图像数据进行参数优化。
具体的,可以从终端设备预先存储的优化参数数据库中提取与上述场景标签信息相匹配的场景优化参数信息,并根据目标图像数据对应的图像质量信息,确定该目标图像数据对应的基础优化参数信息。换言之,基础优化参数信息与目标图像数据本身的图像质量信息相关联,不同的目标图像数据具有不同的基础优化参数信息;场景优化参数信息是根据场景标签信息从优化参数数据库中直接提取的,即对于具有相同场景标签信息的目标图像数据,场景优化参数信息是一样的。
其中,优化参数数据库可以存储在终端设备的本地文件中,查找场景优化参数信息时在本地文件中直接查找并获取场景优化参数信息;也可以存储在云端服务器中,查找场景优化参数信息时通过网络访问云端服务器并获取场景优化参数信息。
根据上述确定的基础优化参数信息,可以对目标图像数据进行基础修正,然后根据上述确定的场景优化参数信息对基础修正后的目标图像数据进行参数优化,得到最终的优化图像数据,也可以称为第一优化图像数据。基础优化参数信息与场景优化参数信息均用于调整目标图像数据的图像参数,基础优化参数信息可以提高或者降低目标图像数据的平均亮度,提高或者降低目标图像数据的平均色温,增加目标图像数据的对比度、对目标图像数据进行去噪等(如目标图像数据拍摄于亮度较低的室内,基础优化参数信息可以包含用于提高目标图像数据亮度、增加对比度、提高色温的图像优化参数);场景优化参数信息可以用于在基础修正后再次调整目标图像数据的图像参数,包括调整亮度、饱和度、清晰度、人物美化、色调美化、滤镜特效等(如目标图像数据为女生自拍照,场景优化参数信息可以包含和风滤镜、磨皮、***、去皱以及用于提高目标图像数据亮度的图像优化参数)。基础修正后的目标图像数据和最终的优化图像数据均可以在终端设备的屏幕上进行显示。
请进一步参见图3,是本发明实施例提供的一种图像处理方法的界面示意图。如图3所示,对于目标图像数据300a,可以通过人脸检测技术检测到该目标图像数据300a中不存在人脸,进而可以将目标图像数据300a输入到神经网络模型中,利用神经网络模型确定目标图像数据所包含的每个对象分别对应的对象标签信息,进而可以根据对象标签信息确定该目标图像数据300a对应的场景标签信息为“静物400a”;在确定了目标图像数据300a对应的场景标签信息后,可以根据目标图像数据300a对应的图像质量信息,确定该目标图像数据300a对应的基础优化参数信息,可以根据基础优化参数信息对目标图像数据300a进行基础修正,得到基础修正图像300b,并在终端设备的屏幕上显示上述基础修正图像300b,该基础修正图像300b在终端设备上的显示时间较短(如2秒),可以在不影响图像优化效率的前提下使得用户对基础修正图像进行预览。可以根据场景标签信息确定目标图像数据300a对应的场景优化参数信息,基于上述场景优化参数信息对基础修正图像300b进行参数优化,可以得到优化图像数据300c,并在屏幕上进行显示,以便用户预览上述优化图像数据300c,若用户满意该优化图像数据300c可以点击“确定”按钮,将该优化图像数据300c直接保存至终端设备中的照片应用或者视频应用;若不满意,可以点击“取消”按钮进行取消。
可选的,用户可以从至少五个一级大类和至少二十三个二级子类中直接选择目标图像数据对应的场景标签信息,终端设备可以响应用户针对场景标签信息的操作,直接根据目标图像数据对应的图像质量信息获取基础优化参数信息,从优化参数数据库中直接提取与用户选择场景标签信息(若用户只选择了一级大类中的场景标签,则默认该一级大类中的第一个二级子类作为该目标图像数据对应的场景标签信息,如用户选择了一级大类“风光”,则默认二级子类“山水”作为该目标图像数据对应的场景标签信息)相关联的场景优化参数信息,无需对目标图像数据进行场景识别,根据基础优化参数信息和场景优化参数信息,对目标图像数据进行参数优化,得到第一优化图像数据。其中,用户可以通过点击或者语音选择目标图像数据对应的场景。
本发明实施例通过对目标图像数据进行目标对象检测,获得上述目标图像数据针对目标对象的显示类型,根据显示类型,可以获取上述目标图像数据所包含的对象对应的对象标签信息,进而根据上述对象标签信息确定所述目标图像数据对应的场景标签信息,可以根据目标图像数据对应的图像质量信息确定基础优化参数信息,根据上述场景标签信息确定场景优化参数信息,进而可以根据上述基础优化参数信息和场景优化参数信息,对目标图像数据进行参数优化。可见,在图像处理过程中,无需人工参与就可以根据图像对应的图像质量信息自动对该图像进行基础调整,并可以自动识别该图像中的场景,获取与上述场景相关联的场景参数对该图像进行参数优化,进而可以避免因手动进行图像优化而带来的繁琐步骤,从而提高图像数据处理的效率;为不同的场景类别设置不同的参数优化信息,提高了图像优化处理的多样性。
请参见图4,是本发明实施例提供的另一种图像处理方法的流程示意图。如图4所示,该图像处理方法可以包括如下步骤:
步骤S201,获取目标图像数据,获取所述目标图像数据对应的亮度信息;
具体的,终端设备在确定了目标图像数据后,可以获取该目标图像数据对应的亮度信息,该亮度信息可以包括目标图像数据对应的平均亮度、欠曝光以及过曝光等信息。平均亮度可以反映整张目标图像数据(这里默认所有目标图像数据均为彩色图像)的明亮程度,可以将目标图像数据转换到HSL(一种颜色标准,H表示色相,S表示饱和度,L表示明度)或YUV(一种颜色编码方法,Y表示亮度信号,U和V表示连个色差信号)空间,通过计算HSL空间的Lightness(即上述L表示的明度)均值或YUV空间的Luminance(即上述Y表示的明亮度)均值,可以得到代表上述目标图像数据的平均亮度;过曝光可以用于表示目标图像数据是否整体亮度过高,可以通过统计目标图像数据中亮度超过某一高亮度阈值(如高亮度阈值为160,亮度范围为0~255)的像素点占比而得到;欠曝光可以用于表示目标图像数据是否整体亮度过低,可以通过统计目标图像数据中亮度超过某一低亮度阈值(如高亮度阈值为70,亮度范围为0~255)的像素点占比而得到。
可选的,若目标图像数据为灰度图像,则无需将目标图像数据转换到HSL或YUV空间,可以直接根据目标图像数据中像素点的像素值(像素值范围为0~255)计算平均亮度、过曝光、欠曝光等信息。
步骤S202,若所述亮度信息大于或等于亮度阈值,则获取所述目标图像数据针对目标对象的显示类型;
具体的,若上述获取到的亮度信息大于或等于亮度阈值,即亮度信息不满足平均亮度过低且欠曝光的条件,则可以获取该目标图像数据针对目标对象的显示类型,关于上述显示类型的获取方式可以参见图1所对应实施例中对步骤S101的描述,这里不再进行赘述。上述亮度阈值可以包括平均亮度阈值与欠曝光阈值,可以根据实际应用预先设定,这里不做限定。
步骤S203,若所述显示类型为第一显示类型,则将所述目标图像数据输入第一模型中;
具体的,若上述显示类型为第一显示类型,即目标对象在目标图像数据中的所占区域比例大于第一比例阈值(如15%),则将该目标图像数据输入已经训练好的第一模型中。其中,上述第一模型是指第一显示类型对应的识别模型,目标对象在目标图像数据中的所占区域比例可以是指目标图像数据中目标对象的宽度与目标图像数据宽度的比值。以目标对象是人脸为例,第一显示类型即为上述步骤S101中的超大人脸显示类型,第一模型可以是指用于检测年龄、性别的卷积神经网络模型、深度信念网络模型、生成对抗式网络模型等。
步骤S204,在所述第一模型中获取所述目标对象对应的对象标签信息,根据所述对象标签信息,确定所述目标图像数据对应的场景标签信息;
具体的,通过上述第一模型可以获取目标图像数据中目标对象对应的对象标签信息。以目标对象是人脸为例,利用第一模型的特征提取以及分类功能可以得到与目标图像数据中的人脸相匹配的对象标签信息(该对象标签信息可以为该人脸对应的性别、年龄信息),并通过该对象标签信息确定目标图像数据对应的场景标签信息。当然,在获取对象标签信息的过程中,可以将整个目标图像数据输入第一模型中,或者也可以只提取目标图像数据中人脸所在区域输入第一模型中,通过提取人脸所在区域中的特征,并对提取到的人脸特征进行分类,得到该人脸对应的对象标签信息,将获取到的对象标签信息与终端设备中存储的场景标签信息(至少五个一级大类和至少二十三个二级子类)进行匹配,进而可以确定目标图像数据对应的场景标签信息。若得到的对象标签信息为“女生”、“青年”(“女生”是针对目标图像数据中人脸所属的性别标签,“青年”是针对人脸所属的年龄标签,根据性别标签和年龄标签可以确定目标图像数据的场景标签信息),则根据上述对象标签信息可以将该目标图像数据对应的场景标签信息确定为“女生”;若得到的对象标签信息为“男生”、“婴儿”,则可以将该目标图像数据的场景标签信息确定为“婴儿”;若得到的对象标签信息为“男生”、“中年”时,则可以将该目标图像数据的场景标签信息确定为“男生”。
可选的,由于终端设备中仅对常用的200个左右的对象标签信息进行了分类,若在第一显示类型条件下,通过上述第一模型获取到的对象标签信息不属于终端设备中存储的至少五个一级大类和至少二十三个二级子类中的任一类,即目标图像数据中的人脸对应的对象标签信息无法匹配到场景标签信息,则终端设备可以自动将该目标图像数据对应的场景标签信息确定为“女生”。
步骤S205,统计所述目标图像数据对应的第一图像质量信息,将所述第一图像质量信息与所述场景标签信息添加至信息提示窗口,并输出所述信息提示窗口;
具体的,可以统计上述目标图像数据对应的第一图像质量信息,第一图像质量信息可以包括亮度信息,平均色温,对比度等信息,亮度信息的统计可以参见上述步骤S201中的描述,此处不在进行赘述。不同颜色的色温值不一样,平均色温可以决定整张目标图像数据是偏冷还是偏暖,可以根据色温矩阵,将目标图像数据的RGB(一种颜色标准,R表示红色,G表示绿色,B表示蓝色)颜色映射到对应的开尔文温度,计算整张目标图像数据对应的平均色温。需要注意的是,大部分RGB颜色没有对应的开尔文温度,需要在色温矩阵中寻找与RGB颜色最相近的色温。上述色温矩阵中包括各个开尔文温度对应的多种颜色标准下的颜色数值,如HSL颜色标准下颜色数值对应的开尔文温度,YUV颜色标准下颜色数值对应的开尔文温度,因此也可以将目标图像数据的HSL颜色映射到对应的开尔文温度,或者将目标图像数据的YUV颜色映射到对应的开尔文温度,计算整张目标图像数据对应的平均色温。以RGB颜色为例,色温矩阵中1000K对应的RGB颜色为:R-255,G-51,B-0,RGB-#ff3300(RGB值的16进制表示),换言之,当目标图像数据中的RGB颜色为R-255,G-51,B-0,RGB-#ff3300时,其对应的色温为1000K。对比度是指图片中明暗区域最亮的白和最暗的黑之间不同亮度层级的测量,对比度越大,图片的色彩表现越丰富;将上述统计得到的第一图像质量信息(包括平均亮度、对比度、平均色温、欠曝光、过曝光)和上述场景标签信息添加至信息提示窗口,并在终端设备的屏幕上显示包含第一图像质量信息和场景标签信息的信息提示窗口(可以参见图1)。
步骤S206,响应针对所述信息提示窗口的确认操作,根据所述显示类型获取所述目标图像数据对应的优化策略;
具体的,在终端设备的屏幕上显示上述信息提示窗口时,用户可以对该信息提示窗口进行信息确认,终端设备可以响应用户针对该信息提示窗口的确认操作,可以根据第一显示类型获取目标图像数据对应的优化策略,即根据第一显示类型确定对目标图像数据进行基础修正的调节算法。其中,对于上述信息提示窗口,若该信息提示窗口在屏幕上的显示时长超过某一时长(如1分钟),且终端设备在该时长内未检测到用户针对该信息提示窗口的确认操作,终端设备可以自动对该信息提示窗口进行确认,进而获取目标图像数据对应的优化策略。
步骤S207,获取第一优化策略对应的第一参数调节规则,根据所述第一参数调节规则与所述第一图像质量信息,生成所述目标图像数据对应的基础优化参数信息;
具体的,在显示类型为第一显示类型的前提下,该目标图像数据对应的优化策略为第一优化策略,可以获取第一优化策略对应的第一参数调节规则,进而可以根据第一参数调节规则生成目标图像数据对应的基础优化参数信息。
其中,上述第一优化策略是指目标图像数据中存在目标对象时采用的优化策略。以目标对象是人脸为例,第一优化策略为目标图像数据中存在人脸时采用的优化策略,上述第一参数调节规则可以包括自动亮度调节、自动对比度调节、自动色温调节、自动白平衡调节、自动去雾、自动去噪等。自动亮度调节是指目标图像数据的平均亮度小于0.35且欠曝光小于0.8时,可以使用亮度和高光调节项,增加的亮度可以表示为:(0.35-当前平均亮度)*200%,增加的亮度范围为5%~40%,高光调整可以表示为:-过曝光*200%,如过曝光为0.12,高光为-24%,或者目标图像数据的平均亮度小于0.35且欠曝光大于0.8时,可以使用亮度和阴影调节项,增加的亮度可以表示为:(0.35-当前平均亮度)*200%,增加的亮度范围为5%~30%,阴影可以表示为:(欠曝光-0.8)*200%;自动对比度调节是指使用传统的直方图均衡算法,在RGB通道上运用直方图均衡算法,增大目标图像数据的整体对比度;自动色温调节是指统计到整张目标图像数据的平均色温值后(对于存在人脸的目标图像数据,只需统计人脸区域的平均色温值),若平均色温值在3500K~7000K为正常色温区间,则可以不做色温调整;若平均色温值处于0~3499K,则表示该平均色温值为偏暖色温,需要往偏冷方向调整,可以使用色温调节项,冷色温调节可以表示为:0.02*(3500-当前色温);若平均色温值大于7001K,则表示该平均色温值为偏冷色温,需要往偏暖方向调整,可以使用色温调节项,暖色温调节可以表示为:0.01*(当前色温-7000)。通过上述调节项可以获得目标图像数据对应的基础优化参数信息。
其中,对于目标图像数据,上述第一参数调节规则中描述的调节项并不是都要使用,只有在满足上述亮度过低或过高、色温过低或过高等条件时,才会使用相应的调节项对目标图像数据进行调整。
步骤S208,根据一级场景标签信息,在优化参数数据库中确定所述目标图像数据对应的待选优化参数集合;
具体的,场景标签信息可以包括一级场景标签信息和二级场景标签信息,一级场景标签信息是指至少五个一级大类对应的标签信息,二级场景标签信息是指至少二十三个二级子类对应的标签信息。根据场景标签信息中的一级场景标签信息,可以在优化参数数据库中确定目标图像数据对应的待选优化参数集合,即根据一级场景标签信息可以确定目标图像数据对应的场景优化参数信息的选择范围。以目标对象是人脸为例,对于上述第一显示类型的目标图像数据,在检测到目标图像数据中存在超大人脸时,就可以确定该目标图像数据对应的一级场景标签信息为“人像”,进而可以确定该目标图像数据对应的待选优化参数集合为“人像”类别包含的至少五个二级子类对应的参数信息,相比于从至少二十三个二级子类对应的参数信息中选择与目标图像数据相匹配的参数信息,大大缩小了参数选择的范围。
步骤S209,根据所述二级场景标签信息,在所述待选优化参数集合中确定所述目标图像数据对应的场景优化参数信息;
具体的,若目标图像数据对应的待选优化参数集合为“人像”类别包含的至少五个二级子类对应的参数信息,可以根据场景标签信息中的二级场景标签信息,假设二级场景标签信息为“女生”,则可以在待选优化参数集合中选择二级场景标签信息“女生”相关联的优化参数信息作为该目标图像数据对应的场景优化参数信息。
请一并参见图5a,是本发明实施例提供的另一种图像处理方法的界面示意图。如图5a所示,在利用人脸检测技术对目标图像数据进行人脸检测时,可以检测到目标图像数据中存在超大人脸,因此在人脸检测过程中该目标图像数据已经携带“人像”标识,通过神经网络模型(如性别、年龄检测模型)可以确定目标图像数据对应的对象标签信息为“女生”,“青年”,进而可以确定该目标图像数据对应的场景标签信息为“人像/女生”,其中“人像”为一级场景标签信息,“女生”为二级场景标签信息。根据一级场景标签信息“人像”可以从优化参数数据库对应的数据表800中进行查找,将“人像”对应的所有参数信息确定为待选优化参数集合,即可以根据一级场景标签信息“人像”减小参数选择的范围;在确定了待选优化参数集合后,可以根据二级场景标签信息“女生”从上述待选优化参数集合中查找出“女生”对应的参数信息,作为目标图像数据对应的场景优化参数信息。可见,通过一级场景标签信息和二级场景标签信息,可以从优化参数数据库对应的数据表800中快速查找出目标图像数据对应的场景优化参数信息。
步骤S210,根据所述基础优化参数信息与所述场景优化参数信息,对所述目标图像数据进行参数优化。
其中,步骤S210的具体实现方式可以参见图2所对应实施例中对步骤S103的描述,这里不再进行赘述。
请进一步参见图5b和图5c,是本发明实施例提供的一种图像处理方法的界面示意图,如图5b所示,利用人脸检测技术对目标图像数据500a进行人脸检测后,可以确定该目标图像数据500a中存在超大人脸600a,可以将该目标图像数据500a确定为人像类别,通过第一模型可以检测出人脸600a对应的对象标签信息为“女生”、“青年”,因此可以根据该对象标签信息确定该目标图像数据500a所属的场景标签信息为“女生”(也可以表示为“人像/女生”),为方便表示,在终端设备的屏幕上,该目标图像数据500a对应的场景标签信息可以显示为如图5c所示的“女生400b”,通过统计该目标图像数据500a的图像质量信息可以获取相应的参数调节规则,确定该目标图像数据500a对应的基础优化参数信息,并基于基础优化参数信息对该目标图像数据500a进行基础修正,从优化参数数据库中提取与“女生400b”相关联的场景优化参数信息,对基础修正后的目标图像数据500a进行参数优化,可以得到图5b所示的优化图像数据500b,并可以在终端设备的屏幕上进行显示,同时也可以在屏幕上显示该目标图像数据500a对应的场景标签信息为“女生400b”,若用户满意参数优化后的优化图像数据500b,则可以点击“确定”按键进行保存;若用户不满意参数优化后的优化图像数据500b,则可以点击“取消”按键进行取消。
本发明实施例通过对目标图像数据进行目标对象检测,获得上述目标图像数据针对目标对象的显示类型,根据显示类型,可以获取上述目标图像数据所包含的对象对应的对象标签信息,进而根据上述对象标签信息确定所述目标图像数据对应的场景标签信息,可以根据目标图像数据对应的图像质量信息确定基础优化参数信息,根据上述场景标签信息确定场景优化参数信息,进而可以根据上述基础优化参数信息和场景优化参数信息,对目标图像数据进行参数优化。可见,在图像处理过程中,无需人工参与就可以根据图像对应的图像质量信息自动对该图像进行基础调整,并可以自动识别该图像中的场景,获取与上述场景相关联的场景参数对该图像进行参数优化,进而可以避免因手动进行图像优化而带来的繁琐步骤,从而提高图像数据处理的效率;为不同的场景类别设置不同的参数优化信息,提高了图像优化处理的多样性。
请参见图6,是本发明实施例提供的另一种图像处理方法的流程示意图。如图6所示,该图像处理方法可以包括以下步骤:
步骤S301,获取目标图像数据,并获取所述目标图像数据针对目标对象的显示类型;
其中,步骤S301的具体实现方式可以参见图2所对应实施例中对步骤S101的描述,或者可以参见图4所对应实施例中对步骤S201-步骤S202的描述,这里不再进行赘述。
步骤S302,若所述显示类型为第二显示类型,则为所述目标图像数据中的所述目标对象设置对象标识,并将所述目标图像数据输入第二模型中;
具体的,若上述显示类型为第二显示类型,即目标对象在目标图像数据中的所占区域比例小于或等于第一比例阈值(如15%)且大于或等于第二比例阈值(如7%),则为该目标图像数据中的目标对象设置对象标识,并将该目标图像数据输入已经训练好的第二模型中。其中,上述第二模型是指第二显示类型对应的识别模型。以目标对象是人脸为例,第二显示类型即为上述步骤S101中的有效人脸显示类型,第二模型可以是指用于检测图像所属场景的卷积神经网络模型、深度信念网络模型、生成对抗式网络模型等,对象标识是指在使用人脸检测技术确定显示类型的过程中,该目标图像数据已经获得了“人像”标识。
步骤S303,在所述第二模型中获取与所述目标图像数据所包含的对象相匹配的对象标签信息;
具体的,通过上述第二模型可以获取与上述目标图像数据所包含的每个对象相匹配的对象标签信息。以目标对象是人脸为例,利用第二模型的特征提取以及分类功能得到与该目标图像数据中每个对象相匹配的对象标签信息,因此,对于包含多个对象的目标图像数据,通过第二模型可以获取该目标图像数据对应的多个对象标签信息,例如对于某张目标图像数据,对象标签信息可以为“大海”,“天空”,“天空/云”,“海滩”。
步骤S304,将所述对象标签信息添加至待选对象标签信息集合,并从所述待选对象标签信息集合中删除与所述目标对象相关联的对象标签信息,得到目标对象标签信息集合;
具体的,可以将上述第二模型获取到的对象标签信息全部添加至待选对象标签信息集合,并从待选对象标签信息集合中删除与目标对象相关联的对象标签信息,将进行删除后的待选对象标签信息集合确定为目标对象标签集合。以目标对象是人脸为例,若目标图像数据针对人脸的显示类型为有效人脸类型,通过上述第二模型获取到的多个对象标签信息(即待选对象标签信息集合)分别为:“自拍”、“大海”、“海滩”,则可以删除对象标签信息“自拍”,将剩余的“大海”、“海滩”作为目标对象标签集合。
步骤S305,获取所述目标对象标签信息集合中每个对象标签信息分别对应的置信度;
具体的,在确定了上述目标对象标签信息集合后,可以获取该目标对象标签信息集合中每个对象标签信息分别对应的置信度,即上述目标图像数据属于每个对象标签信息对应的场景类别的概率。例如,某张目标图像数据对应的目标对象标签信息集合中每个对象标签信息及置信度可以表示为:对象标签信息为大海,对应的置信度为68.83%;对象标签信息为天空,对应的置信度为74.04%;对象标签信息为天空/云,对应的置信度为99.76%;对象标签信息为海滩,对应的置信度为96.04%。
步骤S306,根据最高置信度对应的对象标签信息与所述对象标识,确定所述目标图像数据对应的场景标签信息;
具体的,从上述多个对象标签信息中选择置信度最高的对象标签信息,结合上述目标对象对应的对象标识,可以确定目标图像数据对应的场景标签信息。其中,以目标对象是人脸为例,确定场景标签信息的过程可以表示为:在利用人脸检测技术对目标图像数据进行人脸检测时,若检测到目标图像数据中存在有效人脸,则该目标图像数据自动进入人带景场景类别,随后通过上述第二模型对该目标图像数据进行场景识别,可以得到目标对象标签信息集合,将最高置信度对应的对象标签信息所属的一级大类类别确定为该目标图像数据中除人之外的区域对应的标签信息,根据该标签信息与上述对象标识(即“人像”标识)可以确定该目标图像数据最终对应的场景标签信息,如“人+风光”,或者“人+美食”,或者“人+物体”,若最高置信度对应的对象标签信息无法匹配到一级大类类别,则可以将该目标图像数据最终的场景标签信息确定为“人+其他”。换言之,对于有效人脸显示类型而言,目标图像数据最终的场景标签信息既要考虑目标图像数据中的人,还要考虑目标图像数据中的景。
例如,对于有效人脸显示类型的目标图像数据,人脸检测过程中可以检测到目标图像数据中存在有效人脸,该目标图像数据因此可以携带“人像”标识,若通过第二模型获取到目标图像数据的多个对象标签信息分别为:“蛋糕”,对应的置信度为70.12%;“饮料”,对应的置信度为50.45%;“餐盘”,对应的置信度为30.33%,可以将具有最高置信度的对象标签信息“蛋糕”作为目标图像数据对应的对象标签信息,进而可以将对象标签信息“蛋糕”与终端设备中存储的场景标签信息进行匹配,可以确定对象标签信息“蛋糕”所属的二级子类(即二级场景标签信息)为“甜品”,所属的一级大类(即一级场景标签信息)为“美食”,因此,结合目标图像数据携带的“人像”标识,目标图像数据对应的场景标签信息可以为“人+美食”,为方便查找目标图像对应的场景优化参数信息,场景标签信息可以同时包括一级场景标签信息和二级场景标签信息,因此目标图像数据对应的场景标签信息也可以表示为“人+美食/甜品”。
步骤S307,确定与所述场景标签信息相关联的场景优化参数信息,根据所述目标图像数据对应的基础优化参数信息与所述场景优化参数信息,对所述目标图像数据进行参数优化。
其中,步骤S307的具体实现方式可以参见图2所对应实施例中对步骤S103的描述,或者可以参见图4所对应实施例中对步骤S205-步骤S210的描述,这里不再进行赘述。
请进一步参见图7a和图7b,是本发明实施例提供的一种图像处理方法的界面示意图,如图7a所示,利用人脸检测技术对目标图像数据700a进行人脸检测后,可以确定该目标图像数据700a中存在有效人脸,可以将该目标图像数据700a确定为人像带景类别,即该目标图像数据700a已经携带了“人像”标识,将该目标图像数据700a输入已经训练好的第二模型中,由于该目标图像数据700a中包含多个对象,如通过对目标图像数据700a中有轮廓的区域进行标识,可以识别出该目标图像数据700a中的第一子区域600b所包含的对象、第二子区域600c所包含的对象,通过第二模型可以检测出该目标图像数据700a对应的对象标签信息,如标签为“饮料”,对应的置信度为80.1%,标签为“面包”,对应的置信度为72.5%,则该目标图像数据700a所属的场景标签信息可以确定为图7b所示的“人/美食400c”,通过统计该目标图像数据700a的图像质量信息可以获取相应的参数调节规则,确定该目标图像数据700a对应的基础优化参数信息,并基于基础优化参数信息对该目标图像数据700a进行基础修正,从优化参数数据库中提取与“人/美食400c”相关联的场景优化参数信息,对基础修正后的目标图像数据700a进行参数优化,可以得到图7b所示的优化图像数据700b,并可以在终端设备的屏幕上进行显示,同时也可以在屏幕上显示该目标图像数据700a对应的场景为“人/美食400c”,若用户满意参数优化后的优化图像数据700b,则可以点击“确定”按键进行保存;若用户不满意参数优化后的优化图像数据700b,则可以点击“取消”按键进行取消。
本发明实施例通过对目标图像数据进行目标对象检测,获得上述目标图像数据针对目标对象的显示类型,根据显示类型,可以获取上述目标图像数据所包含的对象对应的对象标签信息,进而根据上述对象标签信息确定所述目标图像数据对应的场景标签信息,可以根据目标图像数据对应的图像质量信息确定基础优化参数信息,根据上述场景标签信息确定场景优化参数信息,进而可以根据上述基础优化参数信息和场景优化参数信息,对目标图像数据进行参数优化。可见,在图像处理过程中,无需人工参与就可以根据图像对应的图像质量信息自动对该图像进行基础调整,并可以自动识别该图像中的场景,获取与上述场景相关联的场景参数对该图像进行参数优化,进而可以避免因手动进行图像优化而带来的繁琐步骤,从而提高图像数据处理的效率;为不同的场景类别设置不同的参数优化信息,提高了图像优化处理的多样性。
请参见图8,是本发明实施例提供的另一种图像处理方法的流程示意图。如图8所示,该图像处理方法可以包括以下步骤:
步骤S401,获取目标图像数据,并获取所述目标图像数据针对目标对象的显示类型;
其中,步骤S301的具体实现方式可以参见图2所对应实施例中对步骤S101的描述,或者可以参见图4所对应实施例中对步骤S201-步骤S202的描述,这里不再进行赘述。
步骤S402,若所述显示类型为第三显示类型,则将所述目标图像数据输入第三模型中;
具体的,若上述显示类型为第三显示类型,即目标对象在目标图像数据中的所占区域比例小于第二比例阈值(如7%),则将该目标图像数据输入已经训练好的第三模型中。其中,上述第三模型是指所述第三显示类型对应的识别模型。以目标对象是人脸为例,第三显示类型即为上述步骤S101中的无效人脸显示类型,既包括利用人脸检测技术检测到了目标图像数据中存在人脸,但由于人脸在目标图像数据中的所占区域太小,可以忽略不计,还可以包括在目标图像数据中未检测到人脸。换言之,在目标图像数据针对人脸的显示类型为无效人脸显示类型时,只考虑目标图像数据中的景,而无需考虑人的因素,因此可以将整个目标图像数据直接输入第三模型中,该第三模型可以是指用于检测图像所属场景的卷积神经网络模型、深度信念网络模型、生成对抗式网络模型等,此处的第三模型与步骤S303中的第二模型可以为同一个网络模型,也可以为不同的网络模型,这里不做限定。
步骤S403,在所述第三模型中获取与所述目标图像数据所包含的对象相匹配的对象标签信息;
具体的,通过上述第三模型可以获取上述目标图像数据所包含的对象相匹配的对象标签信息。利用第三模型的特征提取以及分类功能得到与该目标图像数据中每个对象相匹配的对象标签信息,因此,对于包含多个对象的目标图像数据,通过第三模型可以获取该目标图像数据对应的多个对象标签信息,例如对于某张目标图像数据,对象标签信息可以为“夜景”,“游乐场”。
步骤S404,根据所述对象标签信息,确定所述目标图像数据对应的场景标签信息;
具体的,通过获取每个对象标签信息分别对应的置信度,可以将最高的置信度对应的对象标签信息所属的场景确定为目标图像数据最终的场景标签信息。以目标对象是人脸为例,对于无效人脸显示类型的目标图像数据,若通过第三模型获取到目标图像数据的多个对象标签信息分别为:“夜景”,对应的置信度为72.12%;“高楼”,对应的置信度为81.45%,可以将具有最大置信度的对象标签信息“高楼”作为目标图像数据对应的对象标签信息,进而可以将对象标签信息“高楼”与终端设备中存储的场景标签信息进行匹配,可以确定对象标签信息“高楼”所属的二级子类(即二级场景标签信息)为“建筑”,因此目标图像数据对应的场景标签信息可以表示为“建筑”,为方便后续根据场景标签信息查找目标图像数据对应的场景优化参数信息,可以确定对象标签信息“高楼”所属的一级大类(即一级场景标签信息)为“风光”,目标图像数据的场景标签信息也可以表示为“风光/建筑”,该场景标签信息“风光/建筑”同时包含一级场景标签信息“风光”和二级场景标签信息“建筑”。
可选的,若目标图像数据对应的多个对象标签信息在终端设备本地存储的至少五个一级大类和至少二十三个二级子类中无法匹配到场景标签信息,则在检测到人脸的情形下,将人像类型下的“女生”确定为该目标图像数据的场景标签信息,在未检测到人脸的情形下,将风光类型下的“山水”确定为该目标图像数据的场景标签信息。
步骤S405,确定与所述场景标签信息相关联的场景优化参数信息,根据所述目标图像数据对应的基础优化参数信息与所述场景优化参数信息,对所述目标图像数据进行参数优化。
其中,步骤S405的具体实现方式可以参见图2所对应实施例中对步骤S103的描述,或者可以参见图4所对应实施例中对步骤S205-步骤S210的描述,这里不再进行赘述。需要说明的是,对于第三显示类型的目标图像数据而言,在目标图像数据中不存在人脸时,获取到的优化策略为第二优化策略,可以获取第二优化策略对应的第二参数调节规则,进而可以根据第二参数调节规则可以生成目标图像数据对应的基础优化参数信息。其中,上述第二优化策略是指目标图像数据中不存在目标对象时采用的优化策略,第二参数调节规则包括亮度调节、对比度调节、色温调节。换言之,在目标图像数据中不存在人脸的情形下,直接根据统计得到的关于目标图像数据的亮度信息、整张目标图像数据的平均色温以及对比度,获取目标图像数据对应的基础优化参数信息。对于目标图像数据对应的场景优化参数信息,同样可以通过场景标签信息中的一级场景标签信息确定待选优化参数集合,进而根据场景标签信息中的二级场景标签信息从待选优化参数集合中确定场景优化参数信息。
本发明实施例通过对目标图像数据进行目标对象检测,获得上述目标图像数据针对目标对象的显示类型,根据显示类型,可以获取上述目标图像数据所包含的对象对应的对象标签信息,进而根据上述对象标签信息确定所述目标图像数据对应的场景标签信息,可以根据目标图像数据对应的图像质量信息确定基础优化参数信息,根据上述场景标签信息确定场景优化参数信息,进而可以根据上述基础优化参数信息和场景优化参数信息,对目标图像数据进行参数优化。可见,在图像处理过程中,无需人工参与就可以根据图像对应的图像质量信息自动对该图像进行基础调整,并可以自动识别该图像中的场景,获取与上述场景相关联的场景参数对该图像进行参数优化,进而可以避免因手动进行图像优化而带来的繁琐步骤,从而提高图像数据处理的效率;为不同的场景类别设置不同的参数优化信息,提高了图像优化处理的多样性。
请参见图9,是本发明实施例提供的另一种图像处理方法的流程示意图。如图9所示,该图像处理方法可以包括以下步骤:
步骤S501,获取目标图像数据,获取所述目标图像数据对应的亮度信息;
其中,步骤S501的具体实现方式可以参见图4所对应实施例中对步骤S201的描述,这里不再进行赘述。
步骤S502,若所述亮度信息小于亮度阈值,则根据所述亮度信息确定所述目标图像数据对应的场景标签信息为夜景标签信息;
具体的,若上述获取到的亮度信息小于亮度阈值,即亮度信息满足平均亮度过低且欠曝光的条件,则可以直接将目标图像数据的场景标签信息确定为夜景标签信息。换言之,在目标图像数据的亮度信息过低且欠曝光的前提下,无需对目标图像数据进行人脸检测或场景识别,直接确定该目标图像数据的场景标签信息为“夜景”。
步骤S503,根据所述目标图像数据对应的第二图像质量信息,确定所述目标图像数据对应的夜景基础优化参数信息,并确定与所述夜景标签信息相关联的夜景场景优化参数信息;
步骤S504,根据所述夜景基础优化参数信息与所述夜景场景优化参数信息,对所述目标图像数据进行参数优化。
其中,步骤S503-步骤S504的具体实现方式可以参见图2所对应实施例中对步骤S103的描述,这里不再进行赘述。需要说明的是,根据夜景基础优化参数信息对目标图像数据进行基础修正,并根据从优化参数数据库中获取到的夜景场景优化参数信息,对基础修正后的目标图像数据进行参数优化,可以得到该目标图像数据对应的最终优化图像数据,也可以称为第二优化图像数据,这里的第二优化图像数据只是为了区分图2所对应实施例中步骤S103中的第一优化图像数据。
进一步的,请参见图10,是本发明实施例提供的一种图像处理流程示意图。在一种可行的实施方式中,对目标图像数据的整体处理流程如图10所示:
步骤S601,用户输入图片;
具体的,用户可以将需要进行优化处理的图片输入至图像处理应用(如天天P图应用)中,上述图像处理应用可以安装于终端设备上。
步骤S602,图像信息数据统计;
具体的,在用户输入图片后,图像处理应用可以对输入的图片进行图像信息数据统计,即统计该图片对应的图像质量信息,具体的统计方法可以参见图4所对应实施例中对步骤S205的描述,此处不再进行赘述。
步骤S603,亮度过低且欠曝光;
具体的,在经过图像信息数据统计后,若该图片满足亮度过低且欠曝光,则继续执行步骤S604,否则,继续执行步骤S605.
步骤S604,夜景分类;
具体的,在图片满足亮度过低且欠曝光时,将该图片直接确定为夜景类别,执行步骤S614。
步骤S605,人脸检测;
具体的,在图片不满足亮度过低且欠曝光时,利用图像处理应用中的人脸检测技术对该图片进行人脸检测。上述人脸检测技术存储在图像处理应用本地中,在无网络的环境下仍然可以使用。
步骤S606,存在超大人脸;
具体的,在对图片进行人脸检测的过程中,可以判断该图片中是否存在超大人脸(即人脸宽度与图片宽度的比值大于15%),若存在超大人脸,则继续执行步骤S607,否则,继续执行步骤S609。
步骤S607,调用年龄、性别检测后台服务;
具体的,当该图片中存在超大人脸时,图像处理应用可以调用年龄、性别检测后台服务,对图片中的人脸进行性别、年龄的检测,并得到检测结果。年龄、性别检测后台服务的调用需要在联网环境中才能进行。
步骤S608,人像分类;
具体的,当该图片中存在超大人脸时,就可以将该图片的一级大类确定为人像类别,根据年龄、性别检测后台服务对该图片中人脸的检测结果,可以确定该图片在人像类别中所属的二级子类,并继续执行步骤S614。
步骤S609,调用场景识别检测后台服务;
具体的,当该图片中不存在超大人脸时,图像处理应用可以调用场景识别检测后台服务,对图片中所包含的对象进行场景识别,并得到识别结果。场景识别检测后台服务的调用需要在联网环境中才能进行。
步骤S610,场景标签聚类;
具体的,在调用场景识别检测后台服务对图片进行场景识别后,可以返回该图片对应的多个可能的标签及其置信度,将置信度最高的标签确定为该图片对应的标签。
步骤S611,存在有效人脸;
具体的,判断该图片中是否存在有效人脸(即人脸宽度与图片宽度的比值小于或等于15%且大于或等于7%),若存在有效人脸,则继续执行步骤S612;否则,继续执行步骤S613。
步骤S612,人像带景分类;
具体的,当该图片中存在有效人脸时,图片最终的类别需要同时考虑该图片中的人和景,直接该图片确定为人像带景类别,根据上述场景识别检测后台服务的识别结果,可以确定该图片在人像带景类别中所属的二级子类,如人+美食类别,并继续执行步骤S614。
步骤S613,风光、美食、物体分类;
具体的,当该图片中不存在有效人脸时,可以将该图片确定为风光类别、美食类别、物体类别中的其中一种,根据上述场景识别检测后台服务的识别结果,在风光类别、美食类别、物体类别中确定该图片所属的二级子类,并继续执行步骤S614。
步骤S614,自动亮度、对比度、色温算法;
具体的,在确定了该图片的场景类别后,可以采用图像处理应用中的调节算法(如自动亮度、对比度、自动色温、自动去噪、自动去雾等算法)对该图片进行基础修正,具体实现方式可以参见图4所对应实施例中对步骤S205-步骤S207的描述,这里不再进行赘述。
步骤S615,场景滤镜特效。
具体的,在对该图片进行基础修正后,可以采用图像处理应用中的场景滤镜算法对图片进行参数优化,如清晰度、色调美化、人像美化、滤镜特效算法等。
其中,上述性别、年龄检测后台服务器和场景识别检测后台服务可以是指已经完成训练具备特征提取功能和分类功能的网络模型,即已经根据样本图像数据与样本图像数据对应的样本标签信息之间的映射关系,完成了网络模型的构建,对于待识别的新的图片,可以直接调用上述网络模型进行识别。
可选的,可以从图像数据库中下载图像数据作为样本图像数据,根据样本图像数据库中的图像内容为每一个样本图像数据设置对应的样本标签信息,该样本标签信息可以包括一级标签信息和二级标签信息(即一级大类标签和二级子类标签),样本标签信息用于标记样本图像数据的场景类别,样本标签信息可以是数字也可以是英文字母,或者是其他具有区别标识意义的字符。可以采用样本图像数据库中的样本图像数据对网络模型进行训练,由于输入的样本图像数据是携带有样本标签信息的,因此对于输入网络模型的每一个样本图像数据均对应一个实际输出结果和期望输出结果,根据实际输出结果和期望输出结果之间的差值不断调整网络模型的参数,直至该网络模型完成训练,具备场景识别功能,即输入一张待识别图片,通过上述训练好的网络模型可以直接得到该待识别图片的标签信息(包括该图片的一级标签信息和二级标签信息)。此种情况下,无需使用多个网络模型(仅使用一个网络模型)就可以确定图片最终的场景标签信息。
本发明实施例通过对目标图像数据进行目标对象检测,获得上述目标图像数据针对目标对象的显示类型,根据显示类型,可以获取上述目标图像数据所包含的对象对应的对象标签信息,进而根据上述对象标签信息确定所述目标图像数据对应的场景标签信息,可以根据目标图像数据对应的图像质量信息确定基础优化参数信息,根据上述场景标签信息确定场景优化参数信息,进而可以根据上述基础优化参数信息和场景优化参数信息,对目标图像数据进行参数优化。可见,在图像处理过程中,无需人工参与就可以根据图像对应的图像质量信息自动对该图像进行基础调整,并可以自动识别该图像中的场景,获取与上述场景相关联的场景参数对该图像进行参数优化,进而可以避免因手动进行图像优化而带来的繁琐步骤,从而提高图像数据处理的效率;为不同的场景类别设置不同的参数优化信息,提高了图像优化处理的多样性。
请参见图11,是本发明实施例提供的一种图像处理装置的结构示意图。如图所示,该图像处理装置1可以包括:显示类型获取模块101,标签信息获取模块102,第一参数优化模块103;
显示类型获取模块101,用于获取目标图像数据,并获取所述目标图像数据针对目标对象的显示类型;
标签信息获取模块102,用于基于所述显示类型对应的识别模型,获取所述目标图像数据所包含的对象对应的对象标签信息,根据所述对象标签信息确定所述目标图像数据对应的场景标签信息;
第一参数优化模块103,用于确定与所述场景标签信息相关联的场景优化参数信息,根据所述目标图像数据对应的基础优化参数信息与所述场景优化参数信息,对所述目标图像数据进行参数优化。
其中,显示类型获取模块101,标签信息获取模块102,第一参数优化模块104的具体功能实现方式可以参见上述图2所对应实施例中的步骤S101-步骤S104,这里不再进行赘述。
请一并参见图11,该图像处理装置1还可以包括:基础参数确定模块104,亮度信息获取模块105,第一判断模块106,第二判断模块107,夜景参数信息获取模块108,第二参数优化模块109,提示窗口输出模块110,响应操作模块111;
基础参数确定模块104,用于根据所述显示类型与所述目标图像数据对应的第一图像质量信息,确定所述目标图像数据对应的基础优化参数信息;
亮度信息获取模块105,用于获取所述目标图像数据对应的亮度信息;
第一判断模块106,用于若所述亮度信息大于或等于亮度阈值,则执行所述获取所述目标图像数据针对目标对象的显示类型步骤;
第二判断模块107,用于若所述亮度信息小于亮度阈值,则根据所述亮度信息确定所述目标图像数据对应的场景标签信息为夜景标签信息;
夜景参数信息获取模块108,用于根据所述目标图像数据对应的第二图像质量信息,确定所述目标图像数据对应的夜景基础优化参数信息,并确定与所述夜景标签信息相关联的夜景场景优化参数信息;
第二参数优化模块109,用于根据所述夜景基础优化参数信息与所述夜景场景优化参数信息,对所述目标图像数据进行参数优化;
提示窗口输出模块110,用于统计所述目标图像数据对应的第一图像质量信息,将所述第一图像质量信息与所述场景标签信息添加至信息提示窗口,并输出所述信息提示窗口;
响应操作模块111,用于响应针对所述信息提示窗口的确认操作,执行所述根据所述显示类型与所述目标图像数据对应的第一图像质量信息,确定所述目标图像数据对应的基础优化参数信息步骤。
其中,亮度信息获取模块105,第一判断模块106的具体功能实现方式可以参见上述图4所对应实施例中的步骤S201-步骤S202,第二判断模块107,夜景参数信息获取模块108,第二参数优化模块109的具体功能实现方式可以参见上述图9所对应实施例中的步骤S502-步骤S504,基础参数确定模块104,提示窗口输出模块110,响应操作模块111的具体功能实现方式可以参见上述图4所对应实施例中的步骤S205-步骤S207,这里不再进行赘述。
请一并参见图11,标签信息获取模块102可以包括:第一输入单元1021,第一场景标签确定单元1022,第二输入单元1023,第一对象标签获取单元1024,第二场景标签确定单元1025,第三输入单元1026,第二对象标签获取单元1027,第三场景标签获取单元1028;
第一输入单元1021,用于若所述显示类型为第一显示类型,则将所述目标图像数据输入第一模型中;所述第一模型是指第一显示类型对应的识别模型,所述第一显示类型是指所述目标对象在所述目标图像数据中的所占区域比例大于第一比例阈值;
第一场景标签确定单元1022,用于在所述第一模型中获取所述目标对象对应的对象标签信息,根据所述对象标签信息,确定所述目标图像数据对应的场景标签信息;
第二输入单元1023,用于若所述显示类型为第二显示类型,则为所述目标图像数据中的所述目标对象设置对象标识,并将所述目标图像数据输入第二模型中;所述第二模型是指所述第二显示类型对应的识别模型,所述第二显示类型是指所述目标对象在所述目标图像数据中的所占区域比例小于或等于第一比例阈值且大于或等于第二比例阈值;
第一对象标签获取单元1024,用于在所述第二模型中获取与所述待识别对象集合中每个待识别对象相匹配的对象标签信息;
第二场景标签确定单元1025,用于根据所述对象标识与所述对象标签信息,确定所述目标图像数据对应的场景标签信息;
第三输入单元1026,用于若所述显示类型为第三显示类型,则将所述目标图像数据输入第三模型中;所述第三模型是指所述第三显示类型对应的识别模型,所述第三显示类型是指所述目标对象在所述目标图像数据中的所占区域比例小于第二比例阈值;
第二对象标签获取单元1027,用于在所述第三模型中获取与所述目标图像数据所包含的对象相匹配的对象标签信息;
第三场景标签获取单元1028,用于根据所述对象标签信息,确定所述目标图像数据对应的场景标签信息。
其中,第一输入单元1021,第一场景标签确定单元1022的具体功能实现方式可以参见上述图4所对应实施例中的步骤S203-步骤S204,第二输入单元1023,第一对象标签获取单元1024,第二场景标签确定单元1025的具体功能实现方式可以参见上述图6所对应实施例中的步骤S302-步骤S306,第三输入单元1026,第二对象标签获取单元1027,第三场景标签获取单元1028的具体功能实现方式可以参见上述图8所对应实施例中的步骤S402-步骤S404,这里不再进行赘述。其中,当第一输入单元1021,第一场景标签确定单元1022在执行相应操作时,第二输入单元1023,第一对象标签获取单元1024,第二场景标签确定单元1025,第三输入单元1026,第二对象标签获取单元1027,第三场景标签获取单元1028均暂停执行操作;当第二输入单元1023,第一对象标签获取单元1024,第二场景标签确定单元1025在执行相应操作时,第一输入单元1021,第一场景标签确定单元1022,第三输入单元1026,第二对象标签获取单元1027,第三场景标签获取单元1028均暂停执行操作;当第三输入单元1026,第二对象标签获取单元1027,第三场景标签获取单元1028在执行相应操作时,第一输入单元1021,第一场景标签确定单元1022,第二输入单元1023,第一对象标签获取单元1024,第二场景标签确定单元1025均暂停执行操作。其中,第一输入单元1021,第二输入单元1023,第三输入单元1026可以合并为同一个输入单元;第一对象标签获取单元1024,第二对象标签获取单元1027可以合并为同一个对象标签获取单元;第二场景标签确定单元1025,第三场景标签获取单元1028可以合并为同一个场景标签获取单元。
请一并参见图11,第一参数优化模块103可以包括:待选优化参数确定单元1031,场景参数确定单元1032;
待选优化参数确定单元1031,用于根据所述一级场景标签信息,在优化参数数据库中确定所述目标图像数据对应的待选优化参数集合;
场景参数确定单元1032,用于根据所述二级场景标签信息,在所述待选优化参数集合中确定所述目标图像数据对应的场景优化参数信息。
其中,待选优化参数确定单元1031,场景参数确定单元1032的具体功能实现方式可以参见上述图4所对应实施例中的步骤S208-步骤S209,这里不再进行赘述。
请一并参见图11,基础参数确定模块104可以包括:优化策略获取单元1041,第一规则获取子单元1042,第二规则获取子单元1043,
优化策略获取单元1041,用于根据所述显示类型获取所述目标图像数据对应的优化策略;
第一规则获取子单元1042,用于若所述优化策略为第一优化策略,则获取所述第一优化策略对应的第一参数调节规则,根据所述第一参数调节规则与所述第一图像质量信息,生成所述目标图像数据对应的基础优化参数信息;所述第一优化策略是指所述目标图像数据中存在目标对象时采用的优化策略;
第二规则获取子单元1043,用于若所述优化策略为第二优化策略,获取所述第二优化策略对应的第二参数调节规则,根据所述第二参数调节规则与所述第一图像质量信息,生成所述目标图像数据对应的基础优化参数信息;所述第二优化策略是指所述目标图像数据中不存在目标对象时采用的优化策略。
其中,优化策略获取单元1041,第一规则获取子单元1042,第二规则获取子单元1043的具体功能实现方式可以参见上述图4所对应实施例中的步骤S206和上述图8所对应实施例中的步骤S405,这里不再进行赘述。
请一并参见图11,第二场景标签确定单元1025可以包括:删除子单元10251,置信度获取子单元10252,场景确定子单元10253;
删除子单元10251,用于将所述对象标签信息添加至待选对象标签信息集合,并从所述待选对象标签信息集合中删除与所述目标对象相关联的对象标签信息,得到目标对象标签信息集合;
置信度获取子单元10252,用于获取与所述每个待识别对象相匹配的对象标签信息分别对应的置信度;
场景确定子单元10253,用于根据最高置信度对应的对象标签信息与所述对象标识,确定所述目标图像数据对应的场景标签信息。
其中,删除子单元10251,置信度获取子单元10252,场景确定子单元10253的具体功能实现方式可以参见上述图6所对应实施例中的步骤S304-步骤S306,这里不再进行赘述。
本发明实施例通过对目标图像数据进行目标对象检测,获得上述目标图像数据针对目标对象的显示类型,根据显示类型,可以获取上述目标图像数据所包含的对象对应的对象标签信息,进而根据上述对象标签信息确定所述目标图像数据对应的场景标签信息,可以根据目标图像数据对应的图像质量信息确定基础优化参数信息,根据上述场景标签信息确定场景优化参数信息,进而可以根据上述基础优化参数信息和场景优化参数信息,对目标图像数据进行参数优化。可见,在图像处理过程中,无需人工参与就可以根据图像对应的图像质量信息自动对该图像进行基础调整,并可以自动识别该图像中的场景,获取与上述场景相关联的场景参数对该图像进行参数优化,进而可以避免因手动进行图像优化而带来的繁琐步骤,从而提高图像数据处理的效率;为不同的场景类别设置不同的参数优化信息,提高了图像优化处理的多样性。
请参见图12,图12是本发明实施例提供的一种终端的结构示意图。如图12所示,该终端1000可以包括:处理器1001,网络接口1004和存储器1005,此外,上述终端1000还可以包括:用户接口1003,和至少一个通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。其中,用户接口1003可以包括显示屏(Display)、键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1004可以是高速RAM存储器,也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。存储器1005可选的还可以是至少一个位于远离前述处理器1001的存储装置。如图12所示,作为一种计算机存储介质的存储器1005中可以包括操作***、网络通信模块、用户接口模块以及设备控制应用程序。
在如图12所示的终端1000中,网络接口1004可提供网络通讯功能;而用户接口1003主要用于为用户提供输入的接口;而处理器1001可以用于调用存储器1005中存储的设备控制应用程序,以实现上述图2、图4、图6、图8-图10任一个所对应实施例中对所述图像处理方法的描述,在此不再赘述。
应当理解,本发明实施例中所描述的终端1000可执行前文图2、图4、图6、图8-图10任一个所对应实施例中对所述图像处理方法的描述,也可执行前文图11所对应实施例中对所述图像处理装置1的描述,在此不再赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。
此外,这里需要指出的是:本发明实施例还提供了一种计算机可读存储介质,且所述计算机可读存储介质中存储有前文提及的图像处理装置1所执行的计算机程序,且所述计算机程序包括程序指令,当所述处理器执行所述程序指令时,能够执行前文图2、图4、图6、图8-图10任一个所对应实施例中对所述图像处理方法的描述,因此,这里将不再进行赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。对于本发明所涉及的计算机可读存储介质实施例中未披露的技术细节,请参照本发明方法实施例的描述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储存储器(Read-Only Memory,ROM)或随机存储存储器(Random AccessMemory,RAM)等。
以上所揭露的仅为本发明较佳实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。
Claims (13)
1.一种图像处理方法,其特征在于,包括:
获取目标图像数据,并获取所述目标图像数据针对目标对象的显示类型;
基于所述显示类型对应的识别模型,获取所述目标图像数据所包含的对象对应的对象标签信息,根据所述对象标签信息确定所述目标图像数据对应的场景标签信息;若所述显示类型为第一显示类型所包含的超大人脸显示类型,则所述识别模型为用于对所述目标图像数据进行识别的年龄和性别检测模型;若所述显示类型为第二显示类型所包含的有效人脸显示类型或第三显示类型所包含的无效人脸显示类型,则所述识别模型为用于对所述目标图像数据中的每个对象进行识别的场景识别模型;所述第一显示类型是指所述目标对象在所述目标图像数据中所占区域比例大于第一比例阈值,所述第二显示类型是指所述目标对象在所述目标图像数据中所占区域比例小于或等于第一比例阈值且大于或等于第二比例阈值,所述第三显示类型是指所述目标对象在所述目标图像数据中所占区域比例小于第二比例阈值;所述场景标签信息包括一级场景标签信息和二级场景标签信息,若所述显示类型为第二显示类型所包含的有效人脸显示类型,则所述场景标签信息中的一级场景标签信息表示为所述目标对象对应的对象标识和所述对象标签信息所属的一级大类,所述场景标签信息中的二级场景标签信息表示为所述对象标识和所述对象标签信息所属的二级子类;所述对象标签信息与所述目标对象不关联;
根据所述一级场景标签信息,在优化参数数据库中确定所述目标图像数据对应的待选优化参数集合;
根据所述二级场景标签信息,在所述待选优化参数集合中确定所述目标图像数据对应的场景优化参数信息,根据所述目标图像数据对应的基础优化参数信息与所述场景优化参数信息,对所述目标图像数据进行参数优化。
2.根据权利要求1所述的方法,其特征在于,还包括:
根据所述显示类型与所述目标图像数据对应的第一图像质量信息,确定所述目标图像数据对应的基础优化参数信息。
3.根据权利要求1所述的方法,其特征在于,所述基于所述显示类型对应的识别模型,获取所述目标图像数据所包含的对象对应的对象标签信息,根据所述对象标签信息确定所述目标图像数据对应的场景标签信息,包括:
若所述显示类型为第一显示类型,则将所述目标图像数据输入第一模型中;所述第一模型是指第一显示类型对应的识别模型;
在所述第一模型中获取所述目标对象对应的对象标签信息,根据所述对象标签信息,确定所述目标图像数据对应的场景标签信息。
4.根据权利要求1所述的方法,其特征在于,所述基于所述显示类型对应的识别模型,获取所述目标图像数据所包含的对象对应的对象标签信息,根据所述对象标签信息确定所述目标图像数据对应的场景标签信息,包括:
若所述显示类型为第二显示类型,则为所述目标图像数据中的所述目标对象设置对象标识,并将所述目标图像数据输入第二模型中;所述第二模型是指所述第二显示类型对应的识别模型;
在所述第二模型中获取与所述目标图像数据所包含的对象相匹配的对象标签信息;
根据所述对象标识与所述对象标签信息,确定所述目标图像数据对应的场景标签信息。
5.根据权利要求4所述的方法,其特征在于,所述根据所述对象标识与所述对象标签信息,确定所述目标图像数据对应的场景标签信息,包括:
将所述对象标签信息添加至待选对象标签信息集合,并从所述待选对象标签信息集合中删除与所述目标对象相关联的对象标签信息,得到目标对象标签信息集合;
获取所述目标对象标签信息集合中每个对象标签信息分别对应的置信度;
根据最高置信度对应的对象标签信息与所述对象标识,确定所述目标图像数据对应的场景标签信息。
6.根据权利要求1所述的方法,其特征在于,所述基于所述显示类型对应的识别模型,获取所述目标图像数据所包含的对象对应的对象标签信息,根据所述对象标签信息确定所述目标图像数据对应的场景标签信息,包括:
若所述显示类型为第三显示类型,则将所述目标图像数据输入第三模型中;所述第三模型是指所述第三显示类型对应的识别模型;
在所述第三模型中获取与所述目标图像数据所包含的对象相匹配的对象标签信息;
根据所述对象标签信息,确定所述目标图像数据对应的场景标签信息。
7.根据权利要求2所述的方法,其特征在于,所述根据所述显示类型与所述目标图像数据对应的第一图像质量信息,确定所述目标图像数据对应的基础优化参数信息之前,还包括:
统计所述目标图像数据对应的第一图像质量信息,将所述第一图像质量信息与所述场景标签信息添加至信息提示窗口,并输出所述信息提示窗口;
响应针对所述信息提示窗口的确认操作,执行所述根据所述显示类型与所述目标图像数据对应的第一图像质量信息,确定所述目标图像数据对应的基础优化参数信息步骤。
8.根据权利要求2所述的方法,其特征在于,所述根据所述显示类型与所述目标图像数据对应的第一图像质量信息,确定所述目标图像数据对应的基础优化参数信息,包括:
根据所述显示类型获取所述目标图像数据对应的优化策略;
若所述优化策略为第一优化策略,则获取所述第一优化策略对应的第一参数调节规则,根据所述第一参数调节规则与所述第一图像质量信息,生成所述目标图像数据对应的基础优化参数信息;所述第一优化策略是指所述目标图像数据中存在目标对象时采用的优化策略;
若所述优化策略为第二优化策略,获取所述第二优化策略对应的第二参数调节规则,根据所述第二参数调节规则与所述第一图像质量信息,生成所述目标图像数据对应的基础优化参数信息;所述第二优化策略是指所述目标图像数据中不存在目标对象时采用的优化策略。
9.根据权利要求1所述的方法,其特征在于,所述获取所述目标图像数据针对目标对象的显示类型之前,还包括:
获取所述目标图像数据对应的亮度信息;
若所述亮度信息大于或等于亮度阈值,则执行所述获取所述目标图像数据针对目标对象的显示类型步骤。
10.根据权利要求9所述的方法,其特征在于,还包括:
若所述亮度信息小于亮度阈值,则根据所述亮度信息确定所述目标图像数据对应的场景标签信息为夜景标签信息;
根据所述目标图像数据对应的第二图像质量信息,确定所述目标图像数据对应的夜景基础优化参数信息,并确定与所述夜景标签信息相关联的夜景场景优化参数信息;
根据所述夜景基础优化参数信息与所述夜景场景优化参数信息,对所述目标图像数据进行参数优化。
11.一种图像处理装置,其特征在于,包括:
显示类型获取模块,用于获取目标图像数据,并获取所述目标图像数据针对目标对象的显示类型;
标签信息获取模块,用于基于所述显示类型对应的识别模型,获取所述目标图像数据所包含的对象对应的对象标签信息,根据所述对象标签信息确定所述目标图像数据对应的场景标签信息;若所述显示类型为第一显示类型所包含的超大人脸显示类型,则所述识别模型为用于对所述目标图像数据进行识别的年龄和性别检测模型;若所述显示类型为第二显示类型所包含的有效人脸显示类型或第三显示类型所包含的无效人脸显示类型,则所述识别模型为用于对所述目标图像数据中的每个对象进行识别的场景识别模型;所述第一显示类型是指所述目标对象在所述目标图像数据中所占区域比例大于第一比例阈值,所述第二显示类型是指所述目标对象在所述目标图像数据中所占区域比例小于或等于第一比例阈值且大于或等于第二比例阈值,所述第三显示类型是指所述目标对象在所述目标图像数据中所占区域比例小于第二比例阈值;所述场景标签信息包括一级场景标签信息和二级场景标签信息,若所述显示类型为第二显示类型所包含的有效人脸显示类型,则所述场景标签信息中的一级场景标签信息表示为所述目标对象对应的对象标识和所述对象标签信息所属的一级大类,所述场景标签信息中的二级场景标签信息表示为所述对象标识和所述对象标签信息所属的二级子类;所述对象标签信息与所述目标对象不关联;
参数优化模块,用于根据所述一级场景标签信息,在优化参数数据库中确定所述目标图像数据对应的待选优化参数集合,根据所述二级场景标签信息,在所述待选优化参数集合中确定所述目标图像数据对应的场景优化参数信息,根据所述目标图像数据对应的基础优化参数信息与所述场景优化参数信息,对所述目标图像数据进行参数优化。
12.一种终端,其特征在于,还包括:处理器和存储器;
所述处理器和存储器相连,其中,所述存储器用于存储程序代码,所述处理器用于调用所述程序代码,以执行如权利要求1-10任一项所述的方法。
13.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时,执行如权利要求1-10任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910277018.9A CN110163810B (zh) | 2019-04-08 | 2019-04-08 | 一种图像处理方法、装置以及终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910277018.9A CN110163810B (zh) | 2019-04-08 | 2019-04-08 | 一种图像处理方法、装置以及终端 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110163810A CN110163810A (zh) | 2019-08-23 |
CN110163810B true CN110163810B (zh) | 2023-04-25 |
Family
ID=67639328
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910277018.9A Active CN110163810B (zh) | 2019-04-08 | 2019-04-08 | 一种图像处理方法、装置以及终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110163810B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109240782B (zh) * | 2018-08-27 | 2022-03-25 | 上海宝尊电子商务有限公司 | 应用于多量级数据可视化的hsb色彩制式色相等距选色方法 |
CN111031346B (zh) * | 2019-10-28 | 2021-11-02 | 网宿科技股份有限公司 | 一种增强视频画质的方法和装置 |
CN110955257B (zh) * | 2019-12-17 | 2024-02-09 | 深圳市道通智能航空技术股份有限公司 | 一种多目标传输方法、***及遥控设备、无人机 |
CN112307261A (zh) * | 2020-02-28 | 2021-02-02 | 钱秀华 | 基于图像质量的图像识别方法及服务器 |
CN111416950B (zh) * | 2020-03-26 | 2023-11-28 | 腾讯科技(深圳)有限公司 | 视频处理方法、装置、存储介质及电子设备 |
US11494886B2 (en) * | 2020-05-29 | 2022-11-08 | Adobe Inc. | Hierarchical multiclass exposure defects classification in images |
CN111932645B (zh) * | 2020-06-12 | 2022-08-26 | 重庆大学 | 基于生成对抗网络gan自动生成水墨画的方法 |
CN111866392B (zh) * | 2020-07-31 | 2021-10-08 | Oppo广东移动通信有限公司 | 拍摄提示方法、装置、存储介质及电子设备 |
CN112699830A (zh) * | 2021-01-07 | 2021-04-23 | 京东方科技集团股份有限公司 | 图像处理方法、装置及计算机可读存储介质 |
CN113010126A (zh) * | 2021-02-10 | 2021-06-22 | 维沃移动通信有限公司 | 显示控制方法、装置、电子设备及介质 |
CN113177438B (zh) * | 2021-04-02 | 2024-05-31 | 深圳小湃科技有限公司 | 图像处理方法、设备及存储介质 |
CN113515246A (zh) * | 2021-05-17 | 2021-10-19 | 广州文石信息科技有限公司 | 一种电子墨水屏显示控制方法、装置、设备及存储介质 |
CN113360512B (zh) * | 2021-06-21 | 2023-10-27 | 特赞(上海)信息科技有限公司 | 基于用户反馈的图像处理模型更新方法、装置及存储介质 |
CN118175433A (zh) * | 2024-05-13 | 2024-06-11 | 成都云创天下科技有限公司 | 一种基于同一视频画面内不同场景isp自动调优的方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102810161A (zh) * | 2012-06-07 | 2012-12-05 | 江苏物联网研究发展中心 | 一种用于拥挤场景下的多个行人检测方法 |
CN106446819A (zh) * | 2016-09-20 | 2017-02-22 | 上海理工大学 | 人体安检成像中人体轮廓边缘物体的识别方法 |
CN107993191A (zh) * | 2017-11-30 | 2018-05-04 | 腾讯科技(深圳)有限公司 | 一种图像处理方法和装置 |
CN108805838A (zh) * | 2018-06-05 | 2018-11-13 | Oppo广东移动通信有限公司 | 一种图像处理方法、移动终端及计算机可读存储介质 |
WO2019047046A1 (zh) * | 2017-09-06 | 2019-03-14 | 深圳传音通讯有限公司 | 一种拍摄方法及用户终端 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9602728B2 (en) * | 2014-06-09 | 2017-03-21 | Qualcomm Incorporated | Image capturing parameter adjustment in preview mode |
CN106937049B (zh) * | 2017-03-09 | 2020-11-27 | Oppo广东移动通信有限公司 | 基于景深的人像色彩的处理方法、处理装置和电子装置 |
CN107798652A (zh) * | 2017-10-31 | 2018-03-13 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、可读存储介质和电子设备 |
CN108184105B (zh) * | 2017-12-28 | 2021-03-26 | 努比亚技术有限公司 | 一种调整亮度的方法、装置及计算机可读存储介质 |
CN108846351A (zh) * | 2018-06-08 | 2018-11-20 | Oppo广东移动通信有限公司 | 图像处理方法、装置、电子设备和计算机可读存储介质 |
CN108764370B (zh) * | 2018-06-08 | 2021-03-12 | Oppo广东移动通信有限公司 | 图像处理方法、装置、计算机可读存储介质和计算机设备 |
CN108960290A (zh) * | 2018-06-08 | 2018-12-07 | Oppo广东移动通信有限公司 | 图像处理方法、装置、计算机可读存储介质和电子设备 |
CN109191403A (zh) * | 2018-09-07 | 2019-01-11 | Oppo广东移动通信有限公司 | 图像处理方法和装置、电子设备、计算机可读存储介质 |
-
2019
- 2019-04-08 CN CN201910277018.9A patent/CN110163810B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102810161A (zh) * | 2012-06-07 | 2012-12-05 | 江苏物联网研究发展中心 | 一种用于拥挤场景下的多个行人检测方法 |
CN106446819A (zh) * | 2016-09-20 | 2017-02-22 | 上海理工大学 | 人体安检成像中人体轮廓边缘物体的识别方法 |
WO2019047046A1 (zh) * | 2017-09-06 | 2019-03-14 | 深圳传音通讯有限公司 | 一种拍摄方法及用户终端 |
CN107993191A (zh) * | 2017-11-30 | 2018-05-04 | 腾讯科技(深圳)有限公司 | 一种图像处理方法和装置 |
CN108805838A (zh) * | 2018-06-05 | 2018-11-13 | Oppo广东移动通信有限公司 | 一种图像处理方法、移动终端及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110163810A (zh) | 2019-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110163810B (zh) | 一种图像处理方法、装置以及终端 | |
JP7413400B2 (ja) | 肌質測定方法、肌質等級分類方法、肌質測定装置、電子機器及び記憶媒体 | |
EP2902941B1 (en) | System and method for visually distinguishing faces in a digital image | |
US8385638B2 (en) | Detecting skin tone in images | |
EP1800259B1 (en) | Image segmentation method and system | |
CN111416950A (zh) | 视频处理方法、装置、存储介质及电子设备 | |
KR100667663B1 (ko) | 화상 처리 장치, 화상 처리 방법 및 그 프로그램을 기록한 컴퓨터 판독 가능한 기록매체 | |
US20110268359A1 (en) | Foreground/Background Segmentation in Digital Images | |
US9460521B2 (en) | Digital image analysis | |
CN106326823B (zh) | 一种获取图片中头像的方法和*** | |
EP3664016A1 (en) | Image detection method and apparatus, and terminal | |
JP2005151282A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
CN101983507A (zh) | 自动红眼检测 | |
CN111127476A (zh) | 一种图像处理方法、装置、设备及存储介质 | |
CN109089041A (zh) | 拍摄场景的识别方法、装置、电子设备和存储介质 | |
JPH0862741A (ja) | 階調補正装置 | |
CN111654643B (zh) | 曝光参数确定方法、装置、无人机和计算机可读存储介质 | |
CN106815803A (zh) | 图片的处理方法及装置 | |
US8203772B2 (en) | Image output method, apparatus, and program using one or more attention levels | |
US9092889B2 (en) | Image processing apparatus, image processing method, and program storage medium | |
CN112839167B (zh) | 图像处理方法、装置、电子设备及计算机可读介质 | |
CN109064431A (zh) | 一种图片亮度调节方法、设备及其存储介质 | |
KR102334030B1 (ko) | 컴퓨터 장치를 이용한 헤어 염색 방법 | |
CN112488933B (zh) | 一种视频的细节增强方法、装置、移动终端和存储介质 | |
CN113781330A (zh) | 图像处理方法、装置及电子*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |