CN112085663A - 利用上下文感知传感器和多维姿势输入生成增强数字图像 - Google Patents
利用上下文感知传感器和多维姿势输入生成增强数字图像 Download PDFInfo
- Publication number
- CN112085663A CN112085663A CN202010141124.7A CN202010141124A CN112085663A CN 112085663 A CN112085663 A CN 112085663A CN 202010141124 A CN202010141124 A CN 202010141124A CN 112085663 A CN112085663 A CN 112085663A
- Authority
- CN
- China
- Prior art keywords
- digital image
- location
- parameter
- enhancement system
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 claims abstract description 174
- 230000004044 response Effects 0.000 claims abstract description 40
- 230000000007 visual effect Effects 0.000 claims abstract description 23
- 238000000034 method Methods 0.000 claims abstract description 16
- 230000004048 modification Effects 0.000 claims description 109
- 238000012986 modification Methods 0.000 claims description 109
- 238000006073 displacement reaction Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 6
- 230000002708 enhancing effect Effects 0.000 claims description 4
- 230000008859 change Effects 0.000 description 26
- 238000004458 analytical method Methods 0.000 description 16
- 230000003993 interaction Effects 0.000 description 16
- 230000006870 function Effects 0.000 description 13
- 230000009471 action Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 11
- 238000003702 image correction Methods 0.000 description 11
- 239000003086 colorant Substances 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 239000000203 mixture Substances 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 6
- 238000007726 management method Methods 0.000 description 6
- 238000002156 mixing Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- VYZAMTAEIAYCRO-UHFFFAOYSA-N Chromium Chemical compound [Cr] VYZAMTAEIAYCRO-UHFFFAOYSA-N 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013403 standard screening design Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000001994 activation Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000003090 exacerbative effect Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/94—Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/92—Dynamic range modification of images or parts thereof based on global image properties
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/001—Texturing; Colouring; Generation of texture or colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20101—Interactive definition of point of interest, landmark or seed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72448—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
- H04M1/72454—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/22—Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本公开涉及利用上下文感知传感器和多维姿势输入生成增强数字图像。本公开涉及利用在数字图像上的上下文感知传感器和多维姿势输入生成增强数字图像的***、方法和非瞬态计算机可读介质。特别地,所公开***可以在数字增强用户界面(例如,没有用于修改参数值的视觉元件的用户界面)内的数字图像上提供动态传感器。响应于传感器位置的选择,所公开***可以确定传感器位置处的一个或多个数字图像特征。基于这些特征,所公开***可以选择参数并将其映射到移动方向。此外,所公开***可以标识包括在数字图像上在一个或多个方向上的移动的用户输入姿势。基于传感器位置处的移动和一个或多个特征,所公开***可以修改参数值并生成增强数字图像。
Description
技术领域
本公开的实施例涉及数字图像领域,并且更具体地涉及增强(enhanced)数字图像的生成和编辑。
背景技术
近年来,在用于编辑数字图像的软件和硬件平台方面有了显著改进。实际上,常规数字图像编辑***可以提供各种数字图像编辑工具,其允许用户个性化、改进和变换数字图像。例如,常规数字图像编辑***可以修改数字图像的色相、饱和度和亮度、裁剪/替换数字图像中描绘的对象、和/或校正由客户端设备所捕获的数字图像中的瑕疵。
尽管取得了这些进步,但是关于常规数字图像编辑***仍然存在许多问题——特别是在操作的效率、灵活性和准确性方面。例如,关于效率,常规数字图像编辑***需要大量的时间和用户交互来修改数字图像参数。例如,许多常规数字图像编辑***利用滑块或类似的视觉控件来改变数字图像的各种参数。这样的方法是间接的、不直观的,占用了宝贵的屏幕空间,并且消除了数字图像本身的浓度。例如,为了修改曝光、对比度、阴影、高光以及黑白截止点,一些常规***利用六个分离的滑块元件。结果,常规数字图像编辑***需要过多的用户交互来定位(例如,导航各种下拉菜单)、选择和修改不同的滑块(或其他个体控件)以生成修改后的数字图像。
另外,常规数字图像编辑***是不灵活的。例如,常规数字图像编辑***未很好地缩放至小屏幕,诸如移动设备。实际上,由于专用于chrome的屏幕空间、下拉菜单、滑块或其他可视用户界面控件,常规数字图像***通常在移动设备(例如智能电话)上提供有限或减少的选项。另外,由于为了改变各种数字图像参数而与刚性用户界面元件进行交互的复杂性,常规数字图像编辑***通常无法由新手用户访问(并且不由其使用)。
除了效率和灵活性关注之外,常规数字图像编辑***常常生成不准确的结果。实际上,由于滑块(或其他用户界面)元件常常很难找到和直观地利用,因此客户端设备例行地生成没有准确反映所期望/所要求的修改的数字图像。例如,执行特定色调区域的亮度的改变(同时保持其他色调区域未修改)可能要求对各种个体滑块进行一系列特定改变。由于难以精确地录入这样的修改,因此常规数字图像编辑***常常生成不能准确反映所期望的修改的数字图像。
因此,关于常规数字图像编辑***存在若干技术问题。
发明内容
一个或多个实施例用***、方法和非瞬态计算机可读存储介质来提供益处和/或解决本领域中的前述或其他问题中的一个或多个,这些***、方法和非瞬态计算机可读存储介质利用上下文感知的传感器和多维姿势输入有效地生成增强数字图像。特别地,在一个或多个实施例中,所公开的***利用数字图像增强用户界面,该用户界面不包括滑块元件,而是利用直接在数字图像上录入的直观的二维姿势来控制数字图像的多个参数。此外,所公开的***可以利用动态传感器,该动态传感器跟踪相对于数字图像的用户移动,检测基础图像区域的各方面,并对关联的图像内容做出反应以生成增强数字图像。通过利用确定传感器位置处的数字图像特征的动态传感器并利用数字图像上的姿势输入来修改对应的数字图像参数,所公开的***可以有效、灵活和准确地生成增强数字图像。
本公开的一个或多个实施例的附加特征和优点将在下面的描述中进行阐述,并且部分地从该描述中将是明显的,或者可以通过实践这种示例实施例而被获悉。
附图说明
参考附图描述了详细描述,在附图中:
图1图示出了根据一个或多个实施例的数字图像增强***在其中操作的示例环境;
图2图示出了根据一个或多个实施例的生成增强数字图像的过程的图;
图3图示出了根据一个或多个实施例的确定传感器位置处的数字图像特征的示意图;
图4图示出了根据一个或多个实施例的从在数字图像上的用户输入姿势来确定参数值;
图5图示出了根据一个或多个实施例的基于在数字图像的传感器位置处检测到的特征来选择要修改的参数;
图6图示出了根据一个或多个实施例的修改特定于在传感器位置处的数字图像中检测到的特征的参数;
图7图示出了根据一个或多个实施例的基于在数字图像上的用户输入姿势和多种样式来修改一个或多个参数;
图8图示出了根据一个或多个实施例的被利用来生成增强数字图像的各种输入模式;
图9A-图9B图示出了根据一个或多个实施例的用于生成增强数字图像的数字图像增强用户界面;
图10图示出了根据一个或多个实施例的用于生成增强数字图像的数字图像增强用户界面;
图11图示出了根据一个或多个实施例的在显示数字图像和显示增强数字图像之间转换的数字图像增强用户界面;
图12图示出了根据一个或多个实施例的数字图像增强***的示意图;
图13图示出了根据一个或多个实施例的用于生成增强数字图像的一系列动作的流程图;
图14图示出了根据一个或多个实施例的用于生成增强数字图像的一系列动作的流程图;和
图15图示出了根据一个或多个实施例的示例计算设备的框图。
具体实施方式
本公开的一个或多个实施例包括一种数字图像增强***,其利用数字图像上的上下文感知传感器和多维姿势输入来有效地生成增强数字图像。特别地,数字图像增强***可以通过利用没有滑块控件(或其他视觉可选控制元件)的数字图像增强用户界面来改进数字图像编辑。例如,在一些实施例中,数字图像增强***利用描绘数字图像的数字屏幕上的多维姿势来修改数字图像的参数。此外,数字图像增强***可以利用动态传感器,该动态传感器确定数字图像的所选位置的特征。数字图像增强***可以基于基础特征以及在数字图像上的多维姿势输入来动态地确定修改。通过利用数字图像本身之上的传感器和用户输入姿势(而无需侵入式可选控件),数字增强***释放了屏幕空间,从而高效又灵活地生成准确的数字图像修改。
为了说明,在一个或多个实施例中,数字图像增强***在数字图像增强用户界面内标识对数字图像的第一位置(例如,传感器位置)的用户选择。数字图像增强***可以分析数字图像的第一位置,并标识数字图像在第一位置处的一个或多个特征(例如,在第一位置处描绘的对象或色相)。在一些实施例中,数字图像增强***检测用户输入姿势,其包括向数字图像增强用户界面的第二位置的移动。基于向第二位置的移动以及数字图像的一个或多个特征,数字图像增强***可以确定对数字图像的一个或多个参数的修改。此外,数字图像增强***可以通过关于数字图像应用一个或多个参数的修改来生成增强数字图像。
如刚刚提到的,数字图像增强***可以利用没有滑块和其他常规视觉可选元件的用户界面来修改数字图像参数。特别地,在一个或多个实施例中,数字图像增强***可以检测用户输入姿势,其包括在多个方向上的移动以确定用于修改数字图像的参数值。为了说明,数字图像增强***可以确定包括在水平方向上的第一移动的用户输入姿势。基于在水平方向上的第一移动,数字图像增强***可以确定用于修改数字图像的第一参数值(例如,饱和度的改变)。类似地,数字图像增强***可以检测用户输入姿势包括在垂直方向上的第二移动。基于该第二移动,数字图像增强***可以确定用于修改数字图像的第二修改参数值(例如,色相的改变)。因此,数字图像增强***可以允许用户修改数字图像的一个或多个参数,而不必在多步骤工作流中导航和利用多个不同的菜单和滑块。而是,数字图像增强***可以允许用户直接且直观地与图像进行交互以执行编辑。
如上所讨论,数字图像增强***还可以利用上下文感知传感器来确定数字图像的特征并生成增强数字图像。例如,在一个或多个实施例中,数字图像增强***提供了用于显示的透明传感器,该传感器遵循数字图像增强用户界面内的动态用户交互。响应于对传感器位置的用户选择,数字图像增强***可以确定该位置处的数字图像的特征。具体地,数字图像增强***可以隔离由透明传感器包围的数字图像的区域并分析该区域(例如,利用颜色分析模型和/或对象标识模型)。因此,数字图像增强***可以确定各种特征,诸如颜色、色相、亮度、饱和度或在所选位置处在数字图像中描绘的对象。
在利用上下文感知传感器来标识数字图像的所选位置处的特征时,数字图像增强***可以利用所标识的特征作为修改数字图像的基础。例如,数字图像增强***可以利用传感器位置处的特征来选择参数并将参数映射到用户输入姿势的特定方面。为了说明,数字图像增强***可以检测数字图像的所选区域内的色相。基于检测到的色相,数字图像增强***可以将第一参数映射到水平方向上的移动(例如,将饱和度变化映射到水平移动),并且将第二参数映射到垂直方向上的移动(例如,将色相变化映射到垂直移动)。因此,基于数字图像上的直观姿势输入和所选位置,数字图像增强***可以智能地检测用户试图修改的特征,并且修改数字图像而无需与任何滑块或其他视觉控件进行交互。
在一个或多个实施例中,数字图像增强***还利用各种模式来提供用于修改数字图像的参数的附加控制。例如,数字图像增强***可以利用与不同参数和/或特征相对应的不同输入模式,该不同参数和/或特征允许客户端设备选择在生成增强数字图像时利用哪些特征或参数。为了说明,数字图像增强***可以包括:颜色模式(例如,其将色相映射到第一移动方向,并且将饱和度映射到第二移动方向),光模式(例如,其将亮度映射到第一移动方向,并且将对比度映射到第二移动方向),颜色曲线模式(例如,其将移动方向映射到颜色曲线的变量),或结构模式(例如,其专注于检测和修改数字图像中描绘的基础对象或结构),或样式模式(例如,其基于在数字图像上的用户输入姿势在预定义样式或滤镜(filter)之间混合)。如下所讨论,数字图像增强***可以利用各种不同的预定义或用户定义的输入模式来编辑数字图像。此外,数字图像增强***可以基于各种因素(例如,基于数字图像内容或历史模式使用)来自动确定输入模式。
如上所提及,与常规***相比,数字图像增强***提供许多优点。例如,通过利用上下文感知传感器和/或多维姿势输入来生成增强数字图像,数字图像增强***可以相对于常规数字图像编辑***提高效率。实际上,如上所提及,数字图像增强***可以避免被常规***利用来修改数字图像参数的滑块或其他可视元件。数字图像增强***可以利用智能传感器来确定用户试图在数字图像内修改哪些参数。此外,数字图像增强***可以利用数字图像本身之上的直观二维输入姿势来确定用户试图如何修改那些参数。因此,数字图像增强***可以显著减少生成增强数字图像的用户交互的时间和次数。实际上,基于数字图像上的选择和移动,数字图像增强***可以执行复杂的修改,这将需要与下拉菜单和滑块的数十次用户交互才能使用常规***来完成。
除了效率改进之外,数字图像增强***还比常规***更灵活。通过利用数字图像增强用户界面(其不包括占据屏幕空间或模糊图像的滑块、下拉菜单、chrome元件或其他工具栏元件),数字图像增强***可以在包括移动设备(例如智能电话或平板电脑)在内的不同客户端设备上无缝操作。另外,通过使用上下文感知传感器,数字图像增强***可以进行特定于数字图像中描绘的特征(例如,特定于动态传感器位置处的对象或颜色)的灵活修改。此外,由于数字图像增强***不必依靠各种滑块来修改不同的参数,因此各种技能水平的客户端设备用户更易于访问该数字图像增强***。
此外,相对于常规***,数字图像增强***还提高了准确性。实际上,通过利用传感器和直观的多维输入,数字图像增强***可以直观地对数字图像执行特定的、复杂的修改,所述修改准确反映了所期望的改变。为了说明,利用常规***来修改数字图像内的特定色调范围的亮度(同时保持其他色调范围未改变)将要求用户定位、修改和平衡多个滑块(或其他用户界面元件)。用户常常无法标识和准确调整各种不同的视觉元件来生成所期望的结果。相比之下,数字图像增强***可以基于描绘数字图像中的色调范围的位置的选择以及在数字图像本身上的用户输入姿势来执行这种修改。因此,数字图像增强***可以生成更准确的数字图像增强。
如前面的讨论所说明的,本公开利用各种术语来描述数字图像增强***的特征和优点。现在提供有关这些术语的更多详细信息。例如,如本文所使用的,术语“数字图像”是指任何数字符号、图片、图标或图示。例如,术语“数字图像”包括具有以下或其他文件扩展名的数字文件:JPG、TIFF、BMP、PNG、RAW或PDF。术语“数字图像”还包括数字视频中的一个或多个图像(例如,帧)。因此,尽管本文的许多描述是用数字图像来表述的,但是应当理解,本公开也可以应用于编辑数字视频。另外,如上所提及,数字图像增强***可以生成增强数字图像。如本文所使用的,“增强”数字图像是指具有修改后像素的数字图像。例如,增强数字视频包括其中已经调整、改变或修改了一个或多个参数(例如,色相、亮度、饱和度、曝光)的数字视频。
如本文所使用的,术语“参数”(或“数字图像参数”)是指数字图像的一个或多个像素的视觉特征、特性或设置。特别地,数字图像的参数包括影响数字图像的外观的可调节特性或设置。例如,参数可以包括:色相(例如,色轮上的颜色),饱和度(例如,从灰度色调到纯色的色相的强度或纯度),亮度(例如,从黑到白的颜色的相对亮度或暗度),对比度(例如,数字图像中亮像素和暗像素之间的差异的度量(measure)),或曝光(例如,在数字图像上的亮度的缩放比例)。类似地,参数可以包括:阴影参数(例如,用于调节图像的阴影或暗色调区域),高光参数(例如,用于调节图像的亮色调区域),黑点(例如,黑截止点),白点(例如,白截止点),鲜艳度(例如,与饱和度高的颜色相反的柔和颜色的强度的度量),清晰度,色温,或色度(例如,颜色与白色的混合的度量)。参数还可以包括与颜色曲线有关的可调节变量(例如,编辑点以修改曲线和/或影响颜色曲线的阴影、高光、黑/白截止参数)。
在一个或多个实施例中,参数具有对应的参数值。如本文所使用的,“参数值”是指参数的度量、量度(metric)、水平或数量。例如,色相参数可以包括色相值(例如360度色轮上的颜色的数量)。类似地,饱和度参数可以包括饱和度值(例如,饱和度的百分比或一些其他度量)。
如本文所使用的,术语“修改”是指改变或变更。特别地,对参数的修改包括对数字图像的参数的改变或变更。例如,对参数的修改包括参数值(例如,饱和度值、亮度值或色相值)的改变。如下面更详细地概述的,通过选择要改变的一个或多个参数(例如,基于数字图像的特征)并标识新的参数值(例如,基于用户输入姿势的不同维度),数字图像增强***可以确定修改。
如上所提及,数字图像增强***可以在生成增强数字图像时利用传感器。如本文所使用的,“传感器”(或“上下文感知传感器”或“透明传感器”)是指指示要分析的数字图像的位置或区域的用户界面元件。特别地,传感器可以包括用户界面元件,该用户界面元件定义了数字图像的位置或区域,其中基础内容被分析以确定要修改的数字图像的参数。在一些实施例中,传感器是透明的(即,半透明的,因为它揭示或显示了与传感器重叠的数字图像的一部分),诸如透明的圆圈,其允许用户在标识要分析的位置(即传感器位置)的同时看到基础数字图像。
如上所提及,数字图像增强***可以分析与传感器相对应的区域以标识一个或多个特征。如本文所使用的,数字图像的位置的“特征”是指在数字图像的区域中描绘的一个或多个视觉特性。例如,特征可以包括数字图像的区域或位置内的像素的颜色(例如,色相)、饱和度或亮度的度量。为了说明,特征可以包括统计度量,诸如区域内的像素色相、饱和度和/或亮度的平均值或标准偏差。特征还可以包括范围,诸如色相范围、亮度范围(例如,诸如阴影色调、中间色调或高光色调之类的色调范围)或饱和度范围。数字图像的位置的特征还可以包括在数字图像的位置中描绘的对象。在一些实施例中,特征还包括其他特性,诸如数字图像中描绘的地理位置或时间(例如,季节、日期或一天中的时间)。
如本文中所使用的,术语“用户输入姿势”是指与计算设备的用户交互。特别地,用户输入姿势可以包括用户交互,该用户交互标识与计算设备的显示屏上描绘的图形用户界面相关的位置。例如,在数字图像上(或在数字图像“上方”或在数字图像“上”)的用户输入姿势可以包括在显示数字图像的触摸屏的一部分上的轻扫姿势(例如,落在显示数字图像的图形用户界面区域内的轻扫姿势)。除了(经由触摸屏)轻扫姿势之外,用户输入姿势还可以包括各种备选的用户交互,诸如(例如,经由鼠标)单击和/或拖动事件、按压事件、多指轻扫事件和/或捏事件。用户输入姿势还可以包括非接触姿势或事件(例如,触摸屏上方的运动或由数字相机捕获的移动)。
如上所提及,数字图像增强***可以确定用户输入姿势包括在一个或多个方向(例如,维度)上的移动。如本文所使用的,“移动”是指两个位置之间的变化、差异或距离。特别地,用户输入姿势的移动包括开始位置和结束位置之间的变化、差异或距离。单个用户输入姿势可以包括相对于不同方向(或维度)的多个移动。例如,对角轻扫姿势包括在第一(例如,水平)方向上的第一移动和在第二(例如,垂直)方向上的第二移动。
如本文所使用的,术语“输入模式”(或“模式”)是指与用户选择和/或用户输入姿势相对应的一组特征和/或参数。例如,输入模式可以指示要在用户选择的区域内进行分析的特征(例如,对象或颜色)。类似地,输入模式可以指示与用户输入姿势中的一个或多个移动方向相对应的一个或多个参数。例如,输入模式可以指示色调参数对应于第一(水平)方向,并且饱和度参数对应于第二(垂直)方向。
现在将关于描绘数字图像增强***的示例实施例和实现的说明图提供附加的细节。例如,图1图示出了根据一个或多个实施例的用于实现数字图像增强***110的环境100的示意图。如所示,环境100包括经由网络106连接到多个客户端设备104a-104n的(多个)服务器设备102(其示例将在下面参考图15更详细地描述)。
如所示,环境100可以包括(多个)服务器设备102。(多个)服务器设备102可以生成、存储、接收和传送各种类型的数据,包括数字图像和增强数字图像。例如,(多个)服务器设备102可以从诸如客户端设备104a之类的客户端设备接收数据,并且将数据发送到诸如客户端设备104b、104c和/或104n之类的另一客户端设备。(多个)服务器设备102还可以在环境100的一个或多个用户之间传送电子消息。在一个示例实施例中,(多个)服务器设备102是数据服务器。(多个)服务器设备102还可以包括通信服务器或web托管服务器。下面将相关于图15讨论关于(多个)服务器设备102的附加细节。
如所示,在一个或多个实施例中,(多个)服务器设备102可以实现数字媒体管理***108和/或数字图像增强***110的全部或一部分。数字媒体管理***108可以收集、存储、管理、修改、分析和/或分发数字媒体。例如,数字媒体管理***108可以从客户端设备104a-104n接收数字媒体,存储数字媒体,编辑数字媒体,并将数字媒体提供给客户端设备104a-104n。
数字媒体管理***108和/或数字图像增强***110可以包括在(多个)服务器设备102上运行的(多个)应用,或者可以从(多个)服务器设备102下载一部分。例如,数字图像增强***110可以包括web托管应用,其允许客户端设备104a-104n与在(多个)服务器设备102处托管的内容进行交互。为了说明,在环境100的一个或多个实施例中,一个或多个客户端设备104a-104n可以访问由(多个)服务器设备102支持的网页。特别地,客户端设备104a可以运行web应用(例如web浏览器)以允许用户访问、查看在(多个)服务器设备102处托管的网页或网站和/或与其进行交互。
为了提供说明性示例,在一个或多个实施例中,客户端设备104a捕获数字图像并将该数字图像传送到(多个)服务器设备102。数字媒体管理***108(经由(多个)服务器设备)可以存储数字图像。此外,数字图像增强***110可以提供数字图像增强用户界面以经由客户端设备104a进行显示。数字图像增强***110可以(经由客户端设备104a)标识包括选择和用户输入姿势的用户交互。作为响应,数字图像增强***110可以确定对数字图像参数的修改,通过将修改应用于数字图像参数来生成增强数字图像,并提供增强数字图像以用于(经由客户端设备104a)显示。
如刚刚描述的,数字图像增强***110可以全部或部分地由环境100的各个元件102-106来实现。将理解的是,尽管数字图像增强***110的某些组件或功能在先前示例中关于环境100的特定元件进行了描述,但是各种备选实现是可能的。例如,在一个或多个实施例中,在客户端设备104a上全部或部分地实现数字图像增强***110。类似地,在一个或多个实施例中,可以在(多个)服务器设备102上实现数字图像增强***110。此外,可以在客户端设备104a-104n、(多个)服务器设备102和网络106之中分离地实现数字图像增强***110的不同组件和功能。
尽管图1图示出了客户端设备104a-104n、网络106和(多个)服务器设备102的特定布置,但是各种附加布置也是可能的。例如,客户端设备104a-104n可以绕过网络106而直接与(多个)服务器设备102通信,或者备选地,客户端设备104a-104n可以彼此直接通信。类似地,尽管图1的环境100可以被描绘为具有各种组件,但是环境100可以具有附加或备选组件。
如上所提及,数字图像增强***110可以利用上下文感知传感器和/或多维用户输入姿势来生成增强数字图像。图2图示出了根据一个或多个实施例的生成增强数字图像的概述。特别地,图2图示出了执行一系列动作202-208的数字图像增强***110。
具体地,关于图2,数字图像增强***110执行标识第一位置的用户选择的动作202。例如,如上所讨论,数字图像增强***110可以经由数字图像增强用户界面提供数字图像和透明传感器(即,出现在数字图像上的透明传感器)的显示。数字图像增强***110可以监测与数字图像增强用户界面的用户交互(例如,鼠标的移动或手指在触摸屏上的移动)并修改透明传感器的位置。当传感器移动时,数字图像增强***110可以分析数字图像的传感器位置。
例如,用户可以将手指拖动到第一位置并施加长触摸姿势以激活在第一位置处的传感器(例如,基于用户将透明传感器移动到传感器位置并施加长触摸姿势)。为了说明,通过检测到透明传感器到第一位置的移动(例如,用户将手指拖动到第一位置)然后在第一位置处的长击、长按或力触摸事件,数字图像增强***110可以执行动作202。备选地,数字图像增强***110可以通过检测在数字图像上的第一位置处的用户输入(例如,手指、鼠标或手写笔)的向下触摸来执行动作202。
如图2中所图示的,动作202还可以包括检测在第一位置处的数字图像的特征。例如,数字图像增强***110可以将颜色分析模型和/或对象标识模型应用于传感器位置。为了说明,在一些实施例中,数字图像增强***110基于透明传感器(例如,由透明传感器包围的窗口)标识数字图像的区域,并且分析数字图像的区域以标识诸如该区域中描绘的对象或颜色的特征。下面提供了有关利用传感器标识数字图像特征的附加细节(例如,关于图3)。基于检测到的一个或多个特征,数字图像增强***110可以标识要修改的一个或多个参数,如下面更详细描述的。
在执行动作202时,数字图像增强***110还可以执行检测包括移动的用户输入姿势的动作204。例如,数字图像增强***可以检测包括从初始位置到后续位置的移动的用户输入姿势。例如,如上所提及,用户输入姿势可以包括在初始位置处的按压事件和到随后位置的拖动事件(通过路径)。如图2中所示,在增强用户界面内的数字图像上提供用户输入姿势。因此,如上所讨论,数字图像增强***110不需要提供用于接收用户输入姿势的视觉元件。而是,关于图2,数字图像增强***110接收相对于在数字图像增强用户界面内显示数字图像的不同位置的用户输入姿势。
如所图示,用户输入姿势可以包括在一个或多个方向上的(多个)移动。例如,数字图像增强***110可以检测水平方向上的移动。数字图像增强***110还可以检测对角用户输入姿势,并将对角用户输入姿势分解为水平方向上的第一移动和垂直方向上的第二移动。下面提供了关于分析用户输入姿势以标识移动和对应方向的附加细节(例如,关于图4)。
如图2中所示,数字图像增强***110还执行动作206,该动作206为基于用户输入姿势来确定要进行的修改。例如,数字图像增强***110可以基于从动作204检测到的(多个)移动和(多个)对应方向来确定对参数的修改。例如,数字图像增强***110可以基于在水平方向上的第一移动来确定对数字图像的第一参数的修改。另外,数字图像增强***110可以基于在垂直方向上的第二移动来确定对数字图像的第二参数的修改。因此,数字图像增强***110可以基于在不同方向上的移动来确定对不同参数的修改后的参数值。
在一些实施例中,修改的幅度(例如,针对参数值的改变的幅度)基于在特定方向上的移动的相对位移。例如,数字图像增强***110可以标识移动的初始位置和移动的后续位置之间的水平距离,并修改与该水平距离成比例的第一参数的参数值。在一些实施例中,修改的幅度基于数字增强用户界面内的绝对位置。例如,数字图像增强***110可以将数字增强用户界面的坐标映射到参数值,检测移动的最终位置,并基于该最终位置的映射和坐标来标识参数值。下面提供了关于根据移动来确定参数值的附加细节(例如,关于图4)。
如所图示,动作206还可以包括基于传感器位置处的数字图像的特征来确定修改。实际上,在一些实施例中,数字图像增强***110基于传感器位置处的数字图像的特征来确定要修改的参数。例如,数字图像增强***110可以标识传感器位置处的色相、饱和度和/或亮度(来自动作202)。作为响应,数字图像增强***110可以选择对对应的色相、饱和度和/或亮度的修改。为了说明,在检测到传感器位置处的蓝色时,数字图像增强***110可以确定对数字图像内的蓝色的饱和度参数的第一修改。此外,数字图像增强***110可以确定对数字图像内的蓝色的色相参数的修改。
已经标识出要修改的参数(基于传感器位置处的特征),数字图像增强***110可以基于用户输入姿势来确定参数值的幅度。例如,继续前面的示例,数字图像增强***110可以基于在水平方向上的移动来标识针对数字图像内的蓝色的修改后的饱和度值。此外,数字图像增强***110可以基于在垂直方向上的移动来标识针对数字图像内的蓝色的修改后的色相值。以这种方式,数字图像增强***110可以基于传感器位置处的特征和数字图像增强用户界面中的数字图像上的移动方向来确定参数的修改。下面提供了关于基于传感器和用户输入姿势来标识参数和参数值的附加细节(例如,关于图5-图8)。
在一些实施例中,数字图像增强***110还可以基于输入模式来选择特征和/或参数以进行分析和/或修改。例如,数字图像增强***110可以利用多个输入模式来选择要针对的特定特征和/或要修改的参数。例如,数字图像增强***110可以利用第一模式,该第一模式检测传感器位置处的亮度并且修改亮度(基于水平方向的移动)和饱和度(基于垂直方向的移动)。类似地,数字图像增强***110可以利用第二模式,该第二模式检测传感器位置处的颜色并修改饱和度(基于水平方向的移动)和色相(基于垂直方向的移动)。下面提供了关于不同模式的附加细节(例如,关于图8)。
如图2中所示,基于确定要进行的修改(例如,要修改的参数和对应的参数值),数字图像增强***110可以执行生成增强数字图像的动作208。特别地,数字图像增强***110可以生成并提供增强数字图像以经由数字图像增强用户界面进行显示。通过根据在动作206处确定的参数和参数值来修改数字图像,数字图像增强***110可以执行动作208。例如,基于检测到传感器位置处的蓝色、水平移动和垂直移动,数字图像增强***110可以将数字图像中的蓝色像素的颜色修改为紫色(即,将落入蓝色的阈值色相范围内的任何像素修改为紫色),并增加蓝色像素的饱和度。下面提供了在数字图像增强用户界面内生成增强数字图像的附加示例(例如,关于图9A-图11)。
本文(并且关于图2)所描述的动作旨在是说明性的,并不旨在限制潜在的实施例。备选实施例可以包括比图2中阐明或图示出的那些动作更多、更少或不同的动作。例如,在一些实施例中,在动作202之前,数字图像增强***110应用数字图像校正算法。为了说明,数字图像增强***110可以应用数字图像校正算法来自动修改某些参数(例如,使暗图像变亮)。然后,数字图像增强***110可以通过执行动作202-208来继续修改数字图像。
此外,数字图像增强***110还可以基于应用数字图像校正算法来选择参数。为了说明,数字图像增强***110可以应用数字图像校正算法,该算法自动调节参数(例如,以模仿“专业”数字图像外观)。数字图像增强***110可以标识(或排名)从应用数字图像校正算法而导致的参数变化。例如,数字图像增强***110可以基于变化的百分比或值来对参数进行排名。数字图像增强***110可以利用来自应用数字图像校正算法的参数变化来选择与在各个方向上的移动相对应的参数。例如,基于来自应用数字图像校正算法的排名参数,数字图像增强***110可以将第一参数(例如,最高排名的参数)映射到水平方向,并且将第二参数(例如,第二排名的参数)映射到垂直方向。
数字图像增强***110还可以基于各种其他因素来选择参数。例如,数字图像增强***110可以基于数字图像的内容或历史使用来选择参数。为了说明,数字图像增强***110可以基于使用频率来选择参数(例如,在一个或多个用户中最频繁使用的参数)。数字图像增强***110还可以基于检测到对象来选择参数(例如,在检测到花朵时修改亮度参数)。
类似地,尽管关于图2描述的许多实施例都指示基于两个方向上的移动来修改两个参数,但是数字图像增强***110还可以基于不同方向上的移动来修改附加参数(或者基于单个方向上的移动来修改单个参数)。例如,在一些实施例中,数字图像增强***110可以将四个不同的方向映射到四个不同的样式或滤镜。数字图像增强***110可以基于与四个不同方向相对应的移动来修改与四个不同样式或滤镜相对应的参数。下面提供了关于修改样式/滤镜参数的附加细节(例如,关于图7)。
此外,本文所描述的动作可以以不同顺序来执行、可以被重复或彼此并行地被执行,或者可以与相同或相似步骤/动作的不同实例并行地被执行。例如,在一些实施例中,当用户执行不同的移动时,动作204-208可以被迭代地重复。例如,数字图像增强***110可以基于到一个位置的移动来动态地生成第一增强数字图像,并且可以基于到附加位置的附加移动来生成附加增强数字图像。以这种方式,数字图像增强***110可以向用户提供关于修改和移动如何影响数字图像的视觉外观的实时动态反馈。
类似地,数字图像增强***110还可以关于不同的传感器位置、不同的特征和/或不同的参数来重复动作202-208。例如,数字图像增强***110可以标识由用户选择的附加传感器位置,确定在附加传感器位置处的附加特征,标识附加用户输入姿势,以及修改附加参数(基于附加特征和附加用户输入姿势)以生成附加增强数字图像。
如上所讨论,在一些实施例中,数字图像增强***110利用传感器来标识数字图像的所选位置处的特征。图3图示出了根据一个或多个实施例的利用传感器来标识数字图像特征。具体地,图3图示出了具有描绘数字图像增强用户界面304的触摸屏的计算设备302。特别地,数字图像增强用户界面304描绘了数字图像(即,树叶的图像)以及透明传感器306。
如图3中所图示,数字图像增强***110基于与数字图像增强用户界面304的用户交互来提供透明传感器306以用于显示。特别地,当用户在触摸屏上移动手指时,数字图像增强***110修改透明传感器306的位置。响应于特定位置的选择,数字图像增强***110可以利用透明传感器306来标识数字图像的基础内容。
例如,如图3中所示,用户选择透明传感器306的位置306a。作为响应,数字图像增强***110标识数字图像内容308。特别地,数字图像增强***110标识数字图像的、与透明传感器306相对应的区域(例如,由透明传感器306包围的区域)。数字图像增强***110通过基于与透明传感器306相对应的区域隔离数字图像来标识数字图像内容。因此,数字图像增强***110可以利用透明传感器306作为采样窗口来标识数字内容。
一旦标识出数字图像内容308,数字图像增强***110分析数字图像内容308以确定数字图像特征。如图3中所示,数字图像增强***110可以利用颜色分析模型310和/或对象标识模型314来确定数字图像特征312和/或数字图像特征316。特别地,数字图像增强***110可以确定诸如颜色、亮度、饱和度、对象类和/或对象边界之类的特征。
如所图示,数字图像增强***110利用颜色分析模型310来分析数字图像内容308。颜色分析模型310可以包括多种计算机实现的算法。例如,颜色分析模型310可以包括统计模型,该统计模型确定关于个体像素的颜色信息并生成各种统计度量。例如,数字图像增强***110可以确定位置306a处的每个像素的颜色、亮度和/或饱和度,并利用颜色分析模型310来确定平均值、中值、模式、方差、范围、标准偏差、或颜色的偏斜度、亮度和/或饱和度。数字图像增强***110可以利用这些度量作为数字图像特征312。
如上所提及,数字图像增强***110还可以将特征确定为范围。例如,数字图像增强***110可以确定颜色范围、亮度范围(例如,色调范围)和/或饱和度范围。为了说明,数字图像增强***110可以利用颜色分析模型310来确定与第一区域相对应的色调区域(例如,阴影、高光和中间色调)。例如,数字图像增强***110可以分析数字图像内容308的像素并确定特定色调的频率的度量(例如,像素色调的直方图)。然后,数字图像增强***110可以确定数字图像内容308中的像素是否对应于特定的色调区域。例如,如果像素的阈值数目或百分位数落入色调的第一范围内(例如,下三分之一),则数字图像增强***110可以确定阴影色调区域。类似地,如果像素的阈值数目或百分位数落入色调的第二范围内(例如,上三分之一),则数字图像增强***110可以标识高光色调区域。类似地,如果像素的阈值数目或百分位数落入色调的第三范围内(例如,中间三分之一),则数字图像增强***110可以标识中间色调区域。
在一些实施例中,颜色分析模型310包括机器学习模型(诸如神经网络)。例如,颜色分析模型310可以包括卷积神经网络,该卷积神经网络对数字图像内容308进行分类以生成数字图像特征312。为了说明,数字图像增强***110可以利用神经网络分类器来确定数字图像内容308的主导颜色、亮度或饱和度。
如所示,数字图像增强***110还可以利用对象标识模型314来生成数字图像特征316。例如,数字图像增强***110可以利用对象标识模型314来基于数字图像内容308标识对象边界和/或对象类。
对象标识模型314可以包括各种计算机实现的算法。例如,在一些实施例中,对象标识模型314包括统计对象标识符。例如,在一些实施例中,对象标识模型314基于与特定对象相对应的统计颜色简档来标识对象。为了说明,树叶趋于具有特定的颜色简档(例如,颜色的标准偏差和平均颜色)。数字图像增强***110可以检测数字图像内容308内的颜色的标准偏差和平均颜色,将平均颜色和标准偏差与树叶颜色简档进行比较,并确定数字图像内容308描绘树叶。
在一些实施例中,对象标识模型314包括一个或多个机器学习模型(例如,一个或多个神经网络)。例如,对象标识模型314可以包括神经网络分类器,诸如卷积神经网络。数字图像增强***110可以利用(多个)神经网络来确定对象类和/或对象边界(例如,对象分类和分段)。为了说明,在一些实施例中,数字图像增强***110利用YOLO(你只看一次(you-only-look-once))对象检测算法。
尽管图3描述了利用颜色分析模型310和对象标识模型314来确定特定的数字图像特征,但是数字图像增强***110可以利用各种模型来标识各种数字图像特征。例如,在一些实施例中,数字图像增强***110可以利用地理位置模型和/或时间分类模型来生成包括时间(例如,季节、一天中的时间、一年中的时间、或日期)和地理位置的特征。
颜色分析模型310和/或对象标识模型314可以检测、利用和/或生成各种特征。例如,模型可以检测形状元件,诸如具有各种厚度和定向的线段和边缘。如所提及的,颜色分析模型310可以利用卷积神经网络架构(例如,深度学习网络)来捕获传感器附近的相关局部图像内容。例如,在一些实施例中,数字图像增强***110利用预训练的神经网络。可以使用被训练来识别出对象或再现图像的网络(例如,自动编码器)。为此目的,可以冻结受训网络,并使用各种隐藏的神经元激活来表示感兴趣的一个或多个特征。例如,这种对绿色的具有叶子纹理的图像内容做出响应的特征可以驱动与树叶相关联的参数的改变,诸如改变绿色色相和改变中等空间频率内容,从而控制叶子的清晰度而不会加重噪声。
此外,尽管图3以透明圆圈的形式图示出了透明传感器306,但是数字图像增强***110可以利用各种不同视觉形式的传感器。例如,数字图像增强***110可以利用不透明的传感器。此外,数字图像增强***110可以利用具有不同形状的传感器,诸如正方形、椭圆形、矩形、三角形或用户定义的多边形。
此外,即使图3图示出了与传感器306所覆盖的区域相匹配的数字图像内容308,数字图像增强***110也可以分析与传感器306的区域没有对准的数字图像内容。例如,在一些实施例中,数字图像内容308小于传感器306的面积,并且在一些实施例中,数字图像内容308大于传感器306的面积(例如,两倍于传感器)。
在一些实施例中,数字图像增强***110可以分析较大的部分(或者甚至整个数字图像)以确定落入传感器的位置内的特征。例如,为了确定第一位置包括对象,数字图像增强***110可以分析整个数字图像,标识数字图像中的对象,并确定第一位置是否描绘了所标识的对象之一的一部分。为了说明,关于图3,为了确定传感器306的位置306a包括树叶的描绘,数字图像增强***110可以将对象标识模型314应用于数字图像的较大部分(例如,整个数字图像)。数字图像增强***110可以利用对象标识模型314来标识数字图像中的树叶,然后确定位置306a与所标识的树叶重叠。
如上所提及,数字图像增强***110可以基于包括在一个或多个方向上的移动的用户输入姿势来确定参数值。特别地,在一些实施例中,数字图像增强***110标识相对位移(初始位置和随后位置之间的相对变化),并基于该相对位移确定参数值中的成比例变化。在一些实施例中,数字图像增强***110标识到一个位置的移动并基于该位置在用户界面内的绝对位置(即,非相对于起始位置而言)来确定参数值。例如,图4图示出了根据一个或多个实施例的基于移动位置的相对位移和绝对位置从用户输入姿势标识参数值。
具体地,图4图示出了在具有显示屏404的计算设备402上的用户输入姿势(例如,按压和拖动姿势),其中用户输入姿势包括在初始位置408a和随后位置408b之间的移动406。如所图示,在一些实施例中,数字图像增强***110确定移动406包括水平变化410(即,水平方向的移动)和垂直变化412(即,垂直方向的移动)。基于水平变化410,数字图像增强***110确定色相的对应的(即成比例的)变化。此外,基于垂直变化412,数字图像增强***110确定饱和度的对应的(即成比例的)变化。因此,参数值的变化与相对于初始位置408a的水平移动和垂直移动成比例。因此,图4中所示的实施例图示出了数字图像增强***110可以响应于单个用户输入姿势(例如,对角触摸姿势)来对两个参数进行修改。
如图4中所图示,在一些实施例中,数字图像增强***110确定后续位置408b包括相对于全局坐标系的水平坐标414和垂直坐标416。特别地,水平坐标414反映了距全局坐标系的原点的水平距离,并且垂直坐标416反映了距原点的垂直距离。数字图像增强***110将全局坐标系的坐标(例如,绝对位置)映射到参数值的对应范围。因此,数字图像增强***110将位置映射到对应的参数值(例如,垂直位置具有在0-360范围内的对应色相值,而水平位置具有在0-100范围内的对应饱和度值)。如所示,数字图像增强***110利用垂直坐标416来确定饱和度值(例如91),并利用水平坐标418来确定色相值(例如291)。
虽然图4图示出了特定的参数类型(例如,色相和饱和度),但是数字图像增强***110可以确定用于本文所描述的任何参数的参数值。此外,虽然图4利用显示屏的左下角作为笛卡尔坐标系的原点,但是数字图像增强***110可以利用各种不同的坐标系(例如,极坐标)和各种不同的原点(例如,基于显示屏、用户界面、数字图像或用户界面内的元件的不同位置的原点)。
另外,尽管图4图示出了具有水平分量和垂直分量的单个用户输入姿势,但是在备选实施例中,数字图像增强***110可以检测在第一方向(例如,水平方向)上的第一用户输入姿势和在第二方向(例如,垂直方向)上的第二用户输入姿势。换言之,数字图像增强***110可以将单个用户输入姿势映射到单个方向。例如,数字图像增强***110可以检测到第一用户输入姿势在第一方向(例如,水平或垂直)的阈值内,并且将第一用户输入姿势映射到第一方向——即使第一用户输入姿势在第一方向以外的方向上具有分量。因此,数字图像增强***110可以响应于单个用户输入姿势而对单个参数进行修改,或者响应于多个分离的用户输入姿势而对多个参数进行多次修改。
如上所提及,在一些实施例中,数字图像增强***110可以基于在传感器位置处检测到的特征来选择不同参数来修改。图5图示出了根据一个或多个实施例的、基于在数字图像的不同传感器位置处检测到的不同特征(例如,色调区域)来确定要修改的各种参数。例如,图5图示出了显示数字图像502的计算设备500。图5还示出了相对于数字图像502的第一传感器位置504a、第二传感器位置504b和第三传感器位置504c。对于每个传感器位置504a-504c,数字图像增强***110基于检测到数字图像502的变化特征来确定要修改的不同参数。
例如,关于第一传感器位置504a,数字图像增强***110检测到第一传感器位置504a处的数字内容对应于第一特征506a(即,第一传感器位置处的数字内容对应于中间色调)。作为响应,数字图像增强***110可以选择第一参数508(即,曝光)和第二参数510(即,对比度)。此外,数字图像增强***110可以将参数映射到不同的方向(例如,曝光对应于水平方向上的移动,而对比度对应于垂直方向上的移动)。
另外,在第二传感器位置504b处,数字图像增强***110检测第二特征506b。特别地,数字图像增强***110检测到第二传感器位置504b处的数字内容对应于阴影色调。作为响应,数字图像增强***110可以选择第三参数512(阴影亮度)和第四参数514(黑色剪切点)。此外,数字图像增强***110可以将参数映射到移动方向(例如,阴影亮度映射到水平方向,而黑色剪切点映射到垂直方向)。
此外,在第三传感器位置504c处,数字图像增强***110检测第三特征506c。特别地,数字图像增强***110确定第三传感器位置504c处的数字内容对应于高光色调。作为响应,数字图像增强***110可以选择具有对应方向(即分别为水平和垂直)的第五参数516(高光亮度)和第六参数518(白色剪切点)。
因此,数字图像增强***110可以基于在不同的传感器位置处检测不同的特征来选择各种不同的参数。虽然图5图示出了数字图像增强***110响应于检测到特定特征而选择特定参数,但是数字图像增强***110可以响应于检测到多种不同的特征而选择多种不同的参数。例如,响应于检测到橙色,数字图像增强***110可以选择橙色亮度参数(其定义和/或修改数字图像中的橙色的亮度)和橙色色相参数(其定义和/或修改数字图像中的橙色的色相)。此外,在一些实施例中,数字图像增强***110选择参数而不检测数字图像的特征。例如,在一些实施例中,诸如响应于对要修改的参数的用户选择,数字图像增强***110与数字图像的任何特征无关地选择对比度参数。
如上所讨论,数字图像增强***110可以基于(在传感器位置处检测到的)特征和数字图像上的在多个方向上的用户输入姿势来确定修改。例如,在将参数映射到特定移动方向时,数字图像增强***110然后可以监测用户输入姿势并基于用户输入姿势来修改参数值。以这种方式,数字图像增强***110可以高效且准确地生成传统上将要求修改各种用户界面控制工具的数字图像增强。例如,图6图示出了根据数字图像增强***110的一个或多个实施例的基于特征和用户输入姿势生成修改(以及针对相同修改的滑块或其他常规用户界面工具的对应变化)。
例如,在图6中,数字图像增强***110检测到数字图像的传感器位置包括位于强度值的中间色调范围内的绿色(例如,“中间色调”特征)。数字图像增强***110选择中间色调亮度参数并将中间色调亮度参数映射到水平方向上的移动。此外,数字图像增强***110检测包括水平移动的用户输入姿势。作为响应,数字图像增强***110与水平移动的幅度成比例地修改中间色调亮度。
如所示,根据该示例修改图像的中间色调亮度与其他用户视觉参数值修改元件或多个滑块的修改相关。例如,移动曝光滑块将使图像变亮,但这不仅会影响中间色调,而且会影响整个色调区域。因此,此修改还可能涉及移动阴影滑块和高光滑块以影响中间色调。
此外,在特定色调范围内修改亮度还可以包括对颜色曲线的修改。颜色曲线(如图6中所示)包括图像色调的重新映射的视觉表示。颜色曲线可以被表达为输入水平到输出水平的函数。例如通过在某些色调范围内修改该函数,用户可以与颜色曲线交互以修改该函数。用户可以针对颜色曲线修改各种变量,诸如:添加、移动或移除定义颜色曲线的点,修改颜色曲线中的色调区域的范围,或修改特定色调范围内的强度。数字图像增强***110可以对颜色曲线的变量进行直观的修改,而不会使用户混淆呈现颜色曲线以进行显示。
实际上,数字图像增强***110可以利用数字图像上的姿势输入进行图6中所图示的修改。实际上,通过基于数字图像本身的特征确定特定参数(中间色调亮度),数字图像增强***110可以控制和修改相关参数以准确地修改数字图像,而无需与各种不同的滑块和视觉元件进行重复的用户交互。
尽管图5-图6描述了基于检测到的不同色调区域(即,不同的亮度特征)来选择参数,如上所提及,但是数字图像增强***110可以基于本文所述的任何特征来选择参数。例如,数字图像增强***110可以基于在数字图像中检测到的对象来选择参数(例如,在检测到花朵时,选择饱和度参数)。类似地,如上所提及(关于图2),在一些实施例中,数字图像增强***110基于应用数字图像校正算法来选择参数。
如上所提及,在一些实施例中,数字图像增强***110可以通过基于在数字图像上的用户输入姿势混合样式或滤镜来修改数字图像的参数。例如,图7图示出了具有数字图像增强用户界面702的计算设备700。数字图像增强***110可以将数字图像增强用户界面702的区域、位置和/或方向与四种样式704-710相关联。每种样式都具有其自己的个体参数的混合。例如,样式704可以包括由用户定义的样式。类似地,样式706-710可以包括***预定义的滤镜。基于用户交互,数字图像增强***110可以混合四种样式704-710的参数。
例如,在一个或多个实施例中,数字图像增强***110基于距每种样式的距离的减小函数来执行加权混合(例如,距离加权混合)。因此,由于用户输入姿势更靠近拐角,因此数字图像增强***110可以强调与该拐角相对应的样式。当用户输入姿势与对应于样式的四个拐角等距时,数字图像增强***110可以均等地混合个体样式的参数。
在一些实施例中,数字图像增强***110可以使用混合的颜色查找表来混合来自不同样式的参数。例如,数字图像增强***110可以通过混合针对任何指定输入颜色的颜色输出来确定混合的颜色查找表。例如,数字图像增强***110可以为样式704-710中的每个样式生成查找表,其中每个查找表标识与来自数字图像的输入颜色相对应的输出颜色。数字图像增强***110可以从针对每种样式的每个查找表中获取输出颜色,以创建混合的颜色查找表。数字图像增强***110可以利用混合的颜色查找表来标识来自输入颜色的混合颜色。
在一些实施例中,数字图像增强***110在数字图像的中心区域处利用零样式。因此,当用户手指在中心区域中时,数字图像增强***110不应用样式704-710中的任何一个。在其他实施例中,数字图像增强***110在数字图像的中心区域处包括自动校正元件。在这样的实施例中,当用户手指在中心区域中时,数字图像增强***110应用数字图像校正算法(而不是四个样式之一)。
尽管图7图示出了在数字图像增强用户界面的拐角处具有对应区域的四个样式704-710,但是数字图像增强***110可以利用具有不同对应位置的不同数目的样式。例如,不是混合四个样式,而是数字图像增强***110可以混合两个样式并将这两个样式与不同的位置或方向(例如,屏幕的顶部和底部或沿屏幕边缘的位置)相关联。为了说明,数字图像增强***110可以将沿着数字图像边界的样式位置关联在数字图像的内部或数字图像的外部。此外,在一些实施例中,不是将样式与拐角相关联,而是数字图像增强***110将第一样式的第一混合权重与第一(水平)移动方向相关联,并将第二样式的第二混合权重与第二(垂直)移动方向相关联。
如上所提及,数字图像增强***110还可以利用各种输入模式来辅助选择特定特征和/或参数。例如,图8图示出了根据一个或多个实施例的由数字图像增强***110利用的输入模式802-810。数字图像增强***110可以在生成增强数字图像时选择并应用输入模式802-810。例如,响应于模式选择用户输入,数字图像增强***110可以选择第一模式802,然后搜索与对应于第一模式的特征类型相对应的特征并且修改与第一模式相对应的参数。
例如,如所图示,第一模式802与特征类型802a(即,颜色或色相特征)相关联。另外,第一模式802与参数802b-802c相关联。特别地,第一模式802与对应于第一方向(即,水平方向)的第一参数802b(即,饱和度)相关联。此外,第一模式802与对应于第二方向(即,垂直方向)的第二参数802c(即,色相)相关联。因此,在选择第一模式802时,数字图像增强***110可以分析针对颜色的传感器位置并基于包括水平方向上的移动的用户输入姿势来修改饱和度,并且基于包括垂直方向上的移动的用户输入姿势来修改色相。
在一些实施例中,数字图像增强***110基于检测到的特定特征来改变参数802b、802c。例如,在利用第一模式802时,数字图像增强***110可以将绿色检测为传感器位置处的颜色。作为响应,数字图像增强***110可以利用第一参数802b,但是利用修改绿色饱和度的第一参数802b的更具体的版本。因此,尽管第一模式802对应于特定参数,但是数字图像增强***110可以基于在数字图像内检测到的特征来应用参数。
如图8中所示,数字图像增强***110还可以利用第二模式804。如图8中所示,第二模式804可以包括特征类型804a(即,颜色特征),与第一方向(即,水平方向)相对应的第一参数804b(即,亮度)和与第二方向(即,垂直方向)相对应的第二参数804c。因此,在应用输入模式804时,数字图像增强***110可以分析针对颜色的传感器位置,然后修改亮度(响应于水平方向的移动)以及修改饱和度(响应于垂直方向的移动)。
如图8中进一步图示的,数字图像增强***110可以利用与特征类型806a(即,色调区域特征)和参数806b(即,颜色参数曲线变量)相关联的第三模式806。如上所讨论(例如,关于图6),数字图像增强***110可以利用颜色曲线来修改数字图像。例如,数字图像增强***110可以修改颜色曲线的色调区域内的强度值。类似地,数字图像增强***110可以修改颜色曲线内的色调区域之间的边界或截止点。数字图像增强***110可以利用这些变量作为参数806b。例如,数字图像增强***110可以基于在第一方向上的移动来修改颜色曲线的强度(或高度)。此外,数字图像增强***110可以基于在第二方向上的移动来修改色调区域的边界(或颜色曲线上的点的水平位置)。
如图8中所示,数字图像增强***110还可以包括与特征类型808a(即,检测对象)、第一参数808b(即,饱和度)和第二参数808c(即,色相)相关联的第四模式808(即,结构模式)。因此,当实现第四模式808时,数字图像增强***110可以标识在传感器位置中描绘的对象,响应于水平方向上的移动来修改对象(和/或相同类的相似对象)的饱和度,并响应于垂直方向上的移动来修改对象(和/或相同类的类似对象)的色相。
此外,图8示出了数字图像增强***110还可以应用其他模式810。例如,数字图像增强***110可以基于本文描述的特征和参数的不同组合来定义各种模式。为了说明,数字图像增强***110可以利用一种模式,该模式检测包括颜色和饱和度两者的特征并且修改色相和饱和度(或色相和亮度或色相和对比度)。类似地,数字图像增强***110可以利用修改预设样式的样式输入模式(如关于图7所描述的)。此外,尽管图8图示出了具有要分析的预定特征类型的各种输入模式,但是在一些实施例中,数字图像增强***110利用没有指定(或分析)特征类型的输入模式(即,输入模式仅指定参数)。
在一个或多个实施例中,数字图像增强***110(例如,从模式802-*810中)选择或确定要应用的模式。数字图像增强***110可以基于多种因素来选择模式。例如,在一些实施例中,数字图像增强***110基于用户输入来选择模式。例如,数字图像增强***110可以检测模式选择用户输入,其指示特定节点的用户选择。为了说明,在一些实施例中,数字图像增强***110基于双击或双按事件来在输入模式之间切换。
数字图像增强***110还可以基于数字图像内容来选择输入模式。例如,数字图像增强***110可以执行对数字图像的初步分析以确定数字图像特征(例如,颜色统计、所描绘的对象、一天中的时间、季节或位置),并基于数字图像特征来选择输入模式。例如,基于检测到具有深色简档的数字,数字图像增强***110可以选择浅色模式。类似地,基于检测到颜色变化很小的数字图像,数字图像增强***110可以选择颜色模式。
在一些实施例中,数字图像增强***110可以基于应用数字图像校正算法来选择输入模式。例如,数字图像增强***110可以应用数字图像校正算法并确定相对于原始数字图像改变(例如,改变最大)的参数。然后,数字图像增强***110可以选择与改变的参数相对应的颜色模式。
数字图像增强***110还可以基于历史使用来选择输入模式。例如,数字图像增强***110可以选择基于最后使用的输入模式做出的输入。类似地,数字图像增强***110可以基于使用频率来选择输入模式(例如,特定用户最常用的输入模式)。在一些实施例中,数字图像增强***110可以基于数字图像的特征和使用历史二者来选择输入模式。例如,数字图像增强***110可以检测数字图像中的对象,并确定用户先前已经利用特定的输入模式用该对象修改了数字图像。作为响应,数字图像增强***110可以选择特定的输入模式。
如上所提及,数字图像增强***110可以利用数字图像增强用户界面来生成增强数字图像。图9A-图10图示出了根据一个或多个实施例的利用数字图像增强用户界面生成增强数字图像。例如,图9A图示出了具有触摸屏902的计算设备900,触摸屏902显示包括数字图像906(即,描绘花朵的数字图像)的数字图像增强用户界面904。
数字图像增强***110检测用户将手指拖动到第一位置908。数字图像增强***110提供传感器910以在数字图像增强用户界面上进行显示(随着用户拖动手指)。在一些实施例中,当用户触摸显示屏时,数字图像增强***110增加传感器910的大小(以使传感器的位置在任何给定时间更容易看到)。此外,随着数字图像增强***110在不同位置处检测到传感器910的移动,数字图像增强***110可以在不同位置处提供内容的指示符(以及与当前选择的输入模式相对应的修改)。例如,如图9A中所示,数字图像增强***110提供动态指示器911,其指示当前位置处的数字内容包括“高光”,并且当前输入模式将修改高光内的光(例如,亮度和对比度)。
具体来说,如图9A中所示,传感器910与输入模式相关联。具体地,传感器910显示图形(例如,具有亮度梯度的圆),其指示光输入模式被选择。基于光输入模式,数字图像增强***110可以检测第一位置908处的亮度特征。例如,数字图像增强***110检测到第一位置908处的数字图像906包括与高光相对应的像素(例如,在高光亮度类别或范围内)。
在第一位置908处,数字图像增强***110可以检测长按或其他用户输入以激活数字图像增强***110的传感器或特征检测器能力。数字图像增强***110可以检测在第一位置908处的数字图像的一个或多个特征。特别地,数字图像增强***110可以标识参数以修改那些参数并将那些参数与移动方向相关联。因为数字图像增强***110正在应用光输入模式,所以数字图像增强***110可以将亮度参数(例如,改变描绘高光的像素的亮度)与在水平方向上的移动相关联以及将饱和度参数(例如,改变描绘高光的像素的饱和度)与在垂直方向上的移动相关联。
如图9A中所图示,数字图像增强***110检测用户输入姿势912。特别地,在选择第一位置908之后,数字图像增强***110检测在初始位置912a开始并在后续位置912b结束的用户输入姿势。在一个实施例中,根据用户输入姿势912,数字图像增强***110可以标识水平方向上的第一移动和垂直方向上的第二移动。基于水平方向上的第一移动和第一位置处的特征,数字图像增强***110可以修改亮度。具体而言,数字图像增强***110可以修改落在高光类别或范围内的像素的亮度。基于垂直方向上的第二移动和第一位置处的特征,数字图像增强***110还可以修改饱和度。特别地,数字图像增强***110可以修改落在高光类别或范围内的像素的饱和度。如上所讨论,数字图像增强***110可以基于水平移动的幅度和垂直移动的幅度来确定亮度和饱和度变化的幅度。
在另一个实施例中,数字图像增强***110可以确定用户输入姿势912比垂直更水平或者在水平移动的阈值角度之内。作为响应,数字图像增强***110可以基于第一用户输入姿势912的幅度来修改落在高光类别或范围内的像素的亮度。
在标识要进行的修改(例如,要改变的参数和参数值)后,数字图像增强***110可以生成增强数字图像。在检测到用户输入姿势912后,数字图像增强***110可以修改参数以生成增强数字图像914。具体地,数字图像增强***110可以修改高光色调范围内的像素的亮度(以及可选地饱和度)。此外,数字图像增强***110可以提供增强数字图像914以经由数字图像增强用户界面904进行显示。
如所提及的,数字图像增强***110可以利用传感器来迭代地改变不同的参数。例如,图9B图示出了利用传感器和多维姿势输入来进一步修改增强数字图像914。具体而言,关于图9B,数字图像增强***110标识到新位置920的移动(例如,拖动事件)。数字图像增强***110还标识指示改变为不同输入模式的用户输入(例如,双击事件)。作为响应,数字图像增强***110可以提供传感器910以在新位置920处进行显示。此外,数字图像增强***110可以在传感器910内提供指示不同输入模式(即,颜色输入模式)的新图形。
基于附加用户输入(例如,长按事件),数字图像增强***110可以激活传感器910,确定在新位置920处的数字图像的特征,以及搜索或等待用户输入姿势。因为数字图像增强***110正在应用颜色输入模式,所以数字图像增强***110可以检测在第一位置处的颜色(即,品红色)。数字图像增强***110还可以标识与颜色输入模式相对应的参数(例如,针对水平方向的色相和针对垂直方向的饱和度)。
如图9B中所示,数字图像增强***110标识用户输入姿势922。数字图像增强***110确定水平方向上的第一移动,并基于在新位置920处检测到的特征和第一移动来应用对应的色相变化。具体地,数字图像增强***110标识描绘在品红色的阈值色相范围内的色相的像素,并将色相的变化应用于那些像素。此外,数字图像增强***110确定垂直方向上的第二移动并基于在新位置920处检测到的特征和第二移动来应用饱和度的对应变化。具体地,数字图像增强***110标识在品红色的阈值色相范围内的像素,并将饱和度的变化应用于那些像素。如所图示,数字图像增强***110生成增强数字图像924。
尽管图9A-图9B图示出了应用于数字图像的修改,如上所讨论的,数字图像增强***110可以通过标识传感器位置处的特征并检测二维用户输入姿势来迭代地修改数字图像。例如,数字图像增强***110可以使用传感器910在附加位置处检测附加选择,在附加位置处标识附加特征,确定附加用户输入姿势,并且基于检测到的特征和该附加用户输入姿势来修改增强数字图像916。
如上所提及,在一些实施例中,数字图像增强***110可以在传感器位置处检测数字图像中描绘的对象,并基于数字图像上的用户输入姿势来修改对象。例如,图10图示出了具有触摸屏1002的计算设备1000,触摸屏1002显示包括数字图像1006(即,描绘雕像1012的数字图像)的数字图像增强用户界面1004。
数字图像增强***110标识与传感器1010相对应的第一位置1008处的用户选择(例如,长按事件)。作为响应,数字图像增强***110可以确定第一位置1008处的特征。如所图示,数字图像增强***110可以利用关于图1的结构输入模式。因此,数字图像增强***110可以检测在第一位置1008处描绘的对象。具体地,数字图像增强***110可以应用对象标识模型并标识雕像1012。
如上所讨论,数字图像增强***110还可以将参数映射到特定的移动方向。例如,关于图10,数字图像增强***110可以将饱和度与水平方向相关联并且将色相与垂直方向相关联。
如图10中所示,数字图像增强***110还检测用户输入姿势1014。作为响应,数字图像增强***110可以基于检测到的对象和用户输入姿势来修改数字图像的参数。特别地,在图10中所示的实施例中,数字图像增强***110基于水平方向上的移动来修改雕像1012的饱和度,并且基于垂直方向上的移动来修改雕像1012的色相。如所示,数字图像增强***110生成并显示增强数字图像1016。
尽管图10图示出了描绘特定类型或类的对象的数字图像,数字图像增强***110可以与描绘各种对象的各种数字图像结合操作。例如,在一些实施例中,数字图像增强***110检测在数字图像中的传感器位置处描绘的天空或云彩。数字图像增强***110可以基于用户输入姿势来修改天空或云彩。
此外,在一些实施例中,数字图像描绘了数字图像中的对象的多个实例。在一些实施例中,数字图像增强***110可以检测在传感器位置处的对象的单个实例,标识在数字图像中的对象的多个实例,并且基于用户输入姿势来修改对象的多个实例。为了说明,数字图像增强***110可以检测传感器位置处的第一脸部。数字图像增强***110可以分析数字图像并检测数字图像中的第二脸部。响应于用户输入姿势,数字图像增强***110修改第一脸部和第二脸部(例如,修改第一脸部和第二脸部的色相、亮度或饱和度)。
数字图像增强***110还可以基于在数字图像中检测到的特征对参数值设置限制。例如,响应于检测到数字图像中的脸部,数字图像增强***110可以对与人类肤色相对应的范围内的色相值设置限制。类似地,在检测到数字图像中的天空后,数字图像增强***110可以选择与传统天空颜色相对应的色相值的范围。
此外,除了图9A-图10中标识的特征之外,数字图像增强***110还可以基于其他特征来标识和修改数字图像。例如,如上所提及,数字图像增强***110可以检测数字图像内的时间或位置,并基于该时间或位置来选择要修改的参数。例如,数字图像增强***110可以确定数字图像描绘了春天。作为响应,数字图像增强***110可以选择颜色参数(例如,以强调春天的花朵的颜色)。类似地,数字图像增强***110可以确定在数字图像中描绘了伦敦,并且选择了亮度参数(例如,以使暗区域变亮)。
数字图像增强***110还可以提供附加用户界面功能,其辅助生成增强数字图像。例如,在一些实施例中,数字图像增强***110在显示修改后的数字图像和先前的(例如,原始)数字图像之间交替(例如,以帮助用户评估修改)。图11图示出了根据一个或多个实施例的在显示修改后的数字图像和先前的数字图像之间交替。如图11中所示,数字图像增强***110显示了增强数字图像1016。响应于用户输入(例如,长按事件),数字图像增强***110可以显示数字图像1006(修改之前)。具体地,数字图像增强***110在用户输入的持续时间内(例如,直到长按事件完成之前)显示数字图像1006。在用户输入完成后,数字图像增强***110显示增强数字图像1016。
数字图像增强***110可以提供多种其他用户界面功能以帮助修改数字图像。例如,响应于用户输入,数字图像增强***110可以提供对数字图像的修改的细节。为了说明,数字图像增强***110可以提供指示对各种参数的修改(例如,对亮度或饱和度的修改)的文本元件。
例如,数字图像增强***110可以在用户界面内提供视觉元件,该视觉元件提供关于参数值的视觉反馈。例如,在一些实施例中,数字图像增强***110可以在触摸屏的传感器附近或手指位置附近或在分离的固定位置(例如,在视图屏幕的顶部或底部)处将数字参数值显示为文本。用户可以在文本上擦过手指(或提供一些其他用户输入)以增加或减少值,并且可以备选地直接录入参数的文本值。而且,数字图像增强***110可以允许关于沿两个轴进行控制的特定用户模式和参数类型的文本反馈。这样的视觉反馈可以包括图形描绘,诸如针对传感器视觉元件的图标的改变。它还可以包括参数值的可视显示,诸如其长度指示参数强度的条形的呈现。以这种方式,数字图像增强***110可以向用户通知关于在生成增强数字图像时正在做出(或已经做出)什么改变。
现在转向图12,提供了根据一个或多个实施例的关于数字图像增强***110的组件和能力的附加细节。如所示,数字图像增强***110由计算设备1200(例如,(多个)服务器设备102和/或客户端设备104a)实现。此外,如所图示,数字图像增强***110包括输入模式管理器1202、传感器引擎1204、修改管理器1206(其包括参数选择器1208和多维输入引擎1210)以及存储管理器1214(其存储数字图像1214a、数字图像特征1214b、增强数字图像1214c、输入模式1214d和参数1214e)。
如刚刚所提及的,数字图像增强***110包括输入模式管理器1202。输入模式管理器1202可以确定、生成、应用、实现、修改和/或利用输入模式。例如,如上所讨论,数字图像增强***110可以确定定义特征类型和/或参数的输入模式,以在生成增强数字图像时进行利用。
另外,如图12中所示,数字图像增强***110包括传感器引擎1204。传感器引擎1204可以生成、显示和/或利用传感器(例如,透明传感器)。传感器引擎1204还可以标识、确定、检测和/或提取数字图像的特征(例如,对应于传感器位置的特征)。例如,传感器引擎1204可以基于传感器位置的选择来提供圆形透明传感器以用于显示。如上所述,传感器引擎1204还可以应用颜色分析模型和/或对象标识模型来确定对应于传感器位置的特征。
如图12中所示,数字图像增强***110还包括修改管理器1206。修改管理器1206可以标识、确定和/或选择要应用于数字图像的修改。例如,数字图像增强***110可以标识参数和参数值以在修改数字图像时进行利用。
如所示,修改管理器1206包括参数选择器1208。参数选择器1208可以标识、确定、生成和/或选择要在数字图像中修改的参数。例如,参数选择器1208可以将参数映射到用户输入姿势。例如,如上所述,参数选择器1208可以选择第一参数并将第一参数映射到第一方向。此外,参数选择器1208可以选择第二参数并且将第二参数映射到第二方向。
图12图示出了修改管理器1206还包括多维输入引擎1210。多维输入引擎1210可以标识、确定、检测和/或分析用户输入姿势。例如,多维输入引擎1210可以标识用户输入姿势以确定对应于不同方向的移动。特别地,多维输入引擎1210可以标识在第一方向上的第一移动和在第二方向上的第二移动。此外,多维输入引擎1210可以基于用户输入姿势来确定参数值。例如,如上所述,多维输入引擎1210可以基于在第一方向上的移动来确定针对第一参数的参数值,并且基于在第二方向上的移动来确定针对第二参数的参数值。
如所图示,数字图像增强***110还包括数字图像编辑引擎1212。数字图像编辑引擎1212可以创建、生成、编辑、修改、渲染和/或显示增强数字图像。例如,数字图像增强***110可以标识(来自修改管理器1206的)修改,并且相对于数字图像进行修改。此外,数字图像增强***110可以提供修改后的数字图像以供显示。
如图12中所示,数字图像增强***110还包括存储管理器1214。存储管理器1214维护用于数字图像增强***110的数据。存储管理器1214可以根据需要维护任何类型、大小或种类的数据,以执行数字图像增强***110的功能,包括数字图像1214a、数字图像特征1214b(例如,在不同位置处的数字图像中描绘的颜色或对象)、增强型数字图像1214c、输入模式1214d(例如,颜色输入模式或照明输入模式)和/或参数1214e(例如,要修改的可用参数和/或历史参数使用记录)。
在一个或多个实施例中,数字图像增强***110的每个组件使用任何合适的通信技术彼此通信。另外,数字图像增强***110的组件可以与包括上述一个或多个客户端设备的一个或多个其他设备通信。将认识到,尽管在图12中数字图像增强***110的组件被示为是分离的,但是任何子组件可以被组合成更少的组件——诸如被组合成单个组件,或者被划分成可以服务于特定的实现的更多的组件。此外,尽管结合数字图像增强***110描述了图12的组件,但是可以在环境内的其他设备上实现用于结合本文描述的数字图像增强***110执行操作的至少一些组件。
数字图像增强***110的组件可以包括软件、硬件或两者。例如,数字图像增强***110的组件可以包括存储在计算机可读存储媒体上且可由一个或多个计算设备(例如,计算设备1200)的处理器执行的一个或多个指令。当由一个或多个处理器执行时,数字图像增强***110的计算机可执行指令可以使计算设备1200执行本文所描述的方法。备选地,数字图像增强***110的组件可以包括硬件,诸如执行特定功能或功能组的专用处理设备。附加地或备选地,数字图像增强***110的组件可以包括计算机可执行指令和硬件的组合。
此外,执行本文所描述的功能的数字图像增强***110的组件可以例如被实现为独立应用的一部分,被实现为应用的模块,被实现为用于包括内容管理应用在内的应用的插件,被实现为可以被其他应用调用的一个或多个库功能,和/或被实现为云计算模型。因此,数字图像增强***110的组件可以被实现为个人计算设备或移动设备上的独立应用的一部分。备选地或附加地,数字图像增强***110的组件可以在允许创建营销内容并将其递送给用户的任何应用中被实现,包括但不限于ADOBE CREATIVE CLOUD中的应用,诸如ADOBELIGHTROOM、ADOBE ILLUSTRATOR、ADOBE PHOTOSHOP和ADOBE CAMERA RAW。“ADOBE”、“CREATIVE CLOUD”、“LIGHTROOM”、“ILLUSTRATOR”、“PHOTOSHOP”和“ADOBE CAMERA RAW”是Adobe公司在美国和/或其他国家的商标和/或注册商标。
图1-图12、对应的文本和示例提供了许多不同的***、方法和非瞬态计算机可读介质,用于生成目标分发时间表,以用于将电子通信分发给个体用户/客户端设备。除了前述内容之外,还可以根据包括用于实现特定结果的动作的流程图来描述实施例。例如,图13-图14图示出了根据一个或多个实施例的示例动作序列的流程图。
尽管图13-图14图示出了根据一些实施例的动作,但是备选实施例可以省略、增加、重新排序和/或修改图13-图14中所示的任何动作。图13-图14的动作可以作为方法的一部分而被执行。备选地,非瞬态计算机可读介质可以包括指令,该指令在由一个或多个处理器执行时使计算设备执行图13-图14的动作。在其他实施例中,***可以执行图13-图14的动作。另外,本文所描述的动作可以彼此并行地或与相同或其他相似动作的不同实例并行地重复或执行。
例如,图13图示出了根据一个或多个实施例的用于生成增强数字图像的一系列示例动作1300。如图13中所示,这一系列动作包括标识对数字图像的第一位置的用户选择的动作1310。例如,动作1310可以包括标识数字图像增强用户界面内的数字图像的第一位置的用户选择。在一些实施例中,动作1310包括:基于对数字图像增强用户界面内的数字图像的第一位置的用户选择,检测在第一位置处的数字图像的一个或多个特征。此外,动作1310还可以包括:基于第一位置的用户选择,在数字图像增强用户界面内标识第一位置处的数字图像的一个或多个特征。在一个或多个实施例中,动作1310包括提供用于经由数字图像增强用户界面显示的传感器以及在第一位置处检测与传感器的用户交互。因此,在一些实施例中,第一位置是传感器位置。
如图13中所示,一系列动作1300还包括检测在第一方向和第二方向上的在数字图像上的用户输入姿势的动作1320。例如,动作1320可以包括检测数字图像上的用户输入姿势,其包括在第一方向上的第一移动和在第二方向上的第二移动。在一些实施例中,动作1320包括在数字图像增强用户界面内接收包括在数字图像上的双向移动的用户输入姿势。在一个或多个实施例中,数字图像增强***110响应于与传感器的用户交互来检测用户输入姿势。此外,在一些实施例中,第一移动是水平方向,第二移动是垂直方向。
如图13中所示,一系列动作1300还包括基于第一方向确定第一参数的第一修改的动作1330。例如,动作1330可以包括基于在第一方向上的第一移动来确定要执行的数字图像的第一参数的第一修改。在一些实施例中,动作1330包括基于在第一方向上的第一移动和在第一位置处的数字图像的一个或多个特征来确定数字图像的第一参数的第一修改。
如图13中所示,一系列动作1300还包括基于第二方向确定第二参数的第二修改的动作1340。例如,动作1340可以包括基于在第二方向上的第二移动来确定要执行的数字图像的第二参数的第二修改。在一些实施例中,动作1340包括基于在第二方向上的第二移动和在第一位置处的数字图像的一个或多个特征来确定数字图像的第二参数的第二修改。在一些实施例中,第一参数和第二参数包括以下中至少两项:色相、饱和度、亮度、对比度、曝光、阴影、高光、黑点、白点、鲜艳度、清晰度、色温或色度。
此外,在一些实施例中,第一参数和第二参数反映第一位置处的特征。例如,第一参数和第二参数可以包括与特定特征(例如,检测到的特征范围或对象)相对应的参数。为了说明,第一参数可以包括用于修改数字图像的像素的色相参数,该像素对应于(例如,描绘)以下中至少一项:检测到的色相、检测到的饱和度、检测到的亮度或检测到的对象。类似地,第一参数可以包括用于修改数字图像的像素的饱和度参数或亮度参数,该像素对应于(例如,描绘)以下中至少一项:检测到的色相,检测到的饱和度,检测到的亮度或检测到的对象。
如图13中所示,一系列动作1300还包括基于第一修改和第二修改来生成增强数字图像的动作1350。例如,动作1350可以包括通过对第一参数进行第一修改并且对第二参数进行第二修改来生成增强数字图像。在一些实施例中,动作1350包括提供增强数字图像以供显示。
在一些实施例中,一系列动作1300包括通过检测第一位置处的数字图像的色相来检测第一位置处的数字图像的一个或多个特征;基于在第一方向上的第一移动和在第一位置处的数字图像的色相,确定在第一位置处的数字图像的第一参数的第一修改;基于在第二方向上的第二移动和在第一位置处的数字图像的色相,确定在第一位置处的数字图像的第二参数的第二修改。
另外,在一些实施例中,一系列动作1300包括通过检测在第一位置处的数字图像中描绘的对象来检测在第一位置处的数字图像的一个或多个特征;基于在第一方向上的第一移动和在第一位置处的数字图像中描绘的对象,确定在第一位置处的数字图像的第一参数的第一修改;基于在第二方向上的第二移动和在第一位置处的数字图像中描绘的对象,确定在第一位置处的数字图像的第二参数的第二修改。
此外,在一个或多个实施例中,一系列动作1300包括检测与增强数字图像相关联的附加用户输入姿势;并且响应于附加用户输入姿势,在附加用户输入姿势的持续时间内从显示增强数字图像转变为在数字图像增强用户界面内显示数字图像。例如,动作1300可以包括显示增强数字图像;响应于检测到附加用户输入姿势,显示数字图像;以及响应于检测到附加用户输入姿势的完成,显示增强数字图像。
另外,在一些实施例中,一系列动作1300包括:基于第一输入模式确定数字图像的第一参数和数字图像的第二参数;以及响应于检测到模式选择用户输入,将第一输入模式修改为与第三参数和第四参数相对应的第二输入模式。
此外,在一个或多个实施例中,一系列动作1300包括:标识数字图像增强用户界面内的增强数字图像的第二位置的第二用户选择;检测第二用户输入姿势,该第二用户输入姿势包括在第三方向上的第三移动和在第四方向上的第四移动;基于在第三方向上的第三移动和第二输入模式,确定增强数字图像的第三参数的第三修改;基于在第四方向上的第四移动和第二输入模式,确定增强数字图像的第四参数的第四修改;以及通过对第三参数的第三修改和对第四参数的第四修改来生成更新的增强数字图像。
例如,在一些实施例中,第一输入模式对应于第一参数和第二参数。此外,在一些实施例中,第二输入模式对应于第三参数和第四参数。在一个或多个实施例中,第一输入模式也对应于特征类型。此外,在一个或多个实施例中,第二输入模式对应于第二特征类型。
在一些实施例中,包括在数字图像上的双向移动的用户输入姿势包括在对应于第一修改的第一方向上的第一移动和在对应于第二修改的第二方向上的第二移动;并且增强数字图像反映了第一修改和第二修改。
另外,在一些实施例中,数字图像增强用户界面不包括用于修改第一参数的参数值或第二参数的参数值的视觉元件。此外,在一个或多个实施例中,数字图像增强用户界面不包含视觉滑块元件。
另外,图14图示出了根据一个或多个实施例的用于生成增强数字图像的一系列示例动作1400。如图14中所示,一系列动作1400还包括标识在第一位置处的数字图像的一个或多个特征的动作1410。例如,动作1410可以包括基于在数字图像增强用户界面内的第一位置的用户选择,标识在第一位置处的数字图像的一个或多个特征。在一些实施例中,动作1410包括:基于在数字图像增强用户界面内的第一位置的用户选择,提供透明传感器以在第一位置处显示;以及通过分析由透明传感器包围的数字图像的区域来标识一个或多个特征。动作1410还可以包括:标识在第一位置处的亮度、在第一位置处的色相或在第一位置处的对象中的一个或多个。
如图14所示,一系列动作1400还包括:检测包括向数字图像的第二位置的移动的用户输入姿势的动作1420。例如,动作1420可以包括检测用户输入姿势,该用户输入姿势包括在数字图像增强用户界面内向数字图像的第二位置的移动。在一些实施例中,动作1420包括检测从数字图像增强用户界面内的数字图像的初始位置向数字图像增强用户界面内的数字图像的第二位置的移动。
如图14所示,一系列动作1400还包括:基于移动和一个或多个特征来确定参数的修改的动作1430。例如,动作1430可以包括基于向第二位置的移动以及在第一位置处的数字图像的一个或多个特征来确定数字图像的参数的修改。在一些实施例中,动作1430包括基于在第一位置处的数字图像的一个或多个特征来选择参数;以及基于用户界面内的第二位置,标识参数的参数值。为了说明,动作1430可以包括基于以下至少一项来基于第二位置来确定参数的参数值:第二位置与用户输入姿势的初始位置之间的相对位移;或数字图像增强用户界面内的第二位置的绝对位置与参数值之间的映射。
如图14所示,动作1440包括基于修改来生成增强数字图像。例如,动作1440可以包括通过进行参数的修改来生成增强数字图像。
在一些实施例中,一系列动作1400包括:确定来自用户输入姿势的垂直移动和水平移动,该用户输入姿势包括向第二位置的移动;基于垂直移动和在第一位置处的数字图像的一个或多个特征,确定数字图像的参数的修改;基于水平移动和在第一位置处的数字图像的一个或多个特征,确定数字图像的附加参数的附加修改;以及通过进行参数的修改以及附加参数的修改来生成增强数字图像。
在一个或多个实施例中,一系列动作1300和/或一系列动作1400包括用于利用双向移动和一个或多个特征来生成增强数字图像的步骤。例如,参考图2至图4描述的算法和动作可以包括用于执行用于利用双向移动和一个或多个特征来生成增强数字图像的步骤的对应结构。
本公开的实施例可以包括或利用专用或通用计算机,其包括计算机硬件,诸如例如一个或多个处理器和***存储器,如下面更详细地讨论的。本公开的范围内的实施例还包括用于承载或存储计算机可执行指令和/或数据结构的物理和其他计算机可读介质。特别地,本文所描述的一个或多个过程可以至少部分地被实现为体现在非瞬态计算机可读介质中并且可由一个或多个计算设备(例如,本文所描述的任何介质内容访问设备)执行的指令。通常,处理器(例如,微处理器)从非瞬态计算机可读介质(例如,存储器等)接收指令,并执行那些指令,从而执行包括本文所述的一个或多个过程在内的一个或多个过程。
计算机可读介质可以是可以由通用或专用计算机***访问的任何可用介质。存储计算机可执行指令的计算机可读介质是非瞬态计算机可读存储介质(设备)。携带计算机可执行指令的计算机可读介质是传输介质。因此,通过示例而非限制,本公开的实施例可以包括至少两种明显不同种类的计算机可读介质:非瞬态计算机可读存储介质(设备)和传输介质。
非瞬态计算机可读存储介质(设备)包括RAM、ROM、EEPROM、CD-ROM、固态驱动器(“SSD”)(例如基于RAM)、闪存、相变存储器(“PCM”)、其他类型的存储器、其他光盘存储装置、磁盘存储装置或其他磁性存储设备、或者可以被用来以计算机可执行指令或数据结构形式存储期望程序代码部件并且可以由通用或专用计算机访问的任何其他介质。
“网络”被定义为使得能够在计算机***和/或模块和/或其他电子设备之间运输电子数据的一个或多个数据链路。当通过网络或其他通信连接(硬连线、无线、或者硬连线或无线的组合)将信息传输或提供给计算机时,计算机将该连接正确地视为传输介质。传输介质可以包括网络和/或数据链路,其可以被用来以计算机可执行指令或数据结构的形式携带期望的程序代码部件,并且其可以由通用或专用计算机访问。上述的组合也应被包括在计算机可读介质的范围内。
此外,在达到各种计算机***组件时,可以将计算机可执行指令或数据结构形式的程序代码部件从传输介质自动传输到非瞬态计算机可读存储介质(设备)(反之亦然)。例如,可以将通过网络或数据链路接收的计算机可执行指令或数据结构缓冲在网络接口模块(例如“NIC”)内的RAM中,然后最终将其传输到计算机***处的较不易失的计算机存储介质(设备)和/或计算机***RAM。因此,应当理解,非瞬态计算机可读存储介质(设备)可以被包括在也(或者甚至主要地)利用传输介质的计算机***组件中。
计算机可执行指令包括例如指令和数据,当在处理器上执行该指令和数据时,该指令和数据使通用计算机、专用计算机或专用处理设备执行特定功能或功能组。在一些实施例中,计算机可执行指令在通用计算机上被执行以将通用计算机转变成实现本公开的元件的专用计算机。计算机可执行指令可以是例如二进制文件、中间格式指令(诸如汇编语言)或者甚至是源代码。尽管已经用特定于结构特征和/或方法动作的语言描述了主题,但是应该理解,所附权利要求书中限定的主题不必限于上述描述的特征或动作。而是,所描述的特征和动作被公开为实现权利要求的示例形式。
本领域技术人员将理解,可以在具有许多类型的计算机***配置的网络计算环境中实践本公开,所述计算机***配置包括个人计算机、台式计算机、膝上型计算机、消息处理器、手持式设备、多处理器***、基于微处理器或可编程的消费类电子产品、网络PC、小型计算机、大型计算机、移动电话、PDA、平板电脑、寻呼机、路由器、交换机等。还可以在分布式***环境中实践本公开,在其中通过网络链接(通过硬连线数据链路、无线数据链路、或通过硬连线和无线数据链路的组合)的本地和远程计算机***均执行任务。在分布式***环境中,程序模块可以位于本地和远程存储器存储设备中。
也可以在云计算环境中实现本公开的实施例。在此说明书中,“云计算”被定义为一种模型,用于启用按需网络访问可配置计算资源的共享池。例如,可以在市场中采用云计算,以提供对可配置计算资源的共享池的无处不在且方便的按需访问。可以经由虚拟化快速配备可配置计算资源的共享池,并以较少的管理工作量或服务提供方交互来释放它,然后相应地对其进行扩展。
云计算模型可以由各种特性组成,诸如例如,按需自助服务、广泛网络访问、资源池、快速弹性、测量的服务等等。云计算模型还可以暴露各种服务模型,诸如例如软件即服务(“SaaS”)、平台即服务(“PaaS”)和基础设施即服务(“IaaS”)。还可以使用诸如私有云、社区云、公共云、混合云等等之类的不同部署模型来部署云计算模型。在本说明书和权利要求书中,“云计算环境”是其中采用云计算的环境。
图15以框图形式图示出了可以被配置为执行上述过程中的一个或多个的示例计算设备1500(例如,客户端设备104a-104n;和/或(多个)服务器设备102;计算设备302、402、500、700、900或1000;和/或计算设备1200)。将会意识到,数字图像增强***110可以包括计算设备1500的实现。如图15所示,计算设备可以包括处理器1502、存储器1504、存储设备1506、I/O接口1508和通信接口1510。此外,计算设备1500可以包括输入设备,诸如触摸屏、鼠标等。在某些实施例中,计算设备1500可以包括比图15中所示的组件更少或更多的组件。现在将更加详细地描述图15中示出的计算设备1500的组件。
在特定实施例中,(多个)处理器1502包括用于执行指令的硬件,诸如构成计算机程序的那些。作为示例且以非限制的方式,为了执行指令,(多个)处理器1502可以从内部寄存器、内部高速缓存、存储器1504或存储设备1506中取回(或获取)指令,并对它们进行解码且执行之。
计算设备1500包括被耦合到(多个)处理器1502的存储器1504。存储器1504可以被用于存储数据、元数据和由(多个)处理器执行的程序。存储器1504可以包括易失性和非易失性存储器中的一个或多个,诸如随机存取存储器(“RAM”)、只读存储器(“ROM”)、固态磁盘(“SSD”)、闪存、相变存储器(“PCM”)或其他类型的数据存储装置。存储器1504可以是内部或分布式存储器。
计算设备1500包括存储设备1506,其包括用于存储数据或指令的存储设备。作为示例且以非限制的方式,存储设备1506可以包括上述非瞬态存储介质。存储设备1506可以包括硬盘驱动器(HDD)、闪存、通用串行总线(USB)驱动器或这些或其他存储设备的组合。
计算设备1500还包括一个或多个输入或输出(“I/O”)设备/接口1508,其被提供以允许用户向计算设备1500提供输入(诸如用户笔画)、从计算设备1500接收输出以及以其他方式与计算设备1500来回传输数据。这些I/O设备/接口1508可以包括鼠标、小键盘或键盘、触摸屏、相机、光学扫描仪、网络接口、调制解调器、其他已知的I/O设备或这些I/O设备/接口1508的组合。可以用书写设备或手指来激活触摸屏。
I/O设备/接口1508可以包括用于向用户呈现输出的一个或多个设备,包括但不限于图形引擎、显示器(例如,显示屏)、一个或多个输出驱动器(例如,显示驱动器)、一个或多个音频扬声器和一个或多个音频驱动器。在某些实施例中,设备/接口1508被配置为将图形数据提供给显示器以呈现给用户。图形数据可以代表一个或多个图形用户界面和/或可以服务于特定实现的任何其他图形内容。
计算设备1500还可以包括通信接口1510。通信接口1510可以包括硬件、软件或两者。通信接口1510可以提供一个或多个接口,用于在计算设备与一个或多个其他计算设备1500或一个或多个网络之间的通信(诸如例如基于分组的通信)。作为示例且以非限制的方式,通信接口1510可以包括用于与以太网或其他基于有线的网络通信的网络接口控制器(NIC)或网络适配器,或用于与无线网络(诸如WI-FI)通信的无线NIC(WNIC)或无线适配器。计算设备1500还可以包括总线1512。总线1512可以包括将计算设备1500的组件彼此耦合的硬件、软件或两者。
在前述说明书中,已经参照本发明的特定示例实施例描述了本发明。参考本文讨论的细节以及附图描述了(多个)本发明的各个实施例和方面图示出了各个实施例。上面的描述和附图是对本发明的说明,并且不应被解释为限制本发明。描述了许多具体细节以提供对本发明的各种实施例的透彻理解。
在不脱离本发明的精神或基本特性的情况下,本发明可以以其他特定形式来体现。所描述的实施例在所有方面仅被认为是说明性的而非限制性的。例如,本文所描述的方法可以用更少或更多的步骤/动作来执行,或者可以以不同的顺序来执行步骤/动作。另外,本文所描述的步骤/动作可以彼此并行地或与相同或相似步骤/动作的不同实例并行地被重复或执行。因此,本发明的范围由所附权利要求书而不是前述描述来指示。落入权利要求的等同含义和范围之内的所有改变均应被包含在其范围之内。
Claims (20)
1.一种在其上存储指令的非瞬态计算机可读介质,所述指令在由至少一个处理器执行时使计算设备:
在数字图像增强用户界面内标识对数字图像的第一位置的用户选择;
检测在所述数字图像上的用户输入姿势,所述用户输入姿势包括在第一方向上的第一移动和在第二方向上的第二移动;
基于在所述第一方向上的所述第一移动,确定要执行的所述数字图像的第一参数的第一修改;
基于在所述第二方向上的所述第二移动,确定要执行的所述数字图像的第二参数的第二修改;以及
通过对所述第一参数进行所述第一修改以及对所述第二参数进行所述第二修改,生成增强数字图像。
2.根据权利要求1所述的非瞬态计算机可读介质,其中所述数字图像增强用户界面不包括用于修改所述第一参数的参数值或所述第二参数的参数值的视觉元件。
3.根据权利要求1所述的非瞬态计算机可读介质,其上还存储指令,所述指令在由所述至少一个处理器执行时使所述计算设备:基于在所述数字图像增强用户界面内对所述数字图像的所述第一位置的所述用户选择,检测在所述第一位置处的所述数字图像的一个或多个特征。
4.根据权利要求3所述的非瞬态计算机可读介质,其上还存储指令,所述指令在由所述至少一个处理器执行时使所述计算设备:
基于在所述第一方向上的所述第一移动和在所述第一位置处的所述数字图像的所述一个或多个特征,确定所述数字图像的所述第一参数的所述第一修改;以及
基于在所述第二方向上的所述第二移动和在所述第一位置处的所述数字图像的所述一个或多个特征,确定所述数字图像的所述第二参数的所述第二修改。
5.根据权利要求4所述的非瞬态计算机可读介质,其上还存储指令,所述指令在由所述至少一个处理器执行时使所述计算设备:
通过检测在所述第一位置处的所述数字图像的色相来检测在所述第一位置处的所述数字图像的所述一个或多个特征;
基于在所述第一方向上的所述第一移动和在所述第一位置处的所述数字图像的所述色相,确定在所述第一位置处的所述数字图像的所述第一参数的所述第一修改;以及
基于在所述第二方向上的所述第二移动和在所述第一位置处的所述数字图像的所述色相,确定在所述第一位置处的所述数字图像的所述第二参数的所述第二修改。
6.根据权利要求5所述的非瞬态计算机可读介质,其中所述第一参数和所述第二参数包括以下中至少两项:色相、饱和度、亮度、对比度、曝光、阴影、高光、黑点、白点、鲜艳度、清晰度、色温或色度。
7.根据权利要求4所述的非瞬态计算机可读介质,其上还存储指令,所述指令在由所述至少一个处理器执行时使所述计算设备:
通过检测在所述第一位置处的所述数字图像中描绘的对象来检测在所述第一位置处的所述数字图像的所述一个或多个特征;
基于在所述第一方向上的所述第一移动和在所述第一位置处的所述数字图像中描绘的所述对象,确定在所述第一位置处的所述数字图像的所述第一参数的所述第一修改;以及
基于在所述第二方向上的所述第二移动和在所述第一位置处的所述数字图像中描绘的所述对象,确定在所述第一位置处的所述数字图像的所述第二参数的所述第二修改。
8.根据权利要求1所述的非瞬态计算机可读介质,其上还存储指令,所述指令在由所述至少一个处理器执行时使所述计算设备:
检测与所述增强数字图像相关联的附加用户输入姿势;以及
响应于所述附加用户输入姿势,在所述附加用户输入姿势的持续时间内,从显示所述增强数字图像转变为在所述数字图像增强用户界面内显示所述数字图像。
9.根据权利要求1所述的非瞬态计算机可读介质,其上还存储指令,所述指令在由所述至少一个处理器执行时使所述计算设备:
基于第一输入模式来确定所述数字图像的所述第一参数和所述数字图像的所述第二参数;以及
响应于检测到模式选择用户输入,将所述第一输入模式修改为与第三参数和第四参数相对应的第二输入模式。
10.根据权利要求9所述的非瞬态计算机可读介质,其上还存储指令,所述指令在由所述至少一个处理器执行时使所述计算设备:
标识所述数字图像增强用户界面内的所述增强数字图像的第二位置的第二用户选择;
检测第二用户输入姿势,所述第二用户输入姿势包括在第三方向上的第三移动和在第四方向上的第四移动;
基于在所述第三方向上的所述第三移动和所述第二输入模式,确定所述增强数字图像的所述第三参数的第三修改;
基于在所述第四方向上的所述第四移动和所述第二输入模式,确定所述增强数字图像的所述第四参数的第四修改;以及
通过对所述第三参数进行所述第三修改和对所述第四参数进行所述第四修改来生成更新的增强数字图像。
11.一种***,包括:
至少一个处理器;以及
存储指令的至少一个非瞬态计算机可读介质,所述指令在由所述至少一个处理器执行时使所述***:
基于在数字图像增强用户界面内对第一位置的用户选择,标识在所述第一位置处的数字图像的一个或多个特征;
检测用户输入姿势,所述用户输入姿势包括在所述数字图像增强用户界面内向所述数字图像的第二位置的移动;
基于向所述第二位置的所述移动和在所述第一位置处的所述数字图像的所述一个或多个特征,确定所述数字图像的参数的修改;以及
通过对所述参数进行所述修改来生成增强数字图像。
12.根据权利要求11所述的***,还包括指令,所述指令在由所述至少一个处理器执行时使所述***通过以下方式标识在所述第一位置处的所述数字图像的所述一个或多个特征:
基于在所述数字图像增强用户界面内对所述第一位置的所述用户选择,提供在所述第一位置处用于显示的透明传感器;以及
通过分析由所述透明传感器包围的所述数字图像的区域来标识所述一个或多个特征。
13.根据权利要求12所述的***,还存储指令,所述指令在由所述至少一个处理器执行时使所述***:通过标识所述第一位置处的亮度、所述第一位置处的色相或所述第一位置处的对象中的一个或多个来标识所述数字图像的所述一个或多个特征。
14.根据权利要求11所述的***,还存储指令,所述指令在由所述至少一个处理器执行时使所述***通过以下方式来基于向所述第二位置的所述移动和所述第一位置处的所述数字图像的所述一个或多个特征来确定所述数字图像的所述参数的所述修改:
基于在所述第一位置处的所述数字图像的所述一个或多个特征来选择所述参数;以及
基于所述用户界面内的所述第二位置来标识所述参数的参数值。
15.根据权利要求14所述的***,还存储指令,所述指令在由所述至少一个处理器执行时使所述***基于以下中至少一项来基于所述第二位置来确定所述参数的所述参数值:
所述第二位置与所述用户输入姿势的初始位置之间的相对位移;或
所述数字图像增强用户界面内的所述第二位置的绝对位置与所述参数值之间的映射。
16.根据权利要求15所述的***,还存储指令,所述指令在由所述至少一个处理器执行时使所述***:
从包括向所述第二位置的所述移动的所述用户输入姿势确定垂直移动和水平移动;
基于所述垂直移动和在所述第一位置处的所述数字图像的所述一个或多个特征,确定所述数字图像的所述参数的所述修改;
基于所述水平移动和在所述第一位置处的所述数字图像的所述一个或多个特征,确定所述数字图像的附加参数的附加修改;以及
通过进行所述参数的所述修改和所述附加参数的所述附加修改来生成所述增强数字图像。
17.一种有效地生成修改的数字图像的计算机实现的方法,包括:
基于对第一位置的用户选择,在数字图像增强用户界面内,标识在所述第一位置处的数字图像的一个或多个特征;
在所述数字图像增强用户界面内接收包括在所述数字图像上的双向移动的用户输入姿势;
用于利用所述双向移动和所述一个或多个特征来生成增强数字图像的步骤;以及
提供所述增强数字图像以用于显示。
18.根据权利要求17所述的计算机实现的方法,其中所述数字图像增强用户界面不包含视觉滑块元件。
19.根据权利要求17所述的计算机实现的方法,其中所述一个或多个特征包括以下中至少一项:在所述第一位置处的色相或在所述第一位置处的对象。
20.根据权利要求17所述的计算机实现的方法,其中:
包括在所述数字图像上的所述双向移动的所述用户输入姿势包括在对应于第一修改的第一方向上的第一移动和在对应于第二修改的第二方向上的第二移动;以及
所述增强数字图像反映所述第一修改和所述第二修改。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/440,471 US11138699B2 (en) | 2019-06-13 | 2019-06-13 | Utilizing context-aware sensors and multi-dimensional gesture inputs to efficiently generate enhanced digital images |
US16/440,471 | 2019-06-13 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112085663A true CN112085663A (zh) | 2020-12-15 |
Family
ID=70453528
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010141124.7A Pending CN112085663A (zh) | 2019-06-13 | 2020-03-03 | 利用上下文感知传感器和多维姿势输入生成增强数字图像 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11138699B2 (zh) |
CN (1) | CN112085663A (zh) |
AU (1) | AU2020201976B2 (zh) |
DE (1) | DE102020001437A1 (zh) |
GB (1) | GB2585423B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114138131A (zh) * | 2021-11-04 | 2022-03-04 | 深圳市鸿合创新信息技术有限责任公司 | 触控数据采集增益调节方法、装置、电路和触控设备 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11138699B2 (en) * | 2019-06-13 | 2021-10-05 | Adobe Inc. | Utilizing context-aware sensors and multi-dimensional gesture inputs to efficiently generate enhanced digital images |
US11810274B2 (en) * | 2021-03-04 | 2023-11-07 | Nvidia Corporation | Tone management using tone gain functions for high dynamic range imaging applications |
US20230028736A1 (en) * | 2021-07-22 | 2023-01-26 | Qualcomm Incorporated | Configurable image enhancement |
EP4238874A1 (en) * | 2022-03-02 | 2023-09-06 | Honeywell International Inc. | Methods and system for direct slewing a light beam axis |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110074809A1 (en) * | 2009-09-30 | 2011-03-31 | Nokia Corporation | Access to control of multiple editing effects |
CN102541256A (zh) * | 2010-10-28 | 2012-07-04 | 微软公司 | 具有视觉反馈的位置知晓姿势作为输入方法 |
Family Cites Families (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7593603B1 (en) * | 2004-11-30 | 2009-09-22 | Adobe Systems Incorporated | Multi-behavior image correction tool |
JP2009064423A (ja) * | 2007-08-10 | 2009-03-26 | Shiseido Co Ltd | メイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラム |
US8401284B2 (en) * | 2008-05-28 | 2013-03-19 | Apple Inc. | Color correcting method and apparatus |
US8913831B2 (en) * | 2008-07-31 | 2014-12-16 | Hewlett-Packard Development Company, L.P. | Perceptual segmentation of images |
WO2010071630A1 (en) * | 2008-12-15 | 2010-06-24 | Hewlett-Packard Development Company, L.P. | Gesture based edit mode |
JP4983962B2 (ja) * | 2009-07-23 | 2012-07-25 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
US20110074804A1 (en) * | 2009-09-30 | 2011-03-31 | Nokia Corporation | Selection of a region |
JP5269851B2 (ja) * | 2010-09-27 | 2013-08-21 | 富士フイルム株式会社 | 画像編集装置及びその画像編集方法並びにそのプログラム |
US8854324B2 (en) * | 2011-04-13 | 2014-10-07 | Sony Corporation | Information processing control device |
US8570339B2 (en) * | 2011-05-26 | 2013-10-29 | Xerox Corporation | Modifying color adjustment choices based on image characteristics in an image editing system |
US9424799B2 (en) * | 2011-10-28 | 2016-08-23 | Apple Inc. | On-screen image adjustments |
US20130201206A1 (en) * | 2012-02-06 | 2013-08-08 | Andrew Bryant | Editing media using graphical representation of media |
US9105121B2 (en) * | 2012-03-06 | 2015-08-11 | Apple Inc. | Image editing with user interface controls overlaid on image |
US9131192B2 (en) * | 2012-03-06 | 2015-09-08 | Apple Inc. | Unified slider control for modifying multiple image properties |
JP6253007B2 (ja) * | 2012-03-28 | 2017-12-27 | パナソニックIpマネジメント株式会社 | 表示装置 |
US8885936B2 (en) * | 2012-06-10 | 2014-11-11 | Apple Inc. | Automated color balance tools for editing images |
WO2014105279A1 (en) * | 2012-12-29 | 2014-07-03 | Yknots Industries Llc | Device, method, and graphical user interface for switching between user interfaces |
KR20140099760A (ko) | 2013-02-04 | 2014-08-13 | 삼성전자주식회사 | 단말기의 화면 제어 방법 및 장치 |
GB2510613A (en) | 2013-02-08 | 2014-08-13 | Nokia Corp | User interface for image processing |
JP6265640B2 (ja) * | 2013-07-18 | 2018-01-24 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法及びプログラム |
US10114532B2 (en) * | 2013-12-06 | 2018-10-30 | Google Llc | Editing options for image regions |
JP6355746B2 (ja) * | 2014-02-19 | 2018-07-11 | クアルコム,インコーポレイテッド | デバイスのための画像編集技法 |
JP6241320B2 (ja) * | 2014-02-28 | 2017-12-06 | 富士ゼロックス株式会社 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
JP5907196B2 (ja) | 2014-02-28 | 2016-04-26 | 富士ゼロックス株式会社 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
US20160011720A1 (en) * | 2014-07-10 | 2016-01-14 | Thomas Christian Walther | Multi-Touch Interface for Blind Real-Time Interaction |
US9799125B1 (en) * | 2014-08-26 | 2017-10-24 | Cooper Technologies Company | Color control user interfaces |
US9569697B1 (en) | 2015-02-19 | 2017-02-14 | Google Inc. | Object oriented image editing |
US10430051B2 (en) * | 2015-12-29 | 2019-10-01 | Facebook, Inc. | Multi-user content presentation system |
US9838594B2 (en) * | 2016-03-02 | 2017-12-05 | Qualcomm Incorporated | Irregular-region based automatic image correction |
US11320329B2 (en) * | 2016-09-12 | 2022-05-03 | Sitime Corporation | Frequency-modulating sensor array |
EP3611701A4 (en) * | 2017-04-11 | 2020-12-02 | Rakuten, Inc. | IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND PROGRAM |
JP6907714B2 (ja) * | 2017-05-30 | 2021-07-21 | セイコーエプソン株式会社 | 情報処理装置の制御方法、プログラムおよび情報処理装置 |
US10691329B2 (en) * | 2017-06-19 | 2020-06-23 | Simple Design Ltd. | User interface of media player application for controlling media content display |
US11069030B2 (en) * | 2018-03-22 | 2021-07-20 | Adobe, Inc. | Aesthetics-guided image enhancement |
KR102558166B1 (ko) * | 2018-08-08 | 2023-07-24 | 삼성전자주식회사 | 복수의 객체들을 포함하는 이미지를 보정하는 전자 장치 및 그 제어 방법 |
GB2576211A (en) * | 2018-08-10 | 2020-02-12 | Sony Corp | A method for mapping an object to a location in virtual space |
US11823310B2 (en) * | 2018-09-07 | 2023-11-21 | Streem, Llc. | Context-aware selective object replacement |
US20200184098A1 (en) * | 2018-12-06 | 2020-06-11 | HELIX RE, Inc. | Systems and Methods for Secure Obfuscation of Sensitive Information in Images |
KR102646684B1 (ko) * | 2019-02-28 | 2024-03-13 | 삼성전자 주식회사 | 전자 장치 및 컨텐츠를 생성하는 방법 |
US11138699B2 (en) * | 2019-06-13 | 2021-10-05 | Adobe Inc. | Utilizing context-aware sensors and multi-dimensional gesture inputs to efficiently generate enhanced digital images |
-
2019
- 2019-06-13 US US16/440,471 patent/US11138699B2/en active Active
-
2020
- 2020-03-03 CN CN202010141124.7A patent/CN112085663A/zh active Pending
- 2020-03-04 DE DE102020001437.2A patent/DE102020001437A1/de active Pending
- 2020-03-13 GB GB2003697.6A patent/GB2585423B/en active Active
- 2020-03-19 AU AU2020201976A patent/AU2020201976B2/en active Active
-
2021
- 2021-09-08 US US17/469,438 patent/US11734805B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110074809A1 (en) * | 2009-09-30 | 2011-03-31 | Nokia Corporation | Access to control of multiple editing effects |
CN102541256A (zh) * | 2010-10-28 | 2012-07-04 | 微软公司 | 具有视觉反馈的位置知晓姿势作为输入方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114138131A (zh) * | 2021-11-04 | 2022-03-04 | 深圳市鸿合创新信息技术有限责任公司 | 触控数据采集增益调节方法、装置、电路和触控设备 |
CN114138131B (zh) * | 2021-11-04 | 2024-04-09 | 深圳市鸿合创新信息技术有限责任公司 | 触控数据采集增益调节方法、装置、电路和触控设备 |
Also Published As
Publication number | Publication date |
---|---|
AU2020201976A1 (en) | 2021-01-07 |
DE102020001437A1 (de) | 2020-12-17 |
US11734805B2 (en) | 2023-08-22 |
US20200394773A1 (en) | 2020-12-17 |
AU2020201976B2 (en) | 2021-09-23 |
GB202003697D0 (en) | 2020-04-29 |
GB2585423A (en) | 2021-01-13 |
US11138699B2 (en) | 2021-10-05 |
GB2585423B (en) | 2023-02-01 |
US20210407054A1 (en) | 2021-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11734805B2 (en) | Utilizing context-aware sensors and multi-dimensional gesture inputs to efficiently generate enhanced digital images | |
CN110555893B (zh) | 通过选择性地将栅格图像转换为向量绘图部分来生成增强的数字图像 | |
US9396560B2 (en) | Image-based color palette generation | |
US7593603B1 (en) | Multi-behavior image correction tool | |
US9972073B2 (en) | Enhanced vectorization of raster images | |
JP6077020B2 (ja) | 複数の画像プロパティを修正するための一体型スライダコントロール | |
US9159144B2 (en) | Color adjustors for color segments | |
JP5990600B2 (ja) | 色区分に関する色調整器 | |
US20160104303A1 (en) | Image-based color palette generation | |
CA3143033C (en) | Data serialization extrusion for converting two-dimensional images to three-dimensional geometry | |
JP6089886B2 (ja) | 領域分割方法および検査装置 | |
EP3262604B1 (en) | Systems and methods for smart cartography | |
CN108352083A (zh) | 用于拉伸成3d对象的2d图像处理 | |
CN115482322A (zh) | 生成合成训练数据集的计算机实现方法和*** | |
US11232607B2 (en) | Adding color to digital images | |
US9659228B2 (en) | Image processing apparatus, image processing system, non-transitory computer readable medium, and image processing method | |
US10636184B2 (en) | Methods and systems for interactive 3D segmentation | |
US11854131B2 (en) | Content-specific-preset edits for digital images | |
US11341690B2 (en) | Providing color manipulation tools dynamically customized based on image content | |
US11830128B1 (en) | Systems and methods for presenting and editing selections of three-dimensional image data | |
AU2022100086A4 (en) | Systems and methods for automatically adjusting design element attributes | |
US20240153155A1 (en) | Mapping color to data for data bound objects | |
JP6930099B2 (ja) | 画像処理装置 | |
JP2024037556A (ja) | 情報処理装置及びプログラム | |
CN117830595A (zh) | 样本图像预处理方法及装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |