CN104103085A - 屏幕图像中的对象 - Google Patents
屏幕图像中的对象 Download PDFInfo
- Publication number
- CN104103085A CN104103085A CN201410142760.6A CN201410142760A CN104103085A CN 104103085 A CN104103085 A CN 104103085A CN 201410142760 A CN201410142760 A CN 201410142760A CN 104103085 A CN104103085 A CN 104103085A
- Authority
- CN
- China
- Prior art keywords
- image
- source images
- target image
- control module
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 80
- 239000000284 extract Substances 0.000 claims description 37
- 238000003860 storage Methods 0.000 claims description 21
- 238000013507 mapping Methods 0.000 claims description 12
- 230000000007 visual effect Effects 0.000 claims description 10
- 230000003321 amplification Effects 0.000 claims description 9
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 9
- 238000001514 detection method Methods 0.000 claims description 8
- 230000000694 effects Effects 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 238000005304 joining Methods 0.000 claims description 3
- 230000015572 biosynthetic process Effects 0.000 abstract 1
- 238000001308 synthesis method Methods 0.000 abstract 1
- 238000003786 synthesis reaction Methods 0.000 abstract 1
- 230000008569 process Effects 0.000 description 29
- 230000004044 response Effects 0.000 description 13
- 238000010189 synthetic method Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 239000012528 membrane Substances 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 229920001621 AMOLED Polymers 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 239000003990 capacitor Substances 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 238000005538 encapsulation Methods 0.000 description 2
- 238000002386 leaching Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000005672 electromagnetic field Effects 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 210000003811 finger Anatomy 0.000 description 1
- 210000005224 forefinger Anatomy 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000013011 mating Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000013077 target material Substances 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/26—Techniques for post-processing, e.g. correcting the recognition result
- G06V30/262—Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
- G06V30/274—Syntactic or semantic context, e.g. balancing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Editing Of Facsimile Originals (AREA)
- Processing Or Creating Images (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Analysing Materials By The Use Of Radiation (AREA)
Abstract
提供了一种用于将多个图像组合为合成图像的方法和实现所述方法的电子设备。本公开的图像合成方法包括:获取源图像中对象的坐标;基于所述坐标从源图像提取目标图像,使得目标图像包括所述对象;以及在边框的映射到源图像的部分中显示所述目标图像。
Description
技术领域
本公开涉及图像合成方法,具体地,涉及用于将多个图像组合为一个合成图像的方法和实现该方法的电子设备。
背景技术
例如智能电话等便携式电子设备配备有处理图像的功能。例如,电子设备具有能够剪切、放大和缩小图像,以及调整图像对比度的图像编辑功能。电子设备提供由多个部分构成的屏幕框。电子设备能够提取与对应部分匹配的部分图像。电子设备能够定位通过将部分图像与边框的对应部分匹配为合成图像而获得的图像。然而,对应部分中可能缺少或部分包括特定对象(例如,脸)。
发明内容
本公开目的在于提供一种能够向边框的所需部分安置对象的图像合成方法和设备。根据本公开的一个方面,提供了一种图像合成方法。所述图像合成方法可以包括:选择源图像;获取源图像中对象的坐标,所述坐标包含在与源图像相关联的标签信息中;基于所述坐标从源图像提取目标图像,使得目标图像包括所述对象;以及在与屏幕框内的一部分中显示所述目标图像,所述部分映射到源图像。
根据本公开的另一方面,一种图像合成方法可以包括:选择图像文件夹中包括的源图像;获取源图像中对象的坐标,所述坐标包含在与所述源图像相关联的标签信息中;基于所述坐标从源图像提取目标图像,使得每个所提取的目标图像包含对象;以及在表示图像文件夹封面的杂志屏幕视图的对应部分中显示每个目标图像。
根据本公开的另一方面,图像合成方法可以包括:检测对源图像的选择;显示分别表示多个边框的多个缩略图,每个边框具有多个部 分,所述部分的数目等于所选源图像的数目;检测对缩略图之一的选择;在分别加标签到所选源图像的标签信息中,获取对象的位置信息;基于所述位置信息从所选源图像提取包括所述对象的目标图像;以及在与所选缩略图相对应的边框的部分中,显示所述目标图像。
根据本公开的另一方面,提供了一种电子设备。所述电子设备可以包括:显示单元;触摸面板,安装在显示单元的屏幕上;存储单元,存储图像和与图像相关联的标签信息;控制单元,配置为:在触摸面板上检测对源图像的选择;访问存储单元中的标签信息以便获取所选源图像中对象的坐标;基于所述坐标从所选源图像提取目标图像,使得目标图像包含所述对象;以及控制显示单元在映射到所选源图像的一个屏幕框部分中,显示所述目标图像。
在特定示例实施例中,所述控制单元还配置为:提取目标图像,使得对象位于屏幕框的所映射部分的中心。
在特定示例实施例中,所述控制单元还配置为:当映射部分不是矩形时,产生包围所映射部分的矩形;将所述矩形置于源图像上,使得对象位于矩形中心;从源图像提取由矩形限定的目标图像;将所提取目标图像的中心与所映射部分的中心匹配;以及删除与所映射部分偏离的图像部分。
在特定示例实施例中,所述控制单元还配置为:当对象的宽度大于所映射部分的宽度或对象的高度大于所映射部分的高度时,缩小源图像的尺寸;以及从源图像提取目标图像。
在特定示例实施例中,所述控制单元还配置为:当目标图像小于所映射部分时,放大目标图像;以及在显示单元上显示放大后的目标图像。
在特定示例实施例中,当确定所映射部分与不同部分交叠时,所述控制单元还配置为提取目标图像,使得所述对象与所述不同部分不交叠。
在特定示例实施例中,所述控制单元还配置为在显示单元上向目标图像提供运动视觉效果。
在特定示例实施例中,控制单元还配置为在显示单元上向目标图 像提供缩放视觉效果。
根据本公开的另一方面,提供了一种电子设备。所述电子设备可以包括:显示单元;存储单元,存储图像和加标签到图像的标签信息;控制单元,配置为:选择图像文件夹中包括的图像之中的源图像;获取源图像中对象的坐标,所述坐标包含在与所述源图像相关联的标签信息中;基于所述坐标从源图像提取目标图像,使得每个图像包含对象;以及控制显示单元在表示图像文件夹封面的杂志屏幕视图的对应部分中显示每个目标图像。
在特定示例实施例中,所述控制单元还配置为:检测加标签到图像文件夹中的每个图像的标识信息;以及当与图像文件的标题相关联的图像具有最高优先级时,选择与标题相关联的图像作为源图像。
在特定示例实施例中,所述控制单元还配置为:检测与图像文件夹中的每个图像相关联的日期信息;以及当具有最近加标签日期的图像具有最高优先级时,选择具有最近加标签日期的图像作为源图像。
在特定示例实施例中,所述标签信息包括以下中的至少一个:标识信息、日期信息、对比度信息、位置信息和分辨率信息;并且所述控制单元还配置为使用标识信息、日期信息、对比度信息、位置信息和分辨率信息中的至少一个来选择源图像。
根据本公开的再一方面,提供了一种电子设备。所述电子设备可以包括:显示单元;触摸面板,安装在显示单元的屏幕上;以及控制单元,配置为:在触摸面板上检测对源图像的选择;控制显示单元显示分别表示多个边框的多个缩略图,每个框具有多个部分,所述部分的数目等于所选源图像的数目;在触摸面板上检测对缩略图之一的选择;在分别加标签到所选源图像的标签信息中获取对象的位置信息;基于所述位置信息从所选源图像提取包括所述对象的目标图像;以及控制显示单元在与所选缩略图相对应的边框的部分中,显示所述目标图像。
附图说明
图1A和1B是根据本公开方面的用于解释图像合成方法中产生标 签信息的过程的示例屏幕显示的图;
图2是示出了根据本公开方面的移动终端的示例配置的框图;
图3是示出了根据本公开方面的示例图像合成方法的流程图;
图4是示出了用于解释图3的图像合成方法的图像选择过程的示例屏幕显示的图;
图5A是示出了用于解释图3的图像合成方法中的选择边框的过程的示例屏幕显示的图;
图5B是示出了用于解释图3的图像合成方法中的将图像映射到所选框的部分的示例过程的图;
图5C是示出了用于解释图3的图像合成方法中的将图像映射到另一所选框的部分的示例过程的图;
图5D是示出了用于解释图3的图像合成方法中的提取目标图像过程的示例屏幕显示的图;
图5E是示出了用于解释图3的图像合成方法中的提取目标图像的另一过程的示例屏幕显示的图;
图5F是示出了用于解释图3的图像合成方法中将目标图像映射到边框的部分的过程的示例屏幕显示的图;
图6是示出了根据本公开方面的图像合成方法中从源图像提取目标图像的示例过程的流程图;
图7和8是示出了根据本公开方面的图像合成方法中缩小目标图像以适于对应部分的示例操作的图;
图9A和9B是示出了根据本公开方面的用于解释图像合成方法中计算目标图像区域的操作的示例屏幕显示的图;
图10A到10C是示出了根据本公开方面的用于解释图像合成方法中放大目标图像以适于对应部分的操作的示例屏幕显示的图;
图11是示出了根据本公开另一示例的示例图像合成方法的流程图;
图12是示出了根据本公开方面的图像合成方法中使用的示例杂志视图的图;
图13是示出了根据本公开方面的图像合成方法中从源图像提取 目标图像的示例过程的流程图;
图14A到14C是示出了根据本公开方面的用于解释图像合成方法中的目标图像区域计算过程的示例框的图;以及
图15A到15C是示出了根据本公开方面的用于解释图像合成方法中使用的图块视图的示例屏幕显示的图。
具体实施方式
详细描述了本公开的图像合成方法和设备。参考附图详细描述了本公开的示例。不应根据普通或字面含义来理解在描述和所附权利要求中使用的术语和词语,而应基于发明人能够充分定义术语的含义以达到最佳描述本公开的原则,将所述术语和词语理解为符合本公开技术构思的含义和概念。因此,应理解,在提出本申请时,存在可以代替本说明书所述示例和附图所示配置的多种等同和修改示例。附图中,为了本公开的清楚性,可以夸大或省略或示意性描述特定元件,并不反映元件的真正尺寸。因此,本公开不限于元件的相对尺寸和元件之间的距离。为了避免混淆本公开的主题,这里忽略对这里所用公知功能和结构的详细描述。
本公开中,电子设备可以是智能电话、平板个人计算机(PC)、膝上型PC、数字摄像机、个人数字助理(PDA)、电子管理器、桌面PC、便携式多媒体播放器(PMP)、媒体播放器(例如,MP3播放器)、便携式游戏控制台和具有显示器的电器(例如,冰箱、电视和洗衣机)。
本公开中,源图像可以是要处理的图像。源图像的文件格式可以是加标签图像文件格式(TIFF)或联合图像专家组(JPEG)。本公开中,目标图像可以是置于边框的一部分中的图像。目标图像可以是源图像的一部分。在另一示例中,源图像可以成为目标图像。具体地,目标图像可以包括对象(例如,人物或事物)。这里,术语“边框”可以是指杂志视图、封面、图块视图、或多边形装饰框。在可以将对应合成图像用作表示图像文件夹的图像的情况下,可以将边框称作杂志视图或封面。
本公开的电子设备可以使用标签信息以便从源图像提取同样包 括对象的目标图像。标签信息可以指示图像的辅助信息,图像文件格式可以是可交换图像文件格式(Exif)。例如,标签信息可以包括对象的位置(例如,角的XY坐标)和对象识别信息(例如,人名、地址和电话号码以及对象名称)。标签信息还可以包括拍摄图像的摄像机的制造商、摄像机型号、图像编辑器软件信息、图片修改日期(日期时间)、Exif版本、拍摄日期、对比度、分辨率、加载在web上的图像的实际尺寸、曝光时间(快门速度)、曝光程序、焦距、光圈孔径值(F数)、位置信息(例如GPS信息)和是否使用闪光灯。
本公开的电子设备可以使用多种图像识别技术来加与图像相关联的多种信息标签。也就是说,电子设备可以产生与图像相关联的标签信息。可以以如下方式产生标签信息。
电子设备可以识别或检测图像中的对象。这里图像可以是电子设备中存储的图像、通过摄像机拍摄的图像、通过网络从外部设备(例如,web服务器)下载的图像、或通过将多个图像相组合而合成的图像。例如,电子设备可以响应于摄像机的快门事件而开始检测对象。电子设备可以响应于从外部接收图像而开始检测事件。可以使用识别技术来执行对象识别。用使用面部、半身、全身和手势的多种技术来执行人物识别。人物识别方法可以使用电话薄和社交网络应用。例如,用电话薄和社交网络应用登记的照片可以用于面部识别。对象识别可以使用基于位置信息(例如全球定位***(GPS)信息和地图信息的多种技术。
电子设备可以产生对象的位置信息。位置信息可以包括与对应图像中对象的位置有关的信息。电子设备可以向图像加位置信息标签。可以连同对应图像一同存储标签信息,或分别存储对应图像和标签信息。
图1A和1B是根据本公开方面的用于解释图像合成方法中的产生标签信息的过程的示例屏幕显示的图。
参考图1A和1B,电子设备检测或识别图像中包括的对象。例如,电子设备识别图像中的两个对象110和120。如果识别了两个对象110和120,则电子设备产生相应对象110和120的位置信息130。
位置信息可以包括每个对象周围矩形的左上角坐标和右下角坐标。例如,第一对象110的左上角坐标为(x1,y1),第二对象120的左上角坐标为(x3,y3)。第一对象110的右下角坐标为(x2,y2),第二对象120的右下角坐标为(x4,y4)。
另一示例中,如图1B所示,对象的位置信息可以包括对象包围矩形的一角的坐标和从该角开始的水平边(x轴)与垂直边(y轴)的长度。例如,第一对象110的位置信息包括第一对象110周围矩形的角的坐标(x1,y1)和水平与垂直长度α1与β1。类似地,第二对象120的位置信息可以包括坐标(x3,y3)和垂直与水平长度α2与β2。位置信息不限于以上描述。例如,位置信息可以包括与对应对象的边界和背景有关的坐标。
一旦确定了与对象110和120相关联的位置信息,电子设备就可以向图像加位置信息标签。电子设备可以产生对象110和120的名称,可以使用识别方法将该标签信息与对应图像相关联。除了对象的位置信息和名称之外,电子设备可以在对应图像中加多种信息标签。
图2示出了根据本公开方面的移动终端的配置的框图。
如图2示例所示,移动终端200可以包括显示单元210、键输入单元220、存储单元230、无线电通信单元240、音频处理单元250、扬声器(SPK)、麦克风(MIC)、摄像机260、GPS接收单元270和控制单元280。
显示单元210可以在控制单元280的控制下在屏幕上显示数据(例如,图像)。也就是说,如果控制单元280处理(例如,解码)数据并将处理过的数据写入缓冲器,则显示单元210将缓冲后的数据转换为模拟信号以便在屏幕上显示。如果接通显示单元210,则显示单元210在屏幕上显示锁定图像。如果在显示锁定图像的状态下检测到解锁信号,则控制单元280解锁屏幕。在控制单元280的控制下,显示单元210显示主页图像,而不是锁定图像。主页图像可以包括背景图像(例如,由用户配置的照片)和在背景图像上布置的多个图标。图标可以表示对应应用和内容(例如,照片、视频、语音文件、文档和消息)。如果用户选择图标之一,则控制单元可以执行对应应用。这 里,可以将主页图像称作主页屏幕。锁定图像可以称作锁定屏幕。
显示单元210可以从控制单元280接收应用的执行图像,可以将执行图像转换为模拟信号以便显示。
显示单元210可以在控制单元280的控制下,以多层结构显示图像。例如,显示单元可以在屏幕上显示图片和标签信息。
显示单元210可以实现为液晶显示器(LCD)、有源矩阵有机发光二极管(AMOLED)、柔性显示器和透明显示器之一。
触摸面板211可以位于显示单元210的显示面板上。具体地,触摸面板可以实现为将触摸面板置于显示面板上的添加型或将触摸面板嵌入显示面板的体上型或体内型。
触摸面板211可以响应于触摸面板211上进行的用户手势产生模拟输入信号(例如,触摸事件),触摸面板211的触摸IC可以对模拟信号执行模数(A/D)转换以便向控制单元280产生数字信号。这里,输入信号可以包括触摸坐标(x,y)。例如,触摸IC确定多个触摸坐标中的代表坐标,向控制单元280发送代表触摸坐标。可以由控制单元280来执行该控制操作。触摸坐标可以是像素坐标。例如,如果屏幕分辨率是640(水平方向的像素数)*480(垂直方向的像素数),则X轴坐标是(0,640),Y轴坐标是(0,480)。如果从触摸IC接收到触摸坐标,则控制单元280确定用触摸输入工具(例如,手指和笔)在触摸面板211上进行了触摸手势,如果不再接收到触摸坐标,则释放了触摸输入工具的触摸。例如,如果将坐标从(x0,y0)改变为(x1,y1),且位移(例如,D(D2-(x0-x1)2+(y0-y1)2)大于移动阈值(例如,1毫米),则控制单元280确定移动了触摸输入工具。如果检测到触摸输入工具的移动,则控制单元280计算触摸输入工具的触摸位移(dx,dy)和移动速度。控制单元280可以基于触摸坐标、触摸释放、触摸移动、触摸位移、触摸速度等来在多个触摸手势之中区分单触摸、多触摸、敲击、双敲击、长敲击、敲击并触摸、拖动、轻拂、按压、合拢和分开。
“触摸”可以是用触摸工具接触触摸屏上的位置的用户手势;“多触摸”可以是用触摸工具(例如,拇指和食指)接触触摸屏上的至少 一个位置的手势;“敲击”可以是用触摸工具接触屏幕上的位置并在不移动触摸工具的前提下释放触摸(触摸离开)的手势;“双敲击”可以是进行两次触摸的手势;“长击”可以是相对于敲击保持触摸较长时间并接着释放接触的手势;“敲击并触摸”可以是对特定位置进行敲击并接着在预定时间(例如,0.5秒)对相同位置进行触摸的手势;“拖动”可以是接触位置并沿特定方向在屏幕上移动接触的手势;“轻拂”可以是相较于拖动手势在屏幕上快速拍打的用户手势;“按压”可以是在屏幕上接触特定位置并施加压力的用户手势;“合拢”可以是用两个触摸工具做出两个触摸点并缩短两个接触点之间的距离的手势;“分开”可以是加宽两个接触点之间的距离的手势。也就是说,“触摸”可以是接触触摸面板的状态,其它手势可以是触摸状态的改变。
触摸面板211可以是包括用于检测手部手势的手部触摸面板和用于检测笔手势的笔触摸面板的集成触摸面板。这里,手部触摸面板实现为电容型。当然,手部触摸面板可以实现为电阻型、红外型或微波型。手部触摸面板能够检测通过对象(例如,能够影响电容的导电材料对象)进行的触摸事件和通过用户手部手势进行的触摸事件。笔触摸面板可以实现为电磁感应型。这种情况下,笔触摸面板响应于通过为制造以形成磁场的触控笔进行的触摸手势,产生触摸信号。
具体地,触摸信号可以包括指示触摸类型的值和触摸坐标。例如,如果从笔触摸面板接收到第一功率级值,则控制单元280可以将触摸输入工具进行的触摸确定为间接触摸(所谓的悬停)。如果从笔触摸面板接收到大于第一功等级值的第二功率级值,则控制单元280可以将触摸输入工具进行的触摸确定为直接触摸。由笔触摸面板产生的触摸信号还可以包括对是否推动了笔的键加以指示的值。如果推动了笔的键,则可以改变由笔的线圈产生的电磁场,使得笔触摸面板向控制单元280产生第三功率级值。
键输入单元22-可以包括至少一个触摸键。触摸键可以实现为电容型或电阻型以便检测由用户进行的触摸。触摸键响应于用户触摸向控制单元280产生信号。触摸键可以靠近屏幕(例如,屏幕下方)安装。例如,控制单元280可以控制显示单元210响应于由第一触摸键 (菜单键)产生的信号,在屏幕下侧显示菜单。控制单元280还可以控制显示单元210响应于由第二触摸键(返回键)产生的信号显示先前图像。例如,如果在照片上存在标签信息的情况下第二触摸键产生该信号,则标签信息消失。
除了触摸键之外,键输入单元220还可以包括其他类型的键。例如,键输入单元220可以包括至少一个穹顶键。如果用户按压穹顶键,则改变其形状以便接触印刷电路板,使得向控制单元280产生键信号。这种穹顶键可以安装在移动终端200的一侧或接近屏幕(例如,屏幕下方)。键信号可以包括电源开/关信号、音量控制信号、屏幕开/关信号、和快门信号。控制单元280响应于键信号来控制上述组件。可以将键输入单元220提供的键称作硬键,可以将显示单元210提供的虚拟键称作软键。
存储单元230可以包括随机存取存储器(RAM)、只读存储器(ROM)和闪存。存储单元230存储由移动终端200产生的数据和从外部设备(例如,服务器、桌面PC和平板PC)接收的数据。例如,存储单元230可以存储联系人信息231_1到231_N、图像232_1到232_N、地图233和优先级信息234。联系人信息231_1到231_N中的每一个可以包括名称、地址、电子邮件、简档照片、爱好、与用户的关系(例如,朋友、家人和同事)、电话号码等。图像232_1到232_N中的每一个可以包括标签信息。具体地,标签信息可以包括对象位置信息。如上所述,标签信息可以包括多种信息。
存储单元230可以存储由用户临时拷贝的数据(例如,消息、照片、网页和文档),以便进行拷贝和粘贴。存储单元230还可以存储与操作移动终端200相关联的多种配置值(例如,屏幕亮度、对触摸的振动响应、自动显示模式切换)。
存储单元230存储引导程序、至少一个操作***(OS)和应用。OS负责在硬件和应用之间以及应用之间提供接口,管理例如CPU、GPU、主存储器和存储单元230等计算机资源。可以将应用分为嵌入式应用和第三方应用。例如,嵌入式应用可以包括web浏览器、电子邮件应用、即时信使等。具体地,存储单元230可以存储图像识别应 用235、标签信息产生应用236和图像编辑应用237。
无线通信单元230可以负责在控制单元280的控制下,通过网络与其他终端进行语音、视频和数据通信。无线电通信单元240包括:RF发射器,用于上变频和放大要发送的信号;RF接收器,用于低噪声放大和下变频所接收的信号。音频通信单元240包括蜂窝通信模块(例如,第3代、第3.5代和第4代移动通信模块)、数字广播模块(例如,DMB模块)和短距离通信模块(例如,Wi-Fi模块、蓝牙模块和近场通信(NFC)模块)中的至少一个。
音频处理单元250可以执行语音识别、语音记录以及音频信号(例如,语音)输入和输出,以便与扬声器(SPK)和麦克风(MIC)协作进行数字记录和呼叫处理。音频处理单元250可以将通过麦克风(MIC)输入的模拟音频信号转换为数字音频信号,可以向控制单元280发送该数字音频信号。扬声器(SPK)可以将来自音频处理单元250的音频信号转换为可听声波。麦克风(MIC)可以将人类语音或从声源输出的声波转换为音频信号。
摄像机260可以拍摄场景的图像,将该图像发送给控制单元280。摄像机260可以包括用于收集光的镜头、用于将所收集光转换为电信号的图像传感器、和用于处理电信号以便向控制单元280产生原始数据的图像信号处理器(ISP)。这里,ISP处理原始数据以便向控制单元280产生预览图像。接着控制单元280控制显示单元210在屏幕上显示预览图像。ISP还处理原始数据以向控制单元280产生压缩图像(例如,JPEG图像)。控制单元280检测通过触摸面板211或键输入单元220输入的快门开启信号(对显示单元210呈现的快门按钮的敲击),并且响应于快门开启信号将该压缩图像存储在存储单元230内。ISP可以包括在例如AP等控制单元280内,而不是摄像机260内。可以向本公开的移动终端200提供双摄像机***。例如,双摄像机***可以包括安装在移动终端背面的后置摄像机和安装在移动终端正面的前置摄像机。当然,可以将两个摄像机安装在相同侧。
GPS接收单元270可以在控制单元280的控制下,接收包括由至少三个GPS卫星发送的传输时间的GPS信号,计算GPS接收单元270 (即,移动终端200)和卫星之间的距离,使用该距离信息计算位置即,二维坐标(维度和经度),并向控制单元280传送该位置信息。可以由控制单元280(即,AP)来执行这种计算。
控制单元280可以控制整体操作以及移动终端200的内部组件之间的信号流、数据处理、以及从电池向内部组件供电。
控制单元280可以包括至少一个中央处理单元(CPU)。CPU可以是计算机***的主控制单元,用于对数据执行操作和比较并解释和执行命令。CPU可以包括临时存储数据和命令的多个寄存器。控制单元280可以包括一个或多个图形处理单元(GPU)。GPU是代替CPU对图形数据执行操作和比较并解释和执行关于图形数据的命令的图形控制单元。每个CPU和GPU可以制造为两个或更多独立核(例如,四核)的封装。CPU和GPU可以以片上***(SoC)的形式集成。CPU和GPU也可以是多层封装。应用处理可以包括CPU和GPU。AP还可以包括ISP。
控制单元280可以包括主存储单元,例如RAM。主存储器可以存储从存储单元230加载的多种程序,例如引导程序、OS和应用。移动终端上电,可以将引导程序加载到控制单元280的主存储单元上。引导程序可以加载主存储器上的OS。OS可以加载主存储器上的应用。控制单元280(例如,AP和CPU)可以访问主存储器中存储的程序,分析程序的命令,根据分析结果执行功能(例如,人物识别、对象识别、标签信息产生和图像编辑)。控制单元280可以包括用于临时存储写入存储单元230或从存储单元230读取的数据的缓冲器。
控制单元280可以使用联系人信息和地图信息来产生标签信息。例如,如果将山峰识别为对象,则控制单元280可以基于GPS信息和地图信息来检查山峰的名称,可以向对应对象图像加名称标签。如果将面部识别为对象,则控制单元280可以将所识别面部与简档照片进行比较,以便检查标识利用该面部识别的人物的名称,并向对应对象图像加名称标签。
控制单元280可以使用标签信息和优先级信息234,以便在图像232_1到232_N中选择要编辑的目标。在图像合成的主题(例如,图 像文件夹的名称)为“山峰”的情况下,控制单元280检查图像232_1到232_N的标签信息,选择与山峰有关的图像。接下来,控制单元280通过参考优先级信息234在所选图像中选取编辑目标图像。假定如表格1所示提供了优先级信息234,当确定主题是高优先级时,控制单元280选择对象名称与该主题相关联的图像。如果选择了大量图像(例如,所选图像的数目大于边框中部分的数目),则控制单元280选取数目等于边框中部分的数目的目标图像。如果所选图像的数目小于框中的部分的数目,则控制单元280还在第一选择阶段排除的图像中选择图像,使得向最近拍摄的图像给出最高优先级。
表1
控制单元280可以将图像组合为合成图像。下文描述图形合成过程。
移动终端200还可以包括耳机插孔、振动电机、加速度传感器和配件。配件可以包括移动终端200的可拆卸部件,例如,触控笔。
图3是示出了根据本公开的方面的示例图像合成方法的流程图。参考图3,在块310,控制单元280可以确定是否检测到请求执行图像编辑应用237的手势(例如,对与该应用相对应的图标的敲击)。如果接收到执行请求信号,则控制单元280控制显示单元210显示该图像编辑应用的执行图像。
在块320,控制单元280可以触摸面板211上检测选择源图像的手势,并且在块330可以检测对边框的选择。参考图4,如图4所示,显示单元210在控制单元280的控制下,显示与源图像相对应的缩略图。如果用户选择(敲击)了缩略图,则控制单元280可以控制显示 单元210在相应缩略图上呈现标识符,使得将所选的缩略图与未选择的缩略图(例如,通过调暗所选的缩略图)相区分。缩略图410是所选缩略图的一个示例。
如果检测到对选择完成按钮420的敲击,则控制单元280可以控制显示单元210在边框的对应部分中显示所选缩略图。此时,部分的数目可以等于所选源图像的数目。例如,如果所选源图像的数目是8个,则如图5A所示,可以将这些图像分别显示在边框的8个部分中。图5A示出了分别表示不同边框的缩略图。每个边框具有8个部分图案。然而,应理解,可以将边框拆分为9个或更多个部分,以便表示相同数目的图像。如果选择了源图像,则控制单元280可以访问源图像的标签信息以便获取其中对象的全部数目。如果存在8个源图像,一个具有两个对象,其他的分别具有一个对象,则控制单元280可以获取9个对象。接着显示单元210可以准备将框分为9个部分,以便呈现9个缩略图。
如果并未基于标签信息获取所述数目的对象,则控制单元280可以使用图像识别技术来检测对应源图像中对象的数目。这里,对象的数目是通过控制单元280识别的值。例如,如果在照片中若干人聚在一起,则控制单元280可以将人物识别为一个对象,或控制单元280也可能分别识别每个单独人。这种情况下,可以将每个人物识别为单独对象。
如果选择了具有不同部分图案的边框(例如,如果用户触摸缩略图510),则如图5B所示,控制单元280可以将所选原始图像(521到528)映射到所选边框的各部分。在块340,如图5C所示,控制单元280可以将所检测的对象531到534逐个映射到框的部分。这里,可以以多种方式执行映射。例如,控制单元280可以随机地映射对象和部分。控制单元280还可以从对象和部分的尺寸的角度,来映射对象和部分。例如,控制单元280可以计算对象和部分的尺寸。控制单元280可以将最大对象映射到最大部分。也就是说,可以根据每个对象的尺寸来执行映射的顺序。
在块350,控制单元280可以从源图像提取目标图像。此时,可 以从一个源图像提取至少一个目标图像。如图5d的示例所示,从一个源图像540提取多个目标图像541和542,其中每个目标图像具有一个对象。如图5e所示,可以从一个源图像550提取一个目标图像551。此时,目标图像可以具有多个对象551A和551B。参考图6描述目标图像提取过程。
在块360,控制单元280可以控制显示单元210在部分中显示映射到每个部分每个目标图像。如图5f所示,将具有多个对象的目标图像显示在对应部分。控制单元280可以响应于触摸手势显示目标图像。例如,如果在部分之一上检测到合拢手势,则控制单元280可以缩小对应部分中的图像的尺寸。如果检测到合拢手势,则控制单元280可以放大对应部分中的图像。如果检测到拖动手势,则控制单元280可以改变对象的位置。如果检测到双敲击,则控制单元280可以水平轻拂对应部分中的图像。如果连续检测到触摸输入工具的触摸和旋转手势,则控制单元280可以旋转对应部分中的图像。
在块370,控制单元280可以将由表示目标图像的部分组成的边框存储为合成图像。
如上所述,可以在选择源图像之后执行图像合成。此外,可以选择加标签到源图像的图像。参考图4,如果选择了缩略图之一并接着检测到对标签选项按钮430的敲击手势,则控制单元280可以控制显示单元210显示加标签到源图像的图像的缩略图。之后,控制单元280可以选择一些或全部的所选缩略图,合成加标签的图像与先前所选源图像,引起显示合成图像。
图6是示出了根据本公开方面的图像合成方法中的从源图像提取目标图像的示例过程的流程图。将参考图6讨论图7到10C所示的动作。
参考图6,在块610,控制单元280可以确定源图像的标签信息是否包括对象坐标。如果包括了对象坐标,则过程可以进行到块650。
如果该标签信息不包括坐标,则在块620,控制单元280可以对源图像执行对象识别。如果识别了任何对象,则在块630,控制单元280可以产生关于所识别对象的坐标(例如,对应对象周围矩形的左 上角和右下角的坐标),并且向源图像加位置信息标签。
如果无法识别对象,则在块640,控制单元280可以提取随机目标图像以便呈现在映射到源图像的部分中。此时,由于无法识别对象,目标图像可以不包括对象或可以包括对象的一部分(例如,面部)。
在块650,控制单元280可以确定是否需要缩小源图像的尺寸。现参考图7到8,如果不需要缩小尺寸,例如,如果对象高度H1小于部分的高度H2且如果对象宽度W1小于部分的高度W2,则该过程可以移动到块670。
如果H1>H2或W1>W2,则在块660控制单元280可以使用以下方法来缩小原始图像。参考图7,如果W1/H1<W2/H2,则控制单元280可以缩小源图像的尺寸,使得W1变为Wf(-(W1*H2)/H1)。参考图8,如果W1/H1>W2/H2,则控制单元280可以缩小源图像的尺寸,使得H1变为Hf(-(W2*H1)/W1)。
在块670,控制单元280可以从源图像提取目标图像以便呈现在映射到源图像的部分中。这里,目标图像可以包括至少一个对象。可以将图像提取执行如下。
参考图9A到9B,源图像910可以映射到边框920的第一部分921。如附图所示,第一部分921的形状可以是非矩形或非四边形(即,具有至少一个非直角)。该示例中的源图像包括面部对象911A,对应标签信息包括面部对象911A的位置信息(x1,y1)和(x2,y2)。面部对象911A的高度小于第一部分921的高度,面部对象911A的宽度小于第一部分921的宽度。因此,该示例中,不必缩小面部对象911A的尺寸。
假定不需要尺寸缩小,控制单元280可以产生尺寸上大于第一部分921的矩形或四边形922。如果第一部分921的形状为矩形,则该操作可以是不必要的。控制单元280可以将矩形922置于源图像910上,使得面部对象911A位于矩形922的中心。控制单元280可以从源图像提取由矩形922包围的目标图像911。接下来,控制单元280可以将目标图像911的中心与第一部分921的中心相匹配,可以隐藏或删除第一部分921之外的部分911B和911C。
另一示例中,对象可以偏离源图像。如果将上述提取方法应用于偏离源图像的对象,则该图像可能并未完全填满对应部分。也就是说,在块680,控制单元280可以确定所提取图像是否可能在对应部分引起空白空间。如果引起了空白空间,则在块690,控制单元280可以放大该目标图像以填满该空闲空间。图像方法可以执行如下。
参考图10A到10C,将该示例中的源图像1010映射到边框1020的第一部分1021。第一部分1021的形状为四边形。源图像1010可以包括面部对象1011A,对应标签信息可以包括面部对象1011A的位置信息(x1,y1)和(x2,y2)。该示例中的面部对象1011A的高度小于第一部分1021的高度,该示例中的对象1011A的宽度小于第一部分1021的宽度。因此,该示例中,不需要缩小面部对象1011A的尺寸。
假定不需要尺寸缩小,控制单元280可以产生包围第一部分1021的矩形1022。如果第一部分的形状是非矩形的四边形,则可以省略该操作。控制单元280可以将矩形1022置于源图像上,使得面部对象1011A位于矩形1022的中心。控制单元280还可以从源图像提取矩形1022中的目标图像1011。控制单元280还可以将目标图像1011的中心与第一部分1021的中心匹配,删除与第一部分1021偏离的部分1011B。如图10b示例所示,第一部分1021具有宽度(W1-Wm)和高度H的空白空间1021A。如果出现了这种空白空间1021A,则控制单元280可以放大目标图像1011以填满第一部分1021。如图10c所示,控制单元280可以隐藏或删除放大目标图像1012中与第一部分1021偏离的一部分1012a。
另一示例中,可以在文件夹中管理移动终端200中存储的图像。术语“文件夹”可以与术语“群组”交换地使用。可以由用户给出文件夹的名称。移动终端200可以产生文件夹的封面,即,表示图像的杂志视图。可以通过将子图像结合为一个合成图像来产生杂志视图。因此,用户可以通过杂志视图直观地认识图像。例如,在杂志视图下,用户可能直观地识别将图像分组的主题。杂志视图可以称作框、图块视图或封面。
显示单元210可以在控制单元280的控制下显示杂志视图。如果 用户选择(敲击)了杂志视图,则控制单元280可以控制显示单元210以缩略图格式显示子图像。
用户可以将图像从一个文件夹移动到另一个文件夹。用户可以从文件夹删除特定图像。用户可以向文件夹添加特定图像。自然地,可以自动执行对图像文件夹的更新,例如,移动、删除和添加(即,在没有用户输入的前提下)。例如,如果拍摄了图像,则控制单元280可以向文件夹添加与对应标签信息(例如,拍摄地点)有关的图像。如果发生了这种更新,则还可以更新杂志视图。参考图11到14来描述该更新过程。
图11是示出了根据本公开的另一方面的示例图像合成方法的流程图。图12是示出了该图像合成方法中使用的杂志视图的图。
参考图11,在块1110控制单元280确定是否已更新图像文件夹。在块1120,如果更新了图像文件夹,则控制单元280基于表1总结的优先级从图像文件夹选择源图像。
在块1130,控制单元280可以将所选源图像逐个映射到杂志视图的多个部分。如图12所示,杂志视图的多个部分可以交叠。当然,如图5所示,杂志视图的多个部分也可以不交叠。可以将源图像或对象以多种方式映射到多个部分。例如,控制单元280可以随机执行映射。控制单元280也可以按根据对象尺寸的顺序执行映射。也就是说,可以按对象尺寸的降序来执行映射。
在块1140,控制单元280从对应源图像提取目标图像。这里,可以从一个源图像提取一个或多个目标图像。一个目标图像可以包括多个对象。目标图像可以包括一个对象。将参考图13来描述目标图像提取过程。
在块1150,控制单元280控制显示单元210在映射到对应源图像映射的部分中显示目标图像。
在块1160,控制单元280可以存储杂志视图作为对应图像文件夹的封面,其中可以用目标图像充满杂志视图的多个部分。
图13是示出了根据本公开方面的图像合成方法中从源图像提取目标图像的示例过程的流程图。图14A到14C是示出了根据本公开方 面的用于解释图像合成方法中的目标图像区域计算过程的示例边框的图。
参考图13,在块1310,控制单元280可以确定源图像的标签信息是否包括任何对象坐标。如果标签信息包括对象坐标,则该过程可以进行到块1350。
如果标签信息不包括坐标,则在块1320,控制单元280可以对源图像执行对象识别或检测。如果识别到任何对象,则在块1330控制单元280可以产生与所识别对象相关联的坐标,可以向源图像加对象位置信息标签。在加对象位置信息标签之后,过程可以进行到块1350。
如果没有识别到对象,则在块1340,控制单元280可以提取随机目标图像以便呈现在映射到源图像的部分中。
在块1350,控制单元280可以确定是否需要缩小源图像的尺寸。如果不需要缩小源图像的尺寸,则过程可以进行到块1370。如果需要缩小源图像的尺寸,则在块1360控制单元280可以缩小尺寸。在缩小尺寸之后,该过程可以进行到块1370。
在块1370,控制单元280可以从源图像提取目标图像,使得将对象置于映射到该源图像的部分区域处,且不与其它部分交叠。如下所示来提取图像。
参考图14A到14C,将该示例中的源图像1410映射到杂志视图1420的第一部分1421。第一部分1421具有矩形的形状,第二部分1422与部分1421的一部分交叠,第三部分1423与部分1421的另一部分交叠。源图像1410包括面部图像1411A,对应标签信息包括面部对象1411A的位置(x1,y1)和(x2,y2)。该示例中,面部对象1411A的高度大于第一部分1421的高度,对象1411A的宽度小于第一部分1421的宽度。因此,该示例中,不需要缩小面部对象1411A的尺寸。
假定不需要尺寸缩小,控制单元280可以确定第一部分1421的形状是否是矩形。如果第一部分1421的尺寸是矩形,则控制单元280可以确定另一部分是否与第一部分1421交叠。如果如附图所示另一部分与任何部分交叠,则控制单元280可以检查不与其它部分交叠的区域1421A。控制单元280可以将面部对象1411A置于非交叠区域1421A 的中心处。接下来,控制单元280可以基于非交叠区域1421A将第一部分1421置于源图像1410上。接下来,控制单元280可以从源图像1410提取由第一部分1421限定的目标图像1411。接下来,控制单元280可以将目标图像1411置于杂志视图1420的第一部分1421中。该示例中,可以如图14C所示显示杂志视图1420。图14C中,其它部分与面部对象1411A不交叠。
在块1380,一旦提取了图像,则控制单元280可以确定是否有任何空白空间。如果存在空白空间,则在块1390,控制单元280可以放大目标图像以便填满该部分而没有空白空间。
图15A到15C是示出了根据本公开方面的用于解释图像合成方法中使用的图块视图的示例屏幕显示的图。
参考图15A到15C,可以以图块视图的形式显示主页屏幕。图块视图可以包括表示设置、联系人、日程安排、游戏、闹钟、图库、社交服务(SNS)等的图块(即,项目)。例如,设置图块可以包括频繁使用的设置项目(例如,Wi-Fi开/关)。联系人图块可以呈现最喜爱的联系人信息。图库图块可以表示最近拍摄的照片。用户可以检查由图块视图中的对应项目表示的应用的内容(例如,照片、联系人和SNS消息)。
控制单元280可以访问照片的标签信息,以便检查对象1511的位置,确保在图库图块中显示对应照片而不丢失对象1511。此时,控制单元280可以控制显示单元210提供动作视觉效果。例如,参考图15A和15B,目标图像可以以对象1511从左到右移动的视觉效果呈现在对应图块上。该动作效果可以实现为,使得图像移动而对象不移动。视觉效果可以被称作视觉反馈或动画。
控制单元280可以控制显示单元210提供缩放对象1511的视觉效果。参考图15B和15C,可以应用缩小视觉效果使得缩小对象的尺寸。通过缩小效果,增加背景占据的空间。在应用放大视觉效果的情况下,减小背景占据的空间。
如上所示,本公开的图像合成方法和设备能够准确将对象定位在边框的期望部分上。
本公开的上述实施例可以实现为硬件、固件或作为存储在诸如CD ROM、数字可视光盘(DVD)、磁带、RAM、软盘、硬盘或磁光盘等记录介质上的软件或计算机代码,或在网络上下载的原始存储在远程记录介质或非暂时机器可读介质上并存储在本地记录介质上的计算机代码,使得此处所述方法可以使用通用计算机的硬件,或专用处理器或可编程或专用硬件,例如ASIC或FPGA,通过存储在记录介质上的这种软件来执行。如本领域技术人员理解的,计算机、处理器、微处理器控制器或可编程硬件包括存储组件,例如RAM、ROM、闪存等,其可以存储或接收软件或计算机代码,这些软件或计算机代码在被计算机、处理器或硬件访问和执行时实现这里描述的处理方法。此外,应该认识到,当通用计算机访问用于执行这里示出的所述处理的代码时,所述代码的执行将通用计算机转化为具体用途的计算机用于执行这里示出的处理。附图中提供的任何功能和步骤可以实现为硬件、软件或二者的结合,且可以全部地或部分地用计算机的编程指令执行所述任何功能和步骤。除非使用短语“用于...的装置”来明确限定元件,否则不应按照35U.S.C.112第六段的规定来理解要求保护的元件。
此外,本领域技术人员理解并认识到,“处理器”或“微处理器”包括要求保护的本发明中的硬件。在最广义的合理解释下,所附权利要求构成符合35U.S.C.§101的法定主题。
可以自动地、或响应于用户命令全部地或部分地执行这里的功能和处理步骤。响应于可执行命令或设备操作而无需用户直接发起行为,来执行自动执行的行为(包括步骤)。
根据在35U.S.C.§101的法定主题,这里所用的术语“单元”或“模块”的定义应理解为构成硬件,例如处理器或微处理器,配置用于特定所需功能;或非暂时介质,包括机器可执行代码,并且不是由软件本身构成的。
Claims (14)
1.一种图像合成方法,包括:
选择源图像;
获取所述源图像中对象的坐标,所述坐标包含在与源图像相关联的标签信息中;
基于所述坐标从源图像提取目标图像,使得目标图像包括所述对象;以及
在屏幕框内的一部分中显示所述目标图像,所述部分映射到源图像。
2.根据权利要求1所述的图像合成方法,其中提取目标图像包括:提取目标图像使得对象位于屏幕框的所映射部分的中心。
3.根据权利要求1所述的图像合成方法,其中提取目标图像包括:
当所映射部分不是矩形时,产生包围映射部分的矩形;
将所述矩形置于源图像上,使得对象位于矩形中心;
从源图像提取由矩形限定的目标图像;
将所提取目标图像的中心与所映射部分的中心匹配;以及
删除与所映射部分偏离的图像部分。
4.根据权利要求1所述的图像合成方法,其中提取目标图像包括:
当对象的宽度大于所映射部分的宽度或对象的高度大于所映射部分的高度时,缩小源图像的尺寸;以及
从源图像提取目标图像。
5.根据权利要求1所述的图像合成方法,其中显示目标图像包括:
当目标图像小于所映射部分时,放大目标图像;以及
显示放大后的目标图像。
6.根据权利要求1所述的图像合成方法,其中提取目标图像包括:当确定所映射部分与不同部分交叠时,提取目标图像,使得所述对象与所述不同部分不交叠。
7.根据权利要求1所述的图像合成方法,还包括:向目标图像提供运动视觉效果。
8.根据权利要求1所述的图像合成方法,还包括:向目标图像提供缩放视觉效果。
9.一种图像合成方法,包括:
选择图像文件夹中包括的源图像;
获取源图像中对象的坐标,所述坐标包含在与所述源图像相关联的标签信息中;
基于所述坐标从源图像提取目标图像,使得每个所提取目标图像包含对象;以及
在表示图像文件夹封面的杂志屏幕视图的对应部分显示每个目标图像。
10.根据权利要求9所述的图像合成方法,其中选择源图像包括:
检测加标签到图像文件夹中的每个图像的标识信息;以及
当与图像文件夹的标题相关联的图像具有最高优先级时,选择与标题相关联的图像作为源图像。
11.根据权利要求9所述的图像合成方法,其中所述选择源图像包括:
检测与图像文件夹中的每个图像相关联的日期信息;以及
当具有最近加标签日期的图像具有最高优先级时,选择具有最近加标签日期的图像作为源图像。
12.根据权利要求9所述的图像合成方法,其中所述标签信息包括以下中的至少一个:标识信息、日期信息、对比度信息、位置信息和分辨率信息;选择源图像包括:使用标识信息、日期信息、对比度信息、位置信息和分辨率信息中的至少一个来选择源图像。
13.一种电子设备的图像合成方法,所述方法包括:
检测对源图像的选择;
显示分别表示多个边框的多个缩略图,每个边框具有多个部分,所述部分的数目等于所选源图像的数目;
检测对缩略图之一的选择;
在分别加标签到所选源图像的标签信息中,获取对象的位置信息;
基于所述位置信息从所选源图像提取包括所述对象的目标图像;以及
在与所选缩略图相对应的边框的部分中,显示所述目标图像。
14.一种电子设备,包括:
显示单元;
触摸面板,安装在显示单元的屏幕上;
存储单元,存储图像和与图像相关联的标签信息;
控制单元,配置为:
在触摸面板上检测对源图像的选择;
访问存储单元中的标签信息以便获取所选源图像中对象的坐标;
基于所述坐标从所选源图像提取目标图像,使得目标图像包含所述对象;以及
控制显示单元在映射到所选源图像的一个屏幕框部分中,显示所述目标图像。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20130040062A KR20140122952A (ko) | 2013-04-11 | 2013-04-11 | 이미지 합성 방법 및 이를 구현하는 전자 장치 |
KR10-2013-0040062 | 2013-04-11 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104103085A true CN104103085A (zh) | 2014-10-15 |
Family
ID=50624382
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410142760.6A Pending CN104103085A (zh) | 2013-04-11 | 2014-04-10 | 屏幕图像中的对象 |
Country Status (7)
Country | Link |
---|---|
US (1) | US9852491B2 (zh) |
EP (1) | EP2793170A3 (zh) |
JP (1) | JP2014207672A (zh) |
KR (1) | KR20140122952A (zh) |
CN (1) | CN104103085A (zh) |
AU (1) | AU2014201995B2 (zh) |
WO (1) | WO2014168389A1 (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104539853A (zh) * | 2015-01-05 | 2015-04-22 | 锦池媒体科技(北京)有限公司 | 影像合成方法 |
CN104732481A (zh) * | 2015-03-18 | 2015-06-24 | 百度在线网络技术(北京)有限公司 | 图像调整方法及装置 |
CN107203638A (zh) * | 2017-06-08 | 2017-09-26 | 北京深瞐科技有限公司 | 监控视频处理方法、装置及*** |
CN107408120A (zh) * | 2015-02-27 | 2017-11-28 | 三星电子株式会社 | 电子设备及其图像显示方法 |
WO2018023212A1 (zh) * | 2016-07-30 | 2018-02-08 | 华为技术有限公司 | 一种图像识别方法及终端 |
CN109271090A (zh) * | 2018-09-29 | 2019-01-25 | 华勤通讯技术有限公司 | 图像融合方法、终端以及计算机可读存储介质 |
CN110110110A (zh) * | 2018-02-02 | 2019-08-09 | 杭州海康威视数字技术股份有限公司 | 一种以图搜图方法、装置、电子设备及存储介质 |
CN111063001A (zh) * | 2019-12-18 | 2020-04-24 | 北京金山安全软件有限公司 | 图片合成方法、装置、电子设备以及存储介质 |
CN111833247A (zh) * | 2020-06-11 | 2020-10-27 | 维沃移动通信有限公司 | 图片处理方法、装置及电子设备 |
CN112492206A (zh) * | 2020-11-30 | 2021-03-12 | 维沃移动通信(杭州)有限公司 | 图像处理方法、装置及电子设备 |
WO2022037348A1 (zh) * | 2020-08-18 | 2022-02-24 | 北京达佳互联信息技术有限公司 | 视频生成方法及装置 |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9633400B2 (en) * | 2013-01-04 | 2017-04-25 | Samsung Electronics Co., Ltd. | Display apparatus and method of providing a user interface |
US10180788B2 (en) * | 2016-04-06 | 2019-01-15 | Sandisk Technologies Inc. | Data storage device having internal tagging capabilities |
KR20180014586A (ko) | 2016-08-01 | 2018-02-09 | 삼성전자주식회사 | 사용자 입력에 대응하는 섬네일을 출력하는 전자 장치 및 방법 |
KR102594858B1 (ko) * | 2016-08-01 | 2023-10-27 | 삼성전자 주식회사 | 이미지 합성 및 복원하는 전자 장치 및 방법 |
US10733478B2 (en) * | 2016-08-31 | 2020-08-04 | Facebook, Inc. | Systems and methods for processing media content that depict objects |
US10310361B1 (en) * | 2017-06-05 | 2019-06-04 | Amo Mangal Featherstone | Personal imaging kiosk and associated use thereof |
CN109740593B (zh) * | 2018-12-18 | 2020-11-13 | 全球能源互联网研究院有限公司 | 样本中至少一个预定目标的位置确定方法及装置 |
KR102663537B1 (ko) | 2019-01-31 | 2024-05-08 | 삼성전자 주식회사 | 전자 장치 및 이미지 처리 방법 |
CN110706150A (zh) * | 2019-07-12 | 2020-01-17 | 北京达佳互联信息技术有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN110750748A (zh) * | 2019-10-24 | 2020-02-04 | 杭州网景汇网络科技有限公司 | 一种网页页面显示方法 |
US10771965B1 (en) * | 2020-01-09 | 2020-09-08 | Lexisnexis Risk Solutions Inc. | Systems and methods for photo recognition-based identity authentication |
WO2022186646A1 (ko) * | 2021-03-05 | 2022-09-09 | 삼성전자 주식회사 | 이미지 생성을 위한 전자 장치 및 전자 장치의 동작 방법 |
US11435885B1 (en) | 2021-06-10 | 2022-09-06 | Nvidia Corporation | User interfaces and methods for generating a new artifact based on existing artifacts |
US20220398004A1 (en) * | 2021-06-10 | 2022-12-15 | Nvidia Corporation | User Interfaces and Methods for Generating a New Artifact Based on Existing Artifacts |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2012274A2 (en) * | 2007-07-02 | 2009-01-07 | Universal AD Ltd | Creation of visual composition of product images |
CN102194241A (zh) * | 2011-04-28 | 2011-09-21 | 西安交通大学 | 基于互联网的艺术拼图***设计方法 |
US20120063689A1 (en) * | 2010-09-15 | 2012-03-15 | The Johns Hopkins University | Object recognition in an image |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000020742A (ja) * | 1998-06-30 | 2000-01-21 | Toshiba Corp | 映像再生装置及び映像再生方法、並びに記録媒体 |
JP3716676B2 (ja) * | 1999-07-13 | 2005-11-16 | コニカミノルタビジネステクノロジーズ株式会社 | 画像合成出力装置 |
JP2001346031A (ja) * | 2000-06-05 | 2001-12-14 | Fuji Photo Film Co Ltd | 画像合成方法及び装置 |
US8549434B2 (en) * | 2001-10-18 | 2013-10-01 | Microsoft Corporation | Method for graphical representation of a content collection |
US7519907B2 (en) | 2003-08-04 | 2009-04-14 | Microsoft Corp. | System and method for image editing using an image stack |
JP2006287917A (ja) | 2005-03-08 | 2006-10-19 | Fuji Photo Film Co Ltd | 画像出力装置、画像出力方法、および画像出力プログラム |
US7990564B2 (en) | 2005-07-29 | 2011-08-02 | Vistaprint Technologies Limited | Automated image sizing and placement |
US7694885B1 (en) * | 2006-01-26 | 2010-04-13 | Adobe Systems Incorporated | Indicating a tag with visual data |
US8775953B2 (en) * | 2007-12-05 | 2014-07-08 | Apple Inc. | Collage display of image projects |
JP2009259238A (ja) | 2008-03-26 | 2009-11-05 | Fujifilm Corp | 画像シェアリング用保存装置、画像シェアリングシステムおよび方法 |
JP2009237702A (ja) * | 2008-03-26 | 2009-10-15 | Fujifilm Corp | アルバム作成方法、プログラムおよび装置 |
US9275479B2 (en) * | 2009-10-22 | 2016-03-01 | Collage.Com, Llc | Method, system and computer program product for creating collages that visually resemble a particular shape or group of shapes |
KR101138873B1 (ko) | 2011-05-30 | 2012-05-14 | 삼성전자주식회사 | 인물 db 등록사진 수 축소 방법 및 장치 |
US20150134492A1 (en) * | 2013-11-11 | 2015-05-14 | Apple Inc. | Coordinated image manipulation |
-
2013
- 2013-04-11 KR KR20130040062A patent/KR20140122952A/ko not_active Application Discontinuation
-
2014
- 2014-03-31 EP EP20140162858 patent/EP2793170A3/en not_active Withdrawn
- 2014-04-01 US US14/242,145 patent/US9852491B2/en active Active
- 2014-04-07 WO PCT/KR2014/002981 patent/WO2014168389A1/en active Application Filing
- 2014-04-08 AU AU2014201995A patent/AU2014201995B2/en not_active Ceased
- 2014-04-10 JP JP2014080902A patent/JP2014207672A/ja active Pending
- 2014-04-10 CN CN201410142760.6A patent/CN104103085A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2012274A2 (en) * | 2007-07-02 | 2009-01-07 | Universal AD Ltd | Creation of visual composition of product images |
US20120063689A1 (en) * | 2010-09-15 | 2012-03-15 | The Johns Hopkins University | Object recognition in an image |
CN102194241A (zh) * | 2011-04-28 | 2011-09-21 | 西安交通大学 | 基于互联网的艺术拼图***设计方法 |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104539853A (zh) * | 2015-01-05 | 2015-04-22 | 锦池媒体科技(北京)有限公司 | 影像合成方法 |
CN107408120A (zh) * | 2015-02-27 | 2017-11-28 | 三星电子株式会社 | 电子设备及其图像显示方法 |
CN104732481A (zh) * | 2015-03-18 | 2015-06-24 | 百度在线网络技术(北京)有限公司 | 图像调整方法及装置 |
US11132545B2 (en) | 2016-07-30 | 2021-09-28 | Huawei Technologies Co., Ltd. | Image recognition method and terminal |
US11804053B2 (en) | 2016-07-30 | 2023-10-31 | Huawei Technologies Co., Ltd. | Image recognition method and terminal |
CN109478311A (zh) * | 2016-07-30 | 2019-03-15 | 华为技术有限公司 | 一种图像识别方法及终端 |
WO2018023212A1 (zh) * | 2016-07-30 | 2018-02-08 | 华为技术有限公司 | 一种图像识别方法及终端 |
CN107203638B (zh) * | 2017-06-08 | 2020-09-25 | 北京深瞐科技有限公司 | 监控视频处理方法、装置及*** |
CN107203638A (zh) * | 2017-06-08 | 2017-09-26 | 北京深瞐科技有限公司 | 监控视频处理方法、装置及*** |
CN110110110A (zh) * | 2018-02-02 | 2019-08-09 | 杭州海康威视数字技术股份有限公司 | 一种以图搜图方法、装置、电子设备及存储介质 |
CN109271090A (zh) * | 2018-09-29 | 2019-01-25 | 华勤通讯技术有限公司 | 图像融合方法、终端以及计算机可读存储介质 |
CN111063001A (zh) * | 2019-12-18 | 2020-04-24 | 北京金山安全软件有限公司 | 图片合成方法、装置、电子设备以及存储介质 |
CN111063001B (zh) * | 2019-12-18 | 2023-11-10 | 北京金山安全软件有限公司 | 图片合成方法、装置、电子设备以及存储介质 |
CN111833247A (zh) * | 2020-06-11 | 2020-10-27 | 维沃移动通信有限公司 | 图片处理方法、装置及电子设备 |
CN111833247B (zh) * | 2020-06-11 | 2024-06-14 | 维沃移动通信有限公司 | 图片处理方法、装置及电子设备 |
WO2022037348A1 (zh) * | 2020-08-18 | 2022-02-24 | 北京达佳互联信息技术有限公司 | 视频生成方法及装置 |
CN112492206B (zh) * | 2020-11-30 | 2021-10-26 | 维沃移动通信(杭州)有限公司 | 图像处理方法、装置及电子设备 |
CN112492206A (zh) * | 2020-11-30 | 2021-03-12 | 维沃移动通信(杭州)有限公司 | 图像处理方法、装置及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
US9852491B2 (en) | 2017-12-26 |
AU2014201995A1 (en) | 2014-10-30 |
WO2014168389A1 (en) | 2014-10-16 |
KR20140122952A (ko) | 2014-10-21 |
EP2793170A2 (en) | 2014-10-22 |
AU2014201995B2 (en) | 2018-05-10 |
JP2014207672A (ja) | 2014-10-30 |
EP2793170A3 (en) | 2014-11-19 |
US20140306999A1 (en) | 2014-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104103085A (zh) | 屏幕图像中的对象 | |
US9904906B2 (en) | Mobile terminal and data provision method thereof | |
KR102056175B1 (ko) | 증강현실 콘텐츠 생성 방법 및 이를 구현하는 휴대단말장치 | |
CN109242931B (zh) | 用于使用图像识别布置图像的方法和设备 | |
US20230315256A1 (en) | Method for displaying application icon and electronic device | |
CN111669459B (zh) | 键盘显示方法、电子设备和计算机可读存储介质 | |
CN105630225A (zh) | 移动终端及其控制方法 | |
EP3528140A1 (en) | Picture processing method, device, electronic device and graphic user interface | |
CN110069181B (zh) | 跨文件夹的文件处理方法、装置、设备及存储介质 | |
CN111147660B (zh) | 一种控件的操作方法及电子设备 | |
CN112230914B (zh) | 小程序的制作方法、装置、终端及存储介质 | |
US20150063785A1 (en) | Method of overlappingly displaying visual object on video, storage medium, and electronic device | |
CN112068762A (zh) | 应用程序的界面显示方法、装置、设备及介质 | |
US10409478B2 (en) | Method, apparatus, and recording medium for scrapping content | |
CN110865765A (zh) | 终端及地图控制方法 | |
US10848558B2 (en) | Method and apparatus for file management | |
CN115061607A (zh) | 功能页面显示方法及电子设备 | |
CN103678439A (zh) | 基于上下文感知提供内容标题的方法及装置 | |
CN115129211A (zh) | 生成多媒体文件的方法、装置、电子设备及存储介质 | |
CN115379274B (zh) | 基于图片的互动方法、装置、电子设备及存储介质 | |
CN114168120A (zh) | 数据获取方法、装置、计算机设备及存储介质 | |
CN116095412A (zh) | 视频处理方法及电子设备 | |
CN117573262A (zh) | 界面显示方法、界面定制方法、装置、设备及存储介质 | |
KR20140090321A (ko) | 트리거를 기반으로 오브젝트를 표시하는 모바일 장치 및 그 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20141015 |
|
RJ01 | Rejection of invention patent application after publication |