CN113489895B - 确定推荐场景的方法及电子设备 - Google Patents
确定推荐场景的方法及电子设备 Download PDFInfo
- Publication number
- CN113489895B CN113489895B CN202110701779.XA CN202110701779A CN113489895B CN 113489895 B CN113489895 B CN 113489895B CN 202110701779 A CN202110701779 A CN 202110701779A CN 113489895 B CN113489895 B CN 113489895B
- Authority
- CN
- China
- Prior art keywords
- electronic device
- scene
- image
- electronic equipment
- moment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 99
- 230000015654 memory Effects 0.000 claims description 35
- 238000004590 computer program Methods 0.000 claims description 10
- 239000011159 matrix material Substances 0.000 claims description 8
- 230000008859 change Effects 0.000 abstract description 38
- 230000009191 jumping Effects 0.000 abstract description 6
- 238000013473 artificial intelligence Methods 0.000 description 82
- 238000012545 processing Methods 0.000 description 38
- 238000004891 communication Methods 0.000 description 33
- 230000006854 communication Effects 0.000 description 33
- 238000010586 diagram Methods 0.000 description 30
- 230000006870 function Effects 0.000 description 30
- 239000010410 layer Substances 0.000 description 21
- 238000007726 management method Methods 0.000 description 20
- 241001465754 Metazoa Species 0.000 description 11
- 238000010295 mobile communication Methods 0.000 description 11
- 230000005236 sound signal Effects 0.000 description 11
- 210000000988 bone and bone Anatomy 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 230000001133 acceleration Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 210000004027 cell Anatomy 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 230000003068 static effect Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 229920001621 AMOLED Polymers 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000036772 blood pressure Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000001965 increasing effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000000087 stabilizing effect Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 206010034719 Personality change Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 239000012792 core layer Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 239000010985 leather Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000010349 pulsation Effects 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003238 somatosensory effect Effects 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/617—Upgrading or updating of programs or applications for camera control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/667—Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computational Linguistics (AREA)
- Studio Devices (AREA)
Abstract
本申请提供一种确定推荐场景的方法及电子设备。该方法包括:基于电子设备上相机/摄像头移动距离的大小以及当前图像与之前图像之间的关系去确定当前图像的推荐场景。当电子设备或电子设备上的相机/摄像头发生轻微晃动时,或者被拍摄的物体/场景未发生剧烈变化时,优先保证推荐场景的连续,降低了推荐场景的跳变的概率,极大的提升了用户拍摄时的用户体验。
Description
技术领域
本申请涉及电子技术领域,尤其涉及确定推荐场景的方法及电子设备。
背景技术
随着电子技术的发展以及用户对文娱需求的不断提高,越来越多的用户利用电子设备的拍照功能记录生活、分享生活。为了帮助用户拍摄出美观的照片、视频,电子设备可以通过人工智能(artificialintelligence,AI)场景识别技术帮助用户调节拍摄的参数,处理拍摄后的照片、视频,满足了用户拍照的需求。
AI场景识别技术可以基于一个或多个图像帧进行场景识别,进而确定当前的拍摄场景。例如,当用户在静止状态下拍摄如植物、山峦、建筑物等静态物体时,AI场景识别技术可以准确的识别被拍摄物体,并在屏幕上显示当前被推荐的场景已告知用户识别的结果。但是,很显然的,当用户手持电子设备,不可避免的会导致电子设备的晃动,进而导致AI场景识别输出的结果不准确或者跳变,降低了用户的体验。
为了避免AI场景识别输出的结果跳变,一种可行的方法:为电子设备或电子设备上的摄像头增加稳定装置,如光学防抖装置(opticalimagestabilization,OIS)、手持云台等。很显然的,通过降低电子设备上摄像头的抖动使得用户在拍摄静态物体时,电子设备可以给出稳定的、准确的AI场景识别结果,进而拍摄出美观的照片、视频。
但是,稳定装置只能减轻电子设备上摄像头的抖动程度,并不能完全抵消摄像头抖动带来的负面效果。其次,当电子设备摄像头未抖动时,但是摄像头拍摄到物体变化时,AI场景识别输出的结果不准确或者跳变,降低用户的体验。
发明内容
本申请实施例提供了一种确定推荐场景的方法,充分考虑到了场景的连续性,基于电子设备上相机/基于摄像头移动距离的大小以及当前图像与之前图像之间的关系去确定当前图像的推荐场景。
第一方面,本申请提供了一种确定推荐场景的方法,该方法包括:在第一时刻,电子设备显示第一界面,该第一界面包括预览框和第一标记,该预览框显示该电子设备的摄像头实时采集的第一图像,该第一标记用于标识与该第一图像对应的场景;在第二时刻,该电子设备显示第二界面,该第二界面包括该预览框和第二标记,该预览框显示该电子设备的摄像头实时采集的第二图像,该第二标记用于标识与该第二图像对应的场景,该第二图像与该第一图像不同,该第二时刻与该第一时刻不同;若该电子设备满足第一预设条件,该第二标记与该第一标记相同。
在上述实施例中,电子设备基于第一预设条件判断拍摄的场景是否具有连续性,若电子设备确定不满足第一预设条件,则电子设备确定当前拍摄的场景具有连续性,配置第二标记的内容与第一标记相同,进而防止了由于用户轻微移动电子设备或者是被拍摄的场景轻微变化导致的推荐场景跳变,提升了用户的体验。并且,由于电子设备在确定推荐场景后,还会基于该确定的推荐场景进行一些软件、硬件相关的图像处理,避免场景跳变还可以降低后续电子设备处理图像的开销。
结合第一方面的一些实施例,在一些实施例中,该第一预设条件为:该电子设备确定该第一图像与该第二图像之间的差距小于等于第一预设阈值。
在上述实施例中,第一预设条件为第一图像与第二图像之间的差距较少,当满足第一条件预设条件时,电子设备拍摄的场景实际上是连续的。通过第一预设条件而非图像的目标场景去确定被拍摄的场景是否是连续的,更具有鲁棒性。这是因为用户的轻微晃动电子设备、以及被拍摄场景的动态变化都是不可避免的,而AI场景识别技术的训练集均是静态的图片,不能够有效表征被拍摄场景的连续性。
结合第一方面的一些实施例,在一些实施例中,该电子设备确定该第一图像与该第二图像之间的差距小于等于第一预设阈值,具体包括:该电子设备确定该第一图像中的物体的种类、数量与该第二图像中的物体的种类和/或数量的差距小于等于该第一预设阈值;或者,该电子设备确定该第一图像的数据矩阵与该第二图像的数据矩阵的距离小于等于该第一预设阈值。
在上述实施例中,电子设备可以基于图像中的物体的种类和/或数量,或者可以基于图像之间的数据差异去判定第一图像与第二图像之间的差距。基于判定场景的连续性的目的,提出了两种定量衡量图像差距的方式。
结合第一方面的一些实施例,在一些实施例中,在该第一时刻,该电子设备处于第一地理位置,该第一地理位置用于标识该电子设备所在的实时地理位置;在该第二时刻,该电子设备处于第二地理位置,该第二地理位置用于标识该电子设备所在的实时地理位置;该第一预设条件为:该第一地理位置与该第二地理位置之间的距离小于等于第二预设阈值。
在上述实施例中,为了避免电子设备承担图像处理的计算开销,另一种确定场景连续性的方式是基于电子设备的空间位置变化。很显然的,直接通过电子设备的空间位置去确定场景的是否是连续的,可以较大的降低电子设备的计算开销。其次,通过电子设备的空间位置确定场景是否是连续的也是可靠的,当用户较大幅度的移动电子设备时,被拍摄的场景大概率会发生变化,即场景应当是不连续的;而当用户较小幅度的移动电子设备时,被拍摄的场景大概率不会发生变化,场景应当是连续的。
结合第一方面的一些实施例,在一些实施例中,在该第一时刻,该电子设备处于第一姿态,该第一姿态包括该电子设备在该第一时刻的方位角和俯仰角;在该第二时刻,该电子设备处于第二姿态,该第二姿态包括该电子设备在该第二时刻的方位角和俯仰角;该第一预设条件为:第一时刻该电子设备的方位角与第二时刻该电子设备的方位角的差距小于等于阈值并且第一时刻该电子设备的俯仰角与第二时刻该电子设备的俯仰角差距小于等于阈值;或者,第一时刻该电子设备的方位角与第二时刻该电子设备的方位角的差距与第一时刻该电子设备的俯仰角与第二时刻该电子设备的俯仰角的差距的乘积小于阈值。
在上述实施例中,为了避免电子设备承担图像处理的计算开销,另一种确定场景连续性的方式是基于电子设备的姿态变化,如俯仰角或者方位角等。很显然的,当电子设备的姿态发生大幅度变化时,如转动时,被拍摄的场景大概率发生变化,即场景应当是不连续的;当电子设备的姿态发生小幅度变化时,即场景应当是连续的。
结合第一方面的一些实施例,在一些实施例中,在第二时刻,电子设备显示第二界面,该第二界面包括该预览框和第二标记之前,还包括:该电子设备确定该第二图像对应的目标场景;该第二图像对应的目标场景与该第一图像对应的目标场景不同。
在上述实施例中,当第一图像的目标场景与第二图像的目标场景不同时,电子设备显示的第二标记与第一标记不同,即第一图像的推荐场景与第二图像的推荐场景相同。该方法能够有效避免推荐场景跳变导致的用户体验下降,也降低了电子设备后续基于推荐场景进行后续图像处理的计算开销。
结合第一方面的一些实施例,在一些实施例中,在第二时刻,电子设备显示第二界面,该第二界面包括该预览框和第二标记之前,还包括:该电子设备确定第二图像没有对应的目标场景。
在上述实施例中,当第二图像没有目标场景,电子设备仍然显示与第一标记相同的第二标记。该方法能够有效避免推荐场景跳变导致的用户体验下降。
结合第一方面的一些实施例,在一些实施例中,若该电子设备不满足该第一预设条件,该第二标记与该第一标记不同。
在上述实施例中,当电子设备确定不满足第一预设条件时,电子设备可能本身发生了大幅度的空间位置变化,或者相机/摄像头姿态发生了大幅度的变化,或者被拍摄的场景本身发生了大幅度的变化,此时电子设备拍摄的场景是不连续的,应该及时改变推荐场景,保证推荐场景的准确性。
结合第一方面的一些实施例,在一些实施例中,在该第二时刻前,该电子设备采集到的多个图像的对应目标场景相同,并且该电子设备不满足该第一预设条件,该第二标记与该第一标记不同。
在上述实施例中,当电子设备确定不满足第一预设条件,并且电子设备采集到的多个图像的对应目标场景相同时,此时第二图像对应的场景与第一图像的场景是不连续的,并且第二图像已经在新的场景中稳定下来,此时应该及时改变推荐场景,保证推荐场景的准确性。
结合第一方面的一些实施例,在一些实施例中,若该电子设备不满足该第一预设条件,并且该电子设备确定该第二图像没有对应的目标场景,该电子设备不显示/隐藏第二标记。
在上述实施例中,当电子设备确定不满足第一预设条件时,电子设备可能本身发生了大幅度的空间位置变化,或者相机/摄像头姿态发生了大幅度的变化,或者被拍摄的场景本身发生了大幅度的变化,此时电子设备拍摄的场景是不连续的,应该及时改变推荐场景,保证推荐场景的准确性。并且由于第二图像没有对应的目标场景,电子设备可以不显示/隐藏第二标记,避免对用户造成误导。
结合第一方面的一些实施例,在一些实施例中,在该第二时刻前,该电子设备采集到的多个图像没有对应的目标场景,并且该电子设备不满足该第一预设条件,该电子设备不显示/隐藏第二标记。
在上述实施例中,当电子设备确定不满足第一预设条件,并且电子设备采集到的多个图像的对应目标场景不存在时,此时应该及时改变推荐场景,保证推荐场景的准确性。并且由于第二图像没有对应的目标场景,且第二图像之前的多个图像均没有对应的目标场景,此时用户可能并没有真正开始拍摄,电子设备可以不显示/隐藏第二标记。
第二方面,本申请实施例提供了一种电子设备,该电子设备包括:一个或多个处理器和存储器;该存储器与该一个或多个处理器耦合,该存储器用于存储计算机程序代码,该计算机程序代码包括计算机指令,该一个或多个处理器调用该计算机指令以使得该电子设备执行:在第一时刻,显示第一界面,该第一界面包括预览框和第一标记,该预览框显示的摄像头实时采集的第一图像,该第一标记用于标识与该第一图像对应的场景;在第二时刻,显示第二界面,该第二界面包括该预览框和第二标记,该预览框显示的摄像头实时采集的第二图像,该第二标记用于标识与该第二图像对应的场景,该第二图像与该第一图像不同,该第二时刻与该第一时刻不同;若满足第一预设条件,该第二标记与该第一标记相同。
在上述实施例中,电子设备基于第一预设条件判断拍摄的场景是否具有连续性,若电子设备确定不满足第一预设条件,则电子设备确定当前拍摄的场景具有连续性,配置第二标记的内容与第一标记相同,进而防止了由于用户轻微移动电子设备或者是被拍摄的场景轻微变化导致的推荐场景跳变,提升了用户的体验。并且,由于电子设备在确定推荐场景后,还会基于该确定的推荐场景进行一些软件、硬件相关的图像处理,避免场景跳变还可以降低后续电子设备处理图像的开销。
结合第二方面的一些实施例,在一些实施例中,确定该第一图像与该第二图像之间的差距小于等于第一预设阈值。
结合第二方面的一些实施例,在一些实施例中,该一个或多个处理器,具体用于调用该计算机指令以使得该电子设备执行:确定该第一图像中的物体的种类、数量与该第二图像中的物体的种类和/或数量的差距小于等于该第一预设阈值;或者,确定该第一图像的数据矩阵与该第二图像的数据矩阵的距离小于等于该第一预设阈值。
结合第二方面的一些实施例,在一些实施例中,在该第一时刻,处于第一地理位置,该第一地理位置用于标识所在的实时地理位置;在该第二时刻,处于第二地理位置,该第二地理位置用于标识所在的实时地理位置;该第一预设条件为:该第一地理位置与该第二地理位置之间的距离小于等于第二预设阈值。
结合第二方面的一些实施例,在一些实施例中,在该第一时刻,处于第一姿态,该第一姿态包括在该第一时刻的方位角和俯仰角;在该第二时刻,处于第二姿态,该第二姿态包括在该第二时刻的方位角和俯仰角;该第一预设条件为:第一时刻的方位角与第二时刻的方位角的差距小于等于阈值并且第一时刻的俯仰角与第二时刻的俯仰角差距小于等于阈值;或者,第一时刻的方位角与第二时刻的方位角的差距与第一时刻的俯仰角与第二时刻的俯仰角的差距的乘积小于阈值。
结合第二方面的一些实施例,在一些实施例中,该一个或多个处理器,还用于调用该计算机指令以使得该电子设备执行:确定该第二图像对应的目标场景;该第二图像对应的目标场景与该第一图像对应的目标场景不同。
结合第二方面的一些实施例,在一些实施例中,该一个或多个处理器,还用于调用该计算机指令以使得该电子设备执行:确定第二图像没有对应的目标场景。
结合第二方面的一些实施例,在一些实施例中,该一个或多个处理器,还用于调用该计算机指令以使得该电子设备执行:若不满足该第一预设条件,该第二标记与该第一标记不同。
结合第二方面的一些实施例,在一些实施例中,该一个或多个处理器,还用于调用该计算机指令以使得该电子设备执行:在该第二时刻前,采集到的多个图像的对应目标场景相同,并且不满足该第一预设条件,该第二标记与该第一标记不同。
结合第二方面的一些实施例,在一些实施例中,该一个或多个处理器,还用于调用该计算机指令以使得该电子设备执行:若不满足该第一预设条件,并且确定该第二图像没有对应的目标场景,不显示/隐藏第二标记。
结合第二方面的一些实施例,在一些实施例中,该一个或多个处理器,还用于调用该计算机指令以使得该电子设备执行:在该第二时刻前,采集到的多个图像没有对应的目标场景,并且不满足该第一预设条件,不显示/隐藏第二标记。
第三方面,本申请实施例提供了一种芯片***,该芯片***应用于电子设备,该芯片***包括一个或多个处理器,该处理器用于调用计算机指令以使得该电子设备执行如第一方面以及第一方面中任一可能的实现方式描述的方法。
第四方面,本申请实施例提供一种包含指令的计算机程序产品,当上述计算机程序产品在电子设备上运行时,使得该电子设备执行如第一方面以及第一方面中任一可能的实现方式描述的方法。
第五方面,本申请实施例提供一种计算机可读存储介质,包括指令,当上述指令在电子设备上运行时,使得该电子设备执行如第一方面以及第一方面中任一可能的实现方式描述的方法。
可以理解地,上述第二方面提供的电子设备、第三方面提供的芯片***、第四方面提供的计算机程序产品以及第五方面提供的计算机可读存储介质均用于执行本申请实施例所提供的方法。因此,其所能达到的有益效果可参考对应方法中的有益效果,此处不再赘述。
附图说明
图1为本申请涉及的图像处理的一个示例性示意图。
图2A、图2B、图2C为本申请实施例提供的一组界面示例性示意图。
图3A、图3B为本申请实施例提供的另一组界面示例性示意图。
图4为本申请涉及的一种拍摄场景确定方法的一个示例性示意图。
图5A、图5B、图5C为本申请实施例提供拍摄背景的一个示例性示意图。
图6A、图6B、图6C为本申请涉及的目标场景确定方法在图5A、图5B、图5C拍摄背景下的界面一个示例性示意图。
图7A、图7B为本申请实施例提供的确定推荐场景方法的一组界面示意图。
图8为本申请实施例提供的确定推荐场景方法的一个示例性示意图。
图9A、图9B为本申请实施例提供的确定相机移动距离的一个示例性示意图
图10为本申请实施例提供的确定推荐场景方法的另一个示例性示意图。
图11A为图4所示的拍摄场景确定方法的一个示例性示意图。
图11B为图8和图10所示确定推荐场景方法的一个示例性示意图。
图12A、图12B为本申请实施例提供拍摄背景的另一个示例性示意图。
图13为本申请实施例提供的电子设备100的硬件结构的一个示例性示意图。
图14为本申请实施例提供的电子设备100的软件结构的一个示例性示意图。
具体实施方式
本申请以下实施例中所使用的术语只是为了描述特定实施例的目的,而并非旨在作为对本申请的限制。如在本申请的说明书和所附权利要求书中所使用的那样,单数表达形式“一个”、“一种”、“该”、“上述”、“该”和“这一”旨在也包括复数表达形式,除非其上下文中明确地有相反指示。还应当理解,本申请中使用的术语“和/或”是指并包含一个或多个所列出项目的任何或所有可能组合。
以下,术语“第一”、“第二”仅用于描述目的,而不能理解为暗示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征,在本申请实施例的描述中,除非另有说明,“多个”的含义是两个或两个以上。
为了便于理解,下面先对本申请实施例涉及的相关术语及相关概念进行介绍。本发明的实施方式部分使用的术语仅用于对本发明的具体实施例进行解释,而非旨在限定本发明。
(1)AI场景识别
AI场景识别是一种图像处理技术,可以将一个或多个图像帧进行处理,计算并确定该一个或多个图像帧对应的场景。
下面以图1、图2A、图2B、图2C所示的内容为例,示例性的介绍AI场景识别的工作原理。
图1为本申请涉及的图像处理的一个示例性示意图。
如图1所示,摄像头中传感器获取到模拟图像信息后,可以将图像信息转变为RAW格式的文件输出给图像处理器(image signal processor,ISP)。ISP拿到RAW格式的文件后,进行一些预处理,进而生成JPG、BMP等格式的图像文件。数字信号处理器(digtalsignalprocessor,DSP)和/或嵌入式神经网络处理器(neural-networkprocessing units,NPU)可以对图像文件进行AI场景识别。AI场景识别的输出可以是一个或多个场景,也可以是无。
其中,预处理可以包括光矫正、白平衡、色彩矫正等,在此不作限定。
图2A、图2B、图2C为本申请实施例提供的一组界面示例性示意图。
如图2A所示,电子设备的屏幕上显示有相机的主界面201。在主界面201包括有很多控件,例如,闪光开关控件210、HDR开关控件211、AI场景识别开关控件212、全景模式切换控件213、设置控件214等。
其中,主界面201也可以称为预览框。
其中,主界面的范围可以是图2A中(0,0)、(110,0)、(110,65)、(0,65)四点围成的矩形区域;或者主界面的范围可以是图2A中(5,0)、(110,0)、(110,65)、(5,65)四点围成的矩形区域。
电子设备可以接收用户的对控件的交互,如点击、手势等,进而开启、关闭该控件对应的功能。
例如,用户可以点击闪光开关控件210,在自动闪光、强制闪光、不闪光三种模式之间切换。类似的,用户可以点击AI场景识别开关控件212,进而开启或者关闭AI场景识别功能。其中,AI场景识别功能也可以称为AI相机、AI拍照、AI场景、AI滤镜、智能相机、智能拍照、智能场景、智能滤镜等。
当用户点击AI场景识别开关控件212后,AI场景识别开关控件212会呈现点击特效如波纹、缩放、颜色改变等。
如图2B所示,用户点击AI场景识别开光控件212后,其颜色发生变化。
当用户开启AI场景识别功能后或者电子设备默认开启AI场景识别功能后,用户在拍摄照片、视频时或者用户通过取景器预览图像时,电子设备会基于摄像头获取到的图像信息,在相机的主界面201上显示AI场景处理的输出结果。
如图2C所示,与图2A不同的是,可以认为主界面201包括预览框202。
其中,预览框202主要用于向用户实时的展现摄像头实时采集得到的画面。
其中,预览框202的范围可以是图2C中(5,0)、(110,0)、(110,65)、(5,65)四点围成的矩形区域;或者预览框202的范围可以是图2C中(15,0)、(110,0)、(110,65)、(15,65)四点围成的矩形区域;或者预览框202的范围可以是图2C中(5,0)、(90,0)、(90,65)、(5,65)四点围成的矩形区域;或者预览框202的范围可以是图2C中(5,0)、(90,0)、(90,65)、(5,65)四点围成的矩形区域。
值得说明的是,随着电子设备的形态发生变化,预览框还可以位于副屏,或者可以位于与该电子设备连接的其他电子设备的屏幕上,如手机拍摄,预览框位于手表/IPAD/VR设备的屏幕上。
值得说明的是,主界面201和预览框202的形状不限于矩形,可以随着电子设备屏幕的形状发生变化,如VR眼镜的圆形。可选的,在本申请一些实施例中,当主界面201上的控件隐藏、悬浮、半透明时,可以认为预览框202与主界面201大小相等、范围相同。
图3A、图3B为本申请实施例提供的另一组界面示例性示意图。
如图3A所示,当电子设备上AI场景识别功能开启后,主界面201/预览框202上会显示场景控件220,已告知用户当前识别的场景。场景控件220可以短暂的停留在主界面201/预览框202上,或者长久的驻留在主界面201/预览框202上。以安卓(Android)***为例,实现时,可以利用Toast组件、Dialogs组件实现场景控件220。
其中,场景控件220可以显示文字和/或图标以告知用户当前识别的场景。场景控件或场景控件显示的文字和/或图标也可以称为标识、标记或场景标识、场景标记。
值得说明的是,场景控件220可以位于主界面/预览框上的其他位置。
另一种告知用户当前识别的场景的界面如图3B所示。如图3B所示,当电子设备上AI场景识别功能开启后,当AI场景识别的结果为食物场景时,AI场景识别开关控件212的图标会显示为食物场景对应的图案(刀叉图标代表食物场景),进而告知用户当前识别的场景。
值得说明的是,AI场景识别在确定当前被拍摄物体所对应的场景后,可以通过调整摄像头的硬件参数如帧率、光圈、焦距等参数,使得硬件参数更适合该场景下拍摄。或者,还可以通过数字信号处理对电子设备获取到的图像进行处理,使得主界面201/预览框202上显示的被拍摄的物体更美观和/或拍摄后保存的影像文件中的物体更美观。
(2)有效单元帧、无效单元帧
单元帧为一个或多个连续/间隔的图像帧。
根据单元帧对应的目标场景是否可信,可以将单元帧分为有效单元帧或无效单元帧。有效单元帧对应的目标场景可信,无效单元帧对应的目标场景不可信。或者,根据单元帧是否有对应的目标场景,可以将单元帧分为有效单元帧或无效单元帧。有效单元帧有对应的目标场景,无效单元帧没有对应的目标场景。
在本申请实施例中,当每个图像帧都清晰时,可以选取一个或多个连续的图像帧作为单元帧。当存在个别图像帧模糊时,可以选取一个或多个间隔的图像帧作为单元帧。
可选的,在本申请一些实施例中,可以对多个连续/间隔的图像帧合成为一个单元帧进行AI场景识别。可以理解的是,通过多帧图像帧合成,可以进一步提高图像的清晰度,降低数据处理时的噪声,有利于提高AI场景识别的准确性。
可选的,在本申请一些实施例中,可以分别对多个连续/间隔的图像帧进行AI场景识别,并将每个图像帧对应的AI场景识别输出的场景进行数据融合,进而得到一个置信度更高的目标场景。
下面示例性的介绍单元帧与目标场景之间的关系。
例如,当AI场景识别处理单元帧的输出如图1所示,即AI场景识别的输出为场景1、场景2、…、场景M和无时,无效图像帧可以为无所对应的单元帧,有效单元帧可以为场景1、场景2、…、场景M对应的单元帧。其中,M为大于2的整数。
又例如,当AI场景识别处理单元帧的输出为[场景1、置信度1]、[场景2、置信度2]、…、[场景M、置信度M]。此时,认为该单元帧对应的场景为置信度最高的一个或多个场景。若该单元帧对应场景的置信度大于等于置信度阈值,则认为该单元帧为有效单元帧;若该单元帧对应场景的置信度小于置信度阈值,则认为该单元帧为无效单元帧。
表1为本申请实施例提供的单元帧与场景对应关系的一个示例性示意表。
表1
食物场景 | 天空场景 | 河流场景 | 植物场景 | … | |
单元帧1 | 0.872 | 0.045 | 0.089 | 0.176 | … |
单元帧2 | 0.234 | 0.029 | 0.001 | 0.163 | … |
如表1所示,由于单元帧1的置信度最高的场景为食物场景,故单元帧1对应的场景为食物场景。由于单元帧2的置信度最高的场景为食物场景,故单元帧2对应的场景为食物场景。
若置信度阈值为0.7,则单元帧1为有效单元帧,单元帧2为无效单元帧。
或者,如表1所示,由于单元帧1的置信度最高的场景为食物场景,且该食物场景的置信度0.872高于置信度阈值0.7,则单元帧1对应的场景为食物场景;由于单元帧2的置信度最高的场景为食物场景,且该食物场景的置信度0.234低于置信度阈值0.7,故单元帧2对应的场景为无。故单元帧1为有效单元帧、单元帧2为无效单元帧。
值得说明的是,可以根据AI场景识别输出的内容,以多种方式确定任一单元帧为有效单元帧或无效单元帧。
可以理解的是,将单元帧分为有效单元帧、无效单元帧,充分利用了AI场景识别输出的结果,为后续步骤中推荐场景的确定奠定了基础。
其次,下面介绍本申请涉及的一种目标场景确定方法。
当用户使用拍照功能时,为了及时的向用户推荐场景,可以根据当前图像帧的AI场景识别结果作为目标场景推荐给用户,并可以基于该场景调整主界面201上显示的被拍摄的图像。
图4为本申请涉及的一种拍摄场景确定方法的一个示例性示意图。
如图4所示,本申请涉及的一种拍摄场景确定方法包括:
S401:获取图像帧,基于图像帧和AI场景识别确定场景为目标场景。
S402:在主界面201上显示目标场景。
其中,基于图像帧和AI场景识别确定目标场景的方法可以参考术语解释中(2)有效单元帧、无效单元帧中的文字描述。
其中,在主界面201/预览框202上显示目标场景可以参考图3A、图3B对应的文字描述,此处不再赘述。
图5A、图5B、图5C为本申请实施例提供拍摄背景的一个示例性示意图。
分别与图5A、图5B、图5C对应的,图6A、图6B、图6C为本申请涉及的目标场景确定方法在图5A、图5B、图5C拍摄背景下的界面一个示例性示意图。
如图5A所示,当用户拍摄他人时,主界面201/预览框202中显示的画面与取景框划定的背景相对应。当取景框中只包括被拍摄人时,电子设备可以准确识别目标场景为人物场景,进而在主界面201/预览框202上显示目标场景如图6A所示。
但是,很显然的,当被拍摄的对象发生变化时,即取景框划定的背景内容发生变化时,基于图像帧的AI场景识别的输出可能发生变化。
用户在拍摄的过程中,有一只动物从拍摄人的左侧往拍摄人的右侧运动。如图5B所示,在某一时刻,电子设备的摄像头会同时拍摄到动物和被拍摄人,即取景框划定的背景中包括动物和被拍摄人。由于电子设备获取的图像帧包括动物和被拍摄人,基于该图像帧电子设备识别目标场景为人物场景或动物场景。若该图像帧对应的目标场景为动物场景,电子设备在主界面201/预览框202上显示目标场景如图6B所示。
或者,用户拍摄时移动了电子设备使得摄像头发生空间位移或者旋转,也会导致取景框划定的背景内容发生变化。当背景内容发生变化时,基于图像帧的AI场景识别的输出可能发生变化。
对比图5A和图5C所示的内容可知,由于用户移动了电子设备,摄像头对应的取景框的空间位置发生变化,进而导致取景框的背景内容发生变化。此时,取景框划定的背景中包括动物和被拍摄人。由于电子设备获取的图像帧包括动物和被拍摄人,基于该图像帧电子设备识别目标场景为人物场景或动物场景。若该图像帧对应的目标场景为动物场景,电子设备在主界面201/预览框202上显示目标场景如图6B所示。
很显然的,当电子设备的摄像头的空间位置、旋转不变化时,并且被拍摄人物和物体均为静态时,AI场景识别能够基于图像帧输出准确的目标场景。
但是,受限于AI场景识别算法本身的鲁棒性、准确率等,当AI场景识别本身输出错误的目标场景时,会导致电子设备上显示的目标场景发生跳变;其次,当电子设备发生空间位移、旋转时或者被拍摄物体的变化导致图像帧的内容发生变化时,AI场景识别本身输出的目标场景就是跳变的,降低了用户的体验。进一步的,若是电子设备基于目标场景对图像帧进行图像处理,增加了电子设备的计算开销。
图7A、图7B为本申请实施例提供的确定推荐场景方法的一组界面示意图。
与图4所示的一种拍摄场景确定方法不同的是,本申请实施例提供的确定推荐场景方法首先基于单元帧而非图像帧进行AI场景识别,其次,在获取到AI场景识别的输出的目标场景后,基于多个单元帧和/或陀螺仪等装置的信息判定当前单元帧与之前的单元帧的图像变化是否过大,以及基于之前单元帧的AI场景识别输出的目标场景,确定推荐场景,进而将推荐场景显示在主界面201/预览框202上。
在图5A、图5B、图5C所示的情况下实施本申请实施例提供的目标场景推荐方法,电子设备显示的界面如图6A、图7A、图7B所示。
在图5A所示的情况下,电子设备可以准确识别目标场景为人物场景,进而在主界面201/预览框202上显示目标场景如图6A所示。
在图5B、图5C所示的情况下,AI场景识别的目标场景为人物场景时,考虑到前一帧单元帧对应的目标场景为人物场景,进而确定推荐场景与该单元帧对应的目标场景相同,进而在主界面201/预览框202上显示推荐场景如图6A所示。在图5B所示的情况下,AI场景的识别的目标场景为动物场景时,考虑到前一帧单元帧对应的目标场景为人物场景,进而确定推荐场景可以为无或者是人物场景。
当电子设备确定推荐场景后,可以将推荐场景显示在主界面201/预览框202上,具体的可以如图7A、图7B所示。
其次,下面示例性的介绍本申请实施例提供的确定推荐场景方法。
图8为本申请实施例提供的确定推荐场景方法的一个示例性示意图。
如图8所示,本申请实施例提供的确定推荐场景方法包括:
S801:获取单元帧,并基于该单元帧进行AI场景识别。
具体的,电子设备可以获取一个或多个连续/间隔的图像帧作为一个单元帧,并基于该单元帧进行AI场景识别。其中,基于该单元帧的AI场景识别的输出可以为目标场景或无。
其中,单元帧、AI场景识别、基于单元帧进行AI场景识别方法等术语的概念可以参考术语解释中(1)AI场景识别、(2)单元帧中的文字描述,此处不再赘述。
可选的,在本申请一些实施例中,在获取到单元帧后,可以先不对该单元帧进行AI场景识别。在步骤S804中或者步骤S804前,或者在步骤S805中或者步骤S805前,对该单元帧进行AI场景识别。
执行步骤S802。
S802:判断该单元帧与上一单元帧数据差距是否大于第一阈值。
具体的,电子设备在获取到单元帧后,可以比较该单元帧与上一单元帧之间的数据差距。并判断该差距是否大于第一阈值。若是,执行步骤S805;若否,执行步骤S803。
其中,第一阈值可以为电子设备预置的,或者可以通过云服务器获取的。其中,上一单元帧为该单元帧的上一帧单元帧。
该单元帧与上一单元帧之间的数据差距可以通过多种方式进行确定,在此不做限定。
例如,该单元帧与上一单元帧之间的数据差距可以认为是一个数据矩阵与另一个数据矩阵之间的距离,或多个数据矩阵与多个数据矩阵之间的距离。其中数据矩阵之间的距离可以通过1范数、2范数、无穷范数等方法确定。
又例如,该单元帧与上一单元帧之间的数据差距可以通过单元帧对应的图像中包括的物体的种类和数量确定。可以通过图像识别技术确定单元帧对应的图像中包括的物体的种类和数量。其中,图像识别技术本身用于确定一幅图像或多个图像中包含的可识别的物体,以及该物体在图像中的位置、该物体占据图像的面积等;即图像识别技术的输入为一幅或多幅图像,输出为该图像中的物体、物体的位置、物体占据的面积等。例如,对于上文中图5B以及图5C所示的拍摄背景,图像识别技术可以识别出的物体包括:人、帽子、狗。
电子设备可以基于图像识别技术确定任一单元帧对应的图像中包括的物体,进而可以基于物体的种类、面积的变化判断该单元帧与上一单元帧之间的数据差距。例如,电子设备确定第x帧单元帧与第y帧单元帧之间的数据差距为Disparityx,y。其中Disparityx,y的值与第x帧单元帧对应的图像中包括的物体、以及第y帧单元帧对应的图像中包括的物体有关,为了方便描述,将这种关系描述为Disparityx,y=f(xobj-num-type,yobj-num-type)。xobj-num-type为单元帧x中物体的种类和每个物体种类的数量,yobj-num-type为单元帧y中物体的种类和每个物体种类的数量,f为输入为高维矢量的计算函数。
下面以表2所示的内容为例,示例性的介绍确定Disparityx,y的过程。
表2为本申请实施例提供的确定两个单元帧数据差距的一个示例性示意表。
表2
如表2所示,电子设备可以基于单元帧中包括的物体的种类、面积等信息,确定任意两个单元帧之间的数据差距。其中,在表2所示的情况下,电子设备限定了Disparityx,y的取值为0或1,则在该情况下第一阈值为0。
可选的,在本申请一些实施例中,若在步骤S801中基于该单元帧进行了AI场景识别,且该单元帧对应的场景为目标场景,则第一阈值可以与目标场景相关。可以理解的是,不同目标场景下,可以配置不同的第一阈值,进而更准确的判断单元帧对应的画面内容是否变化过大。
例如,当前单元帧对应的目标场景为人物场景时,第一阈值为0.2(归一化)。当前单元帧对应的目标场景为食物场景时,第一阈值为0.5(归一化)。很显然的,在人物场景下,由于人物相比于食物具有更多的图像特征,可以适当降低人物场景下的第一阈值。
可选的,在本申请一些实施例中,可以根据当前摄像头焦距的变化辅助确定该单元帧与上一单元帧的数据差距。
可选的,在本申请一些实施例中,可以判断该单元帧与该单元帧之前多个单元帧之间的数据差距的和是否大于第一阈值。
可以理解的是,通过步骤S802判断了当前单元帧对应的画面与上一单元帧对应的历史画面之间的差距是否大于阈值,有助于后续进行差异化处理,为准确提供推荐场景夯实了基础。
S803:判断相机移动距离是否大于第二阈值。
可选的,判断相机/摄像头移动距离是否大于第二阈值。若是,执行步骤S805;若否,执行步骤S804。
其中,移动距离用于反映上一单元帧中被拍摄的物体或者焦点对应的物体的坐标与该单元帧中被拍摄的物体或者焦点对应的物体坐标之间的空间距离。移动距离可以是相机/摄像头本身的空间位移或旋转,或者可以是该单元帧与上一单元帧画面中心之间的空间距离。
其中,第二阈值可以为电子设备预置的,或者可以通过云服务器获取的。
例如,对于配置有陀螺仪等装置的电子设备,可以基于陀螺仪、加速度传感器等装置的信息确定相机/摄像头移动的距离。或者,电子设备可以通过图像帧或单元帧之间的变化确定摄像头移动的距离。
下面结合图9A、图9B示例性的介绍确定相机移动距离的方法。
图9A、图9B为本申请实施例提供的确定相机移动距离的一个示例性示意图。
如图9A所示,电子设备可以建立一个三维空间坐标系,并根据运动信息确定自己的坐标。在任一时刻,电子设备可以确定自己的坐标为(x0,y0,z0),(x0,y0,z0)可以为任意值。在另一时刻,电子设备可以基于运动信息确定自己在三维空间坐标系上x轴、y轴、z轴的移动距离,进而确定自己的坐标为(x1,y1,z1)。
其中,电子设备可以通过陀螺仪、加速度传感器等装置确定自己在x轴、y轴、z轴上的速度、加速度,以及确定自己的方位角、俯仰角、偏转角等运动信息。在确定运动信息后,电子设备可以基于运动信息确定自己在三维空间坐标系上x轴、y轴、z轴的移动距离。
如图9B所示,在任一时刻,电子设备可以确定相机/摄像头的坐标为(x0,y0,z0)。当电子设备仅发生转动(例如沿平行与ZOY平面的平面)时,相机/摄像头的坐标变化为(x0,y1,z1)。此时电子设备可以确定相机/摄像头移动的距离。例如,电子设备根据确定相机/摄像头的质心确定其坐标,即相机/摄像头的质心的坐标为(x0,y0,z0);也可以是电子设备上的任一点。
或者,同样如图9B所示,当电子设备沿平行与ZOY平面的转动为相机/摄像头的方位角变化时,可以计算确定相机/摄像头在方位角上移动的角度。类似的,当电子设备沿平行于XOY平面的转动为相机/摄像头的俯仰角变化时,可以计算确定相机/摄像头在俯仰角上移动的角度。
其中,可以认为相机/摄像头的姿态包括方位角、俯仰角等信息。
可以理解的是,当确定相机/摄像头在俯仰/水平上面移动的角度后,电子设备可以直接通过角度阈值确定相机/摄像头移动距离是否过大,而无需计算两个时刻相机/摄像头的空间位置变化。
下面以表3所示的内容为例,示例性的介绍电子设备直接通过相机/摄像头的姿态变化直接确定相机/摄像头移动距离是否过大。
表3为本申请实施例提供的电子设备基于相机/摄像头的姿态变化确定相机移动距离是否大于第二阈值。
表3
如表3所示,当电子设备拍摄时,其焦距为0.5时,其方位角的变化若大于正负10°,则认为确定相机移动距离大于第二阈值;当其焦距为1时,其方位角的变化若大于正负8°,则认为确定相机移动距离大于第二阈值;当其焦距为5时,其方位角的变化若大于正负3°,则认为确定相机移动距离大于第二阈值。
类似的,当电子设备拍摄时,其焦距为0.5时,其俯仰角的变化若大于正负15°,则认为确定相机移动距离大于第二阈值;当其焦距为1时,其俯仰角的变化若大于正负14°,则认为确定相机移动距离大于第二阈值;当其焦距为5时,其俯仰角的变化若大于正负7°,则认为确定相机移动距离大于第二阈值。
值得说明的是,方位角/俯仰角的范围可以不关于0°对称。
值得说明的是,电子设备拍摄时,当焦距相同时,方位角范围可以小于俯仰角方位。
上面结合表3示例性的介绍了通过互相独立的判断俯仰角和方位角进而确定相机移动距离是否大于第二阈值。下面示例性的介绍联合考虑俯仰角和方位角进而确定相机移动距离是否大于第二阈值。
有多种方式可以联合的考虑俯仰角和方位角进而确定相机移动距离是否大于第二阈值。
例如,可以认为方位角范围和俯仰角范围大致成反比例关系。当电子设备拍摄时一直工作在某个焦距时,电子设备配置第二阈值为K,相比于某一时刻电子设备的方位角变化为A(绝对值),俯仰角变化为B(绝对值)。则若A*B>K,则电子设备确定相机移动距离大于第二阈值;则若A*B≤K,则电子设备确定相机移动距离小于等于第二阈值。
其中,当电子设备切换焦距时,K的值也可以发生变化。例如,焦距越大,K的值越小;焦距越小,K的值越大;或者,又例如,焦距处于较大和较小的时候,K的值较小;当焦距处于常用焦段如1-5时,K的值较大。
值得说明的是,电子设备基于相机/摄像头的姿态变化确定相机移动距离是否大于第二阈值时,可以不仅仅考虑电子设备拍摄的焦距,还可以结合从拍摄或预览框中的图像的景深信息。
值得说明的是,电子设备确定的自己的坐标可以是电子设备作为整体(被认为是一个质点)在空间中的坐标;或者,基于电子设备内部的加速度传感器、陀螺仪的位置与相机/摄像头的位置之间的关系,直接确定相机/摄像头的坐标作为自己的坐标。
可以理解的是,当电子设备确定自己的坐标为电子设备作为整体(被认为是一个质点)在空间中的坐标,可以确定电子设备平动导致的位置变化;当电子设备确定自己的坐标为相机/摄像头的坐标,可以确定电子设备平动、转动导致的位置变化。
或者,如图5A以及图5C所示,电子设备可以利用深度学习、人工智能、特征匹配、匹配滤波、时频域分析等多种信号处理、数据处理算法,确定图5A中取景框中的内容位于图5C中取景框的下半部分。进而可以确定电子设备空间上向上移动,或者是仰角变大。电子设备还可以从图像帧或单元帧中分析出深度信息,进而确定电子设备上相机移动距离。
S804:配置连续有效单元帧和连续无效单元帧的阈值为第三阈值。
电子设备配置第三阈值作为连续有效单元帧和连续无效单元帧的阈值,其中第三阈值可以为电子设备预置的,或者可以通过云服务器获取的。执行步骤S806。
其中,连续有效单元帧为时间上连续的有效单元帧,连续无效单元帧为时间上连续的无效单元帧。
可选的,在本申请一些实施例中,可以为连续有效单元帧和连续无效单元帧配置不同的阈值。
S805:配置连续有效单元帧和连续无效单元帧的阈值为第四阈值。
电子设备配置第四阈值作为连续有效单元帧和连续无效单元帧的阈值,其中第四阈值可以为电子设备预置的,或者可以通过云服务器获取的。
其中,第四阈值小于第三阈值。执行步骤S806。
可以理解的,在不同的情况下,为连续有效单元帧和连续无效单元帧配置不同的阈值,首先,在相机移动距离较小的情况下以及在该单元帧与上一单元帧数据差距较小的情况下,降低推荐场景发生跳变的可能性;其次,在相机移动距离较大的情况下以及在该单元帧与上一单元帧数据差距较大的情况下,降低推荐场景发生变化的门槛,使得可以快速准确的确定新的推荐场景。
S806:判断基于该单元帧的AI场景识别输出的结果是否为无。
若基于该单元帧的AI场景识别输出的结果为无,则执行步骤S807。若基于该单元帧的AI场景识别输出的结果为任意场景,则执行步骤S808。
其中,基于该单元帧进行AI场景识别的过程可以发生在步骤S806或者发生在步骤S806之前。
S807:判断连续无效单元帧是否大于连续无效单元帧的阈值。
若连续无效单元帧大于连续无效单元帧的阈值,则执行步骤S809;若连续无效单元帧小于等于连续无效单元帧的阈值,则执行步骤S810。
S808:判断连续有效单元帧数量大于连续有效单元帧阈值,并且连续有效单元帧对应的目标场景一致。
若连续有效单元帧数量大于连续有效单元帧阈值,并且连续有效单元帧对应的目标场景一致,则执行步骤S811;若连续有效单元帧数量小于等于连续有效单元帧阈值,或者连续有效单元帧对应的目标场景不一致,则执行步骤S810。
S809:确定推荐场景为无。
确定推荐场景为无。其中,当确定推荐场景为无的时候,主界面201/预览框202上可以显示推荐场景为无或者不显示推荐场景的相关信息。
可以理解的是,由于连续无效单元帧的数量大于阈值,并且该单元帧的AI场景输出的结果为无,故可以将推荐场景配置为无。
可以理解的是,将推荐场景配置为无相当于为场景推荐功能配置一个缓冲,能够有效避免由于用户移动电子设备或者被拍摄物体的短时间变化造成的推荐场景的跳变。
S810:确定推荐场景为上一单元帧对应的目标场景。
确定推荐场景为上一帧单元帧对应的推荐场景。其中,当确定推荐场景为上一帧单元帧对应的目标场景时,可以在主界面201/预览框202上显示上一帧单元帧对应的目标场景。
可选的,在本申请一些实施例中,可以根据该单元帧之前的多个单元帧的目标场景确定推荐场景。
可以理解的是,若是连续有效单元帧数量小于等于连续单元帧阈值时,用户可能正在移动、旋转电子设备,或者被拍摄的画面的内容正在发生变化,此时该单元帧对应的目标场景作为推荐场景并不是合适的,故选择上一单元帧对应的目标场景作为该单元帧对应的推荐场景。
可以理解的是,若是连续有效单元帧对应的目标场景不一致,则说明被拍摄的画面的内容正在发生变化,此时该单元帧对应的目标场景作为推荐场景并不是合适的,故选择上一单元帧对应的目标场景作为该单元帧对应的推荐场景。
S811:确定推荐场景为该单元帧的目标场景。
确定推荐场景为该单元帧的目标场景。其中,当确定推荐场景为该单元帧的目标场景时,可以在主界面201/预览框202上显示推荐场景。
可以理解的是,由于有效单元帧数量大于连续单元帧阈值,并且连续有效单元帧对应的目标场景一致,故可以确定该单元帧的目标场景为推荐场景。
可以理解的是,由于推荐场景一直没有发生变化,即被拍摄的物体与电子设备之间基本保持相对静止,电子设备获取的画面大体上稳定无变化,推荐场景也应该不发生变化,保证了推荐场景的连贯性,提升了用户的体验。
很显然的,步骤S806、步骤S807、步骤S809对应的技术方案包括:当较多个单元帧的对应的目标场景为无,确定推荐场景为无。首先,该方案避免了存在个别单元帧的对应的目标场景而导致推荐场景的跳变,其次,避免了后续处理中,对单元帧或图像帧进行推荐场景对应的图像处理,降低了计算开销。
很显然的,步骤S806、步骤S807、步骤S810对应的技术方案包括:当前数个单元帧或图像帧中只有少数几个单元帧对应的目标场景为无,并且电子设备最新获得单元帧对应的目标场景为无,则确定推荐场景为上一单元帧对应的目标场景。首先,该方案避免了个别单元帧的对应的目标场景为无而导致推荐场景的跳变,其次,避免了后续处理中,对单元帧或图像帧进行推荐场景对应的图像处理,降低了计算开销。
很显然的,步骤S806、步骤S808、步骤S810对应的技术方案包括:当前单元帧与之前的单元帧对应的目标场景不一致时,确定推荐场景为上一单元帧对应的目标场景,优先保证推荐场景的连续性,避免由于当前单元帧AI场景识别错误导致的推荐场景的跳变。
很显然的,步骤S806、步骤S808、步骤S811对应的技术方案包括:当前单元帧与之前的单元帧对应的目标场景一致时,可以切换目标场景为推荐场景,保证了推荐场景过渡的流畅性。
值得说明的是,在实施本申请实施例提供的确定推荐场景方法时,在执行步骤S802和步骤S803时,步骤S802与步骤S803之间的顺序可以互换,并且可以只执行步骤S802或者执行步骤S803。在执行步骤S802和步骤S803时,当电子设备确定该单元帧与上一单元帧数据差距小于等于第一阈值时,可以直接执行步骤S804,不再执行步骤S803。
值得说明的是,在实施本申请实施例提供的确定推荐场景方法时,可以修改步骤S802、步骤S803、步骤S804和步骤S805之间的逻辑,电子设备确定该单元帧与上一单元帧数据差距大于第一阈值且相机移动距离大于第二阈值时,执行步骤S805;电子设备确定该单元帧与上一单元帧数据差距小于第一阈值或相机移动距离小于第二阈值时,执行步骤S804。
本申请实施例提供的确定推荐场景的方法,首先通过判断电子设备上相机/摄像头移动距离的大小以及当前单元帧画面与上一单元帧的画面的差距配置了一个动态的阈值。其次,基于该动态的阈值以及当前单元帧画面对应的目标场景去确定推荐场景。本申请实施例提供的确定推荐场景的方法,充分考虑单元帧的目标场景、单元帧与上一单元帧之间的关系等信息,能够更准确的确定推荐场景。
图10为本申请实施例提供的确定推荐场景方法的另一个示例性示意图。
如图10所示,本申请实施例提供的确定推荐场景方法包括:
S1001:获取单元帧。
具体的,电子设备可以获取一个或多个连续/间隔的图像帧作为一个单元帧。
与步骤S801不同的是,可以先不执行对该单元帧的AI场景识别,等到步骤S1005中执行。
执行步骤S1002。
S1002:判断该单元帧与上一单元帧数据差距是否大于第一阈值。
具体的,电子设备在获取到单元帧后,可以比较该单元帧与上一单元帧之间的数据差距。并判断该差距是否大于第一阈值。若是,执行步骤S1005;若否,执行步骤S1003。
其中,比较两个单元帧之间的数据差距的方法可以参考步骤S803中的文字描述,此处不再赘述。
S1003:判断相机移动距离是否大于第二阈值。
具体的,判断相机/摄像头移动距离是否大于第二阈值。若是,执行步骤S1005;若否,执行步骤S1004。
其中,确定相机移动距离的方法可以参考步骤S804中的文字描述,此处不再赘述。
S1004:确定推荐场景为上一单元帧对应的目标场景。
确定推荐场景为上一帧单元帧对应的推荐场景。其中,当确定推荐场景为上一帧单元帧对应的目标场景时,可以在主界面201/预览框202上显示上一帧单元帧对应的目标场景。
可选的,在本申请一些实施例中,可以根据该单元帧之前的多个单元帧的目标场景确定推荐场景。
S1005:判断基于该单元帧的AI场景识别输出的结果是否为无。
具体的,对步骤S1001中获取的单元帧进行AI场景识别,并判断AI场景识别输出的结果是否为无。若AI场景识别输出的结果为无,则执行步骤S1006;若AI场景识别输出的结果不为无,执行步骤S1007。
S1006:确定推荐场景为无。
具体的,可以参考步骤S809中的文字描述,此处不再赘述。
S1007:确定推荐场景为该单元帧的目标场景。
具体的,可以参考步骤S811中的文字描述,此处不再赘述。
相比于与图4所示的一种拍摄场景确定方法不同的是,图10所示的确定推荐场景方法不需要对每一帧图像帧或单元帧进行AI场景识别,降低了电子设备的计算负载。其次,图10所示的确定推荐场景方法还考虑了上一单元帧与该单元帧之间的关系,可以有效的提升推荐场景的准确率,提升用户的体验。
相比与图8所示的方法,图10所示的确定推荐场景方法,在一些情况下,可以先不对该单元帧进行AI场景识别,以牺牲一些准确性的代价,进一步降低了电子设备的计算开销。
值得说明的是,可以将连续有效单元帧阈值和连续无效单元帧的阈值配置在图10所示的方法中,具体的可以参考图8以及图10所示的内容,不再赘述。
图11A为图4所示的拍摄场景确定方法的一个示例性示意图。
图11B为图8和图10所示确定推荐场景方法的一个示例性示意图。
很显然的,对比图11A、图11B所示的内容,拍摄场景确定方法通过独立的分析单个图像帧确定目标场景,进而确定该目标场景为推荐场景,准确率完全取决于AI场景识别的能力,鲁棒性较差。而,本申请实施例提供的确定场景推荐方法,充分考虑了该单元帧与上一单元帧或该单元帧之前多个单元帧之间的关系,并且考虑了该单元帧的目标场景与上一单元帧或该单元帧之前多个单元帧的目标场景之间的关系,综合考虑确定了推荐场景,准确率较高,有助于提升用户体验。
下面示例性的介绍实施本申请实施例提供的确定推荐场景方法的场景。
表4为本申请实施例提供的确定推荐场景方法的场景的一个示例性示意表。
表4
用户在拍摄过程中,当被拍摄的内容发生变化时,即取景框对应的内容发生变化时,推荐场景和目标场景有可能不一致。
例如,在拍摄过程中,在第一时刻至第二时刻,被拍摄的主体一直为人。在第二时刻至第三时刻,被拍摄的主体为图案;在第三时刻至第四时刻,被拍摄的主体为人。具体的,如图12A、图12B所示。
图12A、图12B为本申请实施例提供拍摄背景的另一个示例性示意图。
如图12A以及表2所示,在第一时刻至第二时刻,由于电子设备获取到的单元帧对应的人物较为完整;故确定目标场景为人物,并认为当前推荐场景为人物场景。
如图12B以及表2所示,在第二时刻至第三时刻,由于电子设备获取到的单元帧对应的人物较为不完整,且墙上的壁画较为完整;故确定目标场景为图案。
若第二时刻至第三时刻之间的时间间隔较短,对应于步骤S808以及步骤S810,第一时刻至第三时刻的单元帧对应的目标场景不一致,则推荐场景为第一时刻至第二时刻的单元帧对应的目标场景,即人物场景为推荐场景。在确定推荐场景后,可以在主界面201/预览框202上显示该推荐场景。其中,在主界面201/预览框202上显示推荐场景的方法可以参考图5A、图5B对应的文字描述。
若第二时刻至第三时刻之间的时间间隔较长,对应于步骤S808以及步骤S810,第一时刻至第三时刻的单元帧中,目标场景为图案的单元帧的数量大于连续有效单元帧阈值,且这些单元帧对应的场景均为目标场景,即电子设备确定推荐场景为图案场景,可以在主界面201/预览框202上显示该推荐场景。
最后,介绍本申请实施例提供的电子设备。
图13为本申请实施例提供的电子设备100的硬件结构的一个示例性示意图。
电子设备100可以是手机、平板电脑、桌面型计算机、膝上型计算机、手持计算机、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本,以及蜂窝电话、个人数字助理(personal digital assistant,PDA)、增强现实(augmentedreality,AR)设备、虚拟现实(virtual reality,VR)设备、人工智能(artificialintelligence,AI)设备、可穿戴式设备、车载设备、智能家居设备和/或智慧城市设备,本申请实施例对该电子设备的具体类型不作特殊限制。
电子设备100可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194,以及用户标识模块(subscriber identification module,SIM)卡接口195等。其中传感器模块180可以包括压力传感器180A,陀螺仪传感器180B,气压传感器180C,磁传感器180D,加速度传感器180E,距离传感器180F,接近光传感器180G,指纹传感器180H,温度传感器180J,触摸传感器180K,环境光传感器180L,骨传导传感器180M等。
可以理解的是,本发明实施例示意的结构并不构成对电子设备100的具体限定。在本申请另一些实施例中,电子设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了***的效率。
在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
I2C接口是一种双向同步串行总线,包括一根串行数据线(serial data line,SDA)和一根串行时钟线(derail clock line,SCL)。在一些实施例中,处理器110可以包含多组I2C总线。处理器110可以通过不同的I2C总线接口分别耦合触摸传感器180K,充电器,闪光灯,摄像头193等。例如:处理器110可以通过I2C接口耦合触摸传感器180K,使处理器110与触摸传感器180K通过I2C总线接口通信,实现电子设备100的触摸功能。
I2S接口可以用于音频通信。在一些实施例中,处理器110可以包含多组I2S总线。处理器110可以通过I2S总线与音频模块170耦合,实现处理器110与音频模块170之间的通信。在一些实施例中,音频模块170可以通过I2S接口向无线通信模块160传递音频信号,实现通过蓝牙耳机接听电话的功能。
PCM接口也可以用于音频通信,将模拟信号抽样,量化和编码。在一些实施例中,音频模块170与无线通信模块160可以通过PCM总线接口耦合。在一些实施例中,音频模块170也可以通过PCM接口向无线通信模块160传递音频信号,实现通过蓝牙耳机接听电话的功能。所述I2S接口和所述PCM接口都可以用于音频通信。
UART接口是一种通用串行数据总线,用于异步通信。该总线可以为双向通信总线。它将要传输的数据在串行通信与并行通信之间转换。在一些实施例中,UART接口通常被用于连接处理器110与无线通信模块160。例如:处理器110通过UART接口与无线通信模块160中的蓝牙模块通信,实现蓝牙功能。在一些实施例中,音频模块170可以通过UART接口向无线通信模块160传递音频信号,实现通过蓝牙耳机播放音乐的功能。
MIPI接口可以被用于连接处理器110与显示屏194,摄像头193等***器件。MIPI接口包括摄像头串行接口(camera serial interface,CSI),显示屏串行接口(displayserial interface,DSI)等。在一些实施例中,处理器110和摄像头193通过CSI接口通信,实现电子设备100的拍摄功能。处理器110和显示屏194通过DSI接口通信,实现电子设备100的显示功能。
GPIO接口可以通过软件配置。GPIO接口可以被配置为控制信号,也可被配置为数据信号。在一些实施例中,GPIO接口可以用于连接处理器110与摄像头193,显示屏194,无线通信模块160,音频模块170,传感器模块180等。GPIO接口还可以被配置为I2C接口,I2S接口,UART接口,MIPI接口等。
USB接口130是符合USB标准规范的接口,具体可以是Mini USB接口,Micro USB接口,USB Type C接口等。USB接口130可以用于连接充电器为电子设备100充电,也可以用于电子设备100与***设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其他电子设备,例如AR设备等。
可以理解的是,本发明实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对电子设备100的结构限定。在本申请另一些实施例中,电子设备100也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
充电管理模块140用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。在一些有线充电的实施例中,充电管理模块140可以通过USB接口130接收有线充电器的充电输入。在一些无线充电的实施例中,充电管理模块140可以通过电子设备100的无线充电线圈接收无线充电输入。充电管理模块140为电池142充电的同时,还可以通过电源管理模块141为电子设备供电。
电源管理模块141用于连接电池142,充电管理模块140与处理器110。电源管理模块141接收电池142和/或充电管理模块140的输入,为处理器110,内部存储器121,显示屏194,摄像头193,和无线通信模块160等供电。电源管理模块141还可以用于监测电池容量,电池循环次数,电池健康状态(漏电,阻抗)等参数。在其他一些实施例中,电源管理模块141也可以设置于处理器110中。在另一些实施例中,电源管理模块141和充电管理模块140也可以设置于同一个器件中。
电子设备100的无线通信功能可以通过天线1,天线2,移动通信模块150,无线通信模块160,调制解调处理器以及基带处理器等实现。
天线1和天线2用于发射和接收电磁波信号。电子设备100中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如:可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。
移动通信模块150可以提供应用在电子设备100上的包括2G/3G/4G/5G等无线通信的解决方案。移动通信模块150可以包括至少一个滤波器,开关,功率放大器,低噪声放大器(low noise amplifier,LNA)等。移动通信模块150可以由天线1接收电磁波,并对接收的电磁波进行滤波,放大等处理,传送至调制解调处理器进行解调。移动通信模块150还可以对经调制解调处理器调制后的信号放大,经天线1转为电磁波辐射出去。在一些实施例中,移动通信模块150的至少部分功能模块可以被设置于处理器110中。在一些实施例中,移动通信模块150的至少部分功能模块可以与处理器110的至少部分模块被设置在同一个器件中。
调制解调处理器可以包括调制器和解调器。其中,调制器用于将待发送的低频基带信号调制成中高频信号。解调器用于将接收的电磁波信号解调为低频基带信号。随后解调器将解调得到的低频基带信号传送至基带处理器处理。低频基带信号经基带处理器处理后,被传递给应用处理器。应用处理器通过音频设备(不限于扬声器170A,受话器170B等)输出声音信号,或通过显示屏194显示图像或视频。在一些实施例中,调制解调处理器可以是独立的器件。在另一些实施例中,调制解调处理器可以独立于处理器110,与移动通信模块150或其他功能模块设置在同一个器件中。
无线通信模块160可以提供应用在电子设备100上的包括无线局域网(wirelesslocal area networks,WLAN)(如无线保真(wireless fidelity,Wi-Fi)网络),蓝牙(bluetooth,BT),全球导航卫星***(global navigation satellite system,GNSS),调频(frequency modulation,FM),近距离无线通信技术(near field communication,NFC),红外技术(infrared,IR)等无线通信的解决方案。无线通信模块160可以是集成至少一个通信处理模块的一个或多个器件。无线通信模块160经由天线2接收电磁波,将电磁波信号调频以及滤波处理,将处理后的信号发送到处理器110。无线通信模块160还可以从处理器110接收待发送的信号,对其进行调频,放大,经天线2转为电磁波辐射出去。
在一些实施例中,电子设备100的天线1和移动通信模块150耦合,天线2和无线通信模块160耦合,使得电子设备100可以通过无线通信技术与网络以及其他设备通信。所述无线通信技术可以包括全球移动通讯***(global system for mobile communications,GSM),通用分组无线服务(general packet radio service,GPRS),码分多址接入(codedivision multiple access,CDMA),宽带码分多址(wideband code division multipleaccess,WCDMA),时分码分多址(time-division code division multiple access,TD-SCDMA),长期演进(long term evolution,LTE),BT,GNSS,WLAN,NFC,FM,和/或IR技术等。所述GNSS可以包括全球卫星定位***(global positioning system,GPS),全球导航卫星***(global navigation satellite system,GLONASS),北斗卫星导航***(beidounavigation satellite system,BDS),准天顶卫星***(quasi-zenith satellitesystem,QZSS)和/或星基增强***(satellite based augmentation systems,SBAS)。
电子设备100通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏194用于显示图像,视频等。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode的,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed,Micro-oLed,量子点发光二极管(quantum dot lightemitting diodes,QLED)等。在一些实施例中,电子设备100可以包括1个或N个显示屏194,N为大于1的正整数。
电子设备100可以通过ISP,摄像头193,视频编解码器,GPU,显示屏194以及应用处理器等实现拍摄功能。
在本申请实施例中,电子设备100在拍摄时,可以在显示屏194上显示实时的被拍摄内容以及该被拍摄内容对应的推荐场景。
ISP用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头193中。
摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,电子设备100可以包括1个或N个摄像头193,N为大于1的正整数。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当电子设备100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
视频编解码器用于对数字视频压缩或解压缩。电子设备100可以支持一种或多种视频编解码器。这样,电子设备100可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)1,MPEG2,MPEG3,MPEG4等。
NPU为神经网络(neural-network,NN)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过NPU可以实现电子设备100的智能认知等应用,例如:图像识别,人脸识别,语音识别,文本理解等。
在本申请实施例中,电子设备100可以将任意连续/不连续的两个单元帧输入到CPU/GPU/NPU中,判断这两个单元帧的数据差距是否大于阈值。
在本申请实施例中,电子设备100可以将任意一个单元帧输入到CPU/NPU/GPU中,计算并确定该单元帧的AI场景识别输出的结果,即确定被拍摄内容的目标场景。
在本申请实施例中,电子设备可以将任意一个单元帧输入到CPU/NPU/GPU中,确定该单元帧中的物体的种类、数量,并计算两个单元帧之间的差距。
内部存储器121可以包括一个或多个随机存取存储器(random access memory,RAM)和一个或多个非易失性存储器(non-volatile memory,NVM)。
随机存取存储器可以包括静态随机存储器(static random-access memory,SRAM)、动态随机存储器(dynamic random access memory,DRAM)、同步动态随机存储器(synchronous dynamic random access memory,SDRAM)、双倍资料率同步动态随机存取存储器(double data rate synchronous dynamic random access memory,DDR SDRAM,例如第五代DDR SDRAM一般称为DDR5 SDRAM)等;
非易失性存储器可以包括磁盘存储器件、快闪存储器(flash memory)。
快闪存储器按照运作原理划分可以包括NOR FLASH、NAND FLASH、3D NAND FLASH等,按照存储单元电位阶数划分可以包括单阶存储单元(single-level cell,SLC)、多阶存储单元(multi-level cell,MLC)、三阶储存单元(triple-level cell,TLC)、四阶储存单元(quad-level cell,QLC)等,按照存储规范划分可以包括通用闪存存储(英文:universalflash storage,UFS)、嵌入式多媒体存储卡(embedded multi media Card,eMMC)等。
随机存取存储器可以由处理器110直接进行读写,可以用于存储操作***或其他正在运行中的程序的可执行程序(例如机器指令),还可以用于存储用户及应用程序的数据等。
非易失性存储器也可以存储可执行程序和存储用户及应用程序的数据等,可以提前加载到随机存取存储器中,用于处理器110直接进行读写。
外部存储器接口120可以用于连接外部的非易失性存储器,实现扩展电子设备100的存储能力。外部的非易失性存储器通过外部存储器接口120与处理器110通信,实现数据存储功能。例如将音乐,视频等文件保存在外部的非易失性存储器中。
电子设备100可以通过音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,以及应用处理器等实现音频功能。例如音乐播放,录音等。
音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一些实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110中。
扬声器170A,也称“喇叭”,用于将音频电信号转换为声音信号。电子设备100可以通过扬声器170A收听音乐,或收听免提通话。
受话器170B,也称“听筒”,用于将音频电信号转换成声音信号。当电子设备100接听电话或语音信息时,可以通过将受话器170B靠近人耳接听语音。
麦克风170C,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息时,用户可以通过人嘴靠近麦克风170C发声,将声音信号输入到麦克风170C。电子设备100可以设置至少一个麦克风170C。在另一些实施例中,电子设备100可以设置两个麦克风170C,除了采集声音信号,还可以实现降噪功能。在另一些实施例中,电子设备100还可以设置三个,四个或更多麦克风170C,实现采集声音信号,降噪,还可以识别声音来源,实现定向录音功能等。
耳机接口170D用于连接有线耳机。耳机接口170D可以是USB接口130,也可以是3.5mm的开放移动电子设备平台(open mobile terminal platform,OMTP)标准接口,美国蜂窝电信工业协会(cellular telecommunications industry association of the USA,CTIA)标准接口。
压力传感器180A用于感受压力信号,可以将压力信号转换成电信号。在一些实施例中,压力传感器180A可以设置于显示屏194。压力传感器180A的种类很多,如电阻式压力传感器,电感式压力传感器,电容式压力传感器等。电容式压力传感器可以是包括至少两个具有导电材料的平行板。当有力作用于压力传感器180A,电极之间的电容改变。电子设备100根据电容的变化确定压力的强度。当有触摸操作作用于显示屏194,电子设备100根据压力传感器180A检测所述触摸操作强度。电子设备100也可以根据压力传感器180A的检测信号计算触摸的位置。在一些实施例中,作用于相同触摸位置,但不同触摸操作强度的触摸操作,可以对应不同的操作指令。例如:当有触摸操作强度小于第一压力阈值的触摸操作作用于短消息应用图标时,执行查看短消息的指令。当有触摸操作强度大于或等于第一压力阈值的触摸操作作用于短消息应用图标时,执行新建短消息的指令。
陀螺仪传感器180B可以用于确定电子设备100的运动姿态。在一些实施例中,可以通过陀螺仪传感器180B确定电子设备100围绕三个轴(即,x,y和z轴)的角速度。陀螺仪传感器180B可以用于拍摄防抖。示例性的,当按下快门,陀螺仪传感器180B检测电子设备100抖动的角度,根据角度计算出镜头模组需要补偿的距离,让镜头通过反向运动抵消电子设备100的抖动,实现防抖。陀螺仪传感器180B还可以用于导航,体感游戏场景。
加速度传感器180E可检测电子设备100在各个方向上(一般为三轴)加速度的大小。当电子设备100静止时可检测出重力的大小及方向。还可以用于识别电子设备姿态,应用于横竖屏切换,计步器等应用。
电子设备100可以基于加速度传感器180E/陀螺仪传感器180B确定电子设备的运动信息,进而基于运动信息确定相机移动距离。气压传感器180C用于测量气压。在一些实施例中,电子设备100通过气压传感器180C测得的气压值计算海拔高度,辅助定位和导航。
磁传感器180D包括霍尔传感器。电子设备100可以利用磁传感器180D检测翻盖皮套的开合。在一些实施例中,当电子设备100是翻盖机时,电子设备100可以根据磁传感器180D检测翻盖的开合。进而根据检测到的皮套的开合状态或翻盖的开合状态,设置翻盖自动解锁等特性。
距离传感器180F,用于测量距离。电子设备100可以通过红外或激光测量距离。在一些实施例中,拍摄场景,电子设备100可以利用距离传感器180F测距以实现快速对焦。
接近光传感器180G可以包括例如发光二极管(LED)和光检测器,例如光电二极管。发光二极管可以是红外发光二极管。电子设备100通过发光二极管向外发射红外光。电子设备100使用光电二极管检测来自附近物体的红外反射光。当检测到充分的反射光时,可以确定电子设备100附近有物体。当检测到不充分的反射光时,电子设备100可以确定电子设备100附近没有物体。电子设备100可以利用接近光传感器180G检测用户手持电子设备100贴近耳朵通话,以便自动熄灭屏幕达到省电的目的。接近光传感器180G也可用于皮套模式,口袋模式自动解锁与锁屏。
环境光传感器180L用于感知环境光亮度。电子设备100可以根据感知的环境光亮度自适应调节显示屏194亮度。环境光传感器180L也可用于拍照时自动调节白平衡。环境光传感器180L还可以与接近光传感器180G配合,检测电子设备100是否在口袋里,以防误触。
指纹传感器180H用于采集指纹。电子设备100可以利用采集的指纹特性实现指纹解锁,访问应用锁,指纹拍照,指纹接听来电等。
温度传感器180J用于检测温度。在一些实施例中,电子设备100利用温度传感器180J检测的温度,执行温度处理策略。例如,当温度传感器180J上报的温度超过阈值,电子设备100执行降低位于温度传感器180J附近的处理器的性能,以便降低功耗实施热保护。在另一些实施例中,当温度低于另一阈值时,电子设备100对电池142加热,以避免低温导致电子设备100异常关机。在其他一些实施例中,当温度低于又一阈值时,电子设备100对电池142的输出电压执行升压,以避免低温导致的异常关机。
触摸传感器180K,也称“触控器件”。触摸传感器180K可以设置于显示屏194,由触摸传感器180K与显示屏194组成触摸屏,也称“触控屏”。触摸传感器180K用于检测作用于其上或附近的触摸操作。触摸传感器可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏194提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器180K也可以设置于电子设备100的表面,与显示屏194所处的位置不同。
骨传导传感器180M可以获取振动信号。在一些实施例中,骨传导传感器180M可以获取人体声部振动骨块的振动信号。骨传导传感器180M也可以接触人体脉搏,接收血压跳动信号。在一些实施例中,骨传导传感器180M也可以设置于耳机中,结合成骨传导耳机。音频模块170可以基于所述骨传导传感器180M获取的声部振动骨块的振动信号,解析出语音信号,实现语音功能。应用处理器可以基于所述骨传导传感器180M获取的血压跳动信号解析心率信息,实现心率检测功能。
按键190包括开机键,音量键等。按键190可以是机械按键。也可以是触摸式按键。电子设备100可以接收按键输入,产生与电子设备100的用户设置以及功能控制有关的键信号输入。
马达191可以产生振动提示。马达191可以用于来电振动提示,也可以用于触摸振动反馈。例如,作用于不同应用(例如拍照,音频播放等)的触摸操作,可以对应不同的振动反馈效果。作用于显示屏194不同区域的触摸操作,马达191也可对应不同的振动反馈效果。不同的应用场景(例如:时间提醒,接收信息,闹钟,游戏等)也可以对应不同的振动反馈效果。触摸振动反馈效果还可以支持自定义。
指示器192可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。
SIM卡接口195用于连接SIM卡。SIM卡可以通过***SIM卡接口195,或从SIM卡接口195拔出,实现和电子设备100的接触和分离。电子设备100可以支持1个或N个SIM卡接口,N为大于1的正整数。SIM卡接口195可以支持Nano SIM卡,Micro SIM卡,SIM卡等。同一个SIM卡接口195可以同时***多张卡。所述多张卡的类型可以相同,也可以不同。SIM卡接口195也可以兼容不同类型的SIM卡。SIM卡接口195也可以兼容外部存储卡。电子设备100通过SIM卡和网络交互,实现通话以及数据通信等功能。在一些实施例中,电子设备100采用eSIM,即:嵌入式SIM卡。eSIM卡可以嵌在电子设备100中,不能和电子设备100分离。
电子设备100的软件***可以采用分层架构,事件驱动架构,微核架构,微服务架构,或云架构。本发明实施例以分层架构的Android***为例,示例性说明电子设备100的软件结构。
图14为本申请实施例提供的电子设备100的软件结构的一个示例性示意图。
分层架构将软件分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,将Android***分为四层,从上至下分别为应用程序层,应用程序框架层,安卓运行时(Android runtime)和***库,以及内核层。
应用程序层可以包括一系列应用程序包。
如图14所示,应用程序包可以包括相机,图库,日历,通话,地图,导航,WLAN,蓝牙,音乐,视频,短信息等应用程序。
应用程序框架层为应用程序层的应用程序提供应用编程接口(applicationprogramming interface,API)和编程框架。应用程序框架层包括一些预先定义的函数。
如图14所示,应用程序框架层可以包括窗口管理器,内容提供器,视图***,电话管理器,资源管理器,通知管理器等。
窗口管理器用于管理窗口程序。窗口管理器可以获取显示屏大小,判断是否有状态栏,锁定屏幕,截取屏幕等。
内容提供器用来存放和获取数据,并使这些数据可以被应用程序访问。所述数据可以包括视频,图像,音频,拨打和接听的电话,浏览历史和书签,电话簿等。
视图***包括可视控件,例如显示文字的控件,显示图片的控件等。视图***可用于构建应用程序。显示界面可以由一个或多个视图组成的。例如,包括短信通知图标的显示界面,可以包括显示文字的视图以及显示图片的视图。
电话管理器用于提供电子设备100的通信功能。例如通话状态的管理(包括接通,挂断等)。
资源管理器为应用程序提供各种资源,比如本地化字符串,图标,图片,布局文件,视频文件等等。
通知管理器使应用程序可以在状态栏中显示通知信息,可以用于传达告知类型的消息,可以短暂停留后自动消失,无需用户交互。比如通知管理器被用于告知下载完成,消息提醒等。通知管理器还可以是以图表或者滚动条文本形式出现在***顶部状态栏的通知,例如后台运行的应用程序的通知,还可以是以对话窗口形式出现在屏幕上的通知。例如在状态栏提示文本信息,发出提示音,电子设备振动,指示灯闪烁等。
Android Runtime包括核心库和虚拟机。Android runtime负责安卓***的调度和管理。
核心库包含两部分:一部分是java语言需要调用的功能函数,另一部分是安卓的核心库。
应用程序层和应用程序框架层运行在虚拟机中。虚拟机将应用程序层和应用程序框架层的java文件执行为二进制文件。虚拟机用于执行对象生命周期的管理,堆栈管理,线程管理,安全和异常的管理,以及垃圾回收等功能。
***库可以包括多个功能模块。例如:表面管理器(surface manager),媒体库(Media Libraries),三维图形处理库(例如:OpenGL ES),2D图形引擎(例如:SGL)等。
表面管理器用于对显示子***进行管理,并且为多个应用程序提供了2D和3D图层的融合。
媒体库支持多种常用的音频,视频格式回放和录制,以及静态图像文件等。媒体库可以支持多种音视频编码格式,例如:MPEG4,H.264,MP3,AAC,AMR,JPG,PNG等。
三维图形处理库用于实现三维图形绘图,图像渲染,合成,和图层处理等。
2D图形引擎是2D绘图的绘图引擎。
内核层是硬件和软件之间的层。内核层至少包含显示驱动,摄像头驱动,音频驱动,传感器驱动。
本申请实施例提供的场景推荐方法可以位于***库或应用程序框架层的视图***中,其对外暴露接口,可以被应用程序层的应用程序所调用。应用程序通过该接口可以确定任意图像的推荐场景。其中,该图像可以来自摄像头驱动的实时的画面流数据,或者也可以来自己与电子设备内部存储的非实时的图像文件。
上述实施例中所用,根据上下文,术语“当…时”可以被解释为意思是“如果…”或“在…后”或“响应于确定…”或“响应于检测到…”。类似地,根据上下文,短语“在确定…时”或“如果检测到(所陈述的条件或事件)”可以被解释为意思是“如果确定…”或“响应于确定…”或“在检测到(所陈述的条件或事件)时”或“响应于检测到(所陈述的条件或事件)”。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。该计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行该计算机程序指令时,全部或部分地产生按照本申请实施例该的流程或功能。该计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。该计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,该计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线)或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。该计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。该可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如DVD)、或者半导体介质(例如固态硬盘)等。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,该流程可以由计算机程序来指令相关的硬件完成,该程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法实施例的流程。而前述的存储介质包括:ROM或随机存储记忆体RAM、磁碟或者光盘等各种可存储程序代码的介质。
Claims (14)
1.一种确定推荐场景的方法,其特征在于,包括:
在第一时刻,电子设备显示第一界面,所述第一界面包括预览框和第一标记,所述预览框显示所述电子设备的摄像头实时采集的第一图像,所述第一标记用于标识与所述第一图像对应的场景;
在第二时刻,所述电子设备显示第二界面,所述第二界面包括所述预览框和第二标记,所述预览框显示所述电子设备的摄像头实时采集的第二图像,所述第二标记用于标识与所述第二图像对应的场景,所述第二图像与所述第一图像不同,所述第二时刻与所述第一时刻不同;
若所述电子设备满足第一预设条件,所述第二标记与所述第一标记相同;
若所述电子设备不满足所述第一预设条件,所述第二标记与所述第二图像对应的场景相同。
2.根据权利要求1所述的方法,其特征在于,所述第一预设条件为:所述电子设备确定所述第一图像与所述第二图像之间的差距小于等于第一预设阈值。
3.根据权利要求2的方法,其特征在于,所述电子设备确定所述第一图像与所述第二图像之间的差距小于等于第一预设阈值,具体包括:
所述电子设备确定所述第一图像中的物体的种类、数量与所述第二图像中的物体的种类和/或数量的差距小于等于所述第一预设阈值;
或者,所述电子设备确定所述第一图像的数据矩阵与所述第二图像的数据矩阵的距离小于等于所述第一预设阈值。
4.根据权利要求1所述的方法,其特征在于,
在所述第一时刻,所述电子设备处于第一地理位置,所述第一地理位置用于标识所述电子设备所在的实时地理位置;
在所述第二时刻,所述电子设备处于第二地理位置,所述第二地理位置用于标识所述电子设备所在的实时地理位置;
所述第一预设条件为:所述第一地理位置与所述第二地理位置之间的距离小于等于第二预设阈值。
5.根据权利要求1所述的方法,其特征在于,
在所述第一时刻,所述电子设备处于第一姿态,所述第一姿态包括所述电子设备在所述第一时刻的方位角和俯仰角;
在所述第二时刻,所述电子设备处于第二姿态,所述第二姿态包括所述电子设备在所述第二时刻的方位角和俯仰角;
所述第一预设条件为:
第一时刻所述电子设备的方位角与第二时刻所述电子设备的方位角的差距小于等于阈值并且第一时刻所述电子设备的俯仰角与第二时刻所述电子设备的俯仰角差距小于等于阈值;
或者,第一时刻所述电子设备的方位角与第二时刻所述电子设备的方位角的差距与第一时刻所述电子设备的俯仰角与第二时刻所述电子设备的俯仰角的差距的乘积小于阈值。
6.根据权利要求1至5中任一项所述的方法,其特征在于,在第二时刻,电子设备显示第二界面,所述第二界面包括所述预览框和第二标记之前,还包括:
所述电子设备确定所述第二图像对应的目标场景;
所述第二图像对应的目标场景与所述第一图像对应的目标场景不同。
7.根据权利要求1至5中任一项的方法,其特征在于,在第二时刻,电子设备显示第二界面,所述第二界面包括所述预览框和第二标记之前,还包括:
所述电子设备确定第二图像没有对应的目标场景。
8.根据权利要求1至5中任一项所述的方法,其特征在于,所述方法还包括:
若所述电子设备不满足所述第一预设条件,所述第二标记与所述第一标记不同。
9.根据权利要求1至5中任一项所述的方法,其特征在于,所述方法还包括:
在所述第二时刻前,所述电子设备采集到的多个图像的对应目标场景相同,并且所述电子设备不满足所述第一预设条件,所述第二标记与所述第一标记不同。
10.根据权利要求1至5中任一项的方法,其特征在于,所述方法还包括:
若所述电子设备不满足所述第一预设条件,并且所述电子设备确定所述第二图像没有对应的目标场景,所述电子设备不显示/隐藏第二标记。
11.根据权利要求1至5中任一项的方法,其特征在于,所述方法还包括:
在所述第二时刻前,所述电子设备采集到的多个图像没有对应的目标场景,并且所述电子设备不满足所述第一预设条件,所述电子设备不显示/隐藏第二标记。
12.一种电子设备,其特征在于,所述电子设备包括:一个或多个处理器和存储器;
所述存储器与所述一个或多个处理器耦合,所述存储器用于存储计算机程序代码,所述计算机程序代码包括计算机指令,所述一个或多个处理器调用所述计算机指令以使得所述电子设备执行如权利要求1至11中任一项所述的方法。
13.一种芯片***,所述芯片***应用于电子设备,所述芯片***包括一个或多个处理器,所述处理器用于调用计算机指令以使得所述电子设备执行如权利要求1至11中任一项所述的方法。
14.一种计算机可读存储介质,包括指令,其特征在于,当所述指令在电子设备上运行时,使得所述电子设备执行如权利要求1至11中任一项所述的方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110701779.XA CN113489895B (zh) | 2021-06-23 | 2021-06-23 | 确定推荐场景的方法及电子设备 |
US18/010,316 US20240193945A1 (en) | 2021-06-23 | 2022-05-19 | Method for determining recommended scenario and electronic device |
EP22808570.0A EP4175285A4 (en) | 2021-06-23 | 2022-05-19 | METHOD FOR DETERMINING A RECOMMENDED SCENE, AND ELECTRONIC DEVICE |
PCT/CN2022/093974 WO2022267783A1 (zh) | 2021-06-23 | 2022-05-19 | 确定推荐场景的方法及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110701779.XA CN113489895B (zh) | 2021-06-23 | 2021-06-23 | 确定推荐场景的方法及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113489895A CN113489895A (zh) | 2021-10-08 |
CN113489895B true CN113489895B (zh) | 2022-05-31 |
Family
ID=77937568
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110701779.XA Active CN113489895B (zh) | 2021-06-23 | 2021-06-23 | 确定推荐场景的方法及电子设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20240193945A1 (zh) |
EP (1) | EP4175285A4 (zh) |
CN (1) | CN113489895B (zh) |
WO (1) | WO2022267783A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113489895B (zh) * | 2021-06-23 | 2022-05-31 | 荣耀终端有限公司 | 确定推荐场景的方法及电子设备 |
CN115967837A (zh) * | 2021-10-11 | 2023-04-14 | 广州视源电子科技股份有限公司 | 基于网课视频进行内容互动的方法、装置、设备和介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109495688A (zh) * | 2018-12-26 | 2019-03-19 | 华为技术有限公司 | 电子设备的拍照预览方法、图形用户界面及电子设备 |
CN111246296A (zh) * | 2020-01-17 | 2020-06-05 | 北京市商汤科技开发有限公司 | 数据推送方法、装置、电子设备和计算机存储介质 |
CN112199582A (zh) * | 2020-09-21 | 2021-01-08 | 聚好看科技股份有限公司 | 一种内容推荐方法、装置、设备及介质 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2148499B1 (en) * | 2008-07-25 | 2018-01-17 | FUJIFILM Corporation | Imaging apparatus and method |
US20100304720A1 (en) * | 2009-05-27 | 2010-12-02 | Nokia Corporation | Method and apparatus for guiding media capture |
KR101594295B1 (ko) * | 2009-07-07 | 2016-02-16 | 삼성전자주식회사 | 촬영 장치 및 촬영 방법 |
US9398211B2 (en) * | 2010-09-23 | 2016-07-19 | Intel Corporation | Multi-device alignment for collaborative media capture |
US9143679B2 (en) * | 2012-01-26 | 2015-09-22 | Canon Kabushiki Kaisha | Electronic apparatus, electronic apparatus control method, and storage medium |
JP6924901B2 (ja) * | 2017-10-14 | 2021-08-25 | 華為技術有限公司Huawei Technologies Co.,Ltd. | 写真撮影方法および電子装置 |
KR102661983B1 (ko) * | 2018-08-08 | 2024-05-02 | 삼성전자주식회사 | 이미지의 인식된 장면에 기반하여 이미지를 처리하는 방법 및 이를 위한 전자 장치 |
CN111783524B (zh) * | 2020-05-19 | 2023-10-17 | 普联国际有限公司 | 一种场景变换检测方法、装置、存储介质及终端设备 |
CN112887610A (zh) * | 2021-01-27 | 2021-06-01 | 维沃移动通信有限公司 | 拍摄方法、装置、电子设备及存储介质 |
CN113489895B (zh) * | 2021-06-23 | 2022-05-31 | 荣耀终端有限公司 | 确定推荐场景的方法及电子设备 |
-
2021
- 2021-06-23 CN CN202110701779.XA patent/CN113489895B/zh active Active
-
2022
- 2022-05-19 US US18/010,316 patent/US20240193945A1/en active Pending
- 2022-05-19 WO PCT/CN2022/093974 patent/WO2022267783A1/zh active Application Filing
- 2022-05-19 EP EP22808570.0A patent/EP4175285A4/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109495688A (zh) * | 2018-12-26 | 2019-03-19 | 华为技术有限公司 | 电子设备的拍照预览方法、图形用户界面及电子设备 |
CN111246296A (zh) * | 2020-01-17 | 2020-06-05 | 北京市商汤科技开发有限公司 | 数据推送方法、装置、电子设备和计算机存储介质 |
CN112199582A (zh) * | 2020-09-21 | 2021-01-08 | 聚好看科技股份有限公司 | 一种内容推荐方法、装置、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113489895A (zh) | 2021-10-08 |
EP4175285A4 (en) | 2023-11-29 |
EP4175285A1 (en) | 2023-05-03 |
WO2022267783A1 (zh) | 2022-12-29 |
US20240193945A1 (en) | 2024-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113794800B (zh) | 一种语音控制方法及电子设备 | |
CN109814766B (zh) | 一种应用显示方法及电子设备 | |
CN113704014B (zh) | 日志获取***、方法、电子设备及存储介质 | |
CN109559270B (zh) | 一种图像处理方法及电子设备 | |
WO2021104485A1 (zh) | 一种拍摄方法及电子设备 | |
CN113132620A (zh) | 一种图像拍摄方法及相关装置 | |
CN113475057A (zh) | 一种录像帧率的控制方法及相关装置 | |
CN114650363A (zh) | 一种图像显示的方法及电子设备 | |
WO2022267783A1 (zh) | 确定推荐场景的方法及电子设备 | |
WO2022156473A1 (zh) | 一种播放视频的方法及电子设备 | |
CN113556466A (zh) | 一种对焦方法和电子设备 | |
CN111103922A (zh) | 摄像头、电子设备和身份验证方法 | |
CN113170037A (zh) | 一种拍摄长曝光图像的方法和电子设备 | |
CN115484380A (zh) | 拍摄方法、图形用户界面及电子设备 | |
CN114461057A (zh) | Vr显示控制方法、电子设备及计算机可读存储介质 | |
CN114140365A (zh) | 基于事件帧的特征点匹配方法及电子设备 | |
WO2022105702A1 (zh) | 保存图像的方法及电子设备 | |
CN114979457B (zh) | 一种图像处理方法及相关装置 | |
CN115150542B (zh) | 一种视频防抖方法及相关设备 | |
CN113986369A (zh) | 物联网设备控制方法、***、电子设备及存储介质 | |
CN115032640B (zh) | 手势识别方法和终端设备 | |
CN114283195B (zh) | 生成动态图像的方法、电子设备及可读存储介质 | |
CN114079725B (zh) | 视频防抖方法、终端设备和计算机可读存储介质 | |
CN115482143A (zh) | 应用的图像数据调用方法、***、电子设备及存储介质 | |
CN115706916A (zh) | 一种基于位置信息的Wi-Fi连接方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |