CN110162258A - 个性化场景图像的处理方法及装置 - Google Patents
个性化场景图像的处理方法及装置 Download PDFInfo
- Publication number
- CN110162258A CN110162258A CN201810717653.XA CN201810717653A CN110162258A CN 110162258 A CN110162258 A CN 110162258A CN 201810717653 A CN201810717653 A CN 201810717653A CN 110162258 A CN110162258 A CN 110162258A
- Authority
- CN
- China
- Prior art keywords
- terminal device
- scene image
- touch event
- model
- track
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 24
- 238000012545 processing Methods 0.000 title claims abstract description 21
- 238000000034 method Methods 0.000 claims description 26
- 239000000463 material Substances 0.000 claims description 20
- 238000010276 construction Methods 0.000 claims description 9
- 230000000007 visual effect Effects 0.000 claims description 8
- 238000010030 laminating Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 3
- 238000013461 design Methods 0.000 abstract description 6
- 238000010586 diagram Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 12
- 230000000694 effects Effects 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 230000003190 augmentative effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 239000007787 solid Substances 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000000712 assembly Effects 0.000 description 2
- 238000000429 assembly Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 239000011800 void material Substances 0.000 description 2
- 206010034719 Personality change Diseases 0.000 description 1
- 241001422033 Thestylus Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 208000001491 myopia Diseases 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2021—Shape modification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2024—Style variation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Architecture (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明揭示了一种个性化场景图像的处理方法及装置、电子设备、计算机可读存储介质,所述方法包括:根据在终端设备屏幕区域内触发的触控事件,获取屏幕区域内的触控事件轨迹;根据触控事件轨迹在空间坐标系中的投射,生成虚拟模型;按照终端设备在空间坐标系中的位姿,重构虚拟模型在终端设备视场范围内映射的模型视图;将模型视图与终端设备在位姿下采集的场景图像进行叠加,获得个性化场景图像。本发明提供的技术方案,虚拟模型不再是预先配置好的,可以根据用户自定义绘制的图形,形成自定义的虚拟模型,从而节省了下载虚拟模型的流量以及存储虚拟模型的空间,降低了设计虚拟模型的人力成本,丰富了虚拟模型的种类。
Description
技术领域
本发明涉及图像处理技术领域,特别涉及一种个性化场景图像的处理方法及装置、电子设备、计算机可读存储介质。
背景技术
增强现实(Augmented Reality,简称AR)是近年来国外众多知名大学和研究机构的研究热点之一。AR技术是近年来发展起来的新兴技术,是一种实时计算摄影机影像的位置以及角度并加上相应图像、视频、3D模型的技术,其核心是将虚拟内容和真实存在的内容进行实时融合,形成虚拟、现实之间的互动,从而创造出全新的体验。
目前可以采集短视频的软件APP(应用程序),多数基于ARkit(增强现实工具)的能力,以动漫、宠物等为原型进行复杂的3D建模,将虚拟模型投射在真实空间的某一平面上,如桌面、地面等,将拍摄的现实场景与空间中投射的虚拟模型进行融合,形成个性化视频。
很显然,现有技术中虚拟模型均是预先配置好的,用户只能在预先配置的虚拟模型中进行选择,由此可供用户选择的虚拟模型种类有限。如果增加配置的虚拟模型种类,则会增大软件APP的占用空间,以及下载软件APP的流量成本,更加增加了虚拟模型设计的人力成本。
发明内容
为了解决相关技术中存在的软件APP占用空间较大,下载流量成本高的问题,本发明提供了一种个性化场景图像的处理方法。
一方面,本发明提供了一种个性化场景图像的处理方法,包括:
根据在终端设备屏幕区域内触发的触控事件,获取所述屏幕区域内的触控事件轨迹;
根据所述触控事件轨迹在空间坐标系中的投射,生成虚拟模型;
按照所述终端设备在空间坐标系中的位姿,重构所述虚拟模型在所述终端设备视场范围内映射的模型视图;
将所述模型视图与所述终端设备在所述位姿下采集的场景图像进行叠加,获得个性化场景图像。
另一方面,本发明提供了一种个性化场景图像的处理装置,所述装置包括:
轨迹获取模块,用于根据在终端设备屏幕区域内触发的触控事件,获取所述屏幕区域内的触控事件轨迹;
模型构建模块,用于根据所述触控事件轨迹在空间坐标系中的投射,生成虚拟模型;
视图重构模块,用于按照所述终端设备在空间坐标系中的位姿,重构所述虚拟模型在所述终端设备视场范围内映射的模型视图;
场景叠加模块,用于将所述模型视图与所述终端设备在所述位姿下采集的场景图像进行叠加,获得个性化场景图像。
进一步的,本发明还提供了一种电子设备,所述电子设备包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行上述个性化场景图像的处理方法。
进一步的,本发明还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序可由处理器执行完成上述个性化场景图像的处理方法。
本发明的实施例提供的技术方案可以包括以下有益效果:
本发明提供的技术方案,根据触发的触控事件轨迹,将触控事件轨迹投射到空间坐标系中构建虚拟模型,进而在终端设备移动过程中,按照终端设备实时的位姿,可以将该位姿下捕捉的模型视图和场景图像进行叠加,形成个性化场景图像。由此,本发明虚拟模型不再是预先配置好的,可以根据用户自定义绘制的图形,形成自定义的虚拟模型,从而节省了下载虚拟模型的流量以及存储虚拟模型的空间,降低了设计虚拟模型的人力成本,丰富了虚拟模型的种类。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并于说明书一起用于解释本发明的原理。
图1是根据本发明所涉及的实施环境的示意图;
图2是根据一示例性实施例示出的一种装置的框图;
图3是根据一示例性实施例示出的一种个性化场景图像的处理方法的流程图;
图4是现有技术对3D模型进行显示的效果图;
图5是在图3对应实施例的基础上示出的一种个性化场景图像的处理方法的流程图;
图6是三种轨迹素材样式的显示效果示意图;
图7是图3对应实施例中步骤310的细节流程图;
图8是本发明示例性实施例示出的显示界面切换的效果示意图;
图9是本发明示例性实施例示出的进行画笔切换的显示效果图。
图10是图3对应实施例中步骤330的细节流程图;
图11是图3对应实施例中步骤350的细节流程图;
图12是ARKit框架的架构示意图;
图13是基于ARkit框架实现本发明的流程示意图;
图14是根据一示例性实施例示出的一种个性化场景图像的处理装置的框图;
图15是图14对应实施例中轨迹获取模块的细节框图;
图16是图14对应实施例中模型构建模块的细节框图;
图17是图14对应实施例中视图重构模块的细节框图。
具体实施方式
这里将详细地对示例性实施例执行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
图1是根据本发明所涉及的实施环境的示意图。该实施环境包括:带有摄像头111的终端设备110,终端设备110中安装有软件客户端112,终端设备110通过运行该软件客户端112,从而可以采用本发明提供的个性化场景图像的处理方法,调用摄像头采集场景图像并在场景图像上叠加自定义的虚拟模型。
图2是根据一示例性实施例示出的一种装置200的框图。例如,装置200可以是图1所示实施环境中的终端设备110。终端设备110可以是移动终端如智能手机、平板电脑等;终端设备110还可以是智能家居设备,如智能摄像头等。
参照图2,装置200可以包括以下一个或多个组件:处理组件202,存储器204,电源组件206,多媒体组件208,音频组件210,传感器组件214以及通信组件216。
处理组件202通常控制装置200的整体操作,诸如与显示,电话呼叫,数据通信,相机操作以及记录操作相关联的操作等。处理组件202可以包括一个或多个处理器218来执行指令,以完成下述的方法的全部或部分步骤。此外,处理组件202可以包括一个或多个模块,便于处理组件202和其他组件之间的交互。例如,处理组件202可以包括多媒体模块,以方便多媒体组件208和处理组件202之间的交互。
存储器204被配置为存储各种类型的数据以支持在装置200的操作。这些数据的示例包括用于在装置200上操作的任何应用程序或方法的指令。存储器204可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(Static RandomAccess Memory,简称SRAM),电可擦除可编程只读存储器(Electrically ErasableProgrammable Read-Only Memory,简称EEPROM),可擦除可编程只读存储器(ErasableProgrammable Read OnlyMemory,简称EPROM),可编程只读存储器(Programmable Red-Only Memory,简称PROM),只读存储器(Read-Only Memory,简称ROM),磁存储器,快闪存储器,磁盘或光盘。存储器204中还存储有一个或多个模块,该一个或多个模块被配置成由该一个或多个处理器218执行,以完成下述图3、图7、图10、图11任一所示方法中的全部或者部分步骤。
电源组件206为装置200的各种组件提供电力。电源组件206可以包括电源管理***,一个或多个电源,及其他与为装置200生成、管理和分配电力相关联的组件。
多媒体组件208包括在所述装置200和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(Liquid Crystal Display,简称LCD)和触摸面板。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。屏幕还可以包括有机电致发光显示器(Organic Light Emitting Display,简称OLED)。
音频组件210被配置为输出和/或输入音频信号。例如,音频组件210包括一个麦克风(Microphone,简称MIC),当装置200处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器204或经由通信组件216发送。在一些实施例中,音频组件210还包括一个扬声器,用于输出音频信号。
传感器组件214包括一个或多个传感器,用于为装置200提供各个方面的状态评估。例如,传感器组件214可以检测到装置200的打开/关闭状态,组件的相对定位,传感器组件214还可以检测装置200或装置200一个组件的位置改变以及装置200的温度变化。在一些实施例中,该传感器组件214还可以包括磁传感器,压力传感器或温度传感器。
通信组件216被配置为便于装置200和其他设备之间有线或无线方式的通信。装置200可以接入基于通信标准的无线网络,如WiFi(WIreless-Fidelity,无线保真)。在一个示例性实施例中,通信组件216经由广播信道接收来自外部广播管理***的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件216还包括近场通信(Near FieldCommunication,简称NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RadioFrequency Identification,简称RFID)技术,红外数据协会(Infrared DataAssociation,简称IrDA)技术,超宽带(Ultra Wideband,简称UWB)技术,蓝牙技术和其他技术来实现。
在示例性实施例中,装置200可以被一个或多个应用专用集成电路(ApplicationSpecific Integrated Circuit,简称ASIC)、数字信号处理器、数字信号处理设备、可编程逻辑器件、现场可编程门阵列、控制器、微控制器、微处理器或其他电子元件实现,用于执行下述方法。
图3是根据一示例性实施例示出的一种个性化场景图像的处理方法的流程图。该种个性化场景图像的处理方法可以由图1所示实施环境中的终端设备110执行,也可以理解为是由终端设备110所运行的软件客户端112执行,例如,短视频类软件APP。在下述方法实施例中,为了便于描述,以各步骤的执行主体为软件客户端112加以说明,但对此不构成限定。如图3所示,该方法可以由软件客户端112执行,可以包括以下步骤。
在步骤310中,根据在终端设备屏幕区域内触发的触控事件,获取所述屏幕区域内的触控事件轨迹。
其中,终端设备可以是具有图像采集功能的移动终端,如智能手机或平板电脑,还可以是其他具有图像采集功能的智能设备,如智能摄像头。屏幕区域是指在终端设备的显示界面中,可以通过触控绘制图案的区域。用户可以在终端设备的屏幕区域内通过手指或触控笔绘制图案。触控事件是指用户在屏幕区域内通过手指或触控笔接触屏幕产生的事件。触控事件轨迹是手指或触控笔在屏幕区域内触控的轨迹,包含触控事件的触发位置。软件客户端接收终端设备屏幕区域内触发的触控事件,随着触控事件触发位置的连续变化形成触控事件轨迹。
在步骤330中,根据所述触控事件轨迹在空间坐标系中的投射,生成虚拟模型。
其中,空间坐标系是一种绝对坐标系,可以是世界坐标系(以空间中一点为原点),所有物体在空间坐标系中具有相应的位置坐标,由此终端设备在空间坐标系中也有对应的位置坐标。其中,触控事件轨迹的投射是指依据世界坐标系、相机坐标系、图像坐标系以及像素坐标系之间的转换规则,将终端设备显示界面中像素点位置(u,v)转换成空间坐标系中对应位置(x,y,z为预设常数)。即将显示界面中屏幕区域内触控事件触发的像素点位置映射得到空间坐标系中的位置点,由此触控事件轨迹可以在空间坐标系中映射得到一个或多个位置点。生成虚拟模型是指在空间坐标系中映射得到的位置点处形成三维立体图形。
在步骤350中,按照所述终端设备在空间坐标系中的位姿,重构所述虚拟模型在所述终端设备视场范围内映射的模型视图。
需要说明的是,终端设备自带陀螺仪、加速度传感器,可以实时采集终端设备的位姿变化。位姿包括终端设备的朝向以及在空间坐标系中的位置。终端设备根据自身在空间坐标系中实时的位置和朝向,依据世界坐标系、相机坐标系、图像坐标系以及像素坐标系之间的转换规则,将空间坐标系(即世界坐标系)中虚拟模型的位置点映射得到在终端设备显示界面中的像素点位置。将虚拟模型在终端设备映射的像素点位置填充对应像素值,得到模型视图。需要解释的是,模型视图可以看成是终端设备在当前位姿下,通过自身配置的摄像头对虚拟模型进行图像采集所获得的画面,其中除虚拟模型以外的区域可以看成是透明的。
在步骤370中,将模型视图与终端设备在位姿下采集的场景图像进行叠加,获得个性化场景图像。
其中,场景图像是指终端设备自身配置的摄像头采集的真实世界的图像。终端设备在移动过程中,将当前位姿下重构的模型视图与当前位姿下摄像头采集的场景图像进行叠加。叠加方式可以是以场景图像为背景,将模型视图覆盖在场景图像之上,由此虚拟模型可以看成是固定在现实世界中的一个物体,在对现实世界进行图像采集时,同时捕捉到了构建的虚拟模型。个性化场景图像是指在真实采集的场景图像上叠加了模型视图。
需要说明的是,现有技术中,虚拟模型是事先配置好存储在终端设备中的,下载和存储大量的虚拟模型,占用较大的空间和下载流量;并且大量虚拟模型的构建需要较多的人力成本;进一步的,可供用户选择的虚拟模型种类有限,由此不能满足所有用户的需求。如图4所示,现有技术以动漫、宠物为原型进行3D建模,一个复杂物体的3D模型构建需要大量的人力物力,且模型较为单一,在用户使用过程中,互动性较差。
本发明上述示例性实施例提供的技术方案,根据触发的触控事件轨迹,将触控事件轨迹投射到空间坐标系中构建虚拟模型,进而在终端设备移动过程中,按照终端设备实时的位姿,可以将该位姿下捕捉的模型视图和场景图像进行叠加,形成个性化场景图像。由此,本发明虚拟模型不再是预先配置好的,可以根据用户自定义绘制的图形,形成自定义虚拟模型,从而节省了下载虚拟模型的流量以及存储虚拟模型的空间,降低了设计虚拟模型的人力成本,丰富了虚拟模型的种类。
在一种示例性实施例中,如图5所示,在上述步骤310之前,本发明提供的个性化场景图像的处理方法还包括以下步骤:
在步骤301中,根据接收到的轨迹绘制请求,展示多种轨迹素材样式;
具体的,软件客户端在终端设备显示界面中展示虚拟模型绘制按钮,接收用户触发虚拟模型绘制按钮的轨迹绘制请求,进而响应用户触发进行的虚拟模型绘制请求,获取待选择的多种轨迹素材样式,将每种轨迹素材样式所对应的图标进行展示。其中,轨迹素材样式用于指示用户通过触控所绘制虚拟模型的画笔样式。
在步骤302中,根据对多种轨迹素材样式触发进行的选择,获得目标轨迹样式;虚拟模型按照目标轨迹样式进行配置。
用户可以从展示的多种轨迹素材样式中触发选择其中一种样式。其中,目标轨迹样式是指多种轨迹素材样式中用户选择的样式。软件客户端在展示多种轨迹素材样式的图标后,接收用户点击其中一张图标的触发指令。软件客户端根据触发指令指示的用户对多种轨迹素材样式触发进行的选择,获得用户所选择的目标轨迹样式。进而后续虚拟模型可以按照目标轨迹样式所配置的画笔样式生成。如图6所示,是三种轨迹素材样式的效果示意图。
在一种示例性实施例中,如图7所示,上述步骤310具体包括:
在步骤311中,启动终端设备的图像采集装置,采集当前场景图像;
具体的,图像采集装置是指终端设备自身配置的相机。当前场景图像是指当前时刻终端设备的相机采集的真实场景的图像。软件客户端在接收到用户触发选择目标轨迹样式的触发指令后,调用终端设备的相机采集真实场景的图像。
在步骤312中,接收所述当前场景图像显示界面内触发的触控事件,记录所述触控事件的触发位置,所述触控事件的触发位置构成所述触控事件轨迹。
软件客户端在终端设备的显示界面中进行当前场景图像的显示,接收当前场景图像显示界面内触发的触控事件,并记录触控事件的触发位置,一个或多个触发位置的连线构成触控事件轨迹。
图8是本发明示例性实施例示出的显示界面切换的效果示意图。
如图8所示,终端设备打开软件客户端,软件客户端接收到用户点击“拍摄”按钮的指令,进入前置摄像头拍摄界面810。
软件客户端接收到用户点击“魔法”按钮801的指令,在显示界面展示“魔法”按钮对应的操作面板802。软件客户端接收到用户点击操作面板802中“神奇画笔”按钮803的指令,进入神奇画笔选择界面820,神奇画笔选择界面820中展示了多种轨迹素材样式(即画笔种类),例如“钱多多”、“smoke”、“炫彩画笔”等多种画笔种类,用户可以选择任意画笔种类,并向用户展示“在立体空间中画画”的提示,引导用户创作。
软件客户端接收到用户选择任意一种画笔种类的指令后,可以接收屏幕上触发的触控事件,获得触控事件轨迹,触控事件轨迹在空间中投射生成立体图形。该立体图形基于空间固定。用户调整终端设备摄像头的位置和角度,从而在终端设备显示界面中展示立体图形在不同角度下的画面(参见界面830和840)。
在一种实施例中,如图9所示,用户可以在空间中配合采集的场景图像自由绘制,参见界面910。由于多种画笔不可同时使用,当用户切换画笔时,可以提示用户清空当前创作的轨迹图案,参见界面920。
在上述示例性实施例的基础上,如图10所示,上述步骤330具体包括:
在步骤331中,根据所述终端设备在空间坐标系中的位姿,将所述触控事件轨迹投射到所述终端设备视场方向上距离当前位置预设距离的一个平面;
其中,触控事件发生时是指用户手指或触控笔接触屏幕时。终端设备的视场方向是指终端设备自身配置的摄像头进行图像采集的方向。位姿包括位置和姿态数据,位置用于表征终端设备中摄像头在空间坐标系中的位置。姿态用于表征终端设备中摄像头的采集方向。
具体的,在触控事件发生时,软件客户端根据终端设备中摄像头在空间坐标系中的位姿(包括位置和姿态),将显示界面中触控事件发生的像素点位置坐标,从像素坐标系转换成世界坐标系下的位置点(像素坐标系中指定点找到在世界坐标系中的对应点属于现有技术,在此不再赘述)。需要解释的是,根据世界坐标系、相机坐标系、图像坐标系和像素坐标系之间的转换规则,一个世界坐标系中的坐标点,可以在图像中找到一个对应的像素点,但是反过来,通过图像中的一个像素点找到其在世界坐标系中对应的点,则缺少一个深度值。由此,本发明通过预先设置一个深度值(即预设距离),将触控事件轨迹投射到空间坐标系中距离当前位置预设距离的一个平面内,并且根据摄像头的姿态,该平面需位于终端设备摄像头的采集方向。由此,根据像素坐标系中触控事件轨迹的像素点坐标位置,可以找到对应的世界坐标系下的位置点。
在步骤332中,按照配置的目标轨迹样式,将触控事件轨迹在平面的投射位置处生成虚拟模型。
具体的,该平面是指在空间坐标系中,距离摄像头预设距离且在摄像头图像采集方向的一个平面。软件客户端将获取的触控事件轨迹投射到空间坐标系中的上述平面,通过像素坐标系与世界坐标系之间的转换规则,得到像素坐标系中触控事件轨迹在空间坐标系中上述平面内的投射位置点。在一种实施例中,触控事件轨迹包括多个像素点位置坐标,由此投射位置包括与触控事件轨迹的像素点位置坐标对应的空间中多个位置点。
目标轨迹样式是用户从多种轨迹素材样式中选择的其中一个样式,即画笔种类。软件客户端将触控事件轨迹在空间坐标系的投射位置处,按照用户选择的目标轨迹样式,形成目标轨迹样式指示的立体图形,在投射位置处生成的立体图形可以认为是虚拟模型。虚拟模型可以看成在空间中固定,当终端设备调整位姿时,可以捕捉到虚拟模型在不同角度下的图像。
在一种示例性实施例中,如图11所示,上述步骤350具体包括:
在步骤351中,根据终端设备在空间坐标系中的位姿,定位终端设备在空间坐标系中的视场范围;
需要说明的是,随着终端设备的移动,终端设备自身配置的陀螺仪和加速度传感器可以实时采集终端设备在空间坐标系中的位姿,进而得到终端设备自身配置的摄像头在空间坐标系中的位置和姿态。定位终端设备在空间坐标系中的视场范围是指根据摄像头所处位置和拍摄方向,重新建立相机坐标系,相机坐标系的原点为相机的光心,x轴、y轴与图像的X,Y轴平行,z轴为相机光轴,它与图像平面(即屏幕显示界面)垂直。光轴与图像平面的交点,即为图像坐标系的原点,构成的直角坐标系为相机坐标系。像素坐标系的原点为图像(屏幕显示界面)的左上角。
在步骤352中,将处于视场范围内的虚拟模型映射到终端设备的显示区域,形成模型视图。
具体的,根据世界坐标系、相机坐标系、图像坐标系以及像素坐标系之间的转换规则,将世界坐标系中已构建的虚拟模型的空间位置点,转换成像素坐标系下的像素点位置坐标。由于终端设备的显示区域有限,按照转换得到的像素点位置坐标,在终端设备显示区域的对应像素点位置坐标下,填充与虚拟模型对应位置点一致的像素值,由此在终端设备显示区域得到虚拟模型映射的图案,即为模型视图。
在一种示例性实施例中,上述步骤370具体包括:
将终端设备在位姿下采集的场景图像作为背景,将模型视图覆盖在场景图像上,得到个性化场景图像。
具体的,对于终端设备在某一位姿下采集的场景图像与该位姿下重构的模型视图,软件客户端将该场景图像作为背景,将虚拟模型映射的图案覆盖在场景图像之上,得到个性化场景图像。
在一种示例性实施例中,上述步骤370具体包括:
将模型视图逐帧叠加至终端设备在位姿下采集的图像序列,获得个性化场景视频。
需要说明的是,可以启动视频录制功能,进行图像序列的采集。在进行图像序列采集的同时,针对采集每一帧图像时终端设备的位姿,将该位姿下的模型视图,叠加至所采集的图像上,通过逐帧在采集的场景图像上叠加当前位姿下的模型视图,从而可以得到个性化场景视频。
在一种实施例中,本发明提供的个性化场景图像的处理方法可以基于ARKit框架实现。ARKit提供两种虚拟增强现实视图,包括3D效果的场景图像,以及2D效果的场景图像。图12是ARKit框架的架构示意图。如图12所示,UIView(用户界面视图)的作用是将视图显示在终端设备的显示界面中,ARSCNView(AR视图)的作用也是显示一个3D场景,只不过这个3D场景是由摄像头捕捉到的现实世界图像构成的。ARSCNView只是一个视图容器,它的作用是管理一个ARSession(AR会话)。在一个完整的虚拟增强现实体验中,ARKit框架只负责将真实世界画面转变为一个3D场景,这一个转变的过程主要分为两个环节:由ARCamera(AR相机)负责捕捉摄像头画面作为背景视图,由ARSession负责搭建3D场景,最后由ARSCNView进行3D场景的显示。
其中,ARSession作为ARCamera和ARSCNView之间的沟通桥梁,搭建沟通桥梁的主要参与者有两个ARSessionConfiguration(会话追踪配置)与ARFrame(AR架构)。ARSessionConfiguration的主要目的就是负责追踪相机在3D世界中的位置和方向以及一些特征场景的捕捉(例如平面捕捉),即检测设备相机看到的现实世界的表面。主要通过调用终端设备配备的传感器来检测终端设备的移动及旋转甚至是翻滚。ARFrame包含了相机捕捉的图片、相机位置等相关信息。其中,节点(SCNNode)获取用户绘制的虚拟模型的一个视图,场景类(SCNScene类)将该视图与相机拍摄的图像叠加形成个性化场景图像。
图13是基于ARkit框架实现本发明的流程示意图。如图13所示,在步骤1301中,软件客户端接收用户触发“神奇画笔”标签,展示“神奇画笔”标签对应的面板。该面板展示了多种画笔样式。
在步骤1302中,用户可以在展示的多种画笔样式中选择其中一种,软件客户端接收用户在面板中选择指定画笔样式的请求。
在步骤1303中,软件客户端响应请求运行ARSCNView加载场景SCNScene。
在步骤1304中,SCNScene启动相机ARCamera开始捕捉场景图像。
在步骤1305中,软件客户端运行ARSCNView,将捕捉的场景数据传递给ARsession。
在步骤1306中,软件客户端运行ARsession,ARsession通过管理ARsessionConfiguration实时追踪相机的位姿,返回ARFame(包含场景图像、位姿等信息)。
在步骤1307中,获取用户绘制的触控事件轨迹,在空间中投射形成虚拟模型。其中,ARsessionConfiguration实时追踪相机的位姿是为了确定虚拟模型在空间中相对于相机的真实位置。
在步骤1308中,软件客户端运行SCNNode,捕捉虚拟模型在当前位姿下的视图。
在步骤1309中,软件客户端运行SCNScene将该视图与当前位姿下相机拍摄的图像叠加形成个性化场景图像,并通过UIView在终端设备进行个性化场景图像的显示。
其中,如果用户选择切换画笔种类,则展示弹窗提醒用户是否清楚当前效果。
下述为本发明装置实施例,可以用于执行本发明上述软件客户端110执行的个性化场景图像的处理方法实施例。对于本发明装置实施例中未披露的细节,请参照本发明个性化场景图像的处理方法实施例。
图14是根据一示例性实施例示出的一种个性化场景图像的处理装置的框图,该个性化场景图像的处理装置可以用于图1所示实施环境的终端设备110中,执行图3、图7、图10、图11任一所示的个性化场景图像的处理方法的全部或者部分步骤。如图14所示,该装置包括但不限于:轨迹获取模块1410、模型构建模块1430、视图重构模块1450以及场景叠加模块1470。
其中,轨迹获取模块1410,用于根据在终端设备屏幕区域内触发的触控事件,获取所述屏幕区域内的触控事件轨迹;
模型构建模块1430,用于根据所述触控事件轨迹在空间坐标系中的投射,生成虚拟模型;
视图重构模块1450,用于按照所述终端设备在空间坐标系中的位姿,重构所述虚拟模型在所述终端设备视场范围内映射的模型视图;
场景叠加模块1470,用于将所述模型视图与所述终端设备在所述位姿下采集的场景图像进行叠加,获得个性化场景图像。
上述装置中各个模块的功能和作用的实现过程具体详见上述个性化场景图像的处理方法中对应步骤的实现过程,在此不再赘述。
轨迹获取模块1410比如可以是图2中的某一个物理结构传感器组件214。
模型构建模块1430、视图重构模块1450以及场景叠加模块1470也可以是功能模块,用于执行上述个性化场景图像的处理方法中的对应步骤。可以理解,这些模块可以通过硬件、软件、或二者结合来实现。当以硬件方式实现时,这些模块可以实施为一个或多个硬件模块,例如一个或多个专用集成电路。当以软件方式实现时,这些模块可以实施为在一个或多个处理器上执行的一个或多个计算机程序,例如图2的处理器218所执行的存储在存储器204中的程序。
在一种示例性实施例中,上述个性化场景图像的处理装置还包括:
样式获取模块,用于根据接收到的轨迹绘制请求,展示多种轨迹素材样式;
样式选择模块,用于根据对所述多种轨迹素材样式触发的选择,获得选择的目标轨迹样式;所述虚拟模型按照所述目标轨迹样式进行配置。
在一种示例性实施例中,如图15所示,所述轨迹获取模块1410包括:
图像采集单元1411,用于启动所述终端设备的图像采集装置,采集当前场景图像;
事件接收单元1412,用于接收所述当前场景图像显示界面内触发的触控事件,记录所述触控事件的触发位置,所述触控事件的触发位置构成所述触控事件轨迹。
在一种示例性实施例中,如图16所示,所述模型构建模块1430包括:
轨迹投射单元1431,用于根据所述终端设备在空间坐标系中的位姿,将所述触控事件轨迹投射到所述终端设备视场方向上距离当前位置预设距离的一个平面;
模型生成单元1432,用于按照配置的目标轨迹样式,将所述触控事件轨迹在所述平面的投射位置处生成虚拟模型。
在一种示例性实施例中,如图17所示,所述视图重构模块1450包括:
视场定位单元1451,用于根据所述终端设备在空间坐标系中的位姿,定位所述终端设备在所述空间坐标系中的视场范围;
模型映射单元1452,用于将处于所述视场范围内的虚拟模型映射到所述终端设备的显示区域,形成模型视图。
在一种示例性实施例中,所述场景叠加模块1470包括:
视图覆盖单元,用于将所述终端设备在所述位姿下采集的场景图像作为背景,将所述模型视图覆盖在所述场景图像上,得到所述个性化场景图像。
在一种示例性实施例中,所述场景叠加模块1470包括:
将所述模型视图逐帧叠加至所述终端设备在所述位姿下采集的图像序列,获得个性化场景视频。
可选的,本发明还提供一种电子设备,该电子设备可以用于图1所示实施环境的终端设备110中,执行图3、图7、图10、图11任一所示的个性化场景图像的处理方法的全部或者部分步骤。所述电子设备包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行上述示例性实施例所述的个性化场景图像的处理方法。
该实施例中电子设备的处理器执行操作的具体方式已经在有关该个性化场景图像的处理方法的实施例中执行了详细描述,此处将不做详细阐述说明。
在示例性实施例中,还提供了一种存储介质,该存储介质为计算机可读存储介质,例如可以为包括指令的临时性和非临时性计算机可读存储介质。该存储介质例如包括指令的存储器204,该存储介质存储有计算机程序,所述计算机程序可由可由装置200的处理器218执行以完成上述个性化场景图像的处理方法。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围执行各种修改和改变。本发明的范围仅由所附的权利要求来限制。
Claims (15)
1.一种个性化场景图像的处理方法,其特征在于,包括;
根据在终端设备屏幕区域内触发的触控事件,获取所述屏幕区域内的触控事件轨迹;
根据所述触控事件轨迹在空间坐标系中的投射,生成虚拟模型;
按照所述终端设备在空间坐标系中的位姿,重构所述虚拟模型在所述终端设备视场范围内映射的模型视图;
将所述模型视图与所述终端设备在所述位姿下采集的场景图像进行叠加,获得个性化场景图像。
2.根据权利要求1所述的方法,其特征在于,所述根据在终端设备屏幕区域内触发的触控事件,获取所述屏幕区域内的触控事件轨迹之前,所述方法还包括:
根据接收到的轨迹绘制请求,展示多种轨迹素材样式;
根据对所述多种轨迹素材样式触发的选择,获得选择的目标轨迹样式;所述虚拟模型按照所述目标轨迹样式进行配置。
3.根据权利要求1所述的方法,其特征在于,所述根据在终端设备屏幕区域内触发的触控事件,获取所述屏幕区域内的触控事件轨迹,包括:
启动所述终端设备的图像采集装置,采集当前场景图像;
接收所述当前场景图像显示界面内触发的触控事件,记录所述触控事件的触发位置,所述触控事件的触发位置构成所述触控事件轨迹。
4.根据权利要求1所述的方法,其特征在于,所述根据所述触控事件轨迹在空间坐标系中的投射,生成虚拟模型,包括:
根据所述终端设备在空间坐标系中的位姿,将所述触控事件轨迹投射到所述终端设备视场方向上距离当前位置预设距离的一个平面;
按照配置的目标轨迹样式,将所述触控事件轨迹在所述平面的投射位置处生成虚拟模型。
5.根据权利要求1所述的方法,其特征在于,所述按照所述终端设备在空间坐标系中的位姿,重构所述虚拟模型在所述终端设备视场范围内映射的模型视图,包括:
根据所述终端设备在空间坐标系中的位姿,重构所述终端设备在所述空间坐标系中的视场范围;
将处于所述视场范围内的虚拟模型映射到所述终端设备的显示区域,得到模型视图。
6.根据权利要求1所述的方法,其特征在于,所述将所述模型视图与所述终端设备在所述位姿下采集的场景图像进行叠加,获得个性化场景图像,包括:
将所述终端设备在所述位姿下采集的场景图像作为背景,将所述模型视图覆盖在所述场景图像上,得到所述个性化场景图像。
7.根据权利要求1所述的方法,其特征在于,所述将所述模型视图与所述终端设备在所述位姿下采集的场景图像进行叠加,获得个性化场景图像,包括:
将所述模型视图逐帧叠加至所述终端设备在所述位姿下采集的图像序列,获得个性化场景视频。
8.一种个性化场景图像的处理装置,其特征在于,所述装置包括:
轨迹获取模块,用于根据在终端设备屏幕区域内触发的触控事件,获取所述屏幕区域内的触控事件轨迹;
模型构建模块,用于根据所述触控事件轨迹在空间坐标系中的投射,生成虚拟模型;
视图重构模块,用于按照所述终端设备在空间坐标系中的位姿,重构所述虚拟模型在所述终端设备视场范围内映射的模型视图;
场景叠加模块,用于将所述模型视图与所述终端设备在所述位姿下采集的场景图像进行叠加,获得个性化场景图像。
9.根据权利要求8所述的装置,其特征在于,所述装置还包括:
样式获取模块,用于根据接收到的轨迹绘制请求,展示多种轨迹素材样式;
样式选择模块,用于根据对所述多种轨迹素材样式触发的选择,获得选择的目标轨迹样式;所述虚拟模型按照所述目标轨迹样式进行配置。
10.根据权利要求8所述的装置,其特征在于,所述轨迹获取模块包括:
图像采集单元,用于启动所述终端设备的图像采集装置,采集当前场景图像;
事件接收单元,用于接收所述当前场景图像显示界面内触发的触控事件,记录所述触控事件的触发位置,所述触控事件的触发位置构成所述触控事件轨迹。
11.根据权利要求8所述的装置,其特征在于,所述模型构建模块包括:
轨迹投射单元,用于根据所述终端设备在空间坐标系中的位姿,将所述触控事件轨迹投射到所述终端设备视场方向上距离当前位置预设距离的一个平面;
模型生成单元,用于按照配置的目标轨迹样式,将所述触控事件轨迹在所述平面的投射位置处生成虚拟模型。
12.根据权利要求8所述的装置,其特征在于,所述视图重构模块包括:
视场定位单元,用于根据所述终端设备在空间坐标系中的位姿,重构所述终端设备在所述空间坐标系中的视场范围;
模型映射单元,用于将处于所述视场范围内的虚拟模型映射到所述终端设备的显示区域,得到模型视图。
13.根据权利要求8所述的装置,其特征在于,所述场景叠加模块包括:
视图覆盖单元,用于将所述终端设备在所述位姿下采集的场景图像作为背景,将所述模型视图覆盖在所述场景图像上,得到所述个性化场景图像。
14.一种电子设备,其特征在于,所述电子设备包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行权利要求1-7任意一项所述的个性化场景图像的处理方法。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序可由处理器执行完成权利要求1-7任意一项所述的个性化场景图像的处理方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810717653.XA CN110162258A (zh) | 2018-07-03 | 2018-07-03 | 个性化场景图像的处理方法及装置 |
PCT/CN2019/091303 WO2020007182A1 (zh) | 2018-07-03 | 2019-06-14 | 个性化场景图像的处理方法、装置及存储介质 |
EP19829990.1A EP3819752A4 (en) | 2018-07-03 | 2019-06-14 | CUSTOM SCENE IMAGE PROCESSING METHOD AND APPARATUS, AND STORAGE MEDIA |
US16/994,516 US11880999B2 (en) | 2018-07-03 | 2020-08-14 | Personalized scene image processing method, apparatus and storage medium |
US18/507,178 US20240078703A1 (en) | 2018-07-03 | 2023-11-13 | Personalized scene image processing method, apparatus and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810717653.XA CN110162258A (zh) | 2018-07-03 | 2018-07-03 | 个性化场景图像的处理方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110162258A true CN110162258A (zh) | 2019-08-23 |
Family
ID=67645009
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810717653.XA Pending CN110162258A (zh) | 2018-07-03 | 2018-07-03 | 个性化场景图像的处理方法及装置 |
Country Status (4)
Country | Link |
---|---|
US (2) | US11880999B2 (zh) |
EP (1) | EP3819752A4 (zh) |
CN (1) | CN110162258A (zh) |
WO (1) | WO2020007182A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110941341A (zh) * | 2019-11-29 | 2020-03-31 | 维沃移动通信有限公司 | 图像控制方法及电子设备 |
CN111833459A (zh) * | 2020-07-10 | 2020-10-27 | 北京字节跳动网络技术有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113157092B (zh) * | 2021-04-08 | 2023-03-24 | 海信视像科技股份有限公司 | 可视化方法、终端设备和存储介质 |
CN114067040B (zh) * | 2022-01-05 | 2022-05-13 | 北京顶象技术有限公司 | 一种动态生成验证码背景图的方法及装置 |
CN115150551A (zh) * | 2022-06-20 | 2022-10-04 | 湖北星纪时代科技有限公司 | 用于终端的拍照处理方法、装置、电子设备和存储介质 |
CN116110080B (zh) * | 2023-04-04 | 2023-07-04 | 成都新希望金融信息有限公司 | 一种真人面签和虚拟人面签的切换方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130307875A1 (en) * | 2012-02-08 | 2013-11-21 | Glen J. Anderson | Augmented reality creation using a real scene |
US20150170401A1 (en) * | 2013-12-17 | 2015-06-18 | Microsoft Corporation | Cubify brush operation for virtual worlds |
CN105912257A (zh) * | 2016-04-11 | 2016-08-31 | 腾讯科技(深圳)有限公司 | 图像混合处理方法和装置 |
US20170287215A1 (en) * | 2016-03-29 | 2017-10-05 | Google Inc. | Pass-through camera user interface elements for virtual reality |
CN107526443A (zh) * | 2017-09-29 | 2017-12-29 | 北京金山安全软件有限公司 | 一种增强现实方法、装置、***、电子设备及存储介质 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2501929B (en) * | 2012-05-11 | 2015-06-24 | Sony Comp Entertainment Europe | Apparatus and method for augmented reality |
US10281987B1 (en) * | 2013-08-09 | 2019-05-07 | Leap Motion, Inc. | Systems and methods of free-space gestural interaction |
US9575564B2 (en) * | 2014-06-17 | 2017-02-21 | Chief Architect Inc. | Virtual model navigation methods and apparatus |
CN105068653A (zh) * | 2015-07-22 | 2015-11-18 | 深圳多新哆技术有限责任公司 | 确定虚拟空间中触摸事件的方法及装置 |
CN105894566A (zh) * | 2015-12-01 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 模型渲染方法及装置 |
US20170154468A1 (en) * | 2015-12-01 | 2017-06-01 | Le Holdings (Beijing) Co., Ltd. | Method and electronic apparatus for constructing virtual reality scene model |
US10234964B2 (en) * | 2016-12-19 | 2019-03-19 | Wacom Co., Ltd. | Image processing apparatus |
CN106648098B (zh) * | 2016-12-23 | 2021-01-08 | 武汉市马里欧网络有限公司 | 一种自定义场景的ar投影方法及*** |
CN107204031B (zh) * | 2017-04-27 | 2021-08-24 | 腾讯科技(深圳)有限公司 | 信息展示方法及装置 |
-
2018
- 2018-07-03 CN CN201810717653.XA patent/CN110162258A/zh active Pending
-
2019
- 2019-06-14 EP EP19829990.1A patent/EP3819752A4/en active Pending
- 2019-06-14 WO PCT/CN2019/091303 patent/WO2020007182A1/zh unknown
-
2020
- 2020-08-14 US US16/994,516 patent/US11880999B2/en active Active
-
2023
- 2023-11-13 US US18/507,178 patent/US20240078703A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130307875A1 (en) * | 2012-02-08 | 2013-11-21 | Glen J. Anderson | Augmented reality creation using a real scene |
US20150170401A1 (en) * | 2013-12-17 | 2015-06-18 | Microsoft Corporation | Cubify brush operation for virtual worlds |
US20170287215A1 (en) * | 2016-03-29 | 2017-10-05 | Google Inc. | Pass-through camera user interface elements for virtual reality |
CN105912257A (zh) * | 2016-04-11 | 2016-08-31 | 腾讯科技(深圳)有限公司 | 图像混合处理方法和装置 |
CN107526443A (zh) * | 2017-09-29 | 2017-12-29 | 北京金山安全软件有限公司 | 一种增强现实方法、装置、***、电子设备及存储介质 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110941341A (zh) * | 2019-11-29 | 2020-03-31 | 维沃移动通信有限公司 | 图像控制方法及电子设备 |
CN110941341B (zh) * | 2019-11-29 | 2022-02-01 | 维沃移动通信有限公司 | 图像控制方法及电子设备 |
CN111833459A (zh) * | 2020-07-10 | 2020-10-27 | 北京字节跳动网络技术有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
CN111833459B (zh) * | 2020-07-10 | 2024-04-26 | 北京字节跳动网络技术有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
EP3819752A1 (en) | 2021-05-12 |
US20200380724A1 (en) | 2020-12-03 |
US11880999B2 (en) | 2024-01-23 |
WO2020007182A1 (zh) | 2020-01-09 |
EP3819752A4 (en) | 2021-09-29 |
US20240078703A1 (en) | 2024-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110162258A (zh) | 个性化场景图像的处理方法及装置 | |
CN110944727B (zh) | 控制虚拟照相机的***和方法 | |
CN110147231B (zh) | 组合特效生成方法、装置及存储介质 | |
CN107018336B (zh) | 图像处理的方法和装置及视频处理的方法和装置 | |
US11417365B1 (en) | Methods, systems and apparatuses for multi-directional still pictures and/or multi-directional motion pictures | |
CN103631768B (zh) | 协作数据编辑和处理*** | |
CN108038726B (zh) | 物品展示方法及装置 | |
CN102763422B (zh) | 用于无设备的增强的现实与交互的投影仪和深度相机 | |
CN109584295A (zh) | 对图像内目标物体进行自动标注的方法、装置及*** | |
GB2590208A (en) | Face-based special effect generation method and apparatus, and electronic device | |
CN112684894A (zh) | 增强现实场景的交互方法、装置、电子设备及存储介质 | |
CN112037314A (zh) | 图像显示方法、装置、显示设备及计算机可读存储介质 | |
CN109284001A (zh) | 执行设备的功能的方法以及用于执行该方法的设备 | |
CN103426202A (zh) | 三维全景互动移动终端展示***及展示方法 | |
CN108694073B (zh) | 虚拟场景的控制方法、装置、设备及存储介质 | |
CN104183004A (zh) | 天气显示方法及装置 | |
US11532138B2 (en) | Augmented reality (AR) imprinting methods and systems | |
US11561651B2 (en) | Virtual paintbrush implementing method and apparatus, and computer readable storage medium | |
CN105900053A (zh) | 用于指定链接目的地的界面装置和计算机程序、用于观看者的界面装置和计算机程序 | |
KR20110091126A (ko) | 도서형 증강현실에서 페이지 전환에 따른 증강현실 방법 및 시스템, 이를 구현하기 위한 증강현실 처리장치 | |
CN106648098A (zh) | 一种自定义场景的ar投影方法及*** | |
CN109582122A (zh) | 增强现实信息提供方法、装置及电子设备 | |
JP2020523668A (ja) | 仮想カメラを構成するシステム及び方法 | |
CN111918114A (zh) | 图像显示方法、装置、显示设备及计算机可读存储介质 | |
JP2013004001A (ja) | 表示制御装置、表示制御方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |