CN116841350A - 一种3d显示方法以及装置 - Google Patents
一种3d显示方法以及装置 Download PDFInfo
- Publication number
- CN116841350A CN116841350A CN202210290663.6A CN202210290663A CN116841350A CN 116841350 A CN116841350 A CN 116841350A CN 202210290663 A CN202210290663 A CN 202210290663A CN 116841350 A CN116841350 A CN 116841350A
- Authority
- CN
- China
- Prior art keywords
- map
- model
- image
- frame
- electronic device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 106
- 230000015654 memory Effects 0.000 claims description 29
- 238000012545 processing Methods 0.000 claims description 22
- 238000004590 computer program Methods 0.000 claims description 11
- 238000003860 storage Methods 0.000 claims description 11
- 238000004891 communication Methods 0.000 claims description 8
- 230000003993 interaction Effects 0.000 abstract description 6
- 238000005516 engineering process Methods 0.000 description 22
- 239000010410 layer Substances 0.000 description 16
- 230000008859 change Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 15
- 230000006870 function Effects 0.000 description 14
- 239000000463 material Substances 0.000 description 12
- 210000003128 head Anatomy 0.000 description 9
- 238000013461 design Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000036544 posture Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000005452 bending Methods 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 238000006467 substitution reaction Methods 0.000 description 3
- 229920001621 AMOLED Polymers 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000002096 quantum dot Substances 0.000 description 2
- 230000002207 retinal effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000012792 core layer Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003238 somatosensory effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1615—Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
- G06F1/1616—Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
- G06F3/1431—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display using a single graphics controller
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Mathematical Physics (AREA)
- Computer Graphics (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
本申请实施例一种3D显示方法以及装置,该方法应用于电子设备,该电子设备为折叠屏电子设备,该方法包括:获取该电子设备的第一状态信息,该第一状态信息包括用于指示该电子设备的显示屏尺寸和显示屏折叠位置的第一信息、显示屏的折叠角度信息;根据该第一状态信息生成第一模型;在第一位置处将第一图像投影到该第一模型;根据该第一图像在该第一位置处向该第一模型的投影生成第一模型贴图;将该第一模型贴图展开以生成第一贴图;显示该第一贴图。通过本申请,电子设备在播放第一贴图时,该电子设备的折叠角度与第一模型相符,且用户处在投影位置时,用户可以产生很真实的3D观感,提高了用户体验和人机交互。
Description
技术领域
本申请实施例涉及电子设备领域,并且更加具体地涉及一种3D显示方法以及装置。
背景技术
三维(three dimensional,3D)显示能够给用户带来十分真实的画面,使用户有身临其境的感觉。目前常见的3D电影、3D电视一般都需要用户佩戴眼镜、虚拟现实(virtualreality,VR)头盔等辅助设备,或可以通过裸眼3D技术在不需要用户佩戴辅助设备的情况下,产生不同的图像到用户的双眼,从而产生3D观看效果。但是目前的裸眼3D技术的存在只有在固定角度观看才能产生3D观看效果以及无法根据折叠屏电子设备的多种折叠方式以及姿态显示不同3D效果等问题。
发明内容
本申请实施例提供一种3D显示方法以及装置,电子设备可以根据电子设备的状态实时的调整显示的3D内容,从而用户在观看电子设备显示的内容时,始终可以有很真实的3D观感。
第一方面,提供了一种3D显示方法,该方法应用于电子设备,该电子设备为折叠屏电子设备,该方法包括:获取该电子设备的第一状态信息,该第一状态信息包括用于指示该电子设备的显示屏尺寸和显示屏折叠位置的第一信息、以及显示屏的折叠角度信息;根据该第一状态信息生成第一模型;在第一位置处将第一图像投影到该第一模型;根据该第一图像在该第一位置处向该第一模型的投影生成第一模型贴图;将该第一模型贴图展开以生成第一贴图;显示该第一贴图。
本申请实施例中,电子设备可以根据第一状态信息生成第一模型,然后将图像投影到第一模型上并展开得到符合透视原理的第一贴图,从而电子设备在播放第一贴图时,该电子设备的状态与第一模型相符,且用户处在投影位置时,用户可以产生很真实的3D观感,提高了用户体验和人机交互。
结合第一方面,在第一方面的某些实现方式中,该方法还包括:当检测到该第一状态信息变为第二状态信息时,根据该第二状态信息生成第二模型;在第二位置处将该第一图像投影到该第二模型;根据该第一图像在该第二位置处向该第二模型的投影生成第二模型贴图;将该第二模型贴图展开以生成第二贴图;显示该第二贴图以替换该第一贴图。
本申请实施例中,电子设备的状态发生变化时,可以根据电子设备状态的变化实时生成并显示新的符合透视原理的图像,从而用户在观看时不会因为电子设备状态发生变化而失去3D观感。
结合第一方面,在第一方面的某些实现方式中,该第一图像为视频的一帧图像,该视频还包括第二图像,该第二图像为该第一图像后的一帧图像,该方法还包括:在该第一位置处将该第二图像投影到该第一模型;根据该第二图像在该第一位置处向该第一模型的投影生成该第三模型贴图;将该第三模型贴图展开以生成该第三贴图;该显示该第一贴图包括:逐帧显示该第一贴图和该第三贴图。
本申请实施例中,电子设备显示的素材是视频时,电子设备可以将视频的每一帧图像进行处理以生成并逐帧显示符合透视原理的图像,从而用户在观看该视频时,可以有很真实的3D观感。
结合第一方面,在第一方面的某些实现方式中,该第一图像为视频的一帧图像,该视频还包括第二图像,该第二图像为该第一图像后的一帧图像,当显示该第一贴图时,该第一状态信息变为第二状态信息,该方法还包括:根据该第二状态信息生成第二模型;在第二位置处将该第一图像和该第二图像投影到该第二模型;根据该第一图像在该第二位置处向该第二模型的投影生成第二模型贴图,根据该第二图像在该第二位置处向该第二模型的投影生成第四模型贴图;将该第二模型贴图展开以生成第二贴图,该第四模型贴图展开以生成第四贴图;使用该第二贴图替换该第一贴图并逐帧显示该第二贴图和该第四贴图。
结合第一方面,在第一方面的某些实现方式中,该第一图像为视频的一帧图像,该视频还包括第二图像,该第二图像为该第一图像后的一帧图像,当显示该第一贴图时,该第一状态信息变为第二状态信息,该方法还包括:根据该第二状态信息生成第二模型;在第二位置处将该第二图像投影到该第二模型;根据该第二图像在该第二位置处向该第二模型的投影生成第四模型贴图;将所该第四模型贴图展开以生成第四贴图;该显示该第一贴图包括:逐帧显示该第一贴图和该第四贴图。
本申请实施例中,电子设备显示的素材是视频时,电子设备可以将视频的每一帧图像进行处理以生成并逐帧显示符合透视原理的图像,且当电子设备的状态发生变化时,可以实时的进行调整,从而用户在观看该视频时,即使电子设备的状态发生变化,用户也一直可以有很真实的3D观感。
结合第一方面,在第一方面的某些实现方式中,该方法还包括:检测用户的眼睛与该电子设备的位置关系;该在第一位置处将第一图像投影到该第一模型,包括:根据该用户的眼睛与该电子设备的位置关系确定该第一位置;在该第一位置处将该第一图像投影到该第一模型。
本申请实施例中,电子设备在投影第一图像时,可以根据用户眼睛与电子设备之间的位置关系确定投影位置,即用户的眼睛的位置就是最佳观看位置,从而用户在使用电子设备时无需再去寻找最佳的观看位置就可以产生很真实的3D观感,提高了用户体验。
结合第一方面,在第一方面的某些实现方式中,该方法还包括:当检测到该用户的眼睛由该第一位置变为第三位置时,在该第三位置将该第一图像投影到该第一模型;根据该第一图像在该第三位置向该第一模型的投影生成第五模型贴图;将该第五模型贴图展开以生成第五贴图;显示该第五贴图以替换该第一贴图。
本申请实施例中,当用户的眼睛的位置发生变化时,电子设备可以实时的进行调整,按照用户的眼睛的最新位置投影第一图像以形成新的图像,电子设备动态的改变了最佳的观看视角以符合用户的眼睛的位置,提高了用户体验。
结合第一方面,在第一方面的某些实现方式中,该方法还包括:当检测到该用户的眼睛由该第一位置变为第三位置且该第一状态信息变为第二状态信息时,根据该第二状态信息生成第二模型;在该第三位置处将该第一图像投影到该第二模型;根据该第一图像在该第三位置处向该第二模型的投影生成第六模型贴图;将该第六模型贴图展开以生成第六贴图;显示该第六贴图以替换该第一贴图。
本申请实施例中,当用户的眼睛的位置和电子设备的状态发生变化时,电子设备可以实时的进行调整,按照用户的眼睛的最新位置将投第一图像投影到新的模型上,并最终形成新的图像,电子设备动态的改变了最佳的观看视角以符合用户的眼睛的位置和电子设备的状态,提高了用户体验。
结合第一方面,在第一方面的某些实现方式中,该第一图像为视频的一帧图像,该视频还包括第二图像,该第二图像为该第一图像后的一帧图像,当显示该第一贴图时,该用户的眼睛的位置由该第一位置变为第三位置,该方法还包括:在该第三位置处将该第一图像和该第二图像投影到该第一模型;根据该第一图像在该第三位置处向该第一模型的投影生成第五模型贴图,根据该四图像在该第三位置处向该第一模型的投影生成第七模型贴图;将该第五模型贴图展开以生成第五贴图,该第七模型贴图展开以生成第七贴图;使用该第五贴图替换该第一贴图并逐帧显示该第五贴图和该第七贴图。
结合第一方面,在第一方面的某些实现方式中,该第一图像为视频的一帧图像,该视频还包括第二图像,该第二图像为该第一图像后的一帧图像,当显示该第一贴图时,该用户的眼睛的位置由该第一位置变为第三位置,该方法还包括:在该第三位置处将该第二图像投影到该第一模型;根据该四图像在该第三位置处向该第一模型的投影生成第七模型贴图;将该第七模型贴图展开以生成第七贴图;该显示该第一贴图包括:逐帧显示该第一贴图和该第七贴图。
本申请实施例中,电子设备显示的素材是视频时,电子设备可以将视频的每一帧图像进行处理以生成并逐帧显示符合透视原理的图像,且用户的眼睛的位置发生变化时,电子设备可以实时的进行调整,从而用户在观看该视频时,即使眼睛的位置发生变化,用户也一直可以有很真实的3D观感。
结合第一方面,在第一方面的某些实现方式中,该第一图像为视频的一帧图像,该视频还包括第二图像,该第二图像为该第一图像后的一帧图像,当显示该第一贴图时,该用户的眼睛的位置由该第一位置变为第三位置且该第一状态信息变为第二状态信息,该方法还包括:根据该第二状态信息生成第二模型;在该第三位置处将该第一图像和该第二图像投影到该第二模型;根据该第一图像在该第三位置处向该第二模型的投影生成第八模型贴图,根据该四图像在该第三位置处向该第二模型的投影生成第九模型贴图;将该第八模型贴图展开以生成第八贴图,该第九模型贴图展开以生成第九贴图;使用该第八贴图替换该第一贴图并逐帧显示该第八贴图和该第九贴图。
结合第一方面,在第一方面的某些实现方式中,该第一图像为视频的一帧图像,该视频还包括第二图像,该第二图像为该第一图像后的一帧图像,当显示该第一贴图时,该用户的眼睛的位置由该第一位置变为第三位置且该第一状态信息变为第二状态信息,该方法还包括:根据该第二状态信息生成第二模型;在该第三位置处将该第二图像投影到该第二模型;根据该四图像在该第三位置处向该第二模型的投影生成第九模型贴图;将该第九模型贴图展开以生成第九贴图;该显示该第一贴图包括:逐帧显示该第一贴图和该第九贴图。
本申请实施例中,电子设备显示的素材是视频时,电子设备可以将视频的每一帧图像进行处理以生成并逐帧显示符合透视原理的图像,且用户的眼睛的位置和电子设备的状态发生变化时,电子设备可以实时的进行调整,从而用户在观看该视频时,即使眼睛的位置和电子设备的状态发生变化,用户也一直可以有很真实的3D观感。
结合第一方面,在第一方面的某些实现方式中,该第一图像为3D模型在第一视角对应的图像,该方法还包括:当检测到该用户的眼睛由该第一位置变为第三位置,根据该第三位置确定第二视角;根据该第二视角和该3D模型确定第三图像;在该第三位置将该第三图像投影到该第一模型;根据该第三图像在该第三位置向该第一模型的投影生成第十模型贴图;将该第十模型贴图展开以生成第十贴图;显示该第十贴图以替换该第一贴图。
本申请实施例中,第一图像是3D模型第一视角对应的图像,当用户的眼睛的位置发生变化时,可以根据用户眼睛位置的变化,实时的调整该3D模型,使得该3D模型可以随着用户的眼睛位置的变化而转动,从而使用户从不同视角观看该3D模型,提高了用户体验和代入感。
结合第一方面,在第一方面的某些实现方式中,该第一信息为该电子设备的型号信息。
结合第一方面,在第一方面的某些实现方式中,该第一状态信息还包括该电子设备的姿态信息。
第二方面,提供了一种电子设备,该电子设备包括执行上述第一方面或者第一方面的任意一种可能的设计的方法的模块/单元;这些模块/单元可以通过硬件实现,也可以通过硬件执行相应的软件实现。
第三方面,提供了一种芯片,该芯片与电子设备中的存储器耦合,用于调用存储器中存储的计算机程序并执行本申请实施例第一方面及其第一方面任一可能设计的技术方案;本申请实施例中“耦合”是指两个部件彼此直接或间接地结合。
第四方面,提供了一种计算机可读存储介质,该计算机可读存储介质包括计算机程序,当计算机程序在电子设备上运行时,使得该电子设备执行如上述第一方面及其第一方面任一可能设计的技术方案。
第五方面,提供了一种计算机程序,该计算机程序包括指令,当该指令在计算机上运行时,使得该计算机执行如上述第一方面及其第一方面任一可能设计的技术方案。
第六方面,提供了一种包含指令的计算机程序产品,当该计算机程序产品在计算机上运行时,使得该计算机执行如如上述第一方面及其第一方面任一可能设计的技术方案。
其中,第二方面至第六方面的有益效果,请参见第一方面的有益效果,不重复赘述。
附图说明
图1是本申请实施例提供的一种电子设备的结构示意图。
图2是本申请实施例提供的一种电子设备的软件结构框图。
图3是本申请实施例提供的电子设备显示内容的示意图。
图4是本申请实施例提供的3D显示方法的示意性流程图。
图5是本申请实施例提供的生成第一模型的示意图。
图6是本申请实施例提供的将第一图像投影到第一模型的示意图。
图7是本申请实施例中提供的将第一模型贴图展开以生成第一贴图的示意图。
图8是根据本申请实施例提供的3D显示方法的另一示意性流程图。
图9是根据本申请实施例提供的3D显示方法的另一示意性流程图。
图10是根据本申请实施例提供的3D显示方法的另一示意性流程图。
图11是本申请实施例提供的3D模型在第一视角和第二视角下的示意图。
图12是本申请实施例提供的一种电子设备组成示意图。
具体实施方式
以下实施例中所使用的术语只是为了描述特定实施例的目的,而并非旨在作为对本申请的限制。如在本申请的说明书和所附权利要求书中所使用的那样,单数表达形式“一个”、“一种”、“所述”、“上述”、“该”和“这一”旨在也包括例如“一个或多个”这种表达形式,除非其上下文中明确地有相反指示。还应当理解,在本申请以下各实施例中,“至少一个”、“一个或多个”是指一个、两个或两个以上。术语“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系;例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B的情况,其中A、B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。
在本说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
以下介绍电子设备和用于使用这样的电子设备的实施例。在一些实施例中,电子设备可以是还包含其它功能诸如个人数字助理和/或音乐播放器功能的便携式电子设备,诸如手机、平板电脑、具备无线通讯功能的可穿戴电子设备(如智能手表)等。便携式电子设备的示例性实施例包括但不限于搭载鸿蒙(Harmony OS)或者其它操作***的便携式电子设备。上述便携式电子设备也可以是其它便携式电子设备,诸如膝上型计算机(Laptop)等。还应当理解的是,在其他一些实施例中,上述电子设备也可以不是便携式电子设备,而是台式计算机、智能电视、智能音箱等。
示例性的,图1示出了电子设备100的结构示意图。电子设备100可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,传感器模块180,指南针190,马达191,指示器192,摄像头193,显示屏194,以及用户标识模块(subscriber identification module,SIM)卡接口195等。
可以理解的是,本申请实施例示意的结构并不构成对电子设备100的具体限定。在本申请另一些实施例中,电子设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
其中,处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的部件,也可以集成在一个或多个处理器中。在一些实施例中,电子设备101也可以包括一个或多个处理器110。其中,控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。在其他一些实施例中,处理器110中还可以设置存储器,用于存储指令和数据。示例性地,处理器110中的存储器可以为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从该存储器中直接调用。这样就避免了重复存取,减少了处理器110的等待时间,因而提高了电子设备101处理数据或执行指令的效率。
在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路间(inter-integrated circuit,I2C)接口,集成电路间音频(nter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,SIM卡接口,和/或USB接口等。其中,USB接口130是符合USB标准规范的接口,具体可以是Mini USB接口,Micro USB接口,USB Type C接口等。USB接口130可以用于连接充电器为电子设备101充电,也可以用于电子设备101与***设备之间传输数据。该USB接口130也可以用于连接耳机,通过耳机播放音频。
外部存储器接口120可以用于连接外部存储卡,例如Micro SD卡,实现扩展电子设备100的存储能力。外部存储卡通过外部存储器接口120与处理器110通信,实现数据存储功能。例如将音乐,视频等文件保存在外部存储卡中。
内部存储器121可以用于存储一个或多个计算机程序,该一个或多个计算机程序包括指令。处理器110可以通过运行存储在内部存储器121的上述指令。内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作***;该存储程序区还可以存储一个或多个应用(比如图库、联系人等)等。存储数据区可存储电子设备101使用过程中所创建的数据(比如照片,联系人等)等。此外,内部存储器121可以包括高速随机存取存储器,还可以包括非易失性存储器,例如一个或多个磁盘存储部件,闪存部件,通用闪存存储器(universal flash storage,UFS)、嵌入式多媒体卡(Embedded Multi Media Card,eMMC)等。在一些实施例中,处理器110可以通过运行存储在内部存储器121的指令,和/或存储在设置于处理器110中的存储器的指令,来使得电子设备101执行本申请实施例中所提供的方法,以及其他应用及数据处理。电子设备100可以通过音频模块170、扬声器170A、受话器170B、麦克风170C、耳机接口170D、以及应用处理器等实现音频功能。例如音乐播放、录音等。
电子设备100可以通过ISP、摄像头193、视频编解码器、GPU、显示屏194以及应用处理器等实现拍摄功能。
ISP用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点、亮度、肤色进行算法优化。ISP还可以对拍摄场景的曝光、色温等参数优化。在一些实施例中,ISP可以设置在摄像头193中。
摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,电子设备100可以包括1个或多个摄像头193。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当电子设备100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
视频编解码器用于对数字视频压缩或解压缩。电子设备100可以支持一种或多种视频编解码器。这样,电子设备100可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)1、MPEG2、MPEG3、MPEG4等。
NPU为神经网络(neural-network,NN)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过NPU可以实现电子设备100的智能认知等应用,例如:图像识别、人脸识别、语音识别、文本理解、三维模型重建等。
显示屏194用于显示图像、视频等。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD)、有机发光二极管(organic light-emittingdiode,OLED)、有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode,AMOLED)、柔性发光二极管(flex light-emittingdiode,FLED)、Miniled、MicroLed、Micro-oLed、量子点发光二极管(quantum dot lightemitting diodes,QLED)等。在一些实施例中,电子设备100可以包括1个或多个显示屏194。
在本申请实施例中,上述图1中的显示屏194可以被弯折。这里,上述显示屏194可以被弯折是指显示屏可以在任意部位被弯折到任意角度,并可以在该角度保持,例如,显示屏194可以从中部左右对折。也可以从中部上下对折。
电子设备100的显示屏194可以是一种柔性屏,目前,柔性屏以其独特的特性和巨大的潜力而备受关注。柔性屏相对于传统屏幕而言,具有柔韧性强和可弯曲的特点,可以给用户提供基于可弯折特性的新交互方式,可以满足用户对于电子设备的更多需求。对于配置有可折叠显示屏的电子设备而言,电子设备上的可折叠显示屏可以随时在折叠形态下的小屏和展开形态下大屏之间切换。
传感器模块180可以包括压力传感器180A、陀螺仪传感器180B、气压传感器180C、磁传感器180D、加速度传感器180E、距离传感器180F、接近光传感器180G、指纹传感器180H、温度传感器180J、触摸传感器180K、环境光传感器180L、骨传导传感器180M等。
其中,陀螺仪传感器180B可以用于确定电子设备100的运动姿态。在一些实施例中,可以通过陀螺仪传感器180B确定电子设备100围绕三个轴(即X、Y和Z轴)的角速度。陀螺仪传感器180B可以用于拍摄防抖。示例性的,当按下快门,陀螺仪传感器180B检测电子设备100抖动的角度,根据角度计算出镜头模组需要补偿的距离,让镜头通过反向运动抵消电子设备100的抖动,实现防抖。陀螺仪传感器180B还可以用于导航,体感游戏场景。
图2是本申请实施例的电子设备100的软件结构框图。分层架构将软件分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,将Android***分为四层,从上至下分别为应用程序层,应用程序框架层,安卓运行时(Android runtime)和***库,以及内核层。应用程序层可以包括一系列应用程序包。
如图2所示,应用程序包可以包括相机、图库、日历、通话、地图、导航、WLAN、蓝牙、音乐、视频、短信息等应用程序。
应用程序框架层为应用程序层的应用程序提供应用编程接口(applicationprogramming interface,API)和编程框架,应用程序框架层包括一些预先定义的函数。
如图2所示,应用程序框架层可以包括窗口管理器、内容提供器、视图***、电话管理器、资源管理器、通知管理器等。
窗口管理器用于管理窗口程序,窗口管理器可以接收显示屏大小,判断是否有状态栏、锁定屏幕、截取屏幕等。
内容提供器用来存放和接收数据,并使这些数据可以被应用程序访问。所述数据可以包括视频、图像、音频、拨打和接听的电话、浏览历史和书签、电话簿等。
视图***包括可视控件,例如显示文字的控件,显示图片的控件等。视图***可用于构建应用程序。显示界面可以由一个或多个视图组成的。例如,包括短信通知图标的显示界面,可以包括显示文字的视图以及显示图片的视图。
电话管理器用于提供电子设备100的通信功能。例如通话状态的管理(包括接通,挂断等)。
资源管理器为应用程序提供各种资源,比如本地化字符串、图标、图片、布局文件、视频文件等等。
通知管理器使应用程序可以在状态栏中显示通知信息,可以用于传达告知类型的消息,可以短暂停留后自动消失,无需用户交互。比如通知管理器被用于告知下载完成,消息提醒等。通知管理器还可以是以图表或者滚动条文本形式出现在***顶部状态栏的通知,例如后台运行的应用程序的通知,还可以是以对话窗口形式出现在屏幕上的通知。例如在状态栏提示文本信息、发出提示音、电子设备振动、指示灯闪烁等。
***库可以包括多个功能模块。例如:表面管理器(surface manager)、媒体库(media libraries)、三维图形处理库(例如:OpenGL ES)、2D图形引擎(例如:SGL)等。
表面管理器用于对显示子***进行管理,并且为多个应用程序提供了2D和3D图层的融合。
媒体库支持多种常用的音频、视频格式回放和录制以及静态图像文件等。媒体库可以支持多种音视频编码格式,例如:MPEG4、H.264、MP3、AAC、AMR、JPG和PNG等。
三维图形处理库用于实现三维图形绘图、图像渲染、合成和图层处理等。
2D图形引擎是2D绘图的绘图引擎。
内核层是硬件和软件之间的层。内核层至少包含显示驱动、摄像头驱动、音频驱动、传感器驱动。
在介绍本申请实施例之前,先介绍几个与本申请实施例相关的概念。
透视技术:透视技术是利用了视网膜成像呈现近大远小的规律,在2D平面上(视网膜、画面、相机取景框等)模拟3D空间的一种技术。
裸眼3D技术:裸眼3D技术是指在不借助眼镜、VR头盔等辅助设备的情况下,使用户在观看视频或图片时能够产生3D观感。目前常见的裸眼3D技术主要是通过双目视差实现的。常见的裸眼3D技术包括基于柱状透镜的裸眼3D技术、基于视差障碍的裸眼3D技术、基于指向光源的裸眼3D技术。通过上述的裸眼3D技术可以使左眼看到的图像与右眼看到的图像不一致,从而可以在用户的大脑中将左眼看到的图像与右眼看到的图像合成一张有空间感和纵深感的图像。柱状透镜的裸眼3D技术、基于视差障碍的裸眼3D技术和基于指向光源的裸眼3D技术都需要在原有的显示屏上增加透镜、光栅等辅助器件,会增加电子设备的生产成本且由于增加了辅助器件可能导致画面的亮度下降、成像质量差等问题。例如,以基于柱状透镜的裸眼3D技术为例,为了使用户左眼看到的图像与右眼看到的图像不一致,需要在显示屏上增加一层柱状透镜,该一层柱状透镜能以不同的方向投影显示屏上的每一个像素,从而用户与显示屏处于一定的角度时,双眼可以看到不同的像素,即不同的画面,从而用户可以产生3D观感。
除了上述的3种裸眼3D技术之外,还有一种裸眼3D技术是利用异形屏(例如L形屏)播放符合透视原理的素材,以显示屏的转角为分界线,可以将整个显示屏分为至少2个子显示屏,不同的子显示屏可以显示该素材在不同视角下对应的不同视图,当用户处在一定的观看角度同时看该不同的子显示屏时,可以同时看到该素材的不同视图,则可以在大脑中形成有空间感和纵深感的图像,从而使用户产生3D观感。例如,如图3中的(a)所示,第一子显示屏和第二子显示屏可以组成L形屏,当用户同时看到该两个子显示屏时,可以看到具有3D效果的长方体。如图3中的(b)所示,将第一子显示屏和第二子显示屏展开成0°,可以看到第一子显示屏和第二子显示屏显示的内容并不具备3D效果,因此如果用户只看到第一子显示屏或第二子显示屏时,由于只能看到该长方体的一侧,则不会产生3D观感。此外,采用该种裸眼3D技术的素材需要根据显示屏的尺寸、弯折角度等因素提前定制,当素材移植到其他显示屏时需要重新渲染以适配新的显示屏。
综上所述,目前的裸眼3D技术存在着用户观看角度固定、播放素材不具备普适性、子显示屏的夹角固定等问题。基于此,本申请提供了一种3D显示方法,该方法应用于折叠屏电子设备,可以根据折叠屏的角度以及用户与该折叠屏电子设备的位置关系,实时渲染播放素材,从而使用户在使用该折叠屏电子设备时,在不同角度都能有很好的3D观感,提升了用户体验,增强了人机交互。
图4示出了本申请实施例提供的3D显示方法400的示意性流程图,该方法由电子设备执行,该电子设备为折叠屏电子设备,例如折叠屏手机,折叠屏平板电脑等,如图4所示,该方法包括:
S401,获取电子设备的第一状态信息。
示例性的,第一状态信息可以包括用于指示该电子设备的显示屏尺寸和显示屏折叠位置的第一信息、显示屏的折叠角度信息。可选的,第一状态信息还可以包括该电子设备的姿态信息。
电子设备可以通过一个或多个传感器获得显示屏的折叠角度和该电子设备的姿态,并从***信息中获取该第一信息。显示屏折叠位置可以理解为显示屏折叠时折痕的位置,可以理解,显示屏的折叠位置下面可以是连接电子设备两个壳体的转轴。显示屏的折叠角度可以理解为不同子显示屏之间的夹角。显示屏的折叠角度还可以理解为电子设备的两个壳体之间的夹角。
例如,电子设备可以获取到该电子设备的目前的状态为显示屏的折叠角度为90°,电子设备的姿态为显示屏与地面垂直,显示屏的尺寸为6.8英寸,显示屏的折叠位置位于显示屏的中线位置且与电子设备侧边框平行。
示例性的,电子设备可以通过陀螺仪传感器180B测得该电子设备的姿态。
示例性的,电子设备可以通过铰链角度传感器测得该电子设备的显示屏的折叠角度。
示例性的,电子设备的转轴处设置有压力传感器,显示屏折叠到不同角度时产生的压力不同,可以根据压力的不同确定电子设备显示屏的折叠角度。
需要说明的是,本申请实施例仅以通过陀螺仪传感器180B测得该电子设备的姿态和通过铰链角度传感器或压力传感器测得该电子设备的显示屏的折叠角度为例,但并不限定于此,通过其他传感器或其他方法获取电子设备的姿态和显示屏的折叠角度以实施本申请实施例提供的3D显示方法均应落入本申请的保护范围。
本申请实施例中,第一信息可以直接指示该电子设备的显示屏尺寸和显示屏折叠位置,也可以间接指示该电子设备的显示屏尺寸和显示屏折叠位置,本申请实施例并不限定于此。
一种可能的实现方式,第一信息包括电子设备的显示屏的尺寸信息和显示屏的折叠位置信息,即第一信息可以直接指示该电子设备的显示屏尺寸和显示屏折叠位置。例如,电子设备的***信息中预置有该电子设备的显示屏的尺寸的信息和显示屏的折叠位置的信息,从而可以根据上述信息确定该电子设备的显示屏尺寸和显示屏折叠位置。
一种可能的实现方式,第一信息包括该电子设备的型号信息,该电子设备的型号信息可以对应该电子设备的显示屏的尺寸的信息和显示屏的折叠位置的信息,即第一信息间接指示了显示屏的尺寸的信息和显示屏的折叠位置的信息。例如,电子设备可以从***信息中获取该电子设备的型号为“Huawei Mate X2”,则可以根据该电子设备的型号确定该电子设备的显示屏的尺寸为8.01英寸,显示屏的折叠位置位于屏幕的中线位置且与电子设备的侧边框平行。
S402,根据第一状态信息生成第一模型。
具体的,电子设备可以根据第一状态信息生成该第一状态信息对应的电子设备的第一模型。该第一模型可以对应电子设备的真实状态。例如,电子设备的显示屏的折叠角度为90°,则第一模型中的显示屏的折叠角度为90°。
一种可能的实现方式,电子设备可以根据第一信息和显示屏的折叠角度生成第一模型。
在该种可能的实现方式中,电子设备根据显示屏的尺寸、折叠的位置和折叠角度生成对应的模型。该生成的模型的姿态是预定义的,例如,该模型呈竖直姿态。预定义的姿态可以是用户预定义或设备商预定义的用户在使用电子设备时该电子设备的最常见姿态。
一种可能的实现方式,电子设备可以根据第一信息、显示屏的折叠角度和电子设备的姿态生成第一模型。在该种可能的实现方式中,电子设备根据显示屏的尺寸、折叠的位置、折叠角度和电子设备的姿态生成对应的模型。可以理解的是,该生成的模型的姿态与电子设备的姿态相同。
可选的,该第一模型可以只包括该电子设备的显示屏,从而可以提高第一模型的生成速度。例如,以电子设备为折叠屏手机为例,图5所示为本申请实施例生成第一模型的示意图。如图5中的(a)所示,折叠屏手机折叠了一定的角度,且该折叠屏手机呈竖直姿态。该折叠屏手机可以获取折叠的角度信息以及手机的姿态信息,结合该折叠屏手机的显示屏的尺寸的信息和显示屏的折叠位置的信息,可以生成如图5中的(b)所示的模型,该模型为3D模型。可以理解的是,图5中的(b)所示的模型的尺寸与图5中的(a)所示的折叠屏手机的显示屏尺寸相同。
应理解,当折叠屏手机的折叠角度发生变化和/或姿态发生变化时,可以根据变化的折叠角度和/或姿态更新模型。
S403,在第一位置处将第一图像投影到第一模型。
示例性的,在第一位置处可以根据透视原理将第一图像投影到第一模型上。在第一位置处根据透视原理将第一图像投影到第一模型上可以理解为在第一位置处根据视网膜成像呈现近大远小的规律,将第一图像投影到第一模型的不同的子显示屏上。第一图像可以是视频中的一帧图像或静态图像或3D模型在第一视角下对应的图像。
例如,如图6中的(a)所示为四面体在第一视角下对应的图像,其中第一视角可以是预设的视角,第一视角也可以和第一位置对应的视角相同。
本申请实施例中,可以通过以下几种方式确定第一位置。
一种可能的实现方式,第一位置为预设的位置。
可以理解的是,在预设的第一位置处根据透视原理将第一图像投影到第一模型上,即确定了第一图像投影到第一模型的不同子显示屏时,用户在该第一位置,可以看到的该不同子显示屏显示的内容。当用户在该第一位置观看时,由于可以看到不同子显示屏显示的符合透视原理的内容,从而可以产生3D观感。
例如,图6所示为本申请实施例将第一图像投影到第一模型的示意图。如图6中的(a)和(b)所示,第一图像为四面体在第一视角下对应的图像,在第一位置处根据透视原理可以将第一图像投影到第一模型上,不同的子显示屏显示的内容不同,从而用户在第一位置观看显示屏时,可以产生3D观感。
应理解,在该种可能的实现方式中,投影的位置不会根据电子设备的显示屏的折叠角度信息和/或电子设备的姿态变化而变化。
一种可能的实现方式,根据电子设备的显示屏的折叠角度信息和/或电子设备的姿态信息确定第一位置。
例如,当电子设备的显示屏的折叠角度为90°时,对应的投影位置为第一位置。可选的,当电子设备的显示屏的折叠角度变为80°时,对应的投影位置可以为第二位置。
再例如,当电子设备的显示屏的折叠角度为90°且呈竖直姿态,对应的投影位置为第一位置。
应理解,在该种可能的实现方式中,投影的位置可以根据电子设备的显示屏的折叠角度信息和/或电子设备的姿态变化而变化。
一种可能的实现方式,根据用户眼睛位置确定第一位置,具体说明请参见后文。
S404,根据第一图像在第一位置处向第一模型的投影生成第一模型贴图。
示例性的,在S503中将第一图像投影到第一模型后,该第一模型的子显示屏上可以显示该第一图像的投影,然后根据该第一图像的投影生成第一模型贴图。换句话说,在S504中,将第一图像在第一模型中的投影转化为第一模型的贴图。
示例性的,可以通过贴图烘焙(bake)技术将第一图像在第一模型中的投影转化为第一模型的贴图。
需要说明的是,本申请实施中的第一模型是3D模型,则生成的第一模型贴图是3D贴图,该第一模型贴图中的各点可以使用3D坐标系(例如x,y,z)表示。
S405,将第一模型贴图展开以生成第一贴图。
示例性的,在得到第一模型贴图后可以将该第一模型贴图展开得到第一贴图。第一模型贴图展开可以理解为将3D贴图转化为2D贴图,即将第一模型贴图在3D空间中的点(例如,由x,y,z表示)映射到2D空间(例如,由u,v表示)以生成第一贴图。本申请实施例中第一贴图也可以称为第一UV图像。第一模型贴图展开也可以称为对第一模型贴图展UV。
例如,图7所示为本申请实施例中将第一模型贴图展开以生成第一贴图的示意图,如图7中的(a)为根据第一图像在第一模型上的投影生成的第一模型贴图,由图7中的(a)可以看出,该第一模型贴图在未展开前,图中四面体有着较强的3D观感。对该第一模型贴图展开可以得到如图7中的(b)所示的第一贴图。由图7中的(b)可以看出,第一模型的两个子显示屏完全展开,图中的四面体发生了一定的扭曲,从而失去了3D观感。
需要说明的是,本申请实施例中并不限定第一模型贴图展UV的边界。例如,第一模型贴图可以以第一模型的一个边缘为边界进行展开。
S406,显示第一贴图。
示例性的,电子设备生成第一贴图后,可以将该第一贴图显示在显示屏上。如图7中的(b)所示,不同的子显示屏显示的内容不同,则电子设备可以对应的在不同的子显示屏显示对应的内容。由于第一模型是根据该电子设备的第一状态信息生成的,且是基于第一位置处将第一图像投影到第一模型上,然后展开第一模型贴图得到第一贴图,因此该电子设备显示的第一贴图是符合透视原理的图像,当用户在第一位置观看该电子设备且该电子设备的状态与第一模型的状态对应时,用户可以产生很真实的3D观感。
本申请实施例中,用户在使用电子设备时,电子设备可以根据第一状态信息生成第一模型,然后将图像投影到第一模型上并展开得到符合透视原理的第一贴图,从而电子设备在播放第一贴图时,该电子设备的折叠角度和/或姿态与第一模型相符,且用户的眼睛处在投影位置时,用户可以产生很真实的3D观感,提高了用户体验和人机交互。
图8示出了根据本申请实施例的3D显示方法的另一示意性流程图,如图8所示,S406之后,方法400还包括:
S407,当检测到第一状态信息变为第二状态信息时,根据第二状态信息生成第二模型。
示例性的,当电子设备检测到电子设备的状态发生变化时,可以根据状态的变化生成新的模型。
例如,第一状态信息指示电子设备的折叠角度为90°且呈竖直姿态,此时电子设备对应的模型为第一模型,当电子设备的折叠角度由90°变为100°时,电子设备可以生成第二模型。
S408,在第二位置处将第一图像投影到第二模型。
示例性的,在第二位置处根据透视原理将第一图像投影到第二模型上。
应理解,针对在第二位置处根据透视原理将第一图像投影到第二模型上的描述类似于S403,为了简洁,在此不再赘述。
本申请实施例中,可以通过以下几种方式确定第二位置。
一种可能的实现方式,第二位置为预设的位置,可选的,第二位置与第一位置的空间坐标相同。
可以理解的是,在预设的第二位置根据透视原理将第一图像投影到第一模型上,即确定了第一图像投影到第一模型的不同子显示屏时,用户在该第二位置,可以看到该不同子显示屏显示的内容。当用户在该第二位置观看时,由于可以看到不同子显示屏显示的符合透视原理的内容,从而可以产生3D观感。
一种可能的实现方式,根据电子设备的显示屏的折叠角度信息和/或电子设备的姿态信息确定第二位置。
具体的,电子设备的第一状态信息对应的投影位置为第一位置,当电子设备的状态信息由第一状态信息变为第二状态信息时,即电子设备由第一状态变为第二状态(例如,显示屏的折叠角度由90°变为80°),投影位置变为第二状态信息对应的第二位置。
一种可能的实现方式,可以根据用户眼睛位置确定第二位置,具体说明请参见后文。
S409,根据第一图像在第二位置处向第二模型的投影生成第二模型贴图。
示例性的,在S408中将第一图像投影到第二模型后,该第二模型的子显示屏上可以显示该第一图像的投影,然后根据该第一图像的投影生成第二模型贴图。换句话说,在S409中,将第一图像在第二模型中的投影转化为第二模型的贴图。
S410,将第二模型贴图展开以生成第二贴图。
示例性的,在得到第二模型贴图后可以将该第二模型贴图展开得到第二贴图。
S411,显示第二贴图以替换第一贴图。
示例性的,由于电子设备的状态发生变化,生成的第一贴图已经不适用于新的电子设备的状态,因此电子设备生成第二贴图后可以将该第二贴图显示在显示屏上以替换第一贴图。
例如,以第一图像为3D模型在第一视角对应的图像为例,当电子设备将第一图像投影到第一模型上生成第一模型贴图,并将第一模型贴图展开生成第一贴图,然后显示第一贴图。当用户的眼睛位于第一位置处时,用户可以看到该3D模型的第一形态。当电子设备由第一状态变为第二状态时,电子设备可以将第一图像投影到第二状态对应的第二模型上生成第二模型贴图,并将第二模型贴图展开生成第二贴图,然后显示第二贴图。当用户的眼睛位于第一位置处时,用户可以看到该3D模型的第二形态。可以理解的是,该3D模型的第一形态与该3D模型的第二形态不同。
本申请实施例中,当用户在使用电子设备的过程中改变该电子设备的显示屏的折叠角度和/或姿态时,电子设备可以根据显示屏折叠角度和/或姿态的变化实时生成并显示新的符合透视原理的图像,从而用户在观看时不会因为显示屏的折叠角度和/或姿态发生变化而失去3D观感。
图9示出了根据本申请实施例的3D显示方法的另一示意性流程图,第一图像为视频的一帧图像。该视频包括第一图像和第二图像,该第二图像是该第一图像后的下一帧图像,如图9所示,在S405之后,方法400还包括:
S412,在第一位置处将第二图像投影到第一模型。
S413,根据第二图像在第一位置处向第一模型的投影生成第三模型贴图。
S414,将第三模型贴图展开以生成第三贴图。
其中S406,显示第一贴图包括:
S4061,逐帧显示第一贴图和第三贴图。
具体的,当生成第一贴图和第三贴图后,可以根据第一图像和第二图像的先后顺序,逐帧显示第一贴图和第三贴图。
应理解,针对S412-S414的描述可以参见上文描述,为了简洁,在此不再赘述。
本申请实施例中,用户使用电子设备观看视频时,电子设备可以将视频的每一帧图像进行处理以生成符合透视原理的图像并逐帧显示,从而使用户在观看该视频时,可以有很真实的3D观感。
可选的,在一些实施例中,第一图像是视频的一帧图像,第一贴图是第一图像对跟将第一图像生成的第一模型贴图展UV得到的,在显示第一贴图时,若电子设备的状态信息由第一状态信息变为第二状态信息,即电子设备由第一状态变为第二状态,电子设备可以将该视频对应的至少一帧图像投影到第二状态信息对应的第二模型生成模型贴图,然后展开模型贴图生成展开的模型贴图并逐帧显示。
一种可能的实现方式,电子设备将该视频的每一帧图像投影到第二状态信息对应的第二模型生成模型贴图,然后展开模型贴图生成展开的模型贴图并逐帧显示。
例如,第一图像为视频的第一帧图像,第二图像是视频的第二帧图像。电子设备的状态信息为第一状态信息。电子设备将第一图像投影到第一状态信息对应的第一模型上得到第一模型贴图,然后将第一模型贴图展开生成第一贴图,并显示第一贴图。若电子设备在显示第一贴图时,状态信息由第一状态信息变为第二状态信息,即电子设备可以在第二状态显示第二图像对应的贴图(例如下文所示的第四贴图)。因此电子设备根据第二状态信息生成第二模型,然后可以重新在第二位置处将第一图像投影到第二模型上得到第二模型贴图,然后将第二模型贴图展开生成第二贴图,并显示第二贴图。在生成第二贴图的过程中,电子设备还可以在第二位置处将第二图像投影到第二模型上,得到第四模型贴图,然后将第四模型贴图展开生成第四贴图。电子设备使用第二贴图替换第一贴图并逐帧显示第二贴图和第四贴图。
一种可能的实现方式,电子设备将该视频的第一图像后的每一帧图像投影到第二状态信息对应的第二模型生成模型贴图,然后展开模型贴图生成展开的模型贴图并逐帧显示。
例如,第一图像为视频的第一帧图像,第二图像是视频的第二帧图像。电子设备的状态信息为第一状态信息。电子设备将第一图像投影到第一状态信息对应的第一模型上得到第一模型贴图,然后将第一模型贴图展开生成第一贴图,并显示第一贴图。若电子设备在显示第一贴图时,状态信息由第一状态信息变为第二状态信息,即电子设备可以在第二状态显示第二图像对应的贴图(例如下文所示的第四贴图)。因此电子设备可以根据第二状态信息生成第二模型,然后在第二位置处将第二图像投影到第二模型上,得到第四模型贴图,然后将第四模型贴图展开生成第四贴图,并在显示完第一贴图后显示第四贴图。换句话说,电子设备在第一状态显示第一贴图,在第二状态显示第四贴图。
本申请实施例中,用户在使用电子设备观看视频时,电子设备可以将视频的每一帧图像进行处理以生成符合透视原理的图像并逐帧显示,且当电子设备的状态发生变化时,可以实时的进行调整,从而使用户在观看该视频时,即使电子设备的状态发生变化,用户也一直可以有很真实的3D观感。
图10示出了根据本申请实施例的3D显示方法的另一示意性流程图,如图10所示,S402之后,方法500还包括:
S415,检测用户的眼睛与电子设备的位置关系。
S403中,在第一位置处将第一图像投影到第一模型上,包括:
S4031,根据用户的眼睛与电子设备的位置关系确定第一位置。
示例性的,电子设备可以检测用户的眼睛与电子设备的位置关系,并根据用户的眼睛与电子设备的位置关系确定第一位置,即用户的眼睛的位置为第一位置。
本申请实施例中,可以通过以下几种方式确定用户眼睛的位置与电子设备的位置关系。
一种可能的实现方式,电子设备包括摄像头,该摄像头可以采集深度信息,电子设备可以通过该摄像头确定用户的眼睛与电子设备的位置关系。
示例性的,电子设备可以通过摄像头实时采集用户的头部,从而获取用户的头部图像。该头部图像中包括深度信息,从而可以确定头部头像中的每一个像素点与电子设备之间的距离。还可以通过图像识别技术识别出头部图像中的眼睛,进而可以确定用户的眼睛与电子设备之间的位置关系,即确定了第一位置。
一种可能的实现方式,电子设备可以通过多目摄像头确定用户的眼睛与电子设备的位置关系。
示例性的,以多目摄像头是双目摄像头为例,双目摄像头获取的用户的头部图像可以不包含深度信息,但是由于双目摄像头的两个摄像头之间的距离是固定的,因此可以根据双目摄像头的两个摄像头分别获取的用户的头部图像、以及双目摄像头的两个摄像头之间的距离计算出头部图像中每一个像素点与电子设备之间的距离。电子设备还可以通过图像识别技术识别出头部图像中的眼睛,进而可以确定用户的眼睛与电子设备之间的位置关系,即确定了第一位置。
S4032,在第一位置处将第一图像投影到第一模型。
应理解,针对S4032的描述可以参见上文,为了简洁,在此不再赘述。
本申请实施例中,电子设备在投影第一图像时,可以根据用户眼睛与电子设备之间的位置关系确定投影位置,即用户的眼睛的位置就是最佳观看位置,从而使用户在使用电子设备时无需再去寻找最佳的观看位置就可以产生很真实的3D观感,提高了用户体验。
可选的,在一些实施例中,方法500还包括:
当检测到用户的眼睛由第一位置变为第三位置时,在第三位置处将第一图像投影到第一模型上;
根据第一图像在第三位置处向第一模型的投影生成第五模型贴图;
将第五模型贴图展开以生成第五贴图;
显示第五贴图以替换第一贴图。
示例性的,当电子设备检测到用户的眼睛位置发生变化,由第一位置变为第三位置时,电子设备可以根据新的投影位置(即第三位置)将第一图像投影到第一模型上形成第五模型贴图,然后展开第五模型贴图以生成并显示第五贴图以替换第一贴图。
本申请实施例中,用户使用电子设备的过程中,当用户的眼睛的位置发生变化时,电子设备可以实时的进行调整投影位置,按照用户的眼睛的最新位置投影第一图像以形成新的图像,电子设备动态的改变了最佳的观看视角以符合用户的眼睛的位置,提高了用户体验。
可选的,在一些实施例中,方法500还包括:
当检测到用户的眼睛由第一位置变为第三位置、且电子设备的状态信息由第一状态信息变为第二状态信息时,根据第二状态信息生成第二模型并在第三位置处将第一图像投影到第二模型上;
根据第一图像在第三位置处向第二模型的投影生成第六模型贴图;
将第六模型贴图展开以生成第六贴图;
显示第六贴图以替换第一贴图。
具体的,当电子设备检测到用户的眼睛位置发生变化,由第一位置变为第三位置,且电子设备的状态由第一状态变为第二状态时,电子设备可以根据新的投影位置(即第三位置)将第一图像投影到第二模型上形成第六模型贴图,然后展开第六模型贴图以生成第六贴图,然后显示第六贴图以替换第一贴图。
本申请实施例中,用户使用电子设备的过程中,当用户的眼睛的位置和电子设备的状态均发生变化时,电子设备可以实时的进行调整投影位置和模型,按照用户的眼睛的最新位置将投第一图像投影到新的模型上,并最终形成新的图像,电子设备动态的改变了最佳的观看视角以符合用户的眼睛的位置和电子设备的状态,提高了用户体验。
可选的,在一些实施例中,第一图像是视频的一帧图像,在显示第一贴图时若用户的眼睛的位置发生变化,由第一位置变为第三位置,电子设备可以在第三位置处将该视频的至少一帧图像投影到第一模型上以生成模型贴图,然后展开模型贴图生成展开的模型贴图并逐帧显示。
一种可能的实现方式,电子设备将在第三位置处该视频的每一帧图像投影到第一模型以生成模型贴图,然后展开模型贴图生成并逐帧显示展开的模型贴图。
例如,第一图像为视频的第一帧图像,第二图像是视频的第二帧图像。电子设备的状态信息为第一状态信息。电子设备将第一图像投影到第一状态信息对应的第一模型上得到第一模型贴图,然后将第一模型贴图展开生成第一贴图,并显示第一贴图。若电子设备在显示第一贴图时,用户的眼睛位置由第一位置变为第三位置,则电子设备可以重新在第三位置处将第一图像投影到第一模型上得到第五模型贴图,然后将第五模型贴图展开生成第五贴图,并显示第五贴图。在生成第五贴图过程中,电子设备还可以将在第三位置处将第二图像投影到第一模型上,得到第七模型贴图,然后将第七模型贴图展开生成第七贴图。电子设备使用第五贴图替换第一贴图并逐帧显示第五贴图和第七贴图。
一种可能的实现方式,电子设备将在第三位置处将该视频的第一图像后的每一帧图像投影到第一模型以生成模型贴图,然后展开模型贴图生成并逐帧显示展开的模型贴图。
例如,第一图像为视频的第一帧图像,第二图像是视频的第二帧图像。电子设备的状态信息为第一状态信息。电子设备将第一图像投影到第一状态信息对应的第一模型上得到第一模型贴图,然后将第一模型贴图展开生成第一贴图,并显示第一贴图。若电子设备在显示第一贴图时,用户的眼睛位置由第一位置变为第三位置,则电子设备可以在第三位置处将第二图像投影到第一模型上,得到第七模型贴图,然后将第七模型贴图展开生成第七贴图,并在显示完第五贴图后显示第七贴图。
本申请实施例中,用户使用电子设备观看视频时,电子设备可以将视频的每一帧图像进行处理以生成并逐帧显示符合透视原理的图像,且用户的眼睛的位置发生变化时,电子设备可以实时的进行调整,从而使用户在观看该视频时,即使眼睛的位置发生变化,用户也一直可以有很真实的3D观感。
可选的,在一些实施例中,第一图像是视频的一帧图像,在显示第一贴图时若用户的眼睛的位置发生变化,由第一位置变为第三位置,且电子设备的状态由第一状态信息变为第二状态信息,电子设备可以在第三位置处将该视频的至少一帧图像投影到第二模型上以生成模型贴图,然后展开模型贴图生成展开的模型贴图并逐帧显示。
一种可能的实现方式,电子设备将在第三位置处该视频的每一帧图像投影到第二模型以生成模型贴图,然后展开模型贴图生成并逐帧显示展开的模型贴图。
例如,第一图像为视频的第一帧图像,第二图像是视频的第二帧图像。电子设备的状态信息为第一状态信息。电子设备将第一图像投影到第一状态信息对应的第一模型上得到第一模型贴图,然后将第一模型贴图展开生成第一贴图,并显示第一贴图。若电子设备在显示第一贴图时,用户的眼睛位置由第一位置变为第三位置,电子设备的状态由第一状态变为第二状态,即电子设备可以在第二状态显示第二图像对应的贴图(例如下文所示的第九贴图)。因此电子设备可以根据第二状态信息生成第二模型并重新在第三位置处将第一图像投影到第二模型上得到第八模型贴图,然后将第八模型贴图展开生成第八贴图,并显示第八贴图。在生成第八贴图的过程中,电子设备还可以将在第三位置处将第二图像投影到第二模型上,得到第九模型贴图,然后将第九模型贴图展开生成第九贴图。电子设备使用第八贴图替换第一贴图并逐帧显示第八贴图和第九贴图。
一种可能的实现方式,电子设备将在第三位置处将该视频的第一图像后的每一帧图像投影到第二模型以生成模型贴图,然后展开模型贴图生成并逐帧显示展开的模型贴图。
例如,第一图像为视频的第一帧图像,第二图像是视频的第二帧图像。电子设备的状态信息为第一状态信息。电子设备将第一图像投影到第一状态信息对应的第一模型上得到第一模型贴图,然后将第一模型贴图展开生成第一贴图,并显示第一贴图。若电子设备在显示第一贴图时,用户的眼睛位置由第一位置变为第三位置,且电子设备的状态由第一状态变为第二状态时,即电子设备可以在第二状态显示第二图像对应的贴图(例如下文所示的第九贴图)。因此电子设备根据第二状态信息生成第二模型并可以在第三位置处将第二图像投影到第二模型上,得到第九模型贴图,然后将第九模型贴图展开生成第九贴图,并在显示完第一贴图后显示第九贴图。
本申请实施例中,用户使用电子设备观看视频时,电子设备可以将视频的每一帧图像进行处理以生成符合透视原理的图像并逐帧显示,且用户的眼睛的位置和电子设备的状态均发生变化时,电子设备可以实时的进行调整投影位置和模型,从而用户在观看该视频时,即使眼睛的位置和电子设备的状态发生变化,用户也一直可以有很真实的3D观感。
可选的,在一些实施例中,当第一图像为3D模型在第一视角对应的图像时,方法500还包括:
当检测到用户的眼睛由第一位置变为第三位置时,根据第三位置确定第二视角;
根据第二视角和该3D模型确定第三图像;
将第三位置处将第三图像投影到第一模型上;
根据第三图像在第三位置处向第一模型上的投影生成第十模型贴图;
将第十模型贴图展开以生成第十贴图;
显示第十贴图以替换第一贴图。
示例性的,当电子设备检测到用户的眼睛位置发生变化,由第一位置变为第三位置时,由于第一图像时3D模型在第一视角对应的图像,当用户的眼睛的位置发生变化时,对应的视角也会发生变化,从而可以根据用户的眼睛的第三位置确定新的视角,然后根据新的视角确定该3D模型在该视角下对应的图像,从而电子设备可以根据新的投影位置(即第三位置)将新的图像投影到第一模型上形成第十模型贴图,然后展开第十模型贴图以生成并显示第十贴图以替换第一贴图。
例如,如图11所示为3D模型(例如四面体模型)在第一视角和第二视角下的示意图。如图11中的(a)所示为四面体在第一视角下对应的图像,即第一图像,电子设备可以在第一位置处将第一图像投影到第一模型,得到第一模型贴图,然后展开并显示第一贴图。如图11中的(b)所示为四面体在第二视角下对应的图像。当电子设备检测到用户的眼睛由第一位置变为第三位置时,根据第三位置确定第二视角,根据第二视角确定四面体在第二视角下对应的图像,即第三图像。电子设备可以在第三位置处将第三图像投影到第一模型中形成第十模型贴图,然后展开第十模型贴图以生成并显示第十贴图以替换第一贴图。从而当用户在第三位置观看时,可以看到如图11中的(b)所示的3D模型。
本申请实施例中,第一图像是3D模型第一视角对应的图像,用户在使用电子设备的过程中,当用户的眼睛的位置发生变化时,可以根据用户眼睛位置的变化,实时的调整该3D模型,使得该3D模型可以随着用户的眼睛位置的变化而转动,从而使用户从不同视角观看该3D模型,提高了用户体验和代入感。
上述主要从电子设备的角度对本申请实施例提供的一种3D显示方法进行了介绍。可以理解的是,电子设备为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本文中所公开的实施例描述的各示例的算法步骤,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本申请实施例可以根据上述方法示例对电子设备中的处理器进行功能模块的划分,例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个处理模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。需要说明的是,本申请实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
在采用了对应各个功能的划分各个功能模块的情况下,图12示出了本申请实施例提供的一种电子设备1200组成示意图,如图12所示,该第二电子设备包括:获取单元1210、检测单元1220、处理单元1230、显示单元1240。
其中,获取单元1210,用于获取电子设备的第一状态信息和第二电子设备信息。
检测单元1220,用于检测用户的眼睛的位置和检测电子设备的状态。
处理单元1230,用于根据第一状态信息生成第一模型。
处理单元1230,还用于在第一位置处将第一图像投影到第一模型上。
处理单元1230,还用于根据第一图像在第一位置处向第一模型上的投影生成第一模型贴图。
处理单元1230,还用于根据第一图像在第一位置处向第一模型上的投影生成第一模型贴图。
处理单元1230,还用于根据将第一模型贴图展开以生成第一贴图。
显示单元1240,用于显示第一贴图。
需要说明的是,上述方法实施例涉及的各步骤的所有相关内容均可以援引到对应功能模块的功能描述,在此不再赘述。本申请实施例提供的电子设备,用于执行上述3D显示的方法,因此可以达到与上述相同的效果。
本申请实施例还提供了一种电子设备,包括:处理器、存储器、应用程序以及计算机程序。上述各器件可以通过一个或多个通信总线连接。其中,该一个或多个计算机程序被存储在上述存储器中并被配置为被该一个或多个处理器执行,该一个或多个计算机程序包括指令,上述指令可以用于使电子设备执行上述各实施例中电子设备的各个步骤。
示例性地,上述处理器具体可以为图1所示的处理器110,上述存储器具体可以为图1所示的内部存储器120和/或与电子设备连接的外部存储器。
本申请实施例还提供一种芯片,所述芯片包括处理器和通信接口,所述通信接口用于接收信号,并将所述信号传输至所述处理器,所述处理器处理所述信号,使得如前文中任一种可能的实现方式中所述的3D显示的方法被执行。
本实施例还提供一种计算机可读存储介质,该计算机可读存储介质中存储有计算机指令,当该计算机指令在电子设备上运行时,使得电子设备执行上述相关方法步骤实现上述实施例中的3D显示的方法。
本实施例还提供了一种计算机程序产品,当该计算机程序产品在计算机上运行时,使得计算机执行上述相关步骤,以实现上述实施例中的3D显示的方法。
以上实施例中所用,根据上下文,术语“当…时”或“当…后”可以被解释为意思是“如果…”或“在…后”或“响应于确定…”或“响应于检测到…”。类似地,根据上下文,短语“在确定…时”或“如果检测到(所陈述的条件或事件)”可以被解释为意思是“如果确定…”或“响应于确定…”或“在检测到(所陈述的条件或事件)时”或“响应于检测到(所陈述的条件或事件)”。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的***、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (19)
1.一种3D显示方法,其特征在于,所述方法应用于电子设备,所述电子设备为折叠屏电子设备,所述方法包括:
获取所述电子设备的第一状态信息,所述第一状态信息包括用于指示所述电子设备的显示屏尺寸和显示屏折叠位置的第一信息、以及显示屏的折叠角度信息;
根据所述第一状态信息生成第一模型;
在第一位置处将第一图像投影到所述第一模型;
根据所述第一图像在所述第一位置处向所述第一模型的投影生成第一模型贴图;
将所述第一模型贴图展开以生成第一贴图;
显示所述第一贴图。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
当检测到所述第一状态信息变为第二状态信息时,根据所述第二状态信息生成第二模型;
在第二位置处将所述第一图像投影到所述第二模型;
根据所述第一图像在所述第二位置处向所述第二模型的投影生成第二模型贴图;
将所述第二模型贴图展开以生成第二贴图;
显示所述第二贴图以替换所述第一贴图。
3.根据权利要求1或2所述的方法,其特征在于,所述第一图像为视频的一帧图像,所述视频还包括第二图像,所述第二图像为所述第一图像后的一帧图像,所述方法还包括:
在所述第一位置处将所述第二图像投影到所述第一模型;
根据所述第二图像在所述第一位置处向所述第一模型的投影生成所述第三模型贴图;
将所述第三模型贴图展开以生成所述第三贴图;
所述显示所述第一贴图包括:
逐帧显示所述第一贴图和所述第三贴图。
4.根据权利要求1所述的方法,其特征在于,所述第一图像为视频的一帧图像,所述视频还包括第二图像,所述第二图像为所述第一图像后的一帧图像,当显示所述第一贴图时,所述第一状态信息变为第二状态信息,所述方法还包括:
根据所述第二状态信息生成第二模型;
在第二位置处将所述第一图像和所述第二图像投影到所述第二模型;
根据所述第一图像在所述第二位置处向所述第二模型的投影生成第二模型贴图,根据所述第二图像在所述第二位置处向所述第二模型的投影生成第四模型贴图;
将所述第二模型贴图展开以生成第二贴图,所述第四模型贴图展开以生成第四贴图;
使用所述第二贴图替换所述第一贴图并逐帧显示所述第二贴图和所述第四贴图。
5.根据权利要求1所述的方法,其特征在于,所述第一图像为视频的一帧图像,所述视频还包括第二图像,所述第二图像为所述第一图像后的一帧图像,当显示所述第一贴图时,所述第一状态信息变为第二状态信息,所述方法还包括:
根据所述第二状态信息生成第二模型;
在第二位置处将所述第二图像投影到所述第二模型;
根据所述第二图像在所述第二位置处向所述第二模型的投影生成第四模型贴图;
将所所述第四模型贴图展开以生成第四贴图;
所述显示所述第一贴图包括:
逐帧显示所述第一贴图和所述第四贴图。
6.根据权利要求1至5中任一项所述的方法,其特征在于,所述方法还包括:
检测用户的眼睛与所述电子设备的位置关系;
所述在第一位置处将第一图像投影到所述第一模型,包括:
根据所述用户的眼睛与所述电子设备的位置关系确定所述第一位置;
在所述第一位置处将所述第一图像投影到所述第一模型。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
当检测到所述用户的眼睛由所述第一位置变为第三位置时,在所述第三位置将所述第一图像投影到所述第一模型;
根据所述第一图像在所述第三位置向所述第一模型的投影生成第五模型贴图;
将所述第五模型贴图展开以生成第五贴图;
显示所述第五贴图以替换所述第一贴图。
8.根据权利要求6所述的方法,其特征在于,所述方法还包括:
当检测到所述用户的眼睛由所述第一位置变为第三位置且所述第一状态信息变为第二状态信息时,根据所述第二状态信息生成第二模型;
在所述第三位置处将所述第一图像投影到所述第二模型;
根据所述第一图像在所述第三位置处向所述第二模型的投影生成第六模型贴图;
将所述第六模型贴图展开以生成第六贴图;
显示所述第六贴图以替换所述第一贴图。
9.根据权利要求6所述的方法,其特征在于,所述第一图像为视频的一帧图像,所述视频还包括第二图像,所述第二图像为所述第一图像后的一帧图像,当显示所述第一贴图时,所述用户的眼睛的位置由所述第一位置变为第三位置,所述方法还包括:
在所述第三位置处将所述第一图像和所述第二图像投影到所述第一模型;
根据所述第一图像在所述第三位置处向所述第一模型的投影生成第五模型贴图,根据所述四图像在所述第三位置处向所述第一模型的投影生成第七模型贴图;
将所述第五模型贴图展开以生成第五贴图,所述第七模型贴图展开以生成第七贴图;
使用所述第五贴图替换所述第一贴图并逐帧显示所述第五贴图和所述第七贴图。
10.根据权利要求6所述的方法,其特征在于,所述第一图像为视频的一帧图像,所述视频还包括第二图像,所述第二图像为所述第一图像后的一帧图像,当显示所述第一贴图时,所述用户的眼睛的位置由所述第一位置变为第三位置,所述方法还包括:
在所述第三位置处将所述第二图像投影到所述第一模型;
根据所述四图像在所述第三位置处向所述第一模型的投影生成第七模型贴图;
将所述第七模型贴图展开以生成第七贴图;
所述显示所述第一贴图包括:
逐帧显示所述第一贴图和所述第七贴图。
11.根据权利要求6所述的方法,其特征在于,所述第一图像为视频的一帧图像,所述视频还包括第二图像,所述第二图像为所述第一图像后的一帧图像,当显示所述第一贴图时,所述用户的眼睛的位置由所述第一位置变为第三位置且所述第一状态信息变为第二状态信息,所述方法还包括:
根据所述第二状态信息生成第二模型;
在所述第三位置处将所述第一图像和所述第二图像投影到所述第二模型;
根据所述第一图像在所述第三位置处向所述第二模型的投影生成第八模型贴图,根据所述四图像在所述第三位置处向所述第二模型的投影生成第九模型贴图;
将所述第八模型贴图展开以生成第八贴图,所述第九模型贴图展开以生成第九贴图;
使用所述第八贴图替换所述第一贴图并逐帧显示所述第八贴图和所述第九贴图。
12.根据权利要求6所述的方法,其特征在于,所述第一图像为视频的一帧图像,所述视频还包括第二图像,所述第二图像为所述第一图像后的一帧图像,当显示所述第一贴图时,所述用户的眼睛的位置由所述第一位置变为第三位置且所述第一状态信息变为第二状态信息,所述方法还包括:
根据所述第二状态信息生成第二模型;
在所述第三位置处将所述第二图像投影到所述第二模型;
根据所述四图像在所述第三位置处向所述第二模型的投影生成第九模型贴图;
将所述第九模型贴图展开以生成第九贴图;
所述显示所述第一贴图包括:
逐帧显示所述第一贴图和所述第九贴图。
13.根据权利要求6所述的方法,其特征在于,所述第一图像为3D模型在第一视角对应的图像,所述方法还包括:
当检测到所述用户的眼睛由所述第一位置变为第三位置,根据所述第三位置确定第二视角;
根据所述第二视角和所述3D模型确定第三图像;
在所述第三位置将所述第三图像投影到所述第一模型;
根据所述第三图像在所述第三位置向所述第一模型的投影生成第十模型贴图;
将所述第十模型贴图展开以生成第十贴图;
显示所述第十贴图以替换所述第一贴图。
14.根据权利要求1至13中任一项所述的方法,其特征在于,所述第一信息为所述电子设备的型号信息。
15.根据权利要求1至14中任一项所述的方法,其特征在于,所述第一状态信息还包括所述电子设备的姿态信息。
16.一种电子设备,其特征在于,包括一个或多个处理器;一个或多个存储器;所述一个或多个存储器存储有一个或多个计算机程序,所述一个或多个计算机程序包括指令,当所述指令被所述一个或多个处理器执行时,使得如权利要求1至15中任一项所述的方法被执行。
17.一种芯片,其特征在于,所述芯片包括处理器和通信接口,所述通信接口用于接收信号,并将所述信号传输至所述处理器,所述处理器处理所述信号,使得如权利要求1至15中任一项所述的方法被执行。
18.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机指令,当所述计算机指令在计算机上运行时,使得如权利要求1至15中任一项所述的方法被执行。
19.一种包含指令的计算机程序产品,其特征在于,当所述计算机程序产品在计算机上运行时,使得所述计算机执行如权利要求1至15中任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210290663.6A CN116841350A (zh) | 2022-03-23 | 2022-03-23 | 一种3d显示方法以及装置 |
PCT/CN2023/081804 WO2023179442A1 (zh) | 2022-03-23 | 2023-03-16 | 一种3d显示方法以及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210290663.6A CN116841350A (zh) | 2022-03-23 | 2022-03-23 | 一种3d显示方法以及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116841350A true CN116841350A (zh) | 2023-10-03 |
Family
ID=88099860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210290663.6A Pending CN116841350A (zh) | 2022-03-23 | 2022-03-23 | 一种3d显示方法以及装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN116841350A (zh) |
WO (1) | WO2023179442A1 (zh) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110080472A1 (en) * | 2009-10-02 | 2011-04-07 | Eric Gagneraud | Autostereoscopic status display |
CN109636890B (zh) * | 2018-11-29 | 2023-02-28 | 北京市商汤科技开发有限公司 | 纹理融合方法和装置、电子设备、存储介质、产品 |
CN110430418A (zh) * | 2019-08-13 | 2019-11-08 | 袁朝伟 | 一种裸眼3d成像方法和装置 |
CN110795187A (zh) * | 2019-09-29 | 2020-02-14 | 华为技术有限公司 | 一种图像显示方法及电子设备 |
CN112835493B (zh) * | 2019-11-22 | 2022-07-22 | 华为技术有限公司 | 截屏显示方法、装置和终端设备 |
-
2022
- 2022-03-23 CN CN202210290663.6A patent/CN116841350A/zh active Pending
-
2023
- 2023-03-16 WO PCT/CN2023/081804 patent/WO2023179442A1/zh unknown
Also Published As
Publication number | Publication date |
---|---|
WO2023179442A1 (zh) | 2023-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109191549B (zh) | 显示动画的方法及装置 | |
CN109712224B (zh) | 虚拟场景的渲染方法、装置及智能设备 | |
KR20210130773A (ko) | 이미지 처리 방법 및 머리 장착형 디스플레이 디바이스 | |
WO2021018070A1 (zh) | 一种图像显示的方法及电子设备 | |
CN112991494B (zh) | 图像生成方法、装置、计算机设备及计算机可读存储介质 | |
CN112287852B (zh) | 人脸图像的处理方法、显示方法、装置及设备 | |
CN109947338B (zh) | 图像切换显示方法、装置、电子设备及存储介质 | |
CN112598594A (zh) | 颜色一致性矫正方法及相关装置 | |
CN110599593B (zh) | 数据合成的方法、装置、设备及存储介质 | |
US11244496B2 (en) | Information processing device and information processing method | |
CN111541907A (zh) | 物品显示方法、装置、设备及存储介质 | |
CN111882642B (zh) | 三维模型的纹理填充方法及装置 | |
WO2022252924A1 (zh) | 图像传输与显示方法、相关设备及*** | |
CN116152122B (zh) | 图像处理方法和电子设备 | |
CN113709355A (zh) | 滑动变焦的拍摄方法及电子设备 | |
CN113384880A (zh) | 虚拟场景显示方法、装置、计算机设备及存储介质 | |
WO2021110027A1 (zh) | 实现3d图像显示的方法、3d显示设备 | |
CN112929643B (zh) | 3d显示设备、方法及终端 | |
CN114205512A (zh) | 拍摄方法和装置 | |
CN115150542B (zh) | 一种视频防抖方法及相关设备 | |
WO2023179442A1 (zh) | 一种3d显示方法以及装置 | |
CN110335224B (zh) | 图像处理方法、装置、计算机设备及存储介质 | |
CN109685881B (zh) | 一种体绘制方法、装置及智能设备 | |
US11205404B2 (en) | Information displaying method and electronic device therefor | |
CN117148959B (zh) | 眼动追踪的帧率调整方法及相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |