CN108200422A - 生成3d图像的方法、设备、单镜头摄像装置及电子设备 - Google Patents
生成3d图像的方法、设备、单镜头摄像装置及电子设备 Download PDFInfo
- Publication number
- CN108200422A CN108200422A CN201810141952.3A CN201810141952A CN108200422A CN 108200422 A CN108200422 A CN 108200422A CN 201810141952 A CN201810141952 A CN 201810141952A CN 108200422 A CN108200422 A CN 108200422A
- Authority
- CN
- China
- Prior art keywords
- image
- lens
- rendering
- right eye
- left eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/162—Detection; Localisation; Normalisation using pixel segmentation or colour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Ophthalmology & Optometry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Processing Or Creating Images (AREA)
Abstract
公开了一种基于单镜头生成3D图像的方法、设备、单镜头摄像装置及电子设备。该方法包括:通过所述单镜头获取待显示图像数据;基于获取的两眼间距离,对所述待显示图像数据进行计算,分别得到左眼模拟图像和右眼模拟图像;根据所述左眼模拟图像和所述右眼模拟图像,生成待显示的3D图像。根据本公开,可以基于单镜头生成3D图像,与现有技术使用两个镜头相比,大大降低了成本。
Description
技术领域
本发明涉及视频内容识别技术领域,更具体地,涉及一种基于单镜头生成3D图像的方法、设备、单镜头摄像装置及电子设备。
背景技术
随着虚拟现实(Virtual Reality,VR)技术、增强现实(Augmented Reality,AR)技术的快速发展,与之相关的产品越来越普及,因此与其对应的3D摄像机的运用及使用渐趋普及。
通常,3D摄像机主要由两个摄像头模块组成。这两个摄像头模块间的距离模拟人两眼之间的距离(一般成人两眼间的距离约为7.0cm)设置。基于两个摄像头模块所拍摄的图像所形成的具有视差的图像,产生具有3D立体效果的3D图像。由于必须设置两个摄像头模块,导致其对应产品的成本较高。
因此,发明人认为,需要针对现有技术中存在的上述技术问题进行改进。
发明内容
本公开的一个目的是提供一种基于单镜头生成3D图像的新技术方案。
根据本公开的第一方面,提供一种基于单镜头生成3D图像的方法,包括:
通过所述单镜头获取待显示图像数据;
基于获取的两眼间距离,对所述待显示图像数据进行计算,分别得到左眼模拟图像和右眼模拟图像;
根据所述左眼模拟图像和所述右眼模拟图像,生成待显示的3D图像。
可选的,获取两眼间距离包括:
通过所述单镜头获取包含面部特征的图像;
从所述包含面部特征的图像中计算出两眼间距离。
可选的,所述从所述包含面部特征的图像中计算出两眼间距离,包括:
从所述包含面部特征的图像中确定面部区域图像;
从所述面部区域图像中确定眼睛区域图像;
对所述眼睛区域图像进行处理,得到左眼轮廓和右眼轮廓;
基于所述左眼轮廓和右眼轮廓,确定左眼中心坐标与右眼中心坐标;
根据所述左眼中心坐标和所述右眼中心坐标计算得到所述两眼间距离。
可选的,所述对所述眼睛区域图像进行处理,得到左眼轮廓和右眼轮廓,包括:
依次对所述眼睛区域图像进行边缘强化处理、二值化处理、边缘取样点处理以及蛇形算法处理后,得到所述左眼轮廓和所述右眼轮廓。
可选的,所述基于获取的两眼间距离,对所述待显示图像数据进行计算,分别得到左眼模拟图像和右眼模拟图像,包括:
基于所述单镜头的物距和所述两眼间距离,计算得到左右眼光角;
根据所述左右眼光角和图像转换公式,对所述待显示图像数据进行计算,分别得到所述左眼模拟图像和右眼模拟图像。
可选的,所述基于所述单镜头的物距和所述两眼间距离,计算得到左右眼光角之前,所述方法还包括:
获取所述单镜头的物体焦点的马达对焦步数,以及无穷远处的马达对焦步数;
根据所述物体焦点的马达对焦步数以及无穷远处的马达对焦步数,计算得到所述单镜头的像距;
根据所述像距,计算得到所述单镜头的物距。
可选的,所述根据所述左眼模拟图像和所述右眼模拟图像,生成待显示的3D图像,包括:
将所述左眼模拟图像和所述右眼模拟图像进行合成,生成待显示的3D图像。
根据本公开的第二方面,提供了一种用于单镜头生成3D图像的设备,包括:
用于通过所述单镜头获取待显示图像数据的装置;
用于基于获取的两眼间距离,对所述待显示图像数据进行计算,分别得到左眼模拟图像和右眼模拟图像的装置;
用于根据所述左眼模拟图像和所述右眼模拟图像,生成待显示的3D图像的装置。
根据本公开的第三方面,提供了一种单镜头摄像装置,包括根据本公开的第二方面所述的用于单镜头生成3D图像的设备,或者被设计成用于执行根据本公开第一方面中的任何一项所述的基于单镜头生成3D图像的方法中的操作。
根据本公开的第四方面,提供了一种电子设备,包括根据本公开第三方面所述的单镜头摄像装置,或者包括存储器和处理器,其中,所述存储器存储可执行指令,所述可执行指令在所述电子设备运行时控制所述处理器执行根据本公开第一方面中的任何一项所述的基于单镜头生成3D图像的方法中的操作。
根据本公开,可以基于单镜头生成3D图像,与现有技术使用两个镜头相比,大大降低了成本。
通过以下参照附图对本发明的示例性实施例的详细描述,本发明的其它特征及其优点将会变得清楚。
附图说明
被结合在说明书中并构成说明书的一部分的附图示出了本发明的实施例,并且连同其说明一起用于解释本发明的原理。
图1示出了根据本公开的基于单镜头生成3D图像的方法的示意性流程图。
图2a~图2d示出了根据本公开的方法中确定面部区域图像的示意图。
图3a~图3e示出了根据本公开的方法确定眼睛轮廓的示意图。
图4示出了根据本公开的方法确定眼睛中心坐标的示意图。
图5示出了根据本公开的实施例的单镜头摄像装置的示意性框图。
图6示出了根据本公开的实施例的电子设备的示意性框图。
具体实施方式
现在将参照附图来详细描述本发明的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
下面,参照附图描述根据本公开的各个实施例和例子。
<方法>
图1示出了根据本公开的基于单镜头生成3D图像的方法的示意性流程图。
如图1所示,在步骤1100、通过所述单镜头获取待显示图像数据。
具体的,可以通过VR设备或AR设备的单镜头拍摄获取待显示图像数据。
步骤1200、基于获取的两眼间距离,对所述待显示图像数据进行计算,分别得到左眼模拟图像和右眼模拟图像。
在一个例子中,两眼间距离可以是实时计算获取的。具体的,实时计算获取两眼间距离时,先通过单镜头获取包含面部特征的图像,如图2a所示。然后从包含面部特征的图像中计算出两眼间距离。
首先,从包含面部特征的图像中确定面部区域图像。可选的,可以基于基于肤色理论,根据肤色可能的范围,将面部区域确定出来。其中,肤色范围判断公式为:
若Skincolor(x,y)为1,则表示其被分类为肤色部分并设定为白色,否则,则被分类为非肤色部分并设定为黑色。该方法是使用色彩信息YCrCb,将图像通过统计范围来确定面部信息,如图2b所示。基于得到的面部信息,得到面部大小范围,如图2c所示,面部大小范围为矩形框所围住的范围。将此范围确定为用户的面部区域图像,如图2d所示。
然后从面部区域图像中确定眼睛区域图像,如图3a所示。对眼睛区域图像进行处理,得到左眼轮廓和右眼轮廓。此处,依次对眼睛区域图像进行边缘强化处理、二值化处理、边缘取样点处理以及蛇形算法处理后,得到所述左眼轮廓和所述右眼轮廓。其中,对眼睛区域图像进行边缘强化处理后,得到的图像如图3b所示。经过二值化处理后的图像如图3c所示。经过边缘取样点处理后得到的图像如图3d所示。经过蛇形算法处理后,得到的眼睛轮廓图像如图3e所示。
在得到左眼轮廓和右眼轮廓后,基于左眼轮廓和右眼轮廓,确定左眼中心坐标与右眼中心坐标。如图4所示,假设得到的左眼轮廓的宽度为W,高度为H,以宽度W和高度H围成的矩形的中心点的坐标,就是左眼中心坐标(X,Y)。
在得到左眼中心坐标和右眼中心坐标后,根据左眼中心坐标和所述右眼中心坐标计算得到所述两眼间距离。例如,可以利用距离公式计算得到用户的两眼间距离;其中,所述左眼中心坐标为A(x1,y1),所述右眼中心坐标为B(x2,y2)。
在另一个例子中,两眼间距离也可以是预先存储的。具体的,可以对本步骤所获得的两眼间距离进行存储,并可以将该两眼间距离与用户信息进行绑定。例如,将A用户的两眼间距离与A用户进行绑定存储,这样,A用户在下次使用时,可以直接获取所存储的两眼间距离进行后续运算。
本步骤中,在获取到两眼间距离后,对待显示图像数据进行计算,分别得到左眼模拟图像和右眼模拟图像。具体的,首先基于单镜头的物距和两眼间距离,计算得到左右眼光角;并根据左右眼光角和图像转换公式,对待显示图像数据进行计算,分别得到左眼模拟图像和右眼模拟图像。
其中,单镜头的物距需要通过计算得到。具体的,首先通过控制单镜头的对焦马达完成对焦动作,获取单镜头的物体焦点的马达对焦步数,以及无穷远处的马达对焦步数。然后根据物体焦点的马达对焦步数以及无穷远处的马达对焦步数,基于公式q=(((Y-X)×t×M)+f)计算得到单镜头的像距。根据像距,基于公式计算得到单镜头的物距。其中,q为像距,Y为物体焦点的马达对焦步数,X为无穷远处的马达对焦步数,t为单镜头的精度,M为所述单镜头的放大倍率,f为所述单镜头的焦长,p为单镜头的物距。
需要说明的是,光角是用户的双眼聚焦在目标物的某一位置时形成的一个角度,当观看不同距离的物体时,这些物体与用户的两眼所形成的角度也不同,越近则角度越大,越远则角度越小。通常,目标物体与两眼所形成的光角约为0.8度~6度,在这个范围内观看目标物的立体效果是最好的。因此,在计算得到单镜头的物距后,对左右眼光角进行计算。具体的,可以利用光角计算公式θ=2×(tan-1((两眼间距离/2)/物距)),计算得到左右眼光角θ。
在得到左右眼光角后,可以基于公式Left_Out_Image=CMatrix(θ/2)*Input_Image,对待显示图像数据进行计算,得到左眼模拟图像;基于公式Right_Out_Image=CMatrix(-θ/2)*Input_Image,对待显示图像数据进行计算,得到右眼模拟图像。其中,CMatrix(θ/2)为图像转换矩阵,为左右眼光角,Input_Image为待显示图像数据,Left_Out_Image为左眼模拟图像,Right_Out_Image为右眼模拟图像。其中,图像转换矩阵CMatrix(θ/2)为:
其中,W为待显示图像宽度,H为待显示图像高度,Wnew为旋转后图像宽度,Hnew为旋转后图像高度。
在得到左眼模拟图像和右眼模拟图像后,进入步骤1300。
在步骤1300、根据所述左眼模拟图像和所述右眼模拟图像,生成待显示的3D图像。
本步骤中,将左眼模拟图像和右眼模拟图像进行合成,生成待显示的3D图像。该待显示的3D图像就是模拟生成的具有视差的3D图像。
在这个实施例中,通过单镜头获取待显示图像数据;基于获取的两眼间距离,对待显示图像数据进行计算,分别得到左眼模拟图像和右眼模拟图像;根据左眼模拟图像和右眼模拟图像,生成待显示的3D图像。通过这种方式,根据两眼间距离将单镜头获取的待显示图像转换为左眼模拟图像和右眼模拟图像,生成具有视差的3D图像,达到了生成具有3D立体效果的图像的目的,与现有的使用两个镜头生成3D图像的方案相比,大大降低了成本。
<设备>
本领域技术人员应当理解,在电子技术领域中,可以通过软件、硬件以及软件和硬件结合的方式,将上述方法体现在产品中本领域技术人员很容易基于上面公开的方法,产生一种用于单镜头生成3D图像的设备,所述设备包括用于执行根据上述实施例的基于单镜头生成3D图像的方法中的各个操作的装置。例如,所述设备包括:用于通过所述单镜头获取待显示图像数据的装置;用于基于获取的两眼间距离,对所述待显示图像数据进行计算,分别得到左眼模拟图像和右眼模拟图像的装置;用于根据所述左眼模拟图像和所述右眼模拟图像,生成待显示的3D图像的装置。
<单镜头摄像装置>
图5示出了根据本公开的实施例的单镜头摄像装置的示意性框图。如图5所示,单镜头摄像装置5000包括用于单镜头生成3D图像的设备4010。用于单镜头生成3D图像的设备4010可以是根据上述实施例的用于单镜头生成3D图像的设备。
此外,如前面所述,也可以基于前面所述的方法产生一种单镜头摄像装置,它可以被设计成用于执行参照图1所述的实施例的方案中的步骤。
本领域技术人员公知的是,随着诸如大规模集成电路技术的电子信息技术的发展和软件硬件化的趋势,要明确划分计算机***软、硬件界限已经显得比较困难了。因为,任何操作可以软件来实现,也可以由硬件来实现。任何指令的执行可以由硬件完成,同样也可以由软件来完成。对于某一机器功能采用硬件实现方案还是软件实现方案,取决于价格、速度、可靠性、存储容量、变更周期等非技术性因素。对于技术人员来说,软件实现方式和硬件实现方式是等同的。技术人员可以根据需要选择软件或硬件来实现上述方案。因此,这里不对具体的软件或硬件进行限制。
<电子设备>
可以在诸如VR设备、AR设备等的电子设备中实现上述实施例中的任何一个。例如,所述电子设备可以包括上述实施例中的用于单镜头生成3D图像的设备或者包括上述实施例中的单镜头摄像装置。
此外,图6示出了根据本公开的实施例的电子设备的示意性框图。如图6所示,电子设备6000可以包括处理器6010、存储器6020、接口装置6030、通信装置6040、显示装置6050、输入装置6060、扬声器6070、麦克风6080,等等。
处理器6010例如可以是中央处理器(CPU)、微处理器(MCU)等。存储器6020例如包括ROM(只读存储器)、RAM(随机存取存储器)、诸如硬盘的非易失性存储器等。接口装置6030例如包括USB接口、耳机接口等。
通信装置6040例如能够进行有有线或无线通信。
显示装置6050例如是液晶显示屏、触摸显示屏等。输入装置6060例如可以包括触摸屏、键盘等。用户可以通过扬声器6070和麦克风6080输入/输出语音信息。
图6所示的电子设备仅是解释性的,并且决不是为了要限制本发明、其应用或用途。
在这个实施例中,所述存储器6020用于存储指令,所述指令在所述电子设备6000运行时控制所述处理器6010执行前面参照图1所述的基于单镜头生成3D图像的方法中的操作。本领域技术人员应当理解,尽管在图6中示出了多个装置,但是,本发明可以仅涉及其中的部分装置,例如,处理器6010和存储器6020等。技术人员可以根据本发明所公开方案设计指令。指令如何控制处理器进行操作,这是本领域公知,故在此不再详细描述。
本领域技术人员公知的是,随着诸如大规模集成电路技术的电子信息技术的发展和软件硬件化的趋势,要明确划分计算机***软、硬件界限已经显得比较困难了。因为,任何操作可以软件来实现,也可以由硬件来实现。任何指令的执行可以由硬件完成,同样也可以由软件来完成。对于某一机器功能采用硬件实现方案还是软件实现方案,取决于价格、速度、可靠性、存储容量、变更周期等非技术性因素。对于技术人员来说,软件实现方式和硬件实现方式是等同的。技术人员可以根据需要选择软件或硬件来实现上述方案。因此,这里不对具体的软件或硬件进行限制。
本发明可以是设备、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本发明的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本发明操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本发明的各个方面。
这里参照根据本发明实施例的方法、装置(***)和计算机程序产品的流程图和/或框图描述了本发明的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本发明的多个实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。对于本领域技术人员来说公知的是,通过硬件方式实现、通过软件方式实现以及通过软件和硬件结合的方式实现都是等价的。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。本发明的范围由所附权利要求来限定。
Claims (10)
1.一种基于单镜头生成3D图像的方法,其特征在于,包括:
通过所述单镜头获取待显示图像数据;
基于获取的两眼间距离,对所述待显示图像数据进行计算,分别得到左眼模拟图像和右眼模拟图像;
根据所述左眼模拟图像和所述右眼模拟图像,生成待显示的3D图像。
2.根据权利要求1所述的方法,其特征在于,获取两眼间距离包括:
通过所述单镜头获取包含面部特征的图像;
从所述包含面部特征的图像中计算出两眼间距离。
3.根据权利要求2所述的方法,其特征在于,所述从所述包含面部特征的图像中计算出两眼间距离,包括:
从所述包含面部特征的图像中确定面部区域图像;
从所述面部区域图像中确定眼睛区域图像;
对所述眼睛区域图像进行处理,得到左眼轮廓和右眼轮廓;
基于所述左眼轮廓和右眼轮廓,确定左眼中心坐标与右眼中心坐标;
根据所述左眼中心坐标和所述右眼中心坐标计算得到所述两眼间距离。
4.根据权利要求3所述的方法,其特征在于,所述对所述眼睛区域图像进行处理,得到左眼轮廓和右眼轮廓,包括:
依次对所述眼睛区域图像进行边缘强化处理、二值化处理、边缘取样点处理以及蛇形算法处理后,得到所述左眼轮廓和所述右眼轮廓。
5.根据权利要求1所述的方法,其特征在于,所述基于获取的两眼间距离,对所述待显示图像数据进行计算,分别得到左眼模拟图像和右眼模拟图像,包括:
基于所述单镜头的物距和所述两眼间距离,计算得到左右眼光角;
根据所述左右眼光角和图像转换公式,对所述待显示图像数据进行计算,分别得到所述左眼模拟图像和右眼模拟图像。
6.根据权利要求5所述的方法,其特征在于,所述基于所述单镜头的物距和所述两眼间距离,计算得到左右眼光角之前,所述方法还包括:
获取所述单镜头的物体焦点的马达对焦步数,以及无穷远处的马达对焦步数;
根据所述物体焦点的马达对焦步数以及无穷远处的马达对焦步数,计算得到所述单镜头的像距;
根据所述像距,计算得到所述单镜头的物距。
7.根据权利要求1所述的方法,其特征在于,所述根据所述左眼模拟图像和所述右眼模拟图像,生成待显示的3D图像,包括:
将所述左眼模拟图像和所述右眼模拟图像进行合成,生成待显示的3D图像。
8.一种用于单镜头生成3D图像的设备,其特征在于,包括:
用于通过所述单镜头获取待显示图像数据的装置;
用于基于获取的两眼间距离,对所述待显示图像数据进行计算,分别得到左眼模拟图像和右眼模拟图像的装置;
用于根据所述左眼模拟图像和所述右眼模拟图像,生成待显示的3D图像的装置。
9.一种单镜头摄像装置,其特征在于,包括根据权利要求8所述的用于单镜头生成3D图像的设备,或者被设计成用于执行根据权利要求1-7中的任何一项所述的基于单镜头生成3D图像的方法中的操作。
10.一种电子设备,其特征在于,包括根据权利要求9所述的单镜头摄像装置,或者包括存储器和处理器,其中,所述存储器存储可执行指令,所述可执行指令在所述电子设备运行时控制所述处理器执行根据权利要求1-7中的任何一项所述的基于单镜头生成3D图像的方法中的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810141952.3A CN108200422A (zh) | 2018-02-11 | 2018-02-11 | 生成3d图像的方法、设备、单镜头摄像装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810141952.3A CN108200422A (zh) | 2018-02-11 | 2018-02-11 | 生成3d图像的方法、设备、单镜头摄像装置及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108200422A true CN108200422A (zh) | 2018-06-22 |
Family
ID=62593706
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810141952.3A Pending CN108200422A (zh) | 2018-02-11 | 2018-02-11 | 生成3d图像的方法、设备、单镜头摄像装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108200422A (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102069710A (zh) * | 2009-11-24 | 2011-05-25 | 鸿富锦精密工业(深圳)有限公司 | 驾驶监控装置及方法 |
KR20160050528A (ko) * | 2014-10-30 | 2016-05-11 | 주식회사 에이치앤디 | 3d 영상 컨버팅 시스템 |
CN107659772A (zh) * | 2017-09-26 | 2018-02-02 | 歌尔科技有限公司 | 3d图像生成方法、装置及电子设备 |
-
2018
- 2018-02-11 CN CN201810141952.3A patent/CN108200422A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102069710A (zh) * | 2009-11-24 | 2011-05-25 | 鸿富锦精密工业(深圳)有限公司 | 驾驶监控装置及方法 |
KR20160050528A (ko) * | 2014-10-30 | 2016-05-11 | 주식회사 에이치앤디 | 3d 영상 컨버팅 시스템 |
CN107659772A (zh) * | 2017-09-26 | 2018-02-02 | 歌尔科技有限公司 | 3d图像生成方法、装置及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11632537B2 (en) | Method and apparatus for obtaining binocular panoramic image, and storage medium | |
US20210183165A1 (en) | Image processing method and apparatus, electronic device, and computer-readable storage medium | |
CN111598818B (zh) | 人脸融合模型训练方法、装置及电子设备 | |
CN112989904B (zh) | 风格图像生成方法、模型训练方法、装置、设备和介质 | |
US20220382386A1 (en) | Gesture recognition method and device, gesture control method and device and virtual reality apparatus | |
CN107302694B (zh) | 通过虚拟现实设备呈现场景的方法、设备及虚拟现实设备 | |
WO2015070668A1 (en) | Image processing method and apparatus | |
EP3621038A2 (en) | Methods and devices for replacing expression, and computer readable storage media | |
WO2018086295A1 (zh) | 一种应用界面显示方法及装置 | |
CN109151540A (zh) | 视频图像的交互处理方法及装置 | |
US10595001B2 (en) | Apparatus for replaying content using gaze recognition and method thereof | |
KR102637901B1 (ko) | 전자 장치에 의한 돌리 줌 효과 제공 방법 및 상기 방법에서 사용되는 전자 장치 | |
CN108234858A (zh) | 图像虚化处理方法、装置、存储介质及电子设备 | |
CN108230384A (zh) | 图像深度计算方法、装置、存储介质和电子设备 | |
CN112118435B (zh) | 面向异形金属屏幕的多投影融合方法及*** | |
US20230143452A1 (en) | Method and apparatus for generating image, electronic device and storage medium | |
CN108230234A (zh) | 图像虚化处理方法、装置、存储介质及电子设备 | |
AU2019309552A1 (en) | Method and data-processing system for synthesizing images | |
CN109840946A (zh) | 虚拟对象显示方法及装置 | |
CN107798675A (zh) | 显示图像中拖影的检测方法及装置 | |
CN107133981B (zh) | 图像处理方法和装置 | |
CN109145688A (zh) | 视频图像的处理方法及装置 | |
CN106952325A (zh) | 用于操作三维动画角色的方法和装置 | |
KR20170100371A (ko) | 스테레오 삼차원 영상 콘텐츠 디스플레이 제작 및 재생 방법 | |
US11010865B2 (en) | Imaging method, imaging apparatus, and virtual reality device involves distortion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180622 |