CN101674491B - 用于分析图像数据的设备、方法和计算机程序 - Google Patents
用于分析图像数据的设备、方法和计算机程序 Download PDFInfo
- Publication number
- CN101674491B CN101674491B CN200910169135XA CN200910169135A CN101674491B CN 101674491 B CN101674491 B CN 101674491B CN 200910169135X A CN200910169135X A CN 200910169135XA CN 200910169135 A CN200910169135 A CN 200910169135A CN 101674491 B CN101674491 B CN 101674491B
- Authority
- CN
- China
- Prior art keywords
- image
- depth information
- supposition
- information determiner
- vision depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/341—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
图像数据分析设备,包括:单目视觉深度信息确定器,用于确定在形成时分显示类型的立体图像数据的左图像和右图像中的一个的图像帧中包含的区域的前后关系;双目视觉深度信息确定器,用于确定在假定是左图像和右图像的多个图像中包含的区域的前后关系;以及左右图像鉴别器,用于在一对确定结果显示高一致率时输出与双目视觉深度信息确定器的假定一致的左右图像识别信息,以及在该对确定结果显示第一致率时输出与所述假定的相反设置一致的左右图像识别信息。
Description
技术领域
本发明涉及用于分析图像数据的设备、方法和计算机程序。更具体地,本发明涉及用于进行图像分析的设备、方法和计算机程序,所述图像分析使用户能够正确地观看时分立体图像。
本发明还涉及用于产生用于图像显示控制过程或其他控制过程的控制信号的设备、方法和计算机程序。在图像显示控制过程中,通过确定时分立体图像数据中的每个帧是左图像还是右图像来进行适当的图像显示,其中,所述时分立体图像数据不包含指示其每个帧是左图像还是右图像的信息,且在其他控制过程中,对用于观看显示图像的观察眼镜和偏振器进行控制。
背景技术
诸如电视和视频设备的视频介质的图像数据通常显示在平面屏幕上。观看所显示的视频的人可能不会感知与所述视频相关的深度信息。现有技术中已知立体显示技术能够使观看者感知深度,即使图像数据显示在平面屏幕上。立体显示技术尽管已处于其实际使用阶段,然而仍然未被广泛地接受。
目前,在市场上可买到支持立体观看的三维(3D)电视接收器,且已开始在通用广播网络上进行立体图像广播的测试。放映3D的电影院在快速增加。享受3D视频的环境由此将被建立。
在立体显示中,从不同视点捕获的视频被呈现到观看者的左眼和右眼,使得观看者可以由于左眼图像和右眼图像之间的视差或由于汇聚而感知深度。结果,即使通过显示在平面屏幕上的视频数据,人们也能够感知相关的深度。例如,公开号为9-107562,8-30806,10-51812,2000-209614,2005-151534以及6-194602的日本未审查的专利申请公开了相关技术中的立体图像显示过程。
已经提出了向左眼和右眼呈现不同视频的立体显示的各种技术。一种技术是时分方法。在所述时分方法中,向左眼和右眼呈现的不同的视频被交替地显示(以下将仅呈现给左眼的视频称为左图像,将仅呈现给右眼的视频称为右图像)。例如,左图像被显示为偶数帧,而右图像被显示为奇数帧。
观看者配戴液晶快门眼镜观看图像。液晶快门眼镜交替地打开和关闭其左眼和右眼部分。在左图像的呈现时间,液晶快门眼镜的左眼部分打开,而右眼部分关闭。该控制使到观看者右眼的入射光被阻挡,而仅允许入射光进入左眼。在右图像的呈现时间,液晶快门眼镜的右眼部分打开,而左眼部分关闭。该控制使到观看者左眼的入射光被阻挡,而仅允许入射光进入右眼。由此,观看者使用左眼观看左图像、使用右眼观看右图像。由此实现立体图像显示。
在另一种技术中,左图像和右图像分别显示为左手圆偏振图像和右手圆偏振图像。观看者配戴偏振镜,以由此分别使用左眼和右眼交替地观看左图像和右图像。
所述液晶快门眼镜和偏振镜是已知的,且被用作时分类型的立体图像显示设备。当液晶快门眼镜用于时分类型的立体图像显示***中时,如果液晶快门眼镜的打开定时与左右图像的显示时序不同步,则可能无法实现适当的立体显示。更具体地,如果左右图像被颠倒,例如,在呈现左图像时液晶快门眼镜的右眼部分被打开,或者在呈现右图像时液晶快门眼镜的左眼部分被打开,则观看者观看到其深度也被颠倒的视图。由此,观看者感知的图像比其正确的位置更靠后或者比其正确的位置更靠前。结果,观看者可能会感到不舒服或甚至会感到疲劳。
为避免左右图像颠倒,公开号为05-14932的日本未审查的专利申请公开了一种立体电视信号处理方法。根据本公开,左右识别信号叠加在图像信号上,响应于该识别信号驱动快门眼镜。该技术还必须事先将左右识别信号叠加到图像信号上,且如果识别信息未叠加在图像信号上,则该技术不会对时分立体显示图像数据起作用。
还可使用一种快门眼镜的包括开关的驱动设备,如果观看者感觉到图像是左右颠倒的,则可使用所述开关来改变左右图像的显示时序。当然,并非所有的观察者都能正确地识别出左右图像颠倒的发生。左图像不一定与右图像可靠地进行交替。多个不同的图像数据被连续地再现,左右图像的显示时序不一定是一致的。每次出现左右图像颠倒时必须进行切换操作。
发明内容
由此,期望提供一种用于进行时分立体图像显示过程的设备、方法和计算计程序,其中用于左眼的左图像和用于右眼的右图像以交替的方式显示使得观看者使用左眼观看左图像,使用右眼观看右图像,而不是相反。
根据本发明的一个实施例,图像数据分析设备包括单目视觉深度信息确定器,用于接收包括针对用户的左眼的左图像和针对用户右眼的右图像的时分显示类型的立体图像数据,以及确定在左图像和右图像中之一的图像帧中包含的区域的前后关系,双目视觉深度信息确定器,用于接收时分显示类型的立体图像数据,选择假定是左图像的图像和假定是右图像的图像,以及确定在包含所选的左图像和右图像的多个图像的图像帧中包含的区域的前后关系,以及左右图像鉴别器,用于接收单目深度信息确定器的第一确定结果和双目视觉深度信息确定器的第二确定结果,比较第一确定结果和第二确定结果,在单目视觉深度信息确定器的第一确定结果与双目视觉深度信息确定器的第二确定结果之间的一致率高的情况下,确定由双目视觉深度信息确定器设置的假定是正确,以及输出表示立体图像数据的每个图像帧是左图像还是右图像的识别信息作为与所述假定一致的识别信息。
在图像数据分析设备中,在单目视觉深度信息确定器的第一确定结果与双目视觉深度信息确定器的第二确定结果之间的一致率低的情况下,左右图像鉴别器确定由双目视觉深度信息确定器设置的假定不正确,并输出表示立体图像数据的每个图像帧是左图像还是右图像的识别信息作为与所述假定的相反设置一致的识别信息。
在图像数据分析设备中,单目视觉深度信息确定器和双目视觉深度信息确定器中的每一个可产生与多个区域相关的多个确定结果。左右图像鉴别器接收并比较单目视觉深度信息确定器的多个第一确定结果和双目视觉深度信息确定器的多个第二确定结果。在所述一致率等于或高于预定的阈值的情况下,所述左右图像确定器确定由双目视觉深度信息确定器设置的假定正确,并输出表示立体图像数据的每个图像帧是左图像还是右图像的识别信息作为与所述假定一致的识别信息。在所述一致率低于所述预定的阈值的情况下,所述左右图像鉴别器确定由双目视觉深度信息确定器设置的假定不正确,并输出表示立体图像数据的每个图像帧是左图像还是右图像的识别信息作为与所述假定的相反设置相匹配的识别信息。
在图像数据分析设备中,双目视觉深度信息确定器将时分显示类型的立体图像数据的图像帧分为偶数帧和奇数帧,设立所述偶数帧是左图像以及所述奇数帧是右图像的第一假定,或者与所述第一假定相反的假定,并在所设置的假定下确定在包含左图像和右图像的多个图像的图像帧中包含的区域的前后关系。
在图像数据分析设备中,双目视觉深度信息确定器对包含所选择的左图像和右图像的多个图像进行立体匹配处理,以确定图像帧中包含的区域的前后关系。
在图像数据分析设备中,单目视觉深度信息确定器从所述左图像和右图像中之一的图像帧中包含的区域的图像模糊、或区域的垂直方向的位置关系来确定图像帧中包含的区域的前后关系。
在图像数据分析设备中,单目视觉深度信息确定器通过跟踪在多个左图像和右图像上移动的两个区域,并经由检测所述两个区域之间的重叠来确定所述两个区域之间的前后关系。
根据本发明的一个实施例,液晶快门控制设备包括:单目视觉深度信息确定器,用于接收包括针对用户左眼的左图像和针对用户右眼的右图像的时分显示类型的立体图像数据,以及确定在左图像和右图像中之一的图像帧中包含的区域的前后关系,双目视觉深度信息确定器,用于接收时分显示类型的立体图像数据,选择假定是左图像的图像和假定是右图像的图像,以及确定在包含所选的左图像和右图像的多个图像的图像帧中包含的区域的前后关系,以及左右图像鉴别器,用于接收单目深度信息确定器的第一确定结果和双目视觉深度信息确定器的第二确定结果,比较第一确定结果和第二确定结果,在单目视觉深度信息确定器的第一确定结果与双目视觉深度信息确定器的第二确定结果之间的一致率高的情况下,确定由双目视觉深度信息确定器设置的假定是正确的,以及输出表示立体图像数据的每个图像帧是左图像还是右图像的识别信息作为与所述假定一致的识别信息,快门驱动信号输出单元,用于输出驱动以构成立体图像数据的图像帧为单位进行切换的液晶快门眼镜的快门驱动信号,以及信号变换器,用于接收从所述左右图像鉴别器输出的识别信号,和从所述快门驱动信号输出单元输出的快门驱动信号,响应于所述识别信号修改所述快门驱动信号并输出所修改的信号作为对液晶快门眼镜的控制信号。
在液晶快门控制设备中,所述信号变换器对从左右图像鉴别器输出的识别信号和从快门驱动信号输出单元输出的快门驱动信号进行异或操作,并输出该异或操作结果作为对液晶快门眼镜的控制信号。
根据本发明的一个实施例,偏振控制设备包括:单目视觉深度信息确定器,用于接收包括针对用户左眼的左图像和针对用户右眼的右图像的时分显示类型的立体图像数据,以及确定在左图像和右图像中之一的图像帧中包含的区域的前后关系,双目视觉深度信息确定器,用于接收时分显示类型的立体图像数据,选择假定是左图像的图像和假定是右图像的图像,以及确定在包含所选的左图像和右图像的多个图像的图像帧中包含的区域的前后关系,以及左右图像鉴别器,用于接收单目深度信息确定器的第一确定结果和双目视觉深度信息确定器的第二确定结果,比较第一确定结果和第二确定结果,在单目视觉深度信息确定器的第一确定结果与双目视觉深度信息确定器的第二确定结果之间的一致率高的情况下,确定由双目视觉深度信息确定器设置的假定是正确的,以及输出表示立体图像数据的每个图像帧是左图像还是右图像的识别信息作为与所述假定一致的识别信息,偏振器驱动信号输出单元,用于输出驱动以构成立体图像数据的图像帧为单位进行切换的偏振器的偏振器驱动信号,以及信号变换器,用于接收从所述左右图像鉴别器输出的识别信号,和从所述偏振器驱动信号输出单元输出的偏振器驱动信号,响应于所述识别信号修改所述偏振器驱动信号并输出所修改的信号作为对所述偏振器的控制信号。
在所述偏振控制设备中,信号变换器对从左右图像鉴别器输出的识别信号和从偏振器驱动信号输出单元输出的偏振器驱动信号进行异或操作,并输出所述异或操作结果作为对偏振器的控制信号。
根据本发明的一个实施例,图像数据分析方法包括以下步骤:接收包括针对用户左眼的左图像和针对用户右眼的右图像的时分显示类型的立体图像数据,以及在第一确定中确定在左图像和右图像中之一的图像帧中包含的区域的前后关系,接收时分显示类型的立体图像数据,选择假定是左图像的图像和假定是右图像的图像,以及在第二确定中确定在包含所选的左图像和右图像的多个图像的图像帧中包含的区域的前后关系,以及接收第一确定的第一确定结果和第二确定的第二确定结果,比较第一确定结果和第二确定结果,在第一确定结果与第二确定结果之间的一致率高的情况下,确定在第二确定中设置的假定是正确的,以及输出表示立体图像数据的每个图像帧是左图像还是右图像的识别信息作为与所述假定一致的识别信息。
根据本发明的一个实施例,用于使计算机执行图像分析处理的计算机程序包括以下步骤:接收包括针对用户左眼的左图像和针对用户右眼的右图像的时分显示类型的立体图像数据,以及在第一确定中确定在左图像和右图像中的一个的图像帧中包含的区域的前后关系,接收时分显示类型的立体图像数据,选择假定是左图像的图像和假定是右图像的图像,以及在第二确定中确定在包含所选的左图像和右图像的多个图像的图像帧中包含的区域的前后关系,以及接收第一确定的第一确定结果和第二确定的第二确定结果,比较第一确定结果和第二确定结果,在第一确定结果与第二确定结果之间的一致率高的情况下,确定在第二确定中设置的假定是正确的,以及输出表示立体图像数据的每个图像帧是左图像还是右图像的识别信息作为与所述假定一致的识别信息。
本发明一个实施例的计算机程序可通过存储介质或通信介质以计算机可读的方式提供给执行各种程序代码的通用计算机***。通过向计算机***提供计算机可读的计算机程序,所述计算机***执行响应于计算机程序的处理。
这些和其他的特点和优点将从以下和所附的附图中明显得到。本说明书上下文中的术语***涉及多个设备的逻辑组,而不限于所有元件均包含在单个壳体中的设备。
根据本发明的实施例,所述时分显示类型的立体图像数据被输入,且精确地确定输入数据的图像帧是用于左眼的左图像还是用于右眼的右图像。所述图像数据分析设备包括单目视觉深度信息确定器,用于确定包含在左图像和右图像中之一的图像帧中的区域的前后关系,双目视觉深度信息确定器,用于确定在包含假定为左图像的图像和假定为右图像的图像的多个图像的图像帧中包含的区域的前后关系,以及左右图像鉴别器,用于在一对确定结果显示高一致性的情况下,输出与双目视觉深度信息确定器的假定一致的图像识别信息,以及在该对确定结果显示低一致性的情况下,输出与所述假定设置的相反设置一致的图像识别信息。该处理使形成时分显示类型的立体图像数据的每个图像被正确地鉴别为左图像或右图像。在基于所述识别信息的控制下,显示和观看提供正确视觉深度的立体图像。
附图说明
图1示出根据本发明一个实施例的图像数据分析器;
图2A和2B示出在捕获期间立体图像数据的左图像和右图像的状态,以及摄像机、对象、以及在所捕获图像中的该对象之间的位置关系;
图3A-3C示出形成立体图像数据的左图像和右图像,以及在每个图像中包含的对象或区域的位置关系;
图4A和4B示出估计对象距形成所述立体图像数据的左图像和右图像的实际位置的过程,以及在每个图像中包含的对象或区域的位置;
图5A-5C示出包含在图像中的对象或区域与在立体图像数据中相反设置的左图像和右图像的位置关系;
图6A和6B示出使用相反设置的左图像和右图像估计立体图像数据中的对象位置的过程;
图7示出图像数据分析器对左图像和右图像的确定结果,所述确定结果被驱动和控制液晶快门眼镜的液晶快门控制器使用,用于立体图像观看;
图8A-8D示出液晶快门控制器的各个元件的信号时序和信号图案;
图9示出图像数据分析器对左图像和右图像的确定结果,所述确定结果由控制偏振器的偏振控制器使用;以及
图10示出图像数据分析器对左图像和右图像的确定结果,所述确定结果由控制偏振器的偏振控制器使用。
具体实施方式
以下参考附图描述用于分析图像数据的设备、方法和计算机程序。
图1示出根据本发明一个实施例的图像数据分析器100的基本结构。如图1所示,图像数据分析器100包括单目视觉深度信息确定器101,双目视觉深度信息确定器102以及左右图像鉴别器103。
图像数据分析器100接收时分类型立体图像数据10。时分类型立体图像数据10包含作为仅要呈现给左眼的图像帧的左图像和作为仅要呈现给右眼的图像帧的右图像,每个左图像和每个右图像被交替地安排。例如,要被呈现给左眼的左图像之后是要被呈现给右眼的右图像,或者相反。
单目视觉深度信息确定器101接收形成立体图像数据10的帧的针对一个眼的图像。本实施例在单目视觉深度信息确定器101仅接收偶数帧的假定下进行描述。单目视觉深度信息确定器101参考所输入的偶数帧,确定每个帧的多个区域中的每一个区域的视觉深度,并向左右图像鉴别器103输出确定结果。
另一方面,所述双目视觉深度信息确定器102接收形成立体图像数据10的所有帧。更具体地,所述双目视觉深度信息确定器102接收形成所述图像数据的所有帧,其中,要呈现给左眼的左图像和要呈现给右眼的右图像被交替地安排。
所述双目视觉深度信息确定器102参考所输入的立体图像数据10的偶数帧和奇数帧,通过立体匹配处理基于偶数帧是左图像的假定确定每个帧的多个区域中的每一个的视觉深度,并向左右图像鉴别器103输出确定结果。
左右图像鉴别器103检查从单目视觉深度信息确定器101输入的多个区域的视觉深度是否与从双目视觉深度信息确定器102输入的多个区域的视觉深度相抵触。由此左右图像鉴别器103鉴别立体图像数据10的偶数帧和奇数帧中的哪一个是左图像或右图像,然后输出鉴别结果。
以下将描述单目视觉深度信息确定器101。
单目视觉深度信息确定器101接收形成立体图像数据10的帧的用于右眼的右图像或用于左眼的左图像,即接收偶数帧和奇数帧中的一个。
在以下的描述中,假设仅将偶数帧输入到单目视觉深度信息确定器101。所述单目视觉深度信息确定器101选择在所输入的偶数帧中的一个中包含的至少两个区域,并仅使用所述偶数帧检测区域沿深度方向的前后关系。
多种方法可用于从用于左眼的左图像和用于右眼的右图像中的一个检测沿深度方向的前后关系。例如,相关技术中用于从一个帧估计区域的前后关系的技术包括从所述区域估计图像模糊的方法,将所述区域中在垂直方向上较低位置处的区域估计为在深度方向上位置更靠前的区域的方法,以及其他方法。
使用多个帧(仅偶数帧)估计区域的前后关系的方法包括跟踪两个移动区域并通过检测所述两个移动区域之间的重叠来检测所述区域的沿深度方向的前后关系。
使用这些方法之一,所述单目视觉深度信息确定器101检测形成图像帧的多个区域以及在所述图像帧内存在的对象的前后关系。只要检测在深度方向上的前后关系就足够了。无需检测每个区域的具体深度。
以下将具体描述单目视觉深度信息确定器101的单目视觉深度信息确定过程。
单目视觉深度信息确定器101检测形成图像帧的多个区域的前后关系,即检测每个区域是远离还是靠近捕获该图像帧的摄像机。如果将六个区域A、B、C、D、E以及F设定为深度检测的目标,则需确定所有这六个区域A、B、C、D、E以及F之间的前后关系。更具体地,检测所述六个区域A-F在深度方向上的排列顺序。
例如,分别组合区域A和B、区域C和D以及区域E和F以确定每个组合中的区域的前后关系。例如,对指示区域A比区域B更靠前的信息、区域D比区域C更靠前的信息以及区域E比区域F更靠前的信息进行检测。
在每种情况下,单目视觉深度信息确定器101检测在所述帧内的多个区域中的区域的相对的前后关系,并向左右图像鉴别器103输出确定结果。
以下将描述双目视觉深度信息确定器102的处理过程。双目视觉深度信息确定器102接收形成立体图像数据10的偶数帧和奇数帧。
假定偶数帧是左图像,奇数帧是右图像,则双目视觉深度信息确定器102通过立体匹配过程检测与由单目视觉深度信息确定器101使用的多个区域或对象相同的区域或对象的深度。
使用所述左图像和右图像,双目视觉深度信息确定器102通过立体匹配过程检测由单目视觉深度信息确定器101使用的多个区域或对象的深度。多种方法可用作立体匹配过程。例如,可使用块匹配或动态编程方法用于所述立体匹配过程。
如前所述,单目视觉深度信息确定器101仅从偶数帧(例如,左图像)来确定所述六个区域A-F的前后关系。在此情况下,双目视觉深度信息确定器102还从偶数帧和奇数帧(即左图像和右图像)来确定所述六个区域的前后关系。
使用假定为左图像的帧和假定是右图像的帧来检测六个图像之间的不同,以及确定所述六个区域A-F的前后关系。可选地,双目视觉深度信息确定器102可确定区域A和B、区域C和D以及区域E和F的组合中的每一个组合中的区域的前后关系。例如,可检测指示区域A比区域B更靠前的信息,区域D比区域C更靠前的信息以及区域E比区域F更靠前的信息。
在任一情况下,双目视觉深度信息确定器102检测区域在深度方向的前后关系就足够了。不必检测每个区域的具体的深度量。双目视觉深度信息确定器102然后向左右图像鉴别器103输出所述多个区域的前后关系的检测结果。
单目视觉深度信息确定器101和双目视觉深度信息确定器102中的每一个可执行过程(1)确定所有区域的前后关系或过程(2)确定在区域A和B、区域C和D、区域E和F的组合中的每一个组合中的区域的前后关系。过程(1)和过程(2)中的一个是可接受的。然而,优选所述两个确定器执行相同的过程。
以下描述左右图像鉴别器103的处理过程。左右图像鉴别器103确定从单目视觉深度信息确定器101获得的区域或对象的前后关系是否与从双目视觉深度信息确定器102获得的区域或对象的前后关系一致。
根据单目视觉深度信息确定器101和双目视觉深度信息确定器102的确定结果是否彼此一致,左右图像鉴别器103确定所输入的立体图像数据10的偶数帧是左图像还是右图像,以及所输入的立体图像数据10的奇数帧是左图像还是右图像。
更具体地,如果由单目视觉深度信息确定器101获得的多个区域的前后关系与由双目视觉深度信息确定器102获得的多个区域的前后关系一致,则左右图像鉴别器103通过立体匹配过程将偶数帧和奇数帧中由双目视觉深度信息确定器102假定为左图像的一个确定为左图像,并将另一个帧确定为右图像。
如果由单目视觉深度信息确定器101获得的多个区域的前后关系与由双目视觉深度信息确定器102获得的多个区域的前后关系不一致,则左右图像鉴别器103通过立体匹配过程将偶数帧和奇数帧中由双目视觉深度信息确定器102假定为左图像的一个确定为右图像,并将另一个帧确定为左图像。
单目视觉深度信息确定器101和双目视觉深度信息确定器102中的每一个分析区域A和B、区域C和D、以及区域E和F的各个组合中的区域的前后关系,然后向左右图像鉴别器103输入确定结果。以下将描述左右图像鉴别器103响应所述输入确定结果的过程。
双目视觉深度信息确定器102基于偶数帧是用于左眼的左图像以及奇数帧是用于右眼的右图像的假定进行立体匹配过程。
假设A>B表示区域A比区域B的位置靠后(区域A比区域B更远离捕获所述图像的摄像机)的确定。
例如,单目视觉深度信息确定器101和双目视觉深度信息确定器102中的每一个输出信息[A>B、C>D、E>F]。信息[A>B、C>D、E>F]表示区域A在区域B之后(比区域B更远离摄像机),区域C在区域D之后,且区域E在区域F之后。
设想如下情形(a)-(c):
情形(a):单目视觉深度信息确定器101的确定结果完全与双目视觉深度信息确定器102的确定结果完全一致;
情形(b):单目视觉深度信息确定器101的确定结果完全与双目视觉深度信息确定器102的确定结果完全不一致;
情形(c):单目视觉深度信息确定器101的确定结果完全与双目视觉深度信息确定器102的确定结果部分一致,其中,(c1)一致部分的比率较大;(c2)不一致部分的比率较大。
在单目视觉深度信息确定器101的确定结果与双目视觉深度信息确定器102的确定结果完全一致的情形(a)下,单目视觉深度信息确定器101的输出可能例如是[A>B、C<D、E>F],目视觉深度信息确定器102的输出可能例如是[A>B、C<D、E>F]。
响应于这种确定结果,左右图像鉴别器103执行以下过程。
单目视觉深度信息确定器101的确定结果与双目视觉深度信息确定器102一致。则左右图像鉴别器103确定由双目视觉深度信息确定器102设定的假定,即偶数帧是左图像以及奇数帧是右图像的假定是正确的。结果,左右图像鉴别器103输出在双目视觉深度信息确定器102的确定中使用的假定作为左右鉴别结果,即输出偶数帧是左图像以及奇数帧是右图像的信息。
在单目视觉深度信息确定器101的确定结果与双目视觉深度信息确定器102的确定结果完全不一致的情形(b)下,单目视觉深度信息确定器101的输出可能例如是[A>B、C<D、E>F],而双目视觉深度信息确定器102的输出可能例如是[A<B、C>D、E<F]。以下描述左右图像鉴别器103响应所述确定结果的过程。
单目视觉深度信息确定器101的确定结果与双目视觉深度信息确定器102的确定结果完全不一致。则左右图像鉴别器103确定在双目视觉深度信息确定器102的深度确定中设定的假定,即偶数帧是左图像以及奇数帧是右图像的假定是不正确的。结果,左右图像鉴别器103输出与在双目视觉深度信息确定器102的确定中使用的假定相反的设置作为左右鉴别结果,即输出偶数帧是右图像以及奇数帧是左图像的信息。
在单目视觉深度信息确定器101的确定结果与双目视觉深度信息确定器102的确定结果部分一致的情形(c)下,其中,对一致部分较大的子情形(c1)和不一致部分较大的子情形(c2)要执行的过程不同。
在子情形(c1),单目视觉深度信息确定器101的输出可能例如是[A>B、C<D、E>F],而双目视觉深度信息确定器102的输出可例如是[A>B、C<D、E<F]。
单目视觉深度信息确定器101的确定结果与双目视觉深度信息确定器102的确定结果大部分一致。则左右图像鉴别器103确定由双目视觉深度信息确定器102设定的假定,即偶数帧是左图像以及奇数帧是右图像的假定是正确的。结果,左右图像鉴别器103输出在双目视觉深度信息确定器102的确定中使用的假定作为左右鉴别结果,即输出偶数帧是左图像以及奇数帧是右图像的信息。因此,左右图像鉴别器103输出此信息作为左右鉴别信息。
在子情形(c2),单目视觉深度信息确定器101的输出可能例如是[A>B、C<D、E>F],而双目视觉深度信息确定器102的输出可能例如是[A>B、C>D、E<F]。
单目视觉深度信息确定器101的确定结果与双目视觉深度信息确定器102的确定结果大部分不一致。则左右图像鉴别器103确定由双目视觉深度信息确定器102设定的假定,即偶数帧是左图像以及奇数帧是右图像的假定是不正确的。结果,左右图像鉴别器103输出与在双目视觉深度信息确定器102的确定中使用的假定相反的假定作为左右鉴别结果,即输出偶数帧是右图像以及奇数帧是左图像的信息。因此,左右图像鉴别器103输出此信息作为左右鉴别信息。
如果由单目视觉深度信息确定器101和双目视觉深度信息确定器102获得的多个区域的前后关系彼此不抵触,则左右图像鉴别器103确定在双目视觉深度信息确定器102的立体匹配过程中的假定是正确的。由此,左右图像鉴别器103输出与在双目视觉深度信息确定器102的立体匹配过程中使用的假定相同的结论作为左右鉴别结果。更具体地,左右图像鉴别器103输出双目视觉深度信息确定器102的有关偶数帧是左图像还是右图像以及奇数帧是左图像还是右图像的假定作为确定结果。
如果所述多个区域的前后关系彼此抵触,则左右图像鉴别器103确定在双目视觉深度信息确定器102的立体匹配过程中的假定是不正确的。由此,左右图像鉴别器103输出与在双目视觉深度信息确定器102的立体匹配过程中的假定相反的结论作为左右图像鉴别结果。换句话说,左右图像鉴别器103输出与双目视觉深度信息确定器102的有关偶数帧是左图像还是右图像以及奇数帧是左图像还是右图像的假定相反的结论。
左右图像鉴别器103接收并比较单目视觉深度信息确定器101的多个第一确定结果和双目视觉深度信息确定器102的多个第二确定结果。如果一致率等于或高于预定的阈值(例如1/2),则左右图像鉴别器103确定由双目视觉深度信息确定器102设定的假定是正确的。由此,左右图像鉴别器103输出有关立体图像数据10的各个帧是左图像还是右图像的鉴别信息作为与双目视觉深度信息确定器102的假定一致的信息。
如果一致率小于预定的阈值,则左右图像鉴别器103确定由双目视觉深度信息确定器102设定的假定不正确。则左右图像鉴别器103输出有关立体图像数据10的各个帧是左图像还是右图像的鉴别信息作为与双目视觉深度信息确定器102的假定相反的设置一致的信息。
左右图像鉴别器103执行上述过程,由此输出有关左图像和右图像的正确的鉴别信息。
以下参考图2A和2B到图6A和6B描述左右图像鉴别器103在上述过程中鉴别左图像和右图像的基本原则。
图2A和2B示出在捕获图像时,立体图像数据10的左图像和右图像的状态。参考图2A,两个摄像机220和230捕获立体图像数据10的左图像和右图像。图2A示出在被包含作为捕获目标的对象211和212与在摄像机220和230的图像表面240上的相应的对象图像之间的位置关系。在不同位置的左、右摄像机220和230捕获对象211和212的图像。对象211在对象212之后(距离摄像机位置更远)。
图2B是图2A的放大图。图2B示出摄像机220的摄像机中心221和摄像机230的摄像机中心231。由左、右摄像机捕获的对象的图像被示为捕获图像225、226、235和236。
在左手侧的捕获用于左眼的左图像的摄像机220捕获包含与对象211和212相应的捕获对象空图像225和226的图像。
在右手侧的捕获用于右眼的右图像的摄像机230捕获包含与对象211和212相应的捕获对象实图像235和236的图像。
所获得的作为结果图像证包括图3A中的左图像和图3B中的右图像。
图3A中的左图像中的图像帧320包含捕获的对象图像225和226。
图3B中的右图像中的图像帧330包含捕获的对象图像235和236。
在时分类型的立体图像显示过程中,图3A中的左图像中的图像帧320和图3B中的右图像中的图像帧330被连续地显示。例如,左图像的偶数帧和右图像的奇数帧被交替地显示。如果显示速率足够高,则左图像和右图像看上去是重叠的。图3C中示出重叠的图像350。使用快门眼镜,可由左眼感受到左图像,右眼感受到右图像。由此观看到立体图像。
包含图3A的左图像中的图像帧320和图3B的右图像中的图像帧330的图像帧被输入到本发明实施例的图像数据分析器100。图像数据分析器100处理输入的图像数据。以下描述该过程。
单目视觉深度信息确定器101基于图3A中的左图像中的图像帧320确定至少两个区域的前后关系。为便于解释,所捕获的对象图像225和226用作深度确定区域。以下,将捕获的对象图像225称作区域225,将捕获的对象图像226称作区域226。
单目视觉深度信息确定器101确定区域225和226在深度方向的前后关系。区域226可被确定为比区域225更靠前,此确定结果可被输出到左右图像鉴别器103。
双目视觉深度信息确定器102使用图3A的左图像中的图像帧320和图3B的右图像中的图像帧330通过立体匹配过程确定所述区域225和226的前后关系。
在该过程中,双目视觉深度信息确定器102假定作为形成输入的立体图像数据10的连续帧的偶数帧和奇数帧中之一为左图像,另一帧为右图像。由此,双目视觉深度信息确定器102基于该假定执行立体匹配过程。双目视觉深度信息确定器102确定区域或对象的前后关系。
双目视觉深度信息确定器102的假定可能是正确的或者可能是不正确的。
如上所述,如果双目视觉深度信息确定器102的假定是正确的,则执行过程(A),如果双目视觉深度信息确定器102的假定是不正确的,则执行过程(B)。
先描述过程(A)。如果双目视觉深度信息确定器102的假定是正确的,则执行过程(A)。在此情况下,正确的假定是图3A的左图像中的图像帧320是用于左眼的左图像帧,图3B的右图像中的图像帧330是用于右眼的右图像帧。
参考图4A和4B描述根据上述假定基于图像帧320和图像帧330执行的距离估计过程。图4A和4B示出对象411和412的距离估计过程。基于与在图像帧320和330中的捕获的对象图像相应的区域225、226、235、和236的位置信息和事先获取的摄像机220和230的摄像机位置信息来确定对象411和412的位置。
图4A示出了从如在图2A和2B所示的相同的摄像机设置捕获的两个图像对对象411和412进行的位置估计过程。虚线示出的对象411和412表示通过下述过程估计的对象位置。
图4B示出图4A的放大图。图4B示出的捕获表面440对应于在已捕获如图3A-3C所示的图像帧320和图像帧330的摄像机内的位置。对图像帧320和图像帧330进行的立体匹配过程示出图像帧320中的区域226和图像帧330中的区域236是从捕获相同的对象得到的。连接捕获摄像机的摄像机中心221和231到捕获表面440上的区域226和236的线相交的点被估计为对象412的实际位置。
对象412的位置的估计如下所述。
绘制连接已捕获左图像的左摄像机220的摄像机中心221与图3A中在假定为左图像的图像帧320中包含的区域226(即图4B所示的区域226)的线。
类似地,绘制连接已捕获右图像的右摄像机230的摄像机中心231与图3B中在假定为右图像的图像帧330中包含的区域236(即图4B所示的区域236)的线。
所述两线的交点被估计是与区域226和236对应的对象412的位置。
对象411的位置的估计如下所述。
绘制连接已捕获左图像的左摄像机220的摄像机中心221与图3A中在假定为左图像的图像帧320中包含的区域225(即图4B所示的区域225)的线。
类似地,绘制连接已捕获右图像的右摄像机230的摄像机中心231与图3B中在假定为右图像的图像帧330中包含的区域235(即图4B所示的区域235)的线。
所述两线的交点被估计是与区域225和235对应的对象411的位置。
于是,双目视觉深度信息确定器102确定与区域225和235对应的对象411在与区域226和236对应的对象412之后(比对象412距离摄像机更远)。
这些结果从双目视觉深度信息确定器102输出到左右图像鉴别器103。
更具体地,从双目视觉深度信息确定器102向左右图像鉴别器103输出指示在图3A-3C中示出的被假定为左图像的图像帧320中的区域226比区域225更靠前的确定结果(区域225>区域226)。
现在假设单目视觉深度信息确定器101获得了相同的结果,即指示区域226比区域225更靠前的确定结果(区域225>区域226),且单目视觉深度信息确定器101已向左右图像鉴别器10输出该确定结果(区域225>区域226)。
左右图像鉴别器103然后验证单目视觉深度信息确定器101的确定结果与双目视觉深度信息确定器102的确定结果一致。结果,左右图像鉴别器103确定在双目视觉深度信息确定器102的确定过程中使用的假定,即图3A的左图像中的图像帧320是左图像以及图3B的右图像中的图像帧330是右图像的假定,是正确的。左右图像鉴别器103输出具有与由双目视觉深度信息确定器102执行的确定过程中设定的假定相同的设置(即偶数帧是左图像以及奇数帧是右图像的设置)的信息,作为左右图像鉴别信息。
如果双目视觉深度信息确定器102的假定是不正确的,则执行过程(B)。以下参考图5A-5C和图6A和6B描述过程(B)。
如参考图3A-3C所述,正确的假定是图3A的左图像中的图像帧320是用于左眼的左图像,图3B的右图像中的图像帧330是用于右眼的右图像。
不正确的假定与正确的假定相反。参考图5A-5C,不正确的假定是图5A的左图像中的图像帧520是用于右眼的右图像,图5B的右图像中的图像帧530是用于左眼的左图像。
如果基于不正确的确定执行时分类型的立体图像显示过程,则得到图5C所示的显示图像550。如果使用快门眼镜观看该显示图像,则右眼看到左图像,左眼看到右图像。由此所感受到的图像的视觉深度不同于实际的视觉深度。
以下参考图6A和6B描述双目视觉深度信息确定器102基于图像帧520和图像帧530的距离估计过程。图6A和6B示出对象581和582的位置估计过程。所述位置估计过程基于与在图像帧520和图像帧530中捕获的对象相应的图像帧内的区域525、526、535、536的位置信息和事先获取的摄像机220和230的摄像机位置信息。
图6A和6B示出如何从在如图2A和2B以及图4A和4B所示的相同的摄像机位置捕获的所述两个图像来估计对象581和582的实际位置。由虚线示出轮廓的对象581和582表示通过下述过程估计的对象位置。
图6B为图6A的放大图。图6B中的捕获表面540对应于捕获了图5A和5B示出的图像帧520和图像帧530的摄像机的内部位置。对图像帧520和图像帧530执行的立体匹配过程表明图像帧520中的区域526和图像帧530中的区域536是由捕获相同的对象得到的。连接所述捕获摄像机的摄像机中心221和231到捕获表面540上的区域526和536的线相交的点被估计为对象582的实际位置。
对象582的位置的估计如下所述。
绘制连接已捕获右图像的右摄像机230的摄像机中心231与图5A中在被错误假定为是右图像的图像帧520中包含的区域526(即图6B所示的区域526)的线。
类似地,绘制连接图5B中所示的已捕获左图像的左摄像机220的摄像机中心221与图5B中在被错误假定为左图像的图像帧530中包含的区域536(即图6B所示的区域536)的线。
所述两线的交点被估计是与区域526和536对应的对象582的位置。
对象581的位置的估计如下所述。
绘制连接已捕获右图像的右摄像机230的摄像机中心231与图5A中包含在被错误假定为右图像的图像帧520中的区域525(即图6B所示的区域525)的线。
类似地,绘制连接已捕获左图像的左摄像机220的摄像机中心221与图5B中在被错误假定为左图像的图像帧530中包含的区域535(即图6B所示的区域535)的线。
所述两线的交点被估计是与区域525和535对应的对象581的位置。
于是,双目视觉深度信息确定器102确定与区域525和535对应的对象581比与区域526和536对应的对象582更靠前(比对象582更靠近摄像机)。
这些结果从双目视觉深度信息确定器102输出到左右图像鉴别器103。
更具体地,从双目视觉深度信息确定器102向左右图像鉴别器103输出指示在图5A中示出的假定为右图像的图像帧520中的区域526在区域525之后的确定结果(区域526>区域525)。
现在假设单目视觉深度信息确定器101获得的结果不同于上述确定结果,即其所获得的结果指示区域526比区域525更靠前的确定结果(区域525>区域526),且单目视觉深度信息确定器101已向左右图像鉴别器10输出该确定结果(区域525>区域526)。
左右图像鉴别器103然后验证单目视觉深度信息确定器101的确定结果与双目视觉深度信息确定器102的确定结果不一致。结果,左右图像鉴别器103确定在双目视觉深度信息确定器102的确定过程中使用的假定,即图5A中的图像帧520是右图像以及图5B中的图像帧530是左图像的假定,是不正确的。左右图像鉴别器103输出具有与在由双目视觉深度信息确定器102执行的确定过程中设定的假定相反的设置的信息,即输出偶数帧是左图像以及奇数帧是右图像的设置,作为左右图像鉴别信息。
由单目视觉深度信息确定器101基于用于左眼的图像或用于右眼的图像确定的区域或对象的前后关系可能与由双目视觉深度信息确定器102基于左、右图像的假定通过立体匹配过程确定的区域或对象的前后关系一致或者不一致。
如果这两种结果一致,则由双目视觉深度信息确定器102设置的左、右图像的假定是正确的。如果这两种结果彼此不一致,则由双目视觉深度信息确定器102设置的左、右图像的假定是不正确的。左右图像鉴别器103鉴别正确和不正确的假定,并输出鉴别结果。
具体地,如果由单目视觉深度信息确定器101提供的区域或对象的前后关系与由双目视觉深度信息确定器102提供的区域或对象的前后关系一致,则左右图像鉴别器103确定在由双目视觉深度信息确定器102执行的确定过程中设定的假定是正确的。则左右图像鉴别器103输出与所述假定一致的信息作为左右鉴别结果。
另一方面,如果由单目视觉深度信息确定器101提供的区域或对象的前后关系与由双目视觉深度信息确定器102提供的区域或对象的前后关系不一致,则左右图像鉴别器103确定在由双目视觉深度信息确定器102执行的确定过程中设定的假定是不正确的。则左右图像鉴别器103输出与所述假定相反的信息作为左右鉴别结果。
由此,图像数据分析器100正确地分析形成输入的时分立体图像数据的偶数帧和奇数帧中的哪一个为左图像、哪一个为右图像。图像数据分析器100输出该分析结果。
图像数据分析器100的分析结果可由液晶快门眼镜的控制设备用于立体图像显示以及可由偏光器的控制设备用于立体图像显示过程。
图7示出液晶快门控制器600。液晶快门控制器600使用参考图1至图6A和6B描述的图像数据分析器100提供的左图像和右图像的分析结果,以便驱动和控制液晶快门眼镜用于立体图像显示。
除了之前参考图1至图6A和6B描述的图像数据分析器100之外,图7所示的液晶快门控制器600还包括快门驱动信号输出单元601和信号变换器602。
立体图像数据1是时分立体图像数据,其中,用于左眼的左图像和用于右眼的右图像作为不同帧交替出现。立体图像数据10是与输入到图1所示的图像数据分析器100的数据相同的数据。立体图像数据10被输入到液晶快门控制器600和显示器620。
显示器620交替显示时分立体图像数据10的左图像和右图像。显示在显示器620上的图像由配戴液晶快门眼镜630的用户观看。液晶快门控制器600向液晶快门眼镜630输出驱动信号。
在显示器620上输出用于左眼的左图像的时刻,液晶快门控制器600输出关闭液晶快门眼镜630的右快门的控制信号,同时打开左快门。同样,在显示器620上输出用于右眼的右图像的时刻,液晶快门控制器600输出关闭液晶快门眼镜630的左快门的控制信号,同时打开右快门。
响应于立体图像数据10的垂直同步信号,快门驱动信号输出单元601产生并输出驱动液晶快门眼镜630的信号。该驱动信号是例如如图8B所示的矩形波。在信号的高态期间,液晶快门眼镜630的左快门被打开。在信号的低态期间,液晶快门眼镜630的右快门被打开。图8A示出了显示在显示器620上的图像的切换顺序。标记“左”表示左图像,标记“右”表示右图像。
如果在显示器620上显示用于左眼的左图像的同时信号保持高,以及如果在显示器620上显示用于右眼的右图像的同时信号保持低,则配戴液晶快门眼镜630的用户使用左眼观看左图像,使用右眼观看右图像。由此看到适当的立体图像。
快门驱动信号输出单元601可产生与图像信号同步的信号,但是不能鉴别所显示的左、右帧。有可能在显示右图像时信号变高以及在显示左图像时信号变低。已注意到,从快门驱动信号输出单元601输出的信号在显示偶数帧的时刻转变为高,以及在显示奇数帧的时刻转变为低。或者,从快门驱动信号输出单元601输出的信号可能以与上述顺序相反的方式转换。在相反顺序的情况下,图像数据分析器100中的快门驱动信号输出单元601关于偶数帧还是奇数帧是左图像可具有相反的假定。
以下描述图7中示出的液晶快门控制器600内的图像数据分析器100的处理过程。如上参考图1至图6A和6B所述,图像数据分析器100接收立体图像数据10,确定形成立体图像数据10的偶数帧和奇数帧中之一是左图像还是右图像,以及输出确定结果。更具体地,如果偶数帧是左图像,奇数帧是右图像,则输出低信号,而如果奇数帧是左图像,偶数帧是右图像,则输出高信号。
以下描述信号变换器602的处理过程。信号变换器602对来自图像数据分析器100的输出和来自快门驱动信号输出单元601的输出进行异或操作。信号变换器602的输出经由通信缆线或以无线方式被提供给液晶快门眼镜630。由此,来自信号变换器602的输出交替驱动液晶快门眼镜630的左右快门。
与在显示器620上显示的左图像和右图像同步地对如此构建的液晶快门眼镜630进行控制。在显示器620上输出用于左眼的左图像的时刻关闭液晶快门眼镜630的右快门,打开左快门。在显示器620上输出用于右眼的右图像的时刻关闭液晶快门眼镜630的左快门,打开右快门。从液晶快门控制器600向液晶快门眼镜630输出此控制信号。
图8A-8D示出图7的液晶快门控制器600产生的信号。
图8A输出在显示器620上显示的图像切换顺序。标记“左”表示左图像,标记“右”表示右图像。在时刻t1,一个左图像后面跟着另一个左图像。
在时刻t1之前,每个偶数帧均是左图像,每个奇数帧均是右图像。在时刻t1之后,每个偶数帧被切换为右图像,每个奇数帧被切换为左图像。
图8B示出了快门驱动信号输出单元601的输出。如前所述,在显示每个偶数帧时,矩形波形的输出保持在高电平,在显示每个奇数帧时保持在低电平。
图8C示出图像数据分析器100的输出。图像数据分析器100在偶数帧是左图像时输出低信号,而在偶数帧是右图像时输出高信号。
图8B中所示的快门驱动信号输出单元601的输出和图8C中所示的图像数据分析器100的输出被输入到信号变换器602。信号变换器602对所述两个输入信号进行异或操作,由此产生并向液晶快门眼镜630提供异或(XOR)信号。
图8D示出由信号变换器602产生并输出的输出信号。图8D所示的信号是图8B和8C所示的信号的异或操作的结果。考虑图8A所示的图像显示时序,在显示左图像“左”时图8D中的信号保持在高电平,而在显示右图像“右”时保持在低电平。液晶快门眼镜630响应于图8D所示的信号(即液晶快门控制器600的输出)而操作。在显示器620上显示的左图像仅进入用户的左眼,在显示器620上显示的右图像仅进入用户的右眼。该控制使用户能够看到正确的立体图像。
左图像和右图像未被正确地交替显示在显示器620上。如图8A所示,所述两个左图像,一个在时刻t1之前,另一个在时刻t1之后,可能被连续地显示。在此情况下,如果仅由快门驱动信号输出单元601的输出控制液晶快门眼镜630,则配戴液晶快门眼镜630的用户使用右眼观看显示器620上显示的左图像,使用左眼观看显示器620上显示的右图像。未能实现正确的视觉深度显示。
根据本发明的实施例,图像数据分析器100正确地确定左图像和右图像,响应于图像数据分析器100的确定结果正确地更新快门驱动信号输出单元601的输出。即使在时刻t1之前和之后,在显示器620上显示左图像“左”时,图8D中示出的信号一致地保持在高电平,而在显示器620上显示右图像“右”时,保持在低电平。液晶快门眼镜630由图8D所示的信号控制。
结果,液晶快门眼镜630被正确地控制,使得显示器620上显示的左图像仅进入到用户的左眼,显示器620上显示的右图像仅进入到用户的右眼。
参考图1至图6A和6B描述的由图像数据分析器100提供的左图像和右图像的分析结果可被用作用于偏振器的控制器,用于立体图像显示。
图9示出偏振控制器700。除了之前参考图1至图6A和6B描述的图像数据分析器100之外,图9所示的偏振控制器700还包括偏振器驱动信号输出单元701和信号变换器702。
立体图像数据10是时分立体图像数据,其中,用于左眼的左图像和用于右眼的右图像作为不同帧交替出现。立体图像数据10是与输入到图1所示的图像数据分析器100的数据相同的数据。立体图像数据10被输入到偏振控制器700和投影仪711,然后通过偏振器712显示在屏幕713上。
投影仪711可以是放映机或电影放映机。从投影仪711入射到偏振器712的投射光束被右手圆偏振或左手圆偏振。配戴偏振镜的用户观看投射在屏幕713上的图像。所述偏振镜包括偏振滤波片。使用所述偏振滤光片,用于偏振镜的左眼的左部分允许左手圆偏振束穿过其中,用于偏振镜的右眼的右部分允许右手圆偏振束穿过其中。
偏振控制器700分析立体图像数据10,确定投影仪711当前投射的图像是左图像还是右图像。偏振控制器700产生并向偏振器712输出控制信号。控制信号控制偏振器712,使得投射光束响应于投射的左图像被左手圆偏振,以及使得投射光束响应于投射的右图像被右手圆偏振。
每个信号的顺序与参考图8A-8D描述的液晶快门控制器600的相同。以下参考图8A-8D描述图9中示出的偏振控制器700的每一个元件的信号图案。
图8A示出了提供给投影仪711的图像的切换顺序。标记“左”表示左图像,标记“右”表示右图像。在时刻t1,一个左图像后面跟着另一个左图像。
在时刻t1之前,每个偶数帧均是左图像,每个奇数帧均是右图像。在时刻t1之后,每个偶数帧被切换为右图像,每个奇数帧被切换为左图像。
图8B示出了偏振器驱动信号输出单元701的输出。如前所述,在显示每个偶数帧时,矩形波形的输出保持在高电平,在显示每个奇数帧时保持在低电平。
图8C示出图像数据分析器100的输出。图像数据分析器100在偶数帧是左图像时输出低信号,而在偶数帧是右图像时输出高信号。
图8B中所示的快门驱动信号输出单元701的输出和图8C中所示的图像数据分析器100的输出被输入到信号变换器702。信号变换器602对所述两个输入信号进行异或操作,由此产生并向偏振器712提供异或(XOR)信号。
图8D示出由信号变换器702产生然后输入到偏振器712的输出信号。图8D中所示的信号是图8B和8C中所示的信号的异或(XOR)操作结果。考虑图8A所示的提供给投影仪711的图像的图像切换时序,在提供和显示左图像“左”时图8D中的信号保持在高电平,而在提供和显示右图像“右”时保持在低电平。偏振器712响应于图8D中所示的信号(即偏振控制器700的输出)而操作。当投射左图像时,光束被左手圆偏振,当投影右图像时光束被右手圆偏振。
投射在屏幕713上的左图像被正确地左手圆偏振,配戴偏振镜的用户通过该镜的左部分观看图像,所述镜的左部分仅允许左手圆偏振光束从中穿过。投射在屏幕713上的右图像被正确地右手圆偏振,配戴偏振镜的用户通过该镜的右部分观看图像,所述镜的右部分仅允许右手圆偏振光束从中穿过。在此控制下,用户观看到正确的立体图像。
立体图像数据711并非典型地以左图像与右图像正确交替的方式提供给投影仪711。例如如图8A中所示,两个左图像,一个在时刻t1之前,另一个在时刻t1之后,可能被连续地显示。在此情况下,如果仅由偏振器驱动控制输出单元701的输出(图8B)控制偏振器712,则在时刻t1之后,用户使用右眼观看到屏幕713上显示的左图像,使用左眼观看到屏幕713上显示的右图像。不能获得正确的视觉深度显示。
根据本发明的实施例,图像数据分析器100正确地确定左图像和右图像,响应于图像数据分析器100的确定结果正确地更新偏振器驱动信号输出单元701的输出。不管t1之前或是之后的时刻,在屏幕713上显示左图像“左”时,图8D中示出的信号一致地保持在高电平,在屏幕713上显示右图像“右”时,保持在低电平。偏振器712的输出由图8D中示出的信号以此种方式被控制。
结果,显示器713上显示的左图像仅进入到用户的左眼,显示器713上显示的右图像仅进入到用户的右眼。由此,用户能看到正确的立体图像。
图9示出其中来自投影仪711的光束被投射到屏幕713上、配戴偏振镜的用户观看屏幕713上的图像的***。
图10示出了与图9中示出的屏幕投射类型不同的偏振控制类型***。参考图10,所述***包括显示器721。显示器721例如是电视监视器或个人计算机监视器。显示器721显示立体图像数据10,即交替显示左图像和右图像。
来自显示器721的入射到偏振器722上的光束被右手圆偏振或左手圆偏振。配戴偏振镜的用户观看从显示器721发出然后穿过偏振器722的图像。偏振镜包括偏振滤波片。使用所述偏振滤波片,偏振镜的用于左眼的左部分允许左手圆偏振束穿过其中,偏振镜的用于右眼的右部分允许右手圆偏振束穿过其中。
从偏振控制器700向偏振器722提供偏振控制信号。图10所示的偏振控制器700与图9所示的具有相同的结构。更具体地,除了前述参考图1至图6A和6B的图像数据分析器100之外,偏振控制器701还包括偏振驱动信号输出单元701和信号变换器702。
偏振控制器700中产生的信号与参考图8A-8D描述的那些相同。具体地,图8A示出被提供给显示器721的图像的图像切换顺序。图8B示出偏振器驱动信号输出单元701的输出。图8C示出图像数据分析器100的输出。图8D示出由信号变换器702输出然后提供给偏振器722的信号。
图8D中示出的由信号变换器702产生并提供给偏振器722的信号是图8B中示出的偏振器驱动信号输出单元701的输出和图8C中示出的图像数据分析器100的输出的异或操作得到的信号。
考虑图8A中所示的提供给显示器721的图像的图像切换时序,在提供和显示左图像“左”时图8D中的信号保持在高电平,而在提供和显示右图像“右”时保持在低电平。偏振器722响应于图8D中所示的信号(即偏振控制器700的输出)而操作。当投射左图像时,光束被左手圆偏振,当投影右图像时光束被右手圆偏振。
左图像被偏振器722正确地左手圆偏振,配戴偏振镜的用户通过该镜的左部分观看图像,所述镜的左部分仅允许所述左手圆偏振光束从中穿过到达左眼。右图像被偏振器722正确地右手圆偏振,配戴偏振镜的用户通过该镜的右部分观看图像,所述镜的右部分仅允许右手圆偏振光束从中穿过到达右眼。
根据本发明的实施例,图像数据分析器100正确地确定左图像和右图像,响应于图像数据分析器100的确定结果正确地更新偏振器驱动信号输出单元701的输出。不管是t1之前或是之后的时刻,在显示左图像“左”时,图8D中示出的信号一致地保持在高电平,在显示右图像“右”时,保持在低电平。偏振器722由图8D示出的信号的控制。结果,在显示器721上显示的左图像仅进入用户的左眼,在显示器721上显示的右图像仅进入用户的右眼。在此种控制下,用户能看到正确的立体图像。
可使用硬件或软件或其组合执行上述系列处理步骤。如果使用软件执行该系列处理步骤,可将所述处理步骤的程序安装到主机硬件结构中含有的计算机中的存储器上用于执行。或者,对于程序执行,可将程序安装在执行多过程的通用计算机中。所述程序可以预先存储在记录介质上。然后可将程序从记录介质安装到计算机上。或者,可经由诸如局域网(LAN)或因特网的网络接收所述程序,并将所述程序安装在诸如计算机中的内部硬盘的记录介质中。
可按在本说明书中描述的处理步骤的时间序列顺序来执行计算机的程序,或者可并行执行或者可按任一时序进行。本说明书的上下文中的字***旨在表示多种设备的逻辑组,不限于其中集成多个元件的单个壳体单元。
本发明包含与日本优先权专利申请JP2008-231181中公开的内容,该优先权申请于2008年9月9日提交日本专利局,这里通过引用结合其全部内容。
本领域技术人员应当理解,在所附权项或其等同内容的范围内可根据设计要求和其他因素进行各种修改、组合、子组合或者替换。
Claims (10)
1.一种图像数据分析设备,包括:
单目视觉深度信息确定器,用于接收由用于用户的左眼的左图像和用于用户的右眼的右图像组成的时分显示类型的立体图像数据,以及确定在所述左图像或所述右图像的图像帧中包含的区域的前后关系;
双目视觉深度信息确定器,用于接收时分显示类型的立体图像数据,选择假定是左图像的图像和假定是右图像的图像,以及确定在包含所选择的左图像和右图像的多个图像的图像帧中包含的区域的前后关系;以及
左右图像鉴别器,用于接收单目视觉深度信息确定器的第一确定结果、双目视觉深度信息确定器的第二确定结果,比较第一确定结果和第二确定结果,以及在单目视觉深度信息确定器的第一确定结果与双目视觉深度信息确定器的第二确定结果之间的一致率高的情况下,确定由双目视觉深度信息确定器设定的假定是正确的,并输出表示立体图像数据的各个图像帧是左图像还是右图像的识别信息作为与所述假定一致的识别信息,
其中,
所述双目视觉深度信息确定器将所述时分显示类型的立体图像数据的图像帧分为偶数帧和奇数帧,设立所述偶数帧是左图像以及所述奇数帧是右图像的第一假定,或者与所述第一假定相反的假定,并基于所设的假定确定在包含所述左图像和右图像的所述多个图像的图像帧中包含的区域的前后关系;以及
所述双目视觉深度信息确定器对包含所选择的左图像和右图像的多个图像进行立体匹配处理,以便确定所述图像帧中包含的区域的前后关系。
2.根据权利要求1所述的图像数据分析设备,其中,所述单目视觉深度信息确定器的第一确定结果与所述双目视觉深度信息确定器的第二确定结果之间的一致率低的情况下,所述左右图像鉴别器确定由双目视觉深度信息确定器设定的假定是不正确的,并输出表示立体图像数据的各个图像帧是左图像还是右图像的识别信息作为与所述假定的相反设定一致的识别信息。
3.根据权利要求1所述的图像数据分析设备,所述单目视觉深度信息确定器和所述双目视觉深度信息确定器中的每一个产生与多个区域相关的多个确定结果,
其中,所述左右图像鉴别器接收并比较单目视觉深度信息确定器的多个第一确定结果与双目视觉深度信息确定器的多个第二确定结果,
在一致率等于或高于所述预定阈值的情况下,确定由双目视觉深度信息确定器设定的假定是正确的,并输出表示立体图像数据的各个图像帧是左图像还是右图像的识别信息作为与所述假定一致的识别信息,以及
在一致率低于所述预定阈值的情况下,确定由双目视觉深度信息确定器设定的假定是不正确的,并输出表示立体图像数据的各个图像帧是左图像还是右图像的识别信息作为与所述假定的相反设定匹配的识别信息。
4.根据权利要求1所述的图像数据分析设备,其中,所述单目视觉深度信息确定器从所述左图像和右图像中之一的图像帧中包含的区域的图像模糊、或区域的垂直方向的位置关系来确定图像帧中包含的区域的前后关系。
5.根据权利要求1所述的图像数据分析设备,其中,所述双目视觉深度信息确定器通过跟踪在多个左图像或右图像上移动的两个区域,并经由检测所述两个区域之间的重叠来确定所述两个区域的前后关系。
6.一种液晶快门控制设备,包括:
单目视觉深度信息确定器,用于接收由用于用户的左眼的左图像和用于用户的右眼的右图像组成的时分显示类型的立体图像数据,以及确定在所述左图像或右图像的图像帧中包含的区域的前后关系;
双目视觉深度信息确定器,用于接收时分显示类型的立体图像数据,选择假定是左图像的图像和假定是右图像的图像,以及确定在包含所选择的左图像和右图像的多个图像的图像帧中包含的区域的前后关系;以及
左右图像鉴别器,用于接收单目视觉深度信息确定器的第一确定结果以及双目视觉深度信息确定器的第二确定结果,比较第一确定结果和第二确定结果,以及在单目视觉深度信息确定器的第一确定结果与双目视觉深度信息确定器的第二确定结果之间的一致率高的情况下,确定由双目视觉深度信息确定器设定的假定是正确的,并输出表示立体图像数据的各个图像帧是左图像还是右图像的识别信息作为与所述假定一致的识别信息;
快门驱动信号输出单元,用于输出驱动以构成所述立体图像数据的图像帧为单位进行切换的液晶快门眼镜的快门驱动信号;以及
信号变换器,用于接收从左右图像鉴别器输出的识别信号,以及从所述快门驱动信号输出单元输出的快门驱动信号,响应于所述识别信号修改所述快门驱动信号,以及输出所修改的信号作为对所述液晶快门眼镜的控制信号,
其中,
所述双目视觉深度信息确定器将所述时分显示类型的立体图像数据的图像帧分为偶数帧和奇数帧,设立所述偶数帧是左图像以及所述奇数帧是右图像的第一假定,或者与所述第一假定相反的假定,并基于所设的假定确定在包含所述左图像和右图像的所述多个图像的图像帧中包含的区域的前后关系;以及
所述双目视觉深度信息确定器对包含所选择的左图像和右图像的多个图像进行立体匹配处理,以便确定所述图像帧中包含的区域的前后关系。
7.根据权利要求6的液晶快门控制设备,其中,所述信号变换器对从所述左右图像鉴别器输出的识别信号和从所述快门驱动信号输出单元输出的快门驱动信号进行异或操作,并输出所述异或操作的结果作为对液晶快门眼镜的控制信号。
8.一种偏振控制设备,包括:
单目视觉深度信息确定器,用于接收由用于用户的左眼的左图像和用于用户的右眼的右图像组成的时分显示类型的立体图像数据,以及确定在所述左图像或右图像的图像帧中包含的区域的前后关系;
双目视觉深度信息确定器,用于接收时分显示类型的立体图像数据,选择假定是左图像的图像和假定是右图像的图像,以及确定在包含所选择的左图像和右图像的多个图像的图像帧中包含的区域的前后关系;
左右图像鉴别器,用于接收单目视觉深度信息确定器的第一确定结果以及双目视觉深度信息确定器的第二确定结果,比较第一确定结果和第二确定结果,以及在单目视觉深度信息确定器的第一确定结果与双目视觉深度信息确定器的第二确定结果之间的一致率高的情况下,确定由双目视觉深度信息确定器设定的假定是正确的,并输出表示立体图像数据的各个图像帧是左图像还是右图像的识别信息作为与所述假定一致的识别信息;
偏振器驱动信号输出单元,用于输出驱动以构成所述立体图像数据的图像帧为单位进行切换的偏振器的偏振器驱动信号;以及
信号变换器,用于接收从左右图像鉴别器输出的识别信号,以及从所述偏振器驱动信号输出单元输出的偏振器驱动信号,响应于所述识别信号修改所述偏振器驱动信号,并输出所修改的信号作为对所述偏振器的控制信号,
其中,
所述双目视觉深度信息确定器将所述时分显示类型的立体图像数据的图像帧分为偶数帧和奇数帧,设立所述偶数帧是左图像以及所述奇数帧是右图像的第一假定,或者与所述第一假定相反的假定,并基于所设的假定确定在包含所述左图像和右图像的所述多个图像的图像帧中包含的区域的前后关系;以及
所述双目视觉深度信息确定器对包含所选择的左图像和右图像的多个图像进行立体匹配处理,以便确定所述图像帧中包含的区域的前后关系。
9.根据权利要求8所述偏振控制设备,其中,所述信号变换器对从左右图像鉴别器输出的识别信号以及从偏振器驱动信号输出单元输出的偏振器驱动信号进行异或操作,并输出异或操作结果作为对偏振器的控制信号。
10.一种图像数据分析方法,包括以下步骤:
接收由用于用户的左眼的左图像和用于用户的右眼的右图像组成的时分显示类型的立体图像数据,以及在第一确定中确定在左图像或右图像的图像帧中包含的区域的前后关系;
接收时分显示类型的立体图像数据,选择假定是左图像的图像和假定是右图像的图像,以及在第二确定中确定在包含所选择的左图像和右图像的多个图像的图像帧中包含的区域的前后关系;以及
接收第一确定的第一确定结果以及第二确定的第二确定结果,比较第一确定结果与第二确定结果,以及在第一确定结果和第二确定结果之间的一致率高的情况下,则确定在第二确定中的设定的假定是正确的,并输出表示立体图像数据的各个图像帧是左图像还是右图像的识别信息作为与所述假定一致的识别信息,
其中,
将所述时分显示类型的立体图像数据的图像帧分为偶数帧和奇数帧,设立所述偶数帧是左图像以及所述奇数帧是右图像的第一假定,或者与所述第一假定相反的假定,并基于所设的假定在所述第二确定中确定在包含所述左图像和右图像的所述多个图像的图像帧中包含的区域的前后关系;以及
对包含所选择的左图像和右图像的多个图像进行立体匹配处理,以便在所述第二确定中确定所述图像帧中包含的区域的前后关系。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008-231181 | 2008-09-09 | ||
JP2008231181 | 2008-09-09 | ||
JP2008231181A JP4636149B2 (ja) | 2008-09-09 | 2008-09-09 | 画像データ解析装置、および画像データ解析方法、並びにプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101674491A CN101674491A (zh) | 2010-03-17 |
CN101674491B true CN101674491B (zh) | 2012-03-21 |
Family
ID=41798915
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN200910169135XA Expired - Fee Related CN101674491B (zh) | 2008-09-09 | 2009-09-09 | 用于分析图像数据的设备、方法和计算机程序 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8345086B2 (zh) |
JP (1) | JP4636149B2 (zh) |
CN (1) | CN101674491B (zh) |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5529146B2 (ja) * | 2008-10-10 | 2014-06-25 | クアルコム,インコーポレイテッド | シングルカメラトラッキング装置 |
TW201129078A (en) * | 2010-02-01 | 2011-08-16 | Chunghwa Picture Tubes Ltd | Stereoscopic image displaying method |
GB2478776B (en) * | 2010-03-18 | 2015-08-19 | Snell Ltd | Analysis of stereoscopic images |
JP5561800B2 (ja) * | 2010-04-01 | 2014-07-30 | Necディスプレイソリューションズ株式会社 | 立体映像表示システムおよび立体表示調整方法 |
WO2011135390A1 (en) * | 2010-04-27 | 2011-11-03 | Thomson Licensing | Method and apparatus for reducing frame repetition in stereoscopic 3d imaging |
CN101852921B (zh) * | 2010-05-28 | 2012-01-25 | 四川长虹电器股份有限公司 | 立体眼镜***及其设置识别码的方法 |
JP5761601B2 (ja) * | 2010-07-01 | 2015-08-12 | 株式会社リコー | 物体識別装置 |
US8446461B2 (en) * | 2010-07-23 | 2013-05-21 | Superd Co. Ltd. | Three-dimensional (3D) display method and system |
JP2012053741A (ja) * | 2010-09-02 | 2012-03-15 | Sony Corp | 画像処理装置、画像処理方法及びコンピュータプログラム |
KR20120030639A (ko) * | 2010-09-20 | 2012-03-29 | 삼성전자주식회사 | 디스플레이장치 및 그 영상처리방법 |
US8760517B2 (en) * | 2010-09-27 | 2014-06-24 | Apple Inc. | Polarized images for security |
CN102045577B (zh) * | 2010-09-27 | 2013-03-27 | 昆山龙腾光电有限公司 | 用于三维立体显示的观察者跟踪***及三维立体显示*** |
CN102447916A (zh) * | 2010-09-30 | 2012-05-09 | 宏碁股份有限公司 | 立体影像显示装置与方法 |
CN102457736A (zh) * | 2010-10-25 | 2012-05-16 | 宏碁股份有限公司 | 提供即时三维视讯的方法与即时三维视讯*** |
CN102034092B (zh) * | 2010-12-03 | 2012-09-05 | 北京航空航天大学 | 基于独立多自由度视觉模块的主动复合双目快速目标搜索与捕获*** |
GB2489202B (en) | 2011-03-11 | 2016-06-29 | Snell Ltd | Analysis of stereoscopic images |
JP2014519216A (ja) * | 2011-04-19 | 2014-08-07 | インスティテュート フューア ランドファンクテクニック ゲーエムベーハー | 立体ビデオ信号をデコードするための方法およびシステム |
KR20140002034A (ko) | 2011-05-12 | 2014-01-07 | 애플 인크. | 존재 감지 |
US20120287031A1 (en) | 2011-05-12 | 2012-11-15 | Apple Inc. | Presence sensing |
WO2013108310A1 (ja) * | 2012-01-18 | 2013-07-25 | パナソニック株式会社 | 立体画像検査装置、立体画像処理装置、および立体画像検査方法 |
KR101928555B1 (ko) | 2012-02-08 | 2018-12-14 | 삼성디스플레이 주식회사 | 입체영상 표시장치 및 이를 포함하는 입체영상 시스템 |
JP5962125B2 (ja) * | 2012-03-28 | 2016-08-03 | カシオ計算機株式会社 | 表示装置、同期方法及びプログラム |
KR101986706B1 (ko) * | 2012-10-15 | 2019-06-10 | 삼성디스플레이 주식회사 | 유기전계발광 표시장치 및 그 구동방법 |
JP2015114307A (ja) * | 2013-12-16 | 2015-06-22 | ソニー株式会社 | 画像処理装置と画像処理方法および撮像装置 |
CN104392219A (zh) * | 2014-11-21 | 2015-03-04 | 上海箩箕技术有限公司 | 生物信息识别方法及装置 |
US10817594B2 (en) | 2017-09-28 | 2020-10-27 | Apple Inc. | Wearable electronic device having a light field camera usable to perform bioauthentication from a dorsal side of a forearm near a wrist |
CN107832377B (zh) * | 2017-10-30 | 2021-09-21 | 北京小米移动软件有限公司 | 图像信息显示方法、装置及***、存储介质 |
US11958373B1 (en) | 2019-10-21 | 2024-04-16 | State Farm Mutual Automobile Insurance Company | Electric vehicle charging management system and method |
US11850967B1 (en) | 2019-10-21 | 2023-12-26 | State Farm Mutual Automobile Insurance Company | Electric vehicle charging management system and method |
CN110826470A (zh) * | 2019-11-01 | 2020-02-21 | 复旦大学 | 基于深度主动学习的眼底图像左右眼识别方法 |
CN111582799B (zh) * | 2020-05-09 | 2023-05-05 | 广州信天翁信息科技有限公司 | 一种物品画像的构建方法及装置 |
CN112967332B (zh) * | 2021-03-16 | 2023-06-16 | 清华大学 | 基于门控成像的双目深度估计方法、装置及计算机设备 |
CN117201760A (zh) * | 2022-07-26 | 2023-12-08 | 惠州Tcl移动通信有限公司 | 基于3d显示技术的图像显示装置及方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1997025819A1 (es) * | 1996-01-05 | 1997-07-17 | Alejo Trevijano Jose Javier | Sistema estereoscopico electronico |
US6088052A (en) * | 1997-01-08 | 2000-07-11 | Recherches Point Lab Inc. | 3D stereoscopic video display system |
US6885379B2 (en) * | 2001-05-09 | 2005-04-26 | Novatek Microelectronics Corp. | Circuit and method for decoding color code of a 3D display |
JP2006185448A (ja) * | 2005-12-26 | 2006-07-13 | Olympus Corp | 距離演算装置 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0514932A (ja) * | 1991-06-28 | 1993-01-22 | Hitachi Denshi Ltd | 立体テレビジヨン信号処理方式 |
JP3182009B2 (ja) | 1992-12-24 | 2001-07-03 | 日本電信電話株式会社 | 両眼立体視装置 |
KR100358021B1 (ko) * | 1994-02-01 | 2003-01-24 | 산요 덴키 가부시키가이샤 | 2차원영상을3차원영상으로변환시키는방법및입체영상표시시스템 |
JP3214688B2 (ja) | 1994-02-01 | 2001-10-02 | 三洋電機株式会社 | 2次元映像を3次元映像に変換する方法及び3次元映像信号生成装置 |
US6553184B1 (en) | 1994-03-14 | 2003-04-22 | Sanyo Electric Co., Ltd. | Method of converting two dimensional images into three-dimensional images |
JP2983844B2 (ja) | 1994-07-14 | 1999-11-29 | 三洋電機株式会社 | 3次元画像変換方法 |
EP0809913B1 (en) * | 1995-12-19 | 2002-06-12 | Koninklijke Philips Electronics N.V. | Parallactic depth-dependent pixel shifts |
JP3005474B2 (ja) | 1996-08-07 | 2000-01-31 | 三洋電機株式会社 | 2次元映像を3次元映像に変換する装置および方法 |
WO1998004087A1 (fr) * | 1996-07-18 | 1998-01-29 | Sanyo Electric Co., Ltd. | Dispositif et procede pour convertir des signaux video bidimensionnels en signaux video tridimensionnels |
JP2000209614A (ja) | 1999-01-14 | 2000-07-28 | Sony Corp | 立体映像システム |
US6448952B1 (en) * | 1999-01-26 | 2002-09-10 | Denso Corporation | Stereoscopic image display device |
EP1413148B1 (en) * | 2001-07-23 | 2009-10-28 | Koninklijke Philips Electronics N.V. | Stereoscopic image processing apparatus and method |
US6603535B1 (en) * | 2002-08-30 | 2003-08-05 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Stereo imaging velocimetry system and method |
JP4214976B2 (ja) | 2003-09-24 | 2009-01-28 | 日本ビクター株式会社 | 擬似立体画像作成装置及び擬似立体画像作成方法並びに擬似立体画像表示システム |
US7262767B2 (en) * | 2004-09-21 | 2007-08-28 | Victor Company Of Japan, Limited | Pseudo 3D image creation device, pseudo 3D image creation method, and pseudo 3D image display system |
CN101479765B (zh) * | 2006-06-23 | 2012-05-23 | 图象公司 | 对2d电影进行转换用于立体3d显示的方法和*** |
-
2008
- 2008-09-09 JP JP2008231181A patent/JP4636149B2/ja not_active Expired - Fee Related
-
2009
- 2009-09-08 US US12/555,691 patent/US8345086B2/en not_active Expired - Fee Related
- 2009-09-09 CN CN200910169135XA patent/CN101674491B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1997025819A1 (es) * | 1996-01-05 | 1997-07-17 | Alejo Trevijano Jose Javier | Sistema estereoscopico electronico |
US6088052A (en) * | 1997-01-08 | 2000-07-11 | Recherches Point Lab Inc. | 3D stereoscopic video display system |
US6885379B2 (en) * | 2001-05-09 | 2005-04-26 | Novatek Microelectronics Corp. | Circuit and method for decoding color code of a 3D display |
JP2006185448A (ja) * | 2005-12-26 | 2006-07-13 | Olympus Corp | 距離演算装置 |
Also Published As
Publication number | Publication date |
---|---|
JP4636149B2 (ja) | 2011-02-23 |
US8345086B2 (en) | 2013-01-01 |
JP2010068121A (ja) | 2010-03-25 |
CN101674491A (zh) | 2010-03-17 |
US20100060720A1 (en) | 2010-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101674491B (zh) | 用于分析图像数据的设备、方法和计算机程序 | |
US8456518B2 (en) | Stereoscopic camera with automatic obstruction removal | |
CN102170577B (zh) | 用于处理视频图像的方法和*** | |
US9848178B2 (en) | Critical alignment of parallax images for autostereoscopic display | |
JP2010062695A (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
KR100754202B1 (ko) | 눈동자 검출 정보를 이용하는 입체 영상 표시 장치 및 방법 | |
CN102170578A (zh) | 用于处理视频图像的方法和设备 | |
JP2011004388A (ja) | 多視点映像表示装置および方法 | |
EP0707287B1 (en) | Image processing apparatus and method | |
EP2787735A1 (en) | Image processing device, image processing method and program | |
EP2466362A2 (en) | Method and apparatus for providing stereoscopic image | |
US20110242282A1 (en) | Signal processing device, signal processing method, display device, and program product | |
JP3157483B2 (ja) | 立体視検査装置および立体視検査プログラムを記録したコンピュータ読み取り可能な記録媒体 | |
JPS62122494A (ja) | 立体視装置 | |
US9530236B2 (en) | Time code display device and time code display method | |
KR101192121B1 (ko) | 양안시차 및 깊이 정보를 이용한 애너그리프 영상 생성 방법 및 장치 | |
TWI493960B (zh) | 用於場序式三維顯示系統之影像處理器及相關三維顯示系統 | |
RU2691884C1 (ru) | Телевизионное устройство для формирования стереоскопического изображения | |
JPH08237687A (ja) | 疑似立体画像表示装置 | |
JP2002330451A (ja) | 立体映像表示装置における頭部位置検出装置の設定方法および頭部位置検出装置 | |
KR20120023218A (ko) | 2d 및 3d 겸용 디스플레이 장치, 3d 보조 장치 및 선택적인 디스플레이 방법 | |
JP2006042280A (ja) | 画像処理装置 | |
JP2013207491A (ja) | 表示装置、同期方法及びプログラム | |
JP2001320732A (ja) | 遠隔操作用画像の伝送方法 | |
KR19980031957A (ko) | 텔레비젼 신호로부터 삼차원 동영상을 발생시키는 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20120321 Termination date: 20170909 |
|
CF01 | Termination of patent right due to non-payment of annual fee |