CN108632586A - 投影仪*** - Google Patents
投影仪*** Download PDFInfo
- Publication number
- CN108632586A CN108632586A CN201810209136.1A CN201810209136A CN108632586A CN 108632586 A CN108632586 A CN 108632586A CN 201810209136 A CN201810209136 A CN 201810209136A CN 108632586 A CN108632586 A CN 108632586A
- Authority
- CN
- China
- Prior art keywords
- image pickup
- pickup part
- image
- camera
- projecting apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/225—Image signal generators using stereoscopic image cameras using a single 2D image sensor using parallax barriers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/246—Calibration of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Projection Apparatus (AREA)
- Position Input By Displaying (AREA)
- Transforming Electric Information Into Light Information (AREA)
Abstract
本发明提供一种投影仪***,能够将从摄像图像取得视差信息而进行的位置检测维持为高精度,并且抑制摄像部间的距离的增大。能够利用作为构成摄像***(50)的4个摄像部的照相机(50a、50b、50c、50d)根据摄像范围不同的2组视差图像来取得视差信息,由此,将视差信息设为使得各照相机间的距离的更短的视差信息而取得。利用所取得的视差信息来检测作为投射画面的被照射区域(PLa)上的指示体(OB),实现交互图像投射。
Description
技术领域
本发明涉及能够检测位于投射画面上的手指等立体指示体的投影仪***。
背景技术
作为能够检测位于投射画面上的手指等立体指示体的投影仪,例如已知有根据从多个照相机取得的多个摄像图像信息的视差信息来识别手指等指示体的形状并检测指示位置的投影仪(例如参照专利文献1。)。另外,可实现通过利用指示位置的检测而反映到投影图像的内容中并能够进行写入的所谓交互的投影仪。但是,在利用如上所述的视差信息的情况下,如果想高精度地识别手指的形状,则需要更加增大视差、即增大照相机间的距离,照相机间的距离与投影仪的主体部分的大小相比有可能会变得非常大。作为另一个解决方法,例如还可考虑提高照相机的分辨率或镜头性能这样的提高照相机性能的方法,但会导致成本增加。
专利文献1:日本特开2012-150636号公报
发明内容
本发明的目的在于提供一种能够将从摄像图像取得视差信息而进行的位置检测维持为高精度并且抑制摄像部间的距离的增大的投影仪***。
为了达成上述目的,本发明的投影仪***具有:投影仪主体部,其投射图像光;第1摄像部、第2摄像部、第3摄像部和第4摄像部,它们能够在来自投影仪主体部的图像光的投影区域中拍摄摄像范围不同的2组视差图像。
在上述投影仪***中,能够利用4个摄像部拍摄摄像范围不同的2组视差图像(立体图像),由此,例如,与由2个摄像部取得的视差信息相比,能够将可进行同等精度的位置检测的视差信息设为使得摄像部间的距离更短的视差信息而取得。由此,例如在通过利用视差信息来检测投射画面上的指示体而能够实现交互的图像投射的投影仪***中,能够实现装置的小型化。
根据本发明的具体方面,第1摄像部配置于在与投影仪主体部的投射方向垂直的第1方向上与投影仪主体部的投射光轴分离的位置处,第2摄像部配置于在作为与第1方向相反的方向的第2方向上与投射光轴分离的位置处,第1摄像部和第2摄像部距来自投影仪主体部的图像光的投影区域的距离不同,第1摄像部和第2摄像部拍摄1组视差图像。在该情况下,在第1摄像部与第2摄像部之间容易产生视差,能够抑制摄像部间的距离的增大,并且根据视差图像获得检测投射画面上的指示体时所需的视差信息。
根据本发明的另一方面,第3摄像部配置于在第2方向上与投射光轴分离的位置处,第4摄像部配置于在第1方向上与投射光轴分离的位置处,第3摄像部和第4摄像部距来自投影仪主体部的图像光的投影区域的距离不同,第3摄像部和第4摄像部拍摄与由第1摄像部和第2摄像部拍摄的1组视差图像不同的1组视差图像。在该情况下,在第3摄像部与第4摄像部之间容易产生视差,能够抑制摄像部间的距离的增大,并且根据视差图像获得检测投射画面上的指示体时所需的视差信息。
根据本发明的又一方面,第1摄像部和第3摄像部配置于比第2摄像部和第4摄像部更接近投影区域的一侧。在该情况下,利用与投影区域的距离差,在第1摄像部及第3摄像部与第2摄像部及第4摄像部之间,能够形成为分别具有视差的状态。
根据本发明的又一方面,第1摄像部~第4摄像部以规定角度范围内的倾斜角倾斜,第1摄像部的倾斜角大于第2摄像部的倾斜角,第3摄像部的倾斜角大于第4摄像部的倾斜角。在该情况下,通过设置倾斜角,与不设置倾斜角相比,能够抑制摄像部的大视场角化。
根据本发明的又一方面,第1摄像部和第3摄像部距来自投影仪主体部的图像光的投影区域的距离相等。在该情况下,第1摄像部侧和第3摄像部侧能够在距投影区域的距离相等的状态下进行拍摄。
根据本发明的又一方面,第2摄像部和第4摄像部距来自投影仪主体部的图像光的投影区域的距离相等。在该情况下,第2摄像部侧和第4摄像部侧能够在距投影区域的距离相等的状态下进行拍摄。
根据本发明的又一方面,第1摄像部~第4摄像部配置在收纳投影仪主体部的壳体的四个角处。在该情况下,通过配置于壳体的四个角处,能够将投影仪主体部收纳在壳体内,在不使4个摄像部从壳体较大凸出的情况下,有效地获得基于视差图像的视差信息。
根据本发明的又一方面,第1摄像部和第2摄像部配置在收纳投影仪主体部的壳体的四个角的对角位置处,第3摄像部和第4摄像部配置在壳体的四个角中的、与第1摄像部以及第2摄像部不同的对角位置处。在该情况下,通过组合第1摄像部和第2摄像部的视差图像与第3摄像部和第4摄像部的视差图像,能够获得视差信息。
根据本发明的又一方面,第1摄像部和第2摄像部拍摄来自投影仪主体部的图像光的投影区域中的至少一半区域,第3摄像部和第4摄像部拍摄来自投影仪主体部的图像光的投影区域中的、包含未被第1摄像部和第2摄像部拍摄的剩余区域的至少一半区域。在该情况下,能够组合视差图像来针对检测图像光的整个投影区域获得用于投射画面上的指示体的视差信息。
根据本发明的又一方面,第1摄像部和第2摄像部拍摄图像光的投影区域中的、包含第1方向和第2方向中的一个方向侧的端的区域的至少一半区域,第3摄像部和第4摄像部拍摄图像光的投影区域中的、包含第1方向和第2方向中的另一个方向侧的端的区域的至少一半区域。在该情况下,利用第1摄像部和第2摄像部拍摄图像光的投影区域中的、包含沿与投射方向垂直的方向的一方的端的区域的一半区域,利用第3摄像部和第4摄像部拍摄图像光的投影区域中的、包含沿与投射方向垂直的方向的另一方的端的区域的剩余的一半区域。
根据本发明的又一方面,投影仪主体部倾斜投射图像光。在该情况下,能够朝向屏幕等被照射区域进行图像投射,该图像投射为进行接近投射的短焦点型。
根据本发明的又一方面,第1摄像部~第4摄像部分别与拍摄来自投影仪主体部的图像光的投影区域的范围对应地倾斜。在该情况下,能够更加缩小各摄像部中的视场角。
根据本发明的又一方面,第1摄像部~第4摄像部能够拍摄包含来自投影仪主体部的图像光的投影区域在内的摄像区域,检测存在于摄像区域中的指示体。在该情况下,通过利用所取得的视差信息,能够将指示体捕捉为立体形状。
根据本发明的又一方面,确定基于由第1摄像部~第4摄像部取得的图像光的信息的图像投射位置、以及由第1摄像部~第4摄像部检测出的指示体的位置,进行反映了所确定的指示体的位置信息的图像投射。在该情况下,能够进行反映了指示体的指示位置信息的交互图像投射。
附图说明
图1是示出第1实施方式的投影仪***的概略结构的图。
图2是示出校准时的图案图像的投影的情形的图。
图3是示出投影仪***的结构的俯视图。
图4是用于说明摄像部的倾斜角的图。
图5是用于说明一对摄像部的视差图像(立体图像)的取得及其摄像范围的图。
图6是示出将关于视差信息的精度作为对象的摄像位置和投影位置的一例的图。
图7是用于说明关于视差信息的精度的指标的图。
图8是用于说明关于视差信息的精度与摄像性能的关系的图。
图9是用于说明一个实施例中的视差信息的指标的图。
图10A是用于示出构成摄像部的摄像元件的一个具体例的图。
图10B是示出一个具体例中的摄像部的像高与微小角度的关系的曲线图。
图11是示出第2实施方式的投影仪***的结构的俯视图。
图12是用于说明1组摄像部的视差图像(立体图像)及其摄像范围的图。
图13是用于对第1实施方式和第2实施方式中的投影仪***进行比较的图。
标号说明
AE:有效区域;AX1-AX4:光轴;C1、C2、C3:点;CA:壳体;CD:立体区域;CR1、CR2:圆;D1:第1方向;D2:第2方向;EE:位置;EI:必须摄像范围;EP1:平面;ER:误差区域;GL:图案图像光;LS:透镜;MC:圆;OB:指示体;P1:投射方向;PH:间距;PL:投射光;PLa:被照射区域;PLi:影像图像;PT:图案图像;PX:光轴;RE:受光元件;SC:屏幕;SE:区域;T1:宽度;V1、V2、V3:距离;W1:横宽;X1、X2:轴;f:焦距;Δθ、Δθ1、Δθ2:微小角度;α1、α2:倾斜角;θ1、θ2:仰角;θ3:角度;40:投射镜头;50:摄像***;50a:第1照相机(第1摄像部);50b:第2照相机(第2摄像部);50c:第3照相机(第3摄像部);50d:第4照相机(第4摄像部);100:投影仪;100p:投影仪主体部;200:投影仪;250:摄像***;250a、250b、250c、250d:第1~第4照相机(第1摄像部~第4摄像部);500:投影仪***;600:投影仪***。
具体实施方式
[第1实施方式]
下面,参照附图来说明本发明的第1实施方式的投影仪***。
图1等所示的投影仪***500由投影仪100构成,该投影仪100以悬挂的状态安装于天花板,投射(倾斜投射)作为图像光的投射光PL并进行图像投射。另外,投射光PL的被照射区域PLa例如形成在屏幕SC上。被照射区域PLa相当于来自投影仪100的投射光(图像光)PL的投影区域。此外,虽然省略图示,但除了投影仪100以外,投影仪***500还通过连接例如PC等而构成,并根据需要由该PC进行各种处理,由此,能够进行如受理针对被照射区域PLa中的显示画面上的写入的交互状况下的图像动作。如上所述,投影仪***500中的投影仪100是设置在屏幕SC的斜上方、朝向斜下方的屏幕SC进行接近投射的短焦点型(这里为所谓超短焦点接近投射。)的投影仪,由作为用于进行图像投射的主体部分的投影仪主体部100p、以及摄像***50构成。特别是,在本实施方式中,摄像***50由4个摄像部(照相机50a、50b、50c、50d)构成,该4个摄像部分别配置在投影仪100的壳体CA的四个角处。能够利用4个照相机50a、50b、50c、50d进行高精度的指示体OB的位置检测。另外,在本实施方式中,设为以下情况进行说明:设垂直向下为Y方向(+Y方向),屏幕SC的表面与XY面内平行,投影仪100将+Z方向作为正面方向而相对于屏幕SC进行设置。
投影仪主体部100p朝向屏幕SC投射投射光PL,从而进行投影图像(彩色图像)的形成,该投射光PL是合成可见光波段的光而构成的图像光。在投影仪***500中,为了能够进行交互的图像投射,前提是进行了用于确定投射画面上的指示体的位置的位置对准(校准)。
下面,参照图2,说明成为用于使得能够进行交互的图像投射的前提的位置对准的处理即校准。图2示出为了进行基于投影仪主体部100p的图像投影中的尤其上述的校准的处理而投射校准时图案图像的情形。在本实施方式中,首先,例如利用由作为图像光的投射光PL所包含的可见光波段的成分中的绿色波段的光构成的图案图像光GL来投射图案图像PT,该图案图像PT表示通过基于投影仪主体部100p的图像投射(投影)而显现在屏幕SC上的影像的范围。由摄像***50接收图案图像光GL的一部分的成分,由此,取得关于图案图像PT的图像信息,根据该信息,进行图像投射位置的确定。具体而言,首先,摄像***50向投影仪主体部100p发送所拍摄的图案图像PT的图像信息。接着,投影仪主体部100p进行由摄像***50取得的图案图像PT的信息与光调制中的像素矩阵的信息的对应。即,将由摄像***50拍摄的图案图像PT的受光用传感器上的各位置与投影仪主体部100p的光调制中的像素矩阵上的各位置即所投射的图像上的位置对应起来。对应例如可以按照像素单位进行(例如可以生成对应的表),但例如也可以设为能够通过确定对应的函数,进行对应的处理。如上所述,投影仪主体部100p通过将基于由摄像***50取得的图案图像PT的信息的图像投射位置与光调制的像素位置对应起来,进行校准(位置对准)。在校准后,能够根据校准中的对应来确定由摄像***50进行位置检测后的指示体OB在图案图像PT上的指示位置,能够进行反映了所确定的指示体OB的位置的信息的交互图像投射。
这里,作为用于进行上述的交互图像投射的前提,需要进行指示体OB的高精度的位置检测。在本实施方式中,能够利用构成摄像***50的4个照相机50a、50b、50c、50d,抑制各照相机间的距离的增大,并且即使不提高照相机的分辨率或镜头性能,也能够取得所需的视差信息而进行指示体OB的高精度的位置检测。
下面,参照图1和图3等,对投影仪主体部100p和摄像***50等的结构进行说明。另外,在图1、图3等中,为了使说明容易理解,描述为使构成摄像***50的照相机50a、50b、50c、50d朝壳体CA的下侧突出,但还能够设为在壳体CA的下侧未突出或者几乎未突出的方式,或者内置于壳体CA中。
虽然省略关于全部结构的详细图示,但投影仪主体部100p具有光源、光调制装置、投射光学***等,进行针对屏幕SC的图像投影。这里,例如,如图3所示,从作为收纳在壳体CA的内部的投射光学***的投射镜头40射出作为图像光的投射光PL。此外,设配置于壳体CA的中央处的投射镜头40的投射光轴为光轴PX。除了上述以外,投影仪主体部100p还具有图像投射部和投影仪控制部,进行图像投射等各种动作控制。例如,投影仪控制部能够受理来自摄像***50的信息,能够根据校准而考虑来自摄像***50的信息并修正被投射的图像的内容,由此,可实现能够在画面上进行写入的所谓交互图像投射,在该校准中,将构成投影仪主体部100p的图像形成部(光调制中的像素矩阵)的像素与构成摄像***50的各照相机所分别内置的摄像元件(受光用的传感器)的像素的位置关系对应起来。
另外,构成投影仪主体部100p的光学***能够采用各种方式,例如关于光源等,能够应用各种结构的光源,还能够利用例如激光光源、LED光源、以及有机EL(O-LED)。特别是,在应用了有机EL元件等自发光型光源的情况下,光源能够构成为还兼具光调制作用的影像装置。另外,在使光源(背照灯)和光调制为单独的结构的情况下,光调制装置例如能够设为透射型液晶面板。
摄像***50是拍摄由投影仪主体部100p投射的投影图像并取得图像信息的传感器装置。在本实施方式中,特别是,摄像***50由隔开配置的4个摄像部构成。具体而言,摄像***50由作为第1摄像部的第1照相机50a、作为第2摄像部的第2照相机50b、作为第3摄像部的第3照相机50c和作为第4摄像部的第4照相机50d构成。各照相机50a、50b、50c、50d为同一规格,由第1照相机50a和第2照相机50b成为一对结构,由第3照相机50c和第4照相机50d成为一对结构,配置在关于投影仪主体部100p的投射光PL的投射位置左右对称的位置处。例如,除了摄像镜头***以外,各照相机50a、50b、50c、50d还具有进行包含受光元件(摄像元件)即受光用传感器或通信部向其它装置的发送等的各种控制的控制装置这样的部件。通过具有上述的多个照相机50a、50b、50c、50d(立体照相机),投影仪100能够取得基于视差图像(或者立体图像)的视差信息。即,能够进行基于立体观察的更高级的位置检测。特别是,在本实施方式中,利用位于壳体CA的四个角中的对角位置的第1照相机50a和第2照相机50b拍摄1组视差图像,利用处于另一对角位置的第3照相机50c和第4照相机50d拍摄另1组视差图像,由此,能够取得基于摄像范围不同的2组视差图像的视差信息。即,从拍摄出的2组视差图像中分别提取视差信息,由此,能够进行指示体的位置检测。
另外,在本实施方式中,能够由多个照相机50a、50b、50c、50d对作为检测对象的指示体(指尖)OB进行利用了视差的立体检测,因此,例如,需要将触摸屏幕SC的使用者的手指/手捕捉为有深度感的立体的形状。因此,准确而言,以将作为屏幕SC上的投影区域的被照射区域Pla以及包含被照射区域PLa的立体区域包含在摄像区域中的方式进行了拍摄。因此,在本实施方式中,假设以能够拍摄例如从手指的前端到手腕的方式,实际上将从被照射区域Pla起具有16cm左右的厚度的立方体状的立体区域CD包含在摄像区域的范围中。但是,在之后的说明中,为了简化说明,假设还包含具有厚度的立体区域CD而捕捉为被照射区域PLa,将其作为摄像范围的对象。
下面,参照图3,对投影仪100中的尤其是构成摄像***50的第1摄像部~第4摄像部的照相机50a、50b、50c、50d的配置等进行说明。另外,根据用XYZ方向表示的关系可知,图3为从下方侧观察处于如图1那样悬挂在天花板(上方)的状态的投影仪100时的图。这里,对摄像***50中的一对结构的第1照相机50a与第2照相机50b的关系进行说明,关于另一个的一对结构的第3照相机50c和第4照相机50d,由于对称性而相同,因此,省略详细的说明。
首先,如图所示,第1照相机50a和第2照相机50b配置在壳体CA的四个角中的对角位置处。更具体而言,第1照相机50a配置于在作为与投影仪主体部100p的投射方向P1垂直的方向之一的第1方向D1(-X方向)上与作为包含投射镜头40等的投影仪主体部100p的投射光轴的光轴PX分离的位置处,另一方面,第2照相机50b配置于在作为第1方向D1(-X方向)的相反方向的第2方向D2(+X方向)上与包含投射镜头40等的投影仪主体部100p的光轴PX分离的位置处。即,第1照相机50a配置于在与投射方向P1垂直的第1方向D1上与光轴PX分离的位置处,第2照相机50b配置于在作为与投射方向P1垂直且与第1方向D1相反的方向的第2方向D2上与光轴PX分离的位置处。并且,在第1照相机50a和第2照相机50b中,距来自投影仪主体部100p的图像光的投影区域的距离即到被照射区域PLa或屏幕SC的距离相互不同。换言之,第1照相机50a和第2照相机50b配置于在投射方向P1上错开的位置处。在图示的例子中,第1照相机50a配置于比第2照相机50b更接近屏幕SC的一侧。另外,同样,关于第3照相机50c和第4照相机50d,第3照相机50c在第2方向D2上与投影仪主体部100p的光轴PX分离,第4照相机50d在第1方向D1上与投影仪主体部100p的光轴PX分离,第3照相机50c配置在比第4照相机50d更接近屏幕SC的一侧。即,第1照相机50a和第3照相机50c配置在比第2照相机50b和第4照相机50d更接近投影区域的一侧。此外,第1照相机50a与第3照相机50c的位置关系配置于在第1方向D1和作为其相反方向的第2方向D2上相互分离、且距来自投影仪主体部100的图像光的投影区域的距离相等的位置处。此外,与此对应,第2照相机50b与第4照相机50d的位置关系也配置于在第1方向D1和第2方向D2上相互分离、且距来自投影仪主体部100的图像光的投影区域的距离相等的位置处。
根据上述的配置,在本实施方式中,图3所示的各尺寸如以下所示。首先,关于限定投影仪100的尺寸的壳体CA,横向(X方向)的横宽为W1=367mm,进深方向(Z方向)的进深宽度为T1=400mm,横向(X方向)的照相机间的距离为V1=240mm,进深方向(Z方向)的照相机间的距离为V2=250mm。并且,根据距离V1与距离V2的关系,处于对角位置的照相机间的距离为V3=347mm。
此外,如图3所示,在尝试投射到与XZ面平行的面的情况下,各照相机50a、50b、50c、50d的光轴AX1~AX4与投影仪主体部100p的光轴PX平行。但是,如上所述,投影仪主体部100p朝向斜下方投射图像光,因此,例如进行了倾斜投射,在各照相机50a、50b、50c、50d中,作为拍摄对象的被照射区域PLa也位于斜下方,因此,以规定角度范围内的倾斜角倾斜。
下面,参照图4,对各照相机50a、50b、50c、50d的倾斜角进行说明。
图4是用于说明本实施方式的投影仪***中的摄像***50的姿势和摄影范围的图。另外,虽然示出了构成摄像***50的4个照相机中的照相机50a、50b,但照相机50c、50d也同样如此。根据附图可知,在该情况下,第1照相机50a的光轴AX1不与屏幕SC垂直,而向下方倾斜了倾斜角α1。此外,第2照相机50b的光轴AX2也不与屏幕SC垂直,而向下方倾斜了倾斜角α2。并且,对倾斜角α1与倾斜角α2进行比较,倾斜角α1更大。即,相对接近屏幕SC的第1照相机50a的倾斜角大于相对远离屏幕SC的第2照相机50b的倾斜角。同样,第3照相机50c的倾斜角大于第4照相机50d的倾斜角。另外,作为各倾斜角α1、α2的具体数值例,考虑设为α1=27°、α2=15°。
这里,在本实施方式中,并且,例如,由第1照相机50a和第2照相机50b构成的一对摄像部不将作为屏幕SC上的投影区域的整个被照射区域PLa作为摄像对象范围,而将一部分的区域作为摄像对象范围。
下面,参照图5,说明一对摄像部的视差图像的取得及其摄像范围。另外,图5是进一步从上方侧观察处于悬挂在天花板(上方)的状态的投影仪100时的图。即,是从与图3的情况相反的一侧观察时的图。在该情况下,例如各照相机50a等位于壳体CA的内部或者比壳体CA靠下方侧的位置处,因此,在图中用虚线表示。此外,这里,对构成摄像***50的两对摄像部中的一对第1照相机50a和第2照相机50b的摄像范围进行说明。如图所示,第1照相机50a和第2照相机50b从各自的位置拍摄被照射区域PLa中的、至少右半部分的区域即+X侧的一半以上的区域,能够进行该范围内的视差图像的取得进而视差信息的取得。换言之,第1照相机50a和第2照相机50b能够拍摄包含作为第1方向D1和其相反方向即第2方向D2中的一个方向的第2方向D2的一侧的端的区域EG2的至少一半区域。同样,作为另一个一对摄像部的第3照相机50c和第4照相机50d通过从各自的位置拍摄被照射区域PLa中的、至少左半部分的区域即-X侧的一半以上的区域(包含未被第1照相机50a和第2照相机50b拍摄的剩余区域的区域),能够获得所需的剩余的视差信息。换言之,第3照相机50c和第4照相机50d能够拍摄包含作为第1方向D1和其相反方向即第2方向D2中的另一方向的第1方向D1的一侧的端的区域EG1(参照图1等)的至少一半区域,取得所需的剩余的视差信息。即,摄像***50中的4个照相机50a、50b、50c、50d协作,由此,能够取得整个被照射区域PLa的视差图像。另外,4个照相机50a、50b、50c、50d的受光元件(摄像元件)在传感器上的区域SE中的、作为有效摄像范围的有效区域AE内,拍摄与被照射区域PLa的一部分对应的影像图像PLi。因此,为了能够拍摄屏幕SC上的整个被照射区域PLa,需要使得将一对照相机50a、50b的有效区域AE内公用的影像图像PLi与一对照相机50c、50d的有效区域AE内公用的影像图像PLi连接起来的影像图像成为对应于整个被照射区域PLa的图像。
在该情况下,关于一对第1照相机50a和第2照相机50b,位于相对接近被照射区域PLa的位置的第1照相机50a处于-X侧,位于相对较远的位置的第2照相机50b处于+X侧,拍摄被照射区域PLa的+X侧的区域,由此,更加容易出现第1照相机50a与第2照相机50b之间的视差。根据对称性,关于另一对第3照相机50c和第4照相机50d的配置关系也同样如此。
另外,针对第1照相机50a以及第2照相机50b的摄像范围与第3照相机50c以及第4照相机50d的摄像范围重叠的中央侧的范围,例如,在投影仪主体部100p的投影仪控制部侧,按照每个部位确定优先级等而以不产生冲突的方式适当进行处理即可。
此外,在上述的情况下,无需由各照相机50a、50b、50c、50d取入整个被照射区域PLa。如果改变看法,则能够在各照相机中增大被摄体的像。并且,在上述的情况下,相比于取入整个被照射区域PLa的情况,能够成为使屏幕的端侧更靠近照相机的正面侧的状态。因此,可认为能够减少指示体的位置检测中的误差。
如上所述,4个照相机50a、50b、50c、50d通过构成为配置于俯视时矩形的壳体的四个角处,将位于对角位置的照相机作为一对,并且,根据将摄像范围作为整体的一半左右且更加容易出现视差的范围而取得的视差图像来取得视差信息,由此,使摄像***50成为不会从壳体CA大幅地露出的结构,并且,能够高精度地进行指示体OB的位置检测。
此外,在本实施方式的投影仪***500中,如上所述,进行了所谓超短焦点接近投射。因此,优选一定程度地增大以接近的方式安装于投影仪主体部100p上的摄像***50(照相机50a、50b、50c、50d)的摄影范围。并且,从以立体照相机方式取得作为指示体的手指的三维位置的观点出发,也需要设为大视场角。在这样的情况下,难以应用通常的镜头的可能性较高,考虑利用鱼眼镜头。作为魚眼镜头,例如考虑采用使用了被称作fθ镜头的镜头的等距离投射方式等。并且,可以设为使用在下式中所示的特性的镜头进行拍摄(立体投射方式)。
这里,设焦距为f、半视场角(或者仅为视场角)为θ、像高为y。
在该情况下,与等距离投射方式相比,能够在摄像图像中特别抑制周边侧的失真(压缩)。
下面,参照图6等,关于摄像***50的位置检测的精度的评价方法进行考察。图6~图8是用于说明计算立体照相机的误差区域作为关于视差信息的精度的指标的一例的方法的图。
首先,图6是考察了上述第1照相机50a和第2照相机50b中的作为对象的摄像范围的图,例如图中的点C1、C2分别表示投影仪100中的第1照相机50a和第2照相机50b的设置位置。如上所述,在想要由一对第1照相机50a和第2照相机50b拍摄被照射区域PLa中的+X侧的一半区域时,作为被照射区域PLa的右下角的位置的点C3距2个照相机50a、50b的距离最远,因此,成为视差较小且检测精度最低的位置。即,需要设为能够可靠地进行该部位的指示体的检测。因此,这里,设通过点C1、C2和点C3的3个点的平面EP1为基准面,在检测点C3和及其附近的位置时,考察各照相机50a、50b中产生的误差。另外,如图所示,这里,设平面EP1上的、通过点C1和点C2的直线的方向为x方向,并且,设平面EP1上的、与x方向垂直且以点C3侧为+的方向为y方向,关于x方向和y方向,以点C1、C2的中点为基准确定x轴和y轴。
在上述的情况下,如图7所示,设为从点C1起相对于x轴以仰角θ1延伸的轴X1与从点C2起相对于x轴以仰角θ2延伸的轴X2在点C3处相交。在该情况下,轴X1与轴X2形成的角的角度θ3相当于点C3处的第1照相机50a与第2照相机50b的角度差(视差)。如上所述,角度θ3是根据3个点C1、C2和点C3的位置关系即第1照相机50a及第2照相机50b与被照射区域PLa的配置而确定的值,示出角度θ3越大,越容易出现视差。
此外,另一方面,在附图中示出了从各点C1、C2起以各轴X1、X2为中心扩展的微小角度Δθ1、Δθ2。这些微小角度Δθ1、Δθ2表示各照相机50a、50b的性能。
图8是用于说明相当于微小角度Δθ1、Δθ2的微小角度Δθ的性质的图。如图8所示,关于构成照相机50a(或者照相机50b)的受光元件RE和透镜LS,微小角度Δθ相当于通过透镜LS而被取入到受光元件RE的1个像素的间距PH的光的范围。即,处于该范围表示被视作受光元件RE上的相同点的界限。即,图7中的微小角度Δθ1、Δθ2表示伴随各照相机50a、50b的性能的分辨率的界限。换言之,关于该角度以下的范围,在各照相机50a、50b中未全部作为一个像素进行处理并识别,而全部作为误差的范围内进行处理。根据以上可知,如图7所示,设根据以各轴X1、X2为中心扩展的微小角度Δθ1、Δθ2和角度θ3确定的四边形的区域为误差区域ER。误差区域ER的形状根据微小角度Δθ1、Δθ2和角度θ3确定,如上所述,示出微小角度Δθ1、Δθ2越小、且角度θ3越大,则越能够进行高精度的位置检测。这可认为,在从误差区域ER的形状考虑时,微小角度Δθ1、Δθ2越大,则误差区域ER的形状越大,并且,角度θ3越小,则误差区域ER的形状越细长。即,能够认为误差区域ER越细长、越大,则位置检测的精度越差,误差区域ER越小地取得了纵横的平衡的形状,位置检测的精度越高。因此,考虑将内包误差区域ER的最小圆MC的大小(圆MC的半径)设为位置检测的精度的指标。另外,通过实施图像处理,还能够以小于上述的一个像素的单位进行识别,但相同的是,上述是位置检测精度的指标之一。
图9等是研究了本实施方式的投影仪100的具体的一个结构例的指标的图,例如在图9的上段侧示出了具体的一个结构例中的通过点C1、C2和点C3的3个点的基准面。具体地说明,在上述投影仪100中,壳体CA为横宽W1=367mm、进深宽度T1=400mm,在其中央处配置投射镜头40并斜向下投射。这里,设投影仪100的投射距离(Z方向的距离)为722mm,被照射区域PLa的尺寸设为120英寸(纵横比16:10)。由投射距离和被照射区域PLa的横向尺寸表示的投影缩放比设为大约0.28。另一方面,如上所述,配置在壳体CA的四个角处的各照相机50a、50b、50c、50d为横向(X方向)的照相机间的距离V1=240mm、进深方向(Z方向)的照相机间的距离V2=250mm,假设根据距离V1与距离V2的关系,位于对角位置的照相机间的距离为V3=347mm。并且,关于第1照相机50a和第3照相机50c的倾斜角α1,设为α1=27°,关于第2照相机50b和第450d的倾斜角α2,设为α2=15°。另外,角度θ3根据仰角θ2与仰角θ1之差确定,但根据在上述的情况下确定的仰角θ1、θ2的值,角度θ3为大约8.1°。
此外,各照相机50a、50b、50c、50d为同一规格,这里,作为一例,摄像镜头***为立体投射方式,设其焦距f为f=2.82mm。此外,关于受光元件(摄像元件),如图10A所示,设区域SE的横向尺寸为WS1、纵向尺寸为HS1、有效区域AE的横向尺寸为WS2、纵向尺寸为HS2。这里,设为横向尺寸WS1=5.12mm、纵向尺寸HS1=3.84mm、横向尺寸WS2=4.48mm、纵向尺寸HS2=3.20mm。并且,设受光元件(摄像元件)的像素数为2048×1536。在该情况下,图8所示的像素间距PH的值为2.5μm。
在上述的结构的各照相机50a、50b、50c、50d中,首先,摄像镜头***为立体投射方式,因此,如上所述,满足下述的式(1)
其中,设焦距为f、半视场角(或者仅为视场角)为θ、像高为y。在对上式(1)进行变形时,成为
参照上式(2),在规定图8所示的微小角度Δθ时,
其中,PH表示像素间距。另外,图10B是关于上式(3)设横轴为像高y、纵轴为微小角度Δθ时的曲线图。这里,在利用上述的各数值的设计的情况下,设置于点C1处的照相机50a拍摄与屏幕SC的右角的位置对应的点C3时的视场角为大约57.9°。在该情况下,根据上式(1),像高y为大约3.1mm,并且,像素间距PH的值为2.5μm,因此,根据上式(3)或者与其对应的图10B的曲线图,微小角度Δθ1为大约0.039°。此外,设置于点C2处的照相机50b拍摄点C3时的视场角为大约59.7°。在该情况下,通过相同的计算,像高y为大约3.2mm,微小角度Δθ2为大约0.038°。
在上述的情况、即角度θ3=8.1°、微小角度Δθ1=0.039°、微小角度Δθ2=0.038°的情况下,成为图9中的下段所示的误差区域ER和内包该误差区域ER的最小圆MC。
另外,在假设想通过在X方向上排列与上述照相机50a等具有同等性能的2个照相机而构成如收敛为与其相同程度的大小的误差区域ER和最小圆MC的摄像***时,可知必须使照相机间的距离(横宽的间隔)为600mm左右。在该情况下,在如上所述的尺寸的壳体CA中,摄像部(照相机)大幅地露出。当然,在设2个照相机间的距离为600mm以下、例如与上述同样为240mm左右时,无法取得充分的视差信息。
如上所述,在本实施方式的投影仪***500中,能够通过作为构成摄像***50的4个摄像部的照相机50a、50b、50c、50d拍摄摄像范围不同的2组视差图像,由此,能够将可进行高精度的位置检测的视差信息设为使得各照相机间的距离更短的视差信息而取得。由此,例如,通过利用视差信息来检测作为投射画面的被照射区域PLa上的指示体OB,能够在实现交互的图像投射时,实现装置的小型化。
〔第2实施方式〕
下面,参照图11等,对将第1实施方式变形后的第2实施方式进行说明。另外,本实施方式的投影仪***600是除了成为改变摄像***250的姿势的结构以外都与第1实施方式相同的结构,因此,省略整个投影仪***的说明。此外,具体的一个结构例(具体规格)也设为与第1实施方式中所示的情况相同。
图11是示出构成本实施方式的投影仪***600的投影仪200中的摄像***250的姿势的图,且是与图3对应的图。此外,图12是用于说明构成摄像***250的第1~第4照相机250a、250b、250c、250d中的一对第1照相机250a和第2照相机250b的视差图像的取得及其摄像范围的图,且是与图5对应的图。
首先,如图11所示,与第1实施方式不同,即使在尝试投射到与XZ面平行的面的情况下,第1~第4照相机250a、250b、250c、250d的光轴AX1~AX4也不与投影仪主体部100p的光轴PX平行而相对于其倾斜。并且,与第1实施方式同样,各照相机250a、250b、250c、250d以规定角度范围内的倾斜角倾斜。
但是,成为一对结构的第1照相机250a和第2照相机250b以在尝试针对与XZ面平行的面投影的情况下平行的方式,以相同程度朝作为摄像范围的+X侧倾斜。同样,成为另一个一对结构的第3照相机250c和第4照相机250d以在尝试针对与XZ面平行的面投影的情况下平行的方式,以相同程度朝作为摄像范围的-X侧倾斜。即,各照相机250a、250b、250c、250d分别与被照射区域PLa中的要拍摄的范围对应地倾斜。此外,如果改变看法,则被照射区域PLa侧即屏幕SC侧的第1照相机250a和第3照相机250c向内侧倾斜,远离屏幕SC的一侧的第2照相机250b和第4照相机250d向外侧倾斜。这里,作为一例,在尝试投射到与XZ面平行的面的情况下,各光轴AX1~AX4相对于光轴PX倾斜了20°。
在该情况下,如图12所示,与第1实施方式的情况(参照图5)相比,例如一对结构的第1照相机250a和第2照相机250b在稍微倾斜的状态下进行拍摄。此点在第3照相机250c和第4照相机250d中也同样如此。
图13是在上段示出第1实施方式的情况下的第1照相机50a和第2照相机50b的拍摄情形、在下段示出第2实施方式的情况下的第1照相机250a和第2照相机250b的拍摄情形、并对它们进行比较的图。在附图中,实线的圆CR1是表示对应于视场角80度的线,虚线的圆CR2是表示必要最大视场角的线。圆CR2是在相当于附图所示的被照射区域PLa的一半区域的必须摄像范围EI中的、要求最大视场角的位置EE中通过的视场角的线。在以圆CR1为基准对图13的上段与下段进行比较时,可知下段的圆CR2更小。即,在本实施方式的情况下,可知能够更加减小照相机的视场角。另外,在本实施方式的情况下,关于规定具体的一个结构例(具体规格)中的误差区域ER和内包该误差区域ER的最小圆MC的微小角度Δθ1、Δθ2和角度θ3的值,观察不到与第1实施方式的情况的差异。
在本实施方式中,也能够利用作为构成摄像***250的4个摄像部的照相机250a、250b、250c、250d拍摄摄像范围不同的2组视差图像,由此,能够将可进行高精度的位置检测的视差信息视作使得各照相机间的距离更加短的视差信息而取得。由此,例如,通过利用视差信息来检测作为投射画面的被照射区域PLa上的指示体,能够在实现交互的图像投射时,实现装置的小型化。
〔其他〕
本发明不限于上述各实施方式,能够在不脱离其主旨的范围内以各种方式实施。
在上述内容中,摄像***50、250还能够被组装为构成投影仪100、200的一部分,但是,例如,摄像***50、250也可以作为与投影仪100、200分体的摄像装置而存在。
此外,在上述内容中,依据具体的一个结构例(具体规格)进行了说明,但只是一个例子,关于结构例可考虑各种情况。
此外,在上述内容中,记载为由投影仪控制部、或可与投影仪100连接的PC等进行各种处理,但关于所负责的处理,能够采用各种方式。例如,可以设为由PC等外部连接设备进行(PC等构成投影仪控制部)各种控制的一部分或者全部。此外,相反,还能够设为无PC。
此外,在上述内容中,在校准中,假设利用由绿色波段的光构成的图案图像光GL来投射图案图像PT,图案图像PT的投射不限于绿色波段的光,还可考虑利用其它波段的光。
此外,在上述内容中,省略了构成投影仪主体部100p的光源、光调制装置、投射光学***等的一部分的图示和详细说明,还能够应用各种方式,例如,关于光源,除了上述以外,还能够利用例如高压汞灯等,分离为3色的光源进行应用。关于光调制装置,除了上述以外,例如还可考虑光调制装置还由在液晶面板中利用了滤色器的装置、反射型液晶面板、数字微镜器件等构成的各种方式。
Claims (15)
1.一种投影仪***,其具有:
投影仪主体部,其投射图像光;
第1摄像部、第2摄像部、第3摄像部和第4摄像部,它们能够在来自所述投影仪主体部的图像光的投影区域中拍摄摄像范围不同的2组视差图像。
2.根据权利要求1所述的投影仪***,其中,
所述第1摄像部配置于在与所述投影仪主体部的投射方向垂直的第1方向上与所述投影仪主体部的投射光轴分离的位置处,
所述第2摄像部配置于在作为与所述第1方向相反的方向的第2方向上与所述投射光轴分离的位置处,
所述第1摄像部和所述第2摄像部距来自所述投影仪主体部的图像光的投影区域的距离不同,
所述第1摄像部和所述第2摄像部拍摄1组视差图像。
3.根据权利要求1或2所述的投影仪***,其中,
所述第1摄像部~第4摄像部配置在收纳所述投影仪主体部的壳体的四个角处。
4.根据权利要求2所述的投影仪***,其中,
所述第3摄像部配置于在所述第2方向上与所述投射光轴分离的位置处,
所述第4摄像部配置于在所述第1方向上与所述投射光轴分离的位置处,
所述第3摄像部和所述第4摄像部距来自所述投影仪主体部的图像光的投影区域的距离不同,
所述第3摄像部和所述第4摄像部拍摄与由所述第1摄像部和所述第2摄像部拍摄的1组视差图像不同的1组视差图像。
5.根据权利要求4所述的投影仪***,其中,
所述第1摄像部和所述第3摄像部配置于比所述第2摄像部和所述第4摄像部更接近投影区域的一侧。
6.根据权利要求5所述的投影仪***,其中,
所述第1摄像部~第4摄像部以规定角度范围内的倾斜角倾斜,
所述第1摄像部的倾斜角大于所述第2摄像部的倾斜角,
所述第3摄像部的倾斜角大于所述第4摄像部的倾斜角。
7.根据权利要求4~6中的任意一项所述的投影仪***,其中,
所述第1摄像部和所述第3摄像部距来自所述投影仪主体部的图像光的投影区域的距离相等。
8.根据权利要求4~7中的任意一项所述的投影仪***,其中,
所述第2摄像部和所述第4摄像部距来自所述投影仪主体部的图像光的投影区域的距离相等。
9.根据权利要求4所述的投影仪***,其中,
所述第1摄像部和第2摄像部配置在收纳所述投影仪主体部的壳体的四个角的对角位置处,
所述第3摄像部和第4摄像部配置在所述壳体的四个角中的、与所述第1摄像部以及第2摄像部不同的对角位置处。
10.根据权利要求4~9中的任意一项所述的投影仪***,其中,
所述第1摄像部和第2摄像部拍摄来自所述投影仪主体部的图像光的投影区域中的至少一半区域,
所述第3摄像部和第4摄像部拍摄来自所述投影仪主体部的图像光的投影区域中的、包含未被所述第1摄像部和第2摄像部拍摄的剩余区域的至少一半区域。
11.根据权利要求4~9中的任意一项所述的投影仪***,其中,
所述第1摄像部和第2摄像部拍摄图像光的投影区域中的、包含所述第1方向和所述第2方向中的一个方向侧的端的区域的至少一半区域,
所述第3摄像部和第4摄像部拍摄图像光的投影区域中的、包含所述第1方向和所述第2方向中的另一个方向侧的端的区域的至少一半区域。
12.根据权利要求1~11中的任意一项所述的投影仪***,其中,
所述投影仪主体部倾斜投射图像光。
13.根据权利要求1~12中的任意一项所述的投影仪***,其中,
所述第1摄像部~第4摄像部分别与拍摄来自所述投影仪主体部的图像光的投影区域的范围对应地倾斜。
14.根据权利要求1~13中的任意一项所述的投影仪***,其中,
所述第1摄像部~第4摄像部能够拍摄包含来自所述投影仪主体部的图像光的投影区域在内的摄像区域,检测存在于所述摄像区域中的指示体。
15.根据权利要求1~14中的任意一项所述的投影仪***,其中,
确定基于由所述第1摄像部~第4摄像部取得的图像光的信息的图像投射位置、以及由所述第1摄像部~第4摄像部检测出的指示体的位置,进行反映了所确定的指示体的位置信息的图像投射。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017-049697 | 2017-03-15 | ||
JP2017049697A JP6822234B2 (ja) | 2017-03-15 | 2017-03-15 | プロジェクターシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108632586A true CN108632586A (zh) | 2018-10-09 |
CN108632586B CN108632586B (zh) | 2021-04-20 |
Family
ID=63520774
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810209136.1A Active CN108632586B (zh) | 2017-03-15 | 2018-03-14 | 投影仪*** |
Country Status (3)
Country | Link |
---|---|
US (1) | US10516864B2 (zh) |
JP (1) | JP6822234B2 (zh) |
CN (1) | CN108632586B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021093231A1 (zh) * | 2019-11-11 | 2021-05-20 | 成都极米科技股份有限公司 | 超短焦画幕对齐方法、装置和超短焦投影设备及介质 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018085552A (ja) * | 2016-11-21 | 2018-05-31 | セイコーエプソン株式会社 | プロジェクターシステム |
WO2018167999A1 (ja) * | 2017-03-17 | 2018-09-20 | パナソニックIpマネジメント株式会社 | プロジェクタ及びプロジェクタシステム |
CN111258158B (zh) | 2018-11-30 | 2022-10-25 | 中强光电股份有限公司 | 投影机及亮度调整方法 |
CN111258157B (zh) * | 2018-11-30 | 2023-01-10 | 中强光电股份有限公司 | 投影机及亮度调整方法 |
CN217060959U (zh) * | 2022-03-24 | 2022-07-26 | 中强光电股份有限公司 | 互动式投影*** |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090169095A1 (en) * | 2008-01-02 | 2009-07-02 | Spatial Integrated Systems, Inc. | System and method for generating structured light for 3-dimensional image rendering |
CN102679961A (zh) * | 2012-05-23 | 2012-09-19 | 武汉大学 | 便携式四目立体摄影测量***及方法 |
CN103677240A (zh) * | 2012-09-24 | 2014-03-26 | 株式会社理光 | 虚拟触摸交互方法和虚拟触摸交互设备 |
CN104272715A (zh) * | 2012-05-01 | 2015-01-07 | 中央工程株式会社 | 立体相机及立体相机*** |
CN105654502A (zh) * | 2016-03-30 | 2016-06-08 | 广州市盛光微电子有限公司 | 一种基于多镜头多传感器的全景相机标定装置和方法 |
CN106020511A (zh) * | 2015-03-27 | 2016-10-12 | 精工爱普生株式会社 | 交互式投影机及交互式投影*** |
Family Cites Families (70)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6329963B1 (en) * | 1996-06-05 | 2001-12-11 | Cyberlogic, Inc. | Three-dimensional display system: apparatus and method |
US6259450B1 (en) * | 1996-06-05 | 2001-07-10 | Hyper3D Corp. | Three-dimensional display system apparatus and method |
US20030071813A1 (en) * | 1996-06-05 | 2003-04-17 | Alessandro Chiabrera | Three-dimensional display system: apparatus and method |
US6803906B1 (en) * | 2000-07-05 | 2004-10-12 | Smart Technologies, Inc. | Passive touch system and method of detecting user input |
US7058204B2 (en) * | 2000-10-03 | 2006-06-06 | Gesturetek, Inc. | Multiple camera control system |
JP2004265222A (ja) * | 2003-03-03 | 2004-09-24 | Nippon Telegr & Teleph Corp <Ntt> | インタフェース方法、装置、およびプログラム |
US7463280B2 (en) * | 2003-06-03 | 2008-12-09 | Steuart Iii Leonard P | Digital 3D/360 degree camera system |
US20060197756A1 (en) * | 2004-05-24 | 2006-09-07 | Keytec, Inc. | Multi-mode optical pointer for interactive display system |
CN101198964A (zh) * | 2005-01-07 | 2008-06-11 | 格斯图尔泰克股份有限公司 | 使用红外图案照射创建对象的三维图像 |
WO2006086508A2 (en) * | 2005-02-08 | 2006-08-17 | Oblong Industries, Inc. | System and method for genture based control system |
US9910497B2 (en) * | 2006-02-08 | 2018-03-06 | Oblong Industries, Inc. | Gestural control of autonomous and semi-autonomous systems |
US8941588B2 (en) * | 2008-04-24 | 2015-01-27 | Oblong Industries, Inc. | Fast fingertip detection for initializing a vision-based hand tracker |
US8941589B2 (en) * | 2008-04-24 | 2015-01-27 | Oblong Industries, Inc. | Adaptive tracking system for spatial input devices |
US8531396B2 (en) * | 2006-02-08 | 2013-09-10 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US9075441B2 (en) * | 2006-02-08 | 2015-07-07 | Oblong Industries, Inc. | Gesture based control using three-dimensional information extracted over an extended depth of field |
US8537111B2 (en) * | 2006-02-08 | 2013-09-17 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US9823747B2 (en) * | 2006-02-08 | 2017-11-21 | Oblong Industries, Inc. | Spatial, multi-modal control device for use with spatial operating system |
US8681098B2 (en) * | 2008-04-24 | 2014-03-25 | Oblong Industries, Inc. | Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes |
US8537112B2 (en) * | 2006-02-08 | 2013-09-17 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US8370383B2 (en) * | 2006-02-08 | 2013-02-05 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
JP2007271301A (ja) * | 2006-03-30 | 2007-10-18 | Matsushita Electric Ind Co Ltd | 撮像装置 |
US7694161B2 (en) * | 2006-06-30 | 2010-04-06 | Intel Corporation | Uncore thermal management |
US9696808B2 (en) * | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
US7701439B2 (en) * | 2006-07-13 | 2010-04-20 | Northrop Grumman Corporation | Gesture recognition simulation system and method |
US8972902B2 (en) * | 2008-08-22 | 2015-03-03 | Northrop Grumman Systems Corporation | Compound gesture recognition |
WO2008068456A2 (en) * | 2006-12-06 | 2008-06-12 | Sony United Kingdom Limited | A method and an apparatus for generating image content |
GB2444533B (en) * | 2006-12-06 | 2011-05-04 | Sony Uk Ltd | A method and an apparatus for generating image content |
US8941590B2 (en) * | 2008-04-24 | 2015-01-27 | Oblong Industries, Inc. | Adaptive tracking system for spatial input devices |
US8723795B2 (en) * | 2008-04-24 | 2014-05-13 | Oblong Industries, Inc. | Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes |
US20150371083A1 (en) * | 2008-04-24 | 2015-12-24 | Ambrus Csaszar | Adaptive tracking system for spatial input devices |
US9495013B2 (en) * | 2008-04-24 | 2016-11-15 | Oblong Industries, Inc. | Multi-modal gestural interface |
US9933852B2 (en) * | 2009-10-14 | 2018-04-03 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
US9971807B2 (en) * | 2009-10-14 | 2018-05-15 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
EP2494402B1 (en) * | 2009-10-30 | 2018-04-18 | Hewlett-Packard Development Company, L.P. | Stereo display systems |
JP2012078658A (ja) * | 2010-10-04 | 2012-04-19 | Sanyo Electric Co Ltd | 投写型映像表示装置 |
JP2012150636A (ja) | 2011-01-19 | 2012-08-09 | Seiko Epson Corp | 投写型表示装置及び情報処理システム |
US8686943B1 (en) * | 2011-05-13 | 2014-04-01 | Imimtek, Inc. | Two-dimensional method and system enabling three-dimensional user interaction with a device |
EP2715669A4 (en) * | 2011-05-25 | 2015-03-18 | Third Dimension Ip Llc | ALIGNMENT, CALIBRATION AND RESTITUTION SYSTEMS AND METHODS FOR TOTAL 3D ANGLED DISPLAY |
CN109271029B (zh) * | 2011-08-04 | 2022-08-26 | 视力移动技术有限公司 | 无触摸手势识别***、无触摸手势识别方法和介质 |
US10848731B2 (en) * | 2012-02-24 | 2020-11-24 | Matterport, Inc. | Capturing and aligning panoramic image and depth data |
DE112013006814T5 (de) * | 2013-03-12 | 2015-12-10 | Fujifilm Corporation | Bildbeurteilungseinrichtung, Aufnahmegerät, 3D-Messgerät, Bildbeurteilungsverfahren und Programm |
US9384551B2 (en) * | 2013-04-08 | 2016-07-05 | Amazon Technologies, Inc. | Automatic rectification of stereo imaging cameras |
JP6232730B2 (ja) * | 2013-04-16 | 2017-11-22 | セイコーエプソン株式会社 | プロジェクターおよび制御方法 |
US9349180B1 (en) * | 2013-05-17 | 2016-05-24 | Amazon Technologies, Inc. | Viewpoint invariant object recognition |
US9838677B1 (en) * | 2013-06-27 | 2017-12-05 | Amazon Technologies, Inc. | Detecting impact events for dropped devices |
JP6299124B2 (ja) * | 2013-09-13 | 2018-03-28 | 株式会社リコー | 投影システム、画像処理装置、投影方法およびプログラム |
JP6417690B2 (ja) | 2014-01-21 | 2018-11-07 | セイコーエプソン株式会社 | プロジェクター、表示装置、及び、プロジェクターの制御方法 |
JP2015167341A (ja) * | 2014-02-13 | 2015-09-24 | 株式会社リコー | マルチプロジェクションシステム |
US9471119B2 (en) * | 2014-05-13 | 2016-10-18 | International Business Machines Corporation | Detection of deleted records in a secure record management environment |
JP2016114963A (ja) * | 2014-12-11 | 2016-06-23 | 株式会社リコー | 入力操作検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、及びプロジェクタシステム |
US10154239B2 (en) * | 2014-12-30 | 2018-12-11 | Onpoint Medical, Inc. | Image-guided surgery with surface reconstruction and augmented reality visualization |
JP2016177491A (ja) * | 2015-03-19 | 2016-10-06 | 富士通株式会社 | 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム |
JP2016184362A (ja) * | 2015-03-26 | 2016-10-20 | 富士通株式会社 | 入力装置、入力操作検出方法及び入力操作検出用コンピュータプログラム |
US10122998B2 (en) * | 2015-04-30 | 2018-11-06 | Seiko Epson Corporation | Real time sensor and method for synchronizing real time sensor data streams |
US10067569B2 (en) * | 2015-08-14 | 2018-09-04 | Fresenius Medical Care Holdings, Inc. | Touchless interface for a medical treatment system |
US10408934B2 (en) * | 2015-08-19 | 2019-09-10 | Canon Kabushiki Kaisha | Object information acquiring apparatus |
CN108140358A (zh) * | 2015-09-29 | 2018-06-08 | 富士胶片株式会社 | 附带距离图像获取装置的投影装置以及投影方法 |
KR20170039612A (ko) * | 2015-09-30 | 2017-04-11 | 가부시키가이샤 고마쓰 세이사쿠쇼 | 교정 시스템, 작업 기계 및 교정 방법 |
JP6764573B2 (ja) * | 2015-09-30 | 2020-10-07 | ソニー株式会社 | 画像処理装置、画像処理方法、およびプログラム |
US9549174B1 (en) * | 2015-10-14 | 2017-01-17 | Zspace, Inc. | Head tracked stereoscopic display system that uses light field type data |
JP6050525B2 (ja) * | 2015-10-15 | 2016-12-21 | 株式会社小松製作所 | 位置計測システム、作業機械及び位置計測方法 |
CN105627926B (zh) * | 2016-01-22 | 2017-02-08 | 尹兴 | 四像机组平面阵列特征点三维测量***及测量方法 |
JP6249248B2 (ja) * | 2016-03-10 | 2017-12-20 | パナソニックIpマネジメント株式会社 | 投影装置 |
JP6756149B2 (ja) * | 2016-05-18 | 2020-09-16 | セイコーエプソン株式会社 | プロジェクター |
JP2018056800A (ja) * | 2016-09-29 | 2018-04-05 | セイコーエプソン株式会社 | プロジェクターシステム |
JP2018056799A (ja) * | 2016-09-29 | 2018-04-05 | セイコーエプソン株式会社 | プロジェクターシステム及び撮像装置 |
US20180198970A1 (en) * | 2017-01-12 | 2018-07-12 | Intel Corporation | High dynamic range imaging using camera arrays |
US10242454B2 (en) * | 2017-01-25 | 2019-03-26 | Google Llc | System for depth data filtering based on amplitude energy values |
JP6892286B2 (ja) * | 2017-03-03 | 2021-06-23 | 株式会社キーエンス | 画像処理装置、画像処理方法、及びコンピュータプログラム |
JP7236680B2 (ja) * | 2018-02-09 | 2023-03-10 | パナソニックIpマネジメント株式会社 | 投影システム |
-
2017
- 2017-03-15 JP JP2017049697A patent/JP6822234B2/ja active Active
-
2018
- 2018-02-28 US US15/907,818 patent/US10516864B2/en active Active
- 2018-03-14 CN CN201810209136.1A patent/CN108632586B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090169095A1 (en) * | 2008-01-02 | 2009-07-02 | Spatial Integrated Systems, Inc. | System and method for generating structured light for 3-dimensional image rendering |
CN104272715A (zh) * | 2012-05-01 | 2015-01-07 | 中央工程株式会社 | 立体相机及立体相机*** |
CN102679961A (zh) * | 2012-05-23 | 2012-09-19 | 武汉大学 | 便携式四目立体摄影测量***及方法 |
CN103677240A (zh) * | 2012-09-24 | 2014-03-26 | 株式会社理光 | 虚拟触摸交互方法和虚拟触摸交互设备 |
CN106020511A (zh) * | 2015-03-27 | 2016-10-12 | 精工爱普生株式会社 | 交互式投影机及交互式投影*** |
CN105654502A (zh) * | 2016-03-30 | 2016-06-08 | 广州市盛光微电子有限公司 | 一种基于多镜头多传感器的全景相机标定装置和方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021093231A1 (zh) * | 2019-11-11 | 2021-05-20 | 成都极米科技股份有限公司 | 超短焦画幕对齐方法、装置和超短焦投影设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
JP2018152022A (ja) | 2018-09-27 |
JP6822234B2 (ja) | 2021-01-27 |
US10516864B2 (en) | 2019-12-24 |
US20180270460A1 (en) | 2018-09-20 |
CN108632586B (zh) | 2021-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108632586A (zh) | 投影仪*** | |
CN108351492B (zh) | 包括光学基板的多孔径成像设备 | |
TWI668989B (zh) | 3d多孔徑成像裝置 | |
US20070109505A1 (en) | Projection three-dimensional display apparatus | |
US20100165155A1 (en) | Camera module with plural imaging units | |
WO2021212978A1 (zh) | 标定方法、标定装置和非易失性计算机可读存储介质 | |
JP6677385B2 (ja) | 立体表示装置及び視差画像補正方法 | |
CN111856775B (zh) | 显示设备 | |
WO2011108139A1 (ja) | テレビ会議システム | |
US10623697B2 (en) | Display panel, display device and image pickup method therefor | |
CN113711588B (zh) | 可用于相机中失真表征的校准*** | |
CN108141519A (zh) | 摄像机模块 | |
CN108663816A (zh) | 光射出装置以及图像显示*** | |
ES2733651T3 (es) | Medición de la posición angular de una lámina de lente lenticular | |
CN102116745A (zh) | 一种ic元件检测*** | |
KR101296688B1 (ko) | 입체 디스플레이 패널 접합 장치 및 방법 | |
JP4693727B2 (ja) | 三次元光線入力装置 | |
CN1448043A (zh) | 用于带引线的集成电路的三维检测 | |
JP2018085552A (ja) | プロジェクターシステム | |
US20140354785A1 (en) | Method of providing a correct 3d image for a viewer at different watching angles of the viewer | |
TWI822938B (zh) | 測試夾具及使用裝置座之方法 | |
CN106524916A (zh) | 一种去重影的视觉对位模组及其方法 | |
CZ308335B6 (cs) | Způsob popisu bodů předmětů předmětového prostoru a zapojení k jeho provádění | |
JP2001320736A (ja) | 全周立体カメラ | |
JP2001356298A (ja) | 立体映像表示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |