CN115842905B - 投射方法以及投射*** - Google Patents
投射方法以及投射*** Download PDFInfo
- Publication number
- CN115842905B CN115842905B CN202211134743.9A CN202211134743A CN115842905B CN 115842905 B CN115842905 B CN 115842905B CN 202211134743 A CN202211134743 A CN 202211134743A CN 115842905 B CN115842905 B CN 115842905B
- Authority
- CN
- China
- Prior art keywords
- projection
- information
- projector
- image
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 117
- 230000003287 optical effect Effects 0.000 claims abstract description 33
- 238000012545 processing Methods 0.000 claims description 141
- 230000036544 posture Effects 0.000 description 83
- 238000004891 communication Methods 0.000 description 34
- 238000006243 chemical reaction Methods 0.000 description 31
- 239000011159 matrix material Substances 0.000 description 18
- 238000003860 storage Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 15
- 230000000875 corresponding effect Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 239000003550 marker Substances 0.000 description 5
- 238000013519 translation Methods 0.000 description 5
- 238000011960 computer-aided design Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
Abstract
投射方法以及投射***,使用户在投射对象物的图像上描绘的图像以准确的形状从投影仪(20)投射到准确的三维位置。根据用户在由摄像头(30)拍摄投射对象物(PS)而得的拍摄图像中对描绘对象进行描绘的操作,生成表示拍摄图像中的描绘对象的二维位置的第1对象信息。基于表示摄像头(30)的光轴的朝向和摄像头相对于投射对象物的相对三维位置的信息,将第1对象信息转换为表示配置于投射对象物的表面的描绘对象的三维位置的第2对象信息。基于表示投影仪(20)的光轴的朝向和投影仪相对于投射对象物的相对三维位置的信息,将第2对象信息转换为表示投影仪坐标系中的描绘对象的二维位置的第3对象信息,投射包含该描绘对象的投射图像。
Description
技术领域
本公开涉及投射方法以及投射***。
背景技术
通过从投影仪向具有三维形状的投射对象物投射出投射图像来产生各种效果的投影映射正在普及。另外,提出了各种用于生成投影映射用的投射图像的技术,作为一例,可举出专利文献1或专利文献2所公开的技术。在专利文献1中公开了如下技术:通过对由摄像头拍摄的投射对象物的拍摄图像进行分析来确定投射对象物所占的区域,并基于该确定结果来生成投射图像。在专利文献2中公开了如下技术:将摄像头拍摄的投射对象物的拍摄图像作为背景显示在智能手机等终端的显示区域,使投影仪投射在该显示区域中描绘的对象的图像。
专利文献1:日本特开2018-97148号公报
专利文献2:日本特开2021-87043号公报
在专利文献1所公开的技术中,虽然生成摄像头坐标系与投影仪坐标系的转换表,但由于是投影图像与拍摄图像的各图像的对应,因此在校准执行后物***置移动的情况下,投影图像与拍摄图像的对应与校准时相比发生变化,因此无法在所希望的三维位置进行描绘。另外,在专利文献2所公开的技术中,作为摄像头图像内的投影仪图像的对应,通过针对摄像头图像内的投射区域的梯形校正来求出对应关系,但在梯形校正中没有考虑存在于投射区域内的深度信息,因此在投影对象物具有三维形状的情况下,无法在投射对象物的期望的三维位置进行描绘。另外,与专利文献1同样地,在物***置从进行了摄像头与投影仪的对应时的状态起移动的情况下,无法在期望的三维位置进行描绘。即,在专利文献1以及专利文献2所公开的技术中,存在如下问题:有时无法将用户对投射对象物图像描绘的描绘对象以所描绘的形状准确地投射到所描绘的位置。
发明内容
本公开的投射方法的一个方式包含:取得第1图像,所述第1图像是利用摄像头对投射对象物进行拍摄而得到的;受理用户在所述第1图像中对描绘对象进行描绘的操作,由此生成表示所述第1图像中的所述描绘对象的二维位置的第1对象信息;基于表示所述摄像头与所述投射对象物的相对三维位置的第1位置信息、和表示所述摄像头的光轴的朝向的第1姿势信息,将所述第1对象信息转换为第2对象信息,所述第2对象信息表示在所述投射对象物的表面配置有所述描绘对象的情况下的所述描绘对象的三维位置;以及基于表示投影仪与所述投射对象物的相对三维位置的第2位置信息、和表示所述投影仪的光轴的朝向的第2姿势信息,将所述第2对象信息转换为表示从所述投影仪投射的图像上的所述描绘对象的二维位置的第3对象信息,由此将包含所述描绘对象的投射图像从所述投影仪投射到所述投射对象物。
此外,本公开的投射方法的另一方式包含:在包含对投射对象物进行模拟的虚拟物体和对向所述投射对象物投射图像的投影仪进行模拟的虚拟投影仪的虚拟空间中,取得从用户设定的视点观察所述虚拟物体而得到的第1图像,其中,在所述虚拟空间中,所述虚拟物体与所述虚拟投影仪的相对三维位置是根据所述投射对象物与所述投影仪的相对三维位置确定的;受理所述用户在所述第1图像中对描绘对象进行描绘的操作,由此生成表示所述第1图像中的所述描绘对象的二维位置的第1对象信息;基于表示所述视点与所述虚拟物体的相对三维位置的第1位置信息,将所述第1对象信息转换为第2对象信息,所述第2对象信息表示在所述虚拟物体的表面配置有所述描绘对象的情况下、配置于所述投射对象物的表面的所述描绘对象的三维位置;以及基于表示所述虚拟投影仪与所述虚拟物体的相对三维位置的第2位置信息、和表示所述虚拟投影仪的光轴的朝向的姿势信息,将所述第2对象信息转换为表示从所述虚拟投影仪投射的图像上的所述描绘对象的二维位置的第3对象信息,由此将包含所述描绘对象的投射图像从所述投影仪投射到所述投射对象物。
此外,本公开的投射***的一个方式包含:投影仪,其向投射对象物投射图像;输入装置,其受理用户的操作;以及处理装置。所述处理装置执行以下处理:取得第1图像,所述第1图像是利用摄像头对所述投射对象物进行拍摄而得到的;由所述输入装置受理在所述第1图像中对描绘对象进行描绘的操作,由此生成表示所述第1图像中的所述描绘对象的二维位置的第1对象信息;基于表示所述摄像头与所述投射对象物的相对三维位置的第1位置信息、和表示所述摄像头的光轴的朝向的第1姿势信息,将所述第1对象信息转换为第2对象信息,所述第2对象信息表示在所述投射对象物的表面配置有所述描绘对象的情况下的所述描绘对象的三维位置;以及基于表示投影仪与所述投射对象物的相对三维位置的第2位置信息、和表示所述投影仪的光轴的朝向的第2姿势信息,将所述第2对象信息转换为表示从所述投影仪投射的图像上的所述描绘对象的二维位置的第3对象信息,由此将包含所述描绘对象的投射图像从所述投影仪投射到所述投射对象物。
此外,本公开的投射***的另一个方式包含:投影仪,其向投射对象物投射图像;输入装置,其受理用户的操作;以及处理装置。所述处理装置执行以下处理:在包含对所述投射对象物进行模拟的虚拟物体和对所述投影仪进行模拟的虚拟投影仪的虚拟空间中,取得从通过对所述输入装置的操作设定的视点观察所述虚拟物体而得到的第1图像,其中,在所述虚拟空间中,所述虚拟物体与所述虚拟投影仪的相对三维位置是根据所述投射对象物与所述投影仪的相对三维位置确定的;由所述输入装置受理在所述第1图像中对描绘对象进行描绘的操作,由此生成表示所述第1图像中的所述描绘对象的二维位置的第1对象信息;基于表示所述视点与所述虚拟物体的相对三维位置的第1位置信息,将所述第1对象信息转换为第2对象信息,所述第2对象信息表示在所述虚拟物体的表面配置有所述描绘对象的情况下、配置于所述投射对象物的表面的所述描绘对象的三维位置;以及基于表示所述虚拟投影仪与所述虚拟物体的相对三维位置的第2位置信息、和表示所述虚拟投影仪的光轴的朝向的姿势信息,将所述第2对象信息转换为表示从所述虚拟投影仪投射的图像上的所述描绘对象的二维位置的第3对象信息,由此将包含所述描绘对象的投射图像从所述投影仪投射到所述投射对象物。
附图说明
图1是表示本公开第1实施方式的投射***1A的结构例的图。
图2是示出投射***1A所包含的控制装置10A的结构例的图。
图3是表示由摄像头30拍摄的投射对象物PS的拍摄图像G1的一例的图。
图4是用于说明第1位置信息DA1以及第1姿势信息DB1的计算原理的图。
图5是用于说明本实施方式的动作例的图。
图6是用于说明本实施方式的动作例的图。
图7是表示控制装置10A的处理装置140按照程序PA执行的投射方法的流程的流程图。
图8是表示本公开第2实施方式的投射***1B的结构例的图。
图9是用于说明本实施方式中的虚拟空间VS的图。
图10是表示投射***1B所包含的控制装置10B的结构例的图。
图11是表示控制装置10B的处理装置140按照程序PB执行的投射方法的流程的流程图。
图12是用于说明本实施方式的效果的图。
图13是用于说明本实施方式的效果的图。
标号说明
1A、1B:投射***;10A、10B:控制装置;100:通信装置;110:显示装置;120:输入装置;130:存储装置;140:处理装置;141A、141B:取得部;142A、142B:第1生成部;143A、143B:第2生成部;144A、144B:转换部;145:投射控制部;20:投影仪;30:摄像头;PA、PB:程序。
具体实施方式
以下,参照附图说明本公开的实施方式。在以下所述的实施方式中附加了在技术上优选的各种限定。但是,本公开的实施方式不限于以下所述的方式。
1.第1实施方式
图1是表示本公开第1实施方式的投射***1A的结构例的图。如图1所示,投射***1A包含控制装置10A、用于将投射图像投射到投射对象物PS的投影仪20、以及用于拍摄投射对象物PS的摄像头30。投射对象物PS是具有三维形状的物体。如图1所示,本实施方式中的投射对象物PS是长方体状的物体。
如图1所示,投影仪20经由USB(Universal Serial Bus:通用串行总线)线缆等通信线L1与控制装置10A连接。同样地,摄像头30经由USB线缆等通信线L2与控制装置10A连接。控制装置10A经由通信线L2与摄像头30进行通信,由此从摄像头30取得表示投射对象物PS的拍摄图像的拍摄图像数据。由摄像头30拍摄的投射对象物PS的拍摄图像是本公开中的第1图像的一例。此外,控制装置10A与摄像头30之间的通信也可以是无线通信。同样地,控制装置10A与投影仪20之间的通信也可以是无线通信。
控制装置10A受理如下的用户操作:在投射对象物PS的拍摄图像中的投射对象物PS所示的区域中,描绘向投射对象物PS投射的描绘对象。控制装置10A根据该操作,生成表示从投影仪20向投射对象物PS投射的投射图像的投射图像数据。控制装置10A经由通信线L1将生成的投射图像数据发送到投影仪20。在投射***1A中,通过将投射图像数据表示的投射图像从投影仪20投射到投射对象物PS,实现投影映射。以下,以显著地表示本实施方式的特征的控制装置10A为中心进行说明。
图2是表示控制装置10A的硬件结构的一例的框图。如图2所示,控制装置10A包含通信装置100、显示装置110、输入装置120、存储装置130以及处理装置140。作为控制装置10A的具体例,可举出智能手机或平板终端等便携终端。
在通信装置100上连接有通信线L1以及通信线L2。通信装置100经由通信线L2接收从摄像头30发送的拍摄图像数据。通信装置100将接收到的拍摄图像数据输出到处理装置140。此外,通信装置100经由通信线L1将从处理装置140提供的投射图像数据发送到投影仪20。作为通信装置100的具体例,可举出接口电路。
显示装置110是在处理装置140的控制下显示图像的装置。作为显示装置110的具体例,可举出液晶显示器及该液晶显示器的驱动电路。作为显示于显示装置110的图像的一例,可举出拍摄图像数据所表示的图像、即摄像头30所拍摄的投射对象物PS的拍摄图像。
输入装置120是受理用户对投射***1A的操作的装置。作为输入装置120的具体例,可举出以覆盖显示装置110的显示区域的方式配置的透明的片状的压敏传感器。在本实施方式中,使用该压敏传感器作为输入装置120,由显示装置110和输入装置120形成触摸面板。在显示装置110上显示有投射对象物PS的拍摄图像的状况下,投射***1A的用户能够对输入装置120进行如下操作:在该拍摄图像中投射对象物PS所占的区域,描绘向投射对象物PS投射的描绘对象。输入装置120将表示用户对输入装置120进行的操作的操作内容数据提供给处理装置140。通过将操作内容数据从输入装置120提供给处理装置140,用户的操作内容被传递给处理装置140。
存储装置130包含作为易失性存储装置的RAM(Random Access Memory:随机存取存储器)和作为非易失性存储装置的ROM(Read Only Memory:只读存储器)。在非易失性存储装置中存储有使处理装置140执行显著地表示本公开的特征的投射方法的程序PA。易失性存储装置作为执行程序PA时的工作区域而被处理装置140利用。另外,在存储装置130的易失性存储装置中存储有第1位置信息DA1、第1姿势信息DB1、第2位置信息DA2、第2姿势信息DB2、第3位置信息DA3、第3姿势信息DB3以及标记信息DM。
在本实施方式中,如图1所示,对投射对象物PS的表面预先赋予有多个标记M。这多个标记M分别是互不相同的AR(Augmented Reality:增强现实)标记。关于这些多个标记M,预先测量它们在配置有投射对象物PS、投影仪20以及摄像头30的三维空间中的三维位置。以下,将配置有投射对象物PS、投影仪20以及摄像头30的三维空间称为实际空间。在测量实际空间中的各标记M的三维位置时,设定任意的三维坐标系。该三维坐标系被称为实际空间坐标系。在本实施方式中,多个标记M各自在实际空间坐标系中的三维坐标值是已知的。标记信息DM是表示实际空间坐标系中的多个标记M各自的三维位置的信息。标记信息DM预先存储在存储装置130中。
第3位置信息DA3是表示在实际空间坐标系中从投影仪20观察到的摄像头30的三维位置、即实际空间坐标系中的投影仪20与摄像头30的相对三维位置的信息。在本实施方式中,作为实际空间坐标系中的摄像头30的三维位置,使用实际空间坐标系中的摄像头30的拍摄镜头的主点的位置。另外,在本实施方式中,作为实际空间坐标系中的投影仪20的三维位置,使用实际空间坐标系中的投影仪20的投射镜头的主点的位置。本实施方式中的第3位置信息DA3与在实际空间坐标系中通过平移使摄像头30的拍摄镜头的主点移动到投影仪20的主点时的平移矩阵对应。在本实施方式中,投影仪20与摄像头30的相对三维位置是固定的,第3位置信息DA3预先存储在存储装置130中。
以下,将如下的坐标系称为摄像头坐标系:以摄像头30的主点为原点、以沿着摄像头30所拍摄的拍摄图像的水平扫描方向的坐标轴为x轴、以沿着该拍摄图像的垂直扫描方向的坐标轴为y轴、且以沿着摄像头30的光轴的坐标轴为z轴。另外,将如下的坐标系称为投影仪坐标系:以投影仪20的主点为原点、以沿着投影仪20所投射的投射图像的水平扫描方向的坐标轴为x轴、以沿着该投射图像的垂直扫描方向的坐标轴为y轴、且以沿着投影仪20的光轴的坐标轴为z轴。
第3姿势信息DB3是表示实际空间坐标系中的摄像头30相对于投影仪20的相对姿势的信息。本实施方式中的第3姿势信息DB3是通过旋转将在实际空间坐标系中沿着投影仪20的光轴的单位矢量转换为在实际空间坐标系中沿着摄像头30的光轴的单位矢量的旋转矩阵。在本实施方式中,实际空间坐标系中的摄像头30相对于投影仪20的相对姿势是固定的,表示两者的相对姿势的第3姿势信息DB3预先存储在存储装置130中。第3位置信息DA3以及第3姿势信息DB3是用于将摄像头坐标系与投影仪坐标系相互转换的信息。
第1位置信息DA1是表示在实际空间坐标系中从摄像头30观察到的投射对象物PS的三维位置、即实际空间坐标系中的摄像头30与投射对象物PS的相对三维位置的信息。第1姿势信息DB1是表示实际空间坐标系中的摄像头30的姿势、即摄像头30的光轴的朝向的信息。第1位置信息DA1以及第1姿势信息DB1基于PnP(Perpective n-Points:透视n点)的原理,按照以下的要领生成。
图3是表示由摄像头30拍摄的拍摄图像G1的一例的图。该拍摄图像G1与图4所示的前方剪裁(clipping)面F1对应。更详细而言,在实际空间坐标系中,前端位于摄像头30的主点MP、且包含投射对象物PS的视锥体S1中的前方剪裁面F1经由拍摄镜头而显现于摄像头30的摄像面,由此拍摄出拍摄图像G1。摄像头坐标系中的标记M的三维位置使用拍摄图像G1上的标记M的二维位置(mx,my)和从摄像头30的主点MP到前方剪裁面F1的距离f,表示为(mx,my,f)。
如上所述,由于标记M在真实空间坐标系中的三维位置(X,Y,Z)是已知的,因此如以下式(1)所示,标记M在真实空间坐标系中的三维位置(X,Y,Z)和标记M在摄像头坐标系中的三维位置(mx,my,f)使用式(2)所示的内部参数矩阵F和式(3)所示的矩阵RT相互关联。另外,内部参数矩阵F中的fx表示摄像头30的拍摄镜头的焦距中的水平扫描方向的焦距,fy表示拍摄镜头的焦距中的垂直扫描方向的焦距。另外,cx和cy是通过摄像头30的主点MP且沿着z轴的直线与前方剪裁面F1的交点P1在拍摄图像G1上的x坐标和y坐标。此外,内部参数矩阵F是已知的,表示内部参数矩阵F的信息预先存储于存储装置130。另外,在本实施方式中,投影仪20的投射镜头的内部参数矩阵也预先存储于存储装置130。
矩阵RT包含由分量r11~r33构成的3行3列的旋转矩阵、和由分量t1~t3构成的3行1列的平移矩阵。在本实施方式中,该旋转矩阵是第1姿势信息DB1,该平移矩阵是第1位置信息DA1。在本实施方式中,由于构成矩阵RT的12个分量是未知的,所以通过使将关于至少6个标记M的实际空间坐标系中的三维位置(X、Y、Z)和拍摄图像G1上的二维位置(mx、my)代入式1而得到的12个式联立并求解,求出第1姿势信息DB1和第1位置信息DA1。
第2位置信息DA2是表示在实际空间坐标系中从投影仪20观察到的投射对象物PS的三维位置、即实际空间坐标系中的投影仪20与投射对象物PS的相对三维位置的信息。本实施方式中的第2位置信息DA2与第1位置信息DA1同样是平移矩阵。第2姿势信息DB2是表示实际空间坐标系中的投影仪20的姿势、即投影仪20的光轴的朝向的信息。第2姿势信息DB2与第1姿势信息DB1同样是旋转矩阵。在本实施方式中,由于摄像头30与投影仪20的相对三维位置以及相对姿势是固定的,所以第2位置信息DA2基于第1位置信息DA1和第3位置信息DA3而生成。另外,第2姿势信息DB2基于第1姿势信息DB1和第3姿势信息DB3生成。
处理装置140包含CPU(Central Processing Unit:中央处理单元)等处理器、即计算机。处理装置140中可以包含1个处理器,也可以包含多个处理器。处理装置140以控制装置10A的电源接通为契机,将程序PA从非易失性存储装置读出到易失性存储装置,并开始程序PA的执行。
更具体而言,如图2所示,按照程序PA工作的处理装置140作为取得部141A、第1生成部142A、第2生成部143A、转换部144A以及投射控制部145发挥功能。即,图2所示的取得部141A、第1生成部142A、第2生成部143A、转换部144A以及投射控制部145是通过按照程序PA使计算机工作而实现的软件模块。取得部141A、第1生成部142A、第2生成部143A、转换部144A以及投射控制部145各自的功能如下。
取得部141A取得利用摄像头30对投射对象物PS进行拍摄而得到的拍摄图像。更详细地进行说明,取得部141A通过使用通信装置100与摄像头30进行通信,取得从摄像头30发送的图像数据、即表示由摄像头30拍摄的投射对象物PS的拍摄图像的拍摄图像数据。
第1生成部142A基于由取得部141A取得的拍摄图像数据表示的拍摄图像和标记信息DM,根据PnP的原理,生成第1位置信息DA1以及第1姿势信息DB1。另外,第1生成部142A基于第1位置信息DA1以及第3位置信息DA3生成第2位置信息DA2,并且基于第1姿势信息DB1以及第3姿势信息DB3生成第2姿势信息DB2。
第2生成部143A使显示装置110显示由取得部141A取得的拍摄图像数据所表示的图像、即由摄像头30拍摄的投射对象物PS的拍摄图像,由此受理在拍摄图像中的投射对象物PS所占的区域对描绘对象进行描绘的操作。第2生成部143A接收从输入装置120输出的操作内容数据。操作内容数据是与描绘的操作对应的数据。第2生成部143A通过接收操作内容数据来受理对描绘对象进行描绘的操作。第2生成部143A基于操作内容数据,生成表示拍摄图像中的描绘对象的二维位置、具体而言描绘对象上的多个点各自的二维位置的第1对象信息。例如,假设在图3所示的拍摄图像G1显示于显示装置110的状况下,对输入装置120进行了描绘图5中虚线所示的描绘对象OB1的操作。在该情况下,第2生成部143A生成表示位于图5中虚线所示的线上的多个点各自的二维位置的第1对象信息。
转换部144A在投射对象物PS的表面配置有描绘对象的情况下,将第1对象信息转换为表示在投射对象物PS的表面配置的描绘对象的三维位置、即在实际空间坐标系中的三维位置的第2对象信息。更详细地进行说明,转换部144A使用第1位置信息DA1、第1姿势信息DB1以及拍摄镜头的内部参数矩阵,在图4的F1所示那样的前方剪裁面,配置第1对象信息所示的第1对象。转换部144A通过计算作为前方剪裁面上的第1对象与存在于拍摄镜头的主点MP的延长线上的对象的交点的三维位置,将第1对象信息转换为第2对象信息。在拍摄镜头具有畸变的情况下,转换部144A通过将配置于前方剪裁面的第1对象配置于进行了校正该畸变的所谓畸变校正处理的坐标,将第1对象信息转换为不具有镜头畸变的影响的第2对象信息、即表示三维空间中的描绘对象的准确的三维位置的第2对象信息。
投射控制部145将第2对象信息转换为表示从投影仪20投射的图像上的描绘对象的二维位置、即投影仪坐标系中的二维位置的第3对象信息。更详细地进行说明,投射控制部145将第2位置信息DA2、第2姿势信息DB2以及投射镜头的内部参数矩阵代入式(1),进而将第2对象信息所示的坐标值代入式(1)的右边的X、Y以及Z来进行式(1)所示的运算,由此将第2对象信息转换为第3对象信息。然后,投射控制部145根据第3对象信息生成表示包含描绘对象的投射图像的图像数据,并将所生成的图像数据发送到投影仪20。由于在式(1)中能够包含表示镜头畸变的内部参数,所以通过按照该式(1)将第2对象信息转换为第3对象信息,生成考虑了投射镜头的镜头畸变的投射图像。通过将该投射图像从投影仪20投射到投射对象物PS,如图6所示,在通过对拍摄图像G1的操作而指定的位置,通过该操作而指定的形状的描绘对象显现在投射对象物PS的表面。
另外,按照程序PA工作的处理装置140执行显著地表示本实施方式的特征的投射方法。图7是表示该投射方法的流程的流程图。如图7所示,该投射方法包含取得处理SA100、第1生成处理SA110、第2生成处理SA120、转换处理SA130以及投射控制处理SA140。取得处理SA100、第1生成处理SA110、第2生成处理SA120、转换处理SA130以及投射控制处理SA140各自的内容如下。
在取得处理SA100中,处理装置140作为取得部141A发挥功能。在取得处理SA100中,处理装置140通过使用通信装置100与摄像头30进行通信,取得表示利用摄像头30对投射对象物PS进行拍摄而得到的拍摄图像的拍摄图像数据。
在第1生成处理SA110中,处理装置140作为第1生成部142A发挥功能。在第1生成处理SA110中,处理装置140基于在取得处理SA100中取得的拍摄图像数据表示的拍摄图像和标记信息DM,根据PnP的原理,生成第1位置信息DA1以及第1姿势信息DB1。另外,处理装置140基于第1位置信息DA1以及第3位置信息DA3生成第2位置信息DA2,并且基于第1姿势信息DB1以及第3姿势信息DB3生成第2姿势信息DB2。
在第2生成处理SA120中,处理装置140作为第2生成部143A发挥功能。在第2生成处理SA120中,处理装置140使在取得处理SA100中取得的拍摄图像数据所表示的图像显示于显示装置110,由此受理在拍摄图像中的投射对象物PS所占的区域对描绘对象进行描绘的操作。然后,处理装置140通过输入装置120受理该操作,根据从输入装置120提供的操作内容数据,生成表示拍摄图像中的描绘对象的二维位置的第1对象信息。如上所述,若对显示于显示装置110的拍摄图像G1如图5中虚线所示那样描绘出描绘对象OB1,则在第2生成处理SA120中,生成表示该虚线上的多个点各自在拍摄图像上的二维位置的第1对象信息。
在转换处理SA130中,处理装置140作为转换部144A发挥功能。在转换处理SA130中,处理装置140基于第1位置信息DA1以及第1姿势信息DB1将第1对象信息转换为第2对象信息。
在投射控制处理SA140中,处理装置140作为投射控制部145发挥功能。在投射控制处理SA140中,处理装置140基于第2位置信息DA2和第2姿势信息DB2,将第2对象信息转换为第3对象信息。接着,处理装置140基于第3对象信息,生成表示包含描绘对象OB1的投射图像的图像数据,并将所生成的图像数据发送到投影仪20。通过将该投射图像从投影仪20投射到投射对象物PS,如图6所示,在通过对拍摄图像G1的操作而指定的三维位置,通过该操作而指定的形状的描绘对象显现在投射对象物PS的表面。
如以上说明的那样,根据本实施方式,能够将用户为了向投射对象物PS投射而在投射对象物PS的拍摄图像中描绘的描绘对象的图像在准确的三维位置以准确的形状向投射对象物PS投射。
2.第2实施方式
图8是表示本公开第2实施方式的投射***1B的结构例的图。在本实施方式中,如图9所示,在包含对投射对象物PS进行模拟的虚拟物体VPS以及对投影仪20进行模拟的虚拟投影仪VPJ的虚拟空间VS中,基于从由用户设定的视点VP观察该虚拟物体VPS的图像来生成投射图像,这一点与第1实施方式不同。在该虚拟空间VS中设定任意的三维坐标系。另外,设定于虚拟空间VS的三维坐标系被称为虚拟空间坐标系。在本实施方式中,虚拟空间坐标系中的虚拟物体VPS与虚拟投影仪VPJ的相对三维位置根据实际空间坐标系中的投射对象物PS与投影仪20的相对三维位置来确定。具体而言,虚拟空间坐标系中的虚拟物体VPS与虚拟投影仪VPJ的相对三维位置和实际空间坐标系中的投射对象物PS与投影仪20的相对三维位置相同。在本实施方式中,实际空间坐标系中的投影仪20与投射对象物PS的相对三维位置、以及投影仪20的光轴的朝向是已知的。在投射对象物PS的形状通过CAD(Computer-AidedDesign:计算机辅助设计)设计的情况下,作为虚拟空间VS的具体例,可举出该CAD空间。
在图8和图1中,对相同的结构要素标注相同的标号。比较图8和图1可知,投射***1B在代替控制装置10A而具有控制装置10B这一点以及不具有摄像头30这一点上,与投射***1A不同。在本实施方式中,基于在虚拟空间VS中从由用户设定的视点VP观察该虚拟物体VPS的图像来生成投射图像,因此不需要摄像头30。另外,在本实施方式中,用户能够将视点VP设定在任意的三维位置。
图10是表示控制装置10B的结构例的框图。在图10中,对与图2中的结构要素相同的结构要素标注相同的标号。在本实施方式中存储装置130未存储第3位置信息DA3、第3姿势信息DB3以及标记信息DM,在这一点上,本实施方式与第1实施方式不同。第1位置信息DA1以及第2位置信息DA2分别是平移矩阵这一点与第1实施方式相同。另外,第1姿势信息DB1以及第2姿势信息DB2分别是旋转矩阵这一点也与第1实施方式相同。
在本实施方式中,第1位置信息DA1表示虚拟空间VS中的视点VP与虚拟物体VPS的相对三维位置,第1姿势信息DB1表示在虚拟空间VS中从视点VP观察虚拟物体VPS的方向,这一点与第1实施方式不同。另外,在本实施方式中,第2位置信息DA2表示虚拟投影仪VPJ与虚拟物体VPS的相对三维位置,第2姿势信息DB2表示虚拟投影仪VPJ的光轴的朝向,这一点与第1实施方式不同。但是,在本实施方式中,虚拟投影仪VPJ与虚拟物体VPS的相对三维位置和投影仪20与投射对象物PS的相对三维位置相同,虚拟投影仪VPJ的光轴的朝向和投影仪20的光轴的朝向相同。在本实施方式中,投影仪20与投射对象物PS的相对三维位置以及投影仪20的光轴的朝向是已知的,第2位置信息DA2以及第2姿势信息DB2预先存储在控制装置10B的存储装置130中。此外,虽然在图10中省略了详细的图示,但在控制装置10B的存储装置130中预先存储有虚拟空间坐标系、以及表示虚拟空间VS中的虚拟物体VPS的三维位置和形状的虚拟空间信息。
对比图10和图2可知,在本实施方式中,代替程序PA而将程序PB存储于存储装置130。与第1实施方式的情况同样地,处理装置140以控制装置10B的电源接通为契机,开始程序PB的执行。如图10所示,按照程序PB工作的处理装置140作为取得部141B、第1生成部142B、第2生成部143B、转换部144B以及投射控制部145发挥功能。取得部141B、第1生成部142B、第2生成部143B、转换部144B以及投射控制部145是通过使计算机按照程序PB工作而实现的软件模块。
取得部141B将虚拟空间VS的图像显示于显示装置110,由此受理设定虚拟空间VS中的视点VP的三维位置以及从视点VP观察虚拟物体VPS的方向的操作。当对输入装置120进行这些操作时,取得部141B基于虚拟空间信息和表示虚拟空间VS中的视点VP的三维位置的信息,计算表示从由用户设定的视点VP观察虚拟物体VPS的虚拟拍摄图像的图像数据,由此取得表示该虚拟拍摄图像的图像数据。该虚拟拍摄图像是本公开中的第1图像的一例。虚拟拍摄图像不是经由拍摄镜头拍摄到的图像,因此不包含镜头畸变。
第1生成部142B基于虚拟空间VS中的视点VP的三维位置、从视点VP观察虚拟物体VPS的方向、以及虚拟空间信息,生成第1位置信息DA1以及第1姿势信息DB1。
第2生成部143B使显示装置110显示由取得部141B取得的拍摄图像数据所表示的图像、即虚拟拍摄图像,由此受理在虚拟拍摄图像中的虚拟物体VPS所占的区域对描绘对象进行描绘的操作。如上所述,由于虚拟拍摄图像不包含镜头畸变,因此根据本实施方式,能够使用没有镜头畸变的图像作为基准来对描绘对象进行描绘。第2生成部143B通过输入装置120受理对描绘对象进行描绘的操作,根据从输入装置120提供的操作内容数据,生成表示虚拟拍摄图像中的描绘对象的二维位置的第1对象信息。
转换部144B基于第1位置信息DA1以及第1姿势信息DB1,将第1对象信息转换为表示配置于虚拟物体VPS的表面的描绘对象的三维位置、即在虚拟空间坐标系中的位置的第2对象信息。
投射控制部145与第1实施方式的情况同样地将第2对象信息转换为表示投射图像上的描绘对象的二维位置的第3对象信息,由此将包含该描绘对象的投射图像从投影仪20向投射对象物投射。
另外,按照程序PB工作的处理装置140执行显著地表示本实施方式的特征的投射方法。图11是表示该投射方法的流程的流程图。在图11中,对与图7中的处理相同的处理标注相同的标号。比较图11和图7可知,本实施方式中的投射方法与第1实施方式中的投射方法的不同之处在于,代替取得处理SA100而包含取得处理SB100,代替第1生成处理SA110而包含第1生成处理SB110,代替第2生成处理SA120而包含第2生成处理SB120,以及代替转换处理SA130而包含转换处理SB130。
在取得处理SB100中,处理装置140作为取得部141B发挥功能。在取得处理SB100中,处理装置140将虚拟空间VS的图像显示于显示装置110,由此受理设定虚拟空间VS中的视点VP的三维位置以及从视点VP观察虚拟物体VPS的方向的操作。然后,处理装置140基于虚拟空间信息、以及表示该视点VP在虚拟空间VS中的三维位置和从视点VP观察虚拟物体VPS的方向的信息,计算表示从由用户设定的视点VP观察虚拟物体VPS的虚拟拍摄图像的图像数据,由此取得表示该虚拟拍摄图像的图像数据。
在第1生成处理SB110中,处理装置140作为第1生成部142B发挥功能。在第1生成处理SB110中,处理装置140基于由用户设定的视点VP的三维位置、从该视点VP观察虚拟物体VPS的方向、以及虚拟空间信息,生成第1位置信息DA1以及第1姿势信息DB1。
在第2生成处理SB120中,处理装置140作为第2生成部143B发挥功能。在第2生成处理SB120中,处理装置140使在取得处理SB100中取得的图像数据所表示的虚拟拍摄图像显示于显示装置110,由此受理在该虚拟拍摄图像中的虚拟物体VPS所占的区域对描绘对象进行描绘的操作。然后,处理装置140通过输入装置120受理该操作,根据从输入装置120提供的操作内容数据,生成表示虚拟拍摄图像中的描绘对象的二维位置的第1对象信息。
在转换处理SB130中,处理装置140作为转换部144B发挥功能。在转换处理SB130中,处理装置140基于第1位置信息DA1以及第1姿势信息DB1将第1对象信息转换为第2对象信息。
在投射控制处理SA140中,处理装置140作为投射控制部145发挥功能。在投射控制处理SA140中,处理装置140基于第2位置信息DA2和第2姿势信息DB2,将第2对象信息转换为第3对象信息。接着,处理装置140基于第3对象信息生成表示包含描绘对象的投射图像的图像数据,并将所生成的图像数据发送到投影仪20。
根据本实施方式,也能够将用户为了投射到投射对象物PS而在虚拟拍摄图像中描绘的图像在准确的三维位置以准确的形状从投影仪20投射到投射对象物PS。此外,在本实施方式中,投影仪20与投射对象物PS的相对三维位置以及投影仪20的光轴的朝向是已知的,第2位置信息DA2以及第2姿势信息DB2预先设定在存储装置130中。但是,也可以在取得处理SB100中受理设定虚拟投影仪VPJ的三维位置以及姿势的操作,在第1生成处理SB110中,根据该操作生成第2位置信息DA2以及第2姿势信息DB2。
此外,在本实施方式中,能够任意地设定视点VP的三维位置以及从视点VP观察虚拟物体VPS的方向,因此,通过以正对观察投射对象物PS的6个面中的、期望配置描绘对象的面的方式,设定虚拟空间VS中的视点VP的三维位置以及从视点VP观察虚拟物体VPS的方向,能够起到以下的效果。另外,正对观察期望配置描绘对象的面是指,通过视点VP和该面的中心的直线与该面垂直地相交,且从视点VP观察虚拟物体VPS的方向沿着该直线。
在第1实施方式的投射***1A中,如图12所示,若对在投射对象物PS中配置有描绘对象OB2的面与摄像头30的光轴不垂直的状态下拍摄到的拍摄图像(即,未正对观察投射对象物PS的拍摄图像)描绘出描绘对象,则如图13所示,在投射对象物PS的表面显现的描绘对象OB2产生投影畸变。在本实施方式中,以正对观察期望配置描绘对象的面的方式,设定视点VP的三维位置以及从视点VP观察虚拟物体VPS的方向,由此避免了投影畸变的产生。另外,视点VP的三维位置的设定也可以限制为对正对观察虚拟物体VPS的位置的设定。正对观察虚拟物体VPS的位置是指正对观察形成虚拟物体VPS的外延的多个面中的任意的面的位置。在将视点VP的三维位置的设定限制为对正对观察虚拟物体VPS的位置的设定的方式中,能够省略第1姿势信息DB1。这是因为,在该方式中,能够通过将描绘于虚拟拍摄图像的描绘对象以和视点VP与虚拟物体VPS之间的距离、以及前端位于视点VP的视锥体中的从前方剪裁面到视点VP的距离相应的比率缩小并投影于虚拟物体VPS来生成第2对象信息。
3.变形
上述各实施方式可以如下变形。
(1)在上述第2实施方式中,也可以将通过第2对象信息表示三维空间中的三维位置的描绘对象作为纹理贴附于虚拟物体VPS的表面。根据本方式,在虚拟物体VPS随着投射对象物PS的移动而移动的情况下,不进行虚拟拍摄图像上的描绘对象的再描绘,就能够使表面已配置描绘对象的虚拟物体VPS的虚拟拍摄图像显示于显示装置110。关于第1实施方式也同样,如果代替拍摄图像而使用虚拟拍摄图像,则在投射对象物PS移动的情况下不用进行描绘对象的再描绘,就能够使表面已配置描绘对象的虚拟物体VPS的虚拟拍摄图像显示于显示装置110。
(2)在上述第1实施方式中,利用配置于投射对象物PS的表面的多个标记M,取得了第1位置信息DA1以及第1姿势信息DB1。但是,也可以通过输入装置120受理对分别位于投射对象物PS的拍摄图像中显现的投射对象物PS的表面、且各自的三维位置已知的多个特征点进行选择的操作,基于这多个特征点各自在拍摄图像上的二维位置来取得第1位置信息DA1以及第1姿势信息DB1。另外,也可以在第2实施方式的投射***1B中追加摄像头30,代替第1生成处理SB110而在控制装置10B中执行第1生成处理SA110。在该情况下,也可以代替多个标记M,而使用分别位于投射对象物PS的拍摄图像中显现的该投射对象物PS的表面、且各自的三维位置已知的多个特征点。
(3)通信装置100也可以经由无线LAN(Local Area Network:局域网)或有线LAN等通信网与投影仪20或摄像头30进行通信。作为经由有线LAN与投影仪20或摄像头30进行通信的方式中的通信装置100的具体例,可举出经由LAN线缆与有线LAN连接的NIC(NetworkInterface Card:网络接口卡)。另外,作为经由无线LAN与投影仪20或者摄像头30进行通信的方式中的通信装置100的具体例,可举出接收该无线LAN中的通信电波的天线、以及进行该通信电波的调制和解调的电路。另外,通信装置100也可以经由通信网与管理者终端进行通信,该管理者终端承担显示装置110以及输入装置120的功能。根据该方式,通过将提醒投射图像的视听者的注意的注释信息用作描绘对象,能够经由投射对象物PS进行视听者与远程地点的管理者的实时远程交流。
在投射对象物PS是在工厂的生产线上通过作业者的手动作业而制造的物体的情况下,作为该远程交流的具体例,可列举如下例子:管理者通过在投射对象物PS的拍摄图像或者虚拟拍摄图像上依次描绘表示作业部位的描绘对象来指导作业步骤。另外,作为上述远程交流的另一具体例,可列举如下例子:将公共设施中的地形立体模型等作为投射对象物PS,由策展人等管理者在投射对象物PS的拍摄图像或虚拟拍摄图像上依次描绘表示关注部位的描绘对象,由此对公共设施的参观者进行与投射对象物PS相关的解说。另外,作为上述远程交流的又一具体例,可列举如下例子:将医疗教育中的人体模型作为投射对象物PS,由指导教官等管理者在投射对象物PS的拍摄图像或虚拟拍摄图像上依次描绘表示关注部位的描绘对象,由此对学习者进行指导。这样,根据本公开,具有特定知识或技能的人不前往现场就能够进行不具有该知识等的人的指导等。
(4)上述第1实施方式中的投射***1A所包含的投影仪20的数量是1个,但也可以是2个以上。例如,在投射对象物PS比能够通过投影仪20投射图像的范围大的情况下,也可以使用多个投影仪20,对各投影仪20分配互不相同的投射区域。同样地,在投射***1B中也可以包含多个投影仪20。另外,也可以在投射***1A中包含多个摄像头30。
(5)上述第1实施方式中的控制装置10A也可以单独制造或销售。通过在包含1个或多个投影仪20和1个或多个摄像头30并实现投影映射的以往的投射***中追加控制装置10A,能够在该以往的投射***中执行本公开的投射方法。同样地,第2实施方式中的控制装置10B也可以单独制造或销售。
(6)在上述第1实施方式中,将投射图像投射到投射对象物PS的投影仪20和生成表示投射图像的图像数据的控制装置10A是独立的装置,但控制装置10A也可以包含于投影仪20,另外,也可以包含于摄像头30。对于第2实施方式中的控制装置10B也同样地,该控制装置10B也可以包含于投影仪20。另外,上述第1实施方式中的取得部141A、第1生成部142A、第2生成部143A、转换部144A以及投射控制部145是软件模块,但也可以是ASIC(ApplicationSpecific Integrated Circuit:专用集成电路)等硬件模块。上述第2实施方式中的取得部141B、第1生成部142B、第2生成部143B、转换部144B以及投射控制部145也可以是ASIC等硬件模块。
(7)上述第1实施方式中的程序PA可以单独制造,也可以有偿或无偿发布。作为程序PA的具体发布方法,可以考虑在闪存ROM(Read Only Memory:只读存储器)等计算机可读取的记录介质中写入程序PA来发布的方式、或者通过经由因特网等电气通信线路的下载来发布的方式。按照通过这些方式发布的程序PA使一般的计算机工作,由此能够使该计算机作为控制装置10A发挥功能。在使用计算机作为控制装置10A的情况下,也可以使用鼠标和键盘中的至少一方作为输入装置120。同样地,上述第2实施方式中的程序PB可以单独制造,也可以有偿或无偿地发布。
(8)在上述第1实施方式中,在投射对象物PS、投影仪20的三维位置和光轴的朝向、以及摄像头30的三维位置和光轴的朝向被固定的情况下,能够预先生成第1位置信息DA1、第1姿势信息DB1、第2位置信息DA2以及第2姿势信息DB2并存储于存储装置130。在该情况下,不需要第1生成部142A,也能够省略第1生成处理SA110。对于第2实施方式也同样,在投射对象物PS、投影仪20的三维位置和光轴的朝向、以及视点VP的三维位置和从视点VP观察虚拟物体VPS的方向被固定的情况下,不需要第1生成部142B,也能够省略第1生成处理SB110。
4.根据实施方式以及各变形例中的至少1个掌握的方式
本公开不限于上述的实施方式以及变形例,能够在不脱离其主旨的范围内以各种方式实现。例如,本公开也能够通过以下的方式来实现。为了解决本公开的课题的一部分或全部,或者为了实现本公开的效果的一部分或全部,与以下记载的各方式中的技术特征对应的上述实施方式中的技术特征能够适当地进行替换、组合。另外,如果该技术特征在本说明书中没有作为必需的技术特征进行说明,则能够适当地删除。
本公开的投射方法的一个方式包含以下的取得处理SA100、第2生成处理SA120、转换处理SA130以及投射控制处理SA140。取得处理SA100是如下处理:取得利用摄像头30对投射对象物PS进行拍摄而得到的拍摄图像。利用摄像头30对投射对象物PS进行拍摄而得到的拍摄图像是本公开中的第1图像的一例。第2生成处理SA120是如下处理:受理用户在由取得处理SA100取得的拍摄图像中的投射对象物PS所占的区域中对描绘对象进行描绘的操作,由此生成表示拍摄图像中的描绘对象的二维位置的第1对象信息。转换处理SA130是将第1对象信息转换为第2对象信息的处理,所述第2对象信息表示在投射对象物PS的表面配置有描绘对象的情况下、配置于投射对象物PS的表面的描绘对象的三维位置。在转换处理SA130中,第1对象信息基于表示摄像头30与投射对象物PS的相对三维位置的第1位置信息DA1、以及表示摄像头30的光轴的朝向的第1姿势信息DB1,被转换为第2对象信息。投射控制处理SA140是如下处理:将第2对象信息转换为表示从投影仪20投射的图像上的描绘对象的二维位置的第3对象信息,由此将包含描绘对象的投射图像从投影仪20向投射对象物PS投射。在投射控制处理SA140中,基于表示投影仪20与投射对象物PS的相对三维位置的第2位置信息DA2、以及表示投影仪20的光轴的朝向的第2姿势信息DB2,将第2对象信息转换为第3对象信息。根据本方式的投射方法,能够将用户对投射对象物PS的拍摄图像描绘的图像在准确的三维位置以准确的形状从投影仪20投射到投射对象物PS。
更优选的方式的投射方法也可以还包含生成第1位置信息DA1、第1姿势信息DB1、第2位置信息DA2以及第2姿势信息DB2的第1生成处理SA110。根据本方式,能够任意地设定摄像头30相对于投射对象物PS的相对三维位置以及姿势、和投影仪20相对于投射对象物PS的相对三维位置以及姿势。
在包含第1生成处理SA110的方式的投射方法中,也可以在投射对象物PS的表面配置各自的三维位置已知的多个标记M。在该方式中,第1生成处理SA110也可以包含以下的第1处理、第2处理以及第3处理。第1处理是如下处理:基于拍摄图像中的多个标记M各自的二维位置,生成第1位置信息DA1以及第1姿势信息DB1。第2处理是如下处理:基于表示摄像头30与投影仪20的相对三维位置的第3位置信息DA3和第1位置信息DA1,生成第2位置信息DA2。第3处理是如下处理:基于表示摄像头30与投影仪20的相对姿势的第3姿势信息DB3和第1姿势信息DB1,生成第2姿势信息DB2。根据本方式,能够基于配置于投射对象物PS的表面的多个标记M来生成第1位置信息DA1、第1姿势信息DB1、第2位置信息DA2以及第2姿势信息DB2。
在包含第1生成处理SA110的方式的另一方式的投射方法中,第1生成处理SA110在以下也可以包含第4处理、第5处理、第6处理以及第7处理。第4处理是如下处理:受理对分别位于拍摄图像中显现的投射对象物PS的表面、且各自的三维位置已知的多个特征点进行选择的操作。第5处理是如下处理:基于拍摄图像中的多个特征点各自的二维位置,生成第1位置信息DA1以及第1姿势信息DB1。第6处理是如下处理:基于表示摄像头30与投影仪20的相对三维位置的第3位置信息DA3和第1位置信息DA1,生成第2位置信息DA2。第7处理是如下处理:基于表示摄像头30与投影仪20的相对姿势的第3姿势信息DB3和第1姿势信息DB1,生成第2姿势信息DB2。根据本方式,能够基于位于投射对象物PS的表面的多个特征点来生成第1位置信息DA1、第1姿势信息DB1、第2位置信息DA2以及第2姿势信息DB2。
另外,本公开的另一方式的投射方法包含取得处理SB100、第2生成处理SB120、转换处理SB130以及投射控制处理SA140。取得处理SB100是如下处理:包含对投射对象物PS进行模拟的虚拟物体和对向投射对象物PS投射图像的投影仪20进行模拟的虚拟投影仪的虚拟空间中,取得从用户设定的视点观察虚拟物体而得到的虚拟拍摄图像,其中,在所述虚拟空间中,虚拟物体与虚拟投影仪的相对三维位置是根据投射对象物PS与投影仪20的相对三维位置确定的。虚拟拍摄图像是本公开中的第1图像的一例。在第2生成处理SB120中,受理用户在虚拟拍摄图像中的虚拟物体所占的区域中对描绘对象进行描绘的操作。在第2生成处理SB120中,生成表示虚拟拍摄图像中的描绘对象的二维位置的第1对象信息。在转换处理SB130中,基于表示由用户设定的视点与虚拟物体的相对三维位置的第1位置信息DA1,将第1对象信息转换为第2对象信息。本方式中的第2对象信息表示在虚拟物体的表面配置有描绘对象的情况下、配置于投射对象物的表面的描绘对象的三维位置。在投射控制处理SA140中,第2对象信息基于第2位置信息DA2和第2姿势信息DB2被转换为第3对象信息。本方式中的第2位置信息DA2表示虚拟投影仪与虚拟物体的相对三维位置。另外,本方式中的第2姿势信息DB2表示虚拟投影仪的光轴的朝向。根据本方式的投射方法,也能够将用户对虚拟拍摄图像描绘的图像在准确的三维位置以准确的形状从投影仪20投射到投射对象物PS。
更优选的方式的投射方法中的取得处理SB100也可以还包含受理设定视点的三维位置的操作。根据本方式,能够任意地设定视点的三维位置来取得虚拟拍摄图像。
在另一优选方式的投射方法中,设定于虚拟空间的视点位于正对观察虚拟物体的三维位置。根据本方式,能够使用户基于正对观察虚拟物体的虚拟拍摄图像,描绘投射到投射对象物PS的描绘对象。
设定于虚拟空间的视点位于正对观察虚拟物体的三维位置的方式的投射方法也可以还包含生成第1位置信息DA1以及第2位置信息DA2的第1生成处理SB110。根据本方式,能够任意地设定视点相对于虚拟物体的相对三维位置、以及投影仪20相对于投射对象物PS的相对三维位置。
包含第1生成处理SB110的方式的投射方法也可以在投射对象物的表面配置各自的三维位置已知的多个标记M。该方式的投射方法中的第1生成处理SB110也可以包含第8处理、第9处理以及第10处理。第8处理是取得拍摄图像的处理,该拍摄图像是利用设置于与设定于虚拟空间的视点对应的三维位置的摄像头30对表面配置有多个标记M的投射对象物PS进行拍摄而得到的。第9处理是如下处理:基于该拍摄图像中的多个标记M各自的二维位置来生成第1位置信息DA1。第10处理是如下处理:基于表示摄像头30与投影仪20的相对三维位置的第3位置信息DA3和第1位置信息DA1,生成第2位置信息DA2。另外,上述拍摄图像是本公开中的第2图像的一例。
另外,在包含第1生成处理SB110的另一方式的投射方法中,第1生成处理SB110也可以包含以下的第11处理、第12处理、第13处理以及第14处理。第11处理是取得拍摄图像的处理,所述拍摄图像是利用设置于与设定于虚拟空间的视点对应的三维位置的摄像头30对投射对象物PS进行拍摄而得到的。第12处理是如下处理:受理对分别位于该拍摄图像中显现的投射对象物PS的表面、且各自的三维位置已知的多个特征点进行选择的操作。第13处理是如下处理:基于上述拍摄图像中的多个特征点各自的二维位置,生成第1位置信息DA1。第14处理是如下处理:基于表示摄像头30与投影仪20的相对三维位置的第3位置信息DA3和第1位置信息DA1,生成第2位置信息DA2。本方式中的拍摄图像也是本公开中的第2图像的一例。
此外,本公开的一个方式的投射***包含:投影仪20,其向投射对象物PS投射图像;输入装置120,其受理用户的操作;以及处理装置140。处理装置140执行上述的取得处理SA100、第2生成处理SA120、转换处理SA130以及投射控制处理SA140。根据本方式的投射***,也能够将用户对摄像头30拍摄投射对象物PS而得到的拍摄图像描绘的图像在准确的三维位置以准确的形状从投影仪20投射到投射对象物PS。
另外,在包含投影仪20、输入装置120以及处理装置140的另一方式的投射***中,处理装置140也可以执行上述的取得处理SB100、第2生成处理SB120、转换处理SB130以及投射控制处理SA140。根据本方式的投射方法,也能够将用户对虚拟拍摄图像描绘的图像在准确的三维位置以准确的形状从投影仪20投射到投射对象物PS。
Claims (12)
1.一种投射方法,其中,该投射方法包含:
取得第1图像,所述第1图像是利用摄像头对投射对象物进行拍摄而得到的;
受理用户在所述第1图像中对描绘对象进行描绘的操作,由此生成表示所述第1图像中的所述描绘对象的二维位置的第1对象信息;
基于表示所述摄像头与所述投射对象物的相对三维位置的第1位置信息、和表示所述摄像头的光轴的朝向的第1姿势信息,将所述第1对象信息转换为第2对象信息,所述第2对象信息表示在所述投射对象物的表面配置有所述描绘对象的情况下的所述描绘对象的三维位置;以及
基于表示投影仪与所述投射对象物的相对三维位置的第2位置信息、和表示所述投影仪的光轴的朝向的第2姿势信息,将所述第2对象信息转换为表示从所述投影仪投射的图像上的所述描绘对象的位置的第3对象信息,由此将包含所述描绘对象的投射图像从所述投影仪投射到所述投射对象物。
2.根据权利要求1所述的投射方法,其中,
该投射方法还包含:生成所述第1位置信息、所述第1姿势信息、所述第2位置信息以及所述第2姿势信息。
3.根据权利要求2所述的投射方法,其中,
在所述投射对象物的表面配置有各自的三维位置已知的多个标记,
生成所述第1位置信息、所述第1姿势信息、所述第2位置信息以及所述第2姿势信息包含:
基于所述第1图像中的所述多个标记各自的二维位置,生成所述第1位置信息和所述第1姿势信息;
基于表示所述摄像头与所述投影仪的相对三维位置的第3位置信息和所述第1位置信息,生成所述第2位置信息;以及
基于表示所述摄像头与所述投影仪的相对姿势的第3姿势信息和所述第1姿势信息,生成所述第2姿势信息。
4.根据权利要求2所述的投射方法,其中,
生成所述第1位置信息、所述第1姿势信息、所述第2位置信息以及所述第2姿势信息包含:
受理对分别位于所述第1图像中显现的所述投射对象物的表面、且各自的三维位置已知的多个特征点进行选择的操作;
基于所述第1图像中的所述多个特征点各自的二维位置,生成所述第1位置信息和所述第1姿势信息;
基于表示所述摄像头与所述投影仪的相对三维位置的第3位置信息和所述第1位置信息,生成所述第2位置信息;以及
基于表示所述摄像头与所述投影仪的相对姿势的第3姿势信息和所述第1姿势信息,生成所述第2姿势信息。
5.一种投射方法,其中,该投射方法包含:
在包含对投射对象物进行模拟的虚拟物体和对向所述投射对象物投射图像的投影仪进行模拟的虚拟投影仪的虚拟空间中,取得从用户设定的视点观察所述虚拟物体而得到的第1图像,其中,在所述虚拟空间中,所述虚拟物体与所述虚拟投影仪的相对三维位置是根据所述投射对象物与所述投影仪的相对三维位置确定的;
受理所述用户在所述第1图像中对描绘对象进行描绘的操作,由此生成表示所述第1图像中的所述描绘对象的二维位置的第1对象信息;
基于表示所述视点与所述虚拟物体的相对三维位置的第1位置信息,将所述第1对象信息转换为第2对象信息,所述第2对象信息表示在所述虚拟物体的表面配置有所述描绘对象的情况下、配置于所述投射对象物的表面的所述描绘对象的三维位置;以及
基于表示所述虚拟投影仪与所述虚拟物体的相对三维位置的第2位置信息、和表示所述虚拟投影仪的光轴的朝向的姿势信息,将所述第2对象信息转换为表示从所述虚拟投影仪投射的图像上的所述描绘对象的二维位置的第3对象信息,由此将包含所述描绘对象的投射图像从所述投影仪投射到所述投射对象物。
6.根据权利要求5所述的投射方法,其中,
该投射方法还包含:受理对所述视点的三维位置进行设定的操作。
7.根据权利要求5所述的投射方法,其中,
所述视点位于正对观察所述虚拟物体的三维位置。
8.根据权利要求5~7中的任意一项所述的投射方法,其中,
该投射方法还包含:生成所述第1位置信息和所述第2位置信息。
9.根据权利要求8所述的投射方法,其中,
在所述投射对象物的表面配置有各自的三维位置已知的多个标记,
生成所述第1位置信息和所述第2位置信息包含:
取得第2图像,所述第2图像是利用设置于与所述视点对应的三维位置的摄像头对表面配置有所述多个标记的所述投射对象物进行拍摄而得到的;
基于所述第2图像中的所述多个标记各自的二维位置,生成所述第1位置信息;以及
基于表示所述摄像头与所述投影仪的相对三维位置的第3位置信息和所述第1位置信息,生成所述第2位置信息。
10.根据权利要求8所述的投射方法,其中,
生成所述第1位置信息和所述第2位置信息包含:
取得第2图像,所述第2图像是利用设置于与所述视点对应的三维位置的摄像头对所述投射对象物进行拍摄而得到的;
受理对分别位于所述第2图像中显现的所述投射对象物的表面、且各自的三维位置已知的多个特征点进行选择的操作;
基于所述第2图像中的所述多个特征点各自的二维位置,生成所述第1位置信息;以及
基于表示所述摄像头与所述投影仪的相对三维位置的第3位置信息和所述第1位置信息,生成所述第2位置信息。
11.一种投射***,其中,该投射***包含:
投影仪,其向投射对象物投射图像;
输入装置,其受理用户的操作;以及
处理装置,
所述处理装置执行以下处理:
取得第1图像,所述第1图像是利用摄像头对所述投射对象物进行拍摄而得到的;
由所述输入装置受理在所述第1图像中对描绘对象进行描绘的操作,由此生成表示所述第1图像中的所述描绘对象的二维位置的第1对象信息;
基于表示所述摄像头与所述投射对象物的相对三维位置的第1位置信息、和表示所述摄像头的光轴的朝向的第1姿势信息,将所述第1对象信息转换为第2对象信息,所述第2对象信息表示在所述投射对象物的表面配置有所述描绘对象的情况下的所述描绘对象的三维位置;以及
基于表示所述投影仪与所述投射对象物的相对三维位置的第2位置信息、和表示所述投影仪的光轴的朝向的第2姿势信息,将所述第2对象信息转换为表示从所述投影仪投射的图像上的所述描绘对象的二维位置的第3对象信息,由此将包含所述描绘对象的投射图像从所述投影仪投射到所述投射对象物。
12.一种投射***,其中,该投射***包含:
投影仪,其向投射对象物投射图像;
输入装置,其受理用户的操作;以及
处理装置,
所述处理装置执行以下处理:
在包含对所述投射对象物进行模拟的虚拟物体和对所述投影仪进行模拟的虚拟投影仪的虚拟空间中,取得从通过对所述输入装置的操作设定的视点观察所述虚拟物体而得到的第1图像,其中,在所述虚拟空间中,所述虚拟物体与所述虚拟投影仪的相对三维位置是根据所述投射对象物与所述投影仪的相对三维位置确定的;
由所述输入装置受理所述用户在所述第1图像中对描绘对象进行描绘的操作,由此生成表示所述第1图像中的所述描绘对象的二维位置的第1对象信息;
基于表示所述视点与所述虚拟物体的相对三维位置的第1位置信息,将所述第1对象信息转换为第2对象信息,所述第2对象信息表示在所述虚拟物体的表面配置有所述描绘对象的情况下、配置于所述投射对象物的表面的所述描绘对象的三维位置;以及
基于表示所述虚拟投影仪与所述虚拟物体的相对三维位置的第2位置信息、和表示所述虚拟投影仪的光轴的朝向的姿势信息,将所述第2对象信息转换为表示从所述虚拟投影仪投射的图像上的所述描绘对象的二维位置的第3对象信息,由此将包含所述描绘对象的投射图像从所述投影仪投射到所述投射对象物。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021-152923 | 2021-09-21 | ||
JP2021152923A JP7380661B2 (ja) | 2021-09-21 | 2021-09-21 | 投射方法、及び投射システム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115842905A CN115842905A (zh) | 2023-03-24 |
CN115842905B true CN115842905B (zh) | 2024-05-28 |
Family
ID=85571742
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211134743.9A Active CN115842905B (zh) | 2021-09-21 | 2022-09-19 | 投射方法以及投射*** |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230092033A1 (zh) |
JP (1) | JP7380661B2 (zh) |
CN (1) | CN115842905B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003115055A (ja) * | 2001-10-05 | 2003-04-18 | Canon Inc | 画像生成装置 |
JP2010034720A (ja) * | 2008-07-28 | 2010-02-12 | Fuji Xerox Co Ltd | 指示システム、指示装置、端末装置、指示プログラム及び端末用プログラム |
JP2012073399A (ja) * | 2010-09-28 | 2012-04-12 | Kyocera Corp | 電子機器および投影システム |
WO2016194191A1 (ja) * | 2015-06-04 | 2016-12-08 | 日立マクセル株式会社 | 投射型映像表示装置および映像表示方法 |
JP2017085234A (ja) * | 2015-10-23 | 2017-05-18 | セイコーエプソン株式会社 | 携帯端末、プロジェクター、投写システム、投写システムの制御方法およびプログラム |
JP2018056924A (ja) * | 2016-09-30 | 2018-04-05 | 匡佑 安本 | 画像表示装置、及びこれを用いた仮想現実インタフェースデバイス |
JP2019139030A (ja) * | 2018-02-08 | 2019-08-22 | 国立大学法人福井大学 | 3次元計測対象物体の表面に計測結果関連情報を投影する方法および装置 |
KR20200028532A (ko) * | 2018-09-06 | 2020-03-17 | 주식회사 비즈모델라인 | 영상 투영 기능을 구비한 카메라장치 |
CN113412500A (zh) * | 2019-02-13 | 2021-09-17 | 三菱电机株式会社 | 模拟装置、模拟方法及模拟程序 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5200800B2 (ja) * | 2008-09-16 | 2013-06-05 | 富士ゼロックス株式会社 | 撮影装置及び撮影システム |
US9578076B2 (en) * | 2011-05-02 | 2017-02-21 | Microsoft Technology Licensing, Llc | Visual communication using a robotic device |
JP2013192189A (ja) | 2012-03-15 | 2013-09-26 | Casio Comput Co Ltd | 画像処理装置、投影システム、プログラム及び画像処理方法 |
US9304582B1 (en) * | 2013-12-19 | 2016-04-05 | Amazon Technologies, Inc. | Object-based color detection and correction |
US10574956B2 (en) * | 2015-08-07 | 2020-02-25 | Christie Digital Systems Usa, Inc. | System and method for automatic alignment and projection mapping |
JP6846661B2 (ja) | 2016-04-13 | 2021-03-24 | パナソニックIpマネジメント株式会社 | 3次元的な投影対象のための投影方法及び装置 |
US11206294B2 (en) * | 2020-03-31 | 2021-12-21 | Konica Minolta Business Solutions U.S.A., Inc. | Method for separating local and remote content in a camera-projector based collaborative system |
JPWO2022080260A1 (zh) * | 2020-10-13 | 2022-04-21 |
-
2021
- 2021-09-21 JP JP2021152923A patent/JP7380661B2/ja active Active
-
2022
- 2022-09-19 CN CN202211134743.9A patent/CN115842905B/zh active Active
- 2022-09-20 US US17/948,820 patent/US20230092033A1/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003115055A (ja) * | 2001-10-05 | 2003-04-18 | Canon Inc | 画像生成装置 |
JP2010034720A (ja) * | 2008-07-28 | 2010-02-12 | Fuji Xerox Co Ltd | 指示システム、指示装置、端末装置、指示プログラム及び端末用プログラム |
JP2012073399A (ja) * | 2010-09-28 | 2012-04-12 | Kyocera Corp | 電子機器および投影システム |
WO2016194191A1 (ja) * | 2015-06-04 | 2016-12-08 | 日立マクセル株式会社 | 投射型映像表示装置および映像表示方法 |
JP2017085234A (ja) * | 2015-10-23 | 2017-05-18 | セイコーエプソン株式会社 | 携帯端末、プロジェクター、投写システム、投写システムの制御方法およびプログラム |
JP2018056924A (ja) * | 2016-09-30 | 2018-04-05 | 匡佑 安本 | 画像表示装置、及びこれを用いた仮想現実インタフェースデバイス |
JP2019139030A (ja) * | 2018-02-08 | 2019-08-22 | 国立大学法人福井大学 | 3次元計測対象物体の表面に計測結果関連情報を投影する方法および装置 |
KR20200028532A (ko) * | 2018-09-06 | 2020-03-17 | 주식회사 비즈모델라인 | 영상 투영 기능을 구비한 카메라장치 |
CN113412500A (zh) * | 2019-02-13 | 2021-09-17 | 三菱电机株式会社 | 模拟装置、模拟方法及模拟程序 |
Non-Patent Citations (1)
Title |
---|
由人脸朝向驱动的多方向投影交互***;陈锐;李辉;***;黄樟钦;;小型微型计算机***;20070430(第04期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
JP7380661B2 (ja) | 2023-11-15 |
US20230092033A1 (en) | 2023-03-23 |
CN115842905A (zh) | 2023-03-24 |
JP2023044838A (ja) | 2023-04-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3067861B1 (en) | Determination of a coordinate conversion parameter | |
CN105026997B (zh) | 投影***、半导体集成电路及图像修正方法 | |
JP4401727B2 (ja) | 画像表示装置及び方法 | |
US8792709B2 (en) | Transprojection of geometry data | |
WO2019062619A1 (zh) | 对图像内目标物体进行自动标注的方法、装置及*** | |
JP5248806B2 (ja) | 情報処理装置、情報処理方法 | |
JPWO2018235163A1 (ja) | キャリブレーション装置、キャリブレーション用チャート、チャートパターン生成装置、およびキャリブレーション方法 | |
KR20160121798A (ko) | 직접적인 기하학적 모델링이 행해지는 hmd 보정 | |
JP2016218905A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2014102246A (ja) | 位置姿勢検出システム | |
JP2009042162A (ja) | キャリブレーション装置及びその方法 | |
JP2017129567A (ja) | 情報処理装置、情報処理方法、プログラム | |
JP6640294B1 (ja) | 複合現実システム、プログラム、携帯端末装置、及び方法 | |
JP7005224B2 (ja) | 情報処理装置、システム、画像処理方法、コンピュータプログラム、及び記憶媒体 | |
JP2002071315A (ja) | 投影平面計測システム | |
CN111260793A (zh) | 面向增强和混合现实的远程虚实高精度匹配定位的方法 | |
JP2003269913A (ja) | センサ較正装置、センサ較正方法、プログラム、記憶媒体 | |
WO2021134219A1 (zh) | 参数标定方法及装置 | |
CN111435069B (zh) | 测量体积的方法和装置 | |
JP2019045989A (ja) | 情報処理装置、情報処理方法およびコンピュータプログラム | |
RU2735066C1 (ru) | Способ отображения широкоформатного объекта дополненной реальности | |
CN115842905B (zh) | 投射方法以及投射*** | |
JP5077698B2 (ja) | プレゼンテーション資料配信システム、及びプレゼンテーション資料上の指示位置データの配信システム | |
JP2013231607A (ja) | 校正器具表示装置、校正器具表示方法、校正装置、校正方法、校正システム及びプログラム | |
JP2015118101A (ja) | 情報処理装置および方法、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |