CN105578174B - 互动3d显示***及其3d图像生成方法 - Google Patents

互动3d显示***及其3d图像生成方法 Download PDF

Info

Publication number
CN105578174B
CN105578174B CN201610053242.6A CN201610053242A CN105578174B CN 105578174 B CN105578174 B CN 105578174B CN 201610053242 A CN201610053242 A CN 201610053242A CN 105578174 B CN105578174 B CN 105578174B
Authority
CN
China
Prior art keywords
basic point
unit
rendering
display
display surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610053242.6A
Other languages
English (en)
Other versions
CN105578174A (zh
Inventor
那庆林
麦浩晃
黄彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Butterfly Technology Shenzhen Ltd
Original Assignee
CINEPIC TECHNOLOGY SHENZHEN Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CINEPIC TECHNOLOGY SHENZHEN Ltd filed Critical CINEPIC TECHNOLOGY SHENZHEN Ltd
Priority to CN201610053242.6A priority Critical patent/CN105578174B/zh
Publication of CN105578174A publication Critical patent/CN105578174A/zh
Application granted granted Critical
Publication of CN105578174B publication Critical patent/CN105578174B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • H04N13/354Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking for displaying sequentially
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Position Input By Displaying (AREA)

Abstract

本发明涉及互动3D显示***及其3D图像生成方法,互动3D显示***在互动遥控单元发射光信号到显示面后,以光信号在显示面的位置为第一基点,向显示面周圈任意方向延伸生成预置线段,再根据预置线段的两端点位置生成3D物体模型的3D图像和/或其运动轨迹,让用户在玩游戏时,根据光信号的射向位置生成对应的3D图像、运动轨迹,实际运动轨迹延伸到第一基点,戴上3D眼镜看到的3D效果像是从显示面外发射到显示面,射向第一基点,迎合场景从而更加的逼真。

Description

互动3D显示***及其3D图像生成方法
技术领域
本发明涉及图像显示和图像生成成像领域,更具体地说,涉及一种互动3D显示***及其3D图像生成方法。
背景技术
相关技术中的互动3D显示***在遥控单元发射到显示面后,通常是直接在发射到显示面的对应点上显示子弹、飞镖等3D物体模型,或按内置固定的线路发射到显示面上,立体感和用户体验感都不强。
发明内容
本发明要解决的技术问题在于,提供一种改进的互动3D显示***及其3D图像生成方法。
本发明解决其技术问题所采用的技术方案是:构造一种互动3D显示***的3D图像生成方法,所述显示***包括显示单元、***监控单元、***信息处理单元和互动遥控单元,所述互动遥控单元包括信号发射单元,所述3D图像生成方法包括以下步骤:
S1、预置所需显示的3D物体模型;
S2、所述信号发射单元发射光信号到所述显示单元的显示面,所述***监控单元识别所述光信号在显示面的位置,并传递位置信息给所述***信息处理单元;
S3、所述***信息处理单元以所述光信号在显示面的位置作为所述3D物体模型的第一基点;
S4、以所述第一基点为原点做沿所述显示面向任意方向延伸的预置线段,所述预置线段的终点为3D物体模型的第二基点;
S5、所述***信息处理单元依据所述第一基点和第二基点处理并生成所述3D物体模型的3D图像和/或其运动轨迹,其中,所述第一基点对应的3D图像和/或其运动轨迹为零视差3D图像,所述第二基点对应的3D图像和/或其运动轨迹为负视差图像。
优选地,生成的所述3D物体模型的3D图像和/或其运动轨迹从所述第二基点到第一基点的视差变化趋势为从负视差逐渐递增为零视差。
优选地,生成的所述3D物体模型的3D图像和/或其运动轨迹从所述第二基点向所述第一基点方向经过所述第一基点以后为由零变大的正视差图像。
优选地,所述信号发射单元发射的光信号为红外光信号。
优选地,所述步骤S4中:
以所述第一基点为原点做沿所述显示面向其底边方向延伸的预置线段,所述预置线段的终点为3D物体模型的第二基点。
本发明还构造一种互动3D显示***的3D图像生成方法,所述显示***包括显示单元、***监控单元、***信息处理单元和互动遥控单元,其特征在于,所述互动遥控单元包括信号发射单元和用于测量到所述显示单元的显示面的距离的测距监控单元,所述3D图像生成方法包括以下步骤:
S1、预置所需显示的3D物体模型;
S2、所述信号发射单元发射光信号到所述显示单元的显示面;所述***监控单元识别所述光信号在显示面的位置,并传递位置信息给所述***信息处理单元;
所述测距监控单元检测到所述显示面距离,并传递所述距离信息给所述***信息处理单元;
S3、所述***信息处理单元以所述光信号在显示面的位置作为所述3D物体模型的第一基点;
S4、以所述第一基点为原点做向所述显示面任何方向延伸的预置线段,该预置线段的终点设为3D物体模型的第二基点;
S5、***信息处理单元依据所述第一基点和第二基点处理并生成所述3D物体模型的3D图像和/或其运动轨迹进行,其中,所述第一基点对应的3D图像和/或其运动轨迹为零视差3D图像,所述第二基点对应的3D图像和/或其运动轨迹为负视差图像,并且,所述第二基点的负视差数值之绝对值随步骤S2中的测距数值增减而同方向增减。
优选地,所述信号发射单元发射的光信号为红外光信号。
优选地,所述预置的3D物体模型的3D图像和/或其运动轨迹从所述第二基点位置到所述第一基点位置的视差变化趋势为从负视差逐渐递增为零视差。
优选地,所述预置的3D物体模型的3D图像和/或其运动轨迹经过第一基点以后为由零变大的正视差图像。
本发明还构造一种互动3D显示***,包括显示单元和互动遥控单元,还包括***监控单元、以及***信息处理单元;
所述互动遥控单元包括信号发射单元;
所述信号发射单元用于发射光信号到所述显示单元的显示面;
所述***监控单元用于识别所述光信号在显示面的位置,并传递给所述***信息处理单元,
所述***信息处理单元以所述光信号在显示面的位置作为预置的3D物体模型的第一基点,并以所述第一基点为原点沿所述显示面向任意方向延伸形成预置线段,所述预置线段的终点为预置的3D物体模型的第二基点;
所述***信息处理单元依据所述第一基点和第二基点处理并生成所述3D图像和/或其运动轨迹,其中,所述第一基点对应的3D图像和/或其运动轨迹为零视差3D图像,所述第二基点对应的3D图像和/或其运动轨迹为负视差图像。
优选地,所述信号发射单元为红外激光发射器。
优选地,所述互动遥控单元还包括用于检测到所述显示面的距离的测距监控单元,所述第二基点的负视差数值之绝对值随测距数值增减而同方向增减。
优选地,所述测距监控单元包括光电探测器和/或CMOS传感器。
优选地,所述互动遥控单元还包括控制所述光信号在显示面上的位置的触动单元。
优选地,所述触动单元包括按键单元。
优选地,所述触动单元还包括移动传感器和/或静电传感器。
优选地,所述移动传感器包括加速传感器和/或重力传感器。
优选地,所述互动遥控单元包括遥控信息处理单元,所述遥控信息处理单元包括用于计算光信号发出时和返回时的时间差的计时电路单元和用以调制多个红外光发射器的信号的调制电路单元。
优选地,所述互动遥控单元还包括用于和所述显示单元进行信息传输的通讯单元,所述通讯单元包括2.4G发射模块和/或蓝牙模块。
优选地,所述互动遥控单元还包括设置在所述信号发射单元的光信号发射方向上的分光棱镜单元;所述分光棱镜单元镀有半反半透性质的膜片。
实施本发明的互动3D显示***及其3D图像生成方法,具有以下有益效果:本发明的互动3D显示***在互动遥控单元发射光信号到显示面后,以光信号在显示面的位置为第一基点,向显示面周圈任意方向延伸生成预置线段,再根据预置线段的两端点位置生成3D物体模型的3D图像和/或其运动轨迹,让用户在玩游戏时,根据光信号的射向位置生成对应的3D图像、运动轨迹,实际运动轨迹延伸到第一基点,戴上3D眼镜看到的3D效果像是从显示面外发射到显示面,射向第一基点,迎合场景从而更加的逼真。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明第一实施例中的互动3D显示***的互动遥控单元发射光信号到显示面S时生成的预置线段及在不戴3D眼镜时左眼、右眼分别看到位于其两侧呈夹角的实际图像或轨迹;
图2是本发明第一实施例中的互动3D显示***的互动遥控单元发射光信号到显示面S时生成的向显示面底边延伸的预置线段及在不戴3D眼镜时左眼、右眼分别看到位于其两侧呈夹角的实际图像或轨迹;
图3是戴上3D眼镜看到的图2中生成的3D图像和/或其运动轨迹;
图4是与图2对应且3D物体或运动轨迹为弧形时的示意图;
图5是与图2对应且在第二基点向第一基点方向经过所述第一基点以后包含正视差图像的示意图;
图6是戴上3D眼镜看到的图5中生成的3D图像和/或其运动轨迹;
图7是本发明第一实施例中的互动3D显示***的互动遥控单元发射光信号到显示面S时生成向显示面底边延伸的预置线段的示意图;
图8是本发明第二实施例中的互动3D显示***的互动遥控单元发射光信号到显示面S时生成的预置线段及检测出互动遥控单元到显示面的距离的示意图;
图9是本发明第二实施例中的互动3D显示***的互动遥控单元在距离显示面不同距离时生成长度相同的预置线段及检测出互动遥控单元到显示面的距离之间的对比示意图;
图10与图9对应且包括在不戴3D眼镜时左眼、右眼分别看到位于长度相同的两根预置线段两侧呈夹角的实际图像或轨迹的视差对比示意图;
图11是本发明第一实施例中的互动3D显示***的原理示意图;
图12是本发明第二实施例中的互动3D显示***的测距监控单元为光电探测器时的原理示意图
图13是本发明第二实施例中的互动3D显示***的测距监控单元为CMOS传感器时的原理示意图。
具体实施方式
为了对本发明的技术特征、目的和效果有更加清楚的理解,现对照附图详细说明本发明的具体实施方式。
如图1所示,本发明第一优选实施例中的互动3D显示***包括显示单元、***监控单元2、***信息处理单元3和互动遥控单元1,互动遥控单元1包括信号发射单元11,显示***的3D图像生成方法包括以下步骤:
S1、预置所需显示的3D物体模型;
S2、信号发射单元11发射光信号到显示单元的显示面S,优选地,信号发射单元11发射的光信号为红外光信号,***监控单元2识别光信号在显示面S的位置,并传递位置信息给***信息处理单元3;
S3、***信息处理单元3以光信号在显示面S的位置作为3D物体模型的第一基点K;
S4、以第一基点K为原点做沿显示面S向任意方向延伸的预置线段L,预置线段L的终点为3D物体模型的第二基点J;
S5、***信息处理单元3依据第一基点K和第二基点J处理并生成3D物体模型的3D图像和/或其运动轨迹,其中,第一基点K对应的3D图像和/或其运动轨迹为零视差3D图像,第二基点J对应的3D图像和/或其运动轨迹为负视差图像。
如图2为向显示面发射光信号后生成的预置线段L及在不戴3D眼镜时左眼、右眼分别看到的位于预置线段L两侧的两个呈夹角的实际图像或轨迹,图3所示为戴上3D眼镜看图2中的两个呈夹角的实际图像或轨迹的立体效果。
优选地,生成的3D物体模型的3D图像和/或其运动轨迹从第二基点J到第一基点K的视差变化趋势为从负视差逐渐递增为零视差,可生成连续的3D图像及其运动轨迹,可在玩游戏时发射子弹、飞镖等3D物体时,戴上3D眼镜看到的是从互动遥控单元1向显示面S移动的过程,动作更逼真。当然,在其他实施例中,生成的3D物体模型的3D图像和/或其运动轨迹从第二基点J到第一基点K的视差变化趋势也可为从负视差间断递增到零视差,实现隐现等效果。在射击等游戏中第一基点K为零视差非常重要,因为此时玩家互动遥控单元1对准的是第一基点K点,射出的子弹或飞镖等也在第一基点K点进入屏幕,产生“指哪里打哪里”的效果。如果在第一基点K点不是零视差,则由于人眼的3D视差,产生玩家互动遥控单元1对准的屏幕点和人眼看到的3D射击点产生偏差的现象,对于3D游戏等应用的制作也会造成困扰。
在用户拿着互动遥控单元1指向显示面S发射出子弹、飞镖等3D物体时,其运动轨迹通常为连续的,戴上3D眼镜看到的是由显示面S外向第一基点K移动的运动轨迹,或者射到显示面S后由显示面S外向第一基点K延伸的子弹、飞镖等3D图像,让发射的3D物体更有真实感。
如图4所示,为弧形3D物体模型在戴上3D眼镜前后的图像,预置线段L的两侧的弧形图像分别为未戴3D眼镜时左眼、右眼分别看到的图像,用户和显示面S之间的弧形图像为戴上3D眼镜后用户看到的3D图像。
进一步地,当3D图像和/或其运动轨迹需要有在显示面S内的效果时,生成的3D物体模型的3D图像和/或其运动轨迹从第二基点J向第一基点K方向经过第一基点K以后为由零变大的正视差图像,如图5为向显示面发射光信号后生成的预置线段L及在不戴3D眼镜时左眼、右眼分别看到的位于预置线段L两侧的两个呈夹角的实际图像或轨迹,实际图像或轨迹在第二基点J到第一基点K连线延伸的方向两侧即为正视差图像。图6所示为戴上3D眼镜看图4中的两个呈夹角的实际图像或轨迹的立体效果,在显示面S内形成3D图像和/或其运动轨迹,实际效果可以是3D物体的一部分在显示面S内,或子弹、飞镖等3D物体向显示面S内移动的运动轨迹。
进一步地,由于用户在握持互动遥控单元1时,眼睛通常在互动遥控单元1上方,为了更真实的效果,需要形成运动轨迹起始于互动遥控单元1上或者其附近的效果。因此,如图7所示,在步骤S4中,以第一基点K为原点做沿显示面S向其底边方向延伸的预置线段L,预置线段L的终点为3D物体模型的第二基点J。预置线段L指向显示面S的底边,才能形成运动轨迹起始于互动遥控单元1附近的效果,更加的逼真。
如图8所示,本发明的第二优选实施例中,显示***包括显示单元、***监控单元2、***信息处理单元3和互动遥控单元1,互动遥控单元1包括信号发射单元11和用于测量到显示面S的距离的测距监控单元12,对应的,互动3D显示***的3D图像生成方法包括以下步骤:
S1、预置所需显示的3D物体模型;
S2、信号发射单元11发射光信号到显示单元的显示面S,优选地,信号发射单元11发射的光信号为红外光信号。***监控单元2识别光信号在显示面S的位置,并传递位置信息给***信息处理单元3;
测距监控单元12检测到显示面S距离N,并传递距离信息给***信息处理单元3;
S3、***信息处理单元3以光信号在显示面S的位置作为3D物体模型的第一基点K;
S4、以第一基点K为原点做向显示面S任何方向延伸的预置线段L,该预置线段L的终点设为3D物体模型的第二基点J;
S5、***信息处理单元3依据第一基点K和第二基点J处理并生成3D物体模型的3D图像和/或其运动轨迹进行,其中,第一基点K对应的3D图像和/或其运动轨迹为零视差3D图像,第二基点J对应的3D图像和/或其运动轨迹为负视差图像,并且,第二基点J的负视差数值之绝对值随步骤S2中的测距数值增减而同方向增减,即测距监控单元12的测距数值越大,第二基点J对应的3D图像的视差数值的绝对值也越大,反之亦然。这是因为,用户距离显示面S越远,测距距离N越长,此时需要图像运动轨迹起始点距离显示面S也越远,从而需要第二基点J更大的负视差数值画面达到表现效果。
如图9所示,为距离显示面S在两个不同距离N、N’时的互动遥控单元1发出光信号分别生成长度相同的预置线段L、预置线段L’的对比示意图。
结合图2、图3所示,预置的3D物体模型的3D图像和/或其运动轨迹从第二基点J位置到第一基点K位置的视差变化趋势为从负视差逐渐递增为零视差,可生成连续的3D图像及其运动轨迹,可在玩游戏时发射子弹、飞镖等3D物体时,戴上3D眼镜看到的是从显示面S向显示面S移动的过程,动作更逼真。当然,在其他实施例中,生成的3D物体模型的3D图像和/或其运动轨迹从第二基点J到第一基点K的视差变化趋势也可为从负视差间断递增到零视差,实现隐现等效果。如图10所示,为互动遥控单元1距离显示面S在距离N时发出光信号生成的预置线段L的第二基点J到第一基点K的视差变化、与距离显示面S在距离N’时发出光信号生成的与预置线段L的长度相同的预置线段L’的第二基点J’到第一基点K’的视差变化的对比示意图。互动遥控单元1距离显示面S的距离越大,第二基点J对应的视差的绝对值越大。如图10中射出点D’到对应的第一基点K’的距离N’长于射出点D到对应的第一基点K的距离N,同样图像自动生成则在第二基点J’的负视差绝对值大于第二基点J的负视差绝对值。戴上3D眼镜看到的的第二基点J’对应的3D视图则也相应的比二基点J更远离显示面S。这样,在互动遥控单元1射出子弹、飞镖等3D物体时,戴上3D眼镜看到第二基点对应的的3D图像和/或其运动轨迹也随互动遥控单元1的远离而远离,让3D效果与互动遥控单元1的位置相对应,效果更加真实。
再如图8所示,在用户拿着互动遥控单元1指向显示面S发射子弹、飞镖等3D物体时,其运动轨迹通常为连续的,戴上3D眼镜看到的是由互动遥控单元1前端的D点向第一基点K移动的运动轨迹,或者为由显示面S外向第一基点K延伸的子弹、飞镖等3D图像,让发射的3D物体更有真实感。
进一步地,结合图5、图6所示,当3D图像和/或其运动轨迹需要有在显示面S内的效果时,预置的3D物体模型的3D图像和/或其运动轨迹经过第一基点K以后为由零变大的正视差图像,戴上3D眼镜看到的则是3D物体的一部分在显示面S内的效果,或子弹、飞镖等3D物体向显示面S内移动的运动轨迹。
具体的,结合图1及图11所示,上述第一优选实施例的带有互动遥控器的互动显示***包括显示单元和互动遥控单元1,还包括***监控单元2、以及***信息处理单元3。
互动遥控单元1包括信号发射单元11;信号发射单元11用于发射光信号到显示单元的显示面S,优选地,信号发射单元11为红外激光发射器111,用以发射红外光。
***监控单元2用于识别光信号在显示面S的位置,并传递给***信息处理单元3,***信息处理单元3以光信号在显示面S的位置作为预置的3D物体模型的第一基点K,并以第一基点K为原点沿显示面S向任意方向延伸形成预置线段L,预置线段L的终点为预置的3D物体模型的第二基点J。***信息处理单元3依据第一基点K和第二基点J处理并生成3D图像和/或其运动轨迹,其中,第一基点K对应的3D图像和/或其运动轨迹为零视差3D图像,第二基点J对应的3D图像和/或其运动轨迹为负视差图像。
结合图8、图12所示,在前述互动显示***的基础上,互动遥控单元1还包括用于检测互动遥控单元1上的D点到显示面S的距离N的测距监控单元12,形成上述第二优选实施例的互动显示***,第二基点J的负视差数值之绝对值随测距数值增减而同方向增减。
在一些实施例中,互动遥控单元1还包括遥控信息处理单元13、通讯单元14、触动单元15,触动单元15控制光信号在显示面S上的位置,通讯单元14用于和显示单元之间进行通讯信号传输,通讯单元14包括2.4G发射模块和/或蓝牙模块。
进一步地,如图12所示,遥控信息处理单元13包括用于计算光信号发出时和返回时的时间差的计时电路单元132和用以调制红外光发射器的信号的调制电路单元131。测距监控单元12包括光电探测器121,可获取光信号返回的时间发送给遥控信息处理单元13的计时电路单元132,进而根据红外光的发出和返回时间差计算到显示面S的距离N。
触动单元15包括按键单元151,通过方向按键或触摸按键控制光信号的位置。触动单元15还包括移动传感器152和/或静电传感器153,可通过互动遥控单元1的动作和移动方向控制光信号的位置。移动传感器152包括加速传感器和/或重力传感器,在其他实施例中,触动单元15也可包括按键单元151、移动传感器152、静电传感器153中的一种或多种的组合。
优选地,互动遥控单元1还包括设置在信号发射单元11的光信号发射方向上的分光棱镜单元16;分光棱镜单元16镀有半反半透性质的膜片。用于透射部分红外光信号到显示面S,并反射部分红外光信号到测距监控单元12用于光信号起始时间的采集。在其他实施例中,光信号的起始时间也可由***自动识别。
在红外光经过分光棱镜单元16时,一路光经膜片反射到测距监控单元12上,将光线信息反馈给遥控信息处理单元13,得出发出的时间;另外一路光穿透射向显示面S,再反射到测距监控单元12,得出返回的时间。信息处理单元13由每束光到达的时间差计算红外光线由射出点到显示面S的长度,从而计算出互动遥控单元1到显示面S的距离N信息。
如图13所示,在其他实施例中,测距监控单元12也可包括用于采集红外光信号的发射和返回的CMOS传感器122,红外光的发出时间可以利用***设定,在发射光信号时***及时记录,得出发出时间,反馈给遥控信息处理单元13。红外光发射到显示面S后产生反射,被CMOS单元122捕捉到返回的红外光信号,得出返回到测距监控单元12的时间,反馈给遥控信息处理单元13,让遥控信息处理单元13根据时间差得出红外光线经过的路线长度,从而得出互动遥控单元1相对显示面的距离信息。当然,光电探测器121、CMOS单元122也可同时设置。
可以理解地,上述各技术特征可以任意组合使用而不受限制。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (18)

1.一种互动3D显示***的3D图像生成方法,其特征在于,所述显示***包括显示单元、***监控单元(2)、***信息处理单元(3)和互动遥控单元(1),所述互动遥控单元(1)包括信号发射单元(11),所述3D图像生成方法包括以下步骤:
S1、预置所需显示的3D物体模型;
S2、所述信号发射单元(11)发射光信号到所述显示单元的显示面(S),所述***监控单元(2)识别所述光信号在显示面(S)的位置,并传递位置信息给所述***信息处理单元(3);
S3、所述***信息处理单元(3)以所述光信号在显示面(S)的位置作为所述3D物体模型的第一基点(K);
S4、以所述第一基点(K)为原点做沿所述显示面(S)向任意方向延伸的预置线段(L),所述预置线段(L)的终点为3D物体模型的第二基点(J);
S5、所述***信息处理单元(3)依据所述第一基点(K)和第二基点(J)处理并生成所述3D物体模型的3D图像和/或其运动轨迹,其中,所述第一基点(K)对应的3D图像和/或其运动轨迹为零视差3D图像,所述第二基点(J)对应的3D图像和/或其运动轨迹为负视差图像;
生成的所述3D物体模型的3D图像和/或其运动轨迹从所述第二基点(J)到第一基点(K)的视差变化趋势为从负视差逐渐递增为零视差。
2.根据权利要求1所述的互动3D显示***的3D图像生成方法,其特征在于,生成的所述3D物体模型的3D图像和/或其运动轨迹从所述第二基点(J)向所述第一基点(K)方向经过所述第一基点(K)以后为由零变大的正视差图像。
3.根据权利要求1所述的互动3D显示***的3D图像生成方法,其特征在于,所述信号发射单元(11)发射的光信号为红外光信号。
4.根据权利要求1至3任一项所述的互动3D显示***的3D图像生成方法,其特征在于,所述步骤S4中:
以所述第一基点(K)为原点做沿所述显示面(S)向其底边方向延伸的预置线段(L),所述预置线段(L)的终点为3D物体模型的第二基点(J)。
5.一种互动3D显示***的3D图像生成方法,其特征在于,所述显示***包括显示单元、***监控单元(2)、***信息处理单元(3)和互动遥控单元(1),其特征在于,所述互动遥控单元(1)包括信号发射单元(11)和用于测量到所述显示单元的显示面(S)的距离的测距监控单元(12),所述3D图像生成方法包括以下步骤:
S1、预置所需显示的3D物体模型;
S2、所述信号发射单元(11)发射光信号到所述显示单元的显示面(S);所述***监控单元(2)识别所述光信号在显示面(S)的位置,并传递位置信息给所述***信息处理单元(3);
所述测距监控单元(12)检测到所述显示面(S)距离,并传递所述距离信息给所述***信息处理单元(3);
S3、所述***信息处理单元(3)以所述光信号在显示面(S)的位置作为所述3D物体模型的第一基点(K);
S4、以所述第一基点(K)为原点做向所述显示面(S)任何方向延伸的预置线段(L),该预置线段(L)的终点设为3D物体模型的第二基点(J);
S5、***信息处理单元(3)依据所述第一基点(K)和第二基点(J)处理并生成所述3D物体模型的3D图像和/或其运动轨迹进行,其中,所述第一基点(K)对应的3D图像和/或其运动轨迹为零视差3D图像,所述第二基点(J)对应的3D图像和/或其运动轨迹为负视差图像,并且,所述第二基点(J)的负视差数值之绝对值随步骤S2中的测距数值增减而同方向增减;
所述预置的3D物体模型的3D图像和/或其运动轨迹从所述第二基点(J)位置到所述第一基点(K)位置的视差变化趋势为从负视差逐渐递增为零视差。
6.根据权利要求5所述的互动3D显示***的3D图像生成方法,其特征在于,所述信号发射单元(11)发射的光信号为红外光信号。
7.根据权利要求5所述的互动3D显示***的3D图像生成方法,其特征在于,所述预置的3D物体模型的3D图像和/或其运动轨迹从所述第二基点(J)向所述第一基点(K)方向经过第一基点(K)以后为由零变大的正视差图像。
8.一种互动3D显示***,包括显示单元和互动遥控单元(1),其特征在于,还包括***监控单元(2)、以及***信息处理单元(3);
所述互动遥控单元(1)包括信号发射单元(11);
所述信号发射单元(11)用于发射光信号到所述显示单元的显示面(S);
所述***监控单元(2)用于识别所述光信号在显示面(S)的位置,并传递给所述***信息处理单元(3),
所述***信息处理单元(3)以所述光信号在显示面(S)的位置作为预置的3D物体模型的第一基点(K),并以所述第一基点(K)为原点沿所述显示面(S)向任意方向延伸形成预置线段(L),所述预置线段(L)的终点为预置的3D物体模型的第二基点(J);
所述***信息处理单元(3)依据所述第一基点(K)和第二基点(J)处理并生成所述3D物体模型的3D图像和/或其运动轨迹,其中,所述第一基点(K)对应的3D图像和/或其运动轨迹为零视差3D图像,所述第二基点(J)对应的3D图像和/或其运动轨迹为负视差图像;
所述预置的3D物体模型的3D图像和/或其运动轨迹从所述第二基点(J)位置到所述第一基点(K)位置的视差变化趋势为从负视差逐渐递增为零视差。
9.根据权利要求8所述的互动3D显示***,其特征在于,所述信号发射单元(11)为红外激光发射器(111)。
10.根据权利要求8所述的互动3D显示***,其特征在于,所述互动遥控单元(1)还包括用于检测到所述显示面(S)的距离的测距监控单元(12),所述第二基点(J)的负视差数值之绝对值随测距数值增减而同方向增减。
11.根据权利要求10所述的互动3D显示***,其特征在于,所述测距监控单元(12)包括光电探测器(121)和/或CMOS传感器(122)。
12.根据权利要求8至11任一项所述的互动3D显示***,其特征在于,所述互动遥控单元(1)还包括控制所述光信号在显示面(S)上的位置的触动单元(15)。
13.根据权利要求12所述的互动3D显示***,其特征在于,所述触动单元(15)包括按键单元(151)。
14.根据权利要求12所述的互动3D显示***,其特征在于,所述触动单元(15)还包括移动传感器(152)和/或静电传感器(153)。
15.根据权利要求14所述的互动3D显示***,其特征在于,所述移动传感器(152)包括加速传感器和/或重力传感器。
16.根据权利要求8至11任一项所述的互动3D显示***,其特征在于,所述互动遥控单元(1)包括遥控信息处理单元(13),所述遥控信息处理单元(13)包括用于计算光信号发出时和返回时的时间差的计时电路单元(132)和用以调制多个红外光发射器的信号的调制电路单元(131)。
17.根据权利要求8至11任一项所述的互动3D显示***,其特征在于,所述互动遥控单元(1)还包括用于和所述显示单元进行信息传输的通讯单元(14),所述通讯单元(14)包括2.4G发射模块和/或蓝牙模块。
18.根据权利要求8至11任一项所述的互动3D显示***,其特征在于,所述互动遥控单元(1)还包括设置在所述信号发射单元(11)的光信号发射方向上的分光棱镜单元(16);所述分光棱镜单元(16)镀有半反半透性质的膜片。
CN201610053242.6A 2016-01-26 2016-01-26 互动3d显示***及其3d图像生成方法 Active CN105578174B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610053242.6A CN105578174B (zh) 2016-01-26 2016-01-26 互动3d显示***及其3d图像生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610053242.6A CN105578174B (zh) 2016-01-26 2016-01-26 互动3d显示***及其3d图像生成方法

Publications (2)

Publication Number Publication Date
CN105578174A CN105578174A (zh) 2016-05-11
CN105578174B true CN105578174B (zh) 2018-08-24

Family

ID=55887772

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610053242.6A Active CN105578174B (zh) 2016-01-26 2016-01-26 互动3d显示***及其3d图像生成方法

Country Status (1)

Country Link
CN (1) CN105578174B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101986243A (zh) * 2010-11-05 2011-03-16 友达光电股份有限公司 立体影像互动***及其位置偏移补偿方法
CN102508562A (zh) * 2011-11-03 2012-06-20 深圳超多维光电子有限公司 一种立体交互***
CN102789313A (zh) * 2012-03-19 2012-11-21 乾行讯科(北京)科技有限公司 一种用户交互***和方法
CN103995584A (zh) * 2014-04-29 2014-08-20 深圳超多维光电子有限公司 立体交互方法及其显示装置、操作棒和***
CN105182662A (zh) * 2015-09-28 2015-12-23 神画科技(深圳)有限公司 具有增强现实效果的投影方法及***
CN105245866A (zh) * 2015-09-28 2016-01-13 神画科技(深圳)有限公司 一种显示***及其显示方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4012136B2 (ja) * 2003-10-21 2007-11-21 日本電信電話株式会社 三次元表示装置
JP2013102254A (ja) * 2010-03-10 2013-05-23 Panasonic Corp 立体映像表示装置およびその視差量調整方法
KR20140049277A (ko) * 2012-10-17 2014-04-25 엘지디스플레이 주식회사 편광안경 방식의 입체영상 표시장치와 그 구동방법
CN102935288B (zh) * 2012-10-31 2015-04-22 深圳市德力信科技有限公司 一种人机互动游戏实现装置及方法
CN103744600A (zh) * 2014-01-17 2014-04-23 广州市久邦数码科技有限公司 一种3d动态壁纸与桌面图标之间交互的方法及***

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101986243A (zh) * 2010-11-05 2011-03-16 友达光电股份有限公司 立体影像互动***及其位置偏移补偿方法
CN102508562A (zh) * 2011-11-03 2012-06-20 深圳超多维光电子有限公司 一种立体交互***
CN102789313A (zh) * 2012-03-19 2012-11-21 乾行讯科(北京)科技有限公司 一种用户交互***和方法
CN103995584A (zh) * 2014-04-29 2014-08-20 深圳超多维光电子有限公司 立体交互方法及其显示装置、操作棒和***
CN105182662A (zh) * 2015-09-28 2015-12-23 神画科技(深圳)有限公司 具有增强现实效果的投影方法及***
CN105245866A (zh) * 2015-09-28 2016-01-13 神画科技(深圳)有限公司 一种显示***及其显示方法

Also Published As

Publication number Publication date
CN105578174A (zh) 2016-05-11

Similar Documents

Publication Publication Date Title
US9892563B2 (en) System and method for generating a mixed reality environment
US20170221273A1 (en) Calibration of virtual image displays
US9132342B2 (en) Dynamic environment and location based augmented reality (AR) systems
US20190318501A1 (en) Tracking pose of handheld object
KR100812624B1 (ko) 입체영상 기반 가상현실장치
KR101902283B1 (ko) 물체의 3차원 정보 획득을 위한 카메라 센싱 장치 및 이를 이용한 가상 골프 시뮬레이션 장치
US11521366B2 (en) Marker-based tracking apparatus and method
CN104380347A (zh) 视频处理设备、视频处理方法和视频处理***
CN103732299A (zh) 利用虚拟触摸的三维装置及三维游戏装置
KR20190078475A (ko) 가상 환경 제어 시스템
US20190304191A1 (en) Systems and methods to augment an appearance of physical object for an augmented reality experience
WO2018104732A1 (en) Head mounted display with user head rotation guidance
CN105578174B (zh) 互动3d显示***及其3d图像生成方法
EP3729235B1 (en) Data processing
US20180267601A1 (en) Light Projection for Guiding a User within a Physical User Area During Virtual Reality Operations
KR102185322B1 (ko) 적외선 스테레오 카메라를 이용한 위치 검출 시스템
KR101770188B1 (ko) 혼합 현실 체험 공간 제공 방법 및 시스템
EP3673348B1 (en) Data processing device, method and non-transitory machine-readable medium for detecting motion of the data processing device
US10902617B2 (en) Data processing for position detection using optically detectable indicators
US20220230357A1 (en) Data processing
CN105717487A (zh) 三维空间定位传感器及互动显示***和3d图像生成方法
CN109917904A (zh) 虚拟现实或增强现实环境中对象的空间位置计算***
WO2017128047A1 (zh) 互动3d显示***及其3d图像生成方法
WO2017128046A1 (zh) 三维空间定位传感器及互动显示***和3d图像生成方法
CN105204609A (zh) 深度摄影机***

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210918

Address after: 518118 east of 6th floor, No.1 Factory building, No.35 Cuijing Road, Pingshan New District, Shenzhen City, Guangdong Province

Patentee after: BUTTERFLY TECHNOLOGY (SHENZHEN) Ltd.

Address before: 518118 west of 6 / F, No.1 Factory building, 35 Cuijing Road, Pingshan New District, Shenzhen City, Guangdong Province

Patentee before: CINEPIC TECHNOLOGY (SHENZHEN) Ltd.

TR01 Transfer of patent right