CN103732299A - 利用虚拟触摸的三维装置及三维游戏装置 - Google Patents

利用虚拟触摸的三维装置及三维游戏装置 Download PDF

Info

Publication number
CN103732299A
CN103732299A CN201280038965.9A CN201280038965A CN103732299A CN 103732299 A CN103732299 A CN 103732299A CN 201280038965 A CN201280038965 A CN 201280038965A CN 103732299 A CN103732299 A CN 103732299A
Authority
CN
China
Prior art keywords
mentioned
user
image
virtual touch
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201280038965.9A
Other languages
English (en)
Other versions
CN103732299B (zh
Inventor
金石中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vtouch Co Ltd
Original Assignee
Vtouch Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vtouch Co Ltd filed Critical Vtouch Co Ltd
Publication of CN103732299A publication Critical patent/CN103732299A/zh
Application granted granted Critical
Publication of CN103732299B publication Critical patent/CN103732299B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/219Input arrangements for video game devices characterised by their sensors, purposes or types for aiming at specific areas on the display, e.g. light-guns
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/33Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections
    • A63F13/335Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections using Internet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明是在利用虚拟触摸技术的游戏中,通过计算出使用者所看到的三维立体影像与使用者特定支点的三维空间坐标,达到三维立体影像与使用者特定支点的接点或是接近点,并通过此接点或接近点更加准确地操作虚拟的三维立体影像以此方式来玩游戏的利用三维虚拟触摸的三维游戏装置,包含了对事先储存在游戏DB中的三维立体游戏进行描绘,根据描绘好的三维游戏生成立体影像并提供给显示部的三维游戏执行部,及使用者特定支点的空间坐标数据及在上述显示部中提供的三维立体影像分别在使用者的观点中生成影像坐标数据,生成的空间坐标数据与影像坐标数据比较,确定使用者特定支点在三维立体影像上的接点或是接近点后识别为触摸三维立体影像的虚拟触摸部构成的。

Description

利用虚拟触摸的三维装置及三维游戏装置
技术领域
本发明是关于三维游戏装置及方法的,特别是,三维立体影像的影像坐标与使用者特定支点的接点或其附近,通过更为精密的操作虚拟三维立体影像的方法来显示游戏的、利用虚拟触摸的三维装置及三维游戏装置。
背景技术
人有两只眼睛(左眼,右眼),由于双眼眼睛的位置不同,在右眼视网膜上成的像和在左眼视网膜上成的像是不一样的。但是,进入视野的各个事物会由于与看事物之人之间的距离不同,在左右眼上成像的位置也不同。即,与事物离得越近,两只眼成的像也越不同;反面来说,与事物离得越远,两只眼所成的像的差异也越来越小。这样,就可以复原因为左右两只眼成像的差异距离所造成的距离的信息,由此感觉到立体感。应用这种原理,因为在两只眼上可看到各自不同的影像,因此可实现立体影像。
这种方法已被利用于三维影像,三维游戏,三维电影等。三维游戏也确实是使两只眼看到各自不同的影像,通过实现三维影像来完成的游戏。
但是,由于现在的显示屏不是专用的三维立体影像显示屏装置而是一般的显示屏装置,其只有在固定的视点才能感觉到立体感,因此就会带来随着使用者的移动画质会变差的问题。
为了解决此类问题,和使用者所处位置无关,能够看到显示屏装置所显示的立体影像的立体眼镜开始了,到目前为止,开发了针对立体影像,立体游戏的立体显示屏装置(显示器),随着三维立体影像的脚步在快速移动。
但是,此类通过左眼和右眼的视觉差看到三维立体影像,产生错觉的类似全息图之类的三维立体影像实现技术,由于其并没有直接制造出真实的三维立体影像,因此在使用者的观点上向左眼和右眼提供不同的视角,从而提供符合使用者观点的三维立体影像。
由此,三维立体影像的深度(远近感)会随着屏幕与使用者之间距离的不同而具有不同的数值,即使是相同的影像,在近距离观看画面时会感觉到深度较浅,但是从远距离观察时就会感觉到深度较深。这就意味着,影像深度会随着使用者与屏幕之间距离的增加而增加。另外,不仅仅是使用者与屏幕之间的距离,随着使用者位置的不同,三维立体影像的深度(远近感)及像的位置值也会不同,这意味着,根据从虚拟三维立体屏幕前方、侧方所观察到的来排列的三维影像的位置也是有变化的。
此类现象发生的原因在于,并不是在某一地方有三维立体影像,而是在使用者的观点上制造出三维立体影像。
类似的,由于准确计算出随着使用者观点变化而变化的是很困难的,因此像三维游戏,大部分就只能提供一些简单的三维立体影像,而操作则是通过外部的输入装置完成的;最近研究开发的、利用虚拟触摸技术的三维游戏也以相同的理由,只有使用者简单地活动时,才能适用于游戏并开始玩游戏。由此,像利用虚拟触摸技术的三维游戏的情况,其并不是通过三维立体影像与使用者的活动结合的方式而是以相互独立的方式完成的。
由此,三维游戏的玩家,即使去触摸自己所看到的三维立体影像时,也会由于与屏幕之间的距离及位置,不能完成触摸,或是做出意想不到的动作等,根本不能玩到更为真实、精密的三维游戏。
发明内容
(技术上的问题)
本发明是为了解决上述问题而提出的,其目的在于提供一种利用虚拟触摸的三维游戏装置,此装置:在利用虚拟触摸技术的游戏中,通过计算出使用者所看到的三维立体影像与使用者特定支点的三维空间坐标,达到三维立体影像与使用者特定支点的接点或是接近点,并通过此接点或接近点更加准确地操作虚拟的三维立体影像,以此方式来玩游戏。
本发明的另一目是为了提供利用虚拟触摸的三维游戏装置,此装置:在分别计算出使用者特定支点的空间坐标和使用者所看到的三维立体影像的坐标后,当计算出的影像坐标与使用者特定支点相近时,可识别为触摸三维立体影像。
本发明的另一目是为了提供利用虚拟触摸的三维游戏装置,此装置:通过计算出使用者所看到的三维立体影像与使用者特定支点的三维空间坐标,达到三维立体影像与使用者特定支点的接点或是接近点时,可识别为触摸三维立体影像。
(课题的解决手段)
为了达成上述目的,根据本发明的利用虚拟触摸的三维游戏装置的特征为其构造包含了:对事先储存在游戏DB中的三维立体游戏进行描绘,根据描绘好的三维游戏生成立体影像并提供给显示部的三维游戏执行部,及使用者特定支点的空间坐标数据及在上述显示部中提供的三维立体影像分别在使用者的观点中生成影像坐标数据,生成的空间坐标数据与影像坐标数据比较,确定使用者特定支点在三维立体影像上的接点或是接近点后识别为触摸三维立体影像的虚拟触摸部。
上述使用者的特定支点最好是以包含指尖、拳头、手掌、脸、嘴、头、脚、臀部、肩膀、膝盖为特征的。
上述三维游戏执行部最好是以包含:对事先储存在游戏DB中的三维立体游戏进行描绘并使其执行的描绘驱动部;及为了根据上述描绘好的三维游戏,在显示部生成立体画面,考虑过显示部与使用者间的距离及位置(主视角)后,立即描绘并生成在双眼中形成的图像的实时双眼描绘部;及把上述实时双眼描绘部中生成的图像压缩或复原的立体影像解码部;及使上述立体影像解码部中被压缩或复原好的图像数据生成适合显示部显示方式的三维立体影像,并通过显示部显示的立体影像表现部为特征的。
上述虚拟触摸部最好以包含:作为包含了两个以上图像遥感器的摄影模具,检测出显示部前方的影像后使其转换为电子图像信号的影像获得部;及利用从上述影像获得部中收到的影像,按照使用者观点中的三维立体影像,分别生成影像坐标数据及使用者特定支点的第1,2空间坐标数据的空间坐标计算部;及计算出连接从上述空间坐标计算部中收到的使用者特定支点的第1,2空间坐标的直线与上述影像坐标相交的接点坐标数据的触摸位置计算部;及判断在上述空间坐标计算部中生成的第1空间坐标与上述触摸位置计算部中计算出的接点坐标数据是否相接或是相近,相接或是接近未超过事先设定好的设定距离的话,则生成按照触摸识别并实行的指令码,提供触摸三维立体影像识别的虚拟触摸计算部为特征的。
上述空间坐标计算部最好是以:拍摄好的影像,利用光学三角测量法,计算出上述使用者特定支点的空间坐标数据为特征的。
上述计算好的空间坐标最好是以包含:为了使用者触摸到三维立体影像的、用于检测使用者活动的第1空间坐标,以及按照立体影像与活动的第1空间坐标数据之间,成为基准值的第2空间坐标数据为特征的。
上述空间坐标计算部最好是以:根据显示部与使用者间的距离及位置,搜索并检测到事先定义并储存好的使用者观点的影像坐标数据为特征的。
上述第2空间坐标最好是以:使用者某一只眼的中心点坐标为特征的。
上述虚拟触摸部最好是以包含:包含光源和散光器,把散斑图投影在使用者特定支点上的照明组件,及包含图像传感器和凸镜的、用来捕捉通过上述照明组件投影在上述使用者上的散斑图的影像获得部,;及利用从上述影像获得部中获得的影像,按照使用者观点中的三维立体影像,分别生成影像坐标数据及使用者特定支点的第1,2空间坐标数据的空间坐标计算部;及计算出连接从上述空间坐标计算部中收到的使用者特定支点的第1,2空间坐标的直线与上述影像坐标相交的接点坐标数据的触摸位置计算部;及判断在上述空间坐标计算部中生成的第1空间坐标与上述触摸位置计算部中计算出的接点坐标数据是否相接或是相近,相接或是接近未超过事先设定好的设定距离的话,则生成按照触摸识别并实行的指令码,提供触摸三维立体影像识别的虚拟触摸计算部为特征的。
上述空间坐标计算部最好以:利用时间迟延测定法(time of flight)来计算上述使用者特定支点的空间坐标数据为特征的。
上述影像获得部最好是以:使用CCD或是CMOS基础的图像传感器为特征的。
上述虚拟触摸部最好是以:在包含了显示部的电子设备框架上端***并设置,或是与电子设备分别分离设置为特征的。
为了达成上述目的,根据本发明的利用虚拟触摸的三维状的特征为:对从外部输入的3D立体影像进行描绘,根据描绘好的三维立体影像数据生成三维立体影像并提供给显示部的三维执行部,及使用者特定支点的空间坐标数据,及在上述显示部中提供的三维立体影像分别在使用者的观点中生成影像坐标数据,生成的空间坐标数据与影像坐标数据比较,确定使用者特定支点在三维立体影像上的接点或是接近点后识别为触摸三维立体影像的虚拟触摸部。
上述三维执行部最好是以包含:接收从外部输入的3D立体影像数据的接收部;及从接收部接收到的三维立体影像数据进行描绘并使其执行的描绘驱动部;及为了根据上述描绘好的三维游戏,在显示部生成立体画面,考虑过显示部与使用者间的距离及位置(主视角)后,立即描绘并生成在双眼中形成的图像的实时双眼描绘部;及把上述实时双眼描绘部中生成的图像压缩或复原的立体影像解码部;及使上述立体影像解码部中被压缩或复原好的图像数据生成适合显示部显示方式的三维立体影像,并通过显示部显示的立体影像表现部为特征的。
上述接收部的外部最好是以包含:由广播提供的三维广播频率的输入,及通过互联网提供的数据输入,及由内外部储存装置储存的数据输入为特征的。
(发明效果)
如上所述,根据本发明的利用虚拟触摸的三维游戏装置时通过使用者所看到的三维立体影像与使用者特定支点的空间坐标值,使使用者能够更为准确地操作虚拟三维立体影像,在利用虚拟触摸的三维游戏中,可提供更为真实的、具有现实感的三维游戏。另外,通过使用者的活动与使用者所看到的三维立体影像精密地配合,可适用于要求使用者有微小动作的多种三维游戏。
而且,不仅仅是三维游戏,由显示部提供的三维立体影像,可通过使用者特定支点的空间坐标值提供虚拟触摸,上述三维立体影像执行过与虚拟触摸相对应的的变化后,就能够适用于多种多样的应用技术当中。
附图说明
图1图示的是根据本发明第1实施例的利用虚拟触摸的三维游戏装置的结构图。
图2及图3图示的是用来解释根据本发明实施例的在利用虚拟触摸的三维游戏装置中,识别使用者所看到的三维立体影像的触摸的图面。
图4图示的是用来解释根据本发明第2实施例的利用虚拟触摸的三维游戏装置的结构图。
图5及图6图示的是用来解释根据本发明实施例的在利用虚拟触摸的三维游戏装置中,识别使用者所看到的三维立体影像的触摸的图面。
图7图示的是根据本发明第3实施例的利用虚拟触摸的三维游戏装置的结构图。
发明实施的最新形态
更为清楚地了解本发明的其他目的、特性及优点,可以通过详细地讲解附加了图片的参考实施例。
关于本发明的利用虚拟触摸的三维游戏装置及3D游戏装置的理想实施例,将参考附加图片进行一下的解释说明。但是,本发明并不仅限于以下所揭示的实施例,而是能够表现出多种相互不同的形态,只要本实施例能够完整地展示本发明,则具有一般常识的读者将能够完整地理解发明的范围而提供的。并且本说明书中记载的实施例与图面中图示的构成不过是本发明的最理想化的一种实施例,并不能代表本发明所有的技术性思想,因此在此申请阶段中可有能够代替它们的多种相同物和变形例。
第1实施例
图1图示的是根据本发明第1实施例的利用虚拟触摸的三维游戏装置的结构图。
参考图1,利用虚拟触摸的三维游戏装置由把事先储存在游戏DB(300)中的三维立体游戏进行描绘,根据描绘好的三维游戏生成立体影像并提供给显示部(400)的三维游戏执行部(100),及使用者特定支点(指尖、拳头、手掌、脸、嘴、头、脚、臀部、肩膀、膝盖)的空间坐标数据(以下统称为空间坐标数据),及在上述显示部(400)中提供的三维立体影像分别在使用者的观点(以下统称为使用者观点)中生成影像坐标数据,生成的空间坐标数据与影像坐标数据比较,确定使用者特定支点在三维立体影像上的接点或是接近点后识别为触摸三维立体影像的虚拟触摸部(200)构成。
这时,上述三维游戏执行部(100)包含描绘驱动部(110),实时双眼描绘部(120),立体影像解码部(130)和立体影像表现部(140)。
上述描绘驱动部(110)对事先储存在游戏DB中的三维立体游戏进行描绘并使其执行。
上述实时双眼描绘部(120)为了根据上述描绘好的三维游戏,在显示部(400)生成立体画面,在考虑过显示部(400)与使用者间的距离及位置(主视角)等后,立即描绘并生成在双眼中形成的图像。
上述立体影像解码部把上述实时双眼描绘部(120)中生成的图像压缩或复原后提供给立体影像表现部(140)。
上述立体影像表现部(140)使上述立体影像解码部(130)中被压缩或复原好的图像数据生成适合显示部(400)显示方式的三维立体影像,并通过显示部(400)来显示。这时,上述显示部(400)的显示方式最好为视差屏障(Parallax barrier)方式。视差屏障方式是通过在左右眼中所成的L,R画像前面的纵向方格模样的开口(Aperture)AG,来观察图像分离的方式。
另外,上述虚拟触摸部(200)包含了影像获得部(210),空间坐标计算部(220),触摸位置计算部(230)和虚拟触摸计算部(240)。
上述影像获得部(210),作为一种摄像机组件,可包含两个以上的把在显示部(400)前方检测到的影像转换为电子图像信号的、类似CCD或是CMOS的图像遥感器(211,212)。
上述空间坐标计算部(220)利用从上述影像获得部(210)中收到的影像,按照使用者观点中的三维立体影像,分别生成影像坐标数据及使用者特定支点(指尖、拳头、手掌、脸、嘴、头、脚、臀部、肩膀、膝盖)的第1,2空间坐标数据。
这时,上述使用者特定支点的空间坐标通过构成影像获得部(210)的图像传感器(211,212),从各自不同的角度拍摄使用者特定支点,然后空间坐标计算部(220)利用手动的光学三角法计算出使用者特定支点的三维坐标数据。
这时,计算出的空间坐标数据可包含为了使用者能够触摸到三维立体影像、用于检测使用者活动的第1空间坐标,以及按照立体影像与活动的第1空间坐标数据之间,成为基准值的第2空间坐标数据为特征的。
另外,上述三维立体影像的影像坐标数据,按照上述方法从不同角度拍摄好的使用者的左、右眼,利用光学三角法计算出使用者左右眼的空间坐标数据,由此计算出显示部(400)与使用者间的距离及位置(主视角)。而且,根据显示部与使用者间的距离及位置,可搜索并检测到事先定义并储存好的使用者观点的影像坐标数据。
相同地,利用通过影像获得部(210)收到的影像,只生成空间坐标的话,就可以轻松地检测出使用者观点的影像坐标。当然,根据显示部(400)与使用者之间的距离及位置,使用者观点的影像坐标数据必须事先定义好才行。
那么,以下将对空间坐标计算方法的相关内容进行更为详细的讲解。
一般来说,光学式三维坐标计算方法可根据传感方法分为能动方式和手动方式。能动方式是事先定义好的模式或声波等投射在物体上后,通过控制其能量或是焦点等的传感参数来测定变化量,作为计算物体三维坐标数据的方法,代表方式是利用构造光或是激光。与此相比,手动方式是人为的,在不向物体中投射能量的状态下,利用拍摄的影像的明暗(intensity),视差(parallax)等的方式。
本发明中采用的是不向事物投射能量的手动方式,此方式与能动方式相比,精密度多少会有些下降,但是具备了装备方便、可从输入影像中直接获得质感的优点。
在手动方式中,光学三角测量法可适用于与拍摄的影像相对应的特定点并获得三维信息。应用三角法计算出三维坐标的各种关联方法,经常被采用的有摄像机自标定(camara self calibration)法,Harris的角点检测法,SIFT法,RANSAC法,Tsai法等。特别是,作为计算出三维坐标数据的方法,也可使用立体摄像机法。立体摄像机法是指人通过两只眼睛看事物,得到变位的两眼立体时的构造相统一,从两个不同点中观测物体表面的同一点,根据这一点的预想角中寻求距离的方法。上述提及到的各种三维坐标计算法,只要是本法明所属技术领域的从业者很容易就明白并能够具体体现,因此省略不提。另一方面,利用二维图像计算出三维坐标数据的方法及其关联专利文献有国内公开专利第10-0021803号,第10-2004-0004135号,第10-2007-0066382号,第10-2007-0117877号等大量存在。
上述触摸位置计算部(230)计算出连接从上述空间坐标计算部中收到的使用者特定支点的第1,2空间坐标的直线与上述影像坐标相交的接点坐标数据。一般来说,像三维游戏,根据游戏种类的不同,使用者用来活动的特定支点也相互不同。例如,在拳击及格斗等游戏中,用来活动的特定支点就是拳头及脚;在头顶球游戏中,用来活动的特定之间就是头。由此,在本发明中,作为第1空间坐标使用的特定支点必须按照所执行的三维游戏相互不同地设定。
另外,按照这个思路,代替上述执行第1空间坐标作用的使用者的特定支点,可使用由手指握住的指示器(例如,安全网)。当使用此类指示器时,可应用于多种多样的三维游戏。
另外,本发明中,当计算作为基准值被利用的第2空间坐标时,只利用使用者一只眼睛的中心点。例如,若在使用者双眼前伸出食指看的话,将看到两个食指。这是由于使用者双眼看到的食指形象是不一样才会发生此类现象(由双眼的角度差引起)。但是,若只用其中一只眼去看食指的话就能够清楚地看到食指。另外即使硬撑着不闭上另一只眼,但是意识上只用一边的眼去看的话,也能看到清楚的食指。这与射击、射箭等有需要瞄准的、要求高度准确性的运动项目中,大部分一侧眼睛闭上瞄准的原理是一样的。
在本发明中,仅用一只眼去看第1空间坐标,方可准确掌握手指指尖形态的原理这一原理将被使用。同样的,使用者只有正确地看见第1空间坐标才能指出与第1空间坐标相一致的、立体坐标的三维立体影像。
在本发明中,一名使用者用来活动的特定支点仅有一个(一只手)时,第1空间坐标就是使用者手指的指尖,上述使用者用手握住的指示器尖端是坐标,第2空间坐标是使用者某一只眼睛中心点的三维坐标。
另外,一名使用者用来活动的特定支点有两个以上时(两只手,两只脚)时,上述第1空间坐标是根据上述使用者特定支点中两一个以上的两手或两脚的指尖的坐标,上述第2空间坐标可按照上述两个以上的使用者的某一只眼睛中心点的坐标形成。
另外,两名以上使用者使用时,第1空间坐标根据是两名以上的使用者各自的一个以上特定支点尖端的坐标,第2空间坐标可由两名以上使用者们某一只眼睛中线点的坐标形成。
上述虚拟触摸处理部(240)判断在上述空间坐标计算部(220)中生成的第1空间坐标与上述触摸位置计算部(230)中计算出的接点坐标数据是否相接或是相近,相接或是接近未超过事先设定好的设定距离的话,则生成按照触摸识别并实行的指令码,提供识别为触摸三维立体影像。虚拟触摸处理部(240)无论是对待1名使用者的两个特定支点,还是两名以上使用者都以相同的方式处理。
根据本发明的虚拟触摸部(200)可在包含了显示部(400)的电子设备框架的上端***设置,也可以与电子设备分别分离设置。
图2及图3图示的是用来解释根据本发明实施例的在利用虚拟触摸的三维游戏装置中,识别使用者所看到的三维立体影像的触摸的图面。
如图所示,通过三维游戏执行部(100),三维游戏开始并生成了按照三维游戏的三维立体影像,使用者可以一边通过一只眼睛看使用者的特定支点,一边触摸呈现给使用者的三维立体影像。
这时,在空间坐标计算部(220)生成使用者特定支点的三维空间坐标,触摸位置计算部(230)可计算出特定支点的第1空间坐标数据(X1,Y1,Z1)与一只眼的中心点的第2空间坐标数据(X2,Y2,Z2)向连接的直线与立体坐标数据相交的接点坐标数据。
虚拟触摸处理部(240)判断在上述空间坐标计算部(220)中生成的第1空间坐标与上述触摸位置计算部(230)中计算出的接点坐标数据是否相接或是相近,相接或是接近未超过事先设定好的设定距离的话,则识别为触摸三维立体影像。
第2实施例
参考图4,利用虚拟触摸的三维游戏装置由把事先储存在游戏DB(300)中的三维立体游戏进行描绘,根据描绘好的三维游戏生成立体影像并提供给显示部(400)的三维游戏执行部(100),及使用者特定支点(指尖、拳头、手掌、脸、嘴、头、脚、臀部、肩膀、膝盖)的空间坐标数据(以下统称为空间坐标数据),及在上述显示部(400)中提供的三维立体影像分别在使用者的观点(以下统称为使用者观点)中生成影像坐标数据,生成的空间坐标数据与影像坐标数据比较,确定使用者特定支点在三维立体影像上的接点或是接近点后识别为触摸三维立体影像的虚拟触摸部(500)构成。
这时,上述三维游戏执行部(100)包含描绘驱动部(110),实时双眼描绘部(120),立体影像解码部(130)和立体影像表现部(140)。由于各个构成部的说明已在第1实施例中进行解释,因此将省略相关说明。
另外,上述虚拟触摸部(500)包含了计算使用者身体三维坐标数据的三维坐标计算装置(510)及控制部(520)。
上述三维坐标计算装置(510)根据现存公开的各种三维坐标计算方法来使用者特定支点的空间坐标。这种空间坐标计算的代表方法由光学三角测量法,时间迟延测定法,构造光技术等。利用构造光的能动方式获得三维信息的方法是:使用软件连续性地投影编码化的模式影像,通过摄像机获得构造光投影出的场面的影像来退订三维位置的方法。
另外,使用时间迟延测定法计算三维坐标的方法是发信机发生的超音波通过物体反射后把到达收信机的时间差(Time of Flight)按超音波进行的速度分开后换算成距离后获得3D的信息。使用时间迟延测定法(Time ofFlight)是以三维坐标的计算为基准多样的存在,因为本发明对于技术性领域的从业者是能够容易的实现所以此部分将省略说明。
另外,根据本发明的三维坐标计算装置(510)包含了照明组件(511),影像获得部(512),空间坐标计算部(513)构成,上述照明组件(511)包含了光源(511a)和散光器(511b),向使用者身上投射散斑图。上述影像获得部(512)由图像传感器(512a)和凸镜(512b)构成,捕捉通过上述照明组件(172)投影在上述使用者身体及电子设备上的散斑图。图像传感器(512a)一般来说可使用CCD或是CMOS基础的图像传感器。另外,上述空间坐标计算部(513)主要担任把上述影像获得部(512)所获得的影像处理后,计算上述使用者身体及电子设备的三维坐标数据的职责。
上述控制部(520)由触摸位置计算部(521)和虚拟触摸计算部(522)构成。
上述触摸位置计算部(521)利用从上述空间坐标计算装置(510)中收到的第1,2空间坐标,计算出连接上述第1空间坐标和第2空间坐标的直线与上述影像坐标相交的接点的坐标数据。一般来说,像三维游戏,根据游戏种类的不同,使用者用来活动的特定支点也相互不同。例如,在拳击及格斗等游戏中,用来活动的特定支点就是拳头及脚;在头顶球游戏中,用来活动的特定之间就是头。由此,在本发明中,作为第1空间坐标使用的特定支点必须按照所执行的三维游戏相互不同地设定。
另外,按照这个思路,代替上述执行第1空间坐标作用的使用者的特定支点,可使用由手指握住的指示器(例如,安全网)。当使用此类指示器时,可应用于多种多样的三维游戏。
另外,本发明中,当计算作为基准值被利用的第2空间坐标时,只利用使用者一只眼睛的中心点。例如,若在使用者双眼前伸出食指看的话,将看到两个食指。这是由于使用者双眼看到的食指形象是不一样才会发生此类现象(由双眼的角度差引起)。但是,若只用其中一只眼去看食指的话就能够清楚地看到食指。另外即使硬撑着不闭上另一只眼,但是意识上只用一边的眼去看的话,也能看到清楚的食指。这与射击、射箭等有需要瞄准的、要求高度准确性的运动项目中,大部分一侧眼睛闭上瞄准的原理是一样的。
在本发明中,仅用一只眼去看第1空间坐标,方可准确掌握手指指尖形态的原理这一原理将被使用。同样的,使用者只有正确地看见第1空间坐标才能指出与第1空间坐标相一致的、立体坐标的三维立体影像。
在本发明中,一名使用者用来活动的特定支点仅有一个(一只手)时,第1空间坐标就是使用者手指的指尖,上述使用者用手握住的指示器尖端是坐标,第2空间坐标是使用者某一只眼睛中心点的三维坐标。
另外,一名使用者用来活动的特定支点有两个以上时(两只手,两只脚)时,上述第1空间坐标是根据上述使用者特定支点中两一个以上的两手或两脚尖端的坐标,上述第2空间坐标可按照上述两个以上的使用者的某一只眼睛中心点的坐标形成。
另外,两名以上使用者使用时,第1空间坐标根据是两名以上的使用者各自的一个以上特定支点尖端的坐标,第2空间坐标可由两名以上使用者们某一只眼睛中线点的坐标形成。
上述虚拟触摸处理部(522)判断在上述空间坐标计算装置(510)中生成的第1空间坐标与上述触摸位置计算部(521)中计算出的接点坐标数据是否相接或是相近,相接或是接近未超过事先设定好的设定距离的话,则生成按照触摸识别并实行的指令码,提供识别为触摸三维立体影像。虚拟触摸处理部(240)无论是对待1名使用者的两个特定支点,还是两名以上使用者都以相同的方式处理。
根据本发明的虚拟触摸部(500)可在包含了显示部(400)的电子设备框架的上端***设置,也可以与电子设备分别分离设置。
图5及图6图示的是用来解释根据本发明实施例的在利用虚拟触摸的三维游戏装置中,识别使用者所看到的三维立体影像的触摸的图面。
如图所示,通过三维游戏执行部(100),三维游戏开始并生成了按照三维游戏的三维立体影像,使用者可以一边通过一只眼睛看使用者的特定支点,一边触摸呈现给使用者的三维立体影像。
这时,在空间坐标计算部(513)生成使用者特定支点的三维空间坐标,触摸位置计算部(521)可计算出特定支点的第1空间坐标数据(X1,Y1,Z1)与一只眼的中心点的第2空间坐标数据(X2,Y2,Z2)向连接的直线与立体坐标数据相交的接点坐标数据。
虚拟触摸处理部(522)判断在上述空间坐标计算部(513)中生成的第1空间坐标与上述触摸位置计算部(521)中计算出的接点坐标数据是否相接或是相近,相接或是接近未超过事先设定好的设定距离的话,则识别为触摸三维立体影像。
第3实施例
图7图示的是根据本发明第3实施例的利用虚拟触摸的三维游戏装置的结构图。
参考图7,利用虚拟触摸的三维游戏装置由把从外部输入中的三维立体影像进行描绘,根据描绘好的三维立体影像生成立体影像并提供给显示部(400)的三维游戏执行部(100),及使用者特定支点(指尖、拳头、手掌、脸、嘴、头、脚、臀部、肩膀、膝盖)的空间坐标数据(以下统称为空间坐标数据),及在上述显示部(400)中提供的三维立体影像分别在使用者的观点(以下统称为使用者观点)中生成影像坐标数据,生成的空间坐标数据与影像坐标数据比较,确定使用者特定支点在三维立体影像上的接点或是接近点后识别为触摸三维立体影像的虚拟触摸部(700)构成。
这时,上述三维游戏执行部(600)包含接收部(610),描绘驱动部(620),实时双眼描绘部(630),立体影像解码部(640)和立体影像表现部(650)。
上述接收部(610)接收从外部输入的三维立体影像数据。这时,外部输入与最近在公众频率提供的一样,由广播提供的三维广播频率的输入,或通过互联网提供的数据输入。另外,也可输入由内外部储存装置储存的数据
上述描绘驱动部(620)对从上述接收部(610)中接收到的三维立体游戏进行描绘并使其执行。
上述实时双眼描绘部(630)为了根据上述描绘好的三维游戏,在显示部(400)生成立体画面,在考虑过显示部(400)与使用者间的距离及位置(主视角)等后,立即描绘并生成在双眼中形成的图像。
上述立体影像解码部(640)把上述实时双眼描绘部(630)中生成的图像压缩或复原后提供给立体影像表现部(650)。
上述立体影像表现部(650)使上述立体影像解码部(640)中被压缩或复原好的图像数据生成适合显示部(400)显示方式的三维立体影像,并通过显示部(400)来显示。
另外,上述虚拟触摸部(700)由第1实施例及第2实施例中所解释的构成中的某一个完成的。
上述虚拟触摸部(700)包含了在第1实施例中进行说明的影像获得部(210),空间坐标计算部(220),触摸位置计算部(230)和虚拟触摸计算部(240)构成,拍摄好的影像利用光学三角法计算出上述使用者特定支点的三维坐标数据。另外,上述虚拟触摸部(700)包含了第2实施例中推测使用者身体三维坐标数据的三维坐标计算装置(510)及控制部(520),从而可计算出上述使用者特定支点的空间坐标数据。
关于上述虚拟触摸部(700)的详细说明,在第1实施例及第2实施例中已做过解释说明,因此将省略相关说明。
上面所解释说明的本发明的技术性思想通过理想实施例被具体叙述,但需要注意的是上述实施例是为了说明而并不是为了限制。另外,具有本发明技术性领域一般性知识的人就能够理解在本发明的技术思想范围内的大量实施例。因此本发明的正常技术保护范围就必须根据附加的专利权利要求书的技术性思想来制定。
商业化利用可能
根据本发明,使用者能够更为准确、轻松地对虚拟三维立体影像做出多种不同的操作,在利用虚拟触摸的三维游戏中,可提供更为真实的、具有现实感的三维游戏,可以说是具有产业利用性。

Claims (21)

1.一种利用虚拟触摸的三维游戏装置,其特征在于包含了:
对事先储存在游戏DB中的三维立体游戏进行描绘,根据描绘好的三维游戏生成立体影像并提供给显示部的三维游戏执行部,
及使用者特定支点的空间坐标数据及在上述显示部中提供的三维立体影像分别在使用者的观点中生成影像坐标数据,生成的空间坐标数据与影像坐标数据比较,确定使用者特定支点在三维立体影像上的接点或是接近点后识别为触摸三维立体影像的虚拟触摸部。
2.根据权利要求1中的利用虚拟触摸的三维游戏装置,其特征在于:
上述使用者的特定支点包含指尖、拳头、手掌、脸、嘴、头、脚、臀部、肩膀、膝盖。
3.根据权利要求1中的利用虚拟触摸的三维游戏装置,上述三维游戏执行部,
其特征在于包含了:对事先储存在游戏DB中的三维立体游戏进行描绘并使其执行的描绘驱动部;及为了根据上述描绘好的三维游戏,在显示部生成立体画面,考虑过显示部与使用者间的距离及位置(主视角)后,立即描绘并生成在双眼中形成的图像的实时双眼描绘部;及把上述实时双眼描绘部中生成的图像压缩或复原的立体影像解码部;及使上述立体影像解码部中被压缩或复原好的图像数据生成适合显示部显示方式的三维立体影像,并通过显示部显示的立体影像表现部。
4.根据权利要求1中的利用虚拟触摸的三维游戏装置,上述虚拟触摸部,
其特征在于包含了:作为包含了两个以上图像遥感器的摄影模具,检测出显示部前方的影像后使其转换为电子图像信号的影像获得部;及利用从上述影像获得部中收到的影像,按照使用者观点中的三维立体影像,分别生成影像坐标数据及使用者特定支点的第1,2空间坐标数据的空间坐标计算部;及计算出连接从上述空间坐标计算部中收到的使用者特定支点的第1,2空间坐标的直线与上述影像坐标相交的接点坐标数据的触摸位置计算部;及判断在上述空间坐标计算部中生成的第1空间坐标与上述触摸位置计算部中计算出的接点坐标数据是否相接或是相近,相接或是接近未超过事先设定好的设定距离的话,则生成按照触摸识别并实行的指令码,提供触摸三维立体影像识别的虚拟触摸计算部。
5.根据权利要求4中的利用虚拟触摸的三维游戏装置,其特征在于:
上述空间坐标计算部是把拍摄好的影像,利用光学三角测量法,计算出上述使用者特定支点的空间坐标数据。
6.根据权利要求5中的利用虚拟触摸的三维游戏装置,其特征在于:
上述计算好的空间坐标包含:为了使用者触摸到三维立体影像的、用于检测使用者活动的第1空间坐标,以及按照立体影像与活动的第1空间坐标数据之间,成为基准值的第2空间坐标数据。
7.根据权利要求4中的利用虚拟触摸的三维游戏装置,其特征在于:
上述空间坐标计算部根据显示部与使用者间的距离及位置,搜索并检测到事先定义并储存好的使用者观点的影像坐标数据。
8.根据权利要求4中的利用虚拟触摸的三维游戏装置,其特征在于:
上述第2空间坐标是使用者某一只眼的中心点坐标。
9.根据权利要求1中的利用虚拟触摸的三维游戏装置,上述虚拟触摸部,
其特征在于:上述虚拟触摸部包含了:包含光源和散光器,把散斑图投影在使用者特定支点上的照明组件,及包含图像传感器和凸镜的、用来捕捉通过上述照明组件投影在上述使用者上的散斑图的影像获得部,;及利用从上述影像获得部中获得的影像,按照使用者观点中的三维立体影像,分别生成影像坐标数据及使用者特定支点的第1,2空间坐标数据的空间坐标计算部;及计算出连接从上述空间坐标计算部中收到的使用者特定支点的第1,2空间坐标的直线与上述影像坐标相交的接点坐标数据的触摸位置计算部;及判断在上述空间坐标计算部中生成的第1空间坐标与上述触摸位置计算部中计算出的接点坐标数据是否相接或是相近,相接或是接近未超过事先设定好的设定距离的话,则生成按照触摸识别并实行的指令码,提供触摸三维立体影像识别的虚拟触摸计算部。
10.据权利要求1中的利用虚拟触摸的三维游戏装置,其特征在于:
上述空间坐标计算部是利用时间迟延测定法(time of flight)来计算上述使用者特定支点的空间坐标数据。
11.根据权利要求9至10中的利用虚拟触摸的三维游戏装置,其特征在于:
上述计算好的空间坐标包含为了使用者触摸到三维立体影像的、用于检测使用者活动的第1空间坐标,以及按照立体影像与活动的第1空间坐标数据之间,成为基准值的第2空间坐标数据。
12.根据权利要求9中的利用虚拟触摸的三维游戏装置,其特征在于:
上述空间坐标计算部是根据显示部与使用者间的距离及位置,搜索并检测到事先定义并储存好的使用者观点的影像坐标数据。
13.根据权利要求9中的利用虚拟触摸的三维游戏装置,其特征在于:
上述影像获得部使用的是CCD或是CMOS基础的图像传感器。
14.根据权利要求1中的利用虚拟触摸的三维游戏装置,其特征在于:
上述虚拟触摸部可在在包含了显示部的电子设备框架上端***并设置,或是与电子设备分别分离设置。
15.一种利用虚拟触摸的三维游戏装置,其特征在于包含了:
对从外部输入的3D立体影像进行描绘,根据描绘好的三维立体影像数据生成三维立体影像并提供给显示部的三维执行部,及使用者特定支点的空间坐标数据,及在上述显示部中提供的三维立体影像分别在使用者的观点中生成影像坐标数据,生成的空间坐标数据与影像坐标数据比较,确定使用者特定支点在三维立体影像上的接点或是接近点后识别为触摸三维立体影像的虚拟触摸部。
16.根据权利要求15中的利用虚拟触摸的三维游戏装置,上述三维执行部,
其特征在于包含了:接收从外部输入的3D立体影像数据的接收部;及从接收部接收到的三维立体影像数据进行描绘并使其执行的描绘驱动部;及为了根据上述描绘好的三维游戏,在显示部生成立体画面,考虑过显示部与使用者间的距离及位置(主视角)后,立即描绘并生成在双眼中形成的图像的实时双眼描绘部;及把上述实时双眼描绘部中生成的图像压缩或复原的立体影像解码部;及使上述立体影像解码部中被压缩或复原好的图像数据生成适合显示部显示方式的三维立体影像,并通过显示部显示的立体影像表现部。
17.根据权利要求16中的利用虚拟触摸的三维游戏装置,其特征在于:
上述接收部的外部由广播提供的三维广播频率的输入,及通过互联网提供的数据输入,及由内外部储存装置储存的数据输入为特征的。
18.根据权利要求16中的利用虚拟触摸的三维游戏装置,其特征在于:
上述虚拟触摸部把拍摄好的影像利用光学三角法计算出上述使用者特定支点的空间坐标数据。
19.根据权利要求18中的利用虚拟触摸的三维游戏装置,其特征在于:
上述虚拟触摸部包含了记录在权利要求4中的构成。
20.根据权利要求16中的利用虚拟触摸的三维游戏装置,其特征在于:
上述虚拟触摸部是把拍摄好的影像利用时间迟延测定法(time of flight)来计算出上述使用者特定支点的空间坐标数据。
21.根据权利要求20中的利用虚拟触摸的三维游戏装置,其特征在于:
上述虚拟触摸部包含了记录在权利要求9中的构成。
CN201280038965.9A 2011-06-15 2012-06-12 利用虚拟触摸的三维装置及三维游戏装置 Active CN103732299B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2011-0057719 2011-06-15
KR1020110057719A KR101364133B1 (ko) 2011-06-15 2011-06-15 가상터치를 이용한 3차원 장치 및 3차원 게임 장치
PCT/KR2012/004632 WO2012173373A2 (ko) 2011-06-15 2012-06-12 가상터치를 이용한 3차원 장치 및 3차원 게임 장치

Publications (2)

Publication Number Publication Date
CN103732299A true CN103732299A (zh) 2014-04-16
CN103732299B CN103732299B (zh) 2016-08-24

Family

ID=47357584

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280038965.9A Active CN103732299B (zh) 2011-06-15 2012-06-12 利用虚拟触摸的三维装置及三维游戏装置

Country Status (4)

Country Link
US (1) US20140200080A1 (zh)
KR (1) KR101364133B1 (zh)
CN (1) CN103732299B (zh)
WO (1) WO2012173373A2 (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD753656S1 (en) 2013-01-29 2016-04-12 Aquifi, Inc. Display device with cameras
USD753655S1 (en) 2013-01-29 2016-04-12 Aquifi, Inc Display device with cameras
USD752585S1 (en) 2013-01-29 2016-03-29 Aquifi, Inc. Display device with cameras
USD753658S1 (en) 2013-01-29 2016-04-12 Aquifi, Inc. Display device with cameras
USD753657S1 (en) 2013-01-29 2016-04-12 Aquifi, Inc. Display device with cameras
USD752048S1 (en) 2013-01-29 2016-03-22 Aquifi, Inc. Display device with cameras
KR20150044757A (ko) 2013-10-17 2015-04-27 삼성전자주식회사 플로팅 입력에 따라 동작을 제어하는 전자 장치 및 그 방법
KR102088966B1 (ko) * 2013-12-27 2020-03-13 주식회사 케이티 가상화 터치 포인팅 영역에 기반하여 컴퓨터화 전자 기기의 동작을 제어하는 터치 패널 운영 장치 및 터치 패널 운영 방법
KR101754126B1 (ko) * 2015-06-10 2017-07-19 주식회사 브이터치 사용자 기준 공간좌표계 상에서의 제스처 검출 방법 및 장치
KR101938276B1 (ko) * 2016-11-25 2019-01-14 건국대학교 글로컬산학협력단 입체 영상 표시장치
US10636167B2 (en) * 2016-11-14 2020-04-28 Samsung Electronics Co., Ltd. Method and device for determining distance
WO2019039416A1 (ja) * 2017-08-24 2019-02-28 シャープ株式会社 表示装置及びプログラム
KR102463712B1 (ko) 2017-11-24 2022-11-08 현대자동차주식회사 가상 터치 인식 장치 및 그의 인식 오류 보정 방법
KR20210012603A (ko) 2019-07-26 2021-02-03 (주)투핸즈인터랙티브 대화형 매체 기반의 운동 시스템

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07230556A (ja) * 1994-02-17 1995-08-29 Hazama Gumi Ltd Cg立体視アニメーションの生成法
US20050181871A1 (en) * 2002-05-21 2005-08-18 Makoto Higashiyama Three dimensional image processing program, three dimensional image processing method, and video game device
CN1912816A (zh) * 2005-08-08 2007-02-14 北京理工大学 一种基于摄像头的虚拟触摸屏***
CN1977239A (zh) * 2004-06-29 2007-06-06 皇家飞利浦电子股份有限公司 3-d接触交互中的变焦
US20110096072A1 (en) * 2009-10-27 2011-04-28 Samsung Electronics Co., Ltd. Three-dimensional space interface apparatus and method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7963652B2 (en) * 2003-11-14 2011-06-21 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
KR101019254B1 (ko) * 2008-12-24 2011-03-04 전자부품연구원 공간 투영 및 공간 터치 기능이 구비된 단말 장치 및 그 제어 방법
KR101082829B1 (ko) * 2009-10-05 2011-11-11 백문기 영상센서를 이용한 3차원 공간 터치 입력장치 및 그 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07230556A (ja) * 1994-02-17 1995-08-29 Hazama Gumi Ltd Cg立体視アニメーションの生成法
US20050181871A1 (en) * 2002-05-21 2005-08-18 Makoto Higashiyama Three dimensional image processing program, three dimensional image processing method, and video game device
CN1977239A (zh) * 2004-06-29 2007-06-06 皇家飞利浦电子股份有限公司 3-d接触交互中的变焦
CN1912816A (zh) * 2005-08-08 2007-02-14 北京理工大学 一种基于摄像头的虚拟触摸屏***
US20110096072A1 (en) * 2009-10-27 2011-04-28 Samsung Electronics Co., Ltd. Three-dimensional space interface apparatus and method

Also Published As

Publication number Publication date
US20140200080A1 (en) 2014-07-17
KR20120138329A (ko) 2012-12-26
WO2012173373A3 (ko) 2013-02-07
WO2012173373A2 (ko) 2012-12-20
KR101364133B1 (ko) 2014-02-21
CN103732299B (zh) 2016-08-24

Similar Documents

Publication Publication Date Title
CN103732299A (zh) 利用虚拟触摸的三维装置及三维游戏装置
US9892563B2 (en) System and method for generating a mixed reality environment
CN104380347B (zh) 视频处理设备、视频处理方法和视频处理***
CN110647239A (zh) 人工现实环境中的虚拟内容的基于手势的投射和操纵
US20130215112A1 (en) Stereoscopic Image Processor, Stereoscopic Image Interaction System, and Stereoscopic Image Displaying Method thereof
US8878846B1 (en) Superimposing virtual views of 3D objects with live images
US20130141419A1 (en) Augmented reality with realistic occlusion
EP3106963B1 (en) Mediated reality
WO2013185714A1 (zh) 增强现实中识别对象的方法及***和计算机
CN106843507B (zh) 一种虚拟现实多人互动的方法及***
US20120128201A1 (en) Bi-modal depth-image analysis
JP2017538990A (ja) 共有される空間的拡張現実感経験を生成するためのプロジェクターの駆動
KR101892735B1 (ko) 직관적인 상호작용 장치 및 방법
WO2016169409A1 (en) A method and apparatus for displaying a virtual object in three-dimensional (3d) space
CN107015655A (zh) 博物馆虚拟场景ar体验眼镜装置及其实现方法
CN111862348A (zh) 视频显示方法、视频生成方法、装置、设备及存储介质
KR20230004280A (ko) 딥러닝 기술을 이용한 모션 추적 시스템
CN206819290U (zh) 一种虚拟现实多人互动的***
JP6775669B2 (ja) 情報処理装置
JP2023099494A (ja) 仮想現実のためのデータ処理装置、データ処理方法およびコンピュータソフトウェア
CN109829960A (zh) 一种vr动漫***交互方法
CN110119197A (zh) 一种全息互动***
WO2022029959A1 (ja) 仮想現実共有方法及びシステム
JPWO2022029959A5 (zh)
Poussard et al. 3DLive: A multi-modal sensing platform allowing tele-immersive sports applications

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant