CN108319365B - 移动追踪方法及移动追踪*** - Google Patents

移动追踪方法及移动追踪*** Download PDF

Info

Publication number
CN108319365B
CN108319365B CN201810040687.XA CN201810040687A CN108319365B CN 108319365 B CN108319365 B CN 108319365B CN 201810040687 A CN201810040687 A CN 201810040687A CN 108319365 B CN108319365 B CN 108319365B
Authority
CN
China
Prior art keywords
information
picture
blurred
imu
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810040687.XA
Other languages
English (en)
Other versions
CN108319365A (zh
Inventor
吕幸妤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HTC Corp
Original Assignee
HTC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by HTC Corp filed Critical HTC Corp
Publication of CN108319365A publication Critical patent/CN108319365A/zh
Application granted granted Critical
Publication of CN108319365B publication Critical patent/CN108319365B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Abstract

本发明提供一种移动追踪方法及移动追踪***,该移动追踪方法,适用于一电子装置,包含:取得由一相机拍摄的一第一画面的信息;由一惯性测量单元(inertial measurement unit,IMU)传感器取得一IMU信息;藉由一处理器依据第一画面的信息及IMU信息,计算第一画面的一第一模糊像素参数;以及藉由处理器判断第一画面的第一模糊像素参数是否小于一模糊阈值;当第一画面的第一模糊像素参数小于一模糊阈值时,处理器依据第一画面的信息及IMU信息,计算电子装置的一移动数据。

Description

移动追踪方法及移动追踪***
技术领域
本发明涉及一种移动追踪方法及移动追踪***。特别地,本发明涉及一种可增进追踪技术质量的移动追踪方法及移动追踪***。
背景技术
近年来,虚拟现实***日益盛行,虚拟现实***可以运用于电影、虚拟现实或其他互动的应用中。一般而言,头戴式显示器是虚拟现实***重要的部分,使用者可以通过配戴头戴式显示器以看到虚拟世界。具体而言,头戴式显示器包含一显示器或多个显示器,及用以将计算机产生图形传送至使用者眼睛的中继光学器所组成。
在一般的使用者行为中,使用者可以移动头部,以与虚拟内容互动。若追踪技术无法提供精准的测量位置,无法对应至使用者的移动,则使用者容易感觉不舒服或晕眩。因此,如何提供一方法及一***以在虚拟现实中,对应使用者的移动,产生正确且精准的移动变化的虚拟内容是重要的。
发明内容
一种移动追踪方法,适用于一电子装置,移动追踪方法包含:取得由一相机拍摄的一第一画面的信息;由一惯性测量单元(inertial measurement unit,IMU)传感器取得一IMU信息;藉由一处理器依据第一画面的信息及IMU信息,计算第一画面的一第一模糊像素参数;以及藉由处理器判断第一画面的第一模糊像素参数是否小于一模糊阈值;当第一画面的第一模糊像素参数小于一模糊阈值时,处理器依据第一画面的信息及IMU信息,计算电子装置的一移动数据。
本公开的另一方面是有关一种移动追踪***。依据本公开的一实施例,移动追踪***适用于一电子装置,移动追踪***包含一相机、一惯性测量单元(inertialmeasurement unit,IMU)传感器以及一处理器。相机用以拍摄的一第一画面。惯性测量单元(inertial measurement unit,IMU)传感器用以检测一IMU信息。处理器,用以依据第一画面的信息及IMU信息,计算第一画面的一第一模糊像素参数。其中处理器判断第一画面的第一模糊像素参数是否小于一模糊阈值,当第一画面的第一模糊像素参数小于一模糊阈值时,该处理器依据第一画面的信息及IMU信息,计算电子装置的一移动数据。
在此实施例中,移动追踪方法及一移动追踪***可依据移动数据精准地计算电子装置的移动距离,且电子装置所显示的画面内容依据移动距离而被产生。使用者可持续地观看对应至他/她头部移动的图像内容,藉此,使用者可拟实地与虚拟现实内容互动,且舒适的观看区拟实境内容。然而,本发明并不仅限于此,其他通信技术也可能在本发明所考虑范围内。
附图说明
为了更完整了解实施例及其优点,现参照结合附图所做的下列描述,其中:
图1A~1B为根据本发明的一实施例的移动追踪***的方块图;
图2为根据本发明的一实施例的移动追踪方法的流程图;
图3A~3B为根据本发明的一实施例的提取画面的示意图;以及
图4为根据本发明的一实施例的提取画面的示意图。
【符号说明】
100、150:移动追踪***
140:显示器
110:相机
120:IMU传感器
130:处理器
160:存储装置
HMD:头戴式显示器
HT:主机
200:移动追踪方法
210~250:步骤
OBJ:物体
DR:方向
P1:初始头部位置
P2:终点头部位置
USR:使用者
f1:第一画面
f2:第二画面
f3:第三画面
具体实施方式
以下将详细说明本发明的实施例,其在附图中举例说明。在图式和说明书中所使用的相同标号代表相同或类似的元件。
可被理解的是,虽然在本文可使用“第一”和“第二”等用语来描述各种元件,但此些用语不应限制此些元件。此些用语仅用以区别一元件与另一元件。举例而言,在不偏离实施例的范围下,第一元件可被称为第二元件,且相似地,第二元件可被称为第一元件。
可被理解的是,在本文的实施方式与权利要求书中,当一元件被称为“连接(connected)”或“电性连接(connected)”至其他元件,其可以是直接连接至其他元件,或者可具有中间元件(intervening elements)。相较之下,当一元件被称为“直接连接”至其他元件,其代表没有中间元件。此外,“电性连接”或“连接”更可涉及二或多个元件之间的相互运作或相互作用。
可被理解的是,在本文实施方式与权利要求书中,使用的用语“包含(comprise或comprising)”、“包括(include或including)”、“具有(have或having)”、“含有(contain或containing)”及类似用语应被理解为开放式(open-ended)用语,即意指包含但不限于。
可被理解的是,在本文实施方式与权利要求书中,词组“和/或”包含一或多个相关列示项目中的任意和全部组合。
可被理解的是,在本文实施方式与权利要求书中,除非另有定义,否则在此所使用的全部用语(包含技术和科学用语)所具有的意义,与本领域技术人员一般可理解的定义相同。更可被理解的是,除非在此有明确地被定义,否则用词(例如在一般使用的辞典中所定义的用词)应被解读为具有一意义,其与相关领域及本说明书的上下文的意义一致,且不应以理想化或过度正式的观念来解读。
参照图1A~1B及图2,图1A为根据本发明的一实施例的移动追踪***100的方块图,图1B为根据本发明的一实施例的移动追踪***150的方块图。图2为根据本发明的一实施例的移动追踪方法200的流程图。
在此实施例中,如图1A所示,移动追踪***100包含一相机110、一惯性测量单元(inertial measurement unit,IMU)及一处理器130。在一实施例中,相机110可以是电荷耦合元件(Charge Coupled Device,CCD)或互补性氧化金属半导体(Complementary Metal-Oxide Semiconductor,CMOS)。在一实施例中,IMU传感器120用以检测物体的移动以取得IMU信息。在一实施例中,IMU传感器120包含一加速计(accelerometer)、一重力传感器(G-sensor)、一磁力计(magnetometer)、一磁性传感器(magnetic sensor)和/或一电子罗盘(electrical compass)。在一实施例中,处理器130可以被实施为微控制单元(microcontroller)、微处理器(microprocessor)、数字信号处理器(digital signalprocessor)、特殊应用集成电路(application specific integrated circuit,ASIC)或一逻辑电路。在一实施例中,移动追踪***100还包含一显示器140以显示处理器130或其他电子装置所提供的图像内容。在一实施例中,移动追踪***100还包含一存储装置160,存储装置160耦接于处理器130。存储装置160被设置用以存储信息和/或一些参数。存储装置160可以是一存储器、一硬盘、一存储介质或一存储卡等等。
在一实施例中,移动追踪***100可以被应用于一电子装置中。电子装置可以是一头戴式显示器。
在一实施例中,如图1B所示,移动追踪***150包含一头戴式显示器HMD及一主机HT。在此例中,头戴式显示器HMD包含相机110及IMU传感器120。在一实施例中,头戴式显示器HMD还包含一显示器140,主机HT包含处理器130。在一实施例中,处理器130藉由有线/无线方式连接至显示器140、相机110及IMU传感器120。处理器130接收相机110所提取的画面信息,并接收IMU传感器120的信息,处理器130传送适当的画面信息至显示器140。在一实施例中,主机HT还包含一存储装置160。在一实施例中,主机HT可以合并于头戴式显示器HMD中。
元件的设置方式不限制于图1A~1B,元件可以依据实际环境被调整。在一实施例中,移动追踪方法200可以由移动追踪***100或150以实现。然而,实现移动追踪方法200的方式并不限制于此。
请参阅图2、3A~3B、4,图3A~3B为根据本发明的一实施例的提取画面的示意图。图4为根据本发明的一实施例的提取画面的示意图。
在步骤210中,一相机110提取多个画面。此外,处理器130取得此些画面的信息。在一例子中,如图3A所示,使用者USR于头上配戴头戴式显示器HMD,且头戴式显示器HMD中的相机110提取使用者USR正在观看的物体OBJ的图像,以在初始头部位置P1取得多个画面之一的信息。此信息包含画面大小、像素数据、解析度及或提取位置。
在步骤220中,一IMU传感器120感测IMU信息。在一实施例中,IMU传感器120包含一加速计,用以检测头戴式显示器HMD于X轴、Y轴及Z轴上的加速度。IMU传感器120亦包含一陀螺仪,用以检测使用者头部的旋转速度。藉此,IMU信息包含一加速度参数(例如,X轴、Y轴及Z轴上的加速度)和/或一陀螺仪参数(例如,旋转速度)。
在一实施例中,在头戴式显示器HMD被启动后,IMU传感器120持续地检测IMU信息。IMU信息存储于存储装置160。
在步骤230中,一处理器130依据多个画面的其中之一的信息及IMU信息,以计算一模糊像素参数。
在一实施例中,模糊像素参数可以是多个画面的其中之一模糊像素数量,或是此画面中模糊像素占全部像素的比例。
在一实施例中,处理器130依据画面的信息、加速度参数及陀螺仪参数,以计算一模糊像素参数。例如,如图3A~3B所示,使用者USR观看物件OBJ,且由初始头部位置P1(如图3A所示)沿着方向DR将他/她的头部移动至终点头部位置P2(如图3B所示)。在移动的过程中,如图4所示,相机110依序提取三张画面。此三张画面的第一画面f1是在初始头部位置P1所拍摄的,此三张画面的第三画面f3是在终点头部位置P2所拍摄的,此三张画面的第二画面f2是在使用者USR以一加速度快速地移动他/她的头部,在到达终点头部位置P2之前时所拍摄的。因此,第二画面f2是具有大量模糊像素的模糊画面的可能性很高。当相机110提取第二画面f2时,加速度计所检测的加速度参数的值(例如,X轴、Y轴及Z轴上的加速度)及陀螺仪所检测的陀螺仪参数(例如,旋转速度)亦较高。因此,第二画面f2的模糊像素参数高于第一画面f1及第三画面f3的模糊像素参数。
在一实施例中,模糊像素的数量可以被已知的算法所算出。例如,公式v=(Sx*d)/T=z*(K*Sx)/(T*f),符号v代表移动物件的速度,符号Sx代表像数大小、符号f代表相机110的焦距、符号T代表相机110的快门速度,符号z代表相机110与移动物件的距离,符号K代表模糊像素的数量。符号v、Sx、f、T及z的参数可以由画面数据(例如符号为Sx的参数)、IMU信息(例如符号为v的参数)、预设数据(例如符号为f、符号为z的参数)和/或输入数据(例如为符号T的参数)以取得。当符号v、Sx、f、T及z等参数取得,则符号K(代表模糊像素的数量)可以被计算出来。计算模糊像素的方法并不限于此。
在步骤240中,处理器130判断模糊像素参数是否小于一模糊阈值。若模糊像素参数小于模糊阈值,则进入步骤250。若模糊像素参数大于或等于模糊阈值,则进入步骤260。
在一实施例中,模糊阈值可以是依百分比阈值。例如,若模糊像素参数为20%,且模糊阈值为50%,则处理器130判断模糊像素参数小于此模糊阈值。例如,若模糊像素参数为80%,且模糊阈值为50%,则处理器130判断模糊像素参数不小于此模糊阈值。
在步骤250中,处理器130依据此画面的数据(例如第二画面f2)及IMU信息,计算电子装置(例如,头戴式显示器HMD)的一移动数据。依据移动数据,电子装置的移动可以被追踪。
在一实施例中,当电子装置为头戴式显示器HMD时,头戴式显示器HMD所显示的一画面内容根据移动数据产生。例如,头戴式显示器HMD的移动距离可以依据移动数据以被算出,且头戴式显示器HMD所显示画面内容依据移动距离产生,藉此,使用者USR可以持续地观看对应至他/她头部移动的画面内容,而不会有不舒服或晕眩的感受。以下叙述一些用以产生移动数据的方法。
在一实施例中,移动数据包含一旋转角度及一空间坐标,且电子装置的一移动距离是依据旋转角度及空间坐标以被算出。
由于画面清晰(在步骤250)中,处理器130可以精准的找到画面中特征点的空间坐标(例如,依据画面中物件OBJ的颜色、形状和/或预测的坐标,以搜寻特征点的空间坐标),藉以产生移动数据。
旋转角度也可以依据连续两张画面中特征点的空间坐标而被精准地计算出来。
在一实施例中,陀螺仪可测量旋转角度,加速计可测量加速度、深度信息可以由画面的信息而取得。此外,先前画面中的特征点坐标也可以用以计算移动数据。
因此,处理器130具有充足的信息,依据画面的信息及IMU信息以计算移动数据。
在一实施例中,移动数据可以由已知的算法产生。例如,移动数据是由将画面的信息(例如,一些特征点的一些坐标)代入一三角定位算法(triangulation algorithm)并同时采用IMU信息为参考数据算出,藉以取得精准的结果。由于三角定位算法为已知算法,故细节不在此赘述。
在步骤260中,处理器130依据IMU信息计算电子装置的移动数据,并舍弃此画面(例如,第二画面f2)。因为此画面具有太多模糊像素,故此模糊画面不使用于步骤260。
在此步骤中,处理器130仅采用IMU信息计算电子装置的一移动数据,而不采用具有太多模糊像素的此画面,藉以避免计算出具有较低精准结果的移动数据。
此外,移动追踪方法200可以被应用于提取多个画面的情形下。在一实施例中,相机110还用以提取另一图像的信息(例如,图4中的第三画面f3),且处理器130依据另一画面的信息及IMU信息以计算另一模糊像素参数。当画面(例如,图4中的第二画面f2)的模糊像素参数高于一模糊阈值,且另一画面的模糊像素参数小于或等于模糊阈值时,处理器130依据另一画面的信息及IMU信息,以计算电子装置的移动数据。
在此实施例中,移动追踪方法及一移动追踪***可依据移动数据精准地计算电子装置的移动距离,且电子装置所显示的画面内容依据移动距离而被产生。使用者可持续地观看对应至他/她头部移动的图像内容,藉此,使用者可拟实地与虚拟现实内容互动,且舒适的观看区拟实境内容。然而,本发明并不仅限于此,其他通信技术也可能在本发明所考虑范围内。
虽然本发明已以实施例公开如上,然其并非用以限定本发明,本领域技术人员在不脱离本发明的精神和范围内,当可作些许的更动与润饰,故本发明的保护范围当视所附权利要求书界定范围为准。

Claims (8)

1.一种移动追踪方法,适用于电子装置,该移动追踪方法包含:
取得由相机拍摄的第一画面的信息;
由惯性测量单元(inertial measurement unit,IMU)传感器取得IMU信息;
藉由处理器依据该第一画面的信息及该IMU信息,计算该第一画面的第一模糊像素参数;以及
藉由该处理器判断该第一画面的该第一模糊像素参数是否小于模糊阈值,其中该模糊像素参数包含该第一画面的一模糊像素数量,或是该第一画面中模糊像素占全部像素的一比例;
当该第一画面的该第一模糊像素参数小于该模糊阈值时,该处理器依据该第一画面的信息及该IMU信息,计算该电子装置的移动数据;
其中当该第一模糊像素参数大于或等于该模糊阈值时,该处理器依据该IMU信息计算该电子装置的该移动数据,并舍弃该第一画面。
2.如权利要求1所述的移动追踪方法,其中该IMU信息包含加速计参数和/或陀螺仪参数,该移动追踪 方法还包含:
依据该加速计参数和/或该陀螺仪参数计算该第一模糊像素参数。
3.如权利要求1所述的移动追踪方法,其中该移动数据包含旋转角度和/或空间坐标,且该电子装置的移动距离依据该旋转角度和/或该空间坐标算出。
4.如权利要求3所述的移动追踪方法,其中该电子装置为头戴式显示器,且该头戴式显示器所显示的画面内容根据该移动数据产生。
5.如权利要求1所述的移动追踪方法,其中该移动数据是由将该第一画面的信息代入三角定位算法(triangulation algorithm)并同时采用该IMU信息为参考数据算出。
6.如权利要求1所述的移动追踪方法,还包含:
取得由该相机拍摄的第二画面的信息;以及
藉由该处理器依据该第二画面的信息及该IMU信息,计算第二模糊像素参数;
其中当该第二模糊像素参数小于该模糊阈值时,该处理器依据该第二画面的信息及该IMU信息,计算该电子装置的该移动数据。
7.一种移动追踪***,适用于电子装置,该移动追踪***包含:
相机,用以拍摄的第一画面;
惯性测量单元(inertial measurement unit,IMU)传感器,用以检测IMU信息;以及
处理器,用以依据该第一画面的信息及该IMU信息,计算该第一画面的第一模糊像素参数;
其中该处理器判断该第一画面的该第一模糊像素参数是否小于模糊阈值,其中该模糊像素参数包含该第一画面的一模糊像素数量,或是该第一画面中模糊像素占全部像素的一比例;
当该第一画面的该第一模糊像素参数小于该模糊阈值时,该处理器依据该第一画面的信息及该IMU信息,计算该电子装置的移动数据;以及
其中当该第一模糊像素参数大于或等于该模糊阈值时,该处理器依据该IMU信息计算该电子装置的该移动数据,并舍弃该第一画面。
8.如权利要求7所述的移动追踪***,其中该IMU信息包含加速计参数和/或陀螺仪参数,且该处理器依据该加速计参数和/或该陀螺仪参数计算该第一模糊像素参数。
CN201810040687.XA 2017-01-16 2018-01-16 移动追踪方法及移动追踪*** Active CN108319365B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201762446538P 2017-01-16 2017-01-16
US62/446,538 2017-01-16
US15/852,256 2017-12-22
US15/852,256 US20180203504A1 (en) 2017-01-16 2017-12-22 Movement tracking method and movement tracking system

Publications (2)

Publication Number Publication Date
CN108319365A CN108319365A (zh) 2018-07-24
CN108319365B true CN108319365B (zh) 2020-10-23

Family

ID=61002840

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810040687.XA Active CN108319365B (zh) 2017-01-16 2018-01-16 移动追踪方法及移动追踪***

Country Status (4)

Country Link
US (1) US20180203504A1 (zh)
EP (1) EP3349101B1 (zh)
CN (1) CN108319365B (zh)
TW (1) TWI680005B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019135676A1 (de) * 2018-12-26 2020-07-02 Htc Corporation Objektverfolgungssystem und objektverfolgungsverfahren
CN111698427B (zh) * 2020-06-23 2021-12-24 联想(北京)有限公司 一种图像处理方法、装置及电子设备
KR20220122287A (ko) * 2021-02-26 2022-09-02 삼성전자주식회사 증강 현실 제공 장치의 포즈 결정 방법 및 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105706438A (zh) * 2013-11-25 2016-06-22 高通股份有限公司 移动装置上的深度传感器的功率有效使用

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6548800B2 (en) * 2001-04-09 2003-04-15 Microsoft Corporation Image blur detection methods and arrangements
US9024972B1 (en) * 2009-04-01 2015-05-05 Microsoft Technology Licensing, Llc Augmented reality computing with inertial sensors
TWI581173B (zh) * 2013-03-14 2017-05-01 茱麗安 麥克 爾巴哈 用以擴增實境及虛擬實境之目鏡系統及使用該系統之方法
US9230473B2 (en) * 2013-06-24 2016-01-05 Microsoft Technology Licensing, Llc Dual duty cycle OLED to enable dynamic control for reduced motion blur control with constant brightness in augmented reality experiences
JP6324672B2 (ja) * 2013-06-24 2018-05-16 パナソニック液晶ディスプレイ株式会社 表示装置
US9626802B2 (en) * 2014-05-01 2017-04-18 Microsoft Technology Licensing, Llc Determining coordinate frames in a dynamic environment
TW201616281A (zh) * 2014-10-27 2016-05-01 許懷瀛 虛擬實境系統及其虛擬實境中的物件之互動方法
US10043319B2 (en) * 2014-11-16 2018-08-07 Eonite Perception Inc. Optimizing head mounted displays for augmented reality
GB2533788A (en) * 2014-12-30 2016-07-06 Nokia Technologies Oy Method for determining the position of a portable device
US9832451B2 (en) * 2015-11-17 2017-11-28 Survios, Inc. Methods for reduced-bandwidth wireless 3D video transmission
US10026212B2 (en) * 2015-11-20 2018-07-17 Google Llc Electronic display stabilization using pixel velocities
US9978180B2 (en) * 2016-01-25 2018-05-22 Microsoft Technology Licensing, Llc Frame projection for augmented reality environments

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105706438A (zh) * 2013-11-25 2016-06-22 高通股份有限公司 移动装置上的深度传感器的功率有效使用

Also Published As

Publication number Publication date
EP3349101A1 (en) 2018-07-18
EP3349101B1 (en) 2019-12-18
TWI680005B (zh) 2019-12-21
CN108319365A (zh) 2018-07-24
TW201827106A (zh) 2018-08-01
US20180203504A1 (en) 2018-07-19

Similar Documents

Publication Publication Date Title
CN110908503B (zh) 跟踪设备的位置的方法
CN109643373B (zh) 估计3d空间中的姿态
CN110413105B (zh) 虚拟环境内的虚拟对象的有形可视化
US8310537B2 (en) Detecting ego-motion on a mobile device displaying three-dimensional content
KR20180051607A (ko) 픽셀 속도들을 사용하는 전자 디스플레이 안정화
US8860847B2 (en) Computer-readable storage medium having stored thereon image generation program, capturing apparatus, capturing system, and image generation method for creating an image
CN109561296A (zh) 图像处理装置、图像处理方法、图像处理***和存储介质
EP3462283B1 (en) Image display method and device utilized in virtual reality-based apparatus
CN109246463B (zh) 用于显示弹幕的方法和装置
JP2017174125A (ja) 情報処理装置、情報処理システム、および情報処理方法
CN108319365B (zh) 移动追踪方法及移动追踪***
KR102374404B1 (ko) 콘텐트를 제공하기 위한 디바이스 및 방법
CN110998666B (zh) 信息处理装置、信息处理方法以及程序
US20120268493A1 (en) Information processing system for augmented reality
US11212501B2 (en) Portable device and operation method for tracking user's viewpoint and adjusting viewport
CN106843790B (zh) 一种信息展示***和方法
JP2019032599A (ja) 情報処理装置および位置情報取得方法
CN109313797B (zh) 一种图像显示方法及终端
CN112927259A (zh) 基于多相机的裸手追踪显示方法、装置及***
CN110969706B (zh) 增强现实设备及其图像处理方法、***以及存储介质
EP3038061A1 (en) Apparatus and method to display augmented reality data
US11726320B2 (en) Information processing apparatus, information processing method, and program
CN114390186A (zh) 视频拍摄方法及电子设备
CN106384365B (zh) 一种包含深度信息获取的扩增实境***及其方法
CN114201028B (zh) 扩增实境***与其锚定显示虚拟对象的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant