CN115066668A - 显示控制装置、显示控制方法和记录介质 - Google Patents

显示控制装置、显示控制方法和记录介质 Download PDF

Info

Publication number
CN115066668A
CN115066668A CN202180013824.0A CN202180013824A CN115066668A CN 115066668 A CN115066668 A CN 115066668A CN 202180013824 A CN202180013824 A CN 202180013824A CN 115066668 A CN115066668 A CN 115066668A
Authority
CN
China
Prior art keywords
hand
virtual object
user
display control
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180013824.0A
Other languages
English (en)
Inventor
佐藤哲朗
福本康隆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of CN115066668A publication Critical patent/CN115066668A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8076Shooting
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种显示控制装置,包括:获取单元(17A),其获取指示头戴式显示器的用户的右手的位置的右手位置信息和指示用户的左手的位置的左手位置信息;以及显示控制单元(17B),其基于右手位置信息和左手位置信息来控制头戴式显示器,使得在右手的位置和左手的位置处布置具有固定尺寸的虚拟对象。显示控制单元(17B)控制头戴式显示器,使得保持虚拟对象的纵向方向平行于连接右手和左手的虚拟线,并且使得独立于右手与左手之间的距离的改变而改变虚拟对象的位置。

Description

显示控制装置、显示控制方法和记录介质
技术领域
本公开内容涉及显示控制装置、显示控制方法和记录介质。
背景技术
传统上,已经提出了用户在不使用诸如键盘或鼠标的输入装置的情况下操作虚拟对象的技术。例如,专利文献1公开了在识别出的用户的手的形状具有预定形状的情况下根据用户的手的位置的改变来移动操作对象(虚拟对象)的显示位置的技术。
引用列表
专利文献
专利文献1:WO 2014/162762
发明内容
技术问题
在上述现有技术中,在用用户的双手操作虚拟对象的情况下,由于用户实际上没有握持与虚拟对象相对应的尺寸的对象,所以双手之间的间隔可能容易波动。因此,在现有技术中,难以使用用户的双手的位置作为参考来定位虚拟对象。
因此,本公开内容提出了一种即使当用户的双手之间的间隔改变时也能够抑制虚拟对象相对于双手的定位中的不协调感的显示控制装置、显示控制方法和记录介质。
技术的解决方案
为了解决上述问题,根据本公开内容的实施方式的显示控制装置包括:获取单元,其被配置成获取指示头戴式显示器的用户的右手的位置的右手位置信息和指示用户的左手的位置的左手位置信息;以及显示控制单元,其控制头戴式显示器以基于右手位置信息和左手位置信息来在右手的位置和左手的位置处布置具有特定尺寸的虚拟对象,其中,显示控制单元控制头戴式显示器,以在保持虚拟对象的显示状态的同时独立于右手与左手之间的距离的改变而改变虚拟对象的位置,在显示状态中,所布置的虚拟对象的纵向方向平行于连接右手与左手的虚拟线。
此外,根据本公开内容的实施方式的显示控制方法包括通过计算机执行以下步骤:获取指示头戴式显示器的用户的右手的位置的右手位置信息和指示用户的左手的位置的左手位置信息;控制头戴式显示器以基于右手位置信息和左手位置信息在右手的位置和左手的位置处布置具有特定尺寸的虚拟对象;以及控制头戴式显示器以在保持虚拟对象的显示状态的同时独立于右手与左手之间的距离的改变而改变虚拟对象的位置,在显示状态中,所布置的虚拟对象的纵向方向平行于连接右手与左手的虚拟线。
此外,根据本公开内容的实施方式的计算机可读记录介质记录用于使计算机实现以下操作的程序:获取指示头戴式显示器的用户的右手的位置的右手位置信息和指示用户的左手的位置的左手位置信息;控制头戴式显示器以基于右手位置信息和左手位置信息在右手的位置和左手的位置处布置具有特定尺寸的虚拟对象;以及控制头戴式显示器,以在保持虚拟对象的显示状态的同时独立于右手与左手之间的距离的改变而改变虚拟对象的位置,在显示状态中,所布置的虚拟对象的纵向方向平行于连接右手与左手的虚拟线。
附图说明
[图1]是用于说明根据实施方式的***配置的示例的图。
[图2]是示出根据实施方式的头戴式显示器的示例的图。
[图3]是用于说明根据实施方式的AR眼镜***的配置的示例的图。
[图4]是示出头戴式显示器的叠加区域与虚拟对象之间的关系的示例的图。
[图5]是用于说明头戴式显示器的显示示例的图。
[图6]是用于说明头戴式显示器的另一显示示例的图。
[图7]是示出虚拟对象的叠加位置与用户的手的位置之间的关系的示例的图。
[图8]是示出虚拟对象的叠加位置与用户的手的位置之间的关系的另一示例的图。
[图9]是用于说明头戴式显示器的第一异常处理的示例的图。
[图10]是用于说明头戴式显示器的第二异常处理的示例的图。
[图11]是示出由根据实施方式的头戴式显示器执行的处理过程的示例的流程图。
[图12]是示出图11所示的第一显示控制处理的示例的流程图。
[图13]是示出图11所示的第二显示控制处理的示例的流程图。
[图14]是示出图11所示的第三显示控制处理的示例的流程图。
[图15]是示出实现显示控制装置的功能的计算机的示例的硬件配置图。
具体实施方式
在下文中,将基于附图详细描述本公开内容的实施方式。注意,在以下实施方式中的每一个中,相同部分用相同的附图标记表示,并且将省略冗余的描述。
(实施方式)
[根据实施方式的信息处理装置的配置]
图1是用于说明根据实施方式的***配置的示例的图。图2是示出根据实施方式的头戴式显示器的示例的图。如图1所示,增强现实(AR)眼镜***1包括头戴式显示器(HMD)10。HMD 10包括AR HMD和虚拟现实(VR)HMD。AR HMD是将虚拟对象叠加在真实空间的图像上的头戴式可穿戴设备。AR HMD包括光学透视方案和视频透视方案。同时,VR HMD是在虚拟空间中布置虚拟对象的头戴式可穿戴设备。根据本实施方式的HMD 10可以适于用于AR HMD中,在该AR HMD中容易识别真实对象与虚拟对象之间的移位。HMD 10佩戴在用户2的头部3上,并且在用户2的眼睛前方的显示器上显示所生成的图像。
AR眼镜***1还包括检测用户2的手的位置信息的可穿戴设备20。可穿戴设备20是运动传感器的示例。可穿戴设备20包括例如控制器、位置传感器单元等。可穿戴设备20分别佩戴在用户2的右手4和左手5中的一个上。作为可穿戴设备20,可以使用由用户的右手4和左手5中的每一个握持的控制器、手套型控制器等。可穿戴设备20能够与HMD 10通信并且将检测到的手的位置信息提供给HMD。此外,作为运动传感器,例如,可以使用诸如深度相机或飞行时间(TOF)相机的成像装置。通过将可穿戴设备20用于运动传感器,即使在成像装置不能对用户2的手进行成像的状态下,也可以精确地检测手的位置信息。
AR眼镜***1基于对真实空间的环境理解来确定响应,并且响应于所确定的响应在真实空间的图像上叠加和显示虚拟对象。对真实空间的环境的理解包括对从运动传感器获取的用户2的手的位置的估计(确定)。
在图2所示的示例中,HMD 10包括多个显示器11和多个成像装置12。显示器11的显示区域通常比成像装置12的视角窄。显示器11和成像装置12布置在用户2的眼球附近。成像装置12的视角的中心和显示器11的显示区域的中心基本上彼此重合,并且通过校准来校正由于布置误差引起的中心之间的偏差。
AR眼镜***1基于上述环境理解,通过将虚拟对象和自身位置与全局坐标系相关联,实现从用户2观看时虚拟对象三维地定位在真实空间中的显示状态。注意,自身位置估计对应于对设备位置和姿势的估计。
HMD 10的诸如环境理解、响应确定和叠加显示的功能由HMD 10的处理器执行。HMD10的至少一些功能可以由诸如智能电话或云服务器的单独设备来执行。
[本公开内容的前提]
在下文中,将描述用于控制本公开内容中的虚拟对象的显示位置的方法。以下描述基于以下前提:用户2正通过姿势操作或对可穿戴设备20的输入操作给出用双手握持虚拟对象的操作指令。应当注意,例如,当用户2停止用双手握持的操作指令时,虚拟对象根据针对AR内容定义的物理操作结果而移开用户2的至少一只手。
此外,在下面的描述中,假定了与游戏内容相关的要用双手握持的虚拟对象,例如武器;然而,本公开内容的发明不限于此。本公开的发明中的虚拟对象仅需要是具有预定尺寸或更大尺寸的对象。更具体地,本公开内容中的虚拟对象可以被认为具有这样的尺寸:在用户2用双手直接或间接握持虚拟对象并且双手与用户2的距离大于或等于10cm的状态下,虚拟对象的纵向方向上的至少一端伸到显示区域外部。
例如,在显示由用户2用双手操作的具有固定尺寸(例如长度或宽度)的虚拟对象的情况下,在一些情况下,AR眼镜***1难以定位该虚拟对象。虚拟对象例如包括诸如步枪或弓的虚拟对象。因此,在本实施方式中,提供了即使用户2的双手之间的间隔改变也能够抑制虚拟对象相对于双手的不协调感的HMD 10等。
[根据实施方式的AR眼镜***的配置示例]
接下来,将描述根据实施方式的AR眼镜***1的配置示例。图3是用于说明根据实施方式的AR眼镜***1的配置的示例的图。图4是示出头戴式显示器10的叠加区域与虚拟对象200之间的关系的示例的图。
[可穿戴设备的配置示例]
如图3所示,可穿戴设备20包括运动传感器21、通信单元22和控制单元23。控制单元23与运动传感器21和通信单元22电连接。
运动传感器21感测用户2的状态等,并且将感测到的传感器信息提供给控制单元23。运动传感器21包括例如多个传感器,例如惯性测量单元(IMU)和方位传感器。IMU感测用户2的运动。IMU包括例如三轴陀螺仪传感器和三轴加速度传感器,并且将指示三维角速度、加速度等的已检测的传感器信息提供给控制单元23。方位传感器感测用户2的手的方向(取向)。方位传感器包括例如地磁传感器,并且将指示检测到的用户2的手的方向的传感器信息提供给控制单元23。
通信单元22与例如HMD 10等通信。通信单元22经由例如有线或无线网络发送和接收各种类型的数据。通信单元22将传感器信息发送至HMD 10。通信单元22将例如从HMD 10接收的各种类型的数据提供给控制单元23。
控制单元23控制可穿戴设备20。控制单元23控制运动传感器21、通信单元22等。控制单元23执行将指示运动传感器21的检测结果的传感器信息发送至HMD 10的控制。
上面已经描述了根据本实施方式的可穿戴设备20的功能配置示例。注意,以上参照图3描述的配置仅是示例,并且根据本实施方式的可穿戴设备20的功能配置不限于这样的示例。根据本实施方式的可穿戴设备20的功能配置可以根据规格或用途灵活地修改。
[头戴式显示器的配置示例]
如图3所示,HMD 10包括显示器11、成像装置12、传感器单元13、通信单元14、扬声器15、存储单元16和控制单元17。控制单元17与显示器11、成像装置12、传感器单元13、通信单元14、扬声器15和存储单元16电连接。
显示器11包括例如透视显示器、液晶显示器(LCD)、有机电致发光显示器(OELD)等。显示器11在控制单元17的控制下显示各种类型的信息。各种类型的信息包括例如具有特定尺寸的虚拟对象。具有固定尺寸的虚拟对象包括例如具有固定尺寸的虚拟对象、能够变形为多个不同尺寸的虚拟对象、能够变形的虚拟对象等。例如,当佩戴HMD 10时,每个显示器11显示与用户U的眼睛中的一个相对应的图像,从而使用两只眼睛的视差实现三维显示。由此,显示器11三维地显示虚拟对象。
成像装置12获取用于估计用户2的视线方向的信息。成像装置12具有通过在诸如电荷耦合器件(CCD)或互补金属氧化物半导体(CMOS)的成像元件上形成图像来对静止图像或运动图像进行成像的功能。成像装置12包括例如外向相机和内向相机。外向相机例如捕获视角内的真实空间的图像,并且将捕获的图像信息提供给控制单元17。例如,内向相机向控制单元17提供捕获用户2的眼睛的图像的图像信息。
传感器单元13感测用户2的状态、周围情况等,并且将感测到的传感器信息提供给控制单元17。传感器单元13例如包括多个传感器,例如麦克风、惯性测量单元(IMU)和方位传感器。麦克风收集用户2的声音或周围声音(例如环境声音),并且将收集的声音信息提供给控制单元17。IMU感测用户2的运动。IMU包括例如三轴陀螺仪传感器和三轴加速度传感器,并且将已被检测到并指示三维角速度、加速度等的传感器信息提供给控制单元17。方位传感器感测HMD 10的方向(取向)。方位传感器包括例如地磁传感器,并且将指示HMD 10的检测方向的传感器信息提供给控制单元17。
通信单元14以有线或无线方式与诸如可穿戴设备20的外部电子装置电连接,并且发送和接收数据。通信单元14通过例如有线/无线局域网(LAN)、Wi-Fi(注册商标)、蓝牙(注册商标)等可通信地连接至HMD 10外部的电子装置。通信单元14将接收到的信息提供给控制单元17。通信单元14将控制单元17指示的信息发送至相应的电子装置。
扬声器15被配置为例如佩戴在佩戴HMD 10的用户2的头部上的耳机,并且在控制单元17的控制下再现音频信号。替选地,扬声器15不限于耳机类型,并且可以被配置为耳机或骨传导扬声器。
存储单元16存储各种类型的数据和各种程序。例如,存储单元16可以存储来自成像装置12、传感器单元13、通信单元14等的各种类型的信息。存储单元16例如是随机存取存储器(RAM)、诸如闪速存储器的半导体存储元件、硬盘、光盘等。注意,存储单元16可以包括在经由网络连接至HMD 10的服务器、电子装置等中。在本实施方式中,存储单元16是记录介质的示例。
存储单元16存储例如右手位置信息161、左手位置信息162、视线信息163、姿势信息164等。右手位置信息161包括例如指示用户2的右手4的位置的信息。右手位置信息161包括例如指示用户2的左手5的位置的信息。右手位置信息161和左手位置信息162与基于HMD10的位置的局部坐标或通过同时定位和映射(SLAM)技术获取的相对于真实空间的全局坐标相关联地管理。视线信息163例如包括指示用户2的视线方向的信息。姿势信息164包括例如指示用户2的姿势、方向、形状等的信息。
控制单元17控制HMD 10。控制单元17例如由中央处理单元(CPU)、微控制单元(MCU)等实现。此外,控制单元17可以由例如诸如专用集成电路(ASIC)或现场可编程门阵列(FPGA)的集成电路来实现。控制单元17可以包括存储要使用的程序、操作参数等的只读存储器(ROM)和临时存储适当改变的参数等的RAM。在本实施方式中,控制单元17是显示控制装置的示例。
控制单元17包括诸如获取单元17A和显示控制单元17B的功能单元。例如,当控制单元17使用RAM等作为工作区执行存储在HMD 10内的程序时,实现控制单元17的功能。
获取单元17A获取指示HMD 10的用户2的右手4的位置的右手位置信息161和指示用户2的左手5的位置的左手位置信息162。获取单元17A从可穿戴设备20的运动传感器21获取例如指示HMD 10的用户2的右手4的位置的右手位置信息161和指示用户2的左手5的位置的左手位置信息162。例如,获取单元17A基于成像装置12的图像信息通过图像识别来获取右手位置信息161和左手位置信息162。替选地,获取单元17A可以经由通信单元14获取例如由佩戴在用户2的右手4上的可穿戴设备20的传感器信息指示的位置作为右手位置信息161。在这种情况下,获取单元17A经由通信单元14获取由佩戴在用户2的左手5上的可穿戴设备20的传感器信息指示的位置作为左手位置信息162。然后,获取单元17A将已经获取的右手位置信息161和左手位置信息162存储在存储单元16中。
获取单元17A获取用户2的视线方向。获取单元17A使用例如已知的视线估计方法来估计用户U的视线。例如,在通过瞳孔中心角膜反射法估计视线的情况下,获取单元17A使用光源和相机。在本实施方式中,获取单元17A从HMD 10的成像装置12获取图像信息。分析通过由成像装置12对用户2的眼睛成像而获得的图像信息,检测亮点或瞳孔,并且生成包括与亮点的位置相关的信息的亮点相关信息以及包括与瞳孔的位置相关的信息的瞳孔相关信息。获取单元17A基于亮点相关信息、瞳孔相关信息等估计用户2的视线方向。获取单元17A获取指示估计视线方向的视线信息163,并且将视线信息存储在存储单元16中。
如图4所示,显示控制单元17B基于右手位置信息161和左手位置信息162控制HMD10以在右手4的位置和左手5的位置处布置具有特定尺寸的虚拟对象200。显示控制单元17B基于显示虚拟对象200的信息,执行在显示器11上显示虚拟对象200的控制。显示控制单元17B控制HMD 10的显示以叠加在HMD 10的叠加区域100内部的用户2的手的位置上。叠加区域100可以是例如显示器11的显示区域或成像装置12的视角区域。例如,显示器11的显示区域是矩形区域,并且是比用户2的视角窄的区域。控制HMD 10包括例如在显示器11上显示虚拟对象200、从扬声器15输出声音等。在图4所示的示例中,叠加区域100是由两条虚线包围的区域。
显示控制单元17B控制HMD 10,以在保持虚拟对象200的显示状态的同时,独立于右手4与左手5之间的距离的改变而改变虚拟对象200的位置,在显示状态中,所布置的虚拟对象200的纵向方向平行于连接右手4和左手5的虚拟线210。即,即使用户2的右手4与左手5之间的距离改变,显示控制单元17B也不改变虚拟对象200的位置。
虚拟线210被设定为具有以用户2的一只手为一端并且另一只手为另一端的两端的线段。虚拟对象200布置(显示)在叠加区域100中,使得纵向方向平行于虚拟线210。虚拟对象200具有基本上固定的尺寸。虚拟对象200不限于完全刚性的物体,并且还包括像弓那样柔性的虚拟对象。换言之,如果虚拟对象200是真实对象,“具有基本固定尺寸的虚拟对象”可以被认为是其尺寸通常被用户2识别为不变的虚拟对象200。替选地,“具有基本固定尺寸的虚拟对象”可以被认为是具有小于或等于预定值的变形量的对象。另一方面,不包括在“具有固定尺寸的虚拟对象”中的对象可以包括具有大于或等于预定值的变形率的弹性体(例如可以拉伸到基本上任何尺寸的橡胶带)、无定形流体对象或胶状对象。
显示控制单元17B具有控制HMD 10的功能,以基于用户2的视线方向的改变而独立于右手4与左手5之间的距离的改变来改变虚拟对象200的位置。显示控制单元17B基于在视线方向上延伸的线与虚拟线210的交点来确定虚拟对象200相对于右手4或左手5中的至少一个的叠加位置。
图5是用于说明头戴式显示器10的显示示例的图。图6是用于说明头戴式显示器10的另一显示示例的示图。图7是示出虚拟对象200的叠加位置与用户2的手的位置之间的关系的示例的曲线图。
在图5所示的示例中,用户2将视线L1指向位于HMD 10的叠加区域100内部的右手4,并且将左手5定位在叠加区域100外部。在这种情况下,显示控制单元17B估计视线L1与虚拟线210的交点X的位置,并且根据该交点X与接近视线L1的用户2的右手4之间的距离来确定虚拟对象200的叠加位置。例如,显示控制单元17B执行使虚拟对象200的显示位置改变的显示控制,使得用户2的右手4与交点X之间的距离越短,虚拟对象200的端部与右手4的位置交叠得越多。即,显示控制单元17B控制HMD 10的显示,使得即使当用户2的左手5的位置改变并且左手与右手之间的间隔改变时,虚拟对象200的端部也被固定到叠加区域100内部的右手4。另一方面,在显示控制单元17B中,虚拟对象200的另一端不固定在左手5的叠加区域100外部的位置处。因此,如显示示例M1所示,HMD 10可以使用户2在视觉上识别虚拟对象200的端部稳定地布置在叠加区域100内部的右手4上。注意,在本实施方式中,虚拟对象200的端部例如包括作为虚拟对象200的把握部的部分、实际端部等。
在图6所示的示例中,用户2将视线L2指向位于HMD 10的叠加区域100内部的左手5,并且将右手4定位在叠加区域100外部。在这种情况下,显示控制单元17B估计视线L2与虚拟线210的交点X的位置,并且根据该交点X与接近视线L2的用户2的左手5之间的距离来确定虚拟对象200的叠加位置。例如,显示控制单元17B执行改变虚拟对象200的显示位置的显示控制,使得用户2的左手5与交点X之间的距离越短,虚拟对象200的端部与左手5的位置交叠得越多。即,显示控制单元17B控制HMD 10的显示,使得即使当用户2的右手4的位置改变并且左手与右手之间的间隔改变时,虚拟对象200的端部也被固定到叠加区域100内部的左手5。另一方面,在显示控制单元17B中,虚拟对象200的另一端未被固定在叠加区域100外部的右手4的位置处。因此,如显示示例M2所示,HMD 10可以使用户2在视觉上识别虚拟对象200的端部稳定地布置在叠加区域100内部的左手5上。
显示控制单元17B使用用于使用户2视觉地识别在不依赖于双手间的距离的情况下稳定布置的虚拟对象200的计算方法。作为计算方法,例如,使用基于图7所示的曲线图的计算公式。在图7所示的曲线图中,纵轴表示虚拟对象200的叠加位置,并且横轴表示交点X的位置。图7所示的曲线图定义了当交点X的位置与用户2的右手4的位置交叠时虚拟对象200的叠加位置与右手4交叠的位置。图7所示的曲线图定义了当交点X的位置远离用户2的右手4的位置时虚拟对象200的叠加位置从右手4移位的位置。图7所示的曲线图定义了当交点X的位置与用户2的左手5的位置交叠时虚拟对象200的叠加位置与左手5交叠的位置。HMD10将用于执行上述计算方法的信息存储在例如存储单元16、可访问的外部存储装置等中。显示控制单元17B使用该计算方法根据交点X的位置计算虚拟对象200的叠加位置。
在用户2的右手4和左手5位于叠加区域100外部、虚拟线210位于叠加区域100内部的情况下,显示控制单元17B通过参考虚拟线210的交点X的位置来确定虚拟对象200的叠加位置。例如,显示控制单元17B确定通过交点X且与虚拟线210平行的虚拟对象200的叠加位置。显示控制单元17B控制显示器11的显示,使得虚拟对象200布置在所确定的叠加位置处。因此,即使当用户2的双手在叠加区域100外部时,HMD 10也可以抑制虚拟对象200的显示中的不协调感。
图8是示出虚拟对象200的叠加位置与用户2的手的位置之间的关系的另一示例的图。根据本实施方式的虚拟对象200的示例包括如图8所示的第一人称视点游戏中的武器对象。武器对象的示例包括在场景SN1中示出的火器和在场景SN2中示出的诸如弓和箭的对象。这些对象是用于指向远点的操作对象。因此,在用户2使用这些对象的情况下,基本上,用户2操作这些对象,使得远端的手落入从用户2观察的视角内。
在用户2的视野中,即,在HMD 10的叠加区域100内部,虚拟对象200的纵向方向根据虚拟线210的倾斜而改变。因此,在叠加区域100内部包括用户2的任一只手的情况下,显示控制单元17B使虚拟对象200的端部在虚拟线210上滑动,并且将虚拟对象200的端部叠加在用户2的手的位置处。
例如,在场景SN1中,用户2在视觉上识别虚拟对象200的点的方向。在这种情况下,显示控制单元17B识别出相对于右手4位于距用户2较远一侧的左手5位于叠加区域100内部,并且在虚拟线210上滑动虚拟对象200,使得虚拟对象200的端部位于叠加在左手5上的位置处。
例如,在场景SN2中,用户2在视觉上将弓的中心附近识别为由右手4握持的虚拟对象200。在这种情况下,显示控制单元17B识别出相对于左手5位于距用户2较远一侧的右手4位于叠加区域100内部,并且在虚拟线210上滑动虚拟对象200,使得虚拟对象200的端部位于叠加在右手4上的位置处。
根据本实施方式,由于在用户2的指向操作的处理中虚拟对象200的位置在虚拟线210上平滑地滑动,所以HMD 10可以相对于用户2的双手之间的间隔的改变来减少虚拟对象200的显示中的不协调感。
上面已经描述了根据本实施方式的AR眼镜***1中包括的HMD 10的功能配置示例。注意,以上参照图3描述的配置仅是示例,并且根据本实施方式的HMD 10的功能配置不限于这样的示例。根据本实施方式的HMD 10的功能配置可以根据规格或用途而灵活地修改。
[与头戴式显示器的显示控制相关的异常处理]
图9是用于说明头戴式显示器10的第一异常处理的示例的图。图10是用于说明头戴式显示器10的第二异常处理的示例的图。HMD 10具有在不能获取任一只手的位置信息的情况下执行作为异常处理的第一异常处理、以及在整个虚拟对象200在叠加区域100内部的情况下执行作为异常处理的第二异常处理以及其他处理的功能。
[第一异常处理]
例如,在由成像装置12感测的情况下,安装到HMD 10的成像装置12的视角(例如,约70度的对角)通常具有限制。因此,存在这样的情况:根据用户2的视线方向的改变,一只手不包括在视角中,并且不能准确地获取手的位置信息。例如,在图9所示的示例中,由于用户2的左手5在视角外部,因此HMD 10不能获取左手5的位置信息并且不能根据双手的位置信息来设定虚拟线210。
获取单元17A不能从成像装置12的图像信息获取用户2的一只手的位置信息,并且显示控制单元17B识别出用户2的另一只手位于叠加区域100内部。显示控制单元17B基于由获取单元17A获取的另一只手的姿势信息、视线方向、虚拟对象200的类型和形状等来设定虚拟对象200的纵向方向。在这种情况下,显示控制单元17B控制HMD 10,使得虚拟对象200的端部叠加在用户2的另一只手上。显示控制单元17B控制HMD 10以基于位于叠加区域100内部的用户2的一只手的姿势的改变来改变虚拟对象200的纵向方向。在图9所示的示例中,显示控制单元17B在显示器11上显示虚拟对象200,使得虚拟对象200的端部叠加在用户的右手4上,并且虚拟对象200的纵向方向指向与右手4的姿势相对应的方向。
[第二异常处理]
例如,在整个虚拟对象200包括在叠加区域100内部的情况下,如果虚拟对象200如上所述根据用户2的双手之间的间隔滑动,则这可能不利地给用户2带来不协调感。因此,在第二异常处理中,即使在能够基于双手的位置信息来设定虚拟线210的情况下,也根据叠加区域100内部的一只手的位置或姿势(例如,视角)来改变虚拟对象200的位置或姿势,并且忽略另一只手的位置或姿势的改变。即,第二异常处理是显示要操作的整个虚拟对象200的情况下的异常处理。
显示控制单元17B控制HMD 10,以根据位于HMD 10的叠加区域100内部的用户2的一只手的位置或姿势中的至少一个来改变虚拟对象200的位置。显示控制单元17B忽略用户2的与该只手不同的另一只手的位置或姿势的改变。例如,在对虚拟对象200设定了适于握持的手的情况下,显示控制单元17B将适于握持的手设定为该只手。例如,在设定了虚拟对象200的操作所需的手的情况下,显示控制单元17B将虚拟对象200的操作所需的手以外的手设定为该只手。操作所需的手意味着例如位置根据对虚拟对象200的操作而改变的手。在图10所示的示例中,右手4被设定为适于握持虚拟对象200的手。在这种情况下,显示控制单元17B在显示器11上显示虚拟对象200,使得虚拟对象200的端部叠加在用户的右手4上,并且虚拟对象200的纵向方向平行于虚拟线210。因此,由于即使用户2改变左手5的位置或姿势,虚拟对象200的显示也不改变,所以可以抑制虚拟对象200的显示中的不协调感。
注意,HMD 10可以组合上述第一异常处理和第二异常处理。HMD 10可以将第一异常处理或第二异常处理中的至少一个与基本显示控制处理组合。
[根据实施方式的头戴式显示器10的处理过程]
接下来,将描述根据本实施方式的头戴式显示器10的处理过程的示例。图11是示出由根据实施方式的头戴式显示器10执行的处理过程的示例的流程图。图12是示出图11所示的第一显示控制处理的示例的流程图。图13是示出图11所示的第二显示控制处理的示例的流程图。图14是示出图11所示的第三显示控制处理的示例的流程图。注意,图11所示的处理过程由执行程序的HMD 10的控制单元17实现。在虚拟对象200显示在显示器11上的情况下,图11所示的处理过程由HMD 10的控制单元17重复执行。
如图11所示,HMD 10的控制单元17获取用户2的双手的位置信息(步骤S10)。例如,控制单元17经由可穿戴设备20获取右手位置信息161和左手位置信息162。例如,控制单元17基于成像装置12的图像信息获取右手位置信息161和左手位置信息162。控制单元17将所获取的位置信息存储在存储单元16中。通过执行步骤S10的处理,控制单元17用作获取单元17A。当步骤S10的处理完成时,控制单元17使处理进行至步骤S20。
控制单元17确定是否不能获取一只手的位置信息(步骤S20)。例如,在右手位置信息161或左手位置信息162未存储在存储单元16中的情况下,控制单元17确定不能获取一只手的位置信息。如果确定不能获取一只手的位置信息(步骤S20中的“否”),则控制单元17进行处理步骤S30,因为已经获取了用户2的双手的位置信息。
控制单元17确定在叠加区域100内部是否显示整个虚拟对象200(步骤S30)。如果确定在叠加区域100内部未显示虚拟对象200(步骤S30中为否),则控制单元17使处理进行至步骤S40。
控制单元17执行第一显示控制处理(步骤S40)。第一显示控制处理例如是基于用户2的双手的位置信息和连接双手的虚拟线210来控制显示器11的显示以将虚拟对象200叠加在用户2的双手的位置上的处理。第一显示控制处理包括例如图12所示的处理过程。
如图12所示,控制单元17设定连接用户2的双手的虚拟线210(步骤S41)。例如,控制单元17设定连接由右手位置信息161指示的位置和由左手位置信息162指示的位置的虚拟线210。然后,控制单元17获取用户2的视线信息(步骤S42)。例如,控制单元17基于成像装置12的图像信息估计用户2的视线方向,并且获取指示已估计的视线方向的视线信息163。然后,控制单元17基于虚拟线210与视线之间的交点X确定其纵向方向平行于虚拟线210的虚拟对象200的叠加位置(步骤S43)。例如,控制单元17确定其纵向方向平行于虚拟线210并且虚拟对象200的端部叠加在用户2的手上的叠加位置。然后,控制单元17控制显示器11的显示,使得虚拟对象200沿着虚拟线210滑动到叠加位置(步骤S44)。
因此,HMD 10可以在保持虚拟对象200的显示状态平行于虚拟线210的同时,将虚拟对象200的端部叠加并显示在位于接近用户2的视线方向并在叠加区域100内部的用户2的手上。此外,即使当用户2的右手4与左手5之间的间隔改变时,HMD 10也可以减少虚拟对象200相对于双手的定位中的不协调感。当完成图12所示的处理过程时,控制单元17返回到图11并结束图11所示的处理过程。
替选地,如果控制单元17确定不能获取一只手的位置信息(步骤S20中为是),则还没有获取用户2的双手的位置信息,并且因此处理进行至步骤S50。
控制单元17执行第二显示控制处理(步骤S50)。第二显示控制处理例如包括上述第一异常处理。第二显示控制处理包括例如图13所示的处理过程。
如图13所示,控制单元17获取叠加区域100内部的手以外的手的姿势(步骤S51)。例如,控制单元17基于成像装置12的图像信息估计用户2的另一只手的姿势,并且获取指示所估计的姿势的姿势信息164。然后,控制单元17基于获取的姿势估计虚拟对象200的纵向方向(步骤S52)。例如,控制单元17基于获取的另一只手的姿势、视线方向、虚拟对象200的类型和形状等来估计虚拟对象200的纵向方向。然后,控制单元17控制显示器11的显示,使得虚拟对象200的端部沿纵向方向滑动到另一只手的叠加位置(步骤S53)。
因此,在不能获取一只手的位置信息的情况下,HMD 10可以在显示器11上显示虚拟对象200,使得虚拟对象200的端部叠加在用户的另一只手上,并且虚拟对象200的纵向方向指向与另一只手的姿势相对应的方向。此外,即使用户2的一只手的位置未知,HMD 10也可以减少虚拟对象200相对于另一只手的定位中的不协调感。当完成图13所示的处理过程时,控制单元17返回到图11并结束图11所示的处理过程。
另外替选地,如果确定在叠加区域100内显示虚拟对象200(步骤S30中为是),则控制单元17使处理进行至步骤S60。
控制单元17执行第三显示控制处理(步骤S60)。第三显示控制处理例如包括上述第二异常处理。第三显示控制处理包括例如图14所示的处理过程。
如图14所示,控制单元17确定叠加区域100内部的用户2的手用作参考(步骤S61)。例如,控制单元17将适于握持虚拟对象200的手确定为参考。然后,控制单元17获取参考手的位置和姿势(步骤S62)。例如,控制单元17基于成像装置12的图像信息估计用户2的另一只手的位置和姿势,并且获取参考手的位置信息和姿势信息164。然后,控制单元17基于获取的位置和姿势来估计虚拟对象200的纵向方向(步骤S63)。控制单元17估计平行于双手的虚拟线210的纵向方向。然后,控制单元17控制显示器11的显示,使得虚拟对象200沿纵向方向叠加在参考手上(步骤S64)。
因此,在整个虚拟对象200显示在叠加区域100内部的情况下,HMD 10可以在显示器11上显示虚拟对象200,使得虚拟对象200的端部叠加在用户的参考手上。此外,即使与用户2的参考手不同的手改变,HMD 10也可以减少虚拟对象200相对于参考手的定位中的不协调感。当完成图14所示的处理过程时,控制单元17返回到图11并结束图11所示的处理过程。
在图11所示的处理过程中,已经描述了控制单元17通过执行从步骤S20到步骤S60的处理而用作显示控制单元17B的情况;然而,并不限于此。
注意,上述实施方式是示例,并且各种修改和应用是可能的。
[硬件配置]
通过例如具有如图15所示的配置的计算机1000来实现根据上述实施方式的显示控制装置。在下文中,将作为示例描述对应于根据实施方式的显示控制装置的HMD 10的控制单元17。图15是示出实现显示控制装置的功能的计算机1000的示例的硬件配置图。计算机1000包括CPU 1100、RAM 1200、只读存储器(ROM)1300、硬盘驱动器(HDD)1400、通信接口1500以及输入和输出接口1600。计算机1000的单元通过总线1050连接。
CPU 1100根据存储在ROM 1300或HDD 1400中的程序进行操作,并且控制每个单元。例如,CPU 1100将存储在ROM 1300或HDD 1400中的程序加载到RAM 1200中,并且执行对应于各种程序的处理。
ROM 1300存储引导程序,例如当计算机1000被激活时由CPU 1100执行的基本输入输出***(BIOS)、依赖于计算机1000的硬件的程序等。
HDD 1400是非暂态地记录要由CPU 1100执行的程序、由该程序使用的数据等的计算机可读记录介质。具体地,HDD 1400是记录根据本公开内容的作为程序数据1450的示例的程序的记录介质。
通信接口1500是用于计算机1000与外部网络1550(例如,因特网)连接的接口。例如,CPU 1100经由通信接口1500从另一装置接收数据或者将由CPU 1100生成的数据发送至另一装置。
输入和输出接口1600是用于连接输入和输出设备1650和计算机1000的接口。例如,CPU 1100经由输入和输出接口1600从诸如键盘和鼠标的输入设备接收数据。CPU 1100还经由输入和输出接口1600将数据发送至诸如显示器、扬声器或打印机的输出设备。此外,输入和输出接口1600可以用作读取记录在预定记录介质中的程序等的介质接口。介质例如是诸如数字多功能盘(DVD)的光记录介质、诸如磁光盘(MO)的磁光记录介质、磁带介质、磁记录介质、半导体存储器等。
例如,在计算机1000用作根据本实施方式的信息处理装置的情况下,计算机1000的CPU 1100通过执行加载在RAM 1200上的程序来实现包括获取单元17A、显示控制单元17B等的功能的控制单元17。HDD 1400还将根据本公开内容的程序或数据存储在存储单元16中。注意,尽管CPU 1100从HDD 1400读取程序数据1450并执行程序数据1450,但是作为另一示例,这些程序可以经由外部网络1550从另一装置获取。
虽然已经参照附图详细描述了本公开内容的优选实施方式,但是本公开内容的技术范围不限于这些示例。明显的是,在本公开内容的技术领域中具有普通知识的人可以在权利要求中描述的技术思想的范围内构思各种修改或变化,并且自然地理解,这些也属于本公开内容的技术范围。
此外,本说明书中描述的效果仅是说明性或示例性的,而不是限制性的。即,根据本公开内容的技术可以实现对于本领域技术人员而言从本说明书的描述中明显的其他效果以及或代替上述效果。
此外,还可以创建用于使内置在计算机中的诸如CPU、ROM和RAM的硬件实现与HMD10的配置等效的功能的程序,并且提供记录该程序的计算机可读记录介质。
同时,根据本说明书中的信息处理装置的处理的步骤不必以流程图中描述的顺序按时间序列处理。例如,根据信息处理装置的处理的步骤可以以与流程图中描述的顺序不同的顺序来处理,或者可以并行地处理。
(效果)
控制单元17包括:获取单元17A,其获取指示HMD 10的用户2的右手4的位置的右手位置信息161和指示用户2的左手5的位置的左手位置信息162;以及显示控制单元17B,其基于右手位置信息161和左手位置信息162控制HMD 10,以在右手4的位置和左手5的位置处布置具有特定尺寸的虚拟对象200。显示控制单元17B控制HMD 10,以在保持虚拟对象200的显示状态的同时,独立于右手4与左手5之间的距离的改变而改变虚拟对象200的位置,在显示状态中,所布置的虚拟对象200的纵向方向平行于连接右手4和左手5的虚拟线210。
因此,即使用户2的双手之间的间隔改变,控制单元17也可以保持相对于用户2的双手之间的虚拟线210的平行关系,并且通过参考双手的位置来定位虚拟对象200。这使得实现以下效果:即使用户2的双手之间的间隔改变,也可以实现控制单元17能够抑制虚拟对象200相对于双手的定位中的不协调感。
在控制单元17中,获取单元17A获取指示用户2的视线方向的视线信息163,并且显示控制单元17B控制HMD 10以基于视线方向的改变独立于右手4与左手5之间的距离的改变来改变虚拟对象200的位置。
因此,即使当用户2的双手之间的间隔改变时,控制单元17也可以通过参考视线方向和用户2的双手的位置来定位虚拟对象200。因此,即使用户2的双手之间的间隔改变,控制单元17也可以将虚拟对象200布置在适合于用户2的视线方向的位置,并且因此可以抑制在虚拟对象200的定位中的不协调感。
在控制单元17中,显示控制单元17B基于在视线方向上延伸的线与虚拟线210的交点X来确定虚拟对象200相对于右手4或左手5中的至少一个的叠加位置。
因此,控制单元17可以基于连接用户2的双手的虚拟线210上的用户2的视线位置来确定虚拟对象200的叠加位置。因此,即使用户2的双手之间的间隔改变,控制单元17也可以将虚拟对象200布置在虚拟线210上的适合于用户2的视线位置的位置处。因此,可以进一步抑制虚拟对象200的定位中的不协调感。
在控制单元17中,在用户的一只手根据视线方向的改变而移动到HMD 10的叠加区域100外部的情况下,显示控制单元17B控制HMD 10,使得平行于虚拟线210的虚拟对象200叠加在位于叠加区域100内部的用户2的另一只手的位置处。
因此,在用户2的一只手位于叠加区域100外部并且另一只手位于叠加区域100内部的情况下,控制单元17可以在位于叠加区域100内部的用户2的另一只手的位置上叠加并显示平行于虚拟线210的虚拟对象200。因此,控制单元17可以将虚拟对象200配置在位于叠加区域100内部的用户2的手中,并且因此可以进一步抑制虚拟对象200的定位中的不协调感。
在控制单元17中,虚拟对象200包括武器对象或操作对象中的至少一个。
因此,通过操作武器对象或操作对象中的至少一个,即使连接用户2的双手的虚拟线210的倾斜度改变,控制单元17也可以在位于叠加区域100内部的用户2的另一只手的位置处叠加并显示平行于虚拟线210的虚拟对象200。因此,控制单元17可以将虚拟对象200配置在位于叠加区域100内部的用户2的手中,并且因此可以进一步抑制对要***作的虚拟对象200的定位中的不协调感。
在控制单元17中,当用户2的右手4和左手5位于叠加区域100外部并且虚拟线210位于HMD 10的叠加区域100内部时,显示控制单元17B通过参考交点X的位置来确定虚拟对象的叠加位置。
因此,在用户2的双手位于叠加区域100外部的情况下,控制单元17可以基于叠加区域100内部的虚拟线210和与视线的交点X之间的关系来确定虚拟对象200的叠加位置。因此,即使用户2的双手位于叠加区域100外部,控制单元17也可以将虚拟对象200布置在适合于用户2的视线方向的位置处,并且因此可以抑制在虚拟对象200的定位中的不协调感。
在获取单元17A从HMD 10的成像装置12的图像信息获取用户2的手的位置信息并且显示控制单元17B不能获取用户2的手上的一只手的位置信息而用户2的另一只手位于HMD 10的叠加区域100内部的情况下,控制单元17控制HMD 10,使得虚拟对象200的端部叠加在一只手上而不设定虚拟线210。
因此,在不能获取用户2的一只手的位置信息的情况下,控制单元17可以将虚拟对象200的端部叠加在位于叠加区域100内部的另一只手上。因此,即使在不能获取用户2的一只手的位置信息的情况下,控制单元17也可以抑制虚拟对象200的定位中的不协调感。
控制单元17控制HMD 10,使得获取单元17A基于图像信息获取用户2的手的姿势信息164,并且显示控制单元17B基于位于叠加区域100内部的用户2的一只手的姿势的改变来改变虚拟对象200的纵向方向。
因此,在不能获取用户2的一只手的位置信息的情况下,控制单元17可以根据另一只手的姿势的改变来改变虚拟对象200的纵向方向。因此,控制单元17可以根据另一只手的姿势沿纵向方向叠加并显示虚拟对象200,并且因此可以抑制虚拟对象200的定位中的不协调感。
在整个虚拟对象200位于叠加区域100内部的情况下,控制单元17控制HMD 10,使得显示控制单元17B根据位于HMD 10的叠加区域100内部的用户2的一只手的位置或姿势中的至少一个来改变虚拟对象200的位置。
因此,在整个虚拟对象200位于叠加区域100内部的情况下,控制单元17可以根据用户2的一只手的位置或姿势中的至少一个来改变虚拟对象200的位置。因此,控制单元17不根据用户2的双手之间的间隔改变虚拟对象200的叠加位置,并且因此可以抑制虚拟对象200的定位中的不协调感。
在控制单元17中,显示控制单元17B忽略用户2的与一只手不同的另一只手的位置或姿势的改变。
因此,在整个虚拟对象200位于叠加区域100内部的情况下,如果双手位于叠加区域100内部,则控制单元17能够忽略用户2的另一只手的位置或姿势的改变。因此,即使可以基于双手的位置来设定虚拟线210,控制单元17也不会根据叠加区域100内部的一只手的位置或姿势来改变虚拟对象200的位置,并且因此可以进一步抑制虚拟对象200的定位中的不协调感。
控制单元17用在包括设置在用户2的眼睛前面的显示器11的HMD 10中。
因此,即使用户2的双手之间的间隔改变,控制单元17也可以控制HMD 10的显示器,以保持相对于用户2的双手之间的虚拟线210的平行关系,并且通过参考双手的位置来定位虚拟对象200。这使得实现以下效果:即使HMD 10的用户2的双手之间的间隔改变,控制单元17也可以抑制虚拟对象200相对于双手的定位中的不协调感。
一种显示控制方法,包括:通过计算机获取指示HMD 10的用户2的右手4的位置的右手位置信息161和指示用户2的左手5的位置的左手位置信息162;基于右手位置信息161和左手位置信息162控制HMD 10以在右手4的位置和左手5的位置处布置具有特定尺寸的虚拟对象200;以及控制HMD 10以在保持虚拟对象200的显示状态的同时独立于右手4与左手5之间的距离的改变而改变虚拟对象200的位置,在显示状态中,所布置的虚拟对象200的纵向方向平行于连接右手4和左手5的虚拟线210。
因此,即使用户2的双手之间的间隔改变,计算机也可以控制HMD 10的显示器,以保持相对于用户2的双手之间的虚拟线210的平行关系,并且通过参考双手的位置来定位虚拟对象200。这使得实现以下效果:即使HMD 10的用户2的双手之间的间隔改变,计算机也可以抑制虚拟对象200相对于双手的定位中的不协调感。
记录介质是记录用于使计算机实现以下操作的程序的计算机可读记录介质:获取指示HMD 10的用户2的右手4的位置的右手位置信息161和指示用户2的左手5的位置的左手位置信息162;基于右手位置信息161和左手位置信息162控制HMD 10以在右手4的位置和左手5的位置处布置具有特定尺寸的虚拟对象200;以及控制HMD 10以在保持虚拟对象200的显示状态的同时独立于右手4与左手5之间的距离的改变而改变虚拟对象200的位置,在显示状态中,所布置的虚拟对象200的纵向方向平行于连接右手4和左手5的虚拟线210。
因此,即使用户2的双手之间的间隔改变,记录介质也可以通过计算机控制HMD 10的显示器,以保持相对于用户2的双手之间的虚拟线210的平行关系,并且通过参考双手的位置来定位虚拟对象200。这使得实现以下效果:即使HMD 10的用户2的双手之间的间隔改变,记录介质也可以抑制虚拟对象200相对于双手的定位中的不协调感。
注意,以下配置也属于本公开内容的技术范围。
(1)
一种显示控制装置,包括:
获取单元,其被配置成获取指示头戴式显示器的用户的右手的位置的右手位置信息和指示所述用户的左手的位置的左手位置信息;以及
显示控制单元,其控制所述头戴式显示器,以基于所述右手位置信息和所述左手位置信息来在所述右手的位置和所述左手的位置处布置具有特定尺寸的虚拟对象,
其中,所述显示控制单元控制所述头戴式显示器,以在保持所述虚拟对象的显示状态的同时独立于所述右手与所述左手之间的距离的改变而改变所述虚拟对象的位置,在所述显示状态中,所布置的所述虚拟对象的纵向方向平行于连接所述右手与所述左手的虚拟线。
(2)
根据(1)所述的显示控制装置,
其中,所述获取单元获取指示所述用户的视线方向的视线信息,并且
所述显示控制单元控制所述头戴式显示器,以基于所述视线方向的改变而独立于所述右手与所述左手之间的距离的改变来改变所述虚拟对象的位置。
(3)
根据(2)所述的显示控制装置,
其中,所述显示控制单元基于在所述视线方向上延伸的线与所述虚拟线的交点来确定所述虚拟对象相对于所述右手和所述左手中的至少一个的叠加位置。
(4)
根据(2)或(3)所述的显示控制装置,
其中,在所述用户的一只手根据所述视线方向的改变而移动到所述头戴式显示器的叠加区域的外部的情况下,所述显示控制单元控制所述头戴式显示器,以在位于所述叠加区域的内部的所述用户的另一只手的位置处叠加平行于所述虚拟线的所述虚拟对象。
(5)
根据(4)所述的显示控制装置,
其中,所述虚拟对象包括武器对象和操作对象中的至少一个。
(6)
根据(3)所述的显示控制装置,
其中,在所述用户的右手和左手位于所述头戴式显示器的叠加区域的外部并且所述虚拟线位于所述叠加区域的内部的情况下,所述显示控制单元通过参考所述交点的位置来确定所述虚拟对象的叠加位置。
(7)
根据(1)至(6)中任一项所述的显示控制装置,
其中,所述获取单元从所述头戴式显示器的成像装置的图像信息中获取所述用户的手的位置信息,并且
在无法获取所述用户的一只手的位置信息并且所述用户的另一只手位于所述头戴式显示器的叠加区域的内部的情况下,所述显示控制单元不设定所述虚拟线并且控制所述头戴式显示器以将所述虚拟对象的端部叠加在所述另一只手上。
(8)
根据(7)所述的显示控制装置,
其中,所述获取单元基于所述图像信息获取所述用户的手的姿势信息,并且
所述显示控制单元控制所述头戴式显示器,以基于位于所述叠加区域内部的所述用户的一只手的姿势的改变来改变所述虚拟对象的纵向方向。
(9)
根据(1)至(6)中任一项所述的显示控制装置,
其中,在整个所述虚拟对象位于所述头戴式显示器的叠加区域的内部的情况下,所述显示控制单元控制所述头戴式显示器,以根据位于所述叠加区域的内部的所述用户的一只手的位置和姿势中的至少一个来改变所述虚拟对象的位置。
(10)
根据(9)所述的显示控制装置,
其中,所述显示控制单元忽略所述用户的不同于所述一只手的另一只手的位置和姿势的改变。
(11)
根据(1)至(10)中任一项所述的显示控制装置,
其中,所述显示控制装置用于所述头戴式显示器中,所述头戴式显示器包括设置在所述用户的眼睛的前方的显示器。
(12)
一种显示控制方法,包括通过计算机执行以下步骤:
获取指示头戴式显示器的用户的右手的位置的右手位置信息和指示所述用户的左手的位置的左手位置信息;
控制所述头戴式显示器,以基于所述右手位置信息和所述左手位置信息在所述右手的位置和所述左手的位置处布置具有特定尺寸的虚拟对象;以及
控制所述头戴式显示器以在保持所述虚拟对象的显示状态的同时独立于所述右手与所述左手之间的距离的改变而改变所述虚拟对象的位置,在所述显示状态中,所布置的所述虚拟对象的纵向方向平行于连接所述右手与所述左手的虚拟线。
(13)
一种计算机可读记录介质,其记录用于使计算机实现以下操作的程序:
获取指示头戴式显示器的用户的右手的位置的右手位置信息和指示所述用户的左手的位置的左手位置信息;
控制所述头戴式显示器,以基于所述右手位置信息和所述左手位置信息在所述右手的位置和所述左手的位置处布置具有特定尺寸的虚拟对象;以及
控制所述头戴式显示器,以在保持所述虚拟对象的显示状态的同时独立于所述右手与所述左手之间的距离的改变而改变所述虚拟对象的位置,在所述显示状态中,所布置的所述虚拟对象的纵向方向平行于连接所述右手与所述左手的虚拟线。
(14)
一种用于使计算机实现以下操作的程序:
获取指示头戴式显示器的用户的右手的位置的右手位置信息和指示所述用户的左手的位置的左手位置信息;
控制所述头戴式显示器,以基于所述右手位置信息和所述左手位置信息在所述右手的位置和所述左手的位置处布置具有特定尺寸的虚拟对象;以及
控制所述头戴式显示器,以在保持所述虚拟对象的显示状态的同时独立于所述右手与所述左手之间的距离的改变而改变所述虚拟对象的位置,在所述显示状态中,所布置的所述虚拟对象的纵向方向平行于连接所述右手与所述左手的虚拟线。
附图标记列表
1 AR眼镜***
10 头戴式显示器(HMD)
11 显示器
12 成像装置
13 传感器单元
14 通信单元
15 扬声器
16 存储单元
17 控制单元
17A 获取单元
17B 显示控制单元
20 可穿戴设备
21 运动传感器
22 通信单元
23 控制单元
100 叠加区域
200 虚拟对象
210 虚拟线

Claims (13)

1.一种显示控制装置,包括:
获取单元,其被配置成获取指示头戴式显示器的用户的右手的位置的右手位置信息和指示所述用户的左手的位置的左手位置信息;以及
显示控制单元,其控制所述头戴式显示器,以基于所述右手位置信息和所述左手位置信息来在所述右手的位置和所述左手的位置处布置具有特定尺寸的虚拟对象,
其中,所述显示控制单元控制所述头戴式显示器,以在保持所述虚拟对象的显示状态的同时独立于所述右手与所述左手之间的距离的改变而改变所述虚拟对象的位置,在所述显示状态中,所布置的所述虚拟对象的纵向方向平行于连接所述右手与所述左手的虚拟线。
2.根据权利要求1所述的显示控制装置,
其中,所述获取单元获取指示所述用户的视线方向的视线信息,并且
所述显示控制单元控制所述头戴式显示器,以基于所述视线方向的改变而独立于所述右手与所述左手之间的距离的改变来改变所述虚拟对象的位置。
3.根据权利要求2所述的显示控制装置,
其中,所述显示控制单元基于在所述视线方向上延伸的线与所述虚拟线的交点来确定所述虚拟对象相对于所述右手和所述左手中的至少一个的叠加位置。
4.根据权利要求2所述的显示控制装置,
其中,在所述用户的一只手根据所述视线方向的改变而移动到所述头戴式显示器的叠加区域的外部的情况下,所述显示控制单元控制所述头戴式显示器,以在位于所述叠加区域的内部的所述用户的另一只手的位置处叠加平行于所述虚拟线的所述虚拟对象。
5.根据权利要求4所述的显示控制装置,
其中,所述虚拟对象包括武器对象和操作对象中的至少一个。
6.根据权利要求3所述的显示控制装置,
其中,在所述用户的右手和左手位于所述头戴式显示器的叠加区域的外部并且所述虚拟线位于所述叠加区域的内部的情况下,所述显示控制单元通过参考所述交点的位置来确定所述虚拟对象的叠加位置。
7.根据权利要求1所述的显示控制装置,
其中,所述获取单元从所述头戴式显示器的成像装置的图像信息中获取所述用户的手的位置信息,并且
在无法获取所述用户的一只手的位置信息并且所述用户的另一只手位于所述头戴式显示器的叠加区域的内部的情况下,所述显示控制单元不设定所述虚拟线并且控制所述头戴式显示器以将所述虚拟对象的端部叠加在所述另一只手上。
8.根据权利要求7所述的显示控制装置,
其中,所述获取单元基于所述图像信息获取所述用户的手的姿势信息,并且
所述显示控制单元控制所述头戴式显示器,以基于位于所述叠加区域的内部的所述用户的一只手的姿势的改变来改变所述虚拟对象的纵向方向。
9.根据权利要求1所述的显示控制装置,
其中,在整个虚拟对象位于所述头戴式显示器的叠加区域的内部的情况下,所述显示控制单元控制所述头戴式显示器,以根据位于所述叠加区域的内部的所述用户的一只手的位置和姿势中的至少一个来改变所述虚拟对象的位置。
10.根据权利要求9所述的显示控制装置,
其中,所述显示控制单元忽略所述用户的不同于所述一只手的另一只手的位置和姿势的改变。
11.根据权利要求1所述的显示控制装置,
其中,所述显示控制装置用于头戴式显示器中,所述头戴式显示器包括设置在所述用户的眼睛的前方的显示器。
12.一种显示控制方法,包括通过计算机执行以下步骤:
获取指示头戴式显示器的用户的右手的位置的右手位置信息和指示所述用户的左手的位置的左手位置信息;
控制所述头戴式显示器,以基于所述右手位置信息和所述左手位置信息在所述右手的位置和所述左手的位置处布置具有特定尺寸的虚拟对象;以及
控制所述头戴式显示器,以在保持所述虚拟对象的显示状态的同时独立于所述右手与所述左手之间的距离的改变而改变所述虚拟对象的位置,在所述显示状态中,所布置的所述虚拟对象的纵向方向平行于连接所述右手与所述左手的虚拟线。
13.一种计算机可读记录介质,其记录用于使计算机实现以下操作的程序:
获取指示头戴式显示器的用户的右手的位置的右手位置信息和指示所述用户的左手的位置的左手位置信息;
控制所述头戴式显示器,以基于所述右手位置信息和所述左手位置信息在所述右手的位置和所述左手的位置处布置具有特定尺寸的虚拟对象;以及
控制所述头戴式显示器,以在保持所述虚拟对象的显示状态的同时独立于所述右手与所述左手之间的距离的改变而改变所述虚拟对象的位置,在所述显示状态中,所布置的所述虚拟对象的纵向方向平行于连接所述右手与所述左手的虚拟线。
CN202180013824.0A 2020-02-17 2021-02-08 显示控制装置、显示控制方法和记录介质 Pending CN115066668A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020-024344 2020-02-17
JP2020024344 2020-02-17
PCT/JP2021/004597 WO2021166717A1 (ja) 2020-02-17 2021-02-08 表示制御装置、表示制御方法及び記録媒体

Publications (1)

Publication Number Publication Date
CN115066668A true CN115066668A (zh) 2022-09-16

Family

ID=77391149

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180013824.0A Pending CN115066668A (zh) 2020-02-17 2021-02-08 显示控制装置、显示控制方法和记录介质

Country Status (3)

Country Link
US (1) US11947119B2 (zh)
CN (1) CN115066668A (zh)
WO (1) WO2021166717A1 (zh)

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
PT105469A (pt) * 2011-01-04 2012-11-19 Marta Isabel Santos Paiva Ferraz Da Conceicao Fato interativo para videojogos em que se usam sensores eletrónicos e objetos físicos
WO2014061310A1 (ja) 2012-10-16 2014-04-24 日本電気株式会社 表示物制御システム、表示物制御方法及びプログラム
US20160140766A1 (en) * 2012-12-12 2016-05-19 Sulon Technologies Inc. Surface projection system and method for augmented reality
CN105074625B (zh) 2013-04-02 2018-09-21 索尼公司 信息处理设备、信息处理方法及计算机可读记录介质
US9649558B2 (en) * 2014-03-14 2017-05-16 Sony Interactive Entertainment Inc. Gaming device with rotatably placed cameras
US10579207B2 (en) * 2014-05-14 2020-03-03 Purdue Research Foundation Manipulating virtual environment using non-instrumented physical object
US9696795B2 (en) * 2015-02-13 2017-07-04 Leap Motion, Inc. Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments
US10007108B2 (en) * 2015-08-07 2018-06-26 Sony Interactive Entertainment Inc. Systems and methods for using multiple MEMS projectors to determine a position of a photosensor of an HMD or another controller
US10643390B2 (en) * 2016-03-30 2020-05-05 Seiko Epson Corporation Head mounted display, method for controlling head mounted display, and computer program
US10019131B2 (en) * 2016-05-10 2018-07-10 Google Llc Two-handed object manipulations in virtual reality
US20170354864A1 (en) * 2016-06-11 2017-12-14 Sony Interactive Entertainment Inc. Directional Interface Object
CN111263956A (zh) * 2017-11-01 2020-06-09 索尼公司 信息处理设备、信息处理方法和程序
KR102656447B1 (ko) * 2018-02-27 2024-04-12 삼성전자주식회사 컨트롤러와 접촉된 신체 부위에 따라 그래픽 객체를 다르게 표시하는 방법 및 전자 장치
CN108499105B (zh) * 2018-04-16 2022-02-25 腾讯科技(深圳)有限公司 在虚拟环境中进行视角调整的方法、装置及存储介质
US10948993B2 (en) * 2018-06-07 2021-03-16 Facebook, Inc. Picture-taking within virtual reality
US11520409B2 (en) * 2019-04-11 2022-12-06 Samsung Electronics Co., Ltd. Head mounted display device and operating method thereof
US10928975B2 (en) * 2019-07-17 2021-02-23 Microsoft Technology Licensing, Llc On-the-fly adjustment of orientation of virtual objects

Also Published As

Publication number Publication date
US20230062045A1 (en) 2023-03-02
WO2021166717A1 (ja) 2021-08-26
US11947119B2 (en) 2024-04-02

Similar Documents

Publication Publication Date Title
CN109146965B (zh) 信息处理装置、计算机可读介质和头戴式显示装置
US10748021B2 (en) Method of analyzing objects in images recorded by a camera of a head mounted device
EP3469458B1 (en) Six dof mixed reality input by fusing inertial handheld controller with hand tracking
CN110310329B (zh) 操作显示设备的方法、信息处理***及非暂时性存储介质
US10852847B2 (en) Controller tracking for multiple degrees of freedom
CN103180893B (zh) 用于提供三维用户界面的方法和***
US9311883B2 (en) Recalibration of a flexible mixed reality device
US9958938B2 (en) Gaze tracking for a mobile device
KR20180075191A (ko) 무인 이동체를 제어하기 위한 방법 및 전자 장치
JP2013258614A (ja) 画像生成装置および画像生成方法
US11914762B2 (en) Controller position tracking using inertial measurement units and machine learning
JP2018067115A (ja) プログラム、追跡方法、追跡装置
US11443540B2 (en) Information processing apparatus and information processing method
CN112655202B (zh) 用于头戴式显示器的鱼眼镜头的减小带宽立体失真校正
CN111902859B (zh) 信息处理装置、信息处理方法和程序
US20230047470A1 (en) Information processing apparatus, information processing method, and computer-readable recording medium
US20200143774A1 (en) Information processing device, information processing method, and computer program
CN115066668A (zh) 显示控制装置、显示控制方法和记录介质
EP4075786A1 (en) Image processing device, system, image processing method and image processing program
WO2022146858A1 (en) Controller position tracking using inertial measurement units and machine learning
CN111344776B (zh) 信息处理装置、信息处理方法和程序
KR20180060403A (ko) 영상 기반의 드론 제어장치
WO2023238678A1 (ja) 情報処理装置、コントローラ表示方法およびコンピュータプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination