CN113170075B - 信息处理装置、信息处理方法和程序 - Google Patents
信息处理装置、信息处理方法和程序 Download PDFInfo
- Publication number
- CN113170075B CN113170075B CN201980072727.1A CN201980072727A CN113170075B CN 113170075 B CN113170075 B CN 113170075B CN 201980072727 A CN201980072727 A CN 201980072727A CN 113170075 B CN113170075 B CN 113170075B
- Authority
- CN
- China
- Prior art keywords
- user
- display device
- captured image
- space
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 77
- 238000003672 processing method Methods 0.000 title claims description 8
- 238000003384 imaging method Methods 0.000 claims description 56
- 230000000007 visual effect Effects 0.000 claims description 39
- 238000006243 chemical reaction Methods 0.000 claims description 14
- 238000004891 communication Methods 0.000 abstract description 31
- 238000010586 diagram Methods 0.000 description 25
- 238000000034 method Methods 0.000 description 23
- 238000012545 processing Methods 0.000 description 22
- 230000006870 function Effects 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 11
- 238000005259 measurement Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 230000008878 coupling Effects 0.000 description 6
- 238000010168 coupling process Methods 0.000 description 6
- 238000005859 coupling reaction Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000002834 transmittance Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000013500 data storage Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/142—Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/147—Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Ophthalmology & Optometry (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Studio Devices (AREA)
- Controls And Circuits For Display Device (AREA)
- Information Transfer Between Computers (AREA)
Abstract
提供一种信息处理装置,该信息处理装置包括用于控制第二空间中存在的第二显示装置的显示控制单元,该第二显示装置显示通过捕获第一空间中存在的至少一个或更多个第一用户的图像获得的第一捕获图像,其中,显示控制单元根据第一用户的视线相关信息,在第一捕获图像上叠加并显示与第二空间中存在的至少一个或更多个第二用户对应的第二用户对象。这使得可以实现更真实的通信。
Description
技术领域
本公开内容涉及信息处理装置、信息处理方法以及程序。
背景技术
在第一用户和第二用户存在于不同远程位置中的远程视频通信中,显示在显示设备上的第一用户与对第一用户进行成像的摄像装置之间的位置关系可能使显示在显示设备上的第一用户具有偏移的视线。该偏移的视线有时会引起目光接触等的失败。因此,已经开发了各种技术来避免这样的情况,并且允许第一用户和第二用户彼此的目光接触地体验真实的通信。
例如,专利文献1公开了在不同位置中存在的多个用户进行通信的情况下使用的技术。根据专利文献1中的技术,被呼叫的用户根据被呼叫的用户的注视方向使对进行呼叫的用户进行成像的成像设备和显示设备旋转,从而实现更加真实的通信。
引文列表
专利文献
专利文献1:日本未审查专利申请公开第2009-65490号
发明内容
本发明要解决的问题
然而,上述专利文献1中描述的技术并未使得被呼叫的用户与进行呼叫的用户之间目光接触。根据进行呼叫的用户的位置,难以实现真实的通信。
鉴于上述情况,期望开发一种实现更真实的通信的技术。
用于解决问题的手段
根据本公开内容,提供了一种信息处理装置,该信息处理装置包括:显示控制部,其控制第二空间中存在的第二显示设备。第二显示设备显示通过对第一空间中存在的至少一个或更多个第一用户进行成像获得的第一捕获图像。显示控制部根据第一用户中的每一个的视线相关信息,在第一捕获图像上叠加并显示第二用户对象。第二用户对象对应于第二空间中存在的至少一个或更多个第二用户中的每一个。
此外,根据本公开内容,提供了一种信息处理方法,该信息处理方法包括:控制第二显示设备,该第二显示设备存在于第二空间中并且显示通过对第一个空间中存在的至少一个或更多个第一用户进行成像获得的第一捕获图像;以及根据第一用户中的每一个的视线相关信息,在第一捕获图像上叠加并显示第二用户对象。第二用户对象对应于第二空间中存在的至少一个或更多个第二用户中的每一个。
此外,根据本公开内容,提供了一种程序,该程序用于使计算机运行以包括:显示控制部,该显示控制部控制第二空间中存在的第二显示设备。第二显示设备显示通过对第一空间中存在的至少一个或更多个第一用户进行成像获得的第一捕获图像。显示控制部根据第一用户中的每一个的视线相关信息,在第一捕获图像上叠加并显示第二用户对象。第二用户对象对应于第二空间中存在的至少一个或更多个第二用户中的每一个。
附图说明
图1是示出本公开内容的技术的概述的示意图。
图2是示出本公开内容的技术的概述的示意图。
图3是示出用于描述本公开内容的技术的概述的常规示例的示意图。
图4是示出本公开内容的技术的概述的示意图。
图5是示出根据本公开内容的实施方式的信息处理***的各种装置的设置的示例的图。
图6是示出根据实施方式的信息处理***的内部配置的框图。
图7是示出由根据实施方式的信息处理***的控制单元执行的处理的示例的图。
图8是示出由根据实施方式的信息处理***的控制单元执行的处理的示例的图。
图9是示出由根据实施方式的信息处理***的控制单元执行的处理的示例的图。
图10是示出由根据实施方式的信息处理***的控制单元执行的处理的示例的图。
图11是示出由根据实施方式的信息处理***的控制单元执行的处理的示例的图。
图12是示出由根据实施方式的信息处理***的控制单元执行的处理的示例的图。
图13是示出由根据实施方式的信息处理***的控制单元执行的处理的示例的图。
图14是示出根据实施方式的信息处理***的处理流程的示例的图。
图15是示出根据实施方式的信息处理***的修改示例的图。
图16是示出根据实施方式的信息处理***的修改示例的图。
图17是示出根据实施方式的信息处理***的修改示例的图。
图18是示出根据实施方式的信息处理***的硬件的配置示例的示例的图。
具体实施方式
下面参照附图详细描述本公开内容的优选实施方式。应当注意的是,在本描述和附图中,具有基本上相同的功能部件的部件由相同的附图标记指示,并且因此省略了其冗余的描述。
应当注意的是,按以下顺序给出描述。
1.关于本公开内容的技术
1.1.技术的概述
1.2.背视图的布置
1.3.效果
2.配置
2.1.外部配置
2.2.内部配置
3.操作流程
4.修改示例
4.1.视觉距离的优先级
4.2.距离测量传感器的使用
4.3.眼镜型显示设备的使用
5.硬件配置示例
(1.关于本公开内容的技术)
(1.1.技术的概述)
参照图1,描述了本公开内容的技术的概述。本公开内容的技术涉及在不同位置中存在的用户通过使用视频聊天等进行通信的情况下使用的技术。
在图1中,在第一位置中存在的用户4经由显示设备D进行与在第二位置中存在的用户1、用户2和用户3的通信。在显示设备D中,设置用户4的背视图S4。用户4的背视图S4被设置在显示装置D中显示的用户1的视线1v、用户2的视线2v和用户3的视线3v的前方。这使用户4感觉像用户4的背视图S4与用户1、用户2和用户3彼此目光接触地进行通信,并且允许更真实的通信。
(1.2.背视图的设置)
参照图2,通过使用用户A1与用户B1之间的通信作为示例来给出进一步的描述。用户A1存在于作为第一位置的A点处。用户B1存在于作为第二位置的B点处。图2的左侧部分示意性地示出了用户A1和显示设备D1以及在A点处用于聊天的摄像装置VC1之间的设置关系以及用户B1和显示设备D2以及在B点处用于聊天的摄像装置VC2之间的设置关系。
在A点处存在的用户A1视觉上识别在A点处存在的显示设备D1并且与在B点处的用户B1通信。用于聊天的摄像装置VC1对在视场角VCθ1的范围内的A1进行成像。用于聊天的摄像装置VC1被提供给在A点存在的显示设备D1。
与在A点处存在的用户A1类似,在B点处存在的用户B1视觉上识别在B点处存在的显示设备D2,并且与在A点处的用户A1通信。用于聊天的摄像装置VC2对在视场角VCθ2的范围内的B1进行成像。用于聊天的摄像装置VC2被提供给在B点存在的显示设备D2。
图2的右侧部分并排地示出了捕获图像。捕获图像由用于聊天的摄像装置VC1和用于聊天的摄像装置VC2捕获。用于聊天的摄像装置VC1被提供给在A点存在的显示设备D1。用于聊天的摄像装置VC2被提供给在B点存在的显示设备D2。
在最上行所示的捕获图像中,用户A1在视觉上识别显示设备D1的右端区域中的从用户A1到显示设备D1的视线G1A1的方向。通过对在A点处存在的用户A1进行成像来获得最上行所示的捕获图像。在最上行的捕获图像中,在视线G1A1的前方叠加并且设置在B点处存在的用户B1的背视图SB1。
在中间行所示的捕获图像中,用户A1在视觉上识别显示设备D1的中间端区域中的从用户A1到显示设备D1的视线G2A1的方向。通过对在A点处存在的用户A1进行成像来获得中间行所示的捕获图像。在位于中间行的捕获图像中,在视线G2A1的前方叠加并且设置在B点处存在的用户B1的背视图SB1。
在最下行所示的捕获图像中,用户A1在视觉上识别显示设备D1的左端区域中的从用户A1到显示设备D1的视线G3A1的方向。通过对在A点处存在的用户A1进行成像来获得最下行所示的捕获图像是。在位于最下行的捕获图像中,在视线G3A1的前方叠加并且布置在B点处存在的用户B1的背视图SB1。
这同样应用于通过在B点处执行成像获得的捕获图像。在最上行所示的捕获图像中,用户B1在视觉上识别显示设备D2的右端区域中的从用户B1到显示设备D2的视线G1B1的方向。通过对在B点处存在的用户B1进行成像来获得最上行所示的捕获图像。在位于最上行的捕获图像中,在视线G1B1的前方叠加并且布置在A点处存在的用户A1的背视图SA1。
在中间行所示的捕获图像中,用户B1在视觉上识别显示设备D2的中间端区域中的从用户B1到显示设备D2的视线G2B1的方向。通过对在B点处存在的用户B1进行成像来获得中间行所示的捕获图像。在位于中间行的捕获图像中,在视线G2B1的前方叠加并且设置在A点处存在的用户A1的背视图SA1。
在最下行所示的捕获图像中,用户B1在视觉上识别显示设备D2的左端区域中的从用户B1到显示设备D2的视线G3B1的方向。通过对在B点处存在的用户B1进行成像来获得最下行所示的捕获图像。在位于最下行的捕获图像中,在视线G3B1的前方叠加并且设置在A点处存在的用户A1的背视图SA1。
以这种方式,在位于A点处的捕获图像中显示的用户具有被叠加并显示在捕获图像中的视线前方的B点处的用户的背视图。这允许B点处的用户模拟在B点处的用户在与在捕获图像中显示的A点处的用户目光接触地进行通信。
(1.3.效果)
参照图3和图4具体描述本公开内容的技术的目的和效果。图3示出了多个用户在没有任何显示设备等的同一空间中进行交流的情况。在如图3所示的现实会议中,用户5、用户6、用户7和用户8共享同一空间。用户5在视觉上识别作为讲话者的用户7,并且用户6在视觉上识别作为另一个讲话者的用户8。用户7和用户8目光接触地彼此交流。然后,每个用户都能够掌握相应的用户的视线。
相比之下,图4示出了用于经由显示设备在不同位置之间进行通信的视频聊天的示例。用户5、用户6和用户8经由显示设备与用户7进行会议。用户7存在于不同的位置。用户5在视觉上识别用户7,用户6在视觉上识别用户8,并且用户8在视觉上识别用户7。此处可以想到的是,用户7在视觉上识别在由用户7视觉上识别的显示设备中显示的用户5、用户6和用户8中的任何一个。然而,难以掌握在经由显示设备进行的通信中由用户7视觉上识别用户5、用户6和用户8中的哪一个。换言之,在这样的视频聊天中,捕获图像上的用户7频繁地直视摄像装置。蒙娜丽莎效应有时使用户5、用户6和用户8分别识别出用户7正在视觉上识别用户5、用户6和用户8。
本公开内容的技术的应用使得可以在捕获图像上的用户7的视线前方叠加并且设置要被在视觉上识别的用户5、用户6和用户8中的任何用户的背视图。这允许用户5、用户6和用户8确定用户5、用户6和用户8中的哪一个被用户7视觉上识别并且体验到更真实的会议。
(2.配置)
(2.1.外部配置)
参照图5和图6,描述信息处理***的配置的示例。信息处理***包括允许体验到真实会议的信息处理装置。图5是示出信息处理***的概述的概述图,并且图6是示出信息处理***的内部配置的框图。
根据图5,用户A1存在于点A处,并且显示设备DA、用于聊天的摄像装置VCA和针对背视图的摄像装置SCA被设置在点A处。用户B1和用户B2存在于点B处,并且显示设备DB、用于聊天的摄像装置VCB和针对背视图的摄像装置SCB被设置在点B处。
在点A处,显示设备DA显示由在点B处的用于聊天的摄像装置VCB捕获的捕获图像。用户A1能够在视觉上识别用户B1和用户B2以经由显示设备DA进行通信。在点B处,显示设备DB显示由在点A处的用于聊天的摄像装置VCA捕获的捕获图像。用户B1和用户B2能够在视觉上识别用户A1,以经由显示设备DB进行通信。
显示设备DA在由在点B处的用于聊天的摄像装置VCB捕获的捕获图像上叠加并且显示用户A1的背视图SA1。背视图SA1是从由针对背视图的摄像装置SCA捕获的捕获图像创建的。同时,显示设备DB在由在点A处的用于聊天的摄像装置VCA捕获的捕获图像上叠加并且显示用户B1的背视图SB1和用户B2的背视图SB2。背视图SB1和背视图SB2是从由针对背视图的摄像装置SCB捕获的捕获图像创建的。
用户A1在视线A1v的方向上在视觉上识别显示在显示设备DA上的用户B2。显示设备DB在用户A1的视线A1v的方向上显示用户B2的背视图SB2。这允许在点B处存在的B1和B2识别出用户A1正在视觉上识别用户B2以进行通信。
(2.2.内部配置)
根据图6,信息处理***1000包括背视图摄像装置SCA、聊天摄像装置VCA、显示设备DA、背视图摄像装置SCB、聊天摄像装置VCB、显示设备DB和控制单元100。背视图摄像装置SCA、聊天摄像装置VCA和显示设备DA被设置在点A处。背视图摄像装置SCB、聊天摄像装置VCB和显示设备DB被设置在点B处。
聊天摄像装置VCA和VCB具有在各个点执行成像的功能。聊天摄像装置VCA和VCB中的每一个都是捕获图像(静止图像或移动图像)的成像设备,例如,RGB摄像装置或热像仪摄像装置。聊天摄像装置VCA和VCB中的每一个可以包括透镜***、驱动***和成像元件。由聊天摄像装置SCA和SCB获得的捕获图像可以用于图像处理或者可以被使用以显示在显示设备DA和DB上。
背视图摄像装置SCA和SCB具有在相应点对用户的背视图进行成像的功能。背视图摄像装置SCA和SCB可以是与聊天摄像装置VCA和VCB类似的成像设备。
显示设备DA和DB具有根据控制单元100的指令显示在相应点处捕获的图像并且显示用户的背视图的功能。捕获的图像由在不同位置的聊天摄像装置VCA和VCB来捕获。背视图由在存在于显示设备DA和DB的地方中的背视图摄像装置SCA和SCB来成像。具体地,显示设备DA和DB中的每一个包括能够在视觉上通知用户由控制单元100生成的显示图像的设备。这样的设备的示例包括诸如CRT(阴极射线管)显示设备、液晶显示设备、等离子显示设备和EL(电致发光)显示设备、激光投影仪、LED投影仪和灯的显示设备。
控制单元100具有从设置在A点和B点处的各种设备获取各种数据并且控制显示设备的功能。控制单元包括获取部110、人识别部120、3D转换部130和显示控制部140。
获取部110从背视图摄像装置SCA和SCB获取捕获图像。此外,获取部110从聊天摄像装置VCA和VCB获取捕获图像。例如,获取部110经由通信来获取捕获图像。通信可以视情况而持续地进行或可以不连续地进行。获取部110将获取的捕获图像输出至人识别部120。
人识别部120具有通过处理从聊天摄像装置VCA和VCB获取的捕获图像来识别用户的位置的功能。参照图7进行描述。图7是示出人识别部120识别点A处的用户A1并且获取点A处的各种信息的图。在图7所示的点A处,显示设备DA和用户A1彼此相对。图7的左侧部分是从右上方示出显示设备DA和用户A1的俯视图,并且图7的右侧部分是从侧面示出显示设备DA和用户A1的侧视图。显示设备DA具有水平方向长度HA和垂直方向长度VA。如图7所示,显示设备DA的上部分设置有聊天摄像装置VCA。聊天摄像装置VCA具有距聊天摄像装置VCA的任何范围内的水平方向上的水平成像视场角θA以及垂直方向上的垂直成像视场角
人识别部120从由聊天摄像装置VCA捕获的捕获图像,识别在水平成像视场角θA和垂直方向成像视场角内用户A1所存在的三维空间中的位置。人识别部120可以识别用户A1相对于显示设备DA的位置。
此外,人识别部120具有从由聊天摄像装置VCA捕获的捕获图像中获取用户的视线相关信息的功能。用户的视线相关信息包括关于用户的视线和视觉距离的多条信息。用户的视线包括用户相对于显示设备DA的视线方向和视线位置。用户的视觉距离可以是从用户的眼睛到显示设备DA的水平距离。在参照图7的左部分给出描述的情况下,用户A1将视线A1v投射到显示设备DA,并且用户A1在视觉距离dA1内视觉上识别显示设备DA。视觉距离dA1是从用户的眼睛到显示设备DA的水平距离。在参照图7的右部分给出描述的情况下,直立在地板F上的用户A1将视线A1v投射在显示设备DA上,并且用户A1在视觉距离dA1内视觉上识别显示设备DA。视觉距离dA1是从用户的眼睛到显示设备DA的水平距离。以这种方式,人识别部120将从用户的眼睛到显示设备DA的水平距离识别为视觉距离。
人识别部120具有从由聊天摄像装置VCA和VCB捕获的捕获图像中检测用户的功能。在参照图8给出描述的情况下,在点B处,人识别部120通过对在点B处捕获的图像执行图像处理来从在B点处的空间中存在的对象中检测诸如用户B1和B2的人,并且识别用户B1和B2中的每一个。
人识别部120具有以与从由聊天摄像装置VCA和VCB捕获的捕获图像检测用户类似的方式从由背视图摄像装置SCA和SCB捕获的捕获图像中检测用户的背视图的功能。人物识别部120可以识别出在点A处由聊天摄像装置VCA成像的用户A1和在点A处由背视图摄像装置SCA成像的用户A1是指同一用户,并且将在点A处由聊天摄像装置SCA成像的用户A1与在点A处由背视图摄像装置SCA成像的用户A1相关联。这样的关联使得可以在下面描述的虚拟3D空间中将用户A1的背视图设置在由点A处的聊天摄像装置VCA捕获的用户A1的位置处。
3D转换部130具有通过使用从人识别部120获取的各种信息来生成虚拟的捕获图像并且将所生成的虚拟捕获图像输出至显示控制部140的功能。虚拟的捕获图像用于控制由显示设备在点B处显示的显示图像。在参照图9给出描述的情况下,3D转换部130将显示设备DA和显示设备DQ设置在虚拟3D空间中,从而通过使用用户A1的视觉距离dA1来确定用户B1的背视图SB1和用户B2的背视图SB2的显示位置。用户B1的背面SB1和用户B2的背面SB2是用户对象。
参照图10和图11,详细地描述由3D转换部130执行的处理。图10示出了虚拟3D空间200。在虚拟3D空间200中,模拟在A点处的显示设备DA与用户A1之间位置关系。虚拟第一显示设备DA被设置在虚拟3D空间200中。虚拟第一显示设备DA示出与设置在现实空间中的A点处的显示设备DA的尺寸相同的尺寸。此处,虚拟第一显示设备示出与显示设备DA的尺寸相同的尺寸,并且因此用相同的附图标记表示。
虚拟第二显示设备DQ被设置在与虚拟第一显示设备DA相对的位置处。基于显示设备DA与用户A1在点A处的位置关系来确定虚拟第二显示设备DQ的设置位置。具体地,虚拟第二显示设备DQ被设置为与虚拟第一显示设备DA间隔开,其之间的距离与在点A处的显示设备DA与用户A1之间的视觉距离dA1之间的距离相同。
虚拟第一显示设备DA如在点A处那样显示由聊天摄像装置VCB成像的用户B1和B2,并且虚拟第二显示设备DQ如在点B处那样显示如在点A处那样由聊天摄像装置VCA成像的用户A1。
基于捕获第一捕获图像的第一成像设备的视觉距离和视场角,来确定虚拟3D空间中的虚拟第二显示设备DQ的垂直尺寸和水平尺寸。换言之,基于虚拟第一显示设备DA的视觉距离dA1和水平成像视场角θA来确定虚拟第二显示设备DQ的水平尺寸HQ。可以将虚拟第二显示设备DQ的水平尺寸HQ表达为HQ=2dA1tan(θA/2)。相反,基于虚拟第一显示设备DA的视觉距离dA1和垂直成像视场角来确定虚拟第二显示设备DQ的垂直尺寸VQ。可以将虚拟第二显示设备DQ的垂直尺寸VQ表达为/>
3D转换部130通过使用图10中所示的各个虚拟显示设备以及在虚拟显示设备上显示的用户A1、用户B1和用户B2的设置来转换图像。3D转换部130将信息输出至显示控制部140。该信息用于生成在点B处显示在显示设备DB上的图像。
3D转换部130还将显示起点布置在上述虚拟3D空间中,并且通过使用由虚拟的成像设备(未示出)从显示起点捕获的虚拟捕获图像来生成图像。图像在点B处显示在显示设备DB上。图11是进一步示出图10中的虚拟第一显示设备和虚拟第二显示设备的设置中的显示起点P的图。显示起点P位于与通过将虚拟第二显示设备DQ上显示的第一用户A1作为起点设置了第一显示设备的位置同侧的位置处。显示起点P的位置比虚拟第一显示设备的位置远。基于虚拟第一显示设备DA、虚拟第二显示设备DQ以及从显示起点P捕获的虚拟捕获图像,控制在现实空间中的显示在点B处的显示设备DB上的图像。具体地,虚拟的捕获图像Pv是从显示起点P捕获的图像,并且通过对从显示起点P视觉上识别的视场角范围内的对象进行成像来获得。虚拟的捕获图像Pv是指示在人等视觉上识别虚拟第一显示设备的自显示起点P的方向的情况下叠加虚拟第一显示设备和虚拟第二显示设备的图像。
显示控制部140通过使用由3D转换部130生成的虚拟的捕获图像来控制图像。该图像在现实空间中被显示在点B处的显示设备DB上。
参照图12和图13,描述了虚拟的捕获图像和显示控制。图12和图13中的每一个是示出基于从显示起点P捕获的虚拟捕获图像Pv来控制在显示设备DB上显示的图像的示例的图。图12的上部分示出了虚拟的捕获图像Pv。据此,在虚拟的捕获图像Pv中显示在虚拟第二显示设备上显示的用户A1以及在虚拟第二显示设备DQ上显示的用户B1和B2,并且叠加并显示用户B1的背视图和用户A1。
在如图12的上部分所示的在那样虚拟的捕获图像Pv中用户B1或B2的背视图与用户A1交叠显示的情况下,显示控制部140改变用户B1或B2的背视图的尺寸,并且防止用户B1或B2的背视图与用户A1交叠,如图12的下部分所示。可以由使用信息处理***1000的用户视情况来确定背视图交叠到什么程度。例如,显示控制部140改变背视图的尺寸以防止背视图与用户A1的至少一只眼睛交叠就行。显示控制部140因此可以改变用户B1或B2的背视图的尺寸,以将背视图设置在距识别的用户A1的眼睛的位置一定距离之外。此外,例如,显示控制部140可以基于用户B1或B2的背视图是否与用户A1的面部的轮廓交叠来确定是否改变用户B1或B2的背视图的尺寸。如果用户B1或B2的背视图与用户A1的面部轮廓交叠,则显示控制部140可以改变用户B1或B2的背视图的尺寸以防止背视图与用户A1的面部轮廓交叠。这允许用户B1和B2确定地掌握用户A1的视线并且允许更舒适的通信。
此外,如图13所示,在用户B1或B2的背视图离开虚拟的捕获图像Pv的帧的情况下,显示控制部140可以改变虚拟捕获图像Pv的范围,以使虚拟捕获图像Pv包括离开该帧的用户B1或B2。该改变通过显示起点P的移动来进行。例如,显示起点P和虚拟第二显示设备DQ可以被设置为彼此间隔更大,以使虚拟捕获图像Pv包括离开该帧的用户B1或用户B2。这使得可以如图13的下部分所示的那样在虚拟捕获图像Pv中在尺寸上减小虚拟第一显示设备DA和虚拟第二显示设备DQ,并且使得可以清楚地显示用户A1以及用户B1和B2。
这样的显示控制使得可以显示显示图像而不引起任何违和感(strangeness)。此外,还可以通过具有降低的处理负荷的转换处理来实现显示控制。
此外,在用户B1或B2离开虚拟拍摄图像Pv的帧的情况下,显示控制部140还可以改变用户B1或B2的背视图的显示位置,以使虚拟的捕获图像Pv包括离开该帧的用户B1或B2的背视图。显示位置可以在用户A1的视线与背视图的位置彼此对应的范围内改变。注意,在本实施方式中,显示控制部140改变由B点处的用户视觉上识别的捕获图像中设置的用户的背视图的位置,但是该示例不是限制性的。显示控制部140可以预先确定设置B点处的用户的背视图的位置,在布置有B点处的用户的背视图的位置处处理A点处的用户的视线,并且处理视线,就好像A点处的用户的视线与B点处的用户的背视图的视线相匹配。然后,可以为B点处的用户的相应背视图提供标签,并且对B点处的用户的相应背视图进行处理以允许相应用户被识别。将B点处的用户的相应背视图设置在B点处视觉上识别的A点处的用户的视线前方。
此外,在如图12的上部分所示的那样在虚拟的捕获图像Pv中用户B1或B2的背视图与用户A1交叠显示的情况下,显示控制部140可以通过改变背视图的透光度来保持用户A1和背视图的视觉可识别性。具体地,显示控制部140可以进一步增加背视图的与用户A1交叠的一部分的透光度,并且可以减小背视图的与用户A1不交叠的一部分的透光度。这允许显示控制部140保持用户A1的视觉可识别性,并且还保持背视图的视觉可识别性。
(3.操作流程)
参照图14描述到目前为止所描述的并且由相应设备和相应部件执行的操作流程(S100)。
首先,在点A处,聊天摄像装置VCA在点A处拍摄图像(S102)。此外,在点A处,背视图摄像装置SCA拍摄用户A1的背视图的图像(S104)。相比之下,在B点处,聊天摄像装置VCB在B点处拍摄图像(S106)。此外,在点B处,背视图摄像装置SCB拍摄用户B1和B2的背视图的图像(S108)。
这些操作可以同时开始或顺序地开始。可以以任何顺序执行这些操作。
接下来,获取部从聊天摄像装置VCA和VCB以及背视图摄像装置SCA和SCB获取捕获的图像(S110)。
接下来,人识别部120从捕获的图像识别用户并且检测各种信息(S111)。
人识别部120检测用户A1的视觉距离(S112)。然后,人识别部120从捕获的图像中检测和识别用户A1,并且检测聊天摄像装置VCA与用户A1之间的视觉距离。
人识别部120从捕获的图像中识别用户在捕获的图像中的位置(S113)。然后,人识别部120从捕获的图像中检测并且识别用户B1和B2,并且识别捕获的图像中的位置。应当注意的是,捕获的图像中的位置可以是点B处的现实空间中的位置。
人识别部120从背视图摄像装置的捕获图像中提取背视图(S114)。然后,人识别部120从捕获的图像中检测并且识别用户B1和B2的人的部分。人识别部120将捕获图像中的用户B1和B2的背视图与背景分离,并且提取用户B1和B2的背视图。
接下来,3D转换部基于A点处的显示设备与用户A1之间的位置关系,将虚拟第一显示设备和虚拟第二显示设备设置在虚拟3D空间中(S116)。
接下来,显示控制部基于已被设置的虚拟第一显示设备与虚拟第二显示设备之间的位置关系以及从显示起点捕获的虚拟捕获图像来控制由在点B处的显示设备B显示的图像(S118)。
相应部件执行上述操作流程,从而使得可以在无需校正用户A1的面部、对用户A1的面部执行图像处理等的情况下,显示没有违和感的显示图像。此外,还可以通过具有降低的处理负荷的3D转换处理来实现显示控制。
(4.修改示例)
到目前为止已经描述了根据本实施方式的信息处理装置和信息处理方法。在该部分中,参照图15和图16,描述了根据本实施方式的信息处理装置和信息处理方法的修改示例的示例。
(4.1.视觉距离的优先级)
在上述实施方式中,已经描述了用户A1存在于点A处,用户B1和B2存在与点B处并且在点A与点B之间进行通信的示例。此处,参照图15,作为上述实施方式的修改示例,描述了多个用户位于点A处的情况的示例。图15是示出多个用户位于点A处的情况的示例的图。
图15所示的点A具有用户A1和用户A2。用户A1和用户A2直立在地板F上,并且在视觉上识别显示设备DA。用户A1和用户A2具有到显示设备DA的不同距离。用户A1和用户A2与显示设备DA之间的距离可以是用户A1和用户A2到显示设备DA的视觉距离。视觉距离可以是从用户的眼睛到显示设备DA的水平距离。
以这种方式,在点A处存在多个用户的情况下,控制单元100可以优先对具有最小视觉距离的用户的视觉距离执行显示控制。聊天摄像装置越近,视线方向的变化范围就越大。因此,如上所述,可以通过优先考虑具有最小视觉距离的用户的视觉距离来抑制变化范围。此外,控制单元100可以从点A处的多个用户识别讲话者,并且优先地对所识别的讲话者的视觉距离执行显示控制。
(4.2.距离测量传感器的使用)
作为上述实施方式的另一修改示例的示例,参照图16描述了一种技术,在该技术中使用距离测量传感器代替获取用于创建背视图的信息的背视图摄像装置。
图16示出了显示设备DA和显示设备DB包括距离测量传感器设备KnA和KnB的示例。在图5中示出了显示设备DA和显示设备DB。距离测量传感器装置被设置在可以测量从距离测量传感器装置到用户的身体的一部分的距离的位置处。距离测量传感器设备的示例包括ToF(飞行时间)传感器。例如,ToF传感器通过使用以下方法来测量到用户的身体的距离:用脉冲红外光照射用户的身体并且直接测量在身体表面上反射的红外光返回之前经过的时间的方法(dToF方法);修改红外光并且基于辐射光的相位与被反射并返回的光的相位之间的相位差来执行计算的方法(iToF方法);等等。
控制单元100可以通过使用距离测量传感器设备KnA和KnB获取关于用户的运动的信息,并且基于该信息来创建化身(avatar)或通过对化身进行部分处理获得的用户对象。在存在多个用户的情况下,控制单元100可以将由聊天摄像装置VCA和VCB识别的用户与针对其由距离测量传感器设备KnA和KnB获取关于用户的运动的多条信息的用户相关联。控制单元100可以实时获取用户的骨骼结构的动作等,并且将该动作等反映在用户对象中。在存在多个用户的情况下,显示控制部140可以反映用户对象中的相应用户的视觉特性。用户对象对应于相应用户。这使相应用户对象具有差异并且使得可以识别用户对象。例如,视觉特性可以是衣服的纹理、发型等。
应当注意的是,在本修改示例中已经描述使用距离测量传感器装置代替背视图摄像装置的示例。然而,聊天摄像装置和距离测量传感器设备可以是同一设备。据此,可以通过对由聊天摄像装置捕获的捕获图像执行图像识别和图像处理来测量距离,并且可以抑制所安装的设备的数量。
(4.3.眼镜型显示设备的使用)
作为上述实施方式的另一修改示例的示例,参照图17描述了一种技术,在该技术中在对用户对象执行显示控制的情况下,用户佩戴用于视觉上识别的眼镜型显示设备。图17示出了将图1所示的本公开内容的技术的概述的示例应用于眼镜型显示设备的示例。根据图17,用户4佩戴透射眼镜300。用户4在视觉上识别由透射眼镜300叠加并显示在显示设备D上显示的捕获图像上的用户对象S4。这使得即使在用户移动的情况下也可以根据用户的位置来改变用户对象S4的显示位置,从而进一步提高便利性。
(5.硬件配置示例)
参照图18,描述了根据本实施方式的信息处理***中包括的信息处理装置的控制单元的硬件配置的示例。图18是示出根据本实施方式的控制单元的硬件配置的示例的框图。
如图18所示,信息处理装置900包括CPU(中央处理单元)901、ROM(只读存储器)902、RAM(随机存取存储器)903和主机总线904a。此外,信息处理装置900包括桥接器904、外部总线904b、接口905、输入设备906、显示设备907、存储设备908、驱动器909、耦接端口911和通信设备913。代替CPU 901或连同CPU 901,信息处理装置900还可以包括诸如电路、DSP或ASIC的处理电路。
CPU 901用作算术处理设备和控制设备。CPU 901根据各种程序来控制信息处理装置900中的整体操作。此外,CPU 901可以是微处理器。ROM 902存储由CPU 901使用的程序、算术参数等。RAM 903临时存储在CPU 901的执行中使用的程序、在执行中适当地改变的参数等。例如,CPU 901可以形成图6所示的处理单元。
CPU 901、ROM 902和RAM 903通过包括CPU总线等的主机总线904a来相互耦接。主机总线904a经由桥接器904耦接至外部总线904b例如PCI(***部件互连/接口)总线。应当注意的是,不一定分别包括主机总线904a、桥接器904和外部总线904b,主机总线904a、桥接器904和外部总线904b的功能可以在一个总线中被实现。
例如,输入设备906由用户通过其输入信息的设备(例如,鼠标、键盘、触摸面板、按钮、麦克风、开关和控制杆)来实现。此外,例如,输入设备906可以是使用红外线或其他电波的遥控设备。替选地,输入设备906可以是支持信息处理装置900的操作的诸如移动电话或PDA的外部耦接设备。此外,例如,输入设备906可以包括输入控制电路等,其基于使用上述输入装置由用户输入的信息来生成输入信号,并且将该所生成的输入信号输出至CPU 901。信息处理装置900的用户能够向信息处理装置900输入各种数据或者通过操作输入设备906指示信息处理装置900执行处理操作。
显示设备907通过使用能够在视觉上或听觉上向用户通知所获取的信息的设备形成。这样的设备的示例包括诸如CRT显示设备、液晶显示设备、等离子显示设备、EL显示设备、激光投影仪、LED投影仪和灯的显示设备以及诸如扬声器或耳机的声音输出设备。例如,显示设备907输出通过由信息处理装置900执行的各种处理获得的结果。具体地,显示设备907以诸如文本、图像、表格和图形的各种格式在视觉上显示通过由信息处理装置900执行的各种处理获得的结果。同样,在使用声音输出设备的情况下,声音输出设备将包括再现的声音数据、声学数据等的音频信号转换为模拟信号并且在听觉上输出该模拟信号。例如,显示设备907是图6所示的显示设备DA或显示设备DB。
存储设备908是作为信息处理装置900的存储单元的示例形成的用于数据存储的设备。例如,存储设备908由诸如HDD的磁存储单元设备、半导体存储设备、光存储设备、磁光存储设备等来实现。存储设备908可以包括存储介质、在存储介质中记录数据的记录设备、从存储介质读取数据的读取设备、删除记录在存储介质中的数据的删除设备等。该存储设备908存储要由CPU 901执行的程序、各种类型的数据、从外部获取的各种类型的数据等。例如,存储设备908存储虚拟捕获图像、各种参数等。在显示控制部140在图6所示的控制单元100中控制显示设备DA和显示设备DB的情况下,使用虚拟捕获图像。使用各种参数来生成虚拟捕获图像。
驱动器909是用于存储介质的读取器/写入器。驱动器909内置在信息处理装置900中或从外部附接至信息处理装置900。驱动器909读出记录在安装在其上的诸如磁盘、光盘、磁光盘或半导体存储器的可移除存储介质中的信息,并且将该信息输出至RAM 903。此外,驱动器909还能够将信息写入可移除存储介质中。
耦接端口911是耦接至外部装置的接口。例如,耦接端口911是通往能够通过USB(通用串行总线)等发送数据的外部装置的耦接端口。
通信设备913是通信接口,包括例如用于耦接至网络920的通信设备等。例如,通信设备913是用于有线或无线LAN(局域网)、LTE(长期演进)、蓝牙(注册商标)或WUSB(无线USB)的通信卡等。此外,通信设备913可以是用于光学通信的路由器、用于ADSL(非对称数字用户线)的路由器、用于各种类型的通信的调制解调器等。例如,该通信设备913能够根据诸如TCP/IP等的预定协议向因特网或其他通信装置发送信号等并且从因特网或其他通信装置接收信号等。例如,通信设备913用于在图6所示的控制单元100与A点和B点处的各种设备之间发送和接收各种信息。诸如通信设备913的设备可以用于该发送和接收。
应当注意的是,网络920是用于从耦接至网络920的装置发送的信息的有线或无线传输路径。例如,网络920可以包括诸如因特网的公共网络、电话网络或卫星通信网络,以及包括以太网(注册商标)、WAN(广域网)和LAN的各种LAN(局域网)等。此外,网络920可以包括专用网络例如IP-VPN(因特网协议-虚拟专用网络)。
此外,在信息处理装置900中,可以创建用于使内置在信息处理***1000中的诸如CPU、ROM和RAM的硬件表现出与根据上述本实施方式的信息处理***1000的各个部件的功能等同的功能的计算机程序。此外,其上存储有计算机程序的记录介质也可以包括在根据本公开内容的技术的范围内。
已经参照附图详细描述本公开内容的优选实施方式,但是本公开内容的技术范围不限于该实施方式。本领域技术人员可以在所附权利要求书的范围内发现各种替选和修改,并且应当理解的是,这些替选和修改将自然地归入本公开内容的技术范围内。
此外,本文中描述的效果仅是说明性和示例性的,而不是限制性的。换言之,除了上述效果之外或者代替上述效果,根据本公开内容的技术还可以实现根据本文的描述对于本领域技术人员而言明显的其他效果。
应当注意,以下配置也落入本公开内容的技术范围内。
(1)
一种信息处理装置,包括:
显示控制部,其控制第二空间中存在的第二显示设备,所述第二显示设备显示通过对第一空间中存在的至少一个或更多个第一用户进行成像获得的第一捕获图像,其中,
所述显示控制部根据所述第一用户的视线相关信息,在所述第一捕获图像上叠加并且显示第二用户对象,所述第二用户对象对应于所述第二空间中存在的至少一个或更多个第二用户。
(2)
根据(1)所述的信息处理装置,其中,
所述视线相关信息包括与从所述第一空间中存在的所述第一用户到由第一用户视觉上识别的第一显示设备的视觉距离有关的信息,并且
所述显示控制部基于与所述视觉距离有关的信息来控制所述第二用户对象的显示位置,所述第二用户对象对应于所述第二用户。
(3)
根据(2)所述的信息处理装置,其中,所述显示控制部基于与所述视觉距离有关的信息来控制所述第一捕获图像的尺寸。
(4)
根据(3)所述的信息处理装置,还包括:3D转换部,其生成虚拟3D空间,所述虚拟3D空间通过在同一空间中虚拟地表示所述第一用户、所述第一显示设备、所述第二显示设备和所述第二用户之间的位置关系而获得,其中,
所述显示控制部基于布置在所述虚拟3D空间中的所述第一用户与布置在所述虚拟3D空间中的所述第一显示设备之间的位置关系以及虚拟捕获图像,来控制所述第二用户对象的显示位置和所述第一捕获图像的尺寸,所述第一显示设备被布置成与所述第一用户间隔开所述视觉距离,所述虚拟捕获图像是从显示起点虚拟地捕获的,在将所述第一用户用作起点的情况下,所述显示起点被布置在与所述第一显示设备同一侧的比所述第一显示设备远的位置处。
(5)
根据(4)所述的信息处理装置,其中,
所述第二空间中存在的所述第二显示设备在所述虚拟3D空间中与所述第一用户相对应地布置在与所述第一用户相同的位置处,并且
所述显示控制部通过使用所述虚拟3D空间中的所述第二显示设备与所述第一显示设备之间的位置关系来控制所述第二用户对象的显示位置和所述第一捕获图像的尺寸。
(6)
根据(2)至(5)中任一项所述的信息处理装置,其中,基于视觉距离和第一成像设备的视场角来确定所述第一捕获图像的尺寸,所述第一捕获图像被显示在所述第二显示设备上,所述第一成像设备捕获所述第一捕获图像。
(7)
根据(1)至(6)中任一项所述的信息处理装置,其中,所述显示控制部改变所述第二用户对象的尺寸,以防止所述第一用户和所述第二用户对象叠加,所述第一用户被显示在所述第一捕获图像中。
(8)
根据(2)至(7)中任一项的信息处理装置,其中,与所述第二用户对应的所述第二用户对象是基于所述第二用户的图像创建的,所述图像是从通过对所述第二用户的背视图进行成像获得的第二用户背视图捕获图像提取的。
(9)
根据(6)所述的信息处理装置,其中,所述信息处理装置包括彼此集成的所述第一成像设备和所述第一显示设备。
(10)
根据(2)至(9)中任一项所述的信息处理装置,其中,所述第二用户对象是通过使用从红外光获取的信息创建的,所述第二用户用红外光来照射,所述红外光从所述第二用户反射。
(11)
根据(1)至(10)中任一项所述的信息处理装置,其中,所述显示控制部还控制第一空间中存在的第一显示设备,并且根据所述第二空间中存在的至少一个或更多个第二用户的视线相关信息,在第二捕获图像上叠加并显示第一用户对象,所述第一显示设备显示通过对所述第二用户进行成像获得的所述第二捕获图像,所述第一用户对象对应于所述第一空间中存在的至少一个或更多个第一用户。
(12)
一种信息处理方法,包括:
控制第二空间中存在的第二显示设备,所述第二显示设备显示通过对第一空间中存在的至少一个或更多个第一用户进行成像获得的第一捕获图像;以及
根据所述第一用户的视线相关信息,在所述第一捕获图像上叠加并显示第二用户对象,所述第二用户对象对应于所述第二空间中存在的至少一个或更多个第二用户。
(13)
一种程序,使计算机用作如下:
显示控制部,其控制第二空间中存在的第二显示设备,所述第二显示设备显示通过对第一空间中存在的至少一个或更多个第一用户进行成像获得的第一捕获图像,其中,
所述显示控制部根据所述第一用户的视线相关信息,在所述第一捕获图像上叠加并显示第二用户对象,所述第二用户对象对应于所述第二空间中存在的至少一个或更多个第二用户。
附图标记列表
DA,DB 显示设备
VCA,VCB 用于聊天的摄像装置
SCA,SCB 针对背视图的摄像装置
100 控制单元
110 获取部
120 人识别部
130 转换部
140 显示控制部
Claims (13)
1.一种信息处理装置,包括:
显示控制部,其控制第二空间中存在的第二显示设备,所述第二显示设备显示通过对第一空间中存在的至少一个或更多个第一用户进行成像获得的第一捕获图像,其中,
所述显示控制部根据所述第一用户的视线相关信息,在所述第一捕获图像上叠加并且显示第二用户对象,所述第二用户对象对应于所述第二空间中存在的至少一个或更多个第二用户。
2.根据权利要求1所述的信息处理装置,其中,
所述视线相关信息包括与从所述第一空间中存在的所述第一用户到由所述第一用户视觉上识别的第一显示设备的视觉距离有关的信息,并且
所述显示控制部基于与所述视觉距离有关的信息来控制所述第二用户对象的显示位置,所述第二用户对象对应于所述第二用户。
3.根据权利要求2所述的信息处理装置,其中,
所述显示控制部基于与所述视觉距离有关的信息来控制所述第一捕获图像的尺寸。
4.根据权利要求3所述的信息处理装置,还包括:
3D转换部,其生成虚拟3D空间,所述虚拟3D空间通过在同一空间中虚拟地表示所述第一用户、所述第一显示设备、所述第二显示设备和所述第二用户之间的位置关系而获得,其中,
所述显示控制部基于布置在所述虚拟3D空间中的所述第一用户与布置在所述虚拟3D空间中的所述第一显示设备之间的位置关系以及虚拟捕获图像,来控制所述第二用户对象的显示位置和所述第一捕获图像的尺寸,所述第一显示设备被布置成与所述第一用户间隔开所述视觉距离,所述虚拟捕获图像是从显示起点虚拟地捕获的,在将所述第一用户用作起点的情况下,所述显示起点被布置在与所述第一显示设备同一侧的比所述第一显示设备远的位置处。
5.根据权利要求4所述的信息处理装置,其中,
所述第二空间中存在的所述第二显示设备在所述虚拟3D空间中与所述第一用户相对应地布置在与所述第一用户相同的位置处,并且
所述显示控制部通过使用所述虚拟3D空间中的所述第二显示设备与所述第一显示设备之间的位置关系来控制所述第二用户对象的显示位置和所述第一捕获图像的尺寸。
6.根据权利要求5所述的信息处理装置,其中,
所述第一捕获图像的尺寸是基于所述视觉距离和第一成像设备的视场角确定的,所述第一捕获图像被显示在所述第二显示设备上,所述第一成像设备捕获所述第一捕获图像。
7.根据权利要求1所述的信息处理装置,其中,
所述显示控制部改变所述第二用户对象的尺寸,以防止所述第一用户和所述第二用户对象叠加,所述第一用户被显示在所述第一捕获图像中。
8.根据权利要求2所述的信息处理装置,其中,
与所述第二用户对应的所述第二用户对象是基于所述第二用户的图像创建的,所述图像是从通过对所述第二用户的背视图进行成像获得的第二用户背视图捕获图像提取的。
9.根据权利要求6所述的信息处理装置,其中,
所述信息处理装置包括彼此集成的所述第一成像设备和所述第一显示设备。
10.根据权利要求2所述的信息处理装置,其中,
所述第二用户对象是通过使用从红外光获取的信息创建的,所述第二用户用红外光来照射,所述红外光从所述第二用户反射。
11.根据权利要求1所述的信息处理装置,其中,
所述显示控制部还控制第一空间中存在的第一显示设备,并且根据所述第二空间中存在的至少一个或更多个第二用户的视线相关信息,在第二捕获图像上叠加并显示第一用户对象,所述第一显示设备显示通过对所述第二用户进行成像获得的所述第二捕获图像,所述第一用户对象对应于所述第一空间中存在的至少一个或更多个第一用户。
12.一种信息处理方法,包括:
控制第二空间中存在的第二显示设备,所述第二显示设备显示通过对第一空间中存在的至少一个或更多个第一用户进行成像获得的第一捕获图像;以及
根据所述第一用户的视线相关信息,在所述第一捕获图像上叠加并显示第二用户对象,所述第二用户对象对应于所述第二空间中存在的至少一个或更多个第二用户。
13.一种其上存储有程序的计算机可读存储介质,所述程序使计算机用作:
显示控制部,其控制第二空间中存在的第二显示设备,所述第二显示设备显示通过对第一空间中存在的至少一个或更多个第一用户进行成像获得的第一捕获图像,其中,
所述显示控制部根据所述第一用户的视线相关信息,在所述第一捕获图像上叠加并显示第二用户对象,所述第二用户对象对应于所述第二空间中存在的至少一个或更多个第二用户。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018211671 | 2018-11-09 | ||
JP2018-211671 | 2018-11-09 | ||
PCT/JP2019/040620 WO2020095639A1 (ja) | 2018-11-09 | 2019-10-16 | 情報処理装置、情報処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113170075A CN113170075A (zh) | 2021-07-23 |
CN113170075B true CN113170075B (zh) | 2024-04-19 |
Family
ID=70612392
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980072727.1A Active CN113170075B (zh) | 2018-11-09 | 2019-10-16 | 信息处理装置、信息处理方法和程序 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11589001B2 (zh) |
JP (1) | JP7452434B2 (zh) |
CN (1) | CN113170075B (zh) |
DE (1) | DE112019005617T5 (zh) |
WO (1) | WO2020095639A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20240048838A1 (en) * | 2020-12-16 | 2024-02-08 | Sony Group Corporation | Display apparatus, display control method, and program |
CN116107534A (zh) * | 2021-11-10 | 2023-05-12 | 财团法人工业技术研究院 | 信息显示方法及其处理装置与信息显示*** |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000276613A (ja) * | 1999-03-29 | 2000-10-06 | Sony Corp | 情報処理装置および情報処理方法 |
CN103140879A (zh) * | 2010-09-30 | 2013-06-05 | 富士胶片株式会社 | 信息呈现装置、数字照相机、头戴式显示器、投影仪、信息呈现方法和信息呈现程序 |
WO2017134886A1 (ja) * | 2016-02-02 | 2017-08-10 | ソニー株式会社 | 情報処理装置、情報処理方法、及び記録媒体 |
CN108370410A (zh) * | 2015-12-28 | 2018-08-03 | 索尼公司 | 信息处理装置、信息处理方法、程序和信息处理*** |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1055257A (ja) * | 1996-08-09 | 1998-02-24 | Nippon Telegr & Teleph Corp <Ntt> | 3次元仮想空間表示方法 |
US8208007B2 (en) * | 2004-04-21 | 2012-06-26 | Telepresence Technologies, Llc | 3-D displays and telepresence systems and methods therefore |
JP2009065490A (ja) | 2007-09-07 | 2009-03-26 | Nippon Telegr & Teleph Corp <Ntt> | テレビ会議装置 |
EP2285109B1 (en) * | 2008-05-29 | 2018-11-28 | Fujitsu Limited | Vehicle image processor, and vehicle image processing system |
JP5674300B2 (ja) | 2009-09-30 | 2015-02-25 | 一般財団法人Nhkサービスセンター | 情報伝達処理装置及び情報伝達処理システム並びにこれらに用いるコンピューター・プログラム |
US8665307B2 (en) * | 2011-02-11 | 2014-03-04 | Tangome, Inc. | Augmenting a video conference |
JP2013042250A (ja) * | 2011-08-12 | 2013-02-28 | Sony Corp | 撮像装置および撮像方法 |
JP2013062640A (ja) * | 2011-09-13 | 2013-04-04 | Sony Corp | 信号処理装置、信号処理方法、およびプログラム |
JP2014191718A (ja) * | 2013-03-28 | 2014-10-06 | Sony Corp | 表示制御装置、表示制御方法および記録媒体 |
JP2015002477A (ja) | 2013-06-17 | 2015-01-05 | キヤノン株式会社 | 情報処理装置、情報処理システムおよび情報処理方法 |
US10075656B2 (en) * | 2013-10-30 | 2018-09-11 | At&T Intellectual Property I, L.P. | Methods, systems, and products for telepresence visualizations |
US10219095B2 (en) * | 2017-05-24 | 2019-02-26 | Glen A. Norris | User experience localizing binaural sound during a telephone call |
JP6392945B1 (ja) * | 2017-07-19 | 2018-09-19 | 株式会社コロプラ | 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置 |
KR102271308B1 (ko) * | 2017-11-21 | 2021-06-30 | 주식회사 하이퍼커넥트 | 영상통화 중에 상호작용 가능한 시각적 오브젝트를 제공하기 위한 방법, 및 이를 수행하는 상호작용 가능한 시각적 오브젝트 제공 시스템 |
-
2019
- 2019-10-16 WO PCT/JP2019/040620 patent/WO2020095639A1/ja active Application Filing
- 2019-10-16 US US17/288,762 patent/US11589001B2/en active Active
- 2019-10-16 CN CN201980072727.1A patent/CN113170075B/zh active Active
- 2019-10-16 JP JP2020556719A patent/JP7452434B2/ja active Active
- 2019-10-16 DE DE112019005617.4T patent/DE112019005617T5/de active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000276613A (ja) * | 1999-03-29 | 2000-10-06 | Sony Corp | 情報処理装置および情報処理方法 |
CN103140879A (zh) * | 2010-09-30 | 2013-06-05 | 富士胶片株式会社 | 信息呈现装置、数字照相机、头戴式显示器、投影仪、信息呈现方法和信息呈现程序 |
CN108370410A (zh) * | 2015-12-28 | 2018-08-03 | 索尼公司 | 信息处理装置、信息处理方法、程序和信息处理*** |
WO2017134886A1 (ja) * | 2016-02-02 | 2017-08-10 | ソニー株式会社 | 情報処理装置、情報処理方法、及び記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP7452434B2 (ja) | 2024-03-19 |
WO2020095639A1 (ja) | 2020-05-14 |
US11589001B2 (en) | 2023-02-21 |
CN113170075A (zh) | 2021-07-23 |
DE112019005617T5 (de) | 2021-08-19 |
US20210400234A1 (en) | 2021-12-23 |
JPWO2020095639A1 (ja) | 2021-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107683497B (zh) | 信息处理设备、信息处理方法及程序 | |
WO2017215295A1 (zh) | 一种摄像机参数调整方法、导播摄像机及*** | |
JP6229314B2 (ja) | 情報処理装置、表示制御方法及びプログラム | |
CN106462937B (zh) | 图像处理装置以及图像显示装置 | |
EP3117290B1 (en) | Interactive information display | |
WO2011158511A1 (ja) | 指示入力装置、指示入力方法、プログラム、記録媒体および集積回路 | |
JP4144492B2 (ja) | 画像表示装置 | |
US9076245B2 (en) | Image display apparatus and imaging apparatus | |
US10762688B2 (en) | Information processing apparatus, information processing system, and information processing method | |
JP2014140097A (ja) | 画像表示装置及び画像表示方法 | |
WO2017126433A1 (ja) | 情報処理装置およびユーザガイド提示方法 | |
CN113170075B (zh) | 信息处理装置、信息处理方法和程序 | |
JP2016213674A (ja) | 表示制御システム、表示制御装置、表示制御方法、及びプログラム | |
US20210364809A1 (en) | Augmented visual capabilities | |
WO2016079470A1 (en) | Mixed reality information and entertainment system and method | |
CN113303791A (zh) | 一种机动车驾驶人在线自助体检***、移动终端及存储介质 | |
KR20190096976A (ko) | 정보 처리 장치, 정보 처리 방법, 및 프로그램 | |
JP2024050696A (ja) | 情報処理装置、ユーザガイド提示方法、およびヘッドマウントディスプレイ | |
JPWO2017141584A1 (ja) | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム | |
CN107148614A (zh) | 信息处理设备、信息处理方法和程序 | |
KR20170107137A (ko) | 복수의 영상 데이터를 이용하는 헤드 마운트 디스플레이 장치 및 복수의 영상 데이터를 송수신하기 위한 시스템 | |
EP3402410B1 (en) | Detection system | |
GB2525304B (en) | Interactive information display | |
EP2919094A1 (en) | Interactive information display | |
CN109313823B (zh) | 信息处理装置、信息处理方法和计算机可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |