CN116107527A - 信息显示方法及其处理装置与信息显示*** - Google Patents

信息显示方法及其处理装置与信息显示*** Download PDF

Info

Publication number
CN116107527A
CN116107527A CN202211376755.2A CN202211376755A CN116107527A CN 116107527 A CN116107527 A CN 116107527A CN 202211376755 A CN202211376755 A CN 202211376755A CN 116107527 A CN116107527 A CN 116107527A
Authority
CN
China
Prior art keywords
display
light
user
permeable
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211376755.2A
Other languages
English (en)
Inventor
苏育萱
陈信宏
杜佳勋
蔡宇翔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial Technology Research Institute ITRI
Original Assignee
Industrial Technology Research Institute ITRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from TW111137134A external-priority patent/TWI832459B/zh
Application filed by Industrial Technology Research Institute ITRI filed Critical Industrial Technology Research Institute ITRI
Publication of CN116107527A publication Critical patent/CN116107527A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1446Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display display composed of modules, e.g. video walls
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • G01D21/02Measuring two or more variables by means not covered by a single other subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • G09F9/30Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • G09F9/30Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements
    • G09F9/33Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements being semiconductor devices, e.g. diodes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • G09F9/30Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements
    • G09F9/35Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements being liquid crystals
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2300/00Aspects of the constitution of display devices
    • G09G2300/02Composition of display devices
    • G09G2300/023Display panel composed of stacked panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2300/00Aspects of the constitution of display devices
    • G09G2300/02Composition of display devices
    • G09G2300/026Video wall, i.e. juxtaposition of a plurality of screens to create a display screen of bigger dimensions
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供一种信息显示方法及其处理装置与信息显示***,此***包括多个可透光显示器。可透光显示器包括彼此相邻设置的第一可透光显示器与第二可透光显示器。感知信息获取设备获取至少一用户的位置信息与姿态信息与获取至少一目标物的位置信息。处理装置经配置以:判断位于第一可透光显示器与第二可透光显示器前方的用户人数;根据用户人数、用户的位置信息与姿态信息以及目标物的位置信息,决定关联于用户的虚拟物件的显示位置信息,并根据显示位置信息控制第一可透光显示器与第二可透光显示器中至少一个显示对应于目标物的虚拟物件。借此,可根据不同应用情境来利用多台可透光显示器提供跨屏幕显示功能。

Description

信息显示方法及其处理装置与信息显示***
技术领域
本公开涉及一种信息显示技术。
背景技术
随着图像处理技术与空间定位技术的发展,透明显示器的应用已逐渐受到重视。此类的技术可让显示器搭配实体物件,再辅以虚拟物件,并且依照用户的需求来产生交互式的体验,可使信息以更为直观的方式呈现。
再者,关联于实体物件的虚拟物件可显示于透明显示器的特定位置上,让用户可透过透明显示器同时观看到实体物件与叠加于实体物件上或一侧的虚拟物件。举例而言,透过于观景台上设置透明显示器,观赏者可同时观看景观以及透明显示器提供的景观信息。然而,在一些大型应用场景中,可能需要透过多台透明显示器的组合来提供虚实融合的信息显示服务。因此,如何控制多台透明显示器提供符合各式应用情境需求的虚实融合信息显示服务实为一个重要的课题。
发明内容
本公开有关于一种信息显示方法及其处理装置与信息显示***。
在本公开的一范例实施例中,上述的信息显示***多个可透光显示器、多个感知信息获取设备以及处理装置。这些可透光显示器包括第一可透光显示器与第二可透光显示器,且第一可透光显示器相邻设置在第二可透光显示器。感知信息获取设备用以获取至少一用户的位置信息与姿态信息以及用以获取至少一目标物的位置信息。处理装置连接于可透光显示器以及感知信息获取设备,经配置以:判断位于第一可透光显示器与第二可透光显示器前方的用户人数;根据用户人数、至少一用户的位置信息与姿态信息以及至少一目标物的位置信息,决定关联于至少一用户的至少一虚拟物件的显示位置信息,并根据显示位置信息控制第一可透光显示器与第二可透光显示器其中至少一个显示对应于至少一目标物的至少一虚拟物件。
在本公开的一范例实施例中,上述的信息显示方法适用于包括多个可透光显示器、多个感知信息获取设备以及处理装置的信息显示***。可透光显示器包括第一可透光显示器与第二可透光显示器,且第一可透光显示器相邻设置在第二可透光显示器。所述方法包括下列步骤:利用感知信息获取设备获取至少一用户的位置信息与姿态信息;利用感知信息获取设备获取至少一目标物的位置信息;判断位于第一可透光显示器与第二可透光显示器前方的用户人数;根据用户人数、至少一用户的位置信息与姿态信息以及至少一目标物的位置信息,决定关联于至少一用户的至少一虚拟物件的显示位置信息,并根据显示位置信息控制第一可透光显示器与第二可透光显示器其中至少一个显示对应于至少一目标物的至少一虚拟物件。
本公开一范例实施例提出一种处理装置,其连接于多个可透光显示器与多个感知信息获取设备。该处理装置包括存储器与连接存储器的处理器。存储器用以存储数据,而处理器经配置以执行下列步骤:自感知信息获取设备取得至少一用户的位置信息与姿态信息;自感知信息获取设备取得至少一目标物的位置信息;判断位于第一可透光显示器与第二可透光显示器前方的用户人数;根据用户人数、至少一用户的位置信息与姿态信息以及至少一目标物的位置信息,决定关联于至少一用户的至少一虚拟物件的显示位置信息,并根据显示位置信息控制第一可透光显示器与第二可透光显示器其中至少一个显示对应于目标物的至少一虚拟物件。
附图说明
图1A是根据本公开一范例实施例所绘示的信息显示***的方块图;
图1B是根据本公开一范例实施例所绘示的信息显示***的示意图;
图2是根据本公开一范例实施例所绘示的信息显示方法的流程图;
图3A与图3B是根据本公开一范例实施例所绘示的信息显示方法的流程图;
图3C与图3D是根据本公开一范例实施例所绘示的信息显示***的应用情境的示意图;
图4是根据本公开一范例实施例的平移虚拟物件的示意图;
图5A与图5B是根据本公开一范例实施例的信息显示方法的流程图;
图5C是根据本公开一范例实施例的信息显示***的应用情境的示意图;
图6A是根据本公开一范例实施例的信息显示方法的流程图;
图6B是根据本公开一范例实施例的信息显示***的应用情境的示意图;
图7A与图7B是根据本公开一范例实施例的信息显示方法的流程图;
图7C是根据本公开一范例实施例的信息显示***的应用情境的示意图。
附图标记说明
100:信息显示***
110_1~110_N:可透光显示器
120_1~120_N:感知信息获取设备
130:处理装置
131:存储器
132:处理器
Vf1,Vf2,Vf5,Vf6:虚拟物件
Vf1_1,Vf1_2,Vf2_1,Vf2_2:子虚拟物件
U1,U2,U3,U4,U6,U7,U8:用户
Obj1,Obj2,Obj3:目标物
C1:字符
Z1,Z2:显示范围
PL1:拼接显示平面
P1,P2:视线落点
G1,G2:信息指示线
S210~S250,S302~S316,S3101~S3106,S3121~S3124,S502~S516,S5101~S5109,S602~S622,S702~S716,S7101~S7107:步骤。
具体实施方式
现将详细地参考本发明的示范性实施例,示范性实施例的实例说明于附图中。只要有可能,相同组件符号在附图和描述中用来表示相同或相似部分。
图1A是根据本公开一范例实施例的信息显示***的方块图。首先图1A先介绍***中的各个构件以及配置关系,详细功能将配合后续范例实施例的流程图一并公开。
请参照图1A,本范例实施例中的信息显示***10可包括多个可透光显示器110_1、110_2、110_3、…、110_N、多个感知信息获取设备120_1、120_2、120_3、…、120_N以及处理装置130。处理装置130可以是以无线、有线或电性连接可透光显示器110_1~110_N与感知信息获取设备120_1~120_N。
可透光显示器110_1~110_N可用以显示信息,其可包括是由单个或多个显示设备组合而成,显示设备可例如是液晶显示器(Liquid crystal display,LCD)、场色序(Fieldsequential color)液晶显示器、发光二极管(Light emitting diode,LED)显示器、电湿润显示器等穿透式可透光显示器,或者是投影式可透光显示器。须说明的是,这些可透光显示器110_1~110_N可以共平面或不共面的方式而相邻设置。在一些实施例中,可透光显示器110_1~110_N可设置为一移动载具(例如缆车、汽车、游览车、船只或飞机等等)的多个窗屏,以让用户可于搭乘移动载具的过程中观看外部场景物件与由可透光显示器110_1~110_N所显示的虚拟物件。
感知信息获取设备120_1~120_N可用以获取用户的位置信息与姿态信息。感知信息获取设备120_1~120_N包括用以获取用户信息的感测装置。在一些实施例中,感知信息获取设备120_1~120_N可包括至少一个图像传感器或者包括至少一个图像传感器搭配至少一个深度传感器或电磁感测装置,以朝向位于可透光显示器110_1~110_N之前侧的用户获取图像数据,从而对用户进行图像辨识与定位。前述图像传感器可为可见光传感器或非可见光传感器如红外线传感器等。此外,感知信息获取设备120_1~120_N也可以包括光学***/电磁感测装置来对用户进行光学/电磁场的空间定位。在一些实施例中,感知信息获取设备120_1~120_N还可通过各类人体姿态辨识技术来辨识用户的四肢、躯干和/或头部所呈现的姿态。像是,感知信息获取设备120_1~120_N可根据图像数据辨识人体骨架与人体特征点等等,从而识别出用户的姿态。只要是可以定位出用户所在位置信息以及辨识用户的姿态信息的装置或其组合,皆属于感知信息获取设备120_1~120_N的范围。
另一方面,感知信息获取设备120_1~120_N可用以获取实体场景中目标物的位置信息。感知信息获取设备120_1~120_N包括用以获取目标物信息的感测装置。在一些实施例中,感知信息获取设备120_1~120_N可包括至少一个图像传感器或者包括至少一个图像传感器搭配至少一个深度传感器,以朝向于显示器110_1~110_N之后侧(相对于用户的另一侧)的目标物获取图像数据,从而对目标物进行图像辨识定位。前述图像传感器可为可见光传感器或非可见光传感器如红外线传感器等。抑或是,藉由电场或磁场感应变化以进行对空间物体检测与定位。只要是可以定位出目标物所在位置信息的装置或其组合,皆属于感知信息获取设备120_1~120_N的范围。
在本公开实施例中,上述的图像传感器可用以获取图像并可包括具有透镜以及感光组件的摄像镜头。上述的深度传感器可用以检测深度信息,其可以利用主动式深度感测技术或被动式深度感测技术来实现。主动式深度感测技术可藉由主动发出光源、红外线、超声波、激光等作为信号搭配时差测距技术来计算深度信息。被动式深度感测技术可以藉由两个图像传感器以不同视角获取其前方的两张图像,以利用两张图像的视差来计算深度信息。
在一些实施例中,感知信息获取设备120_1~120_N还可包括用以感测实体场景的场景信息的传感器。像是,感知信息获取设备120_1~120_N可包括全球定位***(GPS)装置、电子罗盘、电磁感应装置或重力传感器等,以提供其上设置有可透光显示器110_1~110_N的移动载具的GPS信息、方位信息与倾斜信息等等给处理装置130。
在一些实施例中,感知信息获取设备120_1~120_N可以通过各自的通信接口以有线或是无线的方式传输信息至处理装置130。在一些实施例中,感知信息获取设备120_1~120_N具有处理器与存储器,并具有可根据图像数据进行物件辨识与物件追踪的计算能力。
处理装置130用以控制信息显示***10的操作。在一些实施例中,处理装置130可以是一或多台计算器装置的组合,本公开对此不限制。当处理装置130实施为多台计算器装置,这些计算器装置可以经由多个网关装置而彼此连接与通信,前述网关支持无线传输协议或有线传输协议,本公开对此不限制。
在一些实施例中,处理装置130包括存储器131以及处理器132。存储器131可以例如是任意型式的固定式或可移动式随机存取存储器(random access memory,RAM)、只读存储器(read-only memory,ROM)、闪存(flash memory)、硬盘或其他类似装置、集成电路或其组合。处理器142可以例如是中央处理单元(central processing unit,CPU)、应用处理器(application processor,AP),或是其他可编程之一般用途或特殊用途的微处理器(microprocessor)、数字信号处理器(digital signal processor,DSP)、图像信号处理器(image signal processor,ISP)、图形处理器(graphics processing unit,GPU)或其他类似装置、集成电路或其组合。以下范例实施例中将搭配信息显示***10的各组件来说明处理装置130执行信息显示方法流程的细节。
图1B是根据本公开一范例实施例的信息显示***的示意图。为了方便且清楚说明,图1B以3个可透光显示器110_1~110_3以及3个感知信息获取设备120_1~120_3为范例进行说明,但本公开不限制于此。请参照图1B,可透光显示器110_1相邻设置在可透光显示器110_2,且可透光显示器110_2相邻设置在可透光显示器110_3。用户U1与目标物Obj1分别位于可透光显示器110_1~110_3的前侧与后侧。
在图1B的范例中,基于用户U1的视线信息与位置信息,用户U1可通过可透光显示器110_3观看迭加有目标物Obj1的虚拟物件Vf1的实体场景。虚拟物件Vf1可视为基于目标物Obj1而扩增的增强现实内容。也就是说,处理装置130可根据用户U1的位置信息与姿态信息以及目标物Obj1的位置信息来决定虚拟物件Vf1在可透光显示器110_3上的显示位置信息。藉此,处理装置130可根据显示位置信息控制可透光显示器110_3显示对应于目标物Obj1的虚拟物件Vf1,以让用户U1可透过可透光显示器110_3看到位于目标物Obj1附近的虚拟物件Vf1。
然而,图1B仅为示范性说明,用户人数可不限于一位。在一些实施例中,用户人数可以多于1,且处理装置130可根据用户人数来决定虚拟物件的显示方式。此外,须说明的是,在一些实施例中,处理装置130可利用一台以上的可透光显示器110_1~110_3来显示虚拟物件供一或多位用户观赏,以实现跨屏显示功能。
图2是根据本公开一范例实施例的信息显示方法的流程图。请同时参照图1A以及图2,而图2的方法流程可由图1A的信息显示***10来实现。
在步骤S210,处理装置130利用感知信息获取设备120_1~120_N获取至少一用户的位置信息与姿态信息。在步骤S220,处理装置130利用感知信息获取设备120_1~120_N获取至少一目标物的位置信息。如同前述,感知信息获取设备120_1~120_N例如是可针对至少一用户以及至少一目标物的所在位置进行定位的图像传感器、深度传感器或其组合。
在步骤S230,处理装置130判断位于第一可透光显示器与第二可透光显示器前方的用户人数,其中第一可透光显示器与第二可透光显示器彼此相邻设置。以图1B为例,处理装置130可分别判断相邻的可透光显示器110_1与可透光显示器110_2前方的用户人数。或者,处理装置130可分别判断相邻的可透光显示器110_2与可透光显示器110_3前方的用户人数。又或者,处理装置130可分别判断相邻的可透光显示器110_1~110_3前方的用户人数。处理装置130可通过感知信息获取设备120_1~120_3所获取的图像数据来分别判断各个可透光显示器110_1~110_3前方的用户人数。基于相邻的可透光显示器前方的用户人数,处理装置130可决定是单人观看情境或多人观看情境。
在步骤S240,处理装置130根据用户人数、至少一用户的位置信息与姿态信息以及至少一目标物的位置信息,决定关联于至少一用户的至少一虚拟物件的显示位置信息。具体而言,在一些实施例中,处理装置130可根据相邻的多台可透光显示器前方的用户人数来决定各用户分别经由各可透光显示器观看虚拟物件的权限,以进一步将虚拟物件该显示在适合的可透光显示器上。
在一些实施例中,当相邻的多台可透光显示器前方的用户人数等于1,单一用户可具有经由多台可透光显示器观看虚拟物件的权限。在一些实施例中,当相邻的多台可透光显示器前方的用户人数大于1,处理装置130可决定这些用户共享多台可透光显示器,让多个用户可同时具有经由多台可透光显示器观看虚拟物件的权限。或者,在一些实施例中,当相邻的多台可透光显示器前方的用户人数大于1,处理装置130可决定这些用户不共享多台可透光显示器,让各个用户可只具有经由最靠近的一台可透光显示器观看虚拟物件的权限。
在一些实施例中,当某一用户具有可经由多台可透光显示器观看虚拟物件的权限时,处理装置130可拼接部分的感知信息获取设备120_1~120_N所获取的用户图像。处理装置130可根据上述拼接图像来定位该用户,并根据该用户的位置信息与姿态信息以及目标物的位置信息进行坐标转换,以进而计算出该用户所观看的目标物的虚拟物件于一或多台可透光显示器上的显示位置信息。在一些实施例中,处理装置130可根据可透光显示器110_1~110_N的尺寸与分辨率获取显示位置信息,而显示位置信息包括显示器110_1~110_N的像素坐标***下的像素坐标。
在步骤S250,处理装置130根据显示位置信息控制第一可透光显示器与第二可透光显示器其中至少一个显示对应于至少一目标物的至少一虚拟物件。在一些实施例中,处理装置130可同时透过第一可透光显示器与第二可透光显示器来显示单一个虚拟物件,或者处理装置130可先后透过第一可透光显示器与第二可透光显示器来显示单一个虚拟物件。在上述各种情况下,该虚拟物件的显示位置信息可包括对应于第一可透光显示器的显示位置信息与对应于第二可透光显示器的显示位置信息。
以下将搭配信息显示***10列举实施例以说明本公开不同应用情境中的实施方式。
图3A与图3B是根据本公开一范例实施例信息显示方法的流程图。图3C与图3D是根据本公开一范例实施例信息显示***的应用情境的示意图。请同时参照图3A、图3B、图3C与图3D。为了方便且清楚说明,图3A至图3D的实施例将以3个可透光显示器110_1~110_3以及3个感知信息获取设备120_1~120_3为范例进行说明,但本公开不限制于此。
感知信息获取设备120_2可获取用户U1的位置信息与姿态信息(步骤S302),并将用户U1的位置信息与姿态信息传输至处理装置130。感知信息获取设备120_1~120_3中一或多个可获取目标物Obj1的位置信息(步骤S304),并将目标物Obj1的位置信息传输至处理装置130。
处理装置130判断相邻的可透光显示器110_2(即第一可透光显示器)与可透光显示器110_3(即第二可透光显示器)前方的用户人数是否等于1(步骤S306)。当用户人数等于1,处理装置130根据至少一用户U1的姿态信息决定至少一用户U1关联于可透光显示器110_2与可透光显示器110_3(步骤S308)。详细而言,若步骤S306判断为是,代表用户U1具有使用多台可透光显示器的权限。于是,处理装置130可依据至少一用户U1的姿态信息决定至少一用户U1的观看视野或视线信息,以根据至少一用户U1的观看视野或视线信息选择至少一用户U1目前较可能观看的可透光显示器110_2与可透光显示器110_3。此外,当用户人数大于1,在本实施例中,处理装置130可决定各用户使用多个可透光显示器110_1~120_3其中的一个(步骤S316),亦即各个用户仅具有使用单一可透光显示器的权限。
接着,处理装置130根据至少一用户U1的位置信息与姿态信息以及至少一目标物Obj1的位置信息,决定至少一虚拟物件Vf1在可透光显示器110_2与可透光显示器110_3的一拼接显示平面上的融合位置信息(步骤S310)。更详细而言,在用户人数等于1的情况下,处理装置130可拼接感知资获取设备110_2以及感知资获取设备110_3所获取的多张用户图像(步骤S3101)。接着,处理装置130可根据拼接图像来计算用户U1的用户坐标(步骤S3102)。此外,在用户人数大于1的情况下,处理装置130可根据感知资获取设备110_1~110_3获取的用户图像来各别计算各用户的用户坐标(步骤S3106)。以图3C为例,用户U2的用户坐标是根据感知资获取设备110_1所获取的用户图像而产生。
另一方面,处理装置130可计算目标物Obj1相对于感知信息获取设备120_3的相对方位(步骤S3103)。在一些实施例中,根据感知信息获取设备120_3所拍摄目标物图像与目标物Obj1的GPS位置信息,处理装置130可识别目标物Obj1相对于感知信息获取设备120_3的相对方位。举例而言,目标物Obj1可为安装有自动识别***(Automatic IdentificationSystem,AIS)的移动载具,例如安装有AIS的船舶。目标物Obj1的自动识别***可提供目标物Obj1的GPS位置信息、载具标识符或其他信息给同样安装有AIS的其他移动载具,即设置有信息显示***100的移动载具,以使处理装置130可获取目标物Obj1的GPS位置信息。或者,目标物Obj1可为陆地上的建筑物。处理装置130可根据地图图资获取目标物Obj1的GPS位置信息。于是,根据信息显示***100的所在位置与目标物Obj1的GPS位置信息,处理装置130可计算出信息显示***100的所在位置与目标物Obj1之间的距离与相对方向,以识别目标物Obj1相对于感知信息获取设备120_3的相对方位。或者,在一些实施例中,处理装置130可根据感知信息获取设备120_3所拍摄的目标物图像进行物件辨识,在根据物件辨识结果所对应的默认尺寸与目标物图像上目标物Obj1的像素数据来估计目标物Obj1对于感知信息获取设备120_3之间的距离与相对方位。
接着,处理装置130可根据目标物Obj1的相对方位来计算目标物Obj1的目标物坐标(步骤S3104)。处理装置130可基于视线信息建立用户坐标与目标物坐标之间的联机,以根据用户坐标与目标物坐标之间的联机相交于可透光显示器110_2与可透光显示器110_3的拼接显示平面的交点位置来获取融合位置信息(步骤S3105)。
然后,处理装置130可根据可透光显示器110_2的显示范围、可透光显示器110_3的显示范围以及融合位置信息,决定至少一虚拟物件Vf1在可透光显示器110_2与可透光显示器110_3其中至少一个上的显示位置信息(步骤S312)。更详细而言,根据可透光显示器110_2的显示范围、可透光显示器110_3的显示范围,以及基于拼接显示平面的计算而产生的融合位置信息,处理装置130可判断虚拟物件Vf1该显示在那一台可透光显示器上或分别由两台显示器来同时显示部分的虚拟物件。
于是,处理装置130根据可透光显示器110_2的显示范围、可透光显示器110_3的显示范围以及融合位置信息,判断至少一虚拟物件Vf1是否同时位于可透光显示器110_2的显示范围与可透光显示器110_3的显示范围之内(步骤S3121)。
若步骤S3121判断为否在图3C的范例中,响应于至少一虚拟物件Vf1位于可透光显示器110_3的显示范围之内,处理装置130将基于融合位置信息计算虚拟物件在可透光显示器110_3上的显示位置信息(步骤S3122),以获取虚拟物件Vf1在可透光显示器110_3上的像素坐标。
另一方面,若步骤S3121判断为是,在图3D的范例中,响应于至少一虚拟物件Vf1同时位于可透光显示器110_2的显示范围与可透光显示器110_3的显示范围之内,处理装置130将至少一虚拟物件Vf1切割为对应于可透光显示器110_2的第一子虚拟物件Vf1_1以及对应于可透光显示器110_3的第二子虚拟物件Vf1_2(步骤S3123)。也就是说,当虚拟物件位于可透光显示器110_2与可透光显示器110_3的拼接交界处,处理装置130可控制可透光显示器110_2与可透光显示器110_3分别显示虚拟物件Vf1的一部分。接着,基于融合位置信息计算第一子虚拟物件Vf1_1在可透光显示器110_2上的第一显示位置信息,并基于融合位置信息计算第二子虚拟物件Vf1_2在可透光显示器110_3上的第二显示位置信息(步骤S3124)。也就是说,处理装置130可将第一子虚拟物件Vf1_1在拼接显示平面上的空间位置坐标转换为可透光显示器110_2上的像素坐标,并将第二子虚拟物件Vf1_2在拼接显示平面上的空间位置坐标转换为可透光显示器110_3上的像素坐标。
之后,处理装置130可根据显示位置信息控制可透光显示器110_2与可透光显示器110_3其中至少一个显示对应于至少一目标物Obj1的至少一虚拟物件Vf1(步骤S314)。如图3C所示,可透光显示器110_3将为用户U1显示对应于目标物Obj1的虚拟物件Vf1。如图3D所示,可透光显示器110_2与可透光显示器110_3将分别为用户U1显示对应于目标物Obj1的虚拟物件Vf1的一部分。
须说明的是,当虚拟物件中的同一字符被切割而在不同可透光显示器中被显示,容易因为字符破损而造成阅读上的困难。因此,在一些实施例中,在处理虚拟物件的切割程序时候,处理装置130可更进一步调整虚拟物件的显示位置,以确保经切割而获取的子虚拟物件不会具有不完整的字符。
举例而言,图4是根据本公开一范例实施例的平移虚拟物件的示意图。请参照图4,在一些实施例中,虚拟物件Vf2可包括多个字符。在获取虚拟物件Vf2在拼接显示平面PL1上的融合位置信息之后,处理装置130可判断至少一虚拟物件Vf2的字符C1是否同时位于第一可透光显示器的显示范围Z1与第二可透光显示器的显示范围Z2之内。响应于至少一虚拟物件Vf2的字符C1同时位于第一可透光显示器的显示范围Z1与第二可透光显示器的显示范围Z2之内,处理装置130基于字符C1计算一平移量Δd1,并根据平移量Δd1平移至少一虚拟物件Vf2。如图4所示,虚拟物件Vf2可向左平移Δd1。于是,处理装置130可将平移后的至少一虚拟物Vf2件沿显示边界L1切割为对应于第一可透光显示器的第一子虚拟物件Vf2_1以及对应于第二可透光显示器的第二子虚拟物件Vf2_2。如此一来,字符C1就可完整地由第一可透光显示器来显示,而不会有破损的情况发生。
图5A与图5B是根据本公开一范例实施例信息显示方法的流程图。图5C是根据本公开一范例实施例信息显示***的应用情境的示意图。请同时参照图5A、图5B与图5C。为了方便且清楚说明,图5A至图5C的实施例将以3个可透光显示器110_1~110_3以及3个感知信息获取设备120_1~120_3为范例进行说明,但本公开不限制于此。
感知信息获取设备120_1与感知信息获取设备120_2分别获取用户U3与用户U4的位置信息与姿态信息(步骤S502),并将用户U3与用户U4的位置信息与姿态信息传输至处理装置130。感知信息获取设备120_1~120_3其中一或多个可获取目标物Obj2的位置信息(步骤S504),并将目标物Obj2的位置信息传输至处理装置130。
处理装置130判断相邻的可透光显示器110_1(即第一可透光显示器)与可透光显示器110_2(即第二可透光显示器)前方的用户人数是否等于1(步骤S506)。虽然未绘示于图5C,但基于前述实施例可知,当可透光显示器110_1与可透光显示器110_2前方的用户人数等于1,处理装置130根据该用户的姿态信息决定该用户所关联于可透光显示器110_1与可透光显示器110_2(步骤S508)。
当可透光显示器110_1与可透光显示器110_2前方的用户人数大于1,在图5C的实施范例中,处理装置130可根据多用户U3、U4的姿态信息决定各用户U3、U4关联于可透光显示器110_1与可透光显示器110_2(步骤S516)。亦即,多用户U3、U4可共享可透光显示器110_1与可透光显示器110_2。详细而言,当可透光显示器110_1与可透光显示器110_2前方的用户人数大于1,处理装置130可决定将用户U3(即第一用户)关联于可透光显示器110_1以及可透光显示器110_2,并决定将用户U4(即第二用户)关联于可透光显示器110_1以及可透光显示器110_2。
接着,处理装置130根据至少一用户U3、U4的位置信息与姿态信息以及至少一目标物Obj2的位置信息,决定至少一虚拟物件Vf5在可透光显示器110_1与可透光显示器110_2的一拼接显示平面上的融合位置信息(步骤S510)。
详细而言,步骤S5101~步骤S5105的详细操作可参照前述实施例,在此不赘述。须注意的是,在多位用户U3、U4共享相邻的可透光显示器110_1、120_2的情况下,处理装置130将拼接感知信息获取设备120_1与感知信息获取设备120_2分别获取的多张用户图像(步骤S5106)。接着,处理装置130将根据拼接图像来计算用户U3、U4的视线信息(步骤S5107)。处理装置130判断用户U3、U4的视线信息是否相交于一共同可透光显示器(步骤S5108)。
响应于用户U3的视线信息与用户U4的视线信息皆相交于共同可透光显示器(即可透光显示器110_1),处理装置130基于拼接图像决定至少一虚拟物件Vf5于共同可透光显示器上的显示位置信息。拼接图像包括具有用户U3的第一用户图像以及具有用户U4的第二用户图像。更详细而言,若步骤S5108判断为是,处理装置130将依据拼接图像计算用户U3、U4的用户坐标(步骤S5102)。此外,若步骤S5108判断为否,处理装置130将依据未拼接的用户图像分别计算用户U3、U4的用户坐标(步骤S5109)。最后,处理装置130可决定至少一虚拟物件Vf5于拼接显示平面上的融合位置信息(步骤S5105)。
然后,处理装置130可根据可透光显示器110_1的显示范围、可透光显示器110_2的显示范围以及融合位置信息,决定至少一虚拟物件Vf5在可透光显示器110_1与可透光显示器110_2其中至少一个上的显示位置信息(步骤S512)。之后,处理装置130根据显示位置信息控制可透光显示器110_1与可透光显示器110_2其中至少一个显示对应于至少一目标物Obj2的至少一虚拟物件Vf5(步骤S514)。
如图5C所示,当判断用户U3、U4观看同一目标物Obj2时,处理装置130可显示关联于用户U3、U4且对应目标物Obj2的虚拟物件Vf5于可透光显示器110_1上。此外,处理装置130可根据用户U3、U4各自的视线落点P1、P2来标示分别对应于用户U3、U4的信息指示线G1、G2。信息指示线G2将横跨可透光显示器110_1与可透光显示器110_2。然而,于其他实施例中,处理装置130也可对应目标物Obj2的两个虚拟物件分别显示在可透光显示器110_1与可透光显示器110_2上。
在一些实施例中,处理装置130可追踪用户的移动状态。由于处理装置130可基于用户的追踪结果不断地更新虚拟物件的显示位置信息,因此虚拟物件可响应于用户的移动而对应移动,以达到虚拟物件跟随用户移动的视觉效果。举例而言,当用户从第一可透光显示器前方移动至第二可透光显示器,对应同一目标物的相同虚拟物件也可从第一可透光显示器上移动至第二可透光显示器上。以下将列举一实施例以说明。
图6A是根据本公开一范例实施例的信息显示方法的流程图。图6B是根据本公开一范例实施例的信息显示***的应用情境的示意图。为了方便且清楚说明,图6与图6B的实施例将以3个可透光显示器110_1~110_3以及3个感知信息获取设备120_1~120_3为范例进行说明,但本公开不限制于此。
须先说明的是,在图6B的范例中,用户U6将从可透光显示器110_1前方移动至可透光显示器110_2前方。
请同时参照图6A与图6B。感知信息获取设备120_1可获取用户U6的位置信息与姿态信息(步骤S602),并将用户U6的位置信息与姿态信息传输至处理装置130。感知信息获取设备120_1~120_3中一或多个可获取目标物Obj3的位置信息(步骤S604),并将目标物Obj3的位置信息传输至处理装置130。处理装置130判断位于可透光显示器110_1与可透光显示器110_2前方的用户人数(步骤S606)。处理装置130根据用户人数、至少一用户U6的位置信息与姿态信息以及至少一目标物Obj3的位置信息,决定关联于至少一用户U6的至少一虚拟物件Vf6的显示位置信息(步骤S608)。步骤S602~S608的详细实施方式可参照前述实施例,在此不赘述。须特别说明的是,图6B的范例中,处理装置130可先根据虚拟物件Vf6的显示位置信息而控制可透光显示器110_1显示对应于至少一目标物Obj3的至少一虚拟物件Vf6(步骤S610)。
之后,处理装置130将根据感知信息获取设备120_1所获取的用户图像来定位与追踪用户U6(步骤S612)。并且,用户U6可被处理装置130赋予一特定用户ID,以利追踪用户。在用户U6的移动过程中,处理装置130可根据用户U6的位置信息与姿态信息来计算用户U6的视野变化(步骤S614),且处理装置130将根据视线偏移判断至少一目标物Obj3是否落在用户U6观看可透光显示器110_1的视野范围内(步骤S616)。换句话说,处理装置130将根据用户U6的视野变化来判断用户U6是否还可以通过可透光显示器110_1来看到目标物Obj3。
若步骤S616判断为是,处理装置130将根据用户U6当前的位置信息与姿态信息以及目标物Obj3的位置信息来更新虚拟物件在可透光显示器110_1上的显示位置信息(步骤S620)。否则,若步骤S616判断为否,响应于至少一目标物Obj3未落在用户U6观看可透光显示器110_1的视野范围内,处理装置130根据用户U6的位置信息与姿态信息以及至少一目标物Obj3的位置信息决定虚拟物件Vf6在可透光显示器110_2上的显示位置信息(步骤S618)。之后,处理装置130可根据显示位置信息控制可透光显示器110_1或可透光显示器110_2显示对应于至少一目标物的至少一虚拟物件(步骤S622)。
如图6B所示,用户U6将从可透光显示器110_1前方移动至可透光显示器110_2前方。当用户U6逐渐远离可透光显示器110_1,用户U6将无法通过可透光显示器110_1看到目标物Obj3。于是,目标物Obj3的虚拟物件Vf6可切换为由可透光显示器110_2来显示。藉此,目标物Obj3的虚拟物件可随着用户移动而对应移动,以达到虚拟物件跟随用户移动的视觉效果。
须特别说明的是,在一些情境中,可能存在另一用户U7原本就经由可透光显示器110_2观看目标物Obj3。因此,在一些实施例中,响应于至少一目标物Obj3未落在用户U6观看可透光显示器110_1的视野范围内,处理装置130可根据用户U6的位置信息与姿态信息、用户U7的位置信息与姿态信息以及目标物的位置信息Obj3决定虚拟物件Vf6在可透光显示器110_2上的显示位置信息。亦即,当要将目标物Obj3的虚拟物件切换至可透光显示器110_2来显示时,处理装置130可一起考虑用户U6与用户U7的位置信息与姿态信息来决定虚拟物件Vf6在可透光显示器110_2上的显示位置。
此外,前述实施例中的多个可透光显示器都是共面设置。然而,在一些实施例中,这些可透光显示器可以非共面设置。举例而言,当第一可透光显示器与第二可透光显示器分别为缆车上面向不同方位的观景窗时,第一可透光显示器的显示平面与第二可透光显示器的显示平面之间可具有一夹角。以下将列举实施例以说明此应用情境的实施方式。
图7A、图7B是根据本公开一范例实施例的信息显示方法的流程图。图7C是根据本公开一范例实施例的信息显示***的应用情境的示意图。请同时参照图7A、图7B图7C。
如图7C所示,可透光显示器110_1的显示平面与可透光显示器110_2的显示平面之间可具有一夹角。感知信息获取设备110_1、110_2可获取用户U8的位置信息与姿态信息(步骤S702),并将用户U8的位置信息与姿态信息传输至处理装置130。感知信息获取设备120_1~120_3中一或多个可获取目标物的位置信息(步骤S704),并将目标物的位置信息传输至处理装置130。
处理装置130判断相邻的可透光显示器110_1(即第一可透光显示器)与可透光显示器110_2(即第二可透光显示器)前方的用户人数是否等于1(步骤S706)。当用户人数等于1,处理装置130根据至少一用户U8的姿态信息决定至少一用户U8关联于可透光显示器110_1与可透光显示器110_2(步骤S708)。此外,当用户人数大于1,在本实施例中,处理装置130可决定各用户使用多个可透光显示器110_1~110_3其中的一个(步骤S716),亦即各个用户仅具有使用单一可透光显示器的权限。
接着,处理装置130根据一用户U8的位置信息与姿态信息以及目标物的位置信息,决定关联于至少一用户U8的至少一虚拟物件的显示位置信息(步骤S710)。更详细而言,在用户人数大于1的情况下,处理装置130可根据感知资获取设备110_1~110_3获取的用户图像来各别计算各用户的用户坐标(步骤S7107)。
此外,在用户人数等于1的情况下,处理装置130可辨识用户U8的头部转向(步骤S7101),且处理装置130可根据用户U8的头部转向选择可透光显示器110_1以及用户图像(步骤S7102)。具体而言,虽然用户U8具有经由可透光显示器110_1与可透光显示器110_2观看虚拟物件的权限,但处理装置130可根据用户U8的头部转向来决定使用可透光显示器110_1显示虚拟物件给用户U8观看。此外,处理装置130可选择感知信息获取设备120_1所获取的用户图像来计算用户坐标(步骤S7106)。在其他实施例中,处理装置130还可进一步辨识用户U8的视线方向,以根据用户U8的视线方向选择可透光显示器110_1以及用户图像。
另一方面,处理装置130可计算目标物的相对方位(步骤S7103)。接着,处理装置130可根据目标物的相对方位来计算目标物的目标物坐标(步骤S7104)。然后,处理装置130可根据用户坐标与目标物坐标来获取融合位置信息(步骤S7105)。然后,处理装置130可根据可透光显示器110_1的显示范围、可透光显示器110_2的显示范围以及融合位置信息,决定至少一虚拟物件在可透光显示器110_1与可透光显示器110_2其中至少一个上的显示位置信息(步骤S712)。之后,处理装置130根据显示位置信息控制可透光显示器110_1与可透光显示器110_2其中至少一个显示对应于至少一目标物的至少一虚拟物件(步骤S714)。
本公开的范例实施例所提出的信息显示方法及其处理装置与信息显示***,可基于相邻的可透光显示器前方的用户人数来判定是单人观看情境或多人观看情境。当操作于单人观看情境,可根据多台可透光显示器来提供跨屏显示功能。当操作于多人观看情境,可根据不同应用情境来利用多台可透光显示器提供跨屏幕显示功能。本公开实施例可实时地依据用户位置与目标物位置,计算虚拟物件的显示位置信息。藉此,虚拟物件可实时地跟随目标物或用户来进行跨显示器显示,进而提升用户的观看体验。除此之外,本公开实施例可避免虚拟物件内的字符破损而在不同可透光显示器中被显示的情况发生,提升虚拟物件的观看舒适度。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (17)

1.一种信息显示***,其特征在于,包括:
多个可透光显示器,其中所述可透光显示器包括第一可透光显示器与第二可透光显示器,且所述第一可透光显示器相邻设置在所述第二可透光显示器;
多个感知信息获取设备,用以获取至少一用户的位置信息与姿态信息以及用以获取至少一目标物的位置信息;
处理装置,连接于所述可透光显示器以及所述感知信息获取设备,经配置以:
判断位于所述第一可透光显示器与所述第二可透光显示器前方的用户人数;
根据所述用户人数、所述至少一用户的位置信息与姿态信息以及所述至少一目标物的位置信息,决定关联于所述至少一用户的至少一虚拟物件的显示位置信息;以及
根据所述显示位置信息控制所述第一可透光显示器与所述第二可透光显示器其中至少一个显示对应于所述至少一目标物的所述至少一虚拟物件。
2.根据权利要求1所述的信息显示***,其特征在于,所述处理装置经配置以:
当所述用户人数等于1,根据所述至少一用户的姿态信息决定所述至少一用户关联于所述第一可透光显示器与所述第二可透光显示器;
根据所述至少一用户的位置信息与姿态信息以及所述至少一目标物的位置信息,决定所述至少一虚拟物件在所述第一可透光显示器与所述第二可透光显示器的拼接显示平面上的融合位置信息;以及
根据所述第一可透光显示器的显示范围、所述第二可透光显示器的显示范围以及所述融合位置信息,决定所述至少一虚拟物件在所述第一可透光显示器与所述第二可透光显示器其中至少一个上的显示位置信息。
3.根据权利要求2所述的信息显示***,其特征在于,所述处理装置经配置以:
根据所述第一可透光显示器的显示范围、所述第二可透光显示器的显示范围以及所述融合位置信息,判断所述至少一虚拟物件是否同时位于所述第一可透光显示器的显示范围与所述第二可透光显示器的显示范围之内;
响应于所述至少一虚拟物件同时位于所述第一可透光显示器的显示范围与所述第二可透光显示器的显示范围之内,将所述至少一虚拟物件切割为对应于所述第一可透光显示器的第一子虚拟物件以及对应于所述第二可透光显示器的第二子虚拟物件;以及
基于所述融合位置信息计算所述第一子虚拟物件在所述第一可透光显示器上的第一显示位置信息,并基于所述融合位置信息计算所述第二子虚拟物件在所述第二可透光显示器上的第二显示位置信息。
4.根据权利要求3所述的信息显示***,其特征在于,所述处理装置经配置以:
判断所述至少一虚拟物件的字符是否同时位于所述第一可透光显示器的显示范围与所述第二可透光显示器的显示范围之内;
响应于所述至少一虚拟物件的字符同时位于所述第一可透光显示器的显示范围与所述第二可透光显示器的显示范围之内,基于所述字符计算平移量,并根据所述平移量平移所述至少一虚拟物件;以及
将平移后的所述至少一虚拟物件切割为对应于所述第一可透光显示器的第一子虚拟物件以及对应于所述第二可透光显示器的第二子虚拟物件。
5.根据权利要求1所述的信息显示***,其特征在于,所述处理装置经配置以:
当所述用户人数大于1,其中所述至少一用户包括第一用户与第二用户,决定将所述第一用户关联于所述第一可透光显示器以及所述第二可透光显示器,并决定将所述第二用户关联于所述第一可透光显示器以及所述第二可透光显示器;以及
响应于所述第一用户的视线信息与所述第二用户的视线信息皆相交于共同可透光显示器,基于拼接图像决定所述至少一虚拟物件于所述共同可透光显示器上的显示位置信息,其中所述拼接图像包括具有第一用户的第一用户图像以及具有第二用户的第二用户图像。
6.根据权利要求1所述的信息显示***,其特征在于,所述至少一用户包括第一用户,所述处理装置经配置以:
响应于所述第一用户移动,计算所述第一用户的视野变化;
根据所述视野变化判断所述至少一目标物是否落在所述第一用户观看所述第一可透光显示器的视野范围内;以及
响应于所述至少一目标物未落在所述第一用户观看所述第一可透光显示器的视野范围内,根据所述第一用户的位置信息与姿态信息以及所述至少一目标物的位置信息决定所述至少一虚拟物件在所述第二可透光显示器上的显示位置信息。
7.根据权利要求6所述的信息显示***,其特征在于,所述至少一用户还包括第二用户,所述处理装置经配置以:
响应于所述至少一目标物未落在所述第一用户观看所述第一可透光显示器的视野范围内,根据所述第一用户的位置信息与姿态信息、所述第二用户的位置信息与姿态信息以及所述至少一目标物的位置信息决定所述至少一虚拟物件在所述第二可透光显示器上的显示位置信息。
8.根据权利要求1所述的信息显示***,其特征在于,所述第一可透光显示器的显示平面与所述第二可透光显示器的显示平面之间具有一夹角,所述处理装置经配置以:
当所述用户人数等于1,根据所述至少一用户的姿态信息决定所述至少一用户关联于所述第一可透光显示器与所述第二可透光显示器;
根据所述至少一用户的头部转向选择所述第一可透光显示器;以及
根据所述至少一用户的位置信息与姿态信息,以及所述至少一目标物的位置信息,决定关联于所述至少一用户的至少一虚拟物件在所述第一可透光显示器上的显示位置信息。
9.一种信息显示方法,其特征在于,适用于具有多个可透光显示器、多个感知信息获取设备以及处理装置的信息显示***,其中所述可透光显示器包括第一可透光显示器与第二可透光显示器,且所述第一可透光显示器相邻设置在所述第二可透光显示器,而所述方法包括:
利用所述感知信息获取设备获取至少一用户的位置信息与姿态信息;
利用所述感知信息获取设备获取至少一目标物的位置信息;
判断位于所述第一可透光显示器与所述第二可透光显示器前方的用户人数;
根据所述用户人数、所述至少一用户的位置信息与姿态信息,以及所述至少一目标物的位置信息,决定关联于所述至少一用户的至少一虚拟物件的显示位置信息;以及
根据所述显示位置信息控制所述第一可透光显示器与所述第二可透光显示器其中至少一个显示对应于所述至少一目标物的所述至少一虚拟物件。
10.根据权利要求9所述的信息显示方法,其特征在于,根据所述用户人数、所述至少一用户的位置信息与姿态信息以及所述至少一目标物的位置信息,决定关联于所述至少一用户的至少一虚拟物件的显示位置信息的步骤包括:
当所述用户人数等于1,根据所述至少一用户的姿态信息决定所述至少一用户关联于所述第一可透光显示器与所述第二可透光显示器;
根据所述至少一用户的位置信息与姿态信息以及所述至少一目标物的位置信息,决定所述至少一虚拟物件在所述第一可透光显示器与所述第二可透光显示器的一拼接显示平面上的融合位置信息;以及
根据所述第一可透光显示器的显示范围、所述第二可透光显示器的显示范围,以及所述融合位置信息,决定所述至少一虚拟物件在所述第一可透光显示器与所述第二可透光显示器其中至少一个上的显示位置信息。
11.根据权利要求10所述的信息显示方法,其特征在于,根据所述第一可透光显示器的显示范围、所述第二可透光显示器的显示范围以及所述融合位置信息,决定所述至少一虚拟物件在所述第一可透光显示器与所述第二可透光显示器其中至少一个上的显示位置信息的步骤包括:
根据所述第一可透光显示器的显示范围、所述第二可透光显示器的显示范围以及所述融合位置信息,判断所述至少一虚拟物件是否同时位于所述第一可透光显示器的显示范围与所述第二可透光显示器的显示范围之内;
响应于所述至少一虚拟物件同时位于所述第一可透光显示器的显示范围与所述第二可透光显示器的显示范围之内,将所述至少一虚拟物件切割为对应于所述第一可透光显示器的第一子虚拟物件以及对应于所述第二可透光显示器的第二子虚拟物件;以及
基于所述融合位置信息计算所述第一子虚拟物件在所述第一可透光显示器上的第一显示位置信息,并基于所述融合位置信息计算所述第二子虚拟物件在所述第二可透光显示器上的第二显示位置信息。
12.根据权利要求11所述的信息显示方法,其特征在于,响应于所述至少一虚拟物件同时位于所述第一可透光显示器的显示范围与所述第二可透光显示器的显示范围之内,将所述至少一虚拟物件切割为对应于所述第一可透光显示器的所述第一子虚拟物件以及对应于所述第二可透光显示器的所述第二子虚拟物件的步骤包括:
判断所述至少一虚拟物件的一字符是否同时位于所述第一可透光显示器的显示范围与所述第二可透光显示器的显示范围之内;
响应于所述至少一虚拟物件的字符同时位于所述第一可透光显示器的显示范围与所述第二可透光显示器的显示范围之内,基于所述字符计算一平移量,并根据所述平移量平移所述至少一虚拟物件;以及
将平移后的所述至少一虚拟物件切割为对应于所述第一可透光显示器的第一子虚拟物件以及对应于所述第二可透光显示器的第二子虚拟物件。
13.根据权利要求9所述的信息显示方法,其特征在于,根据所述用户人数、所述至少一用户的位置信息与姿态信息以及所述至少一目标物的位置信息,决定关联于所述至少一用户的至少一虚拟物件的显示位置信息的步骤包括:
当所述用户人数大于1,其中所述至少一用户包括第一用户与第二用户,决定将所述第一用户关联于所述第一可透光显示器以及所述第二可透光显示器,并决定将所述第二用户关联于所述第一可透光显示器以及所述第二可透光显示器;以及
响应于所述第一用户的视线信息与所述第二用户的视线信息皆相交于一共同可透光显示器,基于一拼接图像决定所述至少一虚拟物件于所述共同可透光显示器上的显示位置信息,其中所述拼接图像包括具有第一用户的第一用户图像以及具有第二用户的第二用户图像。
14.根据权利要求9所述的信息显示方法,其特征在于,所述至少一用户包括第一用户,而所述方法还包括:
响应于所述第一用户移动,计算所述第一用户的视野变化;
根据所述视野变化判断所述至少一目标物是否落在所述第一用户观看所述第一可透光显示器的视野范围内;以及
响应于所述至少一目标物未落在所述第一用户观看所述第一可透光显示器的视野范围内,根据所述第一用户的位置信息与姿态信息以及所述至少一目标物的位置信息决定所述至少一虚拟物件在所述第二可透光显示器上的显示位置信息。
15.根据权利要求14所述的信息显示方法,其特征在于,所述至少一用户包括第二用户,而响应于所述至少一目标物未落在所述第一用户观看所述第一可透光显示器的视野范围内,根据所述第一用户的位置信息与姿态信息以及所述至少一目标物的位置信息决定所述至少一虚拟物件在所述第二可透光显示器上的显示位置信息的步骤包括:
响应于所述至少一目标物未落在所述第一用户观看所述第一可透光显示器的视野范围内,根据所述第一用户的位置信息与姿态信息、所述第二用户的位置信息与姿态信息以及所述至少一目标物的位置信息决定所述至少一虚拟物件在所述第二可透光显示器上的显示位置信息。
16.根据权利要求9所述的信息显示方法,其特征在于,所述第一可透光显示器的显示平面与所述第二可透光显示器的显示平面之间具有一夹角,而根据所述用户人数、所述至少一用户的位置信息与姿态信息以及所述至少一目标物的位置信息,决定关联于所述至少一用户的至少一虚拟物件的显示位置信息的步骤包括:
当所述用户人数等于1,根据所述至少一用户的姿态信息决定所述至少一用户关联于所述第一可透光显示器与所述第二可透光显示器;
根据所述至少一用户的头部转向选择所述第一可透光显示器;以及
根据所述至少一用户的位置信息与姿态信息以及所述至少一目标物的位置信息,决定关联于所述至少一用户的至少一虚拟物件在所述第一可透光显示器上的显示位置信息。
17.一种处理装置,其特征在于,连接在多个可透光显示器以及多个感知信息获取设备,其中所述可透光显示器包括第一可透光显示器与第二可透光显示器,且所述第一可透光显示器相邻设置在所述第二可透光显示器,所述处理装置包括:
存储器,用以存储数据;以及
处理器,连接所述存储器并经配置:
自所述感知信息获取设备取得所述至少一用户的位置信息与姿态信息;
自所述感知信息获取设备取得所述至少一目标物的位置信息;
判断位于所述第一可透光显示器与所述第二可透光显示器前方的用户人数;
根据所述用户人数、所述至少一用户的位置信息与姿态信息以及所述至少一目标物的位置信息,决定关联于所述至少一用户的至少一虚拟物件的显示位置信息;以及
根据所述显示位置信息控制所述第一可透光显示器与所述第二可透光显示器其中至少一个显示对应于所述目标物的所述至少一虚拟物件。
CN202211376755.2A 2021-11-10 2022-11-04 信息显示方法及其处理装置与信息显示*** Pending CN116107527A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US202163278071P 2021-11-10 2021-11-10
US63/278,071 2021-11-10
TW111137134A TWI832459B (zh) 2021-11-10 2022-09-30 資訊顯示方法及其處理裝置與資訊顯示系統
TW111137134 2022-09-30

Publications (1)

Publication Number Publication Date
CN116107527A true CN116107527A (zh) 2023-05-12

Family

ID=86262683

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211376755.2A Pending CN116107527A (zh) 2021-11-10 2022-11-04 信息显示方法及其处理装置与信息显示***

Country Status (2)

Country Link
US (1) US20230162459A1 (zh)
CN (1) CN116107527A (zh)

Also Published As

Publication number Publication date
US20230162459A1 (en) 2023-05-25

Similar Documents

Publication Publication Date Title
US20210142530A1 (en) Augmented reality vision system for tracking and geolocating objects of interest
CN111065891B (zh) 基于增强现实的室内导航***
US10169923B2 (en) Wearable display system that displays a workout guide
EP3246660B1 (en) System and method for referencing a displaying device relative to a surveying instrument
US10636185B2 (en) Information processing apparatus and information processing method for guiding a user to a vicinity of a viewpoint
JP5055516B2 (ja) 拡張現実を使用して装置の保守命令および動作命令を表示するシステムおよび方法
EP3596588B1 (en) Gradual transitioning between two-dimensional and three-dimensional augmented reality images
CN110060614B (zh) 头部佩戴型显示装置及其控制方法、显示***
CN110168615B (zh) 信息处理设备、信息处理方法和存储介质
US10634918B2 (en) Internal edge verification
CN110873963B (zh) 内容显示方法、装置、终端设备及内容显示***
JP2002259976A (ja) 特定点検出方法及び装置
EP3128413A1 (en) Sharing mediated reality content
CN104204848A (zh) 具有测距相机的勘测设备
CN110895676B (zh) 动态对象跟踪
US10452139B2 (en) Perspective or gaze based visual identification and location system
CN112558008B (zh) 基于光通信装置的导航方法、***、设备及介质
CN116107527A (zh) 信息显示方法及其处理装置与信息显示***
TWI832459B (zh) 資訊顯示方法及其處理裝置與資訊顯示系統
CN113923437B (zh) 信息显示方法及其处理装置与显示***
CN112055034B (zh) 基于光通信装置的交互方法和***
KR102218994B1 (ko) 단말 장치, 데이터 처리 시스템, 컴퓨터 판독 가능한 매체 및 데이터 처리 방법
CN112053451B (zh) 基于光通信装置叠加虚拟对象的方法和相应的电子设备
CN112053444B (zh) 基于光通信装置叠加虚拟对象的方法和相应的电子设备
JP2021182259A (ja) 検出用マーカ

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination