CN112528699B - 用于获得场景中的设备或其用户的标识信息的方法和*** - Google Patents

用于获得场景中的设备或其用户的标识信息的方法和*** Download PDF

Info

Publication number
CN112528699B
CN112528699B CN202011440905.2A CN202011440905A CN112528699B CN 112528699 B CN112528699 B CN 112528699B CN 202011440905 A CN202011440905 A CN 202011440905A CN 112528699 B CN112528699 B CN 112528699B
Authority
CN
China
Prior art keywords
user
information
camera
scene
location information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011440905.2A
Other languages
English (en)
Other versions
CN112528699A (zh
Inventor
方俊
李江亮
牛旭恒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Whyhow Information Technology Co Ltd
Original Assignee
Beijing Whyhow Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Whyhow Information Technology Co Ltd filed Critical Beijing Whyhow Information Technology Co Ltd
Priority to CN202011440905.2A priority Critical patent/CN112528699B/zh
Publication of CN112528699A publication Critical patent/CN112528699A/zh
Priority to PCT/CN2021/129727 priority patent/WO2022121606A1/zh
Priority to TW110143724A priority patent/TWI800113B/zh
Application granted granted Critical
Publication of CN112528699B publication Critical patent/CN112528699B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14172D bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • General Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

提供了一种用于获得场景中的设备或其用户的标识信息的方法和***,所述场景中部署有一个或多个传感器和一个或多个视觉标志,所述传感器能够用于感测或确定所述场景中的设备或用户的位置信息,所述方法包括:接收由设备发送的信息,该信息中包括所述设备或其用户的标识信息以及所述设备的空间位置信息,其中,所述设备通过扫描所述视觉标志来确定其空间位置信息;基于所述设备的空间位置信息识别出在所述传感器的感测范围内的所述设备或其用户;以及将所述设备或其用户的标识信息关联到在所述传感器的感测范围内的所述设备或其用户,以便向所述设备或其用户提供服务。

Description

用于获得场景中的设备或其用户的标识信息的方法和***
技术领域
本发明涉及信息交互领域,尤其涉及一种用于获得场景中的设备或其用户的标识信息的方法和***。
背景技术
本部分的陈述仅仅是为了提供与本申请的技术方案有关的背景信息,以帮助理解,其对于本申请的技术方案而言并不一定构成现有技术。
在许多场景中,基于安全、监控、公共服务等需要,会在场景中部署摄像头、雷达等传感器,以对场景中出现的人员或设备进行感测、定位、跟踪等。然而,这些传感器虽然能够感测到场景中存在的人员或设备的位置或移动,但并不能获得这些人员或设备的标识信息,因此,这使得难以为这些人员或设备提供服务。
发明内容
本发明的一个方面涉及一种用于获得场景中的设备或其用户的标识信息的方法,所述场景中部署有一个或多个传感器和一个或多个视觉标志,所述传感器能够用于感测或确定所述场景中的设备或用户的位置信息,所述方法包括:接收由设备发送的信息,该信息中包括所述设备或其用户的标识信息以及所述设备的空间位置信息,其中,所述设备通过扫描所述视觉标志来确定其空间位置信息;基于所述设备的空间位置信息识别出在所述传感器的感测范围内的所述设备或其用户;以及将所述设备或其用户的标识信息关联到在所述传感器的感测范围内的所述设备或其用户,以便向所述设备或其用户提供服务。
本发明的另一个方面涉及一种用于获得场景中的设备或其用户的标识信息的***,所述***包括:部署于所述场景中的一个或多个传感器,所述传感器能够用于感测或确定所述场景中的设备或用户的位置信息;部署于所述场景中的一个或多个视觉标志;以及服务器,其被配置用于实现本申请的实施例所描述的方法。
本发明的另一个方面涉及一种存储介质,其中存储有计算机程序,在所述计算机程序被处理器执行时,能够用于实现本申请的实施例所描述的方法。
本发明的另一个方面涉及一种电子设备,包括处理器和存储器,所述存储器中存储有计算机程序,在所述计算机程序被处理器执行时,能够用于实现本申请的实施例所描述的方法。
通过本发明的方案,不仅能够感测场景中存在的人员或设备的位置或移动,还可以获得这些人员或设备的标识信息,并通过该标识信息为相应的人员或设备提供服务。
附图说明
以下参照附图对本发明的实施例作进一步说明,其中:
图1示出了一种示例性的视觉标志;
图2示出了一种可以作为视觉标志的光通信装置;
图3示出了根据一个实施例的用于获得场景中的设备或其用户的标识信息的***;
图4示出了根据一个实施例的用于获得场景中的设备或其用户的标识信息的方法;
图5示出了根据一个实施例的用于向场景中的设备或其用户提供服务的方法。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图通过具体实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
视觉标志是指能够被人眼或者电子设备识别的标志,其可以具有各种各样的形式。在一些实施例中,视觉标志可以用于传递信息,该信息能够被智能设备(例如手机、智能眼镜等)获得。例如,视觉标志可以是能够发出编码的光信息的光通信装置,或者视觉标志可以是带编码信息的图形,例如二维码(例如QR码、小程序码)、条形码等。图1示出了一种示例性的视觉标志,其具有特定的黑白图案。图2示出了一种可以作为视觉标志的光通信装置100,其包括三个光源(分别是第一光源101、第二光源102、第三光源103)。光通信装置100还包括控制器(在图2中未示出),其用于根据要传递的信息为每个光源选择相应的驱动模式。例如,在不同的驱动模式下,控制器可以使用不同的驱动信号来控制光源的发光方式,从而使得当使用具有成像功能的设备拍摄光通信装置100时,其中的光源的成像可以呈现出不同的外观(例如,不同的颜色、图案、亮度、等等)。通过分析光通信装置100中的光源的成像,可以解析出各个光源此刻的驱动模式,从而解析出光通信装置100此刻传递的信息。
为了基于视觉标志向用户提供相应的服务,每个视觉标志可以被分配一个标识信息(ID),该标识信息用于由视觉标志的制造者、管理者或使用者等唯一地识别或标识视觉标志。用户可以使用设备对视觉标志进行图像采集来获得该视觉标志传递的标识信息,从而可以基于该标识信息来访问相应的服务,例如,访问与标识信息相关联的网页、获取与标识信息相关联的其他信息(例如,与该标识信息对应的视觉标志的位置或姿态信息)等等。本文提到的设备例如可以是用户携带或控制的设备(例如,手机、平板电脑、智能眼镜、AR眼镜、智能头盔、智能手表、汽车等等),也可以是能够自主移动的机器(例如,无人机、无人驾驶汽车、机器人等等)。设备可以通过其上的图像采集器件对视觉标志进行图像采集来获得包含视觉标志的图像,并可以通过分析图像中的视觉标志的成像来识别出视觉标志传递的信息以及确定设备相对于视觉标志的位置或姿态信息。
能够感测目标位置的传感器可以是各种能够用于感测或确定场景中的目标的位置信息的传感器,例如摄像头、雷达(例如激光雷达、毫米波雷达)、无线信号收发器、等等。场景中的目标可以是场景中的人或物体。在下文的实施例中,以摄像头作为传感器的示例进行描述。
图3示出了根据一个实施例的用于获得场景中的设备或其用户的标识信息的***,该***包括视觉标志301、摄像头302以及服务器(图3中未示出)。用户303位于场景中,并且携带有设备304。设备304上具有图像采集器件并能够通过图像采集器件识别视觉标志301。
视觉标志301和摄像头302各自以特定的位置和姿态(下文中可以统称为“位姿”)安装于场景中。在一个实施例中,服务器可以获得摄像头和视觉标志各自的位姿信息,并且可以基于摄像头和视觉标志各自的位姿信息得到摄像头和视觉标志之间的相对位姿信息。在一个实施例中,服务器也可以直接得到摄像头和视觉标志之间的相对位姿信息。如此,服务器可以获得摄像头坐标系和视觉标志坐标系之间的变换矩阵,该变换矩阵例如可以包括两个坐标系之间的旋转矩阵R和位移向量t。通过摄像头坐标系和视觉标志坐标系之间的变换矩阵,可以将一个坐标系中的坐标转换为另一个坐标系中的坐标。摄像头可以是安装于固定位置并且具有固定朝向的摄像头,但可以理解,摄像头也可以是可移动(例如,可以改变位置或调整方向)的摄像头,只要能够确定其当前位姿信息即可。可以由服务器设置摄像头的当前位姿信息,并基于该位姿信息控制摄像头的移动,也可以由摄像头本身或者其他装置来控制摄像头的移动,并将摄像头的当前位姿信息发送给服务器。在一些实施例中,***中可以包括不止一个摄像头,也可以包括不止一个视觉标志。
在一个实施例中,可以为现实场景建立一个场景坐标系(其也可称为现实世界坐标系),并且可以基于摄像头在现实场景中的位姿信息来确定摄像头坐标系与场景坐标系之间的变换矩阵,以及基于视觉标志在现实场景中的位姿信息来确定视觉标志坐标系与场景坐标系之间的变换矩阵。在这种情况下,可以将摄像头坐标系或视觉标志坐标系中的坐标转换为场景坐标系中的坐标,而不在摄像头坐标系和视觉标志坐标系之间进行变换,但是可以理解,摄像头和视觉标志之间的相对位姿信息或变换矩阵仍然能够被服务器知悉。因此,在本申请中,在摄像头和视觉标志之间具有相对位姿是指客观上在两者之间存在相对位姿,而并不要求***预先存储上述两者之间的相对位姿信息或者使用该相对位姿信息。例如,一个实施例中,在***中可以仅存储摄像头和视觉标志各自在场景坐标系中的位姿信息,并且可以不计算或者使用两者的相对位姿。
摄像头可以用于跟踪现实场景中的目标,该目标可以是静止的或移动的,其例如可以是场景中的人员、静止物体、可移动的物体、等等。可以使用摄像头通过现有技术中的各种方法来跟踪现实场景中的人或物体的位置。例如,对于使用单个单目摄像头的情况,可以结合场景信息(例如,场景中的人或物体所处的平面的信息)来确定场景中的目标的位置信息。对于使用双目摄像头的情况,可以根据目标在摄像头视野中的位置以及目标的深度信息,来确定目标的位置信息。对于使用多个摄像头的情况,可以根据目标在各个摄像头视野中的位置,来确定目标的位置信息。
可以理解,***中可以具有多个视觉标志或多个摄像头,多个摄像头的视野可以连续,也可以不连续。
图4示出了根据一个实施例的用于获得场景中的设备或其用户的标识信息的方法,该方法可以使用图3所示的***来实现,并可以包括如下步骤:
步骤401:接收由设备发送的信息,该信息中包括设备或其用户的标识信息以及设备的空间位置信息。
设备发送的信息可以是各种信息,例如报警信息、求助信息、服务请求信息、等等。设备或其用户的标识信息可以是任何能够用于标识或识别设备或其用户的信息,例如设备ID信息、设备的电话号码、设备上某个应用程序的账户信息、用户的姓名或昵称、用户的身份信息、用户的账户信息、等等。
在一个实施例中,用户303可以使用设备304通过扫描场景中部署的视觉标志301来确定设备304的空间位置信息。用户303可以通过设备304向服务器发送信息,该信息中可以包括设备304的空间位置信息,该空间位置信息可以是设备304相对于视觉标志301的空间位置信息或者设备304在场景中的空间位置信息。在一个实施例中,可以使用设备304采集视觉标志301的图像;通过分析所采集的视觉标志301的图像确定视觉标志301的标识信息以及设备304相对于视觉标志301的空间位置信息;通过视觉标志301的标识信息确定视觉标志301在空间中的位置和姿态信息;以及基于视觉标志301在空间中的位置和姿态信息以及设备304相对于视觉标志301的空间位置信息,确定设备304在场景中的空间位置信息。在一个实施例中,设备304可以向服务器发送视觉标志301的标识信息以及设备304相对于视觉标志301的空间位置信息,从而服务器可以确定设备304在场景中的空间位置信息。
在一个实施例中,还可以使用设备304通过扫描视觉标志301来确定设备304相对于视觉标志301的姿态信息或者设备304在场景中的姿态信息,并可以将该姿态信息发送给服务器。
在一个实施例中,设备的空间位置信息和姿态信息可以是设备在扫描视觉标志时的空间位置信息和姿态信息,也可以是在扫描视觉标志之后的任一时刻的实时位置信息和姿态信息。例如,设备可以在扫描视觉标志时确定其初始的空间位置信息和姿态信息,并继而使用设备内置的各种传感器(例如,加速度传感器、磁力传感器、方向传感器、重力传感器、陀螺仪、摄像头等)通过本领域已知的方法(例如,惯性导航、视觉里程计、SLAM、VSLAM、SFM等)来测量或跟踪其位置变化和/或姿态变化,从而确定设备的实时位置和/或姿态。
服务器所接收的设备的空间位置信息可以是坐标信息,但并不局限于此,任何能够用于推导出设备空间位置的信息都属于空间位置信息。在一个实施例中,服务器所接收的设备的空间位置信息可以是由设备拍摄的视觉标志的图像,服务器可以根据该图像确定设备的空间位置。类似地,任何能够用于推导出设备姿态的信息都属于姿态信息,其在一个实施例中可以是由设备拍摄的视觉标志的图像。
步骤402:基于设备的空间位置信息识别出在摄像头所拍摄图像中的所述设备或其用户。
可以使用各种可行的方式通过设备的空间位置信息来在摄像头所拍摄图像中识别出所述设备或其用户。
在一个实施例中,可以基于设备的空间位置信息确定设备或其用户在摄像头所拍摄图像中的成像位置,并根据所述成像位置识别出在摄像头所拍摄图像中的所述设备或其用户。
对于通常由用户持有或携带的设备,例如手机、智能眼镜、智能手表、平板电脑等,可以基于设备的空间位置信息确定其用户在摄像头所拍摄图像中的成像位置。由于用户通常是在手持设备或佩戴设备的状态下扫描视觉标志,因此,可以根据设备的空间位置来推断用户的空间位置,然后根据用户的空间位置确定其在摄像头所拍摄图像中的成像位置。也可以根据设备的空间位置确定其在摄像头所拍摄图像中的成像位置,然后根据设备的成像位置来推断用户的成像位置。
对于通常并非由用户持有或携带的设备,例如汽车、机器人、无人驾驶汽车、无人机等,可以基于设备的空间位置信息来确定其在摄像头所拍摄图像中的成像位置。
在一个实施例中,可以使用预先建立的场景中的一个或多个空间位置(不一定是全部)与摄像头所拍摄图像中的一个或多个成像位置之间的映射关系以及所述设备的空间位置信息,来确定设备或其用户在摄像头所拍摄图像中的成像位置。例如,对于一个大厅场景,可以选择大厅地面上的若干个空间位置,并确定这些位置在摄像头所拍摄图像中的成像位置,之后,可以建立这些空间位置与成像位置之间的映射关系,并可以基于该映射关系推断出与某个空间位置对应的成像位置。
在一个实施例中,可以基于设备的空间位置信息以及摄像头的位姿信息来确定设备或其用户在摄像头所拍摄图像中的成像位置,其中,摄像头的位姿信息可以是其在场景中的位姿信息或者其相对于视觉标志的位姿信息。
在确定了设备或其用户在摄像头所拍摄图像中的成像位置之后,可以根据该成像位置在所述图像中识别出所述设备或其用户。例如,可以选择与所述成像位置最接近的设备或用户,或者选择与所述成像位置的距离满足预定条件的设备或用户。
在一个实施例中,为了识别出在摄像头所拍摄图像中的所述设备或其用户,可以将设备的空间位置信息与根据摄像头的跟踪结果确定的一个或多个设备或用户的空间位置信息进行比较。可以使用摄像头通过现有技术中的各种方法来确定现实场景中的人或物体的空间位置。例如,对于使用单个单目摄像头的情况,可以结合场景信息(例如,场景中的人或物体所处的平面的信息)来确定场景中的目标的位置信息。对于使用双目摄像头的情况,可以根据目标在摄像头视野中的位置以及目标的深度信息,来确定目标的位置信息。对于使用多个摄像头的情况,可以根据目标在各个摄像头视野中的位置,来确定目标的位置信息。在一个实施例中,还可以使用摄像头拍摄的图像并结合激光雷达等来确定一个或多个用户的空间位置信息。
在一个实施例中,如果在设备的空间位置附近有多个用户或设备,则可以从所述设备接收其实时的空间位置信息(例如卫星定位信息或者通过设备的传感器获得的位置信息),通过摄像头跟踪所述多个用户或设备的位置,并通过比较从所述设备接收的实时空间位置信息与通过摄像头跟踪的所述多个用户或设备的位置,来识别所述设备或其用户。
在一个实施例中,如果在设备的空间位置附近有多个用户,则可以基于设备发送的信息确定设备用户的特征信息(例如,用于人脸识别的特征信息),通过摄像头采集所述多个用户的特征信息,并通过比较所述多个用户的特征信息与设备用户的特征信息,来识别设备用户。
在一个实施例中,可以基于设备的空间位置信息首先确定视野能够覆盖设备或其用户的一个或多个摄像头,并继而确定设备或其用户在该一个或多个摄像头所拍摄图像中的成像位置。
步骤403:将所述设备或其用户的标识信息关联到在摄像头所拍摄图像中的所述设备或其用户,以便使用所述标识信息向所述设备或其用户提供服务。
在识别出在摄像头所拍摄图像中的所述设备或其用户之后,可以将所接收的设备或其用户的标识信息关联到图像中的所述设备或其用户。如此,例如可以知悉摄像头视野中的设备的ID信息、电话号码、设备上某个应用程序的账户信息,或者可以知悉摄像头视野中的用户的姓名或昵称、用户的身份信息、用户的账户信息、等等。在知悉了摄像头视野中的设备或用户的标识信息之后,可以使用该标识信息向所述设备或其用户提供各种服务,例如,导航服务、讲解服务、信息展示服务、等等。在一个实施例中,可以以视觉、声音等方式来提供上述信息。在一个实施例中,可以在设备(例如手机或眼镜)的显示媒介上叠加虚拟对象,该虚拟对象例如可以是图标(例如导航图标)、图片、文字等。
图4所示的方法中的步骤可以由图3所示的***中的服务器来实现,但可以理解,这些步骤中的一个或多个也可以由其他装置来实现。
在一个实施例中,还可以通过摄像头跟踪场景中所述设备或其用户以获得其实时的位置信息和/或姿态信息,或者可以使用所述设备来获得其实时的位置信息和/或姿态信息。在获得了设备或其用户的位置和/或姿态信息之后,可以基于该位置和/或姿态信息向设备或其用户提供服务。
在一个实施例中,在将所述设备或其用户的标识信息关联到在摄像头所拍摄图像中的所述设备或其用户后,可以通过该标识信息向摄像头视野中的相应设备或用户发送信息,该信息例如是导航信息、讲解信息、指示信息、广告信息、等等。
下文描述本文的一个具体应用场景。
在一个使用机器人运送货物的智能化工厂场景中部署了一个或多个视觉标志以及一个或多个摄像头。在机器人行进过程中,使用摄像头对机器人的位置进行跟踪,并根据所跟踪的位置向机器人发送导航指示。为了确定摄像头视野中的每个机器人的标识信息(例如,机器人的ID),可以使得每个机器人例如在进入场景或者摄像头视野范围时扫描视觉标志,并发送其位置信息和标识信息。如此,可以容易地确定摄像头视野范围内的每个机器人的标识信息,从而基于每个机器人的当前位置以及其要完成的工作任务向其发送行进指示或导航指示。
在一个实施例中,可以向设备发送与虚拟对象有关的信息,该虚拟对象例如可以是图片、文字、数字、图标、视频、三维模型等,与虚拟对象有关的信息可以包括虚拟对象的空间位置信息。在设备接收到虚拟对象后,可以在设备的显示媒介上呈现该虚拟对象。在一个实施例中,设备可以基于设备或用户的空间位置信息和/或姿态信息,在其显示媒介上的适当位置处呈现该虚拟对象。该虚拟对象例如可以以增强现实或混合现实的方式呈现在用户设备的显示媒介上。在一个实施例中,所述虚拟对象是通过对直播人物进行视频采集而生成的视频影像或动态三维模型。例如,该虚拟对象可以是对服务人员进行实时视频采集而生成的视频影像,该视频影像可以呈现于用户设备的显示媒介上,从而向用户提供服务。在一个实施例中,可以设置上述视频影像的空间位置,使得其可以以增强现实或混合现实的方式呈现在用户设备的显示媒介上。
在一个实施例中,在将所述设备或其用户的标识信息关联到在摄像头所拍摄图像中的所述设备或其用户后,可以基于该标识信息识别由摄像头视野内的设备或用户发送的信息,该信息例如是服务请求信息、报警信息、求助信息、评论信息等。在一个实施例中,在接收到所述设备或用户发送的信息之后,可以根据该信息设置与所述设备或用户相关联的虚拟对象,其中,该虚拟对象的空间位置信息可以根据设备或用户的位置信息确定,并且可以随着设备或用户的位置变化而相应地改变虚拟对象的空间位置。如此,其他用户可以通过一些设备(例如,手机、智能眼镜等)通过增强现实或混合现实的方式观察到上述虚拟对象。在一个实施例中,可以根据从所述设备或用户接收到的新的信息(例如,用户的新的评论)更新虚拟对象的内容(例如,更新虚拟对象的文字内容)。
图5示出了根据一个实施例的用于向场景中的设备或用户提供服务的方法,该方法可以使用图3所示的***来实现,并可以包括如下步骤:
步骤501:接收由设备发送的信息,该信息中包括设备或其用户的标识信息以及设备的空间位置信息。
步骤502:基于设备的空间位置信息识别出在摄像头所拍摄图像中的所述设备或其用户。
步骤503:在摄像头所拍摄图像中标示出所述设备或其用户。
可以使用多种方法来标示设备或用户,例如,可以框出设备或用户的成像,可以将特定的图标呈现于设备或用户的成像附近,或者可以高亮显示设备或用户的成像。在一个实施例中,可以放大所标示的设备或用户的成像区域,或者使摄像头针对所标示的设备或用户进行拍摄。在一个实施例中,可以通过摄像头持续跟踪所述设备或用户,并且可以确定设备或用户的实时空间位置信息和/或姿态信息。
步骤504:将所述设备或其用户的标识信息关联到在摄像头所拍摄图像中的所述设备或其用户,以便使用所述标识信息向所述设备或其用户提供服务。
在摄像头所拍摄图像中标示出设备或用户之后,能够观察摄像头所拍摄图像的人员(例如,机场、车站、商场的管理人员或服务人员)可以知道该设备或用户当前需要服务,并可以知道该设备或用户目前所处的位置,从而可以方便地向该设备或用户提供各种需要的服务,例如讲解服务、导航服务、咨询服务、帮助服务等。通过这种方式,可以替代场景中部署的咨询台,并可以以便捷、低成本的方式向场景中的任意用户提供其需要的服务。
在一个实施例中,可以通过用户携带或控制的设备来向用户提供服务,该设备例如可以是手机、智能眼镜、车辆等。在一个实施例中,可以通过设备上的电话功能、应用程序(APP)等以视觉、声音等方式来提供服务。
图5所示的方法中的步骤可以由图3所示的***中的服务器来实现,但可以理解,这些步骤中的一个或多个也可以由其他装置来实现。
在上文的实施例中,以摄像头作为传感器的示例进行描述,但可以理解,本文的实施例同样可以适用于其他任何能够感测或确定目标位置的传感器,例如激光雷达、毫米波雷达、无线信号收发器等。
可以理解,本申请的实施例中涉及的设备可以是任何由用户携带或控制的设备(例如,手机、平板电脑、智能眼镜、AR眼镜、智能头盔、智能手表、车辆、等等),并且也可以是各种能够自主移动的机器,例如,无人机、无人驾驶汽车、机器人等,该设备上安装有图像采集器件。
在本发明的一个实施例中,可以以计算机程序的形式来实现本发明。计算机程序可以存储于各种存储介质(例如,硬盘、光盘、闪存等)中,当该计算机程序被处理器执行时,能够用于实现本发明的方法。
在本发明的另一个实施例中,可以以电子设备的形式来实现本发明。该电子设备包括处理器和存储器,在存储器中存储有计算机程序,当该计算机程序被处理器执行时,能够用于实现本发明的方法。
本文中针对“各个实施例”、“一些实施例”、“一个实施例”、或“实施例”等的参考指代的是结合所述实施例所描述的特定特征、结构、或性质包括在至少一个实施例中。因此,短语“在各个实施例中”、“在一些实施例中”、“在一个实施例中”、或“在实施例中”等在整个本文中各处的出现并非必须指代相同的实施例。此外,特定特征、结构、或性质可以在一个或多个实施例中以任何合适方式组合。因此,结合一个实施例中所示出或描述的特定特征、结构或性质可以整体地或部分地与一个或多个其他实施例的特征、结构、或性质无限制地组合,只要该组合不是不符合逻辑的或不能工作。本文中出现的类似于“根据A”、“基于A”、“通过A”或“使用A”的表述意指非排他性的,也即,“根据A”可以涵盖“仅仅根据A”,也可以涵盖“根据A和B”,除非特别声明其含义为“仅仅根据A”。在本申请中为了清楚说明,以一定的顺序描述了一些示意性的操作步骤,但本领域技术人员可以理解,这些操作步骤中的每一个并非是必不可少的,其中的一些步骤可以被省略或者被其他步骤替代。这些操作步骤也并非必须以所示的方式依次执行,相反,这些操作步骤中的一些可以根据实际需要以不同的顺序执行,或者并行执行,只要新的执行方式不是不符合逻辑的或不能工作。
由此描述了本发明的至少一个实施例的几个方面,可以理解,对本领域技术人员来说容易地进行各种改变、修改和改进。这种改变、修改和改进意于在本发明的精神和范围内。虽然本发明已经通过一些实施例进行了描述,然而本发明并非局限于这里所描述的实施例,在不脱离本发明范围的情况下还包括所作出的各种改变以及变化。

Claims (15)

1.一种用于获得场景中的设备的用户的标识信息的方法,所述场景中部署有一个或多个传感器和一个或多个视觉标志,所述传感器能够用于感测或确定所述场景中的设备或用户的位置信息,所述方法包括:
由服务器接收由用户携带的设备发送的信息,该信息中包括所述设备的用户的标识信息以及所述设备的空间位置信息,其中,所述设备通过扫描所述视觉标志来确定其空间位置信息;
由服务器基于所述设备的空间位置信息识别出在所述传感器的感测范围内的所述设备或其用户;以及
由服务器将所述设备的用户的标识信息关联到所识别的在所述传感器的感测范围内的所述设备或其用户,以便向所述设备或其用户提供服务;
所述传感器包括摄像头,以及其中,所述基于所述设备的空间位置信息识别出在所述传感器的感测范围内的所述设备或其用户包括:
基于所述设备的空间位置信息确定所述设备或其用户在所述摄像头所拍摄图像中的成像位置;以及
根据所述成像位置识别出在所述摄像头所拍摄图像中的所述设备或其用户;
或者包括:
将所述设备的空间位置信息与根据所述传感器的感测结果确定的一个或多个设备或用户的空间位置信息进行比较,以识别出在所述传感器的感测范围内的所述设备或其用户。
2.根据权利要求1所述的方法,还包括:
通过所述标识信息向所述传感器的感测范围内的相应设备或用户发送信息;或者
基于所述标识信息识别由所述传感器的感测范围内的所述设备或用户发送的信息。
3.根据权利要求1所述的方法,其中,所述传感器包括摄像头,以及其中,所述方法还包括:
在所述摄像头所拍摄图像中标示出所述设备或其用户。
4.根据权利要求1所述的方法,还包括:基于所述设备或其用户的位置信息和/或姿态信息向所述设备或其用户提供服务。
5.根据权利要求4所述的方法,还包括:向所述设备发送与虚拟对象有关的信息,所述信息包括所述虚拟对象的空间位置信息,其中,所述虚拟对象能够被呈现于所述设备的显示媒介上。
6.根据权利要求5所述的方法,其中:所述虚拟对象包括通过对直播人物进行视频采集而生成的视频影像或动态三维模型。
7.根据权利要求4所述的方法,还包括:设置与所述设备或用户相关联的虚拟对象,其中,所述虚拟对象的空间位置与所述设备或用户的位置信息相关。
8.根据权利要求7所述的方法,其中,根据从所述设备或用户接收到的新的信息更新所述虚拟对象的内容。
9.根据权利要求1所述的方法,还包括:
通过所述传感器跟踪所述设备或其用户以获得所述设备或其用户的位置信息和/或姿态信息;或者
通过所述设备获得其位置信息和/或姿态信息。
10.根据权利要求1所述的方法,其中,所述基于所述设备的空间位置信息确定所述设备或其用户在所述摄像头所拍摄图像中的成像位置包括:
基于预先建立的所述场景中的一个或多个空间位置与所述摄像头所拍摄图像中的一个或多个成像位置之间的映射关系以及所述设备的空间位置信息,来确定所述设备或其用户在所述摄像头所拍摄图像中的成像位置;或者
基于所述设备的空间位置信息以及所述摄像头的位姿信息来确定所述设备或其用户在所述摄像头所拍摄图像中的成像位置。
11.根据权利要求1所述的方法,其中,所述设备通过扫描所述视觉标志来确定其空间位置信息包括:
使用所述设备采集所述视觉标志的图像;
通过分析所述图像来确定所述视觉标志的标识信息以及所述设备相对于所述视觉标志的位置;
通过所述视觉标志的标识信息获得所述视觉标志在空间中的位置和姿态信息;
基于所述视觉标志在空间中的位置和姿态信息以及所述设备相对于所述视觉标志的位置,确定所述设备的空间位置信息。
12.一种用于获得场景中的设备的用户的标识信息的***,所述***包括:
部署于所述场景中的一个或多个传感器,所述传感器能够用于感测或确定所述场景中的设备或用户的位置信息;
部署于所述场景中的一个或多个视觉标志;以及
服务器,其被配置用于实现权利要求1-11中任一项所述的方法。
13.根据权利要求12所述的***,其中所述传感器包括下列一项或多项:
摄像头;
雷达;
无线信号收发器。
14.一种存储介质,其中存储有计算机程序,在所述计算机程序被处理器执行时,能够用于实现权利要求1-11中任一项所述的方法。
15.一种电子设备,包括处理器和存储器,所述存储器中存储有计算机程序,在所述计算机程序被处理器执行时,能够用于实现权利要求1-11中任一项所述的方法。
CN202011440905.2A 2020-12-08 2020-12-08 用于获得场景中的设备或其用户的标识信息的方法和*** Active CN112528699B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202011440905.2A CN112528699B (zh) 2020-12-08 2020-12-08 用于获得场景中的设备或其用户的标识信息的方法和***
PCT/CN2021/129727 WO2022121606A1 (zh) 2020-12-08 2021-11-10 用于获得场景中的设备或其用户的标识信息的方法和***
TW110143724A TWI800113B (zh) 2020-12-08 2021-11-24 用於獲得場景中的設備或其使用者的標識資訊的方法和系統

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011440905.2A CN112528699B (zh) 2020-12-08 2020-12-08 用于获得场景中的设备或其用户的标识信息的方法和***

Publications (2)

Publication Number Publication Date
CN112528699A CN112528699A (zh) 2021-03-19
CN112528699B true CN112528699B (zh) 2024-03-19

Family

ID=74999453

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011440905.2A Active CN112528699B (zh) 2020-12-08 2020-12-08 用于获得场景中的设备或其用户的标识信息的方法和***

Country Status (1)

Country Link
CN (1) CN112528699B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022121606A1 (zh) * 2020-12-08 2022-06-16 北京外号信息技术有限公司 用于获得场景中的设备或其用户的标识信息的方法和***
CN113705517A (zh) * 2021-09-03 2021-11-26 杨宏伟 识别带有视觉标识的第二车辆的方法、车辆自动驾驶方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012182685A (ja) * 2011-03-01 2012-09-20 Wham Net Service Corp 入下山届システム
CN108280368A (zh) * 2018-01-22 2018-07-13 北京腾云天下科技有限公司 一种线上数据和线下数据的关联方法及计算设备
WO2019000461A1 (zh) * 2017-06-30 2019-01-03 广东欧珀移动通信有限公司 定位方法、装置、存储介质及服务器
CN109819400A (zh) * 2019-03-20 2019-05-28 百度在线网络技术(北京)有限公司 用户位置的查找方法、装置、设备及介质
CN111242704A (zh) * 2020-04-26 2020-06-05 北京外号信息技术有限公司 用于在现实场景中叠加直播人物影像的方法和电子设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170076015A1 (en) * 2014-03-03 2017-03-16 Philips Lighting Holding B.V. Method for deploying sensors

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012182685A (ja) * 2011-03-01 2012-09-20 Wham Net Service Corp 入下山届システム
WO2019000461A1 (zh) * 2017-06-30 2019-01-03 广东欧珀移动通信有限公司 定位方法、装置、存储介质及服务器
CN108280368A (zh) * 2018-01-22 2018-07-13 北京腾云天下科技有限公司 一种线上数据和线下数据的关联方法及计算设备
CN109819400A (zh) * 2019-03-20 2019-05-28 百度在线网络技术(北京)有限公司 用户位置的查找方法、装置、设备及介质
CN111242704A (zh) * 2020-04-26 2020-06-05 北京外号信息技术有限公司 用于在现实场景中叠加直播人物影像的方法和电子设备

Also Published As

Publication number Publication date
CN112528699A (zh) 2021-03-19

Similar Documents

Publication Publication Date Title
US20210019854A1 (en) Location Signaling with Respect to an Autonomous Vehicle and a Rider
CN107782314B (zh) 一种基于扫码的增强现实技术室内定位导航方法
US20180196417A1 (en) Location Signaling with Respect to an Autonomous Vehicle and a Rider
US20180196415A1 (en) Location Signaling with Respect to an Autonomous Vehicle and a Rider
EP3848674B1 (en) Location signaling with respect to an autonomous vehicle and a rider
CN112528699B (zh) 用于获得场景中的设备或其用户的标识信息的方法和***
CN111256701A (zh) 一种设备定位方法和***
US11263818B2 (en) Augmented reality system using visual object recognition and stored geometry to create and render virtual objects
JP6856750B2 (ja) 方法および装置
TWI750822B (zh) 用於為目標設置可呈現的虛擬對象的方法和系統
CN112788443B (zh) 基于光通信装置的交互方法和***
CN112581630B (zh) 一种用户交互方法和***
WO2022121606A1 (zh) 用于获得场景中的设备或其用户的标识信息的方法和***
CN112558008B (zh) 基于光通信装置的导航方法、***、设备及介质
CN111753565B (zh) 用于呈现与光通信装置有关的信息的方法和电子设备
CN114726996B (zh) 用于建立空间位置与成像位置之间的映射的方法和***
CN112581630A (zh) 一种用户交互方法和***
CN114663491A (zh) 用于向场景中的用户提供信息的方法和***
CN112561953A (zh) 用于现实场景中的目标识别与跟踪的方法和***
CN114827338A (zh) 用于在设备的显示媒介上呈现虚拟对象的方法和电子装置
CN114071003B (zh) 一种基于光通信装置的拍摄方法和***
JP2019139642A (ja) 位置検出装置、位置検出システム、及び位置検出方法
CN111752293B (zh) 用于对能够自主移动的机器进行导引的方法和电子设备
CN111026107B (zh) 用于确定可移动物体的位置的方法和***
CN112053451B (zh) 基于光通信装置叠加虚拟对象的方法和相应的电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant