CN110293554A - 机器人的控制方法、装置和*** - Google Patents
机器人的控制方法、装置和*** Download PDFInfo
- Publication number
- CN110293554A CN110293554A CN201810236923.5A CN201810236923A CN110293554A CN 110293554 A CN110293554 A CN 110293554A CN 201810236923 A CN201810236923 A CN 201810236923A CN 110293554 A CN110293554 A CN 110293554A
- Authority
- CN
- China
- Prior art keywords
- image
- robot
- operative scenario
- region
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Manipulator (AREA)
Abstract
本发明提出一种机器人的控制方法、装置和***,其中,方法包括:获取并显示机器人的工作场景图像,响应于用户操作,从工作场景图像中确定出目标图像区域,控制机器人对目标图像区域对应的物体执行目标操作。通过获取工作场景图像后,在物体识别准确度较低或无法识别的情况下,通过用户操作辅助控制机器人对目标图像区域执行物体抓取等动作,提高了动作的准确度和成功执行的概率,解决了现有技术中,通过图像识别模型对工作场景图像识别,根据物体的识别结果指示机器人执行物体抓取等动作,在无法准确识别图像中的物体时,导致机器人执行物体抓取等动作准确度较低或成功执行的概率较低的问题。
Description
技术领域
本发明涉及设备控制技术领域,尤其涉及一种机器人的控制方法、装置和***。
背景技术
机器人通过获取相应的指令,执行对应的操作,协助人们完成一些人手不容易完成的动作,给人们的生活提供便利。
相关技术中,利用图像识别模型对机器人的工作场景图像进行识别,利用图像区域对应的物体识别结果指示机器人执行相应的抓取等目标动作。这种方式,在图像识别的物体准确度不高,或者,图像识别模块无法识别图像中的物体时,导致机器人执行目标动作的准确度较低,甚至执行操作失败的问题。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明提出一种机器人的控制方法,通过获取工作场景图像后,在物体识别准确度较低或无法识别的情况下,通过用户操作辅助控制机器人对目标图像区域执行物体抓取等动作,提高了动作的准确度和成功执行的概率。
本发明提出一种机器人的控制装置。
本发明提出一种电子设备。
本发明提出一种机器人的控制***。
本发明提出一种计算机可读存储介质。
本发明一方面实施例提出了一种机器人的控制方法,包括:
获取并显示机器人的工作场景图像;
响应于用户操作,从所述工作场景图像中确定出目标图像区域;
控制所述机器人对所述目标图像区域对应的物体执行目标操作。
可选地,作为第一方面的第一种可能的实现方式,所述获取并显示机器人的工作场景图像,包括:
获取所述工作场景图像的第一图像识别信息;所述第一图像识别信息用于指示从所述工作场景图像中识别出的物体;
在显示的所述工作场景图像中,对识别出的物体进行标识。
可选地,作为第一方面的第二种可能的实现方式,所述响应于用户操作,从所述工作场景图像中确定出目标图像区域,包括:
响应于用户操作,从识别出的物体中确定所述用户操作已选定物体;
将所述工作场景图像中,展示有所述已选定物体的图像区域作为所述目标图像区域。
可选地,作为第一方面的第三种可能的实现方式,所述获取并显示机器人的工作场景图像,包括:
获取所述工作场景图像的第二图像识别信息;所述第二图像识别信息用于指示所述工作场景图像中展示有物体的图像区域;
在显示的所述工作场景图像中,对所述展示有物体对象的图像区域进行标识。
可选地,作为第一方面的第四种可能的实现方式,所述响应于用户操作,从所述工作场景图像中确定出目标图像区域,包括:
响应于用户操作,从所述工作场景图像展示有物体对象的图像区域中确定所述用户操作已选定的目标图像区域。
可选地,作为第一方面的第五种可能的实现方式,所述响应于用户操作,从所述工作场景图像中确定出目标图像区域,包括:
响应于用户操作,将所述工作场景图像中,所述用户操作选定的图像区域,作为所述目标图像区域。
可选地,作为第一方面的第六种可能的实现方式,控制所述机器人对所述目标图像区域对应的物体执行目标操作,包括:
获取所述目标图像区域在所述工作场景图像中的图像位置,和/或所述目标图像区域所展示物体的标识信息;
向所述机器人发送控制指令,控制所述机器人对所述图像位置对应的实际空间位置对应的物体执行目标操作,和/或,对所述标识信息对应的物体执行目标操作。
可选地,作为第一方面的第七种可能的实现方式,所述图像位置包括:所述目标图像区域中各参考点的图像坐标;
其中,所述图像坐标对应世界坐标系中的实际空间位置的坐标。
可选地,作为第一方面的第八种可能的实现方式,所述用户操作,包括:语音输入和触控操作中的至少一个。
本发明实施例的机器人的控制方法中,获取并显示机器人的工作场景图像,响应于用户操作,从工作场景图像中确定出目标图像区域,控制机器人对目标图像区域对应的物体执行目标操作。通过获取工作场景图像后,在物体识别准确度较低或无法识别的情况下,通过用户操作辅助控制机器人对目标图像区域执行物体抓取等动作,提高了动作的准确度和成功执行的概率。解决了现有技术中在物体识别准确度较低或无法识别的情况下,机器人执行物体抓取等动作准确度较低或成功执行的概率较低的问题。
本发明又一方面实施例提出了一种机器人的控制装置,包括:
获取模块,用于获取并显示机器人的工作场景图像;
确定模块,用于响应于用户操作,从所述工作场景图像中确定出目标图像区域;
控制模块,用于控制所述机器人对所述目标图像区域对应的物体执行目标操作。
本发明实施例的机器人的控制装置中,获取模块用于获取并显示机器人的工作场景图像,确定模块用于响应于用户操作,从工作场景图像中确定出目标图像区域,控制模块用于控制机器人对目标图像区域对应的物体执行目标操作。通过获取工作场景图像后,在物体识别准确度较低或无法识别的情况下,通过用户操作辅助控制机器人对目标图像区域执行物体抓取等动作,提高了动作的准确度和成功执行的概率。解决了现有技术中在物体识别准确度较低或无法识别的情况下,机器人执行物体抓取等动作准确度较低或成功执行的概率较低的问题。
本发明又一方面实施例提出了一种电子设备,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现上述方法实施例所述的机器人的控制方法。
本发明又一方面实施例提出了一种机器人的控制***,包括:终端、图像传感器、主控设备和机器人;所述终端、图像传感器和机器人分别与所述主控设备通信连接;
其中,所述终端,用于执行前述方法实施例所述的机器人的控制方法;
所述图像传感器,用于采集所述机器人的工作场景图像;
所述主控设备,用于在终端的指示下对所述机器人进行控制;
所述机器人,用于在所述主控设备的控制下执行目标操作。
本发明又一方面实施例提出了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时,实现上述方法实施例所述的机器人的控制方法。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本发明实施例所提供的一种机器人的控制方法的流程示意图;
图2为本发明实施例所提供的另一种机器人的控制方法的流程示意图;
图3为本发明实施例所提供的又一种机器人的控制方法的流程示意图;
图4为本发明实施例所提供的再一种机器人的控制方法的流程示意图;
图5为本发明实施例提供的一种机器人的控制装置的结构示意图;
图6为本发明实施例所提供的一种机器人的控制***的结构示意图;以及
图7示出了适于用来实现本申请实施方式的示例性电子设备的框图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参考附图描述本发明实施例的机器人的控制方法、装置和***。
相关技术中,通过机器人实现物体抓取等操作时,采用的是将机器人与图像视觉结合,通过图像识别模型,采集机器人工作场景中的图像,并对机器人的工作场景图像进行识别,确定出机器人需要抓取的物体对应的目标图像区域。但图像识别模型是预先训练好的,对工作场景图像中的物体识别的种类以及个数均有一定程度的限制,而且有些图像识别模型仅适用于在固定的工作场景中物体的识别,当工作场景发生较大的变化,使得图像识别模型无法根据以往的学习经验准确识别机器人工作场景图像中的物体,则会导致机器人执行抓取等动作的准确度较低,甚至失败的问题。
为了解决这一问题,本发明实施例提出了一种机器人的控制方法的可能的实现方式,通过获取工作场景图像后,通过用户操作,从工作场景中确定出目标图像区域,辅助机器人对目标图像区域执行物体抓取等动作,提高了工作的准确度和成功执行的概率。
图1为本发明实施例所提供的一种机器人的控制方法的流程示意图,该方法由可支持信息交互的电子设备执行,该电子设备可以集成在机器人内部,也可以独立于机器人。例如,本实施例中提及的电子设备可以是用户使用的终端,该终端独立于机器人;还可以是机器人的主控设备,该主控设备可以集成在机器人内部,也可以独立于机器人。
为了便于描述,本实施例中以执行控制方法的电子设备独立于机器人为例进行相关说明。如图1所示,该方法包括以下步骤:
步骤101,获取并显示机器人的工作场景图像。
具体地,执行本实施例方法的电子设备通过独立于机器人的主控设备与机器人交互。电子设备为了从主控设备获取并显示机器人的工作场景图像,可以指示主控设备驱动图像传感器进行成像,并将成像得到的工作场景图像发送至该电子设备。
进一步地,主控设备在获取到工作场景图像之后,还可以根据工作场景图像进行图像识别得到的相关识别信息,并将识别信息以及工作场景图像一并发送至前述的电子设备。
作为一种可能的实现方式,在探测到用户控制机器人执行目标操作时,电子设备通过和主控设备的交互界面向主控设备发送指令获取机器人的工作场景图像,以使得主控设备驱动图像传感器采集机器人的工作场景图像后,将采集到的工作场景图像输入到预先训练好的图像识别模型,如神经网络模型中,根据神经网络模型对应的数据库中包含的可识别的物体,对工作场景图像中物体进行识别和标记,例如,标记可以是文本标记,或者是识别框,并输出包含识别结果的工作场景图像,进而,主控设备将包含识别信息的工作场景图像传输给电子设备进行显示。
因数据库中包含的物体数量和种类有限,机器人的工作场景也各不相同,主控设备对工作场景图像中物体的识别结果存在差异,使得获取到的工作场景图像包含的识别信息也不相同,为了便于说明,可根据识别信息的不同,分为第一图像识别信息和第二图像识别信息。其中,第一图像识别信息用于指示从工作场景图像中识别出的物体;第二图像识别信息用于指示工作场景图像中展示有物体的图像区域。
根据获取到的工作场景图像中包含的图像识别信息的不同,电子设备执行的动作也不同,具体地,在获取到工作场景图像以及第一图像识别信息的情况下,在显示的工作场景图像中,对识别出的物体进行标识。在获取到工作场景图像以及第二图像识别信息的情况下,在显示的工作场景图像中,对展示有物体对象的图像区域进行标识。
步骤102,响应于用户操作,从工作场景图像中确定出目标图像区域。
其中,用户操作,包括:语音输入和触控操作中的至少一个。
具体地,在一种可能的场景下,当电子设备仅获取到工作场景图像而不包含识别信息时,则响应于用户操作,将工作场景图像中,用户操作选定的图像区域,作为目标图像区域。
在另一种可能的场景下,当电子设备不仅获取到工作场景图像,还包含识别信息时,可以结合识别信息选定目标图像区域。作为一种可能的实现方式,在识别信息具体为第一图像识别信息时,则响应于用户操作,从识别出的物体中确定用户操作已选定物体,将工作场景图像中,展示有已选定物体的图像区域作为目标图像区域。作为另一种可能的实现方式,在识别信息具体为第二图像识别信息时,则响应于用于操作,从工作场景图像展示有物体对象的图像区域中确定用户操作已选定的目标图像区域。
步骤103,控制机器人对目标图像区域对应的物体执行目标操作。
具体地,电子设备获取目标图像区域在工作场景图像中的图像位置,和/或目标图像区域所展示物体的标识信息,根据图像位置或者标识信息生成控制指令。进而通过主控设备向机器人发送控制指令,控制机器人对图像位置对应的实际空间位置对应的物体执行目标操作,和/或,对标识信息对应的物体执行目标操作。
其中,图像位置包含:目标图像区域中各参考点的图像坐标,其中,图像坐标对应世界坐标系中的实际空间位置的坐标。
本发明实施例的机器人的控制方法中,获取并显示机器人的工作场景图像,响应于用户操作,从工作场景图像中确定出目标图像区域,控制机器人对目标图像区域对应的物体执行目标操作。通过获取工作场景图像后,在物体识别准确度较低或无法识别的情况下,通过用户操作辅助控制机器人对目标图像区域执行物体抓取等动作,提高了动作的准确度和成功执行的概率。解决了现有技术中在物体识别准确度较低或无法识别的情况下,机器人执行物体抓取等动作准确度较低或成功执行的概率较低的问题。
基于上述实施例的分析,机器人应用在比较固定的场景时,通过对图像识别模型的训练,可以实现对图像中包含的物体进行准确识别,但是实际应用中,机器人的工作场景并非固定不变,当机器人的工作场景中的部分物体发生变化时,使得图像识别模型无法准确识别和标记出工作场景图像中的物体,工作场景不同,识别的结果也不相同,因识别的准确度降低,致使机器人执行目标动作的准确度和成功率降低,为此,以下通过具体的实施例对图像识别模型识别结果不同,并通过用户操作辅助控制机器人对目标图像区域进行识别,指示机器人执行目标操作的方法进行说明。
为此,本发明实施例提出了一种机器人的控制方法的可能的实现方式,图2为本发明实施例所提供的另一种机器人的控制方法的流程示意图,说明了获取的工作场景图像中已识别出对应的物体时,用户执行的操作,如图2所示,该方法包括以下步骤:
步骤201,获取工作场景图像的第一图像识别信息,在显示的工作场景图像中,对识别出的物体进行标识。
其中,第一图像识别信息,用于指示从工作场景图像中识别出的物体。
具体地,主控设备在将机器人的工作场景图像传输给终端进行显示前,会通过预先训练好的图像识别模型,如,神经网络模型,对图像进行识别,因应用场景比较固定,场景的包含的物体也较固定,通过对图像识别模型进行训练,可使得图像识别模型学习得到了该图像中包含的物体特征,则通过训练好的图像识别模型可识别出图像中包含的物体,并对物体进行分类和标记,确定出需要识别的物体,得到第一图像识别信息。
进而,终端获取主控设备发送的工作场景图像和第一图像识别信息,根据第一图像识别信息,对获取到的工作场景图像进行标识,例如,采用矩形框标识出物体在工作场景图像中的具体区域,并将标识后的工作场景图像进行显示。
步骤202,响应用户操作,从识别出的物体中确定用户操作已选定物体,将工作场景图像中,展示有已选定物体的图像区域作为目标图像区域。
其中,用户操作包含语音输入和触控操作中的至少一个。
具体地,用户在终端上显示的包含第一图形识别信息的工作场景图像中选定物体,并对物体进行标记,实现对图像识别模型所确定物体的进一步确定,该标记信息用于指示用户选定的机器人需要执行目标操作对应的物体,并将选定的物体的标记信息通过终端发送至主控设备,主控设备获取物体的标记信息,解析出用户选定的物体,对该物***置进行解析,确定物体在图像中的区域,将展示有已选定物体的图像区域作为机器人执行目标操作的目标图像区域。
例如,在机器人制作咖啡的工作场景中,终端获取到的机器人工作场景图像中,已经携带了识别信息,即第一识别信息,识别出了场景图像中的物体并对物体进行了分类和标记,而识别的物体中包含制作咖啡需要的物体,进而,用户在工作场景图像中,从识别和标记出的物体中选定机器人制作咖啡对应的物体,作为一种可能的实现方式,用户可通过语音的方式,由终端采集用户语音,如:抓取咖啡杯,或者抓取左边的杯子,并对用户语音进行解析和识别,获取用户选定的物体为咖啡杯。作为另一种可能的实现方式,用户通过触控操作,点击选定的物体为咖啡杯。通过对图像识别模型已经识别出物体的工作场景图像中,通过人工操作,进一步确定了机器人需要抓取等动作对应的物体,提高了机器人执行目标动作的准确性和成功率。
步骤203,控制机器人对目标图像区域对应的物体执行目标操作。
具体地,作为一种可能的实现方式,获取目标图像区域在工作场景图像中的图像位置,并获取目标图像区域中各参考点的图像坐标,图像坐标对应世界坐标系中的实际空间位置的坐标。从而根据目标图像区域中各参考点的实际空间位置的坐标,和已知的机器人的实际空间位置的坐标,确定目标图像区域中各参考点和机器人的相对坐标关系,根据该相对坐标关系,确定机器人需要执行目标操作的目标图像区域中物体的位置,控制机器人对目标图像区域对应的物体执行目标操作。其中,参考点可以为目标图像区域的边缘点和/或中心点。
作为另一种可能的实现方式,获取目标图像区域所展示物体的标识信息,该标识信息指示了目标图像区域中用户选定的物体,该物体在工作场景图像中的位置信息已经识别确定,将该物体的位置信息转化为世界坐标系中的实际空间位置的坐标,从而根据目标图像区域中所展示物体的实际空间位置的坐标,和已知的机器人的实际空间位置的坐标,确定目标图像区域中的物体和机器人的相对坐标关系,根据该相对坐标关系,控制机器人对目标图像区域对应的物体执行目标操作。
本发明实施例的机器人的控制方法中,获取并显示机器人的包含第一图像识别信息的工作场景图像,响应于用户操作,从工作场景图像中确定出目标图像区域,控制机器人对目标图像区域对应的物体执行目标操作。通过获取工作场景图像后,根据第一图像识别信息包含的用于指示工作场景图像中识别出的物体,通过用户进行进一步的点击确认,提高了机器人执行目标动作的准确度和成功执行的概率。
基于上述实施例的分析,机器人应用与比较固定的场景时,通过对图像识别模型的训练,可以实现对图像中包含的物体进行准确识别,但是当机器人的工作场景中的部分物体发生变化时,使得图像识别模型无法准确识别和标记出工作场景图像中的物体,仅能识别出包含物体的图像区域,为此,本发明实施例提出了一种机器人的控制方法的可能的实现方式,图3为本发明实施例所提供的又一种机器人的控制方法的流程示意图,说明了获取的工作场景图像中仅识别出了包含物体的图像区域,以及用户执行的操作,如图3所示,该方法包括以下步骤:
步骤301,获取工作场景图像的第二图像识别信息,在显示的工作场景图像中,对展示有物体对象的图像区域进行标识。
其中,第二图像识别信息,用于指示工作场景图像中展示有物体的图像区域。
具体地,主控设备在将机器人的工作场景图像传输给终端进行显示前,会通过预先训练好的图像识别模型,如,神经网络模型,对图像进行识别,当图像识别模型根据以往的学习经验无法准确识别出图像中包含的物体,仅能识别出工作场景图像中展示有物体的图像区域时,则将识别到的信息称为第二图像识别信息。
进而,终端获取主控设备发送的工作场景图像和第二图像识别信息,根据第二图像识别信息,对工作场景图像进行标识,并将标识后的工作场景图像进行显示。
步骤302,响应于用户操作,从展示有物体对象的图像区域中确定用户操作已选定的目标图像区域。
具体地,根据携带第二图像识别信息的工作场景图像,用户在工作场景图像中展示有物体对象的图像区域中,选定要执行目标操作对应的物体对象的图像区域并进行标记,该标记信息用于指示用户选定的图像区域及其中的物体,即将选定的图像区域对应的物体确定为机器人执行目标操作对应的物体,并将选定的图像区域的标记信息通过终端发送至主控设备,主控设备获取被选定的图像区域的标记信息,根据标记信息解析出用户选定的图像区域及对应的物体,将展示有已选定物体的图像区域作为机器人执行目标操作的目标图像区域。
步骤303,控制机器人对目标图像区域对应的物体执行目标操作。
具体地,作为一种可能的实现方式,获取目标图像区域在工作场景图像中的图像位置,并获取目标图像区域中各参考点的图像坐标,图像坐标对应世界坐标系中的实际空间位置的坐标。从而根据目标图像区域中各参考点的实际空间位置的坐标,和已知的机器人的实际空间位置的坐标,确定目标图像区域中各参考点相对于机器人的相对坐标关系,根据该相对坐标关系,控制机器人对目标图像区域对应的物体执行目标操作。
本发明实施例的机器人的控制方法中,获取并显示机器人的包含第二图像识别信息的工作场景图像,响应于用户操作,从工作场景图像中确定出目标图像区域,控制机器人对目标图像区域对应的物体执行目标操作。通过获取工作场景图像后,根据第二图像识别信息包含的用于指示工作场景图像中展示有物体的图像区域,通过用户对该展示有物体的图像区域进行标识,从而确定目标图像区域,实现了当无法准确识别工作场景中的物体时,通过用户操作辅助确定目标图像区域,并控制机器人对目标图像区域执行物体抓取等动作,提高了动作的准确度和成功执行的概率。
基于上述实施例,当机器人工作的场景发生较大的变化,且工作场景比较复杂时,主控设备的图像识别模块完全无法对当前的工作场景中进行识别,在这种情况下,本发明实施例提出了一种机器人的控制方法的可能的实现方式,图4为本发明实施例所提供的再一种机器人的控制方法的流程示意图,说明了获取的工作场景图像中不包含任何的识别信息时,用户执行的操作,如图4所示,该方法包括以下步骤:
步骤401,获取并显示不包含图像识别信息的工作场景图像。
具体地,当机器人应用于新的工作场景时,工作场景中包含的物体变大巨大,主控设备对获取到的机器人的工作场景图像进行识别,则图像识别模块完全无法通过以往的学习经验,对工作场景图像中包含的物体进行识别,从而无法获取任何识别信息。也就是说,终端从主控设备处获取的工作场景图像中不包含任何的识别信息。
步骤402,响应于用户操作,将工作场景图像中,用户操作选定的图像区域,作为目标图像区域。
具体地,终端获取不包含任何识别信息的工作场景图像时,用户需要通过操作选定物体所在的图像区域,作为目标图像区域,具体地,作为一种可能的实现方式,用户在展示有物体对象的图像区域中,选定一个点,将用户选定点的位置信息传输给主控设备,主控设备解析得到该点的位置信息,并将该点位置显示的物体轮廓进行圈定作为目标图像区域,或者是主控设备将该点附近的图像区域圈定作为目标图像区域,并在终端上显示出该目标图像区域。作为另一种可能的实现方式,若用户在展示有物体对象的图像区域中,选定一个点后,主控设备仍无法根据用户选定的点识别该点触物体的轮廓,则反馈给终端,用户则在展示有物体对象的图像区域中,手动圈定范围确定目标图像区域。
步骤403,控制机器人对目标图像区域对应的物体执行目标操作。
具体地,获取目标图像区域在工作场景图像中的图像位置,并获取目标图像区域中各参考点的图像坐标,图像坐标对应世界坐标系中的实际空间位置的坐标。从而根据目标图像区域中各参考点的实际空间位置的坐标,和已知的机器人的实际空间位置的坐标,确定目标图像区域中各参考点相对于机器人的相对坐标关系,根据该相对坐标关系,控制机器人对目标图像区域对应的物体执行目标操作。
本发明实施例的机器人的控制方法中,获取并显示机器人的包含第二图像识别信息的工作场景图像,响应于用户操作,从工作场景图像中确定出目标图像区域,控制机器人对目标图像区域对应的物体执行目标操作。通过获取工作场景图像后,因机器人工作场景较复杂,无法获取识别信息,通过用户操作选定物体所在的区域,作为目标图像区域,实现了当无法识别工作场景中的物体时,通过用户操作辅助确定目标图像区域,并控制机器人对目标图像区域执行物体抓取等动作,扩大了可应用的场景,并提高了动作的准确度和成功执行的概率。
为了实现上述实施例,本发明还提出一种机器人的控制装置。
图5为本发明实施例提供的一种机器人的控制装置的结构示意图。
如图5所示,该装置包括:获取模块51、确定模块52和控制模块53。
获取模块51,用于获取并显示机器人的工作场景图像;
确定模块52,用于响应于用户操作,从工作场景图像中确定出目标图像区域。
控制模块53,用于控制机器人对目标图像区域对应的物体执行目标操作。
作为一种可能的实现方式,获取模块51,具体用于:
获取工作场景图像的第一图像识别信息,其中,第一图像识别信息用于指示从工作场景图像中识别出的物体,在显示的工作场景图像中,对识别出的物体进行标识。
作为一种可能的实现方式,确定模块52,具体用于:
响应于用户操作,从识别出的物体中确定用户操作已选定物体,将工作场景图像中,展示有已选定物体的图像区域作为目标图像区域。
作为另一种可能的实现方式,获取模块51,具体用于:
获取工作场景图像的第二图像识别信息,其中,第二图像识别信息用于指示工作场景图像中展示有物体的图像区域,在显示的工作场景图像中,对展示有物体对象的图像区域进行标识。
作为另一种可能的实现方式,确定模块52,具体用于:
响应于用户操作,从工作场景图像展示有物体对象的图像区域中确定用户操作已选定的目标图像区域。
作为又一种可能的实现方式,确定模块52,还具体用于:
响应于用户操作,将工作场景图像中,用户操作选定的图像区域,作为目标图像区域。
作为一种可能的实现方式,控制模块53,具体用于:
获取目标图像区域在工作场景图像中的图像位置,和/或目标图像区域所展示物体的标识信息,向机器人发送控制指令,控制机器人对图像位置对应的实际空间位置对应的物体执行目标操作,和/或,对标识信息对应的物体执行目标操作。
作为一种可能的实现方式,图像位置包括:目标图像区域中各参考点的图像坐标,其中,图像坐标对应世界坐标系中的实际空间位置的坐标。
作为一种可能的实现方式,用户操作,包括:语音输入和触控操作中的至少一个。
需要说明的是,前述对方法实施例的解释说明也适用于该实施例的装置,此处不再赘述。
本发明实施例的机器人的控制装置中,获取模块用于获取并显示机器人的工作场景图像,确定模块用于响应于用户操作,从工作场景图像中确定出目标图像区域,控制模块用于控制机器人对目标图像区域对应的物体执行目标操作。通过获取工作场景图像后,在物体识别准确度较低或无法识别的情况下,通过用户操作辅助控制机器人对目标图像区域执行物体抓取等动作,提高了动作的准确度和成功执行的概率,解决了现有技术中,通过对工作场景图像识别,根据物体的识别结果指示机器人执行物体抓取等动作,因物体识别的种类有限,在无法准确识别图像中的物体时,导致机器人执行物体抓取等动作准确度较低或成功执行的概率较低的问题。
为了实现上述实施例,本发明提出了一种机器人的控制***,图6为本发明实施例所提供的一种机器人的控制***的结构示意图,该***可以应用于本申请的机器人的控制方法或机器人的控制装置的实施例。
如图6所示,该***包括:终端11、图像传感器12、主控设备13和机器人14。
终端11,用于执行前述方法实施例所述的机器人14的控制方法。
图像传感器12,用于采集机器人14的工作场景图像,并将采集到的工作场景图像发送至主控设备13,以使得主控设备13可对工作场景图像进行识别。
主控设备13,用于在终端11的指令下对机器人14进行控制。
机器人14,用于在主控设备13的控制下执行目标操作。
本发明实施例的机器人的控制***中,图像传感器采集工作场景图像,并通过终端和主控设备的交互,实现用户操作辅助控制机器人对目标图像区域执行物体抓取等动作,提高了动作的准确度和成功执行的概率。
为了实现上述实施例,本发明还提出了一种电子设备,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行该程序时,实现前述方法实施例所述的机器人的控制方法。
为了实现上述实施例,本发明还提出一种计算机可读存储介质,其上存储有计算机程序,当该程序被处理器执行时,实现前述方法实施例所述的机器人的控制方法。
图7示出了适于用来实现本申请实施方式的示例性电子设备的框图。图7显示的电子设备12仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图7所示,电子设备12以通用计算设备的形式表现。电子设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,***存储器28,连接不同***组件(包括***存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,***总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(Industry StandardArchitecture;以下简称:ISA)总线,微通道体系结构(Micro Channel Architecture;以下简称:MAC)总线,增强型ISA总线、视频电子标准协会(Video Electronics StandardsAssociation;以下简称:VESA)局域总线以及***组件互连(Peripheral ComponentInterconnection;以下简称:PCI)总线。
电子设备12典型地包括多种计算机***可读介质。这些介质可以是任何能够被电子设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储器28可以包括易失性存储器形式的计算机***可读介质,例如随机存取存储器(Random Access Memory;以下简称:RAM)30和/或高速缓存存储器32。电子设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机***存储介质。仅作为举例,存储***34可以用于读写不可移动的、非易失性磁介质(图7未显示,通常称为“硬盘驱动器”)。尽管图7中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如:光盘只读存储器(Compact Disc Read OnlyMemory;以下简称:CD-ROM)、数字多功能只读光盘(Digital Video Disc Read OnlyMemory;以下简称:DVD-ROM)或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本申请各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括但不限于操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本申请所描述的实施例中的功能和/或方法。
电子设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该电子设备12交互的设备通信,和/或与使得该电子设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,电子设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(Local Area Network;以下简称:LAN),广域网(Wide Area Network;以下简称:WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与电子设备12的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
处理单元16通过运行存储在***存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现前述实施例中提及的方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行***、装置或设备(如基于计算机的***、包括处理器的***或其他可以从指令执行***、装置或设备取指令并执行指令的***)使用,或结合这些指令执行***、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行***、装置或设备或结合这些指令执行***、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行***执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (10)
1.一种机器人的控制方法,其特征在于,所述方法包括以下步骤:
获取并显示机器人的工作场景图像;
响应于用户操作,从所述工作场景图像中确定出目标图像区域;
控制所述机器人对所述目标图像区域对应的物体执行目标操作。
2.根据权利要求1所述的控制方法,其特征在于,所述获取并显示机器人的工作场景图像,包括:
获取所述工作场景图像的第一图像识别信息;所述第一图像识别信息用于指示从所述工作场景图像中识别出的物体;
在显示的所述工作场景图像中,对识别出的物体进行标识。
3.根据权利要求2所述的控制方法,其特征在于,所述响应于用户操作,从所述工作场景图像中确定出目标图像区域,包括:
响应于用户操作,从识别出的物体中确定所述用户操作已选定物体;
将所述工作场景图像中,展示有所述已选定物体的图像区域作为所述目标图像区域。
4.根据权利要求1所述的控制方法,其特征在于,所述获取并显示机器人的工作场景图像,包括:
获取所述工作场景图像的第二图像识别信息;所述第二图像识别信息用于指示所述工作场景图像中展示有物体的图像区域;
在显示的所述工作场景图像中,对所述展示有物体对象的图像区域进行标识。
5.根据权利要求4所述的控制方法,其特征在于,所述响应于用户操作,从所述工作场景图像中确定出目标图像区域,包括:
响应于用户操作,从所述工作场景图像展示有物体对象的图像区域中确定所述用户操作已选定的目标图像区域。
6.根据权利要求1所述的控制方法,其特征在于,所述响应于用户操作,从所述工作场景图像中确定出目标图像区域,包括:
响应于用户操作,将所述工作场景图像中,所述用户操作选定的图像区域,作为所述目标图像区域。
7.一种机器人的控制装置,其特征在于,包括:
获取模块,用于获取并显示机器人的工作场景图像;
确定模块,用于响应于用户操作,从所述工作场景图像中确定出目标图像区域;
控制模块,用于控制所述机器人对所述目标图像区域对应的物体执行目标操作。
8.一种电子设备,其特征在于,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现如权利要求1-6中任一所述的机器人的控制方法。
9.一种机器人的控制***,其特征在于,包括:终端、图像传感器、主控设备和机器人;所述终端、图像传感器和机器人分别与所述主控设备通信连接;
其中,所述终端,用于执行权利要求1-6任一项所述的机器人的控制方法;
所述图像传感器,用于采集所述机器人的工作场景图像;
所述主控设备,用于在终端的指示下对所述机器人进行控制;
所述机器人,用于在所述主控设备的控制下执行目标操作。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-6中任一所述的机器人的控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810236923.5A CN110293554A (zh) | 2018-03-21 | 2018-03-21 | 机器人的控制方法、装置和*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810236923.5A CN110293554A (zh) | 2018-03-21 | 2018-03-21 | 机器人的控制方法、装置和*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110293554A true CN110293554A (zh) | 2019-10-01 |
Family
ID=68025448
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810236923.5A Pending CN110293554A (zh) | 2018-03-21 | 2018-03-21 | 机器人的控制方法、装置和*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110293554A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111612837A (zh) * | 2020-05-27 | 2020-09-01 | 常州节卡智能装备有限公司 | 物料整理方法及物料整理设备 |
CN112347890A (zh) * | 2020-10-30 | 2021-02-09 | 武汉理工大学 | 一种绝缘子机器人作业识别方法、存储介质及*** |
CN112975940A (zh) * | 2019-12-12 | 2021-06-18 | 科沃斯商用机器人有限公司 | 机器人控制方法、信息生成方法及机器人 |
WO2021217922A1 (zh) * | 2020-04-26 | 2021-11-04 | 广东弓叶科技有限公司 | 人机协作分选***及其机器人的抓取位置获取方法 |
CN115476366A (zh) * | 2021-06-15 | 2022-12-16 | 北京小米移动软件有限公司 | 足式机器人的控制方法、装置、控制设备及存储介质 |
CN115706854A (zh) * | 2021-08-06 | 2023-02-17 | 北京小米移动软件有限公司 | 足式机器人的相机控制方法、装置及足式机器人 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102129290A (zh) * | 2010-01-12 | 2011-07-20 | 索尼公司 | 图像处理设备、对象选择方法和程序 |
JP2012022457A (ja) * | 2010-07-13 | 2012-02-02 | Japan Science & Technology Agency | タスク指示システム |
CN103302664A (zh) * | 2012-03-08 | 2013-09-18 | 索尼公司 | 机器人设备、用于控制机器人设备的方法以及计算机程序 |
CN103717358A (zh) * | 2011-08-02 | 2014-04-09 | 索尼公司 | 控制***、显示控制方法和非暂态计算机可读存储介质 |
US20140247261A1 (en) * | 2010-02-17 | 2014-09-04 | Irobot Corporation | Situational Awareness for Teleoperation of a Remote Vehicle |
US9399294B1 (en) * | 2011-05-06 | 2016-07-26 | Google Inc. | Displaying estimated image data in a user interface |
CN106506975A (zh) * | 2016-12-29 | 2017-03-15 | 深圳市金立通信设备有限公司 | 一种拍摄方法及终端 |
CN106845425A (zh) * | 2017-01-25 | 2017-06-13 | 迈吉客科技(北京)有限公司 | 一种视觉跟踪方法和跟踪装置 |
CN106891341A (zh) * | 2016-12-06 | 2017-06-27 | 北京臻迪科技股份有限公司 | 一种水下机器人及捕捞方法 |
CN107515606A (zh) * | 2017-07-20 | 2017-12-26 | 北京格灵深瞳信息技术有限公司 | 机器人实现方法、控制方法及机器人、电子设备 |
-
2018
- 2018-03-21 CN CN201810236923.5A patent/CN110293554A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102129290A (zh) * | 2010-01-12 | 2011-07-20 | 索尼公司 | 图像处理设备、对象选择方法和程序 |
US20140247261A1 (en) * | 2010-02-17 | 2014-09-04 | Irobot Corporation | Situational Awareness for Teleoperation of a Remote Vehicle |
JP2012022457A (ja) * | 2010-07-13 | 2012-02-02 | Japan Science & Technology Agency | タスク指示システム |
US9399294B1 (en) * | 2011-05-06 | 2016-07-26 | Google Inc. | Displaying estimated image data in a user interface |
CN103717358A (zh) * | 2011-08-02 | 2014-04-09 | 索尼公司 | 控制***、显示控制方法和非暂态计算机可读存储介质 |
CN103302664A (zh) * | 2012-03-08 | 2013-09-18 | 索尼公司 | 机器人设备、用于控制机器人设备的方法以及计算机程序 |
CN106891341A (zh) * | 2016-12-06 | 2017-06-27 | 北京臻迪科技股份有限公司 | 一种水下机器人及捕捞方法 |
CN106506975A (zh) * | 2016-12-29 | 2017-03-15 | 深圳市金立通信设备有限公司 | 一种拍摄方法及终端 |
CN106845425A (zh) * | 2017-01-25 | 2017-06-13 | 迈吉客科技(北京)有限公司 | 一种视觉跟踪方法和跟踪装置 |
CN107515606A (zh) * | 2017-07-20 | 2017-12-26 | 北京格灵深瞳信息技术有限公司 | 机器人实现方法、控制方法及机器人、电子设备 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112975940A (zh) * | 2019-12-12 | 2021-06-18 | 科沃斯商用机器人有限公司 | 机器人控制方法、信息生成方法及机器人 |
WO2021217922A1 (zh) * | 2020-04-26 | 2021-11-04 | 广东弓叶科技有限公司 | 人机协作分选***及其机器人的抓取位置获取方法 |
CN111612837A (zh) * | 2020-05-27 | 2020-09-01 | 常州节卡智能装备有限公司 | 物料整理方法及物料整理设备 |
CN111612837B (zh) * | 2020-05-27 | 2024-03-08 | 常州节卡智能装备有限公司 | 物料整理方法及物料整理设备 |
CN112347890A (zh) * | 2020-10-30 | 2021-02-09 | 武汉理工大学 | 一种绝缘子机器人作业识别方法、存储介质及*** |
CN115476366A (zh) * | 2021-06-15 | 2022-12-16 | 北京小米移动软件有限公司 | 足式机器人的控制方法、装置、控制设备及存储介质 |
CN115476366B (zh) * | 2021-06-15 | 2024-01-09 | 北京小米移动软件有限公司 | 足式机器人的控制方法、装置、控制设备及存储介质 |
CN115706854A (zh) * | 2021-08-06 | 2023-02-17 | 北京小米移动软件有限公司 | 足式机器人的相机控制方法、装置及足式机器人 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110293554A (zh) | 机器人的控制方法、装置和*** | |
KR102014377B1 (ko) | 학습 기반 수술동작 인식 방법 및 장치 | |
Kumar et al. | A position and rotation invariant framework for sign language recognition (SLR) using Kinect | |
KR102292028B1 (ko) | 제스처 인식 방법, 장치, 전자 기기 및 저장 매체 | |
Balomenos et al. | Emotion analysis in man-machine interaction systems | |
JP4481663B2 (ja) | 動作認識装置、動作認識方法、機器制御装置及びコンピュータプログラム | |
CN110598576B (zh) | 一种手语交互方法、装置及计算机介质 | |
CN112470160A (zh) | 个性化自然语言理解的装置和方法 | |
CN113835522A (zh) | 手语视频生成、翻译、客服方法、设备和可读介质 | |
CN110619252B (zh) | 识别图片中表单数据的方法、装置、设备及存储介质 | |
CN109101228A (zh) | 应用程序的执行方法和装置 | |
Benoit et al. | Audio-visual and multimodal speech systems | |
CN108984679A (zh) | 对话生成模型的训练方法和装置 | |
Russo et al. | PARLOMA–a novel human-robot interaction system for deaf-blind remote communication | |
CN110555426A (zh) | 视线检测方法、装置、设备及存储介质 | |
CN109616101A (zh) | 声学模型训练方法、装置、计算机设备和可读存储介质 | |
CN107992602A (zh) | 搜索结果展示方法和装置 | |
CN109977826A (zh) | 物体的类别识别方法和装置 | |
Ronchetti et al. | Sign languague recognition without frame-sequencing constraints: A proof of concept on the argentinian sign language | |
CN109711285A (zh) | 识别模型的训练、测试方法和装置 | |
CN110188303A (zh) | 页面错误识别方法和装置 | |
KR102562377B1 (ko) | 우울증 진단 정보를 제공하기 위한 인공지능 연합학습 방법 및 시스템 | |
CN109446907A (zh) | 一种视频聊天的方法、装置、设备和计算机存储介质 | |
CN109784330A (zh) | 招牌内容识别方法、装置及设备 | |
CN110084230A (zh) | 基于图像的车身方向检测方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191001 |
|
RJ01 | Rejection of invention patent application after publication |