CN106202418A - 一种用于智能机器人的图片数据收集方法及*** - Google Patents
一种用于智能机器人的图片数据收集方法及*** Download PDFInfo
- Publication number
- CN106202418A CN106202418A CN201610546735.3A CN201610546735A CN106202418A CN 106202418 A CN106202418 A CN 106202418A CN 201610546735 A CN201610546735 A CN 201610546735A CN 106202418 A CN106202418 A CN 106202418A
- Authority
- CN
- China
- Prior art keywords
- picture
- targeted customer
- user
- feedback
- solicited message
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/5866—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Library & Information Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Manipulator (AREA)
Abstract
一种用于智能机器人的图片数据收集方法及***,其中,该方法包括:目标用户确定步骤,获取用户数据,根据用户数据确定目标用户;图片数据收集步骤,向目标用户输出人脸图片请求信息,并获取目标用户针对人脸图片请求信息做出的反馈对应的反馈图片,根据人脸图片请求信息标记反馈图片对应的用户身份和/或表情数据,得到带有标记数据的反馈图片。
Description
技术领域
本发明涉及机器人技术领域,具体地说,涉及一种图片数据收集方法及***。
背景技术
视觉机器人将视觉处理与机器人技术相结合,使得机器人具有了与周围环境相交互的能力,加强了机器人在抓取、搬运、跟踪、装配以及危险环境作业等领域的应用。
机器人在对外界物体的识别是非常困难的任务,这不仅需要良好、合理的算法,还需要大量的有标记的数据来作为训练基础。例如,训练一个99%准确率的人脸身份识别分类器就需要100万张以上的有身份标注的图片。而由于带有标记的图片数据获取过程繁琐复杂,因此也就导致这些图片数据通常十分昂贵。
发明内容
为解决上述问题,本发明提供了一种用于智能机器人的图片数据收集方法,其包括:
目标用户确定步骤,获取用户数据,根据所述用户数据确定目标用户;
图片数据收集步骤,向所述目标用户输出人脸图片请求信息,并获取所述目标用户针对所述人脸图片请求信息做出的反馈对应的反馈图片,根据所述人脸图片请求信息标记所述反馈图片对应的用户身份和/或表情数据,得到带有标记数据的反馈图片。
根据本发明的一个实施例,在所述目标用户确定步骤中,根据用户的行为数据判断用户是否具有预设正向特征,如果是,则将该用户确定为目标用户。
根据本发明的一个实施例,所述方法还包括:
激励输出步骤,在所述目标用户针对所述人脸图片请求信息输入反馈图片后,向所述目标用户输出激励信息。
根据本发明的一个实施例,在所述激励输出步骤中,根据所述目标用户的行为习惯和/或喜好信息输出所述激励信息。
根据本发明的一个实施例,在所述激励输出步骤中,对所述反馈图片进行图像处理,并将处理后的反馈图片输出给所述目标用户。
本发明还提供了一种用于智能机器人的图片数据收集***,其包括:
目标用户确定模块,其用于获取用户数据,并根据所述用户数据确定目标用户;
图片数据收集模块,其用于向所述目标用户输出人脸图片请求信息,并获取所述目标用户针对所述人脸图片请求信息做出的反馈对应的反馈图片,根据所述人脸图片请求信息标记所述反馈图片对应的用户身份和/或表情数据,得到带有标记数据的反馈图片。
根据本发明的一个实施例,所述目标用户确定模块配置为根据用户的行为数据判断用户是否具有预设正向特征,如果是,则将该用户确定为目标用户。
根据本发明的一个实施例,所述***还包括:
激励输出模块,其用于在所述目标用户针对所述人脸图片请求信息输入反馈图片后,向所述目标用户输出激励信息。
根据本发明的一个实施例,所述激励输出模块配置为根据所述目标用户的行为习惯和/或喜好信息输出所述激励信息。
根据本发明的一个实施例,所述激励输出模块配置为对所述反馈图片进行图像处理,并将处理后的反馈图片输出给所述目标用户。
本发明所提供的用于智能机器人的图片数据收集方法及***能够通过与用户的对话来自动获取图片并对该图片进行数据标注从而得到带有标记数据的图片,该方法可以能够极大地减少图片采集的成本,同时该方法还能够较好地控制图片的内容(例如可以通过输出相应的人脸图片请求信息来定向的收集具有特定特征的图片)。此外,该方法还能够增加图片标记的准确率,由直接对图片进行数据标准,因此也就可以减少人工标注的成本以及出错风险。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要的附图做简单的介绍:
图1是根据本发明一个实施例的用于智能机器人的图片数据收集方法的实现流程图;
图2是根据本发明另一个实施例的用于智能机器人的图片数据收集方法的实现流程图;
图3是根据本发明一个实施例的用于智能机器人的图片数据收集***的结构示意图。
具体实施方式
以下将结合附图及实施例来详细说明本发明的实施方式,借此对本发明如何应用技术手段来解决技术问题,并达成技术效果的实现过程能充分理解并据以实施。需要说明的是,只要不构成冲突,本发明中的各个实施例以及各实施例中的各个特征可以相互结合,所形成的技术方案均在本发明的保护范围之内。
同时,在以下说明中,出于解释的目的而阐述了许多具体细节,以提供对本发明实施例的彻底理解。然而,对本领域的技术人员来说显而易见的是,本发明可以不用这里的具体细节或者所描述的特定方式来实施。
另外,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机***中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
为了解决现有图片数据收集方法数据昂贵、数据收集过程复杂的问题,本发明提供了一种新的用于智能机器人的图片数据收集方法,该方法利用智能聊天软件来进行图片数据的收集从而得到带有标记数据的图片,该方法不仅可以实现图片数据的自动标注,同时还能够近乎无成本地进行图片数据的收集。这样得到的带有标记数据的反馈图片也就可以用于智能机器人的相关训练,从而有助于提高智能机器人的性能以及可靠性。
为了更加清楚地阐述本发明所提供的用于智能机器人的图片数据收集方法的实现原理、实现过程以及优点,以下分别结合不同的实施例来对该方法作进一步的说明。
实施例一:
图1示出了本实施例所提供的用于智能机器人的图片数据收集方法的实现流程图。
如图1所示,本实施例所提供的方法首先在步骤S101中获取用户数据,并根据用户数据确定目标用户。本实施例中,为了使得最终得到的图片与其自身的标记信息更加匹配,本方法利用目标用户来进行图片的获取。其中,目标用户优选地是指具有一定正向特征的用户,例如乐于助人的用户或是乐于自拍的用户。这类用户所反馈的信息的可信度以及可靠性通常更高,这样也就为最终所得到的带有标记数据的图片的准确性提供了保障。
在确定出目标用户后,本方法在步骤S102中向目标用户输出人脸图片请求信息,并在步骤S103中获取目标用户针对人脸图片请求信息所输入的反馈图片。具体地,本实施例中,该方法优选地通过聊天软件来向目标用户输出人脸图片请求信息,并通过该聊天软件来获取目标用户所输入的反馈图片。
需要指出的是,在本发明的不同实施例中,该方法所使用的聊天软件可以是带有图片上传功能的聊天对话框(例如QQ、微信、微博、贴吧以及论坛等),本发明不限于此。同时,在本发明的其他实施例中,该方法还可以通过其他合理方式来向目标用户输出人脸图片请求信息并获取目标用户输入的反馈图片,本发明同样不限于此。
而如果该方法没有获取到用户针对步骤S102输出的人脸图片请求信息所输入的反馈图片,那么该方法则不进行额外操作。
如图1所示,在得到反馈图片后,该方法在步骤S104中根据步骤S102中所输出的人脸图片请求信息标记步骤S103中所获取到的反馈图片对应的用户身份和/或表情数据,从而得到带有标记数据的反馈图片。
例如,当需要带有高兴表情的人脸图片时,本图片数据收集方法可以通过聊天软件的聊天对话框自动向目标用户输出诸如“拍一张你高兴的照片给我吧”的人脸图片请求信息。
目标用户在接收到该人脸图片请求信息后,会使用智能机器人的摄像头拍摄带有自身笑脸的图片或是从存储器中选择一张带有自身笑脸的图片,并将该图片输入到聊天软件中。这样,本方法也就可以通过聊天软件对话框获取到用户输入的反馈图片。
在得到用户输入的反馈图片后,本图片数据收集方法便会将该图片保存到数据库中,并附加上相应的标签,从而形成带有标记数据的反馈图片。具体地,对于上述过程中所获取到的带有笑脸的图片来说,该图片数据收集方法可以将“笑脸”或“高兴”等表情数据作为该反馈图片的标记数据,这些带有标记数据的图片显然可以用作图片识别的训练集。
需要指出的是,在本发明的其他实施例中,该图片数据收集方法还可以将用户的用户身份,或是用户身份与表情数据的结合,作为反馈图片的标记数据,本发明不限于此。其中,用户身份优选的可以通过步骤S101中所获取到的用户数据确认得到。
同时,还需要指出的是,上述步骤S101至S104还可以在用户发出拍照请求后执行,此外,根据实际需要,该方法还可以将步骤S104中所得到的带有标记数据的反馈图片在聊天软件后续的交互中进行输出。本发明同样不限于此。
从上述描述中可以看出,本实施例所提供的用于智能机器人的图片数据收集方法能够通过与用户的对话来自动获取图片并对该图片进行数据标注从而得到带有标记数据的图片,该方法可以能够极大地减少图片采集的成本,同时该方法还能够较好地控制图片的内容(例如可以通过输出相应的人脸图片请求信息来定向的收集具有特定特征的图片)。此外,该方法还能够增加图片标记的准确率,由直接对图片进行数据标准,因此也就可以减少人工标注的成本以及出错风险。
实施例二:
图2示出了本实施例所提供的用于智能机器人的图片数据收集方法的实现流程图。
如图2所示,本实施例所提供的方法首先在步骤S201中获取用户数据,并在步骤S202中根据步骤S201中所获取到的用户数据判断该用户是否具有预设正向特征。如果该用户具有预设正向特征,该方法则可以在步骤S203中将该用户确定为目标用户;而如果该用户不具有预设正向特征,该方法不进行后续操作。
本实施例中,用户具有预设正向特征是指用户具有诸如“乐于助人”以及“乐于自拍”等特征,如果用户具有这类特征,那么显然这些用户所输入的反馈图片更加可靠和准确,这样也就有助于保证最终得到的带有标记数据的反馈图片的可靠性和准确性。而如果用户不具有预设正向特征,例如通过分析用户数据发现用户并不喜欢自拍或是不会积极地回应他人的请求,那么显然该用户的置信度较低,该用户针对人脸图片请求信息所输入的反馈图片的可靠性和准确性将无法得到保证,因此该方法也就不将该用户作为目标用户。
需要指出的是,在本发明的其他实施例中,该图片数据收集方法还可以通过其它合理方式来确定目标用户,本发明不限于此。
如图2所示,在确定出目标用户后,该方法在步骤S204中向该目标用户输出人脸图片请求信息,并在步骤S205中获取目标用户针对人脸图片请求信息所输入的反馈图片。在得到反馈图片后,该方法会在步骤S206中根据步骤S204中所输出的人脸图片请求信息来标记反馈图片对应的用户身份和/或表情数据,从而得到带有标记数据的反馈图片。
需要指出的是,本实施例中步骤S204至步骤S206的实现原理以及实现过程与实施例一中步骤S102至步骤S104所涉及的内容类似,故在此不再对步骤S204至步骤S206进行赘述。
如图2所示,在获取到用户针对步骤S204输出的图片请求信息所输入的反馈图片后,该方法还在步骤S207中向目标用户输出激励信息。
具体地,本实施例中,该方法在向目标用户输出激励信息时,通过从预设输出模型中随机选取一组或者按照预设规则选取一组,并按照所选取的输出模型来向目标用户输出激励信息。
例如,在向目标用户输出激励信息时,该图片数据收集方法还可以对目标用户所输入的反馈图片进行图片分析。如果通过图片分析确定出目标用户为男性用户,那么该方法则可以在步骤S207中输出诸如“原来你是男的”的激励信息;如果通过图片分析确定出目标用户的脸型,那么该方法则可以在步骤S207输出诸如“你笑得可真难看”或是“你和熊猫长得好像啊”等玩笑性的信息;如果通过图片分析确定出目标用户所处位置有桌子,那么该方法则可以在步骤S207中输出诸如“你趴在桌子上干嘛呢”等信息。
在向目标用户输出激励信息时,该图片数据收集方法还可以输出一些赞赏的信息或感谢的信息,例如输出诸如“真实太感谢了”或是“你真好”等激励信息。
当然,在本发明的其他实施例中,该方法可以采用其他合理的方式来向目标用户输出激励信息,本发明不限于此。例如,在本发明的一个实施例中,该方法可以通过解锁相关成就信息来对目标用户进行激励(例如向目标用户输出“你获得了自拍王的成就”等)。而在本发明的另一个实施例中,该方法还可以对所获得的反馈图片进行图像处理,并将处理后的反馈图片作为激励信息输出给目标用户(例如改变反馈图片的色调,使用滤镜或神经网络渲染图片风格,将图片中的人眼部位替换为卡通形象等)。
需要指出的是,为了更加准确地向目标用户输出激励信息,在本发明的不同实施例中,该方法还可以根据目标用户的行为习惯和/或喜好信息来向目标用户输出激励信息,本发明同样不限于此。例如当根据目标用户的喜好信息确认出目标用户喜欢卡通形象时,则可以通过将反馈图片中人眼部位替换为卡通形象来形成激励信息。
需要指出的是,本实施例并不对步骤S207的具体实施顺序进行限定,其既可以在完成步骤S206后执行(即先对反馈图片进行标记得到带有标记数据的反馈图片再输出激励信息),也可以在步骤S206前执行(即先输出激励信息再对反馈图进行标记得到带有标记数据的反馈图片),抑或是与步骤S206同时执行(即通过多进程的方式同时进行反馈图片的标记和激励信息的输出),本发明不限于此。
本发明还提供了一种用于智能机器人的图片数据收集***,图3示出了本实施例中该***的结构示意图。
如图3所示,本实施例所提供的图片数据收集***优选地包括:目标用户确定模块301、图片数据收集模块302以及激励输出模块303。其中,目标用户确定模块301用于获取用户数据,并根据用户数据确定目标用户。需要指出的是,本实施例中所提及的目标用户优选地是指具有一定正向特征的用户,例如乐于助人的用户或是乐于自拍的用户。这类用户所反馈的信息的可信度以及可靠性通常更高,这样也就为最终所得到的带有标记数据的图片的准确性提供了保障。
具体地,本实施例中,在获取到用户数据后,目标用户确定模块301会根据用户数据判断该用户是否具有预设正向特征。其中,如果该用户具有预设正向特征,目标用户确定模块301则将该用户确定为目标用户;而如果该用户不具有预设正向特征,目标用户确定模块301会将该用户确定为非目标用户。
在确定出目标用户后,目标用户确定模块301会将目标用户的信息输出给图片数据收集模块302,以由图片数据收集模块302向目标用户输出人脸图片请求信息,并获取目标用户针对人脸图片请求信息所输入的反馈图片。在得到反馈图片后,图片数据收集模块302根据所输出的人脸图片请求信息来标记反馈图片对应的用户身份和/或表情数据,从而得到带有标记数据的反馈图片。
本实施例中,当获取到目标用户针对人脸图片请求信息所输入的反馈图片后,该***还会通过激励输出模块303向目标用户输出激励信息。具体地,本实施例中,激励输出模块303在向目标用户输出激励信息时,可以通过从预设输出模型中随机选取一组或者按照预设规则选取一组,并按照所选取的输出模型来向目标用户输出激励信息。
需要指出的是,本实施例中,目标用户确定模块301、图片数据收集模块302以及激励输出模块303实现其各自功能的具体原理以及过程与上述实施例一以及实施例二所阐述的内容类似,故在此不再进行赘述。
本实施例所提供的用于智能机器人的图片数据收集***同样能够通过与用户的对话来自动获取图片并对该图片进行数据标注从而得到带有标记数据的图片,该方法可以能够极大地减少图片采集的成本,同时该***还能够较好地控制图片的内容(例如可以通过输出相应的人脸图片请求信息来定向的收集具有特定特征的图片)。此外,该***还能够增加图片标记的准确率,由直接对图片进行数据标准,因此也就可以减少人工标注的成本以及出错风险。
应该理解的是,本发明所公开的实施例不限于这里所公开的特定结构或处理步骤,而应当延伸到相关领域的普通技术人员所理解的这些特征的等同替代。还应当理解的是,在此使用的术语仅用于描述特定实施例的目的,而并不意味着限制。
说明书中提到的“一个实施例”或“实施例”意指结合实施例描述的特定特征、结构或特性包括在本发明的至少一个实施例中。因此,说明书通篇各个地方出现的短语“一个实施例”或“实施例”并不一定均指同一个实施例。
虽然上述示例用于说明本发明在一个或多个应用中的原理,但对于本领域的技术人员来说,在不背离本发明的原理和思想的情况下,明显可以在形式上、用法及实施的细节上作各种修改而不用付出创造性劳动。因此,本发明由所附的权利要求书来限定。
Claims (10)
1.一种用于智能机器人的图片数据收集方法,其特征在于,包括:
目标用户确定步骤,获取用户数据,根据所述用户数据确定目标用户;
图片数据收集步骤,向所述目标用户输出人脸图片请求信息,并获取所述目标用户针对所述人脸图片请求信息做出的反馈对应的反馈图片,根据所述人脸图片请求信息标记所述反馈图片对应的用户身份和/或表情数据,得到带有标记数据的反馈图片。
2.如权利要求1所述的方法,其特征在于,在所述目标用户确定步骤中,根据用户的行为数据判断用户是否具有预设正向特征,如果是,则将该用户确定为目标用户。
3.如权利要求1或2所述的方法,其特征在于,所述方法还包括:
激励输出步骤,在所述目标用户针对所述人脸图片请求信息输入反馈图片后,向所述目标用户输出激励信息。
4.如权利要求3所述的方法,其特征在于,在所述激励输出步骤中,根据所述目标用户的行为习惯和/或喜好信息输出所述激励信息。
5.如权利要求3所述的方法,其特征在于,在所述激励输出步骤中,对所述反馈图片进行图像处理,并将处理后的反馈图片输出给所述目标用户。
6.一种用于智能机器人的图片数据收集***,其特征在于,包括:
目标用户确定模块,其用于获取用户数据,并根据所述用户数据确定目标用户;
图片数据收集模块,其用于向所述目标用户输出人脸图片请求信息,并获取所述目标用户针对所述人脸图片请求信息做出的反馈对应的反馈图片,根据所述人脸图片请求信息标记所述反馈图片对应的用户身份和/或表情数据,得到带有标记数据的反馈图片。
7.如权利要求6所述的***,其特征在于,所述目标用户确定模块配置为根据用户的行为数据判断用户是否具有预设正向特征,如果是,则将该用户确定为目标用户。
8.如权利要求6或7所述的***,其特征在于,所述***还包括:
激励输出模块,其用于在所述目标用户针对所述人脸图片请求信息输入反馈图片后,向所述目标用户输出激励信息。
9.如权利要求8所述的***,其特征在于,所述激励输出模块配置为根据所述目标用户的行为习惯和/或喜好信息输出所述激励信息。
10.如权利要求8所述的***,其特征在于,所述激励输出模块配置为对所述反馈图片进行图像处理,并将处理后的反馈图片输出给所述目标用户。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610546735.3A CN106202418B (zh) | 2016-07-12 | 2016-07-12 | 一种用于智能机器人的图片数据收集方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610546735.3A CN106202418B (zh) | 2016-07-12 | 2016-07-12 | 一种用于智能机器人的图片数据收集方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106202418A true CN106202418A (zh) | 2016-12-07 |
CN106202418B CN106202418B (zh) | 2019-12-13 |
Family
ID=57477047
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610546735.3A Active CN106202418B (zh) | 2016-07-12 | 2016-07-12 | 一种用于智能机器人的图片数据收集方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106202418B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107562838A (zh) * | 2017-08-24 | 2018-01-09 | 百度在线网络技术(北京)有限公司 | 一种用于图像信息采集的方法和装置 |
CN111435455A (zh) * | 2019-01-14 | 2020-07-21 | 珠海格力电器股份有限公司 | 图片的处理方法和装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070074042A1 (en) * | 2005-09-28 | 2007-03-29 | Fuji Photo Film Co., Ltd | Face image obtaining method and appratus |
CN101350877A (zh) * | 2007-07-18 | 2009-01-21 | 索尼株式会社 | 成像***、成像指令发出装置、成像装置和成像方法 |
CN104967552A (zh) * | 2014-11-12 | 2015-10-07 | 腾讯科技(深圳)有限公司 | 消息推送方法及装置 |
CN105159959A (zh) * | 2015-08-20 | 2015-12-16 | 广东欧珀移动通信有限公司 | 图像文件的处理方法和*** |
CN105373784A (zh) * | 2015-11-30 | 2016-03-02 | 北京光年无限科技有限公司 | 智能机器人数据处理方法及装置、智能机器人*** |
-
2016
- 2016-07-12 CN CN201610546735.3A patent/CN106202418B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070074042A1 (en) * | 2005-09-28 | 2007-03-29 | Fuji Photo Film Co., Ltd | Face image obtaining method and appratus |
CN101350877A (zh) * | 2007-07-18 | 2009-01-21 | 索尼株式会社 | 成像***、成像指令发出装置、成像装置和成像方法 |
CN104967552A (zh) * | 2014-11-12 | 2015-10-07 | 腾讯科技(深圳)有限公司 | 消息推送方法及装置 |
CN105159959A (zh) * | 2015-08-20 | 2015-12-16 | 广东欧珀移动通信有限公司 | 图像文件的处理方法和*** |
CN105373784A (zh) * | 2015-11-30 | 2016-03-02 | 北京光年无限科技有限公司 | 智能机器人数据处理方法及装置、智能机器人*** |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107562838A (zh) * | 2017-08-24 | 2018-01-09 | 百度在线网络技术(北京)有限公司 | 一种用于图像信息采集的方法和装置 |
CN111435455A (zh) * | 2019-01-14 | 2020-07-21 | 珠海格力电器股份有限公司 | 图片的处理方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN106202418B (zh) | 2019-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109542399B (zh) | 软件开发方法、装置、终端设备及计算机可读存储介质 | |
KR102004287B1 (ko) | 이모티콘 생성 장치 및 이모티콘 생성 방법 | |
CN110297973B (zh) | 一种基于深度学习的数据推荐方法、装置及终端设备 | |
CN108292231A (zh) | 从数据生成应用 | |
US10191920B1 (en) | Graphical image retrieval based on emotional state of a user of a computing device | |
EP2626831A1 (en) | Tag Inheritance | |
CN106339479A (zh) | 一种图片命名方法及终端 | |
CN112509690B (zh) | 用于控制质量的方法、装置、设备和存储介质 | |
US20140267011A1 (en) | Mobile device event control with digital images | |
CN110427849B (zh) | 人脸姿态确定方法、装置、存储介质和电子设备 | |
CN109388383A (zh) | 用于智能生成包容性***设计的***和方法 | |
US20210150243A1 (en) | Efficient image sharing | |
CN112487973B (zh) | 用户图像识别模型的更新方法和装置 | |
WO2014070145A1 (en) | Object segmentation | |
CN113703585A (zh) | 交互方法、装置、电子设备及存储介质 | |
US20220197500A1 (en) | Parsing Handwriting Into Online Events | |
CN110362826A (zh) | 基于人工智能的期刊投稿方法、设备及可读存储介质 | |
WO2021068613A1 (zh) | 面部识别方法、装置、设备及计算机可读存储介质 | |
CN109242309A (zh) | 参会用户画像生成方法、装置、智能会议设备及存储介质 | |
CN106201509A (zh) | 一种信息显示方法、装置及移动终端 | |
CN106202418A (zh) | 一种用于智能机器人的图片数据收集方法及*** | |
CN109961403A (zh) | 照片的调整方法、装置、存储介质及电子设备 | |
CN109961452A (zh) | 照片的处理方法、装置、存储介质及电子设备 | |
CN111160251A (zh) | 一种活体识别方法及装置 | |
US20160379033A1 (en) | Interaction method and apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |