CN110826388B - 个人识别装置和个人识别方法 - Google Patents

个人识别装置和个人识别方法 Download PDF

Info

Publication number
CN110826388B
CN110826388B CN201910734941.0A CN201910734941A CN110826388B CN 110826388 B CN110826388 B CN 110826388B CN 201910734941 A CN201910734941 A CN 201910734941A CN 110826388 B CN110826388 B CN 110826388B
Authority
CN
China
Prior art keywords
person
information
identification
recorded
call
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910734941.0A
Other languages
English (en)
Other versions
CN110826388A (zh
Inventor
江崎日淑
齐藤航太
崔胜镐
松尾祥和
菊地直规
章炜峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of CN110826388A publication Critical patent/CN110826388A/zh
Application granted granted Critical
Publication of CN110826388B publication Critical patent/CN110826388B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Game Theory and Decision Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Automation & Control Theory (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)
  • Telephonic Communication Services (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Telephone Function (AREA)

Abstract

本发明提供一种个人识别装置和个人识别方法。个人识别装置(14)具有:记录部(64),其预先记录与当第1人物(人物A)和第2人物(人物B、C)在一起时第1人物和第2人物中的至少一方进行的行动有关的特性信息(34);信息获取部(40),其获取用于识别其他人物的识别用信息;和识别处理部(66),其根据识别用信息与特性信息(34)的一致性,将其他人物识别为第2人物。根据本发明,通过识别第1人物,能够将与第1人物在一起的其他人物识别为第2人物。另外,如果能够识别出第1人物,则能够通过简易的方法来识别其他人物,因此,识别处理的负荷减轻。

Description

个人识别装置和个人识别方法
技术领域
本发明涉及一种在识别出第1人物之后识别第1人物以外的其他人物的个人识别装置和个人识别方法。
背景技术
在日本发明专利公开公报特开2008-059509号中公开一种车辆的用户认证所使用的个人识别***。在该个人识别***中,各车辆搭载有认证终端。认证终端根据虹膜数据判定被识别者是否是登记者。
发明内容
根据日本发明专利公开公报特开2008-059509号所示的个人认证***,在预先登记有人物的虹膜数据且摄像头获取到人物的虹膜数据的情况下,能够对人物进行识别。与此相对,在没有登记人物的虹膜数据或摄像头无法获取人物的虹膜数据的情况下,无法对人物进行识别。
本发明是考虑这样的技术问题而完成的,其目的在于,提供一种能简易地识别人物是谁的个人识别装置和个人识别方法。
本发明的第1方式是一种个人识别装置,其在识别出第1人物之后识别所述第1人物以外的其他人物,具有:
记录部,其预先记录与当所述第1人物和第2人物在一起时所述第1人物和所述第2人物中的至少一方进行的行动有关的特性信息;
信息获取部,其获取用于识别所述其他人物的识别用信息;和
识别处理部,其根据所述识别用信息和所述特性信息的一致性,将所述其他人物识别为所述第2人物。
本发明的第2方式是一种个人识别方法,其在识别出第1人物之后识别所述第1人物以外的其他人物,
在记录部中预先记录与当所述第1人物和第2人物在一起时所述第1人物和所述第2人物中的至少一方进行的行动有关的特性信息,
通过信息获取部获取用于识别所述其他人物的识别用信息,
通过识别处理部,根据所述识别用信息与所述特性信息的一致性,将所述其他人物识别为所述第2人物。
根据本发明,通过识别第1人物,能够将与第1人物在一起的其他人物识别为第2人物。另外,如果能够识别出第1人物,则能够通过简易的方法来识别其他人物,因此,识别处理的负荷减轻。
根据参照附图对以下实施方式进行的说明,上述的目的、特征和优点应易于被理解。
附图说明
图1是个人识别***的结构图。
图2是各识别数据的结构图。
图3是关联者信息的结构图。
图4是具有个人识别装置的车辆的结构图。
图5是个人识别装置进行的主处理的流程图。
图6是个人识别装置进行的第2识别处理的流程图。
图7是追加有目的地信息的关联者信息的结构图。
图8是追加有新的特性数据的关联者信息的结构图。
图9是变形例的记录发话称呼信息和记录受话称呼信息的结构图。
具体实施方式
下面,列举优选的实施方式且参照附图对本发明所涉及的个人识别装置和个人识别方法详细地进行说明。
[1.个人识别***10的结构]
使用图1说明个人识别***10的结构。个人识别***10具有服务器12、个人识别装置14和通信终端16。服务器12和个人识别装置14、及个人识别装置14和通信终端16能够通过包括公用网络的通信线路18相互进行数据通信。本实施方式所涉及的个人识别装置14被设置于车辆100。在下述[2]中对车辆100的结构进行说明。
服务器12被设置于提供个人识别服务的从业者的服务室。服务器12将在服务器侧记录装置20中记录的信息发送给各个人识别装置14,另外,接收各个人识别装置14所发送的信息。服务器侧记录装置20具有个人信息数据库22(以下称为个人信息DB22。)和特性信息数据库24(以下称为特性信息DB24。)。
个人信息DB22按作为车辆100的用户的每一个人物记录图2所示的那样的个人数据26。图2示出作为夫妇的人物A、B的个人数据26、和作为其孩子的人物C的个人数据26。在个人数据26中包含人物A、B、C的名称(或者ID号码)、生物体信息28、联系方式、出生年月日等。生物体信息28是用于识别位于车厢的人物A、B、C的信息,例如包括面部图像、虹膜、声纹等信息。如图2所示,联系方式也可以是该人物所有的通信终端16的电子邮件地址、电话号码等信息,也可以是与该人物有关的关联者(例如在人物C的情况下作为父亲(或母亲)的人物A、B)所有的通信终端16的电子邮件地址、电话号码等信息。个人数据26在任意的时机、例如在购买车辆100的时机被登记在个人信息DB22中。
特性信息DB24按在个人信息DB22中登记了个人数据26的每一个人物,记录图3所示的关联者信息30。关联者信息30由与个人数据26被登记的人物有关的1个以上的人物的特性数据32构成。图3表示人物A的关联者(作为人物A的妻子的人物B、作为人物A的孩子的人物C)的特性数据32。在特性数据32中,包含人物B、C的名称(或者ID号码)、表示人物B、C相对于人物A的关系的信息、特性信息34等。特性信息34不使用个人信息而是用于识别与人物A一起存在的人物B、C的信息,例如包括记录时间信息34a、记录地点信息34b、记录发话称呼信息34c、记录受话称呼信息34d、记录动作信息34e等。记录时间信息34a作为人物A和人物B、C一起行动的时刻或者时间段进行记录。记录地点信息34b作为人物A与人物B、C一起行动的地点进行记录。记录发话称呼信息34c作为人物A对人物B、C的称呼进行记录。记录受话称呼信息34d作为来自人物B、C的对人物A的称呼进行记录。记录动作信息34e作为与人物A一起行动时的人物B、C的动作进行记录。人物B、C的特性数据32与人物A的个别信息(ID号码等)建立关联。特性数据32在任意的时机、例如在购买车辆100的时机被登记在特性信息DB24中,另外,如后述那样,在人物B、C与人物A同乘车辆100的情况下也能被登记在特性信息DB24中。
图1所示的通信终端16是能通过有线或者无线与通信线路18连接的终端装置,例如是个人计算机、智能手机、移动电话等。
[2.车辆100的结构]
车辆100将发动机和电动马达中的至少一方作为驱动源。另外,可以由驾驶员来进行车辆100的驱动、制动、操舵中的全部操作,也可以由车辆***来进行驱动、制动、操舵中的至少1种操作。另外,车辆100可以为个人所有,也可以为汽车租赁、汽车共享等从业者所有。
如图4所示,车辆100具有个人识别装置14、和使用个人识别装置14的识别结果进行各控制的其他ECU72。个人识别装置14具有信息获取部40、通信装置42和个人识别ECU44。
信息获取部40由获取用于识别位于车厢的人物的识别用信息的1个以上的装置构成。在本实施方式的信息获取部40中包括麦克风52、摄像头54、导航装置56和时钟58。麦克风52按每一座椅来设置。麦克风52收集对应的座椅周边的语音且将语音信息输出给个人识别ECU44。摄像头54对车厢进行拍摄且将图像信息输出给个人识别ECU44。导航装置56将车辆100的当前位置的信息(以下称为当前位置信息。)、和位于车厢的人物使用开关等输入的目的地的信息(以下称为目的地信息。)输出给个人识别ECU44。时钟58也可以将最新的日期时间和星期几的信息(以下称为时间信息。)输出给个人识别ECU44。另外,在信息获取部40中也可以包括其他装置。
通信装置42具有通信线路和天线等,通过图1所示的通信线路18与服务器12进行数据通信,另外,通过个人识别装置14内的通信线与个人识别ECU44进行数据通信。
个人识别ECU44是具有运算部62、记录部64、输入输出接口(未图示)等的电子控制单元(ECU)。运算部62具有具备CPU等的处理器,通过处理器执行在记录部64中记录的程序来实现各种功能。在本实施方式中,运算部62作为识别处理部66和通信控制部70来发挥作用。记录部64包括ROM和RAM等记录装置。
其他ECU72进行与位于车厢的人物对应的控制。作为其他ECU72,例如有向位于车厢的人物提供影像、语音等信息的信息提供ECU。信息提供ECU根据个人识别装置14的识别结果,选择符合各人物的信息。所选择的信息经由未图示的显示装置和音响装置提供给位于车厢的人物。
[3.个人识别装置14的动作]
使用图5、图6来说明个人识别装置14的动作。图5、图6所示的处理以任意的时机来进行。例如,在点火开关、起动开关***作的第1时机、车辆100开始行驶的第2时机、从第1时机或第2时机起已经过规定时间后的第3时机等进行。
[3.1.主处理]
使用图5对主处理进行说明。在步骤S1中,通信控制部70通过通信装置42下载在服务器12的个人信息DB22中登记的个人数据26、和在特性信息DB24中登记的特性数据32。个人数据26和特性数据32被记录在记录部64中。
在步骤S2中,信息获取部40获取用于识别位于车厢的人物的信息(包括各种识别用信息)。麦克风52收集对应的座椅的语音,且将该语音信息输出给个人识别ECU44。在语音信息中包含后述的发话称呼信息和受话称呼信息。为了获取足够的语音信息,优选为由麦克风52进行的语音收集进行规定时间以上。摄像头54对车厢进行拍摄,且将图像信息输出给个人识别ECU44。在图像信息中包含表示各人物的动作的动作信息。导航装置56确定当前位置和在该时间点设定的目的地,且将当前位置信息和目的地信息输出给个人识别ECU44。时钟58确定当前的时刻或者时间段(包括日期时间和星期几),且将时间信息输出给个人识别ECU44。
在步骤S3中,识别处理部66根据获取到的各种信息,识认人物的存在并且识别所识认出的各人物。将在步骤S3中进行的识别处理称为第1识别处理。作为一例,在由摄像头54获取到图像信息的情况下,识别处理部66使用图像信息进行公知的图像识认处理,识认人物的存在、即人数与各人物的就座位置。并且,识别处理部66将图像信息与记录部64的生物体信息28所包含的面部图像的信息或者虹膜的信息进行对照,由此识别各人物。作为另一例,在获取到语音信息的情况下,识别处理部66识认为在与能收集到语音的麦克风52对应的座椅上有人物就座。并且,识别处理部66将语音信息与记录部64的生物体信息28所包含的声纹的信息进行对照,由此识别各人物。
在步骤S4中,识别处理部66判定是否有由第1识别处理无法识别出的人物。在有无法识别出的人物的情况下(步骤S4:是),处理进入步骤S5。另一方面,在没有无法识别出的人物的情况下,即识别处理部66能够识别出位于车厢内的所有人物的情况下(步骤S4:否),结束图5所示的一系列处理。
当从步骤S4进入步骤S5时,识别处理部66判定是否有能识别出的人物。在此,将能识别出的人物称为第1人物,将无法识别出的人物称为其他人物。在有能识别出的人物(第1人物)的情况下(步骤S5:是),处理进入步骤S6。另一方面,在没有能识别出的人物的情况下,即在识别处理部66无法识别出位于车厢内的所有人物的情况下(步骤S5:否),结束图5所示的一系列的处理。
当从步骤S5进入步骤S6时,识别处理部66进行图6所示的第2识别处理。当第2识别处理结束时,图5所示的一系列处理结束。另外,当在第2识别处理中更新了特性数据32的情况下,通信控制部70将更新后的特性数据32上传到服务器12。
[3.2.第2识别处理]
使用图6来说明第2识别处理。另外,以下的说明是假想图2所示的人物A、B、C乘坐车辆100,在图5所示的步骤S3中仅识别出人物A的状况。
在步骤S11中,识别处理部66从在记录部64中记录的数据组中检索与在步骤S3中识别出的第1人物的个别信息(ID号码等)建立关联的特性数据32。在此,如图3所示,检索与作为第1人物的人物A建立关联的作为第2人物的人物B或者人物C的特性数据32。另外,针对特性数据32,也可以不在上述的步骤S1中下载而在步骤S11中下载且记录在记录部64中。在该情况下,也可以从特性信息DB24只下载与在上述的步骤S3中识别出的第1人物的个别信息(ID号码等)建立关联的特性数据32。
在步骤S12中,识别处理部66判定在记录部64中是否有与第1人物的个别信息建立关联的特性数据32。在此,判定是否有与人物A的个别信息建立关联的人物B或者人物C的特性数据32。在有特性数据32的情况下(步骤S12:是),处理进入步骤S13。另一方面,在没有特性数据32的情况下(步骤S12:否),处理进入步骤S20。
当从步骤S12进入步骤S13时,识别处理部66判定是否能从语音信息中获取发话称呼信息。发话称呼信息是人物A对人物B、C的称呼。在能获取到发话称呼信息的情况下(步骤S13:是),处理进入步骤S14。另一方面,在无法获取到发话称呼信息的情况下(步骤S13:否),处理进入步骤S16。
当从步骤S13进入步骤S14时,识别处理部66将从语音信息获取到的发话称呼信息与特性数据32的记录发话称呼信息34c进行对照。
在步骤S15中,识别处理部66判定是否有包含与发话称呼信息一致的记录发话称呼信息34c的特性数据32。另外,在本实施方式中所谓的“一致”中,除了包括完全一致之外,还包括规定程度的一致。作为规定程度的一致的例子,能够举出进行称呼的一个发音(一个字符)不同,其元音相同,且辅音的种类也相同(有声***音或无声破裂音)的情况。在有特性数据32的情况下(步骤S15:是),处理进入步骤S18。另一方面,在没有特性数据32的情况下(步骤S15:否),处理进入步骤S16。
当从步骤S15进入步骤S16时,识别处理部66将所获取到的各信息中、发话称呼信息以外的识别用信息与特性数据32的记录发话称呼信息34c以外的特性信息34进行对照。例如,识别处理部66将从语音信息能获取到的受话称呼信息与特性数据32的记录受话称呼信息34d进行对照。受话称呼信息是人物B、C对人物A的称呼。另外,识别处理部66将由时钟58能获取到的时间信息与特性数据32的记录时间信息34a进行对照。另外,识别处理部66将由导航装置56能获取到的当前位置信息或者目的地信息与特性数据32的记录地点信息34b进行对照。另外,识别处理部66将从图像信息能获取到的其他人物的动作信息与特性数据32的记录动作信息34e进行对照。
在步骤S17中,识别处理部66判定是否有包含与识别用信息一致的特性信息34(34a、34b、34d、34e中的至少1个)的特性数据32。在有特性数据32的情况下(步骤S17:是),处理进入步骤S18。另一方面,在没有特性数据32的情况下(步骤S17:否),处理进入步骤S20。
当从步骤S15或者步骤S17进入步骤S18时,识别处理部66将其他人物识别为在特性数据32中登记的第2人物。例如,在第1人物(人物A)对其他人物的称呼为“BB”的情况下、或者在时间和星期是“15时、星期六”的情况下、或者在当前位置或目的地为“X超市”的情况下、或者在其他人物对第1人物(人物A)的称呼为“AA”的情况下、或者在其他人物的动作为“摸头发”的情况下,识别处理部66根据图3所示的特性数据32,将其他人物识别为人物B。
在步骤S19中,识别处理部66在信息获取部40获取到的识别用信息中的一部分与特性数据32所包含的特性信息34不同的情况下,将获取到的不同的识别用信息作为新的特性信息34追加到特性数据32中。例如,假想虽然识别人物B为第2人物,但目的地不是图3所示的超市而是餐饮店的情况。在该情况下,如图7所示,对人物B的记录地点信息34b追加餐饮店。
当从步骤S17进入步骤S20时,识别处理部66将其他人物判定为在记录部64中没有记录的人物。此时,如图8所示,识别处理部66重新制成特性数据32a,且在该特性信息34中登记这次获取到的各识别用信息。此时,第2人物的名称(或者ID号码)、表示第2人物与第1人物的关系的信息不明,因此保持空白,也可以通过输入装置(未图示)使车厢的人物输入。
[4.变形例]
[4.1.第1变形例]
在第1人物是孩子,且没有识别出与第1人物一起存在的其他人物的情况下,也可以联络第1人物即孩子的关联者。例如,假想作为第1人物而识别出图2所示的人物C,且在第1识别处理和第2识别处理中没有识别出其他人物的情况。在该情况下,在图5所示的步骤S3中,识别处理部66根据人物C的个人数据26所包含的出生年月日的信息来计算人物C的年龄,且将其与规定的年龄阈值进行比较,来识别人物C是大人还是孩子。在识别处理部66无法识别出人物C以外的其他人物的情况下(图6的步骤S17:否),通信控制部70为了向作为人物C的关联者(父亲或者母亲)的人物A、B进行告知,而向人物C的个人数据26所包含的通信终端16的联系方式发送告知信息。
[4.2.第2变形例]
例如,假想图2所示的3个人(夫妇和孩子)。人物A将作为妻子的人物B称呼为“BB”,人物B称呼人物A为“AA”。但是,这些称呼在作为孩子的人物C与二人在一起时和没有与二人在一起时有时不同。例如,在没有人物C的情况下彼此以上述那样的称呼相互称呼,在有人物C的情况下彼此可能以其他的称呼(例如“妈妈”、“爸爸”等)来相互称呼。
假想这样的情况,如图9所示,记录发话称呼信息34c也可以包含第1记录发话称呼信息341c和第2记录发话称呼信息342c。在图9所示的例子中,在人物B对人物A的记录发话称呼信息34c中包含第1记录发话称呼信息341c和第2记录发话称呼信息342c。在图9所示的例子的情况下,第1记录发话称呼信息341c作为人物A和人物B两人在一起时人物A对人物B的称呼来进行记录。另外,第2记录发话称呼信息342c作为人物A和人物B同人物C在一起时人物A对人物B的称呼来进行记录。记录发话称呼信息34c也可以包括1个以上的第2记录发话称呼信息342c。例如,除了上述例子之外,还可以包含作为人物A和人物B同人物D在一起时人物A对人物B的称呼来进行记录的第2记录发话称呼信息342c。
另外,如图9所示,记录受话称呼信息34d还可以包含第1记录受话称呼信息341d和第2记录受话称呼信息342d。在图9中所示的例子中,在人物B对人物A的记录受话称呼信息34d中包含第1记录受话称呼信息341d和第2记录受话称呼信息342d。在图9所示的例子的情况下,第1记录受话称呼信息341d作为当人物A和人物B为两人在一起时人物B对人物A的称呼来进行记录。另外,第2记录受话称呼信息342d作为人物A和人物B同人物C在一起时人物B对人物A的称呼来进行记录。记录受话称呼信息34d也可以包含1个以上的第2记录受话称呼信息342d。例如,除了上述例子之外,还可以包含作为人物A和人物B同人物D在一起时人物B对人物A的称呼来进行记录的第2记录受话称呼信息342d。
在该变形例中,在步骤S14中,识别处理部66在识认出除了能识别出的第1人物(人物A)之外无法识别出的一位人物的存在的情况下,判定是否有包含与发话称呼信息一致的第1记录发话称呼信息341c的特性数据32。另外,识别处理部66在识认出除了能识别出的第1人物(人物A)之外无法识别出的两位人物、例如第2人物(人物B)和第3人物(人物C)的存在的情况下,判定是否包含与发话称呼信息一致的第2记录发话称呼信息342c的特性数据32。
在上述处理中,识别处理部66在除了第1人物(人物A)之外还能够识别出第3人物(人物C、人物D)的情况下,也可以使用与第3人物对应的第2记录发话称呼信息342c。
并且,在该变形例中,在步骤S16中,识别处理部66在识认出除了能识别出的第1人物(人物A)之外无法识别出的一位人物的存在的情况下,判定是否有包含与受话称呼信息一致的第1记录受话称呼信息341d的特性数据32。另外,识别处理部66在识认出除了能识别出的第1人物(人物A)之外无法识别出的两位人物、例如第2人物(人物B)和第3人物(人物C)的存在的情况下,判定是否有包含与受话称呼信息一致的第2记录受话称呼信息342d的特性数据32。
在上述处理中,识别处理部66在除了第1人物(人物A)之外还能够识别出第3人物(人物C、人物D)的情况下,也可以使用与第3人物对应的第2记录受话称呼信息342d。
[4.3.其他变形例]
在上述实施方式中,从服务器12的个人信息DB22和特性信息DB24中下载个人数据26和特性数据32。也可以代替于此,在记录部64中预先记录有个人数据26和特性数据32。
在上述实施方式中,在图5所示的步骤S3中,识别处理部66进行所识认出的各人物的第1识别处理。也可以代替于此,在能识别出最初的一个人的时间点,不进行能识别出的人物以外的第1识别处理,而进行图6所示的第2识别处理。
在上述实施方式中,个人识别装置14被设置于车辆100。代替于此,个人识别装置14也可以设置于其他移动体、例如铁道车辆,船、飞机等,识别在移动体内一起存在的人物。另外,也可以为:个人识别装置14设置于个人计算机或移动终端,识别一起存在的人物。
[5.由实施方式能够得到的技术思想]
以下记载了根据上述实施方式和变形例能掌握的技术思想。
本发明是一种个人识别装置14,其在识别出第1人物(人物A)之后识别第1人物以外的其他人物,具有:
记录部64,其预先记录与当第1人物和第2人物(人物B、C)在一起时第1人物和第2人物中的至少一方进行的行动有关的特性信息34;
信息获取部40,其获取用于识别其他人物的识别用信息;和
识别处理部66,其根据识别用信息与特性信息34的一致性,将其他人物识别为第2人物。
根据上述结构,通过识别第1人物,能够将与第1人物在一起的其他人物识别为第2人物。另外,如果能识别出第1人物,则能够通过简易的方法来识别其他人物,因此,减轻识别处理的负荷。
在本发明中,也可以为:
识别处理部66不依赖于特性信息34而识别其他人物,在不依赖于特性信息34无法识别出其他人物的情况下,进行基于识别用信息与特性信息34的一致性的识别。
根据上述结构,即使无法由通常的识别处理(图像识认处理等)识别第1人物以外的其他人物,也能够将该其他人物识别为第2人物。
在本发明中,也可以为:
信息获取部40(时钟58)获取时间信息作为识别用信息,所述时间信息是当前的时刻或者时间段,
特性信息34包括作为第1人物(人物A)与第2人物(人物B、C)一起行动的时刻或者时间段来进行记录的记录时间信息34a,
识别处理部66根据时间信息与记录时间信息34a的一致性,将其他人物识别为第2人物。
在本发明中,也可以为:
信息获取部40(导航装置56)获取目的地信息来作为识别用信息,该目的地信息是第1人物(人物A)当前的移动的目的地,
特性信息34包括作为第1人物与第2人物(人物B、C)一起行动的地点来进行记录的记录地点信息34b,
识别处理部66根据目的地信息与记录地点信息34b的一致性,将其他人物识别为第2人物。
在本发明中,也可以为:
信息获取部40(导航装置56)获取当前位置信息来作为识别用信息,该当前位置信息是第1人物(人物A)的当前位置,
特性信息34包括作为第1人物与第2人物(人物B、C)一起行动的地点来进行记录的记录地点信息34b,
识别处理部66根据当前位置信息与记录地点信息34b的一致性,将其他人物识别为第2人物。
在本发明中,也可以为:
信息获取部40(麦克风52)获取第1人物(人物A)对第1人物的说话对象的称呼即发话称呼信息来作为识别用信息,
特性信息34包括作为第1人物对第2人物(人物B、C)的称呼来进行记录的记录发话称呼信息34c,
识别处理部66根据发话称呼信息与记录发话称呼信息34c的一致性,将其他人物识别为第2人物。
根据上述结构,根据在第1人物与其他人物的关系中作为特有的信息的发话称呼信息将其他人物识别为第2人物,因此,识别的精度进一步提高。
在本发明中,也可以为:
特性信息34包括第1记录发话称呼信息341c和第2记录发话称呼信息342c来作为记录发话称呼信息34c,其中,所述第1记录发话称呼信息341c是作为当第1人物(人物A)和第2人物(人物B)两人在一起时第1人物对第2人物的称呼而进行记录的称呼信息;所述第2记录发话称呼信息342c是作为当第1人物和第2人物同第3人物(人物C)在一起时第1人物对第2人物的称呼来进行记录的称呼信息,
识别处理部66在第1人物和第2人物同第3人物在一起的情况下,根据发话称呼信息与第2记录发话称呼信息342c的一致性,将其他人物识别为第2人物。
根据上述结构,能够更准确地识别第2人物,据此识别的精度进一步提高。
根据本发明,也可以为:
信息获取部40(麦克风52)获取第1人物的说话对象对第1人物(人物A)的称呼即受话称呼信息来作为识别用信息,
特性信息34包括作为第2人物(人物B、C)对第1人物的称呼来进行记录的记录受话称呼信息34d,
识别处理部66根据受话称呼信息与记录受话称呼信息34d的一致性,将其他人物识别为第2人物。
根据上述结构,根据作为在第1人物与其他人物的关系中特有的信息的受话称呼信息将其他人物识别为第2人物,因此,识别的精度进一步提高。
在本发明中,也可以为:
特性信息34包括第1记录受话称呼信息341d和第2记录受话称呼信息342d来作为记录受话称呼信息34d,其中,所述第1记录受话称呼信息341d是作为当第1人物(人物A)与第2人物(人物B)两人在一起时第1人物对第2人物的称呼来进行记录的称呼信息;所述第2记录受话称呼信息342d是作为当第1人物与第2人物同第3人物(人物C)在一起时第2人物对第1人物的称呼来进行记录的称呼信息,
识别处理部66在第1人物和第2人物同第3人物在一起的情况下,根据受话称呼信息与第2记录受话称呼信息342d的一致性,将其他人物识别为第2人物。
根据上述结构,能够更准确地识别第2人物,由此识别的精度进一步提高。
在本发明中,也可以为:
信息获取部40(摄像头54)获取表示其他人物的动作的动作信息来作为识别用信息,
特性信息包括作为与第1人物(人物A)一起行动时的第2人物(人物B、C)的动作来进行记录的记录动作信息34e,
识别处理部66根据动作信息与记录动作信息34e的一致性,将其他人物识别为第2人物。
根据上述结构,根据作为表示其他人物的特征的信息的动作信息将其他人物识别为第2人物,因此,识别的精度进一步提高。
在本发明中,也可以为:
信息获取部40能够获取第1人物(人物A)对第1人物的说话对象的称呼即发话称呼信息来作为识别用信息,
识别处理部66在通过信息获取部40无法获取发话称呼信息的情况下,根据信息获取部40获取到的发话称呼信息以外的识别用信息,将其他人物识别为第2人物(人物B、C)(图6的步骤S13:否,步骤S16,步骤S17:是,步骤S18)。
根据上述结构,即使无法获取为了识别其他人物而有效的发话称呼信息,也根据其他识别用信息将其他人物识别为第2人物,因此,能够提高识别的可能性。
在本发明中,也可以为:
信息获取部40能够获取第1人物(人物A)对第1人物的说话对象的称呼即发话称呼信息来作为识别用信息,
特性信息34包括作为第1人物对第2人物(人物B、C)的称呼来进行记录的记录发话称呼信息34c,
识别处理部66在发话称呼信息与记录发话称呼信息34c一致的情况下,不依赖于发话称呼信息以外的识别用信息与记录发话称呼信息34c以外的特性信息34的一致性,而将其他人物识别为第2人物(图6的步骤S15:是,步骤S18)。
根据上述结构,优先使用为了识别其他人物而有效的发话称呼信息,因此,识别的可靠度提高。
在本发明中,也可以为:
识别处理部66在发话称呼信息与记录发话称呼信息34c一致的情况下,将由信息获取部40获取到的发话称呼信息以外的识别用信息作为记录发话称呼信息34c以外的特性信息34记录在记录部64中(图6的步骤S19)。
根据上述结构,随时记录特性信息34,因此,下一次进行识别的精度和可靠度提高。
在本发明中,也可以为:
识别处理部66在特性信息34和识别用信息不一致的情况下,判定为其他人物是没有记录在记录部64中的人物。
在本发明中,也可以为:
信息获取部40获取以下信息中的至少一种信息来作为识别用信息:时间信息,该时间信息是当前的时刻或者时间段;目的地信息,该目的地信息是第1人物(人物A)当前移动的目的地;当前位置信息,该当前位置信息是第1人物的当前位置;发话称呼信息,该发话称呼信息是第1人物对第1人物的说话对象的称呼;受话称呼信息,该受话称呼信息是第1人物的说话对象对第1人物的称呼,
识别处理部66将信息获取部40获取到的识别用信息重新记录在记录部64中(图6的步骤S20)。
根据上述结构,随时记录特性信息34,因此,下一次进行的识别的精度和可靠度提高。
在本发明中,也可以为:
还具有通信控制部70,该通信控制部70在第1人物(人物C)是孩子的情况下向外部的特定的通信终端16进行告知。
根据上述结构,在孩子与父亲(或者母亲)等关联者以外的人物在一起的情况下,能够向孩子的关联者进行告知,能够给孩子的关联者带来安心感。
另外,本发明是一种个人识别方法,其在识别出第1人物(人物A)之后识别第1人物以外的其他人物,
在记录部64中预先记录与当第1人物和第2人物(人物B、C)在一起时第1人物和第2人物中的至少一方进行的行动有关的特性信息34,
通过信息获取部40获取用于识别其他人物的识别用信息,
通过识别处理部66根据识别用信息与特性信息34的一致性,将其他人物识别为第2人物。
另外,本发明所涉及的个人识别装置和个人识别方法并不限定于上述的实施方式,当然能够在没有脱离本发明的要旨的范围内采用各种结构。

Claims (15)

1.一种个人识别装置(14),其在识别出第1人物之后识别所述第1人物以外的其他人物,其特征在于,具有:
记录部(64),其将所述第1人物的识别信息和所述第1人物的生物体信息建立关联来记录,另外,将所述第1人物的识别信息、第2人物的识别信息、和当所述第1人物和所述第2人物在一起时所述第1人物和所述第2人物中的至少一方进行的行动有关的特性信息(34)彼此建立关联来记录;
信息获取部(40),其获取所述第1人物的所述生物体信息和所述其他人物的并不是所述生物体信息的识别用信息;和
识别处理部(66),其根据由所述信息获取部获取到的所述第1人物的所述生物体信息来识别所述第1人物,从所述记录部检索与所述第1人物建立关联的所述特性信息,根据由所述信息获取部获取到的所述识别用信息与从所述记录部检索到的所述特性信息的一致性,将所述其他人物识别为所述第2人物,
所述信息获取部至少获取目的地信息或者当前位置信息来作为所述识别用信息,所述目的地信息是所述第1人物当前移动的目的地,所述当前位置信息是所述第1人物的当前位置,
所述特性信息至少包括作为所述第1人物与所述第2人物一起行动的地点来进行记录的记录地点信息,
所述识别处理部至少根据所述目的地信息与所述记录地点信息的一致性或者所述当前位置信息与所述记录地点信息的一致性,将所述其他人物识别为所述第2人物。
2.根据权利要求1所述的个人识别装置,其特征在于,
所述信息获取部还获取所述其他人物的所述生物体信息,
所述识别处理部进行根据所述其他人物的所述生物体信息来识别所述其他人物的第1识别处理,
在通过所述第1识别处理无法识别出所述其他人物的情况下,所述识别处理部进行基于所述信息获取部获取到的所述识别用信息与从所述记录部检索到的所述特性信息的一致性来识别所述其他人物的第2识别处理。
3.根据权利要求1所述的个人识别装置,其特征在于,
所述信息获取部获取时间信息作为所述识别用信息,所述时间信息是当前的时刻或者时间段,
所述特性信息包括作为所述第1人物与所述第2人物一起行动的时刻或者时间段来进行记录的记录时间信息(34a),
所述识别处理部根据所述时间信息与所述记录时间信息的一致性,将所述其他人物识别为所述第2人物。
4.根据权利要求1所述的个人识别装置,其特征在于,
所述信息获取部获取所述第1人物对所述第1人物的说话对象的称呼即发话称呼信息来作为所述识别用信息,
所述特性信息包括作为所述第1人物对所述第2人物的称呼来进行记录的记录发话称呼信息(34c),
所述识别处理部根据所述发话称呼信息与所述记录发话称呼信息的一致性,将所述其他人物识别为所述第2人物。
5.根据权利要求4所述的个人识别装置,其特征在于,
所述特性信息包括第1记录发话称呼信息(341c)和第2记录发话称呼信息(342c)来作为所述记录发话称呼信息,其中所述第1记录发话称呼信息(341c)是作为当所述第1人物和所述第2人物两人在一起时所述第1人物对所述第2人物的称呼而进行记录的称呼信息;所述第2记录发话称呼信息(342c)是作为当所述第1人物和所述第2人物同第3人物在一起时所述第1人物对所述第2人物的称呼来进行记录的称呼信息,
所述识别处理部在所述第1人物和所述第2人物同所述第3人物在一起的情况下,根据所述发话称呼信息与所述第2记录发话称呼信息的一致性,将所述其他人物识别为所述第2人物。
6.根据权利要求1所述的个人识别装置,其特征在于,
所述信息获取部获取所述第1人物的说话对象对所述第1人物的称呼即受话称呼信息来作为所述识别用信息,
所述特性信息包括作为所述第2人物对所述第1人物的称呼来进行记录的记录受话称呼信息,
所述识别处理部根据所述受话称呼信息与所述记录受话称呼信息的一致性,将所述其他人物识别为所述第2人物。
7.根据权利要求6所述的个人识别装置,其特征在于,
所述特性信息包括第1记录受话称呼信息(341d)和第2记录受话称呼信息(342d)来作为所述记录受话称呼信息,其中,所述第1记录受话称呼信息(341d)是作为当所述第1人物与所述第2人物两人在一起时所述第1人物对所述第2人物的称呼来进行记录的称呼信息;所述第2记录受话称呼信息(342d)是作为当所述第1人物与所述第2人物同第3人物在一起时所述第2人物对所述第1人物的称呼来进行记录的称呼信息,
所述识别处理部在所述第1人物与所述第2人物同所述第3人物在一起的情况下,根据所述受话称呼信息与所述第2记录受话称呼信息的一致性,将所述其他人物识别为所述第2人物。
8.根据权利要求1所述的个人识别装置,其特征在于,
所述信息获取部获取表示所述其他人物的动作的动作信息来作为所述识别用信息,
所述特性信息包括作为与所述第1人物一起行动时的所述第2人物的动作来进行记录的记录动作信息(34e),
所述识别处理部根据所述动作信息与所述记录动作信息的一致性,将所述其他人物识别为所述第2人物。
9.根据权利要求3所述的个人识别装置,其特征在于,
所述信息获取部能够获取所述第1人物对所述第1人物的说话对象的称呼即发话称呼信息来作为所述识别用信息,
所述识别处理部在通过所述信息获取部无法获取所述发话称呼信息的情况下,根据所述信息获取部获取到的所述发话称呼信息以外的所述识别用信息,将所述其他人物识别为所述第2人物。
10.根据权利要求3所述的个人识别装置,其特征在于,
所述信息获取部能够获取所述第1人物对所述第1人物的说话对象的称呼即发话称呼信息来作为所述识别用信息,
所述特性信息包括作为所述第1人物对所述第2人物的称呼来进行记录的记录发话称呼信息,
所述识别处理部在所述发话称呼信息与所述记录发话称呼信息一致的情况下,不依赖于所述发话称呼信息以外的所述识别用信息与所述记录发话称呼信息以外的所述特性信息的一致性,而将所述其他人物识别为所述第2人物。
11.根据权利要求10所述的个人识别装置,其特征在于,
所述识别处理部在所述发话称呼信息与所述记录发话称呼信息一致的情况下,将由所述信息获取部获取到的所述发话称呼信息以外的所述识别用信息作为所述记录发话称呼信息以外的所述特性信息记录在所述记录部中。
12.根据权利要求1所述的个人识别装置,其特征在于,
所述识别处理部在所述特性信息和所述识别用信息不一致的情况下,判定为所述其他人物是没有被记录在所述记录部中的人物。
13.根据权利要求12所述的个人识别装置,其特征在于,
所述信息获取部获取以下信息中的至少一种信息来作为所述识别用信息:时间信息,所述时间信息是当前的时刻或者时间段;发话称呼信息,所述发话称呼信息是所述第1人物对所述第1人物的说话对象的称呼;受话称呼信息,所述受话称呼信息是所述第1人物的说话对象对所述第1人物的称呼,
所述识别处理部将所述信息获取部获取到的所述识别用信息重新记录在所述记录部中。
14.根据权利要求12所述的个人识别装置,其特征在于,
还具有通信控制部,该通信控制部在所述第1人物是孩子的情况下向外部的特定的通信终端(16)进行告知。
15.一种个人识别方法,其在识别出第1人物之后识别所述第1人物以外的其他人物,其特征在于,
在记录部中将所述第1人物的识别信息和所述第1人物的生物体信息建立关联来记录,另外,将所述第1人物的识别信息、第2人物的识别信息、和当所述第1人物和所述第2人物在一起时所述第1人物和所述第2人物中的至少一方进行的行动有关的特性信息彼此建立关联来记录,
通过信息获取部获取所述第1人物的所述生物体信息和所述其他人物的并不是所述生物体信息的识别用信息,
通过识别处理部,根据由所述信息获取部获取到的所述第1人物的所述生物体信息来识别所述第1人物,从所述记录部检索与所述第1人物建立关联的所述特性信息,根据由所述信息获取部获取到的所述识别用信息与从所述记录部检索到的所述特性信息的一致性,将所述其他人物识别为所述第2人物,
所述信息获取部至少获取目的地信息或者当前位置信息来作为所述识别用信息,所述目的地信息是所述第1人物当前移动的目的地,所述当前位置信息是所述第1人物的当前位置,
所述特性信息至少包括作为所述第1人物与所述第2人物一起行动的地点来进行记录的记录地点信息,
所述识别处理部至少根据所述目的地信息与所述记录地点信息的一致性或者所述当前位置信息与所述记录地点信息的一致性,将所述其他人物识别为所述第2人物。
CN201910734941.0A 2018-08-10 2019-08-09 个人识别装置和个人识别方法 Active CN110826388B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018150964A JP7027280B2 (ja) 2018-08-10 2018-08-10 個人識別装置および個人識別方法
JP2018-150964 2018-08-10

Publications (2)

Publication Number Publication Date
CN110826388A CN110826388A (zh) 2020-02-21
CN110826388B true CN110826388B (zh) 2023-11-28

Family

ID=69405985

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910734941.0A Active CN110826388B (zh) 2018-08-10 2019-08-09 个人识别装置和个人识别方法

Country Status (3)

Country Link
US (1) US11537692B2 (zh)
JP (1) JP7027280B2 (zh)
CN (1) CN110826388B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11861521B2 (en) 2021-12-21 2024-01-02 PolyAI Limited System and method for identification and verification

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2827639A1 (en) * 2011-02-18 2012-08-23 Google Inc. Facial recognition
CN107220532A (zh) * 2017-04-08 2017-09-29 网易(杭州)网络有限公司 用于通过声音识别用户身份的方法及设备
CN108242237A (zh) * 2016-12-26 2018-07-03 现代自动车株式会社 语音处理设备、具有该设备的车辆以及语音处理方法

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4292798B2 (ja) * 2002-12-27 2009-07-08 トヨタ自動車株式会社 情報通信端末及び情報提供方法
JP2008032569A (ja) * 2006-07-28 2008-02-14 Softbank Bb Corp 周辺情報表示装置および周辺情報表示システム
JP2008059509A (ja) 2006-09-04 2008-03-13 Matsushita Electric Ind Co Ltd 個人識別装置及び個人識別方法
JP2009265986A (ja) * 2008-04-25 2009-11-12 Denso Corp 車載器用表示情報制限装置及び車載用電子装置
US20090289780A1 (en) * 2008-05-21 2009-11-26 Danette Sue Tenorio-Fox SenCora print system
US8831276B2 (en) * 2009-01-13 2014-09-09 Yahoo! Inc. Media object metadata engine configured to determine relationships between persons
JP2010190745A (ja) * 2009-02-18 2010-09-02 Equos Research Co Ltd ナビゲーションシステム及びナビゲーション装置
JP2010217318A (ja) * 2009-03-13 2010-09-30 Equos Research Co Ltd 同乗者検索装置および同乗者検索プログラム
US8803888B2 (en) * 2010-06-02 2014-08-12 Microsoft Corporation Recognition system for sharing information
CN103503000B (zh) * 2011-02-18 2017-09-12 谷歌公司 面部识别
US20130030645A1 (en) * 2011-07-28 2013-01-31 Panasonic Corporation Auto-control of vehicle infotainment system based on extracted characteristics of car occupants
JP2015505284A (ja) * 2011-12-29 2015-02-19 インテル コーポレイション 車両の乗員を識別するシステム、方法、及び装置
EP2836410B1 (en) * 2012-03-05 2019-04-24 Intel Corporation User identification and personalized vehicle settings management system
US20170247000A1 (en) * 2012-03-14 2017-08-31 Autoconnect Holdings Llc User interface and virtual personality presentation based on user profile
US9272689B2 (en) * 2013-04-06 2016-03-01 Honda Motor Co., Ltd. System and method for biometric identification in a vehicle
US9911421B2 (en) * 2013-06-10 2018-03-06 Panasonic Intellectual Property Corporation Of America Speaker identification method, speaker identification apparatus, and information management method
US10723267B2 (en) * 2014-09-19 2020-07-28 Be Topnotch, Llc Display rear passenger view on a display screen in vehicle
WO2016132251A1 (en) * 2015-02-16 2016-08-25 Coolbox S.R.L. Device and method for monitoring a vehicle, particularly for the management of loss events
JP2017045252A (ja) * 2015-08-26 2017-03-02 パイオニア株式会社 情報処理装置、情報処理方法、情報処理プログラム及び記録媒体
JP6804865B2 (ja) * 2016-04-21 2020-12-23 クラリオン株式会社 情報提供システム、情報提供装置および情報提供方法
JP2018017542A (ja) * 2016-07-26 2018-02-01 アイシン・エィ・ダブリュ株式会社 地点案内システム、地点案内端末および地点案内プログラム
DE102017202834B4 (de) * 2017-02-22 2019-05-16 Audi Ag Verfahren zum Betreiben eines Kraftfahrzeugs in einem aktivierten zumindest teilautonomen Fahrmodus
EP3720739A4 (en) * 2017-12-04 2021-11-17 Guardian Optical Technologies Ltd. SYSTEMS AND METHODS FOR ADJUSTING VEHICLE SUBSYSTEMS BASED ON THE MONITORING OF ONE OR MORE VEHICLE OCCUPANTS
US20190259044A1 (en) * 2018-02-20 2019-08-22 Honda Motor Co., Ltd. System for determining vehicle use statistics and method thereof
EP3561719A1 (en) * 2018-04-25 2019-10-30 Ningbo Geely Automobile Research & Development Co., Ltd. Vehicle occupant management system and method
US20210006933A1 (en) * 2019-07-03 2021-01-07 R. Thomas Dean Security model using integrated technology

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2827639A1 (en) * 2011-02-18 2012-08-23 Google Inc. Facial recognition
CN108242237A (zh) * 2016-12-26 2018-07-03 现代自动车株式会社 语音处理设备、具有该设备的车辆以及语音处理方法
CN107220532A (zh) * 2017-04-08 2017-09-29 网易(杭州)网络有限公司 用于通过声音识别用户身份的方法及设备

Also Published As

Publication number Publication date
US20200050742A1 (en) 2020-02-13
US11537692B2 (en) 2022-12-27
JP2020027379A (ja) 2020-02-20
CN110826388A (zh) 2020-02-21
JP7027280B2 (ja) 2022-03-01

Similar Documents

Publication Publication Date Title
JP7091807B2 (ja) 情報提供システムおよび情報提供方法
US10853629B2 (en) Method for identifying a user entering an autonomous vehicle
JP5158174B2 (ja) 音声認識装置
CN106209138B (zh) 一种车辆谨慎紧急响应***及方法
CN109302486B (zh) 一种根据车内环境推送音乐的方法和***
CN110834590A (zh) 汽车门开欢迎语***及其控制方法
US11380325B2 (en) Agent device, system, control method of agent device, and storage medium
CN110808053A (zh) 一种驾驶员身份验证方法、装置及电子设备
CN110480656B (zh) 一种陪护机器人、陪护机器人控制方法及装置
CN109285102B (zh) 打车方法和装置、电子设备
CN109102801A (zh) 语音识别方法和语音识别装置
JP2019182244A (ja) 音声認識装置及び音声認識方法
CN111801667B (zh) 车辆用操作辅助装置和车辆用操作辅助方法
JP2010217318A (ja) 同乗者検索装置および同乗者検索プログラム
CN110826388B (zh) 个人识别装置和个人识别方法
CN116704801A (zh) 车载装置、信息处理方法以及非暂时性存储介质
CN111667824A (zh) 智能体装置、智能体装置的控制方法及存储介质
US11709065B2 (en) Information providing device, information providing method, and storage medium
CN111444377A (zh) 一种声纹识别的认证方法和装置以及设备
CN115798470A (zh) 车辆智能语音交互方法、装置、设备及存储介质
JP2010190744A (ja) ナビゲーションシステム及びナビゲーション装置
JP2016095705A (ja) 不明事項解消処理システム
CN114690896A (zh) 信息处理装置、信息处理方法及存储介质
JP2022065915A (ja) 判別システム、判別方法、及びコンピュータプログラム
JP7159987B2 (ja) 情報決定装置および情報決定方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant