CN108665891B - 声音检测装置、声音检测方法以及记录介质 - Google Patents

声音检测装置、声音检测方法以及记录介质 Download PDF

Info

Publication number
CN108665891B
CN108665891B CN201810198308.XA CN201810198308A CN108665891B CN 108665891 B CN108665891 B CN 108665891B CN 201810198308 A CN201810198308 A CN 201810198308A CN 108665891 B CN108665891 B CN 108665891B
Authority
CN
China
Prior art keywords
sound
generation source
unit
robot
sound generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810198308.XA
Other languages
English (en)
Other versions
CN108665891A (zh
Inventor
岛田敬辅
中込浩一
山谷崇史
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Publication of CN108665891A publication Critical patent/CN108665891A/zh
Application granted granted Critical
Publication of CN108665891B publication Critical patent/CN108665891B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L2025/783Detection of presence or absence of voice signals based on threshold decision

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)
  • Studio Devices (AREA)
  • Toys (AREA)
  • Computer Vision & Pattern Recognition (AREA)

Abstract

本发明提供一种声音检测装置、声音检测方法以及记录介质,使机器人判别是从实际的人直接发出的声音还是从电子设备的扬声器输出的声音。机器人(100)的控制部(127)通过麦克风(112)来检测声音,判别所检测到的声音产生源是否为特定的声音产生源,基于判别结果,通过颈关节(121)、行走部(126)来控制本机。

Description

声音检测装置、声音检测方法以及记录介质
本申请主张以在2017年3月28日申请的日本专利申请特愿2017-062756为基础的优先权,并将该基础申请的内容全部援引至本申请。
技术领域
本发明涉及声音检测装置、声音检测方法以及记录介质。
背景技术
已知一种机器人,具有模仿人、动物等的样子,并能够与人进行对话等交流。在这样的机器人中,基于本机所搭载的麦克风的输出来检测在机器人的周围产生的声音,若判别为是人的声音,则向人所在的方向改变机器人的面部的朝向或者身体的朝向,进行与这个人攀谈、招手等动作。
在JP特开2003-266351号公报中,记载了如下内容,即,机器人根据向麦克风输入了阈值以上的振幅的声音来检测产生了声音事件,并推定声源方向而转向所推定出的声源方向。
非专利文献1:Andrew J.Davison,“Real-Time Simultaneous Localization andMapping with a Single Camera”,Proceedings of the 9th EEE InternationalConference on Computer Vision Volume 2,2003,PP.1403-1410
非专利文献2:Richard Hartley,Andrew Zisser man,“Multiple View Geometryin Computer Vision”,Second Edition,Cambridge.University Press,March 2004,chapter9
非专利文献3:Csurka,G.,Dance,C.R.,Fan,L.,Willamowski,J.and Bray,C.:Visual categorization with bags of keypoints,ECCV International Workshop onStatistical Learning in Coputer Visin(2004)
但是,JP特开2003-266351号公报所记载的机器人若检测出声音事件则转向,因而可以预料不光是对于实际从人对机器人发出的声音会反应,例如,对于从电视机、收音机等电子设备的扬声器输出的声音也会反应。
本发明鉴于上述情况而作,其目的在于,通过使机器人判别是实际的从人直接发出的声音还是从电子设备的扬声器输出的声音来减少机器人的不必要的动作。
发明内容
为了达成上述目的,本发明所涉及的声音检测装置,具备处理器,所述声音检测装置的特征在于,
所述处理器,
检测声音,
判别所检测到的所述声音的声音产生源是否为特定的声音产生源,
基于所判别出的判别结果来控制本机。
附图说明
若结合以下的附图来考虑下面的详细的记述,则能够得到本申请的更深刻的理解。
图1是本发明的实施方式1所涉及的机器人的外观图。
图2是用于说明机器人的头部的自由度的图。
图3是示出机器人的结构的框图。
图4是示出房间内的机器人与用户的位置的一例的图。
图5是地图生成处理的流程图。
图6是呼唤响应处理的流程图。
图7是声源定位的处理的流程图。
图8是用于说明假设声源的位置的图。
图9是本机位置推定的处理的流程图。
图10是示出实施方式2所涉及的机器人的存储部的结构的框图。
图11是呼唤移动处理的流程图。
图12是面部位置推定的处理的流程图。
具体实施方式
(实施方式1)
以下,参照附图对本发明的实施方式1进行说明。图1是示意性地示出从正面观察实施方式1所涉及的机器人100的情况下的外观的图。机器人100是具备头部110和躯体120的人型的交流机器人。机器人100设置在住宅内,若被居住者呼唤,则与进行了呼唤的居住者进行对话。
如图1所示,在机器人100的头部110,设置有摄像机111、麦克风112和扬声器113。
摄像机111(摄像单元)设置在头部110的前面的下侧、以人的面部来说的鼻子的位置。摄像机111在后述的控制部127的控制下,进行摄像。
麦克风112包含13个麦克风。13个麦克风中的8个麦克风在以人的面部来说的额头的高度的位置,环绕头部110的一周而等间隔地配置。在比这8个麦克风更靠上侧,4个麦克风环绕头部110的一周而等间隔地配置。而且,1个麦克风配置在头部110的头顶部。麦克风112检测在机器人100的周围产生的声音。麦克风112与后述的控制部127协作,发挥作为声音检测单元的作用。
扬声器113设置在比摄像机111更靠下侧、相当于以人的面部来说的口部的位置。扬声器113在后述的控制部127的控制下,输出各种声音。
颈关节121是连结头部110与躯体120的构件。头部110通过由虚线所示的颈关节121,与躯体120连结。颈关节121包含多个电动机。若后述的控制部127驱动这多个电动机,则机器人100的头部110旋转。在图2中示出示意性地表示机器人100的头部110的旋转的自由度的图。通过颈关节121,机器人100的头部110能够相对于躯体120围绕俯仰轴Xm旋转,围绕横滚轴Zm旋转,围绕偏航轴Ym旋转。颈关节121和后述的行走部126一起与后述的控制部127协作,控制机器人100的各部位的动作,由此发挥作为改变本机的位置、姿势中的至少一方的控制单元的作用。
参照图3。除了上述结构之外,机器人100还具备:操作按钮122、传感器组123、电源部124、存储部125、行走部126和控制部127。
操作按钮122设置在躯体120的背部(图1中未图示)。操作按钮122是用于操作机器人100的各种按钮,包含电源按钮、扬声器113的音量调节按钮等。
如图1所示,传感器组123设置在以人的面部来说的眼部的位置和耳部的位置。传感器组123包含距离传感器、加速度传感器、障碍物探测传感器等,用于机器人100的姿势控制、安全性的确保。
参照图3。电源部124是内置于躯体120的充电电池,向机器人100的各部供给电力。
存储部125包含硬盘驱动器、闪存等,设置在躯体120的内部。存储部125存储由后述的控制部127执行的程序、包含摄像机111进行摄像而得到的图像数据等在内的各种数据。在存储部125存储的程序中,包含后述的呼唤响应处理所涉及的呼唤响应程序1251、地图生成处理所涉及的地图生成程序1252。进而,在存储部125中,还包含用后述的SLAM(Simultaneous Localization And Mapping,同步定位与地图构建)法生成的房间的地图即SLAM地图1253、保存摄像图像的特征点等的帧数据库1254、定义了后述的标记(1abeling)的声音产生概率的声音产生概率数据库1255。
行走部126包含设置在躯体120的下侧的四个车轮(wheel)。如图1所示,四个车轮中的两个配置在躯体120的前侧,剩余两个配置在后侧(未图示)。作为车轮,例如,使用全向轮、麦克纳姆轮(Mecanum wheel)。若后述的控制部127使行走部126的车轮旋转,则机器人100移动。行走部126和前述的颈关节121一起,与后述的控制部127协作,来控制机器人100的各部位的动作,由此发挥作为改变本机的位置、姿势中的至少一方的控制单元的作用。
进而,在行走部126的车轮设置有旋转编码器。利用旋转编码器来测量车轮的转数,通过利用车轮的直径、车轮间的距离等几何学关系从而能够计算平移移动量以及旋转量。
参照图3。控制部127由处理器(processor)、RAM(Random Access Memory,随机存取存储器)等构成。控制部127与上述的机器人100的各部连接,并通过将RAM作为工作空间,来执行存储在存储部125中的程序,从而控制机器人100的各部。
在本实施方式中,控制部127发挥控制单元的作用,该控制单元为了控制机器人100的各部位的动作,通过对前述的颈关节121、行走部126进行控制,由此改变本机的位置、姿势中的至少一方。
进而,控制部127能够根据设置于行走部126的车轮的旋转编码器的转数,测量本机的位置(以移动开始时的位置为基准的本机的位置)。例如,若设车轮的直径为D,转数为R(由行走部126的旋转编码器测定),则该车轮的接地部分处的平移移动量成为π·D·R。此外,若设车轮的直径为D,车轮间的距离为I,右车轮的转数为RR,左车轮的转数为RL,则朝向变更的旋转量(以顺时针旋转为正)成为360°×D×(RL-RR)/(2×I)。通过将该平移移动量、旋转量逐一进行相加,从而能够测量本机位置(以移动开始时的位置以及朝向为基准的位置以及朝向)。这样,控制部127也作为里程计而发挥功能。
如上所述,机器人100若被居住者(用户)呼唤则进行对话,因此若判别被呼唤,则需要执行进行了呼唤的居住者(用户)的面部检测。以下,说明机器人100进行的面部检测的处理。在此,在响应用户的呼唤的一系列处理(呼唤响应处理)当中,说明机器人100进行用户的面部检测的例子。如图4所示,设想在房间RM内有机器人100和用户P,并在机器人100与用户P不正对的情况下,用户P对机器人100呼唤的场景。
在本实施方式中,预先已经生成登记了存在于房间RM内的声源的位置的地图(声音产生源位置信息)。机器人100的控制部127在检测到产生了人的声音时,首先,判别该声音的声源的方向。然后,控制部127基于声源的方向、本机(机器人100)的位置和预先生成的房间RM中的地图,判别在所判别出的声源的方向是否存在人以外的声源,根据存在与否,来判别是转向还是不转向。
说明在呼唤响应处理之前预先生成的实际空间(在此为房间RM)内的地图的生成方法。在控制部127的控制下,机器人100每天在规定的时刻,一边在房间中来回移动一边进行摄像,基于摄像图像来生成房间的地图,并将所生成的地图保存在存储部125中。
为了生成地图而采用SLAM法。SLAM法是用于生成实际空间的地图的方法之一。在该方法中,进行如下处理,即,通过从摄像机拍摄的运动图像的多个帧,追踪同一特征点,从而交替地或同时推定本机的三维位置(摄像机位置)和特征点的三维位置(这些汇集而构成地图的信息)。SLAM法的详细内容在非专利文献1中有记载。
以下,参照图5的流程图对控制部127进行的采用了SLAM法的地图生成处理进行说明。控制部127通过执行存储在存储部125中的地图生成程序1252,从而实现以下的处理。
首先,控制部127取得摄像图像,并提取摄像图像的二维特征点(2D特征点)(步骤S11)。所谓2D特征点,是图像中的边缘部分等图像内的特征部分,能够使用SIFT(Scale-Invariant Feature Transform,尺度不变特征转换)、SURF(Speed-Up Robust Features,快速鲁棒特征)等算法来取得。
具体而言,在步骤S11中,控制部127控制摄像机111来进行摄像。然后,从摄像得到的图像中提取2D特征点。继而,如前所述也作为里程计而发挥功能的控制部127使用行走部126的旋转编码器,来测量本机(机器人100)的当前位置。控制部127将2D特征点和本机的当前位置与摄像图像建立对应地存储到存储部125中。
控制部127判别在地图生成处理开始后摄像得到的图像是否为两张以上(步骤S12)。若判别为小于两张(步骤S12:“否”),则控制部127控制行走部126,使本机移动给定的距离(步骤S19),再次返回至步骤S11。
另一方面,在判别为摄像得到的图像为两张以上的情况下(步骤S12:“是”),控制部127取得两个图像的2D特征点的对应(步骤S13)。两个图像例如是本次摄像得到的图像和最近摄像得到的图像。
判别在步骤S13中取得的两个图像的对应的特征点(对应特征点)的个数是否为阈值以上(步骤S14)。这是因为,若所取得的特征点的个数较少,则无法进行后述的二视图运动恢复结构法(Two-view Structure from Motion法)的计算。
在判别为两个图像的对应的特征点的个数小于阈值的情况下(步骤S14:“否”),控制部127控制行走部126,使本机移动给定的距离(步骤S19),再次返回至步骤S11。
另一方面,在判别为两个图像的对应的特征点的个数为阈值以上的情况下(步骤S14:“是”),控制部127推定两个图像间的姿势(步骤S15)。
具体而言,在步骤S15中,使用二视图运动恢复结构法(Two-viewStructure fromMotion法),从两个图像间对应的2D特征点的二维坐标(2D坐标)、和两个图像各自的拍摄位置(拍摄时的本机的位置)之间的距离,来推定两个图像间的姿势(取得各个图像的位置的差分(平移向量t)以及朝向的差分(旋转矩阵R))。该推定如非专利文献2所记载的那样,通过利用极线约束方程式(epipolar constraint equation)从对应的特征点求取基础矩阵E,并将基础矩阵E分解为平移向量t和旋转矩阵R而得到。
接着,控制部127推定在两个图像之间对应的2D特征点(2D的对应特征点)的三维坐标(3D坐标)(步骤S16)。具体而言,这使用在步骤S15中计算出的表示两个图像间的姿势的值和在两个图像间对应的2D特征点的2D坐标来推定。
控制部127将在步骤S16中推定出的推定值登记到数据库中(步骤S17)。具体而言,控制部127将在步骤S16中求出的“2D的对应特征点的3D坐标(X,Y,Z)”和“2D特征点的特征量”(例如由SIFT等得到的特征量)登记到存储部125的SLAM地图1253中。
此外,控制部127作为图像的信息而将“SLAM地图内的图像的姿势”(对该图像进行摄像时的本机在SLAM坐标内的位置(平移向量t)以及朝向(旋转矩阵R))、“提取出的全部2D特征点”、“全部2D特征点中3D位置(3D坐标)已知的点”和“关键帧自身的特征”登记到存储部125的帧数据库1254中。
在此,所谓关键帧,是指成为处理的对象的摄像图像。所谓关键帧自身的特征,是指用于使求取关键帧间的图像类似度的处理效率化的数据,既可以使用图像中的2D特征点的直方图等,也可以将图像自身设为“关键帧自身的特征”。
控制部127判定处理是否结束(步骤S18)。控制部127若判别为处理结束(步骤S18:“是”),则结束地图生成处理。另一方面,若判别为处理未结束(步骤S18:“否”),则控制行走部126,使本机移动给定的距离(步骤S19),再次返回至步骤S11。以上为地图生成处理。
进而,也可以在如上所述生成的SLAM地图1253中,附加随机变量作为表示在房间RM内的各个位置处存在障碍物的概率的障碍物信息。关于障碍物信息的随机变量的值,该值越高,则表示在该位置处存在障碍物的可能性越高。障碍物信息的随机变量,例如,能够在SLAM地图1253的生成处理中的数据库登记(图5的步骤S17)的定时,附加到SLAM地图1253。
进而,在本实施方式中,机器人100使用对如上所述生成的SLAM地图1253附加了人以外的声音产生源信息的数据,来判别所检测到的声音是否为人。
人以外的声音产生源信息,例如,能够在SLAM地图1253的生成处理中的数据库登记(图5的步骤S17)的定时,附加到SLAM地图1253。
声音产生源的确定例如通过以下这样的方法来进行。可以使用针对在SLAM地图1253生成时机器人100在房间RM内来回移动并进行摄像而得到的图像,进行一般图像识别(以一般的名称对图像中包含的物体进行识别的处理),来标记是否为声音产生源的方法。针对在图像内标记为声音产生源的区域存在的2D特征点所对应的地图内的地点,登记第一值(比第二值大的值)。此外,在除此以外的2D特征点所对应的地点,登记第二值(比第一值小的值)。具体而言,在机器人100通过的地点,登记第二值,在机器人100通过时由接触传感器、距离传感器等判别为接触到障碍物的地点,登记第一值。
在上述的例子中,说明了将随机变量设为2值。或者,也可以将一般图像识别结果的似然度与标记的声音产生概率相乘的值设为随机变量。
关于标记的声音产生概率,在此,设为表示房间RM内的各个位置处的声音产生源的概率的信息(随机变量)预先登记在存储部125的声音产生概率数据库1255中。关于随机变量的值,值越高,则表示在该位置处存在人以外的声音产生源的可能性越高。
作为登记在声音产生概率数据库1255中的标记的声音产生概率,例如,登记有换气扇:0.8、门:0.5、赏叶植物:0这样的值。换气扇在工作时发出相应的声音,门根据开关的人在发出的声音的大小上有差异,对于仅是放置的赏叶植物则不产生声音,基于这样的观点来规定这样的值。
此外,标记的声音产生概率也可以按照时刻、季节、气温等,规定多个值。在与季节相应的标记的情况下,例如,设为夏:0.8、冬:0。这是因为,若是夏季,则大多情况会打开窗户,因此有时即使在室内也能够听到在室外产生的声音,而若是冬季的紧闭窗户的状态,则几乎听不到室外的声音。
此外,使用一般图像识别结果的似然度基于如下这样的理由。在使用一般图像识别的情况下,并非对于任意的图像识别的精度都较高。通过使用一般图像识别结果的似然度,从而能够减小一般图像识别误识别的情况下的影响。
此外,也可以不利用一般图像识别而使用其他方法。存在非专利文献3中记载的Bag-of-features这样的方法。该方法是求取图像中的物体属于哪个类别的图像分类问题的方法。
或者,也可以不利用一般图像识别,而将表示用户指定的声音产生源的区域、成为声音产生源的物体的信息追加于所生成的SLAM地图1253。在该情况下,例如,机器人100也可以具备触摸面板、显示器等显示装置和触摸面板、键盘等输入装置,对用户提示所生成的SLAM地图1253,使用户输入声音产生源。
或者,机器人100也可以在生成了SLAM地图1253之后,在房间RM内来回移动,指着位于房间RM内的物体,向用户询问该物体是否为声音产生源等。能够将基于用户的回答的声音产生源的信息追加到SLAM地图1253。
或者,也可以在生成了SLAM地图1253之后,对房间RM内的物体进行摄像,并将摄像图像显示于显示装置,向用户询问该物体是否为声音产生源等。在该情况下,也能够将基于用户的回答的声音产生源的信息追加到SLAM地图1253。
接着,说明在检测到声音的情况下,使用地图来判别所检测到的声音的声源是否为人,并根据判别结果进行响应的呼唤响应处理。假定在呼唤响应处理开始之前,已经执行了上述的地图生成处理,在SLAM地图1253、帧数据库1254、声音产生概率数据库1255中,已经登记适当的信息。
控制部127通过执行存储部125的呼唤响应程序1251,从而进行以下的呼唤响应处理,作为判别所检测到的声音产生源是否为特定的声音产生源(在此为人)的判别单元而发挥功能。
参照图6的流程图对呼唤响应处理进行说明。控制部127判别在机器人100的周边是否检测到某种程度的大小的声音(步骤S101)。具体而言,控制部127判别是否对一个以上的麦克风112输入了给定的阈值以上的振幅的声音。另外,所谓给定的大小,取决于麦克风112的灵敏度。
在通过麦克风112不能检测到给定的大小的声音的情况下(步骤S101:“否”),控制部127进行等待直到检测到声音为止。
另一方面,在判别为检测到某种程度的大小的声音的情况下(步骤S101:“是”),控制部127判别通过麦克风112而检测到的声音是否为人的声音(步骤S102)。具体而言,控制部127判别在步骤S101中检测到的声音是否为特定的频带的声音。在步骤S101中检测到的声音不是人的声音的情况下(步骤S102:“否”),控制部127返回至步骤S101,进行等待直到检测到声音为止。
另一方面,若判别为是人的声音(步骤S102:“是”),则控制部127为了求取声源的位置(在此为发出用户P的声音的位置),进行声音定位(步骤S103)。在此,假定为了推定声源的位置而采用作为声源定位的一个方法的MUSIC(MUltiple Signal Classification,多重信号分类)。另外,假定在声源定位的过程中作为声源的用户P不移动而处于静止。
参照图7来说明声源定位。首先,将输入到麦克风112的声音进行时间频率变换(步骤S10301)。在此,作为时间频率变换,进行STFT(Short-Time Fourier Transform)(短时傅里叶变换)。
若设声源数为N,则第n个声源的信号Sn能够由下述式(1)表示。
Sn(ω,f)(n=1,2,…,N)…(1)
ω为角频率,f为帧编号(在以下的说明中也同样)。
若设麦克风112的数量为M,则由麦克风112观测的信号能够由下述式(2)表示。
Xm(ω,f)(m=1,2,…,M)…(2)
从声源发出的声音在空气中传播并由麦克风112观测,若将此时的传递函数设为Hnm(ω),则通过将表示声源的信号的数学式与传递函数相乘,能够求取由麦克风112观测的信号。由第m个麦克风112观测的信号Xm(ω,f)如下述式(3)那样表示。
【数学式1】
Figure BDA0001592697630000111
机器人100具有多个麦克风112,因此由麦克风112整体观测的信号x(ω,f)能够由下述式(4)表示。
【数学式2】
Figure BDA0001592697630000112
同样地,整个声源的信号s(ω,f)也能够由下述式(5)表示。
【数学式3】
Figure BDA0001592697630000113
同样地,第n个声源的传递函数hn(ω)能够由下述式(6)表示。
【数学式4】
Figure BDA0001592697630000114
如下述式(7)那样表记全部的传递函数。
h(ω)=[h1(ω),h2(ω),…hN(ω)]…(7)
若将由上述的式(7)表示的传递函数应用于上述的式(3),则如下述式(8)那样表示。
x(ω,f)=h(ω)s(ω,f)…(8)
hn(ω)是按照每个声源位置而独立的,若以某种程度的帧数(例如,设帧数为L))来看则Sn(ω,f)可视为是不相关的,x(ω,f)构成以声源数N作为RANK的超平面。此时,分布容易在以距离进行了归一化的音量较大的声源的传递函数方向上扩展。因此,考虑分解为子空间和零空间。
再次参照图7。如下面的式(9)所示计算相关矩阵(步骤S10302)。在此,*意味着复共轭转置。
【数学式5】
Figure BDA0001592697630000121
接着,进行特征值分解(步骤S10303)。在此,特征值λm(ω,f)和本征向量em(ω,f)进行重新排列,使得特征值成为降序。
虽然原理上hn(ω)能够从子空间的本征向量em(ω,f)(m=1~N)的加权求和来恢复,但是实际上难以恢复,因此通过使用构成零空间的本征向量em(ω,f)(m=N+1~M)与hn(ω)正交的情况来实现声源定位。
但是,由于作为声源的用户P有可能在房间RM内移动,因此无法预先知道声源位置,难以预先取得声源位置的传递函数。为此,决定假设声源位置,预先准备假设声源位置的传递函数,进行声源定位。
图8中示出假设声源位置与麦克风的配置的一例。在图8中,粗线的圆表示机器人100的头部110,粗线上的黑圈表示麦克风112。另外,在此,为了方便起见并未显示13个麦克风112的全部。假设在机器人100的周围存在4个假设声源位置。
多个麦克风112配置在机器人100的头部110,因而能够视为沿着圆周配置。将X轴的正向和分别连结麦克风112形成的圆的中心(与机器人100的头部110的中心位置相当)与假设声源1~4的线所成的角度设为θ1、θ2、θ3、θ4,预先计算各个传递函数hθ(ω)。
在图8中,示出了声源为4个的例子,但是在声源数为N个的情况下,只要预先计算θ1、θ2、…θN各自的传递函数hθ(ω)即可。此外,或者,也可以不准备假设声源位置的传递函数而基于几何信息来预先计算传递函数。
再次参照图7。使用下面的式(10),来计算每个频带的MUSIC谱(步骤S10304)。
【数学式6】
Figure BDA0001592697630000131
在此,式(10)的分母由于噪声、误差、STFT的频带间的信号泄漏的影响等而不会成为零。此外,在声源的方向和预先决定的角度θ(θ1、θ2、…θN)中的任意一者接近的情况下,即hn(ω)和hθ(ω)接近的情况下,式(10)的值会成为极端大的值。在图8所示的例子中,由于作为声源的人和假设声源2的位置接近,因此在使用了θ2的传递函数的情况下,可以设想式(10)的值会变得极端大。
然后,为了求取综合的MUSIC的功率(power),如式(11)所示对每个频带的MUSIC谱进行加权求和(步骤S10305)。
【数学式7】
Figure BDA0001592697630000132
只要特征值λm(ω,f)越大时加权系数设得越大,则也能够进行与Sn(ω,f)中包含的功率相应的计算。在该情况下能够减轻Sn(ω,f)几乎没有功率的情况下的不良影响。
接着,从功率谱选择适当的峰值(极大值)(步骤S10306)。具体而言,首先,求取多个峰值,从其中选择适当的峰值,将所选择的峰值处的θ设为声源方向。在此,求取峰值出于以下这样的理由。这是因为,本来的声源方向的θ的功率不一定最大,而接近本来的声源方向的θ的功率通常较大,因而声源方向在多个峰值中的某一者具有正解。
此外,即使在开着电视机、门铃电话响起等在房间RM内具有其他声源的情况下,在大多的情况下,也可以认为人会以比电视机、门铃电话等周围的声音更大的声音对机器人100进行呼唤。因此,可以设想人的声音的功率比从人以外的电视机、门铃电话等声源发出的声音的功率大。因此,即使单纯地选择表示功率最大的假设声源位置的θ作为声源方向,也没有问题。但是,根据周围的环境等,也存在并非将功率最大的假设声源位置而是将功率第二或其后的假设声源位置选择为声源方向更适当的情况。这样,控制部127能够判别声源方向,在此,能够判别从机器人100的位置观察的用户P所在的方向。
声源定位的处理如上。在此,假定平面来进行了说明,但是即使假定三维,上述说明也成立。
再次参照图6。若执行步骤S103的声源定位来判别声源方向,则控制部127作为表示声源方向的信息而将表示声源的方向相对于机器人100正朝向的方向的角度θ存储到存储部125中。接着,控制部127前进至步骤S104,使用拍摄图像和地图(SLAM地图1253、帧数据库1254)来执行本机位置推定的处理。
参照图9来说明本机位置的推定的处理。控制部127提取由摄像机111进行摄像而得到的图像的二维特征点(2D特征点)(步骤S10401)。具体而言,控制部127控制摄像机111进行摄像,从摄像得到的图像中提取2D特征点。
接着,控制部127参照存储部125的帧数据库1254,从帧数据库1254中登记的以前的帧的信息,取得该图像的信息中包含的2D特征点当中的3D位置为已知的2D特征点,从所取得的2D特征点中,提取与在步骤S10401中提取出的2D特征点能取得对应的特征点(步骤S10402)。在此,所谓的3D位置为已知,即是指2D特征点已经登记在SLAM地图中。
控制部127判别在步骤S10402中提取出的能取得对应的特征点的个数是否为阈值以上(步骤S10403)。在判别为小于阈值的情况下(步骤S10403:“否”),控制部127控制行走部126,使本机移动给定的距离(步骤S10406),再次返回至步骤S10401。
另一方面,在判别为在步骤S10402中提取出的对应特征点的个数为阈值以上的情况下(步骤S10403:“是”),控制部127从存储部125的SLAM地图1253中,取得在步骤S10402中提取出的对应特征点各自的3D坐标(Xi,Yi,Zi)(步骤S10404)。
接着,控制部127推定本机的姿势(步骤S10405)。在此,控制部127从对应特征点的SLAM地图上的3D位置和对应特征点的帧坐标(2D坐标)的关系来推定本机的姿势(由平移向量t以及旋转矩阵R表示的本机的位置以及朝向)。
具体而言,将当前摄像得到的图像中包含的对应特征点的帧坐标设为(ui,vi),将其对应特征点的3D坐标设为(Xi,Yi,Zi)(i取从1到对应特征点的数量的值)。在此,将各对应特征点的3D位置(Xi,Yi,Zi)通过下述式(12)而投影到帧坐标系的值(uxi,vxi)与帧坐标(ui,vi)在理想情况下是一致的。
(uxi vxi 1)’~A(R|t)(Xi Yi Zi 1)’…(12)
但是,实际上无论是(Xi,Yi,Zi)还是(ui,vi)都包含误差,因此(uxi,vxi)与(ui,vi)一致的情况很少有。而且,尽管未知数只有R和t(在三维空间时分别成为三维,3+3=6为未知数的个数),但数式存在对应特征点的个数的2倍(针对一个对应特征点,存在针对帧坐标的u、v每一个的式子),因此成为过剩条件的联立线性方程式,如上所述通过最小平方法来求取。
具体而言,控制部127求取使以下的式(13)的成本函数E1最小化的姿势(平移向量t以及旋转矩阵R)。
【数学式8】
Figure BDA0001592697630000151
这样求出的值是表示通过SLAM法而求出的SLAM坐标中的本机的姿势(由平移向量t以及旋转矩阵R表示的本机的位置以及朝向)的值。根据这样计算出的值来推定本机的姿势。以上为本机位置推定的处理。
再次参照图6。若步骤S104的本机位置的推定的处理结束,则控制部127前进至步骤S105,参照SLAM地图1253和声音产生概率数据库1255,取得从在步骤S104中推定出的本机位置,在由步骤S103求出的声源方向上,存在人以外的声音产生源的概率(步骤S105)。在此,也可以求取声源方向的各点的概率的平均,将所求出的平均作为存在人以外的声音产生源的概率。或者,也可以针对声源方向的各点的概率将最大值作为存在人以外的声音产生源的概率。
接着,控制部127判别在步骤S105中求出的存在人以外的声音产生源的概率是否为阈值以上(步骤S106)。在判别为存在人以外的声音产生源的概率为阈值以上的情况下(步骤S106:“是”),控制部127判别为声源方向的声源为人以外,不使颈关节121旋转驱动,并再次返回至步骤S101,等待声音的输入。
另一方面,在判别为存在人以外的声音产生源的概率小于阈值的情况下(步骤S106:“否”),控制部127前进至步骤S107。
接着控制部127为了进行头部110的旋转,使颈关节121旋转驱动(步骤S107)。在此,控制部127使头部110旋转,直到机器人100的头部110的正面(摄像机111的透镜面)朝向声源(用户P)的方向。具体而言,控制部127基于存储在存储部125中的通过声源定位而求出的角度θ,使头部110旋转所求出的角度,然后,停止旋转驱动。这样,使摄像机111的透镜面朝向声源(用户P)所在的方向。
停止旋转驱动之后,控制部127执行面部检测的处理(步骤S108)。首先,控制部127控制摄像机111进行摄像,并通过针对摄像得到的图像实施以下的处理,来执行面部检测处理。
控制部127,首先,生成金字塔图像。所谓金字塔图像,是指将原图像以一定的比率反复缩小而生成的一系列的图像组,通过针对金字塔图像的各层次应用固定尺寸的面部检测器,从而能够检测各种尺寸(即与距离相当)的面部。在此,由于旋转所引起的摄像机的观察效果根据到对象的距离而变化,因此使用金字塔图像来进行面部检测。
首先,将面部搜索对象设定为最初的层次。在此设为缩小前的原始的图像。设定最初的检测窗。初始位置例如设为左上角。针对所设定的检测窗,应用固定尺寸的面部检测器。判定该层次中的基于滑动的搜索是否已经完成。若基于滑动的搜索尚未完成,则使检索窗滑动,再次进行面部检测。若基于滑动的搜索完成,则进行金字塔图像的全部层次中的处理是否已经完成的判定。若全部层次中的处理尚未完成,则移动层次,在移动目标的层次中也进行基于滑动的面部检测。若全部层次中的处理已经完成,则结束面部检测的处理。
另外,考虑到存在距机器人100较近的面部图像不能全进入视场角的情况、以及整体的计算负荷的比例较小的情况,更优选不进行缩小率较大的层次的面部搜索。
在通过面部检测处理而不能从摄像图像检测到面部的情况下(步骤S108:“否”),控制部127再次返回至步骤S101。
另一方面,若面部检测成功(步骤S108:“是”),则接着,控制部127判别用户P是否正在注视机器人100(步骤S109)。具体而言,控制部127控制摄像机111对用户P进行摄像,从摄像得到的图像来判别用户P的面部是否正朝向机器人100。若判别为用户P并未注视机器人100(步骤S109:“否”),则再次返回至步骤S101,等待声音的输入。
另一方面,若判别为用户P的面部正朝向机器人100(步骤S109:“是”),则控制部127移动给定的距离使得接近用户P(步骤S110),并判别与用户P的距离是否成为规定的距离以下(步骤S111)。该用户P与机器人100之间的规定的距离为机器人100能够对用户P发声的内容进行声音识别的程度的距离。控制部127在判别为机器人100与用户P的距离不是规定的距离以下的情况下(步骤S111:“否”),再次返回至步骤S110。
另一方面,控制部127在判别为与用户P的距离成为给定的距离的情况下(步骤S111:“是”),与用户P进行对话(步骤S112)。例如,控制部127控制扬声器113与用户P交谈,例如,“您有什么事情?”,此外,对从麦克风112输入的用户的发言进行声音分析,并基于所分析出的内容,从扬声器113输出某些声音。
如上所述,在本实施方式中,机器人100基于预先生成的SLAM地图1253,在所判别出的声源方向上存在人以外的声源的情况下,判别为并未被人呼唤。因此,即使在从作为人以外的声源的电视机、收音机等听到人的声音的情况下,也不转向,所以能够减少不必要的动作。所谓人以外的声源,也可以包含从电子设备的扬声器输出的声音。
另外,在上述的说明中,旋转驱动以偏航(yaw)为前提进行了说明,但即使存在其他的方向的旋转也成立。
在实施方式1中,机器人100仅是移动以接近用户P的方向,但是机器人100也可以使用SLAM地图1253在房间RM内移动,接近用户。
(实施方式2)
在实施方式2中,被用户P呼唤的机器人100使用SLAM地图1253,生成移动路径,并沿着移动路径移动。机器人100具备的结构与实施方式1相同。在以下的说明中,以实施方式2特有的结构为中心进行说明。
与实施方式1同样,假定预先生成了SLAM地图1253。
在实施方式2中,如图10所示,在存储部125中存储有后述的呼唤移动处理用的呼唤移动程序1256。控制部127通过执行呼唤移动程序1256,从而进行以下处理。
图11中示出在被用户P呼唤时,机器人100移动到用户P的所在地的处理(呼唤移动处理)的流程图。另外,因为与上述的呼唤响应处理相同,所以在此,假定检测到给定的大小的声音,并判别为所检测到的声音是人的声音,来进行说明。
控制部127使用进行摄像而得到的图像和SLAM地图1253来执行本机位置推定的处理(步骤S201)。关于本机位置推定的处理,由于已经参照图9进行了说明,故而在此省略说明。
接着,控制部127执行通过SLAM法来推定用户P的面部的位置的处理(面部位置推定的处理)(步骤S202)。参照图12来说明面部位置推定的处理。控制部127控制摄像机111进行摄像,从摄像得到的图像提取二维特征点(2D特征点)(步骤S20201)。在特征点提取中使用SIFT、SURF等算法。
控制部127提取在步骤S20201中提取出的2D特征点当中的、摄像得到的图像的面部的区域内的特征点(2D面部特征点)(步骤S20202)。在面部区域内没有特征点的情况下,将面部部分检测的结果用作特征点。
控制部127判别在面部位置推定的处理开始后摄像得到的图像是否为两张以上(步骤S20203)。若判别为不足两张(步骤S20203:“否”),则控制部127控制行走部126,使本机移动给定的距离(步骤S20208),并再次返回至步骤S20201。
另一方面,在判别为摄像得到的图像为两张以上的情况下(步骤S20203:“是”),控制部127取得两个图像的2D面部特征点的对应(步骤S20204)。
控制部127判别在步骤20202中提取出的对应的2D面部特征点的个数是否为阈值以上(步骤S20205)。在判别为小于阈值的情况下(步骤S20205:“否”),控制部127控制行走部126,使本机移动给定的距离(步骤S20208),并再次返回至步骤S20201。
另一方面,在判别为两个图像的对应的2D面部特征点的个数为阈值以上的情况下(步骤S20205:“是”),控制部127推定两个图像间的姿势(步骤S20206)。
具体而言,针对在两个图像之间对应的2D面部特征点的二维坐标(2D坐标)、和两个图像各自的拍摄位置(拍摄时的本机的位置)之间的距离,使用二视图运动恢复结构法(Two-view Structure from Motion法),来推定两个图像间的姿势(取得各个图像的位置的差分(平移向量t)以及朝向的差分(旋转矩阵R))。
接着,控制部127推定在两个图像之间对应的2D面部特征点的三维坐标(3D坐标)(步骤S20207)。具体而言,这使用在步骤S20206中计算出的表示两个图像间的姿势的值和在两个图像间对应的2D面部特征点的2D坐标来推定。以上为面部位置推定的处理。
再次参照图11。前进至步骤S203,控制部127进行从本机位置到用户P的面部位置的路径的生成(步骤S203)。
在实施方式2中,使用在SLAM地图1253中附加了表示在房间RM内的各个位置处存在障碍物的概率的障碍物信息的随机变量的地图。关于障碍物信息的随机变量的值,该值越高,则表示在该位置处存在障碍物的可能性越高。
关于路径的生成,首先,从存储部125读出SLAM地图1253,在SLAM地图1253上随机配置节点(追加节点信息)。此时,在与本机(机器人100)相同的高度配置节点。此外,在以障碍物信息的随机变量为阈值以上的位置(点)为中心的一定的范围内,不配置节点。
另外,高度使用重力方向的偏移值(offset value)来推定。具体而言,根据机器人100过去移动过的位置进行面推定,求取法线向量(重力方向),求取本机位置与法线向量的内积并设为本机位置的高度。路径中的节点也同样地求取值。若表示本机位置的高度的值和表示节点的高度的值之差在规定的阈值以内,则视为本机位置的高度和节点的高度相同。
关于所配置的节点,与在以该节点为中心的一定的范围内存在的其他节点相连。对于随机配置的所有节点进行该处理。以此方式,生成图形结构(graph structure)。
分别选择在通过步骤S201的本机位置推定而推定出的本机的位置的最近处存在的节点、在通过步骤S202的面部位置推定而推定出的用户P的面部的最近处存在的节点。然后,通过迪杰斯特拉法(Dijkstra′salgorithm),来求取所选择的两个节点间的最短路径。
然后,按照所求出的最短路径进行移动(步骤S204)。以上为实施方式2所涉及的呼唤移动处理。
(变形例)
在实施方式2的呼唤移动处理中,在两个图像间的姿势的推定(图12的步骤S20206)中,使用了二视图运动恢复结构法(Two-view Structure from Motion法)。姿势的推定并不限于此。
也可以像上述的本机位置推定的处理中的姿势的推定(图9的步骤S10405)所进行的那样来推定姿势。该方法的精度较高且计算所需的时间也较少。此外,或者,也可以假定被摄体的面部的尺寸为标准的面部尺寸,使用面部检测结果(面部的尺寸、位置)与摄像机参数(视场角、焦点距离),来推定本机与面部间的相对姿势,并使用通过SLAM法而求出的本机的姿势在SLAM地图上的推定结果,来计算出在SLAM地图上的面部的姿势。此外,或者,也可以在机器人100设置距离传感器,使用距离传感器来测定机器人100与用户P的面部之间的距离。
上述的实施方式2的使用SLAM地图1253的移动处理也能够应用于实施方式1中的呼唤响应处理时的图6的步骤S110的移动时。
作为提高SLAM地图1253的精度的方法,具有如下这样的方法。在帧数据库中蓄积了某种程度的摄像得到的图像的数据时,对3D位置并非已知的特征点的对应进行重新搜索,并计算3D位置。
此外,能够进行光束平差(Bundle adjustment)处理,来提高关键帧姿势和Map点的3D位置的精度。所谓光束平差处理,是同时推定摄像机姿势(关键帧姿势)和Map点的3D位置的非线性优化法。通过使用该方法,从而能够进行在将SLAM地图上的点投影到图像上时产生的误差成为最小的优化。
此外,也可以进行闭环(loop closing)处理。所谓闭环处理,是指在识别出返回到以前曾经来过的相同场所的情况下,使用以前处于在该场所时的姿势的值与当前的姿势的值的偏差,对从以前来时到当前的轨迹中的图像、关联的Map点的3D位置进行修正。
控制部127也可以判别从声源发出的声音是否为朝向机器人100的声音,仅在判别为是朝向机器人100的声音的情况下,进行声音检测,并判别该声音是否为人的声音,在判别为是人的声音的情况下,通过上述处理来进行转向判定。在该情况下,例如,作为麦克风112中包含的13个麦克风而使用单一指向性麦克风,从而能够高精度地判别从声源发出的声音的方向。
本发明并不限定于上述实施方式,当然能够进行在不脱离本发明的主旨的范围内的各种修改。
在上述的实施方式中,说明了机器人100和用户P都在室内(房间RM内)的例子,但即使在室外也同样地,能够采用本发明,从而机器人进行转向判定。
在上述的面部检测中,依次移动金字塔图像的层次来进行了面部检测,但也可以构成为,控制部127基于麦克风112的输入声音的大小(振幅的大小),推定从机器人100到声源的距离,并基于所推定的距离,不对金字塔图像的所有层次进行面部检测。例如,在判别为用户P在附近的情况下,无需使用缩小到某种程度的金字塔图像。
此外,控制部127也可以将麦克风112的输入声音与此时的是否为人的判别结果一起存储到存储部125中。这是因为再次检测到相同声音时,是否为人的判别会变得容易。
此外,用户也可以预先存储可能成为机器人100的麦克风112的输入的人以外的声音的数据。例如,对讲机的声音、电话的拨叫声音。由此,机器人100在听见该声音的情况下,能够判别是人以外。
此外,在机器人100处于室外的情况下,优选预先对周围进行摄像,并对摄像得到的图像进行图像识别。这是因为,在室外的情况下,设想能够成为声源的物体的数量与室内相比增多。例如,若是在公园内,则有时会设置有大型扬声器,通过预先从摄像图像对大型扬声器进行图像识别并存储为声源,从而机器人100容易进行转向判定。
在上述的实施方式中,说明了判别声音产生源是否为人的结构。但是,所判别的特定的声音产生源并不仅限于人。在声音产生源的判别的对象中,能够包含搭载了像人那样根据自己的意愿说话的人工智能的机器人。通过采用本发明,除了人之外,对于搭载了像人那样根据自己的意愿说话的人工智能的机器人的声音,也能够同样地判别。
此外,本发明所涉及的面部识别装置能够不依赖专用的***而使用通常的计算机***来实现。例如,也可以通过将用于执行上述动作的程序保存在计算机***能够读取的记录介质(CD-ROM(Compact Disc Read Only Memory,光盘只读存储器),MO(Magneto-Optical,磁光盘)等)中而分发到与网络连接的计算机,将该程序安装于计算机***,从而构成执行上述处理的面部识别装置。
此外,向计算机提供程序的方法是任意的。例如,程序也可以上传到通信线路的公告板(BBS(Bulletin Board System)),经由通信线路而发布到计算机。此外,程序也可以通过利用表示程序的信号对载波进行了调制的调制波来传送,由接收到该调制波的装置对调制波进行解调来复原程序。然后,计算机起动该程序,在OS(Operating System)的控制下,与其他的应用同样地执行。由此,计算机作为执行上述处理的面部识别装置而发挥功能。
本发明在不脱离本发明的广义的精神和范围的情况下,能够实现各种各样的实施方式以及变形。此外,上述的实施方式用于对本发明进行说明而并非限定本发明的范围。即,本发明的范围并非由实施方式而是由权利要求书来示出。而且,在权利要求书的范围内以及与其等同的发明的意义的范围内实施的各种变形均视为本发明的范围内。

Claims (10)

1.一种声音检测装置,其特征在于,
具备:声音检测单元,检测声音;
第1判别单元,判别由所述声音检测单元所检测到的声音即检测声音的声音产生源是否为特定的声音产生源;
控制单元,基于由所述第1判别单元得到的判别结果对所述声音检测装置进行控制;
第2判别单元,判别所述检测声音产生的方向;
存储部,存储声音产生源位置信息,其中所述声音产生源位置信息包含表示所述特定的声音产生源以外的其他的声音产生源的位置的信息;和
第3判别单元,基于由所述第2判别单元得到的判别结果和存储的所述声音产生源位置信息,判别在针对所述声音检测装置的所述检测声音产生的方向是否存在所述其他的声音产生源,
所述控制单元,在由所述第3判别单元判别为在所述检测声音产生的方向不存在所述其他的声音产生源的情况下,对所述声音检测装置的动作进行控制。
2.根据权利要求1所述的声音检测装置,其特征在于,
所述控制单元,在由所述第1判别单元判别为所检测到的所述声音的声音产生源为所述特定的声音产生源的情况下,执行与所述声音检测装置的位置及姿势中的至少一方相关的控制。
3.根据权利要求1或2所述的声音检测装置,其特征在于,
还具备摄像部,
在由所述第3判别单元判别为在所述检测声音产生的方向不存在所述其他声音产生源的情况下,所述控制单元,执行与所声音检测装置的位置及姿势的至少一方相关的控制,来作为所述声音检测装置的动作的控制,使得所述摄像部的摄像方向朝向所述第2判别单元判别的方向。
4.根据权利要求3所述的声音检测装置,其特征在于,
所述声音产生源位置信息,包含表示在所述声音检测装置的周围的多个位置的每一个存在所述特定的声音产生源以外的声音产生源的概率的信息。
5.根据权利要求3所述的声音检测装置,其特征在于,
在由所述控制单元使所述声音检测装置移动的期间,将表示从由所述摄像部摄像得到的图像识别出的声音产生源的位置的信息追加到所述声音产生源位置信息中。
6.根据权利要求1所述的声音检测装置,其特征在于,
所述第1判别单元,判别由所述声音检测单元所检测到的所述声音是否为向所述声音检测装置发出的声音,在判别为是发往所述声音检测装置的声音的情况下,判别由所述声音检测单元所检测到的声音的声音产生源是否为所述特定的声音产生源。
7.根据权利要求1所述的声音检测装置,其特征在于,
所述声音检测单元,检测包含从电子设备的扬声器输出的声响在内的声音。
8.一种声音检测装置,其特征在于,
具备:声音检测单元,检测声音;
判别单元,判别由所述声音检测单元所检测到的声音的声音产生源是否为特定的声音产生源;
控制单元,基于由所述判别单元的判别结果对所述声音检测装置进行控制;
摄像部;
存储部,预先存储声音产生源位置信息,其中所述声音产生源位置信息为所述特定的声音产生源以外的声音产生源、且包含表示登记的声音产生源的位置的信息;和,
所述判别单元,判别由所述声音检测单元检测到的所述声音的声音产生源的位置,并判别所判别的位置是否是所述声音产生源位置信息所包含的登记的所述声音产生源的位置,
在判别为由所述判别单元判别的位置不是所述声音产生源位置信息所包含的登记的所述声音产生源的位置的情况下,所述控制单元改变所述声音检测装置的位置、姿势的至少一方,使得所述摄像部的摄像方向朝向由所述判别单元判别的位置。
9.一种声音检测方法,是机器人所搭载的计算机检测声音的声音检测方法,其特征在于,具备:
声音检测步骤,检测声音;
第1判别步骤,判别由所述声音检测步骤所检测到的声音即检测声音的声音产生源是否为特定的声音产生源;
控制步骤,基于由所述第1判别步骤得到的判别结果对所述机器人的动作进行控制;
第2判别步骤,判别所述检测声音产生的方向;和
第3判别步骤,基于所述第2判别步骤的判别结果、和存储部中存储的声音产生源位置信息,判别在针对所述机器人的所述检测声音产生的方向是否存在其他的声音产生源,其中,所述声音产生源位置信息包含表示所述特定的声音产生源以外的所述其他的声音产生源的位置,
所述控制步骤,在由所述第3判别步骤判别为在所述检测声音产生的方向不存在所述其他的声音产生源的情况下,对所述机器人的动作进行控制。
10.一种记录介质,记录有计算机可读取的程序,所述程序使机器人所搭载的计算机实现如下功能:
声音检测功能,检测声音;
第1判别功能,判别由所述声音检测功能所检测到的声音即检测声音的声音产生源是否为特定的声音产生源;
控制功能,基于由所述第1判别功能判别的判别结果对所述机器人的动作进行控制;
第2判别功能,判别所述检测声音产生的方向;和
第3判别功能,基于所述第2判别功能的判别结果、和存储部中存储的声音产生源位置信息,判别在针对所述机器人的所述检测声音产生的方向是否存在其他的声音产生源,其中,所述声音产生源位置信息包含表示所述特定的声音产生源以外的所述其他的声音产生源的位置,
所述控制功能,在由所述第3判别功能判别为在所述检测声音产生的方向不存在所述其他的声音产生源的情况下,对所述机器人的动作进行控制。
CN201810198308.XA 2017-03-28 2018-03-09 声音检测装置、声音检测方法以及记录介质 Active CN108665891B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017062756A JP6673276B2 (ja) 2017-03-28 2017-03-28 音声検出装置、音声検出方法、及びプログラム
JP2017-062756 2017-03-28

Publications (2)

Publication Number Publication Date
CN108665891A CN108665891A (zh) 2018-10-16
CN108665891B true CN108665891B (zh) 2023-05-02

Family

ID=63670988

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810198308.XA Active CN108665891B (zh) 2017-03-28 2018-03-09 声音检测装置、声音检测方法以及记录介质

Country Status (3)

Country Link
US (1) US10424320B2 (zh)
JP (1) JP6673276B2 (zh)
CN (1) CN108665891B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6686977B2 (ja) * 2017-06-23 2020-04-22 カシオ計算機株式会社 音源分離情報検出装置、ロボット、音源分離情報検出方法及びプログラム
JP7107017B2 (ja) * 2018-06-21 2022-07-27 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
KR102093822B1 (ko) * 2018-11-12 2020-03-26 한국과학기술연구원 음원 분리 장치
CN109543578B (zh) * 2018-11-13 2020-12-22 北京猎户星空科技有限公司 智能设备控制方法、装置和存储介质
JP2020089947A (ja) * 2018-12-06 2020-06-11 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2020135110A (ja) * 2019-02-14 2020-08-31 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
CN112148742A (zh) * 2019-06-28 2020-12-29 Oppo广东移动通信有限公司 地图更新方法及装置、终端、存储介质
KR102280803B1 (ko) * 2019-07-02 2021-07-21 엘지전자 주식회사 로봇 및 그의 구동 방법
KR20190089125A (ko) * 2019-07-09 2019-07-30 엘지전자 주식회사 커뮤니케이션 로봇 및 그의 구동 방법
US11565426B2 (en) * 2019-07-19 2023-01-31 Lg Electronics Inc. Movable robot and method for tracking position of speaker by movable robot
CN110509292A (zh) * 2019-09-05 2019-11-29 南京法法法信息科技有限公司 一种公共场所用移动式普法机器人
TWI714303B (zh) * 2019-10-09 2020-12-21 宇智網通股份有限公司 聲源定位方法及聲音系統
US11501794B1 (en) * 2020-05-15 2022-11-15 Amazon Technologies, Inc. Multimodal sentiment detection
CN111916061B (zh) * 2020-07-22 2024-05-07 北京地平线机器人技术研发有限公司 语音端点检测方法、装置、可读存储介质及电子设备
CN112017633B (zh) * 2020-09-10 2024-04-26 北京地平线信息技术有限公司 语音识别方法、装置、存储介质及电子设备
KR20240076871A (ko) * 2022-11-23 2024-05-31 삼성전자주식회사 맵을 이용하여 공간을 주행하는 로봇 및 그의 위치 식별 방법

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1416381A (zh) * 2000-12-06 2003-05-07 索尼公司 机器人设备、用于控制机器人设备运动的方法以及用于控制机器人设备运动的***
JP2006289514A (ja) * 2005-04-06 2006-10-26 Yaskawa Electric Corp ロボット制御システムおよび制御方法
CN101786272A (zh) * 2010-01-05 2010-07-28 深圳先进技术研究院 一种用于家庭智能监控服务的多感知机器人
CN101786274A (zh) * 2009-01-24 2010-07-28 泰怡凯电器(苏州)有限公司 一种用于机器人的语音***及带有该语音***的机器人
JP2012040655A (ja) * 2010-08-20 2012-03-01 Nec Corp ロボット制御方法、プログラム、及びロボット
CN104783736A (zh) * 2014-01-17 2015-07-22 Lg电子株式会社 机器人吸尘器及利用该机器人吸尘器的人照料方法
CN105835064A (zh) * 2016-05-03 2016-08-10 北京光年无限科技有限公司 一种智能机器人的多模态输出方法和智能机器人***

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000326274A (ja) * 1999-05-24 2000-11-28 Nec Corp 自律行動ロボット
JP4689107B2 (ja) * 2001-08-22 2011-05-25 本田技研工業株式会社 自律行動ロボット
JP3714268B2 (ja) * 2002-03-18 2005-11-09 ソニー株式会社 ロボット装置
JP2005250233A (ja) * 2004-03-05 2005-09-15 Sanyo Electric Co Ltd ロボット装置
JP2006239844A (ja) 2005-03-04 2006-09-14 Sony Corp 障害物回避装置、障害物回避方法及び障害物回避プログラム並びに移動型ロボット装置
JP4456561B2 (ja) * 2005-12-12 2010-04-28 本田技研工業株式会社 自律移動ロボット
JP2007221300A (ja) * 2006-02-15 2007-08-30 Fujitsu Ltd ロボット及びロボットの制御方法
US8155331B2 (en) * 2006-05-10 2012-04-10 Honda Motor Co., Ltd. Sound source tracking system, method and robot
JP2008126329A (ja) * 2006-11-17 2008-06-05 Toyota Motor Corp 音声認識ロボットおよび音声認識ロボットの制御方法
JP4560078B2 (ja) * 2007-12-06 2010-10-13 本田技研工業株式会社 コミュニケーションロボット
CN201210187Y (zh) * 2008-06-13 2009-03-18 河北工业大学 一种自主搜寻声源的机器人
WO2010083768A1 (zh) * 2009-01-24 2010-07-29 泰怡凯电器(苏州)有限公司 用于机器人的语音***及带有该语音***的机器人
JP2011149782A (ja) 2010-01-20 2011-08-04 National Institute Of Advanced Industrial Science & Technology パーティクルフィルタリングによる移動ロボットからの2次元音源地図作成方法
US9014848B2 (en) * 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
JP6240995B2 (ja) * 2013-01-15 2017-12-06 株式会社国際電気通信基礎技術研究所 移動体、音響源マップ作成システムおよび音響源マップ作成方法
CN105283775B (zh) * 2013-04-12 2018-04-06 株式会社日立制作所 移动机器人以及音源位置推定***
JP6221158B2 (ja) * 2014-08-27 2017-11-01 本田技研工業株式会社 自律行動ロボット、及び自律行動ロボットの制御方法
CN104967726B (zh) * 2015-04-30 2018-03-23 努比亚技术有限公司 语音指令处理方法和装置、移动终端

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1416381A (zh) * 2000-12-06 2003-05-07 索尼公司 机器人设备、用于控制机器人设备运动的方法以及用于控制机器人设备运动的***
JP2006289514A (ja) * 2005-04-06 2006-10-26 Yaskawa Electric Corp ロボット制御システムおよび制御方法
CN101786274A (zh) * 2009-01-24 2010-07-28 泰怡凯电器(苏州)有限公司 一种用于机器人的语音***及带有该语音***的机器人
CN101786272A (zh) * 2010-01-05 2010-07-28 深圳先进技术研究院 一种用于家庭智能监控服务的多感知机器人
JP2012040655A (ja) * 2010-08-20 2012-03-01 Nec Corp ロボット制御方法、プログラム、及びロボット
CN104783736A (zh) * 2014-01-17 2015-07-22 Lg电子株式会社 机器人吸尘器及利用该机器人吸尘器的人照料方法
CN105835064A (zh) * 2016-05-03 2016-08-10 北京光年无限科技有限公司 一种智能机器人的多模态输出方法和智能机器人***

Also Published As

Publication number Publication date
CN108665891A (zh) 2018-10-16
US10424320B2 (en) 2019-09-24
US20180286432A1 (en) 2018-10-04
JP6673276B2 (ja) 2020-03-25
JP2018165759A (ja) 2018-10-25

Similar Documents

Publication Publication Date Title
CN108665891B (zh) 声音检测装置、声音检测方法以及记录介质
CN109141620B (zh) 声源分离信息检测装置、机器人、声源分离信息检测方法和存储介质
JP4460528B2 (ja) 識別対象識別装置およびそれを備えたロボット
JP5595112B2 (ja) ロボット
CN108664889B (zh) 对象物检测装置、对象物检测方法以及记录介质
CN105979442B (zh) 噪声抑制方法、装置和可移动设备
Schauerte et al. Multimodal saliency-based attention for object-based scene analysis
US20040190754A1 (en) Image transmission system for a mobile robot
JP2007221300A (ja) ロボット及びロボットの制御方法
Schauerte et al. Saliency-based identification and recognition of pointed-at objects
US20040190753A1 (en) Image transmission system for a mobile robot
US11714157B2 (en) System to determine direction toward user
Fransen et al. Using vision, acoustics, and natural language for disambiguation
JP2018173707A (ja) 人推定システムおよび推定プログラム
Correa et al. Active visual perception for mobile robot localization
CN110188179A (zh) 语音定向识别交互方法、装置、设备及介质
Sasaki et al. Online spatial sound perception using microphone array on mobile robot
Chau et al. Audio-visual slam towards human tracking and human-robot interaction in indoor environments
Zhu et al. Speaker localization based on audio-visual bimodal fusion
CN112578338B (zh) 声源定位方法、装置、设备及存储介质
Chen “FOLO”: A vision-based human-following robot
CN113916223A (zh) 定位方法及装置、设备、存储介质
CN110730378A (zh) 一种信息处理方法及***
Nakashima et al. Self-organization of a sound source localization robot by perceptual cycle
Gross et al. Probabilistic multi-modal people tracker and monocular pointing pose estimator for visual instruction of mobile robot assistants

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant