CN107408396A - 信息处理装置、信息处理方法和程序 - Google Patents

信息处理装置、信息处理方法和程序 Download PDF

Info

Publication number
CN107408396A
CN107408396A CN201680016943.0A CN201680016943A CN107408396A CN 107408396 A CN107408396 A CN 107408396A CN 201680016943 A CN201680016943 A CN 201680016943A CN 107408396 A CN107408396 A CN 107408396A
Authority
CN
China
Prior art keywords
user
information
unit
information processor
dialogue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201680016943.0A
Other languages
English (en)
Inventor
望月敬太
福本康隆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN107408396A publication Critical patent/CN107408396A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/107Computer-aided management of electronic mailing [e-mailing]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/34Power consumption

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Primary Health Care (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Computer Hardware Design (AREA)
  • Data Mining & Analysis (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)

Abstract

提供了一种信息处理装置,该信息处理装置配备有:通信确定单元,该通信确定单元基于从至少包括用户的语音声音的语音数据中提取的特征值来确定包括该用户的多个用户之间是否发生通信,该特征值指示多个用户之间的交互。

Description

信息处理装置、信息处理方法和程序
技术领域
本公开内容涉及信息处理装置、信息处理方法和程序。
背景技术
检测诸如用户之间发生的对话的通信是有用的,例如,用于猜测用户之间的关系。作为这样的技术,例如专利文献1提出了基于从各个用户的终端装置发送的声音信息中提取的诸如频率分量等的语音特征值之间的相似度来提取对话组的技术。这使得可以对未指定的人之间不规则地发生的对话进行分析。
引用列表
专利文献
专利文献1:JP 2012-155374A
发明内容
技术问题
然而,对于例如如专利文献1所述的技术而言检测用户之间的短对话或检测对话是否实时开始以基于聚集的语音特征值例如频率分量来检测对话未必容易。此外,例如,存在可以是对于对话组的候选的大量用户或在嘈杂环境中发现用户的情况下,会难以鲁棒地检测对话。
然后,本公开内容提出了一种新颖且改进的信息处理装置、信息处理方法和程序,其使用从语音数据提取的特征值并且使得可以更加鲁棒地检测各种阶段的用户之间的对话。
问题的解决方案
根据本公开内容,提供了一种信息处理装置,包括:通信确定单元,该通信确定单元被配置成基于从至少包括用户的语音声音的语音数据中提取的特征值来确定在包括该用户的用户之间是否发生通信,特征值指示多个用户之间的交互。
此外,根据本公开内容,提供了一种信息处理方法,包括:由处理器基于从至少包括用户的语音声音的语音数据中提取的特征值来确定包括该用户的用户之间是否发生通信,特征值指示多个用户之间的交互。
此外,根据本公开内容,提供了一种用于使计算机执行以下操作的程序:基于从至少包括用户的语音声音的语音数据中提取的特征值来确定在包括该用户的用户之间是否发生通信,特征值指示多个用户之间的交互。发明的有益效果
如上所述,根据本公开内容,可以使用从语音数据中提取的特征值,并且更鲁棒地检测各种阶段的用户之间的对话。
注意,上述效果不一定是限制性的。具有上述效果或代替上述效果,可以实现本说明书中描述的任何一种效果或可以从本说明书中领会的其他效果。
附图说明
[图1]图1是用于示意性地描述本公开内容的第一实施例中的对于对话的检测的图。
[图2]图2是示出根据本公开内容的第一实施例的***的配置示例的图。
[图3]图3是示出根据本公开内容的第一实施例的***的功能部件示例的图。
[图4]图4是用于描述本公开内容的第一实施例中的对活动的检测的图。
[图5]图5是用于描述本公开内容的第一实施例中的关于是否发生对话的确定的图。
[图6]图6是示出本公开内容的第一实施例中的以时间顺序表示在用户之间发生的对话的状态的示例的图。
[图7]图7是示出本公开内容的第一实施例中的以时间顺序表示在用户之间发生的对话的状态的示例的图。
[图8]图8是示出本公开内容的第一实施例中的以时间顺序表示在用户之间发生的对话的状态的示例的图。
[图9]图9是用于描述本公开内容的第一实施例中的对于对话图形结构的优化的图。
[图10]图10是用于描述本公开内容的第一实施例中的特征值的扩展的图。
[图11]图11是用于描述本公开内容的第一实施例中的从对于对话的检测中获得的信息的用途示例的图。
[图12]图12是用于描述本公开内容的第一实施例中的从对于对话的检测中获得的信息的第一用途示例的图。
[图13]图13是用于描述本公开内容的第一实施例中的从对于对话的检测中获得的信息的第一用途示例的图。
[图14]图14是用于描述本公开内容的第一实施例中的从对于对话的检测中获得的信息的第一用途示例的图。
[图15]图15是用于描述本公开内容的第一实施例中的从对于对话的检测中获得的信息的第二用途示例的图。
[图16]图16是用于描述本公开内容的第一实施例中的从对于对话的检测中获得的信息的第二用途示例的图。
[图17]图17是用于描述本公开内容的第一实施例中的从对于对话的检测中获得的信息的第三用途示例的图。
[图18]图18是用于描述本公开内容的第一实施例中的从对于对话的检测中获得的信息的第六用途示例的图。
[图19]图19是用于描述本公开内容的第一实施例中的从对于对话的检测中获得的信息的第六用途示例的图。
[图20]图20是用于示意性地描述本公开内容的第二实施例中的GNSS定位权的转移的图。
[图21]图21是描述本公开内容的第二实施例中的GNSS定位权的用途示例的图。
[图22]图22是示出根据本公开内容的第二实施例的***配置的框图。
[图23]图23是示出根据本公开内容的第二实施例的另一***配置的框图。
[图24]图24是示出根据本公开内容的第二实施例的另一***配置的框图。
[图25]图25是示出根据本公开内容的第二实施例的应用示例的操作的流程图。
[图26]图26是示出根据本公开内容的实施例的信息处理装置的硬件配置示例的框图。
具体实施方式
在下文中,将参照附图详细描述本公开内容的一个或更多个优选实施例。在本说明书和附图中,用相同的附图标记表示具有基本相同的功能和结构的结构元件,并且省略对这些结构元件的重复说明。
在下文中,以下述顺序进行描述。
1.第一实施例
1-1.概述和***配置
1-2.用于检测对话的处理的示例
1-3.应用的信息生成示例
1-4.关于第一实施例的补充信息
2.第二实施例
2-1.概述和***配置
2-2.应用示例
2-3.关于第二实施例的补充信息
3.硬件配置
<1.第一实施例>
(1-1.概述和***配置)
图1是用于示意性地描述本公开内容的实施例中的对于对话的检测的图。图1在(a)至(c)中示出了本实施例中的从用户之中指定有对话的用户的处理。首先,如(a)所示,除了目标用户之外的用户被划分成候选用户和其他用户,以确定是否发生与目标用户的对话。候选用户例如通过GNSS定位、Wi-Fi定位等被指示为被定位在目标用户附近的用户。如果从以下检测处理的目标中移除由于自然约束而难以被估计为有对话的用户或其他用户,则可以减少处理量并提高检测的准确性。
接下来,如(b)所示,针对目标用户和候选用户两者获取传感器数据。更具体地,传感器数据包括诸如由麦克风(声音传感器)获取的语音数据和指示用户的运动的加速度的传感器数据。如(c)所示,基于从这些种类的传感器数据中提取的并且指示用户之间的交互的特征值来确定在目标用户和候选用户之间是否发生对话。可以将目标用户与被确定为有对话的候选用户一起分类到公共对话组中。
图2是示出根据本公开内容的实施例的***的示意性配置示例的图。图2示出了***10包括可穿戴终端100(眼镜100a和腕带100b)、移动终端200和服务器300。在***10中所包括的装置可以通过下文所述的信息处理装置的硬件配置来实现。
可穿戴终端100由每个用户穿戴。可穿戴终端100包括例如麦克风(声音传感器),并且获取包括用户的语音声音的语音数据。此外,可穿戴终端100可以包括诸如加速度传感器和陀螺仪传感器的其他传感器,并且获取诸如指示用户的运动的加速度的传感器数据。例如,眼镜100a能够获取指示与用户的点头对应的加速度或角速度的传感器数据。此外,例如,腕带100b能够获取以下项:指示与用户的手的移动对应的加速度或角速度、例如脉搏的生物指标等的传感器数据。此外,可穿戴终端100可以将通过根据下面描述的本实施例的信息处理而生成的信息用于呈现给用户。更具体地,可穿戴终端100可以包括诸如显示器和扬声器的输出装置,并且以图像和声音的形式从这些输出装置向用户呈现信息。此外,尽管可穿戴终端100和移动终端200在所示示例中被分立地示出,但是在另一示例中,可以将可穿戴终端100的功能包括在移动终端200中。在这种情况下,移动终端200通过使用麦克风、加速度传感器、陀螺仪传感器等获取传感器数据,并且向用户呈现通过信息处理生成的信息。
移动终端200由每个用户携带。在所示示例中,移动终端200中继可穿戴终端100和服务器300之间的通信。更具体地,例如,可穿戴终端100以诸如Bluetooth(注册商标)的无线通信的方式与移动终端200通信,而移动终端200以诸如因特网的网络通信的方式与服务器300通信。这里,移动终端200可以根据需要处理从可穿戴终端100接收的信息,然后将处理的信息发送至服务器300。例如,移动终端200可以分析包括从可穿戴终端100接收的语音数据的传感器数据,并提取中间特征值。或者,移动终端200可以将从可穿戴终端100接收的传感器数据在不经处理的情况下传递至服务器300。在这种情况下,例如,只要可穿戴终端100和服务器300之间可以进行网络通信,***10就不一定必须包括移动终端200。此外,代替可穿戴终端100或者与可穿戴终端100组合,移动终端200可以将通过根据下面描述的本公开内容的信息处理而生成的信息用于呈现给用户。
服务器300由网络上的一个或更多个信息处理装置实现,并且向每个用户提供服务。例如,服务器300从经由移动终端200从每个用户的可穿戴终端100收集的传感器数据中提取特征值,并且基于特征值确定用户之间是否发生对话。服务器300可以例如基于确定的结果来生成表示用户之间发生对话的情况的信息。该信息可以用于显示用于使例如用户(其可以是不参与对话的用户或其对话不是检测目标的用户)能够实时掌握对话发生的情况的画面,或该信息可以被累积为日志。被累积为日志的信息可以例如被上述用户以后参考,或者可以基于被累积为日志的信息来指定表示用户之间的关系的图形结构。此外,这些类型的处理可以例如由在每个用户的可穿戴终端100和移动终端200之间作为主机的移动终端200执行。在这种情况下,***10不一定必须包括服务器300。
图3是示出根据本公开内容的实施例的***的功能部件示例的图。图3示出***10包括作为功能部件的感测单元11、活动检测单元12、候选选择单元13、特征值提取单元14、对话确定单元15、分数计算单元16和分组单元17。此外,感测单元11由诸如上面参照图2描述的可穿戴终端100中所包括的麦克风(声音传感器)、加速度传感器和/或陀螺仪传感器的传感器来实现。在服务器300、移动终端200中和/或服务器300通过处理器例如根据程序操作的CPU实现活动检测单元12、候选选择单元13、特征值提取单元14、对话确定单元15、分数计算单元16以及分组单元17。也就是说,由上述处理器实现的功能部件可以由在***10中所包括的任何信息处理装置来集成和实现,或由信息处理装置来分布和实现。下面将进一步描述各功能部件。
感测单元11包括:诸如麦克风(声音传感器)的传感器,其获取语音数据作为到***10中的输入;加速度传感器或陀螺仪传感器,其获取诸如指示用户的运动的传感器数据例如加速度作为到***10中的输入。此外,感测单元11包括用于获取用户的位置信息的GNSS接收器或用于Wi-Fi等的无线通信装置等。感测单元11被实现在例如如图2所示的诸如眼镜100a和腕带100b的可穿戴终端100中。然而,在如上所述可穿戴终端100的功能被包括在移动终端200中的情况下,感测单元11被实现在移动终端200中。
活动检测单元12根据由感测单元11获取的传感器数据(其可以包括语音数据)来检测提供传感器数据的每个用户的活动。更具体地,例如,活动检测单元12根据语音数据来检测用户的语音活动。这里,在本实施例中,活动检测单元12不一定必须检测语音中的声音的特征或语音内容。也就是说,活动检测单元12可以仅检测用户是否在某时间说话。在活动检测单元12可以附加地检测声音的特征、语音内容等的情况下,活动检测单元12也可以检测它们。此外,例如,活动检测单元12根据加速度或角速度的传感器数据来检测诸如用户的点头或用户的手的移动(手势)的活动。此外,例如,活动检测单元12还可以根据诸如用户的脉搏的生物指标的传感器数据来检测用户的心理活动。
候选选择单元13根据由感测单元11获取的传感器数据来检测均提供传感器数据的用户之间的位置关系,并且选择位置关系满足预定条件的用户作为对于对话组中所包括的用户的候选。更具体地,候选选择单元13选择通过GNSS定位、Wi-Fi定位等指示的被定位在目标用户附近的另一用户作为候选用户。此外,每个用户的位置信息不一定必须可用于候选选择单元13以选择候选用户。例如,如果每个用户的终端装置(诸如可穿戴终端100或移动终端200)可以通过诸如Bluetooth(注册商标)的无线通信直接通信,则候选选择单元13可以识别出这些用户正在接近。或者,候选选择单元13可以基于每个用户的行为信息来选择候选用户。更具体地,例如,候选选择单元13可以获取用户的与位置相关联的行为识别结果(例如在办公室中的工作或会议),并且选择另一用户作为候选用户,该另一用户的与目标用户的行为识别结果相同的行为识别结果被获取。此外,例如,候选选择单元13可以获取用户的与位置相关联的日程表(例如,与行为识别结果类似,在办公室中的工作或会议),并且选择另一用户作为候选用户,该另一用户的与目标用户的日程表相同的日程表被获取。
特征值提取单元14提取由活动检测单元12检测到的在由候选选择单元13提取的每个候选用户和目标用户之间的活动的相互关系:指示交互的特征值。在本实施例中,基于活动之间的时间关系来提取这样的特征值。
例如,特征值提取单元14从包括用户的语音声音的语音数据中提取指示包括该用户的用户之间的交互的特征值。更具体地,用户包括第一用户和第二用户,并且特征值提取单元14基于第一用户(其可以是目标用户的)的语音声音和第二用户(其可以是候选用户)的语音声音之间的时间关系来提取特征值。该特征可以指示出第一用户与第二用户交换语音。例如,在第一用户与第二用户交谈的情况下,第一用户的语音部分不太可能与第二用户的语音部分交叠太多。各个用户的语音部分应该交替出现。
此外,在上述示例中,由感测单元11获取的语音数据可以分别包括第一语音数据和第二语音数据,该第一语音数据包括第一用户的语音声音,该第二语音数据包括第二用户的语音声音。或者,由感测单元11获取的语音数据可以包括单条语音数据,该单条语音数据包括第一用户的语音声音和第二用户的语音声音(又一用户的语音声音可以被包括该单条语音数据或不同的语音数据中)。此外,在单条语音数据包括用户的语音声音的情况下,可以例如基于扬声器识别结果等来执行分离各个用户的语音声音的处理。
此外,例如,特征值提取单元14可以基于在从用户提供的语音数据中所包括的每个用户的语音声音之间的时间关系以及由从每个用户以相同的方式提供的传感器数据指示的运动或生物指标来提取第一用户和第二用户之间的特征值。也就是说,例如,特征值提取单元14可以基于在从第一用户提供的语音数据中所包括的第一用户的语音声音和由从第二用户提供的传感器数据指示的运动或生物指标之间的关系来提取特征值。此外,特征值提取单元14可以不仅提取目标用户和候选用户之间的特征值,而且还提取候选用户之间的特征值。
对话确定单元15基于由特征值提取单元14提取的特征值来确定用户之间是否发生对话。由于在本实施例中包括候选选择单元13,因此对话确定单元15确定基于用户(作为处理目标的所有用户)之间的位置关系而从用户中所选择的用户之间是否发生对话。如已经针对候选选择单元13描述的,可以基于每个用户的行为信息来选择作为确定目标的用户。更具体地,例如,在基于在第一用户和第二用户之间提取的特征值计算出的对话的发生概率超过预定阈值的情况下,对话确定单元15确定在第一用户和第二个用户之间发生对话。对话确定单元15可以通过基于由特征值提取单元14在目标用户和候选用户之间提取的特征值来计算发生概率,从而指定与目标用户进行对话的候选用户。此外,对话确定单元15可以通过基于由特征值提取单元14在候选用户之间提取的特征值来计算发生概率,从而指定在候选用户之间发生的对话。指定不仅在目标用户和候选用户之间发生的对话,而且还指定在候选用户之间发生的对话使得可以掌握在目标用户周围发生的对话的情况。
分数计算单元16基于对话发生历史来计算用户之间的分数,该对话发生历史基于对话确定单元15的确定。例如,分数计算单元16可以通过在预定时间段内对在用户之间发生对话所达到的时间进行积分来计算分数。或者,分数计算单元16可以基于在预定时间段内在用户之间发生的对话的发生达预定时间或更长时间的频率来计算分数。此外,例如,在确定用户之间发生对话的情况下,分数计算单元16可以参考由对话确定单元15计算的对话的发生概率,并且在被确定为以较高发生概率有对话的用户之间计算较高分数。此外,例如,在活动检测单元12可以检测用户的嗓音的特征、语音内容等的情况下,分数计算单元16可以基于用户的嗓音的特征、语音内容等估计对话活动的程度并且在有更活跃的对话的用户之间计算更高的分数。
分组单元17基于由分数计算单元16计算的分数来对用户进行分组。可以有各种分组表示。例如,分组单元17将其相互分数超过阈值的用户分类到公共组中。此外,分组单元17可以指定表示用户之间的关系的图形结构。可以与组分开定义图形结构,或者可以根据图形结构的链路的存在或不存在或强度来定义组。此外,本实施例中基于对话确定单元15的确定结果的信息不仅可以由分组单元17生成,而且可以以各种形式生成。下面将描述这样的另一示例。
(1-2.用于检测对话的处理示例)
图4是用于描述本公开内容的实施例中的对活动的检测的图。可穿戴终端100c包括耳机110和运动传感器120,该运动传感器120在图4所示的示例中用于检测用户的点头。耳机110包括麦克风112,并且获取语音数据。运动传感器120包括陀螺仪传感器122和加速度传感器124,并且获取角速度和加速度的传感器数据。这里,***10中的上述活动检测单元12将以语音数据提取的能量超过阈值用作开始条件,并且将能量保持在阈值之下达预定时间或大于预定时间作为结束条件。因此,活动检测单元12可以据此检测用户的语音部分。同时,活动检测单元12可以通过从角速度的预定频率较大的部分去除加速度分布很多的部分来检测用户的点头发生的部分。
接下来,将描述本公开内容的实施例中的对特征值的提取。在本实施例中,***10中的特征值提取单元14计算指示第一用户和第二用户之间的交互的特征值。特征值提取单元14例如基于以下事件提取对于用户之间的交互的正特征值。也就是说,在以下事件经常发生的情况下,指示用户之间的交互的特征值可能较高。
-交换语音(第一用户的语音和第二用户的语音交替出现)
-非说话者在语音期间的点头
-非说话者在短语音时间内的点头
-说话者和非说话者同时点头
-在说话者的语音期间的语音+点头的回应
同时,特征值提取单元14例如基于以下事件来计算对于用户之间的交互的负特征值。也就是说,在以下事件经常发生的情况下,指示用户之间的交互的特征值可能较低。
-语音部分的一致性(第一用户的语音和第二用户的语音同时发生)
-非说话者对语音没有反应
例如,特征值提取单元14以预定周期(以100Hz为例)基于上述事件计算特征值。对话确定单元15以预定周期(其可以比用于计算特征值的周期长,并且以0.2Hz为例)将计算出的特征值输入到确定装置中。在这种情况下,可以将特征值看作每30秒的平均值。确定装置可以是例如二进制确定装置,并且确定第一用户是可能还是不可能与第二用户进行对话。例如通过机器学习来生成这样的确定装置。例如,可以将支持向量机(SVM)用作机器学习的技术,但还可以使用除了该示例之外的各种已知技术。此外,在本实施例中可以使用任何确定装置,只要其输出能够实现随后的确定即可。更具体地,确定装置可以是二进制确定装置或输出概率的确定装置。此外,确定装置不一定必须通过机器学习产生。
图5是用于描述本公开内容的实施例中的关于是否发生对话的确定的图。在图5所示的示例中,***10的对话确定单元15根据确定装置的输出来计算发生概率,并且基于发生概率来确定是否发生对话。更具体地,在上述确定装置是二进制确定装置的情况下,对话确定单元15在确定装置的输出为正(可能发生对话)的情况下增加发生概率,并且在输出为负(不可能发生对话)的情况下降低发生概率。此外,在上述确定装置输出概率的情况下,对话确定单元15可以根据从确定装置输出的概率的大小来改变发生概率的分数。在所示示例中,确定装置以0.2Hz进行输出,并且每5秒更新发生概率。对话确定单元15确定在以这种方式被连续地相加/减去的发生概率超过预定阈值的部分中在用户之间发生对话。
图6至图8是示出本公开内容的实施例中的以时间顺序表示在用户之间发生的对话的状态的示例的图。可以与本实施例中的上述分数计算单元16或分组单元17执行的统计处理分离地基于例如如图5所示的对话确定单元15的对话发生确定来按照时间顺序输出用户之间的对话状态。例如,在图1的示例中示出的可穿戴终端100或移动终端200可以向参与对话的用户、***10的不参与对话的用户或不使用***10但具有观看权的另一用户呈现这样的输出。在这种情况下,可穿戴终端100、移动终端200或服务器300的处理器可以实现显示控制单元,该显示控制单元显示用于按时间顺序呈现检测到的对话的画面。
图6是表示在两个用户之间发生的对话的状态的示例。在所示示例中,用户U1和用户U2之间的对话的发生状态由链路L1和链路L2表示。链路L1和链路L2的宽度根据所计算的用户U1和用户U2之间的对话的发生概率而变化,例如如图5所示的示例所示的。也就是说,在所示示例中,链路L1指示出用户U1和用户U2之间的对话的发生概率较低。例如,在对话的发生概率大于0但没有达到预定阈值的情况下,可以将链路L1的宽度示为最窄。同时,随着对话的发生概率超过阈值并且增加,可以示出具有较大宽度的链路L2。
如已经描述的,在本实施例中,在使用例如如图5所示的阈值确定是否发生对话的确定中使用对话的发生概率。此外,在如上所示基于特征值来计算对话的发生概率的情况下,对话的更高的发生概率可以指示出对话被交换或者非说话者更频繁地点头。因此,可以将对话的发生概率解释为例如表示对话的活跃性的连续值,并且使用对话的发生概率来改变上述显示形式。
图7是表示在三个用户之间发生的对话的状态的示例。如上所述,在本实施例中,针对用户中所包括的作为目标的用户对(第一用户和第二用户)提取特征值,并且根据基于特征值进一步计算的对话的发生概率来确定是否发生对话。在三个用户的情况下,提取特征值并且针对三个相应的对确定对话(=3C2)。由于这样的提取和确定,在图7所示的示例中,在用户U1和用户U2之间以及用户U2和用户U3之间显示了宽链路L2。与图6所示的示例类似,链路L2示出了这些用户之间活跃地发生对话。同时,在用户U3和用户U1之间显示了具有中等宽度的链路L3。链路L3表示在用户U3和用户U1之间也发生对话,但对话不是那么活跃。从这些类型的显示可以推测,用户中的用户U1至U3这三者之间的对话与用作中枢(hub)的用户U2进行。
同时,在未参与对话的用户U4经过用户U1至U3的情况下,用户U4的位置接近用户U1至U3。因此,可以将用户U4看作候选用户,但是由特征值提取单元14提取并且指示用户之间的交互的特征值对于如上所述的对话的发生不会变成正的。因此,由对话确定单元15计算的对话的发生概率也不高。因此,例如如所示出的,虽然可以在用户U1和用户U4之间以及用户U3和用户U4之间显示窄链路L1,但是对话的发生概率不超过阈值。因此,所显示的链路没有较大的宽度。当用户U4进一步行进时,链路L1也消失。
图8是表示在四个用户之间发生的对话的状态的示例。在该示例中,也针对用户中所包括的作为目标的用户对提取特征值,并且根据基于特征值进一步计算的对话的发生概率来确定是否发生对话。由于这样的提取和确定,在图8所示的示例中,在用户U1和用户U2之间以及用户U3和用户U4之间显示了宽链路L2。与已经描述的示例类似,链路L2示出了在这些用户之间活跃地发生对话。同时,在四个用户的其他组合之间显示了窄链路L1。与已经描述的示例类似,链路L1也示出了在这些用户之间几乎不发生对话。从这些种类的显示可以推测,用户U1至U4在相同的地方聚集以进行对话,但实际上对话在用户U1和用户U2对(子组)以及用户U3和用户U4对(子组)中单独进行。
例如,基于由用户U1至U4中的每个用户的可穿戴终端100获取的语音数据的诸如频率分量的特征值来检测对话,因为在图8所示的上述示例中从用户U1至U4中的每个用户提供的语音数据可以指示相似的特征值,因此可以将用户U1至U4分类为单个对话组,但是难以猜测对话在他们的哪些组合中进行。相反,在本实施例中,因为特征值提取单元14提取指示用户之间的交互的特征值,因此可以准确地指定实际发生对话的用户的组合。
图9是用于描述本公开内容的实施例中的对话图形结构的优化的图。将被估计为有对话的用户分类到公共对话组中,在图9所示的示例中,***10的对话确定单元15根据针对图形结构预先设置的规则集来对示出用户之间的对话的发生情况的图形结构进行最优化。更具体地,在所示的示例中,用户U2和用户U5之间的链路被最优化并且在包括用户U1至U7的原始图形结构中被断开,而包括用户U1至U4的对话组与包括用户U5至U7的对话组分离。
例如,对话确定单元15使生成的图形结构的能量最小化,从而执行上述最优化(最小化能量的规则)。此外,对话确定单元15还可以根据基于作为用作对话的中心的单个人例如像图7的示例中的用户U2的常规了解的规则来最优化图形结构。此外,例如,在最优化图形结构时,对话确定单元15可以使用其他用户对特定用户的语音的反应的速度来确定是否维持链路(说话者和对语音快速反应的非说话者之间的链路更易于维持)。此外,例如,在可穿戴终端100可以检测每个用户的脸部的方向的情况下,对话确定单元15可以使用每个用户的脸部的方向来确定是否保持链路(说话者和与说话者说话并且将他或她的脸部转向说话者的人之间的链路更易于维持)。
图10是用于描述本公开内容的实施例中的特征值的扩展的图。尽管在上文例如参照图4所述的示例中将用户的语音和点头用作用于提取用于检测用户之间的对话的特征值的活动,但是在另一示例中,如图10所示,可以基于进一步的各种活动来提取特征值。作为可以用于提取这样的特征值的传感器,图10例示了麦克风112、运动传感器120(可以包括图4中例示的陀螺仪传感器122和加速度传感器124)、地磁传感器126和生物传感器128。将这些传感器例如包括在可穿戴终端100或移动终端200中。下面将分别描述所示出的活动130至140。
如图4所示的示例中所述,例如,基于由安装在诸如戴在用户头部上的眼镜100a的终端装置中的运动传感器120获取的传感器数据来检测点头130。此外,可以通过使用类似地安装在终端装置中的地磁传感器126的传感器数据来检测点头130。
如图4中所述的示例中所述,基于包括由麦克风112获取的用户的语音声音的语音数据来检测语音部分132。可以从语音数据进一步检测语音内容134。在这种情况下,例如,除了由与语音部分132的时间关系指示的用户之间的交互的状态之外,还可以基于对话的主题共性来检测用户之间发生的对话。
例如,通过使用由地磁传感器126获取的传感器数据来检测身体方向136。例如,如上文参照图9所示,面向说话者的非说话者和面向非说话者的说话者可以是用于检测两者之间的对话发生的正元素。
例如,通过使用由运动传感器120或地磁传感器126获取的传感器数据来检测手势138。例如,与参考图4描述的示例中的点头类似,手势138可以被用作通过指定与语音部分的时间关系来指示用户之间的交互的元素。
例如,通过使用生物传感器128检测脉搏140。例如,在用户进行活跃对话的情况下,脉搏140也看起来可能增加,可以估计脉搏的状态是否与用户之间的对话的状态匹配,或者用户是否相互交谈(例如,如果另一活动或特征值指示活跃的对话,但是脉搏140不增加,则用户实际上可能未相互交谈)。
在使用对活动的上述检测结果的情况下,例如,在以下事件的发生频率较高的情况下,指示用户之间的交互的特征值可能较更高。
-在说话者说话结束时非说话者的用手势形式的反应
-语音中所包括的词语具有共性
-语音内容具有共性,并且回答与语音内容匹配
-说话者和非说话者的身体方向相互相交
-行走、吃饭等的行为共同
-说话者和非说话者的脉搏的变化是相关的
此外,对话确定单元15可以考虑用户行为的上下文或者在将用户分类到对话组中时使用指定对话组的方法。例如,在指定的对话组之间共享用户的私人图像的情况下,可以通过设置用于确定用户之间发生对话的较高阈值来防止图像与不适当的用户共享。此外,例如,设定较低阈值使得可以将与用户交谈的那些人分类到对话组中而不在聚会等中显示他们,其中参与者很可能在广泛的区域中相互交谈。此外,例如,在许多情况下,当用户在城市等中的人群中时,可以在白天设置较高阈值,以防止错误检测,而当用户在较不拥挤的地方例如家里时,在许多情况下可以在夜间设置较低阈值。
(1-3.应用信息生成示例)
图11是用于描述在本公开内容的实施例中的从对于对话的检测获得的信息的用途示例的图。例如,在上文参照图3所示的示例中,通过对话确定单元15确定是否发生对话而获得的结果由分数计算单元16和分组单元17使用,但是本实施例中的信息的用途示例不限于这样的示例。信息可以以其他各种方式使用。图11示出了作为用于这样的用途的功能部件的主题推荐单元183的UI(用户界面)生成单元171。这些功能部件例如通过使用处理器和存储器或存储装置来实现为终端装置或服务器中的软件。以下进一步描述由这些功能部件提供的信息。
(第一示例)
UI生成单元171可以提供用户界面,该用户界面以图形的形式按照时间顺序显示用户之间的对话的状态,例如,如上文参照图6和图8所述。此外,例如,UI生成单元171可以提供如上所述以列表的形式实时显示对话的状态的用户界面。此外,UI生成单元171使得可以在另一应用中使用以这种方式实时显示的对话的状态。例如,UI生成单元171可以与社交媒体的链路功能172协作,使得可以在属于公共对话组的用户之间共享诸如图像的数据,或者支持同时玩游戏的用户。
例如,在如上所述检测到的用户之间的对话的状态用于各种用途的情况下,如图12所示的终端装置之间的点对点(ad hoc)对话组识别可以使得可以识别类似于实际对话发生情况的对话组。
在图12所示的示例中,终端装置100x和100y(其仅仅是均由用户使用的终端装置,以及可以是例如图2的示例中的可穿戴终端100或移动终端200。同样适用于以下示例)均包括感测单元11、活动检测单元12、候选选择单元13、特征值提取单元14、对话确定单元15、通信单元31、显示单元32和UI生成单元171。此外,通信单元31由在终端装置100x和100y中每个终端装置中所包括的Bluetooth(注册商标)等的通信装置来实现。显示单元32由在终端装置100x和100y中的每个终端装置中所包括的诸如LCD的显示器来实现。在所示的示例中,终端装置100x和终端装置100y的相应功能部件彼此协作,以指定出各个终端装置的用户属于公共对话组。
更具体地,在所示的示例中,候选选择单元13基于由感测单元11获取的位置信息和由另一用户的感测单元11获取的位置信息来选择候选用户。然后,终端装置100x和100y的用户被选择为彼此的候选用户。接下来,活动检测单元12基于由感测单元11获取的传感器数据来指定发生诸如语音或点头的活动的部分。此外,特征值提取单元14经由通信单元31共享诸如由每个终端装置的活动检测单元12指定的部分的信息,并且提取指示终端装置100x和100y的用户之间的交互的特征值。对话确定单元15基于所提取的特征值来确定终端装置100x和100y的用户之间是否发生对话。UI生成单元171根据确定的结果生成诸如上述图形或列表的用户界面,并且经由显示单元32将所生成的用户界面呈现给每个用户。
图13和图14是均示出在上述第一示例中提供的用户界面的示例的图。在这些示例中,存在显示在移动终端200的显示器210上的作为用户界面的画面(例如,也可以存在显示在可穿戴终端100上的类似画面)。在图13所示的示例中,以图形的形式在画面2100a和2100b中显示用户的对话组。例如,用户可以通过放大/缩小的操作在画面2100a和画面2100b之间转换。例如以相对较高发生概率的阈值被估计为更可能属于同一对话组的其他用户被显示在画面2100a中。同时,例如以相对较低发生概率的阈值被估计为属于相同对话组的其他用户被更广泛地显示在画面2100b中。用户可以通过例如经由触摸面板等操作显示在画面2100a和2100b中的其他用户的图标来校正对于对话组的识别结果。例如,通过执行将另一用户的图标滑动到画面2100a和2100b的外部的操作,用户可以从对话组中移除表示为图标的另一用户。
在图14所示的示例中,用户的对话组以列表的形式显示在画面2100c中。例如,可以在列表中显示由对话确定单元15计算的具有较高概率发生对话的用户。因此,列表的显示顺序可以动态地改变。可以通过预先设置列表中显示的用户数来限制对话组中所包括的用户的最大数量。此外,也可以例如通过执行将另一用户滑动到画面2100c的外部的操作来从对话组中移除画面2100c中的列表中所显示的另一用户。
(第二示例)
在第二示例中,通过日志输出单元175和到社交媒体的链路功能172来将与用户对话的人员的历史输出到时间线上。图15示出了用于这样的输出的功能部件(另外,其是在所示的示例中估计对话的终端装置,但是服务器也可以估计对话)。在图15所示的示例中,终端装置100z包括感测单元11、活动检测单元12、候选选择单元13、特征值提取单元14、对话确定单元15、通信单元31、日志输出单元175和用于链接到社交媒体的功能172。日志输出单元175基于对话发生历史输出包括以下信息中至少任一个的日志:与用户(作为处理目标的所有用户)中所包括的至少一个用户交谈的人员的信息,或者与交谈的人员的对话的信息,该对话发生历史是基于对话确定单元15的确定的。将由日志输出单元175生成的日志经由用于链接到社交媒体的功能172输出到呈现给至少一个用户的社交媒体的时间线上(在另一示例中,由日志输出单元175生成的日志也可以输出到与社交媒体不相关的时间线)。此外,将语音识别单元34和主题识别单元35实现为服务器300z中的软件。
如上所述的功能部件可以将社交媒体中的在某种程度上例如具有对话的另一用户(其可以基于对话时间或高对话概率确定)推荐为朋友。这消除了在社交媒体中费力将与用户有对话的另一用户登记为朋友的必要性。此外,还可以在用于社交媒体等的应用中引用基于对话发生历史的日志。然后,可以将诸如通过语音识别单元34和主题识别单元35的处理识别的对话的主题的信息、对话发生的位置的信息、图像等添加到日志中。例如,如果根据与用户有对话的主题或者人员过滤并且显示对话日志,则对话日志作为用于在记忆中辅助用户的工具或用于记录记忆的手段是有用的。
图16是示出在上述第二示例中提供的用户界面的示例的图。在该示例中,存在作为用户界面被显示在移动终端200的显示器210上的画面(例如,也可以是与显示在可穿戴终端100上的画面类似的画面)。在图16所示的示例中,画面2100d中显示了日期2101和在时间线上的在那天与用户交谈的其他用户的列表。列表可以包括例如另一用户的名称2103和对话时间2105。用户可以例如通过选择用户来在显示画面2100d上列出任何用户的对话历史记录画面2100e。画面2100e包括另一用户的名称2103和对话时间2105、用于在社交媒体中与用户进行交友的图标2107以及与用户的过去对话历史2109。除了对话发生的日期和对话时间之外,在过去的对话历史中还可以显示对话主题2111。
(第三示例)
在第三示例中,可以例如在上述第二示例中的社交媒体上对不必交换对话的人做出动作。如上所述,在本实施例中,特征值提取单元14不仅可以基于各个用户的语音声音之间的关系来提取特征值,而且还可以基于一个用户的语音声音和除了另一用户的语音之外的活动(例如运动或生物指标)之间的时间关系来提取特征值。例如,如果这被使用,则偶发地对话的人识别单元173不仅可以识别与用户交换语音并且对话的另一用户,而且可以识别对用户的语音示出一些反应的另一用户或用户的活动指向其语音的另一用户并且将他或她显示在由日志输出单元175提供的时间线上。基于此,用户可以在进行云计算时对另一用户(在许多情况下不熟悉的人)做出动作174。例如,由于隐私保护,另一用户的头像仅在云计算中进行该动作时可见,但并不一定要交换个人信息。
图17是示出用于上述这样的输出的功能部件的图。在图16所示的示例中,终端装置100w包括感测单元11、活动检测单元12、候选选择单元13、特征值提取单元14、对话确定单元15、通信单元31、日志输出单元175和后处理单元36。此外,后处理单元36对应于上述的偶发地对话的人识别单元173和云计算中的动作174。例如,后处理单元36由终端装置100w中所包括的根据程序操作的处理器实现为软件。
在所示的示例中,日志输出单元175输出通过生成对话组而获得的结果作为日志。后处理单元36指定另一用户,对于该另一用户,在日志中检测到包括预定时间或更短时间的对话或仅一个用户的语音的通信。此外,后处理单元36可以通过从指定的用户中移除已经是社交媒体中的朋友的用户来提取用户临时遇到并且在云计算中对这样的用户做出动作的另一用户。
(第四示例)
在第四示例中,图11所示的主题推荐单元183提供了主题,从而支持用户之间的通信。例如,主题推荐单元183根据由特征值提取单元14提取的特征值指示的对话的速度来估计对话的活跃程度,从而推荐主题。更具体地,在由对话确定单元15计算的对话的发生概率趋于降低或者单独估计的对话活动的程度(例如,基于用户的语音的速度或音量来估计的)趋于降低的情况下,主题推荐单元183可以确定用户需要新主题并推荐与旧主题不同的主题。此外,例如,在对话的发生概率趋于增加或对话活动的程度倾于增加的情况下,主题推荐单元183可以确定当前主题继续,并将关于当前主题的信息提供给用户。
此外,作为另一示例,主题推荐单元183可以根据日志输出单元175输出的日志或由下面描述的亲密度图形生成单元177计算的亲密度向用户提供主题。更具体地,例如,在用户与用户不断交谈的人(与用户具有大量对话日志的人)或具有高亲密度的人交谈的情况下,主题推荐单元183可以确定在如上所述的对话不活跃的情况下提供新主题,这是因为在理论上对话应该是活跃的。同时,在用户与和用户不太交谈的人(与用户几乎没有对话日志的人)或具有低亲密度的人交谈的情况下,尽管如上所述对话被估计为不活跃,主题推荐单元183可以不提供新的主题,这是因为在某些情况下特别不需要对话。
(第五示例)
在第五示例中,图11所示的亲密度图形生成单元177基于由日志输出单元175输出的日志来生成指示用户之间的亲密度的图形。这里生成的亲密度图形也可以是基于对话的发生概率表示用户之间的关系的图形结构。因此,亲密度图形生成单元177也可以是指定这样的图形结构的关系的图形指定单元。亲密度图形生成单元177在具有例如通过日志输出单元175的日志示出的例如高对话频率或长的总对话时间的用户之间的亲密度图形中生成强链路。此外,亲密度图形生成单元177可以基于由活动检测单元12或特征值提取单元14提取的反应的数量或类型来估计亲密度,并且在具有高亲密度的用户之间生成强链路。更具体地,亲密度图形生成单元177可以根据某个用户在与另一用户的对话中是频繁说话还是仅点头来改变亲密度图形中的用户之间的链路的强度。此外,亲密度图形生成单元177可以例如基于从外部获取的信息(例如用户的简档)向用户之间的链路提供标签(例如父母、兄弟、老板、同事、朋友或男朋友/女朋友)。类似地,亲密度图形生成单元177可以向在亲密度图形上生成的组提供标签(例如家庭、公司、同事、圈子)。
作为示例,亲密度图形生成单元177可以通过使用诸如以下表达式1的等式来计算与另一用户的亲密度C。此外,假设在用户和另一用户之间发生的每个对话被提供有角标i。tnow表示当前时间。tpast_i表示与另一用户发生第i次对话的时间(较早的对话对表达式1中的亲密度影响较小)。durationi表示第i次对话的总时间。speaki表示第i次对话中的发言时间。nodi表示第i次对话中的点头时间(因此,与点头时间相比,发言时间增加,表达式1中亲密度也增加)。positivei和negativei表示用户的基于关于与用户进行第i次对话的另一用户的生物信息等估计的情感(积极的和消极的。如果积极情绪较强,则在表达式1中亲密度具有正值,而如果消极情绪较强,则亲密度具有负值)。
[数学式1]
(第六示例)
在第六示例中,图11所示的期望共享图形生成单元179将由适应图形生成单元181生成的过滤器应用于由亲密度图形生成单元177生成的亲密度图形,由此设置用户共享内容的范围。期望共享图形生成单元179是共享用户指定单元的示例,该共享用户指定单元在用户(是处理目标的所有用户)中所包括的至少一个用户共享信息的阶段中通过将与要共享的信息相关的过滤器应用于表示用户之间的关系的图形结构来指定共享信息的另一用户。近年来,已经获得了密切关注个人用户的生活的大量内容,例如,图像、声音、材料和生活日志。因此,自动设置针对这样的内容的共享范围或自动缩小针对共享范围的候选是有用的。
图18是用于示意性地描述本实施例中的期望共享图形的生成的图。图18示出了通过将过滤器F应用于组亲密度图形G1而获得的期望共享图形G2。这里,组亲密度图形G1例如由图11所示的组亲密度图形生成单元178生成。例如对于给定的用户组(包括用户)通过对由亲密度图形生成单元177针对各个用户生成的亲密度图形进行整合来生成组亲密度图形G1。
此外,过滤器F与由适应图形生成单元181生成的适应图形对应,并且选择与要共享的信息相关的过滤器F。从场所图形、兴趣图形、组图形等的图形中选择兴趣图形,并且在所示示例中应用与兴趣图形对应的过滤器F。如图11所示,适应图形生成单元181基于在共享由上下文识别单元180识别的内容时的上下文(在什么情况下被共享和什么类型的内容被共享)或用户的简档182来生成提供合适的过滤器F的适应图形。
因此,与组亲密度图形G1相比,图形中所包括的其他用户之间的位置关系在期望共享图形G2中改变了。通过应用过滤器F,某用户具有增强的链路,而通过应用过滤器F,另一用户具有减弱的链路(在所示的示例中,以距图形的中心的距离的形式表示链路的强度)。因此,在与其链路具有超过预定阈值的强度的另一用户(或将这样的用户看作对于内容的共享目的地的候选)共享内容的情况下,与通过使用组密度图形G1来决定共享目的地或其候选的情况相比,可以设置与内容的类型或共享内容的上下文对应的更合适的共享目的地或其候选。
这里,将使用更具体的示例来描述动态地选择过滤器F起源的适应图形的示例。例如,在用户进行旅行的情况下,可以选择与场所的属性对应的适应图形,并且可以加强到在用户的当前位置(旅行目的地)处的另一用户的链路(基于在图形结构中所包括的用户之间的位置关系配置过滤器)。此外,例如,在用户正在工作的情况下,可以选择与工作对应的适应图形,并且可以加强到具有工作关系的另一用户(例如同事)的链路(基于在图形结构中所包括的用户所属的组配置过滤器)。此外,例如,在用户正在玩或观看运动的情况下,可以选择与兴趣对应的适应图形,并且可以加强到对运动感兴趣的另一用户的链路(基于图形结构中所包括的用户的兴趣配置过滤器)。此外,例如,在用户参与任何人都可以参与的聚会(社交聚会)的情况下,可以选择适应图形(基于图形结构中所包括的用户的行为信息配置过滤器)以加强到与当时没干任何事的另一用户的链路。此外,例如,在用户面临未知且有麻烦的事情的情况下,可以选择适应图形(基于在图形结构中所包括的用户的知识配置过滤器)以加强到具有该知识的另一用户的链路。
此外,可以组合适应图形来配置过滤器F。此外,可以选择不使用适应图形(基本上不应用过滤器F)。如上所述,适应图形生成单元181基于识别的上下文、用户的简档等来自动地(例如,基于规则)选择适应图形。然而,适应图形生成单元181可以以列表、选项卡等的形式向用户呈现可选择的适应图形,然后根据用户的选择来选择适应图形。在这种情况下,适应图形生成单元181可以被配置成根据用户的选择来选择适应图形,并且基于用户在初始阶段的选择结果来学习对适应图形的选择标准(基于用户的情况的上下文、要共享的内容的类型等),然后自动选择适应图形。
图19是用于描述本实施例的对亲密度图形的动态校正的图。在所示的示例中,对于用户A和用户B的组亲密度图形G3通过在用户A和用户B之间的对话中由用户A做出的评论“C也应该已经来了”来在位置上校正,以生成亲密度图形G4,在该亲密度图形G4中,用户C和用户A和B之间的链路被加强(用户C的位置被移动到更靠近图形的中心)。此时,例如,在存在亲密度图形中保持链路的总强度不变的规则的情况下,增强了到用户C的链路,并且使到其他用户(用户D至F)的链路更弱(位置被移动到离图形的中心更远)。
在所示的示例中,因为用户A在实际语音中提及用户C的名称,因此增强了到用户C的链路。然而,例如,在用户A和用户B进行在线聊天时在由用户A(或用户B)输入的句子中包括用户C的名称的情况下,类似的处理也是可能的。上述示例也可以是以下示例,在该示例中,在比第一时间段更短的最近的第二时间段内用户A和另一用户(在上述示例中的用户B)之间发生的对话(其可以是实际对话或虚拟对话例如在线聊天)中由用户A发送的内容中包括用户C的名称的情况下,组亲密度图形生成单元178临时校正基于在某时间段(第一时间段)内用户A和另一用户(包括用户C)之间的对话的发生历史指定的亲密度图形(表示用户之间的关系的图形结构)。更具体地,在本示例中,组亲密程度图形生成单元178在组亲密度图形中临时加强用户A和用户C之间的关系。作为类似的示例,组亲密度图形生成单元178可以在亲密度图形中临时加强到用户投射视线的另一用户的链路。
如果如上述第六示例所述共享内容,则向用户呈现作为例如图像的期望共享图形(图18所示的G3)。共享范围(图18的G3所示的范围R)可以叠加在期望共享图形上。此外,不仅可以显示期望共享图形,而且还可以显示组亲密度图形或适应图形。在某示例中,首先,向用户呈现自动生成的候选,用户对候选进行校正,然后最终确定共享范围R。例如通过增加/减小诸如表示共享范围R的圆的图形的尺寸,将在共享范围R中被显示为图标的另一用户包括在内,或者从共享范围R移除被显示为图标的另一用户,用户可以校正共享范围R。期望共享图形生成单元179可以从对用户的共享范围R的校正结果附加地了解用户的关于共享范围的愿望,然后,期望共享图形生成单元179可以自动设置适当的共享范围R。
如果在上述配置中共享内容,则例如,通过选择性地共享另一真正亲密的用户的内容或者当内容被共享时用户会感兴趣的内容,可以大大满足与其共享内容的用户。此外,如果由某用户实时体验的内容(例如观看体育活动直播)与远程场所的其他用户实时共享,则可以共享体验。
(1-4.第一实施例的补充信息)
本公开内容的实施例可以包括例如如上所述的信息处理装置、由信息处理装置或***执行的信息处理方法、用于使信息处理装置起作用的程序以及记录有程序的非暂态有形介质。
此外,在对上述实施例的描述中,在***中,可以在用户之间检测到对话。然而,在上述实施例中,在用户之间检测到的对话不一定被限制在如上所述相关用户全部都说话的对话中。例如,也可以检测到仅一部分用户说话而其他用户根据语音做出动作例如点头的情况。因此,除了在另一实施例中与对话分离地检测这样的情况的情况之外,其可以是在本公开内容的实施例中可以检测到的用户之间的通信的发生(对话是一种类型的通信)。因此,对话确定单元可以是通信确定单元的示例。
<2.第二实施例>
(2-1.概述和***配置)
上面已经描述了基于指示用户之间的交互的特征值来确定在目标用户和候选用户之间是否发生对话的实施例。下面描述作为上述第一实施例的应用示例的第二实施例。将在第二实施例中描述在用户之间转移定位信息的***。
GNSS定位消耗大量功率。期望在包括小电池的诸如移动终端100或可穿戴终端200的终端中以较少功率实现GNSS定位。然后,以下描述在用户之间转移定位信息的实施例。
图20是示出第二实施例中的GNSS定位方法的概要的图。如图20的A所示,在第二实施例中使用悬挂型或眼镜型或手表型等的可穿戴终端100,从而在用户之间形成组。图20描述了从U1至U3的三个用户形成组的情况。此外,用户包括陪同特定用户的至少一个陪同人员。然而,特定用户与陪同人员之间的关系并不重要。将从一个用户看的另一用户(在有一些用户的情况下为其他用户)看作陪同人员。此外,下面将描述用于识别组中所包括的陪同人员的方法。
接下来,如图20的B所示,用于GNSS定位的GNSS定位权(其在图20的B中示意性地表示为钥匙图)在所形成的组中的用户之间转移。接下来,如图3的C所示,具有GNSS定位权的用户U1的可穿戴终端100执行GNSS定位,并且不具有GNSS定位权的其他用户(U2和U3)的可穿戴终端100接收来自执行GNSS定位的用户U1的可穿戴终端100的定位信息,并且共享定位信息。然后,接收到的定位信息被用作组的代表值(例如纬度和经度等信息)。
另外,上述GNSS定位权可以以预定的时间间隔转移。此外,在识别到每个可穿戴终端100的剩余电池水平的情况下,可以将GNSS定位权转移到具有较高剩余电池水平的可穿戴终端100。如果由具有较高剩余电池水平的可穿戴终端100以这种方式执行GNSS定位,则可以使组中的终端的剩余电池水平平滑。此外,如图21所示,可以经由显示在用户的移动终端200上的操作画面来转移GNSS定位权。
在图21中,在组中识别到三个用户。然后显示“BBB女士”目前具有GNSS定位权。即,在显示画面中,BBB女士姓名旁边的复选框中显示有指示BBB女士具有GNSS定位权的检查。当用户想要将GNSS定位权转移给另一用户时,用户通过检查显示在用户想要转移GNSS定位权的用户的姓名旁边的复选框来将GNSS定位权转移给另一用户。
图22是示出执行上述操作的***的***配置的图。根据本实施例的***包括服务器300m和可穿戴终端100m和100n。此外,可穿戴终端100的数量不限于两个。
服务器300m包括通信单元37、陪同人员识别单元38和GNSS定位判定单元39。通信单元37与可穿戴终端100m和100n中的每个可穿戴终端通信。此外,陪同人员识别单元38基于从可穿戴终端100m和100n中的每个可穿戴终端发送的信息来对陪同人员进行分组。此外,GNSS定位判定单元39决定在由陪同人员识别单元38识别的组中向哪个用户提供GNSS定位权。
此外,可穿戴终端100m和100n包括通信单元31、显示单元32、感测单元11、陪同人员识别单元40、GNSS定位单元41、GNSS控制单元42和虚拟GNSS定位单元43。这里,通信单元31与服务器300m通信。此外,显示单元32显示诸如关于属于组的用户的信息的信息。此外,如上所述,通信单元31由在各个可穿戴终端100m和100n中所包括的Bluetooth(注册商标)、Wi-Fi等的通信装置实现。
此外,感测单元11可以包括如上所述的麦克风、加速度传感器和/或陀螺仪传感器,并且还包括诸如摄像装置的成像单元。此外,陪同人员识别单元40接收来自感测单元11和通信单元31的信息,并且经由通信单元31将接收到的信息发送到服务器300m的陪同人员识别单元38。此外,陪同人员识别单元40接收由服务器300m的陪同人员识别单元38识别的陪同人员的信息。此外,还可以将陪同人员的这种信息显示在显示单元32上,并且可以由用户校正陪同人员的显示信息。
GNSS定位单元41接收来自用于定位的GNSS卫星的GNSS信号。虚拟GNSS定位单元43使用从另一终端接收的定位信息来确定自身终端的位置。接下来,GNSS控制单元42基于由服务器300m的GNSS定位判定单元39生成的GNSS定位权来切换是打开GNSS定位单元41还是虚拟GNSS定位单元43。此外,如上文参照图21所述,在GNSS定位权被手动改变的情况下,GNSS控制单元42识别出GNSS定位权被手动改变,并且切换是打开GNSS定位单元41还是虚拟GNSS定位单元43。
下面将具体描述上述配置的操作。可穿戴终端100m和100n的陪同人识别单元40接收来自感测单元11或GNSS控制单元42或通信单元31的以下信息。
(1)由GNSS定位单元41或虚拟GNSS定位单元43生成的定位信息
(2)接收到的其他终端的Bluetooth(注册商标)或Wi-Fi的终端标识信息(ID)
(3)由麦克风接收到的声音
(4)由摄像装置拍摄的所捕获的图像的信息
可穿戴终端100m和100n的陪同人员识别单元40将上述(1)至(4)中的信息发送至服务器300m的陪同人识别单元38。然后,接收信息的服务器300m的陪同人员识别单元38例如根据(1)中的定位信息来确定到每个可穿戴终端100的距离。如果该距离是预定距离或更小,则可以将拥有可穿戴终端100的用户识别为陪同人员。
此外,对于(2)中的终端标识信息,服务器300m的陪同人员识别单元38可以将拥有可穿戴终端100的、其终端标识信息是长期观察的用户识别为陪同人员。也就是说,在具有终端标识信息A的可穿戴终端100长期观察终端标识信息B的可穿戴终端100的情况下,将拥有具有终端标识信息B的可穿戴终端100的用户识别为陪同人员。
此外,服务器300m的陪同人员识别单元38可以基于(3)中的声音信息来执行环境声音匹配,并且将具有类似声音信息的可穿戴终端的用户识别为陪同人员。此外,服务器300m的陪同人员识别单元38可以基于(4)中的图像信息来将在预定时间段内所捕获的图像中识别到的人识别为陪同人员。然后,可以将用于图像识别的人员数据(例如面部图像数据)存储在可穿戴终端100m和100n中的每个可穿戴终端中,并且可穿戴终端100m和100n的陪同人识别单元40可以将人员数据发送至服务器300m。
此外,服务器300m的上述陪同人员识别单元38可以基于第一实施例中描述的诸如用户的点头或手部移动(手势)的活动或指示用户(即陪同人员)之间的交互的、基于用户之间的语音声音的特征值来识别陪同人员。此外,可以对(1)至(4)中的各种信息和用户之间的交互的各种信息进行整合以识别陪同人员。如果基于上述各种信息选择陪同人员,则选择与可穿戴终端100m和100n的状况对应的识别方法。例如,当摄像装置被激活时,可以使用摄像装置的捕获图像的信息来识别陪同人员。此外,当麦克风被激活时,可以使用声音信息来识别陪同人员。此外,整合和使用某些种类的信息使得可以更准确地识别陪同人员。如上所述,(1)至(4)中的各种信息和用户之间的交互的各种信息可以是用于识别陪同人员的陪同人员识别信息的示例。
以上描述了经由服务器300m在服务器300m的陪同人员识别单元40中识别陪同人员的示例。然而,可以通过各个可穿戴终端100m和100n之间的通信来识别陪同人员。图23是示出在可穿戴终端100m和100n中的每个可穿戴终端中识别陪同人员的示例的配置的图。图23中的陪同人员识别单元40具有图22中的服务器300m的陪同人员识别单元38的功能。此外,图23中的GNSS控制单元42具有图22中的服务器的GNSS定位判定单元39的功能。此外,以类似的方式配置的移动终端200可以形成类似的***。
以上描述了在分组用户之间转移GNSS定位权的示例。下面描述使用诸如包括足够大的电源并能够进行GNSS定位的车辆的装置的定位信息的示例。
图24是示出包括GNSS定位单元45的车辆400和使用由车辆400测量的定位信息的可穿戴终端100的框图。图24所示的可穿戴终端100和车辆400通过由通信单元31和44建立的通信彼此相关联。图24所示的可穿戴终端100和车辆400可以例如通过Bluetooth(注册商标)的配对等彼此相关联。
与车辆400相关联的可穿戴终端100的GNSS控制单元42关闭GNSS定位单元41。然后,GNSS控制单元42经由通信单元31获取由车辆400的GNSS定位单元45测量的定位信息。GNSS控制单元42打开虚拟GNSS定位单元43,并且通过使用获取的控制信息来识别自身终端的位置。当可穿戴终端100与车辆400的关联被释放时,可穿戴终端100打开可穿戴终端100的GNSS定位单元41,并且自身执行定位。
在诸如包括足够的电源的车辆400的装置以这种方式与可穿戴终端100相关联的情况下,可穿戴终端100使用由包括足够的电源的装置测量的定位信息。这降低了可穿戴终端100的功耗。
(2-2.应用示例)
以上描述了使用由另一装置测量的定位信息的***的示例。下面描述***的应用示例。在应用示例中,在彼此邻近定位的终端之间共享定位信息。该应用示例在大量终端聚集在诸如商场等的有限区域的情况下是有效的。
图25是示出应用示例的操作的流程图。首先,在S100中,可穿戴终端100通过使用Bluetooth(注册商标)等的通信单元31来对邻近的终端进行扫描。此时,诸如Bluetooth低能量的近场通信使得可穿戴终端100的通信单元31能够检测几米的半径内的终端。
接下来,在S102中,可穿戴终端100确定在S100中扫描的邻近终端的数量。接下来,在S106中,可穿戴终端100基于在S102中确定的邻近终端的数量来执行下面详细描述的间歇定位。
接下来,可穿戴终端100在S108中确定是否接收来自另一终端的定位信息。这里,在从另一终端没有获取定位信息的情况下,处理进行到S112,并且可穿戴终端100自身执行GNSS定位。如果可穿戴终端在S108中接收来自另一终端的定位信息,则处理进行到S110,并且可穿戴终端使用从其他终端接收到的定位信息来识别自身终端的位置。然后处理返回到S100,并且重复上述处理。
以上描述了第二实施例的应用示例的操作。下面更详细地描述图25的S106中的间歇定位。如上所述,在可穿戴终端100接收来自另一终端的定位信息的情况下,接收定位信息的可穿戴终端不必自身执行定位。因此,可穿戴终端100可以在上述***中间歇地执行定位。
此外,如上所述,在可穿戴终端100间歇地执行定位的情况下,可以根据在S102中确定的邻近终端的数量来改变间歇速率。假设在S102中确定的邻近终端的数量例如为10,并且以90%的间歇速率执行定位。这里,90%的间歇速率意味着GNSS定位单元41例如每10秒仅打开一秒。
在上述情况下,除自身终端之外的九个终端不执行定位的概率为0.9^10≈0.35(35%)。这里,除自身终端之外的终端不执行定位达三秒的概率为0.35^3≈0.039(3.9%)。这个概率非常低。也就是说,可穿戴终端100可以以至少约3秒的间隔接收来自另一终端的定位信息的概率非常高。因此,可穿戴终端100可以在保持90%的间歇速率的同时在上述***中获取具有足够精度的定位信息。
根据上面的描述可以理解,如果检测到更多的邻近终端,则可穿戴终端199可以增加间歇速率,而如果检测到较少的邻近终端,则可穿戴终端100必须降低间歇速率。以这种方式间歇地操作GNSS定位单元41使得可穿戴终端100能够节省电力。此外,可以通过用与用于间歇定位的GNSS定位方法中的过去的定位信息进行补充来执行GNSS定位。此时,如果过去的定位信息太旧,则互补是不可能的。同时,使用上述***使得尽管间歇速率增加也可以从另一终端获取定位信息。因此,定位信息被适当补充。
(2-3.第二实施例的补充信息)
本公开内容的实施例可以包括例如如上所述的信息处理装置、***、由信息处理装置或***执行的信息处理方法、用于使信息处理装置起作用的程序以及记录有程序的非暂态有形介质。
此外,在上述实施例中已经描述了从由可穿戴终端100检测到的各种信息识别陪同人员的示例。然而,可以通过使用将用户预先登记为陪同人员的专用应用来识别陪同人员。此外,可以通过使用现有社交网络服务(SNS)的群功能来识别陪同人员。
<3.硬件配置>
接下来,将参照图26描述根据本公开内容的实施例的信息处理装置的硬件配置。图26是示出根据本公开内容的实施例的信息处理装置的硬件配置示例的框图。
信息处理装置900包括中央处理单元(CPU)901、只读存储器(ROM)903和随机存取存储器(RAM)905。此外,信息处理装置900可以包括主机总线907、桥接器909、外部总线911、接口913、输入装置915、输出装置917、存储装置919、驱动器921、连接端口923和通信装置925。此外,信息处理装置900可以根据需要包括成像装置933和传感器935。信息处理装置900可以包括代替CPU 901或与CPU 901组合的诸如数字信号处理器(DSP)、专用集成电路(ASIC)或现场可编程门阵列(FPGA)的处理电路。
CPU 901用作操作处理装置和控制装置,并且根据记录在ROM 903、RAM905、存储装置919或可移除记录介质927上的各种程序来控制信息处理装置900中的全部操作或一些操作。ROM 903存储由CPU 901使用的程序、操作参数等。RAM 905主要存储在CPU 901的执行中使用的程序以及在执行中被适当修改的参数。CPU 901、ROM 903和RAM 905通过包括诸如CPU总线的内部总线的主机总线907彼此连接。此外,主机总线907经由桥接器909连接到诸如***部件互连/接口(PCI)总线的外部总线911。
输入装置915是由用户操作的装置,例如鼠标、键盘、触摸面板、按钮、开关和杆。输入装置915可以是例如使用红外光或其他无线电波的远程控制装置,或者可以是能够响应于信息处理装置900的操作而操作的诸如移动电话的外部连接装置929。输入装置915包括输入控制电路,该输入控制电路基于由用户输入的信息生成输入信号并且将输入信号输出到CPU 901。通过操作输入装置915,用户向信息处理装置900输入各种类型的数据或要求处理操作。
输出装置917包括能够经由视觉、听觉、触摸等的感觉向用户通知获取的信息的装置。输出装置917可以是诸如液晶显示器(LCD)或有机电致发光(EL)显示器的显示装置、诸如扬声器或耳机的声音输出装置、振动器等。输出装置917将由信息处理装置900执行处理而获得的结果输出为诸如文本或图像的视频、诸如语音或声音的音频、振动等。
存储装置919是用于被配置为信息处理装置900的存储单元的示例的数据存储的装置。存储装置919包括:例如,诸如硬盘驱动器(HDD)等的磁存储装置、半导体存储装置、光存储装置或磁光存储装置。存储装置919存储例如要由CPU 901执行的程序、各种类型的数据、从外部获取的各种类型的数据等。
驱动器921是用于诸如磁盘、光盘、磁光盘和半导体存储器的可移除记录介质927的读/写器,并且被内置在信息处理装置900中或外部地附接至信息处理装置900。驱动器921读取记录在附接于其上的可移除记录介质927中的信息,并且将读出的信息输出至RAM905。此外,驱动器921将记录写入安装的可移除记录介质927中。
连接端口923是用于将装置连接至信息处理装置900的端口。连接端口923可以包括例如通用串行总线(USB)端口、IEEE 1394端口和小型计算机***接口(SCSI)端口。连接端口923还可以包括RS-232C端口、光学音频终端、高清多媒体接口(HDMI)(注册商标)端口等。外部连接装置929与连接端口923的连接使得可以在信息处理装置900和外部连接装置929之间交换各种类型的数据。
通信装置925例如是包括用于连接至通信网络931的通信装置等的通信接口。通信装置925可以是例如用于局域网(LAN)、Bluetooth(注册商标)、Wi-Fi、无线USB(WUSB)等的通信卡。此外,通信装置925可以是用于光通信的路由器、用于非对称数字用户线路(ADSL)的路由器、用于各种通信的调制解调器等。通信装置925基于诸如TCP/IP的预定协议向例如因特网或其他通信装置发送信号并从例如因特网或其他通信装置接收信号。此外,连接至通信装置925的通信网络931可以包括以有线或无线方式连接的网络,并且例如是因特网、家庭LAN、红外通信、无线电波通信、卫星通信等。
成像装置933是通过使用诸如互补金属氧化物半导体(CMOS)或电荷耦合器件(CCD)的图像传感器以及诸如用于控制将对象图像形成在图像传感器上的镜头的各种构件来对真实空间进行成像并且生成捕获图像的装置。成像装置933可以是捕获静止图像的装置,并且还可以是捕获运动图像的装置。
传感器935包括各种传感器,例如,加速度传感器、角速度传感器、地磁传感器、照度传感器、温度传感器、气压传感器或声音传感器(麦克风)。传感器935获取关于信息处理装置900的状态的信息例如信息处理装置900的壳体的姿态,以及关于信息处理装置900周围的环境的信息例如信息处理装置900周围的亮度和噪声。传感器935还可以包括接收GPS信号并且测量装置的纬度、经度和高度的全球定位***(GPS)接收器。
上面已经描述了信息处理装置900的硬件配置的示例。上述部件中的每个部件可以配置有通用构件,并且还可以配置有专用于每个部件的功能的硬件。这样的配置也可以根据实现时的技术水平进行适当的修改。
以上已经参照附图描述了本公开内容的优选实施例,而本公开内容不限于上述示例。本领域技术人员可以在所附权利要求的范围内发现各种改变和修改,并且应当理解,它们将自然地落入本公开内容的技术范围内。
此外,本说明书中描述的效果仅仅是说明性的或示例化的效果,并不是限制性的。也就是说,结合或代替以上效果,根据本公开内容的技术可以实现根据本说明书的描述对于本领域技术人员清楚的其他效果。
此外,本技术还可以被配置为如下。
(1)一种信息处理装置,包括:
通信确定单元,所述通信确定单元被配置成基于从至少包括用户的语音声音的语音数据中提取的特征值来确定在包括所述用户的多个用户之间是否发生通信,所述特征值指示所述多个用户之间的交互。
(2)根据(1)所述的信息处理装置,其中,
所述多个用户包括第一用户和第二用户,以及
所述特征值基于所述语音数据中所包括的所述第一用户的语音声音和所述第二用户的语音声音之间的时间关系来提取。
(3)根据(2)所述的信息处理装置,其中,
所述语音数据包括第一语音数据和第二语音数据,所述第一语音数据包括所述第一用户的语音声音,所述第二语音数据包括所述第二用户的语音声音。
(4)根据(2)所述的信息处理装置,其中,
所述语音数据包括单条语音数据,所述单条语音数据包括所述第一用户的语音声音和所述第二用户的语音声音。
(5)根据(1)至(4)中任一项所述的信息处理装置,还包括:
特征值提取单元,所述特征值提取单元被配置成从所述语音数据中提取所述特征值。
(6)根据(1)至(5)中任一项所述的信息处理装置,其中,
所述通信确定单元确定在基于各用户之间的位置关系而从所述多个用户选出的用户之间是否发生通信。
(7)根据(1)至(6)中任一项所述的信息处理装置,其中,
所述通信确定单元确定在基于各用户的行为信息而从所述多个用户选出的用户之间是否发生通信。
(8)根据(1)至(7)中任一项所述的信息处理装置,其中,
所述特征值还从指示所述多个用户的运动或生物指标的传感器数据中提取。
(9)根据(8)所述的信息处理装置,其中,
所述多个用户包括第三用户和第四用户,以及
所述特征值基于所述语音数据中所包括的所述第三用户的语音声音和由所述传感器数据所指示的所述第四用户的运动或生物指标之间的关系来提取。
(10)根据(1)至(9)中任一项所述的信息处理装置,还包括:
显示控制单元,所述显示控制单元被配置成显示用于以时间顺序呈现所述通信的画面。
(11)根据(10)所述的信息处理装置,其中,
所述通信以与基于所述特征值计算的所述通信的发生概率对应的形式呈现在画面中。
(12)根据(1)至(11)中任一项所述的信息处理装置,还包括:
日志输出单元,所述日志输出单元被配置成基于所述通信的发生历史来输出包括以下信息中至少之一的日志:与所述多个用户中所包括的至少一个用户进行了通信的人员的信息,或者与进行了所述通信的人员的对话信息。
(13)根据(12)所述的信息处理装置,其中,
所述日志输出单元将所述日志输出至被呈现给所述至少一个用户的时间线上。
(14)根据(1)至(13)中任一项所述的信息处理装置,还包括:
关系图形指定单元,所述关系图形指定单元被配置成基于所述通信的发生历史来指定表示所述多个用户之间的关系的图形结构。
(15)根据(14)所述的信息处理装置,还包括:
共享用户指定单元,所述共享用户指定单元被配置成在所述多个用户中所包括的至少一个用户共享信息的阶段中,将与所共享的信息有关的过滤器应用于所述图形结构,从而指定共享所述信息的其他用户。
(16)根据(15)所述的信息处理装置,其中,
所述过滤器基于以下项来构成:所述图形结构中所包括的用户的位置关系、所述图形结构中所包括的用户所属的组、所述图形结构中所包括的用户的兴趣、所述图形结构中所包括的用户的行为信息或所述图形结构中所包括的用户的知识。
(17)根据(14)至(16)中任一项所述的信息处理装置,其中,
所述关系图形指定单元根据在比第一时间段短的最近的第二时间段内发生的通信的内容来临时校正基于在所述第一时间段内的通信的发生历史而指定的所述图形结构。
(18)根据(17)所述的信息处理装置,其中,
所述多个用户包括第五用户和第六用户,以及
在所述第二时间段内发生的通信中由所述第五用户发送的内容包括所述第六用户的名称的情况下,所述关系图形指定单元临时加强所述图形结构中的所述第五用户和所述第六用户之间的关系。
(19)一种信息处理方法,包括由处理器进行以下操作:
基于从至少包括用户的语音声音的语音数据中提取的特征值来确定在包括所述用户的多个用户之间是否发生通信,所述特征值指示所述多个用户之间的交互。
(20)一种用于使计算机执行以下功能的程序:
基于从至少包括用户的语音声音的语音数据中提取的特征值来确定在包括所述用户的多个用户之间是否发生通信,所述特征值指示所述多个用户之间的交互。
(21)一种根据(1)所述的信息处理装置,包括:
陪同人员识别单元,所述陪同人员识别单元被配置成基于用于识别所述用户的陪同人员的陪同人员识别信息来识别所述陪同人员;以及
GNSS定位判定单元,所述GNSS定位判定单元被配置成确定是向第一信息处理装置还是向第二信息处理装置提供用于进行GNSS定位的GNSS定位权,所述第一信息处理装置由所述用户拥有,所述第二信息处理装置由所述陪同人员拥有。
(22)根据(21)所述的信息处理装置,其中,
所述陪同人员识别信息包括以下项中的任何一个或者以下项的组合:指示所述用户和所述陪同人员之间的交互的特征值、或由所述用户拥有的所述第一信息处理装置捕获的图像信息、或关于所述第一信息处理装置和所述第二信息处理装置之间的距离的信息、或由所述第一信息处理装置或所述第二信息处理装置发送的终端标识信息。
(23)根据(21)或(22)所述的信息处理装置,其中,
识别所述第一信息处理装置和所述第二信息处理装置的剩余电池水平,并且基于所述剩余电池水平来决定向其提供所述GNSS定位权的信息处理装置。
(24)根据(21)至(23)中任一项所述的信息处理装置,其中,
在与所述第一信息处理装置邻近并且能够进行GNSS定位的车辆被识别的情况下,从所述车辆获取定位信息。
(25)根据(21)至(24)中任一项所述的信息处理装置,还包括:
通信单元,其中,
根据由所述通信单元识别的邻近终端的数量来改变间歇地执行GNSS定位的频率。
附图标记列表
10 ***
11 感测单元
12 活动检测单元
13 候选选择单元
14 特征值提取单元
15 对话确定单元
16 分数计算单元
17 分组单元
38,40 陪同人员识别单元
39 GNSS定位判定单元
100a 眼镜
100b 腕带
200 移动终端
300 服务器

Claims (25)

1.一种信息处理装置,包括:
通信确定单元,所述通信确定单元被配置成基于从至少包括用户的语音声音的语音语音数据中提取的特征值来确定在包括所述用户的多个用户之间是否发生通信,所述特征值指示所述多个用户之间的交互。
2.根据权利要求1所述的信息处理装置,其中,
所述多个用户包括第一用户和第二用户,以及
所述特征值基于所述语音数据中所包括的所述第一用户的语音声音和所述第二用户的语音声音之间的时间关系来提取。
3.根据权利要求2所述的信息处理装置,其中,
所述语音数据包括第一语音数据和第二语音数据,所述第一语音数据包括所述第一用户的语音声音,所述第二语音数据包括所述第二用户的语音声音。
4.根据权利要求2所述的信息处理装置,其中,
所述语音数据包括单条语音数据,所述单条语音数据包括所述第一用户的语音声音和所述第二用户的语音声音。
5.根据权利要求1所述的信息处理装置,还包括:
特征值提取单元,所述特征值提取单元被配置成从所述语音数据中提取所述特征值。
6.根据权利要求1所述的信息处理装置,其中,
所述通信确定单元确定在基于各用户之间的位置关系而从所述多个用户选出的用户之间是否发生通信。
7.根据权利要求1所述的信息处理装置,其中,
所述通信确定单元确定在基于各用户的行为信息而从所述多个用户选出的用户之间是否发生通信。
8.根据权利要求1所述的信息处理装置,其中,
所述特征值还从指示所述多个用户的运动或生物指标的传感器数据中提取。
9.根据权利要求8所述的信息处理装置,其中,
所述多个用户包括第三用户和第四用户,以及
所述特征值基于所述语音数据中所包括的所述第三用户的语音声音和由所述传感器数据所指示的所述第四用户的运动或生物指标之间的关系来提取。
10.根据权利要求1所述的信息处理装置,还包括:
显示控制单元,所述显示控制单元被配置成显示用于以时间顺序呈现所述通信的画面。
11.根据权利要求10所述的信息处理装置,其中,
所述通信以与基于所述特征值计算的所述通信的发生概率对应的形式呈现在画面中。
12.根据权利要求1所述的信息处理装置,还包括:
日志输出单元,所述日志输出单元被配置成基于所述通信的发生历史来输出包括以下信息中至少之一的日志:与所述多个用户中所包括的至少一个用户进行了通信的人员的信息,或者与进行了所述通信的人员的对话信息。
13.根据权利要求12所述的信息处理装置,其中,
所述日志输出单元将所述日志输出至被呈现给所述至少一个用户的时间线上。
14.根据权利要求1所述的信息处理装置,还包括:
关系图形指定单元,所述关系图形指定单元被配置成基于所述通信的发生历史来指定表示所述多个用户之间的关系的图形结构。
15.根据权利要求14所述的信息处理装置,还包括:
共享用户指定单元,所述共享用户指定单元被配置成在所述多个用户中所包括的至少一个用户共享信息的阶段中,将与所述共享的信息有关的过滤器应用于所述图形结构,从而指定共享所述信息的其他用户。
16.根据权利要求15所述的信息处理装置,其中,
所述过滤器基于以下项来构成:所述图形结构中所包括的用户的位置关系、所述图形结构中所包括的用户所属的组、所述图形结构中所包括的用户的兴趣、所述图形结构中所包括的用户的行为信息或所述图形结构中所包括的用户的知识。
17.根据权利要求14所述的信息处理装置,其中,
所述关系图形指定单元根据在比第一时间段短的最近的第二时间段内发生的所述通信的内容来临时校正基于在所述第一时间段内的所述通信的发生历史而指定的所述图形结构。
18.根据权利要求17所述的信息处理装置,其中,
所述多个用户包括第五用户和第六用户,以及
在所述第二时间段内发生的所述通信中由所述第五用户发送的内容包括所述第六用户的名称的情况下,所述关系图形指定单元临时加强所述图形结构中的所述第五用户和所述第六用户之间的关系。
19.一种信息处理方法,包括由处理器进行以下操作:
基于从至少包括用户的语音声音的语音数据中提取的特征值来确定在包括所述用户的多个用户之间是否发生通信,所述特征值指示所述多个用户之间的交互。
20.一种用于使计算机执行以下功能的程序:
基于从至少包括用户的语音声音的语音数据中提取的特征值来确定在包括所述用户的多个用户之间是否发生通信,所述特征值指示所述多个用户之间的交互。
21.根据权利要求1所述的信息处理装置,包括:
陪同人员识别单元,所述陪同人员识别单元被配置成基于用于识别所述用户的陪同人员的陪同人员识别信息来识别所述陪同人员;以及
GNSS定位判定单元,所述GNSS定位判定单元被配置成确定是向第一信息处理装置还是向第二信息处理装置提供用于进行GNSS定位的GNSS定位权,所述第一信息处理装置由所述用户拥有,所述第二信息处理装置由所述陪同人员拥有。
22.根据权利要求21所述的信息处理装置,其中,
所述陪同人员识别信息包括以下项中的任何一个或者以下项的组合:指示所述用户和所述陪同人员之间的交互的特征值、或由所述用户拥有的所述第一信息处理装置捕获的图像信息、或关于所述第一信息处理装置和所述第二信息处理装置之间的距离的信息、或由所述第一信息处理装置或所述第二信息处理装置发送的终端标识信息。
23.根据权利要求21所述的信息处理装置,其中,
识别所述第一信息处理装置和所述第二信息处理装置的剩余电池水平,并且基于所述剩余电池水平来决定向其提供所述GNSS定位权的信息处理装置。
24.根据权利要求21所述的信息处理装置,其中,
在与所述第一信息处理装置邻近并且能够进行GNSS定位的车辆被识别的情况下,从所述车辆获取定位信息。
25.根据权利要求21所述的信息处理装置,还包括:
通信单元,其中,
根据由所述通信单元识别的邻近终端的数量来改变间歇地执行GNSS定位的频率。
CN201680016943.0A 2015-03-27 2016-03-09 信息处理装置、信息处理方法和程序 Pending CN107408396A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2015066901 2015-03-27
JP2015-066901 2015-03-27
PCT/JP2015/085187 WO2016157642A1 (ja) 2015-03-27 2015-12-16 情報処理装置、情報処理方法、およびプログラム
JPPCT/JP2015/085187 2015-12-16
PCT/JP2016/057392 WO2016158267A1 (ja) 2015-03-27 2016-03-09 情報処理装置、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
CN107408396A true CN107408396A (zh) 2017-11-28

Family

ID=57004909

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201680016943.0A Pending CN107408396A (zh) 2015-03-27 2016-03-09 信息处理装置、信息处理方法和程序

Country Status (5)

Country Link
US (1) US20180040317A1 (zh)
EP (1) EP3276622A4 (zh)
JP (1) JP6756328B2 (zh)
CN (1) CN107408396A (zh)
WO (2) WO2016157642A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113170023A (zh) * 2018-11-09 2021-07-23 索尼集团公司 信息处理装置和方法以及程序

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6449232B2 (ja) 2013-03-15 2019-01-09 フルークコーポレイションFluke Corporation 測定データの自動記録及びグラフ化
JP6468258B2 (ja) * 2016-08-01 2019-02-13 トヨタ自動車株式会社 音声対話装置および音声対話方法
US10924376B2 (en) * 2016-12-30 2021-02-16 Google Llc Selective sensor polling
JP7006176B2 (ja) * 2017-11-22 2022-01-24 株式会社ぐるなび 情報処理装置、情報処理方法及びプログラム
JP2019106054A (ja) * 2017-12-13 2019-06-27 株式会社東芝 対話システム
JP6762973B2 (ja) * 2018-02-06 2020-09-30 Kddi株式会社 情報処理装置、情報処理方法、及びプログラム
WO2020066019A1 (ja) * 2018-09-28 2020-04-02 富士通株式会社 対話装置、対話方法及び対話プログラム
JP7155927B2 (ja) * 2018-11-19 2022-10-19 トヨタ自動車株式会社 情報処理システム、プログラム、及び情報処理方法
JP7041046B2 (ja) * 2018-12-05 2022-03-23 Kddi株式会社 グループ推定装置及びグループ推定方法
JP7290977B2 (ja) * 2019-03-28 2023-06-14 株式会社日本総合研究所 プログラム及び情報処理装置
JP7225276B2 (ja) * 2021-01-29 2023-02-20 エヌ・ティ・ティ・コミュニケーションズ株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP6924912B1 (ja) * 2021-01-29 2021-08-25 Kddi株式会社 情報処理装置及び情報処理方法
KR102616058B1 (ko) * 2022-04-06 2023-12-21 네이버 주식회사 음성 기록을 시각화하여 재연하는 방법, 컴퓨터 장치, 및 컴퓨터 프로그램
JP7434451B2 (ja) 2022-07-28 2024-02-20 エヌ・ティ・ティ・コミュニケーションズ株式会社 情報処理装置、情報処理方法及び情報処理プログラム
WO2024100703A1 (ja) * 2022-11-07 2024-05-16 マクセル株式会社 映像表示装置、映像表示システム及び映像表示装置の制御方法
WO2024142291A1 (ja) * 2022-12-27 2024-07-04 株式会社I’mbesideyou コミュニケーション可視化システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002108396A (ja) * 2000-09-29 2002-04-10 Matsushita Electric Ind Co Ltd 音声通信方法
CN1438626A (zh) * 2002-02-15 2003-08-27 佳能株式会社 具有语音合成功能的信息处理装置及方法
US20050088981A1 (en) * 2003-10-22 2005-04-28 Woodruff Allison G. System and method for providing communication channels that each comprise at least one property dynamically changeable during social interactions
US20080255847A1 (en) * 2007-04-12 2008-10-16 Hitachi, Ltd. Meeting visualization system
CN103888423A (zh) * 2012-12-20 2014-06-25 联想(北京)有限公司 信息处理方法和信息处理设备

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4227826C2 (de) * 1991-08-23 1999-07-22 Hitachi Ltd Digitales Verarbeitungsgerät für akustische Signale
JP2002073072A (ja) * 2000-08-31 2002-03-12 Sony Corp モデル適応装置およびモデル適応方法、記録媒体、並びにパターン認識装置
US6782363B2 (en) * 2001-05-04 2004-08-24 Lucent Technologies Inc. Method and apparatus for performing real-time endpoint detection in automatic speech recognition
JP2003228449A (ja) * 2002-02-01 2003-08-15 Sharp Corp 対話装置及び対話処理プログラムを記録した記録媒体
WO2004021601A1 (en) * 2002-08-27 2004-03-11 Closer Communications Llc Wireless information retrieval and content dissemination system and method
US7428000B2 (en) * 2003-06-26 2008-09-23 Microsoft Corp. System and method for distributed meetings
US7894637B2 (en) * 2004-05-21 2011-02-22 Asahi Kasei Corporation Device, program, and method for classifying behavior content of an object person
CN101390380A (zh) * 2006-02-28 2009-03-18 松下电器产业株式会社 可佩戴式终端
US7730411B2 (en) * 2007-02-01 2010-06-01 Cisco Technology, Inc. Re-creating meeting context
JP4364251B2 (ja) * 2007-03-28 2009-11-11 株式会社東芝 対話を検出する装置、方法およびプログラム
US9491573B2 (en) * 2008-11-06 2016-11-08 Texas Instruments Incorporated Communication device for providing value-added information based upon content and/or context information
US20100318571A1 (en) * 2009-06-16 2010-12-16 Leah Pearlman Selective Content Accessibility in a Social Network
WO2012036305A1 (ja) * 2010-09-17 2012-03-22 日本電気株式会社 音声認識装置、音声認識方法、及びプログラム
JP5525433B2 (ja) * 2010-12-24 2014-06-18 Kddi株式会社 ソーシャルグラフ更新システム、ソーシャルグラフ更新方法、およびプログラム
JP2012155374A (ja) * 2011-01-21 2012-08-16 Sony Corp 情報処理装置、情報処理方法、プログラムおよび情報処理システム
US8990416B2 (en) * 2011-05-06 2015-03-24 Oracle International Corporation Support for a new insert stream (ISTREAM) operation in complex event processing (CEP)
JP5772448B2 (ja) * 2011-09-27 2015-09-02 富士ゼロックス株式会社 音声解析システムおよび音声解析装置
JP2013135325A (ja) * 2011-12-26 2013-07-08 Fuji Xerox Co Ltd 音声解析装置
JP2013140534A (ja) * 2012-01-06 2013-07-18 Fuji Xerox Co Ltd 音声解析装置、音声解析システムおよびプログラム
JP2013164468A (ja) * 2012-02-09 2013-08-22 Fuji Xerox Co Ltd 音声解析装置、音声解析システムおよびプログラム
JP5433760B2 (ja) * 2012-10-18 2014-03-05 株式会社日立製作所 会議分析システム
US20130281801A1 (en) * 2013-03-04 2013-10-24 Hello Inc. System using patient monitoring devices with unique patient ID's and a telemetry system
JP6464449B2 (ja) * 2014-08-29 2019-02-06 本田技研工業株式会社 音源分離装置、及び音源分離方法
US10120907B2 (en) * 2014-09-24 2018-11-06 Oracle International Corporation Scaling event processing using distributed flows and map-reduce operations

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002108396A (ja) * 2000-09-29 2002-04-10 Matsushita Electric Ind Co Ltd 音声通信方法
CN1438626A (zh) * 2002-02-15 2003-08-27 佳能株式会社 具有语音合成功能的信息处理装置及方法
US20050088981A1 (en) * 2003-10-22 2005-04-28 Woodruff Allison G. System and method for providing communication channels that each comprise at least one property dynamically changeable during social interactions
US20080255847A1 (en) * 2007-04-12 2008-10-16 Hitachi, Ltd. Meeting visualization system
CN103888423A (zh) * 2012-12-20 2014-06-25 联想(北京)有限公司 信息处理方法和信息处理设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113170023A (zh) * 2018-11-09 2021-07-23 索尼集团公司 信息处理装置和方法以及程序

Also Published As

Publication number Publication date
EP3276622A1 (en) 2018-01-31
JP6756328B2 (ja) 2020-09-16
WO2016158267A1 (ja) 2016-10-06
JPWO2016158267A1 (ja) 2018-01-25
US20180040317A1 (en) 2018-02-08
WO2016157642A1 (ja) 2016-10-06
EP3276622A4 (en) 2018-10-03

Similar Documents

Publication Publication Date Title
CN107408396A (zh) 信息处理装置、信息处理方法和程序
US10841476B2 (en) Wearable unit for selectively withholding actions based on recognized gestures
US11115698B2 (en) Systems and methods for providing recommendations based on a level of light
US20190220933A1 (en) Presence Granularity with Augmented Reality
US20180300822A1 (en) Social Context in Augmented Reality
CN107710197A (zh) 在通信网络上共享图像和图像相册
US20180316900A1 (en) Continuous Capture with Augmented Reality
CN107924506A (zh) 推断通信的用户可用性和基于用户可用性或上下文改变通知设置
CN107548500A (zh) 基于用户例程模型的事件异常
US20140108530A1 (en) Person of Interest in Augmented Reality
CN106471860A (zh) 移动终端和用于控制其的方法
US20210026415A1 (en) Centralized content distribution in a wearable display device network
CN105308641A (zh) 信息处理设备、信息处理方法及程序
US20230336694A1 (en) Tagging Characteristics of an Interpersonal Encounter Based on Vocal Features
US20140108529A1 (en) Person Filtering in Augmented Reality
CN106133786B (zh) 总结用户之间的社交互动
CN103440307B (zh) 媒体信息提供方法及装置
US20150081699A1 (en) Apparatus, Method and Computer Program for Capturing Media Items
CN110291768A (zh) 信息处理装置、信息处理方法和信息处理***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20171128