JP6286289B2 - Management device, conversation system, conversation management method and program - Google Patents
Management device, conversation system, conversation management method and program Download PDFInfo
- Publication number
- JP6286289B2 JP6286289B2 JP2014122331A JP2014122331A JP6286289B2 JP 6286289 B2 JP6286289 B2 JP 6286289B2 JP 2014122331 A JP2014122331 A JP 2014122331A JP 2014122331 A JP2014122331 A JP 2014122331A JP 6286289 B2 JP6286289 B2 JP 6286289B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- users
- conversation
- group
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、ヘッドセット等の音声の入出力を行う通信機器を介して複数のユーザが会話するための技術に関する。 The present invention relates to a technique for conversation between a plurality of users via a communication device that inputs and outputs audio such as a headset.
複数の人物が集まる会合や講演会等のイベントの会場では、ヘッドセット等の音声の入出力を行う通信機器を介して、イベントの参加者同士が会話する会話システムが使用されることがある。この種の会話システムでは、各参加者が使用する言語が異なっていても会話が不自由とならないように、通訳者(翻訳者)又は翻訳エンジンによって参加者の発話内容が翻訳されることがある(例えば、特許文献1,2)。
同一の仮想空間に居る者同士が会話するシステムとして、特許文献3は、多地点音声通信システム(チャットシステム)において、一の音声コミュニケーション端末のユーザが、他の音声コミュニケーション端末のユーザに話し掛けたことを条件に、会話グループを構成することを開示している。また、特許文献3は、音声コミュニケーション端末を使用するユーザの顔の向きを検知し、仮想空間上で当該顔が向く方向に配置されている音源に基づいて、会話の相手を判定することを開示している。
In a venue for an event such as a meeting or lecture meeting where a plurality of persons gather, a conversation system in which event participants communicate with each other via a communication device that inputs and outputs audio such as a headset may be used. In this type of conversation system, the content of the participants' utterances may be translated by an interpreter (translator) or translation engine so that the conversation does not become inconvenient even if the language used by each participant is different. (For example,
As a system in which people in the same virtual space can talk to each other, Patent Document 3 describes that in a multipoint voice communication system (chat system), a user of one voice communication terminal talks to a user of another voice communication terminal. It is disclosed that a conversation group is formed on the condition of. Patent Document 3 discloses that the orientation of a face of a user who uses a voice communication terminal is detected and a conversation partner is determined based on a sound source arranged in a direction in which the face faces in a virtual space. doing.
特許文献1に記載された技術では、自分自身或いは所属するグループを特定する情報を、ヘッドセットのユーザが予め入力しておく必要がある。特許文献2に記載された技術では、予め定められた通信端末を介して、通信端末のユーザ同士が会話する。即ち、特許文献1,2に記載された技術では、各ユーザの発話内容は、事前に設定された会話の相手にのみ聴取される。このため、特許文献1,2に記載された技術では、例えば、通りすがりに出会ったユーザ同士が会話する場合にも、会話の相手の設定をユーザが都度行わなければならない、という問題がある。
In the technique described in
特許文献3に記載された技術では、ユーザの顔の向きによって会話の相手を特定するが、相手方の意思については特に考慮していない。よって、特許文献3に記載された技術では、相手方のユーザが、自身の意思に関係なく会話グループに含められてしまう、という問題がある。特許文献3には、ユーザが、会話の相手の名称や所定のキーワードの発話することによって、会話の相手が特定されることも記載されているが、この場合、会話の相手を指定するための発話を、ユーザが意識して行わなければならない。
これに対し、本発明の目的は、会話の相手を指定する動作をユーザが意識して行わなくとも、当該ユーザが属する会話のグループの柔軟な管理を実現することである。
In the technique described in Patent Document 3, the partner of the conversation is specified by the orientation of the user's face, but the intention of the partner is not particularly taken into consideration. Therefore, in the technique described in Patent Document 3, there is a problem that the other party user is included in the conversation group regardless of his / her own intention. Patent Document 3 also describes that a conversation partner is specified by a user speaking a name or a predetermined keyword of a conversation partner. In this case, in order to specify a conversation partner. Utterance must be consciously performed by the user.
On the other hand, an object of the present invention is to realize flexible management of a conversation group to which the user belongs even if the user does not consciously perform an operation of designating a conversation partner.
上述した課題を解決するため、本発明の管理装置は、音声データを送受信して音声の入出力を行う複数の通信機器の各々を使用する複数のユーザを、グループ分けし、同一のグループに属する前記ユーザ間で、前記音声の入出力による会話を実現させる会話システムの管理装置であって、前記複数の通信機器から、前記複数のユーザの各々の顔又は身体が向く方向を示す方向データを取得する方向データ取得手段と、取得された前記方向データに基づいて、前記顔又は身体が向き合った2以上の前記ユーザを、前記同一のグループに分類するグループ管理手段とを備える。 In order to solve the above-described problem, the management apparatus according to the present invention divides a plurality of users who use each of a plurality of communication devices that transmit and receive audio data and input and output audio, and belongs to the same group. A conversation system management apparatus that realizes a conversation by inputting and outputting voice between the users, and obtaining direction data indicating a direction in which each of the plurality of users faces or body is directed from the plurality of communication devices. Direction data acquisition means for performing the classification, and group management means for classifying the two or more users facing the face or body into the same group based on the acquired direction data.
本発明の管理装置において、前記複数のユーザの位置又は前記ユーザ間の距離を特定する特定手段を備え、前記グループ管理手段は、特定された前記位置又は前記距離が所定条件を満たし、且つ、前記顔又は身体が向き合った2以上の前記ユーザを、前記同一のグループに分類してもよい。 In the management device of the present invention, the management device further includes a specifying unit that specifies the positions of the plurality of users or the distances between the users, and the group management unit satisfies the specified condition or the distance, and Two or more users having face or body facing each other may be classified into the same group.
本発明の管理装置において、前記複数のユーザの各々の移動状態を示す状態データを取得する状態データ取得手段を備え、前記グループ管理手段は、取得された前記状態データに基づいて、前記同一のグループに属する2以上の前記ユーザのうち、前記移動状態が所定条件を満たす前記ユーザを、当該グループから除外してもよい。 In the management device of the present invention, the management device further includes state data acquisition means for acquiring state data indicating a movement state of each of the plurality of users, and the group management means is configured to use the same group based on the acquired state data. Among the two or more users belonging to the group, the user whose moving state satisfies a predetermined condition may be excluded from the group.
本発明の管理装置において、前記グループ管理手段は、前記同一のグループ内で、一の前記ユーザの顔又は身体が、所定時間継続して他の少なくとも一部の前記ユーザの顔又は身体と向き合わなかった場合、当該一の前記ユーザを当該グループから除外してもよい。 In the management device of the present invention, the group management means may be configured such that, in the same group, the face or body of one user does not face the face or body of at least some other users for a predetermined time. In this case, the one user may be excluded from the group.
本発明の管理装置において、前記グループ管理手段は、前記同一のグループに属する2以上の前記ユーザのいずれかと、他の前記ユーザとの前記顔又は身体が向き合った場合、当該他の前記ユーザを当該グループに分類してもよい。 In the management device of the present invention, when the face or body of one of the two or more users belonging to the same group and the face or body of the other user face each other, the group management means You may classify into groups.
本発明の管理装置において、前記複数のユーザは、第1のユーザと、複数の第2のユーザとを含み、前記グループ管理手段は、前記第1のユーザの顔又は身体が前記第2のユーザの方向を向いた後、当該第2のユーザの顔又は身体が当該第1のユーザの方向を向いた場合、当該第1のユーザ及び当該第2のユーザを前記同一のグループに分類してもよい。 In the management device of the present invention, the plurality of users include a first user and a plurality of second users, and the group management means is configured such that the face or body of the first user is the second user. If the face or body of the second user faces the direction of the first user after facing the direction, the first user and the second user may be classified into the same group. Good.
本発明の管理装置において、前記グループ管理手段は、前記通信機器に入力された前記ユーザの音声のレベルに基づいて、前記同一のグループに分類する2以上の前記ユーザを決定してもよい。 In the management device of the present invention, the group management means may determine two or more users to be classified into the same group based on a voice level of the user input to the communication device.
本発明の会話システムは、複数のユーザの各々に使用され、音声データを送受信して音声の入出力を行う複数の通信機器と、前記複数のユーザをグループ分けし、同一のグループに属する前記ユーザ間で前記音声の入出力による会話を実現させる管理サーバとを備える会話システムであって、前記複数の通信機器の各々は、自機を使用する前記ユーザの顔又は身体が向く方向を検知する方向検知手段と、検知された前記顔又は身体が向く方向を示す方向データを、前記管理サーバへ送信する方向データ送信手段とを有し、前記管理サーバは、前記方向データ送信手段により送信された前記方向データを取得する方向データ取得手段と、取得された前記方向データに基づいて、前記顔又は身体が向き合った2以上の前記ユーザを、前記同一のグループに分類するグループ管理手段とを有する。 The conversation system of the present invention is used for each of a plurality of users, and a plurality of communication devices that transmit / receive voice data and input / output voices, and the plurality of users are grouped, and the users belonging to the same group A communication system including a management server that realizes a conversation based on voice input / output, wherein each of the plurality of communication devices detects a direction in which the face or body of the user using the own device faces Detection means and direction data transmission means for transmitting the detected direction data indicating the direction of the face or body to the management server, wherein the management server is transmitted by the direction data transmission means. Direction data acquisition means for acquiring direction data, and two or more users facing the face or body based on the acquired direction data are connected to the same group. And a group management means for classifying the-loop.
本発明の会話管理方法は、音声データを送受信して音声の入出力を行う複数の通信機器の各々を使用する複数のユーザを、グループ分けし、同一のグループに属する前記ユーザ間で、前記音声の入出力による会話を実現させる会話管理方法であって、前記複数のユーザの各々の顔又は身体が向く方向を検知するステップと、検知した前記顔が向く方向を示す方向データに基づいて、前記顔又は身体が向き合った2以上の前記ユーザを、前記同一のグループに分類するステップとを備える。 In the conversation management method of the present invention, a plurality of users who use each of a plurality of communication devices that transmit and receive voice data and input and output voices are grouped, and the voices among the users belonging to the same group are grouped. A conversation management method for realizing a conversation by input / output of the plurality of users, based on the step of detecting the direction in which each face or body of each of the plurality of users faces, and the direction data indicating the direction in which the detected face faces, Classifying two or more users facing each other in face or body into the same group.
本発明のプログラムは、音声データを送受信して音声の入出力を行う複数の通信機器の各々を使用する複数のユーザを、グループ分けし、同一のグループに属する前記ユーザ間で、前記音声の入出力による会話を実現させる会話システムを管理するコンピュータに、前記複数の通信機器から、前記複数のユーザの各々の顔又は身体が向く方向を示す方向データを取得するステップと、取得した前記方向データに基づいて、前記顔又は身体が向き合った2以上の前記ユーザを、前記同一のグループに分類するステップとを実行させるためのプログラムである。 The program of the present invention divides a plurality of users who use each of a plurality of communication devices that transmit and receive audio data and inputs and outputs audio, and inputs the audio between the users belonging to the same group. In the computer that manages the conversation system that realizes the conversation by output, the step of acquiring direction data indicating the direction in which each face or body of each of the plurality of users faces from the plurality of communication devices, and the acquired direction data And the step of classifying the two or more users facing the body or body into the same group.
本発明によれば、会話の相手を指定する動作をユーザが意識して行わなくとも、当該ユーザが属する会話のグループの柔軟な管理を実現することができる。 According to the present invention, it is possible to realize flexible management of a conversation group to which the user belongs without the user performing the operation of designating the conversation partner.
以下、図面を参照して本発明の一実施形態を説明する。
図1は、本実施形態に係る会話システムの全体構成を示す図である。会話システム1は、管理サーバ10と、複数のヘッドセット20(20A,20B,20C,20D,20E)と、翻訳装置30とを備える。ヘッドセット20A,20B,20C,20D,20Eの各々を使用するユーザを、順にユーザA,B,C,D,Eと表す。管理サーバ10及び複数のヘッドセット20の各々は、ネットワーク100に接続する。ヘッドセット20は、ネットワーク100へのゲートウェイとなる無線通信端末P(例えばスマートフォン又はタブレット端末)を介して、ネットワーク100に接続する。図1には、ユーザAが使用(携帯)する無線通信端末Pのみが示されているが、ユーザB,C,D,Eの各ユーザも、ユーザAと同様に、無線通信端末Pを使用(携帯)する。ネットワーク100は、例えば、移動体通信網、ゲートウェイ装置及びインターネットを含む公衆通信回線である。
なお、会話システム1に含まれるヘッドセット20は5台に限られず、2台以上4台以下又は6台以上であってもよい。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating an overall configuration of a conversation system according to the present embodiment. The
Note that the number of
管理サーバ10は、複数のヘッドセット20を介して複数のユーザ間で行われる会話を実現させるサーバ装置である。管理サーバ10は、ヘッドセット20を使用する複数のユーザをグループ分けし、同一のグループ(以下「会話グループ」という。)に属するユーザ間で会話を実現させるためのデータの管理を行う管理装置として機能する。
ヘッドセット20は、ユーザの頭又は耳に装着(固定)して使用され、音声データの送受信を行って音声の入出力を行う通信機器である。ヘッドセット20は、いわゆるウェアラブルコンピュータの一種である。
The
The
翻訳装置30は、ヘッドセット20が送信した音声データに基づいて音声認識を行うことにより、当該音声データを文字コード(テキストデータ)に変換して、他言語に翻訳する翻訳処理を行う。翻訳装置30が行う翻訳処理は、公知の翻訳エンジンで行われる翻訳処理と同じでよい。
なお、翻訳装置30は、ここでは管理サーバ10とは別に設けられた装置(例えば翻訳サーバ)により実現されるが、管理サーバ10に組み込まれる形態の装置であってもよい。また、翻訳装置30は、ここでは管理サーバ10を介してヘッドセット20との間で音声データの送受信を行う。ただし、翻訳装置30は、ネットワーク100に接続する場合、管理サーバ10を介さずに、ヘッドセット20との間で音声データの送受信を行ってもよい。
The
Here, the
図2は、会話システム1の構成を示すブロック図である。図2において実線の矢印は、信号が流れる方向を意味する。
ヘッドセット20は、ハードウェア構成として、制御部21と、音声入力部22と、音声出力部23と、通信部24と、方向センサ25と、加速度センサ26と、測位部27と、発光部28と、操作部29とを備える。
制御部21は、演算処理装置としてのCPU(Central Processing Unit)と、ROM(Read Only Memory)及びRAM(Random Access Memory)を含むメモリを備えたマイクロコンピュータである。CPUは、ROMに記憶された制御プログラムをRAMに読み出して実行することにより、ヘッドセット20の各部を制御する。
FIG. 2 is a block diagram showing the configuration of the
The
The control unit 21 is a microcomputer provided with a CPU (Central Processing Unit) as an arithmetic processing unit and a memory including a ROM (Read Only Memory) and a RAM (Random Access Memory). The CPU controls each unit of the
音声入力部22は、例えばマイクロホン及びA/D(Analog to Digital)変換回路を有し、入力された音声を示す音声データを生成する。音声入力部22は、マイクロホンに入力された音声を示すアナログ形式の音声信号を、A/D変換回路を用いてデジタル形式に変換する。
音声出力部23は、例えばスピーカ及びD/A(Digital to Analog)変換回路を有し、音声データに基づいて音声を出力する。音声出力部23は、D/A変換回路を用いてデジタル形式の音声データをアナログ形式に変換し、変換後の音声信号に基づいてスピーカから音声を出力する。
The
The audio output unit 23 includes, for example, a speaker and a D / A (Digital to Analog) conversion circuit, and outputs audio based on audio data. The audio output unit 23 converts the audio data in the digital format into an analog format using the D / A conversion circuit, and outputs the audio from the speaker based on the converted audio signal.
通信部24は、例えば無線通信回路及びアンテナを有し、ネットワーク100に接続して無線通信を行う通信手段である。通信部24は、無線通信端末Pと近距離無線通信を行うことにより、無線通信端末Pを介してネットワーク100に接続する。近距離無線通信は、例えばBluetooth(登録商標)に準拠した無線通信であるが、Zigbee(登録商標)等の他方式に準拠した無線通信であってもよい。
The
方向センサ25は、例えばジャイロセンサ(角速度センサ)を有し、ヘッドセット20を使用(装着)するユーザの顔が向く方向を検知するセンサである。方向センサ25は、基準方向からのユーザの顔が向く方向の変化を検知することにより、ユーザの顔が向く方向を検知する方向検知手段として機能する。
なお、方向センサ25は、ジャイロセンサ以外のセンサ、例えば2軸又は3軸の地磁気センサを有してもよい。方向センサ25が地磁気センサを有する場合、ヘッドセット20は、ユーザの顔が向く方向の基準方向を地磁気センサの検知結果により特定したり、ユーザの顔が向く方位を特定したりすることも可能である。
The
The
加速度センサ26は、例えば2軸又は3軸の加速度センサであり、ヘッドセット20に作用した加速度を検知するセンサである。加速度センサ26は、ヘッドセット20を使用するユーザの移動状態を検知する状態検知手段として機能する。ユーザの移動状態は、例えば、ユーザの移動の有無、及び、ユーザが移動する場合の移動方向並びに移動速度の状態である。
なお、ヘッドセット20は、方向センサ25及び加速度センサ26に代えて、例えば3軸加速度、3軸角速度及び3軸地磁気の9軸モーションセンサを用いて、ユーザの顔が向く方向及びユーザの移動状態を検知してもよい。
The
The
測位部27は、ヘッドセット20のユーザの位置を測定(測位)する手段である。測位部27は、公知の屋内測位技術を用いて、屋内におけるユーザの現在位置を測位する。具体的な屋内測位技術については特に問わないが、測位部27は、例えば、複数の無線アクセスポイントから受信した電波の強度及び到達時間に基づいて三点測量を行うことにより、ユーザの位置を測位する。
The
発光部28は、例えば発光ダイオード(LED:Light Emitting Diode)を有し、所定の光を発する手段である。発光部28は、ヘッドセット20を使用するユーザ以外の人物が発光を知覚可能な位置に設けられる。
操作部29は、例えば各種の物理キー(例えば押下ボタン)を有し、ユーザの操作を受け付ける操作手段である。
The light emitting unit 28 has, for example, a light emitting diode (LED) and is a unit that emits predetermined light. The light emitting unit 28 is provided at a position where a person other than the user who uses the
The
管理サーバ10は、ハードウェア構成として、制御部11と、通信部12と、グループDB(Data Base)13とを備える。
制御部11は、演算処理装置としてのCPUと、ROM及びRAMを含むメモリとを備えたマイクロコンピュータである。CPUは、ROMに記憶された制御プログラムをRAMに読み出して実行することにより、管理サーバ10の各部を制御する。通信部12は、ネットワーク100に接続するためのインタフェースである。
The
The control unit 11 is a microcomputer including a CPU as an arithmetic processing device and a memory including a ROM and a RAM. The CPU controls each unit of the
グループDB13は、例えばハードディスク装置等の記憶装置で実現され、会話グループの管理に関する情報が格納(蓄積)されるデータベースである。本実施形態では、管理サーバ10が、グループDB13を備えているが、外部装置としてのグループDB13にアクセスしてもよい。
The
図3は、グループDB13に格納される情報を説明する図である。図4は、会話グループの具体例を説明する図である。本実施形態では、屋内の会場Qでユーザ同士が会話する場合を説明する。
図3に示すように、グループDB13は、ヘッドセット20のユーザ毎に、「ユーザID」と、「端末ID」と、「言語情報」と、「方向データ」と、「状態データ」と、「位置情報」と、「グループ情報」との各情報を対応付けて格納したデータベースである。
ユーザIDは、ヘッドセット20のユーザを識別するユーザ識別子である。端末IDは、ユーザが使用するヘッドセット20を識別する端末識別子である。端末IDは、例えば電話番号又は個体識別番号であるが、ヘッドセット20へ情報を送信するために使用される通信アドレス(宛先情報)であってもよい。
なお、図3に示すユーザID及び端末IDの末尾のアルファベット「A」〜「E」は、図1で説明したヘッドセット20A〜20E、及び、ユーザA〜Eのアルファベットと対応している。例えば、ユーザID「UID−A」はユーザAのユーザIDであり、端末ID「MID−A」は、ヘッドセット20Aの端末IDである。
FIG. 3 is a diagram for explaining information stored in the
As shown in FIG. 3, for each user of the
The user ID is a user identifier that identifies the user of the
Note that the alphabets “A” to “E” at the end of the user ID and terminal ID shown in FIG. 3 correspond to the alphabets of the
言語情報は、ヘッドセット20のユーザが使用する言語の情報であり、例えば、ユーザが日常的に使用する言語(例えば母国語)又はユーザが理解可能な言語である。言語情報は、例えば、ヘッドセット20又は無線通信端末Pを用いて、予めユーザによって指定されている。方向データは、ヘッドセット20のユーザの顔の向く方向を示すデータである。方向データが示す顔の方向は、例えば、ユーザA〜Eで共通の基準方向(例えば方位)からの方向の変化量により特定される。状態データは、ヘッドセット20のユーザの移動状態を示すデータである。位置情報は、ヘッドセット20のユーザの位置を示す。グループ情報は、ヘッドセット20のユーザが属する会話グループを示す情報である。図3,4の例では、ユーザA及びユーザBが属する会話グループG1と、ユーザC及びユーザDが属する会話グループG2とが存在する。ユーザEは、ここではどの会話グループにも属していない。
なお、言語情報、方向データ、状態データ、位置情報及びグループ情報の各々は、例えば、ユーザ毎に最新の情報がグループDB13に格納される。
The language information is information on a language used by the user of the
In addition, as for each of language information, direction data, state data, position information, and group information, for example, the latest information is stored in the
図2に戻り、ヘッドセット20及び管理サーバ10の機能構成を説明する。
ヘッドセット20の制御部21は、制御プログラムを実行することにより、音声データ送信手段211と、音声データ取得手段212と、報知手段213と、方向データ送信手段214と、状態データ送信手段215と、位置情報送信手段216とに相当する機能を実現する。
音声データ送信手段211は、音声入力部22に入力された音声(例えばユーザの会話の音声)を示す音声データを、通信部24を介して管理サーバ10へ送信する手段である。
音声データ取得手段212は、通信部24により管理サーバ10から音声データが受信されると、受信された音声データを取得する手段である。この音声データは、例えば、他のヘッドセット20の音声データ送信手段211により送信された音声データに対し、翻訳装置30により翻訳処理が行われた後の音声データである。音声出力部23は、音声データ取得手段212が取得した音声データに基づいて、音声を出力する。
報知手段213は、発光部28を制御して、音声データ取得手段212により取得された音声データに基づいて音声出力部23が音声出力したことを報知する手段である。
Returning to FIG. 2, functional configurations of the
The control unit 21 of the
The voice
The voice
The notifying
方向データ送信手段214は、方向センサ25により検知されたユーザの顔が向く方向を示す方向データを、通信部24を介して管理サーバ10へ送信する手段である。
状態データ送信手段215は、加速度センサ26により検知されたユーザの移動状態を示す状態データを、通信部24を介して管理サーバ10へ送信する手段である。
位置情報送信手段216は、測位部27により測定されたユーザの位置を示す位置情報を、通信部24を介して管理サーバ10へ送信する手段である。
The direction
The state
The position
管理サーバ10は、制御プログラムを実行することにより、音声データ取得手段111と、翻訳制御手段112と、音声データ送信手段113と、方向データ取得手段114と、状態データ取得手段115と、特定手段116と、グループ管理手段117とに相当する機能を実現する。
音声データ取得手段111は、通信部12によりヘッドセット20から音声データが受信されると、受信された音声データを取得する手段である。音声データ取得手段111は、音声データ送信手段211により送信された音声データを取得する。
翻訳制御手段112は、音声データ取得手段111が取得した音声データに基づいて、翻訳装置30に翻訳処理を行わせる手段である。翻訳制御手段112は、グループDB13に格納された言語情報に基づいて翻訳処理を行うように、翻訳装置30を制御する。
音声データ送信手段113は、翻訳装置30により翻訳処理が行われた後の音声データを、通信部12を介してヘッドセット20へ送信する手段である。ただし、送受信側のヘッドセット20のユーザの言語情報が同じの場合、音声データ送信手段113は、翻訳処理を行うことなく、音声データを送信する。音声データ送信手段113は、一のユーザのヘッドセット20からの音声データに基づいて翻訳処理が行われた場合、同じ会話グループに属する他の全てのユーザのヘッドセット20へ音声データを送信する。
By executing the control program, the
The voice
The
The audio
方向データ取得手段114は、方向データ送信手段214により送信された方向データが通信部12により受信されると、当該方向データを取得する手段である。
状態データ取得手段115は、状態データ送信手段215により送信された状態データが通信部12により受信されると、当該状態データを取得する手段である。
特定手段116は、ヘッドセット20を使用する複数のユーザの位置又はユーザ間の距離を特定する手段である。本実施形態では、特定手段116は、位置情報送信手段216により送信された位置情報が通信部12により受信されると、当該位置情報が示すユーザの位置を特定する。
The direction
The status data acquisition unit 115 is a unit that acquires the status data when the status data transmitted by the status
The specifying
グループ管理手段117は、グループDB13に基づいて、ヘッドセット20のユーザが属する会話グループを管理する手段である。グループ管理手段117は、方向データ取得手段114、状態データ取得手段115及び特定手段116の各々から供給された情報に基づいてグループDB13を更新することにより、ヘッドセット20のユーザをグループ分けする。
The
具体的には、グループ管理手段117は、方向データ取得手段114が取得した方向データに基づいて、顔が向き合った2以上のユーザを特定する。2人のユーザの顔が向き合った場合、これら2人のユーザの顔の向きが正反対を向く。即ち、これら2人のユーザの方向データが示す顔の方向をベクトル化した場合、両ベクトルの成す角は180度である。ただし、方向データが示す方向が正反対でなくても、正反対に近ければ、2人のユーザの顔が向き合ったとみなされる。このとき、両ベクトルの成す角は180±α(αは定数)度の範囲内に収まる。3人以上のユーザの顔が向き合った場合とは、各ユーザの顔が、他の少なくとも1人のユーザの顔と向き合ったことをいう。
なお、ここでは、2以上のユーザの顔が同時に向き合う場合を想定するが、同時に限られず、或る程度の時間差があってもよい。
Specifically, the
Here, it is assumed that two or more user faces face each other at the same time. However, the faces are not limited at the same time, and there may be a certain time difference.
グループ管理手段117は、顔が向き合った2以上のユーザについて、特定手段116が特定した複数のユーザの位置又はユーザ間の距離が所定条件を満たした場合に、当該2以上のユーザが対面条件を満たしたと判定する。この所定条件は、例えば、ユーザ間の距離が閾値以下であることを示す条件である。グループ管理手段117は、対面条件を満たした2以上のユーザを、同一の会話グループに分類する。
For two or more users facing each other, the
また、グループ管理手段117は、会話グループを形成した後も、特定手段116が特定した複数のユーザの位置又はユーザ間の距離や、状態データ取得手段115が取得した状態データが示す移動状態に基づいて、会話グループを管理する。
Further, even after the conversation group is formed, the
次に、本実施形態の動作を説明する。
<A:会話グループの形成>
図5は、会話システム1の会話グループを形成する処理を示すシーケンス図である。
ヘッドセット20A〜20Eの各々は、自機のユーザの顔が向く方向を、方向センサ25を用いて検知する(ステップS1)。ヘッドセット20A〜20Eの各々は、例えば、共通の基準方向からの方向の変化量により、ユーザの顔が向く方向を検知する。基準方向は、方向センサ25により検知されるが、ユーザにより指定されてもよい。次に、ヘッドセット20A〜20Eの各々は、自機のユーザの位置を、測位部27を用いて測位する(ステップS2)。ヘッドセット20A〜20Eの各々は、検知した顔の向く方向を示す方向データ及び測位したユーザの位置を示す位置情報を、通信部24を介して管理サーバ10へ送信する(ステップS3)。
ヘッドセット20A〜20Eの各々は、ステップS1〜S3の処理を、例えば所定間隔で(例えば5秒毎に)繰り返し実行する。ただし、ヘッドセット20A〜20Eの各々で、ステップS1〜S3の処理の実行タイミングが一致(同期)している必要はない。
Next, the operation of this embodiment will be described.
<A: Formation of conversation group>
FIG. 5 is a sequence diagram showing processing for forming a conversation group of the
Each of the
Each of the
管理サーバ10は、ステップS3の処理で送信された方向データ及び位置情報を、通信部12を介して取得し、グループDB13を更新する(ステップS4)。管理サーバ10は、方向データ及び位置情報に基づいて、対面条件を満たしたと判定した2以上のユーザを同一の会話グループに分類するように、グループDB13を更新する。
図4に示す例では、ユーザAとユーザBとが対面条件を満たしている。このため、管理サーバ10は、ユーザAとユーザBを同じ会話グループG1に分類するように、グループDB13を更新する。同様に、ユーザCとユーザDも対面条件を満たしている。このため、管理サーバ10は、ユーザCとユーザDを同じ会話グループG2に分類するように、グループDB13を更新する。ユーザEは他のどのユーザとも対面していないので、管理サーバ10は、グループ情報を「−」(ブランク)としておく。ステップS4の更新後のグループDB13は、図3に示すとおりである。
なお、管理サーバ10は、どの会話グループにも属していないユーザのみを対象として会話グループに分類してもよいし、既にいずれかの会話グループにも属しているユーザを別の会話グループに分類してもよい。後者の場合、管理サーバ10は、先に属していた会話グループから除外することで、いずれか1の会話グループにユーザを分類する。
The
In the example shown in FIG. 4, the user A and the user B satisfy the meeting condition. For this reason, the
Note that the
会話グループを形成した後、ヘッドセット20AにユーザAの会話の音声が入力されたとする(ステップS5)。ここでは、ユーザAの日本語の会話の音声が入力される。この場合、ヘッドセット20Aは、会話の音声を示す音声データを、通信部24を介して管理サーバ10へ送信する(ステップS6)。管理サーバ10は、通信部12により音声データを受信(取得)すると、翻訳装置30に翻訳処理を実行させる翻訳制御を行う(ステップS7)。具体的には、管理サーバ10は、グループDB13に基づいて、ユーザAと同じ会話グループに属する他のユーザ(ここではユーザB)の言語情報を特定する。ユーザBの言語情報は、図3に示すように「英語」である。このため、管理サーバ10は、受信した音声データに基づいて、会話の音声を「日本語」から「英語」へ翻訳する翻訳処理を、翻訳装置30に実行させる。
After forming the conversation group, it is assumed that the voice of the conversation of the user A is input to the
管理サーバ10は、翻訳処理後の音声データを翻訳装置30から受信(取得)すると、ユーザAと同じ会話グループに属するユーザBのヘッドセット20Bへ、当該音声データを通信部12を介して送信する(ステップS8)。ヘッドセット20Bは、通信部24を介して取得した音声データに基づいて、音声出力する(ステップS9)。更に、ヘッドセット20Bは、音声データに基づいて音声出力したことを、発光部28に発光させることにより、ユーザへ報知する(ステップS10)。ヘッドセット20Bは、例えば、音声出力されている期間中、又は、音声出力の開始時若しくは終了時において、発光部28を発光させる。
ステップS9の報知は、発話者であるユーザAに対して、ユーザBによって会話の音声が聴取されたことを通知するために行われる。ユーザAは、自身が発話した後タイミングで、ヘッドセット20Bの発光部28の発光を知覚すれば、自身の発話内容がユーザBに聴取されたことが分かる。反対に、発光部28の発光がなければ、ユーザAは発話内容が聴取されていない可能性があることが分かるので、再び同じ内容を発話する等の対処を採ることができる。
ステップS9の報知において、ヘッドセット20は、発話者側であるユーザ又は当該ユーザが属する会話グループによって発光の方法(例えば色や発光のパターン)を異ならせてもよい。これにより、ヘッドセット20は、発話者又はどの会話グループでの会話が行われたかを他者に把握させることができる。
When the
The notification in step S9 is performed to notify the user A who is a speaker that the conversation voice has been heard by the user B. If the user A perceives the light emission of the light emitting unit 28 of the headset 20B at the timing after the user speaks, the user A knows that the content of his speech has been heard by the user B. On the other hand, if the light emitting unit 28 does not emit light, the user A knows that there is a possibility that the utterance content has not been listened to, so it is possible to take measures such as uttering the same content again.
In the notification in step S9, the
ユーザBが発話した場合の会話システム1の動作は、ステップS5〜S10で説明した処理と同じ流れで実行される。この動作を簡単に説明すると、ヘッドセット20Bは、英語の会話の音声を示す音声データを管理サーバ10へ送信する。ヘッドセット20Bは、グループDB13に基づいて、ユーザAの会話の音声を日本語に翻訳する翻訳処理を、翻訳装置30に実行させる。そして、管理サーバ10は、翻訳処理後の音声データをヘッドセット20Aへ送信する。ヘッドセット20Aは、翻訳処理後の音声データに基づいて音声出力するとともに、発光部28に発光させる。
なお、会話グループG2におけるユーザCとユーザDとの会話も、前述した説明の手順で実行される。
The operation of the
Note that the conversation between the user C and the user D in the conversation group G2 is also executed according to the procedure described above.
<B:会話グループの更新/ユーザの追加>
会話システム1では、会話グループを形成した後、この会話グループに新たなユーザを追加する機能を有する。例えば、図4で説明した会話グループG1が形成された後、ユーザEが、ユーザA,Bの会話に途中から参加する場合がある。以下、会話システム1において、会話グループG1に、ユーザEを追加するときの動作を説明する。
<B: Update conversation group / add user>
The
図6は、会話システム1の会話グループにユーザを追加する処理を示すシーケンス図である。図6の処理ステップのうち、図5と同じ処理ステップについては同じ符号を付して表す。図7は、会話グループにユーザを追加する処理の具体例を説明する図である。
会話グループG1,G2が形成された後も、ヘッドセット20A〜20Eの各々は、ステップS1〜S3の処理を実行する。そして、管理サーバ10は、ステップS3の処理で送信された方向データ及び位置情報を通信部12を介して取得すると、グループDB13を更新する(ステップS4)。ユーザEが、会話グループG1に属するユーザA又はユーザBとの対面条件を満たす場合、管理サーバ10は、会話グループG1にユーザEを追加するように、グループDB13を更新する。この更新により、図7(a)に示すように、会話グループG1がユーザA,B,Eの3者で構成される。グループDB13においては、図7(b)に示すように、ユーザEのユーザID「UID−E」に対応付けて、グループ情報として「G1」が格納される。
FIG. 6 is a sequence diagram showing processing for adding a user to the conversation group of the
Even after the conversation groups G1 and G2 are formed, each of the
会話グループを形成した後の会話システム1の動作は、大略、<A:会話グループの形成>の項で説明したとおりである。ただし、ヘッドセット20AにユーザAの会話の音声が入力された場合、管理サーバ10は、翻訳処理により生成された翻訳処理後の音声データをヘッドセット20Aへ送信する一方で(ステップS8a)、ユーザEのヘッドセット20Eにも音声データを送信する(ステップS8b)。図7(b)に示すように、ユーザEの言語情報は、ユーザAと同じく日本語である。このため、管理サーバ10は、翻訳装置30に翻訳処理を行わせることなく、ヘッドセット20Aから受信した音声データを、ヘッドセット20Eへ送信する。そして、ヘッドセット20B,20Eの各々は、取得した音声データに基づいて音声出力するとともに、発光部28に発光させる(ステップS9,S10)。
なお、会話グループG1におけるユーザB又はユーザEが発話したときの会話システム1の動作は、以上の説明から容易に類推できるので、説明を省略する。
The operation of the
In addition, since the operation | movement of the
会話グループにユーザを追加するときの対面条件は、当該ユーザと、当該会話グループに属するいずれか一のユーザとの対面条件を満たすこと以外であってもよい。会話グループにユーザを追加するときの対面条件は、当該ユーザと、当該会話グループに属する全てのユーザとの対面条件を満たすことであってもよい。この場合、会話グループに追加される対象のユーザは、当該会話グループに属するユーザの各々と顔が向き合うような動作をすることで、対面条件が満たされる。 The meeting condition when adding a user to the conversation group may be other than satisfying the meeting condition between the user and any one user belonging to the conversation group. The meeting condition when adding a user to a conversation group may be that the meeting condition between the user and all users belonging to the conversation group is satisfied. In this case, the user to be added to the conversation group performs the operation such that the face faces each of the users belonging to the conversation group, so that the facing condition is satisfied.
<C:会話グループからのユーザの除外/移動状態>
会話システム1では、会話グループを形成した後、当該会話グループから一部のユーザを除外する機能を有する。複数ユーザからなる会話グループにおいて、一部のユーザが立ち去る等した場合に、会話システム1では当該ユーザを会話グループから除外する。
なお、2人のユーザからなる会話グループからユーザが除外された場合、当該会話グループが解除(消滅)することとなる。
<C: Exclusion of user from conversation group / movement state>
The
When a user is excluded from a conversation group composed of two users, the conversation group is canceled (disappears).
図8は、会話システム1のユーザの移動状態に基づいて会話グループからユーザを除外するときの処理を示すシーケンス図である。以下、ユーザAとユーザBからなる会話グループG1から、ユーザA又はユーザBを除外するときの動作を説明する。
会話グループに属するヘッドセット20A,20Bの各々は、加速度センサ26により検知された加速度に基づいて、ユーザの移動状態を検知する(ステップS11)。ユーザの移動状態は、前述のとおり、ユーザの移動の有無と、移動する場合の移動方向や移動速度を含む。次に、ヘッドセット20A,20Bの各々は、検知したユーザの移動状態を示す状態データを、通信部24を介して管理サーバ10へ送信する(ステップS12)。
ヘッドセット20A,20Bの各々は、ステップS11,S12の処理を、例えば所定間隔で(例えば5秒毎に)繰り返し実行する。ただし、ヘッドセット20A,20Bの各々で、ステップS11,S12の処理の実行タイミングが一致(同期)している必要はない。
管理サーバ10は、状態データが受信されると、受信された状態データを取得して、グループDB13を更新する(ステップS13)。
FIG. 8 is a sequence diagram showing processing when a user is excluded from the conversation group based on the movement state of the user of the
Each of the
Each of the
When the status data is received, the
次に、管理サーバ10は、グループDB13の更新後の状態データに基づいて、ユーザの移動状態が会話グループからの除外条件を満たすかどうかを判断する(ステップS14)。除外条件は、複数のユーザで行われている会話に参加しなくなったことを示すユーザの移動状態を示す。除外条件は、例えば、ユーザの移動の有無と、移動する場合の移動方向及び移動速度で特定される移動状態が、一のユーザと、同じ会話グループの他のユーザとで異なることを示す。管理サーバ10は、例えば、移動の有無、移動方向又は移動速度のうちの1つ以上が異なる場合に、除外条件を満たすと判断する。管理サーバ10は、ユーザの移動状態が除外条件を満たすと判断した場合(ステップS14;YES)、当該ユーザを会話グループから除外する(ステップS15)。会話グループG1に属するユーザAとユーザBの移動状態が異なる場合、管理サーバ10は、ユーザA及びユーザBの各々を、会話グループG1から除外する。
Next, the
図9に示すように、同じ会話グループに属するユーザAとユーザBが歩きながら会話している場合、両者は移動しているものの、会話が行われていると推測される。この場合、管理サーバ10は、ステップS14の処理で「NO」と判断し、会話グループG1を維持する。
As shown in FIG. 9, when the user A and the user B belonging to the same conversation group are talking while walking, it is estimated that the two are moving but the conversation is being performed. In this case, the
<D:会話グループからのユーザの除外/顔の向く方向>
会話システム1では、会話グループを形成した後もユーザの顔が向く方向を検知し、同じ会話グループ内の他のユーザと顔が向き合わない時間が長いユーザを、当該会話グループから除外する機能を有する。一般に、会話をしている人物同士は、常にではなくとも、多くの時間で顔が向き合っているはずである。言い換えると、会話をしている人物同士は、基本的には顔が向き合っているが、一時的に視線を逸らすなどして、顔が向き合わない時間が存在することがある。しかし、顔が向き合わない時間が或る程度長くなると、人物同士が会話をしていない可能性があると考えられる。
そこで、会話システム1では、同じ会話グループ内のユーザ同士の顔が向き合わない時間に基づいて、会話グループの維持又は会話グループからユーザを除外する会話グループの管理を行う。
<D: Exclude user from conversation group / Direction of face>
The
Therefore, in the
図10は、会話システム1のユーザの顔の向く方向に基づいて会話グループからユーザを除外するときの処理を示すシーケンス図である。以下、ユーザAとユーザBからなる会話グループG1から、ユーザA又はユーザBを除外するときの動作を説明する。
会話グループに属するヘッドセット20A,20Bの各々は、ステップS1〜S3の処理を、例えば所定間隔で(例えば5秒毎に)繰り返し実行する。そして、管理サーバ10は、ステップS3の処理で送信された方向データ及び位置情報を、通信部12を介して取得すると、グループDB13を更新する(ステップS4)。
FIG. 10 is a sequence diagram illustrating processing when a user is excluded from the conversation group based on the direction in which the user of the
Each of the
次に、管理サーバ10は、ユーザの顔が同じ会話グループ内の他のユーザと顔が向き合わない時間が設定時間(例えば20秒)を経過したかどうかを判断する(ステップS21)。この設定時間は、例えば設計段階又はユーザ指定によって設定されるが、各ユーザの会話の意思の有無を推し量るのに適した時間に設定されればよい。
管理サーバ10は、ユーザの顔が同じ会話グループ内の他のユーザと顔が向き合わない時間が、設定時間を経過していないと判断した場合は(ステップS21;NO)、当該会話グループを維持する。図11の左側に示すように、ユーザAが一時的に視線を逸らした場合には、ユーザAとユーザBとの顔が向き合わない時間が存在する。しかし、会話が継続している場合には、この時間が設定時間に満たないので、管理サーバ10は会話グループG1を維持する。
Next, the
If the
他方、管理サーバ10は、ユーザの顔が同じ会話グループ内の他のユーザと顔が向き合わない時間が設定時間を経過したと判断した場合は(ステップS21;YES)、当該ユーザを当該会話グループから除外する(ステップS22)。図11の右側に示すように、会話グループG1に属するユーザAとユーザBの顔が向き合わない時間が設定時間以上に長くなると、会話の意思がないものとみなして、管理サーバ10はユーザA及びユーザBを会話グループG1から除外する。会話グループが3人以上で構成される場合には、管理サーバ10は、同一グループ内のどのユーザとも顔が向き合わない時間が設定時間を経過すると、当該ユーザを当該会話グループから除外し、他のユーザについては当該会話グループに残したままとする。
On the other hand, when the
以上説明した会話システム1によれば、ヘッドセット20を使用するユーザ同士が、互いに顔を向け合った場合に会話グループが形成されるので、会話の相手の情報を事前に入力する手間がユーザに強いられない。また、通りすがりのユーザ同士が会話する場合であっても、ユーザが都度、会話の相手の情報を入力する必要がない。
また、会話システム1では、ヘッドセット20を使用するユーザの顔の向きや、ユーザ同士の位置関係(又はユーザ間距離)、ユーザの移動状態に基づいて、会話グループの管理を行う。よって、会話システム1によれば、複数のユーザの各々の会話する意思に基づいて、会話グループの柔軟な管理を行いやすくなる。
According to the
In the
本発明は、上述した実施形態と異なる形態で実施することが可能である。本発明は、例えば、以下のような形態で実施することも可能である。また、以下に示す変形例は、各々を適宜に組み合わせてもよい。
(変形例1)
会話システム1では、前述した対面条件のほかに、会話を開始する契機となる発話内容(例えば、挨拶や他人に呼びかける声)を示すキーワードを認識した場合に、会話グループを形成してもよい。この際に、会話システム1では、キーワードの音声のレベルに基づいて、同じ会話グループに分類するユーザを決定する。キーワードの音声のレベルは、ここでは音量レベルであるが、所定の周波数帯域(例えば可聴域)の音圧レベルであってもよく、入力音声のレベルの大小の指標となるものであればよい。
The present invention can be implemented in a form different from the above-described embodiment. The present invention can also be implemented in the following forms, for example. Further, the following modifications may be combined as appropriate.
(Modification 1)
In the
図12は、会話システム1のキーワードに基づいて会話グループを形成する処理を示すシーケンス図である。図13は、キーワードに基づいて、ユーザA,B,Cで会話グループを形成する処理の具体例を説明する図である。以下、ユーザA,B,Cが使用するヘッドセット20A,20B,20Cの動作を例に挙げて説明する。
ヘッドセット20A〜20Cの各々は、ステップS1〜S3の処理を、例えば所定間隔で繰り返し実行する。そして、管理サーバ10は、ステップS3の処理で送信された方向データ及び位置情報を、通信部12を介して取得すると、グループDB13を更新する(ステップS4)。ここで、図13(a)に示すように、ユーザAが、ユーザB,Cの各々と対面条件を満たしている場合を考える。ここでは、ユーザAから見て、ユーザBの方がより近い位置に居て、ユーザCの方がより遠い位置に居るものとする。
FIG. 12 is a sequence diagram illustrating a process of forming a conversation group based on the keywords of the
Each of the
ここで、ヘッドセット20Aにおいて、音声入力部22にユーザの音声が入力されると、入力音声からキーワードを認識する(ステップS31)。そして、ヘッドセット20Aは、認識したキーワードを示す入力音声のレベルを検知する(ステップS32)。そして、ヘッドセット20Aは、検出したレベルを示すレベル情報を、キーワードを認識したことを通知する通知信号とともに、管理サーバ10へ送信する(ステップS33)。
Here, in the
管理サーバ10は、通知信号及びレベル情報が受信されると、レベル情報が示す入力音声のレベルに基づいて、会話の相手を決定する(ステップS34)。ここで、管理サーバ10は、入力音声のレベルが低いほど、ユーザから見て近い位置のユーザを会話の相手に決定し、入力音声のレベルが高いほど、ユーザから見て遠い位置のユーザを会話の相手に決定する。例えば、管理サーバ10は、入力音声のレベルが閾値未満である場合、図13(b−1)に示すように、ユーザBを会話の相手に決定し、ユーザAとユーザBを同じ会話グループに分類する。他方、管理サーバ10は、入力音声のレベルが閾値以上である場合、図13(b−2)に示すように、ユーザCを会話の相手に決定し、ユーザAとユーザCを同じ会話グループに分類する。一般に、人物が他人に声を掛けるとき、近くに居る人物に対してはさほど大きくない声で話し、遠くに居る人物に対しては大きな声で話す。会話システム1では、このような人物の習慣に基づいて会話グループを形成するので、仮に多数のユーザが存在する場所であっても、ユーザの意図した相手と会話グループを形成しやすくなる。
なお、ヘッドセット20が入力音声のレベルを検知するのではなく、管理サーバ10が、ヘッドセット20から取得した音声データに基づいて、入力音声の音声レベルを検知してもよい。
When the notification signal and the level information are received, the
Instead of the
(変形例2)
上述した変形例1に係る構成を変形し、管理サーバ10は、対面条件に基づいて、ユーザAとユーザBとからなる会話グループと、ユーザAとユーザCとからなる会話グループとの両方を形成してもよい。そして、管理サーバ10は、この会話グループを形成した後に、ユーザAの入力音声のレベルに基づいて、どちらの会話グループで会話を行わせるか決定する。ここでは、管理サーバ10は、入力音声のレベルが低いほどユーザから見て近い位置のユーザが属する会話グループを選択し、入力音声のレベルが高いほどユーザから見て遠い位置のユーザが属する会話グループを選択する。例えば、管理サーバ10は、入力音声のレベルが閾値未満である場合、ユーザBの居る会話グループで会話を実現させ、入力音声のレベルが閾値以上である場合、ユーザCの居る会話グループで会話を実現させる。ユーザは近い場所に居るユーザに対しては小さな声で話し、遠くに居るユーザに対しては大きな声で話すことが一般的である。よって、ユーザに会話グループを選択させることなく、管理サーバ10は、どの会話グループで会話させるかを制御することができる。
(Modification 2)
The configuration according to the first modification described above is modified, and the
(変形例3)
会話システム1では、一のユーザと、互いに同じ会話グループに属しない2以上のユーザと(即ち、1対多のユーザで)会話グループを形成する機能を有してもよい。
(Modification 3)
The
図14は、会話システム1の1対多のユーザにより会話グループを形成する処理を示すシーケンス図である。図15は、1対多のユーザにより会話グループを形成する処理の具体例を説明する図である。ここでは、図15(a)に示すように、講演会において、講演者である1人のユーザA(第1のユーザ)と、聴衆に相当するユーザからなるユーザ群(複数の第2のユーザ)の各ユーザとで会話グループを構成する場合を考える。以下、聴衆に相当するユーザ群のうち、ユーザBを代表させて、会話システム1の動作を説明する。
FIG. 14 is a sequence diagram illustrating a process of forming a conversation group by a one-to-many user of the
ヘッドセット20Aは、自機のユーザの顔が向く方向を、方向センサ25を用いて検知する(ステップS41)。次に、ヘッドセット20Aは、自機のユーザの位置を、測位部27を用いて測位する(ステップS42)。ヘッドセット20Aは、検知した顔の向く方向を示す方向データ、及び、測位したユーザの位置を示す位置情報を、通信部24を介して、管理サーバ10へ送信する(ステップS43)。管理サーバ10は、ステップS3の処理で送信された方向データ及び位置情報を、通信部12を介して取得すると、グループDB13を更新する(ステップS44)。
ここで、図15(b)に示すように、ユーザAが、聴衆であるユーザ群を見渡すように、矢印R方向の顔の向く方向を変化させる。これにより、ユーザAの顔が、ユーザ群の各ユーザに向けられたことになる。管理サーバ10は、ユーザAが顔を向けたユーザを特定する情報を、例えばグループDB13に格納しておく。
The
Here, as shown in FIG. 15 (b), the user A changes the direction of the face in the direction of the arrow R so as to overlook the user group as the audience. As a result, the face of the user A is directed to each user in the user group. The
次に、ヘッドセット20Bは、自機のユーザの顔が向く方向を、方向センサ25を用いて検知する(ステップS45)。次に、ヘッドセット20Bは、自機のユーザの位置を、測位部27を用いて測位する(ステップS46)。ヘッドセット20Bは、検知した顔の向く方向を示す方向データ、及び、測位したユーザの位置を示す位置情報を、通信部24を介して、管理サーバ10へ送信する(ステップS47)。ここで、図15(c)に示すように、ユーザBが、講演者であるユーザAに顔を向けたとする。この場合、管理サーバ10は、ユーザAとユーザBを同じ会話グループに分類するように、グループDB13を更新する(ステップS48)。即ち、管理サーバ10は、2人のユーザが同時に顔を向けなくとも、各ユーザの顔が他方のユーザに向けられれば、これらを同じ会話グループに分類する。管理サーバ10は、聴衆の他のユーザがユーザAに顔を向けた場合も、当該ユーザを同じ会話グループに分類する。この変形例の会話システム1によれば、1対多のユーザにより会話グループを形成する場合であっても、一のユーザが、ユーザ群の各ユーザと顔を向け合う動作をしなくてもよいので、各ユーザの負担が抑制される。
Next, the
(変形例4)
会話グループの除外条件は、上述した実施形態で説明した例に限られない。会話システム1において、所定時間継続していずれのユーザのヘッドセット20に会話の音声が入力されなかった会話グループについては解除してもよい。
(Modification 4)
The conversation group exclusion condition is not limited to the example described in the above embodiment. In the
(変形例5)
会話システム1において、ユーザ属性が所定の関係を満たすユーザ同士を、同一の会話グループに分類してもよい。ユーザ属性は、例えば、言語情報、年齢、性別、出身地、職業及び趣味等のユーザの属性であるが、他の属性であってもよい。ユーザ属性については、予めグループDB13に情報を格納しておき、管理サーバ10はこれに従えばよい。
(Modification 5)
In the
(変形例6)
上述した実施形態で説明した構成又は動作の一部が省略されてもよい。
例えば、会話システム1において、<B:会話グループの更新/ユーザの追加>、<C:会話グループからのユーザの除外/移動状態>及び<D:会話グループからのユーザの除外/顔の向く方向>の1つ以上が省略されてもよい。
会話システム1において、発光部28の発光以外の方法(例えば、音声出力)でユーザへの報知が行われてもよいし、ユーザへの報知が省略されてもよい。
会話システム1において、各ユーザの使用する言語が同じである場合には、翻訳処理に係る構成(例えば翻訳装置30や翻訳制御手段112)が省略されてもよい。また、会話システム1において、翻訳装置30ではなく、通訳者によって翻訳が行われてもよい。
会話システム1において、ヘッドセット20は、ユーザの移動状態を検知する機能、又は、ユーザの位置を測定する機能を有しなくてもよい。この場合、無線通信端末Pがユーザの移動状態を検知する機能、又は、ユーザの位置を測定する機能を有していれば、管理サーバ10は、上述した実施形態と同じ方法で会話グループを管理することができる。
(Modification 6)
A part of the configuration or operation described in the above-described embodiment may be omitted.
For example, in the
In the
In the
In the
(変形例7)
上述した実施形態の会話システム1では、複数の無線アクセスポイントから受信した電波の強度及び到達時間に基づいて三点測量を行うことにより、ユーザの位置を測定していたが、適用可能な屋内測位技術はこの例に限られない。会話システム1では、例えば、出発点の位置を確定後、加速度センサやジャイロセンサ等を組み合わせて現在位置を測定する自律航法を採用してもよいし、Bluetooth発信機からの電波を受信して、受信した電波に含まれる発信機の識別情報及び受信した電波の強度に基づいて、現在位置を測定してもよい。また、測位部27は、超音波等の音波や可視光又は赤外光等の光を用いて測位してもよい。測位精度については、ユーザ同士が対面していることを検知するに足りる精度であることが望ましいが、例えば人物が多い場所、又は、狭い場所での会話を管理する場合ほど、測位精度は高い方が望ましい、と考えられる。
会話システム1において、ユーザが他のユーザと対面したときに操作部29を操作した場合に、対面条件を満たすユーザが検知されてもよい。これにより、より高い精度でユーザの意図する対面相手と会話グループを形成しやすくなる。
管理サーバ10は、ユーザ同士の位置関係やユーザ間の距離を用いないで、顔が向き合う2以上のユーザを同一の会話グループに分類してもよい。
(Modification 7)
In the
In the
The
(変形例8)
ヘッドセット20は、ユーザの頭又は耳に装着して使用される通信機器であったが、本発明の通信機器は、他の形態の通信端末で実現されてもよい。本発明の通信機器は、頭部又は顔に装着されるヘッドマウントディスプレイで例示される眼鏡型の通信機器(ウェアラブルコンピュータの一例)あってもよいし、ユーザが手に持って耳に当てて使用するハンドセットにより実現されてもよい。本発明の通信機器は、更に別の形態の通信機器であってもよいが、ユーザの顔が向く方向を検知するのに適した形態であることが望ましい。
(Modification 8)
The
また、通信機器が情報を表示する機能を有する場合、当該通信機器は、会話グループに属するユーザの情報を表示してもよい。このユーザの情報は、例えば同じ会話グループに属するユーザの言語情報であるが、氏名等の情報を含んでもよい。報知手段213による報知も、情報の表示によって行われてもよい。更に、報知手段213は、会話グループの人数や、会話グループを構成するユーザが変化したことを報知してもよい。また、報知手段213は、音声出力部23を介した音声出力により、ユーザに情報を報知してもよい。
ヘッドセット20は、自機の機能によりネットワーク100に接続(無線接続)可能である場合には、無線通信端末Pを介さずに、ネットワーク100に接続してもよい。
Further, when the communication device has a function of displaying information, the communication device may display information of users belonging to the conversation group. The user information is, for example, language information of users belonging to the same conversation group, but may include information such as a name. The notification by the
The
また、管理サーバ10は、ヘッドセット20のユーザ同士の位置関係に応じて音声データを加工してから、ヘッドセット20へ送信してもよい。管理サーバ10は、例えば、ユーザ間の距離が大きいほど音声のレベル(音量レベル)を低くし、ユーザ間の距離が小さいほど音声のレベルを高くする。また、ヘッドセット20がユーザの左右の耳にステレオ音声を出力可能な場合、当該ユーザから見た会話相手の居る方向に基づいて、ステレオ音声の出力を制御してもよい。この場合、右に居るユーザからは右耳から音声が聞こえるというようなサラウンド効果を、管理サーバ10が与えるとよい。
また、無線通信端末Pは、ヘッドセット20から受信した音声データに基づいて音声認識を行うことにより、当該音声データを文字コードに変換してから送信してもよい。この場合、翻訳装置30は、無線通信端末Pから受信した文字コードに基づいて翻訳処理を行う。
In addition, the
Further, the wireless communication terminal P may perform voice recognition based on the voice data received from the
(変形例9)
本発明において、ユーザの顔が向く方向に基づいて会話のグループを管理する構成に代えて又は組み合わせて、ユーザの身体の向く方向に基づいて会話のグループが管理されてもよい。ユーザの身体(例えば上半身又は下半身)が向く方向を検知するための方法として、例えば、ユーザが着用する衣服や履物、ベルト等の身体への装着物に、ユーザの身体が向く方向を検知するためのセンサを設ける方法がある。このセンサは、例えば、上述した実施形態で説明した方向センサ25と同じセンサである。そして、ユーザが使用するヘッドセット等の通信機器は、センサで検知されたユーザの身体が向く方向を示す方向データを管理装置(例えば、実施形態の管理サーバ10)へ送信する。そして、管理装置は、通信機器から受信した方向データに基づいて、身体が向き合う2以上のユーザを同一のグループに分類するグループ管理を行う。この変形例のグループ管理は、上述した実施形態で説明した顔が向く方向を、身体が向く方向に読み替えた方法により実現されてよい。
(Modification 9)
In the present invention, the group of conversations may be managed based on the direction of the body of the user instead of or in combination with the configuration of managing the group of conversations based on the direction of the user's face. As a method for detecting the direction in which the user's body (for example, the upper body or the lower body) is directed, for example, to detect the direction in which the user's body is directed to an object worn by the user such as clothes, footwear, and a belt. There is a method of providing a sensor. This sensor is, for example, the same sensor as the
(変形例10)
上述した実施形態で管理サーバ10が実現していた会話システムの管理装置としての機能を、ユーザが使用するヘッドセット20又は無線通信端末Pが実現してもよい。この場合に、ヘッドセット20又は無線通信端末Pが、翻訳処理を実行する機能を有してもよい。この場合、会話システム1において、管理サーバ10が不要である。例えば、マスタとなるヘッドセット20又は無線通信端末Pが、検知した顔の方向と、他のヘッドセット20の顔の検知結果に基づいて、会話グループを形成する。ヘッドセット20又は無線通信端末Pの各々が、マスタ又はスレーブのいずれとなるかについては、ユーザにより設定されてもよいし、自動で設定されてもよい。
(Modification 10)
The
(変形例11)
上述した実施形態において、管理サーバ10の制御部11やヘッドセット20の制御部21が実現する各機能は、複数のプログラムの組み合わせによって実現され、又は、複数のハードウェア資源の連係によって実現されうる。制御部11,21の機能がプログラムを用いて実現される場合、このプログラムは、磁気記録媒体(磁気テープ、磁気ディスク(HDD(Hard Disk Drive)、FD(Flexible Disk))等)、光記録媒体(光ディスク等)、光磁気記録媒体、半導体メモリ等のコンピュータ読み取り可能な記録媒体に記憶した状態で提供されてもよいし、ネットワークを介して配信されてもよい。また、本発明は、クラウドコンピューティングを用いて実現されてもよい。また、本発明は、会話システムの管理方法として把握することも可能である。
(Modification 11)
In the embodiment described above, each function realized by the control unit 11 of the
1…会話システム、10…管理サーバ、11…制御部、111…音声データ取得手段、112…翻訳制御手段、113…音声データ送信手段、114…方向データ取得手段、115…状態データ取得手段、116…特定手段、117…グループ管理手段、12…通信部、13…グループDB、20,20A〜20E…ヘッドセット、21…制御部、211…音声デ―タ送信手段、212…音声データ取得手段、213…報知手段、214…方向データ送信手段、215…状態データ送信手段、216…位置情報送信手段、22…音声入力部、23…音声出力部、24…通信部、25…方向センサ、26…加速度センサ、27…測位部、28…発光部、29…操作部、30…翻訳装置、100…ネットワーク
DESCRIPTION OF
Claims (10)
同一のグループに属する前記ユーザ間で、前記音声の入出力による会話を実現させる会話システムの管理装置であって、
前記複数の通信機器から、前記複数のユーザの各々の顔又は身体が向く方向を示す方向データを取得する方向データ取得手段と、
取得された前記方向データに基づいて、前記顔又は身体が向き合った2以上の前記ユーザを、前記同一のグループに分類するグループ管理手段と
を備える管理装置。 Multiple users who use each of multiple communication devices that send and receive audio data and input and output audio are grouped,
A conversation system management apparatus that realizes conversation by inputting and outputting voice between the users belonging to the same group,
Direction data acquisition means for acquiring direction data indicating a direction in which each face or body of each of the plurality of users faces from the plurality of communication devices;
A management apparatus comprising: group management means for classifying the two or more users facing the face or body into the same group based on the acquired direction data.
前記グループ管理手段は、
特定された前記位置又は前記距離が所定条件を満たし、且つ、前記顔又は身体が向き合った2以上の前記ユーザを、前記同一のグループに分類する
ことを特徴とする請求項1に記載の管理装置。 A specifying means for specifying the positions of the plurality of users or the distance between the users;
The group management means includes
The management apparatus according to claim 1, wherein the two or more users in which the specified position or the distance satisfies a predetermined condition and the face or body face each other are classified into the same group. .
前記グループ管理手段は、
取得された前記状態データに基づいて、前記同一のグループに属する2以上の前記ユーザのうち、前記移動状態が所定条件を満たす前記ユーザを、当該グループから除外する
ことを特徴とする請求項1又は請求項2に記載の管理装置。 Comprising state data acquisition means for acquiring state data indicating the movement state of each of the plurality of users;
The group management means includes
The user according to claim 1 or 2, wherein, based on the acquired state data, out of the two or more users belonging to the same group, the user whose moving state satisfies a predetermined condition is excluded from the group. The management device according to claim 2.
前記同一のグループ内で、一の前記ユーザの顔又は身体が、所定時間継続して他の少なくとも一部の前記ユーザの顔又は身体と向き合わなかった場合、当該一の前記ユーザを当該グループから除外する
ことを特徴とする請求項1から請求項3のいずれか1項に記載の管理装置。 The group management means includes
If the face or body of one user does not face at least some other user's face or body for a predetermined time in the same group, the one user is excluded from the group The management apparatus according to any one of claims 1 to 3, wherein
前記同一のグループに属する2以上の前記ユーザのいずれかと、他の前記ユーザとの前記顔又は身体が向き合った場合、当該他の前記ユーザを当該グループに分類する
ことを特徴とする請求項1から請求項4のいずれか1項に記載の管理装置。 The group management means includes
When one of the two or more users belonging to the same group and the face or body of the other user face each other, the other user is classified into the group. The management apparatus of any one of Claim 4.
前記グループ管理手段は、
前記第1のユーザの顔又は身体が前記第2のユーザの方向を向いた後、当該第2のユーザの顔又は身体が当該第1のユーザの方向を向いた場合、当該第1のユーザ及び当該第2のユーザを前記同一のグループに分類する
ことを特徴とする請求項1から請求項5のいずれか1項に記載の管理装置。 The plurality of users includes a first user and a plurality of second users,
The group management means includes
After the face or body of the first user faces the direction of the second user, when the face or body of the second user faces the direction of the first user, the first user and The management apparatus according to any one of claims 1 to 5, wherein the second user is classified into the same group.
前記通信機器に入力された前記ユーザの音声のレベルに基づいて、前記同一のグループに分類する2以上の前記ユーザを決定する
ことを特徴とする請求項1から請求項6のいずれか1項に記載の管理装置。 The group management means includes
The two or more users to be classified into the same group are determined based on the voice level of the user input to the communication device. The management device described.
前記複数のユーザをグループ分けし、同一のグループに属する前記ユーザ間で前記音声の入出力による会話を実現させる管理サーバと
を備える会話システムであって、
前記複数の通信機器の各々は、
自機を使用する前記ユーザの顔又は身体が向く方向を検知する方向検知手段と、
検知された前記顔又は身体が向く方向を示す方向データを、前記管理サーバへ送信する方向データ送信手段と
を有し、
前記管理サーバは、
前記方向データ送信手段により送信された前記方向データを取得する方向データ取得手段と、
取得された前記方向データに基づいて、前記顔又は身体が向き合った2以上の前記ユーザを、前記同一のグループに分類するグループ管理手段と
を有する会話システム。 A plurality of communication devices that are used for each of a plurality of users and that transmit and receive audio data and input / output audio; and
A conversation system comprising: a management server for grouping the plurality of users and realizing conversation by voice input / output between the users belonging to the same group;
Each of the plurality of communication devices is
Direction detecting means for detecting a direction in which the face or body of the user using the own device faces;
Direction data transmission means for transmitting the detected direction data indicating the direction of the face or body to the management server, and
The management server
Direction data acquisition means for acquiring the direction data transmitted by the direction data transmission means;
A conversation management system comprising: group management means for classifying the two or more users facing the face or body into the same group based on the obtained direction data.
同一のグループに属する前記ユーザ間で、前記音声の入出力による会話を実現させる会話管理方法であって、
前記複数のユーザの各々の顔又は身体が向く方向を検知するステップと、
検知した前記顔が向く方向を示す方向データに基づいて、前記顔又は身体が向き合った2以上の前記ユーザを、前記同一のグループに分類するステップと
を備える会話管理方法。 Multiple users who use each of multiple communication devices that send and receive audio data and input and output audio are grouped,
A conversation management method for realizing conversation by input and output of the voice between the users belonging to the same group,
Detecting a direction in which the face or body of each of the plurality of users faces;
Classifying the two or more users facing the face or body into the same group based on the detected direction data indicating the direction in which the face faces.
同一のグループに属する前記ユーザ間で、前記音声の入出力による会話を実現させる会話システムを管理するコンピュータに、
前記複数の通信機器から、前記複数のユーザの各々の顔又は身体が向く方向を示す方向データを取得するステップと、
取得した前記方向データに基づいて、前記顔又は身体が向き合った2以上の前記ユーザを、前記同一のグループに分類するステップと
を実行させるためのプログラム。 Multiple users who use each of multiple communication devices that send and receive audio data and input and output audio are grouped,
A computer for managing a conversation system that realizes conversation by inputting and outputting the voice between the users belonging to the same group,
Obtaining direction data indicating a direction in which each of the plurality of users faces or faces from the plurality of communication devices; and
Classifying the two or more users facing the face or body into the same group based on the obtained direction data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014122331A JP6286289B2 (en) | 2014-06-13 | 2014-06-13 | Management device, conversation system, conversation management method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014122331A JP6286289B2 (en) | 2014-06-13 | 2014-06-13 | Management device, conversation system, conversation management method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016005017A JP2016005017A (en) | 2016-01-12 |
JP6286289B2 true JP6286289B2 (en) | 2018-02-28 |
Family
ID=55224044
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014122331A Active JP6286289B2 (en) | 2014-06-13 | 2014-06-13 | Management device, conversation system, conversation management method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6286289B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017129406A (en) * | 2016-01-19 | 2017-07-27 | 日本電気通信システム株式会社 | Information processing device, smart glass and control method thereof, and computer program |
JP7092986B2 (en) * | 2017-12-28 | 2022-06-29 | キヤノンマーケティングジャパン株式会社 | Information processing system, its control method and program. |
KR102543656B1 (en) | 2018-03-16 | 2023-06-15 | 삼성전자주식회사 | Screen controlling method and electronic device supporting the same |
JP7084256B2 (en) * | 2018-08-29 | 2022-06-14 | 株式会社日立製作所 | Work support system and work support method |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9031543B2 (en) * | 2012-06-06 | 2015-05-12 | Qualcomm Incorporated | Visualization of network members based on location and direction |
-
2014
- 2014-06-13 JP JP2014122331A patent/JP6286289B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016005017A (en) | 2016-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11418893B2 (en) | Selective modification of background noises | |
US11979716B2 (en) | Selectively conditioning audio signals based on an audioprint of an object | |
US20170060850A1 (en) | Personal translator | |
CN108141696A (en) | The system and method adjusted for space audio | |
WO2018107489A1 (en) | Method and apparatus for assisting people who have hearing and speech impairments and electronic device | |
US11176358B2 (en) | Methods and apparatus for sharing of music or other information | |
US20190138603A1 (en) | Coordinating Translation Request Metadata between Devices | |
CN104604250A (en) | Smart notification tool for headphones | |
JP6286289B2 (en) | Management device, conversation system, conversation management method and program | |
WO2007105436A1 (en) | Wearable terminal | |
TW201923758A (en) | Audio activity tracking and summaries | |
JP6385150B2 (en) | Management device, conversation system, conversation management method and program | |
US9832587B1 (en) | Assisted near-distance communication using binaural cues | |
US11935557B2 (en) | Techniques for detecting and processing domain-specific terminology | |
US11163522B2 (en) | Fine grain haptic wearable device | |
US20230083358A1 (en) | Earphone smartcase with audio processor | |
TR201818897A2 (en) | Social Life Assistant for Visually Impaired People |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170215 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180205 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6286289 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |