JP2020155944A - Speaker detection system, speaker detection method, and program - Google Patents
Speaker detection system, speaker detection method, and program Download PDFInfo
- Publication number
- JP2020155944A JP2020155944A JP2019052911A JP2019052911A JP2020155944A JP 2020155944 A JP2020155944 A JP 2020155944A JP 2019052911 A JP2019052911 A JP 2019052911A JP 2019052911 A JP2019052911 A JP 2019052911A JP 2020155944 A JP2020155944 A JP 2020155944A
- Authority
- JP
- Japan
- Prior art keywords
- speaker
- person
- detection system
- detected
- detects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 136
- 238000003384 imaging method Methods 0.000 claims abstract description 16
- 238000000034 method Methods 0.000 claims description 36
- 238000012545 processing Methods 0.000 description 23
- 230000008569 process Effects 0.000 description 15
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000010365 information processing Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000001055 chewing effect Effects 0.000 description 2
- 230000005674 electromagnetic induction Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、発話者検出システム、発話者検出方法及びプログラムに関する。 The present invention relates to a speaker detection system, a speaker detection method and a program.
近年、会議等において、言葉を発している人物(以下「発話者」という。)を検出する方法が知られている。 In recent years, a method of detecting a person who is speaking a word (hereinafter referred to as "speaker") has been known at a conference or the like.
例えば、テレビ会議システムが、まず、会議室内にいる、発話者を含む参加者をカメラ等で撮像する。そして、撮像された画像データに基づいて、テレビ会議システムは、それぞれの参加者の顔画像を抽出する。次に、テレビ会議システムは、顔画像における***部分の動作を検出することで発話者を特定する。このようにして、発話者を特定して選択的に画像を撮像する方法が知られている(例えば、特許文献1参照)。 For example, the video conferencing system first captures a participant including a speaker in the conference room with a camera or the like. Then, based on the captured image data, the video conferencing system extracts the facial image of each participant. Next, the video conferencing system identifies the speaker by detecting the movement of the lip portion in the facial image. In this way, a method of identifying a speaker and selectively capturing an image is known (see, for example, Patent Document 1).
しかしながら、従来の方法では、画像データに***部分が写っていないと、発話者の検出が難しい場合がある。例えば、人物がマスクを装着していたり、***部分を手で隠す癖等があったりすると、***部分が遮蔽され、画像データに、***部分が写らない場合がある。このような場合には、***の動作を検出して発話者を検出するのが難しい場合がある。 However, with the conventional method, it may be difficult to detect the speaker if the lip portion is not shown in the image data. For example, if a person wears a mask or has a habit of hiding the lip portion by hand, the lip portion may be shielded and the lip portion may not be shown in the image data. In such cases, it may be difficult to detect the movement of the lips and detect the speaker.
本発明の一態様は、***の動作で発話者を検出するのが難しい場合であっても、発話者を検出することを目的とする。 One aspect of the present invention is intended to detect a speaker even when it is difficult to detect the speaker by the movement of the lips.
本発明の一実施形態による、発話者を検出する発話者検出システムは、
前記発話者を含む複数の参加者を撮像して画像データを生成する撮像部と、
前記画像データに基づいて、***の動作を検出して前記発話者を検出する第1検出部と、
前記第1検出部で前記発話者が検出できない場合に、前記画像データに基づいて、前記参加者の動き又は外観を検出して前記発話者を検出する第2検出部と
を備えることを特徴とする。
The speaker detection system for detecting a speaker according to an embodiment of the present invention is
An imaging unit that captures a plurality of participants including the speaker and generates image data,
Based on the image data, a first detection unit that detects the movement of the lips and detects the speaker, and
When the speaker cannot be detected by the first detection unit, the first detection unit is provided with a second detection unit that detects the movement or appearance of the participant based on the image data and detects the speaker. To do.
本発明の実施形態によって、***の動作で発話者を検出するのが難しい場合であっても、発話者を検出できる。 According to the embodiment of the present invention, the speaker can be detected even when it is difficult to detect the speaker by the movement of the lips.
以下、発明を実施するための最適な形態について、図面を参照して説明する。 Hereinafter, the optimum mode for carrying out the invention will be described with reference to the drawings.
<第1実施形態>
<発話者検出システムの全体構成例及び使用例>
発話者検出システムは、例えば、複数の参加者が会議室等に集まって話し合い等をする場面等において、以下のように設置して使用される。なお、設置場所は、会議室に限られず、他の部屋等でもよい。
<First Embodiment>
<Overall configuration example and usage example of speaker detection system>
The speaker detection system is installed and used as follows, for example, in a situation where a plurality of participants gather in a conference room or the like for discussion. The installation location is not limited to the conference room, but may be another room or the like.
図1は、発話者検出システムの全体構成例及び使用例を示す概略図である。例えば、発話者検出システム10は、図示するように、撮像装置の例であるカメラ1と、カメラ1と有線又は無線で接続する情報処理装置の例である電子黒板2とを有する構成である。
FIG. 1 is a schematic view showing an overall configuration example and a usage example of the utterance detection system. For example, as shown in the figure, the
カメラ1は、参加者である第1参加者MA、第2参加者MB及び第3参加者MCが撮像できる画角及び設置位置であるのが望ましい。例えば、カメラ1は、360 °の範囲が撮像できる画角を有する。このように、カメラ1は、180 °以上の広角な範囲を撮像できる光学系であるのが望ましい。このような広角な範囲を撮像できる撮像装置であると、画像データに参加者が漏れなく撮像できる確率を高くできる。
It is desirable that the
なお、撮像装置は、複数でもよい。また、撮像装置は、図示するような会議室の真ん中となる配置でなくともよい。すなわち、撮像装置は、部屋の端等に設置され、全体を撮像できるように調整されてもよい。 The number of imaging devices may be plurality. Further, the imaging device does not have to be arranged in the center of the conference room as shown in the figure. That is, the imaging device may be installed at the edge of the room or the like and adjusted so that the entire image can be captured.
カメラ1は、静止画像又は動画像である画像データを電子黒板2に送信する。そして、電子黒板2は、例えば、画像データに基づいて、会議の様子等を表示する等の処理を行う。なお、電子黒板2は、画像データをクラウド上又は記憶装置等に保存してもよい。
The
<電子黒板の例>
図2は、電子黒板のハードウェア構成例を示す図である。図示するように、電子黒板2は、CPU201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、SSD204、ネットワークI/F205、及び、外部機器接続I/F206を備える。
<Example of electronic blackboard>
FIG. 2 is a diagram showing a hardware configuration example of the electronic blackboard. As shown in the figure, the
これらのうち、CPU201は、電子黒板2全体の動作を制御する。ROM202は、CPU201やIPL(Initial Program Loader)等のCPU201の駆動に用いられるプログラムを記憶する。RAM203は、CPU201のワークエリアとして使用される。SSD204は、電子黒板用のプログラム等の各種データを記憶する。ネットワークI/F205は、通信ネットワークで外部機器と通信を行うためのインターフェースである。ネットワークコントローラは、通信ネットワークとの通信を制御する。外部機器接続I/F206は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USB(Universal Serial Bus)メモリ230、外付け機器(マイク240、スピーカ250、カメラ1)である。
Of these, the
また、電子黒板2は、キャプチャデバイス211、GPU212、ディスプレイコントローラ213、接触センサ214、センサコントローラ215、電子ペンコントローラ216、近距離通信回路219、及び近距離通信回路219のアンテナ219a、電源スイッチ222及び選択スイッチ類223を備える。
Further, the
これらのうち、キャプチャデバイス211は、外付けのPC(Personal Computer)270のディスプレイに対して映像情報を静止画又は動画として表示させる。GPU(Graphics Processing Unit)212は、グラフィクスを専門に扱う半導体チップである。ディスプレイコントローラ213は、GPU212からの出力画像をディスプレイ280等へ出力するために画面表示の制御及び管理を行う。接触センサ214は、ディスプレイ280上に電子ペン290やユーザの手H等が接触したことを検知する。センサコントローラ215は、接触センサ214の処理を制御する。接触センサ214は、赤外線遮断方式による座標の入力及び座標の検出を行う。この座標の入力及び座標の検出する方法は、ディスプレイ280の上側両端部に設置された2つ受発光装置が、ディスプレイ280に平行して複数の赤外線を放射し、ディスプレイ280の周囲に設けられた反射部材によって反射されて、受光素子が放射した光の光路と同一の光路上を戻って来る光を受光する方法である。接触センサ214は、物体によって遮断された2つの受発光装置が放射した赤外線のIDをセンサコントローラ215に出力し、センサコントローラ215が、物体の接触位置である座標位置を特定する。電子ペンコントローラ216は、電子ペン290と通信することで、ディスプレイ280へのペン先のタッチやペン尻のタッチの有無を判断する。近距離通信回路219は、NFC又はBluetooth(登録商標)等の通信回路である。電源スイッチ222は、電子黒板2の電源のON/OFFを切り換えるためのスイッチである。選択スイッチ類223は、例えば、ディスプレイ280の表示の明暗や色合い等を調整するためのスイッチ群である。
Of these, the
更に、電子黒板2は、バスライン210を備えている。バスライン210は、図2に示されているCPU201等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
Further, the
なお、接触センサ214は、赤外線遮断方式に限らず、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネル、対向する2つの抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネル、接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネル等の種々の検出手段を用いてもよい。また、電子ペンコントローラ216が、電子ペン290のペン先及びペン尻だけでなく、電子ペン290のユーザが握る部分、又は、その他の電子ペンの部分のタッチの有無を判断するようにしてもよい。
The
なお、情報処理装置は、電子黒板でなくともよい。例えば、情報処理装置は、PC(Personal Computer)又はサーバ等でもよい。 The information processing device does not have to be an electronic blackboard. For example, the information processing device may be a PC (Personal Computer), a server, or the like.
<全体処理例>
図3は、全体処理例を示すフローチャートである。例えば、会議が開始されると、発話者検出システムは、例えば、以下のような処理を行う。
<Overall processing example>
FIG. 3 is a flowchart showing an example of overall processing. For example, when the conference is started, the speaker detection system performs the following processing, for example.
<画像データの生成例>(ステップS1S)
発話者検出システムは、参加者を撮像して画像データを生成する。なお、ステップS1Sによって撮像する画像を1 フレームとすると、発話者検出システムは、ステップS1Eにより、繰り返し画像データを生成し、複数のフレームを生成する。また、ステップS2S以降の処理は、それぞれのフレームに対して行われる。
<Example of image data generation> (step S1S)
The speaker detection system images the participants and generates image data. Assuming that the image captured in step S1S is one frame, the speaker detection system repeatedly generates image data in step S1E to generate a plurality of frames. Further, the processing after step S2S is performed for each frame.
<人物の検出例>(ステップS2S)
発話者検出システムは、画像データに基づいて、人物を検出する。すなわち、発話者検出システムは、画像データに対して、顔認証等の処理を行うと、参加者を検出することができる。なお、人物の検出方法は、顔認証に限られず、他の認識処理等で実現してもよい。
<Example of detecting a person> (step S2S)
The speaker detection system detects a person based on image data. That is, the speaker detection system can detect a participant by performing a process such as face recognition on the image data. The method for detecting a person is not limited to face authentication, and may be realized by other recognition processing or the like.
また、発話者検出システムは、ステップS2Eにより、それぞれのフレームに対して、繰り返し人物を検出する処理を行う。以下、ステップS3乃至ステップS6は、ステップS2Sで検出される人物ごとに繰り返し行われる。 Further, the utterance detection system repeatedly detects a person for each frame in step S2E. Hereinafter, steps S3 to S6 are repeated for each person detected in step S2S.
<人物の動きの検出例>(ステップS3)
発話者検出システムは、人物の動きを検出する。例えば、発話者検出システムは、オプティカルフロー等の処理で人物の動きを検出する。なお、動きの検出方法は、他の認識処理等で実現してもよい。
<Example of detecting the movement of a person> (step S3)
The speaker detection system detects the movement of a person. For example, the speaker detection system detects the movement of a person by processing such as optical flow. The motion detection method may be realized by other recognition processing or the like.
<視線の検出例>(ステップS4)
発話者検出システムは、視線を検出する。例えば、発話者検出システムは、参加者の目を示す画像等から視線を検出する。なお、視線の検出方法は、他の認識処理等で実現してもよい。このように、発話者検出システムは、視線を検出して、参加者のうち、どの人物に最も視線が集まっているかを検出するのが望ましい。すなわち、それぞれの参加者の視線を検出することで、発話者検出システムは、視線の先となる回数が最も多い人物を特定する処理を行うのが望ましい。
<Example of line-of-sight detection> (step S4)
The speaker detection system detects the line of sight. For example, the speaker detection system detects the line of sight from an image showing the eyes of the participants. The line-of-sight detection method may be realized by other recognition processing or the like. As described above, it is desirable that the speaker detection system detects the line of sight to detect which of the participants has the most line of sight. That is, it is desirable that the speaker detection system performs a process of identifying the person who is the most frequently seen in the line of sight by detecting the line of sight of each participant.
<***の検出例>(ステップS5)
発話者検出システムは、***を検出する。例えば、発話者検出システムは、顔認証等の処理を行うと、顔の主な部位である、目、鼻、***及び耳等を検出できる。
<Example of lip detection> (step S5)
The speaker detection system detects the lips. For example, the speaker detection system can detect the eyes, nose, lips, ears, etc., which are the main parts of the face, by performing a process such as face recognition.
<***の動作の検出例>(ステップS6)
発話者検出システムは、***の動作を検出する。例えば、発話者検出システムは、ステップS5で検出する***をフレーム間で追跡していくと、***の動作を検出できる。
<Example of detecting lip movement> (step S6)
The speaker detection system detects the movement of the lips. For example, the speaker detection system can detect the movement of the lips by tracking the lips detected in step S5 between frames.
<***の動作で発話者が検出できたか否かの判断例>(ステップS7)
発話者検出システムは、***の動作で発話者が検出できたか否かを判断する。具体的には、ステップS5及びステップS6で***が検出できない場合等には、発話者検出システムは、***の動作で発話者が検出できないと判断する(ステップS7でNO)。
<Example of determining whether or not the speaker could be detected by the movement of the lips> (step S7)
The speaker detection system determines whether or not the speaker can be detected by the movement of the lips. Specifically, when the lips cannot be detected in steps S5 and S6, the speaker detection system determines that the speaker cannot be detected by the movement of the lips (NO in step S7).
次に、***の動作で発話者が検出できないと判断すると(ステップS7でNO)、発話者検出システムは、ステップS9に進む。一方で、***の動作で発話者が検出できると判断すると(ステップS7でYES)、発話者検出システムは、ステップS8に進む。 Next, if it is determined that the speaker cannot be detected by the movement of the lips (NO in step S7), the speaker detection system proceeds to step S9. On the other hand, if it is determined that the speaker can be detected by the movement of the lips (YES in step S7), the speaker detection system proceeds to step S8.
<***の動作が検出できた人物を発話者と検出する例>(ステップS8)
発話者検出システムは、***の動作が検出できた人物を発話者と検出する。すなわち、発話者検出システムは、***が動いている人物を発話者と検出する。
<Example of detecting a person whose lip movement can be detected as a speaker> (step S8)
The speaker detection system detects a person who can detect the movement of the lips as a speaker. That is, the speaker detection system detects a person whose lips are moving as a speaker.
<***が遮蔽されている外観の第1人物を検出できたか否かの判断例>(ステップS9)
発話者検出システムは、***が遮蔽されている外観の人物(以下「第1人物」という場合がある。)を検出できたか否かを判断する。具体的には、以下のような人物が検出される。
<Example of determining whether or not the first person with an appearance in which the lips are shielded can be detected> (Step S9)
The speaker detection system determines whether or not a person having an appearance whose lips are shielded (hereinafter, may be referred to as a "first person") can be detected. Specifically, the following persons are detected.
図4は、第1人物の検出例を示す図である。以下、図示するような画像データIMGが生成された例で説明する。すなわち、この例は、図1に示すように、3 人の参加者MEMである、第1参加者MA、第2参加者MB及び第3参加者MCがいる会議を撮像した例である。また、図示するように、参加者MEMのうち、第2参加者MBは、マスクMSKを装着しているとする。 FIG. 4 is a diagram showing a detection example of the first person. Hereinafter, an example in which an image data IMG as shown in the figure is generated will be described. That is, as shown in FIG. 1, this example is an example of imaging a conference in which there are three participant MEMs, a first participant MA, a second participant MB, and a third participant MC. Further, as shown in the figure, it is assumed that the second participant MB of the participant MEMs is wearing the mask MSK.
第2参加者MBのように、マスクMSK等によって、***が遮蔽されている外観の人物は、第1人物と検出される。一方で、第1参加者MA及び第3参加者MCは、***がステップS5で検出される人物の例である。 A person whose lips are shielded by a mask MSK or the like, such as the second participant MB, is detected as the first person. On the other hand, the first participant MA and the third participant MC are examples of persons whose lips are detected in step S5.
なお、第1人物と検出する場合は、マスクMSKの装着に限られない。例えば、発話者検出システムは、マスクMSK以外の物体で***が遮蔽されている人物を第1人物と検出してもよい。具体的には、第1人物は、手で鼻等を触る動きで***が遮蔽されていてもよい。ほかにも、第1人物は、撮像装置との位置関係等により、***が検出できない方向を向いている人物又は逆光等で画像では顔が分かりにくい人物等でもよい。 The case of detecting the first person is not limited to wearing the mask MSK. For example, the speaker detection system may detect a person whose lips are shielded by an object other than the mask MSK as the first person. Specifically, the first person may have his / her lips shielded by the movement of touching the nose or the like with his / her hand. In addition, the first person may be a person whose lips are facing in a direction that cannot be detected due to the positional relationship with the imaging device, or a person whose face is difficult to see in the image due to backlight or the like.
第1参加者MA及び第3参加者MCが発話者である場合は、***の動作が検出できるため、発話者検出システムは、***の動作で発話者が検出できる(ステップS7でYES)。 When the first participant MA and the third participant MC are speakers, the movement of the lips can be detected, so that the speaker detection system can detect the speaker by the movement of the lips (YES in step S7).
一方で、第2参加者MBが発話者である場合は、発話者検出システムは、***の動作では、発話者が検出できない(ステップS7でNO)。 On the other hand, when the second participant MB is the speaker, the speaker detection system cannot detect the speaker by the movement of the lips (NO in step S7).
そこで、第2参加者MBのような第1人物が検出でき、かつ、第1人物以外の人物が発話者でないと検出されると、発話者検出システムは、第2参加者MBを発話者と推定する。なお、このような方法は、第1人物と検出する人物が1 人である場合に用いられるのが望ましい。 Therefore, when a first person such as the second participant MB can be detected and a person other than the first person is detected as not a speaker, the speaker detection system sets the second participant MB as the speaker. presume. It is desirable that such a method is used when there is only one person to be detected as the first person.
次に、第1人物を検出できたと判断すると(ステップS9でYES)、発話者検出システムは、ステップS10に進む。一方で、第1人物を検出できないと判断すると(ステップS9でNO)、発話者検出システムは、ステップS11に進む。 Next, if it is determined that the first person can be detected (YES in step S9), the speaker detection system proceeds to step S10. On the other hand, if it is determined that the first person cannot be detected (NO in step S9), the speaker detection system proceeds to step S11.
<第1人物を発話者と検出する例>(ステップS10)
発話者検出システムは、第1人物を発話者と検出する。すなわち、発話者検出システムは、***が遮蔽されている人物を発話者と検出する。
<Example of detecting the first person as the speaker> (step S10)
The speaker detection system detects the first person as the speaker. That is, the speaker detection system detects a person whose lips are shielded as a speaker.
<参加者のうち、最も動きのある第2人物を検出できたか否かの判断例>(ステップS11)
発話者検出システムは、参加者のうち、最も動きのある人物(以下「第2人物」という。)を検出できたか否かの判断する。すなわち、発話者検出システムは、参加者の中で最も動きのある人物を発話者と検出する。
<Example of determining whether or not the second person with the most movement among the participants could be detected> (step S11)
The speaker detection system determines whether or not the most moving person (hereinafter referred to as "second person") among the participants can be detected. That is, the speaker detection system detects the most moving person among the participants as the speaker.
例えば、第1人物と検出される人物が以下のように複数検出された場合等に、ステップS9が行われるのが望ましい。 For example, it is desirable that step S9 is performed when a plurality of persons detected as the first person are detected as follows.
図5は、第2人物の検出例を示す図である。この例では、まず、第2参加者MBは、図4と同様に、マスクの装着によって、***が遮蔽されているため、第1人物と判断される。 FIG. 5 is a diagram showing a detection example of the second person. In this example, first, the second participant MB is determined to be the first person because the lips are shielded by wearing the mask as in FIG. 4.
そして、この例では、第1参加者MAは、電子黒板2がある方向を見て発話しているとする。すなわち、カメラ1に対して、第1参加者MAは、背を向けた姿勢等である。
Then, in this example, it is assumed that the first participant MA looks in a certain direction of the
そのため、画像データは、第1参加者MAの***が遮蔽されているのと同様に、第1参加者MAの***が写っていない状態である。したがって、第1参加者MA及び第2参加者MBがどちらも第1人物となり、発話者が1 人に特定できない場合である。 Therefore, the image data is in a state in which the lips of the first participant MA are not shown, just as the lips of the first participant MA are shielded. Therefore, this is a case where both the first participant MA and the second participant MB are the first person, and the speaker cannot be identified as one person.
このような場合等には、発話者検出システムは、参加者のうち、最も動きのある人物を検出する。この例では、第1参加者MAが第2人物と検出される例である。 In such a case, the speaker detection system detects the most moving person among the participants. In this example, the first participant MA is detected as the second person.
発話者は、話を聞いている者より、ジェスチャが多い可能性が高い。すなわち、発話者は、身振り手振りを行いながら発話する場合が多い。したがって、発話者検出システムは、参加者のうち、最も動きのある人物を第2人物と検出するのが望ましい。 Speakers are more likely to have more gestures than those who are listening. That is, the speaker often speaks while gesturing. Therefore, it is desirable for the speaker detection system to detect the most moving person among the participants as the second person.
なお、動きの検出を行うのにおいて、対象となる部位は、手Hの部位であるのが望ましい。会議等では、参加者の上半身が撮像される対象となる場合が多い。また、発言中は、手Hの部位が最もよく動く部位となる場合が多い。そこで、手Hを対象とすると、発話者検出システムは、発話者を精度よく検出できる。なお、手Hの部位には、腕等が含まれてもよい。 In addition, in detecting the movement, it is desirable that the target portion is the portion of the hand H. At meetings and the like, the upper body of the participants is often photographed. Also, during speech, the part of the hand H is often the part that moves the most. Therefore, when the hand H is targeted, the speaker detection system can accurately detect the speaker. The portion of the hand H may include an arm or the like.
<第2人物を発話者と検出する例>(ステップS12)
発話者検出システムは、第2人物を発話者と検出する。すなわち、発話者検出システムは、最も動きのある人物を発話者と検出する。
<Example of detecting the second person as the speaker> (step S12)
The speaker detection system detects the second person as the speaker. That is, the speaker detection system detects the most moving person as the speaker.
<参加者の視線が最も集まる第3人物を発話者と検出する例>(ステップS13)
発話者検出システムは、参加者のうち、参加者の視線が最も集まる人物(以下「第3人物」という。)を検出して発話者と検出する。例えば、以下のように、第1人物と検出される人物が複数検出され、かつ、参加者の動きにあまり差がなく、第2人物が特定しにくい場合等に、ステップS13が行われるのが望ましい。
<Example of detecting the third person who attracts the most eyes of the participants as the speaker> (step S13)
The speaker detection system detects a person who has the most line of sight of the participants (hereinafter referred to as "third person") among the participants and detects the speaker as the speaker. For example, step S13 is performed when a plurality of persons to be detected as the first person are detected and there is not much difference in the movements of the participants and it is difficult to identify the second person as described below. desirable.
図6は、第3人物の検出例を示す図である。この例では、まず、第1参加者MA、第2参加者MB及び第3参加者MCのいずれもが、図4と同様に、マスクの装着によって、***が遮蔽されているため、第1人物と判断される。 FIG. 6 is a diagram showing a detection example of a third person. In this example, first, since the lips of all the first participant MA, the second participant MB, and the third participant MC are shielded by wearing the mask as in FIG. 4, the first person Is judged.
さらに、図示する例では、第1参加者MA、第2参加者MB及び第3参加者MCのいずれもが、あまり動かない場合であるとする。したがって、参加者の動きにあまり差がなく、第2人物が特定されない状態である。 Further, in the illustrated example, it is assumed that none of the first participant MA, the second participant MB, and the third participant MC moves very much. Therefore, there is not much difference in the movements of the participants, and the second person is not specified.
発話者は、話を聞いている者が視線を向けることが多いため、発話者に視線が最も集まる場合が多い。そこで、発話者検出システムは、参加者のうち、参加者の視線が最も集まる人物を特定し、第3人物と検出する。そして、発話者検出システムは、第3人物を発話者と検出する。 As for the speaker, the person listening to the story often looks at the speaker, so the speaker often has the most eyes. Therefore, the speaker detection system identifies the person who has the most line of sight among the participants and detects it as the third person. Then, the speaker detection system detects the third person as the speaker.
このようにすると、図示するように、第1人物が複数検出され、かつ、第2人物が検出できない場合等であっても、発話者検出システムは、発話者を検出できる。 In this way, as shown in the figure, the speaker detection system can detect the speaker even when a plurality of first persons are detected and the second person cannot be detected.
なお、ステップS9、ステップS11及びステップS13は、図示するような順序でなくともよい。具体的には、第2人物の検出処理と第3人物の検出処理は、順序が逆でもよい。 Note that steps S9, S11 and S13 do not have to be in the order shown in the figure. Specifically, the order of the second person detection process and the third person detection process may be reversed.
<機能構成例>
図7は、第1実施形態における発話者検出システムの機能構成例を示す機能ブロック図である。例えば、図示するように、発話者検出システム10は、撮像部10F1、第1検出部10F2及び第2検出部10F3を備える機能構成である。
<Function configuration example>
FIG. 7 is a functional block diagram showing a functional configuration example of the speaker detection system according to the first embodiment. For example, as shown in the figure, the
撮像部10F1は、発話者を含む複数の参加者を撮像して画像データIMGを生成する撮像手順を行う。例えば、撮像部10F1は、カメラ1等によって実現する。
The image capturing unit 10F1 performs an imaging procedure of capturing a plurality of participants including the speaker to generate image data IMG. For example, the imaging unit 10F1 is realized by a
第1検出部10F2は、画像データIMGに基づいて、***の動作を検出して発話者を検出する第1検出手順を行う。例えば、第1検出部10F2は、CPU201等で実現する。
The first detection unit 10F2 performs the first detection procedure of detecting the movement of the lips and detecting the speaker based on the image data IMG. For example, the first detection unit 10F2 is realized by the
第2検出部10F3は、第1検出部10F2で発話者が検出できない場合に、画像データIMGに基づいて、参加者の動き又は外観を検出して発話者を検出する第2検出手順を行う。例えば、第2検出部10F3は、CPU201等で実現する。
The second detection unit 10F3 performs a second detection procedure of detecting the speaker by detecting the movement or appearance of the participant based on the image data IMG when the speaker cannot be detected by the first detection unit 10F2. For example, the second detection unit 10F3 is realized by the
***の動作を検出して発話者を検出する方法であると、例えば、人物がマスクを装着していたり、***部分を手で隠す癖等があったりすると、***部分が遮蔽され、画像データに***部分が写らない場合等がある。このような場合には、***の動作に基づいて、発話者を検出するのが難しい場合が多い。一方で、本実施形態のような構成であると、発話者検出システム10は、***の動作を用いる第1検出では難しい場合でも、参加者の動き又は外観に基づく第2検出によって発話者を検出できる。
In the method of detecting the movement of the lips and detecting the speaker, for example, when a person wears a mask or has a habit of hiding the lips part by hand, the lips part is shielded and the image data is displayed. The lips may not be visible. In such cases, it is often difficult to detect the speaker based on the movement of the lips. On the other hand, with the configuration as in the present embodiment, the
また、このように、画像データを用いる構成は、例えば、マイクアレイ等で発話者を検出する方法等と比較すると、精度よく発話者を検出できる。具体的には、マイクアレイ等の方法では、発話者がいると推定する角度が検出されるに過ぎず、同じ角度に複数の参加者がいるような場合には、区別ができない場合が多い。一方で、本実施形態のような構成であると、発話者検出システム10は、発話者を検出できる。
Further, as described above, the configuration using the image data can accurately detect the speaker as compared with, for example, a method of detecting the speaker with a microphone array or the like. Specifically, a method such as a microphone array only detects an angle at which a speaker is presumed to be present, and when there are a plurality of participants at the same angle, it is often impossible to distinguish between them. On the other hand, with the configuration as in this embodiment, the
<第2実施形態>
発話者検出システムは、例えば、以下のように、検出結果を利用した処理を行ってもよい。
<Second Embodiment>
The utterance detection system may perform processing using the detection result as follows, for example.
図8は、複数の認識モデルを用いる音声認識処理等の例を示すブロック図である。第2実施形態は、第1実施形態と比較すると、発話者の検出結果を利用して後段で処理を行う構成である点が異なる。具体的には、発話者検出システム10は、例えば、後段で音声認識処理等を行う。ゆえに、発話者検出システム10は、第1実施形態と比較すると、第2実施形態では、音声入力部10F21、切替部10F22及び音声認識部10F23等を更に備える機能構成である。以下、第1実施形態と異なる点を中心に説明し、重複する説明を省略する。
FIG. 8 is a block diagram showing an example of voice recognition processing using a plurality of recognition models. The second embodiment is different from the first embodiment in that the processing is performed in the subsequent stage using the detection result of the speaker. Specifically, the
音声入力部10F21は、音声を入力して音声データを生成する音声入力手順を行う。例えば、音声入力部10F21は、マイク240等で実現する。
The voice input unit 10F21 performs a voice input procedure for inputting voice and generating voice data. For example, the voice input unit 10F21 is realized by a
切替部10F22は、発話者の特性に合うように、認識モデルを切り替える切替手順を行う。例えば、切替部10F22は、CPU201等で実現する。
The switching unit 10F22 performs a switching procedure for switching the recognition model so as to match the characteristics of the speaker. For example, the switching unit 10F22 is realized by the
音声認識部10F23は、認識モデルに基づいて、音声認識をする音声認識手順を行う。例えば、音声認識部10F23は、CPU201等で実現する。
The voice recognition unit 10F23 performs a voice recognition procedure for voice recognition based on the recognition model. For example, the voice recognition unit 10F23 is realized by the
発話者検出システム10は、音声認識処理によって、例えば、音声を変換してテキストデータTXを生成する。そこで、音声認識には、発話者の特性、すなわち、発話者の年齢又は性別に合わせて、カテゴリごとに生成される複数の認識モデルML1、ML2及びML3を適用させるのが望ましい。このように、発話者の特性に合わせて、認識モデルを切り替えると、発話者検出システム10は、音声認識における認識率を向上させることができる。
The
認識モデルML1、ML2及びML3は、例えば、あらかじめ準備されるデータ等である。また、認識モデルML1、ML2及びML3は、例えば、音響モデル又は言語モデル等のように、様々な種類があってもよい。さらに、認識モデルML1、ML2及びML3は、例えば、個別に準備されてもよい。すなわち、過去の発話等に基づいて、参加者ごとに、認識モデルML1、ML2及びML3のように、認識モデルが準備されてもよい。 The recognition models ML1, ML2 and ML3 are, for example, data prepared in advance. Further, the recognition models ML1, ML2 and ML3 may have various types such as an acoustic model or a language model. Further, the recognition models ML1, ML2 and ML3 may be prepared individually, for example. That is, a recognition model may be prepared for each participant, such as the recognition models ML1, ML2, and ML3, based on past utterances and the like.
また、後段に行う処理は、音声認識に限られない。例えば、発話者検出システム10は、入力した音声を参加者ごとに、タグ付けする処理等でもよい。
Further, the processing performed in the subsequent stage is not limited to voice recognition. For example, the
<第3実施形態>
全体処理は、以下のような処理でもよい。
<Third Embodiment>
The whole process may be the following process.
図9は、第3実施形態における全体処理例を示すフローチャートである。第1実施形態と比較すると、第3実施形態では、ステップS31が加わる点が異なる。以下、異なる点を中心に説明する。 FIG. 9 is a flowchart showing an example of overall processing in the third embodiment. Compared with the first embodiment, the third embodiment is different in that step S31 is added. Hereinafter, the differences will be mainly described.
<発話者が複数人検出されたか否かの判断例>(ステップS31)
発話者検出システムは、発話者が複数人検出されたか否かを判断する。例えば、***の動作で検出すると、発話していなくとも、発話者検出システムは、物を噛む等の動作を行い、***を動かす人物がいると、発話者と検出する場合がある。そこで、発話者が複数であるような検出結果である場合には、発話者と検出された複数の人物を対象に、ステップS11及びステップS13等の処理を行うことで、1 人に特定する処理を行うのが望ましい。
<Example of determining whether or not multiple speakers have been detected> (step S31)
The speaker detection system determines whether or not a plurality of speakers have been detected. For example, when detected by the movement of the lips, the speaker detection system may perform an action such as chewing an object and detect that there is a person who moves the lips as a speaker even if the person is not speaking. Therefore, when the detection result is such that there are a plurality of speakers, a process of identifying the speaker and the plurality of detected persons by performing processes such as steps S11 and S13 to identify one person. It is desirable to do.
すなわち、複数の発話者候補のうち、発話者検出システムは、最も動きのある人物又は最も視線が集まる人物等を発話者と検出する。 That is, among the plurality of speaker candidates, the speaker detection system detects the person who moves the most, the person who attracts the most eyes, and the like as the speaker.
このような構成であると、発話者検出システムは、物を噛む等の動作を行う人物がいても、発話者を精度よく検出できる。 With such a configuration, the speaker detection system can accurately detect the speaker even if there is a person who performs an action such as chewing an object.
<その他の実施形態>
なお、撮像装置及び情報処理装置は、複数の装置であってもよい。すなわち、本発明に係る実施形態は、発話者検出システムは、各処理及びデータの記憶を冗長、分散、並列、仮想化又はこれらを組み合わせて実行してもよい。
<Other Embodiments>
The image pickup device and the information processing device may be a plurality of devices. That is, in the embodiment of the present invention, the speaker detection system may execute each process and data storage redundantly, distributed, parallel, virtualized, or a combination thereof.
また、撮像装置及び情報処理装置は、上記の例に限られない。例えば、撮像装置及び情報処理装置は、外部又は内部に演算装置、制御装置又は記憶装置を更に有してもよい。一方で、撮像装置及び情報処理装置は、上記の例より、少ない部品で構成するハードウェア構成でもよい。 Further, the imaging device and the information processing device are not limited to the above examples. For example, the imaging device and the information processing device may further have an arithmetic unit, a control device, or a storage device outside or inside. On the other hand, the image pickup device and the information processing device may have a hardware configuration composed of fewer parts than the above example.
なお、本発明に係る各処理の全部又は一部は、低水準言語又は高水準言語で記述され、コンピュータに発話者検出方法を実行させるためのプログラムによって実現されてもよい。すなわち、プログラムは、発話者検出システム等のコンピュータに各処理を実行させるためのコンピュータプログラムである。 All or part of each process according to the present invention may be described in a low-level language or a high-level language, and may be realized by a program for causing a computer to execute a speaker detection method. That is, the program is a computer program for causing a computer such as a speaker detection system to execute each process.
したがって、プログラムに基づいて発話者検出方法が実行されると、コンピュータが有する演算装置及び制御装置は、各処理を実行するため、プログラムに基づいて演算及び制御を行う。また、コンピュータが有する記憶装置は、各処理を実行するため、プログラムに基づいて、処理に用いられるデータを記憶する。 Therefore, when the speaker detection method is executed based on the program, the arithmetic unit and the control device of the computer perform the arithmetic and control based on the program in order to execute each process. In addition, the storage device of the computer stores the data used for the processing based on the program in order to execute each processing.
また、プログラムは、コンピュータが読み取り可能な記録媒体に記録されて頒布することができる。なお、記録媒体は、磁気テープ、フラッシュメモリ、光ディスク、光磁気ディスク又は磁気ディスク等のメディアである。さらに、プログラムは、電気通信回線を通じて頒布することができる。 In addition, the program can be recorded and distributed on a computer-readable recording medium. The recording medium is a medium such as a magnetic tape, a flash memory, an optical disk, a magneto-optical disk, or a magnetic disk. In addition, the program can be distributed over telecommunication lines.
また、各処理には、AI(Artificial Intelligence)等が用いられてもよい。つまり、発話者検出システムは、過去のデータを学習データとして機械学習等を行う。例えば、この学習結果によって、発話者検出システムは、発話者の検出又は音声の認識等を推測する等の処理を行ってもよい。 In addition, AI (Artificial Intelligence) or the like may be used for each process. That is, the speaker detection system performs machine learning or the like using past data as learning data. For example, the speaker detection system may perform processing such as detecting the speaker or estimating voice recognition based on the learning result.
以上、実施形態における一例について説明したが、本発明は、上記実施形態に限定されない。すなわち、本発明の範囲内で種々の変形及び改良が可能である。 Although an example in the embodiment has been described above, the present invention is not limited to the above embodiment. That is, various modifications and improvements are possible within the scope of the present invention.
1 カメラ
2 電子黒板
10 発話者検出システム
10F1 撮像部
10F2 第1検出部
10F21 音声入力部
10F22 切替部
10F23 音声認識部
10F3 第2検出部
205 ネットワークI/F
210 バスライン
211 キャプチャデバイス
213 ディスプレイコントローラ
214 接触センサ
215 センサコントローラ
216 電子ペンコントローラ
219 近距離通信回路
219a アンテナ
222 電源スイッチ
223 選択スイッチ類
230 USBメモリ
240 マイク
250 スピーカ
280 ディスプレイ
290 電子ペン
H 手
IMG 画像データ
MA 第1参加者
MB 第2参加者
MC 第3参加者
MEM 参加者
ML1 認識モデル
ML2 認識モデル
ML3 認識モデル
MSK マスク
TX テキストデータ
1
210
Claims (8)
前記発話者を含む複数の参加者を撮像して画像データを生成する撮像部と、
前記画像データに基づいて、***の動作を検出して前記発話者を検出する第1検出部と、
前記第1検出部で前記発話者が検出できない場合に、前記画像データに基づいて、前記参加者の動き又は外観を検出して前記発話者を検出する第2検出部と
を備える発話者検出システム。 It is a speaker detection system that detects the speaker.
An imaging unit that captures a plurality of participants including the speaker and generates image data,
Based on the image data, a first detection unit that detects the movement of the lips and detects the speaker, and
A speaker detection system including a second detection unit that detects the movement or appearance of the participant based on the image data and detects the speaker when the speaker cannot be detected by the first detection unit. ..
前記参加者のうち、前記***が遮蔽されている外観の第1人物を検出し、かつ、前記第1人物となる人物以外が前記発話者でないと検出されると、前記第1人物を前記発話者と検出する
請求項1に記載の発話者検出システム。 The second detection unit
When a first person having an appearance in which the lips are shielded is detected among the participants and a person other than the person who becomes the first person is detected as not the speaker, the first person is said to be the utterance. The speaker detection system according to claim 1, wherein the person is detected.
前記参加者のうち、最も動きのある第2人物を検出すると、前記第2人物を前記発話者と検出する
請求項1又は2に記載の発話者検出システム。 The second detection unit
The speaker detection system according to claim 1 or 2, wherein when the second person who has the most movement is detected among the participants, the second person is detected as the speaker.
前記参加者のうち、手の部位が最も動く人物を前記第2人物と検出する
請求項3に記載の発話者検出システム。 The second detection unit
The speaker detection system according to claim 3, wherein the person whose hand portion moves most is detected as the second person among the participants.
前記参加者の視線が最も集まる第3人物を前記発話者と検出する
請求項1乃至4のいずれか1項に記載の発話者検出システム。 The second detection unit
The speaker detection system according to any one of claims 1 to 4, wherein a third person whose eyes are most gathered by the participants is detected as the speaker.
前記認識モデルに基づいて音声認識を行う音声認識部と
を更に備える
請求項1乃至5のいずれか1項に記載の発話者検出システム。 When the speaker is detected, a switching unit that switches to a recognition model that matches the characteristics of the speaker, and
The speaker detection system according to any one of claims 1 to 5, further comprising a voice recognition unit that performs voice recognition based on the recognition model.
発話者検出システムが、前記発話者を含む複数の参加者を撮像して画像データを生成する撮像手順と、
発話者検出システムが、前記画像データに基づいて、***の動作を検出して前記発話者を検出する第1検出手順と、
発話者検出システムが、前記第1検出手順で前記発話者が検出できない場合に、前記画像データに基づいて、前記参加者の動き又は外観を検出して前記発話者を検出する第2検出手順と
を含む発話者検出方法。 It is a speaker detection method performed by the speaker detection system that detects the speaker.
An imaging procedure in which the speaker detection system images a plurality of participants including the speaker to generate image data, and
The first detection procedure in which the speaker detection system detects the movement of the lips and detects the speaker based on the image data, and
When the speaker detection system cannot detect the speaker in the first detection procedure, the speaker detection procedure detects the movement or appearance of the participant based on the image data to detect the speaker. Speaker detection method including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019052911A JP7259447B2 (en) | 2019-03-20 | 2019-03-20 | Speaker detection system, speaker detection method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019052911A JP7259447B2 (en) | 2019-03-20 | 2019-03-20 | Speaker detection system, speaker detection method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020155944A true JP2020155944A (en) | 2020-09-24 |
JP7259447B2 JP7259447B2 (en) | 2023-04-18 |
Family
ID=72559875
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019052911A Active JP7259447B2 (en) | 2019-03-20 | 2019-03-20 | Speaker detection system, speaker detection method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7259447B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114282621A (en) * | 2021-12-29 | 2022-04-05 | 湖北微模式科技发展有限公司 | Multi-mode fused speaker role distinguishing method and system |
CN114299952A (en) * | 2021-12-29 | 2022-04-08 | 湖北微模式科技发展有限公司 | Speaker role distinguishing method and system combining multiple motion analysis |
WO2022168175A1 (en) * | 2021-02-02 | 2022-08-11 | 株式会社I’mbesideyou | Video session evaluation terminal, video session evaluation system, and video session evaluation program |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000352996A (en) * | 1999-03-26 | 2000-12-19 | Canon Inc | Information processing device |
JP2005122128A (en) * | 2003-09-25 | 2005-05-12 | Fuji Photo Film Co Ltd | Speech recognition system and program |
JP2007049375A (en) * | 2005-08-09 | 2007-02-22 | Nikon Corp | Image processor, camera, communication equipment, and program for realizing image processor |
JP2007094104A (en) * | 2005-09-29 | 2007-04-12 | Sony Corp | Information processing apparatus, method, and program |
WO2011013605A1 (en) * | 2009-07-27 | 2011-02-03 | 三洋電機株式会社 | Presentation system |
WO2011040056A1 (en) * | 2009-10-02 | 2011-04-07 | 独立行政法人情報通信研究機構 | Speech translation system, first terminal device, speech recognition server device, translation server device, and speech synthesis server device |
CN109410954A (en) * | 2018-11-09 | 2019-03-01 | 杨岳川 | A kind of unsupervised more Speaker Identification device and method based on audio-video |
-
2019
- 2019-03-20 JP JP2019052911A patent/JP7259447B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000352996A (en) * | 1999-03-26 | 2000-12-19 | Canon Inc | Information processing device |
JP2005122128A (en) * | 2003-09-25 | 2005-05-12 | Fuji Photo Film Co Ltd | Speech recognition system and program |
JP2007049375A (en) * | 2005-08-09 | 2007-02-22 | Nikon Corp | Image processor, camera, communication equipment, and program for realizing image processor |
JP2007094104A (en) * | 2005-09-29 | 2007-04-12 | Sony Corp | Information processing apparatus, method, and program |
WO2011013605A1 (en) * | 2009-07-27 | 2011-02-03 | 三洋電機株式会社 | Presentation system |
WO2011040056A1 (en) * | 2009-10-02 | 2011-04-07 | 独立行政法人情報通信研究機構 | Speech translation system, first terminal device, speech recognition server device, translation server device, and speech synthesis server device |
CN109410954A (en) * | 2018-11-09 | 2019-03-01 | 杨岳川 | A kind of unsupervised more Speaker Identification device and method based on audio-video |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022168175A1 (en) * | 2021-02-02 | 2022-08-11 | 株式会社I’mbesideyou | Video session evaluation terminal, video session evaluation system, and video session evaluation program |
CN114282621A (en) * | 2021-12-29 | 2022-04-05 | 湖北微模式科技发展有限公司 | Multi-mode fused speaker role distinguishing method and system |
CN114299952A (en) * | 2021-12-29 | 2022-04-08 | 湖北微模式科技发展有限公司 | Speaker role distinguishing method and system combining multiple motion analysis |
CN114299952B (en) * | 2021-12-29 | 2022-08-19 | 湖北微模式科技发展有限公司 | Speaker role distinguishing method and system combining multiple motion analysis |
Also Published As
Publication number | Publication date |
---|---|
JP7259447B2 (en) | 2023-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11726324B2 (en) | Display system | |
JP5456832B2 (en) | Apparatus and method for determining relevance of an input utterance | |
US8966613B2 (en) | Multi-frame depth image information identification | |
CN105324811B (en) | Speech to text conversion | |
WO2014125791A1 (en) | Voice recognition device, voice recognition method, and program | |
US20130300650A1 (en) | Control system with input method using recognitioin of facial expressions | |
JP7259447B2 (en) | Speaker detection system, speaker detection method and program | |
US11803233B2 (en) | IMU for touch detection | |
CN112351188B (en) | Apparatus and method for displaying graphic element according to object | |
JPWO2019155735A1 (en) | Information processing equipment, information processing methods and programs | |
US11620790B2 (en) | Generating a 3D model of a fingertip for visual touch detection | |
Pingali et al. | Audio-visual tracking for natural interactivity | |
US11782548B1 (en) | Speed adapted touch detection | |
KR20200111144A (en) | Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device | |
US11237671B1 (en) | Temporal filter touch detection | |
EP4163765A1 (en) | Method and apparatus for initiating an action | |
US20230334794A1 (en) | Presenting Communication Data Based on Environment | |
EP4178220A1 (en) | Voice-input device | |
EP4113983A1 (en) | Method for gaze tracking calibration with a video conference system | |
JP2022008717A (en) | Method of controlling smart board based on voice and motion recognition and virtual laser pointer using the method | |
US20190164032A1 (en) | Communication apparatus | |
CN117762243A (en) | Motion mapping for continuous gestures | |
EP3398028A1 (en) | System and method for human computer interaction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230224 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230320 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7259447 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |