JP6689421B1 - 音声解析システム - Google Patents
音声解析システム Download PDFInfo
- Publication number
- JP6689421B1 JP6689421B1 JP2019011603A JP2019011603A JP6689421B1 JP 6689421 B1 JP6689421 B1 JP 6689421B1 JP 2019011603 A JP2019011603 A JP 2019011603A JP 2019011603 A JP2019011603 A JP 2019011603A JP 6689421 B1 JP6689421 B1 JP 6689421B1
- Authority
- JP
- Japan
- Prior art keywords
- conversation
- information
- unit
- presentation
- storage unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000000463 material Substances 0.000 claims description 66
- 238000006243 chemical reaction Methods 0.000 claims description 15
- 238000000605 extraction Methods 0.000 claims description 14
- 239000000284 extract Substances 0.000 claims 1
- 238000010586 diagram Methods 0.000 abstract description 9
- 239000008280 blood Substances 0.000 description 23
- 210000004369 blood Anatomy 0.000 description 23
- 239000002547 new drug Substances 0.000 description 23
- 206010012601 diabetes mellitus Diseases 0.000 description 22
- 238000012545 processing Methods 0.000 description 11
- WQZGKKKJIJFFOK-GASJEMHNSA-N Glucose Natural products OC[C@H]1OC(O)[C@H](O)[C@@H](O)[C@@H]1O WQZGKKKJIJFFOK-GASJEMHNSA-N 0.000 description 8
- 239000008103 glucose Substances 0.000 description 8
- 238000000034 method Methods 0.000 description 8
- NOESYZHRGYRDHS-UHFFFAOYSA-N insulin Chemical compound N1C(=O)C(NC(=O)C(CCC(N)=O)NC(=O)C(CCC(O)=O)NC(=O)C(C(C)C)NC(=O)C(NC(=O)CN)C(C)CC)CSSCC(C(NC(CO)C(=O)NC(CC(C)C)C(=O)NC(CC=2C=CC(O)=CC=2)C(=O)NC(CCC(N)=O)C(=O)NC(CC(C)C)C(=O)NC(CCC(O)=O)C(=O)NC(CC(N)=O)C(=O)NC(CC=2C=CC(O)=CC=2)C(=O)NC(CSSCC(NC(=O)C(C(C)C)NC(=O)C(CC(C)C)NC(=O)C(CC=2C=CC(O)=CC=2)NC(=O)C(CC(C)C)NC(=O)C(C)NC(=O)C(CCC(O)=O)NC(=O)C(C(C)C)NC(=O)C(CC(C)C)NC(=O)C(CC=2NC=NC=2)NC(=O)C(CO)NC(=O)CNC2=O)C(=O)NCC(=O)NC(CCC(O)=O)C(=O)NC(CCCNC(N)=N)C(=O)NCC(=O)NC(CC=3C=CC=CC=3)C(=O)NC(CC=3C=CC=CC=3)C(=O)NC(CC=3C=CC(O)=CC=3)C(=O)NC(C(C)O)C(=O)N3C(CCC3)C(=O)NC(CCCCN)C(=O)NC(C)C(O)=O)C(=O)NC(CC(N)=O)C(O)=O)=O)NC(=O)C(C(C)CC)NC(=O)C(CO)NC(=O)C(C(C)O)NC(=O)C1CSSCC2NC(=O)C(CC(C)C)NC(=O)C(NC(=O)C(CCC(N)=O)NC(=O)C(CC(N)=O)NC(=O)C(NC(=O)C(N)CC=1C=CC=CC=1)C(C)C)CC1=CN=CN1 NOESYZHRGYRDHS-UHFFFAOYSA-N 0.000 description 6
- 238000012360 testing method Methods 0.000 description 6
- 239000003814 drug Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 208000010412 Glaucoma Diseases 0.000 description 3
- 102000004877 Insulin Human genes 0.000 description 3
- 108090001061 Insulin Proteins 0.000 description 3
- 208000017442 Retinal disease Diseases 0.000 description 3
- 206010038923 Retinopathy Diseases 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 229940125396 insulin Drugs 0.000 description 3
- 235000013322 soy milk Nutrition 0.000 description 3
- 229940124597 therapeutic agent Drugs 0.000 description 3
- 235000010469 Glycine max Nutrition 0.000 description 2
- 244000068988 Glycine max Species 0.000 description 2
- 235000013336 milk Nutrition 0.000 description 2
- 239000008267 milk Substances 0.000 description 2
- 210000004080 milk Anatomy 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/32—Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/90—Pitch determination of speech signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Machine Translation (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
この音声解析システム1は,第1の音声解析端末3と,第2の音声解析端末5とを含むシステムである。この端末は,コンピュータを含んでおり,以下説明する各要素はコンピュータにより実装される要素である。
第1の音声解析端末3は,第1の用語解析部7と,第1の会話記憶部9と,解析部11と,プレゼンテーション記憶部13と,関連語記憶部15と,表示部17と,を含む端末である。
第1の用語解析部7は,会話に含まれる単語を解析し,第1の会話情報を得るための要素である。
第1の会話記憶部9は,第1の用語解析部7が解析した第1の会話情報を記憶するための要素である。
解析部11は,第1の会話記憶部9が記憶した第1の会話情報を解析するための要素である。
プレゼンテーション記憶部13は,複数のプレゼンテーション資料を記憶するための要素である。
関連語記憶部15は,プレゼンテーション記憶部13に記憶されたそれぞれのプレゼンテーション資料に関連した関連語を記憶するための要素である。
表示部17は,プレゼンテーション記憶部13が記憶したいずれかのプレゼンテーション資料を表示することができる要素である。
第2の用語解析部21は,会話に含まれる単語を解析し,第2の会話情報を得るための要素である。第2の会話記憶部23は,第2の用語解析部21が解析した第2の会話情報を記憶するための要素である。
そして,会話情報受信部25は,第2の音声解析端末5から第2の会話情報を受信するための要素である。そして,第1の会話記憶部は、会話情報受信部25が受信した第2の会話情報も記憶する。
特定プレゼンテーション情報取得部31は,複数のプレゼンテーション資料のうちのあるプレゼンテーション資料である特定プレゼンテーション資料が選択されたことに関する情報を受け取るための要素である。
会話区分取得部33は,第1の会話情報における会話区分を分析し,1又は複数の会話区分を得るための要素である。
関連語抽出部35は,第1の会話情報及び第2の会話情報に含まれる特定プレゼンテーション資料に関する関連語を抽出するための要素である。
会話区分選択部37は,会話区分取得部33が得た各会話区分における第1の会話情報に含まれる関連語の数と,第2の会話情報に含まれる関連語の数とを比較し,関連語の数が多い方の会話区分を正しい会話区分として採用するための要素である。
このシステムは,第1の会話情報は,会話に含まれる単語とともに,各単語と関連した時刻を含む。会話区分取得部33は,各単語の時刻情報を用いて,会話区分を分析する。
会話が途切れると,話者が変わったことが分かるので,単語間の時間が空けば会話区分が変わったことが分かる。
このシステムは,第1の会話情報が,会話に含まれる単語とともに,各単語と関連した音声の周波数を含む。
会話区分取得部33は,各単語の周波数を用いて,会話区分を分析する。
声の高さが変われば,話者が変わったことが分かるので,各単語の音の周波数を分析すれば会話区分が変わったことが分かる。
プレゼンテーションする方が用いるプレゼン関連用語と,リスナーの方が発言する用語とは異なりますので,それぞれの用語を解析して,会話区分を分けることができる。
そして,解析部11は,特定プレゼンテーション資料に関する誤変換用語が含まれる場合, 各会話区分のうち正しい会話区分として採用されなかった会話区分に含まれる用語のうち,正しい会話区分に含まれる誤変換用語に対応する用語を用いて,正しい会話区分に含まれる用語を修正する。第1の音声解析端末3及び第2の音声解析端末5は、互いに情報を照らし合わせることで、高精度の解析結果を得ることができる。
第2のプレゼンテーション記憶部53は,第2の音声解析端末5に記憶される複数のプレゼンテーション資料である第2のプレゼンテーションを記憶するための要素である。
第2の関連語記憶部55は,第2のプレゼンテーション資料のそれぞれに関連した関連語を記憶するための要素である。
第2の表示部57は,第2のプレゼンテーション記憶部13が記憶したいずれかのプレゼンテーション資料を表示するための要素である。
第2の会話情報受信部59は,第1の音声解析端末3から第1の会話情報を受信するための要素である。
そして,第2の会話記憶部23は,第2の会話情報受信部59が受信した第1の会話情報も記憶する。
第2の解析部51は,第2の特定プレゼンテーション情報取得部61と,第2の会話区分取得部63と,第2の関連語抽出部65と,第2の会話区分選択部67とを有する。
第2の特定プレゼンテーション情報取得部61は,第2のプレゼンテーションのうちのあるプレゼンテーション資料である第2の特定プレゼンテーション資料が選択されたことに関する情報を受け取るための要素である。
第2の会話区分取得部63は,第2の会話情報における会話区分を分析し,1又は複数の会話区分を得るための要素である。
第2の関連語抽出部65は,第1の会話情報及び第2の会話情報に含まれる第2の特定プレゼンテーション資料に関する関連語を抽出するための要素である。
第2の会話区分選択部67は,第2の会話区分取得部63が得た各会話区分における第1の会話情報に含まれる関連語の数と,第2の会話情報に含まれる関連語の数とを比較し,関連語の数が多い方の会話区分を正しい会話区分として採用するための要素である。
例えば,「これからとうにょうびょうにかんするしんやくであるえっくぅわいじーについてせつめいしますそれはけっとうちをさげますか」を「これからとうにょうびょうにかんするしんやくであるえっくぅわいじーについてせつめいします」と「それはけっとうちをさげますか」といった2つの会話区分を得る。又は,「これから糖尿病に関する新薬であるXYZについて説明しますそれは決闘血を下げますか。」を「これから糖尿病に関する新薬であるXYZについて説明します。」「それは決闘血を下げますか。」といった2つの会話区分を得る。このような会話区分の取得方法は,公知である。以下,会話区分の取得方法の例(実施態様)を説明する。
プレゼンテーションする方が用いるプレゼン関連用語と,リスナーの方が発言する用語とは異なるので,それぞれの用語を解析して,会話区分を分けることができる。
例えば,あるプレゼンターション資料の資料名(存在位置)とそのページ数に関連して,「糖尿病」,「新薬」,「XYZ」,「ABC」(他の治療剤の名称),「血糖値」,「副作用」,「血糖」,「緑内障」,「網膜症」,「インスリン」,「DC製薬」,「添付文書」が記憶部に記憶されているので,関連語抽出部35は,記憶部からこれらの特定プレゼンテーション資料に関する関連語を読み出す。そして,第1の会話情報に含まれる用語と,関連語とが一致するか演算処理を行う。そして,一致した関連語を,会話情報及び区分番号とともに記憶部に記憶する。
第2の会話情報の最初の会話区分である「これから豆乳秒二巻する新約であるXYZについて説明します。」には,「XYZ」という一つの関連語が含まれている。一方,第2の会話情報の2つめの会話区分である「それは血糖値を下げますか?」には,「血糖値」という関連語が1つ含まれている。
例えば,会話区分選択部37は,第1の会話情報の1番目の会話区分に関して,記憶部から3という数値を読み出し,第2の会話情報の1番目の会話区分に関して1という数値を読み出す。そして,読み出した数値を比較する演算を行う。その結果,第1の会話情報の方が第2の会話情報よりも1番目の会話区分に含まれる関連語の数が多いことが分かる。すると,会話区分選択部37は,第1の会話情報の1番目の会話区分(例えば「これから糖尿病に関する新薬であるXYZについて説明します。」)を正しい会話区分として採用する。
同様にして,会話区分選択部37は,第2の会話情報の2番目の会話区分(「それは血糖値を下げますか?」)を正しい会話区分として採用する。
そして,解析部11は,正しい会話区分として採用された会話情報の各会話区分に特定プレゼンテーション資料に関する誤変換用語が含まれる場合,各会話区分のうち正しい会話区分として採用されなかった会話区分に含まれる用語のうち,正しい会話区分に含まれる誤変換用語に対応する用語を用いて,正しい会話区分に含まれる用語を修正する。第1の音声解析端末3及び第2の音声解析端末5は、互いに情報を照らし合わせることで、高精度の解析結果を得ることができる。
第2のプレゼンテーション記憶部53は,第2の音声解析端末5に記憶される複数のプレゼンテーション資料である第2のプレゼンテーションを記憶するための要素である。
第2の関連語記憶部55は,第2のプレゼンテーション資料のそれぞれに関連した関連語を記憶するための要素である。
第2の表示部57は,第2のプレゼンテーション記憶部13が記憶したいずれかのプレゼンテーション資料を表示するための要素である。
第2の会話情報受信部59は,第1の音声解析端末3から第1の会話情報を受信するための要素である。
そして,第2の会話記憶部23は,第2の会話情報受信部59が受信した第1の会話情報も記憶する。
第2の解析部51は,第2の特定プレゼンテーション情報取得部61と,第2の会話区分取得部63と,第2の関連語抽出部65と,会話区分選択部67とを有する。
第2の特定プレゼンテーション情報取得部61は,第2のプレゼンテーションのうちのあるプレゼンテーション資料である第2の特定プレゼンテーション資料が選択されたことに関する情報を受け取るための要素である。
第2の会話区分取得部63は,第2の会話情報における会話区分を分析し,1又は複数の会話区分を得るための要素である。
第2の関連語抽出部65は,第1の会話情報及び第2の会話情報に含まれる第2の特定プレゼンテーション資料に関する関連語を抽出するための要素である。
会話区分選択部67は,第2の会話区分取得部63が得た各会話区分における第1の会話情報に含まれる関連語の数と,第2の会話情報に含まれる関連語の数とを比較し,関連語の数が多い方の会話区分を正しい会話区分として採用するための要素である。
MRが,ノート型パソコンに格納されているか,又はサーバから読み出したあるパワーポイント(登録商標)を開く。すると,パソコンに,そのパワーポイント(登録商標)が選択されたことに関する情報が入力される。
ノートパソコンの表示部には,そのパワーポイント(登録商標)のページが表示される。一方,スマートフォンの表示部にもパワーポイント(登録商標)のページが表示される。
一方,パワーポイント(登録商標)のページと関連して,そのページであるプレゼンテーション資料に関連した関連語が記憶部から読み出される。読み出された関連語の例は,「糖尿病」,「新薬」,「XYZ」,「ABC」(他の治療剤の名称),「血糖値」,「副作用」,「血糖」,「緑内障」,「網膜症」,「インスリン」,「DC製薬」,「添付文書」である。
表示された資料に関連してMRと医師との間で会話がなされる。会話は,プレゼンテーションであってもよいし,説明であってもよい。会話の例は,「これから糖尿病に関する新薬であるXYZについて説明します。」「それは血糖値を下ますか?」である(図3)。
ノート型パソコンは,会話を収録し,コンピュータ内に入力する。そして,会話に含まれる単語を解析し,第1の会話情報を得る。解析前の第1の会話情報の例は,「これからとうにょうびょうにかんするしんやくであるえっくぅわいじーについてせつめいしますそれはけっとうちをさげますか」といったものである。ノート型パソコンはMR側に設置されており,MRの音声をよく拾う。会話情報は,記憶部に記憶される。
例えば解析後の第1の会話情報は,「これから糖尿病に関する新薬であるXYZについて説明しますそれは決闘血を下げますか」といった会話文である。そして,解析された会話文は,記憶部に記憶される。なお,この第1の会話情報は,会話区分が分析されてもよい。その場合,会話区分の例は, 「これから糖尿病に関する新薬であるXYZについて説明します。」「それは決闘血を下げますか。」といったものである。会話区分は,のちの工程で分析されてもよい。
スマートフォンにも会話が入力され,記憶される。そして,スマートフォンも起動したアプリケーションにより,会話が解析される。第2の会話情報の例は「これからとうにゅうびょうにかんするしんやくであるえっくぅわいじーについてせつめいしますそれはけっとうちをさげますか」である。ノート型パソコンと,スマートフォンでは,設置された位置や収音の方向などに相違がある。このため,同じ会話を解析しても,ノート型パソコン(第1の音声解析端末)とスマートフォン(第2の音声解析端末)とでは,解析される会話に相違がみられる。この工程は,通常,第1の会話情報取得工程(S105)と同時に行われる。
スマートフォン側でも,第2の会話情報が解析される。第2の会話情報の例は,「これから豆乳秒二巻する新約であるXYZについて説明しますそれは血糖値を下げますか?」といったものである。この際に,会話区分が解析されてもよい。会話区分が解析された第2の会話は,「これから豆乳秒二巻する新約であるXYZについて説明します。「それは血糖値を下げますか?」のようになる。第2の会話情報も適宜記憶部に記憶される。
第2の会話情報は,例えば,スマートフォンからノート型パソコンへ送信される。すると,ノート型パソコン(第1の音声解析端末3)は,スマートフォン(第2の音声解析端末5)から送信された第2の会話情報を受け取る。
第1の会話情報及び第2の会話情報における会話区分を分析し,1又は複数の会話区分を得てもよい。各端末において会話区分が解析されていてもよい。一方,ノート型パソコン(第1の音声解析端末)で,2つの端末が収録した会話情報について,まとめて会話区分を分析した方が,第1の会話情報と第2の会話情報とで,対応した会話区分を得ることができるので,好ましい。この場合,第1の会話情報の各会話区分と,第2の会話情報の各会話区分とは,会話時間がほぼ同じであるはずである。そのため,計時手段を用いて,各区分を合わせることが好ましい。このようにして,第1の会話情報を区分分けするとともに,対応する第2の会話区分の各会話区分も得ることができる。
会話区分取得部33は,第2の会話情報における会話区分をも分析し,1又は複数の会話区分を得てもよい。
「これから糖尿病に関する新薬であるXYZについて説明します。」
「それは決闘血を下げますか。」
という会話文に解析される。
第2の会話情報は,
「これから豆乳秒二巻する新約であるXYZについて説明します。
「それは血糖値を下げますか?」という会話文に解析される。
各会話区分における第1の会話情報に含まれる関連語の数と,第2の会話情報に含まれる関連語の数とを比較し,関連語の数が多い方の会話区分を正しい会話区分として採用する。
上記の例では,第1の会話情報の1番目の会話区分(例えば「これから糖尿病に関する新薬であるXYZについて説明します。」)を正しい会話区分として採用する。
同様にして,第2の会話情報の2番目の会話区分(「それは血糖値を下げますか?」)を正しい会話区分として採用する。
このようにして採用された会話区分の連続を記憶部に記憶する。
会話区分の連続は,「これから糖尿病に関する新薬であるXYZについて説明します。」「それは血糖値を下げますか?」である。
3 第1の音声解析端末
5 第2の音声解析端末
7 第1の用語解析部
9 第1の会話記憶部
11 解析部
13 プレゼンテーション記憶部
15 関連語記憶部
17 表示部
21 第2の用語解析部
23 第2の会話記憶部
25 会話情報受信部
31 特定プレゼンテーション情報取得部
33 会話区分取得部
35 関連語抽出部
37 会話区分選択部
41 時刻記憶部
43 周波数解析部
45 誤変換用語記憶部
51 第2の解析部
53 第2のプレゼンテーション記憶部
55 第2の関連語記憶部
57 第2の表示部
59 第2の会話情報受信部
61 第2の特定プレゼンテーション情報取得部
63 第2の会話区分取得部
65 第2の関連語抽出部
67 第2の会話区分選択部
Claims (6)
- 第1の音声解析端末と,第2の音声解析端末とを含む音声解析システムであって,
第1の音声解析端末は,
会話に含まれる単語を解析し,第1の会話情報を得る第1の用語解析部と,
第1の用語解析部が解析した第1の会話情報を記憶する第1の会話記憶部と,
第1の会話記憶部が記憶した第1の会話情報を解析する解析部と,
複数のプレゼンテーション資料を記憶するプレゼンテーション記憶部と,
前記プレゼンテーション記憶部に記憶されたそれぞれのプレゼンテーション資料に関連した関連語を記憶する関連語記憶部と,
前記プレゼンテーション記憶部が記憶したいずれかのプレゼンテーション資料を表示する表示部と,を含む端末であり,
第2の音声解析端末は,
前記会話に含まれる単語を解析し,第2の会話情報を得る第2の用語解析部と,
第2の用語解析部が解析した第2の会話情報を記憶する第2の会話記憶部と,
を含む端末であり,
第1の音声解析端末は,
第2の音声解析端末から第2の会話情報を受信する会話情報受信部をさらに有し,
第1の会話記録部は、前記会話情報受信部が受信した第2の会話情報も記憶し,
前記解析部は,
前記複数のプレゼンテーション資料のうちのあるプレゼンテーション資料である特定プレゼンテーション資料が選択されたことに関する情報を受け取る特定プレゼンテーション情報取得部と,
第1の会話情報における会話区分を分析し,1又は複数の会話区分を得る会話区分取得部と,
第1の会話情報及び第2の会話情報に含まれる前記特定プレゼンテーション資料に関する前記関連語を抽出する関連語抽出部と,
前記会話区分取得部が得た各会話区分における第1の会話情報に含まれる関連語の数と,第2の会話情報に含まれる関連語の数とを比較し,関連語の数が多い方の会話区分を正しい会話区分として採用する会話区分選択部と,
を含む,音声解析システム。 - 請求項1に記載の音声解析システムであって,
第1の音声解析端末は,時刻時間を記憶するための時刻記憶部をさらに有し,
第1の会話情報は,前記会話に含まれる単語とともに,各単語と関連した時刻を含み,
前記会話区分取得部は,各単語の時刻情報を用いて,会話区分を分析するシステム。 - 請求項1に記載の音声解析システムであって,
第1の音声解析端末は,会話に含まれる音声の周波数を解析する周波数解析部をさらに有し,
第1の会話情報は,前記会話に含まれる単語とともに,各単語と関連した音声の周波数を含み,
前記会話区分取得部は,各単語の周波数を用いて,会話区分を分析するシステム。 - 請求項1に記載の音声解析システムであって,
前記関連語記憶部が記憶する関連語は,プレゼンター用関連語と,リスナー用関連語とを含み,
前記会話区分取得部は,前記会話情報に含まれる前記プレゼンター用関連語と,前記リスナー用関連語とを用いて,前記会話区分を分析する,
システム。 - 請求項1に記載の音声解析システムであって,
第1の音声解析端末は,
前記複数のプレゼンテーション資料のそれぞれに関連した誤変換用語を記憶した誤変換用語記憶部をさらに有し,
前記解析部は,特定プレゼンテーション資料に関する誤変換用語が含まれる場合,
前記各会話区分のうち前記正しい会話区分として採用されなかった会話区分に含まれる用語のうち,前記正しい会話区分に含まれる前記誤変換用語に対応する用語を用いて,前記正しい会話区分に含まれる用語を修正する,システム。 - 請求項1に記載の音声解析システムであって,
第2の音声解析端末は,
第2の会話記憶部が記憶した第2の会話情報を解析する第2の解析部と,
第2の音声解析端末に記憶される複数のプレゼンテーション資料である第2のプレゼンテーションを記憶する第2のプレゼンテーション記憶部と,
第2のプレゼンテーション資料のそれぞれに関連した関連語を記憶する第2の関連語記憶部と,
第2のプレゼンテーション記憶部が記憶したいずれかのプレゼンテーション資料を表示する第2の表示部と,
第1の音声解析端末から第1の会話情報を受信する第2の会話情報受信部をさらに有し,
第2の会話記録部は,第2の会話情報受信部が受信した第1の会話情報も記憶し,
第2の解析部は,
第2のプレゼンテーションのうちのあるプレゼンテーション資料である第2の特定プレゼンテーション資料が選択されたことに関する情報を受け取る第2の特定プレゼンテーション情報取得部と,
第2の会話情報における会話区分を分析し,1又は複数の会話区分を得る第2の会話区分取得部と,
第1の会話情報及び第2の会話情報に含まれる第2の特定プレゼンテーション資料に関する関連語を抽出する第2の関連語抽出部と,
第2の会話区分取得部が得た各会話区分における第1の会話情報に含まれる関連語の数と,第2の会話情報に含まれる関連語の数とを比較し,関連語の数が多い方の会話区分を正しい会話区分として採用する第2の会話区分選択部と,
を含む,音声解析システム。
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019011603A JP6689421B1 (ja) | 2019-01-25 | 2019-01-25 | 音声解析システム |
SG11202009311RA SG11202009311RA (en) | 2019-01-25 | 2020-01-06 | Speech analysis system |
PCT/JP2020/000074 WO2020153110A1 (ja) | 2019-01-25 | 2020-01-06 | 音声解析システム |
CN202080002036.7A CN111919251B (zh) | 2019-01-25 | 2020-01-06 | 语音解析*** |
CA3097683A CA3097683C (en) | 2019-01-25 | 2020-01-06 | Speech analysis system |
US17/042,193 US11929061B2 (en) | 2019-01-25 | 2020-01-06 | Speech analysis system |
CA3131060A CA3131060C (en) | 2019-01-25 | 2020-01-06 | Speech analysis system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019011603A JP6689421B1 (ja) | 2019-01-25 | 2019-01-25 | 音声解析システム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020068833A Division JP6781492B2 (ja) | 2020-04-07 | 2020-04-07 | 音声解析システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6689421B1 true JP6689421B1 (ja) | 2020-04-28 |
JP2020118907A JP2020118907A (ja) | 2020-08-06 |
Family
ID=70413842
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019011603A Active JP6689421B1 (ja) | 2019-01-25 | 2019-01-25 | 音声解析システム |
Country Status (6)
Country | Link |
---|---|
US (1) | US11929061B2 (ja) |
JP (1) | JP6689421B1 (ja) |
CN (1) | CN111919251B (ja) |
CA (2) | CA3131060C (ja) |
SG (1) | SG11202009311RA (ja) |
WO (1) | WO2020153110A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021173988A (ja) * | 2020-04-24 | 2021-11-01 | 株式会社インタラクティブソリューションズ | 音声解析システム |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7102035B1 (ja) * | 2021-08-02 | 2022-07-19 | 株式会社インタラクティブソリューションズ | 説明支援システム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11259269A (ja) * | 1998-03-13 | 1999-09-24 | Omron Corp | 情報処理装置および方法、並びに記録媒体 |
JP2000148185A (ja) * | 1998-11-13 | 2000-05-26 | Matsushita Electric Ind Co Ltd | 認識装置及び認識方法 |
JP2001125900A (ja) * | 1999-10-29 | 2001-05-11 | Yazaki Corp | 対話システム及び対話方法、双方向対話システム及び双方向対話方法並びに記録媒体 |
JP2002259635A (ja) | 2001-03-05 | 2002-09-13 | Keio Academic Enterprise Co Ltd | 認識共有化支援方法、議論構造化支援方法、状況把握支援方法、図形思考力開発支援方法、協創環境構築支援方法、質疑応答支援方法、議事録作成支援方法 |
US7664733B2 (en) * | 2003-04-11 | 2010-02-16 | Ricoh Company, Ltd. | Techniques for performing operations on a source symbolic document |
JP4890518B2 (ja) * | 2008-08-29 | 2012-03-07 | ヤフー株式会社 | 複数言語モデルによる統合音声認識装置 |
JP5699749B2 (ja) * | 2011-03-31 | 2015-04-15 | 富士通株式会社 | 携帯端末装置の位置判定システムおよび携帯端末装置 |
KR101537370B1 (ko) * | 2013-11-06 | 2015-07-16 | 주식회사 시스트란인터내셔널 | 녹취된 음성 데이터에 대한 핵심어 추출 기반 발화 내용 파악 시스템과, 이 시스템을 이용한 인덱싱 방법 및 발화 내용 파악 방법 |
CN104317781B (zh) * | 2014-11-14 | 2018-03-02 | 移康智能科技(上海)股份有限公司 | 敏感词编辑器 |
CN104796584A (zh) * | 2015-04-23 | 2015-07-22 | 南京信息工程大学 | 具有语音识别功能的提词装置 |
US9635167B2 (en) * | 2015-09-29 | 2017-04-25 | Paypal, Inc. | Conversation assistance system |
JP6846766B2 (ja) | 2016-06-13 | 2021-03-24 | 株式会社インタラクティブソリューションズ | プレゼンテーション評価装置、プレゼンテーション評価システム、プレゼンテーション評価プログラム及びプレゼンテーション評価装置の制御方法 |
CN109891501A (zh) * | 2016-11-08 | 2019-06-14 | 夏普株式会社 | 语音调整装置、控制程序、电子设备及语音调整装置的控制方法 |
CN112215016A (zh) * | 2017-01-17 | 2021-01-12 | 乐夫兰度株式会社 | 多语言沟通***及多语言沟通提供方法 |
JP7143624B2 (ja) * | 2018-05-09 | 2022-09-29 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及び情報処理プログラム |
-
2019
- 2019-01-25 JP JP2019011603A patent/JP6689421B1/ja active Active
-
2020
- 2020-01-06 WO PCT/JP2020/000074 patent/WO2020153110A1/ja active Application Filing
- 2020-01-06 SG SG11202009311RA patent/SG11202009311RA/en unknown
- 2020-01-06 CA CA3131060A patent/CA3131060C/en active Active
- 2020-01-06 CA CA3097683A patent/CA3097683C/en active Active
- 2020-01-06 US US17/042,193 patent/US11929061B2/en active Active
- 2020-01-06 CN CN202080002036.7A patent/CN111919251B/zh active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021173988A (ja) * | 2020-04-24 | 2021-11-01 | 株式会社インタラクティブソリューションズ | 音声解析システム |
JP7008992B2 (ja) | 2020-04-24 | 2022-01-25 | 株式会社インタラクティブソリューションズ | 音声解析方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111919251B (zh) | 2021-07-13 |
US11929061B2 (en) | 2024-03-12 |
US20210020164A1 (en) | 2021-01-21 |
SG11202009311RA (en) | 2020-10-29 |
CA3097683C (en) | 2021-11-30 |
JP2020118907A (ja) | 2020-08-06 |
CA3131060A1 (en) | 2020-07-30 |
CA3097683A1 (en) | 2020-07-30 |
CN111919251A (zh) | 2020-11-10 |
WO2020153110A1 (ja) | 2020-07-30 |
CA3131060C (en) | 2023-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11496827B2 (en) | Microphone natural speech capture voice dictation system and method | |
CN106024014B (zh) | 一种语音转换方法、装置及移动终端 | |
US9070369B2 (en) | Real time generation of audio content summaries | |
JP5185358B2 (ja) | 行動履歴検索装置 | |
US7219050B2 (en) | Automatic interpreting system including a system for recognizing errors | |
US20130144619A1 (en) | Enhanced voice conferencing | |
CN110149805A (zh) | 双向语音翻译***、双向语音翻译方法和程序 | |
WO2016023317A1 (zh) | 一种语音信息的处理方法及终端 | |
WO2020153110A1 (ja) | 音声解析システム | |
JP6238083B2 (ja) | 情報処理装置、サーバ、情報処理方法、および情報処理システム | |
WO2022037600A1 (zh) | 摘要记录方法、装置、计算机设备和存储介质 | |
CN113055529B (zh) | 录音控制方法和录音控制装置 | |
JP2010002973A (ja) | 音声データ主題推定装置およびこれを用いたコールセンタ | |
JP6771251B1 (ja) | 音声解析システム | |
JP6781492B2 (ja) | 音声解析システム | |
CN108831473B (zh) | 一种音频处理方法及装置 | |
JP2015036826A (ja) | コミュニケーション処理装置、コミュニケーション処理方法、及び、コミュニケーション処理プログラム | |
CN111931521A (zh) | 语音翻译方法、可穿戴设备、终端设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191217 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191217 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20191217 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200117 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200310 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200407 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6689421 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |