JP6689421B1 - 音声解析システム - Google Patents

音声解析システム Download PDF

Info

Publication number
JP6689421B1
JP6689421B1 JP2019011603A JP2019011603A JP6689421B1 JP 6689421 B1 JP6689421 B1 JP 6689421B1 JP 2019011603 A JP2019011603 A JP 2019011603A JP 2019011603 A JP2019011603 A JP 2019011603A JP 6689421 B1 JP6689421 B1 JP 6689421B1
Authority
JP
Japan
Prior art keywords
conversation
information
unit
presentation
storage unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019011603A
Other languages
English (en)
Other versions
JP2020118907A (ja
Inventor
潔 関根
潔 関根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Interactive Solutions Inc
Original Assignee
Interactive Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2019011603A priority Critical patent/JP6689421B1/ja
Application filed by Interactive Solutions Inc filed Critical Interactive Solutions Inc
Priority to CA3097683A priority patent/CA3097683C/en
Priority to SG11202009311RA priority patent/SG11202009311RA/en
Priority to PCT/JP2020/000074 priority patent/WO2020153110A1/ja
Priority to CN202080002036.7A priority patent/CN111919251B/zh
Priority to US17/042,193 priority patent/US11929061B2/en
Priority to CA3131060A priority patent/CA3131060C/en
Application granted granted Critical
Publication of JP6689421B1 publication Critical patent/JP6689421B1/ja
Publication of JP2020118907A publication Critical patent/JP2020118907A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/32Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/90Pitch determination of speech signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Machine Translation (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】音声認識をより精度高く行うことができる音声解析システムを提供する。【解決手段】第1の音声解析端末3と、第2の音声解析端末5と、解析部11と、を含む音声解析システム1であって、第1の音声解析端末が第1の会話情報を得て、第2の音声解析端末が第2の会話情報を得る。解析部は、各会話区分における第1の会話情報に含まれる関連語の数と、第2の会話情報に含まれる関連語の数とを比較し、関連語の数が多い方の会話区分を正しい会話区分として採用する会話区分選択部37を含む。【選択図】図1

Description

この発明は,音声解析システムに関する。より詳しく説明すると,音声を収録できる複数の端末を効果的に利用し精度を高めた音声解析システムに関する。
特開2002−259635号公報には,議論参加者が議論する過程でなされた発言の中からキーワードを図形オブジェクトとテキストとの組み合わせにより表示するシステムが記載されている。
特開2017−224052号公報には,音声解析端末を用いたプレゼンテーション評価装置が記載されている。
しかし,1台の音声解析端末を用いて,会話を音声認識すると,音声解析端末に近いユーザの会話を比較的正確に音声解析できるものの,音声解析端末から遠いユーザの会話を正確に音声解析できないという問題がある。
特開2002−259635号公報 特開2017−224052号公報
この明細書に記載されるある態様の発明は,音声認識をより精度高く行うことができる音声解析システムを提供することを目的とする。
ある態様の発明は,基本的には,複数台の音声解析装置で解析した会話情報を相互に利用しあって,音声認識を行うことで,より精度高く音声認識を行うことができるという知見に基づく。
この明細書に記載されるある態様の発明は,音声解析システム1に関する。
この音声解析システム1は,第1の音声解析端末3と,第2の音声解析端末5とを含むシステムである。この端末は,コンピュータを含んでおり,以下説明する各要素はコンピュータにより実装される要素である。
第1の音声解析端末3は,第1の用語解析部7と,第1の会話記憶部9と,解析部11と,プレゼンテーション記憶部13と,関連語記憶部15と,表示部17と,を含む端末である。
第1の用語解析部7は,会話に含まれる単語を解析し,第1の会話情報を得るための要素である。
第1の会話記憶部9は,第1の用語解析部7が解析した第1の会話情報を記憶するための要素である。
解析部11は,第1の会話記憶部9が記憶した第1の会話情報を解析するための要素である。
プレゼンテーション記憶部13は,複数のプレゼンテーション資料を記憶するための要素である。
関連語記憶部15は,プレゼンテーション記憶部13に記憶されたそれぞれのプレゼンテーション資料に関連した関連語を記憶するための要素である。
表示部17は,プレゼンテーション記憶部13が記憶したいずれかのプレゼンテーション資料を表示することができる要素である。
第2の音声解析端末5は,第2の用語解析部21と,第2の会話記憶部23と,を含む端末である。
第2の用語解析部21は,会話に含まれる単語を解析し,第2の会話情報を得るための要素である。第2の会話記憶部23は,第2の用語解析部21が解析した第2の会話情報を記憶するための要素である。
第1の音声解析端末3は,会話情報受信部25をさらに有する。
そして,会話情報受信部25は,第2の音声解析端末5から第2の会話情報を受信するための要素である。そして,第1の会話記憶部は、会話情報受信部25が受信した第2の会話情報も記憶する。
解析部11は,特定プレゼンテーション情報取得部31と,会話区分取得部33と,関連語抽出部35と,会話区分選択部37と,を含む。
特定プレゼンテーション情報取得部31は,複数のプレゼンテーション資料のうちのあるプレゼンテーション資料である特定プレゼンテーション資料が選択されたことに関する情報を受け取るための要素である。
会話区分取得部33は,第1の会話情報における会話区分を分析し,1又は複数の会話区分を得るための要素である。
関連語抽出部35は,第1の会話情報及び第2の会話情報に含まれる特定プレゼンテーション資料に関する関連語を抽出するための要素である。
会話区分選択部37は,会話区分取得部33が得た各会話区分における第1の会話情報に含まれる関連語の数と,第2の会話情報に含まれる関連語の数とを比較し,関連語の数が多い方の会話区分を正しい会話区分として採用するための要素である。
音声解析システム1の好ましい態様は,第1の音声解析端末3が,時刻時間を記憶するための時刻記憶部41をさらに有するものである。
このシステムは,第1の会話情報は,会話に含まれる単語とともに,各単語と関連した時刻を含む。会話区分取得部33は,各単語の時刻情報を用いて,会話区分を分析する。
会話が途切れると,話者が変わったことが分かるので,単語間の時間が空けば会話区分が変わったことが分かる。
音声解析システム1の好ましい態様は,第1の音声解析端末3が,会話に含まれる音声の周波数を解析する周波数解析部43をさらに有するものである。
このシステムは,第1の会話情報が,会話に含まれる単語とともに,各単語と関連した音声の周波数を含む。
会話区分取得部33は,各単語の周波数を用いて,会話区分を分析する。
声の高さが変われば,話者が変わったことが分かるので,各単語の音の周波数を分析すれば会話区分が変わったことが分かる。
音声解析システム1の好ましい態様は,関連語記憶部15が記憶する関連語は,プレゼンター用関連語と,リスナー用関連語とを含む。会話区分取得部33は,会話情報に含まれるプレゼンター用関連語と,リスナー用関連語とを用いて,会話区分を分析する。
プレゼンテーションする方が用いるプレゼン関連用語と,リスナーの方が発言する用語とは異なりますので,それぞれの用語を解析して,会話区分を分けることができる。
音声解析システム1の好ましい態様は,第1の音声解析端末3が,複数のプレゼンテーション資料のそれぞれに関連した誤変換用語を記憶した誤変換用語記憶部45をさらに有するものである。
そして,解析部11は,特定プレゼンテーション資料に関する誤変換用語が含まれる場合, 各会話区分のうち正しい会話区分として採用されなかった会話区分に含まれる用語のうち,正しい会話区分に含まれる誤変換用語に対応する用語を用いて,正しい会話区分に含まれる用語を修正する。第1の音声解析端末3及び第2の音声解析端末5は、互いに情報を照らし合わせることで、高精度の解析結果を得ることができる。
音声解析システム1の好ましい態様は,第2の音声解析端末5が,第2の解析部51と,第2のプレゼンテーション記憶部53と,第2の関連語記憶部55と,第2の表示部57と,第2の会話情報受信部59をさらに有するものである。第2の会話記憶部23は,第2の会話情報受信部59が受信した第1の会話情報も記憶する。そして,第2の解析部51は,第2の特定プレゼンテーション情報取得部61と,第2の会話区分取得部63と,第2の関連語抽出部65と,第2の会話区分選択部67とを含む。
第2の解析部51は,第2の会話記憶部23が記憶した第2の会話情報を解析するための要素である。
第2のプレゼンテーション記憶部53は,第2の音声解析端末5に記憶される複数のプレゼンテーション資料である第2のプレゼンテーションを記憶するための要素である。
第2の関連語記憶部55は,第2のプレゼンテーション資料のそれぞれに関連した関連語を記憶するための要素である。
第2の表示部57は,第2のプレゼンテーション記憶部13が記憶したいずれかのプレゼンテーション資料を表示するための要素である。
第2の会話情報受信部59は,第1の音声解析端末3から第1の会話情報を受信するための要素である。
そして,第2の会話記憶部23は,第2の会話情報受信部59が受信した第1の会話情報も記憶する。
第2の解析部51は,第2の特定プレゼンテーション情報取得部61と,第2の会話区分取得部63と,第2の関連語抽出部65と,第2の会話区分選択部67とを有する。
第2の特定プレゼンテーション情報取得部61は,第2のプレゼンテーションのうちのあるプレゼンテーション資料である第2の特定プレゼンテーション資料が選択されたことに関する情報を受け取るための要素である。
第2の会話区分取得部63は,第2の会話情報における会話区分を分析し,1又は複数の会話区分を得るための要素である。
第2の関連語抽出部65は,第1の会話情報及び第2の会話情報に含まれる第2の特定プレゼンテーション資料に関する関連語を抽出するための要素である。
第2の会話区分選択部67は,第2の会話区分取得部63が得た各会話区分における第1の会話情報に含まれる関連語の数と,第2の会話情報に含まれる関連語の数とを比較し,関連語の数が多い方の会話区分を正しい会話区分として採用するための要素である。
この明細書は,音声認識をより精度高く行うことができる音声解析システムを提供できる。
図1は,音声解析システムの構成例を示すブロック図である。 図2は,音声解析システムの処理例を示すフローチャートである。 図3は,音声解析システムの処理例を示す概念図である。 図4は,音声解析システムの第2の処理例を示す概念図である。 図5は,音声解析システムの第3の処理例を示す概念図である。
以下,図面を用いて本発明を実施するための形態について説明する。本発明は,以下に説明する形態に限定されるものではなく,以下の形態から当業者が自明な範囲で適宜修正したものも含む。
この明細書に記載されるある態様の発明は,音声解析システム1に関する。音声解析システムは,会話などの音声情報を入力情報として受け取り,受け取った音声情報を解析して,会話文を得るためのシステムである。音声解析システムは,コンピュータにより実装される。なお,音声情報を文字情報に置換するシステムは公知であり,本発明はそのような公知のシステムの構成を適宜利用することができる。このシステムは,携帯端末(携帯電話などのコンピュータ端末)により実装されてもよいし,コンピュータやサーバにより実装されてもよい。
図1は,音声解析システムの構成例を示すブロック図である。この音声解析システム1は,第1の音声解析端末3と,第2の音声解析端末5とを含むシステムである。この端末は,コンピュータを含んでおり,以下説明する各要素はコンピュータにより実装される要素である。
コンピュータは,入出力部,制御部,演算部及び記憶部を有し,各要素がバスなどにより情報の授受を行うことができるように接続されている。そして,例えば,制御部は,記憶部に記憶された制御プログラムを読み出して,記憶部に記憶された情報や入出力部から入力された情報を用いて,演算部に各種演算を行わせる。演算部が演算して求めた情報は,記憶部に記憶される他,入出力部から出力される。このようにして,各種演算処理がなされる。以下説明する各要素は,コンピュータのいずれかの要素に対応していてもよい。
第1の音声解析端末3は,第1の用語解析部7と,第1の会話記憶部9と,解析部11と,プレゼンテーション記憶部13と,関連語記憶部15と,表示部17と,会話情報受信部25を含む端末である。
第1の用語解析部7は,会話に含まれる単語を解析し,第1の会話情報を得るための要素である。例えば,マイクを介して,第1の音声解析端末3に音声が入力される。すると,第1の音声解析端末3は,会話(音声)を記憶部に記憶する。第1の用語解析部7は,会話に含まれる単語を解析し,第1の会話情報を得る。第1の会話情報は,音声を音情報に直したものである。音情報の例は「これからとうにょうびょうにかんするしんやくであるえっくぅわいじーについてせつめいしますそれはけっとうちをさげますか」といったものである。
第1の会話記憶部9は,第1の用語解析部7が解析した第1の会話情報を記憶するための要素である。例えば,コンピュータの記憶部が第1の会話記憶部9として機能する。第1の会話記憶部9は,上記の音情報を,記憶部に記憶する。
解析部11は,第1の会話記憶部9が記憶した第1の会話情報を解析するための要素である。解析部11は,記憶部に記憶される音情報を読み出し,記憶部に記憶されている用語を検索して,適切な用語に変換する。この際に,変換可能用語(同音異義語)がある場合は,他の用語とともに用いられる頻度の高い用語を選択するようにして,変換効率を上げてもよい。たとえば「とうにょうびょう」は,「糖尿病」に変換される。そして,「しんやく」の変換候補は,「新薬」や「新約」,「新訳」,「新役」がある。そのうち,「糖尿病」とともに出現する頻度の高い「新薬」が,会話情報に含まれる用語として選択される。すると,記憶部に記憶された音情報は,「これから糖尿病に関する新薬であるXYZについて説明しますそれは決闘血を下げますか」といった会話文に解析される。そして,解析された会話文は,記憶部に記憶される。
解析部11は,プレゼンテーション資料と関連して読み出した関連語を用いて,会話情報の解析精度を上げてもよい。例えば,「しんやく」という会話情報の部分がある場合であって,関連語に「新薬」がある場合は,この「しんやく」を解析して,「新薬」を選択するようにすればよい。このようにすれば,解析精度を高めることができる。また,関連語に関して複数の読みを割り振っておき,会話情報にそれらが含まれる場合は,対応する関連語を選択するようにしてもよい。例えば,関連語「XYZ」に対して,読みの候補が「えっくすわいじー」「えっくすわいぜっと」「えくすわいじー」及び「えくすわいぜっと」である。
プレゼンテーション記憶部13は,複数のプレゼンテーション資料を記憶するための要素である。例えば,コンピュータの記憶部が,プレゼンテーション記憶部として機能する。プレゼンテーション資料の例は,パワーポイント(登録商標)の各頁である。プレゼンテーション資料は,コンピュータに格納され,表示部に表示されて会話相手や聴衆にプレゼンテーションを行うことができるようにされる資料である。
関連語記憶部15は,プレゼンテーション記憶部13に記憶されたそれぞれのプレゼンテーション資料に関連した関連語を記憶するための要素である。例えば,コンピュータの記憶部が,関連語記憶手段として機能する。プレゼンテーション資料に関連した複数の関連語の例は,パワーポイントの各頁に基づいて説明を行う際に,用いることがありうる用語である。記憶部は,パワーポイントなどのプレゼンテーション資料の各頁と関連して,複数の関連語を格納する。記憶部は,プレゼンテーション資料の情報(例えば,ファイルIDやページ番号)と関連して,そのプレゼンテーション資料に関連した複数の関連語を記憶する。関連語の例は,「糖尿病」,「新薬」,「XYZ」,「ABC」(他の治療剤の名称),「血糖値」,「副作用」,「血糖」,「緑内障」,「網膜症」,「インスリン」,「DC製薬」,「添付文書」である。この関連語は,特に同音異義語を挙げておくことが好ましい。上記の例では,「新薬」のほか「血糖」(他に,「結党」,「血統」,「決闘」,「穴藤」,「結東」,「決斗」がある)を関連語として挙げておくことが好ましい。同音異義語を関連語として挙げておくことで,解析精度を向上させることができる。
表示部17は,プレゼンテーション記憶部13が記憶したいずれかのプレゼンテーション資料を表示することができる要素である。表示部17の例は,モニタやディスプレイである。コンピュータは,記憶部に記憶したプレゼンテーション資料に関する情報を読み出して,モニタやスクリーンにプレゼンテーション資料を表示する。そのようにして,会話相手や聴衆にプレゼンテーション資料を表示できる。
第2の音声解析端末5は,第2の用語解析部21と,第2の会話記憶部23と,を含む端末である。例えば,第1の音声解析端末3は,MRといった説明者が所持したノート型パソコンであるなど,説明を行う者の付近に存在し,説明者の音声を的確に収録するためのものである。一方,第2の音声解析端末5は,例えば,MRよりも医師に近い場所といったように,説明者よりは聴衆近くに設置され,説明を聞く方の者の音声をより的確に収録するためのものである。第2の音声解析端末5の例は,マイクや,携帯端末(携帯電話やスマートフォンといった)である。第2の音声解析端末5は,第1の音声解析端末3と情報の授受を行うことができるようにされている。情報の授受は,例えば,第1の音声解析端末3と第2の音声解析端末5とが直接行えるようにしてもよいし,サーバを介して情報の授受を行うことができるようにしてもよい。
第2の用語解析部21は,会話に含まれる単語を解析し,第2の会話情報を得るための要素である。第2の会話情報の例は,「これからとうにゅうびょうにかんするしんやくであるえっくぅわいじーについてせつめいしますそれはけっとうちをさげますか」といったものである。第2の音声解析端末5は,マイクなどから入力された会話を記憶部に記憶する。そして,第2の用語解析部21は,記憶部から会話を読み出して,記憶部に格納された用語を参照して,会話情報を得る。第2の会話情報の例は,「これから豆乳秒二巻する新約であるXYZについて説明しますそれは血糖値を下げますか?」といったものである。
第2の会話記憶部23は,第2の用語解析部21が解析した第2の会話情報を記憶するための要素である。記憶部が,第2の会話記憶部23として機能する。つまり,第2の会話情報は,第2の音声解析端末5の記憶部に記憶される。第2の音声解析端末5の記憶部に記憶された第2の会話情報は,例えば,第2の音声解析端末5のアンテナといった出力部を介して,第1の音声解析端末3へ送信される。
すると,第1の音声解析端末3は,第2の音声解析端末5から送信された第2の会話情報を受け取る。第1の音声解析端末3の会話情報受信部25は,第2の音声解析端末5から第2の会話情報を受信するための要素である。例えば,第1の音声解析端末3のアンテナが会話情報受信部25として機能する。第2の音会話情報は,会話情報受信部25を介して,第1の音声解析端末3に入力され,記憶部に記憶される。その際,例えば,第1の会話記憶部は、会話情報受信部25が受信した第2の会話情報も記憶すればよい。
解析部11は,特定プレゼンテーション情報取得部31と,会話区分取得部33と,関連語抽出部35と,会話区分選択部37と,を含む。
特定プレゼンテーション情報取得部31は,複数のプレゼンテーション資料のうちのあるプレゼンテーション資料である特定プレゼンテーション資料が選択されたことに関する情報を受け取るための要素である。例えば,MRがある糖尿病の新薬であるXYZに関するパワーポイント(登録商標)資料を選択する。すると,そのページが選択された情報は,コンピュータの入力装置を介して,コンピュータ内に入力される。その入力された情報を特定プレゼンテーション資料が選択されたことに関する情報とすればよい。
会話区分取得部33は,第1の会話情報における会話区分を分析し,1又は複数の会話区分を得るための要素である。会話区分取得部33は,第2の会話情報における会話区分をも分析し,1又は複数の会話区分を得てもよい。会話区分は,通常,読点(。)で区切れる会話部分である。会話区分は,一文であってもよい。もっとも,会話によっては,必ずしも書き言葉と同じにならないことがある。
例えば,「これからとうにょうびょうにかんするしんやくであるえっくぅわいじーについてせつめいしますそれはけっとうちをさげますか」を「これからとうにょうびょうにかんするしんやくであるえっくぅわいじーについてせつめいします」と「それはけっとうちをさげますか」といった2つの会話区分を得る。又は,「これから糖尿病に関する新薬であるXYZについて説明しますそれは決闘血を下げますか。」を「これから糖尿病に関する新薬であるXYZについて説明します。」「それは決闘血を下げますか。」といった2つの会話区分を得る。このような会話区分の取得方法は,公知である。以下,会話区分の取得方法の例(実施態様)を説明する。
音声解析システム1の好ましい態様は,第1の音声解析端末3が,時刻や時間を記憶するための時刻記憶部41をさらに有するものである。このシステムは,第1の会話情報は,会話に含まれる単語とともに,各単語と関連した時刻を含む。会話区分取得部33は,各単語の時刻情報を用いて,会話区分を分析する。例えば,音声が一定時間連続した後に,一定時間以上無音状態が続くと,会話区分が変わったといえる。単語間の時間が空けば会話区分が変わったことが分かる。この場合,例えば,コンピュータの記憶部は,第1の会話記憶部に第1の会話情報を記憶させ,時刻記憶部41に第1の会話情報の各情報についての時刻を対応付けて記憶させる。すると,例えば,解析部11が第1の会話情報を解析する際に,各会話情報の時刻を読み出して,その時間間隔を求めることができる。そして,記憶部に記憶した閾値を読み出し,読み出した閾値と,求めた時間間隔とを比較して,時間間隔が閾値より大きい場合は,会話区分であると判断してもよい。また,第2の音声解析端末5も,時刻や時間を記憶するための第2時刻記憶部を有することが好ましい。すると,会話の時間を照合することで,第1の会話情報の各区分と,第2の会話情報の各区分の対応関係を把握することができることとなる。
音声解析システム1の好ましい態様は,第1の音声解析端末3が,会話に含まれる音声の周波数を解析する周波数解析部43をさらに有するものである。このシステムは,第1の会話情報が,会話に含まれる単語とともに,各単語と関連した音声の周波数を含む。会話区分取得部33は,各単語の周波数を用いて,会話区分を分析する。声の高さが変われば,話者が変わったことが分かるので,各単語の音の周波数を分析すれば会話区分が変わったことが分かる。この場合も,会話情報に含まれる各情報と関連させて,音声の周波数情報を記憶部に記憶させ,解析部11が記憶部に記憶された周波数情報を読み出して,周波数の変化を求め,これにより会話区分を求めればよい。また,会話区分となる用語を記憶部が記憶して起き,会話情報にその会話区分となる用語が含まれる場合に,会話区分であると判断してもよい。そのような会話区分となる用語の例は,「です。」「ではないでしょうか。」「ですか。」「なるのです。」「でしょうか。」「ございます。」「いただきます。」「なります。」「え〜」である。
音声解析システム1の好ましい態様は,関連語記憶部15が記憶する関連語は,プレゼンター用関連語と,リスナー用関連語とを含む。会話区分取得部33は,会話情報に含まれるプレゼンター用関連語と,リスナー用関連語とを用いて,会話区分を分析する。
プレゼンテーションする方が用いるプレゼン関連用語と,リスナーの方が発言する用語とは異なるので,それぞれの用語を解析して,会話区分を分けることができる。
関連語抽出部35は,第1の会話情報及び第2の会話情報に含まれる特定プレゼンテーション資料に関する関連語を抽出するための要素である。
例えば,あるプレゼンターション資料の資料名(存在位置)とそのページ数に関連して,「糖尿病」,「新薬」,「XYZ」,「ABC」(他の治療剤の名称),「血糖値」,「副作用」,「血糖」,「緑内障」,「網膜症」,「インスリン」,「DC製薬」,「添付文書」が記憶部に記憶されているので,関連語抽出部35は,記憶部からこれらの特定プレゼンテーション資料に関する関連語を読み出す。そして,第1の会話情報に含まれる用語と,関連語とが一致するか演算処理を行う。そして,一致した関連語を,会話情報及び区分番号とともに記憶部に記憶する。
例えば,第1の会話情報は,2つの会話区分からなり,最初の会話区分である「これから糖尿病に関する新薬であるXYZについて説明します。」には,「糖尿病」「新薬」及び「XYZ」という3つの関連語が存在する。一方,第1の会話情報の2つめの会話区分には,関連語が存在しない。第1の音声解析端末3は,例えば,第1の会話情報の1番目の会話区分に関して,「糖尿病」「新薬」及び「XYZ」という関連語,及び3という数値を記憶する。なお,この会話区分に関して3という数値のみを記憶してもよいし,関連語のみを記憶してもよい。2つめの会話区分や次の第2の会話情報についても同様である。
第2の会話情報の最初の会話区分である「これから豆乳秒二巻する新約であるXYZについて説明します。」には,「XYZ」という一つの関連語が含まれている。一方,第2の会話情報の2つめの会話区分である「それは血糖値を下げますか?」には,「血糖値」という関連語が1つ含まれている。
会話区分選択部37は,会話区分取得部33が得た各会話区分における第1の会話情報に含まれる関連語の数と,第2の会話情報に含まれる関連語の数とを比較し,関連語の数が多い方の会話区分を正しい会話区分として採用するための要素である。
例えば,会話区分選択部37は,第1の会話情報の1番目の会話区分に関して,記憶部から3という数値を読み出し,第2の会話情報の1番目の会話区分に関して1という数値を読み出す。そして,読み出した数値を比較する演算を行う。その結果,第1の会話情報の方が第2の会話情報よりも1番目の会話区分に含まれる関連語の数が多いことが分かる。すると,会話区分選択部37は,第1の会話情報の1番目の会話区分(例えば「これから糖尿病に関する新薬であるXYZについて説明します。」)を正しい会話区分として採用する。
同様にして,会話区分選択部37は,第2の会話情報の2番目の会話区分(「それは血糖値を下げますか?」)を正しい会話区分として採用する。
音声解析システム1の好ましい態様は,第1の音声解析端末3が,複数のプレゼンテーション資料のそれぞれに関連した誤変換用語を記憶した誤変換用語記憶部45をさらに有するものである。
そして,解析部11は,正しい会話区分として採用された会話情報の各会話区分に特定プレゼンテーション資料に関する誤変換用語が含まれる場合,各会話区分のうち正しい会話区分として採用されなかった会話区分に含まれる用語のうち,正しい会話区分に含まれる誤変換用語に対応する用語を用いて,正しい会話区分に含まれる用語を修正する。第1の音声解析端末3及び第2の音声解析端末5は、互いに情報を照らし合わせることで、高精度の解析結果を得ることができる。
例えば,特定プレゼンテーション資料に関する関連語として「XYZ」がある場合,誤変換用語として,「XYG」がある。第1の会話情報の1番目の会話区分が「これから糖尿病に関する新薬であるXYGについて説明します。」である場合,「XYG」は,正しくは,「XYZ」である可能性が高い。一方,第2の会話情報の1番目の会話区分には,「XYZ」が含まれている。このため,解析部は,第1の会話情報の1番目の会話区分の誤変換用語である「XYG」を,第2の会話区分に含まれる「XYZ」を用いて修正する。このようにして,「これから糖尿病に関する新薬であるXYGについて説明します。」を「これから糖尿病に関する新薬であるXYZについて説明します。」といった正しい会話情報に修正することができる。この作業は,解析部11が,誤変換用語を記憶部から読み出すとともに,正しいと判断された会話区分に含まれる用語と誤変換用語とが一致するか否か演算処理を行う。そして,会話区分に含まれる用語と,誤変換用語とが一致する場合は,各会話区分のうち正しい会話区分として採用されなかった会話区分に含まれる誤変換用語に対応する用語を読み出す。そして,特に,読み出した対応する用語が,関連語である場合や,誤変換用語に関して記憶された正しい用語である場合は,それらの用語に置き換える処理を行い,誤変換用語を置き換えた会話区分を記憶部に記憶し,正しい会話区分を更新すればよい。
音声解析システム1の好ましい態様は,第2の音声解析端末5が,第2の解析部51と,第2のプレゼンテーション記憶部53と,第2の関連語記憶部55と,第2の表示部57と,第2の会話情報受信部59をさらに有するものである。第2の会話記憶部23は,第2の会話情報受信部59が受信した第1の会話情報も記憶する。そして,第2の解析部51は,第2の特定プレゼンテーション情報取得部61と,第2の会話区分取得部63と,第2の関連語抽出部65と,会話区分選択部67とを含む。これらの各要素は,基本的には,第1の音声解析端末3の対応する要素と同様である。
第2の解析部51は,第2の会話記憶部23が記憶した第2の会話情報を解析するための要素である。
第2のプレゼンテーション記憶部53は,第2の音声解析端末5に記憶される複数のプレゼンテーション資料である第2のプレゼンテーションを記憶するための要素である。
第2の関連語記憶部55は,第2のプレゼンテーション資料のそれぞれに関連した関連語を記憶するための要素である。
第2の表示部57は,第2のプレゼンテーション記憶部13が記憶したいずれかのプレゼンテーション資料を表示するための要素である。
第2の会話情報受信部59は,第1の音声解析端末3から第1の会話情報を受信するための要素である。
そして,第2の会話記憶部23は,第2の会話情報受信部59が受信した第1の会話情報も記憶する。
第2の解析部51は,第2の特定プレゼンテーション情報取得部61と,第2の会話区分取得部63と,第2の関連語抽出部65と,会話区分選択部67とを有する。
第2の特定プレゼンテーション情報取得部61は,第2のプレゼンテーションのうちのあるプレゼンテーション資料である第2の特定プレゼンテーション資料が選択されたことに関する情報を受け取るための要素である。
第2の会話区分取得部63は,第2の会話情報における会話区分を分析し,1又は複数の会話区分を得るための要素である。
第2の関連語抽出部65は,第1の会話情報及び第2の会話情報に含まれる第2の特定プレゼンテーション資料に関する関連語を抽出するための要素である。
会話区分選択部67は,第2の会話区分取得部63が得た各会話区分における第1の会話情報に含まれる関連語の数と,第2の会話情報に含まれる関連語の数とを比較し,関連語の数が多い方の会話区分を正しい会話区分として採用するための要素である。
この態様のシステムは,第2の音声解析端末も,第1の音声解析端末と同様に正しい会話区分を得ることができるものである。したがって,各要素の処理は,上記した態様と同様である。
この明細書に記載されるある態様は,プログラムに関する。このプログラムは,コンピュータを,第1の用語解析部7と,第1の会話記憶部9と,解析部11と,プレゼンテーション記憶部13と,関連語記憶部15と,表示部17と,会話情報受信部25として機能させるためのプログラムである。このプログラムは,上記した各態様のシステムを実装するためのプログラムとなりうる。このプログラムは,携帯端末にインストールされるアプリケーションの態様を採っていてもよい。
この明細書に記載されるある態様は,上記したプログラムを格納したコンピュータ読み取り可能な情報記録媒体に関する。情報記録媒体の例は,CD−ROM,DVD,フロッピーディスク,メモリーカード及びメモリースティックである。
図2は,音声解析システムの処理例を示すフローチャートである。図3は,音声解析システムの処理例を示す概念図である。2つの携帯端末には,上記したプログラムがインストールされている。一方の端末は,例えば,MRのノート型パソコンであり,残りの携帯端末はスマートフォンであり,相手方の音声を拾いやすいように相手方である医師の付近に置かれている。上記したプログラムを実装するアプリケーションが,ノート型パソコンやスマートフォンにインストールされている。
プレゼンテーション資料の選択工程(S101)
MRが,ノート型パソコンに格納されているか,又はサーバから読み出したあるパワーポイント(登録商標)を開く。すると,パソコンに,そのパワーポイント(登録商標)が選択されたことに関する情報が入力される。
プレゼンテーション資料の表示工程(S102)
ノートパソコンの表示部には,そのパワーポイント(登録商標)のページが表示される。一方,スマートフォンの表示部にもパワーポイント(登録商標)のページが表示される。
プレゼンテーション資料の関連語読み出し工程(S103)
一方,パワーポイント(登録商標)のページと関連して,そのページであるプレゼンテーション資料に関連した関連語が記憶部から読み出される。読み出された関連語の例は,「糖尿病」,「新薬」,「XYZ」,「ABC」(他の治療剤の名称),「血糖値」,「副作用」,「血糖」,「緑内障」,「網膜症」,「インスリン」,「DC製薬」,「添付文書」である。
プレゼンテーション資料に基づく会話(S104)
表示された資料に関連してMRと医師との間で会話がなされる。会話は,プレゼンテーションであってもよいし,説明であってもよい。会話の例は,「これから糖尿病に関する新薬であるXYZについて説明します。」「それは血糖値を下ますか?」である(図3)。
第1の会話情報取得工程(S105)
ノート型パソコンは,会話を収録し,コンピュータ内に入力する。そして,会話に含まれる単語を解析し,第1の会話情報を得る。解析前の第1の会話情報の例は,「これからとうにょうびょうにかんするしんやくであるえっくぅわいじーについてせつめいしますそれはけっとうちをさげますか」といったものである。ノート型パソコンはMR側に設置されており,MRの音声をよく拾う。会話情報は,記憶部に記憶される。
第1の会話解析工程(S106)
例えば解析後の第1の会話情報は,「これから糖尿病に関する新薬であるXYZについて説明しますそれは決闘血を下げますか」といった会話文である。そして,解析された会話文は,記憶部に記憶される。なお,この第1の会話情報は,会話区分が分析されてもよい。その場合,会話区分の例は, 「これから糖尿病に関する新薬であるXYZについて説明します。」「それは決闘血を下げますか。」といったものである。会話区分は,のちの工程で分析されてもよい。
第2の会話情報取得工程(S107)
スマートフォンにも会話が入力され,記憶される。そして,スマートフォンも起動したアプリケーションにより,会話が解析される。第2の会話情報の例は「これからとうにゅうびょうにかんするしんやくであるえっくぅわいじーについてせつめいしますそれはけっとうちをさげますか」である。ノート型パソコンと,スマートフォンでは,設置された位置や収音の方向などに相違がある。このため,同じ会話を解析しても,ノート型パソコン(第1の音声解析端末)とスマートフォン(第2の音声解析端末)とでは,解析される会話に相違がみられる。この工程は,通常,第1の会話情報取得工程(S105)と同時に行われる。
第2の会話解析工程(S108)
スマートフォン側でも,第2の会話情報が解析される。第2の会話情報の例は,「これから豆乳秒二巻する新約であるXYZについて説明しますそれは血糖値を下げますか?」といったものである。この際に,会話区分が解析されてもよい。会話区分が解析された第2の会話は,「これから豆乳秒二巻する新約であるXYZについて説明します。「それは血糖値を下げますか?」のようになる。第2の会話情報も適宜記憶部に記憶される。
第2の会話情報送信工程(S109)
第2の会話情報は,例えば,スマートフォンからノート型パソコンへ送信される。すると,ノート型パソコン(第1の音声解析端末3)は,スマートフォン(第2の音声解析端末5)から送信された第2の会話情報を受け取る。
会話区分取得工程(S110)
第1の会話情報及び第2の会話情報における会話区分を分析し,1又は複数の会話区分を得てもよい。各端末において会話区分が解析されていてもよい。一方,ノート型パソコン(第1の音声解析端末)で,2つの端末が収録した会話情報について,まとめて会話区分を分析した方が,第1の会話情報と第2の会話情報とで,対応した会話区分を得ることができるので,好ましい。この場合,第1の会話情報の各会話区分と,第2の会話情報の各会話区分とは,会話時間がほぼ同じであるはずである。そのため,計時手段を用いて,各区分を合わせることが好ましい。このようにして,第1の会話情報を区分分けするとともに,対応する第2の会話区分の各会話区分も得ることができる。
会話区分取得部33は,第2の会話情報における会話区分をも分析し,1又は複数の会話区分を得てもよい。
第1の会話情報は,
「これから糖尿病に関する新薬であるXYZについて説明します。」
「それは決闘血を下げますか。」
という会話文に解析される。
第2の会話情報は,
「これから豆乳秒二巻する新約であるXYZについて説明します。
「それは血糖値を下げますか?」という会話文に解析される。
会話区分選択工程(S110)
各会話区分における第1の会話情報に含まれる関連語の数と,第2の会話情報に含まれる関連語の数とを比較し,関連語の数が多い方の会話区分を正しい会話区分として採用する。
上記の例では,第1の会話情報の1番目の会話区分(例えば「これから糖尿病に関する新薬であるXYZについて説明します。」)を正しい会話区分として採用する。
同様にして,第2の会話情報の2番目の会話区分(「それは血糖値を下げますか?」)を正しい会話区分として採用する。
このようにして採用された会話区分の連続を記憶部に記憶する。
会話区分の連続は,「これから糖尿病に関する新薬であるXYZについて説明します。」「それは血糖値を下げますか?」である。
図4は,音声解析システムの第2の処理例を示す概念図である。この例では,第2の音声解析端末において,会話区分が分析され,会話区分が分析された第2の会話情報が,第1の音声解析端末に送られるものである。この例においても,会話区分の齟齬を避けるため,各会話区分について時刻情報が関連して記憶され,第2の音声解析端末から第1の音声解析端末へ,時刻情報と合わせて送信させることが好ましい。すると,第1の音声解析端末においては,第1の会話情報に含まれる会話区分と第2の会話情報に含まれる会話区分とを一致させることができる。
図5は,音声解析システムの第3の処理例を示す概念図である。この例では,第2の音声解析端末が収音し,デジタル化された会話情報が,第1の音声解析端末へ送信され,第1の音声解析端末が各種解析を行う。なお,特に図示しないが,第1の音声解析端末のみならず,第2の音声解析端末においても,正しい会話区分を解析するようにしてもよい。
このシステムは,音声解析装置として利用されうる。特に,グーグルスピーカー(登録商標)など,音声解析装置は,今後より普及することが考えられる。また,スマートフォンや携帯端末といったユーザに身近な端末にも音声解析装置が実装されることが想定される。例えば,音声解析装置にユーザの声とは別のノイズが収録され,ユーザの声を収録しにくい場合も想定される。一方,そのような場合であっても,ユーザの身近に存在する端末は,ユーザの声を適切に収録できている可能性がある。すると,ユーザに身近な端末が音声情報を収録し,音声解析装置と音声情報を共有することで,より精度高く音声を解析できることとなる。
1 音声解析システム
3 第1の音声解析端末
5 第2の音声解析端末
7 第1の用語解析部
9 第1の会話記憶部
11 解析部
13 プレゼンテーション記憶部
15 関連語記憶部
17 表示部

21 第2の用語解析部
23 第2の会話記憶部
25 会話情報受信部

31 特定プレゼンテーション情報取得部
33 会話区分取得部
35 関連語抽出部
37 会話区分選択部

41 時刻記憶部
43 周波数解析部
45 誤変換用語記憶部

51 第2の解析部
53 第2のプレゼンテーション記憶部
55 第2の関連語記憶部
57 第2の表示部
59 第2の会話情報受信部
61 第2の特定プレゼンテーション情報取得部
63 第2の会話区分取得部
65 第2の関連語抽出部
67 第2の会話区分選択部

Claims (6)

  1. 第1の音声解析端末と,第2の音声解析端末とを含む音声解析システムであって,
    第1の音声解析端末は,
    会話に含まれる単語を解析し,第1の会話情報を得る第1の用語解析部と,
    第1の用語解析部が解析した第1の会話情報を記憶する第1の会話記憶部と,
    第1の会話記憶部が記憶した第1の会話情報を解析する解析部と,
    複数のプレゼンテーション資料を記憶するプレゼンテーション記憶部と,
    前記プレゼンテーション記憶部に記憶されたそれぞれのプレゼンテーション資料に関連した関連語を記憶する関連語記憶部と,
    前記プレゼンテーション記憶部が記憶したいずれかのプレゼンテーション資料を表示する表示部と,を含む端末であり,
    第2の音声解析端末は,
    前記会話に含まれる単語を解析し,第2の会話情報を得る第2の用語解析部と,
    第2の用語解析部が解析した第2の会話情報を記憶する第2の会話記憶部と,
    を含む端末であり,
    第1の音声解析端末は,
    第2の音声解析端末から第2の会話情報を受信する会話情報受信部をさらに有し,
    第1の会話記録部は、前記会話情報受信部が受信した第2の会話情報も記憶し,
    前記解析部は,
    前記複数のプレゼンテーション資料のうちのあるプレゼンテーション資料である特定プレゼンテーション資料が選択されたことに関する情報を受け取る特定プレゼンテーション情報取得部と,
    第1の会話情報における会話区分を分析し,1又は複数の会話区分を得る会話区分取得部と,
    第1の会話情報及び第2の会話情報に含まれる前記特定プレゼンテーション資料に関する前記関連語を抽出する関連語抽出部と,
    前記会話区分取得部が得た各会話区分における第1の会話情報に含まれる関連語の数と,第2の会話情報に含まれる関連語の数とを比較し,関連語の数が多い方の会話区分を正しい会話区分として採用する会話区分選択部と,
    を含む,音声解析システム。
  2. 請求項1に記載の音声解析システムであって,
    第1の音声解析端末は,時刻時間を記憶するための時刻記憶部をさらに有し,
    第1の会話情報は,前記会話に含まれる単語とともに,各単語と関連した時刻を含み,
    前記会話区分取得部は,各単語の時刻情報を用いて,会話区分を分析するシステム。
  3. 請求項1に記載の音声解析システムであって,
    第1の音声解析端末は,会話に含まれる音声の周波数を解析する周波数解析部をさらに有し,
    第1の会話情報は,前記会話に含まれる単語とともに,各単語と関連した音声の周波数を含み,
    前記会話区分取得部は,各単語の周波数を用いて,会話区分を分析するシステム。
  4. 請求項1に記載の音声解析システムであって,
    前記関連語記憶部が記憶する関連語は,プレゼンター用関連語と,リスナー用関連語とを含み,
    前記会話区分取得部は,前記会話情報に含まれる前記プレゼンター用関連語と,前記リスナー用関連語とを用いて,前記会話区分を分析する,
    システム。
  5. 請求項1に記載の音声解析システムであって,
    第1の音声解析端末は,
    前記複数のプレゼンテーション資料のそれぞれに関連した誤変換用語を記憶した誤変換用語記憶部をさらに有し,
    前記解析部は,特定プレゼンテーション資料に関する誤変換用語が含まれる場合,
    前記各会話区分のうち前記正しい会話区分として採用されなかった会話区分に含まれる用語のうち,前記正しい会話区分に含まれる前記誤変換用語に対応する用語を用いて,前記正しい会話区分に含まれる用語を修正する,システム。
  6. 請求項1に記載の音声解析システムであって,
    第2の音声解析端末は,
    第2の会話記憶部が記憶した第2の会話情報を解析する第2の解析部と,
    第2の音声解析端末に記憶される複数のプレゼンテーション資料である第2のプレゼンテーションを記憶する第2のプレゼンテーション記憶部と,
    第2のプレゼンテーション資料のそれぞれに関連した関連語を記憶する第2の関連語記憶部と,
    第2のプレゼンテーション記憶部が記憶したいずれかのプレゼンテーション資料を表示する第2の表示部と,
    第1の音声解析端末から第1の会話情報を受信する第2の会話情報受信部をさらに有し,
    第2の会話記録部は,第2の会話情報受信部が受信した第1の会話情報も記憶し,
    第2の解析部は,
    第2のプレゼンテーションのうちのあるプレゼンテーション資料である第2の特定プレゼンテーション資料が選択されたことに関する情報を受け取る第2の特定プレゼンテーション情報取得部と,
    第2の会話情報における会話区分を分析し,1又は複数の会話区分を得る第2の会話区分取得部と,
    第1の会話情報及び第2の会話情報に含まれる第2の特定プレゼンテーション資料に関する関連語を抽出する第2の関連語抽出部と,
    第2の会話区分取得部が得た各会話区分における第1の会話情報に含まれる関連語の数と,第2の会話情報に含まれる関連語の数とを比較し,関連語の数が多い方の会話区分を正しい会話区分として採用する第2の会話区分選択部と,
    を含む,音声解析システム。

JP2019011603A 2019-01-25 2019-01-25 音声解析システム Active JP6689421B1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2019011603A JP6689421B1 (ja) 2019-01-25 2019-01-25 音声解析システム
SG11202009311RA SG11202009311RA (en) 2019-01-25 2020-01-06 Speech analysis system
PCT/JP2020/000074 WO2020153110A1 (ja) 2019-01-25 2020-01-06 音声解析システム
CN202080002036.7A CN111919251B (zh) 2019-01-25 2020-01-06 语音解析***
CA3097683A CA3097683C (en) 2019-01-25 2020-01-06 Speech analysis system
US17/042,193 US11929061B2 (en) 2019-01-25 2020-01-06 Speech analysis system
CA3131060A CA3131060C (en) 2019-01-25 2020-01-06 Speech analysis system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019011603A JP6689421B1 (ja) 2019-01-25 2019-01-25 音声解析システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020068833A Division JP6781492B2 (ja) 2020-04-07 2020-04-07 音声解析システム

Publications (2)

Publication Number Publication Date
JP6689421B1 true JP6689421B1 (ja) 2020-04-28
JP2020118907A JP2020118907A (ja) 2020-08-06

Family

ID=70413842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019011603A Active JP6689421B1 (ja) 2019-01-25 2019-01-25 音声解析システム

Country Status (6)

Country Link
US (1) US11929061B2 (ja)
JP (1) JP6689421B1 (ja)
CN (1) CN111919251B (ja)
CA (2) CA3131060C (ja)
SG (1) SG11202009311RA (ja)
WO (1) WO2020153110A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021173988A (ja) * 2020-04-24 2021-11-01 株式会社インタラクティブソリューションズ 音声解析システム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7102035B1 (ja) * 2021-08-02 2022-07-19 株式会社インタラクティブソリューションズ 説明支援システム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259269A (ja) * 1998-03-13 1999-09-24 Omron Corp 情報処理装置および方法、並びに記録媒体
JP2000148185A (ja) * 1998-11-13 2000-05-26 Matsushita Electric Ind Co Ltd 認識装置及び認識方法
JP2001125900A (ja) * 1999-10-29 2001-05-11 Yazaki Corp 対話システム及び対話方法、双方向対話システム及び双方向対話方法並びに記録媒体
JP2002259635A (ja) 2001-03-05 2002-09-13 Keio Academic Enterprise Co Ltd 認識共有化支援方法、議論構造化支援方法、状況把握支援方法、図形思考力開発支援方法、協創環境構築支援方法、質疑応答支援方法、議事録作成支援方法
US7664733B2 (en) * 2003-04-11 2010-02-16 Ricoh Company, Ltd. Techniques for performing operations on a source symbolic document
JP4890518B2 (ja) * 2008-08-29 2012-03-07 ヤフー株式会社 複数言語モデルによる統合音声認識装置
JP5699749B2 (ja) * 2011-03-31 2015-04-15 富士通株式会社 携帯端末装置の位置判定システムおよび携帯端末装置
KR101537370B1 (ko) * 2013-11-06 2015-07-16 주식회사 시스트란인터내셔널 녹취된 음성 데이터에 대한 핵심어 추출 기반 발화 내용 파악 시스템과, 이 시스템을 이용한 인덱싱 방법 및 발화 내용 파악 방법
CN104317781B (zh) * 2014-11-14 2018-03-02 移康智能科技(上海)股份有限公司 敏感词编辑器
CN104796584A (zh) * 2015-04-23 2015-07-22 南京信息工程大学 具有语音识别功能的提词装置
US9635167B2 (en) * 2015-09-29 2017-04-25 Paypal, Inc. Conversation assistance system
JP6846766B2 (ja) 2016-06-13 2021-03-24 株式会社インタラクティブソリューションズ プレゼンテーション評価装置、プレゼンテーション評価システム、プレゼンテーション評価プログラム及びプレゼンテーション評価装置の制御方法
CN109891501A (zh) * 2016-11-08 2019-06-14 夏普株式会社 语音调整装置、控制程序、电子设备及语音调整装置的控制方法
CN112215016A (zh) * 2017-01-17 2021-01-12 乐夫兰度株式会社 多语言沟通***及多语言沟通提供方法
JP7143624B2 (ja) * 2018-05-09 2022-09-29 富士フイルムビジネスイノベーション株式会社 情報処理装置及び情報処理プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021173988A (ja) * 2020-04-24 2021-11-01 株式会社インタラクティブソリューションズ 音声解析システム
JP7008992B2 (ja) 2020-04-24 2022-01-25 株式会社インタラクティブソリューションズ 音声解析方法

Also Published As

Publication number Publication date
CN111919251B (zh) 2021-07-13
US11929061B2 (en) 2024-03-12
US20210020164A1 (en) 2021-01-21
SG11202009311RA (en) 2020-10-29
CA3097683C (en) 2021-11-30
JP2020118907A (ja) 2020-08-06
CA3131060A1 (en) 2020-07-30
CA3097683A1 (en) 2020-07-30
CN111919251A (zh) 2020-11-10
WO2020153110A1 (ja) 2020-07-30
CA3131060C (en) 2023-08-29

Similar Documents

Publication Publication Date Title
US11496827B2 (en) Microphone natural speech capture voice dictation system and method
CN106024014B (zh) 一种语音转换方法、装置及移动终端
US9070369B2 (en) Real time generation of audio content summaries
JP5185358B2 (ja) 行動履歴検索装置
US7219050B2 (en) Automatic interpreting system including a system for recognizing errors
US20130144619A1 (en) Enhanced voice conferencing
CN110149805A (zh) 双向语音翻译***、双向语音翻译方法和程序
WO2016023317A1 (zh) 一种语音信息的处理方法及终端
WO2020153110A1 (ja) 音声解析システム
JP6238083B2 (ja) 情報処理装置、サーバ、情報処理方法、および情報処理システム
WO2022037600A1 (zh) 摘要记录方法、装置、计算机设备和存储介质
CN113055529B (zh) 录音控制方法和录音控制装置
JP2010002973A (ja) 音声データ主題推定装置およびこれを用いたコールセンタ
JP6771251B1 (ja) 音声解析システム
JP6781492B2 (ja) 音声解析システム
CN108831473B (zh) 一种音频处理方法及装置
JP2015036826A (ja) コミュニケーション処理装置、コミュニケーション処理方法、及び、コミュニケーション処理プログラム
CN111931521A (zh) 语音翻译方法、可穿戴设备、终端设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191217

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191217

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200407

R150 Certificate of patent or registration of utility model

Ref document number: 6689421

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150