JP2024017475A - 音声通信方式 - Google Patents

音声通信方式 Download PDF

Info

Publication number
JP2024017475A
JP2024017475A JP2022120126A JP2022120126A JP2024017475A JP 2024017475 A JP2024017475 A JP 2024017475A JP 2022120126 A JP2022120126 A JP 2022120126A JP 2022120126 A JP2022120126 A JP 2022120126A JP 2024017475 A JP2024017475 A JP 2024017475A
Authority
JP
Japan
Prior art keywords
voice
audio
channel
consonant
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022120126A
Other languages
English (en)
Inventor
政行 高橋
Masayuki Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Radio Co Ltd
Original Assignee
Japan Radio Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Radio Co Ltd filed Critical Japan Radio Co Ltd
Priority to JP2022120126A priority Critical patent/JP2024017475A/ja
Publication of JP2024017475A publication Critical patent/JP2024017475A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Telephonic Communication Services (AREA)

Abstract

【課題】騒音等による相手音声の聞き取りの困難さを改善する海上通信における音声通信方式を提供する。
【解決手段】音声通信方式は、送信側マイク入力部と、送信側マイク入力部に入力された音声を分析する音声分析部105にて、入力音声の子音を抽出し音声を伝送するチャンネルとは別のチャンネルを用いて当該子音情報を送信することと、音声再生部部115にて受信側スピーカー出力部に信号を入力することと、ディスプレイにて音声分析部の出力を表示することと、からなる。
【選択図】図1

Description

国際VHF帯データ通信用チャンネルにはVDES(VHF Data Exchange System)とVDE(VHF Data Exchange)地域CHがあり、VDESはITU-R勧告M.2092等によって技術特性が定められている。またVDE地域CHについて、周波数はITU-R勧告M.1842によって定められているものの、利用方法については具体化されておらず、周波数の有効利用のためにも当該利用方法の具体化が急がれている。
本発明は前記VDE地域CHの利用方法について提案するものであり、特に音声通信の高度化に関し、当該CHを用いて行うことを目的とするものである。
VDESでは、地上VDE(VHF Data Exchange)、衛星VDE、AIS(Automatic Identification System)、ASM(Application Specific Messaging)といった複数の方式が各種のデータ伝送速度で用いられている。
例えば衛星VDEでは世界無線会議(WRC-19)により周波数分配表が明記されており、その技術特性はITU-R勧告M.2092で定められている。同勧告では他に地上VDEとASMについても記載されている。また、AISはITU-R勧告M.1371で規定されている。
例えばAISに関しては、VDESにおいて既存のAISチャンネルに新しいチャンネルを追加し、AISに負荷をかけることなく何らかのアプリケーションを並行動作させることが可能になる。また、衛星VDEでは船舶とLEO衛星(低軌道衛星)を経由して双方向データ通信が可能になり、衛星VDEにより全世界をカバーするデータ通信を実現できる可能性がある。
このように、VDESはAISを含むシステムであることから、次世代AISという位置づけにされており、セキュリティレベルの向上など、将来に向けての開発が活発になされているのが現状である。
一方で、国際VHF帯データ通信用チャンネルには、VDE地域CHと呼ばれるチャンネルも用意されており、これはITU-R勧告M.1842によって規定されているが、その使い方についてまでは議論されておらず、将来的に有効活用が期待されている。
特開2003-244756 特開平01-055595
大見航也他著「船舶の騒音下における音声情報交換システムの開発」 IEICE ISS-P-124 2016年
非特許文献1によれば、船舶における音声通信では環境騒音等により相手音声の聞き取りが困難なケースが多い。例えば、適度な音量であっても語頭や語尾が判然としないケースがある。タ行やパ行などの破裂音の語頭の子音が聞き取れないと全く違う意味になってしまうし、サ行のような空気が抜ける語頭の子音は背景ノイズと混然一体となり聞き取れないケースも多発している。
また、送話ボタン押下と同時に通話をすることによる音声欠けや、流暢な英語では単語の末尾と次の単語の冒頭が繋がったり、人それぞれのなまりがあったり、また根本的に会話スピードが速かったりなど、聞き取りにくくする要素が多く、さらに、通話環境として、エンジン音などが送話側・受話側のいずれかに重畳することによる聞き取り不能も起こりえる。
この事象は船員への聞き取り調査でも判明しており、船舶の乗務員にとって音声の聞き取りにくさは大きな問題であることがわかっている。また、陸側の海岸局にとっても、安全面などを考えると聞き取りにくいことは問題である。本発明は以上のように、子音の周辺ノイズとの埋もれによる語頭・語尾の聞き取りにくさや、そもそもの送信不備、また、通話全般にわたる判別不能状態を解決することを目的としている。
また、当該解決手段の実施環境として、前述のように効果的に利用されていないVDE地域CHを利用することも特徴として備える。
特許文献1では、複数のチャンネルを用いた通信の有効性について述べられており、本発明は前記課題を、当該文献と同様に複数チャンネルを用いるが、チャンネルの利用手段に関して独自な方法を用いることにより解決することを目的とする。
海上通信における音声通信方式に関し、
送信側マイク入力部と、
前記送信側マイク入力部に入力された音声を分析する音声分析部と、
受信側スピーカー出力部と、
前記受信側スピーカー出力部に信号を入力する音声再生部と、
前記音声分析部の出力を表示するディスプレイ部と、
からなる音声通信方式とする。
前記音声分析部は子音抽出部にて入力音声の子音を抽出し、音声を伝送するチャンネルとは別のチャンネルを用いて当該子音情報を送信することを特徴とする音声通信方式とする。
前記音声分析部は音声認識部にて入力音声を音声認識し、音声を伝送するチャンネルとは別のチャンネルを用いて当該文字情報を送信することを特徴とする音声通信方式とする。
前記音声分析部は通信装置の利用者が送信側のスイッチにより子音抽出か音声認識かを選択することで、状況に合った希望の処理を施し、音声を伝送するチャンネルとは別のチャンネルを用いて当該処理結果の情報を送信し、送信側のスイッチと同期して切り替わる受信側のスイッチにより子音情報か文字情報かを選択することを特徴とする音声通信方式とする。
前記音声再生部は音声を伝送するチャンネルにて受信した音声と音声を伝送するチャンネルとは別のチャンネルにて受信した子音情報を音声強調部にて重畳させてスピーカーから出力することを特徴とする音声通信方式とする。
前記ディスプレイ部は音声を伝送するチャンネルとは別のチャンネルにて受信した文字情報を文字表示部によりディスプレイ部に表示することを特徴とする音声通信方式とする。
前記子音抽出部は入力音素が破裂音なのか摩擦音なのかといった情報から子音が発音する場所、つまり調音点を検出し、これをもって抽出結果とすることを特徴とする音声通信方式とする。
前記送信側マイク入力部に入力された音声を符号化し伝送するチャンネル1と、前記音声分析部が前記マイク入力部に入力された音声を分析し分析結果を伝送するチャンネル2に関し、処理により遅れた方のチャンネルの送信タイミングに、もう一方の送信タイミングを合わせることを特徴とする音声通信方式とする。
前記受信側の音声再生部に到来する符号化音声と、同音声再生部に到来する音声分析結果について、符号化音声の復号処理を終えるタイミングと、分析結果を音声に反映させるタイミングのうち、遅れた方のタイミングにもう一方のタイミングを合わせることを特徴とする音声通信方式とする。
請求項1によれば、送信側受信側の環境ノイズや通信路ノイズの影響で聞き取りにくかった通信音声を、音声の強調により聞き取りやすくすることが出来る。また、音声が文字情報としてディスプレイに表示されるため、聞き逃しても情報を受け取ることが可能となる。
請求項2によれば、送信音声のうち、ノイズにより消失しやすい子音を抽出することが出来、受信側で子音強調処理等をすることが可能になる。
請求項3によれば、通信経路のノイズや受信側環境ノイズの影響を考慮して、送信側で音声認識をすることにより、受信側で文字情報のディスプレイ表示等をすることが可能になる。
請求項4によれば、前記子音強調処理を取るか、前記文字情報のディスプレイ表示を取るかを選択することが可能になる。
請求項5によれば、二つの通信チャンネルを用い、一方の通信チャンネルでは通常の音声通信をし、もう一方の通信チャンネルで前記子音情報を送信することで、受信側において子音を強調した音声再生が可能になる。
請求項6によれば、二つの通信チャンネルを用い、一方の通信チャンネルでは通常の音声通信をし、もう一方の通信チャンネルで前記文字情報を送信することで、受信側において音声の再生と同時に文字情報によっても通信内容を確認出来る。
請求項7によれば、前記子音情報の内容を特定することが可能になり、これにより受信側で子音強調処理をすることが可能になる。
請求項8によれば、送信側の出力時にチャンネル間のタイミングがずれていないため、受信側の処理をする際に合わせこみが容易になる。
請求項9によれば、受信側の処理によるずれを合わせこむことが出来るため、チャンネル間のずれによる不具合を未然に防ぐことが可能になる。
本発明の全体構成図 本発明の処理フロー 複数チャンネルを利用した通信の一例 複数チャンネル内のデータ列の一例 音声認識処理に時間を要する場合の音声処理 受信側におけるチャンネル間の同期の説明 複数チャンネルのタイミング合わせにおいて受信側でのみこれを実施する例
以下、本発明の実施の形態を、図面を参照しながら詳細に説明する。
本発明は船舶の音声通信において、伝送路ノイズもしくは送受信の通信機周囲のノイズによって、相手音声が聞き取りにくくなるという問題を解決するものである。この問題を解決する最善の方法は、送信側のマイクに音声を入力する時点で当該音声に何らかの処理を施して受信側の理解を助けることであり、本発明は当該処理に関する。
図1は本発明における全体模式図を示したものである。図中において船舶1、船舶2と記載しているが、一方が地上局であってもかまわない。
送信側通信機101のマイク入力から音声を入力すると、音声分析部105にて前記音声を分析する。この際、送信側切り替えスイッチ部にて前記分析内容が変化する。当該スイッチが子音抽出を指していれば、音声分析部105における子音抽出部は音声における子音を抽出する。
子音の抽出とは、無声破裂音、有声破裂音、無声摩擦音、有声摩擦音といった分類や、口腔内のどこで発声したかを示す調音点など、子音の特徴を抽出することである。
なお、子音抽出に関しては特許文献2などに示されているように、歴史のある技術であり、近年では薄型テレビの音声明瞭化手段として子音抽出を行い加工する技術も多用されているため、本発明においては、その手段を特定しない。また、抽出した子音の分類分けについてもパターンマッチングなど様々な方法が考えられるため本発明ではこれを限定しない。
また、音声分析部105は一つのチャンネルであるところのCH1を介して通常の音声を音声再生部115に向けて送信する。前記抽出した子音情報は別のチャンネルであるところのCH2を介して音声強調部111に伝送される。
音声強調部111では受信した子音情報に基づき疑似的な子音を生成する。例えば摩擦音であれば白色ノイズであるし、破裂音であればパルス状のノイズである。なお、受信側切り替えスイッチ部121は送信側切り替えスイッチ部119と連動しており、その連動させるための船舶1から船舶2への信号送信方法については、CH2で周期的にスイッチの向きの信号を伝送するなど考えられるが、本発明では限定するものではない。
音声再生部115において前記CH1で受信した音声と、前記音声強調部111で生成した疑似子音を重畳し、受信側通信機103のスピーカーから当該重畳された音声を再生出力する。
本手段によれば、音声通信における単語の冒頭を強調することが出来、受信側において音声を明瞭に聞き取ることが可能になる。
次に送信側切り替えスイッチ部119が音声認識側を指している場合を説明する。この場合、前記のように受信側切り替えスイッチ部121も連動して音声認識側を指している。
送信側通信機101のマイク入力から音声を入力すると、音声分析部105にて前記音声を分析する。送信側切り替えスイッチ部101が音声認識部109を指していれば、前記音声分析部105は音声認識結果を出力する。
この際、音声認識手段は本発明においては限定しない。線形予測係数やケプストラム係数などのパターンマッチングや人工知能を用いた手段など、認識方法は任意である。
音声認識部109はCH2を用いて認識結果を文字列の形の信号にして、文字表示部113に伝送する。文字表示部113は受信した音声認識結果を文字情報に変換する。変換した文字情報はディスプレイ部117にて表示する。
この場合はCH1を介して伝送された音声信号と、CH2を介して伝送された文字情報を受信側で同時に知ることとなり、音声のとぎれがあっても受信者は文字情報でそれを補完できる。
図2は前記図1を説明した内容について処理フローチャートの形で説明したものである。音声送信部201から音声受信部215へは任意の音声フォーマットで、且つ任意の通信チャンネルで音声を伝送する。
ここで任意の音声フォーマットとは、デジタル圧縮された音声信号であったりアナログ信号であったり種々の方法を想定しており、本発明においてはこれを限定するものではない。
一方で、音声送信部201に入力される音声信号は、切り替えスイッチ1部にて子音抽出部205か、あるいは音声認識部209を選択され、それぞれ入力する。
なお、当該切り替えスイッチ1部からの分岐に関し、子音抽出部205のみが存在してもよいし、音声認識部209のみが存在してもよい。例えば後者であれば、システム全体において、以下に述べる子音抽出及び子音強調に関する部位は無くてもかまわない。
前記切り替えスイッチ1部が子音抽出部を指していれば、入力音声は当該子音抽出部205に入力される。子音抽出部205では、任意の音声抽出処理により時間軸上で音声区間と非音声区間に分離され、音声区間において任意の音声処理手段により子音を抽出する。
子音の抽出手段に関しては、音声認識技術で子音を認識し分離する際に用いられる方法であるところの、例えばケプストラム係数を算出し、その低次成分を分析する方法などが存在するが、本発明ではこれを限定するものではない。
子音情報送信部207では前記抽出された子音を、音声送信部201が使う通信チャンネルとは別のチャンネルを用いて受信側に伝送する。伝送する内容としては、子音のアナログ波形そのものであったり、摩擦音か破裂音か鼻音かという情報であったり、口の中のどこで生成された音声かを示す調音点であったり、いずれのものでもよいが、本発明ではこれを限定するものではない。
切り替えスイッチ2部213は切り替えスイッチ1部203と連動しているが、その連動方法については、例えば前記子音情報送信部207が使う通信チャンネルにおいて、一定間隔で切り替えスイッチ1部203の状態を送信し同期することが考えられる。しかるに当該連動手段については本発明ではこれを限定しない。
前記のように切り替えスイッチ2部213は切り替えスイッチ1部203と同じ子音伝送系を示しているため、子音強調部217を指している。子音情報送信部207から送信された子音情報は子音強調部217で受信する。
子音情報には前記のように様々な情報の種類がありうるが、例えば子音のアナログ波形そのものであった場合は、音声受信部215で受信した音声にそのまま、あるいは増幅して重畳する。
また、摩擦音か破裂音か鼻音かの情報であれば、摩擦音であればホワイトノイズ、破裂音であればパルス波形、鼻音であれば正弦波を生成し、音声受信部215で受信した音声に重畳する。調音点情報でも、調音点による子音の特徴を生成し、受信音声に重畳する。
子音強調部217で子音が強調された受信音声は音声再生1部219にてスピーカー出力される。ただし、この際、二種の音声出力経路が混在することを防ぐために、図2における音声再生2部223は動作が停止している。
なお、前記における音声再生1部219と後述する音声再生2部223は機能的に違うため別ブロックとして図面に表示し、一方が動作する時は他方が停止する、と記載してあるが、同一のスピーカーであっても勿論よく、その場合は切り替えスイッチ2部213の状態に応じて再生する音声を切り替えればよい。
次に、切り替えスイッチ1部203が音声認識側を指していれば、音声送信部201に入力される音声は音声認識部209にも入力され、音声を認識される。
ここで、音声認識の手段には様々な方法が考えられる。例えば線形予測係数やケプストラム係数などの音素を特徴付ける係数に変換し、例えば「あ」という音素のケプストラム係数に最も近いデータ列を音素データベースから探してそのラベルを認識結果とする、といったパターンマッチングによって認識する方法や、ニューラルネットやファジー推論などのAIを利用した方法など、近年ではより高い認識精度になるために数多くの方法が存在する。しかるに本発明においてはこれを限定するものではなく、いかなる認識手段によるものでもよい。
音声認識部209の認識結果は文字情報送信部211にて文字情報に変換され、音声送信部201が音声を送信するチャンネルとは別のチャンネルで当該文字列が送信される。なお、文章読解機能を有していれば漢字変換をし、漢字交じりの文字情報を送信する。
前記のように切り替えスイッチ2部213は切り替えスイッチ1部203と同期しているため、切り替えスイッチ1部203が音声認識部209側を指している場合は、切り替えスイッチ2部213は文字情報解析部221を指している。
文字情報解析部221は、文字情報送信部211に文章読解機能が無くカナ文字のみを送信している場合には漢字変換をして受信者が読み取りやすい文字列にする。また、送信側が何らかの警報を発している場合には、予め定めた警報装置を起動するなど、受信した文字情報によっては周辺装置を駆動する場合がある。さらに、文章を読解して言語変換することにより、他国からの送信音声を母国語に変換することも可能である。
文字情報解析部221により読み取りやすい文字列に変換された情報は文字表示部225によりディスプレイ表示される。
以上の処理により、船舶における音声通信において、環境ノイズや伝搬路のノイズ等、あるいは話し手の癖のある話し方があったり、音声再生系の不具合等があるなど、相手音声を聞き取りにくい状況下であっても、音声を強調したり文字表示することによって、受信者は相手音声の内容を理解することが可能になる。
次に図3を用いて、実際の通信において複数チャンネルを用いた方式の一例について説明する。
図3は海上VHF帯のデータ通信用チャンネルのうち、ITU-R勧告M.1842で定められたVDE地域チャンネルを示したものである。
下側のチャンネルは船舶から陸上への通信に使われ、上側のチャンネルは陸上から船舶への通信に使われる。それぞれの通信はCH80、CH21、CH81、CH22を束ねて最大100kHz幅で使用され、CH23とCH83を束ねて最大50kHz幅で使用され、CH82を25kHz幅の単一チャンネルで使用される。
なお、上側と下側を別系統の通信で用いる場合、つまり分割して用いる場合は、チャンネル番号に対して、下側には「10」をつけ、上側には「20」をつける。つまり、CH1080は157.025MHz、CH2080は161.625MHzとして利用する。
複数チャンネルの用い方としては、例えばCH80の下側と上側の1チャンネルを用いる方法もあるし、前記のように下側と上側で分割してCH1080とCH1021とCH1081とCH1022の4チャンネルを用いる方法もありうる。
複数チャンネルの使われ方としては、図3より高い周波数であるところのVDEグローバルチャンネルについては、ITU-R勧告M.2092で定められているように、捜索救助に関する各種情報収集をするための捜索救助サービスや、船舶位置や目的地を管制するための船舶通航サービスや、港湾での停泊位置や運航計画などの情報提供をする地域港湾サービス等がある。
しかるに図3が示すVDE地域チャンネルに関しては具体的な利用法を定めているわけではなく、周波数の有効利用が為されていない状況である。従って、本発明に示したような、複数チャンネルを用いた音声通信を実施することは可能であり、これまで課題とされてきた船舶における音声の聞き取りにくさを解消する手段となりえる。
図4は本発明の音声通信に関するもので、各チャンネル内のデータ列の一例を示したものである。当該図面においてはチャンネルを2個使用している。CH1は音声信号であり、送信と受信を同期させるために第一の同期信号401が一定間隔で挿入されている。任意のフォーマットの音声信号として音声信号403が続いている。
CH2は前記音声信号に関する付加情報であり、本発明においては音声認識結果の文字列、あるいは子音抽出した結果の子音データを伝送するためのチャンネルである。送信と受信を同期させるために第二の同期信号405が一定間隔で挿入されている。当該チャンネルの付加情報が音声認識結果であるのか子音抽出結果であるのかのどちらをスイッチが示しているかの情報がスイッチの向きの情報407であり、この信号も一定間隔で挿入されている。これらに続いて付加情報409が伝送される。
なお、前記のように、本発明においては当該付加情報として、音声認識結果、あるいは子音抽出結果のいずれか一方に固定したシステムであってもよく、その場合はスイッチの向きの情報407は固定値を伝送するよう規定してもよいし、第二の同期信号405に引き続いて付加情報409を伝送してもよい。
次に、図5を用いてチャンネル間の送信側の同期方法について説明する。501はある伝送チャンネルを使って音声507を伝送している様子である。前述のように、音声認識による認識結果を文字情報で伝送する場合であっても、子音抽出により子音情報を伝送する場合であっても、それぞれ音声認識処理や子音抽出処理には時間を要する。
この所要時間幅が511である。音声507はバッファによる遅延時間509を用いて伝送される。また、音声認識処理や子音抽出処理の結果を当該処理に引き続いて513で伝送する。
このことにより、前記処理に時間を要しても、文字情報や子音情報と音声信号とは同じタイミングで伝送することが可能になる。
当該遅延処理を行うために、音声信号を伝送するチャンネルでは、音声認識処理や子音抽出処理の終了に伴う信号を待つこととなり、当該信号を受信し次第、音声信号を伝送するチャンネルで音声信号を伝送する。
なお、後述するように、送信側ではチャンネル間同期をさせず、受信側で一括して同期処理をしてもよいものとし、送受信それぞれで同期をとるか、受信のみとするかについては本発明では限定しない。
次に、図6を用いてチャンネル間の受信側の同期方法について説明する。送信側でチャンネル間の同期を取っていても、受信側で行う音声信号のデコード処理や音声認識結果情報のディスプレイ表示処理、子音抽出結果から子音波形の生成処理など、各処理の所要時間には差があるため、受信側でもチャンネル間のズレを補正する処理が必要である。
チャンネル1-601は音声信号を受信したチャンネルであり、信号の先頭が先頭タイミング619である。また、チャンネル2-603は情報を受信したチャンネルであり、音声認識情報であれば文字列、子音情報であれば子音情報である。なお、図5を用いて前述したように、送信時にチャンネル間の同期を取り先頭位置を合わせこんでいるので、受信時において先頭タイミング619を先頭に音声と情報が、それぞれチャンネル1-601、チャンネル2-603から伝送されてくる。
音声信号は任意に事前に決定している処理単位を復元するにあたり音声復号処理時間609を要し、複合完了時に受信側フラグ1を立て、音声は621のタイミングで生成される。情報チャンネルも事前に決定している処理単位を復元し必要な処理を実施するのに情報復号処理時間613を要し、当該処理完了時に受信側フラグ2を立て、処理結果は611のタイミングで生成される。
ここで、情報チャンネルに関する前記必要な処理の一例としては次のものがある。つまり、本装置が音声認識結果をチャンネル2-603に伝送するものであるならば、情報チャンネルの必要な処理とは、音声認識結果のデータ列に関し予め定めたデータと文字を変換するテーブルを参照し、文字情報に変換する。
また、本装置が子音情報をチャンネル2-603に伝送するものならば、情報チャンネルの必要な処理とは、子音データから子音波形を生成することである。前述のように子音データは無声破裂音、有声破裂音、無声摩擦音、有声摩擦音といった分類データや、口腔内のとこで発声したかを示す調音点であり、例えば無声摩擦音であれば白色雑音を生成するし、有声破裂音であればパルス状の音声を生成する。
前記フラグ1とフラグ2のうち、遅い方のフラグが立った時に処理済チャンネル1-605及び処理済チャンネル2-607において615及び617のタイミングで音声のスピーカー出力や文字のディスプレイ表示、あるいは処理済チャンネル2-607で生成された子音を処理済チャンネル1-605の音声信号への重畳を行う。
次にチャンネル間の同期に関して、送信側で合わせ込みを行わず受信側でのみこれを行う例を、図7を用いて説明する。
701a、701bは送信側においてタイミングCで音声が入力されているタイムチャートである。703a、703bは音声信号の符号化及び前記情報信号生成をし、それぞれタイミングD、タイミングEで送信する様子を示したタイムチャートである。705a、705bは受信側の様子であり、伝送路及び出力側入力側における遅延によりタイミングF、タイミングGでの受信となるタイムチャートである。707a、707bは音声信号の復号、情報データの反映がタイミングH、Jで完了し出力部へ伝送するタイムチャートである。709a、709bはタイミングKで音声出力と文字表示などを行うタイムチャートである。
同図において、黒く塗りつぶした範囲は予め任意に定めた処理単位の幅である。
音声データを主眼にデータの流れを見ると、次のようになる。つまり、タイミングCを任意のまとまった音声区分の先頭とし、これを任意の音声符号化手段によりタイミングDから符号化し、伝送路に送信する。各部により生じた遅延により受信機においてはタイミングFからデータの受信を開始する。
受信した音声データはタイミングHを先頭に復号化され、アナログ音声波形が生成される。当該音声波形はタイミングKを先頭にスピーカー出力される。
次に情報データを主眼にデータの流れを見る。入力された音声を分析し、タイミングEを先頭に情報データを生成し、伝送路に送信する。ここで前記分析とは、音声認識をする場合は認識処理であり、認識処理の方式は限定しない。また、子音抽出をする場合は音声区間から子音を分離抽出し前記のような有声破裂音であるかどうかや口腔内のどこで生成されたかなどの特徴データを決めることになるが、当該抽出手段については限定しない。
受信機側においてはタイミングGから前記情報データを受信し、タイミングHから復号された音声にたいしてタイミングJから当該情報データを反映させる。ここで反映とは、音声認識であれば認識結果を文字列情報にて表すことであり、また、子音抽出であれば、アナログ音声の子音位置に人工的な子音波形を付与、あるいは波形を増幅して強調することであるが、子音の強調方法については限定しない。なお、人工的な子音波形とは、無声摩擦音であれば白色雑音、有声摩擦音であれば正弦波、破裂音であればパルス波などを指す。
前記文字情報であれば、タイミングKにおいてディスプレイに文字表示をし、前記子音抽出であればタイミングKを先頭に、子音抽出位置に前記強調処理を施す。
なお、本発明において、情報データ生成の一例として音声認識処理と子音抽出処理の二種類を切り替えられる手段を示したが、どちらか一方のみを有するシステムであっても良く、これを限定するものではない。
101…送信側通信機、 103…受信側通信機、
105…音声分析部、 107…子音抽出部、
109…音声認識部、 111…音声強調部、
113…文字表示部、 115…音声再生部、
117…表示部、 119…送信側切り替えスイッチ部、
121…受信側切り替えスイッチ部、
201…音声送信部、 203…切り替えスイッチ1部、
205…子音抽出部、 207…子音情報送信部、
209…音声認識部、 211…文字情報送信部、
213…切り替えスイッチ2部、
215…音声受信部、 217…子音強調部、
219…音声再生1部、 221…文字情報解析部、
223…音声再生2部、 225…文字表示部、
401…第一のフレーム同期信号、403…音声信号、
405…第二のフレーム同期信号、405…スイッチの向きの信号、
407…付加情報、
501…音声伝送のタイムチャート、
503…バッファを挟んだ音声伝送のタイムチャート、
505…音声認識結果の伝送のタイムチャート、
507…音声の1フレーム、 509…遅延バッファ、
511…音声認識に要する時間、
513…音声認識結果の文字情報伝送のタイムチャート、
601…チャンネル1、 603…チャンネル2、
605…処理済チャンネル1、 607…処理済チャンネル2、
609…音声信号の復号処理時間幅、
611…情報信号の生成位置、 613…情報信号の処理時間幅、
615…チャンネル間同期を取った後の音声伝送位置、
617…チャンネル間同期を取った後の情報伝送位置、
619…受信信号の先頭、 621…受信音声の生成位置
701a、701b…音声入力のタイミング、
703a、703b…音声符号化、情報データ生成と送信タイミング、
705a、705b…受信タイミング、
707a、707b…音声復号化、情報データ反映のタイミング、
709a、709b…音声出力、文字表示のタイミング





















Claims (9)

  1. 海上通信における音声通信方式に関し、
    送信側マイク入力部と、
    前記送信側マイク入力部に入力された音声を分析する音声分析部と、
    受信側スピーカー出力部と、
    前記受信側スピーカー出力部に信号を入力する音声再生部と、
    前記音声分析部の出力を表示するディスプレイ部と、
    からなる音声通信方式
  2. 前記音声分析部は子音抽出部にて入力音声の子音を抽出し、音声を伝送するチャンネルとは別のチャンネルを用いて当該子音情報を送信することを特徴とする請求項1に記載の音声通信方式
  3. 前記音声分析部は音声認識部にて入力音声を音声認識し、音声を伝送するチャンネルとは別のチャンネルを用いて当該文字情報を送信することを特徴とする請求項1に記載の音声通信方式
  4. 前記音声分析部は通信装置の利用者が送信側のスイッチにより子音抽出か音声認識かを選択することで、状況に合った希望の処理を施し、音声を伝送するチャンネルとは別のチャンネルを用いて当該処理結果の情報を送信し、送信側のスイッチと同期して切り替わる受信側のスイッチにより子音情報か文字情報かを選択することを特徴とする請求項1乃至請求項3に記載の音声通信方式
  5. 前記音声再生部は音声を伝送するチャンネルにて受信した音声と音声を伝送するチャンネルとは別のチャンネルにて受信した子音情報を音声強調部にて重畳させてスピーカーから出力することを特徴とする請求項1及び請求項2に記載の音声通信方式
  6. 前記ディスプレイ部は音声を伝送するチャンネルとは別のチャンネルにて受信した文字情報を文字表示部によりディスプレイ部に表示することを特徴とする請求項1及び請求項3に記載の音声通信方式
  7. 前記子音抽出部は入力音素が破裂音なのか摩擦音なのかといった情報から子音が発音する場所、つまり調音点を検出し、これをもって抽出結果とすることを特徴とする請求項2に記載の音声通信方式
  8. 前記送信側マイク入力部に入力された音声を符号化し伝送するチャンネル1と、前記音声分析部が前記マイク入力部に入力された音声を分析し分析結果を伝送するチャンネル2に関し、処理により遅れた方のチャンネルの送信タイミングに、もう一方の送信タイミングを合わせることを特徴とする請求項1に記載の音声通信方式
  9. 前記受信側の音声再生部に到来する符号化音声と、同音声再生部に到来する音声分析結果について、符号化音声の復号処理を終えるタイミングと、分析結果を音声に反映させるタイミングのうち、遅れた方のタイミングにもう一方のタイミングを合わせることを特徴とする請求項1に記載の音声通信方式



























JP2022120126A 2022-07-28 2022-07-28 音声通信方式 Pending JP2024017475A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022120126A JP2024017475A (ja) 2022-07-28 2022-07-28 音声通信方式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022120126A JP2024017475A (ja) 2022-07-28 2022-07-28 音声通信方式

Publications (1)

Publication Number Publication Date
JP2024017475A true JP2024017475A (ja) 2024-02-08

Family

ID=89806884

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022120126A Pending JP2024017475A (ja) 2022-07-28 2022-07-28 音声通信方式

Country Status (1)

Country Link
JP (1) JP2024017475A (ja)

Similar Documents

Publication Publication Date Title
US5815196A (en) Videophone with continuous speech-to-subtitles translation
US7124082B2 (en) Phonetic speech-to-text-to-speech system and method
US8447606B2 (en) Method and system for creating or updating entries in a speech recognition lexicon
Ince Digital Speech Processing: Speech Coding, Synthesis and Recognition
US7627471B2 (en) Providing translations encoded within embedded digital information
JPH10260692A (ja) 音声の認識合成符号化/復号化方法及び音声符号化/復号化システム
US20070118374A1 (en) Method for generating closed captions
US20100217591A1 (en) Vowel recognition system and method in speech to text applictions
US20070118364A1 (en) System for generating closed captions
JPS5919358B2 (ja) 音声内容伝送方式
US7912727B2 (en) Apparatus and method for integrated phrase-based and free-form speech-to-speech translation
JPS61252596A (ja) 文字音声通信方式及び装置
CN102903361A (zh) 一种通话即时翻译***和方法
CN111508501B (zh) 一种电话机器人中带口音的语音识别方法及***
JP3473204B2 (ja) 翻訳装置及び携帯端末装置
CN113488026A (zh) 基于语用信息的语音理解模型生成方法和智能语音交互方法
JP2024017475A (ja) 音声通信方式
JP2006319598A (ja) 音声通信システム
JPH0561637A (ja) 音声合成メールシステム
JPH10224520A (ja) マルチメディア公衆電話システム
KR20230080557A (ko) 보이스 교정 시스템
WO2014059585A1 (zh) 一种通话即时翻译***和方法
JPH03241399A (ja) 音声送受信装置
JP2006276470A (ja) 音声通話装置および音声通話システム
WO2001042875A2 (en) Language translation voice telephony