JP7436082B1 - 音声処理方法、音声処理装置、およびプログラム - Google Patents

音声処理方法、音声処理装置、およびプログラム Download PDF

Info

Publication number
JP7436082B1
JP7436082B1 JP2023179015A JP2023179015A JP7436082B1 JP 7436082 B1 JP7436082 B1 JP 7436082B1 JP 2023179015 A JP2023179015 A JP 2023179015A JP 2023179015 A JP2023179015 A JP 2023179015A JP 7436082 B1 JP7436082 B1 JP 7436082B1
Authority
JP
Japan
Prior art keywords
audio
waveform
display area
folder
file
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023179015A
Other languages
English (en)
Inventor
健太郎 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Azstoke
Original Assignee
Azstoke
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Azstoke filed Critical Azstoke
Priority to JP2023179015A priority Critical patent/JP7436082B1/ja
Application granted granted Critical
Publication of JP7436082B1 publication Critical patent/JP7436082B1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Circuit For Audible Band Transducer (AREA)

Abstract

【課題】音声コンテンツの多言語化にかかる労力を軽減するために有利な技術を提供する。【解決手段】音声処理方法は、第1フォルダに格納された第1音声ファイルに対応する第2音声ファイルを、第2フォルダからファイル名に基づいて検索する検索ステップと、前記第1音声ファイルの音声の波形である第1波形と、前記第2音声ファイルの音声の波形である第2波形とを、ディスプレイの表示領域に表示させる表示制御ステップと、前記第2音声ファイルの音声の音量が前記第1音声ファイルの音声の音量に近づくように前記第2音声ファイルの音声を処理する処理ステップとを有する。前記表示領域は、第1表示領域と該第1表示領域と並列に配置された第2表示領域とを含み、前記表示制御ステップは、前記第1波形を前記第1表示領域内に表示させ、前記第2波形を、前記第1方向に関して前記第1波形と重ならないように前記第2表示領域内に表示させる。【選択図】 図6

Description

本発明は、音声処理方法、音声処理装置、およびプログラムに関する。
音声を提供する設備、サービスにおいては、多言語に対応することが求められる場合がある(例えば、特許文献1参照)。また、各種音声が再生されるサービスにおいて各音声素材の再生音量にばらつきがあると聴取者が聞きづらい等の状況が生じうる。そのため、各音声素材の再生音量を一定に揃えることが必要とされる。音量感のばらつきを小さくするための尺度として、ラウドネス値が用いられる(例えば特許文献2参照)。
特開2018-060043号公報 特開2022-042892号公報
例えば、ゲーム開発の分野において、あるゲームを多言語化する場合、言語ごとに音量が大きく異ならないように信号レベルの調整を行う必要がある。ゲームでは多数の音声コンテンツがインストールされるため、各音声コンテンツについて言語間で音量が異ならないように調整する作業には多大な労力を要していた。
本発明は、音声コンテンツの多言語化にかかる労力を軽減するために有利な技術を提供することを目的とする。
本発明の一側面によれば、第1フォルダのフォルダパスである第1フォルダパスと、前記第1フォルダとは異なる第2フォルダのフォルダパスである第2フォルダパスとを取得する取得ステップと、前記第1フォルダパスによって特定される前記第1フォルダに格納された第1音声ファイルに対応する第2音声ファイルを、前記第2フォルダパスによって特定される前記第2フォルダからファイル名に基づいて検索する検索ステップと、前記第1音声ファイルの音声の波形である第1波形と、前記第2音声ファイルの音声の波形である第2波形とを、ディスプレイの表示領域に表示させる表示制御ステップと、前記第2音声ファイルの音声の音量が前記第1音声ファイルの音声の音量に近づくように前記第2音声ファイルの音声を処理する処理ステップと、を有し、前記表示領域は、第1表示領域と、時間軸と平行な第1方向と直交する第2方向に前記第1表示領域と並列に配置された第2表示領域とを含み、前記表示制御ステップは、前記第1波形を前記第1表示領域内に表示させる第1ステップと、前記第2波形を、前記第1方向に関して前記第1波形と重ならないように前記第2表示領域内に表示させる第2ステップと、を含む、ことを特徴とする音声処理方法が提供される。
本発明によれば、音声コンテンツの多言語化にかかる労力を軽減するために有利な技術を提供することができる。
実施形態に係る音声処理装置の構成を示すブロック図。 音声処理方法のフローチャート。 音声処理方法のフローチャート。 設定画面を例示する図。 音声の波形の表示例を示す図。 音声の波形の表示例を示す図。 音声の波形の表示例を示す図。
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではなく、また実施形態で説明されている特徴の組み合わせの全てが発明に必須のものとは限らない。実施形態で説明されている複数の特徴のうち二つ以上の特徴は任意に組み合わされてもよい。また、同一若しくは同様の構成には同一の参照番号を付し、重複した説明は省略する。
図1には、実施形態に係る音声処理装置Cの構成を示すブロック図が示されている。音声処理装置Cは、ファイルに記録された音声信号を表示し、音声信号に対して信号レベルの調整等の各種処理を行う装置である。
音声処理装置Cは、パーソナルコンピュータやワークステーション等のコンピュータ装置でありうる。音声処理装置Cは、装置全体の制御を司るCPU(中央処理装置)101、主記憶装置として機能すると共にCPU101のワークエリアを提供するRAM102、固定的なデータ及びプログラムを記憶するROM103を備える。また、音声処理装置Cは、オーディオインタフェース(I/F)104を備える。オーディオインタフェース104には、マイクロホンM、スピーカSが接続されうる。音声処理装置Cには、インタフェース(I/F)105を介して外部記憶装置110が接続される。外部記憶装置110は、例えば、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、またはそれらの組み合わせでありうる。なお、外部記憶装置110は、二次記憶装置として音声処理装置Cの内部に構成されてもよい。ネットワークインタフェース106は、ネットワークNと接続して通信を行う。音声処理装置Cは、例えば、ネットワークNを介して、サーバAと通信可能に接続されうる。
音声処理装置Cには、インタフェース107を介して、キーボード、マウス等の入力装置が接続されうる。また、音声処理装置Cには、インタフェース108を介して、CD-ROMドライブ、DVDドライブ等の外部メディア装置Fが接続されうる。さらに、音声処理装置Cは、ビデオコントローラ109を備える。ビデオコントローラ109は、表示装置(ディスプレイ)Dによる画像表示を制御する。
音声処理装置Cを起動するためのブートプログラムはROM103に記憶されている。また、図1に示すように、外部記憶装置110には、オペレーティングシステム(OS)111をはじめ、オーディオ信号処理を行うための信号処理プログラム112、1つ以上の音声ファイル113がインストールされうる。音声ファイル113は、ネットワークNを介してサーバA等の外部装置から供給されてもよいし、外部メディア装置Fに収容されたメディアから供給されてもよい。あるいは、音声ファイル113は、マイクロホンMにより収音された音響から作成されたものであってもよい。
音声ファイル113は、音声コンテンツが記録された音声ファイルである。一例において、音声ファイル113のファイル形式は、パーソナルコンピュータにおいて一般的に利用されるWAVEファイル形式でありうる。WAVEファイルは、ヘッダと、オーディオ信号のデータとを含みうる。ヘッダは、モノラル/ステレオの種別、サンプリング周波数、量子化ビット数等の情報を含みうる。なお、音声ファイル113のファイル形式はWAVEファイル形式に限定されない。音声ファイル113のファイル形式は、WAVEファイル形式以外の形式、例えば、AIFF、MP3、AAC等の形式であってもよい。
例えば、ゲーム開発の分野において、あるゲームを多言語化する場合、言語ごとに音量が大きく異ならないように信号レベルの調整を行う必要がある。本実施形態は、各音声コンテンツについて言語間で音量が異ならないように調整する作業を容易にするものである。本実施形態では、第1言語の音声が記録された音声ファイルに対応する第2言語の音声が記録された音声ファイルを自動的に検索し、両音声ファイルの音声の波形をディスプレイDの表示領域に表示し、音声処理を実行する。第2言語は第1言語とは異なる言語である。第1言語は例えば日本語であり、第2言語は例えば英語でありうる。もちろん第1言語および第2言語は特定の言語に限定されるものではなく任意の言語でありうる。第2言語の音声は、第1言語の音声に対する吹き替え音声である。
図2には、音声処理装置Cにおける音声処理方法のフローチャートが示されている。このフローチャートに対応するプログラムは信号処理プログラム112に含まれ、CPU101によって実行される。
ステップS11で、CPU101は、第1言語の音声が記録された1つ以上の音声ファイル(第1音声ファイル)が格納されている第1フォルダのフォルダパス(第1フォルダパス)を取得する。「フォルダパス」とは、ファイルシステム上の特定のフォルダ(ディレクトリ)の所在を示す情報をいう。第1フォルダパスは、図4に示されるような、ディスプレイDに表示される設定画面40を介してユーザにより指定される。ユーザは、設定画面40における第1言語フォルダパス指定欄41に対して第1フォルダパスを指定することができる。一例において、ユーザが第1言語フォルダパス指定欄41をマウスクリックすると、フォルダ選択用ダイアログが表示される。ユーザは、そのダイアログを介して第1フォルダパスを指定することができる。
ステップS12で、CPU101は、第2言語の音声が記録された1つ以上の音声ファイル(第2音声ファイル)が格納されている第2フォルダのフォルダパス(第2フォルダパス)を取得する。第2フォルダパスは、第1フォルダパスの指定と同様、設定画面40を介してユーザにより指定される。ユーザは、設定画面40における第2言語フォルダパス指定欄42に対して第2フォルダパスを指定することができる。一例において、ユーザが第2言語フォルダパス指定欄42をマウスクリックすると、フォルダ選択用ダイアログが表示される。ユーザは、そのダイアログを介して第2フォルダパスを指定することができる。
ステップS2で、CPU101は、第1フォルダパスによって特定される第1フォルダに格納されている第1音声ファイルに対応する第2音声ファイルを、第2フォルダパスによって特定される第2フォルダから検索する。一例において、検索はファイル名に基づいて行われる。例えば、第1音声ファイルと、当該第1音声ファイルの他言語バージョンである第2音声ファイルとには、同一のファイル名が付与される。この場合、第1フォルダに格納されている第1音声ファイルと同一のファイル名をもつ第2音声ファイルが、第2フォルダから検索されることになる。
ステップS3で、CPU101は、第1音声ファイルの音声の波形である第1波形と、検索により得られた第2音声ファイルの音声の波形である第2波形とを、ディスプレイDの表示領域に表示させる表示制御を行う。図5には、第1波形および第2波形の表示例が示されている。表示される波形は時間領域波形である。したがって、波形の横軸は時間軸であり、縦軸は信号レベルを示している。ここで、時間軸と平行な方向を第1方向、第1方向と直交する方向を第2方向とする。ディスプレイDの表示領域Rは、第1表示領域R1と、第2方向に第1表示領域R1と並列に配置された第2表示領域R2とを含む。なお、表示領域R、第1表示領域R1、第2表示領域R2の枠線は、表示されてもよいし、表示されなくてもよい。表示制御手段としてのCPU101は、第1音声ファイルの音声の例えば全区間の波形である第1波形W1を第1表示領域R1内に表示させる(第1ステップ)。また、CPU101は、第2音声ファイルの音声の例えば全区間の波形である第2波形W2を第2表示領域R2内に表示させる(第2ステップ)。このとき、CPU101は、第2波形W2を、第1方向に関して第1波形W1と重ならないように第2表示領域R2内に表示させるように、ディスプレイDへの波形表示を制御する。例えば、第2波形W2は、図5に示すように、第1波形W1の終端から所定の時間インターバルGを設けて第2表示領域R2内に表示される。所定の時間インターバルGは、図4の設定画面40の波形間隔入力欄43においてユーザにより指定された時間に設定されうる(後述する図3のステップS13を参照)。
ステップS4では、CPU101は、第2音声ファイルの音声の音量が第1音声ファイルの音量に近づくように第2音声ファイルの音声を処理する(音量調整処理)。第1言語の音声の収録環境と、吹き替え音声である第2言語の音声の収録環境は同じではないことが多い。よって一般には、第1言語の音声が記録された第1音声ファイルと、第1音声ファイルとは異なる環境で第2言語の音声が記録された第2音声ファイルは、別々のメディアで提供される。収録環境の違いは、知覚される再生音量の違いとなって現れる。したがって、第1音声ファイルの音声と第2音声ファイルの音声とを同じボリュームで再生した場合、知覚される再生音量に好ましくないばらつきが生じうる。本実施形態における音量調整処理では、第1言語の音声を主音声、第2言語の音声を副音声とし、副音声の音量レベルを主音声の音量レベルに対して正規化することを考える。
本明細書において、「音量」の用語は広義に捉えられるべきである。音量の尺度としては、例えば、RMS(Root Mean Square)が使用されうる。あるいは、音量の尺度(指標)としては、人間の聴覚特性が考慮されたラウドネスが使用されうる。ラウドネス値は、例えばLUFS(Loudness Units Full Scale)またはLKFS(Loudness K-Weighted Full Scale)の単位で表される。本実施形態では、音量の尺度としてラウドネスが採用されることが想定されている。例えばゲーム開発の分野においては、音声コンテンツの音量がラウドネス規格等で定義されたLUFSレベル内に収まるように指定されている。ここでは、第1音声ファイルの音声の音量はそのような指定に従って調整がされているものとする。
なお、図4の設定画面40では、ユーザは、ラウドネス設定欄45に、ラウドネスの測定方法を指定することができる。ラウドネスの測定方法として、例えば、MaxMomentary、MaxShort-Term、Integratedのうちのいずれかを選択することができる。MaxMomentaryとは、時間軸上を所定時間スライドさせて得られる複数の測定窓(400msec長)のそれぞれでラウドネス計算を行い、そのうちの最大値をラウドネス値として採用するものをいう。MaxShort-Termとは、時間軸上を所定時間スライドさせて得られる複数の測定窓(3sec長)のそれぞれでラウドネス計算を行い、そのうちの最大値をラウドネス値として採用するものをいう。Integratedとは、音源全体のラウドネスを計測するものをいう。図4の例では、MaxMomentaryが選択されている。さらに、上記した特定の測定窓長ではなく、任意の測定窓長さを指定できるようになっていてもよい。また、図4の設定画面40では、ユーザは、ターゲットラウドネス設定欄46に、ラウドネス調整の目標(ターゲット)を指定することができる。その選択肢としては、第1言語音声(第1音声ファイルの音声)、ラウドネス規格で定義されたラウドネス値等がありうる。図4の例では、第1言語音声が指定されている。この場合、音量調整処理(ステップS4)では、副音声である第2言語の音声のラウドネスが、主音声である第1言語の音声のラウドネスを基準に正規化される。なお、ラウドネス測定の詳細は、例えば特開2022-042892号公報(特許文献2)に記載されている。
以上の処理によれば、第1言語の音声が記録された第1音声ファイルに対応する、第2言語の音声が記録された第2音声ファイルが自動的に検索され、第1音声ファイルの音声の波形である第1波形と第2音声ファイルの音声の波形である第2波形とが表示領域に並列に表示され、第2音声ファイルの音声のラウドネス値が第1音声ファイルの音声のラウドネス値と同等になるように調整される。
第2音声ファイルの音声に対してラウドネス調整が行われる前に、オプションとして、ダイナミック・コンプレッションが行われてもよい。音声ファイル間の再生音量のばらつきが大きい場合がある。そのまま音源の音量を調整しない場合には、ある音声の再生音量が小さすぎあるいは大きすぎとなり聞きにくい状況となりうる。そのため、各音源の信号レベルを揃える必要がある。ダイナミックレンジ・コンプレッションは、そのような音声間の信号レベルを一定に揃えるために実施される。ダイナミックレンジ・コンプレッションは、一般に、信号レベルのピークを含む部分を抑圧し、信号レベルの低い部分を増大させる処理を含む。ただし、信号レベルを単に一定にすればよいわけではない。人の発話音の場合、ある程度抑揚がないと圧縮された感じが強くなる。そのため、ダイナミックレンジ・コンプレッションでは、圧縮対象を定めるための信号レベルのスレッショルドが適切に設定される必要がある。
ダイナミックレンジ・コンプレッションは、エンベロープ上に配置された複数の調整ポイントのうちの任意の調整ポイントを動かすことにより、ユーザが手動で行うこともできる(手動コンプ)。しかし、手動コンプを全ての音声に対して行うのには多大な労力を要する。そこで、音声ファイルの全体に対してダイナミックレンジ・コンプレッションを自動で行うことも可能である。ダイナミックレンジ・コンプレッションを自動で行うことを、ここでは「自動コンプ」と称する。
自動コンプは、例えば次のような処理を含みうる。対象の音声ファイルの音声信号は複数のフレームで構成されている。まず、音声信号のエンベロープを取得する。次に、フレーム毎のエンベロープのピーク値を検出し、検出されたフレーム毎のピーク値の平均値(第1平均値)を算出する。次に、第1平均値よりも高いピーク値を検出し、それらの平均値(第2平均値)を算出する。そして、第2平均値よりも高いピーク値のうちの少なくとも一部が抑制されるようにエンベロープを調整する。なお、このような自動コンプの処理方法は一例ですぎず、他の処理方法によって実現されてもよい。
本実施形態では、ユーザは、第2音声ファイルに対して自動コンプを適用するかしないかを指定することができる。図4の設定画面40には、第2音声ファイルに対する自動コンプの実行を指示する自動コンプ設定欄44が設けられている。自動コンプ設定欄44には例えばチェックボックスが用意されていて、そこにチェックを入れることで自動コンプの実行が指定される。図4の例では自動コンプ設定欄44にチェックが入っている。この場合、ステップS4の音量調整処理では、第2音声ファイルの音声のダイナミックレンジ・コンプレッションが実行され、その後、第1音声ファイルの音声のラウドネス値に基づいて、ダイナミックレンジ・コンプレッションが行われた複数の第2音声ファイルの音声のラウドネス値が調整される。
第2表示領域R2内の第2波形W2の表示は、ステップS4で処理された第2音声ファイルの音声の波形によって更新されうる。
以上では、本発明の概略理解のために説明を簡単にするべく、1つの第1音声ファイルとそれに対応する1つの第2音声ファイルについて説明した。しかし実際には、第1フォルダには複数の第1音声ファイルが格納され、第2フォルダには複数の第2音声ファイルが格納されうる。以下では、複数の第1音声ファイルおよび複数の第2音声ファイルを自動で処理する音声処理方法について説明する。
図3には、音声処理装置Cにおける、複数の音声ファイルを処理する音声処理方法のフローチャートが示されている。このフローチャートに対応するプログラムは信号処理プログラム112に含まれ、CPU101によって実行される。図3では、図2のフローチャートと同じ処理ブロックには同じ参照符号が付されている。それらの処理内容については適宜説明を省略または簡略化する。
ステップS11で、CPU101は、第1言語の音声が記録された1つ以上の音声ファイル(第1音声ファイル)が格納されている第1フォルダのフォルダパス(第1フォルダパス)を取得する。第1フォルダパスは、図4に示されるような、ディスプレイDに表示される設定画面40を介してユーザにより指定される。ユーザは、設定画面40における第1言語フォルダパス指定欄41に対して第1フォルダパスを指定することができる。
ステップS12で、CPU101は、第2言語の音声が記録された1つ以上の音声ファイル(第2音声ファイル)が格納されている第2フォルダのフォルダパス(第2フォルダパス)を取得する。第2フォルダパスは、第1フォルダパスの指定と同様、設定画面40を介してユーザにより指定される。ユーザは、設定画面40における第2言語フォルダパス指定欄42に対して第2フォルダパスを指定することができる。
ステップS13で、CPU101は、図4の設定画面40の波形間隔入力欄43においてユーザにより指定された時間に基づいて、第1波形と第2波形との間の時間インターバル(波形間隔)を取得する。
ステップS2で、CPU101は、第1フォルダパスによって特定される第1フォルダに格納されている第1音声ファイルに対応する第2音声ファイルを、第2フォルダパスによって特定される第2フォルダから検索する。図3の例では、ステップS2は、ステップS21~S23の処理を含む。ステップS21では、CPU101は、第1フォルダから複数の第1音声ファイルのうちの1つを取得(選択)する。ステップS22で、CPU101は、取得された第1音声ファイルと同一のファイル名をもつ第2音声ファイルを第2フォルダから検索する。第1音声ファイルと同一のファイル名をもつ第2音声ファイルが第2フォルダに存在する場合、処理はステップS3に進む。第1音声ファイルと同一のファイル名をもつ第2音声ファイルが第2フォルダにない場合、処理はステップS23に進む。
ステップS3で、CPU101は、第1音声ファイルの音声の波形である第1波形と、検索により得られた第2音声ファイルの音声の波形である第2波形とを、ディスプレイDの表示領域に表示させる表示制御を行う。表示制御手段としてのCPU101は、図6に示すように、第1音声ファイルの音声の波形である第1波形W11を第1表示領域R1内に表示させる。また、CPU101は、第2音声ファイルの音声の波形である第2波形W21を第2表示領域R2内に表示させる。このとき、第2波形W21は、第1波形W11の終端からS13で取得された波形間隔に従う時間インターバルを設けて第2表示領域R2内に表示される。
ステップS23で、CPU101は、第1フォルダ内に他の第1音声ファイルがあるかどうかを判定する。第1フォルダ内に他の第1音声ファイルがある場合、処理はステップS21に戻り、当該他の第1音声ファイルを対象として処理が繰り返される。CPU101は、図6に示すように、第1音声ファイルの音声の波形である第1波形W12を、第1表示領域R1内に表示させる。このとき、第1波形W12は、第2波形W21の終端からS13で取得された波形間隔に従う時間インターバルを設けて第1表示領域R1内に表示される。また、CPU101は、第2音声ファイルの音声の波形である第2波形W22を第2表示領域R2内に表示させる。このとき、第2波形W22は、第1波形W12の終端からS13で取得された波形間隔に従う時間インターバルを設けて第2表示領域R2内に表示される。図6には、第1フォルダ内に第1音声ファイルが3つある場合の表示例が示されている。この場合、第1波形W13は、第2波形W22の終端からS13で取得された波形間隔に従う時間インターバルを設けて第1表示領域R1内に表示される。また、第2波形W23は、第1波形W13の終端からS13で取得された波形間隔に従う時間インターバルを設けて第2表示領域R2内に表示される。
ステップS23において、第1フォルダ内の全ての第1音声ファイルに対する検索および表示制御が完了したと判定された場合、処理はステップS4に進む。ステップS4では、CPU101は、表示された各第2音声ファイルの音声に対して音量調整処理を実行する。
このように、第1フォルダに複数の第1音声ファイルが格納されている場合、当該複数の第1音声ファイルのそれぞれに対して、検索および表示制御が繰り返し実行される。繰り返し実行された表示制御ステップ(S3)により、第1波形と第2波形が時間軸に沿って交互に並ぶように、複数の第1波形(W11、W12、W13)および複数の第2波形(W21、W22、W23)がそれぞれ第1表示領域R1内および第2表示領域R2内に表示される。
これにより、複数の第1音声ファイルに対応する複数の第2音声ファイルが自動的に検索され、それらの音声が並列に表示され、さらにラウドネス調整が行われる。従来、ユーザは、第1音声ファイルに対応する第2音声ファイルをファイルリストから探し出し、見つかった第2音声ファイルを1つずつ手動で指定して表示させる必要があった。そして、ユーザは、表示された第1波形と第2波形とを聴き比べてあるいは見比べて、主観的に音量調整のための操作を行う必要があった。本実施形態によれば、それらが全て自動化されるため、ユーザの作業負担を大幅に軽減することができる。
第2音声ファイルの音声に対してラウドネス調整が行われる前に、オプションとして、ダイナミック・コンプレッションが行われてもよい。図4の自動コンプ設定欄44にチェックが入っている場合、ステップS4の音量調整処理では、複数の第2音声ファイルの音声のダイナミックレンジ・コンプレッション(自動コンプ)が実行され、その後、複数の第1音声ファイルの音声のラウドネス値に基づいて、ダイナミックレンジ・コンプレッションが行われた複数の第2音声ファイルの音声のラウドネス値が調整される。
図7には、図6の変形例が示されている。図7において、表示領域Rは、第2方向に第1表示領域R1および第2表示領域R2と並列に配置された第3表示領域R3を更に含む。図7に示す例では、第3表示領域R3は、第2表示領域R2の下方に配置されている。CPU101は、複数の第2音声ファイルの音声に対してダイナミックレンジ・コンプレッション(自動コンプ)およびラウドネス値の調整が行われた後に新たに書き出して得られた複数の第3波形W31、W32、W33を、第1方向に関して複数の第2波形W21、W22、W23と重なるように第3表示領域R3内に表示させる(第3ステップ)。また、図7に示すように、複数の第2波形W21、W22、W23のそれぞれには、信号レベルを調整するために自動コンプにおいて得られたエンベロープ上に離散的に配置された複数の調整ポイントPが表示されていてもよい。ユーザは、手動で、例えば、任意の調整ポイントをマウスでドラッグすることにより、当該位置の信号レベルを調整することができる。手動で信号レベルが調整された場合、および/または、ラウドネス調整が再度行われた場合には、その結果が更に反映されるように第3表示領域R3の波形が更新されうる。なお、上述した波形の表示態様は一例にすぎないものであって、その他の表示態様が採用されてもよい。
本発明は、上述の実施形態で説明した音声処理方法の各ステップを実行させるためのプログラムを、コンピュータに実行させることによっても実施されうる。
発明は上記の実施形態に制限されるものではなく、発明の要旨の範囲内で、種々の変形・変更が可能である。
A:サーバ、C:音声処理装置、D:ディスプレイ、K:入力装置、101:CPU、112:信号処理プログラム

Claims (14)

  1. 第1フォルダのフォルダパスである第1フォルダパスと、前記第1フォルダとは異なる第2フォルダのフォルダパスである第2フォルダパスとを取得する取得ステップと、
    前記第1フォルダパスによって特定される前記第1フォルダに格納された第1音声ファイルに対応する第2音声ファイルを、前記第2フォルダパスによって特定される前記第2フォルダからファイル名に基づいて検索する検索ステップと、
    前記第1音声ファイルの音声の波形である第1波形と、前記第2音声ファイルの音声の波形である第2波形とを、ディスプレイの表示領域に表示させる表示制御ステップと、
    前記第2音声ファイルの音声の音量が前記第1音声ファイルの音声の音量に近づくように前記第2音声ファイルの音声を処理する処理ステップと、
    を有し、
    前記表示領域は、第1表示領域と、時間軸と平行な第1方向と直交する第2方向に前記第1表示領域と並列に配置された第2表示領域とを含み、
    前記表示制御ステップは、
    前記第1波形を前記第1表示領域内に表示させる第1ステップと、
    前記第2波形を、前記第1方向に関して前記第1波形と重ならないように前記第2表示領域内に表示させる第2ステップと、
    を含む、ことを特徴とする音声処理方法。
  2. 前記第2ステップは、前記第2波形を、前記第1波形の終端から所定の時間インターバルを設けて前記第2表示領域内に表示させるステップを含む、ことを特徴とする請求項1に記載の音声処理方法。
  3. 前記所定の時間インターバルを、ユーザにより指定された時間に設定する設定ステップを更に有する、ことを特徴とする請求項2に記載の音声処理方法。
  4. 前記音量の尺度はラウドネス値である、ことを特徴とする請求項1に記載の音声処理方法。
  5. 前記処理ステップは、
    前記第2音声ファイルの音声のダイナミックレンジ・コンプレッションを行うステップと、
    前記第1音声ファイルの音声のラウドネス値に基づいて、前記ダイナミックレンジ・コンプレッションが行われた前記第2音声ファイルの音声のラウドネス値を調整するステップと、
    を含む、ことを特徴とする請求項4に記載の音声処理方法。
  6. 前記第2表示領域内の前記第2波形の表示を、前記処理ステップで処理された前記第2音声ファイルの音声の波形によって更新するステップを更に有することを特徴とする請求項1に記載の音声処理方法。
  7. 前記第1音声ファイルは、第1言語の音声が記録された音声ファイルであり、
    前記第2音声ファイルは、前記第1言語とは異なる第2言語の音声が記録された音声ファイルであり、
    前記第2言語の音声は、前記第1言語の音声に対する吹き替え音声である、
    ことを特徴とする請求項1に記載の音声処理方法。
  8. 前記第1フォルダに複数の第1音声ファイルが格納されている場合、前記複数の第1音声ファイルのそれぞれに対して、前記検索ステップおよび前記表示制御ステップが繰り返し実行され、
    前記繰り返し実行された表示制御ステップにより、第1波形と第2波形が時間軸に沿って交互に並ぶように、複数の第1波形および複数の第2波形がそれぞれ前記第1表示領域内および前記第2表示領域内に表示される、
    ことを特徴とする請求項1に記載の音声処理方法。
  9. 前記検索ステップおよび前記表示制御ステップが繰り返し実行された後、前記複数の第1音声ファイルに対応する複数の第2音声ファイルに対して前記処理ステップが実行される、ことを特徴とする請求項8に記載の音声処理方法。
  10. 前記処理ステップは、
    前記複数の第2音声ファイルの音声のダイナミックレンジ・コンプレッションを行うステップと、
    前記複数の第1音声ファイルの音声のラウドネス値に基づいて、前記ダイナミックレンジ・コンプレッションが行われた前記複数の第2音声ファイルの音声のラウドネス値を調整するステップと、
    を含む、ことを特徴とする請求項9に記載の音声処理方法。
  11. 前記表示領域は、前記第2方向に前記第1表示領域および前記第2表示領域と並列に配置された第3表示領域を更に含み、
    前記表示制御ステップは、前記ダイナミックレンジ・コンプレッションおよび前記ラウドネス値の調整が行われた結果が反映された音声の波形である第3波形を、前記第1方向に関して前記第2波形と重なるように前記第3表示領域内に表示させる第3ステップを更に含む、
    ことを特徴とする請求項10に記載の音声処理方法。
  12. 前記第3表示領域内の前記第3波形の表示を、更にラウドネス値の調整が行われた前記複数の第2音声ファイルの音声の波形によって更新するステップを更に有することを特徴とする請求項11に記載の音声処理方法。
  13. 第1フォルダのフォルダパスである第1フォルダパスと、前記第1フォルダとは異なる第2フォルダのフォルダパスである第2フォルダパスとを取得する取得手段と、
    前記第1フォルダパスによって特定される前記第1フォルダに格納された第1音声ファイルに対応する第2音声ファイルを、前記第2フォルダパスによって特定される前記第2フォルダからファイル名に基づいて検索する検索手段と、
    前記第1音声ファイルの音声の波形である第1波形と、前記第2音声ファイルの音声の波形である第2波形とを、ディスプレイの表示領域に表示させる表示制御手段と、
    前記第2音声ファイルの音声の音量が前記第1音声ファイルの音声の音量に近づくように前記第2音声ファイルの音声を処理する処理手段と、
    を有し、
    前記表示領域は、第1表示領域と、時間軸と平行な第1方向と直交する第2方向に前記第1表示領域と並列に配置された第2表示領域とを含み、
    前記表示制御手段は、前記第1波形を前記第1表示領域内に表示させ、前記第2波形を、前記第1方向に関して前記第1波形と重ならないように前記第2表示領域内に表示させるように、前記ディスプレイへの波形表示を制御する、
    ことを特徴とする音声処理装置。
  14. コンピュータに、請求項1から12のいずれか1項に記載の音声処理方法における各ステップを実行させる、ことを特徴とするプログラム。
JP2023179015A 2023-10-17 2023-10-17 音声処理方法、音声処理装置、およびプログラム Active JP7436082B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023179015A JP7436082B1 (ja) 2023-10-17 2023-10-17 音声処理方法、音声処理装置、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023179015A JP7436082B1 (ja) 2023-10-17 2023-10-17 音声処理方法、音声処理装置、およびプログラム

Publications (1)

Publication Number Publication Date
JP7436082B1 true JP7436082B1 (ja) 2024-02-21

Family

ID=89904422

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023179015A Active JP7436082B1 (ja) 2023-10-17 2023-10-17 音声処理方法、音声処理装置、およびプログラム

Country Status (1)

Country Link
JP (1) JP7436082B1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013235632A (ja) 2012-05-09 2013-11-21 Renesas Electronics Corp オーディオ再生装置、その再生方法及び再生プログラム
JP2020067531A (ja) 2018-10-23 2020-04-30 株式会社コーエーテクモゲームス プログラム、情報処理方法、及び情報処理装置
WO2022030259A1 (ja) 2020-08-04 2022-02-10 ソニーグループ株式会社 信号処理装置および方法、並びにプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013235632A (ja) 2012-05-09 2013-11-21 Renesas Electronics Corp オーディオ再生装置、その再生方法及び再生プログラム
JP2020067531A (ja) 2018-10-23 2020-04-30 株式会社コーエーテクモゲームス プログラム、情報処理方法、及び情報処理装置
WO2022030259A1 (ja) 2020-08-04 2022-02-10 ソニーグループ株式会社 信号処理装置および方法、並びにプログラム

Similar Documents

Publication Publication Date Title
US9530396B2 (en) Visually-assisted mixing of audio using a spectral analyzer
US10559323B2 (en) Audio and video synchronizing perceptual model
JP6201460B2 (ja) ミキシング管理装置
CN109982231B (zh) 一种信息处理方法、设备及存储介质
US20190377540A1 (en) Calibrating audio output device with playback of adjusted audio
CN108829370B (zh) 有声资源播放方法、装置、计算机设备及存储介质
JP7436082B1 (ja) 音声処理方法、音声処理装置、およびプログラム
JP4274419B2 (ja) 音響信号除去装置、音響信号除去方法及び音響信号除去プログラム
JP7194559B2 (ja) プログラム、情報処理方法、及び情報処理装置
US9445210B1 (en) Waveform display control of visual characteristics
US20180070175A1 (en) Management device and sound adjustment management method, and sound device and music reproduction method
EP3920049A1 (en) Techniques for audio track analysis to support audio personalization
JP7515220B1 (ja) 音声処理装置、音声処理方法、およびプログラム
JP7461090B1 (ja) 音声処理装置、音声処理方法、およびプログラム
JP2023521849A (ja) オーディオディスクリプションの自動ミキシング
KR20210042851A (ko) 오디오 인식 방법, 오디오 인식 장치, 전자 장비, 컴퓨터 판독가능 저장 매체 및 컴퓨터 프로그램
KR101964359B1 (ko) 딥러닝용 오디오 데이터 생성방법 및 장치
US11601752B2 (en) Sound quality enhancement and personalization
US20240194199A1 (en) Information processing device
JP6440565B2 (ja) 音楽再生装置及び音楽再生方法
JP7446653B1 (ja) 調整装置、およびプログラム
WO2014142201A1 (ja) 分離用データ処理装置およびプログラム
GB2599742A (en) Personalised audio output
US20150016631A1 (en) Dynamic tail shortening
JP4275054B2 (ja) 音声信号判別装置、音質調整装置、放送受信機、プログラム、及び記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231017

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20231017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240201

R150 Certificate of patent or registration of utility model

Ref document number: 7436082

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350