JP2013134475A - 表示制御装置及びプログラム - Google Patents

表示制御装置及びプログラム Download PDF

Info

Publication number
JP2013134475A
JP2013134475A JP2011286727A JP2011286727A JP2013134475A JP 2013134475 A JP2013134475 A JP 2013134475A JP 2011286727 A JP2011286727 A JP 2011286727A JP 2011286727 A JP2011286727 A JP 2011286727A JP 2013134475 A JP2013134475 A JP 2013134475A
Authority
JP
Japan
Prior art keywords
attribute
data
display control
display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011286727A
Other languages
English (en)
Other versions
JP5811837B2 (ja
Inventor
Osamu Oshima
治 大島
Tadashi Nagata
資司 永田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2011286727A priority Critical patent/JP5811837B2/ja
Priority to EP12199160.8A priority patent/EP2610859B1/en
Priority to KR1020120151892A priority patent/KR101521451B1/ko
Priority to TW101149621A priority patent/TWI492216B/zh
Priority to US13/727,412 priority patent/US9639966B2/en
Priority to CN201210580106.4A priority patent/CN103187046B/zh
Publication of JP2013134475A publication Critical patent/JP2013134475A/ja
Priority to HK13110960.0A priority patent/HK1183739A1/zh
Application granted granted Critical
Publication of JP5811837B2 publication Critical patent/JP5811837B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B31/00Arrangements for the associated working of recording or reproducing apparatus with related apparatus
    • G11B31/02Arrangements for the associated working of recording or reproducing apparatus with related apparatus with automatic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • G10H2220/015Musical staff, tablature or score displays, e.g. for score reading during a performance.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Auxiliary Devices For Music (AREA)
  • Digital Computer Display Output (AREA)

Abstract

【課題】音声の複数の属性を把握し易い態様で表示することを目的とする。
【解決手段】カラオケ装置100の制御部10は、音声データを解析してピッチと音量を取得し、取得したピッチと音量を表す図形を表示部40に表示する。このとき、制御部10は、縦軸方向にピッチの大きさが示されるとともに横軸に時間の経過が示されるピッチ曲線を表示部40に表示するとともに、縦軸方向における幅が音量の大きさを表す音量図形を、ピッチ曲線の表示位置を基準とした位置に表示する。
【選択図】図2

Description

本発明は、表示制御装置及びプログラムに関する。
カラオケ装置においては、歌唱者の歌唱の巧拙を採点する機能を備えたものが種々提案されている。このような装置において、楽曲の旋律を歌唱者に理解し易く提示したり、また、歌唱者に自身の歌唱内容を確認させたりすることを目的として、楽曲の旋律や歌唱者の歌唱を図形化して表示する機能が提案されている。また、例えば、特許文献1には、楽曲のメロディを表す音符を五線譜上に表示するとともに、各音符に、音量の変化やピッチの変化を表す図形を表示する技術が提案されている。
特開2004−139124号公報
ところで、人の音声はピッチや音量が常に変化するため、このような音声を表示する場合は音声について複数の属性(例えば、ピッチと音量)を同時に表現することが好ましい。しかしながら、特許文献1に記載の技術では、ひとつの音符に対し、ひとつの付加情報(属性)しか表現できず、複数の属性(例えば、音量とピッチ)を同時に表現することができなかった。
本発明は上述の背景に鑑みてなされたものであり、音声の複数の属性を把握し易い態様で表示することを目的とする。
上述した課題を解決するために、本発明は、音声データの2以上の属性を示す属性データを受け取る受取部と、前記受取部が受け取った属性データの示す2以上の属性の値の時間的な変化を表示部に表示する表示制御部であって、第1の属性の値を時間の経過を示す第1の軸と交差する第2の軸に沿った方向の座標によって表し、当該座標に応じた位置に、前記第2の軸方向の長さとして第2の属性の値を表す第1の図形を表示する表示制御部とを具備することを特徴とする表示制御装置を提供する。
本発明の好ましい態様において、前記表示制御部は、前記第1の軸と前記第2の軸とによって示される前記第1の属性の値を表す座標に第2の図形を表示してもよい。
また、本発明の更に好ましい態様において、前記表示制御部は、前記第1の図形を、前記第2の軸方向における前記第1の属性の座標が該第1の図形の中心座標、上端座標又は下端座標となるように表示してもよい。
また、本発明の更に好ましい態様において、模範となる音の前記第1の属性を示す模範属性データを受け取る第2の受取部を備え、前記表示制御部は、前記第2の受取部が受け取った前記模範属性データの示す属性を表す図形を、前記第1の軸及び前記第2の軸に従った座標に表示してもよい。
また、本発明は、コンピュータに、音声データの2以上の属性を示す属性データを受け取る受取機能と、前記受け取った属性データの示す2以上の属性の値の時間的な変化を表示部に表示する表示制御機能であって、第1の属性の値を時間の経過を示す第1の軸と交差する第2の軸に沿った方向の座標によって表し、当該座標に応じた位置に、前記第2の軸方向の長さとして第2の属性の値を表す第1の図形を表示する表示制御機能とを実現させるためのプログラムを提供する。
本発明によれば、音声の複数の属性を把握し易い態様で表示することができる。
本発明の実施形態におけるシステムの構成図 カラオケ装置のハードウェア構成を表すブロック図 カラオケ装置の機能的構成の一例を示すブロック図 採点部の機能的構成の一例を示すブロック図 表示部に表示される画面の一例を示す図 制御部が行う処理の流れを示すフロー図 表示部に表示される画面の一例を示す図 表示部に表示される画面の一例を示す図 表示部に表示される画面の一例を示す図
<実施形態>
<構成>
図1は、本発明の実施形態におけるシステムの構成を表した図である。このシステムは、カラオケ装置100と、サーバ装置200と、ネットワークNWとを有する。カラオケ装置100は、ユーザからの要求に従ってカラオケ楽曲を再生するとともに、再生されるカラオケ楽曲についてのユーザによる歌唱を評価する装置である。カラオケ装置100は本発明に係る表示制御装置の一例である。ネットワークNWはLAN(Local Area Network)やインターネットであり、カラオケ装置100とサーバ装置200との間におけるデータ通信が行われる通信網である。サーバ装置200は、その内部あるいは外部に備えたHDD(Hard Disk Drive)等の記憶手段に、カラオケ楽曲に関するコンテンツデータ等の各種データを記憶しており、カラオケ装置100からの要求に従って、ネットワークNW経由でこのコンテンツデータをカラオケ装置100に供給する装置である。ここで、コンテンツとは、カラオケ楽曲に関する音声と映像との組み合わせを指す。すなわち、コンテンツデータとは、主旋律の歌声が存在せず伴奏やコーラスで構成されたいわゆる伴奏データと、この楽曲の歌詞や歌詞の背景に表示する映像からなる映像データとから成り立っている。なお、サーバ装置200に対してカラオケ装置100は複数存在してもよい。また、カラオケ装置100に対してサーバ装置200が複数存在してもよい。
図2は、カラオケ装置100のハードウェア構成を表したブロック図である。カラオケ装置100は、制御部10、記憶部20、操作部30、表示部40、通信制御部50、音声処理部60、マイクロホン61、及びスピーカ62を有し、これら各部がバス70を介して接続されている。制御部10は、CPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)等を有している。制御部10において、CPUが、ROMや記憶部20に記憶されているコンピュータプログラムを読み出しRAMにロードして実行することにより、カラオケ装置100の各部を制御する。
操作部30は、各種の操作子を備え、ユーザによる操作内容を表す操作信号を制御部10に出力する。表示部40は、例えば液晶パネルを備え、制御部10による制御の下、各カラオケ楽曲に応じた歌詞テロップや背景映像等の各種画像を表示する。通信制御部50は、カラオケ装置100とネットワークNWとを有線あるいは無線で接続し、ネットワークNWを介したカラオケ装置100とサーバ装置200との間のデータ通信を制御する。
サーバ装置200は、図示せぬCPUや各種メモリを備えたコンピュータであり、特にネットワークストレージ210を備えている。ネットワークストレージ210は例えばHDDであり、カラオケ楽曲のコンテンツデータ等の各種データを記憶する。図2においてサーバ装置200は1つのネットワークストレージ210を備えているが、ネットワークストレージの数はこれに限ったものではなく、複数のネットワークストレージをサーバ装置200が備えてもよい。ユーザにより予約されたカラオケ楽曲のコンテンツデータがネットワークストレージ210に記憶されている場合、カラオケ装置100は、通信制御部50による制御に従ってサーバ装置200と通信を行い、ネットワークストレージ210から読み出されたコンテンツデータをネットワークNW経由でダウンロードしながら、ダウンロードが完了した部分から順次再生する、というストリーミング再生を行う。
マイクロホン61は、収音した音声を表すアナログの音声信号を音声処理部60に出力する。音声処理部60は、A/D(Analog / Digital)コンバータを有し、マイクロホン61が出力したアナログの音声信号をデジタルの音声データに変換して制御部10に出力し、制御部10はこれを取得する。また、音声処理部60は、D/A(Digital / Analog)コンバータを有し、制御部10から受け取ったデジタルの音声データをアナログの音声信号に変換してスピーカ62に出力する。スピーカ62は、音声処理部60から受け取ったアナログの音声信号に基づく音を放音する。なお、この実施形態では、マイクロホン61とスピーカ62とがカラオケ装置100に含まれている場合について説明するが、音声処理部60に入力端子及び出力端子を設け、オーディオケーブルを介してその入力端子に外部マイクロホンを接続する構成としても良く、同様に、オーディオケーブルを介してその出力端子に外部スピーカを接続するとしても良い。また、この実施形態では、マイクロホン61からスピーカ62へ出力されるオーディオ信号がアナログオーディオ信号である場合について説明するが、デジタルオーディオデータを入出力するようにしても良い。このような場合には、音声処理部60にてA/D変換やD/A変換を行う必要はない。操作部30や表示部40についても同様であり、外部出力端子を設け、外部モニタを接続する構成としてもよい。
記憶部20は、各種のデータを記憶するための記憶手段であり、例えばHDDや不揮発性メモリである。記憶部20は、伴奏データ記憶領域21、映像データ記憶領域22、GM(Guide Melody)データ記憶領域23、及びユーザ歌唱音声データ記憶領域25といった複数の記憶領域を備えている。
伴奏データ記憶領域21には、各楽曲における伴奏の音声を表す伴奏データに関する情報が記憶されている。伴奏データは、楽曲を一意に識別する曲番号や、楽曲の名称を表す曲名等の楽曲に関する情報が付与されている。伴奏データのデータファイルは、例えば、MIDI(Musical Instrument Digital Interface)形式のファイルである。映像データ記憶領域22には、各楽曲の歌詞を示す歌詞データ及び歌詞の背景に表示される背景映像を表す背景映像データが記憶されている。歌詞データによって示される歌詞は、カラオケ歌唱の際に、楽曲の進行に伴って歌詞テロップとして表示部40に表示される。また、背景映像データによって表される背景映像は、カラオケ歌唱の際に楽曲の進行に伴って歌詞テロップの背景として表示部40に表示される。GMデータ記憶領域23には、楽曲のボーカルパートのメロディを示すデータ、すなわち、歌唱すべき構成音の内容を指定するデータであるガイドメロディデータ(以下「GMデータ」という)が記憶されている。GMデータは、模範となる音のピッチを表すデータである。GMデータは、制御部10が、楽曲において制御部10がユーザによる歌唱の巧拙の評価処理を行う際に比較の基準として用いるものである。なお、制御部10が行う評価処理については後述するため、ここではその詳細な説明は省略する。GMデータは、例えば、MIDI形式により記述されている。
ユーザ歌唱音声データ記憶領域25には、カラオケの対象となった各楽曲について、その伴奏データが再生されている期間中マイクロホン61によって収音されたユーザの歌唱音声が音声処理部60でデジタルデータに変換されることで生成された音声データが記憶される。この音声データをユーザ歌唱音声データという。このユーザ歌唱音声データは、例えば、WAVE(RIFF waveform Audio Format)形式のデータファイルとして記憶される。各楽曲についてのユーザ歌唱音声データは、制御部10によって、その楽曲のGMデータに対応付けられる。
図3は、カラオケ装置100の機能的構成の一例を示すブロック図である。図3において、再生部11及び採点部12は、制御部10のCPUが、ROMや記憶部20に記憶されているコンピュータプログラムを読み出しRAMにロードして実行することにより実現される。再生部11は、カラオケ楽曲の再生を行う。具体的には、再生部11は、伴奏データ及びGMデータに基づく音声をスピーカ62から放音させるとともに、映像データに基づく映像を表示部40に表示させる。
採点部12は、歌唱者の歌唱音声を表すデータ(以下「ユーザ歌唱音声データ」という)を採点する。採点部12は、歌唱音声のピッチとGMデータのピッチとの差分に応じて歌唱を評価する。
図4は、採点部12の機能的構成の一例を示すブロック図である。図4において、解析部121は、ユーザ歌唱音声データを2以上の音声の属性について解析し、解析した属性を示す属性データを出力する。この実施形態では、音声の属性として、音量とピッチとを用いる。解析部121は、ピッチ取得部121aと、音量取得部121bとを有する。ピッチ取得部121aは、ユーザ歌唱音声データ記憶領域25に記憶されたユーザ歌唱音声データを解析し、歌唱音声のピッチを検出する。ピッチ取得部121aは、検出したピッチを表すデータ(以下「ピッチデータ」という)を出力する。音量取得部121bは、ユーザ歌唱音声データ記憶領域25に記憶されたユーザ歌唱音声データの音量を検出する。音量取得部121bは、検出した音量を表すデータ(以下「音量データ」という)を出力する。
比較部122は、ピッチ取得部121aによって取得されたユーザ歌唱音声データのピッチと、GMデータのピッチとを比較し、両者の差分に応じてユーザ歌唱音声データの採点処理を行う。より具体的には、例えば、比較部122は、ユーザ歌唱音声データが示す音声のピッチの変化と、GMデータが示すガイドメロディのピッチの変化とを比較し、これらの一致の程度を示す評価値を算出する。評価値は、あるノートにおいて、両者のピッチの差が予め定められた許容範囲内に収まっていれば100%(すなわち減点なし)とし、両者のピッチの差が上記範囲内に収まらない部分の期間が、GMデータにおいてこのノートにおける音長の半分に渡っていれば50%である、といった具合であってもよい。つまり、あるノートにおいて、両者のピッチの差が上記範囲内に収まる期間を、GMデータにおいてこのノートにおける音長で除した値を評価値とする。制御部10は、算出した評価値に基づいて減点するポイントを決定する。例えば、あるノートに「2点」のポイントが割り当てられているときに、評価値が50%と算出された場合、制御部10は、「1点」を減点のポイントとして決定する。
また、比較部122は、音量取得部121bによって取得されたユーザ歌唱音声データの音量を加味した採点を行ってもよい。
表示制御部123は、比較部122による採点結果を表示部40に表示する。また、表示制御部123は、解析部121から出力される属性データを受け取る受取部として機能するとともに、受け取った属性データによって示される2以上の音声の属性の値の時間的な変化を表示部40に表示する表示制御部として機能する。以下、表示制御部123が行う表示制御処理について図面を参照しつつ説明する。
図5は、表示制御部123が表示部40に表示する画面の一例を示す図である。図5に示す画面は、横軸に時刻が示され、縦軸にピッチが示されている。図において、実線300は、ユーザ歌唱音声データのピッチの変化を表しており、以下、ピッチ曲線300という。表示制御部123は、ピッチ取得部121aによって取得されたピッチの変化を表すピッチ曲線300を表示部40に表示する。すなわち、表示制御部123は、属性データによって示されるピッチ(第1の属性)を表す図形として、横軸(第1の軸)と縦軸(第2の軸)によって示される座標にピッチ曲線300を表示する。
また、表示制御部123は、ピッチ曲線300の座標に応じた位置に、縦軸方向の長さとして音量の値を表す音量図形500を表示する。このとき、表示制御部123は、縦軸方向におけるピッチ曲線300の座標が、音量図形500の中心座標位置となるように音量図形500を表示する。すなわち、音量図形500の縦軸方向の幅の大きさは、ピッチ曲線300を中心として上下対称となっており、音量図形500の縦軸方向の幅が大きいほど音量が大きいことが示されている。
また、図5において、帯状図形400は、GMデータのピッチを表しており、以下、GM図形400という。表示制御部123は、GMデータを受け取る第2の受取部として機能する。表示制御部123は、受け取ったGMデータの表すピッチを示すGM図形400を、縦軸及び横軸に従った位置(座標)に表示する。また、表示制御部123は、図5に例示する画面において、歌詞を表す文字画像600(以下「歌詞画像600」という)を、対応するGM図形400の近傍に表示する。なお、表示制御部123は、歌詞画像600をGM図形400に重ねて表示するようにしてもよい。
<動作>
図6は、制御部10が行う処理の流れを示すフロー図である。操作部30を介してユーザにより楽曲が予約されると(ステップS100;Yes)、制御部10は、記憶部20から予約された楽曲の検索を行う(ステップS102)。具体的にはステップS102において、制御部10は、伴奏データ記憶領域21、映像データ記憶領域22、及びGMデータ記憶領域23の各々から、選択された楽曲の曲番号または曲名をキーにして、その楽曲に関するデータを検索し、検索結果のデータをRAMに読み込む。
次いで、制御部10は、RAMに記憶された伴奏データ、映像データ、及びGMデータに基づいて、カラオケ楽曲の再生を行う(ステップS104)。具体的にはステップS104において、制御部10は、伴奏データ及びGMデータに基づく音声をスピーカ62から放音させるとともに、映像データに基づく映像を表示部40に表示させる。そして制御部10は、マイク61によって収音されたユーザの歌唱音声が音声処理部60によってデジタルのデータに変換されたものであるユーザ歌唱音声データを、ユーザ歌唱音声データ記憶領域25に記憶させる(ステップS106)。カラオケ楽曲の再生が終了すると、制御部10は、ユーザ歌唱音声データ記憶領域25に記憶されたユーザ歌唱音声データとGMデータ及びラップ採点用データとに基づいて、歌唱の採点を行う(ステップS108)。そして制御部10は、採点結果を表示部40に表示させる(ステップS110)。
ステップS110において、制御部10は、採点結果を表す文字や画像を表示部40に表示させるとともに、図5に例示するような、歌唱音声の解析結果を表示部40に表示させる。図5に例示する画面においては、音声の解析結果である複数の属性(ピッチ、音量)が共通の時間軸を用いて同時に表示され、このとき、ピッチ曲線300に重ねて表示される音量図形500の表示幅によって音量が示されるから、ユーザは、ピッチ曲線300を目で追うことで音量とピッチの両方を直感的に把握し易い。
<変形例>
以上の実施形態は次のように変形可能である。尚、以下の変形例は適宜組み合わせて実施しても良い。
<変形例1>
上述の実施形態では、制御部10が解析する音声の属性として、音量とピッチを用いたが、制御部10が解析する音声の属性は音量やピッチに限らず、他の属性であってもよい。例えば、音声の属性として、音声の明瞭度や、発音タイミングを用いてもよく、要は、音声の属性は、音声の特徴や性質を表すものであればどのようなものであってもよい。例えば音声の明瞭度を属性として用いる場合には、制御部10は、FFT(Fast Fourier Transform)を用いて音声からスペクトルを検出し、検出したスペクトルにおいてレベルの変化が山となって表れる位置のレベル(フォルマントレベル)と谷となって表れる位置のレベル(谷レベル)との比率に応じて明瞭度を算出してもよい。より具体的には、例えば、制御部10は、谷レベルに対するフォルマントレベルの比率が大きいほど明瞭度が高くなるように、明瞭度の算出処理を行ってもよい。また、発音タイミングを属性として用いる場合には、例えば、ユーザ歌唱音声データから歌詞の音素(ノート)毎の発音タイミングを検出し、検出した発音タイミングと模範となる発音タイミング(GMデータによって示される発音タイミング)とのずれ量が大きいほど縦軸方向の幅が大きい図形を表示するようにしてもよい。
<変形例2>
上述の実施形態では、制御部10は、図5に例示したように、ピッチ曲線300とGM図形400と音量図形500とを重ねて表示部40に表示したが、これに限らず、例えば図7に示すように、ピッチ曲線300と音量図形500とを重ねて表示し、GM図形400を表示しないようにしてもよい。また、これに限らず、例えば、制御部10は、ピッチ曲線300とGM図形400を表示せず、音量図形500のみを表示する構成としてもよい。また、上述の実施形態では、制御部10は、図5に例示したように、ピッチ曲線300、GM図形400、音量図形500に加えて、歌詞を表す歌詞画像600を表示したが、歌詞を表す画像を表示しない構成としてもよい。
<変形例3>
上述の実施形態では、制御部10が、ユーザ歌唱音声データを解析し、音声の属性を表す属性データを生成したが、制御部10が属性データを生成するに限らず、他の装置(例えば、通信ネットワークで接続されたサーバ装置、等)から属性データを取得する構成であってもよい。
<変形例4>
上述の実施形態では、制御部10は、図5に例示したように、ピッチ曲線300を中心として、ピッチ曲線300の上下に、その幅が上下対象である音量図形500を表示した。音量図形500の表示態様はこれに限らず、例えば、図8に例示するように、制御部10が、ピッチ曲線300の上側にのみ、音量図形500を表示するようにしてもよい。図8に示す例においても、上述の実施形態と同様に、音量図形500の縦方向の幅によって音量の大小が表され、幅が大きいほど音量が大きいことが示される。すなわち、制御部10は、表示の基準となる属性(以下「基準属性」という)以外の属性を表す図形を、ひとつの軸方向における基準属性の座標がその図形の中心座標、上端座標又は下端座標となるように表示してもよい。また、これに限らず、例えば、ピッチ曲線300と音量図形500との縦軸方向における表示位置が予め定められた距離となるように、ピッチ曲線300と音量図形500との距離を一定に保って表示してもよい。要は、制御部10は、第1の属性の値を時間の経過を示す第1の軸と交差する第2の軸に沿った方向の座標によって表し、この座標(上述の実施形態ではピッチ曲線300の座標)に応じた位置に、第2の軸方向の長さとして第2の属性の値を示す図形を表示するものであればどのようなものであってもよい。
また、上述の実施形態では、音量とピッチとの2種類の属性を表示する場合について説明したが、表示する属性の数は2に限らず、これより多くてもよい。例えば、図9に示すように、制御部10が、音量、ピッチ、明瞭度の3種類の属性を共通の時間軸を用いて表示するようにしてもよい。図9に例示する画像において、ピッチ曲線300は上述の実施形態と同様である。一方、音量図形500は、ピッチ曲線300の縦軸方向の上部に表示され、その縦方向の幅によって音量の大きさが表される。また、明瞭度図形700は、音声の明瞭度を表す図形であり、その縦方向の幅によって明瞭度が表される。明瞭度図形700の縦方向の幅が大きいほど明瞭度が高いことを示す。明瞭度図形700は、ピッチ曲線300を基準として、ピッチ曲線300の下側に表示される。また、属性が3以上の場合は、制御部10は、例えば、ピッチ曲線300の上下に各属性を表す図形を表示し、かつ、ピッチ曲線300との距離が予め定められた距離となる位置に他の属性を表す図形を表示するようにしてもよい。
また、上述の実施形態では、ピッチ曲線300を基準位置として音量図形500を表示するようにしたが、基準とする属性はピッチに限らず、音声の他の属性であってもよい。例えば、横軸に時間軸、縦軸に音量を表す音量曲線を表示し、この音量曲線を基準位置として、縦軸の方向の表示幅によってピッチの高さが表されるピッチ図形を、音量曲線に重ねて表示してもよい。要は、制御部10が、第1の属性が縦軸で示され、時間の経過が横軸で示される座標に基準となる図形を表示するとともに、この座標に応じた位置に、縦軸方向の長さによって第2の属性の値が示される図形を表示すればよい。
また、上述の実施形態では、縦軸方向の長さによって音量を表す音量図形を用いたが、これに代えて、色(色彩や色の濃淡、等)によって音量を表す図形を用いてもよい。この場合は、例えば、制御部10が、音量が大きいほど音量図形500の色が濃くなる一方、音量が小さいほど音量図形500の色が薄くなるように表示してもよい。また、例えば、制御部10が、音量が大きいほど音量図形500の色彩を赤くし(すなわち赤要素の明度を高くして他の要素の明度を低くし)、音量が小さいほど青くし(すなわち青要素の明度を高くして他の要素の明度を低くし)てもよい。この場合も、上述した実施形態と同様に、制御部10は、ピッチ曲線300の座標に応じた位置に音量図形を表示する。
また、上述の実施形態では、制御部10は、横軸を時間軸とし、縦軸をピッチとして、ピッチ曲線300や音量図形500を表示したが、軸のとり方はこれに限らず、他の態様であってもよい。要は、制御部10が、ひとつの軸方向の表示位置によって基準属性の値が示されるとともに時間軸によって時間の経過が示される図形を表示するものであればどのようなものであってもよい。
<変形例5>
上述の実施形態では、制御部10が、歌唱音声データをユーザ歌唱音声データ記憶領域25に記憶し、歌唱が終了した後に解析結果の表示処理を行うようにしたが、これに限らず、歌唱中にリアルタイムで解析結果の表示処理を行うようにしてもよい。
また、上述の実施形態では、制御部10が、カラオケ楽曲の再生を行うともにユーザの歌唱音声を録音し、カラオケ楽曲の再生が終了するとユーザ歌唱音声データの解析を行って解析結果を表示したが、これに限らず、制御部10が、予め録音されたユーザ歌唱音声データ(すなわち予め記憶部20に記憶された音声データ)に対して解析処理を施し、解析結果の表示処理を行うようにしてもよい。
また、上述の実施形態では、制御部10は、歌唱音声のピッチとGMデータのピッチとを比較し、比較結果に応じて評価処理を行ったが、評価処理の態様はこれに限らず、他の態様であってもよい。例えば、制御部10が、FFTなどを用いた周波数分析、音量分析などの公知の様々な手法を用い、評価項目について評価値、つまり評価結果を算出するようにしてもよい。
また、上述の実施形態では、制御部10は、歌唱者の歌唱音声を解析したが、歌唱者の歌唱音声に代えて、演奏者による楽器の演奏音を評価してもよい。本実施形態にいう「音声」には、人間が発生した音声や楽器の演奏音といった種々の音響が含まれる。
<変形例6>
上述の実施形態において、通信ネットワークで接続された2以上の装置が、上記実施形態のカラオケ装置100に係る機能を分担するようにし、それら複数の装置を備えるシステムが同実施形態のカラオケ装置100を実現するようにしてもよい。例えば、マイクロホンやスピーカ、表示装置及び操作部等を備えるコンピュータ装置と、音声の解析処理を行うサーバ装置とが通信ネットワークで接続されたシステムとして構成されていてもよい。この場合は、例えば、コンピュータ装置が、マイクロホンで収音された音声をオーディオ信号に変換してサーバ装置に送信し、サーバ装置が、受信したオーディオ信号を解析し、解析結果をコンピュータ装置に送信してもよい。
<変形例7>
上述の実施形態では、本発明に係る表示制御装置を、カラオケ伴奏を再生するととともに歌唱音声を採点するカラオケ装置に適用した場合について説明したが、本発明に係る表示制御装置が適用される装置はカラオケ装置に限らず、音声データを解析して解析結果を表示する装置であればどのような装置であってもよい。例えば、音声の解析結果を表示する装置、音声合成や編集を行う装置や、語学学習を支援する機能を備えた装置等、種々の装置に適用可能である。例えば、音声編集を行う装置の場合でも、上述の実施形態と同様に、音声の複数の属性を共通する時間軸を用いて同時に表示することで、ユーザは音声の複数の属性を直感的に把握することができ、音声の合成や編集を行い易い。
また、上述の実施形態では、模範となる音の属性を表す模範属性データとして、GMデータを用いたが、模範となる音の属性を表すデータはGMデータに限らず、他のデータであってもよい。例えば、音声編集を行う装置の場合は、ユーザによって入力された楽譜情報(ピッチ、音量等を示す情報)を模範属性データとして用いてもよい。また、例えば、音声データを解析して解析結果を表示する装置の場合は、解析結果を12音階に丸めたものを模範属性データとして用いてもよい。この場合も、上述した実施形態と同様に、制御部10は、図5に例示したような、解析結果の属性を示す図形と模範属性データを示す図形とを表示する。要は、模範属性データは、模範となる音の属性を表すデータであればどのようなものであってもよい。
<変形例8>
本発明は、表示制御装置以外にも、これらを実現するための方法や、コンピュータに表示制御機能を実現させるためのプログラムとしても把握される。かかるプログラムは、これを記憶させた光ディスク等の記録媒体の形態で提供されたり、インターネット等を介して、コンピュータにダウンロードさせ、これをインストールして利用させるなどの形態でも提供されたりする。
10…制御部、20…記憶部、21…伴奏データ記憶領域、22…映像データ記憶領域、23…GMデータ記憶領域、25…ユーザ歌唱音声データ記憶領域、30…操作部、40…表示部、50…通信制御部、60…音声処理部、61…マイクロホン、62…スピーカ、70…バス、100…カラオケ装置、200…サーバ装置、210…ネットワークストレージ、300…ピッチ曲線、400…GM図形、500…音量図形

Claims (5)

  1. 音声データの2以上の属性を示す属性データを受け取る受取部と、
    前記受取部が受け取った属性データの示す2以上の属性の値の時間的な変化を表示部に表示する表示制御部であって、第1の属性の値を時間の経過を示す第1の軸と交差する第2の軸に沿った方向の座標によって表し、当該座標に応じた位置に、前記第2の軸方向の長さとして第2の属性の値を表す第1の図形を表示する表示制御部と
    を具備することを特徴とする表示制御装置。
  2. 前記表示制御部は、前記第1の軸と前記第2の軸とによって示される前記第1の属性の値を表す座標に第2の図形を表示する
    ことを特徴とする請求項1に記載の表示制御装置。
  3. 前記表示制御部は、前記第1の図形を、前記第2の軸方向における前記第1の属性の座標が該第1の図形の中心座標、上端座標又は下端座標となるように表示する
    ことを特徴とする請求項1又は2に記載の表示制御装置。
  4. 模範となる音の前記第1の属性を示す模範属性データを受け取る第2の受取部
    を備え、
    前記表示制御部は、前記第2の受取部が受け取った前記模範属性データの示す属性を表す図形を、前記第1の軸及び前記第2の軸に従った座標に表示する
    ことを特徴とする請求項1乃至3のいずれか1項に記載の表示制御装置。
  5. コンピュータに、
    音声データの2以上の属性を示す属性データを受け取る受取機能と、
    前記受け取った属性データの示す2以上の属性の値の時間的な変化を表示部に表示する表示制御機能であって、第1の属性の値を時間の経過を示す第1の軸と交差する第2の軸に沿った方向の座標によって表し、当該座標に応じた位置に、前記第2の軸方向の長さとして第2の属性の値を表す第1の図形を表示する表示制御機能と
    を実現させるためのプログラム。
JP2011286727A 2011-12-27 2011-12-27 表示制御装置及びプログラム Active JP5811837B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2011286727A JP5811837B2 (ja) 2011-12-27 2011-12-27 表示制御装置及びプログラム
EP12199160.8A EP2610859B1 (en) 2011-12-27 2012-12-21 Display control apparatus and method
TW101149621A TWI492216B (zh) 2011-12-27 2012-12-24 顯示控制裝置、方法及電腦可讀取之記憶媒體
KR1020120151892A KR101521451B1 (ko) 2011-12-27 2012-12-24 표시 제어 장치 및 방법
US13/727,412 US9639966B2 (en) 2011-12-27 2012-12-26 Visually displaying a plurality of attributes of sound data
CN201210580106.4A CN103187046B (zh) 2011-12-27 2012-12-27 显示控制装置及方法
HK13110960.0A HK1183739A1 (zh) 2011-12-27 2013-09-25 顯示控制裝置及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011286727A JP5811837B2 (ja) 2011-12-27 2011-12-27 表示制御装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2013134475A true JP2013134475A (ja) 2013-07-08
JP5811837B2 JP5811837B2 (ja) 2015-11-11

Family

ID=47720243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011286727A Active JP5811837B2 (ja) 2011-12-27 2011-12-27 表示制御装置及びプログラム

Country Status (7)

Country Link
US (1) US9639966B2 (ja)
EP (1) EP2610859B1 (ja)
JP (1) JP5811837B2 (ja)
KR (1) KR101521451B1 (ja)
CN (1) CN103187046B (ja)
HK (1) HK1183739A1 (ja)
TW (1) TWI492216B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017513049A (ja) * 2014-03-17 2017-05-25 シングオン オーユーSingon Oy カラオケ曲の演奏に関するフィードバックをユーザに提供する方法
JP2019066650A (ja) * 2017-09-29 2019-04-25 ヤマハ株式会社 歌唱音声の編集支援方法、および歌唱音声の編集支援装置

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8907195B1 (en) * 2012-01-14 2014-12-09 Neset Arda Erol Method and apparatus for musical training
JP6171711B2 (ja) * 2013-08-09 2017-08-02 ヤマハ株式会社 音声解析装置および音声解析方法
JP6330325B2 (ja) * 2013-09-12 2018-05-30 ヤマハ株式会社 ユーザインタフェース装置及び音響制御装置
CN104361883B (zh) * 2014-10-10 2018-06-19 福建星网视易信息***有限公司 歌唱评测标准文件制作方法和装置
WO2016141539A1 (zh) * 2015-03-09 2016-09-15 常平 一种ktv演唱时根据音高排名的方法
CN105023559A (zh) * 2015-05-27 2015-11-04 腾讯科技(深圳)有限公司 K歌处理方法及***
CN106057213B (zh) * 2016-06-30 2018-08-03 广州酷狗计算机科技有限公司 一种显示人声音高数据的方法和装置
JP7400220B2 (ja) * 2019-06-07 2023-12-19 ヤマハ株式会社 Av機器
CN112309428B (zh) * 2019-07-30 2024-03-19 微软技术许可有限责任公司 获得歌声检测模型
CN110853675A (zh) * 2019-10-24 2020-02-28 广州大学 一种音乐联觉绘画的装置及其实现方法
CN110830619A (zh) * 2019-10-28 2020-02-21 维沃移动通信有限公司 一种显示方法及电子设备
JP2023539148A (ja) 2020-08-21 2023-09-13 ソムニック インク. 発話をコンピュータ生成によって視覚化するための方法およびシステム
CN113314141A (zh) * 2021-05-21 2021-08-27 江苏第二师范学院 一种声乐演唱音量和音高的量化方法及量化设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5685773A (en) * 1979-12-13 1981-07-13 Matsushita Electric Ind Co Ltd Song selfflearning device
US5287789A (en) * 1991-12-06 1994-02-22 Zimmerman Thomas G Music training apparatus
JP2006276693A (ja) * 2005-03-30 2006-10-12 Yamaha Corp 歌唱評価表示装置およびプログラム
JP2011209654A (ja) * 2010-03-30 2011-10-20 Konami Digital Entertainment Co Ltd 音声入力評価システム、音声入力評価システムの制御方法、及びプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4868687A (en) 1987-12-21 1989-09-19 International Business Machines Corporation Audio editor display interface
US6411289B1 (en) * 1996-08-07 2002-06-25 Franklin B. Zimmerman Music visualization system utilizing three dimensional graphical representations of musical characteristics
JP4030162B2 (ja) 1997-11-04 2008-01-09 富士通株式会社 息検出機能付情報処理装置及び息検出による画像表示制御方法
JP3533974B2 (ja) 1998-11-25 2004-06-07 ヤマハ株式会社 曲データ作成装置および曲データ作成プログラムを記録したコンピュータで読み取り可能な記録媒体
JP3972899B2 (ja) 2003-12-22 2007-09-05 ヤマハ株式会社 楽譜表示装置
JP4353018B2 (ja) * 2004-07-16 2009-10-28 ヤマハ株式会社 楽器演奏教習装置及びそのプログラム
US20070168187A1 (en) * 2006-01-13 2007-07-19 Samuel Fletcher Real time voice analysis and method for providing speech therapy
TW200826060A (en) * 2006-12-15 2008-06-16 Digiwell Technology Inc Embedded high-speed audio signal converting device
JP4858173B2 (ja) 2007-01-05 2012-01-18 ヤマハ株式会社 歌唱音合成装置およびプログラム
JP4949899B2 (ja) 2007-03-13 2012-06-13 ヤマハ株式会社 ピッチ表示制御装置
TWM360427U (en) * 2008-10-14 2009-07-01 Xcube Technology Inc All-purpose portable karaoke player
JP5469330B2 (ja) * 2008-11-27 2014-04-16 セイコーインスツル株式会社 音楽練習支援機器及び音楽練習支援プログラム
KR101025665B1 (ko) * 2009-10-16 2011-03-30 박상철 음악기반 언어 학습방법과 이를 활용한 학습장치
JP5779838B2 (ja) 2010-03-29 2015-09-16 ヤマハ株式会社 音響処理装置およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5685773A (en) * 1979-12-13 1981-07-13 Matsushita Electric Ind Co Ltd Song selfflearning device
US5287789A (en) * 1991-12-06 1994-02-22 Zimmerman Thomas G Music training apparatus
JP2006276693A (ja) * 2005-03-30 2006-10-12 Yamaha Corp 歌唱評価表示装置およびプログラム
JP2011209654A (ja) * 2010-03-30 2011-10-20 Konami Digital Entertainment Co Ltd 音声入力評価システム、音声入力評価システムの制御方法、及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017513049A (ja) * 2014-03-17 2017-05-25 シングオン オーユーSingon Oy カラオケ曲の演奏に関するフィードバックをユーザに提供する方法
JP2019066650A (ja) * 2017-09-29 2019-04-25 ヤマハ株式会社 歌唱音声の編集支援方法、および歌唱音声の編集支援装置

Also Published As

Publication number Publication date
TW201329957A (zh) 2013-07-16
US20130162649A1 (en) 2013-06-27
US9639966B2 (en) 2017-05-02
EP2610859B1 (en) 2017-09-20
TWI492216B (zh) 2015-07-11
KR101521451B1 (ko) 2015-05-19
KR20130075679A (ko) 2013-07-05
EP2610859A3 (en) 2016-07-27
JP5811837B2 (ja) 2015-11-11
HK1183739A1 (zh) 2014-01-03
CN103187046A (zh) 2013-07-03
CN103187046B (zh) 2016-01-20
EP2610859A2 (en) 2013-07-03

Similar Documents

Publication Publication Date Title
JP5811837B2 (ja) 表示制御装置及びプログラム
US9355634B2 (en) Voice synthesis device, voice synthesis method, and recording medium having a voice synthesis program stored thereon
JP2006030692A (ja) 楽器演奏教習装置及びそのプログラム
JP2017111372A (ja) 音声合成方法、音声合成制御方法、音声合成装置および音声合成制御装置
JP4949899B2 (ja) ピッチ表示制御装置
JP5151245B2 (ja) データ再生装置、データ再生方法およびプログラム
JP5136128B2 (ja) 音声合成装置
JP5772054B2 (ja) 歌唱評価装置
JP2007264569A (ja) 検索装置、制御方法及びプログラム
JP4913638B2 (ja) 評価装置及びカラオケ装置
JP6288197B2 (ja) 評価装置及びプログラム
JP6102076B2 (ja) 評価装置
JP6070652B2 (ja) リファレンス表示装置およびプログラム
JP2009169103A (ja) 練習支援装置
JP6024130B2 (ja) 音声評価装置
JP2006251697A (ja) カラオケ装置
JP5387642B2 (ja) 歌詞テロップ表示装置及びプログラム
JP2007304489A (ja) 楽曲練習支援装置、制御方法及びプログラム
JP6316099B2 (ja) カラオケ装置
JP6219750B2 (ja) 歌唱対戦カラオケシステム
JP5637169B2 (ja) カラオケ装置及びプログラム
JP6144593B2 (ja) 歌唱採点システム
JP2007233078A (ja) 評価装置、制御方法及びプログラム
JP2008268358A (ja) カラオケ装置、歌唱評価方法およびプログラム
JP6144605B2 (ja) 歌唱採点システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141023

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150623

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150907

R151 Written notification of patent or utility model registration

Ref document number: 5811837

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151