JP2020056938A - 演奏情報表示装置及び演奏情報表示方法、演奏情報表示プログラム、並びに、電子楽器 - Google Patents

演奏情報表示装置及び演奏情報表示方法、演奏情報表示プログラム、並びに、電子楽器 Download PDF

Info

Publication number
JP2020056938A
JP2020056938A JP2018188196A JP2018188196A JP2020056938A JP 2020056938 A JP2020056938 A JP 2020056938A JP 2018188196 A JP2018188196 A JP 2018188196A JP 2018188196 A JP2018188196 A JP 2018188196A JP 2020056938 A JP2020056938 A JP 2020056938A
Authority
JP
Japan
Prior art keywords
performance
information
music
display
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018188196A
Other languages
English (en)
Other versions
JP7157377B2 (ja
Inventor
優樹 保福
Yuki Yasufuku
優樹 保福
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2018188196A priority Critical patent/JP7157377B2/ja
Priority to US16/584,269 priority patent/US10909958B2/en
Publication of JP2020056938A publication Critical patent/JP2020056938A/ja
Application granted granted Critical
Publication of JP7157377B2 publication Critical patent/JP7157377B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0016Means for indicating which keys, frets or strings are to be actuated, e.g. using lights or leds
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/32Constructional details
    • G10H1/34Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
    • G10H1/344Structural association with individual keys
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/005Musical accompaniment, i.e. complete instrumental rhythm synthesis added to a performed melody, e.g. as output by drum machines
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • G10H2220/015Musical staff, tablature or score displays, e.g. for score reading during a performance.
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/021Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs, seven segments displays
    • G10H2220/026Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs, seven segments displays associated with a key or other user input device, e.g. key indicator lights
    • G10H2220/036Chord indicators, e.g. displaying note fingering when several notes are to be played simultaneously as a chord
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/221Keyboards, i.e. configuration of several keys or key-like input devices relative to one another
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/005Device type or category
    • G10H2230/015PDA [personal digital assistant] or palmtop computing devices used for musical purposes, e.g. portable music players, tablet computers, e-readers or smart phones in which mobile telephony functions need not be used

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

【課題】楽曲のコードの種類やタイミングとユーザの演奏との対応状況を容易に判別して把握することができる演奏情報表示装置及び演奏情報表示方法、演奏情報表示プログラム、並びに、当該演奏情報表示装置を備えた電子楽器を提供する。【解決手段】表示パネル106のユーザ演奏コード表示エリア414、424には、所定の演奏区間の楽譜情報440が表示され、楽曲コード表示エリア412、422には、楽譜情報440の各演奏区間に対応するように、楽曲のコード情報430がコードの種別に応じた表示色で表示される。楽曲再生状態においては、楽曲のコード情報430及び楽譜情報440に対して、現在の再生位置を示すマーカー450が移動表示され、マーカー450の位置から時間的に過去となる楽譜情報440の領域に、ユーザの演奏により指定されたコード情報460がコードの種別に応じた表示色で上書き表示される。【選択図】図5

Description

本発明は、電子楽器を演奏する際に演奏情報を提供する演奏情報表示装置及び演奏情報表示方法、演奏情報表示プログラム、並びに、当該演奏情報表示装置を備えた電子楽器に関する。
近年普及している電子楽器においては、予め楽曲がデータとして記憶され、演奏者であるユーザの操作により記憶された楽曲を再生したり、当該楽曲に合わせてユーザが一緒に演奏を行ったりすることができるものが知られている。その際、電子楽器に備えられた表示部や、別個に用意された表示装置に演奏中の楽曲に関する情報を表示することも一般的に行われている。ここで、演奏中にユーザに提供される情報は、例えば、音高やリズム等の楽譜に記載されている情報や、コード(和音)の進行情報であるが、これらの情報は楽器演奏に関して習熟度の低い初学者や初心者には判別や認識がしにくいものであった。
そのため、楽器演奏の初学者等であっても、容易に楽曲に関する情報を把握して演奏を楽しむことができるようにするための様々な技術が考案されている。例えば特許文献1には、オルガン等の鍵盤楽器の演奏において、右手で弾くメロディの譜読みを妨げることなく、左手で弾くコードの情報を判別しやすくするために、楽譜情報中にコードを種類に応じて色分けして表示するようにした楽譜表示装置が記載されている。
特開2016−224462号公報
特許文献1に記載されたような楽譜表示装置においては、楽譜情報中に種類毎に色分けしたコード情報が表示されているため、演奏する楽曲のコードの変化を判別することができる。しかしながら、このような表示方法においては、実際に自分が弾いたコードの種類やタイミングが、演奏される楽曲のコードの種類やタイミングに対応しているか否かを容易に判別して把握することができず、演奏される楽曲やユーザの演奏状況に関する情報をより適切に表示する手法が求められていた。
そこで、本発明は、楽曲のコードの種類やタイミングとユーザの演奏との対応状況を容易に判別して把握することができる演奏情報表示装置及び演奏情報表示方法、演奏情報表示プログラム、並びに、当該演奏情報表示装置を備えた電子楽器を提供することを目的とする。
本発明に係る演奏情報表示装置は、
複数の区間を有する曲データを再生する曲データ再生処理と、
前記曲データにおける前記複数の区間のそれぞれに含まれるコードが、トニック、ドミナント及びサブドミナントのいずれに分類されるかを識別できるように、表示部における前記複数の区間に対応する第1領域内の領域に第1識別子をそれぞれ表示する第1領域表示処理と、
前記曲データに含まれる或る区間の再生に合わせてユーザにより演奏された、前記或る区間に対応する演奏データを取得する演奏データ取得処理と、
前記演奏データ取得処理により取得された前記演奏データが、前記トニック、前記ドミナント及び前記サブドミナントのいずれに分類されるかを決定する演奏データ分類処理と、
前記演奏データ分類処理により決定された前記演奏データの分類を識別できるように、前記表示部における前記或る区間に対応する第2領域内の領域に第2識別子を表示する第2領域表示処理と、
を実行することを特徴とする。
本発明によれば、楽曲のコードの種類やタイミングとユーザの演奏との対応状況を容易に判別して把握することができる。
本発明に係る演奏情報表示装置を備えた電子楽器の第1の実施形態を示す外観図である。 第1の実施形態に係る電子楽器に適用されるハードウェアの構成例を示すブロック図である。 第1の実施形態に係る電子楽器の制御方法を示すフローチャートである。 第1の実施形態に係る電子楽器の制御方法に適用される楽曲情報の表示例(その1)を示す図である。 第1の実施形態に係る電子楽器の制御方法に適用される楽曲情報の表示例(その2)を示す図である。 第1の実施形態に係る電子楽器の制御方法に適用される楽曲情報の他の表示例を示す図である。 本発明に係る演奏情報表示装置を備えた電子楽器の第2の実施形態を示す外観図である。 第2の実施形態に係る情報機器に適用されるハードウェアの構成例を示すブロック図である。
以下、本発明を実施するための形態について、図面を参照しながら詳しく説明する。
<第1の実施形態>
(電子楽器)
図1は、本発明に係る演奏情報表示装置を備えた電子楽器の第1の実施形態を示す外観図である。ここでは、電子楽器の一例として、電子鍵盤楽器(電子キーボード)を適用した場合について説明するが、電子弦楽器(電子ギター)等の他の種類の電子楽器であってもよい。また、図2は、本実施形態に係る電子楽器に適用されるハードウェアの構成例を示すブロック図である。
本発明に係る演奏情報表示装置を備えた電子楽器100の外観は、例えば図1に示すように、楽器本体の一面側に、演奏操作子としての複数の鍵を有し、音高を指定するための鍵盤102と、音量調整や音色選択、その他の機能選択等の操作を行うためのスイッチ類が配列された操作パネル104と、上記の鍵盤102や操作パネル104を操作することにより生成される楽音や、内蔵する楽曲データに基づく楽音を発音する発音部108と、を備えている。また、電子楽器100は、上記の楽曲データに基づく楽譜情報やコード情報等を所定の表示形態で表示するとともに、楽曲の演奏中の音量や音色、その他の各種設定情報等を表示する表示パネル106を、さらに備えている。
電子楽器100のハードウェア構成は、例えば図2に示すように、CPU(中央演算処理装置)202と、ROM(リードオンリーメモリ)204と、RAM(ランダムアクセスメモリ)206と、ハードディスク等の記憶部208と、鍵盤102や操作パネル104を備える操作部210と、表示パネル106を備える表示部212と、外部の音響機器(図示を省略)等に接続されるインターフェース部(I/F部)214とを有し、それぞれがシステムバス230に接続されている。また、電子楽器100は、音源LSI216、DAC(デジタル・アナログ変換回路)218、アンプ220及びスピーカ等の発音部108を備えるサウンドシステムを有し、音源LSI216がシステムバス230に直接接続されている。
上記のような構成において、CPU202は、電子楽器100の各部の動作を制御するためのメインプロセッサであって、ROM204に記憶された所定の制御プログラムを読み出して、RAM206をデータ領域及びワーク領域として使用しながら実行することにより、電子楽器100における各種の制御動作を実行する。特に、本実施形態においては、CPU202は、記憶部208に記憶された楽曲データ、及び、ユーザにより演奏された演奏データに含まれるコード情報等を、所定の表示形態で表示部212に表示する演奏情報表示方法を含む一連の制御動作を実行する。本実施形態において実行される演奏情報表示方法については、詳しく後述する。
ROM204は、CPU202において各種の制御動作を実行するための制御プログラムのプログラムデータ、音源LSI216において実行される楽音の生成処理に使用される全ての音色の波形データやパラメータデータ、その他各種の設定データを記憶している。特に、本実施形態においては、ROM204は、電子楽器100により再生される楽曲の楽曲データに含まれるコード、又は、楽曲の再生に合わせてユーザが演奏することにより取得される演奏データに含まれるコード(和音)が、曲調の「緩和」を表すトニック(tonic)、「強い緊張」を表すドミナント(dominant)、「緊張」を表すサブドミナント(subdominant)のいずれの種別に分類されるかを判別するためのコード定義テーブルと、分類されたコードの種別に応じた表示色を設定するための表示色定義テーブルとを記憶している。なお、ROM204に記憶される制御プログラムや各種のデータ、定義テーブルは、その一部又は全部が後述する記憶部208に記憶されているものであってもよいし、CPU202に予め組み込まれているものであってもよい。
RAM206は、ROM204に記憶された制御プログラムに基づいて、CPU202や音源LSI216において所定の制御動作を実行する際に使用する、又は、生成される各種データを一時的に記憶するデータ領域やワーク領域を備える。
記憶部208は、1又は複数の楽曲データを記憶している。楽曲データは、複数の演奏区間(拍や小節等)から構成され、楽曲のメロディや伴奏の音高情報や、キー情報、コード情報等を有している。これらの情報は楽曲ごとに個別の情報が相互に関連付けられて記憶されているものであってもよいし、これらの情報を音高情報や楽譜情報等に一体的に含んで記憶されているものであってもよい。なお、楽曲データは、電子楽器100の製品出荷時に予め記憶部208に記憶されているものであってもよいし、ユーザが電子楽器100の使用に際して、後述するI/F部214を介して外部の音響機器(ミュージックプレーヤ等)や、インターネット上の音楽サイト等から事前に取り込んで記憶させるものであってもよい。また、記憶部208は、その一部又は全部が電子楽器100に対して着脱可能(すなわち、差し替え可能)な形態を有しているものであってもよい。
操作部210は、鍵盤102や操作パネル104を有し、ユーザが押鍵やスイッチ操作を行うことにより操作情報をCPU202に出力する。表示部212は、文字や図形、楽譜等を表示可能な液晶ディスプレイ(LCD)や有機ELディスプレイ(OLED)等の表示パネル106を有し、操作部210の鍵盤102や操作パネル104による入力操作や、電子楽器100の内部で実行される処理等に基づいて、各種の情報が表示される。特に、本実施形態においては、表示部212は、演奏される楽曲について、所定の範囲の演奏区間(例えば4小節分や8小節分)ごとの楽譜情報を表示するとともに、再生される楽曲のコードやユーザの演奏により取得されるコードの種別に応じて、各演奏区間に対応する表示領域を色付け表示する。具体例については後述する。
I/F部214は、電子楽器100の外部の機器と接続して各種のデータの送信又は受信を行う。特に、本実施形態においては、I/F部214は、記憶部208に記憶される楽曲データを受信する。ここで、I/F部214は、例えばオーディオケーブルやデータ通信ケーブル、或いは、各種の無線通信方式を適用して、外部の音響機器や通信機器、インターネット等のネットワークに接続される通信インターフェースであってもよい。また、I/F部214は、メモリカード等の記憶媒体を用いてデータの受け渡しをするものであってもよい。
音源LSI216は、CPU202からの命令に基づいて、楽曲データから取得された音高情報や、操作部210により指示された鍵盤102の音高に対応する波形データをROM204から読み出し、所定の音響効果を付与して、楽音波形データとして出力する。DAC218、アンプ220及び発音部108は、音源LSI216から出力される楽音波形データをDAC218によりアナログ信号(アナログ楽音波形信号)に変換した後、アンプ220により所定の信号レベルに増幅して発音部108から楽音として発音する。なお、図2では発音部108としてスピーカを適用した場合を示したが、オーディオ出力端子を介して、電子楽器100の外部の音響機器に出力するものであってもよい。
(電子楽器の制御方法)
次に、本実施形態に係る電子楽器の制御方法(演奏情報表示方法)について、図面を参照して説明する。ここで、以下に示す一連の制御処理は、電子楽器100のCPU202において、所定の制御プログラムを実行することにより実現されるものである。
図3は、本実施形態に係る電子楽器の制御方法を示すフローチャートである。図4、図5は、本実施形態に係る電子楽器の制御方法に適用される楽曲情報の表示例を示す図である。
本実施形態に係る電子楽器100の制御方法(演奏情報表示方法)においては、例えば図3のフローチャートに示すように、まず、ユーザが電子楽器100を起動し、操作パネル104のスイッチ等を操作して所望の楽曲を指定することにより、CPU202は、初期化処理を実行する(ステップS302)。この初期化処理においては、CPU202は、記憶部208に記憶された楽曲の中から、ユーザにより指定された楽曲のデータを読み出し、当該楽曲の再生に使用する最初の数小節分(例えば8小節分)の演奏区間の楽曲情報(音高情報、キー情報、コード情報、楽譜情報等)を抽出する。
そして、CPU202は、抽出した楽曲情報からキー情報及びコード情報を取得して、ROM204に記憶されているコード定義テーブルを参照することにより、コード(楽曲コード)の種別を分類する(楽曲コード分類処理)。ここで、キー情報は、メジャー・キー(長調)であるか、3種類のマイナー・スケールを基盤とするマイナー・キー(短調)であるかを示す情報であって、例えばハ長調やイ短調等の調情報を有する。また、コード情報は、コード(和音)を示す情報であって、例えばC(シー・メジャー)、Am(エー・マイナー)、F(エフ・メジャー)、G(ジー・メジャー)、C#(シー・シャープ・メジャー)、Dm(ディー・マイナー)等の情報を有する。
また、コード定義テーブルは、コードをトニック、ドミナント及びサブドミナントの種別に分類するための定義情報を有し、例えばキーがハ長調である場合、コードがC、CM7(シー・メジャー・セブンス)、Am、Am7(エー・マイナー・セブンス)、Em(イー・マイナー)等の場合にはトニックに分類し、G、G7(ジー・セブンス)等の場合にはドミナントに分類し、F、FM7(エフ・メジャー・セブンス)、Dm、Dm7(ディー・マイナー・セブンス)等の場合にはサブドミナントに分類するように定義付けられている。なお、コードの種別を分類する際に用いられるキー情報やコード情報は、楽曲情報に含まれる情報をそのまま用いるものであってもよいし、MIDIデータで提供される音高情報やノートオン/ノートオフ情報を解析することによりキー情報やコード情報等を取得して用いるものであってもよい。
次いで、CPU202は、分類されたコードの種別に基づいて、ROM204に記憶されている表示色定義テーブルを参照することにより、表示部212に楽曲におけるコード情報を表示する際の表示色を設定する(表示色設定処理)。ここで、表示色定義テーブルは、楽曲について分類されたコードの種別を色情報(第1識別子)により識別するための定義情報を有している。これにより、CPU202は、例えばコードの種別がトニックの場合には緑色表示に設定し、ドミナントの場合には赤色表示に設定し、サブドミナントの場合には黄色表示に設定するように定義付けられている。すなわち、表示色定義テーブルにより設定される表示色は、コードの種別ごとに異なる色情報が対応付けられている。
次いで、CPU202は、上記の楽曲コード分類処理により分類されたコードの種別、及び、表示色設定処理により設定された表示色に基づいて、楽曲の最初の8小節分のコード情報及び楽譜情報を、表示部212の表示パネル106に所定の表示形態で表示する。具体的には、例えば図4に示すように、表示パネル106は概略、上段及び下段の表示領域410、420に区分され、各表示領域410、420の下段側のユーザ演奏コード表示エリア(第2領域)414、424に楽曲のメロディの音高情報を示す五線譜からなる楽譜情報440が表示されるとともに、上段側の楽曲コード表示エリア(第1領域)412、422に当該楽曲のコード情報430がコードの種別に応じて設定された表示色で、下段側の楽譜情報440の五線譜の拍や小節に対応するように並べて表示される(第1領域表示処理)。
ここで、表示パネル106の上段及び下段の表示領域410、420のそれぞれのユーザ演奏コード表示エリア414、424には、楽曲データから抽出された8小節分の演奏区間の楽曲情報のうちの楽譜情報440が前半と後半の4小節分に分割されて表示される。また、上段及び下段の表示領域410、420のそれぞれの楽曲コード表示エリア412、422には、ユーザ演奏コード表示エリア414、424に表示された楽譜情報440の、各演奏区間(拍や小節)に対応するように、楽曲情報のうちのコード情報430がコードの種別に応じて設定された表示色で表示される。
図4に示した表示例においては、上段の表示領域410に第1小節から第4小節までのコード情報430と楽譜情報440とが各小節に対応するように上下方向に配置されている。ここで、第1小節のコードC及び第2小節のコードAmはトニックに分類されるため緑色で表示され、第3小節のコードFはサブドミナントに分類されるため黄色で表示され、第4小節のコードGはドミナントに分類されるため赤色で表示されている。
また、下段の表示領域420には第5小節から第8小節までのコード情報430と楽譜情報440とが各小節や拍に対応するように上下方向に配置されている。ここで、第5小節及び第8小節のコードCはトニックに分類されるため緑色で表示され、第6小節のコードDmはサブドミナントに分類されるため黄色で表示され、第7小節のコードGはドミナントに分類されるため赤色で表示されている。なお、第5小節のコードC#はトニック、ドミナント及びサブドミナントのいずれの種別にも分類されないため白色(又は無着色)で表示されている。
また、図4に示した表示例においては、初期化処理の時点では楽曲の再生やユーザによる演奏が始まる前の状態であるので、楽曲の再生位置を示すマーカー(現在位置表示バー)450が上段の表示領域410の図面左方端に表示されている。
次いで、CPU202は、上記の初期化処理の完了後、ユーザにより指定された楽曲を再生する(曲データ再生処理)。この楽曲再生状態においては、図4、図5に示すように、表示パネル106に表示された楽曲のコード情報430及び楽譜情報440に対して、楽曲の再生の進行状況に応じて時間の経過とともに現在の再生位置を示すマーカー450が図面右方向に向かって移動する。ここで、マーカー450は、表示パネル106の上段の表示領域410に表示された前半の4小節分(第1小節〜第4小節)の演奏区間の再生が終了して図面右方端に到達すると、下段の表示領域420の図面左方端に移動して、当該表示領域420に表示された後半の4小節分(第5小節〜第8小節)の演奏区間の再生の進行状況に応じて図面左方端から右方向に移動する。そして、後半の4小節分の演奏区間の再生が終了してマーカー450が図面右方端に到達すると、再び上段の表示領域410の図面左方端に移動して、以降楽曲の最終小節の再生が終了するまで、上記と同様の動作を繰り返し実行する。
ユーザは表示パネル106のユーザ演奏コード表示エリア414、424に表示された楽譜情報440を視認することにより楽曲のメロディを演奏するとともに、楽曲コード表示エリア412、422に表示されたコード情報430を視認することにより楽曲の伴奏(コード)を演奏する。また、ユーザは表示パネル106の上段又は下段の表示領域410、420に移動表示されるマーカー450の動きを視認することにより楽曲の再生の進行状況を把握する。これにより、ユーザはマーカー450により示される楽曲の現在の再生位置に基づいて、楽曲コード表示エリア412、422の当該位置に表示されているコード情報430を把握して、そのコードの種類(例えばAm)を指定したり、同じコード種別のコード(例えばC)を指定したりして楽曲の伴奏を演奏する。
CPU202は、ユーザが楽曲のメロディや伴奏を演奏する際に指定した鍵盤102の音高情報を含む演奏データを読み込み、当該演奏データからコード情報を取得する(ステップS304;演奏データ取得処理)。演奏データからコード情報を取得する手法は、例えば複数(88鍵)配列された鍵盤102のうちの特定の鍵盤(メロディーと伴奏の境界となる鍵盤)よりも左側の伴奏領域において指示された鍵盤102の音高情報に基づいてコード情報を生成するものであってもよいし、メロディや伴奏の演奏により指定される全ての鍵盤102の音高情報を監視し、コードに対応する音高情報を抽出してコード情報を生成するものであってもよい。
次いで、CPU202は、演奏データ取得処理により取得されたコード情報、及び、再生されている楽曲のキー情報に基づいて、ROM204に記憶されているコード定義テーブルを参照することにより、コード(演奏コード)の種別を分類する(ステップS306;演奏データ分類処理)。次いで、CPU202は、分類されたコードの種別がトニックであるか、サブドミナントであるか、ドミナントであるかを判定し(ステップS308、S312、S316)、ROM204に記憶されている表示色定義テーブルを参照することにより、表示部212にユーザの演奏におけるコード情報を表示する際の表示色を設定する(表示色設定処理)。ここで、CPU202は、上述した初期化処理において楽曲のコード情報の表示色を設定する際に用いた表示色定義テーブルの定義情報に基づいて、ユーザの演奏データについてコードの種別を識別するための色情報(第2識別子)を設定する。これにより、CPU202は、例えばユーザの演奏により指定されたコードの種別がトニックの場合(ステップS308のYes)には緑色表示に設定し(ステップS310)、サブドミナントの場合(ステップS308のNoでステップS312のYes)には黄色表示に設定し(ステップS314)、ドミナントの場合(ステップS312のNoでステップS316のYes)には赤色表示に設定する(ステップS318)。また、CPU202は、コードの種別がトニック、ドミナント及びサブドミナントのいずれにも分類されない場合(ステップS316のNo)には白色(又は無着色)表示に設定する(ステップS320)。
次いで、CPU202は、楽曲データから新たに取得した楽曲情報があるか否かを判定する(ステップS322)。すなわち、CPU202は、楽曲の再生が進行して、表示パネル106の上段又は下段の表示領域410、420に表示された前半又は後半の4小節分の演奏区間の再生が終了して、記憶部208から読み出された楽曲データについて、当該表示領域410、420に表示するための、次の演奏区間の楽曲情報(コード情報及び楽譜情報)を抽出したか否かを判定する。
CPU202は、楽曲データからの新たな楽曲情報がある場合(ステップS322のYes)には、当該楽曲情報から取得した、次の4小節分の演奏区間のコード情報及び楽譜情報を、楽曲の再生が終了した表示領域410、420に表示する(ステップS324)。
一方、CPU202は、楽曲データからの新たな楽曲情報がない場合(ステップS322のNo)には、上記のステップS306〜S320において分類されたコードの種別、及び、当該コードの種別に応じて設定された表示色に基づいて、ユーザの演奏により指定されたコード情報を、表示部212の表示パネル106に所定の表示形態で表示する。具体的には、例えば図5に示すように、表示パネル106の表示領域410、420のうちの現在楽曲の再生が行われ、マーカー450が移動表示されている表示領域410の下段側のユーザ演奏コード表示エリア414において、マーカー450の位置を境界にして、時間的に過去となる楽譜情報440の領域(マーカー450の図面左側領域)を上書きして書き替えるように、ユーザの演奏により指定されたコード情報460がコードの種別に応じて設定された表示色で表示される(ステップS326;第2領域表示処理)。ここで、ユーザ演奏コード表示エリア414へのコード情報460の表示は、例えばユーザの演奏により指示された鍵盤102の音高情報を含む演奏データを読み込む際のデータ量単位(すなわち、分解能又は解像度)に応じて実行される。CPU202は、当該コード情報460を表示した後、上記のデータ量単位に応じた分解能分だけマーカー450を図面右方向に移動させる(ステップS328)。
図5に示した表示例においては、楽曲の再生の進行状況が第2小節の後半の位置まで移動したマーカー450により示されている。このときの楽曲のコード情報430は楽曲コード表示エリア412に示されているように第1小節ではコードC、第2小節ではコードAmであるのに対して、ユーザの演奏により指定されたコード情報460はユーザ演奏コード表示エリア414のマーカー450よりも図面左側の領域に示されているように第1小節及び第2小節ともコードCである状態が示されている。すなわち、ユーザは楽曲のコード情報430とは異なるコードを指定した演奏を行っていることになる。しかしながら、本実施形態における楽曲コード分類処理では、コードCとコードAmとは同じトニックに分類されるため、楽曲コード表示エリア412の第1小節のコードCと第2小節のコードAm、及び、ユーザ演奏コード表示エリア414のマーカー450よりも図面左側の領域(第1小節と第2小節の後半まで)のコードCは同じ表示色(緑色)で表示されることになる。ここで、一般に、異なる種類のコードであっても同じ種別のコードによる演奏であれば、曲調や曲の雰囲気に大きな変化が生じないことが知られている。
次いで、CPU202は、表示パネル106の上段又は下段の表示領域410、420において、楽曲の再生の進行状況に応じて図面右方向に向かって移動するマーカー450が当該表示領域410、420の図面右方端に到達したか否かを判定する(ステップS330)。マーカー450が上段又は下段の表示領域410、420の図面右方端に到達して、当該表示領域410、420に表示された4小節分(図5では表示領域410の第1小節〜第4小節)の演奏区間の再生が終了した状態である場合(ステップS330のYes)には、CPU202は、次の4小節分(図5では第5小節〜第8小節)の演奏区間のコード情報及び楽譜情報が表示された下段又は上段の表示領域420、410(図5では表示領域420)の図面左方端に移動させる(ステップS334)。さらに、CPU202は、演奏区間の再生が終了した表示領域410、420(図5では表示領域410)に表示するための楽曲データを読み出し、次の4小節分(第9小節〜第12小節)の演奏区間の楽曲情報(コード情報、キー情報、楽譜情報等)を抽出する(ステップS336)。そして、CPU202は、上記のステップS306に戻って、抽出された楽曲情報に基づいてコードの種別を分類し、以降、上記のステップS308〜S330の一連の処理動作を再度実行する。
一方、マーカー450が表示領域410、420の図面右方端に到達しておらず、当該表示領域410、420に表示された演奏区間を再生している途中の状態である場合(ステップS330のNo)には、CPU202は、楽曲の全ての演奏区間の再生が終了したか否か、或いは、ユーザによる演奏が終了したか否かを判定する(ステップS332)。楽曲の全ての演奏区間の再生が終了していない、或いは、ユーザによる演奏が終了していない場合(ステップSS332のNo)には、CPU202は、上記のステップS304に戻って、ユーザの演奏により指定された演奏データを引き続き読み込み、コード情報を取得して、以降、上記のステップS306〜S332の一連の処理動作を再度実行する。一方、楽曲の全ての演奏区間の再生が終了、或いは、ユーザによる演奏が終了した場合(ステップSS332のYes)には、CPU202は、電子楽器100における一連の制御方法(演奏情報表示方法)を終了する。
なお、上述した電子楽器の制御方法(演奏情報表示方法)に示したステップS322〜S326においては、楽曲データから取得した楽曲情報(コード情報や楽譜情報)があるか否かを判定して、次の演奏区間の楽曲情報を表示パネル106に表示する処理(ステップS324)と、ユーザの演奏により指定されたコード情報を表示パネル106のマーカー部分に色表示する処理(ステップS326)とを、選択的に実行する場合について説明した。本発明はこの手法に限定されるものではなく、次の演奏区間の楽曲情報を表示パネル106に表示する処理(ステップS324)と、ユーザの演奏により指定されたコード情報を表示パネル106に色表示する処理(ステップS326)とを、並列的に実行するものであってもよい。
上述したように、本実施形態によれば、ユーザは表示パネル106に表示された楽曲コード表示エリア412、422の表示色を視認することにより、楽曲の現在の再生位置を中心として時間的に過去及び未来となる特定の演奏区間(例えば4〜8小節分)のコード情報430を認識することができ、また、ユーザ演奏コード表示エリア414、424の表示色を視認することにより、ユーザの演奏により指定された現在及び過去のコード情報460を認識することができる。そして、楽曲コード表示エリア412、422及びユーザ演奏コード表示エリア414、424がそれぞれ、楽曲の各小節や拍に対応するように上下方向に配置されているので、ユーザは楽曲の演奏中や演奏後にコードの種類や種別、その変化のタイミングが、ユーザ自身の演奏と比較して一致しているかの対応状況を容易に判別して把握することができる。
また、本実施形態によれば、ユーザ演奏コード表示エリア414、424に楽曲の特定の演奏区間の楽譜情報が表示され、マーカー450により楽曲の再生における現在の位置が示されているので、ユーザは楽曲の再生の進行状況を認識しつつコードの種類や種別、その変化タイミングを容易に把握して演奏を行うことができる。
また、本実施形態によれば、各コードには理論的な種別(又は機能)があり、楽曲の再生や演奏時におけるコードの進行(コードの種類やその変化タイミング)はコードの種別に基づいて組み立てられていることを、音楽理論に関する知識の有無に関わらず視覚を通して直感的に理解することができる。
さらに、本実施形態によれば、上述したように、一般に、異なる種類のコードであっても同じ種別のコードによる演奏であれば、曲調や曲の雰囲気に大きな変化を生じることはないので、例えば楽曲の再生時にコードの発音をオフにし、表示パネル106に表示された楽曲のコード情報430のみを見ながらユーザが当該楽曲のコード進行と一致するようにコードを指定して演奏することにより、楽曲に違うコードを割り当てる楽曲アレンジのような体験を得ることができる。
<変形例>
次に、上述した実施形態の変形例について説明する。
図6は、本実施形態に係る電子楽器の制御方法に適用される楽曲情報の他の表示例を示す図である。ここで、上述した実施形態と同等の表示内容についてはその説明を省略する。
上述した実施形態においては、電子楽器100の表示パネル106の各表示領域410、420に、楽曲のコード情報とユーザの演奏により指定されたコード情報とを、コードの分類を識別するための色情報を用いて演奏区間ごとに対応付けて表示する演奏情報表示方法について説明した。本変形例においては、上述した実施形態に示した表示形態に加え、楽曲のコードの変化に基づいて、曲調の展開を示すコード進行のひとまとまりであるカデンツを識別するための情報(矢印、色情報等の演奏区間識別記号)を表示する演奏情報表示方法を有している。
本変形例においては、CPU202は、上述した実施形態に示した機能に加え、楽曲データから抽出された楽曲情報(キー情報、コード情報)に基づいて分類されるコードの種別をRAM206等に順次保存し、コードの種別が変化するたびにひとまとまりのコード進行からなるカデンツであるか否かを判定し、カデンツであると判定した場合には、その種類や範囲を識別するための色情報や矢印記号等(第3識別子)を用いて、表示パネル106の各表示領域410、420に表示する制御動作を実行する。
ここで、コード進行がカデンツであるか否か、またその種類については、例えばROM204に予め複数種類のカデンツを示すコード進行のパターンを記憶しておき、分類されたコードの種別が変化するたびに当該パターンを参照することにより、カデンツであるか判定するとともにその種類を判定する。また、判定されたカデンツの種類を色情報により識別するための定義情報を、予めROM204に記憶しておき、カデンツの種類に応じた表示色を設定する。なお、カデンツに関する情報は、予め楽曲情報として楽曲データに含まれているものであってもよい。
具体的には、例えば図6に示すように、表示パネル106の各表示領域410、420には、上述した実施形態と同様に、楽曲のコード情報430がコードの種別に応じた表示色で表示される楽曲コード表示エリア(412、422と、楽曲の楽譜情報440が表示されるユーザ演奏コード表示エリア414、424とが上下方向に並べられて配置されている。また、各表示領域410、420には、それぞれカデンツ表示エリア(第3領域)416、426が設けられ、楽曲について分類されたコードの種別の変化に基づいて判定されたカデンツの種類やコード進行の範囲を有するカデンツ情報が、カデンツの種類に応じて設定された表示色で、当該カデンツを示すひとまとまりのコード進行の範囲を示す両矢印記号を用いて表示される(第3領域表示処理)。
ここで、カデンツを示すひとまとまりのコード進行は、一例として、コードの種別がトニックから始まり、サブドミナント、ドミナントを経て再びトニックを示して終了するというものがある。図6に示した表示例においては、表示パネル106の上段及び下段の表示領域410、420のカデンツ表示エリア416、426には、第1小節から第5小節の後半までの範囲を規定する矢印記号470が表示されている。また、下段の表示領域420のカデンツ表示エリア426には、第5小節の後半から第9小節までの範囲を規定する矢印記号480が表示されている。
矢印記号470は、コードの種別がトニックに分類される第1小節の楽曲のコードC及び第2小節のコードAmと、サブドミナントに分類される第3小節のコードFと、ドミナントに分類される第4小節のコードGと、トニックに分類される第5小節のコードCとを含む範囲のひとまとまりのコード進行を有するカデンツを示している。また、矢印記号480は、コードの種別がトニックに分類される第5小節のコードCと、種別が分類されない第5小節のコードC#と、サブドミナントに分類される第6小節のコードDmと、ドミナントに分類される第7小節のコードGと、トニックに分類される第8小節のコードCとを含む範囲のひとまとまりのコード進行を有するカデンツを示している。これらのカデンツを示す矢印記号470、480に設定される表示色は、カデンツの種類ごとに異なる色情報が対応付けられる。なお、本変形例の表示例(図6)においては、カデンツの種類が同じである場合を示しているので、矢印記号470、480に設定される表示色は、同じ色情報が対応付けられている。
このように、本変形例によれば、ユーザは表示パネル106に表示された楽曲コード表示エリア412、422及びユーザ演奏コード表示エリア414、424の表示色を比較することにより、楽曲のコードの種類や種別、その変化のタイミングとユーザ自身の演奏との対応状況を容易に判別して把握することができるとともに、カデンツ表示エリア416、426の矢印記号470、480及びその表示色を視認することにより、楽曲におけるカデンツの構成や繋がり(すなわち、曲調の展開)を視覚を通して直感的に理解することができるとともに、カデンツを意識しつつ演奏を行うことができる。
なお、上述した実施形態及び変形例においては、図4〜図6に示したように、表示パネル106に楽曲のコード情報及びユーザの演奏により指定されたコード情報に加え、楽曲の楽譜情報、さらにはカデンツ情報を表示した形態について説明したが、本発明はこれに限定されるものではなく、楽曲のコード情報及びユーザの演奏により指定されたコード情報を必須の表示要素として、その他の楽譜情報やカデンツ情報については、ユーザが任意に表示のオン、オフを設定できるようにしてもよい。
<第2の実施形態>
次に、本発明に係る演奏情報表示装置を備えた電子楽器の第2の実施形態について説明する。
図7は、本発明に係る演奏情報表示装置を備えた電子楽器の第2の実施形態を示す外観図である。図8は、本実施形態に係る情報機器に適用されるハードウェアの構成例を示すブロック図である。ここで、上述した第1の実施形態と同等の構成についてはその説明を省略する。
上述した第1の実施形態においては、本発明に係る演奏情報表示装置を電子楽器に搭載した形態、すなわち、演奏情報表示装置と電子楽器とが一体である形態について説明した。第2の実施形態においては、演奏情報表示装置と電子楽器とが別体である形態を有している。
本実施形態においては、例えば図7に示すように、電子鍵盤楽器等の電子楽器100と、スマートフォンやタブレット端末、パーソナルコンピュータ等の情報機器700と、を有している。電子楽器100は、上述した第1の実施形態に示した電子楽器100と略同等のハードウェア構成(図2参照)を有し、本発明特有の演奏情報表示方法を実現するための機能を取り除いた構成を有している。すなわち、電子楽器100は、少なくともユーザの演奏や内蔵する楽曲データに基づく楽音を生成して発音する機能と、当該演奏により指定される音高情報を含む演奏データや内蔵する楽曲データを外部の情報機器700に送出する機能と、を有している。
情報機器700は、上述した第1の実施形態に示した演奏情報表示方法を実現するための機能を有している。情報機器700は、例えば図7、図8に示すように、電子楽器100から送出された楽曲データ、及び、ユーザにより演奏された演奏データに含まれるコード情報等を所定の表示形態で表示部810に表示する演奏情報表示方法を実行するCPU802及びRAM806と、演奏情報表示方法を実行するための制御プログラムやコード定義テーブル、表示色定義テーブルを記憶するROM804と、機器本体702の前面や側面に設けられた操作ボタン706や表示部810の表示パネル704と一体的に設けられたタッチパネル、マウスやキーボード等を備える操作部808とを有している。また、情報機器700は、外部からの音情報を取り込むマイク708等を備えた受音部812と、内部で生成された楽音等を送出する発音部814と、外部の電子楽器100から送出される演奏データや楽曲データを取り込む通信I/F部816と、を有している。上記の各部はそれぞれシステムバス830に接続されている。
ここで、通信I/F部816において、電子楽器100から送出される演奏データや楽曲データを取り込む手法は、例えばオーディオケーブルや各種のデータ通信ケーブルを介した有線方式を適用するものであってもよいし、ブルートゥース(登録商標)(Bluetooth(登録商標))やワイファイ(WiFi(登録商標))等の各種の無線方式を適用するものであってもよい。
上記のような構成において、情報機器700は、電子楽器100から送出される演奏データや楽曲データに基づいて、表示部810の表示パネル704に、例えば図4〜図6に示したような表示形態で、楽曲のコード情報とユーザの演奏により指定されたコード情報とを、コードの分類を識別するための色情報を用いて演奏区間ごとに対応付けて表示する。また、楽曲の再生の進行状況に応じて現在の再生位置を示すマーカーが移動表示される。
ここで、情報機器700は、例えば電子楽器100に適用される電子鍵盤楽器の譜面台や譜面立てに載置されることにより、表示パネル704に表示された演奏情報がユーザにより良好に視認される。また、情報機器700において、第1の実施形態と同等の演奏情報表示方法を実現するための制御プログラムは、予め情報機器700のROM804やCPU802に組み込まれているものであってもよいし、アプリケーションプログラム(アプリ)として提供したものをインストールするものであってもよい。
このように、本実施形態によれば、電子楽器100が本発明特有の演奏情報表示方法を実現するための機能を有していない場合であっても、汎用のスマートフォンやタブレット端末、パーソナルコンピュータ等の情報機器700が有する機能や構成を適用して、表示パネル704に楽曲のコード情報やユーザの演奏により指定されたコード情報を、当該コードの種別に応じて定義付けられた表示色で表示することができる。これにより、電子楽器100の機種や種類に関わらず、ユーザは広く普及している情報機器700を用いて、楽曲のコードの種類や種別、その変化のタイミングが、ユーザ自身の演奏と比較して一致しているかの対応状況を容易に判別して把握することができる。
なお、本実施形態においては、通信I/F部816を介して有線方式や無線方式を適用して、外部の電子楽器100から送出される演奏データや楽曲データを取り込む場合について説明したが、本発明はこれに限定されるものではなく、例えばユーザの演奏により生成され、電子楽器100の発音部108のスピーカ等から発音された楽音を、情報機器700の受音部812のマイク708により取り込み、コードの種別を分類して予め定義付けられた表示色で表示するものであってもよい。この形態の場合、楽音を発音する楽器は電子楽器に限定されるものではなく、例えばグランドピアノやアコースティックギター等のアコースティック楽器を適用するものであってもよい。
また、上述した各実施形態においては、電子楽器を用いてユーザが演奏を行う場合について説明したが、本発明はこれに限定されるものではなく、例えばスマートフォンやタブレット端末、パーソナルコンピュータ等の情報機器700においてアプリをインストールすることにより、情報機器700を電子鍵盤楽器等の電子楽器として適用するとともに、本発明特有の演奏情報表示方法を実現する機能を備えるものであってもよい。
また、上述した各実施形態においては、電子楽器100の表示パネル106、又は、情報機器700の表示パネル704に表示された楽曲のコード情報や楽譜情報に対して、楽曲の再生位置を示すマーカ−450が相対的に移動して表示される形態を示したが、本発明はこれに限定されるものではなく、楽曲の再生位置を示すマーカ−450の表示位置を固定して、楽曲のコード情報や楽譜情報を相対的に移動させるように表示する形態を有しているものであってもよい。
以上、本発明のいくつかの実施形態について説明したが、本発明は、上述した実施形態に限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲とを含むものである。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
(付記)
[1]
複数の区間を有する曲データを再生する曲データ再生処理と、
前記曲データにおける前記複数の区間のそれぞれに含まれるコードが、トニック、ドミナント及びサブドミナントのいずれに分類されるかを識別できるように、表示部における前記複数の区間に対応する第1領域内の領域に第1識別子をそれぞれ表示する第1領域表示処理と、
前記曲データに含まれる或る区間の再生に合わせてユーザにより演奏された、前記或る区間に対応する演奏データを取得する演奏データ取得処理と、
前記演奏データ取得処理により取得された前記演奏データが、前記トニック、前記ドミナント及び前記サブドミナントのいずれに分類されるかを決定する演奏データ分類処理と、
前記演奏データ分類処理により決定された前記演奏データの分類を識別できるように、前記表示部における前記或る区間に対応する第2領域内の領域に第2識別子を表示する第2領域表示処理と、
を実行することを特徴とする演奏情報表示装置。
[2]
[1]に記載の演奏情報表示装置において、
前記第1識別子及び前記第2識別子は、色情報であり、前記トニック、前記ドミナント及び前記サブドミナントにそれぞれ異なる色情報が対応付けられていることを特徴とする演奏情報表示装置。
[3]
[1]又は[2]に記載の演奏情報表示装置において、
前記第1領域及び前記第2領域は、前記表示部における上下方向に並べられて設けられていることを特徴とする演奏情報表示装置。
[4]
[1]から[3]のいずれかに記載の演奏情報表示装置において、
前記曲データの再生に合わせて前記表示部内を移動し、前記曲データの現在の再生位置を示すマーカーを表示するマーカー表示処理、を実行することを特徴とする演奏情報表示装置。
[5]
[1]から[4]のいずれかに記載の演奏情報表示装置において、
前記表示部における前記第2領域は、前記ユーザが演奏するための楽譜情報が表示されており、
前記第2領域表示処理は、前記ユーザにより演奏された区間の前記楽譜情報に替えて、前記第2識別子を表示することを特徴とする演奏情報表示装置。
[6]
[1]から[5]のいずれかに記載の演奏情報表示装置において、
前記曲データにおける前記複数の区間のそれぞれに含まれる前記コードの変化に基づいて判別される前記コードの進行におけるひとまとまりの範囲を識別できるように、前記表示部における前記複数の区間に対応する第3領域内の領域に第3識別子を表示する第3領域表示処理を、さらに実行することを特徴とする演奏情報表示装置。
[7]
[1]から[6]のいずれかに記載の演奏情報表示装置と、
前記コードを指定するための演奏操作子と、
前記演奏操作子の操作に応じた楽音を出力する発音部と、
を備えることを特徴とする電子楽器。
[8]
複数の区間を有する曲データを再生する曲データ再生処理と、
前記曲データにおける前記複数の区間のそれぞれに含まれるコードが、トニック、ドミナント及びサブドミナントのいずれに分類されるかを識別できるように、表示部における前記複数の区間に対応する第1領域内の領域に第1識別子をそれぞれ表示する第1領域表示処理と、
前記曲データに含まれる或る区間の再生に合わせてユーザにより演奏された、前記或る区間に対応する演奏データを取得する演奏データ取得処理と、
前記演奏データ取得処理により取得された前記演奏データが、前記トニック、前記ドミナント及び前記サブドミナントのいずれに分類されるかを決定する演奏データ分類処理と、
前記演奏データ分類処理により決定された前記演奏データの分類を識別できるように、前記表示部における前記或る区間に対応する第2領域内の領域に第2識別子を表示する第2領域表示処理と、
を実行することを特徴とする演奏情報表示方法。
[9]
演奏情報表示装置のコンピュータに、
複数の区間を有する曲データを再生する曲データ再生処理と、
前記曲データにおける前記複数の区間のそれぞれに含まれるコードが、トニック、ドミナント及びサブドミナントのいずれに分類されるかを識別できるように、表示部における前記複数の区間に対応する第1領域内の領域に第1識別子をそれぞれ表示する第1領域表示処理と、
前記曲データに含まれる或る区間の再生に合わせてユーザにより演奏された、前記或る区間に対応する演奏データを取得する演奏データ取得処理と、
前記演奏データ取得処理により取得された前記演奏データが、前記トニック、前記ドミナント及び前記サブドミナントのいずれに分類されるかを決定する演奏データ分類処理と、
前記演奏データ分類処理により決定された前記演奏データの分類を識別できるように、前記表示部における前記或る区間に対応する第2領域内の領域に第2識別子を表示する第2領域表示処理と、
を実行させることを特徴とする演奏情報表示プログラム。
100 電子楽器
102 鍵盤
106 表示パネル
108 発音部
202 CPU
204 ROM
208 記憶部
212 表示部
214 I/F部
410、420 表示領域
412、422 楽曲コード表示エリア
414、424 ユーザ演奏コード表示エリア
416、426 カデンツ表示エリア
430、460 コード情報
440 楽譜情報
450 マーカー
470、480 矢印記号
700 情報機器
704 表示パネル
802 CPU
804 ROM
810 表示部
812 受音部
816 通信I/F部

Claims (9)

  1. 複数の区間を有する曲データを再生する曲データ再生処理と、
    前記曲データにおける前記複数の区間のそれぞれに含まれるコードが、トニック、ドミナント及びサブドミナントのいずれに分類されるかを識別できるように、表示部における前記複数の区間に対応する第1領域内の領域に第1識別子をそれぞれ表示する第1領域表示処理と、
    前記曲データに含まれる或る区間の再生に合わせてユーザにより演奏された、前記或る区間に対応する演奏データを取得する演奏データ取得処理と、
    前記演奏データ取得処理により取得された前記演奏データが、前記トニック、前記ドミナント及び前記サブドミナントのいずれに分類されるかを決定する演奏データ分類処理と、
    前記演奏データ分類処理により決定された前記演奏データの分類を識別できるように、前記表示部における前記或る区間に対応する第2領域内の領域に第2識別子を表示する第2領域表示処理と、
    を実行することを特徴とする演奏情報表示装置。
  2. 請求項1に記載の演奏情報表示装置において、
    前記第1識別子及び前記第2識別子は、色情報であり、前記トニック、前記ドミナント及び前記サブドミナントにそれぞれ異なる色情報が対応付けられていることを特徴とする演奏情報表示装置。
  3. 請求項1又は請求項2に記載の演奏情報表示装置において、
    前記第1領域及び前記第2領域は、前記表示部における上下方向に並べられて設けられていることを特徴とする演奏情報表示装置。
  4. 請求項1から請求項3のいずれかに記載の演奏情報表示装置において、
    前記曲データの再生に合わせて前記表示部内を移動し、前記曲データの現在の再生位置を示すマーカーを表示するマーカー表示処理、を実行することを特徴とする演奏情報表示装置。
  5. 請求項1から請求項4のいずれかに記載の演奏情報表示装置において、
    前記表示部における前記第2領域は、前記ユーザが演奏するための楽譜情報が表示されており、
    前記第2領域表示処理は、前記ユーザにより演奏された区間の前記楽譜情報に替えて、前記第2識別子を表示することを特徴とする演奏情報表示装置。
  6. 請求項1から請求項5のいずれかに記載の演奏情報表示装置において、
    前記曲データにおける前記複数の区間のそれぞれに含まれる前記コードの変化に基づいて判別される前記コードの進行におけるひとまとまりの範囲を識別できるように、前記表示部における前記複数の区間に対応する第3領域内の領域に第3識別子を表示する第3領域表示処理を、さらに実行することを特徴とする演奏情報表示装置。
  7. 請求項1から請求項6のいずれかに記載の演奏情報表示装置と、
    前記コードを指定するための演奏操作子と、
    前記演奏操作子の操作に応じた楽音を出力する発音部と、
    を備えることを特徴とする電子楽器。
  8. 複数の区間を有する曲データを再生する曲データ再生処理と、
    前記曲データにおける前記複数の区間のそれぞれに含まれるコードが、トニック、ドミナント及びサブドミナントのいずれに分類されるかを識別できるように、表示部における前記複数の区間に対応する第1領域内の領域に第1識別子をそれぞれ表示する第1領域表示処理と、
    前記曲データに含まれる或る区間の再生に合わせてユーザにより演奏された、前記或る区間に対応する演奏データを取得する演奏データ取得処理と、
    前記演奏データ取得処理により取得された前記演奏データが、前記トニック、前記ドミナント及び前記サブドミナントのいずれに分類されるかを決定する演奏データ分類処理と、
    前記演奏データ分類処理により決定された前記演奏データの分類を識別できるように、前記表示部における前記或る区間に対応する第2領域内の領域に第2識別子を表示する第2領域表示処理と、
    を実行することを特徴とする演奏情報表示方法。
  9. 演奏情報表示装置のコンピュータに、
    複数の区間を有する曲データを再生する曲データ再生処理と、
    前記曲データにおける前記複数の区間のそれぞれに含まれるコードが、トニック、ドミナント及びサブドミナントのいずれに分類されるかを識別できるように、表示部における前記複数の区間に対応する第1領域内の領域に第1識別子をそれぞれ表示する第1領域表示処理と、
    前記曲データに含まれる或る区間の再生に合わせてユーザにより演奏された、前記或る区間に対応する演奏データを取得する演奏データ取得処理と、
    前記演奏データ取得処理により取得された前記演奏データが、前記トニック、前記ドミナント及び前記サブドミナントのいずれに分類されるかを決定する演奏データ分類処理と、
    前記演奏データ分類処理により決定された前記演奏データの分類を識別できるように、前記表示部における前記或る区間に対応する第2領域内の領域に第2識別子を表示する第2領域表示処理と、
    を実行させることを特徴とする演奏情報表示プログラム。
JP2018188196A 2018-10-03 2018-10-03 演奏情報表示装置及び演奏情報表示方法、演奏情報表示プログラム、並びに、電子楽器 Active JP7157377B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018188196A JP7157377B2 (ja) 2018-10-03 2018-10-03 演奏情報表示装置及び演奏情報表示方法、演奏情報表示プログラム、並びに、電子楽器
US16/584,269 US10909958B2 (en) 2018-10-03 2019-09-26 Electronic musical interface

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018188196A JP7157377B2 (ja) 2018-10-03 2018-10-03 演奏情報表示装置及び演奏情報表示方法、演奏情報表示プログラム、並びに、電子楽器

Publications (2)

Publication Number Publication Date
JP2020056938A true JP2020056938A (ja) 2020-04-09
JP7157377B2 JP7157377B2 (ja) 2022-10-20

Family

ID=70051162

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018188196A Active JP7157377B2 (ja) 2018-10-03 2018-10-03 演奏情報表示装置及び演奏情報表示方法、演奏情報表示プログラム、並びに、電子楽器

Country Status (2)

Country Link
US (1) US10909958B2 (ja)
JP (1) JP7157377B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11308924B2 (en) * 2017-09-07 2022-04-19 Yamaha Corporation Chord information extraction device, chord information extraction method and non-transitory computer readable medium storing chord information extraction program
JP7290355B1 (ja) 2021-12-27 2023-06-13 浩紀 三浦 演奏データ表示システム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10714065B2 (en) * 2018-06-08 2020-07-14 Mixed In Key Llc Apparatus, method, and computer-readable medium for generating musical pieces
JP6977741B2 (ja) * 2019-03-08 2021-12-08 カシオ計算機株式会社 情報処理装置、情報処理方法、演奏データ表示システム、およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008164932A (ja) * 2006-12-28 2008-07-17 Sony Corp 音楽編集装置および方法、並びに、プログラム
JP2015031738A (ja) * 2013-07-31 2015-02-16 株式会社河合楽器製作所 コード進行推定検出装置及びコード進行推定検出プログラム
JP2016224462A (ja) * 2016-09-02 2016-12-28 ヤマハ株式会社 楽譜表示装置、楽譜表示方法、および当該楽譜表示方法を実現するためのプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63106781A (ja) 1986-10-24 1988-05-11 松下電器産業株式会社 電子楽器の楽譜表示装置
JP2638021B2 (ja) * 1987-12-28 1997-08-06 カシオ計算機株式会社 自動伴奏装置
JP3463562B2 (ja) 1998-06-02 2003-11-05 ヤマハ株式会社 和音進行情報表示装置及び方法並びにそのための記録媒体
JP3541686B2 (ja) * 1998-07-21 2004-07-14 ヤマハ株式会社 演奏練習装置と記録媒体
JP3484986B2 (ja) * 1998-09-09 2004-01-06 ヤマハ株式会社 自動作曲装置、自動作曲方法および記憶媒体
JP3533974B2 (ja) * 1998-11-25 2004-06-07 ヤマハ株式会社 曲データ作成装置および曲データ作成プログラムを記録したコンピュータで読み取り可能な記録媒体
US7705231B2 (en) * 2007-09-07 2010-04-27 Microsoft Corporation Automatic accompaniment for vocal melodies
JP5040927B2 (ja) 2009-01-09 2012-10-03 ヤマハ株式会社 演奏教習装置及びプログラム
JP6205699B2 (ja) 2012-10-12 2017-10-04 ヤマハ株式会社 楽譜表示装置、楽譜表示方法、および当該楽譜表示方法を実現するためのプログラム
FI20135621L (fi) * 2013-06-04 2014-12-05 Berggram Dev Oy Ristikkoon perustuva käyttöliittymä sointuesitystä varten kosketusnäyttölaitteessa

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008164932A (ja) * 2006-12-28 2008-07-17 Sony Corp 音楽編集装置および方法、並びに、プログラム
JP2015031738A (ja) * 2013-07-31 2015-02-16 株式会社河合楽器製作所 コード進行推定検出装置及びコード進行推定検出プログラム
JP2016224462A (ja) * 2016-09-02 2016-12-28 ヤマハ株式会社 楽譜表示装置、楽譜表示方法、および当該楽譜表示方法を実現するためのプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11308924B2 (en) * 2017-09-07 2022-04-19 Yamaha Corporation Chord information extraction device, chord information extraction method and non-transitory computer readable medium storing chord information extraction program
JP7290355B1 (ja) 2021-12-27 2023-06-13 浩紀 三浦 演奏データ表示システム
JP2023097006A (ja) * 2021-12-27 2023-07-07 浩紀 三浦 演奏データ表示システム

Also Published As

Publication number Publication date
JP7157377B2 (ja) 2022-10-20
US20200111467A1 (en) 2020-04-09
US10909958B2 (en) 2021-02-02

Similar Documents

Publication Publication Date Title
JP4094236B2 (ja) 演奏支援装置、演奏支援方法及び同方法をコンピュータで実現させる演奏支援プログラム
US9558727B2 (en) Performance method of electronic musical instrument and music
JP7157377B2 (ja) 演奏情報表示装置及び演奏情報表示方法、演奏情報表示プログラム、並びに、電子楽器
US10403166B2 (en) Musical performance assistance device and method
WO2018159831A1 (ja) 演奏支援装置及び方法
JP7259817B2 (ja) 電子楽器、方法及びプログラム
JP2023118866A (ja) 電子楽器、方法及びプログラム
JP4650182B2 (ja) 自動伴奏装置及びプログラム
JP5040927B2 (ja) 演奏教習装置及びプログラム
WO2018159830A1 (ja) 演奏支援装置及び方法
JP6977741B2 (ja) 情報処理装置、情報処理方法、演奏データ表示システム、およびプログラム
JP2016224462A (ja) 楽譜表示装置、楽譜表示方法、および当該楽譜表示方法を実現するためのプログラム
JP2014077965A (ja) 楽譜表示装置、楽譜表示方法、および当該楽譜表示方法を実現するためのプログラム
JP6520162B2 (ja) 伴奏教習装置および伴奏教習プログラム
JP4131279B2 (ja) 合奏パラメータ表示装置
JP2008089975A (ja) 電子楽器
JP5847048B2 (ja) ピアノロール型譜表示装置、ピアノロール型譜表示プログラム、及びピアノロール型譜表示方法
JP3783687B2 (ja) 演奏練習装置及びプログラム
WO2018159829A1 (ja) 演奏支援装置及び方法
JP2007225916A (ja) オーサリング装置、オーサリング方法およびプログラム
JP7338669B2 (ja) 情報処理装置、情報処理方法、演奏データ表示システム、およびプログラム
JP2006251821A (ja) 演奏支援装置、演奏支援方法及び同方法をコンピュータで実現させる演奏支援プログラム
JP4548365B2 (ja) 楽譜表示装置及びプログラム
JP5399831B2 (ja) 音楽ゲームシステム及びそのコンピュータプログラム並びに効果音データの生成方法
JP2024089976A (ja) 電子機器、電子楽器、アドリブ演奏方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220920

R150 Certificate of patent or registration of utility model

Ref document number: 7157377

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150