JP2017227785A - 演奏指示装置、演奏指示プログラム、および演奏指示方法 - Google Patents

演奏指示装置、演奏指示プログラム、および演奏指示方法 Download PDF

Info

Publication number
JP2017227785A
JP2017227785A JP2016124441A JP2016124441A JP2017227785A JP 2017227785 A JP2017227785 A JP 2017227785A JP 2016124441 A JP2016124441 A JP 2016124441A JP 2016124441 A JP2016124441 A JP 2016124441A JP 2017227785 A JP2017227785 A JP 2017227785A
Authority
JP
Japan
Prior art keywords
sound
timing
pitch
information
performance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016124441A
Other languages
English (en)
Other versions
JP6729052B2 (ja
Inventor
涼美 金田
Suzumi Kanada
涼美 金田
宇新 鄭
U-Sin Jeong
宇新 鄭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2016124441A priority Critical patent/JP6729052B2/ja
Priority to PCT/JP2017/021794 priority patent/WO2017221766A1/ja
Priority to CN201780038866.3A priority patent/CN109416905B/zh
Publication of JP2017227785A publication Critical patent/JP2017227785A/ja
Priority to US16/229,249 priority patent/US10726821B2/en
Application granted granted Critical
Publication of JP6729052B2 publication Critical patent/JP6729052B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0016Means for indicating which keys, frets or strings are to be actuated, e.g. using lights or leds
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/076Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

【課題】補助音が発音されることによる演奏者が感じる煩わしさを軽減することができる演奏指示装置などを提供すること。【解決手段】演奏者により押された鍵に対応する音高は「ノートナンバー」の示す音高と一致するとCPU16が判断することに応じて(S37:YES)、ガイド音タイミング前の場合、ガイド音タイミングではないと判断し(S53:NO)、ステップS55をスキップして、ステップS59へ進むため、電子鍵盤楽器1は「ノートナンバー」に基づくガイド音を発音しない。ガイド表示している鍵を操作できた演奏者は、補助音であるガイド音を聴くことが回避され、ガイド音が放音された場合の煩わしさから解放されることができる。【選択図】図5

Description

本発明は、演奏指示装置、演奏指示プログラム、および演奏指示方法に関するものである。
従来より、演奏データに基づいて自動演奏する電子楽器がある。特許文献1には、補助演奏のガイド音を小さな音量で自動演奏する電子楽器が記載されている。また、特許文献2には、鍵盤を操作すべきタイミングでリズム音を発音する電子楽器が記載されている。上記の電子楽器によれば、演奏者は電子楽器に自動演奏を行わせつつ、自身も鍵盤を操作して発音させることにより、演奏の練習をすることができる。鍵盤を操作すべきタイミングで、ガイド音あるいはリズム音などの補助音が発音されるため、演奏者は曲を把握し易くなる。
特開平07−306680号公報 特開平08−160948号公報
しかしながら、演奏者が操作すべきタイミングで鍵盤を操作した場合には、自身の操作による音と補助音とが重複してしまい、補助音を煩わしく感じてしまうおそれがあった。
本願は、上記の課題に鑑み提案されたものであって、補助音が発音されることによる演奏者が感じる煩わしさを軽減することができる演奏指示装置などを提供することを目的とする。
(1)本願に係る演奏指示装置は、タイミング情報と音高情報とが対応付けられた音情報を順次取得するタイミング取得手段と、音高に対応する操作子が受け付けた操作に応じた音高を示す操作情報を取得する操作取得手段と、演奏テンポを取得する演奏テンポ取得手段と、タイミング情報および演奏テンポに基づいて、発音タイミングを検出するタイミング検出手段と、発音タイミング以後に、当該発音タイミングに対応する音高情報と、操作情報が示す音高とが対応するか否かを判定する判定手段と、判定手段が対応しないと判定する場合、発音タイミングの後に音高情報に基づく音を放音し、判定手段が対応すると判定する場合、音高情報に基づく音を放音しない放音手段と、を備えることを特徴とする。
発音タイミング以後に、当該発音タイミングに対応する音高情報と、操作情報が示す音高とが対応しないと判定手段が判定する場合には、発音タイミングの後に演奏指示装置は音高情報に基づく音を放音する。音高情報と対応する音高に対応する操作子を操作できなかった演奏者は、音高情報に応じた音を聴くことができるため、放音させるべき音を認識することができる。一方、音高情報と対応する音高に対応する操作子が操作された場合には、演奏指示装置は音高情報に基づく音を放音しない。音高情報と対応する音高に対応する操作子を操作できた演奏者は、音高情報に基づく音を聴くことが回避され、音高情報に基づく音が放音された場合の煩わしさから解放されることができる。
(2)また、発音タイミングからの経過時間に基づいて、判定手段が判定する判定タイミングを取得する第1取得手段を備えることを特徴とする。これにより、判定手段は、第1取得手段が取得した判定タイミングで判定をすることができる。
(3)また、音情報を有する楽曲データを取得する楽曲取得手段と、音高情報に基づいて音高を示す情報を表示する表示手段と、発音タイミングに基づいて、表示手段が音高を示す情報を表示する表示タイミングを取得する第2取得手段と、を備えることを特徴とする。これにより、演奏指示装置は、音高を示す情報を表示することができる。演奏者は、表示された音高を示す情報を見て、すべき操作を認識することができる。
(4)表示タイミングは、発音タイミングよりも早いことを特徴とする。演奏指示装置は、演奏者が操作すべき発音タイミングより早く音高を示す情報を表示する。これにより、演奏者は、表示を見て、次にすべき操作を認識することができる。
さらに、本願に係る発明は、演奏指示装置の発明に限定されることなく、演奏指示装置に実行させるプログラム、演奏指示装置に演奏指示させる演奏指示方法の発明としても実施し得るものである。
本願に係る演奏記録装置などによれば、補助音である音高情報に基づく音が発音されることによる演奏者が感じる煩わしさを軽減することができる演奏指示装置などを提供することができる。
実施形態に係る電子鍵盤楽器の電気的構成を示すブロック図である。 レッスン機能および演奏ガイド処理を説明するタイミングチャート図である。 演奏処理の処理内容を示すフローチャートである。 演奏ガイド処理の前半の処理内容を示すフローチャートである。 演奏ガイド処理の後半の処理内容を示すフローチャートである。
電子鍵盤楽器1の電気的構成について図1を用いて説明する。電子鍵盤楽器1は、演奏者が鍵盤を操作するのに応じて、演奏音を発音する機能の他に、レッスン機能などを備えている。
電子鍵盤楽器1は、鍵盤10、検出回路11、ユーザインターフェース12、音源回路13、効果回路14、サウンドシステム15、CPU16、第1タイマ31、第2タイマ32、RAM18、ROM19、データ記憶部20、ネットワークインターフェース21などを備えている。CPU16はROM19に記憶されている各種のプログラムを実行することによって、各部を制御する。ここで、各部とは、バス22を介してCPU16と接続される検出回路11、ユーザインターフェース12、音源回路13、およびネットワークインターフェース21などである。RAM18は、CPU16が各種の処理を実行するための主記憶装置として用いられる。データ記憶部20は、MIDI(Musical Instrument Digital Interface;登録商標)形式の楽曲データなどを記憶する。データ記憶部20は、例えばフラッシュメモリなどで実現される。第1タイマ31、第2タイマ32は、CPU16の命令に従って、設定時間までの残り時間をカウントし、残り時間が0となると、CPU16に信号を出力する。
鍵盤10は音高に対応した白鍵および黒鍵を複数備えている。検出回路11はMIDI形式の演奏データを生成するために、鍵盤10の動きを検出し、検出した演奏検出信号をCPU16へ送信する。CPU16は受信した演奏検出信号に基づいてMIDI形式の演奏データを生成する。
音源回路13は、MIDI形式のデータに信号処理を行い、デジタルオーディオ信号を出力する。効果回路14は、音源回路13から出力されるオーディオ信号に例えばリバーブなどの効果を付加したデジタルオーディオ信号を出力する。サウンドシステム15は、不図示のデジタルアナログ変換器、アンプ、およびスピーカなどを有する。デジタルアナログ変換器は、効果回路14から出力されるデジタルオーディオ信号をアナログオーディオ信号に変換し、アンプへ出力する。アンプは、アナログオーディオ信号を増幅し、スピーカへ出力する。スピーカは入力されるアナログオーディオ信号に応じて発音する。このように、電子鍵盤楽器1は鍵盤10の操作に応じて、演奏音を発音する。また、データ記憶部20に記憶されている楽曲データに基づいて、自動演奏音を発音する。以下、自動演奏音を発音することを、再生すると記載する場合がある。
ユーザインターフェース12は、不図示の液晶ディスプレイおよび電源ボタン、「スタート/ストップ」ボタンなどの複数の操作ボタンを有する。ユーザインターフェース12は、CPU16の命令に従って、例えば各種の設定画面などを液晶ディスプレイに表示する。また、ユーザインターフェース12は操作ボタンで受け付けた操作を信号としてCPU16へ送信する。ネットワークインターフェース21は、LAN通信を行う。CPU16は、ネットワークインターフェース21および不図示のルータを介してインターネットと接続し、インターネットに接続されている楽曲データを提供するコンテンツサーバから楽曲データをダウンロードすることができる。尚、CPU16はダウンロードした楽曲データをデータ記憶部20に記憶させる。
尚、ユーザインターフェース12は、鍵盤10を操作する演奏者から見て、鍵盤10の奥側に配置されている。これにより、演奏者は、液晶ディスプレイに表示される表示を見ながら演奏することができる。
次に、電子鍵盤楽器1のレッスン機能について説明する。電子鍵盤楽器1は複数の形態のレッスン機能を有するが、ここでは、演奏者により正しい鍵が押されるまで電子鍵盤楽器1は楽曲の進行を中断し、演奏者により正しい鍵が押されると楽曲の進行を再開する形態のレッスン機能について説明する。レッスン機能では、演奏者が「スタート/ストップ」キーを押すと、まず楽曲のイントロ部にあたる伴奏パート(後述)が再生される。楽曲が進行し、演奏者が鍵を押すべき発音タイミングが近づくと、発音タイミングに先行して電子鍵盤楽器1は演奏すべき音高を液晶ディスプレイに表示される楽譜(後述)もしくは鍵盤の模式図(後述)にてガイドする。次に、発音タイミングが到来すると、演奏者により押すべき鍵が押下されるまで、電子鍵盤楽器1は伴奏を中断する。また、演奏者により押すべき鍵が押下されないまま、発音タイミングから所定時間経過すると、演奏者により押すべき鍵が押下されるまで、電子鍵盤楽器1はガイド音を発音し続ける。ここで、ガイド音とは、押すべき鍵の音高と同じ音高を有し、押鍵された場合に発音される音の音色とは異なる音である。演奏者により押すべき鍵が押下されると、電子鍵盤楽器1は伴奏の再生を再開する。
レッスン機能の実行中における液晶ディスプレイの表示画面について説明する。表示画面には、演奏中の楽曲名と、演奏箇所付近の例えば五線譜形式の楽譜、もしくは、鍵盤10の平面化された模式図が示される。発音タイミングが近づくと、楽譜もしくは鍵盤の模式図にて、演奏すべき音高が明示される。これにより、演奏者は、押すべき鍵を認識することができる。以後、演奏すべき音高を明示することをガイド表示と称する。また、液晶ディスプレイにおいて、ガイド表示がされている状態をON状態、ガイド表示がされていない状態をOFF状態と称する。また、ガイド表示するタイミングをガイド表示タイミングと称し、ガイド音を発音するタイミングをガイド表示タイミングと称する。
次に、レッスン機能に対応した楽曲データについて説明する。楽曲データは、複数のトラックにより構成されている。例えば、第1トラックには、レッスン機能における右手用のデータが収められており、第2トラックには、レッスン機能における左手用のデータが収められており、その他のトラックには、伴奏用のデータが収められている。以下の説明において、第1トラックを右手パート、第2トラックを左手パート、その他のトラックを伴奏パートと記載する場合がある。
トラックは、時間情報とイベントとが1組として構成されているデータが楽曲の進行順に並んで構成されている。ここで、イベントとは、処理の内容を指示するデータである。時間情報とは、処理する時間を指示するデータである。イベントには、「ノートオン」などがある。「ノートオン」は発音を指示するデータである。「ノートオン」には「ノートナンバー」および「チャンネル」などが付随している。「ノートナンバー」とは、音高を指定するデータである。尚、「チャンネル」をどの音色とするかは、楽曲データにおいて別途指定される。尚、各トラックの時間情報は、再生の際、すべてのトラックが同時に進行するように設定されている。
次に、レッスン機能について、演奏者が発音タイミングから遅れて、押すべき鍵を押した場合を例に、図2を用いて説明する。尚、図2は模式図であり、各タイミング間の時間間隔を限定するものではない。図2の伴奏、ガイド表示、演奏音、およびガイド音の斜線部は、発音または、表示がなされている期間を示す。第2タイマの斜線部は、カウント中である期間を示す。電子鍵盤楽器1は、「スタート/ストップ」ボタンが押下されると伴奏パートの再生を開始する(t1)。ガイド表示タイミングが到来すると、ガイド表示をON状態にする(t2)。発音タイミングが到来すると、伴奏パートの再生を中断する(t3)。発音タイミング(t3)で、演奏者による押鍵がされないまま、ガイド音タイミングが到来すると、ガイド音を発音する(t4)。時刻t5で、演奏者により、押鍵されると、ガイド表示をOFF状態に切替え、ガイド音の発音を停止し、伴奏パートの再生を再開する。また、押鍵に応じて演奏音の発音を開始する。時刻t6で演奏者により離鍵されると、演奏音の発音を停止する。時刻t7で、2音目のガイド表示タイミングが到来すると、1音目と同様に動作する。
次に、レッスン機能において、CPU16が実行する演奏処理について図3を用いて説明する。電源がONされるとCPU16は、演奏処理を開始する。レッスン機能を使用したい演奏者は、まず、ユーザインターフェース12の操作ボタンを操作して、データ記憶部20に記憶されている楽曲データの中から、レッスンしたい楽曲データを選択する。CPU16は、選択された楽曲の楽曲データをデータ記憶部20から読み出して、RAM18に記憶させる(S1)。次に、演奏者は、ユーザインターフェース12の操作ボタンを操作して、各種設定を行う。ここで、各種設定とは、テンポの値の設定、レッスンするパートを右手もしくは左手の何れとするかなどである。ここでは、演奏者は、レッスンするパートとして右手を選択したものとする。CPU16は、テンポおよびパートの設定をRAM18に記憶し、後述する押鍵待ちフラグ、第2タイマフラグを初期値の0に設定する(S3)。
次に、CPU16は右手パートの「ノートオン」を抽出し、「ノートオン」に対応する時間情報から所定時間前となる時間情報を算出し、抽出した「ノートオン」を「ガイド表示イベント」として、「ガイド表示イベント」に算出した時間情報を対応付けてRAM18に記憶する(S5)。ここで、所定時間前とは、例えば32分音符の音価、前である。ここで算出する、「時間情報から所定時間前となる時間情報」とはガイド表示タイミングである。尚、以下の説明において、「ガイド表示イベント」とガイド表示タイミングとが対応づけられたデータが複数収められたデータをガイド表示データと記載する。尚、「ガイド表示イベント」には「ノートナンバー」が付随している。
次に、演奏者により「スタート/ストップ」ボタンが押下されたのを検出すると(S7)、CPU16は楽曲データの再生を開始する(S9、図2:t1)。詳しくは、CPU16は、伴奏パートのイベントおよび時間情報を順次読み出し、時間情報に基づいたタイミングでイベントを実行する。これにより、伴奏パートの再生が開始される。また、右手パートおよびガイド表示データにおける、データの読み出しを開始する。ここで、左手パートのデータの読み出しも開始し、左手パートの再生を行う構成としても良い。尚、CPU16は、第1タイマ31を用いて、時間情報およびテンポなどに基づいてタイミングが到来したか否かを判断する。
次に、CPU16は、演奏終了であるか否かを判断する(S11)。CPU16は、「スタート/ストップ」ボタンが押下された場合、および、楽曲データのデータを最後まで読み出した場合、演奏終了であると判断する。演奏終了であると判断することに応じて(S11:YES)、演奏処理を終了する。一方、演奏終了でないと判断することに応じて(S11:NO)、演奏ガイド処理を実行する(S13)。
演奏ガイド処理について図4、5を用いて、図2に示す場合を例に説明する。演奏ガイド処理において、CPU16は、第2タイマ32を使用する。第2タイマ32は、発音タイミングからガイド音タイミングまでの時間を設定時間とする。ここで、発音タイミングからガイド音タイミングまでの時間は、例えば600msに予め設定されている。また、CPU16は、第2タイマフラグを使用する。第2タイマフラグは、値が1の場合、カウントが終了していることを示し、値が0の場合、カウント中でないこと、もしくは、カウントが終了していないことを示す。CPU16は、第2タイマ32から残り時間が0であるとの信号を受信すると、第2タイマフラグの値を1に更新する。
また、演奏ガイド処理において、CPU16は押鍵待ちフラグを使用する。押鍵待ちフラグは、値が1の場合、押鍵待ち状態であることを示し、値が0の場合、押鍵待ち状態でないことを示す。
演奏ガイド処理を開始すると、CPU16は、押鍵待ちフラグを参照し、押鍵待ち状態であるか否かを判断する(S21)。尚、1回目のステップS21では、押鍵待ちフラグの値は初期値の0であるため、押鍵待ち状態ではないと判断する(S21:NO)。
次に、CPU16は、ガイド表示データから読み出した「ガイド表示イベント」に対応する時間情報に基づいて、ガイド表示タイミングが到来したか否かを判断する(S23)。ガイド表示タイミングが到来したと判断することに応じて(S23:YES)、ユーザインターフェース12に「ガイド表示イベント」に付随する「ノートナンバー」に対応する音高をガイド表示するよう命令する(S25、図2:t2)。これにより、ガイド表示がON状態となる。一方、ガイド表示タイミングが到来していないと判断することに応じて(S23:NO)、ステップS25をスキップする。
電子鍵盤楽器1は、表示タイミングが到来する(S23:YES)と、発音タイミングに先行してガイド表示する(S25)。演奏者が初心者の場合には、例えば鍵の位置を把握していないこと等により、液晶ディスプレイのガイド表示を見てから、鍵盤10に視線を移し、押すべき鍵を探して、押鍵する場合が多い。さらに、演奏の経験が浅い程、演奏者がガイド表示を見てから鍵盤10の押すべき鍵を探すまでにかかる時間は長くなる場合が多い。そこで、発音タイミングに先行してガイド表示することによって、演奏者は発音タイミングに押すべき鍵を押すことができる場合が多くなり、楽曲の進行が中断されることが抑制され、レッスンをスムーズに行うことができる。
次に、右手パートから読み出した「ノートオン」の時間情報に基づいたタイミングである発音タイミングが到来したか否かを判断する(S27)。発音タイミングが到来したと判断することに応じて(S27:YES)、押鍵待ちフラグの値を1に更新し、楽曲データの再生を停止する(S29)。詳しくは、伴奏パート、右手パートおよびガイド表示データの読み出しを停止する。尚、ここでは、「ノートオン」に応じた発音は実行しない。次に、第2タイマ32にカウントを開始するよう命令する(S31,図2:t3)。
次に、CPU16は検出回路11から出力される演奏検出信号に基づいて、押鍵されたか否かを判断する(S33)。図2の例では、まだ演奏者により押鍵されていないため、押鍵されていないと判断することに応じて(S33:NO)、ガイド音タイミングが到来したか否かを判断する(S53)。CPU16は、第2タイマフラグを参照し、値が1の場合、ガイド音タイミングが到来したと判断する。時刻t4になるまでの間、ガイド音タイミングはまだ到来していないため、ガイド音タイミングが到来していないと判断し(S53:NO)、演奏者により離鍵されたか否かを判断する(S59)。図2の例では、まだ演奏者により離鍵されていないため、離鍵されていないと判断し(S59:NO)、ガイド演奏処理を終了する。
ガイド音タイミングが到来するまで、即ち第2タイマ32がカウントを終了するまで、CPU16は、ステップ(S11:NO),(S21:YES),(S33:NO)(S53:NO),(S59:NO)を繰り返す(図2:t3〜t4)。
時刻t4において、第2タイマ32のカウントが終了すると、ステップ(S11:NO),(S21:YES),(S33:NO)実行後、第2タイマフラグが1であるため、ガイド音タイミングが到来したと判断し(S53:YES)、ガイド音を発音する(S55)。CPU16は、音源回路13に、ステップS27で読み出してRAM18に記憶している「ノートオン」に付随する「ノートナンバー」のガイド音を発音するように命令する。また、第2タイマフラグの値を0に更新する。このように、ガイド表示された後に、ガイド音が発音されるため、演奏者はガイド表示されている鍵と音高との対応付けを認識することができる。次に、ステップ(S59:NO)実行後、ガイド演奏処理を終了する。
演奏者により押鍵されたと判断する(S33:YES)まで、CPU16はステップ(S21:YES),(S33:NO),(S53:NO),(S59:NO)を繰り返す(図2:t4〜t5)。
ステップ(S11:NO),(S21:YES)実行後、時刻t5において、ガイド表示されている鍵が演奏者により押鍵されると、CPU16は押鍵されたと判断する(S33:YES)。次に、音源回路13に演奏音の発音を命令する(S35)。次に、押された鍵に対応する音高はガイド表示している音高と一致するか否かを判断する(S41)。詳しくは、CPU16は、押された鍵に対応する音高と、ステップS27で読み出した「ノートオン」に付随する「ノートナンバー」の示す音高とが一致するか否かを判断する。一致すると判断することに応じて(S37:YES)、ユーザインターフェース12にガイド表示をOFF状態にするように命令し、押鍵待ちフラグの値を0に更新する(S39)。次に、第2タイマ32が停止状態であるか否かを判断する(S41)。第2タイマ32が停止状態であると判断することに応じて(S41:YES)、音源回路13にガイド音の発音の停止を命令する(S43)。
次に、CPU16は楽曲データの再生を再開する(S49)。詳しくは、伴奏パート、右手パートおよびガイド表示データの読み出しを再開する。次に、第2タイマフラグが0であるため、ガイド音タイミングではないと判断することに応じて(S53:NO)、ステップS59に進む。時刻t6において、演奏者により離鍵されたと判断することに応じて(S59:YES)、演奏音の発音を停止し(S61)、処理を終了する。
演奏ガイド処理について説明を加える。発音タイミングに、押すべき鍵が押された場合について説明する。この場合、ステップS31で第2タイマ32はカウントを開始するため、以降のステップ(S33:YES)〜S39実行後、第2タイマ32は停止中でないとCPU16は判断する(S41:NO)。第2タイマ32は停止中でないと判断することに応じて、第2タイマ32を停止し(S45)、ステップS49へ進む。次に、第2タイマフラグは0であるため、ガイド音タイミングではないと判断し(S53:NO)、ステップS55をスキップして、ステップS59へ進む。このように、ガイド音タイミング前に、演奏者が押すべき鍵を押すことができた場合には、ガイド音は発音されずに、演奏音のみ発音されることとなる。
また、押された鍵に対応する音高はガイド表示している音高と一致いないとCPU16が判断する場合(S37:NO)は、ステップS39〜S49をスキップして、ステップS53へ進む。これにより、演奏者が押すべき鍵を押さなかった場合には、ガイド音は発音され続けるため、演奏者は押すべき鍵を押すまで、ガイド音を聴き続けることができる。
ここで、時間情報はタイミング情報の一例であり、「ノートナンバー」は音高情報の一例であり、時間情報とイベントとが1組として構成されているデータは、音情報の一例である。また、鍵盤10は操作子の一例であり、演奏検出信号は操作情報の一例である。また、CPU16が楽曲データのデータを順次読み出す処理はタイミング取得手段の一例であり、CPU16が演奏検出信号を受信する処理は、操作取得手段の一例であり、ステップS3は演奏テンポ取得手段の一例であり、ステップS27はタイミング検出手段の一例であり、ステップS37は判定手段の一例である。また、サウンドシステム15は放音手段の一例である。また、CPU16がステップ(S37:NO),(S53:YES),S55を実行して、サウンドシステム15がガイド音を発音する処理手順は、「音高情報に基づく音を放音する」一例である。また、CPU16がステップ(S37:YES),S39,(S41:NO),S45,S49,(S53:NO)を実行して、ステップS55をスキップする処理手順は、「音高情報に基づく音を放音しない」一例である。
また、ステップ(S27:YES)の実行に応じて、CPU16は押鍵待ちフラグの値を1に更新し、ステップS21で押鍵待ちフラグの値に基づいて、発音タイミングの後にステップS37を実行する処理手順は第1取得手段一例である。また、ステップS23は、第2取得手段の一例である。また、ステップ3は楽曲取得手段の一例であり、ユーザインターフェース12は表示手段の一例である。
以上、上記した実施形態によれば、以下の効果を奏する。
発音タイミング(S27:YES)後に、押された鍵に対応する音高は「発音タイミング」に付随する「ノートナンバー」の示す音高と一致しないとCPU16が判断することに応じて(S37:NO)、電子鍵盤楽器1は「ノートナンバー」に基づくガイド音を発音する(S55)。「発音タイミング」に付随する「ノートナンバー」と対応する音高に対応する鍵を操作できなかった演奏者は、「ノートナンバー」に応じたガイド音を聴くことができるため、放音させるべき音を認識することができる。一方、押された鍵に対応する音高は「ノートナンバー」の示す音高と一致するとCPU16が判断することに応じて(S37:YES)、ガイド音タイミング前の場合、ガイド音タイミングではないと判断し(S53:NO)、ステップS55をスキップして、ステップS59へ進むため、電子鍵盤楽器1は「ノートナンバー」に基づくガイド音を発音しない。「発音タイミング」に付随する「ノートナンバー」と対応する音高に対応する鍵を操作できた演奏者は、「ノートナンバー」に基づく音を聴くことが回避され、「ノートナンバー」に基づく音が放音された場合の煩わしさから解放されることができる。
また、演奏者は、ユーザインターフェース12の有する液晶ディスプテイに表示された押すべき鍵の位置がガイド表示されるのを見て、押すべき鍵を認識することができる。また、液晶ディスプレイに、発音タイミングに先行して、押すべき鍵の位置がガイド表示されるため、演奏者は、表示を見て、次にすべき押すべき鍵の位置を認識することができる。
尚、本発明は前記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲内での種々の改良、変更が可能であることは言うまでもない。
演奏処理のステップS1では、楽曲データをデータ記憶部20から読み出して、RAM18に記憶させると説明したが、これに限定されない。楽曲データをRAM18に記憶させることなく、ステップS5においては、データ記憶部20から楽曲データを読み出す構成としても良い。
また、楽曲データはデータ記憶部20に記憶されていると説明したが、これに限定されない。ステップS22において、ネットワークインターフェース21を介して、サーバから楽曲データをダウンロードする構成としても良い。また、電子鍵盤楽器1の構成は上記に限定されない。楽曲データが記憶されている、例えばDVD、USBメモリなどの記憶媒体とデータの送受を行うインターフェースを備える構成としても良い。また、ネットワークインターフェース21はLAN通信を行うと説明したが、これに限定されない。他のネットワーク、例えば、MIDI、USB、Bluetooth(登録商標)などの規格に則った通信を行う構成としても良い。この場合、ネットワークで接続されている、例えば、PCなどの通信機器が記憶している楽曲データ、もしくは、データが送信されて、演奏処理を実行する構成としても良い。
また、楽曲データはMIDI形式のデータであると説明したが、これに限定されず、例えば、オーディオデータでもよい。この場合、オーディオデータをMIDIデータに変換して、演奏処理を実行する構成とすると良い。また、楽曲データは複数のトラックを有すると説明したが、これに限定されず、1つのトラックにデータが記載されている構成としても良い。
また、電子鍵盤楽器1は第1タイマ31および第2タイマ32を備えていると説明したが、CPU16がプログラムを実行することで、タイマ機能を実現する構成としても良い。
また、ステップS5において、CPU16は「ガイド表示イベント」に対応する時間情報を「ノートオン」に対応する時間情報の32分音符の音価、前とすると説明したが、時間を限定するものではない。また、発音タイミングからガイド音タイミングまでの時間は、600msに予め設定されていると説明したが、時間を限定するものではない。例えば、テンポに応じた時間としても良いし、イベント毎に異なる時間としても良いし、例えばステップS3において、時間を演奏者が設定できる構成としても良い。
また、演奏処理において、CPU16はステップS5を実行すると説明したが、ステップS5を実行しない処理手順としても良い。この場合は、演奏ガイド処理のステップS23において、右手パートの「ノートオン」を読み出すと、CPU16は「ノートオン」に対応する時間情報の所定時間前にガイド表示するように命令する構成とすると良い。また、この場合、例えば、ネットワークインターフェース21などのネットワークを介して、楽曲データをデータ単位で都度、読み出す構成としても良い。
また、ガイド表示の具体例としては、例えば、表示する鍵および音符の表示色を変更する、鍵および音符を点滅表示するなどとすると良い。特に点滅表示とすると、ユーザの目に留まり易くなるため、好ましい。また、ガイド音タイミングの前後で、ガイド表示の表示様態を変更する構成としても良い。また、ステップS39において、ガイド表示をOFF状態にすると説明したが、OFF状態にしない構成としても良い。また、ガイド表示を実行しない構成としても良い。
また、ガイド音は、押鍵された場合に発音される音の音色とは異なる音であると説明したが、これに限定されず、同じ音色であっても良い。また、例えばステップS3において、ガイド音の音色を演奏者が選択できる構成としても良い。また、ガイド音は、押すべき鍵が押されるまで、発音され続けると説明したが、これに限定されず、所定長だけ発音され続ける構成としても良いし、例えばステップS3において、音価を演奏者が選択できる構成としても良い。また、表示タイミングが到来したとCPU16が判断すると(S23:YES)、ガイド表示がON状態とされる、と説明したが、これに限定されない。ガイド表示をするか否かを演奏者が選択できる構成としても良い。
また、演奏指示装置として、電子鍵盤楽器1を例示したが、これに限定されない。操作子、操作取得手段、タイミング取得手段、判定手段、放音手段などを互いに別の構成として、互いをネットワーク接続して、実現しても良い。操作子として、例えば、鍵盤に模した画像をタッチパネルに表示した画面、キーボード、他の楽器などで実現しても良い。操作取得手段として、例えば、演奏音を集音するマイクなどで実現しても良い。また、タイミング取得手段および判定手段などを、例えば、PCが備えるCPUなどで実現しても良い。判定手段においては、オーディオデータの波形を比較して判定する構成としても良い。また、放音手段として、例えば、鍵盤などを機械的に駆動させるアクチュエータを備えた楽器などで構成しても良い。
1 電子鍵盤楽器
10 鍵盤
11 検出回路
12 ユーザインターフェース
13 音源回路
15 サウンドシステム
16 CPU
18 RAM
20 データ記憶部
21 ネットワークインターフェース
31 第1タイマ
32 第2タイマ

Claims (6)

  1. タイミング情報と音高情報とが対応付けられた音情報を順次取得するタイミング取得手段と、
    音高に対応する操作子が受け付けた操作に応じた音高を示す操作情報を取得する操作取得手段と、
    演奏テンポを取得する演奏テンポ取得手段と、
    前記タイミング情報および前記演奏テンポに基づいて、発音タイミングを検出するタイミング検出手段と、
    前記発音タイミング以後に、当該発音タイミングに対応する前記音高情報と、前記操作情報が示す音高とが対応するか否かを判定する判定手段と、
    前記判定手段が対応しないと判定する場合、前記発音タイミングの後に前記音高情報に基づく音を放音し、前記判定手段が対応すると判定する場合、前記音高情報に基づく音を放音しない放音手段と、を備えることを特徴とする演奏指示装置。
  2. 前記発音タイミングからの経過時間に基づいて、前記判定手段が判定する判定タイミングを取得する第1取得手段を備えることを特徴とする請求項1に記載の演奏指示装置。
  3. 前記音情報を有する楽曲データを取得する楽曲取得手段と、
    前記音高情報に基づいて音高を示す情報を表示する表示手段と、
    前記発音タイミングに基づいて、前記表示手段が前記音高を示す情報を表示する表示タイミングを取得する第2取得手段と、を備えることを特徴とする請求項1または請求項2に記載の演奏指示装置。
  4. 前記表示タイミングは、前記発音タイミングよりも早いことを特徴とする請求項3に記載の演奏指示装置。
  5. 演奏指示装置に、
    タイミング情報と音高情報とが対応付けられた音情報を順次取得するタイミング取得ステップと、
    音高に対応する操作子が受け付けた操作に応じた音高を示す操作情報を取得する操作取得ステップと、
    前記タイミング情報および演奏テンポに基づいて、発音タイミングを検出するタイミング検出ステップと、
    演奏テンポを取得する演奏テンポ取得ステップと、
    前記発音タイミング以後に、当該発音タイミングに対応する前記音高情報と、前記操作情報が示す音高とが対応するか否かを判定する判定ステップと、
    前記判定手段が対応しないと判定する場合、前記発音タイミングの後に前記音高情報に基づく音を放音し、前記判定手段が対応すると判定する場合、前記音高情報に基づく音を放音しない放音ステップと、
    を実行させることを特徴とする演奏指示プログラム。
  6. 演奏指示装置に演奏指示させる方法であって、
    タイミング情報と音高情報とが対応付けられた音情報を順次取得するタイミング取得ステップと、
    音高に対応する操作子が受け付けた操作に応じた音高を示す操作情報を取得する操作取得ステップと、
    前記タイミング情報および演奏テンポに基づいて、発音タイミングを検出するタイミング検出ステップと、
    演奏テンポを取得する演奏テンポ取得ステップと、
    前記発音タイミング以後に、当該発音タイミングに対応する前記音高情報と、前記操作情報が示す音高とが対応するか否かを判定する判定ステップと、
    前記判定手段が対応しないと判定する場合、前記発音タイミングの後に前記音高情報に基づく音を放音し、前記判定手段が対応すると判定する場合、前記音高情報に基づく音を放音しない放音ステップと、
    を有することを特徴とする演奏指示方法。
JP2016124441A 2016-06-23 2016-06-23 演奏指示装置、演奏指示プログラム、および演奏指示方法 Active JP6729052B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016124441A JP6729052B2 (ja) 2016-06-23 2016-06-23 演奏指示装置、演奏指示プログラム、および演奏指示方法
PCT/JP2017/021794 WO2017221766A1 (ja) 2016-06-23 2017-06-13 演奏支援装置及び方法
CN201780038866.3A CN109416905B (zh) 2016-06-23 2017-06-13 演奏辅助装置及方法
US16/229,249 US10726821B2 (en) 2016-06-23 2018-12-21 Performance assistance apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016124441A JP6729052B2 (ja) 2016-06-23 2016-06-23 演奏指示装置、演奏指示プログラム、および演奏指示方法

Publications (2)

Publication Number Publication Date
JP2017227785A true JP2017227785A (ja) 2017-12-28
JP6729052B2 JP6729052B2 (ja) 2020-07-22

Family

ID=60783999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016124441A Active JP6729052B2 (ja) 2016-06-23 2016-06-23 演奏指示装置、演奏指示プログラム、および演奏指示方法

Country Status (4)

Country Link
US (1) US10726821B2 (ja)
JP (1) JP6729052B2 (ja)
CN (1) CN109416905B (ja)
WO (1) WO2017221766A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110299126A (zh) * 2018-03-23 2019-10-01 卡西欧计算机株式会社 电子乐器、电子乐器课程处理方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6729052B2 (ja) * 2016-06-23 2020-07-22 ヤマハ株式会社 演奏指示装置、演奏指示プログラム、および演奏指示方法
JP7285175B2 (ja) * 2019-09-04 2023-06-01 ローランド株式会社 楽音処理装置、及び楽音処理方法
JP7419830B2 (ja) * 2020-01-17 2024-01-23 ヤマハ株式会社 伴奏音生成装置、電子楽器、伴奏音生成方法および伴奏音生成プログラム

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4745836A (en) * 1985-10-18 1988-05-24 Dannenberg Roger B Method and apparatus for providing coordinated accompaniment for a performance
US5521323A (en) * 1993-05-21 1996-05-28 Coda Music Technologies, Inc. Real-time performance score matching
JP2991044B2 (ja) 1994-03-15 1999-12-20 ヤマハ株式会社 自動演奏機能を有した電子楽器
JP3567513B2 (ja) 1994-12-05 2004-09-22 ヤマハ株式会社 演奏操作指示機能付き電子楽器
US5693903A (en) * 1996-04-04 1997-12-02 Coda Music Technology, Inc. Apparatus and method for analyzing vocal audio data to provide accompaniment to a vocalist
US5728960A (en) * 1996-07-10 1998-03-17 Sitrick; David H. Multi-dimensional transformation systems and display communication architecture for musical compositions
JP3658637B2 (ja) * 1997-06-13 2005-06-08 カシオ計算機株式会社 演奏支援装置
JP3088409B2 (ja) * 1999-02-16 2000-09-18 コナミ株式会社 音楽ゲームシステム、該システムにおける演出指示連動制御方法及び該システムにおける演出指示連動制御プログラムを記録した可読記録媒体
JP3348708B2 (ja) * 1999-03-24 2002-11-20 ヤマハ株式会社 演奏ガイド付き電子楽器
JP2002189466A (ja) * 2000-12-21 2002-07-05 Casio Comput Co Ltd 演奏教習装置および演奏教習方法
US6541688B2 (en) * 2000-12-28 2003-04-01 Yamaha Corporation Electronic musical instrument with performance assistance function
US7009100B2 (en) * 2002-08-20 2006-03-07 Casio Computer Co., Ltd. Performance instruction apparatus and performance instruction program used in the performance instruction apparatus
JP2004101979A (ja) * 2002-09-11 2004-04-02 Yamaha Corp 電子楽器
JP2004205567A (ja) * 2002-12-24 2004-07-22 Casio Comput Co Ltd 演奏評価装置および演奏評価プログラム
US20040123726A1 (en) * 2002-12-24 2004-07-01 Casio Computer Co., Ltd. Performance evaluation apparatus and a performance evaluation program
US8367921B2 (en) * 2004-10-22 2013-02-05 Starplayit Pty Ltd Method and system for assessing a musical performance
US7332664B2 (en) * 2005-03-04 2008-02-19 Ricamy Technology Ltd. System and method for musical instrument education
US7064259B1 (en) * 2005-04-20 2006-06-20 Kelly Keith E Electronic guitar training device
JP2007072387A (ja) * 2005-09-09 2007-03-22 Yamaha Corp 演奏補助装置及びプログラム
JP2007147792A (ja) * 2005-11-25 2007-06-14 Casio Comput Co Ltd 演奏教習装置および演奏教習プログラム
JP4301270B2 (ja) * 2006-09-07 2009-07-22 ヤマハ株式会社 オーディオ再生装置およびオーディオ再生方法
JP2008241762A (ja) * 2007-03-24 2008-10-09 Kenzo Akazawa 演奏支援電子楽器、およびプログラム
JP5088030B2 (ja) * 2007-07-26 2012-12-05 ヤマハ株式会社 演奏音の類似度を評価する方法、装置およびプログラム
JP2012132991A (ja) * 2010-12-20 2012-07-12 Yamaha Corp 電子楽器
JP5360510B2 (ja) * 2011-09-22 2013-12-04 カシオ計算機株式会社 演奏評価装置およびプログラム
JP6402878B2 (ja) * 2013-03-14 2018-10-10 カシオ計算機株式会社 演奏装置、演奏方法およびプログラム
JP6040809B2 (ja) * 2013-03-14 2016-12-07 カシオ計算機株式会社 コード選択装置、自動伴奏装置、自動伴奏方法および自動伴奏プログラム
JP6340755B2 (ja) * 2013-04-16 2018-06-13 カシオ計算機株式会社 演奏評価装置、演奏評価方法およびプログラム
DE112016004046B4 (de) * 2015-09-07 2022-05-05 Yamaha Corporation Vorrichtung und Verfahren zur musikalischen Ausführungsunterstützung und rechnerlesbares Speichermedium
JP6729052B2 (ja) * 2016-06-23 2020-07-22 ヤマハ株式会社 演奏指示装置、演奏指示プログラム、および演奏指示方法
JP6720798B2 (ja) * 2016-09-21 2020-07-08 ヤマハ株式会社 演奏教習装置、演奏教習プログラム、および演奏教習方法
JP6720797B2 (ja) * 2016-09-21 2020-07-08 ヤマハ株式会社 演奏教習装置、演奏教習プログラム、および演奏教習方法
JP2018146718A (ja) * 2017-03-03 2018-09-20 ヤマハ株式会社 教習装置、教習プログラムおよび教習方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110299126A (zh) * 2018-03-23 2019-10-01 卡西欧计算机株式会社 电子乐器、电子乐器课程处理方法

Also Published As

Publication number Publication date
US20190122646A1 (en) 2019-04-25
WO2017221766A1 (ja) 2017-12-28
CN109416905B (zh) 2023-06-30
US10726821B2 (en) 2020-07-28
CN109416905A (zh) 2019-03-01
JP6729052B2 (ja) 2020-07-22

Similar Documents

Publication Publication Date Title
US10726821B2 (en) Performance assistance apparatus and method
US11250722B2 (en) Performance training apparatus and method
JP5257966B2 (ja) 音楽再生制御システム、音楽演奏プログラム、および演奏データの同期再生方法
JP5040927B2 (ja) 演奏教習装置及びプログラム
WO2018159830A1 (ja) 演奏支援装置及び方法
US20090151545A1 (en) Ensemble system
JP3750699B2 (ja) 楽音再生装置
JP4379291B2 (ja) 電子音楽装置及びプログラム
US7838754B2 (en) Performance system, controller used therefor, and program
JP5842383B2 (ja) カラオケシステム及びカラオケ装置
US10629090B2 (en) Performance training apparatus and method
JP5109426B2 (ja) 電子楽器及びプログラム
JP2006145681A (ja) 鍵盤楽器支援装置及び鍵盤楽器支援システム
JP2017227786A (ja) 演奏指示装置、演奏指示プログラム、および演奏指示方法
WO2018159829A1 (ja) 演奏支援装置及び方法
JP2004101979A (ja) 電子楽器
JP2006258954A (ja) カラオケシステムおよびカラオケ装置
JP5590350B2 (ja) 楽曲演奏装置及び楽曲演奏用プログラム
JP2017015957A (ja) 演奏記録装置およびプログラム
JP2008233614A (ja) 小節番号表示装置、小節番号表示方法及び小節番号表示プログラム
JP2010160397A (ja) 演奏評価装置及びプログラム
JP2007236824A (ja) ゲーム機
JP2008089748A (ja) 合奏システム
JP2004085821A (ja) 音量制御装置及びプログラム
JPH07319486A (ja) カラオケ装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200615

R151 Written notification of patent or utility model registration

Ref document number: 6729052

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151