JP5966465B2 - 演奏装置、プログラム及び演奏方法 - Google Patents

演奏装置、プログラム及び演奏方法 Download PDF

Info

Publication number
JP5966465B2
JP5966465B2 JP2012057512A JP2012057512A JP5966465B2 JP 5966465 B2 JP5966465 B2 JP 5966465B2 JP 2012057512 A JP2012057512 A JP 2012057512A JP 2012057512 A JP2012057512 A JP 2012057512A JP 5966465 B2 JP5966465 B2 JP 5966465B2
Authority
JP
Japan
Prior art keywords
unit
virtual
performance
distance
instrument
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012057512A
Other languages
English (en)
Other versions
JP2013190663A (ja
Inventor
裕二 田畑
裕二 田畑
林 龍太郎
龍太郎 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012057512A priority Critical patent/JP5966465B2/ja
Priority to US13/794,317 priority patent/US8969699B2/en
Priority to CN201310081127.6A priority patent/CN103310769B/zh
Publication of JP2013190663A publication Critical patent/JP2013190663A/ja
Application granted granted Critical
Publication of JP5966465B2 publication Critical patent/JP5966465B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/441Image sensing, i.e. capturing images or optical patterns for musical purposes or musical control purposes
    • G10H2220/455Camera input, e.g. analyzing pictures from a video camera and using the analysis results as control data
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/005Device type or category
    • G10H2230/015PDA [personal digital assistant] or palmtop computing devices used for musical purposes, e.g. portable music players, tablet computers, e-readers or smart phones in which mobile telephony functions need not be used
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/045Special instrument [spint], i.e. mimicking the ergonomy, shape, sound or other characteristic of a specific acoustic musical instrument category
    • G10H2230/251Spint percussion, i.e. mimicking percussion instruments; Electrophonic musical instruments with percussion instrument features; Electrophonic aspects of acoustic percussion instruments, MIDI-like control therefor
    • G10H2230/275Spint drum
    • G10H2230/281Spint drum assembly, i.e. mimicking two or more drums or drumpads assembled on a common structure, e.g. drum kit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/201Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
    • G10H2240/211Wireless transmission, e.g. of music parameters or control data by radio, infrared or ultrasound

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

本発明は、演奏装置、プログラム及び演奏方法に関する。
従来、演奏者の演奏動作を検知すると、演奏動作に応じた電子音を発音する演奏装置が提案されている。例えば、センサを内蔵するスティック上の演奏部材のみで打楽器音を発音する演奏装置(エアドラム)が知られている。この演奏装置は、演奏者により、演奏部材を手で保持して振るといった、あたかもドラムを打撃するような演奏動作が行われたことに応じて、演奏部材に内蔵されたセンサを利用して演奏動作を検知し、打楽器音を発音する。
このような演奏装置によれば、現実の楽器を必要とせずに当該楽器の楽音を発音することができるため、演奏者は、演奏場所や演奏スペースの制約を受けずに演奏を楽しむことができる。
例えば、特許文献1には、演奏者のスティック状の演奏部材を用いた演奏動作を撮像すると共に、当該演奏動作の撮像画像と、楽器セットを示す仮想画像とを合成した合成画像をモニタに表示する楽器ゲーム装置が提案されている。この楽器ゲーム装置は、撮像画像における演奏部材の位置が複数の楽器エリアを有する仮想画像の中のいずれかの楽器エリアに入った場合、当該位置が入った楽器エリアに対応する音を発音する。
特許第3599115号公報
しかしながら、特許文献1に記載の楽器ゲーム装置のように、楽器セットの各パーツを楽器エリアに関連付けておき、当該楽器エリアに基づいて音を発生させる場合、演奏者が楽器セットの各パーツの位置を演奏者の好みの位置に調整する際に、各パーツに対応する楽器エリアを細かく調整する必要が生じてしまい、調整作業が煩雑となる。
また、特許文献1に記載の楽器ゲーム装置をそのまま適用した場合、演奏者は、仮想的な楽器セットを実際に視認することができないため、当該楽器セットの各パーツの配置について直感的に把握することができない。このため、演奏者が演奏部材を操作した場合に、当該演奏部材の位置と、演奏者が発音させようとした仮想的な楽器の位置とにずれが生じ、演奏者の意図どおりに発音されない場合がある。
本発明は、このような状況に鑑みてなされたものであり、演奏者が意図した演奏動作を検出して発音することができる演奏装置、プログラム及び演奏方法を提供することを目的とする。
上記目的を達成するため、本発明の一態様の演奏装置は、演奏者に保持される演奏部材で所定の操作が行われたことを検出する操作検出手段と、撮像手段により前記演奏部材を被写体として撮像された撮像画像平面上における前記演奏部材の位置座標を検出する位置検出手段と、前記所定の操作が行われたことが検出された場合に、前記検出された位置座標と、記憶手段に記憶された複数の仮想的な楽器夫々の中心位置座標及びサイズを含むレイアウト情報に基づいた、前記撮像画像平面上における複数の仮想的な楽器夫々の中心位置座標との間の距離を求めるとともに、前記求められた各距離を、対応する前記各仮想的な楽器のサイズが大きいほど短くなるように調整する距離調整手段と、前記調整された各距離のうち最も短い距離に対応する前記仮想的な楽器を特定する楽器特定手段と、前記特定された仮想的な楽器に対応する楽音の発音を指示する発音指示手段と、を備えることを特徴とする。
本発明によれば、演奏者が意図した演奏動作を検出して発音することができる。
本発明の演奏装置の一実施形態の概要を示す図である。 上記演奏装置を構成するスティック部のハードウェア構成を示すブロック図である。 上記スティック部の斜視図である。 上記演奏装置を構成するカメラユニット部のハードウェア構成を示すブロック図である。 上記演奏装置を構成するセンターユニット部のハードウェア構成を示すブロック図である。 本発明の演奏装置の一実施形態に係るセットレイアウト情報を示す図である。 上記セットレイアウト情報が示す概念を仮想平面上で可視化した図である。 上記スティック部の処理の流れを示すフローチャートである。 上記カメラユニット部の処理の流れを示すフローチャートである。 上記センターユニット部の処理の流れを示すフローチャートである。 上記センターユニット部のショット情報処理の流れを示すフローチャートである。
以下、本発明の実施形態について、図面を用いて説明する。
[演奏装置1の概要]
初めに、図1を参照して、本発明の一実施形態としての演奏装置1の概要について説明する。
図1(1)に示すように、本実施形態の演奏装置1は、スティック部10A,10Bと、カメラユニット部20と、センターユニット部30と、を含んで構成される。本実施形態の演奏装置1は、2本のスティックを用いた仮想的なドラム演奏を実現するため、2つのスティック部10A,10Bを備えることとしているが、スティック部の数は、これに限られない。例えば、スティック部の数を1つとしたり、3つ以上としてもよい。なお、以下では、スティック部10A,10Bを個々に区別する必要がない場合には、両者を総称して「スティック部10」と呼ぶ。
スティック部10は、長手方向に延びるスティック状の演奏部材である。演奏者は、スティック部10の一端(根元側)を手に持ち、手首などを中心として振り上げたり振り下ろす動作を、演奏動作として行う。このような演奏者の演奏動作を検知するため、スティック部10の他端(先端側)には、加速度センサ及び角速度センサなどの各種センサが設けられている(後述のモーションセンサ部14)。スティック部10は、これらの各種センサにより検知された演奏動作に基づいて、センターユニット部30にノートオンイベントを送信する。
また、スティック部10の先端側には、後述するマーカー部15(図2参照)が設けられており、撮像時にカメラユニット部20がスティック部10の先端を判別可能に構成されている。
カメラユニット部20は、光学式の撮像装置として構成され、スティック部10を保持して演奏動作を行う演奏者を被写体として含む空間(以下、「撮像空間」と呼ぶ)を、所定のフレームレートで撮像し、動画像のデータとして出力する。カメラユニット部20は、撮像空間内における発光中のマーカー部15の位置座標を特定し、当該位置座標を示すデータ(以下、「位置座標データ」と呼ぶ)をセンターユニット部30に送信する。
センターユニット部30は、スティック部10からノートオンイベントを受信すると、受信時のマーカー部15の位置座標データに応じて、所定の楽音を発音する。具体的には、センターユニット部30は、カメラユニット部20の撮像空間に対応付けて、図1(2)に示す仮想ドラムセットDの位置座標データを記憶しており、当該仮想ドラムセットDの位置座標データと、ノートオンイベント受信時のマーカー部15の位置座標データとに基づいて、スティック部10が仮想的に打撃した楽器を特定し、当該楽器に対応する楽音を発音する。
次に、このような本実施形態の演奏装置1の構成について具体的に説明する。
[演奏装置1の構成]
初めに、図2〜図5を参照して、本実施形態の演奏装置1の各構成要素、具体的には、スティック部10、カメラユニット部20及びセンターユニット部30の構成について説明する。
[スティック部10の構成]
図2は、スティック部10のハードウェア構成を示すブロック図である。
図2に示すように、スティック部10は、CPU11(Central Processing Unit)と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、モーションセンサ部14と、マーカー部15と、データ通信部16と、スイッチ操作検出回路17と、を含んで構成される。
CPU11は、スティック部10全体の制御を実行し、例えば、モーションセンサ部14から出力されるセンサ値に基づいて、スティック部10の姿勢の検知、ショット検出及びアクション検出に加え、マーカー部15の発光・消灯などの制御を実行する。このとき、CPU11は、マーカー特徴情報をROM12から読み出し、当該マーカー特徴情報に従い、マーカー部15の発光制御を実行する。また、CPU11は、データ通信部16を介して、センターユニット部30との間の通信制御を実行する。
ROM12は、CPU11により各種処理が実行されるための処理プログラムを格納する。また、ROM12は、マーカー部15の発光制御に用いるマーカー特徴情報を格納する。マーカー特徴情報とは、スティック部10Aのマーカー部15(以下、「第1マーカー」と適宜呼ぶ)と、スティック部10Bのマーカー部15(以下、「第2マーカー」と適宜呼ぶ)とを区別するための情報である。マーカー特徴情報には、例えば、発光時の形状、大きさ、色相、彩度、あるいは輝度に加え、発光時の点滅スピードなどを用いることができる。
ここで、スティック部10AのCPU11及びスティック部10BのCPU11は、スティック部10A、10Bに夫々設けられたROM12から、夫々異なるマーカー特徴情報を読み出し、夫々のマーカーの発光制御を実行する。
RAM13は、モーションセンサ部14が出力した各種センサ値など、処理において取得され又は生成された値を格納する。
モーションセンサ部14は、スティック部10の状態を検知、すなわち、演奏者によりスティック部10で仮想的な楽器を打撃する等の所定の操作が行われたことを検出するための各種センサであり、所定のセンサ値を出力する。ここで、モーションセンサ部14を構成するセンサとしては、例えば、加速度センサ、角速度センサ及び磁気センサなどを用いることができる。
図3は、スティック部10の斜視図であり、外部にはスイッチ部171とマーカー部15が配置されている。
演奏者は、スティック部10の一端(根元側)を保持し、手首などを中心とした振り上げ振り下ろし動作を行うことで、スティック部10に対して運動を生じさせる。その際にこの運動に応じたセンサ値がモーションセンサ部14から出力されるようになっている。
モーションセンサ部14からのセンサ値を受け付けたCPU11は、演奏者が持っているスティック部10の状態を検知する。一例としては、CPU11は、スティック部10による仮想的な楽器の打撃タイミング(以下、「ショットタイミング」とも呼ぶ)を検知する。ショットタイミングは、スティック部10が振り下ろされてから停止される直前のタイミングであり、スティック部10にかかる振り下ろし方向とは逆向きの加速度の大きさがある閾値を超えたタイミングである。
図2に戻り、マーカー部15は、スティック部10の先端側に設けられた発光体であり、例えばLEDなどで構成される。マーカー部15は、CPU11からの制御に応じて発光及び消灯する。具体的には、マーカー部15は、CPU11によってROM12から読み出されたマーカー特徴情報に基づいて発光する。このとき、スティック部10Aのマーカー特徴情報と、スティック部10Bのマーカー特徴情報とは異なるため、カメラユニット部20は、スティック部10Aのマーカー部15(第1マーカー)の位置座標と、スティック部10Bのマーカー部15(第2マーカー)の位置座標とを個々に区別し取得することができる。
データ通信部16は、少なくともセンターユニット部30との間で所定の無線通信を行う。データ通信部16は、任意の方法で所定の無線通信を行うこととしてよく、本実施形態では、赤外線通信によりセンターユニット部30との間での無線通信を行う。なお、データ通信部16は、カメラユニット部20との間で無線通信を行うこととしてもよい。また、スティック部10Aのデータ通信部16と、スティック部10Bのデータ通信部16との間で無線通信を行うこととしてもよい。
スイッチ操作検出回路17は、スイッチ171と接続され、当該スイッチ171を介した入力情報を受け付ける。入力情報としては、例えば、後述するセットレイアウト情報を直接指定するためのトリガーとなる信号情報などが含まれる。
[カメラユニット部20の構成]
スティック部10の構成についての説明は、以上である。続いて、図を参照して、カメラユニット部20の構成について説明する。
図4は、カメラユニット部20のハードウェア構成を示すブロック図である。
カメラユニット部20は、CPU21と、ROM22と、RAM23と、イメージセンサ部24と、データ通信部25と、を含んで構成される。
CPU21は、カメラユニット部20全体の制御を実行する。CPU21は、例えば、イメージセンサ部24が検出したマーカー部15の位置座標データ及びマーカー特徴情報に基づいて、スティック部10A、10Bのマーカー部15(第1マーカー及び第2マーカー)の夫々の位置座標(Mxa,Mya)、(Mxb,Myb)を算出し、夫々の算出結果を示す位置座標データを出力する制御を実行する。また、CPU21は、データ通信部25を介して、算出した位置座標データなどをセンターユニット部30に送信する通信制御を実行する。
ROM22は、CPU21により各種処理が実行されるための処理プログラムを格納する。RAM23は、イメージセンサ部24が検出したマーカー部15の位置座標データなど、処理において取得され又は生成された値を格納する。また、RAM23は、センターユニット部30から受信したスティック部10A、10Bの夫々のマーカー特徴情報も併せて格納する。
イメージセンサ部24は、例えば、光学式のカメラであり、スティック部10を持って演奏動作を行う演奏者の動画を所定のフレームレートで撮像する。また、イメージセンサ部24は、フレームごとの撮像データをCPU21に出力する。なお、イメージセンサ部24は、撮像画像内におけるスティック部10のマーカー部15の位置座標の特定を、CPU21に代わって行うこととしてもよい。また、イメージセンサ部24は、撮像したマーカー特徴情報に基づくスティック部10A、10Bのマーカー部15(第1マーカー及び第2マーカー)の夫々の位置座標を算出についても、CPU21に代わって行うこととしてもよい。
データ通信部25は、少なくともセンターユニット部30との間で所定の無線通信(例えば、赤外線通信)を行う。なお、データ通信部16は、スティック部10との間で無線通信を行うこととしてもよい。
[センターユニット部30の構成]
カメラユニット部20の構成についての説明は、以上である。続いて、図5を参照して、センターユニット部30の構成について説明する。
図5は、センターユニット部30のハードウェア構成を示すブロック図である。
センターユニット部30は、CPU31と、ROM32と、RAM33と、スイッチ操作検出回路34と、表示回路35と、音源装置36と、データ通信部37と、を含んで構成される。
CPU31は、センターユニット部30全体の制御を実行する。CPU31は、例えば、スティック部10から受信したショット検出及びカメラユニット部20から受信したマーカー部15の位置座標と、複数の仮想的な楽器夫々の中心位置座標との距離に基づいて、発音対象の仮想的な楽器を特定し、当該楽器の楽音を発音する制御などを実行する。また、CPU31は、データ通信部37を介して、スティック部10及びカメラユニット部20との間の通信制御を実行する。
ROM32は、CPU31の実行する各種処理の処理プログラムを格納する。また、ROM32は、仮想平面上に設けられる複数の仮想的な楽器夫々について、当該仮想的な楽器の中心位置座標と、サイズと、音色とを関連付けたセットレイアウト情報を記憶する。仮想的な楽器としては、例えば、フルート、サックス、トランペットなどの管楽器、ピアノなどの鍵盤楽器、ギターなどの弦楽器、バスドラム、ハイハット、スネア、シンバル、タムなどの打楽器等があげられる。
例えば、図6にセットレイアウト情報として示すように、1つのセットレイアウト情報に、仮想的な楽器の情報として、第1パッド〜第nパッドまでのn個のパッド情報が関連付けられている。各パッド情報には、パッドの中心位置座標(後述する仮想平面における位置座標(Cx,Cy))、パッドのサイズデータ(仮想パッドの形状、径、縦方向の長さ、横方向の長さなど)、及びパッドに対応する音色(波形データ)などが対応付けられて格納されている。パッドに対応する音色は、パッドの中心位置からの距離に応じて複数格納されている。例えば、図6に示される音色には、パッドの中心位置からの距離に応じた音色が複数格納されている。なお、セットレイアウト情報は、複数種類存在していてもよい。
ここで、図7を参照して、具体的なセットレイアウトについて説明する。図7は、センターユニット部30のROM32に格納されたセットレイアウト情報が示す概念を仮想平面上で可視化した図である。
図7は、6個の仮想パッド81が仮想平面上に配置されている様子を示しており、各仮想パッド81として、6つのパッドが配置されている。これら6つの仮想パッド81は、パッドに関連付けられている位置座標(Cx,Cy)とサイズデータとに基づいて配置されている。さらにまた、各仮想パッド81には、各仮想パッド81の中心位置からの距離に応じた音色が対応付けられている。
図5に戻って、RAM33は、スティック部10から受信したスティック部10の状態(ショット検出など)、カメラユニット部20から受信したマーカー部15の位置座標など、処理において取得され又は生成された値を格納する。
これにより、CPU31は、ショット検出時(すなわち、ノートオンイベント受信時)にマーカー部15の位置座標に対応する仮想パッド81に関連付けられている音色(波形データ)を、ROM32に格納されたセットレイアウト情報から読み出して、演奏者の演奏動作に応じた楽音の発音を制御する。
具体的には、CPU31は、複数の仮想パッド81夫々について、当該仮想パッド81の中心位置座標と、マーカー部15の位置座標との距離を、仮想パッドに関連付けられたサイズ(縦方向の長さ、横方向の長さ)が大きいほど短くなるように調整を行って算出する。続いて、CPU31は、算出された距離のうち、最も短い距離に対応する仮想パッド81を出音対象の仮想パッド81に特定する。続いて、CPU31は、セットレイアウト情報を参照して、出音対象の仮想パッド81に対応する音色を、当該仮想パッド81の中心位置座標とマーカー部15の位置座標との距離に基づいて特定する。
なお、CPU31は、最も短い距離が、RAM33に記憶され、予め定められている所定の閾値より大きい場合、出音対象を特定しない。すなわち、CPU31は、最も短い距離が、予め定められている所定の閾値以下である場合に、出音対象の仮想パッド81を特定する。なお、所定の閾値は、ROM32に記憶されており、演奏時にCPU31によってROM32から読み出されてRAM33に格納されるものとする。
スイッチ操作検出回路34は、スイッチ341と接続され、当該スイッチ341を介した入力情報を受け付ける。入力情報としては、例えば、発音する楽音の音量や発音する楽音の音色の変更、表示装置351の表示の切り替え、所定の閾値の調整、仮想パッド81の中心位置座標の変更などが含まれる。
また、表示回路35は、表示装置351と接続され、表示装置351の表示制御を実行する。
音源装置36は、CPU31からの指示にしたがって、ROM32から波形データを読み出して、楽音データを生成すると共に、楽音データをアナログ信号に変換し、図示しないスピーカから楽音を発音する。
また、データ通信部37は、スティック部10及びカメラユニット部20との間で所定の無線通信(例えば、赤外線通信)を行う。
[演奏装置1の処理]
以上、演奏装置1を構成するスティック部10、カメラユニット部20及びセンターユニット部30の構成について説明した。続いて、図8〜図11を参照して、演奏装置1の処理について説明する。
[スティック部10の処理]
図8は、スティック部10が実行する処理(以下、「スティック部処理」と呼ぶ)の流れを示すフローチャートである。
図8を参照して、スティック部10のCPU11は、モーションセンサ部14からモーションセンサ情報としてのセンサ値を読み出すと共に、センサ値をRAM13に格納する(ステップS1)。その後、CPU11は、読み出したモーションセンサ情報に基づいて、スティック部10の姿勢検知処理を実行する(ステップS2)。姿勢検知処理では、CPU11は、モーションセンサ情報に基づいて、スティック部10の姿勢、例えば、スティック部10のロール角及びピッチ角などを算出する。
続いて、CPU11は、モーションセンサ情報に基づいて、ショット検出処理を実行する(ステップS3)。演奏者は、スティック部10を用いて演奏を行う場合において、仮想的な楽器(例えば、仮想的なドラム)があるとして、現実の楽器(例えば、ドラム)がある場合の演奏動作と同様の演奏動作を行う。演奏者は、このような演奏動作として、まずスティック部10を振り上げ、それから仮想的な楽器に向かって振り下ろす。そして、演奏者は、仮想的な楽器にスティック部10を打撃した瞬間に楽音が発生することを想定し、スティック部10を仮想的な楽器に打撃する寸前にスティック部10の動作を止めようとする力を働かせる。これに対して、CPU11は、モーションセンサ情報(例えば、加速度センサのセンサ合成値)に基づいて、スティック部10の動作を止めようとする動作を検出する。
すなわち、本実施形態においては、ショット検出のタイミングは、スティック部10が振り下ろされてから停止される直前のタイミングであり、スティック部10にかかる振り下ろし方向とは逆向きの加速度の大きさがある閾値を超えたタイミングである。本実施形態では、このショット検出のタイミングを発音タイミングとする。
スティック部10のCPU11は、スティック部10の動作を止めようとする動作を検出して発音タイミングが到来したと判断すると、ノートオンイベントを生成し、センターユニット部30に送信する。ここで、CPU11は、ノートオンイベントを生成する場合に、モーションセンサ情報(例えば、加速度センサのセンサ合成値の最大値)に基づいて、発音する楽音の音量を決定し、ノートオンイベントに含ませるようにしてもよい。
続いて、CPU11は、ステップS2及びステップS3の処理で検出した情報、すなわち、姿勢情報及びショット情報を、データ通信部16を介してセンターユニット部30に送信する(ステップS4)。このとき、CPU11は、スティック識別情報と対応付けて、姿勢情報及びショット情報をセンターユニット部30に送信する。
続いて、CPU11は、処理をステップS1に戻す。これにより、ステップS1からステップS4の処理が繰り返される。
[カメラユニット部20の処理]
図9は、カメラユニット部20が実行する処理(以下、「カメラユニット部処理」と呼ぶ)の流れを示すフローチャートである。
図9を参照して、カメラユニット部20のCPU21は、イメージデータ取得処理を実行する(ステップS11)。この処理では、CPU21は、イメージセンサ部24からイメージデータを取得する。
続いて、CPU21は、第1マーカー検出処理(ステップS12)及び第2マーカー検出処理(ステップS13)を実行する。これらの処理では、CPU21は、イメージセンサ部24が検出した、スティック部10Aのマーカー部15(第1マーカー)及びスティック部10Bのマーカー部15(第2マーカー)の位置座標、サイズ、角度などのマーカー検出情報を取得し、RAM23に格納する。このとき、イメージセンサ部24は、発光中のマーカー部15について、マーカー検出情報を検出する。
続いて、CPU21は、ステップS12及びステップS13で取得したマーカー検出情報を、データ通信部25を介してセンターユニット部30に送信し(ステップS14)、ステップS11に処理を移行させる。これにより、ステップS11からステップS14の処理が繰り返される。
[センターユニット部30の処理]
図10は、センターユニット部30が実行する処理(以下、「センターユニット部処理」と呼ぶ)の流れを示すフローチャートである。
図10を参照して、センターユニット部30のCPU31は、カメラユニット部20から、第1マーカー及び第2マーカー夫々のマーカー検出情報を受信し、RAM33に格納する(ステップS21)。また、CPU31は、スティック部10A、10Bの夫々から、スティック識別情報と対応付けられた姿勢情報及びショット情報を受信し、RAM33に格納する(ステップS22)。さらに、CPU31は、スイッチ341の操作により入力された情報を取得する(ステップS23)。
続いて、CPU31は、ショットありか否かを判断する(ステップS24)。この処理では、CPU31は、スティック部10からノートオンイベントを受信したか否かにより、ショットの有無を判断する。このとき、ショットありと判断した場合には、CPU31は、ショット情報処理を実行し(ステップS25)、その後ステップS21に処理を移行させる。ショット情報処理については、図11を参照しながら詳述する。他方、ショットなしと判断した場合には、CPU31は、ステップS21に処理を移行する。
図11は、センターユニット部30のショット情報処理の流れを示すフローチャートである。
図11を参照して、センターユニット部30のCPU31は、各スティック部10の処理が終了したか判断する(ステップS251)。この処理では、CPU31は、スティック部10A及びスティック部10Bの双方からノートオンイベントを同時に受信している場合に、双方のノートオンイベントに対応する処理が完了しているか判断する。このとき、CPU31は、各ノートオンイベントに対応する処理が終了したと判断した場合には、リターン処理を行い、各マーカーの処理が終了していないと判断した場合には、ステップS252に処理を移行する。双方のノートオンイベントを受信している場合、CPU31は、スティック部10Aに対応する処理から順に行うものとするが、これに限られず、スティック部10Bに対応する処理から順に行うようにしてもよい。
続いて、CPU31は、RAM33に読み出されたセットレイアウト情報に含まれている複数の仮想パッド81の中心位置座標夫々と、マーカー検出情報に含まれるスティック部10のマーカー部15の位置座標との距離Li(ただし、1≦i≦n)を算出する(ステップS252)。
セットレイアウト情報に関連付けられているn個のパッドのうち、i番目(ただし、1≦i≦n)のパッドの中心位置座標を(Cxi,Cyi)、横サイズをSxi、縦サイズをSyi、マーカー部15の位置座標を(Mxa,Mya)、中心位置座標とマーカー部15の位置座標との横方向の距離をLxi、縦方向の距離をLyiとすると、CPU31は、Lxiを、以下に示される式(1)によって算出し、Lyiを、以下に示される式(2)によって算出する。
Lxi=(Cxi−Mxa)*(K/Sxi)・・・(1)
Lyi=(Cyi−Mya)*(K/Syi)・・・(2)
ここで、Kは、サイズの重み付け係数であり、各パーツの計算において共通の定数である。なお、この重み付け係数Kは、横方向の距離Lxiを算出する場合と、縦方向Lyiの距離を算出する場合とで異なるように設定してもよい。
すなわち、CPU31は、横方向の距離Lxi、縦方向の距離Lyiを算出した後、算出された夫々の距離に対して、Sxi,Syiで除算することにより、仮想パッド81のサイズが大きいほど距離が小さくなるように調整を行う。
続いて、CPU31は、算出した横方向の距離Lxi及び縦方向の距離Lyiを用いて、以下に示される式(3)によって距離Liを算出する。
Li=((Lxi*Lxi)+(Lyi*Lyi))^(1/2)・・・(3)
ここで、演算記号「^」は、指数乗を行うものである。すなわち、式(3)における「^1/2」は、1/2乗を示すものである。
続いて、CPU31は、ステップS252において算出された、複数の距離Liに基づいて、最も距離が短いパッドを特定する(ステップS253)。続いて、CPU31は、特定された仮想パッド81に対応する距離が、予め定められている所定の閾値以下か否かを判断する(ステップS254)。CPU31は、予め定められている所定の閾値以下と判断した場合には、ステップS255に処理を移行し、予め定められている所定の閾値より長いと判断した場合には、ステップS251に処理を移行する。
続いて、CPU31は、特定された仮想パッド81に対応する距離Liが、予め定められている閾値より短い場合に、当該距離Liに対応する仮想パッド81の音色(波形データ)を特定する(ステップS255)。すなわち、CPU31は、RAM33に読み出されたセットレイアウト情報を参照して、特定された仮想パッド81の音色(波形データ)のうち、算出された距離に対応する音色(波形データ)を選択し、ノートオンイベントに含まれる音量データと共に音源装置36に出力する。例えば、特定された仮想パッド81がシンバルに対応付けられている場合、CPU31は、距離Liが第1の距離の場合、シンバルのカップエリア(中心部)に対応する音色を選択する。また、CPU31は、距離Liが第1の距離より長い第2の距離の場合、ライドエリアに対応する音色を選択する。また、CPU31は、距離Liが第2の距離より長い第3の距離の場合、クラッシュエリア(エッジ部)に対応する音色を選択する。音源装置36は、受け取った波形データに基づいて該当する楽音を発音する(ステップS256)。
以上、本実施形態の演奏装置1の構成及び処理について説明した。
本実施形態においては、演奏装置1のCPU31は、複数の仮想パッド81夫々の中心位置座標と、検出された位置座標との距離を、仮想パッド81のサイズが大きいほど距離が短くなるように調整を行って算出する。そして、CPU31は、算出された距離のうち、最も短い距離に対応する仮想パッド81を出音対象の仮想的な楽器に特定し、セットレイアウト情報を参照して、出音対象の仮想パッド81に対応する音色を特定する。
したがって、演奏装置1は、演奏者が操作したスティック部10のマーカー部15が、仮想パッド81のサイズに収まらない範囲に含まれない場合であっても、マーカー部15の位置に近い仮想パッド81を選択し、発音することができる。よって、演奏装置1は、操作に不慣れな演奏者であっても、演奏者が意図した演奏動作を検出して発音することができる。
また、本実施形態においては、演奏装置1のCPU31は、複数の仮想パッド81夫々の中心位置座標と、検出された位置座標との、仮想平面における横方向の距離及び縦方向の距離を算出し、算出された横方向の距離及び縦方向の距離について、仮想パッド81のサイズが大きいほど夫々の距離が短くなるように調整を行い、調整された横方向の距離及び縦方向の距離に基づいて中心位置座標とCPU21により検出された位置座標との距離とを算出する。
したがって、演奏装置1は、横方向の距離及び縦方向の距離夫々の調整を行うことができるので、単に距離そのものを調整する場合に比べて細かく調整を行うことができる。
また、本実施形態においては、ROM32は、複数の仮想パッド81夫々について、中心位置座標からの距離と、当該距離に対応する音色とを関連付けた情報をセットレイアウト情報として記憶し、CPU31は、ROM32に記憶されたセットレイアウト情報を参照して、発音対象に特定された仮想パッド81に対応する距離に関連付けられた音色を発音する音色として特定する。
したがって、演奏装置1は、仮想パッド81の中心位置からの距離に応じて異なる音色を発音することができるので、例えば、楽器中心部の音と外縁の音とに違いを出してよりリアリティのある音を発音することができる。
また、本実施形態においては、CPU31は、算出された距離のうち、最も短い距離が所定の閾値以下である場合、当該最も短い距離に対応する仮想パッド81を出音対象の仮想パッド81に特定する。
したがって、演奏装置1は、演奏者のスティック部10の操作位置が、仮想パッド81の位置から著しく外れた場合に発音しないように制御することができる。
また、本実施形態においては、演奏装置1のスイッチ操作検出回路34は、演奏者の操作に応じて所定の閾値の調整を設定する。
したがって、演奏装置1は、例えば、演奏者の操作に応じて、所定の閾値を設定して、発音するか否かの精度を変更することができる。例えば、演奏者が初級者の場合に発音するか否かの精度を低く設定したり、演奏者が上級者の場合に発音するか否かの精度を高く設定したりすることができる。
また、本実施形態においては、演奏装置1のスイッチ操作検出回路34は、演奏者の操作に応じて仮想パッド81の中心位置座標を設定する。
したがって、演奏装置1は、演奏者から、中心位置座標の調整を設定するだけで、仮想パッド81の位置を変更することができる。よって、演奏装置1は、仮想平面上に格子を設け、各格子に対して仮想パッド81を発音する位置を定義する場合に比べて簡易的に仮想パッド81の位置を設定することができる。
以上、本発明の実施形態について説明したが、実施形態は例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換など種々の変更を行うことができる。これら実施形態やその変形は、本明細書などに記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
上記実施形態では、仮想的な打楽器として仮想ドラムセットD(図1参照)を例にとって説明したが、これに限られるものではなく、本発明は、スティック部10の振り下ろし動作で楽音を発音する木琴など他の楽器に適用することができる。
また、上記実施形態でスティック部10、カメラユニット部20及びセンターユニット部30で実行することとしている処理のうちの任意の処理は、他のユニット(スティック部10、カメラユニット部20及びセンターユニット部30)で実行することとしてもよい。例えば、スティック部10のCPU11が実行することとしているショット検出及びロール角の算出などの処理を、センターユニット部30が実行することとしてもよい。
例えば、CPU31は、最も短い距離に対応した仮想パッド81の特定状況に応じて、所定の閾値を自動的に調整するようにしてもよい。例えば、最も短い距離に対応した仮想パッド81の特定率が高い演奏者については、所定の閾値を小さく設定し、特定率が低い演奏者については、所定の閾値を大きく設定するようにしてもよい。
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図2〜5の構成は例示に過ぎず、特に限定されない。すなわち、上述した一連の処理を全体として実行できる機能が演奏装置1に備えられていれば足り、この機能を実現するためにどのような構成を構築するのかは特に図2〜5の例に限定されない。
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
このコンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータであってもよい。
以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
(付記)
[請求項1]
演奏者に保持される演奏部材と、
前記演奏部材で所定の操作が行われたことを検出する操作検出手段と、
前記演奏部材を被写体とする撮像画像を撮像する撮像手段と、
撮像された前記撮像画像平面上における前記演奏部材の位置座標を検出する位置検出手段と、
前記撮像画像平面上に設けられる複数の仮想的な楽器夫々について、当該仮想的な楽器の中心位置座標及びサイズを含むレイアウト情報を記憶する記憶手段と、
前記操作検出手段により前記所定の操作が行われたことが検出された場合に、前記位置検出手段により検出された位置座標と前記各仮想的な楽器の中心位置座標との間の距離の夫々を、対応する前記各仮想的な楽器のサイズに基づいて算出する距離算出手段と、
前記距離算出手段により算出された各距離のうち最も短い距離に対応する仮想的な楽器を特定する楽器特定手段と、
前記楽器特定手段により特定された仮想的な楽器に対応する楽音の発音を指示する発音指示手段と、
を備える演奏装置。
[請求項2]
前記距離算出手段は、前記対応する各仮想的な楽器のサイズが大きいほど、前記算出される距離が短くなるように調整する、請求項1に記載の演奏装置。
[請求項3]
前記発音指示手段は、前記楽器特定手段により特定される仮想的な楽器及び前記最も短い距離に基づいて決定される音色の楽音の発音を指示する、請求項1又は2に記載の演奏装置。
[請求項4]
前記楽器特定手段は、前記距離算出手段により算出された距離のうち、最も短い距離が所定の閾値以下である場合のみ、対応する仮想的な楽器を特定する、請求項1から3のいずれか1項に記載の演奏装置。
[請求項5]
前記所定の閾値を設定する閾値設定手段をさらに備える、請求項4に記載の演奏装置。
[請求項6]
前記仮想的な楽器夫々の中心位置座標を設定する中心位置設定手段をさらに備える、請求項1に記載の演奏装置。
[請求項7]
演奏者に保持され、所定の操作が行われたことを検出する演奏部材と、前記演奏部材を被写体とする撮像画像を撮像すると共に、前記撮像画像平面上における前記演奏部材の位置座標を検出する撮像装置と、前記撮像画像平面上に設けられる複数の仮想的な楽器夫々について、当該仮想的な楽器の中心位置座標及びサイズを含むレイアウト情報を備える発音装置と、を備える演奏装置として用いられるコンピュータに、
前記演奏部材で所定の操作が行われたことが検出された場合に、前記複数の仮想的な楽器夫々の中心位置座標と、検出された前記演奏部材の位置座標との間の距離夫々を、対応する各仮想的な楽器のサイズに基づいて算出する距離算出ステップと、
前記距離算出ステップにおいて算出された各距離のうち最も短い距離に対応する仮想的な楽器を特定する楽器特定ステップと、
前記特定された仮想的な楽器に対応する楽音の発音を指示する発音指示ステップと、
を実行させるプログラム。
1・・・演奏装置、10・・・スティック部、11・・・CPU、12・・・ROM、13・・・RAM、14・・・モーションセンサ部、15・・・マーカー部、16・・・データ通信部、17・・・スイッチ操作検出回路、171・・・スイッチ、20・・・カメラユニット部、21・・・CPU、22・・・ROM、23・・・RAM、24・・・イメージセンサ部、25・・・データ通信部、30・・・センターユニット、31・・・CPU、32・・ROM、33・・・RAM、34・・・スイッチ操作検出回路、341・・・スイッチ、35・・・表示回路、351・・・表示装置、36・・・音源装置、37・・・データ通信部、81・・・仮想パッド

Claims (7)

  1. 演奏者に保持される演奏部材で所定の操作が行われたことを検出する操作検出手段と、
    撮像手段により前記演奏部材を被写体として撮像された撮像画像平面上における前記演奏部材の位置座標を検出する位置検出手段と、
    前記所定の操作が行われたことが検出された場合に、前記検出された位置座標と、記憶手段に記憶された複数の仮想的な楽器夫々の中心位置座標及びサイズを含むレイアウト情報に基づいた、前記撮像画像平面上における複数の仮想的な楽器夫々の中心位置座標との間の距離を求めるとともに、前記求められた各距離を、対応する前記各仮想的な楽器のサイズが大きいほど短くなるように調整する距離調整手段と、
    前記調整された各距離のうち最も短い距離に対応する前記仮想的な楽器を特定する楽器特定手段と、
    前記特定された仮想的な楽器に対応する楽音の発音を指示する発音指示手段と、
    を備える演奏装置。
  2. 前記発音指示手段は、前記楽器特定手段により特定される仮想的な楽器及び前記最も短い距離に基づいて決定される音色の楽音の発音を指示する、請求項に記載の演奏装置。
  3. 前記楽器特定手段は、前記距離調整手段により調整された距離のうち、最も短い距離が所定の閾値以下である場合のみ、対応する仮想的な楽器を特定する、請求項1又は2に記載の演奏装置。
  4. 前記所定の閾値を設定する閾値設定手段をさらに備える、請求項に記載の演奏装置。
  5. 前記仮想的な楽器夫々の中心位置座標を設定する中心位置設定手段をさらに備える、請求項1に記載の演奏装置。
  6. 演奏者に保持され、所定の操作が行われたことを検出する演奏部材を備える演奏装置として用いられるコンピュータに、
    撮像手段により前記演奏部材を被写体として撮像された撮像画像平面上における前記演奏部材の位置座標を検出するステップと、
    前記演奏部材で所定の操作が行われたことが検出された場合に、記憶手段に記憶された複数の仮想的な楽器夫々の中心位置座標及びサイズを含むレイアウト情報に基づいた、前記撮像画像平面上における複数の仮想的な楽器夫々の中心位置座標と、検出された前記演奏部材の位置座標との間の距離夫々を求めるとともに前記求められた各距離を、対応する各仮想的な楽器のサイズが大きいほど短くなるように調整るステップと、
    前記調整された各距離のうち最も短い距離に対応する仮想的な楽器を特定するステップと、
    前記特定された仮想的な楽器に対応する楽音の発音を指示するステップと、
    を実行させるプログラム。
  7. 演奏者に保持され、所定の操作が行われたことを検出する演奏部材を備える演奏装置に用いられる演奏方法であって、前記演奏装置が、
    撮像手段により前記演奏部材を被写体として撮像された撮像画像平面上における前記演奏部材の位置座標を検出し、
    前記演奏部材で所定の操作が行われたことが検出された場合に、記憶手段に記憶された複数の仮想的な楽器夫々の中心位置座標及びサイズを含むレイアウト情報に基づいた、前記撮像画像平面上における前記複数の仮想的な楽器夫々の中心位置座標と、検出された前記演奏部材の位置座標との間の距離夫々を求めるとともに、前記求められた距離を、対応する前記各仮想的な楽器のサイズが大きいほど短くなるように調整し
    前記調整された各距離のうち最も短い距離に対応する仮想的な楽器を特定し、
    前記特定された仮想的な楽器に対応する楽音の発音を指示する、演奏方法。
JP2012057512A 2012-03-14 2012-03-14 演奏装置、プログラム及び演奏方法 Active JP5966465B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012057512A JP5966465B2 (ja) 2012-03-14 2012-03-14 演奏装置、プログラム及び演奏方法
US13/794,317 US8969699B2 (en) 2012-03-14 2013-03-11 Musical instrument, method of controlling musical instrument, and program recording medium
CN201310081127.6A CN103310769B (zh) 2012-03-14 2013-03-14 演奏装置及演奏装置的控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012057512A JP5966465B2 (ja) 2012-03-14 2012-03-14 演奏装置、プログラム及び演奏方法

Publications (2)

Publication Number Publication Date
JP2013190663A JP2013190663A (ja) 2013-09-26
JP5966465B2 true JP5966465B2 (ja) 2016-08-10

Family

ID=49135921

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012057512A Active JP5966465B2 (ja) 2012-03-14 2012-03-14 演奏装置、プログラム及び演奏方法

Country Status (3)

Country Link
US (1) US8969699B2 (ja)
JP (1) JP5966465B2 (ja)
CN (1) CN103310769B (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5573899B2 (ja) * 2011-08-23 2014-08-20 カシオ計算機株式会社 演奏装置
US9035160B2 (en) * 2011-12-14 2015-05-19 John W. Rapp Electronic music controller using inertial navigation
JP5549698B2 (ja) 2012-03-16 2014-07-16 カシオ計算機株式会社 演奏装置、方法及びプログラム
JP5598490B2 (ja) * 2012-03-19 2014-10-01 カシオ計算機株式会社 演奏装置、方法及びプログラム
JP2013213946A (ja) * 2012-04-02 2013-10-17 Casio Comput Co Ltd 演奏装置、方法及びプログラム
JP6398291B2 (ja) * 2014-04-25 2018-10-03 カシオ計算機株式会社 演奏装置、演奏方法及びプログラム
CN105807907B (zh) * 2014-12-30 2018-09-25 富泰华工业(深圳)有限公司 体感交响乐演奏***及方法
US9418639B2 (en) * 2015-01-07 2016-08-16 Muzik LLC Smart drumsticks
WO2016111716A1 (en) * 2015-01-08 2016-07-14 Muzik LLC Interactive instruments and other striking objects
KR102398315B1 (ko) * 2015-08-11 2022-05-16 삼성전자주식회사 전자 장치 및 전자 장치에서 음을 재생하기 위한 방법
US10854180B2 (en) 2015-09-29 2020-12-01 Amper Music, Inc. Method of and system for controlling the qualities of musical energy embodied in and expressed by digital music to be automatically composed and generated by an automated music composition and generation engine
US9721551B2 (en) 2015-09-29 2017-08-01 Amper Music, Inc. Machines, systems, processes for automated music composition and generation employing linguistic and/or graphical icon based musical experience descriptions
KR101746216B1 (ko) 2016-01-29 2017-06-12 동서대학교 산학협력단 아두이노를 이용한 에어 드럼 연주장치 및 이의 제어 방법
US20170337909A1 (en) * 2016-02-15 2017-11-23 Mark K. Sullivan System, apparatus, and method thereof for generating sounds
CN105825845A (zh) * 2016-03-16 2016-08-03 湖南大学 一种播放乐器音乐的方法及***
CN109522959A (zh) * 2018-11-19 2019-03-26 哈尔滨理工大学 一种乐谱识别分类及演奏控制方法
US10964299B1 (en) 2019-10-15 2021-03-30 Shutterstock, Inc. Method of and system for automatically generating digital performances of music compositions using notes selected from virtual musical instruments based on the music-theoretic states of the music compositions
US11037538B2 (en) 2019-10-15 2021-06-15 Shutterstock, Inc. Method of and system for automated musical arrangement and musical instrument performance style transformation supported within an automated music performance system
US11024275B2 (en) 2019-10-15 2021-06-01 Shutterstock, Inc. Method of digitally performing a music composition using virtual musical instruments having performance logic executing within a virtual musical instrument (VMI) library management system
GB2597462B (en) * 2020-07-21 2023-03-01 Rt Sixty Ltd Evaluating percussive performances

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5442168A (en) * 1991-10-15 1995-08-15 Interactive Light, Inc. Dynamically-activated optical instrument for producing control signals having a self-calibration means
JP3599115B2 (ja) * 1993-04-09 2004-12-08 カシオ計算機株式会社 楽器ゲーム装置
USRE37654E1 (en) * 1996-01-22 2002-04-16 Nicholas Longo Gesture synthesizer for electronic sound device
US20010035087A1 (en) * 2000-04-18 2001-11-01 Morton Subotnick Interactive music playback system utilizing gestures
JP2002052243A (ja) * 2000-08-11 2002-02-19 Konami Co Ltd 対戦式ビデオゲーム装置
US6388183B1 (en) * 2001-05-07 2002-05-14 Leh Labs, L.L.C. Virtual musical instruments with user selectable and controllable mapping of position input to sound output
JP2007121355A (ja) * 2005-10-25 2007-05-17 Rarugo:Kk 演奏システム
KR101189214B1 (ko) * 2006-02-14 2012-10-09 삼성전자주식회사 동작에 따른 음을 출력하는 장치 및 방법
CN101465121B (zh) * 2009-01-14 2012-03-21 苏州瀚瑞微电子有限公司 触摸式虚拟电子琴的实现方法
CN101504832A (zh) * 2009-03-24 2009-08-12 北京理工大学 基于手部动作感应的虚拟演奏***
JP2011128427A (ja) * 2009-12-18 2011-06-30 Yamaha Corp 演奏装置、演奏制御装置及びプログラム

Also Published As

Publication number Publication date
US20130239783A1 (en) 2013-09-19
CN103310769A (zh) 2013-09-18
CN103310769B (zh) 2015-12-23
JP2013190663A (ja) 2013-09-26
US8969699B2 (en) 2015-03-03

Similar Documents

Publication Publication Date Title
JP5966465B2 (ja) 演奏装置、プログラム及び演奏方法
JP6024136B2 (ja) 演奏装置、演奏方法及びプログラム
JP6127367B2 (ja) 演奏装置及びプログラム
US8759659B2 (en) Musical performance device, method for controlling musical performance device and program storage medium
JP5598490B2 (ja) 演奏装置、方法及びプログラム
JP5533915B2 (ja) 習熟度判定装置、習熟度判定方法及びプログラム
JP5573899B2 (ja) 演奏装置
US8710345B2 (en) Performance apparatus, a method of controlling the performance apparatus and a program recording medium
US8445771B2 (en) Performance apparatus and electronic musical instrument
JP5549698B2 (ja) 演奏装置、方法及びプログラム
JP6398291B2 (ja) 演奏装置、演奏方法及びプログラム
JP6111526B2 (ja) 楽音発生装置
JP5861517B2 (ja) 演奏装置及びプログラム
JP6098081B2 (ja) 演奏装置、演奏方法及びプログラム
JP6098083B2 (ja) 演奏装置、演奏方法及びプログラム
JP5974567B2 (ja) 楽音発生装置
JP2013044889A (ja) 演奏装置
JP5935399B2 (ja) 楽音発生装置
JP5942627B2 (ja) 演奏装置、方法及びプログラム
JP2013195626A (ja) 楽音発生装置
JP2014062948A (ja) 演奏装置、演奏方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160620

R150 Certificate of patent (=grant) or registration of utility model

Ref document number: 5966465

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150