JP6085036B2 - 非同期合唱方法、非同期合唱装置、プログラム及び記録媒体 - Google Patents

非同期合唱方法、非同期合唱装置、プログラム及び記録媒体 Download PDF

Info

Publication number
JP6085036B2
JP6085036B2 JP2015543298A JP2015543298A JP6085036B2 JP 6085036 B2 JP6085036 B2 JP 6085036B2 JP 2015543298 A JP2015543298 A JP 2015543298A JP 2015543298 A JP2015543298 A JP 2015543298A JP 6085036 B2 JP6085036 B2 JP 6085036B2
Authority
JP
Japan
Prior art keywords
file
chorus
audio
accompaniment
audio file
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015543298A
Other languages
English (en)
Other versions
JP2016504618A (ja
Inventor
ポンフェイ ジャン
ポンフェイ ジャン
ジェンユー ヤン
ジェンユー ヤン
シャオ ジャン
シャオ ジャン
シンシェン リン
シンシェン リン
Original Assignee
シャオミ・インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャオミ・インコーポレイテッド filed Critical シャオミ・インコーポレイテッド
Publication of JP2016504618A publication Critical patent/JP2016504618A/ja
Application granted granted Critical
Publication of JP6085036B2 publication Critical patent/JP6085036B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/365Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems the accompaniment information being stored on a host computer and transmitted to a reproducing terminal by means of a network, e.g. public telephone lines
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/245Ensemble, i.e. adding one or more voices, also instrumental voices
    • G10H2210/251Chorus, i.e. automatic generation of two or more extra voices added to the melody, e.g. by a chorus effect processor or multiple voice harmonizer, to produce a chorus or unison effect, wherein individual sounds from multiple sources with roughly the same timbre converge and are perceived as one
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/175Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments for jam sessions or musical collaboration through a network, e.g. for composition, ensemble playing or repeating; Compensation of network or internet delays therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • General Engineering & Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Description

本開示の実施例は、ネットワーク技術分野に関し、特に、非同期合唱方法非同期合唱装置、プログラム及び記録媒体に関する。
スマートモバイル端末は、急速な発展に伴い、それに搭載される機能がますます豊かになっている。現在、モバイル端末において、社交カラオケのアプリケーションを有し、このアプリケーションは、リバーブ及びエコー効果を奏し、ユーザーの音を加工して美化することができる。アプリケーションは、伴奏以外、伴奏に対応する歌詞も提供し、カラオケで歌う際に、歌詞を同期させて表示することができると共に、KTVのように各字まで正確に同期することができる。なお、アプリケーションは、さらに、おもしろいインテリジェントの採点機能を提供し、得られた得点を友人と共有することができる。
現在,モバイル端末でカラオケする場合には、一般的に、一人で歌い、歌い終わった歌を、サーバーに提出して保存してさらに展示し、他に当該アプリケーションを使用するユーザーは、この歌を再生して評価することができる。複数の人で合唱しようとすると、複数のユーザーが同時に同一のモバイル端末に向って歌う必要があり、歌い終わった歌をサーバーに提出して保存する。
しかしながら、上記方法は、合唱の場合に、複数のユーザーが同時に同一のモバイル端末に向って歌う必要があり、歌い終わった歌をサーバーに提出して処理するが、合唱の場合に、ユーザーの音の大きさや距離の遠近に起因して合唱の効果が悪くなることがあり、また、合唱の場合に、1人のユーザーがうまくできなかったら、この曲を再び合唱し、サーバーが合唱の歌を再処理するおそれがあり、プロセスが煩わしく、コストが高い。
本開示の実施例は、合唱の効果が悪く、処理のプロセスが煩わしく、且つコストが高い問題を解決するように、非同期合唱方法非同期合唱装置、プログラム及び記録媒体を提供する。
本開示の実施例の第1方面によれば、本開示の実施例は、非同期合唱方法を提出し、前記方法は、第1伴奏ファイルを使用し合唱に参加することを要求する端末によりアップロードされたオーディオファイルを受信した後、上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を、合唱済み部分としてマークするステップと、マークされたオーディオファイルを第2伴奏ファイルと特定するステップと、を含み、上記オーディオファイルは、上記第1伴奏ファイルを使用して合唱に参加することを要求する端末が収集したオーディオ情報とダウンロードした第1伴奏ファイルとをエンコードすることにより形成される。
選択的に、方法は、さらに、上記第2伴奏ファイルを、上記第2伴奏ファイルを使用して合唱に参加することを要求する端末に送信するステップを含む。
選択的に、上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を、合唱済み部分としてマークするステップは、上記オーディオファイルにおけるオーディオ情報位置を取得するステップと、上記オーディオ情報位置における、収集したオーディオ情報と上記第1伴奏ファイルとをエンコードすることにより形成されるミキシングを有する部分を分析するステップと、上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を、合唱済み部分としてマークするステップと、を含む。
選択的に、上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を、合唱済み部分としてマークするステップは、上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分に対応する表示文字の色を変更するステップ、及び/又は、上記オーディオファイルの名称について、上記オーディオファイルにおいてミキシングを有し且つマークされていない部分を文字でマークするステップを含む。
選択的に、第1伴奏ファイルを使用して合唱に参加することを要求する端末によりアップロードされたオーディオファイルを受信した後、さらに、上記第1伴奏ファイルを使用して合唱に参加することを要求する端末によりアップロードされたオーディオファイルにおいて、収集したオーディオ情報に属する音量情報を受信するステップと、上記音量情報を、上記第2伴奏ファイルを使用して合唱に参加することを要求する端末に送信し、ユーザーに上記音量で合唱させるように通知するステップと、を含む。
選択的に、上記方法は、
さらに、初期伴奏ファイルの合唱用の段落をマークして、マークされた初期伴奏ファイルを、上記初期伴奏ファイルを使用して合唱に参加することを要求する端末に送信するステップを含み、上記マークされた初期伴奏ファイルは、少なくとも1つの段落を含む。
選択的に、初期伴奏ファイルの合唱用の段落をマークするステップは、上記初期伴奏ファイルにおける近隣する2つの文字の間の時間間隔を読み取るステップと、上記時間間隔と所定の閾値とを比較するステップと、2つの文字の間の時間間隔が上記所定の閾値より大きい場合、上記2つの文字の間に1つの段落が終わるようにマークするステップと、を含む。
本開示の実施例の第2方面によれば、本開示は、さらに、他の非同期合唱方法を提示し、上記方法は、
オーディオ情報を収集して、上記オーディオ情報とサーバーからダウンロードした第1伴奏ファイルとをエンコードすることによりオーディオファイルを形成するステップと、
上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を、合唱済み部分としてマークし、マークされたオーディオファイルをサーバーにアップロードするステップと、を含む。
選択的に、上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を、合唱済み部分としてマークするステップは、上記オーディオファイルにおけるオーディオ情報位置を取得するステップと、上記オーディオ情報位置における、収集したオーディオ情報と上記第1伴奏ファイルとをエンコードすることによる形成されるミキシングを有する部分を分析するステップと、上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を合唱済み部分としてマークするステップと、を含む。
選択的に、上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を、合唱済み部分としてマークするステップは、上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分に対応する表示文字の色を変更するステップ、及び/又は、上記オーディオファイルの名称について、上記オーディオファイルにおいてミキシングを有し且つマークされていない部分を文字でマークするステップを含む。
選択的に、マークされたオーディオファイルをサーバーにアップロードした後、さらに、上記オーディオファイルにおける、収集したオーディオ情報に属する音量情報を記録し、上記音量情報をサーバーにアップロードするステップを含む。
本開示の実施例の第3方面によれば、本開示は、さらに、非同期合唱装置を提供し、上記装置は、第1伴奏ファイルを使用して合唱に参加することを要求する端末によりアップロードされたオーディオファイルを受信した後、上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を、合唱済み部分としてマークするための第1マークモジュールと、マークされたオーディオファイルを第2伴奏ファイルとして特定するための特定モジュールと、含み、上記オーディオファイルは、上記第1伴奏ファイルを使用して合唱に参加することを要求する端末が収集したオーディオ情報とダウンロードした第1伴奏ファイルとをエンコードすることにより形成される。
選択的に、上記装置は、さらに、上記第2伴奏ファイルを、上記第2伴奏ファイルを使用して合唱に参加することを要求する端末に送信するための第1送信モジュールを含む。
選択的に、上記第1マークモジュールは、上記オーディオファイルにおけるオーディオ情報位置を取得するための第1取得サブモジュールと、上記オーディオ情報位置における、収集したオーディオ情報と上記第1伴奏ファイルとをエンコードすることにより形成されるミキシングを有する部分を分析するための第1分析サブモジュールと、上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を、合唱済み部分としてマークするための第1ミキシングマークサブモジュールと、を含む。
選択的に、上記第1ミキシングマークサブモジュールは、上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分に対応する表示文字の色を変更するための第1変更サブユニット、及び/又は、上記オーディオファイルの名称について、上記オーディオファイルにおいてミキシングを有し且つマークされていない部分を文字でマークするための第1マークサブユニット、を含む。
選択的に、上記装置は、さらに、第1伴奏ファイルを使用して合唱に参加することを要求する端末によりアップロードされたオーディオファイルを受信した後、上記第1伴奏ファイルを使用して合唱に参加することを要求する端末によりアップロードされたオーディオファイルにおいて、収集したオーディオ情報に属する音量情報を受信するための受信モジュールと、上記音量情報を、上記第2伴奏ファイルを使用して合唱に参加することを要求する端末に送信し、ユーザーに上記音量で合唱させるように通知するための第2送信モジュールと、を含む。
選択的に、上記装置は、さらに、初期伴奏ファイルの合唱用の段落をマークするための第2マークモジュールと、上記第2マークモジュールによりマークされた初期伴奏ファイルを、上記初期伴奏ファイルを使用して合唱に参加することを要求する端末に送信するための第3送信モジュールと、を含み、上記マークされた初期伴奏ファイルは、少なくとも1つの段落を含む。
選択的に、上記第2マークモジュールは、上記初期伴奏ファイルにおける近隣する2つの文字の間の時間間隔を読み取るための読取サブモジュールと、上記時間間隔と所定の閾値とを比較するための比較サブモジュールと、2つの文字の間の時間間隔が上記所定の閾値より大きい場合に、上記2つの文字の間に1つの段落が終わるようにマークするための文字マークサブモジュールと、を含む。
本開示の実施例の第4方面によれば、本開示は、さらに、他の非同期合唱装置を提供し、上記装置は、オーディオ情報を収集して、上記オーディオ情報とサーバーからダウンロードした第1伴奏ファイルとをエンコードすることによりオーディオファイルを形成するためのエンコードモジュールと、上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を合唱済み部分としてマークし、マークされたオーディオファイルをサーバーにアップロードするための第3マークモジュールと、を含む。
選択的に、上記第3マークモジュールは、上記オーディオファイルにおけるオーディオ情報位置を取得するための第3取得サブモジュールと、上記オーディオ情報位置における、収集したオーディオ情報と上記第1伴奏ファイルとをエンコードすることによる形成されるミキシングを有する部分を分析するための第3分析サブモジュールと、上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を合唱済み部分としてマークするための第3ミキシングマークサブモジュールと、を含む。
選択的に、上記第3ミキシングマークサブモジュールは、上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分に対応する表示文字の色を変更するための第3変更サブユニット、及び/又は、上記オーディオファイルの名称について、上記オーディオファイルにおいてミキシングを有し且つマークされていない部分を文字でマークするための第3マークサブユニット、を含む。
選択的に、上記装置は、さらに、マークされたオーディオファイルをサーバーにアップロードした後、上記オーディオファイルにおける、収集したオーディオ情報に属する音量情報を記録し、上記音量情報をサーバーにアップロードするための記録アップロードモジュールを含む。
本開示の実施例の第5方面によれば、プロセッサに実行されることにより、前記非同期合唱方法を実現するプログラムを提供する
本開示の実施例の第6方面によれば、前記プログラムを記録した記録媒体を提供する
開示の実施例による技術方案は、以下のような有益な効果を含むことができる。
本開示の実施例の提供した非同期合唱方法は、第1伴奏ファイルを使用して合唱に参加することを要求する端末によりアップロードされたオーディオファイルを受信した後、オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を合唱済み部分としてマークし、マークされたオーディオファイルを第2伴奏ファイルとして特定し、なお、オーディオファイルは、第1伴奏ファイルを使用して合唱に参加することを要求する端末が収集したオーディオ情報とダウンロードした第1伴奏ファイルとをエンコードすることにより形成される。1人のユーザーが合唱に参加する場合に、当該ユーザーの端末は、他のユーザーの合唱したオーディオファイルを自分自身の合唱するための伴奏ファイルとしてダウンロードすることができる。これにより、多くの人々で混雑するか、或いは、音の大きさや距離の遠近に起因して合唱の効果が悪くなることなく、合唱参加者は、異なる時間、且つ異なる地点で自分の部分を歌うことができ、また、各ユーザーは、自分の部分を歌う際に、何度も歌う、或いは、自分の歌う部分を単独に処理することができ、他のユーザーの歌う部分に影響を与えないので、1人のユーザーがうまくできなかった原因で曲全体を歌い直す状況を招かない。
以上の一般的な記述及び以下の詳細な記述は、例示のものに過ぎず、本開示を限定するものではないと理解すべきである。
ここでの図面は、明細書の一部分として明細書全体を構成することにより、本開示に合致する実施例を例示するとともに、明細書を結合し本開示の原理を解釈するためのものである。
一例示的実施例1による非同期合唱方法を示すフローチャートである。 一例示的実施例2による非同期合唱方法を示すフローチャートである。 一例示的実施例3による非同期合唱方法を示すフローチャートである。 一例示的実施例4による非同期合唱方法を示すフローチャートである。 一例示的実施例5によるマークされた初期伴奏ファイルを模式的に示す図である。 一例示的実施例6による非同期合唱装置の構成を示すブロック図である。 一例示的実施例7による非同期合唱装置の構成を示すブロック図である。 一例示的実施例8による非同期合唱装置の構成を示すブロック図である。 一例示的実施例9による非同期合唱装置の構成を示すブロック図である。
本発明の上記目的、特徴及び利点をより容易に理解できるために、以下、図面及び具体的な実施形態を結合して本発明をさらに詳細に説明する。
本発明の非同期合唱方法及び非同期合唱装置において、多くの人々で混雑するか、或いは、音の大きさや距離の遠近に起因して合唱の効果が悪くなることなく、合唱参加者は、異なる時間、且つ異なる地点で自分の部分を歌うことができ、また、各ユーザーが自分の部分を歌う際に、自分の歌う部分を単独に処理することができ、他のユーザーの歌う部分に影響を与えない。
実施例1
現在、合唱の場合に、複数のユーザーが同時に同一のモバイル端末に向って歌う必要があり、歌い終わった歌をサーバーに提出して処理する。合唱の場合に、ユーザーの音の大きさや距離の遠近に起因して合唱の効果が悪くなることがあり、また、合唱の場合に、そのうち1人のユーザーがうまくできなかったら、この歌を再び合唱し、サーバーが合唱の歌を再処理するおそれがあり、プロセスが煩わしく、コストが高い。
上記問題に対して、本開示の実施例は、非同期合唱方法を提出して、この方法は上記問題を解決することができる。
図1を参照し、本開示の実施例1による非同期合唱方法のフローチャートを示し、当該方法は、以下のステップを含む。
ステップ101において、第1伴奏ファイルを使用し合唱に参加することを要求する端末によりアップロードされたオーディオファイルを受信した後、オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を、合唱済み部分としてマークする。
本開示の実施例において、複数のユーザーが合唱する場合に、異なる端末によって行うことができ、本開示の実施例において言及した端末は、スマートフォーン、タブレットPCなどであってもよい。
第1伴奏ファイルを使用して合唱に参加することを要求する端末のユーザーが合唱する場合に、まず、サーバーから第1伴奏ファイルをダウンロードすることができ、その後、当該第1伴奏ファイルを使用して合唱に参加することを要求する端末は、当該ユーザーのオーディオ情報を収集して、収集したオーディオ情報と、当該第1伴奏ファイルを使用して合唱に参加することを要求する端末がダウンロードした第1伴奏ファイルとをエンコードし、当該第1伴奏ファイルを使用して合唱に参加することを要求する端末に対応するオーディオファイルを形成し、サーバーにアップロードする。
サーバーは、当該第1伴奏ファイルを使用して合唱に参加することを要求する端末によりアップロードされたオーディオファイルを受信した後に、オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を、合唱済み部分としてマークすることができる。なお、上記オーディオファイルは、第1伴奏ファイルを使用して合唱に参加することを要求する端末が収集したオーディオ情報とダウンロードした第1伴奏ファイルをエンコードすることにより形成されるものである。
ステップ102において、マークされた伴奏ファイルを第2伴奏ファイルとして特定する。
上記第1伴奏ファイルを使用して合唱に参加することを要求する端末がアップロードするオーディオファイルをマークした後に、当該マークされた伴奏ファイルを第2伴奏ファイルとして特定することができる。第2伴奏ファイルを使用して合唱に参加することを要求する端末のユーザーが合唱に参加する場合に、サーバーから上記第2伴奏ファイルをダウンロードして、直接に当該第2伴奏ファイルを利用して合唱に参加することができる。
上記各ステップの具体的なプロセスについて、以下の実施例2において詳細に説明する。
本開示の実施例において、1人のユーザーが合唱に参加する場合に、当該ユーザーの端末は、他のユーザーの合唱したオーディオファイルを自分自身の合唱するための伴奏ファイルとしてダウンロードすることができる。これにより、多くの人々で混雑するか、或いは、音の大きさや距離の遠近に起因して合唱の効果が悪くなることなく、合唱参加者は、異なる時間、且つ異なる地点で自分の部分を歌うことができ、また、各ユーザーは、自分の部分を歌う際に、何度も歌う、或いは、自分の歌う部分を単独に処理することができ、他のユーザーの歌う部分に影響を与えないので、1人のユーザーがうまくできなかった原因で曲全体を歌い直す状況を招かない。
実施例2
以下、本開示の実施例2により、上記実施例1に係る非同期合唱方法を詳細に説明する。
図2を参照し、本開示の実施例2による非同期合唱方法のフローチャートを示し、当該方法は、以下のステップを含む。
ステップ201において、初期伴奏ファイルの合唱用の段落をマークして、マークされた初期伴奏ファイルを、初期伴奏ファイルを使用して合唱に参加することを要求する端末に送信する。
本開示の実施例において、まず初期伴奏ファイルをマークして、マークされた初期伴奏ファイルを、初期伴奏ファイルを使用して合唱に参加することを要求する端末に送信することができる。なお、マークされた初期伴奏ファイルは、少なくとも1つの段落を含む。
一実施例において、時間間隔を読み取る手段を採用して自動的に初期伴奏ファイルをマークすることができる。そのため、上記初期伴奏ファイルの合唱用の段落をマークするプロセスは、
a1、初期伴奏ファイルにおける近隣する2つの文字の間の時間間隔を読み取るステップと、
a2、上記時間間隔と所定の閾値とを比較するステップと、
a3、2つの文字の間の時間間隔が所定の閾値より大きい場合、2つの文字の間に1つの段落が終わるようにマークするステップと、を含む。
本開示の実施例に言及したマークすることは、2つの文字の間に1つの特殊記号(例えば、点)をマークしてもよく、この場合に、当該2つの文字が伴奏ファイルにおける2つの段落に別々に存在して、当該特殊記号は、1つの段落の終わる記号となる、或いは、男と女の交互に歌うことを区別するためのものであり、2つの文字の間に「男:」又は「女:」をマークし、この場合に、当該2つの文字が伴奏ファイルにおける2つの段落に別々に存在して、当該「男:」又は「女:」のマークは1つの段落の終わる記号となる。
勿論、異なる色でマークするなど、他の手段を採用して初期伴奏ファイルをマークしてもよく、これは、本開示の実施例に限定されるものではない。
例えば、上記の「男:」又は「女:」をマークする手段を使用して、下記の1つの段落の歌詞に対して次のようにマークすることができる。
各2つの文字の間の時間間隔を判断し、伴奏ファイルをマークすることによって、より正確にマークすることができる。上記所定の閾値の具体的な数値について、当業者は、実際の経験によって設定すればよい。
勿論、本開示の実施例は、伴奏の音調の高さに応じてマークするなど、他の手段を採用して初期伴奏ファイルをマークしてもよく、これは、本開示の実施例に限定されるものではない。
ステップ202において、第1伴奏ファイルを使用して合唱に参加することを要求する端末によりアップロードされたオーディオファイルを受信した後、オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を合唱済み部分としてマークする。
本開示の実施例において、一曲の歌に対して、複数のユーザーが異なる端末を利用して合唱することができる。それぞれの合唱に参加することを要求する端末のユーザーが合唱する場合に、当該合唱に参加することを要求する端末がユーザーのオーディオ情報を収集することができ、その後に、当該オーディオ情報と合唱に参加する端末がダウンロードした伴奏ファイルとをエンコードし、オーディオファイルを形成し、最後にエンコードすることにより形成されたオーディオファイルをサーバーにアップロードすることができる。
本開示の実施例において、サーバーが合唱に参加することを要求する端末によりアップロードされたオーディオファイルを受信した後に、オーディオファイルにおいてミキシングを有し且つマークされていない部分を合唱済み部分としてマークすることができる。
上記マークオーディオファイルにおいて、ミキシングを有し且つマークされていない部分を合唱済み部分としてマークするプロセスは、
b1、オーディオファイルにおけるオーディオ情報位置を取得するステップと、
b2、オーディオ情報位置における、収集したオーディオ情報と第1伴奏ファイルとをエンコードすることにより形成されるミキシングを有する部分を分析するステップと、
b3、オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を合唱済み部分としてマークすること、を含む。
本開示の実施例において、オーディオファイルにおいてミキシングを有し且つマークされていない部分について、以下の手段を採用してマークすることができる。
オーディオファイルにおいてミキシングを有し且つマークされていない部分に対応する表示文字の色を変更し(例えば、オーディオファイルにおいてミキシングがない部分に対応する表示文字の色が黒いであると、オーディオファイルにおいてミキシングを有し且つマークされていない部分に対応する表示文字の色を赤色にマークすることができる)、或いは、オーディオファイル的名称において、オーディオファイルにおけるミキシングを有し且つマークされていない部分を文字でマークすることができる(例えば、オーディオファイルの名称において、どの部分が歌われたかを文字で説明できる)。勿論、同時にオーディオファイルにおけるミキシングを有し且つマークされていない部分に対して上記の2種のマークを行ってもよく、これは、本開示の実施例に限定されるものではない。
本開示の実施例において、ミキシングを有し且つマークされていない部分に対応する文字を太くするなど、他の手段を採用して、オーディオファイルにおけるミキシングを有し且つマークされていない部分を合唱済み部分としてマークしてもよく、これは本開示の実施例に限定されるものではない。
ステップ203において、マークされたオーディオファイルを第2伴奏ファイルとして特定する。
オーディオファイルをマークした後に、当該マークされたオーディオファイルを第2伴奏ファイルとして特定することができ、第2伴奏ファイルを使用して合唱に参加することを要求する端末のユーザーは、当該第2伴奏ファイルに従って合唱することができる。
ステップ204において、第2伴奏ファイルを、第2伴奏ファイルを使用して合唱に参加することを要求する端末に送信する。
第2伴奏ファイルを使用して合唱に参加することを要求する端末が合唱を要求する場合に、サーバーにより特定された第2伴奏ファイルを、当該第2伴奏ファイルを使用して合唱に参加することを要求する端末に送信することができる。初期伴奏ファイルにおいて異なる段落をマークしたため、当該第2伴奏ファイルを使用して合唱に参加することを要求する端末のユーザーは、初期伴奏ファイルにおけるマークに従って、自身に対応する段落を合唱すると共に、ダウンロードした第2伴奏ファイルにおけるマークされる合唱済み部分に基づいて、合唱する。
第2伴奏ファイルを使用して合唱に参加することを要求する端末は、ユーザーのオーディオ情報を収集した後に、収集したオーディオ情報と当該第2伴奏ファイルとをエンコードして、オーディオファイルを生成して、当該オーディオファイルをサーバーにアップロードし、その後に、当該第2伴奏ファイルを使用して合唱に参加することを要求する端末がアップロードしたオーディオファイルをマークし,上記プロセスを繰り返して実行することができる。
ステップ205において、第1伴奏ファイルを使用して合唱に参加することを要求する端末によりアップロードされたオーディオファイルにおいて、収集したオーディオ情報に属する音量情報を受信する。
さらに、合唱の効果を向上させるために、本開示の実施例において、音量通知の手段を採用してもよい。ある1つの合唱に参加することを要求する端末のユーザーが合唱する場合に、当該端末は、収集したオーディオ情報の音量情報を記録し、収集したオーディオ情報の音量情報をサーバーにアップロードすることができる。
そのため、本開示の実施例において、第1伴奏ファイルを使用して合唱に参加することを要求する端末によりアップロードされたオーディオファイルを受信した後に、さらに、第1伴奏ファイルを使用して合唱に参加することを要求する端末によりアップロードされたオーディオファイルにおいて、収集したオーディオ情報に属する音量情報を受信することができる。
ステップ206において、音量情報を、上記第2伴奏ファイルを使用して合唱に参加することを要求する端末に送信する。
サーバーが上記第1伴奏ファイルを使用して合唱に参加することを要求する端末によりアップロードされた音量情報を受信した後、音量情報を、第2伴奏ファイルを使用して合唱に参加することを要求する端末に送信することで、当該端末のユーザーに上記音量で合唱させるように通知することができる。
音量通知機能を有するため、第2伴奏ファイルを使用して合唱に参加することを要求する端末のユーザーは、第1伴奏ファイルを使用して合唱に参加することを要求する端末のユーザーの音量に基づいて、自分の合唱に参加する音量を調整することができ、これによって、合唱の効果をさらに向上させる。
上記ステップ205〜ステップ206は、ステップ203の前に実行してもよく、或いは、ステップ203とステップ205とは並行に実行してもよく、ステップ204とステップ206は並行に実行してもよく、上記ステップの具体的な順序は、本開示の実施例に限定されるものではない。
本開示の実施例による非同期合唱方法において、多くの人々で混雑するか、或いは、音の大きさや距離の遠近に起因して合唱の効果が悪くなることなく、合唱参加者は、異なる時間、且つ異なる地点で自分の部分を歌うことができ、また、各ユーザーが自分の部分を歌う際に、何度も歌う、或いは、自分の歌う部分を単独に処理することができ、他のユーザーの歌う部分に影響を与えず、また,本開示の実施例は、1つ前の合唱に参加することを要求する端末のユーザーが合唱したときの音量情報を記録し、次の合唱に参加することを要求する端末のユーザーに当該音量で合唱させるように通知することで、合唱の効果をさらに向上させることができる。
上記実施例1と実施例2は、主にサーバー側の視点で非同期合唱方法を説明し、以下、実施例3と実施例4において、端末側の視点で説明する。
実施例3
図3を参照し、本開示の実施例3による非同期合唱方法のフローチャートを示し、当該方法は、以下のステップを含む。
ステップ301において、オーディオ情報を収集して、オーディオ情報とサーバーからダウンロードした第1伴奏ファイルとをエンコードしてオーディオファイルを形成する。
第1伴奏ファイルを使用して合唱に参加することを要求する端末が合唱に参加することを要求する場合に、まず、サーバーから第1伴奏ファイルをダウンロードしたことができ、その後、ユーザーが合唱に参加する場合に、当該端末は、ユーザーのオーディオ情報を収集して、オーディオ情報とサーバーからダウンロードした第1伴奏ファイルとをエンコードしオーディオファイルを形成することができる。
ステップ302において、オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を、合唱済み部分としてマークし、マークされたオーディオファイルをサーバーにアップロードする。
端末は、エンコードしてオーディオファイルを形成した後に、当該オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を合唱済み部分としてマークし、マークされたオーディオファイルをサーバーにアップロードすることができる。
サーバーは、マークされたオーディオファイルを受信した後に、当該マークされたオーディオファイルを第2伴奏ファイルとすることができ、第2伴奏ファイルを使用して合唱に参加することを要求する端末は、サーバーから第2伴奏ファイルをダウンロードし、直接に当該第2伴奏ファイルを利用して合唱に参加することができる。
上記各ステップの具体的なプロセスについて、以下の実施例4において、詳細に説明する。
本開示の実施例において、1人のユーザーが合唱に参加する場合に、当該ユーザーの端末は、他のユーザーの合唱したオーディオファイルを自分自身の合唱する伴奏ファイルとしてダウンロードすることができ、これにより、合唱参加者は、異なる時間、且つ異なる地点で自分の部分を歌うことができ、多くの人々で混雑するか、或いは、音の大きさや距離の遠近に起因して合唱の効果が悪くなることがない。
実施例4
以下、本開示の実施例4によって、上記実施例3の非同期合唱方法について詳細に説明する。
図4を参照し、本開示の実施例4による非同期合唱方法のフローチャートを示し、当該方法は、以下のステップを含む。
ステップ401において、オーディオ情報を収集して、オーディオ情報とサーバーからダウンロードした第1伴奏ファイルとをエンコードしてオーディオファイルを形成する。
第1伴奏ファイルを使用して合唱に参加することを要求する端末は、合唱するユーザーのオーディオ情報を収集して、オーディオ情報とサーバーからダウンロードした第1伴奏ファイルとをエンコードしてオーディオファイルを形成することができる。
ステップ402において、オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を、合唱済み部分としてマークして、マークされたオーディオファイルをサーバーにアップロードする。
本開示の実施例において、上記マークプロセスは、合唱に参加することを要求する端末によって実現できる。上記のオーディオファイルにおいて、ミキシングを有し且つマークされていない部分を合唱済み部分としてマークするプロセスは、
c1、オーディオファイルにおけるオーディオ情報位置を取得するステップと、
c2、オーディオ情報位置における、収集したオーディオ情報と第1伴奏ファイルとをエンコードすることにより形成されるミキシングを有する部分を分析するステップと、
c3、オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を合唱済み部分としてマークすること、を含む。
本開示の実施例において、上記c3において、オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を合唱済み部分としてマークすることは、以下のような手段によって実現されることができる。
オーディオファイルにおいて、ミキシングを有し且つマークされていない部分に対応する表示文字の色を変更し、又は、オーディオファイルの名称において、オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を文字でマークする。
勿論、本開示の実施例は、同時に、オーディオファイルにおいて、ミキシングを有し且つマークされていない部分に対して上記の二種のマーク手段を行ってもよい。
ステップ403において、オーディオファイルにおいて、収集したオーディオ情報に属する音量情報を記録して、上記音量情報をサーバーにアップロードする。
合唱の効果をさらに向上させるために、本開示の実施例において、音量通知の方式を採用してもよい。第1伴奏ファイルを使用して合唱に参加することを要求する端末のユーザーが合唱に参加する場合に、当該端末は、収集したオーディオ情報の音量情報を記録して、収集したオーディオ情報の音量情報をサーバーにアップロードすることができる。
サーバーは、上記第1伴奏ファイルを使用して合唱に参加することを要求する端末によりアップロードされたオーディオファイル及び音量情報を受信した後に、上記マークされたオーディオファイルを第2伴奏ファイルとすることができ、第2伴奏ファイルを使用することを要求する端末のユーザーが合唱に参加する場合に、直接にサーバーから当該第2伴奏ファイルをダウンロードして合唱を行うことができ、同時に上記音量情報を取得して、ユーザーに当該音量で合唱させるように通知ことができる。
本開示の実施例における上記各プロセスは、第1伴奏ファイルを使用して合唱に参加することを要求する端末が実行することに限定されるものではなくて、任意の端末は、実行してもよい。
本開示の実施例において、前の合唱に参加することを要求する端末のユーザーが合唱する場合の音量情報を記録して、次の合唱に参加することを要求する端末のユーザーに、当該音量で合唱させるように通知することができることで、さらに合唱の効果を向上させることができる。
実施例5
以下、1つの開示する実例によって、上記非同期合唱方法を説明する。
まず、サーバーにより初期伴奏ファイルをマークし、マークされた初期伴奏ファイルが図5のように示される。図5から分かるように、マークされた初期伴奏ファイルには、A、B、Cの3つの部分が含まれ、それぞれ3つの端末のユーザーによって歌われることができ、例えば、ユーザーAの端末でAがマークされる部分を歌って、ユーザーBの端末でBがマークされる部分を歌って、ユーザーCの端末でCがマークされる部分を歌う。マークする具体的なプロセスについて、以下、サーバー側の記述で説明する。
以下、端末側及びサーバー側のそれぞれに対して、本開示の実施例による非同期合唱方法を説明する。
端末側:
1、ユーザーAの端末を介してサーバーから上記のマークされた初期伴奏ファイルをダウンロードして再生した後に、ユーザーAは、その中のAがマークされる部分を歌う。ユーザーAの端末は、ユーザーAのオーディオ情報を収集して、ユーザーAのオーディオ情報の音量情報を記録し、収集したオーディオ情報と上記初期伴奏ファイルとをエンコードし、曲X1(即ち、オーディオファイル)を生成し、ユーザーAの端末によって、曲X1と上記ユーザーAの音量情報をサーバーにアップロードする。
2、ユーザーBの端末を介してサーバーダから曲X1をウンロードして再生し、それを伴奏として使用し、上記ユーザーAの音量情報に基づいて、ユーザーBが歌う場合の音量を表示し(例えば、波形形態で表示し)、ユーザーBは、その中のBがマークされる部分を歌い続ける。ユーザーBの端末は、ユーザーBのオーディオ情報を収集して、ユーザーBのオーディオ情報の音量情報を記録し、収集したオーディオ情報と上記曲X1とをエンコードし、曲X2を生成し、ユーザーBの端末によって曲X2と上記ユーザーBの音量情報をサーバーにアップロードする。
3、ユーザーCの端末を介してサーバーから曲X2をダウンロードして再生し、それを伴奏として使用して、上記ユーザーBの音量情報に基づいて、ユーザーCが歌う場合の音量を通知し、ユーザーCは、その中のCがマークされる部分を歌い続ける。ユーザーCの端末は、ユーザーCのオーディオ情報を収集して、ユーザーCのオーディオ情報の音量情報を記録し、収集したオーディオ情報と上記曲X2とをエンコードして、曲X3を生成し、ユーザーCの端末によって、曲X3と上記ユーザーCの音量情報をサーバーにアップロードし、これによって、曲全体を完成する。
サーバー側:
主に、以下のような2つの部分を含む。
一、初期伴奏ファイルをマークし、即ち、初期伴奏ファイルについて異なる部分をマークする。
例えば、手動で初期伴奏ファイルをマークする、或いは、曲の中の歌詞の間隔時間でマークすることができる。勿論、他の手段を使用して初期伴奏ファイルをマークしてもよく、これは、本開示の実施例に限定されるものではない。マークの具体的なプロセスについて、上記実施例2の該当する説明を参照すればよく、本開示の実施例は、ここで詳述しない。
本開示の実施例において、初期伴奏ファイルを3つの部分に分けてマークすることができ、図5に示すように、部分A、部分B及び部分Cに分けてマークする。
二、端末がアップロードする曲(即ち、オーディオファイル)を処理する。
i、端末がアップロードする曲を受信する場合に、当該曲のオーディオ情報位置に基づいて、当該曲の歌われた部分を特定する。
例えば、当該曲においてミキシングを有する部分を分析ことができ、具体的なプロセスについて、上記実施例2の該当する説明を参照すればよい。
ii、初期伴奏ファイルにおけるマーク及び受信したアップロードの曲のうち特定された歌われた部分に基づいて、当該アップロードの曲をさらにマークする。
曲XIを例として、異なる色でその中の歌われた部分Aの歌詞をマークし、或いは、曲X1の名称において、歌われた部分Aをマークしてもよく、同時に歌詞の色と歌の名称をマークしてもよい。
iii、マークされた歌及び端末の現在アップロードする音量情報を次の要求する端末に送信する。
本開示の実施例において、上記マークするプロセスは、サーバーによって実現され、説明する必要なことは、当該マークのプロセスが端末によっても実現でき、これは本開示の実施例に限定されるものではない。
本開示の実施例は、以下の有益な効果を有する。
(1)合唱参加者は、異なる時間、且つ異なる地点で自分の部分を歌うことができる。
(2)各ユーザーは、自分で自分の部分を歌う際に、何度も歌か、或いは、自分の音を単独に処理することができて、他のユーザーに影響を与えない(例えば、リバーブや他の音の効果を提供でき、当該ユーザーが自分で歌う部分は、特殊な効果を追加できることに対して、他のユーザーの音が変化しない)ことができる。
(3)多くの人々で混雑することに起因して合唱の効果が悪くなることはない。
前記方法実施例について、説明の便宜上、それらを一連の動作の組み合わせとして記述したが、当業者が理解すべきことは、本開示は、説明した動作順序に限定されない。本出願によれば、一部のステップは、他の順序で実行される、或いは、同時に実行されてもよい。また、当業者が理解すべきことは、明細書で説明した実施例はすべて好ましい実施例であり、関連する動作は、本開示において必ずしも必要なものではない。
実施例6
図6を参照して、本開示の実施例6による非同期合唱装置の構成のブロック図を示し、当該装置は、サーバー側の装置であってもよく、それは、端末側とやりとりする。
上記装置は、
合唱に参加する端末からアップロードされたオーディオファイルを受信した後に、オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を、合唱済み部分としてマークするための第1マークモジュール601と、
マークされたオーディオファイルを第2伴奏ファイルとして特定するための特定モジュール602とを含むことができる。
なお、オーディオファイルは、第1伴奏ファイルを使用して合唱に参加することを要求する端末が収集したオーディオ情報とダウンロードする第1伴奏ファイルをエンコードすることにより形成される。
本開示の実施例において、1人のユーザーが合唱に参加する場合に、当該ユーザーの端末は、他のユーザーの合唱したオーディオファイルを自分自身の合唱するための伴奏ファイルとしてダウンロードすることができる。これにより、多くの人々で混雑するか、或いは、音の大きさや距離の遠近に起因して合唱の効果が悪くなることなく、合唱参加者は、異なる時間、且つ異なる地点で自分の部分を歌うことができ、また、各ユーザーは、自分の部分を歌う際に、何度も歌う、或いは、自分の歌う部分を単独処理することができ、他のユーザーの歌う部分に影響を与えないので、1人のユーザーがうまくできなかった原因で曲全体を歌い直す状況を招かない。
実施例7
図7を参照し、本開示の実施例7による非同期合唱装置の構成ブロック図を示し、当該装置は、サーバー側の装置であってもよく、それは端末側とやりとりする。
当該装置は、下記のようなモジュールを含む。
第2マークモジュール701は、初期伴奏ファイルの合唱用の段落をマークする。
第2マークモジュール701は、
初期伴奏ファイルにおける近隣する2つの文字の間の時間間隔を読み取るための読取サブモジュール7011と、
時間間隔と所定の閾値とを比較するための比較サブモジュール7012と、
2つの文字の間の時間間隔が所定の閾値より大きい場合に、2つの文字の間に1つの段落が終わるようにマークするための文字マークサブモジュール7013と、を含む。
第3送信モジュール702は、第2マークモジュールによってマークされた初期伴奏ファイルを、初期伴奏ファイルを使用して合唱に参加することを要求する端末に送信する。
なお、マークされた初期伴奏ファイルは、少なくとも1つの段落を含む。
第1マークモジュール703は、第1伴奏ファイルを使用して合唱に参加することを要求する端末によりアップロードされたオーディオファイルを受信した後、オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を合唱済み部分としてマークする。
第1マークモジュール703は、
オーディオファイルにおけるオーディオ情報位置を取得するための第1取得サブモジュール7031と、
オーディオ情報位置における、収集したオーディオ情報と第1伴奏ファイルとをエンコードすることにより形成されるミキシングを有する部分を分析するための第1分析サブモジュール7032と、
オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を合唱済み部分としてマークするための第1ミキシングマークサブモジュール7033と、を含む。
第1ミキシングマークサブモジュール7033は、
オーディオファイルにおいて、ミキシングを有し且つマークされていない部分に対応する表示文字の色を変更するための第1変更サブユニット、
及び/又は、
オーディオファイルの名称において、オーディオファイルにおけるミキシングを有し且つマークされていない部分を文字でマークする第1マークサブユニット、を含む。
特定モジュール704は、マークされたオーディオファイルを第2伴奏ファイルとして特定する。
なお、オーディオファイルは、第1伴奏ファイルを使用して合唱に参加することを要求する端末が収集したオーディオ情報とダウンロードした第1伴奏ファイルとをエンコードすることにより形成される。
第1送信モジュール705は、第2伴奏ファイルを、第2伴奏ファイルを使用して合唱に参加することを要求する端末に送信する。
受信モジュール706は、第1伴奏ファイルを使用して合唱に参加することを要求する端末によりアップロードされたオーディオファイルを受信した後に、第1伴奏ファイルを使用して合唱に参加することを要求する端末によりアップロードされたオーディオファイルにおいて、収集したオーディオ情報に属する音量情報を受信する。
第2送信モジュール707は、音量情報を、第2伴奏ファイルを使用して合唱に参加することを要求する端末に送信して、ユーザーに音量で合唱させるように通知するためのものである。
本開示の実施例による非同期合唱装置において、多くの人々で混雑するか、或いは、音の大きさや距離の遠近に起因して合唱の効果が悪くなることなく、合唱参加者は、異なる時間、且つ異なる地点で自分の部分を歌うことができ、また、各ユーザーが自分の部分を歌う際に、何度も歌う、或いは、自分の歌う部分を単独に処理することができ、他のユーザーの歌う部分に影響を与えず、また、本開示の実施例は、1つ前の合唱に参加することを要求する端末のユーザーが合唱したときの音量情報を記録し、次の合唱に参加することを要求する端末のユーザーに当該音量で合唱させるように通知することで、合唱の効果をさらに向上させることができる。
実施例8
図8を参照し、本開示の実施例8による非同期合唱装置の構成のブロック図を示し、当該装置は端末側の装置であってもよく、それはサーバー側とやりとりする。
上記装置は、
オーディオ情報を収集して、オーディオ情報とサーバーからダウンロードした第1伴奏ファイルとをエンコードしオーディオファイルを形成するためのエンコーディングモジュール801と、
オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を、合唱済み部分としてマークし、マークされたオーディオファイルをサーバーにアップロードするための第3マークモジュール802と、を含む。
本開示の実施例において、1人のユーザーが合唱に参加する場合に、当該ユーザーの端末は、他のユーザーの合唱したオーディオファイルを自分自身の合唱する伴奏ファイルとしてダウンロードすることができ、これにより、合唱参加者は、異なる時間、且つ異なる地点で自分の部分を歌うことができ、多くの人々で混雑するか、或いは、音の大きさや距離の遠近に起因して合唱の効果が悪くなることがない。
実施例9
図9を参照し、本開示の実施例9による非同期合唱装置の構成のブロック図を示し、当該装置は、端末側の装置であってもよく、それはサーバー側とやりとりする。
上記装置は、以下のようなモジュールを含む。
エンコーディングモジュール901は、オーディオ情報を収集して、オーディオ情報とサーバーからダウンロードした第1伴奏ファイルとをエンコードしオーディオファイルを形成する。
第3マークモジュール902は、オーディオファイルにおいてミキシングを有し且つマークされていない部分を、合唱済み部分としてマークして、マークされたオーディオファイルをサーバーにアップロードする。
第3マークモジュール902は、
オーディオファイルにおけるオーディオ情報位置を取得するための第3取得サブモジュール9021と、
オーディオ情報位置における、収集したオーディオ情報と第1伴奏ファイルとをエンコードすることにより形成されるミキシングを有する部分を分析するための第3分析サブモジュール9022と、
オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を合唱済み部分としてマークするための第3ミキシングマークサブモジュール9023と、を含む。
第3ミキシングマークサブモジュール9023は、
オーディオファイルにおけるミキシングを有し且つマークされていない部分に対応する表示文字の色を変更する第3変更サブユニット、
及び/又は、
オーディオファイルの名称において、オーディオファイルにおけるミキシングを有し且つマークされていない部分を文字でマークする第3マークサブユニットを含むことができる。
記録アップロードモジュール903は、マークされたオーディオファイルをサーバーにアップロードした後に、オーディオファイルにおいて、収集したオーディオ情報に属する音量情報を記録して、音量情報をサーバーにアップロードする。
本開示の実施例による非同期合唱装置は、前の合唱に参加することを要求する端末のユーザーが合唱する場合の音量情報を記録して、次の合唱に参加することを要求する端末のユーザーに当該音量で合唱させるように通知することができることによって、合唱の効果をさらに向上させることができる。
上記各装置の実施例は、方法の実施例と基本的に類似するため、それについての説明を比較的簡単にし、相関する部分は、方法の実施例の部分の説明を参照すればよい。
本明細書において、漸進的な方法で各実施例を説明した。各実施例において、主に、ほかの実施例と異なる箇所について説明したが、各実施例の間の同一又は類似の部分を互いに参照すればよい。
当業者が容易に想到することは、上記各実施例を任意に組み合わせることが可能であるので、上記の各実施例の間の任意の組み合わせのいずれも本発明の実施方案であるが、ここで、1つずつ説明しない。
本発明は、プログラムモジュールなどのコンピュータによって実行されるコンピュータ実行可能命令の一般的なコンテキストで記述される。一般的に、プログラムモジュールは、特定のタスクを実行する、或いは特定の抽象データタイプを実現するルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを含む。分散コンピューティング環境において本出願を実践してもよく、例えば、これらの分散コンピューティング環境において、通信ネットワークを介して接続されるリモート処理デバイスによりタスクを実行する。分散コンピューティング環境において、プログラムモジュールは、記憶装置を含むローカル及びリモートコンピュータ記憶媒介に位置することができる。
最後、更に説明すべきなことは、本文において、第1及び第2などの関係を示す用語とは、単に、1つのエンティティまたは操作を他のエンティティまたは操作と区別するためのものであり、必ずしもこれらのエンティティまたは操作の間にいかなる実際の関係または順序が存在することを意味するわけではない。また、「有する」、「含む」という用語又はこれらの類似の意味で用いられるは、非排他的な用語である。そのため、一連の要素を含むプロセス、方法、商品又はデバイスは、上記一連の要素を含むだけことではなく、明確に記載しないほかの要素、又はこのプロセス、方法、商品又はデバイスの固有の要素も含む。特に限定しなければ、要素を「1つ…を含む」で説明しても、当該要素を含むプロセス、方法、商品又はデバイスは、ほかの同様な要素を含むことも可能である。
以上で、本発明による非同期合唱方法及び非同期合唱装置について説明したが、本明細書において、具体的な例を用いて本出願の原理及実施形態を説明したが、上記の実施例の内容は、本出願の方法及びそのメインの思想を理解するためのものである。また、当業者にとって、本出願の思想によって、具体的な実施形態及び応用範囲において変更を行うことができる。このように、本明細書の内容は、本出願を限定するためのものではないと理解すべきである。
本願は、出願番号がCN201310210338.5であって、出願日が2013年5月30日である中国特許出願に基づき優先権を主張し、当該中国特許出願のすべての内容を本願に援用する。

Claims (20)

  1. 初期伴奏ファイルの合唱用の段落をマークして、マークされた初期伴奏ファイルを第1伴奏ファイルとして、第1伴奏ファイルを使用して合唱に参加することを要求する端末に送信するステップと、
    第1伴奏ファイルを使用し合唱に参加することを要求する端末によりアップロードされたオーディオファイルを受信した後、上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を、合唱済み部分としてマークするステップと、
    マークされたオーディオファイルを第2伴奏ファイルと特定するステップと、を含み、
    上記オーディオファイルは、上記第1伴奏ファイルを使用して合唱に参加することを要求する端末が収集したオーディオ情報とダウンロードした第1伴奏ファイルとをエンコードすることにより形成され
    上記初期伴奏ファイルの合唱用の段落をマークするステップは、
    上記初期伴奏ファイルにおける近隣する2つの文字の間の時間間隔を読み取るステップと、
    上記時間間隔と所定の閾値とを比較するステップと、
    2つの文字の間の時間間隔が上記所定の閾値より大きい場合、上記2つの文字の間に1つの段落が終わるようにマークするステップと、を含み、
    上記マークされた初期伴奏ファイルは、少なくとも1つの段落を含む
    ことを特徴とする非同期合唱方法。
  2. さらに、上記第2伴奏ファイルを、上記第2伴奏ファイルを使用して合唱に参加することを要求する端末に送信するステップを含む
    ことを特徴とする請求項1に記載の非同期合唱方法。
  3. 上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を、合唱済み部分としてマークするステップは、
    上記オーディオファイルにおけるオーディオ情報位置を取得するステップと、
    上記オーディオ情報位置における、収集したオーディオ情報と上記第1伴奏ファイルとをエンコードすることにより形成されるミキシングを有する部分を分析するステップと、
    上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を、合唱済み部分としてマークするステップと、を含む
    ことを特徴とする請求項1に記載の非同期合唱方法。
  4. 上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を、合唱済み部分としてマークするステップは、
    上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分に対応する表示文字の色を変更するステップ、
    及び/又は、
    上記オーディオファイルの名称について、上記オーディオファイルにおいてミキシングを有し且つマークされていない部分を文字でマークするステップを含む
    ことを特徴とする請求項3に記載の非同期合唱方法。
  5. 第1伴奏ファイルを使用して合唱に参加することを要求する端末によりアップロードされたオーディオファイルを受信した後、さらに、
    上記第1伴奏ファイルを使用して合唱に参加することを要求する端末によりアップロードされたオーディオファイルにおいて、収集したオーディオ情報に属する音量情報を受信するステップと、
    上記音量情報を、上記第2伴奏ファイルを使用して合唱に参加することを要求する端末に送信し、ユーザーに上記音量で合唱させるように通知するステップと、を含む
    ことを特徴とする請求項1又は3に記載の非同期合唱方法。
  6. 端末に用いられる非同期合唱方法であって、
    サーバーに初期伴奏ファイルの合唱用の段落をマークすることにより得られた第1伴奏ファイルを使用して合唱に参加することを要求するステップと、
    オーディオ情報を収集して、上記オーディオ情報と上記サーバーからダウンロードした上記第1伴奏ファイルとをエンコードすることによりオーディオファイルを形成するステップと、
    上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を、合唱済み部分としてマークし、マークされたオーディオファイルを上記サーバーにアップロードするステップと、を含み、
    上記初期伴奏ファイルの合唱用の段落をマークすることは、
    上記初期伴奏ファイルにおける近隣する2つの文字の間の時間間隔を読み取るステップと、
    上記時間間隔と所定の閾値とを比較するステップと、
    2つの文字の間の時間間隔が上記所定の閾値より大きい場合、上記2つの文字の間に1つの段落が終わるようにマークするステップと、を含み、
    上記第1伴奏ファイルは、少なくとも1つの段落を含む
    ことを特徴とする非同期合唱方法。
  7. 上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を、合唱済み部分としてマークするステップは、
    上記オーディオファイルにおけるオーディオ情報位置を取得するステップと、
    上記オーディオ情報位置における、収集したオーディオ情報と上記第1伴奏ファイルとをエンコードすることによる形成されるミキシングを有する部分を分析するステップと、
    上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を合唱済み部分としてマークするステップと、を含む
    ことを特徴とする請求項6に記載の非同期合唱方法。
  8. 上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を、合唱済み部分としてマークするステップは、
    上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分に対応する表示文字の色を変更するステップ、
    及び/又は、
    上記オーディオファイルの名称について、上記オーディオファイルにおいてミキシングを有し且つマークされていない部分を文字でマークするステップを含む
    ことを特徴とする請求項7に記載の非同期合唱方法。
  9. マークされたオーディオファイルをサーバーにアップロードした後、さらに、
    上記オーディオファイルにおける、収集したオーディオ情報に属する音量情報を記録し、上記音量情報をサーバーにアップロードするステップを含む
    ことを特徴とする請求項6又は7に記載の非同期合唱方法。
  10. 初期伴奏ファイルの合唱用の段落をマークするための第2マークモジュールと
    上記第2マークモジュールによりマークされた初期伴奏ファイルを第1伴奏ファイルとして、上記第1伴奏ファイルを使用して合唱に参加することを要求する端末に送信するための第3送信モジュールと、
    第1伴奏ファイルを使用して合唱に参加することを要求する端末によりアップロードされたオーディオファイルを受信した後、上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を、合唱済み部分としてマークするための第1マークモジュールと、
    マークされたオーディオファイルを第2伴奏ファイルとして特定するための特定モジュールと、含み、
    上記オーディオファイルは、上記第1伴奏ファイルを使用して合唱に参加することを要求する端末が収集したオーディオ情報とダウンロードした第1伴奏ファイルとをエンコードすることにより形成され、
    上記第2マークモジュールは、
    上記初期伴奏ファイルにおける近隣する2つの文字の間の時間間隔を読み取るための読取サブモジュールと、
    上記時間間隔と所定の閾値とを比較するための比較サブモジュールと、
    2つの文字の間の時間間隔が上記所定の閾値より大きい場合に、上記2つの文字の間に1つの段落が終わるようにマークするための文字マークサブモジュールと、を含み、
    上記マークされた初期伴奏ファイルは、少なくとも1つの段落を含む
    ことを特徴とする非同期合唱装置。
  11. さらに、上記第2伴奏ファイルを、上記第2伴奏ファイルを使用して合唱に参加することを要求する端末に送信するための第1送信モジュールを含む
    ことを特徴とする請求項10に記載の非同期合唱装置。
  12. 上記第1マークモジュールは、
    上記オーディオファイルにおけるオーディオ情報位置を取得するための第1取得サブモジュールと、
    上記オーディオ情報位置における、収集したオーディオ情報と上記第1伴奏ファイルとをエンコードすることにより形成されるミキシングを有する部分を分析するための第1分析サブモジュールと、
    上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を、合唱済み部分としてマークするための第1ミキシングマークサブモジュールと、を含む
    ことを特徴とする請求項10に記載の非同期合唱装置。
  13. 上記第1ミキシングマークサブモジュールは、
    上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分に対応する表示文字の色を変更するための第1変更サブユニット、
    及び/又は、
    上記オーディオファイルの名称について、上記オーディオファイルにおいてミキシングを有し且つマークされていない部分を文字でマークするための第1マークサブユニット、を含む
    ことを特徴とする請求項12に記載の非同期合唱装置。
  14. さらに、第1伴奏ファイルを使用して合唱に参加することを要求する端末によりアップロードされたオーディオファイルを受信した後、上記第1伴奏ファイルを使用して合唱に参加することを要求する端末によりアップロードされたオーディオファイルにおいて、収集したオーディオ情報に属する音量情報を受信するための受信モジュールと、
    上記音量情報を、上記第2伴奏ファイルを使用して合唱に参加することを要求する端末に送信し、ユーザーに上記音量で合唱させるように通知するための第2送信モジュールと、を含む
    ことを特徴とする請求項10又は12に記載の非同期合唱装置。
  15. オーディオ情報を収集して、上記オーディオ情報とサーバーからダウンロードした第1伴奏ファイルとをエンコードすることによりオーディオファイルを形成するためのエンコードモジュールと、
    上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を合唱済み部分としてマークし、マークされたオーディオファイルをサーバーにアップロードするための第3マークモジュールと、を含み、
    上記第1伴奏ファイルは、サーバーが初期伴奏ファイルの合唱用の段落をマークすることにより得られ、
    上記第1伴奏ファイルは、少なくとも1つの段落を含み、
    上記初期伴奏ファイルの合唱用の段落をマークすることは、上記サーバーに、
    上記初期伴奏ファイルにおける近隣する2つの文字の間の時間間隔を読み取るステップと、
    上記時間間隔と所定の閾値とを比較するステップと、
    2つの文字の間の時間間隔が上記所定の閾値より大きい場合、上記2つの文字の間に1つの段落が終わるようにマークするステップと、を実行させることによって得られる
    ことを特徴とする非同期合唱装置。
  16. 上記第3マークモジュールは、
    上記オーディオファイルにおけるオーディオ情報位置を取得するための第3取得サブモジュールと、
    上記オーディオ情報位置における、収集したオーディオ情報と上記第1伴奏ファイルとをエンコードすることによる形成されるミキシングを有する部分を分析するための第3分析サブモジュールと、
    上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分を合唱済み部分としてマークするための第3ミキシングマークサブモジュールと、を含む
    ことを特徴とする請求項15に記載の非同期合唱装置。
  17. 上記第3ミキシングマークサブモジュールは、
    上記オーディオファイルにおいて、ミキシングを有し且つマークされていない部分に対応する表示文字の色を変更するための第3変更サブユニット、
    及び/又は、
    上記オーディオファイルの名称について、上記オーディオファイルにおいてミキシングを有し且つマークされていない部分を文字でマークするための第3マークサブユニット、を含む
    ことを特徴とする請求項16に記載の非同期合唱装置。
  18. さらに、マークされたオーディオファイルをサーバーにアップロードした後、上記オーディオファイルにおける、収集したオーディオ情報に属する音量情報を記録し、上記音量情報をサーバーにアップロードするための記録アップロードモジュールを含む
    ことを特徴とする請求項15又は16に記載の非同期合唱装置。
  19. プロセッサに実行されることにより、請求項1〜9のいずれか1項に記載の非同期合唱方法を実現することを特徴とするプログラム。
  20. 請求項19に記載のプログラムが記録された記録媒体。
JP2015543298A 2013-05-30 2014-02-20 非同期合唱方法、非同期合唱装置、プログラム及び記録媒体 Active JP6085036B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201310210338.5 2013-05-30
CN201310210338.5A CN103295568B (zh) 2013-05-30 2013-05-30 一种异步合唱方法和装置
PCT/CN2014/072300 WO2014190786A1 (zh) 2013-05-30 2014-02-20 一种异步合唱方法和装置

Publications (2)

Publication Number Publication Date
JP2016504618A JP2016504618A (ja) 2016-02-12
JP6085036B2 true JP6085036B2 (ja) 2017-02-22

Family

ID=49096329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015543298A Active JP6085036B2 (ja) 2013-05-30 2014-02-20 非同期合唱方法、非同期合唱装置、プログラム及び記録媒体

Country Status (8)

Country Link
EP (1) EP3007163B1 (ja)
JP (1) JP6085036B2 (ja)
KR (1) KR101686632B1 (ja)
CN (1) CN103295568B (ja)
BR (1) BR112015015358B1 (ja)
MX (1) MX361534B (ja)
RU (1) RU2635835C2 (ja)
WO (1) WO2014190786A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103295568B (zh) * 2013-05-30 2015-10-14 小米科技有限责任公司 一种异步合唱方法和装置
US9224374B2 (en) 2013-05-30 2015-12-29 Xiaomi Inc. Methods and devices for audio processing
KR20180012800A (ko) * 2015-05-27 2018-02-06 광저우 쿠고우 컴퓨터 테크놀로지 컴퍼니, 리미티드 오디오 처리 방법, 장치 및 시스템
CN105006234B (zh) * 2015-05-27 2018-06-29 广州酷狗计算机科技有限公司 一种k歌处理方法及装置
CN105023559A (zh) * 2015-05-27 2015-11-04 腾讯科技(深圳)有限公司 K歌处理方法及***
CN106486128B (zh) * 2016-09-27 2021-10-22 腾讯科技(深圳)有限公司 一种双音源音频数据的处理方法及装置
CN106601220A (zh) * 2016-12-08 2017-04-26 天脉聚源(北京)传媒科技有限公司 一种录制***唱的方法及装置
CN106686431B (zh) * 2016-12-08 2019-12-10 杭州网易云音乐科技有限公司 一种音频文件的合成方法和设备
CN108630240B (zh) * 2017-03-23 2020-05-26 北京小唱科技有限公司 一种合唱方法及装置
CN107993637B (zh) * 2017-11-03 2021-10-08 厦门快商通信息技术有限公司 一种卡拉ok歌词分词方法与***
CN108109652A (zh) * 2017-12-27 2018-06-01 北京酷我科技有限公司 一种k歌合唱录音的方法
CN113039573A (zh) * 2018-06-29 2021-06-25 思妙公司 具有种子/加入机制的视听协作***和方法
CN109147746B (zh) * 2018-07-27 2021-07-16 维沃移动通信有限公司 一种k歌方法及终端
WO2021041393A1 (en) * 2019-08-25 2021-03-04 Smule, Inc. Short segment generation for user engagement in vocal capture applications
CN110660376B (zh) * 2019-09-30 2022-11-29 腾讯音乐娱乐科技(深圳)有限公司 音频处理方法、装置及存储介质
CN111326132B (zh) * 2020-01-22 2021-10-22 北京达佳互联信息技术有限公司 音频处理方法、装置、存储介质及电子设备
CN111462767B (zh) * 2020-04-10 2024-01-09 全景声科技南京有限公司 音频信号的增量编码方法及装置
CN112312163B (zh) * 2020-10-30 2024-05-28 北京字跳网络技术有限公司 视频生成方法、装置、电子设备及存储介质
CN116704978A (zh) * 2022-02-28 2023-09-05 北京字跳网络技术有限公司 音乐生成方法、装置、设备、存储介质及程序

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3241372B2 (ja) * 1990-11-27 2001-12-25 パイオニア株式会社 カラオケ演奏方法
JPH05341793A (ja) * 1991-04-19 1993-12-24 Pioneer Electron Corp カラオケ演奏装置
JP4168851B2 (ja) * 2003-06-20 2008-10-22 ヤマハ株式会社 カラオケ装置
JP2006195215A (ja) * 2005-01-14 2006-07-27 Sony Ericsson Mobilecommunications Japan Inc 通信端末装置、及び演奏システム
JP4431507B2 (ja) * 2005-01-31 2010-03-17 株式会社第一興商 カラオケシステム
US20070163428A1 (en) * 2006-01-13 2007-07-19 Salter Hal C System and method for network communication of music data
JP4382786B2 (ja) * 2006-08-22 2009-12-16 株式会社タイトー 音声ミックスダウン装置、音声ミックスダウンプログラム
US20080184870A1 (en) * 2006-10-24 2008-08-07 Nokia Corporation System, method, device, and computer program product providing for a multiple-lyric karaoke system
CN101345047B (zh) * 2007-07-12 2012-09-05 英业达股份有限公司 人声自动校正的混音***及其混音方法
JP2009031549A (ja) * 2007-07-27 2009-02-12 Yamaha Corp メロディ表示制御装置及びカラオケ装置
JP5014073B2 (ja) * 2007-11-12 2012-08-29 ヤマハ株式会社 メロディ表示制御装置及びカラオケ装置
DE102008008388A1 (de) * 2008-02-09 2009-08-13 Cambiz Seyed-Asgari Mehrspuraufzeichnungs- und Wiedergabesystem zur räumlich und zeitlich unabhängigen Aufzeichnung und Wiedergabe mehrspuriger medialer Inhalte unterschiedlicher Art
JP2010014823A (ja) * 2008-07-01 2010-01-21 Nippon Telegr & Teleph Corp <Ntt> 楽曲情報制御装置
WO2010041147A2 (en) * 2008-10-09 2010-04-15 Futureacoustic A music or sound generation system
US20110126103A1 (en) * 2009-11-24 2011-05-26 Tunewiki Ltd. Method and system for a "karaoke collage"
US9147385B2 (en) * 2009-12-15 2015-09-29 Smule, Inc. Continuous score-coded pitch correction
JP5457867B2 (ja) * 2010-02-08 2014-04-02 Kddi株式会社 画像表示装置、画像表示方法および画像表示プログラム
CN102456340A (zh) * 2010-10-19 2012-05-16 盛大计算机(上海)有限公司 基于互联网的卡拉ok对唱方法及***
TW201228290A (en) * 2010-12-28 2012-07-01 Tse-Ming Chang Networking multi-person asynchronous chorus audio/video works system
CN102158745B (zh) * 2011-02-18 2014-11-19 深圳创维数字技术股份有限公司 卡拉ok业务的实现方法、终端、服务器端及***
CN103021401B (zh) * 2012-12-17 2015-01-07 上海音乐学院 基于互联网的多人异步合唱混音合成方法及合成***
CN103295568B (zh) * 2013-05-30 2015-10-14 小米科技有限责任公司 一种异步合唱方法和装置

Also Published As

Publication number Publication date
EP3007163A1 (en) 2016-04-13
JP2016504618A (ja) 2016-02-12
EP3007163A4 (en) 2016-12-21
RU2635835C2 (ru) 2017-11-16
WO2014190786A1 (zh) 2014-12-04
MX2015007251A (es) 2016-03-31
KR20150079763A (ko) 2015-07-08
MX361534B (es) 2018-12-07
BR112015015358A2 (pt) 2017-07-11
CN103295568B (zh) 2015-10-14
CN103295568A (zh) 2013-09-11
KR101686632B1 (ko) 2016-12-15
BR112015015358B1 (pt) 2021-12-07
EP3007163B1 (en) 2019-01-02
RU2015121498A (ru) 2017-03-02

Similar Documents

Publication Publication Date Title
JP6085036B2 (ja) 非同期合唱方法、非同期合唱装置、プログラム及び記録媒体
US10719551B2 (en) Song determining method and device and storage medium
JP6456525B2 (ja) カラオケ処理方法、装置、およびシステム
TWI576822B (zh) K歌處理方法及系統
US8578415B2 (en) Information providing method, content display terminal, portable terminal, server device, information providing system and program
CN107483597B (zh) 一种资源转移方法、相关设备及***
CN106531201B (zh) 歌曲录制的方法和装置
US10235898B1 (en) Computer implemented method for providing feedback of harmonic content relating to music track
WO2017197826A1 (zh) 图像特征关系的匹配方法、装置和***
CN108696489B (zh) 媒体信息的播放方法和装置
CN105933413B (zh) 一种基于用户声音交互的个性化实时内容推送***
CN110944226B (zh) 网络k歌***、k歌场景下的歌词显示方法及相关设备
CN103888341A (zh) 与音乐网站中对象进行社交的***、方法
CN104537011B (zh) 歌唱排名方法及装置
US10666588B2 (en) Method for sharing media content, terminal device, and content sharing system
JP2015005940A (ja) コンテンツ再生装置、コメント管理システム、およびコメント管理方法
CN112312163A (zh) 视频生成方法、装置、电子设备及存储介质
CN110175260B (zh) 录音角色的区分方法、设备及计算机可读存储介质
CN203734703U (zh) 一种用于智能设备的同唱同一首歌的装置
CN110858221A (zh) 一种制作有声绘本的方法和装置
CN116800988A (zh) 视频生成方法、装置、设备、存储介质和程序产品
CN107147741B (zh) 基于互联网的音乐创作评选方法、终端、服务器及***
KR101250701B1 (ko) 이동통신단말기를 이용한 노래 동영상 제작 시스템
JP2020009213A (ja) スマートスピーカサーバシステム
Hardin Development and evaluation of Internet of Things enabled applications for music production and creative practices

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170126

R150 Certificate of patent or registration of utility model

Ref document number: 6085036

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250