JP6662063B2 - 収録データ処理方法 - Google Patents

収録データ処理方法 Download PDF

Info

Publication number
JP6662063B2
JP6662063B2 JP2016013278A JP2016013278A JP6662063B2 JP 6662063 B2 JP6662063 B2 JP 6662063B2 JP 2016013278 A JP2016013278 A JP 2016013278A JP 2016013278 A JP2016013278 A JP 2016013278A JP 6662063 B2 JP6662063 B2 JP 6662063B2
Authority
JP
Japan
Prior art keywords
sound
reference signal
data
recorded data
recording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016013278A
Other languages
English (en)
Other versions
JP2017135539A (ja
Inventor
祐 高橋
祐 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2016013278A priority Critical patent/JP6662063B2/ja
Priority to PCT/JP2017/001508 priority patent/WO2017130810A1/ja
Publication of JP2017135539A publication Critical patent/JP2017135539A/ja
Priority to US16/046,536 priority patent/US10734030B2/en
Application granted granted Critical
Publication of JP6662063B2 publication Critical patent/JP6662063B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2665Gathering content from different sources, e.g. Internet and satellite
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/57Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for processing of video signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Description

本発明は、動画を処理する技術に関する。
相異なる位置で収録された音響や動画を含む複数の収録データを処理する技術が従来から提案されている。例えば特許文献1には、相異なる端末装置から取得した複数の音響データを相互に同期させて、同期後の複数の音響データを混合することで新たな音響データを生成する技術が開示されている。
特開2015−100103号公報
特許文献1の技術では、各端末装置から取得した複数の音響データを同期させるために、各音響データ間の時間的な関係を解析する処理をサーバで行っている。したがって、音響データの総数が膨大な場合は、サーバでの処理負荷が大きいという問題がある。なお、ここでは複数の音響データ間の時間的な関係を解析する処理に言及したが、動画を含む複数の収録データ間の時間的な関係を解析する場合にも同様の問題が発生する。以上の事情を考慮して、本発明は、複数の収録データを処理する編集装置の処理負荷(ひいてはコンテンツの生成に必要な時間)を低減することを目的とする。
以上の課題を解決するために、本発明の収録データ処理方法は、相互に同期する複数の動画を含むコンテンツを複数の素材データから生成する編集装置と通信可能な端末装置が、収録装置が収録した動画を含む収録データと当該収録データの時間軸上の基準となる参照信号とを対比することで、参照信号に対する当該収録データの時間軸上の関係を示す同期情報を生成し、収録データに対応した動画を含む素材データと生成した同期情報とを編集装置に送信する。以上の方法では、編集装置に対する素材データの送信元である端末装置において同期情報が生成される。したがって、複数の収録データを編集装置に集約してから各収録データ間の時間的な関係を解析して動画を相互に同期させる方法と比較して、例えば、収録データの総数が膨大な場合でも編集装置の処理負荷(ひいてはコンテンツの生成に必要な時間)を低減することが可能である。
本発明の好適な態様において、同期情報は、参照信号に対する収録データの時間軸上の位置を示すオフセット情報を含む。以上の方法では、オフセット情報を含む同期情報が生成される。したがって、オフセット情報を使用することで、コンテンツに含まれる複数の動画について時間軸上の位置を整合させることが可能である。
本発明の好適な態様において、参照信号は、音響を表す音響信号であり、収録データは、動画に並行して収録された音響を含み、参照信号が表す音響と収録データが含む音響との間の時間軸上の関係を示す同期情報を生成する。以上の方法では、音響信号を含む参照信号に対する収録データの時間軸上の関係を示す同期情報が生成される。編集装置が各収録データの音響を相互に対比することで複数の収録データを同期させる方法では、動画とともに音響を含む収録データを端末装置から編集装置に送信する必要がある。参照信号に対する収録データの音響の時間軸上の関係を示す同期情報を端末装置にて生成する前述の態様によれば、各収録データの音響を使用して複数の収録データを同期させる処理を編集装置にて実行する必要がないから、音響を含む収録データを端末装置から編集装置に送信する必要がない。したがって、各端末装置と編集装置との間の通信量を削減できるという利点がある。ただし、収録データの音響を含む素材データを端末装置から編集装置に送信することも可能である。
本発明の好適な態様において、同期情報は、収録データが示す音響と参照信号が示す音響との間のサンプリング周波数の誤差を示す誤差情報を含む。以上の方法では、誤差情報を含む同期情報が生成される。したがって、誤差情報を含まない同期情報を生成する方法と比較して、各収録データの音響におけるサンプリング周波数の誤差を補償して複数の素材データを正確に同期させることが可能である。
本発明の好適な態様において、収録データは、参照信号に応じて端末装置の放音装置から放音された再生音を収録装置により収音した音響を含む。以上の方法では、収録装置は、参照信号に応じて端末装置の放音装置から放音された再生音を収録装置により収音した音響を含む収録データを収録する。すなわち、収録データとして収音される再生音の生成と同期情報の生成とに共通の参照信号が利用される。したがって、参照信号に応じて端末装置とは別個の放音装置から放音された再生音を収録装置により収音した音響を含む収録データを収録装置が収録する方法と比較して、参照信号に応じた音響を放音する装置を別個に設ける必要がないという利点がある。
本発明の好適な態様に係る端末装置は、相互に同期する複数の動画を含むコンテンツを複数の素材データから生成する編集装置と通信可能な端末装置であって、収録装置が収録した動画を含む収録データと当該収録データの時間軸上の基準となる参照信号とを対比することで、参照信号に対する当該収録データの時間軸上の関係を示す同期情報を生成する情報生成部と、収録データに対応した動画を含む素材データと情報生成部が生成した同期情報とを編集装置に送信する通信部とを具備する。以上の構成では、編集装置に素材データを送信する送信元である端末装置において同期情報が生成される。したがって、複数の収録データを編集装置に集約してから各収録データ間の時間的な関係を解析して動画を相互に同期させる構成と比較して、例えば、収録データの総数が膨大な場合でも編集装置の処理負荷(ひいてはコンテンツの生成に必要な時間)を低減することが可能である。
本発明の好適な態様に係る編集装置は、収録装置が収録した動画を含む収録データと複数の端末装置にわたり共通する参照信号との時間的な関係を示す同期情報と、収録データに対応した動画を含む素材データとを、複数の端末装置から受信する通信部と、通信部が受信した複数の素材データから、相互に同期する複数の動画を含むコンテンツを生成するコンテンツ生成部とを具備する。以上の構成では、複数の端末装置から受信した素材データと同期情報とから相互に同期する複数の動画を含むコンテンツが生成される。したがって、複数の収録データを編集装置に集約してから各収録データ間の時間的な関係を解析して相互に同期する複数の動画を含むコンテンツを生成する構成と比較して、例えば、収録データの総数が膨大な場合でも編集装置の処理負荷(ひいてはコンテンツの生成に必要な時間)を低減することが可能である。
本発明の第1実施形態に係る収録データ処理システムの構成図である。 同期情報に含まれるオフセット情報の説明図である。 コンテンツ生成部が行う編集処理の説明図である。 コンテンツに含まれる動画の模式図である。 収録データ処理システム全体の処理のフローチャートである。
<第1実施形態>
図1は、本発明の第1実施態様に係る収録データ処理システム100の構成図である。収録データ処理システム100は、例えばダンス等の種々のイベントを大勢の観客が収録する際に利用されるコンピュータシステムであり、図1に例示される通り、編集装置12と複数(N個)の端末装置14[1]〜14[N]と配信装置16とを具備する。編集装置12は、例えばウェブサーバ等のサーバ装置で実現される。また、編集装置12は、単体の装置として実現されるほか、相互に別体で構成された複数の装置でも実現され得る。複数の端末装置14[n]の各々は、例えば移動通信網やインターネット等の通信網18を介して編集装置12と相互に通信する通信端末である。端末装置14[n]は、例えば携帯電話機やスマートフォン、タブレット端末、パーソナルコンピュータ等の可搬型の通信端末である。概略的には、端末装置14[n]にて収録された動画V[n]および音響A[n]を含むデータ(以下「収録データ」という)D[n]が各端末装置14[n]から編集装置12に送信され、相異なる端末装置14[n]から受信したN個の収録データD[1]〜D[N]を編集装置12が編集することで1個のコンテンツCが生成される。
<配信装置16>
配信装置16は、各収録データD[n]の時間軸上の基準となる信号(以下「参照信号」という)Rを記憶し、通信網18を介してN個の端末装置14[1]〜14[N]に共通に配信する。第1実施形態における参照信号Rは、音響を表す音響信号である。第1実施形態では、ダンスのイベント会場に設置された放音装置(例えばスピーカー)からダンス用の楽曲の演奏音が再生される場合を想定する。楽曲の演奏音は、例えば事前に収録された音楽であり、ダンスの実演の際にBGMとして使用される。第1実施形態の参照信号Rは、イベント会場で再生される演奏音を表す音響信号である。複数の端末装置14[n]の各々がダンスのイベント会場でダンスの実演を収録した場合、複数の収録データD[n]の各々の音響A[n]には、参照信号Rと同様の音響が共通に含有される。
配信装置16から各端末装置14[n]に参照信号Rを配信する方法は任意であり、例えばイベント毎に参照信号Rを配信する方法や、端末装置14[n]の利用者にQRコード(登録商標)を配布して参照信号Rのダウンロードを誘導することで配信する方法が採用され得る。また、配信装置16がイベント会場の無線LANを介して各端末装置14[n]に参照信号Rをブロードキャストしてもよい。
<端末装置14[n]>
任意の1個の端末装置14[n]は、図1に例示される通り、収録装置21と記憶装置23と制御装置25と通信装置27と再生装置29とを具備する。
第1実施形態の収録装置21は、収録データD[n]を生成する機器であり、動画V[n]を撮像する撮像装置212と音響A[n]を収音する収音装置214とを具備する。撮像装置212は、例えばデジタルカメラやデジタルカムコーダであり、収音装置214は、例えばマイクロホンである。なお、撮像装置212および収音装置214が端末装置14[n]に搭載された構成を図1では例示したが、端末装置14[n]とは別体の撮像装置212および収音装置214を端末装置14[n]に有線または無線で接続することも可能である。撮像装置212による動画V[n]の撮像と収音装置214による音響A[n]とは相互に並列に実行され、動画V[n]と音響A[n]とを含む収録データD[n]が生成される。
各端末装置14[n]の利用者は、自身の端末装置14[n]の収録装置21を利用して、例えば相異なる位置で共通の収録対象(例えばダンスのイベント)の動画V[n]および音響A[n]を並列に収録する。すなわち、各端末装置14[n]の収録装置21は、ダンス等のイベント会場の共通の音響空間の相異なる地点に配置され、各々が別個の角度から例えばダンスの実演の様子を並列に収録して収録データD[n]を生成する。前述した通り、イベント会場では、参照信号Rと同様の音響成分が放音装置から再生されるから、複数の端末装置14[n]の各々が収録する音響A[n]は、参照信号Rと同様の音響成分(ただし音量等の音響特性は相違し得る)を共通に含有する。
収録装置21は、利用者からの指示を契機として動画V[n]および音響A[n]の収録を開始する。したがって、収録装置21による収録の開始のタイミングは、端末装置14[n]毎に異なり得る。すなわち、動画V[n]および音響A[n]の収録の開始点は複数の収録データD[n]の間で相違し得る。したがって、N個の収録データD[1]〜D[n]を単純に合成しただけでは、動画V[n]や音響A[n]の時間軸上の位置が収録データD[n]間でずれたコンテンツCが生成される。
記憶装置23は、磁気記録媒体や半導体記録媒体等の公知の記録媒体であり、制御装置25が実行するプログラムや制御装置25が使用する各種のデータを記憶する。例えば、収録装置21が収録した動画V[n]や音響A[n]を含む収録データD[n]、および、収録データD[n]の時間軸上の基準となる参照信号Rが記憶装置23に記憶される。なお、配信装置16から配信された参照信号Rが記憶装置23に記憶されるが、参照信号Rをあらかじめ記憶装置23に記憶させておくことも可能である。
制御装置25は、例えばCPU(Central Processing Unit)等の処理装置で構成され、端末装置14[n]の全体的な動作を制御する。制御装置25は、具体的には、図1に例示される通り、記憶装置23に記憶されたプログラムを実行することで、同期情報S[n]を生成する情報生成部251として機能する。なお、制御装置25の一部の機能を専用の電子回路で実現した構成や、制御装置45の機能を複数の装置に分散した構成も採用され得る。
情報生成部251は、収録装置21が収録した収録データD[n]と当該収録データD[n]の時間軸上の基準となる参照信号Rとを対比することで、参照信号Rに対する当該収録データD[n]の時間軸上の関係を示す情報(以下「同期情報」という)S[n]を生成する。前述の通り、収録データD[n]に含まれる音響A[n]には、参照信号Rと同様の音響成分が含有されている。したがって、収録データD[n]に含まれる音響A[n]と当該収録データD[n]の時間軸上の基準となる参照信号Rが表す音響とを対比することで、参照信号Rに対する収録データD[n]の時間軸上の位置を示すオフセット情報O[n]を含む同期情報S[n]が生成される。オフセット情報O[n]とは、図2に例示される通り、参照信号Rと収録データD[n]とについて時間軸上で始点を一致させた場合に、時間軸上における参照信号Rの特定の時点と、収録データD[n]のうち当該時点に対応する箇所(共通の音響が存在する箇所)との時間差を示す情報である。したがって、オフセット情報O[n]が示す時間分だけ収録データD[n]の時間軸上の位置を調整することで、参照信号Rと収録データD[n]とを相互に同期させることが可能である。相互に同期するとは、各収録データD[n]に含まれる動画V[n]および音響A[n]の時間軸が複数の収録データD[n]にわたり相互に合致する状態を意味する。以上の説明からも理解される通り、オフセット情報O[n]は、参照信号Rと収録データD[n]とを相互に同期させた場合における両者の始点間の時間差を示す情報とも換言され得る。
図1の通信装置27は、通信網18を介して編集装置12と通信する通信機器である。通信装置27は、具体的には、収録装置21が生成した収録データD[n]をコンテンツCの素材となるデータ(以下「素材データ」という)T[n]として編集装置12に送信するとともに、情報生成部251が生成したオフセット情報O[n]を含む同期情報S[n]を編集装置12に送信する。
再生装置29は、編集装置12が生成したコンテンツCを再生する装置であり、制御装置25から指示された画像を表示する表示装置292と、制御装置25から指示された音響を放音する放音装置294とを包含する。具体的には、コンテンツCの動画が表示装置292に表示され、コンテンツCの音響が放音装置294から再生される。
<編集装置12>
編集装置12は、図1に例示される通り、通信装置41(通信部の一例)と記憶装置43と制御装置45とを具備する。通信装置41は、通信網18を介して複数の端末装置14[n]の各々と通信する通信機器である。通信装置41は、具体的には、各端末装置14[n]から送信された素材データT[n]および同期情報S[n]を受信する。第1実施形態の各同期情報S[n]は、前述の通り、オフセット情報O[n]を含む。
記憶装置43は、磁気記録媒体や半導体記録媒体等の公知の記録媒体であり、制御装置45が実行するプログラムや制御装置45が使用する各種のデータを記憶する。例えば、通信装置41が端末装置14[1]〜14[N]から受信した同期情報S[1]〜S[N]と素材データT[1]〜T[N]とが記憶装置43に記憶される。
制御装置45は、例えばCPU(Central Processing Unit)等の処理装置で構成され、編集装置12の全体的な動作を制御する。具体的には、図1に例示される通り、記憶装置43に記憶されたプログラムを実行することで、コンテンツCを生成するためのコンテンツ生成部451として機能する。コンテンツ生成部451は、通信装置41が受信した複数の素材データT[n]から、相互に同期する複数の動画V[n]と音響A[n]とを含むコンテンツCを生成する。なお、制御装置45の一部の機能を専用の電子回路で実現した構成や、制御装置45の機能を複数の装置に分散した構成も採用され得る。
コンテンツ生成部451は、通信装置41が受信した複数の素材データT[n]に対する処理(以下「編集処理」という)により、相互に同期する複数の動画V[n]と音響A[n]とを含むコンテンツCを生成する。図3は、コンテンツ生成部451が行う編集処理の説明図である。編集処理は、具体的には、オフセット情報O[n]で指定される時間だけ素材データT[n]の時間軸上の位置を変化させる処理を含む。各オフセット情報O[n]は、共通の参照信号Rに対する音響A[n]の時間差であるから、各素材データT[n]をオフセット情報O[n]の時間分だけ時間軸上で前後させることで、複数の素材データT[1]〜T[N]について時間軸上の位置が相互に合致(すなわち同期)する。したがって、オフセット情報O[n]を編集処理に利用することで、図3に例示される通り、コンテンツCに含まれる複数の動画V[n]および音響A[n]について時間軸上の位置を整合させることが可能である。つまり、収録装置21による収録の開始のタイミングの誤差を補償したコンテンツCを生成することができる。
なお、第1実施形態の編集処理は、複数の音響A[n]に対するミキシングやマスタリング等の合成処理を包含する。コンテンツ生成部451が生成するコンテンツCは、以上に例示した編集処理後のN個の動画V[n]を合成した動画CVと、N個の音響A[n]を合成した音響CAとを含む。動画CVは、図4に例示される通り、例えば複数の動画V[n]を表示装置292上で同時に表示できるようした動画である。なお、コンテンツCの内容は任意である。例えば、複数の素材データT[n]の各々の動画V[n]の一部を時間軸上で相互に連結した動画CVや、複数の素材データT[n]の各々の音響A[n]の一部を時間軸上で相互に連結した音響CAをコンテンツCに含めることも可能である。以上の説明では複数の素材データT[n]の音響A[n]の合成で音響CAを生成したが、複数の素材データT[n]の何れかに含まれる音響A[n]をコンテンツCの音響CAとして利用することも可能である。
コンテンツ生成部451が生成したコンテンツCは、端末装置14[n]の要求に応じて通信装置41から端末装置14[n]に送信される。コンテンツCに含まれる動画CVは表示装置292で再生され、コンテンツCに含まれる音響CAは放音装置294で再生される。
図5は、収録データ処理システム100全体の処理のフローチャートである。ダンスのイベント会場にはダンスの実演の様子を収録する各端末装置14[n]の利用者がいる。記憶装置23に記憶されたプログラム(アプリケーションプログラム)を起動する指示が利用者から付与されることを契機として図5の処理が開始される。
まず、イベントにおけるダンスの実演の開始前に、配信装置16は、音響を表す音響信号である参照信号Rを、通信網18を介して複数の端末装置14[n]に共通に送信する(S1)。各端末装置14[n]の記憶装置23は、通信装置27が配信装置16から受信した参照信号Rを記憶する(S2)。ダンスの実演が開始されると、利用者は収録データD[n]の収録の指示を各々の任意のタイミングで収録装置21に対して行う。収録が指示されると、収録装置21は、ダンスのイベントの様子を撮像した動画V[n]とイベント会場での再生音を収音した音響A[n]とを含む収録データD[n]を生成する(S3)。収録装置21による収録データD[n]の生成とともに、各端末装置14[n]の記憶装置23は、収録装置21が収録した収録データD[n]を記憶する(S4)。ダンスの実演(収録データD[n]の収録)が終了すると、各端末装置14[n]の制御装置25(情報生成部251)は、収録データD[n]に含まれる音響A[n]と参照信号Rが表す音響とを対比することで、参照信号Rが表す音響と収録データD[n]に含まれる音響A[n]との間の時間軸上の位置を示すオフセット情報O[n]を含む同期情報S[n]を生成する(S5)。
各端末装置14[n]の通信装置27は、収録データD[n]の動画V[n]および音響A[n]を含む素材データT[n]とオフセット情報O[n]を含む同期情報S[n]とを編集装置12に送信する(S6)。例えば、利用者からの収録動作の終了の指示を契機として、素材データT[n]と同期情報S[n]とが通信装置27から編集装置12に送信される。ただし、素材データT[n]および同期情報S[n]の送信の契機は、利用者からの指示に限定されない。例えば、参照信号Rの受信から所定の有効期間が経過した時点や所定の時刻(例えばイベントの終了時刻)が到来した時点で、各端末装置14[n]が収録動作を終了して素材データT[n]と同期情報S[n]とを編集装置12に送信することも可能である。また、編集装置12から送信された終了指示の受信を契機として素材データT[n]と同期情報S[n]との送信を開始することも可能である。
編集装置12は、各端末装置14[n]から送信された素材データT[n]と同期情報S[n]とを記憶装置43に記憶する(S7)。編集装置12の制御装置45(コンテンツ生成部451)は、通信装置41が受信した複数の素材データT[n]について同期情報S[n]を利用した編集処理を実行することで、相互に同期する複数の動画V[n]および音響A[n]を含むコンテンツCを生成する(S8)。編集装置12の通信装置41は、コンテンツ生成部451が生成したコンテンツCを各端末装置14[n]に送信する(S9)。例えば、コンテンツCが生成された後における各端末装置14[n]の利用者からのコンテンツCの要求を契機として、コンテンツCが通信装置27から編集装置12に送信される。ただし、コンテンツCの送信の契機は、端末装置14[n]からの要求に限定されない。例えば、コンテンツCの生成が終了した時点で、自動的に各端末装置14[n]に対するコンテンツCの送信を開始することも可能である。
各端末装置14[n]は、通信装置27が受信したコンテンツCを利用者からの指示に応じて再生装置29(表示装置292と放音装置294)で再生する(S10)。また、コンテンツ生成部451が生成したコンテンツCを例えば動画投稿サイトにアップロードし、任意の情報端末を利用して再生することも可能である。
以上の説明から理解される通り、編集装置12に対する素材データT[n]の送信元である端末装置14[n]において参照信号Rと収録データD[n]との時間的な関係の解析により同期情報S[n]が生成される。したがって、複数の収録データD[n]を編集装置12に集約してから各収録データD(n)間の時間的な関係を解析して動画V[n]および音響A[n]を相互に同期させる構成と比較して、例えば、収録データD[n]の総数が膨大な場合でも編集装置12の処理負荷(ひいてはコンテンツCの生成に必要な時間)を低減することが可能である。つまり、各端末装置14[n]が素材データT[n]と同期情報S[n]とを編集装置12に送信してから、コンテンツCを受信するまでの時間が短縮される。
また、オフセット情報O[n]を含む同期情報S[n]が生成されるので、当該オフセット情報O[n]を使用することで生成されるコンテンツCに含まれる複数の動画V[n]および音響A[n]について時間軸上の位置を整合させることが可能である。つまり、収録装置21による収録の開始のタイミングの誤差を補償したコンテンツCを生成することができる。
<第2実施形態>
本発明の第2実施形態について説明する。なお、以下に例示する各形態において作用や機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。
第1実施形態の情報生成部251は、オフセット情報O[n]を含む同期情報S[n]を生成した。第2実施形態の情報生成部251は、オフセット情報O[n]と誤差情報E[n]とを含む同期情報S[n]を生成する。誤差情報E[n]は、収録データD[n]が示す音響A[n]と参照信号Rが示す音響との間のサンプリング周波数の誤差を示す情報である。複数の端末装置14[1]〜14[N]の収音装置214においてサンプリング周波数が同一に設定されていたとしても、A/D変換のタイミングを規定するクロック・ジェネレータのクロック周波数は完全には一致しないため、各端末装置14[n]間でサンプリング周波数には微細な誤差が生じる。したがって、収音装置214で収音した音響A[1]〜A[N]をオフセット情報O[n]により相互に同期させて音響CAを生成しても、音響CAを再生した際に、音響CAに含まれる各音響A[n]の再生箇所が相違し得る(具体的には経時的にずれていく)という問題が発生する。第2実施形態の誤差情報E[n]は、各端末装置14[n]におけるサンプリング周波数の誤差を補償するための情報である。
具体的には、第2実施形態における情報生成部251は、オフセット情報O[n]を第1実施形態と同様に生成するとともに、収録データD[n]に含まれる音響A[n]と当該収録データD[n]の時間軸上の基準となる参照信号Rが表す音響とのサンプリング周波数を対比することで、収録データD[n]が示す音響A[n]と参照信号Rが示す音響との間のサンプリング周波数の誤差を示す誤差情報E[n]を生成する。誤差情報E[n]の算出には、公知の技術が任意に採用され得る。例えば、特開2015−197941号公報に開示されたサンプリング周波数推定装置が好適に利用される。
通信装置27は、収録装置21が生成した収録データD[n]に含まれる動画V[n]および音響A[n]をコンテンツCの素材となる素材データT[n]として編集装置12に送信するとともに、情報生成部251が生成したオフセット情報O[n]と誤差情報E[n]とを含む同期情報S[n]を編集装置12に送信する。
編集装置12のコンテンツ生成部451は、通信装置41が受信した複数の素材データT[n]に対する編集処理により、相互に同期する複数の動画V[n]と音響A[n]とを含むコンテンツCを生成する。コンテンツCは、第1実施形態と同様に、編集処理後のN個の動画V[n]を合成した動画CVと、N個の音響A[n]を合成した音響CAとを含む。第2実施形態における編集処理では、具体的には、オフセット情報O[n]で指定される時間だけ素材データT[n]の時間軸上の位置を第1実施形態と同様に変化させるとともに、誤差情報E[n]で指定されるサンプリング周波数の誤差分だけ素材データT[n]を時間軸上で伸縮する。素材データT[n]の伸縮には、公知の技術が任意に採用され得る。各誤差情報E[n]は、前述の通り、共通の参照信号Rを表す音響のサンプリング周波数に対する音響A[n]におけるサンプリング周波数の誤差である。したがって、各素材データT[n]に含まれる音響A[n]を誤差情報E[n]に応じた時間分だけ音響A[n]の時間軸を伸縮することで、各音響A[n]におけるサンプリング周波数を実質的に同一にすることが可能である。つまり、コンテンツCに含まれる音響CAを再生した場合、音響CAに含まれる各音響A[n]の再生箇所を相互に合致させることができる。
第2実施形態においても第1実施形態と同様の効果が実現される。また、第2実施形態では特に、オフセット情報O[n]のほかに誤差情報E[n]を含む同期情報S[n]が生成されるので、コンテンツCに含まれる複数の動画V[n]および音響A[n]について時間軸上の位置を整合させるとともに、コンテンツCに含まれる複数の音響A[n]におけるサンプリング周波数を実質的に同一にすることが可能である。したがって、各収録データD[n]の音響A[n]におけるサンプリング周波数の誤差を補償して複数の素材データT[n]を正確に同期させたコンテンツCを生成することができる。
<第3実施形態>
第1実施形態におけるコンテンツCは、編集処理後のN個の動画V[1]〜V[N]を合成した動画CVと、N個の音響A[1]〜A[N]を合成した音響CAとを含む。第3実施形態におけるコンテンツCは、編集処理後のN個の動画V[1]〜V[N]を合成した動画CVと、特定の1つの端末装置14[n]の収音装置214が収音した音響A[n]に応じた音響CAとを含む。
第3実施形態における各端末装置14[n]の収録装置21は、第1実施形態と同様に動画V[n]および音響A[n]を含む収録データD[n]を生成する。第3実施形態における情報生成部251は、第1実施形態と同様に、収録データD[n]に含まれる音響A[n]と参照信号Rが表す音響とを対比することで、参照信号Rに対する収録データD[n]の時間軸上の位置を示すオフセット情報O[n]を含む同期情報S[n]を生成する。
複数の端末装置14[1]〜14[N]のうち、特定の1つの端末装置14[n1]は、動画V[n1]および音響A[n1]の双方を含む素材データT[n1]を同期情報S[n1]とともに編集装置12に送信する。他方、残りの複数の端末装置14[n2](n2≠n1)は、動画V[n2]を含むが音響A[n2]は含まない素材データT[n2]を編集装置12に送信する。つまり、各端末装置14[n2]については、編集装置12に対する音響A[n2]の送信が省略される。
第3実施形態における編集装置12のコンテンツ生成部451は、通信装置41が受信した複数の素材データT[n]に対する編集処理によりコンテンツCを生成する。コンテンツCの動画CVは、第1実施形態と同様に、端末装置14[n]から送信された素材データT[n]に含まれるN個の動画V[1]〜V[N]を相互に同期させたうえで合成した動画である。他方、コンテンツCの音響CAは、1個の端末装置14[n1]が送信した素材データT[n1]の音響A[n1]である。
第3実施形態においても第1実施形態と同様の効果が実現される。また、第3実施形態においては、端末装置14[n2]から編集装置12に対する音響A[n2]の送信が省略されるから、端末装置14[n2]と編集装置12との間の通信量を低減するとともに編集装置12の記憶装置43に保存するデータ量を削減することが可能である。また、編集装置12のコンテンツ生成部451では、音響CAを生成する際の合成処理が不要なので、編集装置12全体の処理負荷が低減できる。さらには、コンテンツCに含まれる音響CAは、特定の1つの端末装置14[n1]が送信した素材データT[n1]の音響A[n1]なので、コンテンツCのデータ量の削減が可能である。なお、編集装置12の記憶装置43があらかじめ記憶していた音響をコンテンツCに含まれる音響CAとして使用することも可能である。この場合、複数の端末装置14[n]の全てにおいて編集装置12への音響A[n]の送信が不要となる。
第1実施形態および第2実施形態では、動画V[n]と音響A[n]とを含む収録データD[n]を素材データT[n]として端末装置14[n]から編集装置12に送信し、第3実施形態では、収録データD[n]から音響A[n]を省略した素材データT[n]を端末装置14[n]から編集装置12に送信した。以上の説明から理解される通り、素材データT[n]は、収録データD[n]に対応した動画V[n]を含むデータとして表現され、素材データT[n]における音響A[n]の有無は不問である。
<変形例>
以上に例示した各形態は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を適宜に併合することも可能である。
(1)前述の各形態では、参照信号Rを表す音響をイベント会場に設置された放音装置から放音したが、参照信号Rを表す音響を放音する装置は以上の例示に限定されない。例えば、参照信号Rに応じた音響を端末装置14[n]の放音装置294から放音することも可能である。この場合、収音装置214が収音した音響A[n]には、端末装置14[n]が放音した再生音(参照信号Rを表す音響)が含まれる。すなわち、収録データD[n]として収音される再生音の生成と同期情報S[n]の生成とに共通の参照信号Rが利用される。したがって、参照信号Rに応じて端末装置14[n]とは別個の放音装置から放音された再生音を収録装置21により収音した音響A[n]を含む収録データD[n]を収録装置21が収録する前述の各形態と比較して、参照信号Rに応じた音響を放音する装置を別個に設ける必要がないという利点がある。
(2)前述の各形態では、音楽に対応した音響(つまり可聴帯域内の音響)を表す音響信号を参照信号Rとしたが、参照信号Rは、音楽に対応した音響を表す音響信号に限定されない。例えば、可聴帯域外の音響を表す音響信号を参照信号Rとすることも可能である。可聴帯域外の音響を表す音響信号を参照信号Rとした場合は、前述の各形態と同様に、イベント会場の放音装置から参照信号Rに応じて可聴帯域外の音響を放音する。すなわち、空気振動たる音波を伝送媒体とする音響通信により参照信号Rが送信される。なお、参照信号Rの送信には、以上に例示した音響通信のほか、電波や電磁波を伝送媒体とした近距離無線通信を利用してもよい。
(3)参照信号Rを表す音響であって事前に収録された音楽をイベント会場に設置された放音装置から放音したが、参照信号Rに応じた音響は事前に集録された音楽に限定されない。例えば、参照信号Rを表す音響であってダンスの実演に並行してバンドが生演奏する音楽を放音装置から放音することも可能である。すなわち、演奏予定の音楽を事前に収録した参照信号Rが利用される。以上の説明から理解される通り、参照信号Rが表す音響そのものを端末装置14が収録する場合が好適であるが、参照信号Rが表す音響とは近似するものの厳密には一致しない音響を端末装置14が収録する場合もあり得る。つまり、収録データD[n]に含まれる音響A[n]には、参照信号Rと同様の音響成分が含有されているとは限らない。
(4)前述の各形態では、あらかじめ用意された参照信号Rを配信装置16から各端末装置14[n]に配信したが、参照信号Rの配信元は以上の例示に限定されない。例えば、特定の1つの端末装置14[n1]が収音した音響A[n1]を参照信号Rとすることも可能である。この場合、収録データD[n1]の収録が終了した時点で、端末装置14[n1]が、他の複数の端末装置14[n2]に音響A[n1]を参照信号Rとして送信する。各端末装置14[n2]は、端末装置14[n1]から受信した参照信号Rを収録済の収録データD[n2]と比較することで同期情報S[n2]を生成する。以上の構成によれば、参照信号Rをあらかじめ用意する必要がないため、配信装置16が不要となるという利点がある。
(5)前述の各形態では、サーバ装置を編集装置12としたが、編集装置12はサーバ装置に限定されない。例えば、複数の端末装置14[n]のうち特定の1つの端末装置14[n1]を編集装置12とすることも可能である。この場合、残りの複数の端末装置14[n2]は、素材データT[n2]と同期情報S[n2]とを端末装置14[n1]に送信する。以上の構成によれば、編集装置12が不要となるので、収録データ処理システム100を簡素化することができる。以上の説明から理解される通り、編集装置12には、サーバ装置(単体のサーバのほか複数のサーバで構成されるサーバシステムも含む)と端末装置14[n]との双方が包含され得る。
(6)第1実施形態と第3実施形態においては、オフセット情報O[n]を含む同期情報S[n]を生成し、第2実施形態においては、オフセット情報O[n]と誤差情報E[n]とを含む同期情報S[n]を生成したが、同期情報S[n]に含める情報は以上の例示に限定されない。同期情報S[n]は、参照信号Rに対する収録データD[n]の時間軸上の関係を示す任意の情報として包括的に表現される。
(7)前述の各形態では、収録データ処理システム100をイベント会場でのダンスの実演の収録に利用したが、収録データ処理システム100を利用する場面は以上の例示に限定されない。例えば、講演会等の実演会や冠婚葬祭の式典で利用することも可能である。
(8)以上に例示した端末装置14[n]は、前述の通り制御装置25とプログラムとの協働で実現される。また、編集装置12は、前述の通り制御装置45とプログラムとの協働で実現される。プログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体や磁気記録媒体等の公知の任意の形式の記録媒体を包含し得る。また、以上に例示したプログラムは、通信網を介した配信の形態で提供されてコンピュータにインストールされ得る。また、前述の各形態に係る端末装置14[n]の動作方法(収録データ処理方法)や、編集装置12の動作方法としても本発明は特定される。
100……収録データ処理システム、12……編集装置、14……端末装置、16……配信装置、18……通信網、21……収録装置、212……撮像装置、214……収音装置、23……記憶装置、25……制御装置、251……情報生成部、27……通信装置、29……再生装置、292……表示装置、294……放音装置、41……通信装置、43……記憶装置、45……制御装置、451……コンテンツ生成部。

Claims (5)

  1. 相互に同期する複数の動画を含むコンテンツを複数の素材データから生成する編集装置と通信可能な端末装置が、
    収録装置が収録した動画を含む収録データと当該収録データの時間軸上の基準となる参照信号とを対比することで、前記参照信号に対する当該収録データの時間軸上の関係を示す同期情報を生成し、
    前記収録データに対応した動画を含む素材データと前記生成した同期情報とを前記編集装置に送信する
    収録データ処理方法。
  2. 前記同期情報は、前記参照信号に対する前記収録データの時間軸上の位置を示すオフセット情報を含む
    請求項1の収録データ処理方法。
  3. 前記参照信号は、音響を表す音響信号であり、
    前記収録データは、前記動画に並行して収録された音響を含み、
    前記参照信号が表す音響と前記収録データが含む音響との間の時間軸上の関係を示す前記同期情報を生成する
    請求項1または請求項2の収録データ処理方法。
  4. 前記同期情報は、前記収録データが示す音響と前記参照信号が示す音響との間のサンプリング周波数の誤差を示す誤差情報を含む
    請求項3の収録データ処理方法。
  5. 前記収録データは、前記参照信号に応じて前記端末装置の放音装置から放音された再生音を前記収録装置により収音した音響を含む
    請求項3または請求項4の収録データ処理方法。

JP2016013278A 2016-01-27 2016-01-27 収録データ処理方法 Active JP6662063B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016013278A JP6662063B2 (ja) 2016-01-27 2016-01-27 収録データ処理方法
PCT/JP2017/001508 WO2017130810A1 (ja) 2016-01-27 2017-01-18 収録データ処理方法、端末装置および編集装置
US16/046,536 US10734030B2 (en) 2016-01-27 2018-07-26 Recorded data processing method, terminal device, and editing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016013278A JP6662063B2 (ja) 2016-01-27 2016-01-27 収録データ処理方法

Publications (2)

Publication Number Publication Date
JP2017135539A JP2017135539A (ja) 2017-08-03
JP6662063B2 true JP6662063B2 (ja) 2020-03-11

Family

ID=59398121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016013278A Active JP6662063B2 (ja) 2016-01-27 2016-01-27 収録データ処理方法

Country Status (3)

Country Link
US (1) US10734030B2 (ja)
JP (1) JP6662063B2 (ja)
WO (1) WO2017130810A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10728443B1 (en) 2019-03-27 2020-07-28 On Time Staffing Inc. Automatic camera angle switching to create combined audiovisual file
US10963841B2 (en) 2019-03-27 2021-03-30 On Time Staffing Inc. Employment candidate empathy scoring system
CN110381267B (zh) * 2019-08-21 2021-08-20 成都索贝数码科技股份有限公司 基于帧内切分的集群化实现大幅面多层实时编辑的方法
US11082755B2 (en) * 2019-09-18 2021-08-03 Adam Kunsberg Beat based editing
US11127232B2 (en) 2019-11-26 2021-09-21 On Time Staffing Inc. Multi-camera, multi-sensor panel data extraction system and method
US11023735B1 (en) 2020-04-02 2021-06-01 On Time Staffing, Inc. Automatic versioning of video presentations
CN111225237B (zh) * 2020-04-23 2020-08-21 腾讯科技(深圳)有限公司 一种视频的音画匹配方法、相关装置以及存储介质
JP6909904B1 (ja) * 2020-06-24 2021-07-28 Kddi株式会社 画像管理装置、画像管理システム及び画像管理方法
JP7452296B2 (ja) * 2020-07-02 2024-03-19 株式会社島津製作所 計測用録画システム、および、計測用録画方法
US11144882B1 (en) 2020-09-18 2021-10-12 On Time Staffing Inc. Systems and methods for evaluating actions over a computer network and establishing live network connections
US11727040B2 (en) 2021-08-06 2023-08-15 On Time Staffing, Inc. Monitoring third-party forum contributions to improve searching through time-to-live data assignments
US11423071B1 (en) 2021-08-31 2022-08-23 On Time Staffing, Inc. Candidate data ranking method using previously selected candidate data
US11907652B2 (en) 2022-06-02 2024-02-20 On Time Staffing, Inc. User interface and systems for document creation

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8849432B2 (en) * 2007-05-31 2014-09-30 Adobe Systems Incorporated Acoustic pattern identification using spectral characteristics to synchronize audio and/or video
US8621355B2 (en) * 2011-02-02 2013-12-31 Apple Inc. Automatic synchronization of media clips
JP6073145B2 (ja) * 2013-01-31 2017-02-01 株式会社第一興商 歌唱音声データ生成装置、及び、歌唱動画データ生成装置
JP6191572B2 (ja) 2013-10-16 2017-09-06 ヤマハ株式会社 収録システム、収録方法およびプログラム
US9548053B1 (en) * 2014-09-19 2017-01-17 Amazon Technologies, Inc. Audible command filtering

Also Published As

Publication number Publication date
US20180336930A1 (en) 2018-11-22
JP2017135539A (ja) 2017-08-03
WO2017130810A1 (ja) 2017-08-03
US10734030B2 (en) 2020-08-04

Similar Documents

Publication Publication Date Title
JP6662063B2 (ja) 収録データ処理方法
US11758329B2 (en) Audio mixing based upon playing device location
US10887673B2 (en) Method and system for associating recorded videos with highlight and event tags to facilitate replay services
US7434154B2 (en) Systems and methods for synchronizing media rendering
US20170034263A1 (en) Synchronized Playback of Streamed Audio Content by Multiple Internet-Capable Portable Devices
US9798515B1 (en) Clock synchronization for audio playback devices
CN106464953A (zh) 双声道音频***和方法
JP5729393B2 (ja) 演奏システム
EP4014367A1 (en) Media system and method of generating media content
EP2881950B1 (en) Recording method, recording system, recording program, recording program storage medium, acoustic processing method, and acoustic processing device
KR101957282B1 (ko) 동영상 제어장치 및 방법
US9570056B2 (en) Audio data synthesis method, audio output method, and program for synthesizing audio data based on a time difference
JP7051923B2 (ja) 動画生成装置、動画生成方法、動画生成プログラム、再生装置、動画配信装置、及び動画システム
JP6610030B2 (ja) 映像処理装置および映像処理方法
WO2017026387A1 (ja) 映像処理装置、映像処理方法および記録媒体
WO2022244364A1 (ja) 情報処理装置、情報処理方法、プログラム
KR101222711B1 (ko) 합주게임을 제공하는 서버, 게임장치 및 시스템
JP6051040B2 (ja) 歌唱動画生成システム
JP2014199282A (ja) ユーザーカメラで撮影された静止画を利用可能な歌唱動画データ生成装置
JP2017183883A (ja) 端末装置および編集データ生成方法
JP2018157385A (ja) データ同期方法
JP2013219620A (ja) 音声処理装置
JP2007213710A (ja) データ記録装置及びデータ記録システム
JP2016166975A (ja) 送信装置、受信装置およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200127

R151 Written notification of patent or utility model registration

Ref document number: 6662063

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151