JP7027300B2 - 情報処理装置、情報処理方法および情報処理プログラム - Google Patents

情報処理装置、情報処理方法および情報処理プログラム Download PDF

Info

Publication number
JP7027300B2
JP7027300B2 JP2018234832A JP2018234832A JP7027300B2 JP 7027300 B2 JP7027300 B2 JP 7027300B2 JP 2018234832 A JP2018234832 A JP 2018234832A JP 2018234832 A JP2018234832 A JP 2018234832A JP 7027300 B2 JP7027300 B2 JP 7027300B2
Authority
JP
Japan
Prior art keywords
information processing
information
video
processing apparatus
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018234832A
Other languages
English (en)
Other versions
JP2020095634A (ja
Inventor
大二朗 山田
小夜 片渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2018234832A priority Critical patent/JP7027300B2/ja
Publication of JP2020095634A publication Critical patent/JP2020095634A/ja
Application granted granted Critical
Publication of JP7027300B2 publication Critical patent/JP7027300B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明の実施形態は、情報処理装置、情報処理方法および情報処理プログラムに関する。
従来、運動中の人間や物体をトラッキングし記録するといったような、被写体のキャプチャを支援する技術(モーションキャプチャアルゴリズム)がある。
例えば、特許文献1には、ビデオに基づくパフォーマンスキャプチャに関する技術が開示されている。
特表2011-521357号公報
しかし、上記の従来技術では、動作することによるアトラクション性を高めることができるとは限らない。例えば、上記の従来技術では、人物の視覚画像をこの人物に関する3次元情報に関連付けることによってこの人物のデジタル表現を生成しているに過ぎないため、必ずしも動作することによるアトラクション性を高めることができるとは限らない。
本願は、上記に鑑みてなされたものであって、動作することによるアトラクション性を高めることができる情報処理装置、情報処理方法および情報処理プログラムを提供することを目的とする。
本願にかかる情報処理装置は、人物の身体の動作を示す動作情報を取得する取得部と、前記取得部により取得された動作情報に基づいて、前記身体が映された映像のうち、前記身体に対する背景の映像を編集する編集部とを有することを特徴とする。
実施形態の一態様によれば、動作することによるアトラクション性を高めることができるといった効果を奏する。
図1は、実施形態にかかる第1の情報処理の一例を示す図である。 図2は、実施形態にかかる第2の情報処理の一例を示す図である。 図3は、実施形態にかかる第3の情報処理の一例を示す図である。 図4は、実施形態にかかる第4の情報処理の一例を示す図である。 図5は、実施形態にかかる情報処理システムの構成例を示す図である。 図6は、実施形態にかかる情報処理装置の構成例を示す図である。 図7は、実施形態にかかる動画情報記憶部の一例を示す図である。 図8は、実施形態にかかるエフェクト情報記憶部の一例を示す図である。 図9は、実施形態にかかるSNS装置の構成例を示す図である。 図10は、実施形態にかかるタグ情報記憶部の一例を示す図である。 図11は、実施形態にかかる評価情報記憶部の一例を示す図である。 図12は、DLページの一例を示す図である。 図13は、実施形態にかかる情報処理手順を示すフローチャートである。 図14は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本願にかかる情報処理装置、情報処理方法および情報処理プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ説明する。なお、この実施形態により本願にかかる情報処理装置、情報処理方法および情報処理プログラムが限定されるものではない。また、以下の実施形態において、同一の部位には同一の符号を付し、重複する説明は省略される。
〔1.情報処理の一例〕
以下では、図面を用いて実施形態にかかる情報処理の一例について説明する。実施形態にかかる情報処理は、情報処理装置100によって行われる。
図1の説明に先立って、図5を用いて、実施形態にかかる情報処理システムについて説明する。図5は、実施形態にかかる情報処理システム1の構成例を示す図である。実施形態にかかる情報処理システム1は、図5に示すように、端末装置10と、情報処理装置100と、SNS装置200とを含む。端末装置10、情報処理装置100、SNS装置200は、ネットワークNを介して有線または無線により通信可能に接続される。なお、図5に示す情報処理システム1には、複数台の端末装置10や、複数台の情報処理装置100や、複数台のSNS装置200が含まれてよい。
端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等である。例えば、端末装置10は、ユーザの操作に応じて、情報処理装置100によって編集された映像を表示画面に表示する。
SNS装置200は、所定のソーシャル・ネットワーキング・サービス(SNS;Social Networking Service)において、情報処理装置100によって編集された映像を共有(投稿)できるよう各種制御を行うサーバ装置であり。ここでは、SNS装置200の詳細については触れず、後ほど詳述する。
ここで、実施形態にかかる情報処理が行われるにあたって前提について説明する。1つ目の前提は、映像自体に観点を当てた前提である。かかる前提は、ユーザの動作の一例としてダンスを挙げた場合に、ダンスに応じた映像や音声の変化によるアトラクション性や、ユーザがダンスに応じて映像や音声を変化させることによるユーザの編集能力に基づくものである。例えば、ユーザがダンスに応じて映像や音声を変化させることができれば、ダンスゲームとしてのアトラクション性や楽しみを高めることができる。また、例えば、ユーザがダンスに応じて映像や音声を変化させることができれば、例えば、ダンスの中でユーザが様々なポーズを取ることにより、見映えする映像、注目度を高めることができる高度な映像を作り上げることができる。
次に、2つ目の前提は、ユーザの動作自体に観点を当てた前提である。同様に、ユーザの動作の一例としてダンスを挙げた場合に、かかる前提は、ダンスのスキルを向上させたい、自身のダンススキルに対する周りからの正当な評価を知りたい(また、評価結果をダンスのスキルを向上につなげたい)といったユーザニーズに基づくものである。例えば、ダンス初心者やダンスを独学で学ぶユーザがの中には、思い切り体を動かしてダンスの練習をしたいといったニーズがある。また、例えば、ダンススキルに対する周りからの正当な評価を知るためには、自身のダンス映像を例えばインターネット上に公開する必要があるが、容姿、身バレ、動画映えを気にせず公開することで、ダンススキルだけに対する正当な評価を受けたいといったニーズがある。
そこで、以上のような前提を踏まえて、実施形態にかかる情報処理装置100は、以下の実施形態にかかる情報処理を行う。具体的には、情報処理装置100は、人物の身体の動作を示す動作情報を取得し、取得した動作情報に基づいて、身体が映された映像(全体映像)のうち、身体に対する背景の映像(背景映像)を編集する。また、情報処理装置100は、身体が映された映像(全体映像)のうち、背景映像だけでなく、身体を示すシルエット映像も編集することができる。具体的には、情報処理装置100は、身体が映された映像(全体映像)のうち、人物の動作に対応するシルエットであって人物のシルエットを示すシルエット映像を編集する。
例えば、情報処理装置100は、動作情報に基づいて動作が所定の条件を満たしたと判定された場合に、背景映像やシルエット映像を編集する。一例を示すと、情報処理装置100は、動作情報に基づいて動作から所定のポーズがとられたと判定された場合に、背景映像やシルエット映像を編集する。また、情報処理装置100は、動作情報を取得される人物の人数の変化に応じて、背景映像やシルエット映像を編集する。また、映像の編集には、映像にかけられるエフェクトの編集がある。したがって、情報処理装置100は、背景映像やシルエット映像の編集として、これら映像にかけられるエフェクトを編集する。なお、本実施形態において、映像にかけられるエフェクトを編集する編集処理は、現在の映像に対して所定のエフェクトをかける編集処理、現在の映像に対してかけられているエフェクトから別のエフェクトへと変更する編集処理、現在の映像に対してかけられているエフェクトの効果量を制御する編集処理を含み得るものとする。また、情報処理装置100は、編集処理として、例えば、現在の背景映像から別の背景映像へと変更するといった背景映像そのものを変える編集処理を行うこともできるが、本実施形態では、上記のようなエフェクトに関する編集に絞って説明する。
また、情報処理装置100は、後述するセンサ部112を用いて、ユーザの動作をリアルタイムにトラッキングするため、上記の様な編集処理もユーザの動作に合わせてリアルタイムに行われる。
ここで、既存の技術と、実施形態にかかる情報処理装置100による情報処理との違いについて説明する。例えば、ゲームプレイヤー(人物)がモニターに映し出される仮想キャラの動きを手本にしながらダンスし、ダンスの完成度のスコアをゲームプレイヤー間で競うといった技術がある。このような技術では、仮想キャラの動きはゲームプレイヤーの動作に連動しているわけではないため、人物の動きをトラキングしその人物のシルエット映像を生成し表示画面に映し出す本実施形態とは異なる。
また、例えば、センサがユーザの動作を読み取り、プレイヤーが手本に沿って正しくダンスするほどスコアが上がっていき、スコアが上がることに応じて演出が派手になるといった技術がある。このような技術では、スコア変動に応じて演出を制御しているに過ぎず、ダンス中におけるユーザのポージングに応じて、上記のようにエフェクト等を編集する本実施形態とは異なる。また、このような従来技術は、どれだけ正確に与えられたダンスを踊れるかに挑戦するのかが基本的な遊び方となる。しかしながら、本実施形態では、前提で説明したように、ダンススキルが正当に評価されるような機会をユーザに与えたり、ダンスの内容に拘わらず(つまり、既存のダンスであるのか、あるいは、ユーザ自身が考えた振付けでのダンスであるのかに拘わらず)、とにかくダンスをじっくり練習できる機会をユーザに与えるといったことを前提(目的)としており、この既存の技術とは前提が異なる。
さて、以下では、実施形態にかかる情報処理の一例について説明する。まず、図1を用いて、実施形態にかかる情報処理の一例について説明する。図1は、実施形態にかかる第1の情報処理の一例を示す図である。実施形態にかかる第1の情報処理に含まれる編集処理である第1の編集処理では、ユーザの動作に応じて、背景映像に対して所定のエフェクトがかけられるといった編集処理が行われる。
情報処理装置100は、ユーザの動作を検出するセンサSNと、表示画面Dと、スピーカーBとが内蔵されている。例えば、情報処理装置100は、センサSNと、表示画面Dと、スピーカーBとが所定の筐体内に内蔵された状態で実現されることができる。また、センサSNは、例えば、キネクトセンサ(登録商標)である。また、センサSNは、情報処理装置100に内蔵、あるいは、設置されるのではなく、情報処理装置100から離れた位置において、情報処理装置100に対して通信可能な状態で設置されてもよい。また、センサSNは、赤外線センサやカメラを有する。また、情報処理装置100は、ユーザに対して非接触な状態で、ユーザの動作を検出可能なセンサであれば、キネクトセンサ(登録商標)以外に任意のセンサを用いることができる。なお、図2~図4で例示する情報処理装置100は、図1と同様のものであるため、図2~図4の説明では、情報処理装置100の説明は省略する。また、以下では、表示画面DとスピーカーBとを合わせて出力部113と表記する場合がある。
ここで、図1の例では、情報処理装置100は、背景音楽であるBGM1に合わせて動作や色調が変動させられる背景映像BV1を表示画面Dに出力させるとともに、BGM1をスピーカーBから出力させている。BGM1は、映像に対応する楽曲の一例である。
このような状態において、センサSNは、人物および人物の動作を検出する。図1に示すように、情報処理装置100の前に用意される検出領域AR(ユーザの動作を検出可能な領域)にて、ユーザがダンス(動作の一例)しているとすると、センサSNは、ユーザU1という人物のダンスによる動作を検出する(ステップS1)。また、センサSNは、ユーザU1の動作を検出できている限りは、常に、ユーザU1の動作をトラッキングする。例えば、センサSNは、赤外線センサおよびカメラを制御することにより、ユーザU1の動作を検出することができる。また、情報処理装置100は、センサSNによって検出されたユーザU1の動作を示す動作情報を、例えば、センサSNから取得する(ステップS2)。上記の通り、センサSNは、ユーザU1の動作をユーザU1の動作に合わせてリアルタイムに検出するため、例えば、情報処理装置100もユーザU1の動作に合わせてリアルタイムに、遂次、動作情報を取得する。
次に、情報処理装置100は、ステップS2で取得した動作情報に基づいて、ユーザU1の動作に対応するシルエットであってユーザU1のシルエットを示すシルエット映像UV1を生成する(ステップS3)。例えば、情報処理装置100は、ユーザU1の動作に連動して動作するシルエット映像を生成する。本実施形態では、情報処理装置100は、3次元形状のシルエット映像UV1を生成するものとするが、2次元形状のシルエット映像UV1を生成してもよい。そして、情報処理装置100は、ステップS3で生成したシルエット映像UV1を表示画面Dに出力させる(ステップS4)。そして、このときの出力例が図1(a)に示される。図1(a)の例によると、情報処理装置100は、背景映像BV1を表示画面Dに出力させている状態で、背景映像BV1に対してシルエット映像UV1を重畳させるように、シルエット映像UV1を出力させる。
このように表示画面には、ユーザU1はシルエット映像UV1として表示させられるため、例えば、この映像が不特定多数の他ユーザに閲覧されたとしても、他ユーザはユーザU1の顔、容姿、身成り、撮影場所を特定することはできない。一方で、シルエットであっても他ユーザは、ユーザU1がどのようなダンスを行っているかは特定することができる。このようなことから、実施形態にかかる情報処理装置100は、顔、容姿、身成り、撮影場所といったユーザU1の個人情報の開示を抑制した状態で、他ユーザに対してダンスの内容やダンススキルだけに注目させることができるため、例えば、ダンススキルに対する正当な評価を行わすことができる。また、情報処理装置100は、ユーザU1自身に対しても、顔、容姿、身成り等を気にせず、単純にダンスの良し悪しだけのセルフチェックに注力させることができる。
なお、シルエット映像UV1は、実際にはシルエット画像の集合体であるため、情報処理装置100は、ステップS2およびS3では、実際にはシルエット画像UV1を生成し、生成したシルエット画像UV1がユーザU1の動きに合わせて動作する映像として表示画面Dに出力されるよう出力制御する、と言い換えることができる。
次に、情報処理装置100は、遂次取得する動作情報に基づいて、ユーザU1がダンスの中で所定のポーズをとったか(ポージングしたか)を判定する判定処理を行う(ステップS5)。例えば、情報処理装置100は、次のような判定処理を行うことができる。例えば、情報処理装置100は、動作情報に基づいて、動作が静止されたと判定した場合には、このときの静止時間が所定時間以上となったか否かを判定する。そして、情報処理装置100は、静止時間が所定時間以上となったと判定した場合には、ユーザU1がポージングしたと判定する。図1(a)の例では、情報処理装置100は、ユーザU1が「情報処理装置100に対して左向きになった状態で、右手を挙げ、両足を広げる」といったポージングを行った場合に、ユーザU1がポージングしたと判定している。なお、情報処理装置100は、予め所定の記憶部に多数のポーズのパターンを例えば画像として記憶しておき、この画像とユーザU1の動作とのマッチングを行うことで、ユーザU1がポージングしたか否かを判定してもよい。
次に、情報処理装置100は、ステップS5において、ユーザU1がポージングしたと判定した場合には、現在出力されている背景映像を編集する第1の編集処理を行う(ステップS6)。例えば、情報処理装置100は、現在の背景映像BV1にかけられるエフェクトを編集する。例えば、情報処理装置100は、図1(b)に示すように、ユーザU1のポーズを強調するような態様のエフェクト映像であるエフェクトEF11を背景映像BV1にかぶせて出力させる。例えば、情報処理装置100は、エフェクト情報記憶部122からユーザU1のポーズを強調するような態様のエフェクトとしてエフェクトEF11を抽出し、エフェクトEF11を背景映像BV1にかぶせて出力させる。
また、情報処理装置100は、ユーザU1がポージングしていると判定している間は、エフェクトEF11を背景映像BV1にかぶせて出力させ続け、ユーザU1がポージングしていないと判定した場合、つまり、ユーザU1がポージングを解いたと判定した場合には、エフェクトEF11の出力を解除し、元の背景映像BV1へと戻すことができる。
図1で説明してきたように、情報処理装置100は、人物の身体の動作を示す動作情報を取得し、取得した動作情報に基づいて、身体が映された映像のうち、身体に対する背景の映像を編集する。例えば、情報処理装置100は、ユーザのポージングに合わせて、図1(a)から図1(b)に示すように、シンプルな背景映像から迫力のある背景映像へと一時的に切り替えることができるため、ユーザのポージングに合わせて、背景映像に強調させることができる。ユーザは、基本的には表示画面Dに映し出される映像、つまり、背景映像や自身のシルエット映像を含む映像を閲覧しながら、例えば、ダンスすることになるため、映像に強弱が付くことにより、ダンスをより楽しむことができるようになる。このようなことから、情報処理装置100は、ユーザが動作することによるアトラクション性を高めることができる。また、情報処理装置100は、例えば、ダンスゲームとしてのアトラクション性を高めることもできる。
また、上記の通り、本実施形態は、映像自体に観点を当てた前提を有しており、ユーザは、動作に応じて映像が変わることを利用して、自身の動作を活用した映像編集を、例えば、身体全体で行うことができるようになる。机上での単純な映像編集と比較して、ユーザは楽しみながらエクササイズ感覚で映像編集を楽しむことができるし、例えば、情報処理装置100が、ポージングの難易度が高い程、迫力のある背景映像を出力するのであれば、ユーザはよりオリジナリティの高い高度な映像を身体全体を用いて生成することができるようになる。このようなことから、情報処理装置100は、身体全体を用いた映像編集としての楽しみをユーザに与えることができる。
次に、図2を用いて、実施形態にかかる情報処理の一例について説明する。図2は、実施形態にかかる第2の情報処理の一例を示す図である。実施形態にかかる第2の情報処理に含まれる編集処理である第2の編集処理では、ユーザの動作に応じて、シルエット映像に対して所定のエフェクトがかけられるといった編集処理が行われる。図2では、情報処理装置100は、図1で示したステップS6において、第1の編集処理の代わりに第2の編集処理を行うものとする。このため、図2の説明では、ステップS1~S5の説明を省略する。なお、情報処理装置100は、第1の編集処理とともに第2の編集処理を行うこともできる。
具体的には、情報処理装置100は、ステップS5において、ユーザU1がポージングしたと判定した場合には、現在出力されているシルエット映像UV1を編集する第2の編集処理を行う(ステップS6)。例えば、情報処理装置100は、現在のシルエット映像UV1にかけられるエフェクトを編集する。図2(a)に示すように、現在のシルエット映像UV1は、単一色(例えば、黒一色)で表現されている。このため、情報処理装置100は、ユーザU1がポージングしたと判定した場合には、図2(b)に示すように、シルエット映像UV1に対し複数色(例えば、赤、黄、緑、青、ピンク、紫)のエフェクトEF12をかける。例えば、情報処理装置100は、ユーザU1がポージングしている間の時間経過に応じて、複数色それぞれ色が別の色へと変化するようなエフェクトEF12をかける。
また、情報処理装置100は、ユーザU1がポージングしていると判定している間は、シルエット映像UV1に対してエフェクトEF12を背景映像BV1をかけ続け、ユーザU1がポージングしていないと判定した場合、つまり、ユーザU1がポージングを解いたと判定した場合には、エフェクトEF12の出力を解除し、元のシルエット映像UV1へと戻すことができる。
このように、ユーザは、動作に応じて映像が変わることを利用して、自身の動作を活用した映像編集を、例えば、身体全体で行うことができるようになる。例えば、ユーザは、身体全体を用いて、オリジナリティの高い映像を生成することができる。このようなことから、情報処理装置100は、身体全体を用いた映像編集であって、アトラクション性を兼ね備えた映像編集の楽しみをユーザに与えることができる。
次に、図3を用いて、実施形態にかかる情報処理の一例について説明する。図3は、実施形態にかかる第3の情報処理の一例を示す図である。実施形態にかかる第3の情報処理に含まれる編集処理である第3の編集処理では、情報処理装置100は、動作情報を取得される人物の人数(例えば、ダンスへの参加人数)の変化に応じて、映像を編集する。例えば、情報処理装置100は、人数が増加するほど映像かけられるエフェクトの効果量を上昇させる。図3では、情報処理装置100は、図1で示したステップS6において、第1の編集処理の代わりに第3の編集処理を行うものとする。このため、図3の説明では、ステップS1~S5の説明を省略する。なお、情報処理装置100は、第1の編集処理および第2の編集処理のうち、少なくともいずれか1つの編集処理とともに第3の編集処理を行うこともできる。
例えば、情報処理装置100は、ステップS2で取得する動作情報に基づいて、動作情報が取得される人物の人数、すなわちダンスへの参加人数の増減を常時監視しておき、例えば、参加人数が増加したことを検出した場合には、現在出力されている背景映像を編集する第3の編集処理を行う(ステップS6)。図3の例では、ユーザU1がダンスしているところにユーザU2が途中参加(乱入)してきている。かかる場合、情報処理装置100は、ユーザU2の途中参加を示す動作情報に基づいて、参加人数が「1人」増加したことを検出する。そうすると、情報処理装置100は、ステップS3およびS4を行うことにより、ユーザU2に対応するシルエット映像UV2も表示画面Dに出力させる。
また、このように出力させることに応じて、情報処理装置100は、現在の背景映像BV1にかけられるエフェクトを編集する。例えば、情報処理装置100は、図3(b)に示すように、図3(a)での背景映像BV1よりもより豪華な演出態様のエフェクト映像であるエフェクトEF13を背景映像BV1にかぶせて出力させる。例えば、情報処理装置100は、エフェクト情報記憶部122からエフェクトEF13を抽出し、エフェクトEF13を背景映像BV1にかぶせて出力させる。
また、情報処理装置100は、ユーザU2が参加することにより参加人数「2人」であることを検出している間は、エフェクトEF13を背景映像BV1にかぶせて出力させ続け、例えば、ユーザU1およびU2のうち少なくともいずれか1人が検出できなくなった場合(言い換えれば、参加人数の減少を検出した場合)には、エフェクトEF13の出力を解除し、元の背景映像BV1へと戻すことができる。なお、情報処理装置100は、人数の増減を検出した場合には、図2(b)で説明したように、シルエット映像を編集してもよい。図3の例では、情報処理装置100は、シルエット映像UV1およびUV2に対して複数色(例えば、赤、黄、緑、青、ピンク、紫)のエフェクトEF12をかけることができる。
また、背景映像BV1が、例えば、スポットライトが当てられるステージを示す3次元映像であった場合、情報処理装置100は、参加人数が「1人」増加したことに応じて、スポットライトを数を増やす、スポットライトの明るさを明るくする、あるいはスポットライトの色を変化させる、といったように背景映像BV1自体に変化を与えるようにエフェクトをかけてもよい。さらに、情報処理装置100は、例えば、人数が増加するほどエフェクトの効果量を高めてもよい。一例を示すと、情報処理装置100は、人数が増加するほど豪華な演出になるようエフェクトの効果量を高めることができる。
このように、ユーザは、参加人数に応じて映像が変わることを利用して、例えば、チームを組んだチームプレイにより映像編集を行うことができるようになる。例えば、ユーザは、身体全体を用いて、チームプレイによりオリジナリティの高い映像を生成することができる。このようなことから、情報処理装置100は、身体全体を用いた映像編集であって、アトラクション性を兼ね備えた映像編集の楽しみをユーザに与えることができる。
次に、図4を用いて、実施形態にかかる情報処理の一例について説明する。図4は、実施形態にかかる第4の情報処理の一例を示す図である。実施形態にかかる第4の情報処理に含まれる編集処理である第4の編集処理では、情報処理装置100は、動作情報に基づいて、映像に対応する楽曲を編集する。映像に対応する楽曲とは、例えば、映像に用いられる背景音楽(BGM)である。例えば、情報処理装置100は、楽曲の編集として、楽曲を構成させる楽器の種別を編集する。例えば、情報処理装置100は、動作情報を取得される人物の人数(例えば、ダンスへの参加人数)の変化に応じて、楽曲を構成させる楽器の種別を編集する。
楽曲を構成させる楽器の種別を編集するとは、楽曲の演奏に用いられる楽器の種別を変えることを意味しており、例えば、ドラムスのみで演奏されている状態から、ドラムスおよびベースによる演奏状態へと変化させることを示す。また、実施形態にかかる情報処理に用いられるBGMは、実施形態にかかる情報処理用に作製された楽曲であってもよいし、権利の問題が解決できているのであれば既存の楽曲でもよいし、フリー素材として配布されている楽曲であってもよい。なお、情報処理装置100は、第1の編集処理~第3の編集処理のうち、少なくともいずれか1つの編集処理とともに第4の編集処理を行うこともできる。
例えば、情報処理装置100は、ステップS2で取得する動作情報に基づいて、動作情報が取得される人物の人数、すなわちダンスへの参加人数の増減を常時監視しておき、例えば、参加人数が増加したことを検出した場合には、現在出力されているBGM1を編集する第4の編集処理を行う(ステップS6)。図4の例では、ユーザU1がダンスしているところにユーザU2が途中参加(乱入)してきているが、ユーザU2が途中参加するまで、つまり、図4(a)の状態では、ドラムスのみで演奏されるBGM1が出力されているとする。このような状態において、情報処理装置100は、ユーザU2の途中参加を示す動作情報に基づいて、参加人数が「1人」増加したことを検出する。そうすると、情報処理装置100は、ステップS3およびS4を行うことにより、ユーザU2に対応するシルエット映像UV2も表示画面Dに出力させる。
また、このように出力させることに応じて、情報処理装置100は、現在のスピーカーBから出力されているBGM1(ドラムスのみでの演奏)を編集する。例えば、情報処理装置100は、参加人数が「1人」増加したことにより、BGM1の演奏に使用される楽器の種類を1種類増やす。例えば、情報処理装置100は、図4(c)に示すように、BGM1について1種類の楽器(ドラムス)で演奏されている状態から、2種類の楽器(ドラムス+ベース)で演奏される状態へと編集する。例えば、BGM1は、元々4種類の楽器(例えば、ドラムス、ベース、キーボード、ギター)で演奏されるのものが完成形であるとすると、情報処理装置100は、予め所定の記憶部に、BGM1について、ドラムスパート、ベースパート、キーボードパート、ギターパートといったように、各楽器のみでの演奏パートを記憶しておく。そうして、情報処理装置100は、ユーザU1のみで動作が行われている状態では、ドラムスパートのみを出力させておき、今回のように参加人数が「1人」増加した今回の場合には、さらにベースパートを出力させる。
また、情報処理装置100は、さらに参加人数が「1人」増加した場合(計3人)には、さらにキーボードパートを出力させる。また、情報処理装置100は、さらに参加人数が「1人」増加した場合(計4人)には、さらにギターパートを出力させる。また、情報処理装置100は、例えば、参加人数の上限が満たされた場合には、ボーカルパートをさらに出力させてもよい。なお、情報処理装置100は、このようにパートを増やす場合には、演奏のベースとなる楽器(例えば、ドラムスやベース)パートを優先的に出力させ、人数の増加に応じて、演奏のメインをはれる楽器(例えば、ギター)を追加してゆくことが好ましい。これにより、人数増加に応じて、BGMが豪華になる態様をユーザが体感できるようになるため、ユーザに対して、自分達が楽曲を編集している感を強く与えることができるようになる。
また、情報処理装置100は、図4(b)に示すように、現在の背景映像BV1よりもより豪華な演出態様のエフェクト映像であるエフェクトEF13を背景映像BV1にかぶせて出力させる第3の編集処理も同時に行ってよい。
また、情報処理装置100は、ユーザU2が参加することにより参加人数「2人」であることを検出している間は、ドラムス+ベースのBGM1を出力させ続け、例えば、ユーザU1およびU2のうち少なくともいずれか1人が検出できなくなった場合(言い換えれば、参加人数の減少を検出した場合)には、ドラムスのみのBGM1へと戻すことができる。
このように、ユーザは、参加人数に応じて楽曲の演奏態様が変わることを利用して、例えば、チームを組んだチームプレイにより楽曲編集を行うことができるようになる。例えば、ユーザは、身体全体を用いて、チームプレイによりオリジナリティの高い楽曲編集を行うことができる。このようなことから、情報処理装置100は、身体全体を用いた楽曲編集であって、アトラクション性を兼ね備えた楽曲編集の楽しみをユーザに与えることができる。
さて、図4に示す第4の編集処理では、情報処理装置100が人数の増減に応じて楽曲を編集する例を示した。しかし、情報処理装置100は、動作情報に基づいて動作が所定の条件を満たしたと判定された場合に、楽曲を編集してもよい。例えば、情報処理装置100は、動作情報に基づいて所定のポーズがとられたと判定された場合に、楽曲を編集すしてもよい。つまり、情報処理装置100は、ステップS5でのポージングの判定処理により、ユーザがポージングしたと判定した場合には、楽曲を編集してもよい。
また、図4に示す第4の編集処理では、情報処理装置100が、楽曲の編集として、人数の増減に応じて楽曲の演奏に使用される楽器を制御する例を示した。しかし、情報処理装置100は、楽曲の編集として、楽曲にかけられるエフェクトを編集してもよい。例えば、情報処理装置100は、参加人数の増加やポージングに応じて、現在出力されているBGM1にエコーをかけたり、音量を高めたり、トーンを変えたりしてもよい。
〔2.情報処理装置の構成〕
次に、図6を用いて、実施形態にかかる情報処理装置100について説明する。図6は、実施形態にかかる情報処理装置100の構成例を示す図である。図6に示すように、情報処理装置100は、通信部110と、センサ部112と、出力部113と、記憶部120と、制御部130とを有する。例えば、情報処理装置100は、図1~図4で説明した情報処理を行うサーバ装置である。
(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、例えば、端末装置10、SNS装置200との間で情報の送受信を行う。
(センサ部112について)
センサ部112は、人物の身体の動作を検出するセンサである。センサ部112は、図1で説明したセンサSNに対応し、例えば、キネクトセンサ(登録商標)によって構成される。センサ部112は、例えば、赤外線センサやカメラを有する。
(出力部113について)
出力部113は、映像や音声を出力する出力装置であり、例えば、図1で説明した表示画面DやスピーカーBに対応する。例えば、出力部113は、出力制御部131の制御に従って、映像や音声を出力する。
(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子またはハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、動画情報記憶部121と、エフェクト情報記憶部122とを有する。
(動画情報記憶部121について)
動画情報記憶部121は、映像(動画)に関する情報を記憶する。例えば、動画情報記憶部121は、表示画面Dに出力される映像であって、図1~図4で説明したような背景映像およびシルエット映像を含む全体映像に関する情報を記憶する。ここで、図7に実施形態にかかる動画情報記憶部121の一例を示す。図7の例では、動画情報記憶部121は、「ユーザID」、「映像ID」、「映像データ」、「楽曲」、「日付情報」といった項目を有する。
「ユーザID」は、センサ部112によって動作を検出される対象のユーザを識別する識別情報を示す。また、「ユーザID」は、このようなユーザの端末装置10を識別する識別情報であってもよい。「映像ID」は、「映像データ」を識別する識別情報を示す。「映像データ」は、ユーザの動作に合わせて表示画面Dに出力される映像であって、図1~図4で説明したような背景映像およびシルエット映像を含む全体映像のデータを示す。表示画面Dに表示される全体映像、すなわち背景映像およびシルエット映像は、3次元形状で示される。また、「映像データ」は、図1~図4で説明した編集処理が加えられた編集後の映像のデータである。「楽曲データ」は、「映像データ」の背景音楽として出力される楽曲のデータを示す。また、「映像データ」は、図4で説明した編集処理が加えられた編集後の楽曲のデータである。「日付情報」は、「ユーザID」に対応するユーザが検出された日付、あるいは、かかるユーザの動作に応じて編集処理が行われた日付を示す。なお、図7の例では、「日付情報」にYMD1といった概念的な記号を用いているが、本来は、実際の日付情報が入力される。
すなわち、図7の例では、ユーザID「U1」によって識別されるユーザ(ユーザU1)が、日付情報「YMD1」において、領域AR1内で動作(例えば、ダンス)することにより、この動作にい応じて随時編集される(3次元)映像である映像VID1が表示画面Dに表示されたことを示す。
(エフェクト情報記憶部122について)
エフェクト情報記憶部122は、エフェクトに関する情報を記憶する。例えば、エフェクト情報記憶部122は、背景映像にかけられるエフェクトの映像データを記憶する。ここで、図8に実施形態にかかるエフェクト情報記憶部122の一例を示す。図8の例では、エフェクト情報記憶部122は、「エフェクトID」、「エフェクトデータ」といった項目を有する。
「エフェクトID」は、「エフェクトデータ」を識別する識別情報を示す。「エフェクトデータ」は、背景映像にかけられるエフェクトの映像データを示す。
なお、エフェクト情報記憶部122は、例えば、ポーズを示す画像情報等を「エフェクトID」および「エフェクトデータ」に対応付けることにより、どのよううなポージングが行われた際にどのようなエフェクトをかけるかを、例えば、編集部134が特定可能なようにエフェクトデータを記憶してもよい。
(その他の記憶部について)
図6では不図時であるが、情報処理装置100は、背景音楽(BGM)を記憶する記憶部も有してよい。例えば、情報処理装置100は、完成形のBGM毎に、当該BGM内で使用されるドラムスパート、ベースパート、キーボードパート、ギターパートの音源を記憶する記憶部も有してよい。
(制御部130について)
図6に戻り、制御部130は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
図6に示すように、制御部130は、出力制御部131と、取得部132と、判定部133と、編集部134と、送信部135とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図6に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図6に示した接続関係に限られず、他の接続関係であってもよい。
(出力制御部131について)
出力制御部131は、出力部113に対して映像や音声を出力するよう制御する。例えば、出力制御部131は、センサ部112によって人物が検出されるまでは、センサSNに対しては所定の背景映像を出力するよう制御し、スピーカーBに対しては所定の背景映像に同調するよう所定のBGMを出力するよう制御する。また、出力制御部131は、編集部134の編集処理に応じて、遂次、編集後の映像や音声を出力させる出力制御を出力部113に対して行う。例えば、出力制御部131は、編集部134により背景映像、シルエット映像、BGMが編集される度に、編集後のこれら映像や音声を出力させる出力制御を出力部113に対して行う。
(取得部132について)
取得部132は、人物の身体の動作を示す動作情報を取得する。例えば、取得部132は、動作が行われているリアルタイムにおいて、この動作を示す動作情報を取得する。例えば、取得部132は、センサ部112によって検出された動作を示す動作情報をセンサ部112から取得する。センサ部112は、ユーザの動作をユーザの動作に合わせてリアルタイムに検出するため、取得部132もこのユーザの動作に合わせてリアルタイムに、遂次、動作情報を取得する。また、取得部132は、取得した動作情報を判定部133や編集部134に送信する。
(判定部133について)
判定部133は、取得部132により取得された動作情報に基づいて、動作情報を取得されたユーザが動作の中で所定のポーズをとったか(ポージングしたか)を判定する判定処理を行う。例えば、判定部133は、動作情報に基づいて、動作が静止されたと判定した場合には、このときの静止時間が所定時間以上となったか否かを判定する。そして、判定部133は、静止時間が所定時間以上となったと判定した場合には、ユーザがポージングしたと判定する。なお、判定部133は、予め所定の記憶部に多数のポーズのパターンを例えば画像として記憶しておき、この画像とユーザの動作とのマッチングを行うことで、ユーザがポージングしたか否かを判定してもよい。つまり、判定部133は、図1~図4のステップS5に示す判定処理を行う。
(編集部134について)
編集部134は、取得部132により取得された動作情報に基づいて、身体が映された映像(全体映像)のうち、身体に対する背景の映像を編集する。また、編集部134は、身体が映された映像のうち、動作に対応するシルエットであって人物のシルエットを示すシルエット映像を編集する。例えば、編集部134は、動作情報に基づいて動作が所定の条件を満たしたと判定された場合に、映像を編集する。例えば、編集部134は、判定部133により動作情報に基き動作から所定のポーズがとられたと判定された場合には、映像を編集する。一例としては、編集部134は、動作が静止された静止時間が所定時間以上となることにより所定のポーズがとられたと判定された場合には、映像を編集する。
例えば、編集部134は、映像の編集として、映像にかけられるエフェクトを編集する。また、編集部134は、取得部132により動作情報を取得される人物の人数の変化に応じて、映像を編集する。例えば、編集部134は、人数が増加するほど映像かけられるエフェクトの効果量を上昇させる編集を行う。また、編集部134は、動作が行われているリアルタイムにおいて、映像を編集する。
また、編集部134は、取得部132により取得された動作情報に基づいて、映像に対応する楽曲(BGM)を編集する。例えば、編集部134は、動作情報に基づいて動作が所定の条件を満たしたと判定された場合に、楽曲を編集する。例えば、編集部134は、判定部133により動作情報に基づいて動作から所定のポーズがとられたと判定された場合に、楽曲を編集する。一例としては、編集部134は、動作が静止された静止時間が所定時間以上となることにより所定のポーズがとられたと判定された場合には、楽曲を編集する。
例えば、編集部134は、楽曲の編集として、楽曲にかけられるエフェクトを編集する。また、編集部は、楽曲の編集として、楽曲を構成させる楽器の種別を編集する。例えば、編集部134は、取得部132により動作情報を取得される人物の人数の変化に応じて、楽曲を構成させる楽器の種別を編集する。一例としては、編集部134は、人数が増加するほど楽曲を構成させる楽器の種別を増加させる。このようなことから、編集部134は、図1~図4で説明した第1~第4の編集処理を行う。
なお、出力制御部131は、編集部134により遂次編集される映像や音声を出力部113から出力させるが、このように編集部134により編集された映像や音声のデータを動画情報記憶部121に格納する。
(送信部135について)
送信部135は、編集部134により編集が行われた映像の映像データを、当該映像データを所定のコンテンツにて共有できるよう制御するサーバ装置に送信する。なお、ここでは、映像のデータを送信するといった表現を用いているが、この映像のデータには編集された音声のデータも含まれる。また、所定のコンテンツとは、例えば、所定のSNSサイトである。所定のコンテンツにて共有できるよう制御するサーバ装置は、図1でス素子触れたSNS装置200に対応する。以降、所定のコンテンツにて共有できるよう制御するサーバ装置をSNS装置200として説明する。また、SNS装置200の詳細については、図9を用いて説明する。
例えば、送信部135は、映像データとして、所定のファイル形式に変換された映像データをSNS装置200に送信する。一例としては、送信部135は、GIF形式に変換された映像データをSNS装置200に送信する。GIF形式に変換は、送信部135によって行われてよい。また、このようにファイル形式を変換するのは、映像データが端末装置10にダウンロードされるこのとにより端末装置10の容量が無駄に大きく圧迫されることや、通信への負荷を抑制するためである。また、送信部135は、映像データをダウンロード可能なコンテンツの所在地を示す所在地情報を、この映像データに対応する人物(映像中で動作を行っている人物)に提示するようなSNS装置200に対して、この映像データを送信する。
また、送信部135は、映像データの属性情報に基づいて映像データに対してタグ情報を付与するSNS装置200に映像データを送信する。例えば、送信部135は、属性情報として、映像の態様を示す属性情報、映像に対応する楽曲の内容を示す属性情報、または、映像内にて人物により行われている動作を示す属性情報のうちの少なくともいずれか1つの属性情報に基づいて映像データに対してタグ情報を付与するSNS装置200に映像データを送信する。
また、送信部135は、映像に対してユーザが評価した評価情報に基づき順位付けされた順位に応じて、映像データを一覧表示するSNS装置200に映像データを送信する。例えば、送信部135は、評価情報に基づく所定のカテゴリ内において、映像に順位付けされた順位に応じて、映像データを一覧表示するSNS装置200に映像データを送信する。なお、送信部135は、例えば、情報処理装置100を扱うスタッフの操作に応じて、映像データを送信することができる。
〔3.SNS装置の構成〕
次に、図9を用いて、実施形態にかかるSNS装置200について説明する。図9は、実施形態にかかるSNS装置200の構成例を示す図である。図9に示すように、SNS装置200は、通信部210と、記憶部220と、制御部230とを有する。
(通信部210について)
通信部210は、例えば、NIC等によって実現される。そして、通信部210は、ネットワークと有線または無線で接続され、例えば、端末装置10、情報処理装置100との間で情報の送受信を行う。
(記憶部220について)
記憶部220は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子またはハードディスク、光ディスク等の記憶装置によって実現される。記憶部220は、タグ情報記憶部221と、評価情報記憶部222とを有する。
(タグ情報記憶部221について)
タグ情報記憶部221は、編集部134により編集された映像データに対して付与されるタグを示すタグ情報を記憶する。ここで、図10に実施形態にかかるタグ情報記憶部221の一例を示す。図10の例では、タグ情報記憶部221は、「ユーザID」、「映像ID」、「タグ情報」といった項目を有する。
「ユーザID」は、センサ部112によって動作を検出される対象のユーザを識別する識別情報を示す。また、「ユーザID」は、対応する「映像ID」によって識別される映像内で動作を行っているのユーザを識別する識別情報と言い換えることもできる。また、「ユーザID」は、このようなユーザの端末装置10を識別する識別情報であってもよい。「映像ID」は、「映像データ」を識別する識別情報を示す。「映像ID」で識別される映像(映像データ)は、ユーザの動作に合わせて表示画面Dに出力される映像であって、図1~図4で説明したような背景映像およびシルエット映像を含む全体映像のデータを示す。なお、映像データ自体は、動画情報記憶部121に格納される。「タグ情報」は、映像データに対して付与されるタグを示すタグ情報である。このようなタグは、例えば、所定のSNSサイト内において所定の検索キーワードにヒットするように設定されるタグであったり、所定のSNSサイト内で用いられるハッシュタグである。
すなわち、図10の例では、ユーザID「U1」によって識別されるユーザ(ユーザU1)に対応する映像であって、映像ID「VID1」によって識別される映像(映像VID1)のデータに対して、タグ情報「ダンスソロ」が付与された例を示す。なお、図10では不図示であるが、タグ情報記憶部221は、情報処理装置100から送信された映像データも記憶することができる。
(評価情報記憶部222について)
評価情報記憶部222は、編集部134により編集された映像に対してユーザが評価した評価情報を記憶する。ここで、図11に実施形態にかかる評価情報記憶部222の一例を示す。図11の例では、評価情報記憶部222は、「ユーザID」、「映像ID」、「評価情報」といった項目を有する。また、「評価情報」には、「ダンス」、「映像」、「サウンド」といった項目が含まれる。
「ユーザID」および「映像ID」については、図10のタグ情報記憶部221で用いられるものと同様であるため説明を省略する。「評価情報」に対応する「ダンス」は、対応する映像IDで識別される映像内で行われているダンスについて、ユーザが評価した評価情報を示す。また、「評価情報」に対応する「映像」は、対応する映像IDで識別される映像自体(例えば、映像の美しさや、映像に対する編集力)に対してユーザが評価した評価情報を示す。また、「評価情報」に対応する「サウンド」は、対応する映像IDで識別される映像内で用いられるBGM(例えば、BGMに対する編集力)について、ユーザが評価した評価情報を示す。なお、かかるユーザは、所定のSNSサイトを利用する一般のユーザである。なお、評価情報は、例えば、例えば各ユーザの「いいね」数に基づき算出された評価値であってよい。
すなわち、図11の例では、ユーザID「U1」によって識別されるユーザ(ユーザU1)に対応する映像であって、映像ID「VID1」によって識別される映像(映像VID1)について、「ダンス」の観点から評価値「N11」が算出され、「映像」の観点から評価値「N12」が算出され、「サウンド」の観点から評価値「N13」が算出された例を示す。
(制御部230について)
図9に戻り、制御部230は、CPUやMPU等によって、SNS装置200内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部230は、例えば、ASICやFPGA等の集積回路により実現される。
図9に示すように、制御部230は、受信部231と、共有制御部232とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部230の内部構成は、図9に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部230が有する各処理部の接続関係は、図9に示した接続関係に限られず、他の接続関係であってもよい。
(受信部231について)
受信部231は、情報処理装置100から送信される情報を受信する。具体的には、受信部231は、情報処理装置100の送信部135から送信される情報を受信する。例えば、受信部231は、編集部134により編集が行われた映像の映像データであって、編集後の音声のデータも含む映像データを送信部135から受信する。
(共有制御部232について)
共有制御部232は、受信部231により受信された映像データを所定のSNSサイトにて共有できるよう制御する各種制御処理を行う。例えば、共有制御部232は、映像データをダウンロード可能なコンテンツの所在地を示す所在地情報を、この映像データに対応する人物に提示する。
また、共有制御部232は、映像データの属性情報に基づいて、映像データに対してタグ情報を付与する。例えば、共有制御部232は、属性情報として、映像の態様を示す属性情報、映像に対応する楽曲の内容を示す属性情報、または、映像内にて人物により行われている動作を示す属性情報のうちの少なくともいずれか1つの属性情報に基づいて、映像データに対してタグ情報を付与する。映像データをダウンロード可能なコンテンツをDLページP1として、共有制御部232によって行われる制御処理の一例を示す。
ここでは、映像データが示す映像を映像VID1、映像VID1に対応する人物をユーザU1として説明する。映像VID1は、ユーザU1が領域AR1でダンスすることにより図1~図4で説明した情報処理で編集された編集後の映像、または、この映像のデータである。そうすると、共有制御部232は、例えば、受信部231により映像VID1が受信されたことに応じて、映像VID1をダウンロード可能なDLページP1のURLを示すQRコード(登録商標)を生成する。かかる例では、共有制御部232は、QRコードX1を生成したものとする。そうすると、共有制御部232は、QRコードX1をユーザU1の端末装置10に配信する。例えば、共有制御部232は、QRコードX1が表示されるようなページをユーザU1の端末装置10に配信することができる。
ここで、例えば、端末装置10は、ユーザU1の操作に応じて、QRコードX1を読み込むと、QRコードX1に対応するDLページP1の配信要求をSNS装置200に送信する。共有制御部232は、配信要求を受信すると、次に、SNS装置200に対応するSNSサイト内で用いられるハッシュタグを生成する生成処理を行う。例えば、共有制御部232は、映像VID1の属性情報に基づいて、ハッシュタグを生成する。例えば、共有制御部232は、映像VID1を解析した解析結果に基づいて、ハッシュタグを生成する。映像VID1ではユーザU1がダンスしているため、共有制御部232は、例えば、「ソロダンス」とっいたハッシュタグを生成することもできるし、映像編集や楽曲編集の観点から「アレンジ」あるいは「かっこいい映像」といったハッシュタグを生成することもできる。もちろんこのようなハッシュタグは、一例に過ぎない。
ここでは、共有制御部232は、ハッシュタグ「ソロダンス」を生成したとする。そうすると、共有制御部232は、生成したハッシュタグ「ソロダンス」を映像VID1に付与するとともに、ユーザU1がハッシュタグとして「ソロダンス」を使用できるよう、例えば、「♯ソロダンス」が表示されるようなDLページP1を端末装置10に配信する。図12にDLページP1の一例を示す。
図12の例では、DLページP1には、映像データが再生される再生領域PARが含まれ、再生領域PARの中には、再生ボタンBT1が表示されている。例えば、再生ボタンBT1が押下された場合、SNS装置200によって端末装置10への映像VID1のデータのダウンロードが開始されるとともに、ダウンロードされた映像VID1が再生領域PAR内で再生される。例えば、再生ボタンBT1が押下された場合、SNS装置200は、端末装置10に対して映像VID1のデータをストリーミング配信する。
また、図12の例では、DLページP1には、「君の動画をみんなで共有しよう」といった文言が表示され、その下に、共有ボタンBT2と、ハッシュタグ「♯ソロダンス」が表示されている。例えば、ユーザU1によって共有ボタンBT2が押下された場合、SNS装置200は、映像VID1のデータを端末装置10に配信する。端末装置10は、SNS装置200から映像VID1のデータのダウンロードが完了すると、ハッシュタグ「♯ソロダンス」とともに映像VID1をSNS装置200に対応するSNSサイトへ投稿する。なお、SNS装置200は、例えば、端末装置10が映像VID1のデータのダウンロードを完了した場合に、DLページP1内において、「保存した動画をコメント付きで投稿してね」といった文言を表示させることで、SNSサイトへの映像VID1の投稿をユーザU1に対して促してもよい。
このような処理により、映像内に映されるユーザは、容姿、身バレ、動画映えを気にせず、例えば、自身がダンスする映像を不特定多数のユーザに公開することができるようになるため、不特定多数のユーザから、例えば、ダンススキルに対する正当な評価や感想をSNSサイトを通して得られるようになる。また、映像内に映されるユーザは、この評価や感想を参考に、ダンススキルを磨く練習につなげることができるようになる。
また、共有制御部232は、映像に対してユーザが評価した評価情報に基づいて、各映像に順位付けし、SNSサイト内において、この順位に基づく映像データを一覧表示してもよい。例えば、共有制御部232は、評価情報に基づく所定のカテゴリ内において各映像に順位付けされた順位に基づく映像データを一覧表示してもよい。
上記の通り、情報処理装置100の前でダンス等の動作を行ったユーザは、例えば、自身のパフォーマンス映像をSNSサイトで公開することができる。そうすると、この映像を閲覧した他ユーザは、各映像に対して「いいね」等の評価行為を行ったり、批評や感想のコメントを投稿するといった評価行為を行う場合がある。したがって、共有制御部232は、この評価行為が示す評価情報に基づいて、各映像の評価値を算出する。例えば、共有制御部232は、映像毎に、当該映像に付与される「いいね」の数を集計し、集計結果に基づいて、当該映像の評価値を算出する。例えば、共有制御部232は、「いいね」の数そのものを評価値として算出してもよいし、「いいね」の数に対して所定の重み付けを行うことにより重み付けした値を評価値として算出してもよい。一例を示すと、共有制御部232は、映像毎に、当該映像に付与される「いいね」の数を集計するとともに、当該映像に付与されるネガティブコメント(バッド評価)の数も集計する。そして、共有制御部232は、集計した「いいね」の数に対して、ネガティブコメント(バッド評価)の数に応じた重み係数を掛け合せることで、評価値を算出する。
そして、共有制御部232は、映像毎に算出した評価値に基づいて、各映像に対して順位付けする。例えば、共有制御部232は、評価値が高い映像ほど高い順位を付与する。そして、共有制御部232は、例えば、順位が高いトップ10の映像を抽出し、抽出した映像のデータがランキング情報として一覧表示されるようなコンテンツをSNSサイト内に表示させる。これにより、SNSサイトを利用するユーザは、どのような映像が人気があるのかを容易に把握できるようになる。また、映像の持ち主、つまり、情報処理装置100の前でダンス等の動作を行ったユーザは、自身もランキングに入るようスキルを挙げるためのモチベーションにつなげることができるようになる。
〔4.処理手順〕
次に、図13を用いて、実施形態にかかる情報処理の手順について説明する。図13は、実施形態にかかる情報処理手順を示すフローチャートである。なお、図13の例では、領域AR内に入って人物(ユーザ)が入った場合に、かかるユーザはダンスゲームへ参加したと見做されるものとする。また、出力制御部131は、ユーザがダンスゲームへ参加していない間は、所定の背景映像と、所定のBGMとを出力部113から出力させているものとする。
このような状態において、情報処理装置100は、センサ部112を制御している。センサ部112は、情報処理装置100の制御に従って、人物および人物の動作を検出する(ステップS101)。取得部132は、センサ部112によって検出された人物の動作を示す動作情報をセンサ部112から取得する(ステップS102)。また、編集部134は、取得部132により取得された動作情報に基づいて、参加人数の増減を常時監視する(ステップS103)。
また、編集部134は、参加人数に対応するシルエット映像を生成する(ステップS104)。そして、編集部134は、出力制御部131に対して、シルエット映像を出力させるよう制御する(ステップS105)。例えば、編集部134は、背景映像の前にシルエット映像を重ねて表示させるよう出力制御部131を制御する。なお、編集部134は、常時行っているステップS3の処理によって、参加人数の増減が増えたことを検出すると、その時点でステップS107の編集処理に移行する。例えば、編集部134は、参加人数の増加を検出した場合には、図3で説明した第3の編集処理のように背景映像を編集するとともに、図4で説明した第4の編集処理のようにBGMを編集する。
また、判定部133は、シルエット映像が出力されている状態において、ユーザが動作中に所定のポーズをとったか否か判定する判定処理を行う(ステップS106)。編集部134は、ユーザが動作中に所定のポーズをとった判定された場合には(ステップS106;Yes)、背景映像またはシルエット映像を編集する。例えば、編集部134は、図1で説明した第1の編集処理のように背景映像を編集したり、図2で説明した第2の編集処理のようにシルエット映像を編集する。また、編集部134は、ユーザがこの所定のポーズをとっている間は、編集した映像を表示させ続ける。一方、判定部133は、ユーザが動作中に所定のポーズをとっていないと判定した場合には(ステップS106;No)、ポージングされるまで待機する。
次に、送信部135は、背景映像およびシルエット映像で構成される全体映像のデータをSNS装置200に送信する。なお、ユーザの動作や参加人数に応じて編集処理が行われるため、映像のデータには編集処理が加えられたものと、編集処理が加えられなかったものとが存在する。
〔5.変形例〕
上記実施形態にかかる情報処理装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置100の他の実施形態について説明する。
〔5-1.情報処理が行われるシチュエーション〕
実施形態にかかる情報処理装置100による情報処理は、例えば、ゲームセンター等で利用されるダンスゲーム用のダンスマシーンに対して適用されることができる。また、実施形態にかかる情報処理は、例えば、家庭用ゲーム機でのダンスゲームに対して適用されることができる。
また、実施形態にかかる情報処理は、ライブステージでの演者、および、それを観覧する観客の動き対して適用されることができる。例えば、巨大スクリーンの前のライブステージでパフォーマンス中の演者および演者の動作を、センサ部112で検出できるようにすれば、実施形態にかかる情報処理装置100は、巨大スクリーンに対して、この背景映像と、演者のシルエット映像とを表示させることができる。また、情報処理装置100は、演者のパフォーマンスに応じて、例えば、歌のサビの部分で、背景映像やシルエット映像に特殊効果を付けることができる。これにより、情報処理装置100は、ライブ会場を盛り上げることができる。
センサ部112が観客の動作も検出可能なように設置されているのであれば、情報処理装置100は、演者と観客とが一体となってスクリーン映像を変えるといった状況を作り出すことができるため、演者と観客との一体感を高めることができる。
〔5-2.情報処理装置について〕
上記実施形態では、情報処理装置100と、SNS装置200とが別々の装置である例を示した。しかし、情報処理装置100と、SNS装置200とは一体化されてもよい。例えば、SNS装置200の機能を情報処理装置100に組み込むことにより、情報処理装置100を、情報処理装置100とSNS装置200とが一体化された1台の装置として機能させてもよい。
〔6.ハードウェア構成〕
また、上記実施形態にかかる情報処理装置100およびSNS装置200は、例えば図14に示すような構成のコンピュータ1000によって実現される。以下、情報処理装置100を例に挙げて説明する。図14は、情報処理装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、および、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、通信網50を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを、通信網50を介して他の機器へ送信する。
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを、入出力インターフェイス1600を介して出力装置へ出力する。
メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態にかかる情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを、記録媒体1800から読み取って実行するが、他の例として、他の装置から、通信網50を介してこれらのプログラムを取得してもよい。
また、例えば、コンピュータ1000が実施形態にかかるSNS装置200として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部230の機能を実現する。
〔7.その他〕
上記各実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
以上、本願の実施形態をいくつかの図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。
1 情報処理システム
10 端末装置
100 情報処理装置
120 記憶部
121 動画情報記憶部
122 エフェクト情報記憶部
130 制御部
131 出力制御部
132 取得部
133 判定部
134 編集部
135 送信部
200 SNS装置
220 記憶部
221 タグ情報記憶部
222 評価情報記憶部
230 制御部
231 受信部
232 共有制御部

Claims (26)

  1. 人物の身体の動作を示す動作情報を取得する取得部と、
    前記取得部により取得された動作情報に基づいて、前記身体が映された映像のうち、前記身体に対する背景の映像を編集する編集部と
    を有し、
    前記編集部は、前記動作情報に基づいて前記人物がポーズをとったと判定された場合には、とられたポーズの難易度に応じて、前記映像を編集する
    ことを特徴とする情報処理装置。
  2. 前記編集部は、前記映像のうち、前記動作に対応するシルエットであって前記人物のシルエットを示すシルエット映像を編集する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記編集部は、前記動作情報に基づいて前記動作が所定の条件を満たしたと判定された場合に、前記映像を編集する
    ことを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記編集部は、前記動作情報に基づいて前記動作から所定のポーズがとられたと判定された場合に、前記難易度のうち前記所定のポーズに対応する難易度に応じて、前記映像を編集する
    ことを特徴とする請求項3に記載の情報処理装置。
  5. 前記編集部は、前記動作が静止された静止時間が所定時間以上となることにより前記所定のポーズがとられたと判定された場合に、前記映像を編集する
    ことを特徴とする請求項4に記載の情報処理装置。
  6. 前記編集部は、前記映像の編集として、前記映像にかけられるエフェクトを編集する
    ことを特徴とする請求項1~5のいずれか1つに記載の情報処理装置。
  7. 前記編集部は、前記取得部により前記動作情報を取得される前記人物の人数の変化に応じて、前記映像を編集する
    ことを特徴とする請求項1~6のいずれか1つに記載の情報処理装置。
  8. 前記編集部は、前記人数が増加するほど前記映像かけられるエフェクトの効果量を上昇させる
    ことを特徴とする請求項7に記載の情報処理装置。
  9. 前記取得部は、前記動作が行われているリアルタイムにおいて、前記動作情報を取得し、
    前記編集部は、前記動作が行われているリアルタイムにおいて、前記映像を編集する
    ことを特徴とする請求項1~8のいずれか1つに記載の情報処理装置。
  10. 前記編集部は、前記取得部により取得された動作情報に基づいて、前記映像に対応する楽曲を編集する
    ことを特徴とする請求項1~9のいずれか1つに記載の情報処理装置。
  11. 前記編集部は、前記動作情報に基づいて前記動作が所定の条件を満たしたと判定された場合に、前記楽曲を編集する
    ことを特徴とする請求項10に記載の情報処理装置。
  12. 前記編集部は、前記動作情報に基づいて前記動作から所定のポーズがとられたと判定された場合に、前記楽曲を編集する
    ことを特徴とする請求項11に記載の情報処理装置。
  13. 前記編集部は、前記動作が静止された静止時間が所定時間以上となることにより前記所定のポーズがとられたと判定された場合に、前記楽曲を編集する
    ことを特徴とする請求項12に記載の情報処理装置。
  14. 前記編集部は、前記楽曲の編集として、前記楽曲にかけられるエフェクトを編集する
    ことを特徴とする請求項10~13のいずれか1つに記載の情報処理装置。
  15. 前記編集部は、前記楽曲の編集として、前記楽曲を構成させる楽器の種別を編集する
    ことを特徴とする請求項10~14のいずれか1つに記載の情報処理装置。
  16. 前記編集部は、前記取得部により前記動作情報を取得される前記人物の人数の変化に応じて、前記楽曲を構成させる楽器の種別を編集する
    ことを特徴とする請求項15に記載の情報処理装置。
  17. 前記編集部は、前記人数が増加するほど前記楽曲を構成させる楽器の種別を増加させる
    ことを特徴とする請求項16に記載の情報処理装置。
  18. 前記編集部により編集が行われた前記映像の映像データを、当該映像データを所定のコンテンツにて共有できるよう制御するサーバ装置に送信する送信部をさらに有する
    ことを特徴とする請求項1~17のいずれか1つに記載の情報処理装置。
  19. 前記送信部は、前記映像データとして、所定のファイル形式に変換された映像データを送信する
    ことを特徴とする請求項18に記載の情報処理装置。
  20. 前記送信部は、前記サーバ装置として、前記映像データをダウンロード可能なコンテンツの所在地を示す所在地情報を前記人物に提示するサーバ装置に前記映像データを送信する
    ことを特徴とする請求項18または19に記載の情報処理装置。
  21. 前記送信部は、前記サーバ装置として、前記映像データの属性情報に基づいて前記映像データに対してタグ情報を付与するサーバ装置に前記映像データを送信する
    ことを特徴とする請求項18~20のいずれか1つに記載の情報処理装置。
  22. 前記送信部は、前記属性情報として、前記映像の態様を示す属性情報、前記映像に対応する楽曲の内容を示す属性情報、または、前記映像内にて前記人物により行われている動作を示す属性情報のうちの少なくともいずれか1つの属性情報に基づいて前記映像データに対してタグ情報を付与する前記サーバ装置に前記映像データを送信する
    ことを特徴とする請求項21に記載の情報処理装置。
  23. 前記送信部は、前記サーバ装置として、前記映像に対してユーザが評価した評価情報に基づき順位付けされた順位に応じて、前記映像データを一覧表示するサーバ装置に前記映像データを送信する
    ことを特徴とする請求項18~22のいずれか1つに記載の情報処理装置。
  24. 前記送信部は、前記評価情報に基づく所定のカテゴリ内において前記映像に順位付けされた順位に応じて、前記映像データを一覧表示する前記サーバ装置に前記映像データを送信する
    ことを特徴とする請求項23に記載の情報処理装置。
  25. 情報処理装置が実行する情報処理方法であって、
    人物の身体の動作を示す動作情報を取得する取得工程と、
    前記取得工程により取得された動作情報に基づいて、前記身体が映された映像のうち、前記身体に対する背景の映像を編集する編集工程と
    を含み、
    前記編集工程は、前記動作情報に基づいて前記人物がポーズをとったと判定された場合には、とられたポーズの難易度に応じて、前記映像を編集する
    を含むことを特徴とする情報処理方法。
  26. 人物の身体の動作を示す動作情報を取得する取得手順と、
    前記取得手順により取得された動作情報に基づいて、前記身体が映された映像のうち、前記身体に対する背景の映像を編集する編集手順と
    をコンピュータに実行させ
    前記編集手順は、前記動作情報に基づいて前記人物がポーズをとったと判定された場合には、とられたポーズの難易度に応じて、前記映像を編集する
    ことを特徴とする情報処理プログラム。
JP2018234832A 2018-12-14 2018-12-14 情報処理装置、情報処理方法および情報処理プログラム Active JP7027300B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018234832A JP7027300B2 (ja) 2018-12-14 2018-12-14 情報処理装置、情報処理方法および情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018234832A JP7027300B2 (ja) 2018-12-14 2018-12-14 情報処理装置、情報処理方法および情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2020095634A JP2020095634A (ja) 2020-06-18
JP7027300B2 true JP7027300B2 (ja) 2022-03-01

Family

ID=71085019

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018234832A Active JP7027300B2 (ja) 2018-12-14 2018-12-14 情報処理装置、情報処理方法および情報処理プログラム

Country Status (1)

Country Link
JP (1) JP7027300B2 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002319027A (ja) 2001-04-19 2002-10-31 Atr Media Integration & Communications Res Lab 感性共有システム
JP2008146337A (ja) 2006-12-08 2008-06-26 Sony Computer Entertainment Inc 画像表示装置、画像表示方法、プログラム及び情報記憶媒体
JP2011206471A (ja) 2010-03-30 2011-10-20 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム装置の制御方法、及びプログラム
JP2014217627A (ja) 2013-05-09 2014-11-20 株式会社振付著作権協会 身体動作評価装置、カラオケシステム、及びプログラム
WO2015098807A1 (ja) 2013-12-24 2015-07-02 チームラボ株式会社 被写体と3次元仮想空間をリアルタイムに合成する撮影システム
JP2017093803A (ja) 2015-11-24 2017-06-01 富士通株式会社 評価プログラム、評価方法及び評価装置
JP2017136142A (ja) 2016-02-02 2017-08-10 セイコーエプソン株式会社 情報端末、動作評価システム、動作評価方法、動作評価プログラム、及び記録媒体

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002319027A (ja) 2001-04-19 2002-10-31 Atr Media Integration & Communications Res Lab 感性共有システム
JP2008146337A (ja) 2006-12-08 2008-06-26 Sony Computer Entertainment Inc 画像表示装置、画像表示方法、プログラム及び情報記憶媒体
JP2011206471A (ja) 2010-03-30 2011-10-20 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム装置の制御方法、及びプログラム
JP2014217627A (ja) 2013-05-09 2014-11-20 株式会社振付著作権協会 身体動作評価装置、カラオケシステム、及びプログラム
WO2015098807A1 (ja) 2013-12-24 2015-07-02 チームラボ株式会社 被写体と3次元仮想空間をリアルタイムに合成する撮影システム
JP2017093803A (ja) 2015-11-24 2017-06-01 富士通株式会社 評価プログラム、評価方法及び評価装置
JP2017136142A (ja) 2016-02-02 2017-08-10 セイコーエプソン株式会社 情報端末、動作評価システム、動作評価方法、動作評価プログラム、及び記録媒体

Also Published As

Publication number Publication date
JP2020095634A (ja) 2020-06-18

Similar Documents

Publication Publication Date Title
US11862198B2 (en) Synthesizing a presentation from multiple media clips
JP6137935B2 (ja) 身体動作評価装置、カラオケシステム、及びプログラム
JP5767108B2 (ja) 媒体生成システム及び方法
JP6773190B2 (ja) 情報処理システム、制御方法、および記憶媒体
JP2018136547A (ja) 方法、デジタルジュークボックスシステムおよび記録媒体
JP7123520B2 (ja) 動画記録装置、動画生成方法、及びプログラム
Johnson et al. Machinima: the art and practice of virtual filmmaking
US20170092253A1 (en) Karaoke system
JP2020162880A (ja) プログラムおよびコンピュータシステム
JP6905826B2 (ja) プログラム、ゲーム装置、及びサーバ装置
JP2018011849A (ja) 動画記録装置、動画配信方法及びプログラム
US20160048271A1 (en) Information processing device and information processing method
JP7027300B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
US20240233378A1 (en) Dance matching method and system
JP6058991B2 (ja) 歌唱音声に対応する歌唱動画選択システム
JP2020194030A (ja) カラオケシステム
JP7084069B1 (ja) 動画生成システム、コンピュータプログラム及び制御方法
WO2022209648A1 (ja) 情報処理装置、情報処理方法および非一時的なコンピュータ可読記憶媒体
WO2022102550A1 (ja) 情報処理装置及び情報処理方法
Giuffre Countdown and cult music television programmes: an Australian case study
Ryan 2K-Reality: designing a compliant sports augmentation for pickup basketball
JP5928257B2 (ja) 情報処理装置、情報処理方法及びプログラム
Bezerra et al. MySoundtrack: a tool for personalized and adaptive music listening while playing games
JP2014092593A (ja) カラオケ歌唱映像の歌唱音声選択システム
Jung Traveling Sounds, Embodied Responses: Aesthetic Reflections on TikTok

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200917

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220216

R150 Certificate of patent or registration of utility model

Ref document number: 7027300

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350