JP2019179502A - 動画を作成するためのシステム、方法、及びプログラム - Google Patents

動画を作成するためのシステム、方法、及びプログラム Download PDF

Info

Publication number
JP2019179502A
JP2019179502A JP2018069839A JP2018069839A JP2019179502A JP 2019179502 A JP2019179502 A JP 2019179502A JP 2018069839 A JP2018069839 A JP 2018069839A JP 2018069839 A JP2018069839 A JP 2018069839A JP 2019179502 A JP2019179502 A JP 2019179502A
Authority
JP
Japan
Prior art keywords
avatar
user
moving image
predetermined
creating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018069839A
Other languages
English (en)
Inventor
康伸 佐々木
Yasunobu Sasaki
康伸 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DeNA Co Ltd
Original Assignee
DeNA Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DeNA Co Ltd filed Critical DeNA Co Ltd
Priority to JP2018069839A priority Critical patent/JP2019179502A/ja
Publication of JP2019179502A publication Critical patent/JP2019179502A/ja
Priority to JP2022129489A priority patent/JP2022171661A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Circuits (AREA)

Abstract

【課題】 ユーザのアバターが含まれる動画の作成を支援する。【解決手段】 一実施形態に係る動画作成装置10は、ユーザのアバターが含まれる動画を作成するための機能を有する。当該装置10は、ユーザのアバターが含まれる動画を作成し、当該アバターは、カメラ131を介して入力される画像におけるユーザの身体の所定の部位の配置に基づいてその動作が制御されるから、ユーザは、例えば、カメラ131の前において身体を動かすことにより、当該身体の動きに伴って動作するアバターが含まれる動画を容易に作成することができる。【選択図】 図1

Description

本発明は、ユーザのアバターが含まれる動画を作成するためのシステム、方法、及びプログラムに関する。
従来、ユーザが動画の配信を行うためのシステムが提供されており、こうしたシステムを介して配信される動画には、ユーザ自身が被写体として出演する動画(自撮り動画)が含まれる(例えば、特許文献1を参照)。例えば、ユーザは、スマートフォン及びパソコン等が有するカメラ及びマイクを介してユーザ自身が含まれる動画を撮影し、当該動画を複数の視聴者に対して配信することができる。
特開2017−121036号公報
しかしながら、不特定多数の視聴者に対して素顔を公開することに抵抗を感じるユーザも存在し得る。そして、こうしたユーザは、例えば音声のみを配信することになるが、音声のみのコンテンツは面白味に欠ける場合がある。そこで、例えば、ユーザ自身に代えて、ユーザのアバターが登場する動画を手軽に作成することができると有用であると考えられる。
本発明の実施形態は、ユーザのアバターが含まれる動画の作成を支援することを目的の一つとする。本発明の実施形態の他の目的は、本明細書全体を参照することにより明らかとなる。
本発明の一実施形態に係るシステムは、1又は複数のコンピュータプロセッサを備え、動画を作成するためのシステムであって、前記1又は複数のコンピュータプロセッサは、読取可能な命令の実行に応じて、カメラを介して入力される画像に含まれるユーザの身体の1又は複数の所定の部位を認識する処理と、認識した前記所定の部位の前記入力される画像における配置に少なくとも基づいてアバターの動作を制御する処理と、前記アバターが含まれる動画を作成する処理と、を実行する。
本発明の一実施形態に係る方法は、1又は複数のコンピュータによって実行され、動画を作成するための方法であって、カメラを介して入力される画像に含まれるユーザの身体の1又は複数の所定の部位を認識するステップと、認識した前記所定の部位の前記入力される画像における配置に少なくとも基づいてアバターの動作を制御するステップと、前記アバターが含まれる動画を作成するステップと、を備える。
本発明の一実施形態に係るプログラムは、動画を作成するためのプログラムであって、1又は複数のコンピュータ上での実行に応じて、前記1又は複数のコンピュータに、カメラを介して入力される画像に含まれるユーザの身体の1又は複数の所定の部位を認識する処理と、認識した前記所定の部位の前記入力される画像における配置に少なくとも基づいてアバターの動作を制御する処理と、前記アバターが含まれる動画を作成する処理と、を実行させる。
本発明の様々な実施形態は、ユーザのアバターが含まれる動画の作成を支援する。
本発明の一実施形態に係る動画作成装置10の構成を概略的に示す構成図。 動画作成装置10の機能を概略的に示すブロック図。 動画作成装置10が実行する処理を例示するフロー図。 ユーザの顔及び両手を含む入力画像50を模式的に例示する図。 入力画像50に含まれるユーザの顔及び両手が認識される様子を説明するための図。 作成される動画60を例示する図。 入力画像50を例示する図。 動画60を例示する図。 アバター62が拡大表示されている状態の動画60を例示する図。 ライブ配信の動画70を例示する図。
以下、図面を参照しながら、本発明の実施形態について説明する。
図1は、本発明の一実施形態に係る動画作成装置10の構成を概略的に示す構成図である。動画作成装置10は、ユーザのアバターが含まれる動画を作成するための機能を有し、本発明のシステムの一部又は全部を実装する装置の一例である。
動画作成装置10は、一般的なコンピュータとして構成されており、図1に示すように、CPU等のコンピュータプロセッサ11と、メインメモリ12と、ユーザI/F13と、通信I/F14と、ストレージ(記憶装置)15とを備え、これらの各構成要素が図示しないバス等を介して電気的に接続されている。
コンピュータプロセッサ11は、ストレージ15等に記憶されている様々なプログラムをメインメモリ12に読み込んで、当該プログラムに含まれる各種の命令を実行する。メインメモリ12は、例えば、DRAM等によって構成される。
ユーザI/F13は、ユーザとの間で情報をやり取りするための各種の入出力装置を含む。ユーザI/F13は、例えば、キーボード、ポインティングデバイス(例えば、マウス、タッチパネル等)等の情報入力装置、マイクロフォン等の音声入力装置を含む。また、ユーザI/F13は、ディスプレイ等の画像出力装置、スピーカ等の音声出力装置を含む。本実施形態において、ユーザI/F13は、カメラ131等の画像入力装置(撮影装置)を含む。カメラ131は、例えば、ディスプレイ等の画像出力装置を見るユーザを視野に含むインカメラとして構成される。
通信I/F14は、ネットワークアダプタ等のハードウェア、各種の通信用ソフトウェア、及びこれらの組み合わせとして実装され、有線又は無線の通信を実現できるように構成されている。
ストレージ15は、例えば磁気ディスク、フラッシュメモリ等によって構成される。ストレージ15は、オペレーティングシステムを含む様々なプログラム、及び各種データ等を記憶する。ストレージ15が記憶するプログラムには、アバターが含まれる動画を作成するための機能を実現するためのアプリケーションプログラム(以下、「動画作成用アプリ」と言うことがある。)が含まれ得る。
本実施形態において、動画作成装置10は、スマートフォン、タブレット端末、パーソナルコンピュータ、及びウェアラブルデバイス等として構成され得る。
次に、本実施形態の動画作成装置10が有する機能について説明する。図2は、動画作成装置10が有する機能を概略的に示すブロック図である。動画作成装置10は、図示するように、様々な情報を記憶及び管理する情報記憶管理部41と、カメラ131を介して入力される画像を解析する画像解析部43と、ユーザのアバターを含む動画を作成する動画作成部45とを有する。これらの機能は、コンピュータプロセッサ11及びメインメモリ12等のハードウェア、並びに、ストレージ15等に記憶されている各種プログラムやデータ等が協働して動作することによって実現され、例えば、メインメモリ12に読み込まれたプログラムに含まれる命令をコンピュータプロセッサ11が実行することによって実現される。
情報記憶管理部41は、ストレージ15等において様々な情報を記憶及び管理する。画像解析部43は、画像の解析に関する様々な処理を実行する。本実施形態において、画像解析部43は、カメラ131を介して入力される画像に含まれるユーザの身体の所定の部位を認識するように構成されている。例えば、画像解析部43は、カメラ131を介して入力される画像を、機械学習を介して生成された学習済みモデルに入力し、当該学習済みモデルから出力される情報に基づいて所定の部位を認識するように構成される。
動画作成部45は、ユーザのアバターを含む動画の作成に関する様々な処理を実行する。本実施形態において、動画作成部45は、画像解析部43によって認識される上記所定の部位の配置(入力される画像における位置、及び/又は、大きさ等)に少なくとも基づいてアバターの動作を制御するように構成されている。作成された動画は、例えば、ストレージ15に格納され、又は、インターネット等の通信ネットワークを介して通信可能に接続されたサーバ等に送信される。
このように、本実施形態の動画作成装置10は、アバターが含まれる動画を作成し、当該アバターは、カメラ131を介して入力される画像におけるユーザの身体の所定の部位の配置に基づいてその動作が制御されるから、ユーザは、カメラ131の前において身体を動かすことにより、当該身体の動き(所定の部位の配置の変化)に伴って動作するアバターが含まれる動画を容易に作成することができる。このように、本実施形態の動画作成装置10は、ユーザのアバターが含まれる動画の作成を支援する。
本実施形態において、動画作成部45は、作成した動画をリアルタイムに配信するように構成され得る。例えば、動画作成装置10は、複数の視聴者に対して動画をリアルタイムに配信する(ライブ配信を行う)ための動画配信サーバと通信ネットワークを介して通信可能に接続されており、動画作成部45は、作成した動画を、当該動画配信サーバに対してリアルタイムに(例えば、ストリーミング形式で)送信するように構成される。こうした構成は、ユーザのアバターが含まれる動画のライブ配信を容易に実現することを可能とする。
本実施形態において、画像解析部43が認識する所定の部位(言い換えると、アバターの動作の制御に用いられる身体の部位)は、ユーザの身体の1又は複数の任意の部位が含まれ得る。例えば、画像解析部43は、当該所定の部位として、ユーザの顔、及び、両手を認識するように構成され得る。こうした構成は、ユーザの顔、及び、両手の動きに伴ってアバターを動作させることを可能とする。
また、動画作成部45は、認識した所定の部位の少なくとも一部の動きに基づいて特定される所定のコマンドを実行するように構成され得る。所定のコマンドは、例えば、アバターを制御するためのコマンド(例えば、アバターの表情、又は、設定アイテム等を変化させるためのコマンド等)、及び、動画の作成を制御するためのコマンド(例えば、動画の作成の一時停止のためのコマンド等)等を含む。例えば、動画作成部45は、カメラ131を介して入力される画像における所定の部位の動きを監視し、所定のコマンドに対応する動きとして予め定められている所定の部位の動きを検出したときに、対応するコマンドを実行するように構成される。こうした構成は、ユーザの身体の動きによるコマンドの入力を可能とする。
また、上記所定のコマンドは、所定の部位の配置に基づくアバターの動作の制御を停止させるためのコマンドを含む。例えば、動画作成部45は、当該コマンドに対応する所定の部位の動きを検出した場合に、入力される画像における所定の部位の配置にかかわらず、アバターの動作を制御する(アバターを静止させることを含む。)ように構成される。こうした構成は、アバターの動作に反映されない状態でユーザが身体を動かす(ユーザの動きとアバターの動作との連動を中止する)ことを可能とする。
本実施形態において、画像解析部43は、ユーザの身体の所定の部位に設けられた所定の外観(色、模様、及び/又は、形状等)を有するマーカー(目印)を検出することによって当該所定の部位を認識するように構成され得る。こうした構成は、所定の部位の認識精度を向上させ、及び、当該認識に係る処理負担を軽減させ得る。
この場合、所定の部位は、手を含み、画像解析部43は、ユーザの手の甲側に設けられた第1の外観を有するマーカー及びユーザの手の平側に設けられた第2の外観を有するマーカーをそれぞれ検出することによってユーザの手の向きを認識し、動画作成部45は、画像解析部43によって認識されたユーザの手の向きに少なくとも基づいてアバターの動作を制御するように構成され得る。こうした構成は、ユーザの手の向きに基づくアバターの動作の制御を可能とする。
また、動画作成部45は、入力される画像における所定の部位の動きを追随するようにアバターの動作を制御するように構成され得る。こうした構成は、ユーザの身体の動きに追随して動作するアバターを含む動画の作成を可能とする。
次に、このような機能を有する本実施形態の動画作成装置10の具体例について説明する。この例の動画作成装置10は、スマートフォン、タブレット端末、又は、パーソナルコンピュータ等として構成されており、動画作成用アプリがインストールされている。
図3は、この例において、アバターを含む動画を作成する際に、動画作成装置10が実行する処理を例示するフロー図である。例えば、ユーザが、動画作成装置10において表示される画面を介して動画の作成開始を指示したときに、図3に例示される処理が実行される。
動画作成装置10は、まず、図3に示すように、カメラ131を介して入力される入力画像に含まれるユーザの顔及び両手を認識する(ステップS100)。この例では、カメラ131は、インカメラとして構成されており、カメラ131は、装置10において表示される画面を見るユーザを視野に含む。ユーザは、装置10において表示される、作成される動画を見ながら、アバターを動作させるためにカメラ131の前で身体を動かす。
図4は、カメラ131を介して入力される入力画像50を模式的に例示する。図示するように、この例では、ユーザの右手RHの手の平には、第1の色(例えば、赤色)の円形のマーカーMK1が設けられており、ユーザの左手LHの手の平には、第2の色(例えば、黄色)の円形のマーカーMK2が設けられている。これらのマーカーMK1、2は、例えば、手の平に貼り付けるステッカーとして構成され、当該ステッカーは、例えば、動画作成用アプリの提供事業者等によってユーザに提供される。また、マーカーMK1、2は、例えば、手の平にインク等で直接描かれる。この場合、例えば、動画作成用アプリの提供事業者等が配布するインストラクションに従って、ユーザが、両手の手の平にマーカーMK1、2をそれぞれ描く。
図5は、図4に例示した入力画像50に含まれるユーザの顔及び両手が認識される様子を説明するための図である。図示するように、この例では、ユーザの顔FCは、当該顔FCの輪郭を囲う矩形の検出領域DA1として検出及び認識される。また、ユーザの両手RH、LHは、当該両手RH、LHの各々の手の平に設けられているマーカーMK1、2の輪郭を囲う矩形の検出領域DA2、DA3としてそれぞれ検出及び認識される。こうした顔FC、及び、両手RH、LH(マーカーMK1、2)の認識(及び、その後の追跡)は、公知の物体追跡技術を用いて実現され、例えば、機械学習を介して生成された学習済みモデルを用いて実現される。
図3のフロー図に戻り、入力画像に含まれるユーザの顔及び両手を認識すると、動画作成装置10は、次に、コマンド入力の有無を判定する(ステップS110)。コマンド入力の有無は、入力画像に含まれるユーザの手の動きに基づいて判定される。コマンド入力の有無の判定の詳細については後述する。
そして、コマンド入力が無い場合(ステップS110においてNO)、動画作成装置10は、ユーザの顔及び両手の配置に基づいてアバターの動作を制御する(ステップS120)。こうした入力画像におけるユーザの顔及び両手の配置に基づくアバターの動作の制御は、動画の作成が終了するまでの間、繰り返される(ステップS140においてNO)。言い換えると、動画を作成(記録、録画)する期間において、動画作成装置10は、カメラ131を介して入力される画像において認識及び追跡されるユーザの顔及び両手の配置の変化に従って、動画に含まれるアバターを動作させる。
図6は、作成される動画60(の1シーン)を例示する。動画60は、三次元の仮想空間を、特定の視野で(特定の位置の仮想カメラを介して)見た画像として構成され、当該仮想空間は、人型のアバター62、及び、当該アバター62の手前に位置する机オブジェクト64を含む。この例では、カメラ131を介して入力される入力画像50におけるユーザの顔FCの位置に対する両手RH、LHの相対的な位置(現実のユーザの顔と両手との間の位置関係)を再現するように、アバター62の動作が制御される。例えば、図7に例示するように、現実のユーザが「万歳」の姿勢をとって、入力画像50におけるユーザの両手RH、LH(マーカーMK1、2)がユーザの顔FCの斜め上方に移動した場合、図8に例示するように、動画60におけるアバター62もまた、ユーザと同様に「万歳」の姿勢をとる(両手を顔の斜め上方に移動させる)。
また、この例では、入力画像50におけるユーザの顔FCの大きさの変化に応じてアバター62が拡大又は縮小する。言い換えると、現実のユーザとカメラ131との間の距離の変化に従って、仮想空間におけるアバター62と仮想カメラとの間の距離が変化する。
例えば、現実のユーザがカメラ131に近づいて入力画像50における顔FCのサイズが大きくなると、仮想空間における仮想カメラがアバター62に近づいて、当該アバター62が拡大表示される。図9は、図6、8の状態と比較して、仮想カメラがアバター62に近づくことにより当該アバター62が拡大表示されている状態の動画60を例示する。仮想カメラがアバター62に近づいた結果、当該仮想カメラの視野から机オブジェクト64が外れて表示されなくなっている。また、図示するように、この例では、アバター62の拡大率が所定値以上となると(アバター62と仮想カメラとの間の距離が所定値以下となると)、当該アバター62の表情が変化するようになっている。
このように、この例において、ユーザは、カメラ131の前で身体を動かすことにより、当該身体の動きに追随して動作するアバター62が含まれる動画を容易に作成することができる。
ここで、ステップS110におけるコマンド入力の有無の判定について説明する。この例では、所定のコマンドに対応するユーザの手の動きが予め設定されている。例えば、入力画像50において右手RHのマーカーMK1が認識されない状態が所定時間(例えば、5秒)継続するという右手の動きが、アバター62の表情を切り替えるための表情切替コマンドに対応する動きとして設定されている。例えば、装置10は、マーカーMK1が認識されない状態を検出すると、その継続時間をカウントし、当該継続時間が所定時間に到達した場合に、ステップS110において表情切替コマンドの入力有りと判定し(ステップS110においてYES)、当該コマンドを実行する(ステップS130)。ユーザは、例えば、右手を握る状態を所定時間継続することによって、アバター62の表情を切り替えることができる。アバター62の表情の切り替えは、例えば、複数の表情に対して予め定められている順序に従って行われる。
また、例えば、入力画像50における左手LHのマーカーMK2が左右方向に所定回数(例えば、3回)往復するという左手の動きが、入力画像50における顔及び両手の配置に基づくアバター62の動作の制御を停止するための制御停止コマンドに対応する動きとして設定されている。例えば、装置10は、マーカーMK2が左右方向に所定回数往復する動きを検出した場合に、ステップS110において当該制御停止コマンドの入力有りと判定し(ステップS110においてYES)、当該コマンドを実行する(ステップS130)。ユーザは、制御停止コマンドの実行によって実現される、入力画像50に基づくアバター62の動作の制御が停止されている期間を利用して、アバター62の動作に反映させることが好ましくない様々な作業等を行いながら動画の作成を継続することができる。なお、入力画像50に基づくアバター62の動作の制御が停止されている期間において、アバター62は、所定の動作を行うように制御され、また、音声の記録は継続される。なお、入力画像50に基づくアバター62の動作の制御が停止されている期間において、動画作成装置10のタッチパネル等の情報入力装置を介したユーザによる入力操作によって、入力画像50に基づくアバター62の動作の制御が再開される。
このように、入力画像50に含まれる顔及び両手の配置に基づくアバター62の動作の制御、及び、当該入力画像50に含まれる手の動きに基づくコマンドの入力及び実行が繰り返され(ステップS140においてNO)、ユーザによって動画の作成終了が指示されると(ステップS140においてYES)、当該動画の作成を終了する。作成された動画は、ストレージ15等に格納される。
上述した例において、右手及び左手の少なくとも一方において、手の甲側に、手の平側のマーカーとは異なる外観を有するマーカーを設け、画像作成装置10が、ユーザの手の向き(カメラ131に対して、ユーザの手の平が向いているか手の甲が向いているか)を認識し、当該ユーザの手の向きが再現されるように、アバター62の動作(手の向き)を制御するようにしても良い。
上述した例において、作成される動画をライブ配信するようにしても良い。この場合、例えば、動画作成装置10は、作成される動画をストリーミング形式で動画配信サーバに送信し、当該動画配信サーバが、複数の視聴者のユーザ端末(スマートフォン等)に対してストリーミング形式で動画を配信する。図10は、ライブ配信の動画70を例示する。当該動画70は、三次元の仮想空間200を表示し、当該仮想空間200において、動画を作成及び配信するユーザ(配信者)のアバター62がステージ204上に配置されており、複数の視聴者の各々のアバター208が観客エリア206に配置されている。配信者のアバター62の動作は、上述した入力画像50における配信者の顔及び両手の配置に基づく制御が行われる。なお、仮想空間200において、配信者のアバター62が、当該仮想空間200に配置されている他のオブジェクト(例えば、視聴者のアバター208が投げ入れるアイテム(ギフト)又は入力されるコメント等)を触れるようにしても良い。例えば、視聴者のアバター208によって仮想空間200に配置されたオブジェクトは、配信者のアバター62が触れることによって消える(アバター62によってオブジェクトが画面外に追い出される)。または、仮想空間200に配置されたオブジェクトに配信者のアバター62が触れることによって、当該オブジェクトに所定のエフェクト(形状の変化、及び、発光等)が発生するようにしても良い。更に、当該オブジェクトに対する配信者による入力操作に応じて配信者のアバター62の動作が制御されるようにしても良い。例えば、当該オブジェクトに対する長押しタップ操作によって当該オブジェクトをアバター62が掴み、その後、仮想空間200内の任意の位置のタップ操作によって当該タップ操作の位置にオブジェクトが配置される(アバター62の任意の位置のタップ操作によって当該タップ操作の位置にオブジェクトが装着されることを含む。)ように構成され得る。
上述した例では、ユーザの両手にマーカーMK1、2を設けたが、ユーザの顔についてもマーカーを設けても良い。また、これとは反対に、ユーザの顔と同様に、両手についても、マーカーを設けることなく認識するようにしても良い。さらに、顔及び両手の少なくとも一部に代えて、又は、これらに加えて、ユーザの身体の他の部位を認識し、アバター62の動作の制御に用いるようにしても良い。
以上説明した本実施形態に係る動画作成装置10は、ユーザのアバターが含まれる動画を作成し、当該アバターは、カメラ131を介して入力される画像におけるユーザの身体の所定の部位(例えば、顔及び両手)の配置に基づいてその動作が制御されるから、ユーザは、カメラ131の前において身体を動かすことにより、当該身体の動きに伴って動作するアバターが含まれる動画を容易に作成することができる。このように、本発明の実施形態は、ユーザのアバターが含まれる動画の作成を支援する。
本発明の他の実施形態において、動画作成装置10が有する上述した機能の少なくとも一部は、当該装置10とインターネット等の通信ネットワークを介して通信可能に接続されるサーバ(例えば、上述した動画配信サーバ)と、動画作成装置10とが協働することによって実現される。例えば、動画作成装置10が、カメラ131を介して入力される画像をサーバに送信し、当該サーバ側で、受信した画像の解析、及び、動画の作成(及び配信)が行われるようにしても良い。
本明細書で説明された処理及び手順は、明示的に説明されたもの以外にも、ソフトウェア、ハードウェアまたはこれらの任意の組み合わせによって実現される。例えば、本明細書で説明される処理及び手順は、集積回路、揮発性メモリ、不揮発性メモリ、磁気ディスク等の媒体に、当該処理及び手順に相当するロジックを実装することによって実現される。また、本明細書で説明された処理及び手順は、当該処理・手順に相当するコンピュータプログラムとして実装し、各種のコンピュータに実行させることが可能である。
本明細書中で説明された処理及び手順が単一の装置、ソフトウェア、コンポーネント、モジュールによって実行される旨が説明されたとしても、そのような処理または手順は複数の装置、複数のソフトウェア、複数のコンポーネント、及び/又は複数のモジュールによって実行され得る。また、本明細書において説明されたソフトウェアおよびハードウェアの要素は、それらをより少ない構成要素に統合して、またはより多い構成要素に分解することによって実現することも可能である。
本明細書において、発明の構成要素が単数もしくは複数のいずれか一方として説明された場合、又は、単数もしくは複数のいずれとも限定せずに説明された場合であっても、文脈上別に解すべき場合を除き、当該構成要素は単数又は複数のいずれであってもよい。
10 動画作成装置
11 コンピュータプロセッサ
131 カメラ
41 情報記憶管理部
43 画像解析部
45 動画作成部
50 入力画像
60、70 動画
62 アバター

Claims (10)

  1. 1又は複数のコンピュータプロセッサを備え、動画を作成するためのシステムであって、
    前記1又は複数のコンピュータプロセッサは、読取可能な命令の実行に応じて、
    カメラを介して入力される画像に含まれるユーザの身体の1又は複数の所定の部位を認識する処理と、
    認識した前記所定の部位の前記入力される画像における配置に少なくとも基づいてアバターの動作を制御する処理と、
    前記アバターが含まれる動画を作成する処理と、を実行する、
    システム。
  2. 前記1又は複数のコンピュータプロセッサは、更に、作成した動画をリアルタイムに配信する処理を実行する、
    請求項1のシステム。
  3. 前記所定の部位は、顔、及び、両手を含む、
    請求項1又は2のシステム。
  4. 前記1又は複数のコンピュータプロセッサは、更に、認識した前記所定の部位の少なくとも一部の動きに基づいて特定される所定のコマンドを実行する処理を実行する、
    請求項1ないし3何れかのシステム。
  5. 前記所定のコマンドは、前記所定の部位の前記入力される画像における配置に基づく前記アバターの動作の制御を停止させるためのコマンドを含む、
    請求項4のシステム。
  6. 前記認識する処理は、前記所定の部位に設けられた所定の外観を有するマーカーを検出することによって前記所定の部位を認識することを含む、
    請求項1ないし5何れかのシステム。
  7. 前記所定の部位は、手を含み、
    前記認識する処理は、ユーザの手の甲側に設けられた第1の外観を有するマーカー及びユーザの手の平側に設けられた第2の外観を有するマーカーをそれぞれ検出することによってユーザの手の向きを認識することを含み、
    前記制御する処理は、認識したユーザの手の向きに少なくとも基づいて前記アバターの動作を制御することを含む、
    請求項6のシステム。
  8. 前記制御する処理は、前記所定の部位の動きを追随するように前記アバターの動作を制御することを含む、
    請求項1ないし7何れかのシステム。
  9. 1又は複数のコンピュータによって実行され、動画を作成するための方法であって、
    カメラを介して入力される画像に含まれるユーザの身体の1又は複数の所定の部位を認識するステップと、
    認識した前記所定の部位の前記入力される画像における配置に少なくとも基づいてアバターの動作を制御するステップと、
    前記アバターが含まれる動画を作成するステップと、を備える、
    方法。
  10. 動画を作成するためのプログラムであって、
    1又は複数のコンピュータ上での実行に応じて、前記1又は複数のコンピュータに、
    カメラを介して入力される画像に含まれるユーザの身体の1又は複数の所定の部位を認識する処理と、
    認識した前記所定の部位の前記入力される画像における配置に少なくとも基づいてアバターの動作を制御する処理と、
    前記アバターが含まれる動画を作成する処理と、を実行させる、
    プログラム。
JP2018069839A 2018-03-30 2018-03-30 動画を作成するためのシステム、方法、及びプログラム Pending JP2019179502A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018069839A JP2019179502A (ja) 2018-03-30 2018-03-30 動画を作成するためのシステム、方法、及びプログラム
JP2022129489A JP2022171661A (ja) 2018-03-30 2022-08-16 動画を作成するためのシステム、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018069839A JP2019179502A (ja) 2018-03-30 2018-03-30 動画を作成するためのシステム、方法、及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022129489A Division JP2022171661A (ja) 2018-03-30 2022-08-16 動画を作成するためのシステム、方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2019179502A true JP2019179502A (ja) 2019-10-17

Family

ID=68278838

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018069839A Pending JP2019179502A (ja) 2018-03-30 2018-03-30 動画を作成するためのシステム、方法、及びプログラム
JP2022129489A Pending JP2022171661A (ja) 2018-03-30 2022-08-16 動画を作成するためのシステム、方法、及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022129489A Pending JP2022171661A (ja) 2018-03-30 2022-08-16 動画を作成するためのシステム、方法、及びプログラム

Country Status (1)

Country Link
JP (2) JP2019179502A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021086639A (ja) * 2019-11-29 2021-06-03 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194876A (ja) * 1998-12-25 2000-07-14 Atr Media Integration & Communications Res Lab 仮想空間共有装置
JP2013218535A (ja) * 2012-04-09 2013-10-24 Crescent Inc 三次元モデリングされたcg画像内にcg画像化された手指を表示する方法及び装置、並びに三次元モデリングされたcg画像を表示する広視野角ヘッドマウントディスプレイ装置
WO2017150129A1 (ja) * 2016-03-04 2017-09-08 株式会社ソニー・インタラクティブエンタテインメント 制御装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5087101B2 (ja) * 2010-03-31 2012-11-28 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及び画像生成システム
JP6312512B2 (ja) * 2014-04-23 2018-04-18 博司 佐久田 遠隔見守りシステム
JP6519074B2 (ja) * 2014-09-08 2019-05-29 任天堂株式会社 電子機器
US11462213B2 (en) * 2016-03-31 2022-10-04 Sony Corporation Information processing apparatus, information processing method, and program
JP6450709B2 (ja) * 2016-05-17 2019-01-09 レノボ・シンガポール・プライベート・リミテッド 虹彩認証装置、虹彩認証方法、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194876A (ja) * 1998-12-25 2000-07-14 Atr Media Integration & Communications Res Lab 仮想空間共有装置
JP2013218535A (ja) * 2012-04-09 2013-10-24 Crescent Inc 三次元モデリングされたcg画像内にcg画像化された手指を表示する方法及び装置、並びに三次元モデリングされたcg画像を表示する広視野角ヘッドマウントディスプレイ装置
WO2017150129A1 (ja) * 2016-03-04 2017-09-08 株式会社ソニー・インタラクティブエンタテインメント 制御装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021086639A (ja) * 2019-11-29 2021-06-03 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム

Also Published As

Publication number Publication date
JP2022171661A (ja) 2022-11-11

Similar Documents

Publication Publication Date Title
US10013805B2 (en) Control of enhanced communication between remote participants using augmented and virtual reality
US9911231B2 (en) Method and computing device for providing augmented reality
EP3769509B1 (en) Multi-endpoint mixed-reality meetings
US9684435B2 (en) Camera selection interface for producing a media presentation
WO2017036329A1 (zh) 对视频内容任意位置和时间播放的方法及装置
CN108038726B (zh) 物品展示方法及装置
CN111045511B (zh) 基于手势的操控方法及终端设备
WO2020248711A1 (zh) 一种显示设备及内容推荐方法
JP7228338B2 (ja) 動画を配信するためのシステム、方法、及びプログラム
JP2021078104A (ja) コンテキスト及びコンテンツを意識した3D手ジェスチャ視覚化を伴うWebベースリモートアシスタンスシステムに関するプログラム
JP2004310518A (ja) 画像情報処理装置
US9848168B2 (en) Method, synthesizing device, and system for implementing video conference
WO2019155735A1 (ja) 情報処理装置、情報処理方法及びプログラム
US20220291752A1 (en) Distributed Application Platform Projected on a Secondary Display for Entertainment, Gaming and Learning with Intelligent Gesture Interactions and Complex Input Composition for Control
JP2022171661A (ja) 動画を作成するためのシステム、方法、及びプログラム
JP7373599B2 (ja) 動画を作成するためのシステム、方法、及びプログラム
Gelb et al. Augmented reality for immersive remote collaboration
Narducci et al. Enabling consistent hand-based interaction in mixed reality by occlusions handling
CN116828131A (zh) 基于虚拟现实的拍摄处理方法、装置及电子设备
US9948894B2 (en) Virtual representation of a user portion
WO2020248682A1 (zh) 一种显示设备及虚拟场景生成方法
TW201546655A (zh) 映射投影之控制系統及其控制方法
KR20150041548A (ko) 증강 현실을 제공하는 방법 및 컴퓨팅 디바이스
US12034996B2 (en) Video playing method, apparatus and device, storage medium, and program product
US11902603B2 (en) Methods and systems for utilizing live embedded tracking data within a live sports video stream

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211224

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220517