JP6299145B2 - 映像コンテンツ表示装置、眼鏡、映像コンテンツ処理システム及び映像コンテンツ表示プログラム - Google Patents
映像コンテンツ表示装置、眼鏡、映像コンテンツ処理システム及び映像コンテンツ表示プログラム Download PDFInfo
- Publication number
- JP6299145B2 JP6299145B2 JP2013223253A JP2013223253A JP6299145B2 JP 6299145 B2 JP6299145 B2 JP 6299145B2 JP 2013223253 A JP2013223253 A JP 2013223253A JP 2013223253 A JP2013223253 A JP 2013223253A JP 6299145 B2 JP6299145 B2 JP 6299145B2
- Authority
- JP
- Japan
- Prior art keywords
- video content
- sound data
- unit
- sound
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Information Transfer Between Computers (AREA)
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Controls And Circuits For Display Device (AREA)
Description
また、AR(Augmented Reality)と呼ばれる、現実の環境から知覚に与えられる情報に、コンピュータが作り出した情報を重ね合わせることで、補足的な情報を与える技術が開示されている(例えば、特許文献2)。
第1の発明は、撮影部と、映像コンテンツを表示可能な表示部と、音データと、予め設定された認識対象物とを対応付けて記憶する記憶部と、音データを取得する音取得部と、前記音取得部が前記音データを取得している間に、前記撮影部が撮影した撮影画像に、取得中の音データに対応する前記認識対象物を含むか否かを判断する対象判断部と、前記撮影画像に前記認識対象物を含む間、前記認識対象物に対応付けられた映像コンテンツを、前記音データの再生位置に対応させながら、前記認識対象物から特定される特定位置に重畳して、前記表示部に表示させる表示制御部と、を備えること、を特徴とする映像コンテンツ表示装置である。
第2の発明は、第1の発明の映像コンテンツ表示装置において、音データを出力する音出力部と、前記特定位置と撮影位置との距離を算出し、前記認識対象物から特定される位置から音が発生しているように前記音出力部への前記音データの出力を制御する音制御部と、を備えること、を特徴とする映像コンテンツ表示装置である。
第3の発明は、第1の発明又は第2の発明の映像コンテンツ表示装置において、前記映像コンテンツを記憶するコンテンツサーバに対して通信ネットワークを介して通信可能に接続されており、前記表示制御部は、前記コンテンツサーバから予めダウンロードし、又は、逐次取得した前記映像コンテンツを表示させること、を特徴とする映像コンテンツ表示装置である。
第4の発明は、第1の発明から第3の発明までのいずれかの映像コンテンツ表示装置を備える眼鏡である。
第5の発明は、第1の発明から第3の発明までのいずれかの映像コンテンツ表示装置と、前記映像コンテンツ表示装置に対して通信ネットワークを介して通信可能に接続されたコンテンツサーバと、を備え、前記コンテンツサーバは、音データと、認識対象物と、前記映像コンテンツとを対応付けて記憶する記憶部を有し、前記映像コンテンツ表示装置の前記記憶部は、前記コンテンツサーバからダウンロードした前記音データと、前記音データに対応する前記認識対象物とを記憶すること、を特徴とする映像コンテンツ処理システムである。
第6の発明は、撮影部と、映像コンテンツを表示可能な表示部と、音データと、予め設定された認識対象物とを対応付けて記憶する記憶部と、を備えるコンピュータの映像コンテンツ表示プログラムであって、前記コンピュータを、音データを取得する音取得手段と、前記音取得手段が前記音データを取得している間に、前記撮影部が撮影した撮影画像に、取得中の音データに対応する前記認識対象物を含むか否かを判断する対象判断手段と、前記撮影画像に前記認識対象物を含む間、前記認識対象物に対応付けられた映像コンテンツを、前記音データの再生位置に対応させながら、前記認識対象物から特定される特定位置に重畳して、前記表示部に表示させる表示制御手段と、して機能させること、を特徴とする映像コンテンツ表示プログラムである。
(第1実施形態)
<映像コンテンツ処理システム100の全体構成>
図1は、第1実施形態に係る眼鏡1の概要を説明する図である。
図2は、第1実施形態に係る映像コンテンツ処理システム100の機能ブロックを示す図である。
図3は、第1実施形態に係るコンテンツデータ記憶部22に記憶されたコンテンツデータを説明する図である。
図1に示す眼鏡1は、音楽を再生し、再生中の音楽に対応した立体映像コンテンツ(映像コンテンツ)として、アニメーションキャラクタの立体映像を、あたかも眼鏡1を装着した使用者の目の前にいるかのように表示する装置である。
眼鏡1は、例えば、CD、DVD等を販売するCDショップに常設されている。そして、眼鏡1には、例えば、CDショップで販売を強化している音楽が、予め記憶部20(図2参照)に記憶されている。
眼鏡1は、カメラ31(撮影部)、透過型ディスプレイ32(表示部)、スピーカ33(音出力部)、各操作ボタン34(34a〜34f)、通信I/F(インタフェース)部39等を備える。また、眼鏡1は、片側の側面に筐体30を有する。筐体30は、図2に示す制御部10、記憶部20等を備える。
図2に示す制御部10は、眼鏡1の全体を制御する中央処理装置(CPU)である。制御部10は、記憶部20に記憶されているオペレーティングシステム(OS)や、各種のアプリケーションプログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、各種機能を実行する。
音取得部11は、音楽の音データを取得する制御部である。
音制御部12は、音楽の音データを、スピーカ33に出力する制御部である。また、音制御部12は、スピーカ33の音量を制御する。
対象判断部13は、音取得部11が音楽の音データを取得している間に、カメラ31が撮影した画像に、その音楽に対応するAR(Augmented Reality)用コード(認識対象物)を含むか否かを判断する制御部である。
コンテンツ取得部14は、記憶部20に記憶され、対象判断部13が判断したAR用コードに対応するアニメーションキャラクタの立体映像を取得する制御部である。
表示制御部15は、AR用コードの前面であって、AR用コードから特定される特定位置に、音楽の再生位置に対応したアニメーションキャラクタの立体映像を表示させる制御部である。
これらの各機能の詳細及びAR用コードについては、後述する。
なお、本発明でいうコンピュータとは、制御部、記憶装置等を備えた情報処理装置をいい、眼鏡1は、制御部10、記憶部20等を備えた情報処理装置であり、本発明のコンピュータの概念に含まれる。
記憶部20は、プログラム記憶部21、コンテンツデータ記憶部22等を記憶している。
プログラム記憶部21は、眼鏡1に様々な機能を実行させる複数のアプリケーションプログラムを記憶可能な記憶領域である。プログラム記憶部21は、少なくとも、AR用プログラム(映像コンテンツ表示プログラム)21aを記憶している。
コンテンツデータ記憶部22は、音楽と、AR用コードと、アニメーションキャラクタの立体映像とが対応付けられたコンテンツデータを記憶する記憶領域である。
音楽には、その楽曲の曲名や作者、歌の場合には歌手名等に関する音楽属性データ、実際の音に関する音データ等を有する。また、音データは、その音楽の再生時間を示す再生位置を有する。
AR用コードは、例えば、CDショップにあるステージの形状である。その他、AR用コードは、CDジャケットの形状等であってもよく、予め設定された形状である。
アニメーションキャラクタの立体映像は、例えば、アイドルを模したキャラクタの立体映像である。音楽にあわせてあたかも歌い、踊っているかのように振舞う、アニメーションキャラクタの立体映像は、音データの再生位置に同期して、歌い、踊っているかのような動きをする。
図3(C)は、音楽「B1」と、アニメーションキャラクタの立体映像「b1」との再生位置の説明のための図である。音楽「B1」より、アニメーションキャラクタの立体映像「b1」の再生時間が短い。そこで、アニメーションキャラクタの立体映像「b1」を、音楽「B1」の再生時間にあわせるために、アニメーションキャラクタの立体映像「b1」を3回繰り返す。
透過型ディスプレイ32は、眼鏡1のレンズ部分に設けられたディスプレイ装置である。透過型ディスプレイ32は、例えば、液晶パネルが用いられ、透過率を制御することで、透明又は半透明な状態にできる。使用者は、透過型ディスプレイ32を介してスルー状態で視界領域を見ることができる。
スピーカ33は、音楽の音データを出力する装置である。スピーカ33は、使用者が眼鏡1をかけた状態で音楽が聞こえるように、使用者の左右の耳付近になる位置に設けられる。
電源ボタン34aは、眼鏡1に電源を供給し、及び眼鏡1に供給されている電源を停止するボタンである。
メニューボタン34bは、透過型ディスプレイ32にメニュー画面(図示せず)を表示させるためのボタンである。
選択ボタン34cは、透過型ディスプレイ32に表示されたメニュー画面等にて、カーソルを動かすボタンである。
決定ボタン34dは、メニュー画面等にあるカーソル位置の内容を決定するためのボタンである。
停止ボタン34eは、音楽の再生を停止するためのボタンである。
再生/一時停止ボタン34fは、音楽の再生及び一時停止を行うためのボタンである。
これらの操作ボタン34の使用方法については、後述する。
<コンテンツサーバ4>
コンテンツサーバ4は、制御部40、記憶部45、通信I/F部49等を備える。
制御部40は、コンテンツサーバ4の全体を制御するCPUである。制御部40は、記憶部45に記憶されているOSや、各種のアプリケーションプログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、各種機能を実行する。
記憶部45は、制御部40の処理を実行するために必要なプログラム、データ等を記憶するためのハードディスク、半導体メモリ素子等の記憶装置である。
記憶部45は、音楽と、AR用コードと、アニメーションキャラクタの立体映像とが対応付けられたコンテンツデータを記憶するコンテンツデータベースを備える。
通信I/F部49は、通信ネットワークNを介して、眼鏡1との通信を行うためのインタフェース部である。
通信ネットワークNは、眼鏡1と、コンテンツサーバ4との間のネットワークであり、インターネット回線等の通信網である。
次に、眼鏡1の処理について説明する。
図4は、第1実施形態に係る眼鏡1のメイン処理を示すフローチャートである。
ステップS(以下、「S」という。)1において、使用者が眼鏡1の電源ボタン34aを操作することで、眼鏡1の制御部10に電源が供給される。
S2において、使用者が眼鏡1のメニューボタン34bを操作することで、制御部10は、透過型ディスプレイ32にメニュー画面を表示する。メニュー画面は、例えば、コンテンツデータをダウンロードしたり、AR用プログラム21aを起動したりするための項目が表示された画面である。
メニュー画面での選択及び決定は、選択ボタン34c及び決定ボタン34dにより行う。
S4において、制御部10は、コンテンツデータのダウンロード処理を行う。制御部10は、通信I/F部39を介してコンテンツサーバ4と通信可能であることを確認後、コンテンツサーバ4からコンテンツデータをダウンロードして、コンテンツデータ記憶部22に記憶する。なお、コンテンツデータのデータ量が大きいことから、コンテンツデータのダウンロードは、コンテンツサーバ4に記憶されたコンテンツデータから対象を絞ってダウンロードすることが望ましい。その後、制御部10は、処理をS2に移す。
S6において、制御部10は、後述する映像コンテンツ表示処理を行う。その後、制御部10は、処理をS2に移す。
なお、ここで説明したメイン処理では、起動するプログラムが、AR用プログラム21aのみであった。しかし、プログラム記憶部21に記憶してある複数のアプリケーションプログラムについても起動するものであってもよい。その場合には、各々のアプリケーションプログラムに対応する処理を行うが、ここでの説明は、省略する。
次に、映像コンテンツ表示処理について説明する。
図5は、第1実施形態に係る眼鏡1の映像コンテンツ表示処理を示すフローチャートである。
図6は、第1実施形態に係る眼鏡での表示例を示す図である。
図5のS10において、眼鏡1の制御部10は、AR用プログラム21aを起動する。AR用プログラム21aが起動されると、制御部10は、透過型ディスプレイ32に、音楽選択画面(図示せず)として、コンテンツデータ記憶部22に記憶されている音楽の音楽属性データを表示する。
ここで、使用者が、例えば、ある音楽属性データを選択ボタン34cで選択し、再生/一時停止ボタン34fを操作することで、制御部10(音制御部12)は、音楽属性データに対応する音データをスピーカ33から出力する。また、制御部10(音取得部11)は、音データを取得する。なお、上述のように、使用者が再生/一時停止ボタン34fを操作した場合には、制御部10は、透過型ディスプレイ32に表示していた音楽選択画面の表示を消して、表示しないようにする。
S12において、音楽が再生中であり、制御部10(音取得部11)は、音データを取得しているか否かを判断する。上述のように、使用者が音楽選択画面に表示されたある音楽属性データを選択ボタン34cで選択し、再生/一時停止ボタン34fを操作した場合には、制御部10(音取得部11)は、音データを取得している。他方、音楽選択画面が表示されていても、使用者が操作をしない場合には、制御部10は、音データを取得していない。音データを取得している場合(S12:YES)には、制御部10は、処理をS13に移す。他方、音データを取得していない場合(S12:NO)には、制御部10は、処理をS14に移す。
なお、撮影画像に、コンテンツデータ記憶部22に記憶されている複数のAR用コードのうち2つ以上を含む場合には、制御部10は、そのうち1つを選択すればよい。
S15において、制御部10(音制御部12)は、所定時間(例えば、10秒)を経過後に、撮影画像に含まれているAR用コードに対応する音楽の音データを、スピーカ33に出力する。また、制御部10(音取得部11)は、音楽の音データを取得する。なお、図3(A)を例に説明すると、AR用コードが「A」の場合には、音楽「A1」が特定できる。しかし、AR用コードが「B」の場合には、対応する音楽が「B1」から「B3」まである。この場合には、制御部10は、例えば、「B1」から「B3」までの音楽のうち1つを選択して、音データを出力すればよい。
S17において、制御部10(音制御部12)は、透過型ディスプレイ32に表示されたアニメーションキャラクタの立体映像の向きに応じて、使用者の両耳付近に設けられたスピーカ33への音データの出力を制御する。これは、特定位置と撮影位置との距離を算出し、AR用コードから特定される位置から音が発生しているようにするものであり、周知の技術(例えば、特許第5197525号公報)により実現可能である。
ここで、図6を例に説明する。
AR用コードが、例えば、CDショップ60内に設けられたステージ61の形状である場合、使用者が、眼鏡1をかけた状態でステージ61を見ることで、アニメーションキャラクタの立体映像であるキャラクタ62が透過型ディスプレイ32に表示される。
なお、現実のステージ61には、キャラクタ62は表示されていない(図6(A)参照)。これにより、使用者は、図6(B)に示すように、音楽にあわせてあたかもステージ61上で歌い、踊っているかのようなキャラクタ62を見ることができる。
そして、キャラクタ62が正面を向いている場合、図6(B)に示すように、使用者がステージ61を正面から見ると、キャラクタ62が正面を向いて歌い踊る。この時、制御部10(音制御部12)は、使用者の両耳のスピーカ33の音量を同じにする制御を行う。
また、使用者は、移動せず、キャラクタ62が向きを変えた場合、制御部10(音制御部12)は、キャラクタ62の向きに応じてスピーカ33の音量を変化させる。使用者は、向きが変わったキャラクタ62を見ることができ、向きに応じた音量の音楽を聴くことができる。
S19において、制御部10は、音楽が一時停止中か否かを判断する。音楽が一時停止中の場合とは、音楽が再生中に、使用者が再生/一時停止ボタン34fを操作した場合をいう。音楽が一時停止中である場合(S19:YES)には、制御部10は、処理をS20に移す。他方、音楽が一時停止中ではない場合(S19:NO)には、制御部10は、処理をS13に移す。
S20において、制御部10は、音データの一時停止した再生位置に対応するアニメーションキャラクタの立体映像を、透過型ディスプレイ32に表示させる。つまり、一時停止の場合には、透過型ディスプレイ32に表示されたアニメーションキャラクタの立体映像は、音楽の再生位置に同期しているので、一時停止中の音楽の再生位置に対応する動きのない静止画像になる。その後、制御部10は、処理をS19に移す。
なお、使用者が再生/一時停止ボタン34fをさらに操作して、一時停止が解除された場合には、音楽の音データの再生位置に対応して、アニメーションキャラクタの立体映像が動くものになる(S19でNOが選択され、S13でYESが選択された場合)。
S22において、制御部10は、AR用プログラム21aを終了するか否かを判断する。AR用プログラム21aを終了する場合(S22:YES)には、制御部10は、本処理を終了し、図4に戻る。他方、AR用プログラム21aを終了しない場合(S22:NO)には、制御部10は、処理をS12に移す。
(1)音楽の音データを取得している間に、カメラ31が取得した撮影画像に、取得した音データの音楽に対応するAR用コードを含む場合には、AR用コードに対応するアニメーションキャラクタの立体映像を透過型ディスプレイ32に表示できる。そして、音データを取得しなくなった場合には、透過型ディスプレイ32に表示していたAR用コードに対応するアニメーションキャラクタの立体映像を消去して、表示させなくする。よって、音楽の再生中にのみ、音楽に対応するアニメーションキャラクタの立体映像を、透過型ディスプレイ32に表示できる。
(2)音楽と、アニメーションキャラクタの立体映像とは、AR用コードに対応するので、AR用コードが同じであっても、音楽が異なれば、透過型ディスプレイ32に表示されるアニメーションキャラクタの立体映像を異なるものにできる。
(4)アニメーションキャラクタの立体映像から音データが出力されているかのように、スピーカ33から出力される音量を変化させることができる。
(5)アニメーションキャラクタの立体映像を、AR用コードに対応する特定位置に配置して表示させるので、例えば、AR用コードがステージの形状である場合には、アニメーションキャラクタの立体映像があたかもステージ上で歌って、踊っているかのように表示させることができる。
(6)音楽が再生中でない場合でも、カメラ31が撮影した撮影画像に、コンテンツデータ記憶部22に記憶されたAR用コードが存在する場合には、AR用コードに対応する音楽を再生できる。そして、音楽を再生することで、AR用コードに対応するアニメーションキャラクタの立体映像を透過型ディスプレイ32に表示できる。
第2実施形態は、眼鏡にかわって携帯端末を用いた場合について説明する。なお、以降の説明において、上述した第1実施形態と同様の機能を果たす部分には、同一の符号又は末尾に同一の符号を付して、重複する説明を適宜省略する。
図7は、第2実施形態に係るマーク261と携帯端末201との例を示す図である。
図7(B)に示す携帯端末201は、タッチパネルディスプレイ232の他、制御部、記憶部、カメラ、スピーカ、通信I/F部を備える。
タッチパネルディスプレイ232は、例えば、液晶パネル等で構成される表示部としての機能と、使用者からの指等によるタッチ入力を検出する操作部としての機能とを有する。
タッチパネルディスプレイ232は、カメラで撮影した撮影画像を表示する。
図7(B)は、携帯端末201が、AR用プログラムを起動し、マーク261に対応する音楽を再生して音データを取得している状態で、カメラがマーク261を撮影した場合である。この場合には、タッチパネルディスプレイ232には、再生中の音楽及びマーク261に対応するアニメーションキャラクタの立体画像(映像コンテンツ)であるキャラクタ262が表示される。キャラクタ262は、マーク261の前面に重畳して配置される。キャラクタ262は、範囲263(特定位置)の中を動く。
タッチパネルディスプレイ232が透過性を有さないものであっても、カメラで撮影した撮影画像を表示し、その撮影画像にマーク261を含む場合には、マーク261に対応するキャラクタ262を、音楽の再生位置に同期して表示できる。しかも、キャラクタ262は、そのマーク261に対応する音楽の音データを取得している間であって、そのマーク261を撮影している間に表示できる。
(1)第1実施形態では、眼鏡1が透過型ディスプレイ32を備えるものとして説明したが、これに限定されない。第2実施形態の携帯端末201と同様に、カメラ31で撮影した撮影画像を背景として表示し、その前面にアニメーションキャラクタの立体映像を表示するものであってもよい。
(2)第1実施形態では、ステージの形状を、第2実施形態では、斧の図柄を、各々AR用コードとして説明したが、これに限定されない。例えば、アニメーションキャラクタの立体映像である場合に、AR用コードを、そのアニメーションキャラクタの輪郭の形状にしてもよい。そうすることで、AR用コードを映したら、そのAR用コードからアニメーションキャラクタの立体映像が浮き出て動作するという演出を行うことができる。
(3)第1実施形態では、眼鏡1がCDショップに常設されたものとして説明したが、これに限定されない。使用者が所有するものであってもよい。
(5)各実施形態では、音楽を再生して音データを取得するものとして説明したが、これに限定されない。例えば、マイク(集音部)を備え、外部の音を集音し、音を分析して音楽を特定する。音楽の特定は、例えば、音の波長から類似の音楽を特定できる。また、音に電子透かしが埋め込んである場合には、その電子透かしから音楽を特定できる。そうすることで、撮影した撮影画像が、特定した音楽の音データに対応するAR用コードを含む場合に、音楽及びAR用コードに対応する映像コンテンツを表示できる。よって、街中やCDショップ等で流れている音楽と、映像コンテンツとを、AR用コードを用いて連携させることができる。
(6)各実施形態では、映像コンテンツを各装置(眼鏡1、携帯端末201)の記憶部20等に予め記憶しているものとして説明したが、これに限定されない。例えば、映像コンテンツをコンテンツサーバ4から逐次受信することで取得してもよい。
(7)各実施形態では、カメラ31を1つ備えるものとして説明したが、これに限定されない。例えば、第1実施形態の眼鏡1において、透過型ディスプレイ32の両側に計2つ備えていてもよい。
4 コンテンツサーバ
10,40 制御部
11 音取得部
12 音制御部
13 対象判断部
14 コンテンツ取得部
15 表示制御部
20,45 記憶部
21a AR用プログラム
22 コンテンツデータ記憶部
31 カメラ
32 透過型ディスプレイ
33 スピーカ
61 ステージ
62,262 キャラクタ
100 映像コンテンツ処理システム
201 携帯端末
232 タッチパネルディスプレイ
261 マーク
Claims (8)
- 撮影部と、
映像コンテンツを表示可能な表示部と、
音データと、予め設定された現実の対象物の形状である認識対象物とを対応付けて記憶する記憶部と、
音データを取得する音取得部と、
前記撮影部が撮影した撮影画像に、前記音取得部が取得中の音データに対応する前記認識対象物を含むか否かを判断する対象判断部と、
前記撮影画像に前記認識対象物を含む間、前記認識対象物に対応付けられた映像コンテンツを、前記音データの再生位置に対応して同期させながら、前記認識対象物から特定される特定位置に重畳して、前記表示部に表示させる表示制御部と、
を備えること、
を特徴とする映像コンテンツ表示装置。 - 請求項1に記載の映像コンテンツ表示装置において、
前記認識対象物は、現実のステージの形状であること、
を特徴とする映像コンテンツ表示装置。 - 請求項1又は請求項2に記載の映像コンテンツ表示装置において、
前記記憶部は、一の前記認識対象物に対して複数の音データと、各音データに対応する映像コンテンツとを記憶し、
前記表示制御部は、前記撮影画像に前記認識対象物を含む間、前記認識対象物及び前記音データに対応付けられた映像コンテンツを、前記音データの再生位置に対応して同期させながら、前記認識対象物から特定される特定位置に重畳して、前記表示部に表示させること、
を特徴とする映像コンテンツ表示装置。 - 請求項1から請求項3までのいずれかに記載の映像コンテンツ表示装置において、
音データを出力する音出力部と、
前記特定位置と撮影位置との距離を算出し、前記認識対象物から特定される位置から音が発生しているように前記音出力部への前記音データの出力を制御する音制御部と、
を備えること、
を特徴とする映像コンテンツ表示装置。 - 請求項1から請求項4までのいずれかに記載の映像コンテンツ表示装置において、
前記映像コンテンツを記憶するコンテンツサーバに対して通信ネットワークを介して通信可能に接続されており、
前記表示制御部は、前記コンテンツサーバから予めダウンロードし、又は、逐次取得した前記映像コンテンツを表示させること、
を特徴とする映像コンテンツ表示装置。 - 請求項1から請求項5までのいずれかに記載の映像コンテンツ表示装置を備える眼鏡。
- 請求項1から請求項5までのいずれかに記載の映像コンテンツ表示装置と、
前記映像コンテンツ表示装置に対して通信ネットワークを介して通信可能に接続されたコンテンツサーバと、
を備え、
前記コンテンツサーバは、音データと、現実の対象物の形状である認識対象物と、前記映像コンテンツとを対応付けて記憶する記憶部を有し、
前記映像コンテンツ表示装置の前記記憶部は、前記コンテンツサーバからダウンロードした前記音データと、前記音データに対応する前記認識対象物とを記憶すること、
を特徴とする映像コンテンツ処理システム。 - 撮影部と、
映像コンテンツを表示可能な表示部と、
音データと、予め設定された現実の対象物の形状である認識対象物とを対応付けて記憶する記憶部と、
を備えるコンピュータの映像コンテンツ表示プログラムであって、
前記コンピュータを、
音データを取得する音取得手段と、
前記撮影部が撮影した撮影画像に、前記音取得手段が取得中の音データに対応する前記認識対象物を含むか否かを判断する対象判断手段と、
前記撮影画像に前記認識対象物を含む間、前記認識対象物に対応付けられた映像コンテンツを、前記音データの再生位置に対応して同期させながら、前記認識対象物から特定される特定位置に重畳して、前記表示部に表示させる表示制御手段と、
して機能させること、
を特徴とする映像コンテンツ表示プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013223253A JP6299145B2 (ja) | 2013-10-28 | 2013-10-28 | 映像コンテンツ表示装置、眼鏡、映像コンテンツ処理システム及び映像コンテンツ表示プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013223253A JP6299145B2 (ja) | 2013-10-28 | 2013-10-28 | 映像コンテンツ表示装置、眼鏡、映像コンテンツ処理システム及び映像コンテンツ表示プログラム |
Related Child Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018030333A Division JP6593477B2 (ja) | 2018-02-23 | 2018-02-23 | 映像コンテンツ表示装置、眼鏡、映像コンテンツ処理システム及び映像コンテンツ表示プログラム |
JP2018030332A Division JP2018142959A (ja) | 2018-02-23 | 2018-02-23 | コンテンツ表示装置、眼鏡、コンテンツ処理システム及びコンテンツ表示プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015087419A JP2015087419A (ja) | 2015-05-07 |
JP6299145B2 true JP6299145B2 (ja) | 2018-03-28 |
Family
ID=53050305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013223253A Active JP6299145B2 (ja) | 2013-10-28 | 2013-10-28 | 映像コンテンツ表示装置、眼鏡、映像コンテンツ処理システム及び映像コンテンツ表示プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6299145B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018141970A (ja) * | 2018-02-23 | 2018-09-13 | 大日本印刷株式会社 | 映像コンテンツ表示装置、眼鏡、映像コンテンツ処理システム及び映像コンテンツ表示プログラム |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7293991B2 (ja) * | 2019-08-28 | 2023-06-20 | 大日本印刷株式会社 | サーバ、再生デバイス、コンテンツ再生システム、コンテンツ再生方法、及びプログラム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ATE428154T1 (de) * | 2005-05-03 | 2009-04-15 | Seac02 S R L | Augmented-reality-system mit identifizierung der realen markierung des objekts |
JP5739674B2 (ja) * | 2010-09-27 | 2015-06-24 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法 |
JP5664215B2 (ja) * | 2010-12-21 | 2015-02-04 | 日本電気株式会社 | 拡張現実感表示システム、該システムに用いられる拡張現実感表示方法及び拡張現実感表示プログラム |
JP5953687B2 (ja) * | 2011-09-26 | 2016-07-20 | ヤマハ株式会社 | 情報処理装置及びプログラム |
JP6065370B2 (ja) * | 2012-02-03 | 2017-01-25 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
-
2013
- 2013-10-28 JP JP2013223253A patent/JP6299145B2/ja active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018141970A (ja) * | 2018-02-23 | 2018-09-13 | 大日本印刷株式会社 | 映像コンテンツ表示装置、眼鏡、映像コンテンツ処理システム及び映像コンテンツ表示プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2015087419A (ja) | 2015-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6332930B2 (ja) | ゲームシステム、サーバシステム及びプログラム | |
JP6593477B2 (ja) | 映像コンテンツ表示装置、眼鏡、映像コンテンツ処理システム及び映像コンテンツ表示プログラム | |
US20160045834A1 (en) | Overlay of avatar onto live environment for recording a video | |
CN107995482B (zh) | 视频文件的处理方法和装置 | |
WO2015025442A1 (ja) | 情報処理装置および情報処理方法 | |
KR20130056529A (ko) | 휴대용 단말기에서 증강현실 서비스를 제공하기 위한 장치 및 방법 | |
WO2021143574A1 (zh) | 增强现实眼镜、基于增强现实眼镜的ktv实现方法与介质 | |
JP7196834B2 (ja) | 画像処理装置および方法、並びにプログラム | |
US20190353904A1 (en) | Head mounted display system receiving three-dimensional push notification | |
KR102569032B1 (ko) | 전자 장치 및 그의 컨텐트 제공 방법 | |
WO2022095465A1 (zh) | 信息显示方法及装置 | |
KR101575725B1 (ko) | 복수의 항목들 중 한 항목의 선택을 가능하게 하기 위한 방법 및 디바이스 | |
CN112118397B (zh) | 一种视频合成的方法、相关装置、设备以及存储介质 | |
JP2018142959A (ja) | コンテンツ表示装置、眼鏡、コンテンツ処理システム及びコンテンツ表示プログラム | |
JP6299145B2 (ja) | 映像コンテンツ表示装置、眼鏡、映像コンテンツ処理システム及び映像コンテンツ表示プログラム | |
JP2021531520A (ja) | ウェアラブル制御機器、仮想・拡張現実システム及び制御方法 | |
JP2011128977A (ja) | 拡張現実感提供方法及び拡張現実感提供システム | |
CN112738624B (zh) | 用于视频的特效渲染的方法和装置 | |
JP7091073B2 (ja) | 電子機器及びその制御方法 | |
CN113727024A (zh) | 多媒体信息生成方法、装置、电子设备、存储介质和程序产品 | |
CN113473224A (zh) | 视频处理方法、装置、电子设备及计算机可读存储介质 | |
JP7070547B2 (ja) | 画像処理装置および方法、並びにプログラム | |
JP2010193062A (ja) | 映像及び楽曲再生プログラム、映像及び楽曲再生装置、並びに映像及び楽曲再生方法 | |
Letellier et al. | Providing adittional content to print media using augmented reality | |
JP2016137236A (ja) | 構築方法、プログラム、情報処理システム及び情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160829 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20160928 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170704 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170830 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180212 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6299145 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |