JP2014165841A - 情報処理装置及び情報処理方法 - Google Patents

情報処理装置及び情報処理方法 Download PDF

Info

Publication number
JP2014165841A
JP2014165841A JP2013037496A JP2013037496A JP2014165841A JP 2014165841 A JP2014165841 A JP 2014165841A JP 2013037496 A JP2013037496 A JP 2013037496A JP 2013037496 A JP2013037496 A JP 2013037496A JP 2014165841 A JP2014165841 A JP 2014165841A
Authority
JP
Japan
Prior art keywords
moving image
display range
display
camera work
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013037496A
Other languages
English (en)
Inventor
Kentaro Ushiyama
建太郎 牛山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2013037496A priority Critical patent/JP2014165841A/ja
Priority to PCT/JP2014/054650 priority patent/WO2014132987A1/ja
Priority to EP14757655.7A priority patent/EP2963931A1/en
Publication of JP2014165841A publication Critical patent/JP2014165841A/ja
Priority to US14/836,362 priority patent/US20150364159A1/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4668Learning process for intelligent management, e.g. learning user preferences for recommending movies for recommending content, e.g. movies
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3081Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is a video-frame or a video-field (P.I.P)
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B31/00Arrangements for the associated working of recording or reproducing apparatus with related apparatus
    • G11B31/006Arrangements for the associated working of recording or reproducing apparatus with related apparatus with video camera or receiver

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】ユーザに対して推奨する適切なカメラワークを決定することが可能な情報処理装置及び情報処理方法を提供する。
【解決手段】情報処理装置は、動画を構成する画像フレーム内で、表示手段により表示される表示範囲が、動画の再生位置に応じて変化可能な動画の表示範囲を再生位置ごとに示す疑似カメラワークデータを複数記憶する記憶装置に記憶された複数の疑似カメラワークデータそれぞれが示す表示範囲に基づいて、動画の再生位置の前記画像フレームにおける1以上の画素から構成される領域ごとに表示回数を決定する。そして、情報処理装置は、動画の再生位置の画像フレームにおける部分領域ごとに決定された表示回数の中で、表示回数が多い上位の部分領域を含む表示範囲を示す疑似カメラワークデータを、端末装置へ提供する疑似カメラワークデータとして決定する。
【選択図】図14

Description

本発明は、動画を表示させる端末装置の技術分野に関する。
従来、インターネットを介してサーバにアップロードされた動画データを、端末装置からの配信要求に応じてストリーミング配信する動画投稿サイトが知られている。動画投稿サイトからストリーミング配信された動画データは、例えば、端末装置のブラウザのウインドウ画面に表示される。このとき、ウインドウ画面には、ストリーミング配信された動画データに関連する動画データ中の代表となる静止画が表示される場合がある。この静止画により、ストリーミング配信された動画データに関連する動画データを端末装置のユーザに推奨することができる。
一方、特許文献1には、動画データの特定のシーンを他のユーザに推奨するために、ユーザが動画データの再生位置などを示す編集データを他のユーザへメールで配信するシステムが開示されている。これにより、編集データを作成したユーザは、迅速に他のユーザに動画データ中の特定のシーンを見せることができる。
特開2009−124516号公報
ところで、例えばパノラマ動画などの動画に対して疑似的なカメラワークがユーザにより行われる場合がある。疑似的なカメラワークでは、例えば、仮想的なカメラの向きや視界の広さなどを操作部から指示することで、動画を構成する複数の画像フレームにおける表示範囲が指定される。近年、疑似的なカメラワークを示すカメラワークデータをサーバにアップロードして他のユーザに提供したいというニーズがある。この場合、例えば端末装置で表示中の動画に対して他のユーザにより行われた疑似的なカメラワークを端末装置のユーザに推奨することが想定される。しかしながら、疑似的なカメラワークは、動画を構成する複数の画像フレームにおける時系列的な表示範囲の動きに特徴がある。そのため、従来のように静止画によって、疑似的なカメラワークの特徴をユーザに分かり易く伝えることは困難である。また、疑似的なカメラワークの特徴は、特許文献1に開示された技術を適用した場合であっても、ユーザに分かり易く伝えることは困難である。さらに、例えば、複数のユーザそれぞれにより行われた疑似的なカメラワークを示すカメラワークデータをサーバにアップロードされることが想定される。この場合、それぞれのカメラワークデータに対応する疑似的なカメラワークの中から、ユーザに対して推奨する適切なカメラワークを決める手法は知られていなかった。
本発明は、以上の点に鑑みてなされたものであり、ユーザに対して推奨する適切なカメラワークを決定することが可能な情報処理装置及び情報処理方法を提供する。
上記課題を解決するために、請求項1に記載の発明は、動画を構成する画像フレーム内で、表示手段により表示される表示範囲が、動画の再生位置に応じて変化可能な動画の表示範囲を再生位置ごとに示す表示範囲情報を複数記憶する記憶装置に記憶された複数の前記表示範囲情報それぞれが示す表示範囲に基づいて、動画の再生位置の前記画像フレームにおける1以上の画素から構成される領域ごとに表示回数を決定する第1決定手段と、前記第1決定手段により決定された前記表示回数の中で、動画の再生位置ごとに、前記表示回数が多い上位の領域を含む表示範囲を示す表示範囲情報を、端末装置へ提供する表示範囲情報として決定する第2決定手段と、を備えることを特徴とする。
請求項2に記載の発明は、請求項1に記載の情報処理装置において、前記取得手段により取得された前記表示範囲情報が示す表示範囲に含まれる前記領域ごとに決定された複数の前記表示回数を平均して平均表示回数を再生位置ごとに決定する第3決定手段を更に備え、前記第2決定手段は、前記第3決定手段により決定された前記平均表示回数が多い上位の前記表示範囲を示す表示範囲情報を、前記端末装置へ提供する表示範囲情報として前記記憶装置に記憶された複数の前記表示範囲情報の中から決定することを特徴とする。
請求項3に記載の発明は、請求項1または2に記載の情報処理装置において、前記情報処理装置は、前記第1決定手段により決定された前記表示回数を再生位置ごと且つ前記領域ごとに登録するテーブルを作成する作成手段と、前記作成手段により作成されたテーブルに基づいて、前記記憶装置に記憶された前記複数の表示範囲情報ごとに、前記複数の表示範囲情報が示す表示範囲それぞれに含まれる領域ごとの表示回数の総和を算出する算出手段と、前記記憶装置に記憶された前記複数の表示範囲情報ごとに、前記算出手段により算出された前記表示回数の総和を前記表示範囲情報が示す表示範囲に含まれる領域の数で割った値を、注目度として決定する第4決定手段と、を更に備え、前記第2決定手段は、前記第4決定手段により決定された前記注目度が高い上位の前記表示範囲情報を、前記端末装置へ提供する表示範囲情報として前記記憶装置に記憶された複数の前記表示範囲情報の中から決定することを特徴とする。
請求項4に記載の発明は、請求項1に記載の情報処理装置において、前記決定手段は、前記第1決定手段により決定された前記表示回数が最も多い前記領域を中心とするか又は前記表示回数が多い上位の複数の前記領域の重心を中心とする表示範囲を再生位置ごとに決定し、決定した前記表示範囲を前記再生位置ごとに示す表示範囲情報を前記端末装置へ提供する表示範囲情報として決定することを特徴とする。
請求項5に記載の発明は、請求項1乃至4の何れか一項に記載の情報処理装置において、前記第2決定手段は、前記端末装置の表示手段のメイン画面に表示された第1の動画と同一の動画に対応し且つ前記表示手段のサブ画面に表示される第2の動画であって、前記メイン画面に表示される候補となる前記第2の動画の表示範囲を示す表示範囲情報として、前記表示回数が多い上位の領域を含む表示範囲を示す表示範囲情報を決定することを特徴とする。
請求項6に記載の発明は、コンピュータにより行われる情報処理方法であって、動画を構成する画像フレーム内で、表示手段により表示される表示範囲が、動画の再生位置に応じて変化可能な動画の表示範囲を再生位置ごとに示す表示範囲情報を複数記憶する記憶装置に記憶された複数の前記表示範囲情報それぞれが示す表示範囲に基づいて、動画の再生位置の前記画像フレームにおける1以上の画素から構成される領域ごとに表示回数を決定する第1決定ステップと、前記第1決定ステップにより決定された前記表示回数の中で、動画の再生位置ごとに、前記表示回数が多い上位の領域を含む表示範囲を示す表示範囲情報を、端末装置へ提供する表示範囲情報として決定する第2決定ステップと、を含むことを特徴とする。
請求項1、6に記載の発明によれば、情報提供装置は、動画の再生位置の前記画像フレームにおける1以上の画素から構成される領域ごとに決定された表示回数の中で、前記表示回数が多い上位の領域を含む表示範囲を示す表示範囲情報を、端末装置へ提供する表示範囲情報として決定するように構成した。そのため、注目度が高い領域を含む表示範囲を示す表示範囲情報を、ユーザに対して推奨する適切な表示範囲情報として決定することができる。
請求項2に記載の発明によれば、注目度が高い領域で占める割合が大きい表示範囲を示す表示範囲情報を、ユーザに対して推奨する適切な表示範囲情報として決定することができる。
請求項3に記載の発明によれば、注目度が高い領域を含む表示範囲を示す表示範囲情報が多くあっても、その中でより注目度が高い上位の表示範囲情報を、ユーザに対して推奨する適切な表示範囲情報として決定することができる。
請求項4に記載の発明によれば、記憶装置に記憶された複数の表示範囲情報を利用して、注目度が高い領域を含む表示範囲を示す表示範囲情報を自動的に生成して、生成された表示範囲情報を、ユーザに対して推奨する適切な表示範囲情報として決定することができる。
請求項5に記載の発明によれば、注目度が高い領域を含む表示範囲を示す表示範囲情報に従って表示される動画を、メイン画面に表示される候補としてサブ画面でユーザへ推奨することができる。
本実施形態の通信システムSの概要構成例を示す図である。 各レイヤの動画を構成する1画像フレームを示す図である。 (A),(B)は、1画像フレームFにおけるピクセルごとの表示回数を表した概念図である。(C)は、(B)に示す表示範囲R5〜R9を、動画を構成する複数の画像フレームFにおいて表した概念図である。 (A)は、3次元動画空間を、複数の動画ブロックに分けた例を示す概念図である。(B)は、(A)に示す動画ブロックごとの表示回数を登録する表示回数テーブルの一例を示す図である。(C)は、カメラワークデータごとの注目度を登録する注目度データベースの一例を示す図である。 メイン画面及びサブ画面の一例を示す図である。 (A)〜(C)は、仮想スクリーンの例と、仮想スクリーンに対する表示範囲の例とを示す図である。 (A)〜(C)は、制御部21により生成されたカメラワークデータの一例である。 クライアント2の制御部21におけるメイン処理を示すフローチャートである。 (A)は、クライアント2の制御部21におけるダウンロード処理を示すフローチャートである。(B)は、データ群優先順決定処理により生成された取得対象リストの内容の一例を示す図である。 クライアント2の制御部21におけるデータ群優先順決定処理を示すフローチャートである。 (A)は、レイヤ1の画像フレームにおける描画領域を示す図である。(B)は、レイヤ2の分割画像フレームにおける描画領域を示す図である。(C),(D)は、レイヤ1及びレイヤ2にける動画ストリームにおいて、取得対象候補となる動画データ群が決定される様子を示す図である。 クライアント2の制御部21における再生処理を示すフローチャートである。 (A),(B)は、クライアント2の制御部21における画面描画処理を示すフローチャートである。 (A)は、配信サーバ1の制御部11におけるワークファイル登録処理を示すフローチャートである。(B)は、配信サーバ1の制御部11におけるカメラワークデータ要求受信処理を示すフローチャートである。 (A)は、動画を構成する1画像フレームにおける部分領域をピクセルとした場合の表示範囲を示す図である。(B)は、動画を構成する1画像フレームにおける部分領域を動画ブロックとした場合の表示範囲を示す図である。(C)は、5秒間隔ごとに決定された表示範囲R31〜R33の間が連続的に変化するように補完された例を示す概念図である。 (A)は、配信サーバ1の制御部11におけるカメラワークデータの自動生成処理を示すフローチャートである。(B)は、カメラワークデータの自動生成処理の他の例を示すフローチャートである。 カメラワークデータの自動生成処理の他の例を示す概念図である。
以下、本発明の実施形態を図面に基づいて説明する。
[1.通信システムSの構成及び動作概要]
始めに、図1等を参照して、本実施形態の通信システムの構成及び動作概要について説明する。図1は、本実施形態の通信システムSの概要構成例を示す図である。図1に示すように、通信システムSは、配信サーバ1、及び複数のクライアント2を含んで構成される。配信サーバ1は、本発明の情報処理装置の一例である。クライアント2は、本発明の端末装置の一例である。また、配信サーバ1とクライアント2とはネットワークNWを介して通信可能になっている。ネットワークNWは、例えば、インターネット等により構成される。
配信サーバ1は、例えばクライアント2からのコンテンツ、またはコンテンツのカメラワークデータのアップロードを受け付ける。配信サーバ1は、例えばクライアント2からのコンテンツ要求に応じて、コンテンツをクライアント2へ送信する。コンテンツは、動画データを含む。動画データは、動画を構成する画像フレーム内で、表示手段により表示される表示範囲が、動画の再生位置に応じて変化可能な動画を表すデータである。このような動画には、例えばパノラマ動画がある。パノラマ動画は、例えば高解像度のカメラで、且つ広範囲を撮影可能なレンズを搭載するカメラにより被写体が撮影された動画である。広範囲を撮影可能なレンズには、ワイドレンズ、魚眼レンズ、360レンズ等がある。再生位置とは、動画データの再生開始からの経過時間である。なお、コンテンツは、音声データを含んでもよい。コンテンツの送信は、例えば、ネットワークNWを介してストリーミング配信により行われる。クライアント2は、配信サーバ1からストリーミング配信されたコンテンツを受信する。
また、配信サーバ1は、例えばクライアント2からカメラワークデータのリクエストに応じて、コンテンツのカメラワークデータをクライアント2へ送信する。カメラワークデータは、動画を構成する画像フレーム内で表示手段により表示される表示範囲を再生位置ごとに示す表示範囲情報の一例である。この表示範囲は、1画像フレームのうち表示手段の画面に描画される描画領域に相当する。言い換えれば、表示範囲は、画像フレームで画定される撮影範囲から切り出される範囲である。このような表示範囲は、例えば、疑似的なカメラワーク(以下、「疑似カメラワーク」という)により指定される。例えば、動画を構成する画像フレームが三次元仮想空間に配置された仮想スクリーンに投影されるものとし、三次元仮想空間において動画を見る人物が存在すると仮定する。疑似カメラワークとは、例えば仮想スクリーンに投影された動画を見る人物の視点位置、視線方向、及び視野面積の少なくともいずれか一つを決めることをいう。言い換えれば、疑似カメラワークとは、仮想カメラの向きや視界の広さなどを決めることをいう。ここで、仮想カメラは、動画を構成する画像フレーム内の描画領域を決定する仮想的なカメラをいう。上記カメラワークデータ(以下、「疑似カメラワークデータ」という)により疑似カメラワークを再現することができる。1つの疑似カメラワークデータは、例えば、動画データの再生開始からの再生終了までの再生時間に含まれる全ての画像フレームにおける表示範囲が示されるとは限らない。つまり、1つの疑似カメラワークデータは、再生時間における一部の時間範囲に含まれる画像フレームにおける表示範囲が示される場合もある。クライアント2は、例えば、ストリーミングでコンテンツを受信しながら、取得された疑似カメラワークデータが示す表示範囲に従って、動画を表示させる。
配信サーバ1は、記憶装置3と接続可能になっている。記憶装置3は、例えばハードディスクドライブ(HDD)により構成される。記憶装置3は、配信サーバ1に備えられる。或いは、記憶装置3は、配信サーバ1とは異なるサーバに備えられてもよい。記憶装置3は、クライアント2からの要求に応じて、クライアント2へ送信されるWebページのデータが記憶される。さらに、記憶装置3には、動画データ記憶領域31a、音声データ記憶領域31b、ワークファイル記憶領域31c、及び注目度記憶領域31dが設けられている。
動画データ記憶領域31aには、複数の動画データが記憶される。動画データ記憶領域31aに記憶された動画データは、配信サーバ1にアクセス可能な複数のクライアント2間で共有することができる。音声データ記憶領域31bには、複数の音声データが記憶される。音声データ記憶領域31bに記憶された音声データは、配信サーバ1にアクセス可能な複数のクライアント間で共有することができる。
動画データ記憶領域31aに記憶された動画データは、複数のカメラにより同じ被写体が別の視点から同期して撮影された複数の動画データであってもよい。また、動画データは、複数のカメラにより異なる被写体が同期して撮影された複数の動画データであってもよい。この複数の動画データの例としては、例えば、舞台で歌唱する人物が撮影された動画データと、この舞台の裏で待機する人物が撮影された動画データと、が挙げられる。また、動画データは、解像度の異なる複数の動画データであってもよい。この場合、1つの動画データから、例えば、低解像度の動画データ、中解像度の動画データ、及び高解像度の動画データが生成される。低解像度の動画データにより低解像度の動画が再生される。中解像度の動画データにより中解像度の動画が再生される。高解像度の動画データにより高解像度の動画が再生される。ここで、低解像度の動画をレイヤ1の動画という。中解像度の動画をレイヤ2の動画という。高解像度の動画をレイヤ3の動画いう。本実施形態では、レイヤ1からレイヤ3までの3つのレイヤを例にとっているが、これに限定されるものではない。また、例えばレイヤ2の動画を構成する各画像フレームと、レイヤ3の動画を構成する各画像フレームは、それぞれ、1画像フレーム全体が複数に分割されるようになっている。
図2は、各レイヤの動画を構成する1画像フレームを示す図である。図2の例では、レイヤ1の1画像フレームあたりのピクセル数は、1M(メガ)ピクセルである。また、レイヤ2の1画像フレームあたりのピクセル数は、4Mピクセルである。また、レイヤ3の1画像フレームあたりのピクセル数は、16Mピクセルである。そして、図2の例では、レイヤ2の画像フレームは4等分に分割されている。つまり、レイヤ2の1画像フレームから、パート1から4までの4つの画像フレームが得られる。このように分割された画像フレームを、「分割画像フレーム」という。一方、レイヤ3の1画像フレームは16等分に分割されている。このように分割された1分割画像フレームあたりのピクセル数は、1Mピクセルである。つまり、図2の例では、レイヤ2及びレイヤ3それぞれの分割画像フレームのピクセル数は、レイヤ1の画像フレームのピクセル数と同一となる。また、画像フレームの分割は、動画を構成する複数の画像フレームで、且つ動画の再生位置が互いに異なる複数の画像フレームごとに行われる。そして、上述したパートごとに、複数の分割画像フレームが纏められて動画データが生成される。この動画データを、「分割動画データ」という。図2の例では、レイヤ2の動画の分割動画データは4つ生成される。つまり、レイヤ2の動画の動画データは、4つの分割動画データから構成される。一方、レイヤ3の動画の分割動画データは16つ生成される。このように生成された分割動画データは、例えば、それぞれMPEG等の所定の圧縮形式で圧縮される。一方、図2に示すレイヤ1では、画像フレームが分割されていない動画データが、所定の圧縮方式で圧縮される。なお、レイヤ1の動画の画像フレームについても、分割されるように構成してもよい。また、図2の例では、画像フレームが格子状に分割されるように構成したが、その他の形状に分割されてもよい。また、図2の例では、同じレイヤにおける各画像フレーム全体の面積が均等になるように分割されているが、不均等になるように分割されてもよい。なお、上述したパートごとの動画データの生成は、配信サーバ1により生成されてもよいし、配信サーバ1とは異なるサーバにより生成されてもよい。
次に、ワークファイル記憶領域31cには、ワークファイルがコンテンツごとに対応付けられて記憶される。ワークファイルには、例えば、コンテンツのタイトル、疑似カメラワークの特徴を示す情報、及び疑似カメラワークデータ等が格納される。ワークファイルには、例えば、このワークファイルを識別するワークIDが付与される。疑似カメラワークの特徴を示す情報には、例えば疑似カメラワークにより画面に表示される被写体やシーンの名称や説明文等が含まれる。コンテンツのタイトル及び疑似カメラワークの特徴を示す情報は、疑似カメラワークデータの検索に用いられる。ここで、シーンとは、動画上のある動作の一区切りとなる範囲を示す。このようなシーンには、例えば、歌手が歌唱するシーン、俳優が演じるシーン、又はイベントの様子を映し出すシーンなどがある。なお、ワークファイルには、コンテンツを識別するコンテンツIDが含まれてもよい。ワークファイル記憶領域31cに記憶されるワークファイルには、例えば、クライアント2からアップロードされたワークファイルも含まれる。1つのコンテンツには、複数のワークファイルが対応付けられる場合もある。例えば、あるコンテンツに対して、複数のユーザそれぞれにより行われた疑似カメラワークにより指定された表示範囲を示す疑似カメラワークデータが対応付けられる。
次に、注目度記憶領域31dには、表示回数テーブル及び注目度データベースがコンテンツごとに対応付けられて記憶される。表示回数テーブルは、動画を構成する画像フレームにおける部分領域ごとの表示回数を再生位置ごとに登録するテーブルである。部分領域とは、画像フレームにおける1以上のピクセル(画素)から構成される領域である。部分領域は、動画の再生位置と、この再生位置における画像フレーム上の位置とによって決定される。表示回数は、例えば、ユーザの関心の度合いを示す数値である。表示回数が高い部分領域を含むシーンほど、多くのユーザが関心を示していると考えられる。表示回数が高い部分領域は、ユーザによる疑似的なカメラワークによって、よく表示される領域である。
図3(A),(B)は、1画像フレームFにおけるピクセルごとの表示回数を表した概念図である。図3(A),(B)における画像フレームF上に表される数値が表示回数を示す。1画像フレームFにおいて1つの疑似カメラワークデータが示す表示範囲R1の表示回数は、図3(A)に示すように、「1」である。そして、例えばワークファイル記憶領域31cに記憶された複数の疑似カメラワークデータそれぞれが示す表示範囲R5〜R9が重なった場合、図3(B)に示すように、重なったピクセルの表示回数が合計される。つまり、複数の疑似カメラワークデータそれぞれが示す表示範囲に基づいて、ピクセルごとに表示回数が決定される。図3(C)は、図3(B)に示す表示範囲R5〜R9を、動画を構成する複数の画像フレームFにおいて表した概念図である。動画を構成する複数の画像フレームFで考えた場合、表示回数は、立体の中の密度分布のようなイメージとなる。図3(C)の例では、動画全体での表示回数が直方体の集合のようになっている。しかし、疑似カメラワークにより、画像フレームFにおける表示範囲が動画の再生に従って、変動する場合は、直方体ではなく複雑な形となる。図3の例では、1つの部分領域を1ピクセルとした場合の例を示した。しかし、1ピクセルごとでは計算量が大きくなる。そのため、動画を、「縦ピクセル(複数ピクセル)H×横ピクセル(複数ピクセル)W×再生時間(複数フレーム)T」の立体的なブロックに分けて、ブロックごとに表示回数を集計することが望ましい。このようなブロックを、以下、「動画ブロック」という。図4(A)は、3次元動画空間を、複数の動画ブロックに分けた例を示す概念図である。図4(A)の例では、各動画ブロックには、それぞれ、固有のブロック番号(m,n)が付与されている。各動画ブロックには、それぞれ、動画を構成する画像フレームF上の座標位置、及び再生位置が対応付けられている。図4(B)は、図4(A)に示す動画ブロックごとの表示回数を登録する表示回数テーブルの一例を示す図である。図4(B)に示す表示回数テーブルには、動画ブロックごとに決定された表示回数が登録されている。
一方、注目度データベースは、疑似カメラワークデータの注目度を登録するデータベースである。注目度データベースは、クライアント2へ送信する候補となる疑似カメラワークデータの決定に用いられる。疑似カメラワークデータの注目度は、例えば、疑似カメラワークデータが示す表示範囲に含まれる上記部分領域の表示回数で表すことができる。そのため、動画の再生位置ごとに、表示回数が多い上位の領域を含む表示範囲を示す疑似カメラワークデータを、クライアント2へ提供する疑似カメラワークデータとして決定することができる。しかし、注目度が高い疑似カメラワークとは、注目度が高いシーンを含んでいて、且つ注目度が低い(図3(B)の例では、1)シーンをあまり含んでいないカメラワークということができる。そのため、疑似カメラワークデータの注目度は、疑似カメラワークデータが示す表示範囲に含まれる上記部分領域ごとに決定された表示回数を平均した平均表示回数として定義される。例えば、図3(B)において、表示範囲R5は、表示回数が高い(この例では、3)部分領域を含んでいて、且つ表示回数が低い(この例では、1)部分領域を含んでいない。一方、例えば、図3(B)において、表示範囲R6は、表示回数が高い部分領域を含んでいるが、表示回数が低い部分領域も含んでいる。そのため、表示範囲R5における平均表示回数は、表示範囲R6における平均表示回数より高くなる。言い換えれば、表示範囲R5は、表示範囲R6よりも、注目度が高い部分領域が占める割合が大きい。
図4(C)は、疑似カメラワークデータごとの注目度を登録する注目度データベースの一例を示す図である。図4(C)に示す注目度データベースには、疑似カメラワークデータごとの注目度が、動画の再生開始から30秒間隔ごとに登録されている。ここで、1つの疑似カメラワークが、動画の再生時間全体にわたって注目度の高いシーンを追い続けるとは考えにくい。そのため、疑似カメラワークに対応する疑似カメラワークデータは、図4(C)に示すように所定時間間隔で分割して注目度が決定される。例えば、図4(C)において、ワークIDが「AAA」である疑似カメラワークデータの「0秒以上30秒未満」における注目度は「35」となっている。この注目度は、例えば、図4(B)に示す表示回数テーブルに基づいて決定されたものである。例えば、ワークIDが「AAA」である疑似カメラワークデータが示す表示範囲に含まれる動画ブロックが、例えば、0秒、5秒、10秒、15秒・・・の再生位置ごとに特定される。そして、特定された各動画ブロックの表示回数の総和が算出され、この総和が上記特定された動画ブロックの数で割られることにより、上記注目度「35」が決定されることになる。つまり、ワークファイル記憶領域31cに記憶された複数の疑似カメラワークデータごとに、各動画ブロックの表示回数の総和を、疑似カメラワークデータが示す表示範囲に含まれる動画ブロックの数で割った値が、それぞれの疑似カメラワークデータの注目度として決定される。なお、表示回数テーブル及び注目度データベースは、配信サーバ1により作成されてもよいし、配信サーバ1とは異なるサーバにより作成されてもよい。
そして、配信サーバ1は、図1に示すように、制御部11及びインターフェース部12を備えて構成される。制御部11は、コンピュータとしてのCPU、ROM、及びRAM等により構成される。制御部11は、本発明の第1決定手段、第2決定手段、第3決定手段、作成手段、及び第4決定手段の一例である。制御部11は、コンテンツの送信又は受信制御、及び疑似カメラワークデータの送信又は受信制御等を行う。制御部11は、上述したストリーミング配信において、例えば、動画データに基づき動画ストリームを動画データごとに生成する。動画ストリームは、複数の動画データ群から構成される。動画データ群は、動画データの先頭位置から終了位置までが所定の時間単位で区切られたデータである。各動画データ群には、1又は複数の画像フレームFが含まれる。また、コンテンツに音声データが含まれる場合、配信サーバ1は、音声データに基づき音声ストリームを音声データごとに生成する。音声ストリームは、複数の音声データ群から構成される。音声データ群は、音声データの先頭位置から終了位置までが所定の時間単位で区切られたデータである。そして、配信サーバ1は、生成した動画ストリームに含まれる動画データ群を順次、クライアント2へ送信する。また、配信サーバ1は、生成した音声ストリームに含まれる音声データ群を順次、クライアント2へ送信する。また、制御部11は、クライアント2から、疑似カメラワークデータのリクエストを受信したとき、リクエストに基づいて、クライアント2へ返信する疑似カメラワークデータを決定する。なお、疑似カメラワークデータの決定方法については後述する。
次に、クライアント2は、図1に示すように、制御部21、記憶部22、ビデオRAM23、映像制御部24、操作処理部25、音声制御部26、インターフェース部27、及びバス28等を備えて構成される。これらの構成要素は、バス28に接続されている。映像制御部24には、ディスプレイを備える表示部24aが接続される。ディスプレイは、表示手段の一例である。操作処理部25には、操作部25aが接続される。操作部25aには、例えば、マウス、キーボード、リモコン等がある。表示部24aと操作部25aとを兼ねるタッチパネルが適用されてもよい。制御部21は、ユーザによる操作部25aからの操作指示を、操作処理部25を介して受け付ける。ユーザは、操作部25aを用いて、上述した疑似カメラワークの操作を行うことができる。音声制御部26には、スピーカ26aが接続される。インターフェース部27は、ネットワークNWに接続される。
制御部21は、コンピュータとしてのCPU、ROM、及びRAM等により構成される。制御部21は、タイマー機能を備える。記憶部22は、例えば、例えばハードディスクドライブ(HDD)により構成される。記憶部22には、OS(Operating System)、及びプレイヤーソフトウェア等が記憶されている。プレイヤーソフトウェアは、コンテンツを再生するためのプログラムである。プレイヤーソフトウェアには、本発明のプログラムが含まれる。なお、プレイヤーソフトウェアは、例えば、ネットワークNWに接続された所定のサーバからダウンロードされるようにしてもよい。或いは、プレイヤーソフトウェアは、例えば、記録媒体に記録されて記録媒体のドライブを介して読み込まれるようにしてもよい。
制御部21は、プレイヤーソフトウェアを実行することでコンテンツを再生するプレイヤーとして機能する。制御部21はプレイヤーの機能により、配信サーバ1からストリーミング配信されたコンテンツを順次取得し、コンテンツを再生させる。プレイヤーの機能により、ディスプレイには、メイン画面及びサブ画面が表示される。メイン画面及びサブ画面には、動画が表示される。メイン画面に表示される動画は、第1の動画の一例である。一方、サブ画面に表示される動画は、第1の動画と同一の動画に対応する第2の動画であって、メイン画面に表示される候補となる第2の動画の一例である。第1の動画の動画データと第2の動画の動画データとは同一であってもよいし、異なってもよい。サブ画面は、例えば、サムネイル画面として複数表示されることが望ましい。図5は、メイン画面及びサブ画面の一例を示す図である。図5の例では、1つのメイン画面MVと、5つのサブ画面SV1〜SV5とが表示されている。サブ画面の数は、例えば、ディスプレイの面積に応じて設定される。また、図5の例では、メイン画面MVに表示される動画の動画データと、サブ画面SV1〜SV5とに表示される動画の動画データは同一である。つまり、同一の動画データの再生により表示される動画である。また、図5の例では、2つのソース画面SoV1,SoV2が表示されている。ソース画面SoV1,SoV2には、それぞれの動画を構成する画像フレームF全体が表示される。ソース画面SoV1に表示中の動画と、ソース画面SoV2に表示中の動画は、例えば、異なるカメラにより異なる位置から撮影されたものである。図5の例では、ソース画面SoV1に表示中の動画の動画データが選択されている。そのため、メイン画面MV及びサブ画面SV1〜SV5に表示中の動画の動画データは、ソース画面SoV1に表示中の動画の動画データになっている。動画の動画データは、例えばユーザからの動画データの選択指示に応じて、制御部21により切換可能になっている。
そして、サブ画面SV1〜SV5には、互いに異なる疑似カメラワークデータに従って、動画が表示される。そのため、動画に対して他のユーザにより行われた疑似カメラワークの特徴を、それぞれの疑似カメラワークデータに従って、サブ画面SV1〜SV5に表示される動画により、クライアント2のユーザに、より分かり易く伝えることができる。また、サブ画面SV1〜SV5に表示されている動画の再生位置は同一になっている。つまり、サブ画面SV1〜SV5に表示されている画像フレームFは同一であるが、この画像フレームFにおける表示範囲が互いに異なっている。これは、例えば仮想カメラの向きや視界の広さなどが異なることを意味する。そして、図5の例では、サブ画面SV1〜SV5の中で、サブ画面SV1に表示中の動画が選択されており、選択された動画がメイン画面MVにも表示されている。なお、ソース画面SoV1に示す表示枠100内の表示範囲の動画がサブ画面SV1及びメイン画面MVに表示されるようになっている。
制御部21は、サブ画面SV2〜SV5に表示中の何れかの動画の選択指示に応じて、メイン画面MVに表示中の動画を、選択指示された動画に切換表示させる。これにより、サブ画面SV2〜SV5に表示中の動画の選択指示に応じて、選択指示された動画に対する疑似カメラワークを、より分り易くユーザに伝えることができる。なお、サブ画面SV1〜SV5に表示される動画の動画データが異なるように構成してもよい。例えば、サブ画面SV1〜SV3に表示される動画の動画データは、ソース画面SoV1に表示される動画の動画データが適用される。一方、サブ画面SV4,SV5に表示される動画の動画データは、ソース画面SoV2に表示される動画の動画データが適用される。この場合において、例えばサブ画面SV1に表示中の動画が選択されている状態で、例えばサブ画面SV4に表示中の動画の選択指示がなされたとする。すると、メイン画面MVに表示される動画の動画データが、ソース画面SoV1に表示中の動画の動画データから、ソース画面SoV2に表示中の動画の動画データに切換えられることになる。
なお、図5の例では、1つのメイン画面がディスプレイに表示される構成を示した。しかし、複数のメイン画面がディスプレイに表示されるように構成してもよい。
制御部21におけるRAMにはバッファメモリが設けられている。バッファメモリには、例えば配信サーバ1からストリーミング配信されたコンテンツに含まれる動画データ等が一時的に保持される。また、バッファメモリには、例えば配信サーバ1から配信された疑似カメラワークデータが一時的に保持される。制御部21は、バッファメモリからビデオRAM23へ動画データを出力する。ビデオRAM23には、メイン画面MV、サブ画面SV1〜SV5、及びソース画面SoV1,SoV2の描画結果を格納するフレームバッファがRAMに設けられている。例えば、メイン画面MV、及びサブ画面SV1〜SV5のそれぞれに対応するフレームバッファの描画領域には、動画データにより再生される動画を構成する画像フレームFにおいて、それぞれの疑似カメラワークデータが示す表示範囲に対応する部分の画像データが書き込まれる。また、ソース画面SoV1,SoV2のそれぞれに対応するフレームバッファの描画領域には、動画データにより再生される動画を構成する画像フレームFに対応する画像データが書き込まれる。映像制御部24は、制御部21からの制御信号に従って、フレームバッファに書き込まれた画像データを、描画することで表示させる。つまり、制御部21は、ストリーミングで動画データを受信しながら、取得した疑似カメラワークデータが示す表示範囲に従って、メイン画面MV、サブ画面SV1〜SV5、及びソース画面SoV1,SoV2に動画を表示させる。なお、メイン画面MVには、疑似カメラワークデータが示す表示範囲に従って動画が表示される代わりに、ユーザの疑似カメラワークに応じた表示範囲に従って、動画が表示される場合もある。また、メイン画面MVに動画が表示されているとき、サブ画面SV1〜SV5には、それぞれの疑似カメラワークデータが示す表示範囲に従って動画が表示される代わりに、それぞれの疑似カメラワークデータが示す表示範囲の画像(静止画)が表示されるように構成してもよい。また、例えば配信サーバ1からバッファメモリに保持されたコンテンツに音声データが含まれる場合がある。この場合、制御部21は、バッファメモリから音声データを再生して音声制御部26へ出力する。音声制御部26は、音声データからアナログ音声信号を生成し、生成したアナログ音声信号をスピーカ26aへ出力する。
また、制御部21は、ユーザの疑似カメラワークの操作により、メイン画面MVに表示中の動画を構成する画像フレームFにおける一部分の表示範囲の指示を受け付ける。例えば、制御部21は、メイン画面MVに表示中の動画を構成する画像フレームFにおいて表示される表示範囲の変更指示を受け付ける。制御部21は、この変更指示に応じて、メイン画面MVに表示される表示範囲を変更表示する。言い換えれば、ユーザは、疑似カメラワークの操作により、視点位置、視線方向及び視野面積のうち少なくとも何れか1つを変更することで、メイン画面MVに表示中の動画の表示範囲を変更させることができる。例えば、動画を構成する画像フレームFが三次元仮想空間に配置された仮想スクリーンに投影されるものとし、三次元仮想空間において動画を見る人物が存在すると仮定する。視点位置は、その人物が動画を見ている位置である。視線方向は、その人物の動画に対する視線の方向である。視野面積は、例えば、三次元仮想空間に配置された仮想スクリーン上において、その人物の視野の範囲にある領域の面積である。なお、視野面積は、その人物の視野の範囲としてもよい。そして、疑似カメラワークの操作により、仮想スクリーン上において、動画の表示範囲が決定される。つまり、仮想スクリーンから、表示範囲として決定された範囲の画像が切り出され、切り出された画像がメイン画面MVに表示される。
図6(A)〜(C)は、仮想スクリーンの例と、仮想スクリーンに対する表示範囲の例とを示す図である。図6(A)の例では、仮想スクリーンとしてスクリーンSC1が定義される。スクリーンSC1は、長方形の平面スクリーンであり、長方形の平面に動画が投影される。スクリーンSC1上の表示範囲R11は、例えば、X座標、Y座標、幅及び高さにより規定される。例えば、スクリーンSC1の左上の頂点をスクリーンSC1の座標系における原点とする。X座標及びY座標は、視点位置を定める。X座標は、表示範囲R11の左上の頂点の横方向の座標であり、Y座標は、表示範囲R11の左上の頂点の縦方向の座標である。例えば三次元仮想空間において、スクリーンSC1から所定距離離れている点を視点と仮定してもよい。例えば、視点を通り、スクリーンSC1と垂直に交わる線を、視線とする。視線とスクリーンSC1とが交わる点が、表示範囲R11の中心となる。幅及び高さは、視野面積を定める。幅及び高さは、表示範囲R11の横の長さ及び縦の長さである。視線方向は、予め定められている。
図6(B)の例では、仮想スクリーンとしてスクリーンSC2が定義される。スクリーンSC2は、円筒形のスクリーンであり、円筒の側面に動画が投影される。円筒の側面は、仮想立体面の一例である。スクリーンSC2には、例えば円筒状のパノラマ動画が投影される。パノラマ動画は、例えば、全方位映像である。パノラマ動画は、360度より視野角が狭い部分方位映像であってもよい。スクリーンSC2上の表示範囲R12は、例えば、方位角、横視野角、及び高さにより規定される。方位角は、視線方向を定める。例えば、スクリーンSC2の円筒の中心軸の中点を、視点とする。また、視点を、三次元仮想空間の座標系における原点とし、スクリーンSC2の中心軸をZ軸とする。X軸は、原点を通り、Y軸及びZ軸に垂直である。Y軸は、原点を通り、X軸及びZ軸に垂直である。方位角は、視点からの視線の方向を定める。視線は、例えば、Z軸と垂直である。方位角は、例えば、X軸と視線とがなす角度である。横視野角及び高さは、視野面積を定める。横視野角は、視線の方向を中心とした横方向の視野の範囲を示す角度である。高さは、表示範囲R12の縦の長さである。方位角、横視野角及び高さに基づいて、三次元仮想空間における視野範囲を示す四角錐が定義される。この四角錐がビューボリュームである。ビューボリュームとは、三次元仮想空間において、投影変換の対象となる範囲をいう。実際のビューボリュームは四角錐台であるが、説明の便宜上、四角錐を用いる。ビューボリュームの頂点が視点であり、ビューボリュームの底面の中心を視線が通る。ビューボリュームの側面P21〜P24のうち、Z軸と平行な側面P21と側面P22とがなす角度が横視野角である。ビューボリュームとスクリーンSC2とが交わる面の縦方向の長さが、高さである。そして、ビューボリュームとスクリーンSC2とが交わる面が、表示範囲R12である。視点位置は、予め定められている。
図6(C)の例では、仮想スクリーンとしてスクリーンSC3が定義される。スクリーンSC3は、球状のスクリーンであり、球面に動画が表示される。スクリーンSC3には、例えば球状のパノラマ動画が表示される。スクリーンSC3上の表示範囲R13は、例えば、方位角、仰俯角、横視野角、縦視野角により規定される。方位角及び仰俯角は、視線方向を定める。三次元仮想空間において、例えば、スクリーンSC3に囲まれている範囲内に、視点が位置する。例えば、スクリーンSC3の球の中心を、視点とする。また、視点を、三次元仮想空間の座標系における原点とし、縦方向の座標軸をZ軸とする。X軸は、原点を通り、Y軸及びZ軸に垂直である。Y軸は、原点を通り、X軸及びZ軸に垂直である。方位角は、例えば、XZ平面と視線とがなす角度である。仰俯角は、例えば、XY平面と視線とがなす角度である。横視野角及び縦視野角は、視野面積を定める。横視野角は、視線の方向を中心とした横方向の視野の範囲を示す角度である。縦視野角は、視線の方向を中心とした縦方向の視野の範囲を示す角度である。XY平面上の線であって、原点を通り、視線と垂直に交わる線を、視線の縦回転軸とする。原点を通り、視線と縦回転軸とのそれぞれに垂直に交わる線を、視線の横回転軸とする。方位角、仰俯角、横視野角及び縦視野角に基づいて、三次元仮想空間における視野範囲を示す四角錐が定義される。この四角錐がビューボリュームである。ビューボリュームの頂点が視点であり、ビューボリュームの底面の中心を視線が通る。ビューボリュームの側面P31〜P34のうち、Z軸と平行な側面P31と側面P32とがなす角度が横視野角である。側面P33と側面P34とがなす角度が縦視野角である。そして、ビューボリュームとスクリーンSC3とが交わる面が、表示範囲R13である。視点位置は、予め定められている。透視変換により、視点位置、視線方向及び視野面積に基づいて、仮想スクリーン上の表示範囲の三次元座標が、二次元座標に変換される。変換された二次元座標により、例えばパノラマ動画を構成する画像フレームFのうちどの部分が表示範囲内にあるかを特定することができる。方位角及び仰俯角の少なくとも何れかが変化することにより、視線方向が変化すると、視線方向に応じて表示範囲R13が変化する。また、縦視野角および横視野角の少なくとも何れかが変化することにより、視野面積が変化すると、視野面積に応じて表示範囲R13は変化する。つまり、表示範囲R13は、視線方向および視野面積に応じた範囲となる。なお、スクリーンSC3は、一般に視点を完全に覆う立体であればよく、例えば、立方体等の形状をしたスクリーンであってもよい。
なお、スクリーンSC1〜SC3のうち何れの仮想スクリーンが用いられるかは、例えば、動画データの種類に応じて、仮想スクリーンが決定されてもよい。例えば、パノラマ動画以外の動画に対しては、スクリーンSC1が決定され、円筒状のパノラマ動画に対しては、スクリーンSC2が決定され、球状のパノラマ動画に対しては、スクリーンSC3が決定されてもよい。
また、制御部21は、メイン画面MVに表示中の動画の上記表示範囲を示す疑似カメラワークデータを生成する。図7(A)〜(C)は、制御部21により生成された疑似カメラワークデータの一例である。図7(A)は、仮想スクリーンが長方形のスクリーンSC1である場合の例を示す。図7(B)は、仮想スクリーンが円筒形のスクリーンSC2である場合の例を示す。図7(C)は、仮想スクリーンが球形のスクリーンSC3である場合の例を示す。なお、図7(A)の例において、例えば、アスペクト比が16対9のように決まっている場合、幅と高さの何れか一方が決まれば他方が決まるので、疑似カメラワークデータには幅と高さの何れか一方が含まれればよい。図7(A)〜図7(C)の例では、0ミリ秒、16ミリ秒、33ミリ秒、49ミリ秒等のそれぞれの再生位置の画像フレームFにおける表示範囲を示す疑似カメラワークデータを示している。なお、16ミリ秒は、ディスプレイのリフレッシュレート(60Hz)と同程度である。
[2.通信システムSの動作]
次に、通信システムSの動作について説明する。
(2−1.クライアント2の処理)
先ず、図8〜図13を参照して、クライアント2の処理について説明する。図8は、クライアント2の制御部21におけるメイン処理を示すフローチャートである。図9(A)は、クライアント2の制御部21におけるダウンロード処理を示すフローチャートである。図10は、クライアント2の制御部21におけるデータ群優先順決定処理を示すフローチャートである。図12は、クライアント2の制御部21における再生処理を示すフローチャートである。図13(A),(B)は、クライアント2の制御部21における画面描画処理を示すフローチャートである。
(2−1−1.メイン処理)
先ず、図8を参照して、クライアント2の制御部21におけるメイン処理を説明する。例えばクライアント2においてプレイヤーソフトウェアが起動すると、クライアント2はページリクエストを配信サーバ1へ送信する。そして、クライアント2は、ページリクエストに応じて配信サーバ1から送信されたWebページを受信して表示部24aにおけるディスプレイに表示する。このWebページには、例えば、コンテンツの情報が選択可能に表示される。Webページに表示されるコンテンツの情報は、配信サーバ1にアップロードされた複数のコンテンツの中の一部のコンテンツの情報である。これには、例えば、ユーザに推奨されるコンテンツの情報、またはユーザにより入力されたキーワードに基づき検索されたコンテンツの情報が該当する。コンテンツの情報には、例えば、コンテンツのタイトル、及びファイル構成等の情報が含まれる。そして、ユーザが操作部25aを操作して再生対象のコンテンツの情報を選択すると、図8に示すメイン処理を開始する。メイン処理が開始されると、制御部21は、例えば図5に示すように、メイン画面MV、サブ画面SV1〜SV5、及びソース画面SoV1,SoV2を、表示部24aにおけるディスプレイに表示する(ステップS1)。次いで、制御部21は、図9(A)に示すダウンロード処理と、図11に示す再生処理を開始する(ステップS2)。なお、図9(A)に示すダウンロード処理と、図11に示す再生処理とは、例えばOSのマルチタスク機能により並行して実行される。ダウンロード処理と再生処理の詳細については後述する。
次いで、制御部21は、メイン画面MVに対する疑似カメラワークの操作入力を「手動」に設定する(ステップS3)。これにより、疑似カメラワークの操作入力がユーザによる手動入力となる。つまり、メイン画面MVに表示される動画の表示範囲は、疑似カメラワークデータに依らず、ユーザの疑似カメラワークの操作により変化することになる。次いで、制御部21は、疑似カメラワークデータのクエリ情報、及びワークファイルの初期化処理を実行する(ステップS4)。疑似カメラワークデータのクエリ情報は、疑似カメラワークデータのリクエストに含まれる情報である。クエリ情報には、例えば、再生対象のコンテンツのタイトル、動画の再生位置、及び疑似カメラワークデータの最大返答数が含まれる。初期化処理では、ユーザにより選択された再生対象のコンテンツのタイトルがクエリ情報に設定され、且つ、動画の再生位置として0ミリ秒がクエリ情報に設定される。また、初期化処理では、疑似カメラワークデータの最大返答数として、例えばサブ画面の数がクエリ情報に設定される。また、初期化処理では、ユーザにより選択された再生対象のコンテンツのタイトルがワークファイルに設定される。なお、クエリ情報及びワークファイルには、コンテンツの識別するコンテンツIDが設定されてもよい。次いで、制御部21は、疑似カメラワークデータのクエリ情報を含むリクエストを、ネットワークNWを介して配信サーバ1へ送信する(ステップS5)。
次いで、制御部21は、例えばユーザから操作部25aを介して終了指示があったか否かを判定する(ステップS6)。終了指示があった場合(ステップS6:YES)、図8に示す処理は終了する。一方、終了指示がない場合(ステップS6:NO)、ステップS7へ進む。ステップS7では、制御部21は、配信サーバ1から疑似カメラワークデータを受信したか否かを判定する。疑似カメラワークデータを受信したと判定された場合(ステップS7:YES)、ステップS8へ進む。疑似カメラワークデータを受信したと判定されない場合(ステップS7:NO)、ステップS9へ進む。
ステップS8では、制御部21は、サブ画面SV1〜SV5それぞれに対する疑似カメラワークの操作入力として、ステップS7で受信された疑似カメラワークデータを設定し、ステップS9へ進む。これにより、疑似カメラワークの操作入力が疑似カメラワークデータに従って行われることになる。つまり、サブ画面SV1〜SV5それぞれに表示される動画の表示範囲は、それぞれの疑似カメラワークデータに従う。なお、受信された疑似カメラワークデータが、サブ画面SV1〜SV5の数に満たない場合は、余ったサブ画面には何も表示されない。
ステップS9では、制御部21は、ユーザから操作部25aを介してサブ画面に表示中の動画の選択指示があったか否かを判定する。例えば、ユーザがマウスで選択したいサブ画面をクリック、またはユーザが指やペン等で選択したいサブ画面をタップすると、サブ画面に表示中の動画の選択指示があったと判定される。そして、サブ画面に表示中の動画の選択指示があったと判定された場合(ステップS9:YES)、ステップS10へ進む。一方、サブ画面に表示中の動画の選択指示がないと判定された場合(ステップS9:NO)、ステップS11へ進む。
ステップS10では、制御部21は、動画の選択指示に応じて、メイン画面MVに対する疑似カメラワークの操作入力として、選択されたサブ画面に対する疑似カメラワークの操作入力として設定されている疑似カメラワークデータを設定する。これにより、メイン画面MVに表示中の動画が、選択指示された動画に切換表示される。
ステップS11では、制御部21は、ユーザから操作部25aを介して、疑似カメラワークの操作があったか否かを判定する。ここで、疑似カメラワークの具体的な操作として、例えば、ドラック操作、及びフリック操作がある。ドラック操作では、例えば、ユーザがメイン画面MVをマウスによりドラックすることで表示範囲を移動させることができる。また、フリック操作では、例えば、ユーザがタッチパネル方式のメイン画面MV上で指やペン等の接触物を素早くスライドすることで表示範囲を移動させることができる。また、疑似カメラワークの具体的な操作として、例えば、ユーザが操作部25aに設けられたボタンや画面上に表示されたボタン等を押すことにより、表示範囲を拡大したり縮小させたりする操作がある。この操作の場合、表示範囲の単位時間あたり変動量が大きくなりながら表示範囲が拡大又は縮小する変動が行われ、その後、単位時間あたり変動量が一定となって、表示範囲が変動する。ユーザがボタンを押すことをやめる操作を行わない限り、表示範囲が変動し、表示範囲の大きさが最大又は最少となった時点で、変動は停止する。仮想スクリーンが長方形のスクリーンSC1である場合、表示範囲の拡大・縮小は、表示範囲R11の幅及び高さの変動である。仮想スクリーンが円筒形のスクリーンSC2である場合、表示範囲の拡大・縮小は、横視野角及び高さの変動である。仮想スクリーンが円筒形のスクリーンSC3である場合、表示範囲の拡大・縮小は、縦視野角及び横視野角の変動である。なお、上述した操作は、あくまでも例示に過ぎず、その他の操作により疑似カメラワークが行われてもよい。
そして、疑似カメラワークの操作があったと判定された場合(ステップS11:YES)、ステップS12へ進む。一方、疑似カメラワークの操作がないと判定された場合(ステップS11:NO)、ステップS14へ進む。ステップS12では、制御部21は、メイン画面MVに対する疑似カメラワークの操作入力が「手動」に設定されていなければ「手動」に設定する。次いで、制御部21は、疑似カメラワークの操作により、動画を構成する画像フレームFにおける表示範囲の指示が受け付けられたときの再生位置に対応する上記表示範囲を示す疑似カメラワークデータをクエリ情報に設定し(ステップS13)、ステップS19へ進む。これにより、疑似カメラワークデータが設定されたクエリ情報が配信サーバ1へ送信される。ここで、「指示が受け付けられたときの再生位置」を「指示受付時の再生位置」という。指示受付時の再生位置に対応する上記表示範囲を示す疑似カメラワークデータは、例えば、指示受付時の再生位置の上記表示範囲を示す疑似カメラワークデータである。或いは、指示受付時の再生位置に対応する上記表示範囲を示す疑似カメラワークデータは、指示受付時の再生位置から過去Tp(例えば、3)秒間までの何れかの時点における表示範囲を示す疑似カメラワークデータであってもよい。或いは、指示受付時の再生位置に対応する上記表示範囲を示す疑似カメラワークデータは、指示受付時の再生位置から未来のTf(例えば、3)秒間までの何れかの時点における表示範囲を示す疑似カメラワークデータであってもよい。或いは、指示受付時の再生位置に対応する上記表示範囲を示す疑似カメラワークデータは、過去Tp秒間から未来のTf秒間までにおける表示範囲を示す疑似カメラワークデータであってもよい。
ここで、未来の表示範囲を示す疑似カメラワークデータの生成方法について説明する。例えば、操作部25aにより変更指示が受け付けられると、その後ユーザが何も操作を行わなくとも、一度受け付けられた変更指示に従って表示範囲の変動がしばらくの間持続するようなアルゴリズムがある。このようなアルゴリズムを表示範囲変動持続アルゴリズムという。表示範囲変動持続アルゴリズムでは、変更指示が受け付けられた時点で、その後の表示範囲の変動が継続する間における表示範囲が、予め決定されていることになる。そこで、制御部21は、この表示範囲変動持続アルゴリズムを用いて、指示受付時よりも後における表示範囲を示す疑似カメラワークデータを生成する。
表示範囲変動持続アルゴリズムを適用可能な操作として、例えば、フリック操作がある。フリック操作がされた場合、例えば、スライドの方向とは逆方向に、スライドの速度に応じて表示範囲が移動する。その後、表示範囲の移動速度は徐々に遅くなり、表示範囲の移動が停止する。この場合、フリック操作が行われた時点で、表示範囲の移動が停止するまでの間における表示範囲が決まる。従って、制御部21は、表示範囲変動持続アルゴリズムを用いて、未来の表示範囲を示す疑似カメラワークデータを生成することができる。また、表示範囲変動持続アルゴリズムを適用可能な操作として、例えば、表示範囲を拡大したり縮小させたりする操作がある。この操作の場合、制御部21は、指示受付時の再生位置における表示範囲を示す疑似カメラワークデータと、予め設定された単位時間あたりの増加度、単位時間あたりの変動量の最大値に基づいて、未来の表示範囲を示す疑似カメラワークデータを生成する。このとき、制御部21は、予め設定された単位時間あたりの増加度で、表示範囲の単位時間あたりの変動量が大きくなるように疑似カメラワークデータを生成する。
なお、上述した操作は、あくまでも例示に過ぎず、未来の表示範囲が予測可能な操作であれば、如何なる操作であってもよい。別の例として、ステップS12において疑似カメラワークの操作入力が「手動」に設定される前に、メイン画面MVに対する疑似カメラワークの操作入力として疑似カメラワークデータが設定されている場合がある。この場合、制御部21は、設定されていた疑似カメラワークデータが示す指示受付時の再生位置から未来のTf秒間までにおける表示範囲を取得する。そして、制御部21は、取得した表示範囲を示す疑似カメラワークデータを、未来の表示範囲を示す疑似カメラワークデータとして生成する。
ステップS14では、制御部21は、ユーザから操作部25aを介してキーワードの入力があったか否かを判定する。キーワードは、ユーザが所望の疑似カメラワークデータを検索するためのものである。例えば、ユーザが、あるアーティストグループのコンサートの動画において特定の歌手だけを表示する表示範囲を示す疑似カメラワークデータを検索したい場合があるとする。この場合、ユーザは、上記特定の歌手の名前をキーワードとして入力することになる。キーワードの入力があったと判定された場合(ステップS14:YES)、ステップS15へ進む。一方、キーワードの入力がないと判定された場合(ステップS14:NO)、ステップS16へ進む。
ステップS15では、制御部21は、ステップS14で入力されたキーワードをクエリ情報に設定し、ステップS19へ進む。ステップS16では、制御部21は、ユーザから操作部25aを介して入力されたキーワードのクリア指示があったか否かを判定する。キーワードのクリア指示があったと判定された場合(ステップS16:YES)、ステップS17へ進む。一方、キーワードのクリア指示がないと判定された場合(ステップS16:NO)、ステップS18へ進む。
ステップS17では、制御部21は、クエリ情報からキーワードを削除し、ステップS19へ進む。ステップS18では、制御部21は、ユーザによる操作がないまま所定時間が経過したか否かを判定する。この時間は、例えば1秒〜10秒程度に設定される。ユーザによる操作には、疑似カメラワークの操作が含まれる。ユーザによる操作がないまま所定時間が経過したと判定された場合(ステップS18:YES)、ステップS19へ進む。一方、ユーザによる操作がないまま所定時間が経過していないと判定された場合(ステップS18:NO)、ステップS21へ進む。
ステップS19では、制御部21は、疑似カメラワークデータのクエリ情報を含むリクエストを、ネットワークNWを介して配信サーバ1へ送信する。これにより、指示受付時の再生位置に対応する画像フレームFにおいて、指示された表示範囲から、同一の再生位置における画像フレームF上で所定の距離以内の表示範囲を示す疑似カメラワークデータが、ステップS7で取得される。この疑似カメラワークデータは、後述する図14(B)に示すステップS76で決定される。次いで、制御部21は、ステップS13で疑似カメラワークデータがクエリ情報に設定された場合、この疑似カメラワークデータをクエリ情報から削除し(ステップS20)、ステップS21へ進む。なお、ステップS13で疑似カメラワークデータがクエリ情報に設定されていない場合、そのままステップS21へ進む。
ステップS21では、制御部21は、クエリ情報に設定されている再生位置を、動画の現在の再生位置に変更設定する。次いで、制御部21は、現在の再生位置においてメイン画面MVに表示された動画の表示範囲を示す疑似カメラワークデータを、ワークファイルに格納する(ステップS22)。次いで、制御部21は、ワークファイルに所定時間範囲分の疑似カメラワークデータを蓄積できたか否かを判定する(ステップS23)。ここで、時間範囲は、例えば、30秒程度に設定される。この場合、例えば、再生位置が0秒〜30秒の疑似カメラワークデータ、再生位置が30秒〜60秒の疑似カメラワークデータ、・・・というように、疑似カメラワークデータが分割されて配信サーバ1へアップロードされることになる。なお、例えば、図8に示すメイン処理の実行中に、ユーザは操作部25aからアップロード対象の疑似カメラワークデータに対応する疑似カメラワークの特徴を示す情報を入力することができる。入力された疑似カメラワークの特徴を示す情報は、ワークファイルに格納されることになる。
そして、ワークファイルに所定時間範囲分の疑似カメラワークデータを蓄積できていないと判定された場合(ステップS23:NO)、ステップS6に戻る。一方、ワークファイルに所定時間範囲分の疑似カメラワークデータを蓄積できたと判定された場合(ステップS23:YES)、ステップS24へ進む。ステップS24では、制御部21は、ワークファイルを、ネットワークNWを介して配信サーバ1へ送信する。なお、ワークファイルが分割されて配信サーバ1へ送信されるのではなく、再生開始から再生終了までのワークファイルが一括で動画の再生終了後に送信されるように構成してもよい。次いで、制御部21は、ワークファイルをクリアし(ステップS25)、ステップS6に戻る。
(2−1−2.ダウンロード処理)
次に、図9〜図11を参照して、クライアント2の制御部21におけるダウンロード処理を説明する。なお、以下の説明では、解像度の異なる複数の動画データがダウンロードされる場合を例にとって説明する。図9(A)に示すダウンロード処理が開始されると、ユーザにより選択されたコンテンツの情報により示される動画データに対応する動画ストリームリストが動画データごとに生成される。例えば、レイヤ1の動画ストリームリスト、レイヤ2のパート1〜パート4それぞれの動画ストリームリスト、及びレイヤ3のパート1〜パート16それぞれの動画ストリームリストが生成される。動画ストリームリストは、動画ストリームを構成する各動画データ群のシリアル番号を登録するリストである。動画ストリームは、動画データ及び分割動画データの少なくとも何れか一方から配信サーバ1により生成されるものである。シリアル番号は、動画データ群の再生順に付与される。各動画ストリームリストに登録されるシリアル番号の数は同一である。更に、コンテンツに音声データが含まれる場合、音声データに対応する音声ストリームリストが生成される。音声ストリームリストは、音声ストリームを構成する各音声データ群のシリアル番号を登録するリストである。音声ストリームは、音声データから配信サーバ1により生成されるものである。なお、動画ストリームリスト及び音声ストリームリストは、制御部21により生成される。この場合、動画データまたは音声データの先頭位置から終了位置までを区切る時間単位は、予めプレイヤーソフトウェアに設定されている。或いは、動画ストリームリスト及び音声ストリームリストは、配信サーバ1により生成され、クライアント2へ送信されるように構成してもよい。
図9(A)に示すステップS31では、制御部21は、コンテンツの再生を終了するか否かを判定する。コンテンツの再生を終了すると判定された場合(ステップS31:YES)、図9(A)に示す処理が終了する。一方、コンテンツの再生を終了しないと判定された場合(ステップS31:NO)、ステップS32に進む。ステップS32では、制御部21は、データ群優先順決定処理を実行する。データ群優先順決定処理では、図10に示すように、制御部21は、現在の再生位置と、推定ネットワーク帯域とを取得する(ステップS321)。推定ネットワーク帯域は、配信サーバ1とクライアント2との間のネットワークNWの帯域(bps)の推定値である。推定ネットワーク帯域は、例えば、クライアント2と配信サーバ1との間のデータ伝送時間が制御部21により計測されることで算出される。
次いで、制御部21は、音声ストリームリストから、現在の再生位置を含む音声データ群と、現在の再生位置を含む音声データ群の次の音声データ群とを最優先で取得するデータ群として決定する(ステップS322)。ここで、現在の再生位置は、ステップS321で取得された再生位置である。次いで、制御部21は、ステップS322で決定された音声データ群のシリアル番号を登録する取得対象リストを生成する(ステップS323)。取得対象リストに登録されるシリアル番号には、音声データ群のシリアル番号であることを示す情報が付加される。
次いで、制御部21は、クライアント2の描画性能を示す値を取得する(ステップS324)。ここで、描画性能は、メイン画面MVに何ピクセル描画できるかを示すレンダリング能力である。言い換えれば、描画性能は、フレームバッファが1メイン画面MVあたり何ピクセル分のデータをバッファリングできるかを示す。なお、ステップS324における描画性能を示す値の取得は、初回のデータ群優先順決定処理でのみ行われればよい。或いは、描画性能を示す値の取得は、図9(A)に示すダウンロード処理の開始後、ステップS31の処理前に行われるように構成してもよい。
次いで、制御部21は、ステップS324で取得された描画性能を示す値に応じて、描画対象とするレイヤの範囲を決定する(ステップS325)。例えば、クライアント2の描画性能を示す値が、4M(pixels/frame)であるとする。この場合、図2の例では、レイヤ1及びレイヤ2の画像フレームFは、1画像フレームF全体を描画できる。一方、レイヤ3の画像フレームFは、画像フレームFの1/4しか描画できない。そのため、上記ステップS325では、描画対象とするレイヤの範囲として、レイヤ1及びレイヤ2が決定される。一方、例えば、クライアント2の描画性能を示す値が、2M(pixels/frame)であるとする。この場合、図2の例では、レイヤ1の画像フレームFだけが1画像フレームF全体を描画できる。そのため、上記ステップS325では、描画対象とするレイヤの範囲として、レイヤ1が決定される。
次いで、制御部21は、上記ステップS325で決定されたレイヤの動画ストリームリストから、現在の再生位置を含む動画データ群と、現在の再生位置を含む動画データ群の次の動画データ群とを決定する(ステップS326)。この決定は、ステップS325で決定された全てのレイヤの全ての動画ストリームリストについて行われる。例えば、ステップS325で決定されたレイヤが、レイヤ1とレイヤ2であるとする。この場合、レイヤ1の動画ストリームリスト、レイヤ2のパート1の動画ストリームリスト、レイヤ2のパート2の動画ストリームリスト、レイヤ2のパート3の動画ストリームリスト、及びレイヤ2のパート4の動画ストリームリストそれぞれについて、動画データ群が決定される。次いで、制御部21は、現在の再生位置の描画領域に基づいて、上記ステップS326で決定された動画データ群に含まれる画像フレームFまたは分割画像フレームの描画率を、上記決定された動画データ群ごとに算出する(ステップS327)。ここで、画像フレームの描画率とは、描画領域の中に画像フレームFまたは分割画像フレームが占める割合をいう。
図11(A)は、レイヤ1の画像フレームにおける描画領域を示す図である。図11(A)に示すように、レイヤ1では、先頭の画像フレームFの描画率が100%である。図11(B)は、レイヤ2の分割画像フレームにおける描画領域を示す図である。分割画像フレームの場合、1つのパートで描画領域のすべてをカバーできるとは限らない。図11(B)に示すように、レイヤ2では、パート1における先頭の分割画像フレームの描画率が17%である。また、パート2における先頭の分割画像フレームの描画率が50%である。また、パート3における先頭の分割画像フレームの描画率が8%である。また、パート4における先頭の分割画像フレームの描画率が25%である。このように、レイヤ2のパート2における先頭の分割画像フレームが最も大きい描画率である。また、図11(B)の例では、破線で示すように、各動画データ群内で描画領域の位置が分割画像フレームごとに変化している。この場合、現在の再生位置の画像フレームFまたは分割画像フレームの時間的に後に続く画像フレームFまたは分割画像フレームの描画領域は、例えば、メイン画面MVに対する疑似カメラワークの操作入力として設定されている疑似カメラワークデータに基づいて特定される。一方、メイン画面MVに対する疑似カメラワークの操作入力として疑似カメラワークデータが設定されていない場合、現在の再生位置の画像フレームFまたは分割画像フレームの時間的に後に続く画像フレームFまたは分割画像フレームの描画領域は、現在の再生位置の描画領域に基づいて推定される。つまり、描画領域の動きの変化に基づき予測計算される。例えば、複数の分割画像フレーム間において描画領域が右に動いていたら、その次の分割画像フレームにおける描画領域はさらに右に位置することが予測計算される。なお、ステップS327で算出される分割画像フレームの描画率は、動画データ群に含まれる複数の分割画像フレームの描画率の平均または合計となる。
次いで、制御部21は、上記ステップS326で決定された動画データ群のビットレートと、上記ステップS321で取得された推定ネットワーク帯域とに基づいて、上記ステップS326で決定された動画データ群の中から、取得対象候補となる動画データ群をレイヤごとに決定する(ステップS328)。例えば各レイヤの動画データ群のビットレートが、推定ネットワーク帯域以下になるように、取得対象候補となる動画データ群が選定される。ここで、レイヤ2の場合、パート1〜パート4の動画データ群のビットレートの総和が推定ネットワーク帯域以下になるように、取得対象候補となる動画データ群が決定される。
図11(C),(D)は、レイヤ1及びレイヤ2にける動画ストリームにおいて、取得対象候補となる動画データ群が決定される様子を示す図である。図11(C),(D)に示すように、レイヤ1では、上記ステップS326で決定された全ての動画データ群が決定されている。レイヤ2では、上記ステップS326で決定されたシリアル番号が「1」の動画データ群の中(図11(C))で、描画率が50%の分割画像フレームを含む動画データ群と、描画率が25%の分割画像フレームを含む動画データ群と、が決定(図11(D))されている。これは、例えば描画率が17%の分割画像フレームを含む動画データ群が取得対象候補としてさらに決定されると、「動画データ群のビットレート≦推定ネットワーク帯域」の条件を満たさなくなるためである。一方、上記ステップS326で決定されたシリアル番号が「2」の動画データ群の中(図11(C))で、描画率が70%の分割画像フレームを含む動画データ群と、描画率が20%の分割画像フレームを含む動画データ群と、が決定(図11(D))されている。このように、描画率が高い分割画像フレームを含む動画データ群が優先して決定されることになる。これにより、より広い表示範囲に、高画質の画像を表示させることができる。
次いで、制御部21は、上記ステップS328で決定された取得対象候補となる動画データ群の中で描画率が基準描画率αである画像フレームFまたは分割画像フレームを含む動画データ群があるか否かを判定する(ステップS329)。基準描画率αは、例えば100%に設定されることが望ましい。ただし、90%〜100%の間に設定されてもよい。そして、描画率が基準描画率αである画像フレームFまたは分割画像フレームを含む動画データ群があると判定された場合(ステップS329:YES)、ステップS330へ進む。一方、描画率が基準描画率αである画像フレームFまたは分割画像フレームを含む動画データ群がないと判定された場合(ステップS329:NO)、ステップS331へ進む。
ステップS330では、制御部21は、描画率が基準描画率αである画像フレームFまたは分割画像フレームを含む動画データ群に対応するレイヤの中で、最も解像度の高いレイヤをベースレイヤとして決定し、ステップS332へ進む。つまり、複数の動画データ群の中で、解像度が高く、且つ、描画率が高い画像フレームFを含む動画データ群が優先されて、ベースレイヤの動画データ群として決定される。これにより、より広い表示範囲に、より高画質の画像を表示させることができる。図11(C),(D)の例では、描画率が基準描画率αである画像フレームFを含む動画データ群に対応するレイヤは、レイヤ1のみである。そのため、レイヤ1がベースレイヤとして決定される。なお、描画率が基準描画率αである画像フレームFまたは分割画像フレームを含む動画データ群に対応するレイヤが、レイヤ1〜レイヤ3であるとする。この場合、最も解像度の高いレイヤであるレイヤ3がベースレイヤとして決定される。また、この場合、レイヤ3よりも解像度の高いレイヤはないので、図10に示す処理は終了し、図9(A)に示す処理に戻る。一方、ステップS331では、制御部21は、最も描画率が高い画像フレームFまたは分割画像フレームを含む動画データ群に対応するレイヤの中で、最も解像度の高いレイヤをベースレイヤとして決定し、ステップS332へ進む。
ステップS332では、制御部21は、上記ステップS330又はステップS331で決定されたベースレイヤの動画データ群を、音声データ群の次に優先して取得するデータ群として決定する。次いで、制御部21は、ステップS332で決定された動画データ群のシリアル番号を上記取得対象リストに登録する(ステップS333)。なお、取得対象リストに登録されるシリアル番号には、動画データ群のシリアル番号であることを示す情報、及びレイヤを示す情報が付加される。
次いで、制御部21は、推定ネットワーク帯域から、ベースレイヤの動画データ群のビットレートを減算した差分ネットワーク帯域を算出する(ステップS334)。差分ネットワーク帯域は、ネットワークNWの帯域の余裕度を示す値の一例である。ネットワークNWの余裕度は、クライアント2と配信サーバ1との間のネットワークNWの空き帯域ともいう。言い換えれば、ネットワークNWの帯域の余裕度は、ネットワークNWを介して、クライアント2と配信サーバ1との間で利用可能な利用帯域ともいう。差分ネットワーク帯域は、ネットワークNWの帯域と、ベースレイヤの動画データ群を配信サーバ1から取得するために消費する帯域との差である。
次いで、制御部21は、上記ステップS326で決定された動画データ群のビットレートと、上記ステップS334で算出された差分ネットワーク帯域とに基づいて、上記ステップS326で決定された動画データ群の中から、再度、取得対象候補となる動画データ群をレイヤごとに決定する(ステップS335)。なお、ベースレイヤの動画データ群は、上記ステップS332で取得するデータ群として決定されているので、取得対象候補から除外される。例えばベースレイヤ以外のレイヤの動画データ群のビットレートが、差分ネットワーク帯域以下になるように、取得対象候補となる動画データ群が選定される。差分ネットワーク帯域に余裕がある場合、分割画像フレームを含む少なくとも一つの動画データ群が決定される。上記ステップS335の処理により、差分ネットワーク帯域に応じたデータ量の動画データ群を取得することが可能となる。
次いで、制御部21は、上記ステップS335で決定された取得対象候補となる動画データ群の中で描画率が基準描画率β以上の分割画像フレームを含む動画データ群があるか否かを判定する(ステップS336)。基準描画率βは、例えば70%に設定される。ただし、60%〜90%の間に設定されてもよい。そして、描画率が基準描画率β以上の分割画像フレームを含む動画データ群があると判定された場合(ステップS336:YES)、ステップS337へ進む。一方、描画率が基準描画率β以上の分割画像フレームを含む動画データ群がないと判定された場合(ステップS336:NO)、図10に示す処理は終了し、図9(A)に示す処理に戻る。
ステップS337では、制御部21は、描画率が基準描画率β以上の分割画像フレームを含む動画データ群に対応するレイヤの中で、最も解像度の高いレイヤをサブレイヤとして決定する。次いで、制御部21は、上記ステップS338で決定されたサブレイヤの動画データ群を、ベースレイヤの動画データ群の次に優先して取得するデータ群として決定する(ステップS338)。次いで、制御部21は、ステップS338で決定された動画データ群のシリアル番号を上記取得対象リストに登録し(ステップS339)、図9(A)に示す処理に戻る。なお、取得対象リストに登録されるシリアル番号には、動画データ群のシリアル番号であることを示す情報、レイヤを示す情報、及びパートを示す情報が付加される。
図9(B)は、データ群優先順決定処理により生成された取得対象リストの内容の一例を示す図である。図9(B)に示すように、取得対象リストに登録された各データ群のシリアル番号には、優先度が対応付けられている。対応付けられた優先度の値が小さいデータ群ほど、取得する優先度が高いデータ群である。なお、取得対象リストの内容は、コンテンツの再生が進行する従って変化する。
図9(A)に示す処理に戻り、ステップS33では、制御部21は、取得対象リストを参照して、配信サーバ1から取得するデータ群があるか否かを判定する。取得対象リストにデータ群のシリアル番号が登録されている場合、取得するデータ群があると判定される。そして、取得するデータ群があると判定された場合(ステップS33:YES)、ステップS34へ進む。一方、取得するデータ群がないと判定された場合(ステップS33:NO)、ステップS31に戻る。
ステップS34では、制御部21は、変数nに「1」をセットする。次いで、制御部21は、取得対象リストの中で優先度がn番のデータ群がバッファメモリに保持されているか否かを判定する(ステップS35)。つまり、図9(A)に示す処理で優先度がn番のデータ群が既に取得されているか否かが判定される。そして、優先度がn番のデータ群が保持されていないと判定された場合(ステップS35:NO)、ステップS36に進む。ステップS36では、制御部21は、優先度がn番のデータ群の要求を配信サーバ1へ送信する。これにより、制御部21は、例えば低解像度より高い中解像度又は高解像度の動画データを構成する複数の分割動画データの中から、取得対象となる少なくとも1つの分割動画データを含むデータ群を配信サーバ1へ要求することができる。そして、制御部21は、配信サーバ1から、例えば低解像度の動画データを含むデータ群を受信するとともに、低解像度より高い中解像度又は高解像度の分割動画データを含むデータ群を受信することができる。そして、制御部21は、データ群の取得が成功したか否かを判定する(ステップS37)。データ群の要求に応じて配信サーバ1からデータ群が受信されない場合、データ群の取得が失敗したと判定され(ステップS37:NO)、ステップS38へ進む。ステップS38では、データ群取得失敗メッセージがユーザへ通知され、図9(A)に示す処理が終了する。データ群取得失敗メッセージは、データ群の取得失敗を示すメッセージである。
一方、データ群の要求に応じて配信サーバ1からストリーミング配信されたデータ群の受信が完了した場合、データ群の取得が成功したと判定される(ステップS37:YES)。この場合、制御部21は、ステップS31へ戻り、コンテンツの再生を終了しない場合(ステップS31:NO)、再び、データ群優先順決定処理を実行する(ステップS32)。つまり、データ群が取得されるごとにデータ群優先順決定処理で、取得対象となるデータ群が決定されることになる。前回のデータ群優先順決定処理からさほど時間が経過していなければ、現在の再生位置を含むデータ群に変化はない。そのため、再び実行されたデータ群優先順決定処理で生成された取得対象リストの内容は、前回のデータ群優先順決定処理で生成された取得対象リストの内容と同一となる。この場合、ステップS35で、優先度がn番のデータ群が保持されていると判定されると(ステップS35:YES)、ステップS39へ進む。ステップS39では、制御部21は、変数nに「1」を加算する。次いで、制御部21は、変数nがデータ群数より大きいか否かを判定する(ステップS40)。データ群数とは、取得対象リストにシリアル番号が登録されているデータ群の数である。そして、変数nがデータ群数より大きくないと判定された場合(ステップS40:NO)、ステップS35に戻る。このとき、優先度がn+1番のデータ群が保持されていなければ、n+1番のデータ群の要求が配信サーバ1へ送信される(ステップS36)。一方、変数nがデータ群数より大きいと判定された場合(ステップS40:YES)、ステップS31に戻る。この場合、そのときの取得対象リストに登録されている全てのデータ群が取得された場合である。以上のように、データ群優先順決定処理は、データ群が配信サーバ1から取得されるたびに行われる。そのため、動画データの再生進行状況及び取得進行状況に応じて、各時点で最適なデータ群を取得対象として決定することができる。
なお、動画の動画データが複数ある場合において、それぞれの動画データに対応するメイン画面MVが設けられる場合がある。この場合、図9(A)に示すダウンロード処理は、それぞれの動画データに対応する動画データを取得するために実行される。
なお、上記ダウンロード処理では、解像度の異なる複数の動画データを例にとったが、解像度が同一の動画データであってもよい。
(2−1−3.再生処理)
次に、図12及び図13を参照して、クライアント2の制御部21における動画の再生処理を説明する。図12に示す再生処理が開始されると、制御部21は、クライアント2の描画性能を示す値を取得する(ステップS51)。次いで、制御部21は、コンテンツの再生を終了するか否かを判定する(ステップS52)。コンテンツの再生を終了すると判定された場合(ステップS52:YES)、図12に示す処理を終了する。一方、コンテンツの再生を終了しないと判定された場合(ステップS52:NO)、ステップS53へ進む。
ステップS53では、制御部21は、コンテンツは再生可能な状態にあるか否かを判定する。例えば、再生に十分な動画データ群がバッファメモリに保持されている場合、再生可能な状態にあると判定される。再生可能な状態にあると判定された場合(ステップS53:YES)、ステップS54へ進む。一方、再生可能な状態にないと判定された場合(ステップS53:NO)、ステップ52に戻る。ステップS54では、制御部21は、動画が再生中であるか否かを判定する。例えば、画像フレームFが遷移中である場合、動画が再生中であると判定され(ステップS54:YES)、ステップS55へ進む。一方、動画が再生中でないと判定された場合(ステップS54:NO)、ステップS57へ進む。再生中でないとは、一時停止中が該当する。
ステップS55では、制御部21は、画面描画処理を実行する。この画面描画処理の詳細は後述する。次いで、制御部21は、現在の再生位置を次の画像フレームFに移動させ(ステップS56)、ステップS52に戻る。ステップS57では、制御部21は、現在の描画領域が前回描画時の描画領域と異なるか否かを判定する。現在の描画領域が前回描画時の描画領域と異ならないと判定された場合(ステップS57:NO)、ステップS52に戻る。一方、現在の描画領域が前回描画時の描画領域と異なると判定された場合(ステップS57:YES)、ステップS58へ進む。ステップS58では、制御部21は、画面描画処理を実行する。これは、一時停止中であっても、ユーザにより疑似カメラワークの操作により描画領域が更新された場合、再度、画面描画処理を行う必要があるためである。
図13(A)は、メイン画面MVに対する画面描画処理を示す。一方、図13(B)は、サブ画面SV1〜SV5それぞれに対する画面描画処理を示す。これらの画面描画処理は、例えばOSのマルチタスク機能により並行して実行される。
メイン画面MVに対する画面描画処理では、図13(A)に示すように、制御部21は、現在の再生位置を特定する(ステップS551)。次いで、制御部21は、上記ステップS51で取得された描画性能を示す値に基づいて、描画対象のレイヤの範囲を決定する(ステップS552)。ステップS552の処理は、ステップS325の処理と同様である。次いで、制御部21は、取得済の動画データ群の中で、所定条件を満たす動画データ群を決定する(ステップS553)。例えば、所定条件として以下の(a)〜(c)の全ての条件を満たす動画データ群が決定される。
(a)現在の再生位置を含むこと
(b)現在の描画領域に画像フレームFまたは分割画像フレームの少なくとも一部が含まれること
(c)描画対象のレイヤに属すること
ここで、現在の再生位置は、上記ステップS551で特定された再生位置である。また、現在の描画領域は、例えばメイン画面MVに対する疑似カメラワークの操作入力にしたがって特定される。また、描画対象のレイヤは、上記ステップS552で決定されたレイヤである。
次いで、制御部21は、上記ステップS553で決定された動画データ群の情報を登録する描画対象リストを生成する(ステップS554)。動画データ群の情報とは、例えば、動画データ群のシリアル番号である。次いで、制御部21は、描画対象リストに登録された動画データ群の情報を高画質順にソートする(ステップS555)。つまり、動画データ群に含まれる動画データの解像度が高い順に動画データ群の情報が並び替えられる。ここで、並び替え対象となる動画データには、分割動画データも含まれる。次いで、制御部21は、メイン画面MVに対応するフレームバッファの描画領域をクリアする(ステップS556)。
次いで、制御部21は、変数nに「1」をセットする(ステップS557)。次いで、制御部21は、描画対象リストの中で解像度が高いn番目の動画データ群に含まれる例えば1画像フレームFまたは1分割画像フレーム分の画像データをバッファメモリから出力する(ステップS558)。そして、制御部21は、動画を構成する画像フレームFまたは分割画像フレームにおいて上記特定された描画領域に対応するピクセルのデータをフレームバッファに書き込む(ステップS559)。ただし、この書き込みは、既に書き込み済みのピクセルが上書きされないように制御される。
次いで、制御部21は、フレームバッファに、画像フレームFまたは分割画像フレームにおいて必要なピクセルのデータが全て書き込まれたか否かを判定する(ステップS560)。フレームバッファに必要なピクセルのデータが全て書き込まれていないと判定された場合(ステップS560:NO)、ステップS561に進む。一方、フレームバッファに必要なピクセルのデータが全て書き込まれたと判定された場合(ステップS560:YES)、ステップS563に進む。
ステップS561では、制御部21は、変数nに「1」を加算する。次いで、制御部21は、変数nがデータ群数より大きいか否かを判定する(ステップS562)。データ群数とは、描画対象リストに情報が登録されている動画データ群の数である。そして、変数nがデータ群数より大きくないと判定された場合(ステップS562:NO)、ステップS558に戻る。ステップS558の処理は、複数回繰り返し行われるが、解像度が高い動画データが優先して再生される。そのため、最初の処理では、解像度が高い分割画像フレームにおいて必要なピクセルのデータが書き込まれる。以後の処理では、分割画像フレームおいて必要なピクセルのデータが書き込まれなかったフレームバッファの書き込み領域に、例えば低解像度の動画を構成する画像フレームFが書き込まれる。一方、変数nがデータ群数より大きいと判定された場合(ステップS562:YES)、ステップS563へ進む。ステップS563では、制御部21は、フレームバッファの内容をメイン画面MVに表示させる。これにより、制御部21は、例えば低解像度の動画データにより再生される動画をメイン画面MVに表示させるとともに、この動画の画像フレームFの少なくとも一部分に、例えば中解像度又は高解像度の分割動画データにより再生される動画を表示させる。これにより、クライアント2の性能に応じて低解像度と高解像度の動画を柔軟にメイン画面MVに表示することができる。なお、音声データが再生されている場合、制御部21は、音声データの再生位置に同期させて動画を表示させる。また、動画の動画データが複数ある場合において、それぞれの動画データに対応するメイン画面MVが設けられる場合がある。この場合、図13(A)に示す画面描画処理は、それぞれの動画データに対応する動画を表示するために実行される。
一方、サブ画面SV1〜SV5それぞれに対する画面描画処理では、図13(B)に示すように、制御部21は、現在の再生位置を特定する(ステップS571)。次いで、制御部21は、取得済の動画データ群の中で、現在の再生位置を含み、且つ動画データ群に含まれる動画データの解像度が最も低い動画データ群を決定する(ステップS572)。動画データの解像度が最も低い動画データ群は、例えばレイヤ1の動画ストリームに含まれていた動画データ群である。次いで、制御部21は、サブ画面SV1〜SV5それぞれに対応するフレームバッファの描画領域をクリアする(ステップS573)。
次いで、制御部21は、ステップS572で決定された動画データ群に含まれる1画像フレームFの動画データをバッファメモリから出力する(ステップS574)。次いで、制御部21は、動画を構成する画像フレームFにおいて描画領域に対応するピクセルのデータをフレームバッファに書き込む(ステップS575)。この描画領域は、上記ステップS8で疑似カメラワークの操作入力としてサブ画面SV1〜SV5のそれぞれに設定された疑似カメラワークデータが示す表示範囲から決定される。次いで、制御部21は、フレームバッファの内容をサブ画面SV1〜SV5それぞれに表示させる(ステップS576)。これにより、制御部21は、低解像度の動画データにより再生される動画をサブ画面SV1〜SV5のそれぞれに表示させる。
なお、上記再生処理では、解像度の異なる複数の動画データを例にとったが、解像度が同一の動画データであってもよい。
(2−2.配信サーバ1の処理)
次に、図14を参照して、配信サーバ1の処理について説明する。図14(A)は、配信サーバ1の制御部11におけるワークファイル登録処理を示すフローチャートである。図14(B)は、配信サーバ1の制御部11における疑似カメラワークデータ要求受信処理を示すフローチャートである。
図14(A)に示すワークファイル登録処理は、クライアント2から、上記ステップS24で送信されたワークファイルが受信された場合に開始される。なお、以下に説明するワークファイル登録処理では、図4(B)に示す表示回数テーブルが用いられるものとする。ワークファイル登録処理が開始されると、制御部11は、取得されたワークファイルに設定されたコンテンツのタイトルに基づきコンテンツの動画データを動画データ記憶領域31aから特定する(ステップS61)。次いで、制御部11は、取得されたワークファイルに格納された疑似カメラワークデータが示す表示範囲に含まれる複数の動画ブロックを特定する(ステップS62)。例えば、ステップS61で特定された動画データを構成する複数の動画ブロックの中から、疑似カメラワークデータが示す表示範囲に座標位置が含まれ、且つ、疑似カメラワークデータが示す再生位置の動画ブロックが特定される。
次いで、制御部11は、例えば図4(B)に示す表示回数テーブルに登録されている表示回数であって、ステップS62で特定した各動画ブロックの表示回数を1インクリメントする(ステップS63)。つまり、特定された動画ブロックの表示回数に「1」が加算されて表示回数テーブルに更新登録される。これにより、今回取得されたワークファイルと過去に取得された疑似カメラワークデータのそれぞれが示す表示範囲に基づいて、動画の再生位置の画像フレームFにおける動画ブロックごとに表示回数が決定される。
次いで、制御部11は、ステップS62で特定された動画ブロックごとに決定された複数の表示回数を平均して平均表示回数を再生位置ごとに決定する(ステップS64)。つまり、制御部11は、特定された動画ブロックごとに決定された表示回数の総和を、特定された動画ブロックの数で割ることにより平均表示回数を算出する。次いで、制御部11は、取得されたワークファイルにワークIDを付与してワークファイル記憶領域31cに記憶する(ステップS65)。次いで、制御部11は、ステップS64で算出された平均表示回数を、上記取得されたワークファイルに格納された疑似カメラワークデータの所定時間範囲(例えば、0秒〜30秒)における注目度として決定し、決定した注目度を注目度データベースに登録し(ステップS66)、ワークファイル登録処理を終了する。なお、取得されたワークファイルに格納された疑似カメラワークデータの所定時間範囲における注目度には、このワークファイルのワークIDが対応付けられて登録される。
次に、図14(B)に示す疑似カメラワークデータ要求受信処理は、クライアント2から、上記ステップS5又はステップS19で送信された、疑似カメラワークデータのリクエストが受信された場合に開始される。このリクエストには、上述したクエリ情報が含まれる。疑似カメラワークデータ要求受信処理が開始されると、制御部11は、ワークファイル記憶領域31cに記憶されたワークファイルのうち、クエリ情報に設定されたコンテンツのタイトルが対応付けられた疑似カメラワークデータを返答候補として取得する(ステップS70)。
次いで、制御部11は、ステップS70で取得された返答候補のうち、クエリ情報に設定された再生位置が含まれる疑似カメラワークデータを、新たな返答候補として決定する(ステップS71)。つまり、ステップS70で決定された返答候補から、クエリ情報に設定された再生位置が含まれる疑似カメラワークデータに絞り込まれる。
次いで、制御部11は、クエリ情報にキーワードが設定されているか否かを判定する(ステップS72)。クエリ情報にキーワードが設定されていると判定された場合(ステップS72:YES)、ステップS73へ進む。一方、クエリ情報にキーワードが設定されていないと判定された場合(ステップS72:NO)、ステップS74へ進む。
ステップS73では、制御部11は、ステップS71で決定された返答候補のうち、クエリ情報に設定されたキーワードが対応付けられた疑似カメラワークデータを、新たな返答候補として決定する。例えば、クエリ情報に設定されたキーワードが、ワークファイル中のコンテンツのタイトル又は疑似カメラワークの特徴を示す情報中に含まれる場合、このワークファイルに格納された疑似カメラワークデータが新たな返答候補として決定される。
ステップS74では、制御部11は、クエリ情報に疑似カメラワークデータが設定されているか否かを判定する。クエリ情報に疑似カメラワークデータが設定されていると判定された場合(ステップS74:YES)、ステップS75へ進む。一方、クエリ情報に疑似カメラワークデータが設定されていないと判定された場合(ステップS74:NO)、ステップS77へ進む。
ステップS75では、制御部11は、クエリ情報に設定されたコンテンツのタイトルからコンテンツの動画データを動画データ記憶領域31aから特定する。次いで、制御部11は、ステップS71又はステップS73で決定された返答候補のうち、クエリ情報に設定された疑似カメラワークデータが示す表示範囲から、ステップS75で特定された動画データにおいて、同一の再生位置における画像フレームF上で所定の距離以内の表示範囲を示す疑似カメラワークデータを、新たな返答候補として決定する。ここで、所定の距離とは、画像フレームF上で近いと判断される距離である。この距離は、例えば10cm以下に設定される。ここで、クエリ情報に設定された疑似カメラワークデータを、以下、「第1の疑似カメラワークデータ」という。ステップS71又はステップS73で決定された返答候補である疑似カメラワークデータを、以下、「第2の疑似カメラワークデータ」という。ステップS76の処理は、仮想スクリーンの種類によって異なるように設定することができる。
例えば、仮想スクリーンが長方形のスクリーンSC1の場合がある。この場合、制御部11は、第1の疑似カメラワークデータが示す表示範囲における第1の所定点と、第2の疑似カメラワークデータが示す表示範囲における第2の所定点との間の距離を算出する。第1の所定点及び第2の所定点は、それぞれの表示範囲の中心座標(x0,y0)である。第1の所定点及び第2の所定点は、図6(A)の例では、表示範囲R11の中心である。或いは、第1の所定点及び第2の所定点は、それぞれの表示範囲の4隅のうち何れかの隅の座標(x1,y1)でもよい。そして、制御部11は、算出した距離が閾値以下であるか否かを判定する。算出した距離が閾値以下である場合、制御部11は、第2の疑似カメラワークデータを、新たな返答候補として決定する。
一方、仮想スクリーンが円筒形のスクリーンSC2又は球形のスクリーンSC3である場合がある。この場合、同一の再生位置における画像フレームF上で所定の距離以内であるかは、三次元仮想空間における視点から、疑似カメラワークデータが示す表示範囲における所定点までの視線に基づいて判定される。例えば、第1及び第2の疑似カメラワークデータそれぞれが示す画像フレームFが三次元仮想空間における仮想立体面に投影されるとする。この場合、制御部11は、少なくとも、三次元仮想空間における視点からの第1の視線であって第1の疑似カメラワークデータが示す表示範囲における第1の所定点までの第1の視線と、同一の視点からの第2の視線であって第2の疑似カメラワークデータが示す表示範囲における第2の所定点まで第2の視線との間の角度を算出する。ここで、円筒形のスクリーンSC2の場合、視点は、例えば、円筒の中心軸の中点である。この場合の第1の所定点及び第2の所定点は、図6(B)の例では、表示範囲R12の中心である。また、球形のスクリーンSC3の場合、視点、例えば、球の中心である。この場合の第1の所定点及び第2の所定点は、図6(C)の例では、表示範囲R13の中心である。そして、制御部11は、算出した角度が閾値以下であるか否かを判定する。算出した角度が閾値以下である場合、制御部11は、第2の疑似カメラワークデータを、新たな返答候補として決定する。
なお、仮想スクリーンが円筒形のスクリーンSC2である場合、制御部11は、第1の疑似カメラワークデータが示す表示範囲における第1の所定点と、第2の疑似カメラワークデータが示す表示範囲における第2の所定点との間の距離を算出するように構成してもよい。この場合、第1の所定点及び第2の所定点は、長方形のスクリーンSC1の場合と同様である。そして、制御部11は、算出した距離が閾値以下である場合、第2の疑似カメラワークデータを、新たな返答候補として決定する。或いは、制御部11は、上記算出した角度が閾値以下であり、且つ算出した距離が閾値以下である場合、第2の疑似カメラワークデータを、新たな返答候補として決定するように構成してもよい。また、疑似カメラワークデータが複数の再生位置における表示範囲を示す場合がある。この場合、制御部11は、例えば、再生位置ごとに、ステップS76の処理を行うことで、第2の疑似カメラワークデータを、新たな返答候補として決定するように構成される。
ステップS77では、制御部11は、ステップS71、ステップS73、又はステップS76で決定された返答候補の数が、クエリ情報に設定された最大返答数より大きいか否かを判定する。そして、返答候補の数が最大返答数より大きいと判定された場合(ステップS77:YES)、ステップS78へ進む。一方、返答候補の数が最大返答数より大きくないと判定された場合(ステップS77:NO)、ステップS79へ進む。ステップS78では、制御部11は、ステップS71、ステップS73、又はステップS76で決定された返答候補のうち、優先度の高い順に上記最大返答数分の疑似カメラワークデータを、新たな返答候補として決定する。ここで、「優先度の高い順」は「注目度の高い順」として設定される。この場合、制御部11は、注目度データベースから、ステップS71、ステップS73、又はステップS76で決定された返答候補である疑似カメラワークデータの注目度を取得する。そして、制御部11は、取得した注目度が高い順に上記最大返答数分の疑似カメラワークデータを、新たな返答候補として決定する。つまり、制御部11は、注目度データベースに注目度が登録された疑似カメラワークデータの中で、注目度が高い上位の疑似カメラワークデータを、新たな返答候補として決定する。言い換えれば、疑似カメラワークデータが示す表示範囲に含まれる動画ブロックごとに決定された複数の表示回数の平均表示回数の中で、動画の再生位置ごとに、平均表示回数が多い上位の領域を含む表示範囲を示す疑似カメラワークデータが、新たな返答候補として決定される。このように決定された返答候補は、クライアント2へ提供する疑似カメラワークデータである。これにより、注目度が高いシーンで占める割合が大きい表示範囲を示す疑似カメラワークデータを、ユーザに対して推奨する適切な疑似カメラワークデータとして決定することができる。なお、「優先度の高い順」は、疑似カメラワークデータの登録日時の遅い順、アクセスランキング順、又は「いいね」等のコミュニティ評価の高い順として設定されるように構成してもよい。
ステップS79では、制御部11は、ステップS71、ステップS73、ステップS76、又はステップS78で決定された返答候補である疑似カメラワークデータを、疑似カメラワークデータの要求元であるクライアント2へ返信する。
以上説明したように、上記実施形態によれば、動画の再生位置の画像フレームFにおける部分領域ごとに決定された表示回数の中で、表示回数が多い上位の部分領域を含む表示範囲を示す疑似カメラワークデータを、クライアント2へ提供する疑似カメラワークデータとして決定するように構成した。そのため、注目度が高い領域を含む表示範囲を示す疑似カメラワークデータを、ユーザに対して推奨する適切な疑似カメラワークデータとして決定することができる。よって、複数のユーザそれぞれにより行われた疑似カメラワークの中から、ユーザが注目する可能性が高い疑似カメラワークをユーザに推奨することができる。
なお、図14(B)に示す疑似カメラワークデータ要求受信処理では、疑似カメラワークデータのクエリ情報に応じて、ワークファイル記憶領域31cに記憶されている何れかの疑似カメラワークデータがクライアント2への返答候補として決定されるように構成した。しかし、クライアント2への返答候補となる疑似カメラワークデータは、上述した表示回数テーブルに基づいて自動的に生成可能である。以下に、疑似カメラワークデータの自動生成処理について説明する。
疑似カメラワークデータの自動生成処理では、制御部11は、上述した表示回数テーブルにおける部分領域ごとの表示回数の中で、表示回数が最も多い部分領域を中心とするか又は表示回数が多い上位の複数の部分領域の重心を中心とする表示範囲を再生位置ごとに決定し、決定した表示範囲を再生位置ごとに示す疑似カメラワークデータを生成する。なお、疑似カメラワークデータの自動生成処理は、コンテンツごとに行われる。
図15(A)は、動画を構成する1画像フレームにおける部分領域をピクセルとした場合の表示範囲を示す図である。図15(B)は、動画を構成する1画像フレームにおける部分領域を動画ブロックとした場合の表示範囲を示す図である。図15(A)の例では、表示回数が最も多いピクセルPを中心として、1画像フレームF全体の合計表示回数の50%が含まれる領域が表示範囲R21として決定されている。この50%は、表示割合である。例えば、1画像フレームF全体の合計表示回数が「30」であるとすると、表示範囲R21内の合計表示回数は「15」になる。なお、表示回数が最も多いピクセルが複数ある場合、これらのピクセルの重心が表示範囲の中心とされる。一方、図15(B)の例では、表示回数が最も多い動画ブロックB1の中心を中心として、1画像フレームF全体の合計表示回数の50%が含まれる領域が表示範囲R22になっている。なお、表示回数が最も多い動画ブロックが複数ある場合、これらの動画ブロックの中心から求まる重心が表示範囲の中心とされる。また、図15(B)において、動画ブロックB1の隣接する動画ブロックB2〜B9は、一部分の領域が表示範囲R22に含まれている。例えば、動画ブロックB2の30%の領域が表示範囲R22に含まれているとすると、動画ブロックB2の表示回数の30%が表示範囲R22の表示回数に含まれることになる。つまり、表示範囲R22の表示回数が、1画像フレームF全体の合計表示回数の50%になるように、隣接する動画ブロックB2〜B9が分割されることになる。
表示範囲R21又はR22の表示回数が1画像フレームF全体の合計表示回数の50%以上になるように決定すれば、より注目度の高いシーンを表示する疑似カメラワークデータを生成することができる。ただし、1画像フレームF全体の合計表示回数の50%という表示割合に限定されるものではない。例えば、表示範囲R21又はR22の表示回数が1画像フレームF全体の合計表示回数の40%以上になるように表示割合を決定してもよい。なお、仮想スクリーンが長方形のスクリーンSC1の場合、例えばアスペクト比を16:9などに固定して、表示範囲のサイズが調整される。
ところで、疑似カメラワークデータの自動生成処理により1画像フレームFごとに表示範囲を決定すると再生したときに、動画が連続せず見づらくなることがある。そのため、画像フレームFにおける表示範囲を、単位再生時間ごとに決定して、その間が連続的に変化するように補完してもよい。図15(C)は、5秒間隔ごとに決定された表示範囲R31〜R33の間が連続的に変化するように補完された例を示す概念図である。図15(C)の例では、「0秒〜5秒」の単位再生時間範囲、「5秒〜10秒」の単位再生時間範囲、及び「10秒〜15秒」の単位再生時間範囲のそれぞれにおいて表示範囲が決定されている。「0秒〜5秒」の単位再生時間範囲における表示範囲R31は、この単位再生時間範囲の真中の2.5秒の再生位置における表示範囲として決定されている。5秒〜10秒の単位再生時間範囲における表示範囲R32は、この単位再生時間範囲の真中の7.5秒の再生位置における表示範囲として決定されている。「10秒〜15秒」の単位再生時間範囲における表示範囲R33は、この単位再生時間範囲の真中の12.5秒の再生位置における表示範囲として決定されている。そして、2.5秒の再生位置と5秒の再生位置との間に位置する画像フレームFにおける表示範囲、及び5秒の再生位置と7.5秒の再生位置との間に位置する画像フレームFにおける表示範囲は連続的に変化するように補完されている。このような補完は、図15(C)に示すように直線的でなくともよく、滑らかな曲線になるようにした方が望ましい。
図16(A)は、配信サーバ1の制御部11における疑似カメラワークデータの自動生成処理を示すフローチャートである。このフローチャートは、図15に示す例を考慮したものである。図16(A)に示す疑似カメラワークデータの自動生成処理は、例えば、表示回数テーブルが更新される度に、または所定回数(例えば、10回)更新される度に実行される。或いは、疑似カメラワークデータの自動生成処理は、定期的に実行されるように構成してもよい。あるいは、運用者等の判断で任意のタイミングで実行しても良い。疑似カメラワークデータの自動生成処理が開始されると、新規の疑似カメラワークデータが生成される。生成された疑似カメラワークデータは、この段階では、空の疑似カメラワークデータである。次いで、制御部11は、先頭要素として再生位置「0」における表示範囲を再生位置「0」に対応付けて新規の疑似カメラワークデータに登録する(ステップS101)。再生位置「0」における表示範囲は、例えば、再生位置「0」における画像フレームF全体として決定される。
次いで、制御部11は、変数iに「0」をセットする(ステップS102)。次いで、制御部11は、上述した単位再生時間範囲「T×i〜T×(i+1)」に含まれる各再生位置における画像フレームFの集合を処理対象として決定する(ステップS103)。ここで、「T」は、1つの単位再生時間範囲の時間的な長さである。次いで、制御部11は、表示回数テーブルを参照して、ステップS103で決定された処理対象の中で、表示回数が最も多い部分領域の中心を表示範囲の中心として決定する(ステップS104)。
次いで、制御部11は、表示回数テーブルを参照して、表示割合が例えば0.5となるように画像フレームFにおける表示範囲を決定する(ステップS105)。この表示割合は、例えば、動画の再生時間全体の合計表示回数を、ステップS103で決定された処理対象の合計表示回数で除算することにより算出される。次いで、制御部11は、ステップS105で決定した表示範囲の再生位置を「T×i+T/2)」として決定する(ステップS106)。例えば、0秒〜5秒の単位再生時間範囲である場合、再生位置「T×i+T/2)」は2.5秒として決定される。
次いで、制御部11は、新規の疑似カメラワークデータに登録された再生位置の中で、最後に登録された再生位置から、再生位置「T×i+T/2)」までの間の各再生位置における表示範囲を補完計算により決定する(ステップS107)。補完計算では、例えば、再生位置「0」における表示範囲と再生位置「2.5秒」における表示範囲とに基づき、再生位置「0」〜再生位置「2.5秒」の間に位置する画像フレームFにおける表示範囲が連続的に変化するように計算される。なお、このような補完計算自体は、公知の方法を適用することができるので詳しい説明は省略する。
次いで、制御部11は、ステップS105で決定された表示範囲、及びステップS107で決定された表示範囲を、それぞれの再生位置に対応付けて新規の疑似カメラワークデータに登録する(ステップS108)。次いで、制御部11は、変数iを1インクリメントする(ステップS109)。次いで、制御部11は、「T×i」が動画の再生時間全体より大きいか否かを判定する(ステップS110)。「T×i」が動画の再生時間全体より大きくないと判定された場合(ステップS110:NO)、ステップS103に戻る。これにより、次の単位再生時間範囲において上記と同様の処理が実行される。「T×i」が動画の再生時間全体より大きいと判定された場合(ステップS110:YES)、疑似カメラワークデータの自動生成処理を終了する。
次に、図17は、疑似カメラワークデータの自動生成処理の他の例を示す概念図である。図17の例では、ある再生位置における画像フレームFにおける部分領域を動画ブロックとした場合に、表示範囲が決定されるまでの様子を示している。図17に示す数値は、各動画ブロックの表示回数である。疑似カメラワークデータの自動生成処理では、先ず、図17(A)に示すように、最も表示回数の大きい動画ブロックB1が選定される。このときの表示割合は、1画像フレームF全体の合計表示回数が「30」であるとすると、20%(=6/30)となる。この表示割合が、例えば50%を超えるまで動画ブロックの選定が繰り返される。次に、図17(B)に示すように、選定された動画ブロックB1に隣接する動画ブロックの中で最も表示回数の大きい動画ブロックB3が選定される。このときの表示割合は、33%(=10/30)となる。次に、図17(C)に示すように、選定された動画ブロックB1に隣接する動画ブロックの中で動画ブロックB3の次に表示回数の大きい動画ブロックB5が選定される。このときの表示割合は、43%(=13/30)となる。次に、図17(D)に示すように、選定された動画ブロックB1に隣接する動画ブロックの中で動画ブロックB3及びB5の次に表示回数の大きい動画ブロックB8が選定される。このときの表示割合は、53%(=16/30)となる。このように表示割合が50%を超えた場合、図17(E)に示すように、上記選定された動画ブロックB1,B2,B4,及びB8を全て含む最小の領域が表示範囲R41として決定される。なお、アスペクト比が固定の場合、決定された表示範囲R41はアスペクト比に応じた表示範囲に調整される。
図16(B)は、疑似カメラワークデータの自動生成処理の他の例を示すフローチャートである。このフローチャートは、図17に示す例を考慮したものである。図16(B)に示す疑似カメラワークデータの自動生成処理の開始条件は、図16(A)に示す疑似カメラワークデータの自動生成処理の開始条件と同様である。なお、図16(B)に示すステップS111〜S113の処理は、図16(A)に示すステップS101〜S103の処理と同様である。
図16(B)に示すステップS114では、制御部11は、表示回数テーブルを参照して、ステップS113で決定された処理対象の中で、表示回数が最も多い動画ブロックを選定する。次いで、制御部11は、表示回数テーブルを参照して、ステップS114で選定された動画ブロックが配置された画像フレームFにおいて、ステップS114で選定された動画ブロックに隣接する動画ブロックの中で最も表示回数の大きい動画ブロックを選定する(ステップS115)。なお、ステップS115で選定された動画ブロックは以降のステップS116の処理で選定対象外に設定される。
次いで、制御部11は、表示回数テーブルを参照して、表示割合が例えば0.5以上になったか否かを判定する(ステップS116)。ここで、表示割合は、図16(A)に示すステップS105の処理の場合と同様である。表示割合が例えば0.5以上になっていないと判定された場合(ステップS116:NO)、ステップS115に戻る。これにより、例えば、ステップS114で選定された動画ブロックに隣接する動画ブロックの中で次に表示回数の大きい動画ブロックが選定される。一方、表示割合が例えば0.5以上になったと判定された場合(ステップS116:YES)、ステップS117へ進む。ステップS117では、制御部11は、ステップS114及びステップS115で選定された動画ブロックを全て含む最小の領域を表示範囲として決定し、ステップS118へ移行する。図16(B)に示すステップS118〜S122の処理は、図16(A)に示すステップS106〜S110の処理と同様である。
以上のように、疑似カメラワークデータの自動生成処理により生成された疑似カメラワークデータは、図14(B)に示すステップS71、ステップS73、ステップS76、又はステップS78で決定された返答候補である疑似カメラワークデータよりも優先して、疑似カメラワークデータの要求元であるクライアント2へ返信されるように構成されてもよい。また、疑似カメラワークデータの自動生成処理により生成された疑似カメラワークデータは、例えばコンテンツのタイトルと共にワークファイルに格納され、ワークファイル記憶領域31cに記憶されるように構成してもよい。この場合、疑似カメラワークデータの自動生成処理により生成された疑似カメラワークデータは、ユーザによる疑似カメラワークを示す疑似カメラワークデータと同様に、図14(B)に示す疑似カメラワークデータ要求受信処理にしたがって、返答候補として決定されうる。さらに、図14(A)に示すワークファイル登録処理により、疑似カメラワークデータの自動生成処理により生成された疑似カメラワークデータの注目度が決定されるように構成してもよい。この場合、疑似カメラワークデータの注目度は、注目度データベースに登録される。これにより、疑似カメラワークデータの自動生成処理により生成された疑似カメラワークデータの注目度が高ければ、図14(B)に示すステップS78において、新たな返答候補として決定されることになる。
以上説明したように、疑似カメラワークデータの自動生成処理によれば、記憶装置3に記憶された複数の疑似カメラワークデータを利用して、注目度が高い部分領域を含む表示範囲を示す疑似カメラワークデータを自動的に生成して、生成された疑似カメラワークデータを、ユーザに対して推奨する適切な疑似カメラワークデータとして決定することができる。
なお、上記実施形態において、クライアント2は配信サーバ1からコンテンツ及びコンテンツの疑似カメラワークデータを受信する構成を示した。しかし、ハイブリッド型またはピア型のピアツーピアネットワークにおいて、クライアント2が他のクライアント2からコンテンツ及びコンテンツの疑似カメラワークデータを受信する場合に対しても本発明は適用できる。この場合、クライアント2が本発明の情報処理装置として機能する。また、上記実施形態において、クライアント2が記憶装置3と接続可能であるように構成してもよい。この場合、クライアント2は記憶装置3から取得したコンテンツを再生する。そして、クライアント2は、記憶装置3から取得した疑似カメラワークデータに従って、動画を表示することになる。
1 配信サーバ
2 クライアント
3 記憶装置
11 制御部
S 通信システム

Claims (6)

  1. 動画を構成する画像フレーム内で、表示手段により表示される表示範囲が、動画の再生位置に応じて変化可能な動画の表示範囲を再生位置ごとに示す表示範囲情報を複数記憶する記憶装置に記憶された複数の前記表示範囲情報それぞれが示す表示範囲に基づいて、動画の再生位置の前記画像フレームにおける1以上の画素から構成される領域ごとに表示回数を決定する第1決定手段と、
    前記第1決定手段により決定された前記表示回数の中で、動画の再生位置ごとに、前記表示回数が多い上位の領域を含む表示範囲を示す表示範囲情報を、端末装置へ提供する表示範囲情報として決定する第2決定手段と、
    を備えることを特徴とする情報処理装置。
  2. 前記情報処理装置は、
    前記取得手段により取得された前記表示範囲情報が示す表示範囲に含まれる前記領域ごとに決定された複数の前記表示回数を平均して平均表示回数を再生位置ごとに決定する第3決定手段を更に備え、
    前記第2決定手段は、前記第3決定手段により決定された前記平均表示回数が多い上位の前記表示範囲を示す表示範囲情報を、前記端末装置へ提供する表示範囲情報として前記記憶装置に記憶された複数の前記表示範囲情報の中から決定することを特徴とする請求項1に記載の情報処理装置。
  3. 前記情報処理装置は、
    前記第1決定手段により決定された前記表示回数を再生位置ごと且つ前記領域ごとに登録するテーブルを作成する作成手段と、
    前記作成手段により作成されたテーブルに基づいて、前記記憶装置に記憶された前記複数の表示範囲情報ごとに、前記複数の表示範囲情報が示す表示範囲それぞれに含まれる領域ごとの表示回数の総和を算出する算出手段と、
    前記記憶装置に記憶された前記複数の表示範囲情報ごとに、前記算出手段により算出された前記表示回数の総和を前記表示範囲情報が示す表示範囲に含まれる領域の数で割った値を、注目度として決定する第4決定手段と、
    を更に備え、
    前記第2決定手段は、前記第4決定手段により決定された前記注目度が高い上位の前記表示範囲情報を、前記端末装置へ提供する表示範囲情報として前記記憶装置に記憶された複数の前記表示範囲情報の中から決定することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記決定手段は、前記第1決定手段により決定された前記表示回数が最も多い前記領域を中心とするか又は前記表示回数が多い上位の複数の前記領域の重心を中心とする表示範囲を再生位置ごとに決定し、決定した前記表示範囲を前記再生位置ごとに示す表示範囲情報を前記端末装置へ提供する表示範囲情報として決定することを特徴とする請求項1に記載の情報処理装置。
  5. 前記第2決定手段は、前記端末装置の表示手段のメイン画面に表示された第1の動画と同一の動画に対応し且つ前記表示手段のサブ画面に表示される第2の動画であって、前記メイン画面に表示される候補となる前記第2の動画の表示範囲を示す表示範囲情報として、前記表示回数が多い上位の領域を含む表示範囲を示す表示範囲情報を決定することを特徴とする請求項1乃至4の何れか一項に記載の情報処理装置。
  6. コンピュータにより行われる情報処理方法であって、
    動画を構成する画像フレーム内で、表示手段により表示される表示範囲が、動画の再生位置に応じて変化可能な動画の表示範囲を再生位置ごとに示す表示範囲情報を複数記憶する記憶装置に記憶された複数の前記表示範囲情報それぞれが示す表示範囲に基づいて、動画の再生位置の前記画像フレームにおける1以上の画素から構成される領域ごとに表示回数を決定する第1決定ステップと、
    前記第1決定ステップにより決定された前記表示回数の中で、動画の再生位置ごとに、前記表示回数が多い上位の領域を含む表示範囲を示す表示範囲情報を、端末装置へ提供する表示範囲情報として決定する第2決定ステップと、
    を含むことを特徴とする情報処理方法。
JP2013037496A 2013-02-27 2013-02-27 情報処理装置及び情報処理方法 Pending JP2014165841A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013037496A JP2014165841A (ja) 2013-02-27 2013-02-27 情報処理装置及び情報処理方法
PCT/JP2014/054650 WO2014132987A1 (ja) 2013-02-27 2014-02-26 情報処理装置及び情報処理方法
EP14757655.7A EP2963931A1 (en) 2013-02-27 2014-02-26 Information processing device and information processing method
US14/836,362 US20150364159A1 (en) 2013-02-27 2015-08-26 Information Processing Device and Information Processing Method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013037496A JP2014165841A (ja) 2013-02-27 2013-02-27 情報処理装置及び情報処理方法

Publications (1)

Publication Number Publication Date
JP2014165841A true JP2014165841A (ja) 2014-09-08

Family

ID=51428250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013037496A Pending JP2014165841A (ja) 2013-02-27 2013-02-27 情報処理装置及び情報処理方法

Country Status (4)

Country Link
US (1) US20150364159A1 (ja)
EP (1) EP2963931A1 (ja)
JP (1) JP2014165841A (ja)
WO (1) WO2014132987A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015127883A (ja) * 2013-12-27 2015-07-09 尚山 秀光 画像表示システム及び画像表示方法
JP2017183917A (ja) * 2016-03-29 2017-10-05 ブラザー工業株式会社 情報処理装置、情報処理方法及びプログラム
JP2018533317A (ja) * 2015-09-08 2018-11-08 クリックト インコーポレイテッドClicked Inc. 仮想現実映像伝送方法、再生方法、及びこれらを用いたプログラム
WO2023276279A1 (ja) * 2021-07-02 2023-01-05 ソニーグループ株式会社 画像処理装置、画像処理方法、プログラム

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8234411B2 (en) * 2010-09-02 2012-07-31 Comcast Cable Communications, Llc Providing enhanced content
CN105635749B (zh) 2014-10-31 2017-03-22 广州市动景计算机科技有限公司 产生视频帧集合的方法和设备
KR20180037725A (ko) * 2016-10-05 2018-04-13 엘지전자 주식회사 디스플레이 장치
CN107993276B (zh) * 2016-10-25 2021-11-23 杭州海康威视数字技术股份有限公司 一种全景图像的生成方法及装置
JP6853013B2 (ja) * 2016-10-26 2021-03-31 グリー株式会社 情報処理システム、情報処理方法、および情報処理プログラム
US10313664B2 (en) * 2017-01-11 2019-06-04 Qualcomm Incorporated Adjusting field of view of truncated square pyramid projection for 360-degree video
JP6791991B2 (ja) * 2017-01-19 2020-11-25 株式会社ソニー・インタラクティブエンタテインメント 画像配信装置
US11182639B2 (en) 2017-04-16 2021-11-23 Facebook, Inc. Systems and methods for provisioning content
EP3389281B1 (en) * 2017-04-16 2020-12-30 Facebook, Inc. Systems and methods for provisioning content
CN109640169B (zh) * 2018-11-27 2020-09-22 Oppo广东移动通信有限公司 视频增强控制方法、装置以及电子设备
TWI715166B (zh) * 2019-08-27 2021-01-01 宏正自動科技股份有限公司 多螢幕控制系統
CN110519644A (zh) * 2019-09-05 2019-11-29 青岛一舍科技有限公司 结合推荐视角的全景视频视角调整方法和装置
JP2023026969A (ja) * 2021-08-16 2023-03-01 キヤノン株式会社 撮像システム、サーバ装置、サーバ装置の制御方法、プログラム、および記憶媒体

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012039404A1 (ja) * 2010-09-24 2012-03-29 株式会社Gnzo 映像ビットストリームの伝送システム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100969966B1 (ko) * 2003-10-06 2010-07-15 디즈니엔터프라이지즈,인크. 비디오 플레이어의 재생 및 특징을 제어하는 방법 및 시스템
US8457352B2 (en) * 2007-05-23 2013-06-04 The University Of British Columbia Methods and apparatus for estimating point-of-gaze in three dimensions
JP2009124516A (ja) 2007-11-15 2009-06-04 Sharp Corp 動画編集装置、再生装置、動画編集方法、及び再生方法
US8542232B2 (en) * 2008-12-28 2013-09-24 Avaya Inc. Method and apparatus for monitoring user attention with a computer-generated virtual environment
US10440329B2 (en) * 2009-05-22 2019-10-08 Immersive Media Company Hybrid media viewing application including a region of interest within a wide field of view
JP5089658B2 (ja) * 2009-07-16 2012-12-05 株式会社Gnzo 送信装置及び送信方法
US20120042282A1 (en) * 2010-08-12 2012-02-16 Microsoft Corporation Presenting Suggested Items for Use in Navigating within a Virtual Space
US20130050448A1 (en) * 2011-08-24 2013-02-28 Ati Technologies Ulc Method, circuitry and system for better integrating multiview-based 3d display technology with the human visual system
US8379053B1 (en) * 2012-01-24 2013-02-19 Google Inc. Identification of areas of interest on a web page

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012039404A1 (ja) * 2010-09-24 2012-03-29 株式会社Gnzo 映像ビットストリームの伝送システム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JPN6014015560; 丹羽ほか: '多視点映像視聴支援の為のソーシャルな視聴履歴の利用' 情報処理学会研究報告 2011 April [DVD-ROM] Vol.2011-EC-19 No.1, 20110415, p.1-6, 一般社団法人情報処理学会 *
JPN7014001171; Kenji Mase et al.: 'Socially assisted multi-view video viewer' Proceedings of the 13th international conference on multimodal interfaces , 201111, p.319-322, ACM *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015127883A (ja) * 2013-12-27 2015-07-09 尚山 秀光 画像表示システム及び画像表示方法
JP2018533317A (ja) * 2015-09-08 2018-11-08 クリックト インコーポレイテッドClicked Inc. 仮想現実映像伝送方法、再生方法、及びこれらを用いたプログラム
US10970931B2 (en) 2015-09-08 2021-04-06 Clicked Inc. Method for transmitting virtual reality image created based on image direction data, and computer readable medium storing program using the same
JP2017183917A (ja) * 2016-03-29 2017-10-05 ブラザー工業株式会社 情報処理装置、情報処理方法及びプログラム
WO2023276279A1 (ja) * 2021-07-02 2023-01-05 ソニーグループ株式会社 画像処理装置、画像処理方法、プログラム

Also Published As

Publication number Publication date
US20150364159A1 (en) 2015-12-17
WO2014132987A1 (ja) 2014-09-04
EP2963931A1 (en) 2016-01-06

Similar Documents

Publication Publication Date Title
JP6015493B2 (ja) 端末装置、及びプログラム
WO2014132987A1 (ja) 情報処理装置及び情報処理方法
JP5825279B2 (ja) 端末装置及びプログラム
JP6433559B1 (ja) 提供装置および提供方法、プログラム
JP5942933B2 (ja) 端末装置、及びプログラム
JP6450064B2 (ja) 情報処理装置、動画データのデータ構造、情報処理システム、動画再生プログラム、および、動画の再生方法。
JP2018092580A (ja) 画像生成装置および方法
JP6409107B1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5838925B2 (ja) 通信システム、端末装置、動画の表示方法、及びプログラム
US20150110469A1 (en) Communication System, Terminal Device, Registration Method, and Storage Medium
JP2009177431A (ja) 動画像再生システム、サーバ装置、端末装置及び動画像生成方法等
JP2014072608A (ja) 情報処理システム、情報処理装置、表示装置、及びプログラム
JP6572368B2 (ja) 生成装置および生成方法、プログラム
US20230033201A1 (en) Image processing apparatus, image processing method, and storage medium
JP5942932B2 (ja) 端末装置、及びプログラム
JP6551107B2 (ja) サーバ装置、サーバプログラム、端末プログラム、動画送信方法、動画表示方法、通信システム
JP6600399B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7204843B2 (ja) 送信装置および送信方法、プログラム
JP5850012B2 (ja) 情報処理装置、プログラム及び通信システム
JP7123222B1 (ja) 表示制御装置、表示制御方法および表示制御プログラム
JP6931375B2 (ja) 送信装置および送信方法、プログラム
JP2015069346A (ja) 情報処理装置、及びプログラム
JP5854019B2 (ja) 端末装置、及びプログラム
JP2015070417A (ja) 通信システム、情報処理装置、及びプログラム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140902

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150901

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160112