JP5387246B2 - コンテンツ表示装置およびコンテンツ表示プログラム - Google Patents

コンテンツ表示装置およびコンテンツ表示プログラム Download PDF

Info

Publication number
JP5387246B2
JP5387246B2 JP2009203891A JP2009203891A JP5387246B2 JP 5387246 B2 JP5387246 B2 JP 5387246B2 JP 2009203891 A JP2009203891 A JP 2009203891A JP 2009203891 A JP2009203891 A JP 2009203891A JP 5387246 B2 JP5387246 B2 JP 5387246B2
Authority
JP
Japan
Prior art keywords
content
time
route
date
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009203891A
Other languages
English (en)
Other versions
JP2011054035A (ja
Inventor
陽介 千田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2009203891A priority Critical patent/JP5387246B2/ja
Publication of JP2011054035A publication Critical patent/JP2011054035A/ja
Application granted granted Critical
Publication of JP5387246B2 publication Critical patent/JP5387246B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、コンテンツ表示装置等に関する。
デジタルカメラ、スキャナ、IC(Integrated Circuit)レコーダなど個人用の記録装置が普及している。一般的に、利用者は記録装置により取得したコンテンツをデータベースに保存しておき、特定のコンテンツを見返す場合に、データベースに記憶された複数のコンテンツの中から目的のコンテンツを検索する。ここで、コンテンツは、映像データ、画像データ、音声データを含む。
しかし、近年の記録装置は、手軽に複数のコンテンツを記録できるため、データベースに保存されるコンテンツの量が膨大なものとなっており、複数のコンテンツの中から任意のコンテンツを効率よく検索することが求められている。以下において、デジタルカメラを用いて撮影したデジタル画像を検索する場合に、一般的に用いられている各種の手法について説明する。
デジタル画像を手動で整理する手法が存在する。デジタル画像を手動で整理する手法を第1の手法と表記する。第1の手法は、従来の銀塩写真のアルバムのように、利用者自身が手動でデジタル画像を整理しておくことで、特定のデジタル画像を検索し易くするものである。
デジタル画像の撮影日時から任意のデジタル画像を検索する手法が存在する。デジタル画像の撮影時刻から目的のデジタル画像を検索する手法を第2の手法と表記する。第2の手法は、撮影時刻とデジタル画像とを対応付けてデータベースに記憶しておく。利用者は、デジカメ画像を撮影した日時を思い出し、思い出した日時を基にしてデータベースから目的のデジタル画像を検索する。
デジタル画像を撮影した位置を利用する手法が存在する。デジタル画像を撮影した位置を利用する手法を第3の手法と表記する。第3の手法は、例えばカメラに内蔵されたGPS(Global Positioning System)を利用して撮影位置を特定し、地図データの該当位置にデジタル画像を配置する。利用者は、目的のデジタル画像を撮影した位置を思い出し、地図データに配置されたデジタル画像を検索する。
デジタル画像の構図や色合いを利用する手法が存在する。デジタル画像の構図や色合いを利用する手法を第4の手法と表記する。第4の手法は、複数のデジタル画像を解析し、見た目が似通ったデジタル画像を近くに配置することで、検索効率を高める。
デジタル画像を解析する手法が存在する。デジタル画像を解析する手法を第5の手法と表記する。第5の手法は、デジタル画像を解析して、デジタル画像に含まれる人物や物体の特徴を抽出しておき、検索対象となる人物の特徴をキーにして、目的のデジタル画像を検索する。
上述したように、例えば、利用者は上記の第1〜第5の手法の何れかを利用することで、目的のデジタル画像を検索する場合の検索効率の向上を図っている。なお、ここでは、説明の便宜上、デジタル画像を検索する場合について説明したが、スキャナやICレコーダ等を用いて取得したコンテンツを検索する場合にも、上記の第1〜第5の手法を利用することができる。
特開平11−39132号公報 特開2003−99434号公報 特開2002−027338号公報
しかしながら、上述した第1〜第5の手法はいずれも完璧ではなく、利用者が必ずしも効率的に目的のコンテンツを検索できるものではなかった。以下において、第1〜第5の手法の問題点を説明する。
第1の手法は、利用者自身が手動で、コンテンツを整理する手法であるため、整理対象となるコンテンツの量が多い場合、利用者にかかる負担が大きくなってしまうという問題がある。
第2の手法では、利用者が目的のコンテンツを取得した日時を正確に思い出せない場合、利用者は、ある程度の時間幅に含まれるコンテンツの中から、目的のコンテンツを検索することになる。時間幅が大きい場合、検索対象となるコンテンツの量が膨大になるため、目的のコンテンツを効率よく検索することが出来ない。
第3の手法では、利用者がGPSの電波状況の悪い場所等でコンテンツを取得した場合、コンテンツを取得した位置を特定することができず、このような場合は、第3の手法を利用することができない。また、利用者が同じ場所で多くのコンテンツを取得した場合、同一位置に多くのコンテンツが対応付けられてしまい、検索効率が低下してしまう。
第4の手法では、見た目が類似する複数のコンテンツを雑然と画面上に配置するため、見通しが悪く、利用者が覚えているコンテンツの構図と実際のコンテンツが異なる場合、目的のコンテンツを検索することができない。
第5の手法では、コンテンツに含まれる人物や物体の特徴を基に、目的のコンテンツを検索するものであるが、現実的には特徴が類似する複数のコンテンツが存在するため、一意に目的のコンテンツを検索することは出来なかった。
開示の技術は、上記に鑑みてなされたものであって、利用者が複数のコンテンツの中から目的のコンテンツを効率的に検索することができるコンテンツ表示装置およびコンテンツ表示プログラムを提供することを目的とする。
本願の開示するコンテンツ表示装置は、一つの態様において、時間の推移を仮想的な経路として生成し、利用者の行動を記録した履歴情報に基づいて、前記利用者の行動が変化した時間に対応する前記経路の形状を変化させる経路生成部と、記録装置がコンテンツを記録した時間に基づいて、前記コンテンツを前記経路に配置するコンテンツ配置部と、前記経路と当該経路に配置されたコンテンツとを表示する表示部とを備える。
本願の開示するコンテンツ表示装置の一つの態様によれば、利用者が複数のコンテンツの中から目的のコンテンツを効率的に検索することができるという効果を奏する。
図1は、本実施例1にかかるコンテンツ表示装置の構成を示す図である。 図2は、本実施例2にかかるコンテンツ表示装置の構成を示す図である。 図3は、コンテンツデータのデータ構造の一例を示す図である。 図4は、生活ログデータのデータ構造の一例を示す図である。 図5は、コンテンツ配置データのデータ構造の一例を示す図である。 図6は、図5に示した距離(L)と角度(θ)を説明するための図である。 図7は、経路データのデータ構造の一例を示す図である。 図8は、図7に示した曲率(R)と角度(θ)を説明するための図である。 図9は、景色データのデータ構造の一例を示す図である。 図10は、利用者が平均的に存在する位置の一例を示す図である。 図11は、表示時間Tと時間Dとの関係を示す図である。 図12は、画像合成部が生成する画像の一例を示す図である。 図13は、本実施例2にかかるコンテンツ表示装置の処理手順を示すフローチャートである。 図14は、配置処理の処理手順を示すフローチャートである。 図15は、時間毎の利用者の加速度の一例を示す図である。 図16は、結合・分岐する経路の一例を示す図である。 図17は、コンテンツ表示プログラムを実行するコンピュータを示す機能ブロック図である。
以下に、本願の開示するコンテンツ表示装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
本実施例1にかかるコンテンツ表示装置の構成について説明する。図1は、本実施例1にかかるコンテンツ表示装置10の構成を示す図である。図1に示すように、このコンテンツ表示装置10は、経路生成部10aと、コンテンツ配置部10bと、表示部10cを有する。
経路生成部10aは、時間の推移を仮想的な経路として生成し、利用者の行動を記録した履歴情報に基づいて、前記利用者の行動が変化した時間に対応する前記経路の形状を変化させる処理部である。
コンテンツ配置部10bは、記録装置がコンテンツを記録した時間に基づいて、コンテンツを経路生成部10aが生成した経路に配置する処理部である。表示部は、経路生成部10aが補正した経路とコンテンツ配置部10bが配置したコンテンツとを表示する処理部である。
一般的に、人間は過去に行った物事を時系列で覚えており、物事と場所とを対応付けて記憶するといわれている。また、物事と対応付けて記憶する場所は、現実の場所に限らず、仮想的な場所でも構わないという研究結果が存在する。この研究結果は、例えば、「久保田ほか、「知球」:持続的に発展可能な時空間記憶の構築、情報処理学会研究報告「ヒューマンインタフェース」、Vol.2004、No.90、2004」に記載されている。
本実施例1にかかるコンテンツ表示装置10は、時間の推移を仮想的な経路として生成し、利用者の行動を記録した履歴情報に基づいて経路の形状を変化させる。そして、コンテンツ表示装置10は、コンテンツを記録した時間に基づいてコンテンツを経路に配置して表示する。時間の推移に応じてうつりかわる仮想的な経路とコンテンツとが対応付けられているため、利用者はコンテンツの配置位置を記憶することが容易となり、利用者がコンテンツを検索する場合も効率的に目的のコンテンツを検索することができる。
次に、本実施例2にかかるコンテンツ表示装置の構成について説明する。図2は、本実施例2にかかるコンテンツ表示装置100の構成を示す図である。図2に示すように、このコンテンツ表示装置100は、コンテンツ収集部110、通信部120、生活ログ収集部130、入力部140、出力部150を有する。また、コンテンツ表示装置100は、インターフェース部160、記憶部170、制御部180を有する。
このうち、コンテンツ収集部110は、デジタルカメラ、スキャナ、ICレコーダ等に接続し、コンテンツを収集する処理部である。コンテンツ収集部110は、例えば、デジタルカメラ、スキャナ、ICレコーダとデータ通信を行って情報を取得するASIC(Application Specific Integrated Curcuit)等に対応する。コンテンツ収集部110が収集するコンテンツは、映像データ、画像データ、音声データを含む。
通信部120は、ネットワークを介して接続された他の装置とデータ通信を実行する処理部である。例えば、通信部120は、各種の映像、画像、音声を配信するサーバ装置との間でデータ通信を実行するASICや通信用カード等に対応する。
生活ログ収集部130は、例えば、GPS(Global Positioning System)ロガー、加速度計、歩数計、脈拍計、血圧計、携帯電話等に接続し、利用者の行動を記録した履歴情報を収集する処理部である。履歴情報は、利用者の移動軌跡、時間毎の利用者の加速度、時間毎の利用者の脈拍、時間毎の利用者の血圧、携帯電話の発着信履歴等を含む。その他にも、履歴情報は、利用者によるコンピュータの操作時間の変化、電子マネーによる出金記録、定期券の区間を含んでもよい。生活ログ収集部130は、GPSロガー、加速度計、歩数計、脈拍計、血圧計、携帯電話等とデータ通信を行うASIC等に対応する。
入力部140は、キーボードやマウスに対応する。利用者は、入力部140を操作して、各種の情報をコンテンツ表示装置100に入力する。例えば、利用者は、ディスプレイに表示される経路の表示時間、進行方向、進行速度を入力する。
出力部150は、ディスプレイまたはモニタ、スピーカ等の出力装置に対応する。出力部150は、制御部180から各種の情報を取得し、取得した情報を表示する。例えば、出力部150は、制御部180から経路や経路上に配置されたコンテンツの情報を取得し、取得した情報を表示する。
記憶部170は、各種の情報を記憶する記憶部である。記憶部150は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(flash memory)などの半導体メモリ素子、またはハードディスク、光ディスクなどの記憶装置に対応する。
記憶部170は、コンテンツデータ171、生活ログデータ172、コンテンツ配置データ173、仮想地形データ174を有する。コンテンツデータ171は、映像データ、画像データ、音声データ等のコンテンツと、記録装置がコンテンツを記録した日時とを対応付けて記憶する。ここで、記録装置は、デジタルカメラ、スキャナ、ICレコーダ等に対応する。
生活ログデータ172は、利用者の行動を記録した履歴情報を記憶する。コンテンツ配置データ173は、経路に配置するコンテンツの配置位置を記憶する。仮想地形データ174は、経路の情報と、経路に配置される景色の情報とを記憶する。
制御部180は、例えば、ASIC(Application Specific Integrated Curcuit)や、FPGA(Field Programmable Gate Array)などの集積装置、または、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路である。
制御部180は、データ取得部181、公共コンテンツ選択部182、乱数発生部183、コンテンツ配置部184、仮想地形生成部185、画像合成部186を有する。
データ取得部181は、コンテンツ収集部110からコンテンツを取得し、取得したコンテンツをコンテンツデータ171に登録する。また、データ取得部181は、生活ログ収集部130から履歴情報を取得し、取得した履歴情報を生活ログデータ172に登録する。
公共コンテンツ選択部182は、時代を代表・象徴するコンテンツを取得し、取得したコンテンツをコンテンツデータ171に登録する処理部である。時代を代表するコンテンツは、例えば、事件の映像等に対応する。
例えば、公共コンテンツ選択部182は、通信部120を介して、映像・画像・音声を管理するサーバ装置とデータ通信を実行する。かかるサーバ装置は、映像・画像・音声と、映像・画像・音声をクライアントに配信した配信回数とを対応付けた配信情報を公共コンテンツ選択部182に出力する。
公共コンテンツ選択部182は、配信情報に基づいて、配信回数が規定回数以上となる映像・画像・音声を検索し、検索した映像・画像・音声をコンテンツデータ171に登録する。なお、公共コンテンツ選択部182は、上記の手法以外の周知技術を利用して、時代を代表するコンテンツを取得してもよい。
乱数発生部183は、0〜9の数字を無作為に選択することで乱数を生成する処理部である。乱数発生部183は、生成した乱数をコンテンツ配置部184および仮想地形生成部185に出力する。
コンテンツ配置部184は、コンテンツデータ171からコンテンツを取得し、コンテンツの特徴に基づいて、コンテンツの三次元空間上の位置を特定する処理部である。コンテンツ配置部184は、コンテンツとコンテンツの位置とを対応付けた情報を、コンテンツ配置データ173に登録する。コンテンツ配置部184の具体的な説明は後述する。
仮想地形生成部185は、生活ログデータ172に登録された履歴情報を取得し、取得した履歴情報を基にして、経路の形状を特定する処理部である。仮想地形生成部185は、特定した経路の情報を仮想地形データ174に登録する。仮想地形生成部185の具体的な説明は後述する。
画像合成部186は、仮想的な経路上にコンテンツを配置した画像を生成し、生成した画像を出力部150に出力する処理部である。画像合成部186は、入力部140から表示時間を受け付け、表示時間に対応する経路やコンテンツの画像を生成する。また、入力部140からの指示に応じて、表示時間よりも先の時間に対応する画像または後の時間に対応する画像を順次生成する。画像合成部186の具体的な説明は後述する。
次に、図2の記憶部170に格納されるコンテンツデータ171、生活ログデータ172、コンテンツ配置データ173、仮想地形データ174のデータ構造について順に説明する。図3は、コンテンツデータ171のデータ構造の一例を示す図である。図3に示すように、コンテンツデータ171は、ファイル本体と、記録日時とを対応付けて記録する。ファイル本体において、「○○.mpg」は映像データであり、「○○.jpg」は画像データであり、「○○.mp3」は音声データである。
記録日時は、記録装置がコンテンツを記録した日時に対応する。例えば、図3の1段目では、ファイル本体「xxx.jpg」の記録日時は、「2008年10月05日07時54分32秒」となる。
図4は、生活ログデータ172のデータ構造の一例を示す図である。ここでは一例として、生活ログデータ172が記録する履歴情報を、時間毎に利用者の位置を記録した移動軌跡とする。図4に示すように、生活ログデータ172は、記録日時と、利用者の緯度・経度とを対応付けて記録する。例えば、図4の1段目を参照すると、「2008年10月05日07時30分」における利用者の位置は、緯度「35度43分36秒」経度「139度35分50秒」となる。
図5は、コンテンツ配置データ173のデータ構造の一例を示す図である。図5に示すように、コンテンツ配置データ173は、ファイル本体と、日時と、距離(L)と、角度(θ)とを対応付けて記録する。日時は、コンテンツデータ171の記録日時に対応する。
図6は、図5に示した距離(L)と角度(θ)を説明するための図である。図6に示すように、距離(L)は、経路の中心とコンテンツの中心との距離である。角度(θ)は、経路の中心とコンテンツの中心とを繋ぐ線と、経路の面とのなす角度である。
仮想地形データ174は、経路データと景色データを有する。図7は、経路データのデータ構造の一例を示す図である。図7に示すように、経路データは、日時と曲率(R)と起伏(H)とを対応付けて記録する。本実施例2にかかる経路は、時間軸を基準に生成されるため、日時によって経路の位置が一意に特定される。
図8は、図7に示した曲率(R)と角度(θ)を説明するための図である。図8に示すように、曲率(R)は経路の曲がり具合を示す量である。起伏(H)は、基準となる経路の中心と、該当する経路の中心との距離を示す。
図9は、景色データのデータ構造の一例を示す図である。図9に示すように、景色データは、日時と物体と補助情報とを対応付けて記録する。このうち、物体は、看板、木、山などの画像である。例えば、「SignTypeA」は看板の画像に対応し、「TreeTypeC」は木の画像に対応し、「MtTypeD」は山の画像に対応する。
補助情報は、各画像に関する補助的な情報である。例えば、物体「SignTypeA」の補助情報は、看板に記載する文字「平成20年」が補助情報として格納されている。なお、「TreeTypeC」、「MtTypeD」の補助情報は、物体の経路上の位置が補助情報として格納されている。
次に、コンテンツ配置部184がコンテンツの三次元空間上の位置を特定する処理を具体的に説明する。コンテンツの三次元空間上の位置を特定する要素は、日時と、距離(L)と、角度(θ)を含む。このうち、日時は、コンテンツデータ171において、コンテンツに対応付けられた記録日時をそのまま利用する。
例えば、コンテンツ配置部184は、記録日時「2008年10月05日07時54分32秒」に対応するコンテンツの日時を、そのまま「2008年10月05日07時54分32秒」とする。
また、コンテンツ配置部184は、以下の式(1)、式(2)を用いて、距離(L)、角度(θ)を算出する。
L=C・・・(1)
θ=s/86400・π・・・(2)
式(1)に含まれるCは、任意の定数であり、利用者が予め定めておく。式(2)に含まれるsは、コンテンツの記録日時に対応する日における零時からの経過秒数に対応する。例えば、記録日時「2008年10月05日07時54分32秒」に対応する10月5日における零時からの経過秒数は、28472秒となる。
コンテンツ配置部184は、コンテンツデータ171に含まれるコンテンツ毎に、日時、距離(L)、角度(θ)を特定し、日時、距離(L)、角度(θ)とコンテンツとを対応付けてコンテンツ配置データ173に登録する。
次に、仮想地形生成部185が経路の曲率、経路の形状を特定する処理について具体的に説明する。例えば、仮想地形生成部185は、生活ログデータ172を参照し、一ヶ月毎に利用者が平均的に存在する位置を算出する。図10は、利用者が平均的に存在する位置の一例を示す図である。図10において、利用者が平均的に存在する位置は、目的地から勤務先までを結ぶ移動軌跡によって示される。
図10に示すように、利用者が通学・通勤等の日常生活を送っていた場合、一ヶ月程度の大局的な時間幅で見ると、利用者が平均的に存在する位置はある程度絞られる。利用者が平均的に存在する位置と比較して、利用者の位置が大幅に異なる場合、利用者に進学、転勤、転居等の人生のイベントが発生したものと推定できる。
例えば、仮想地形生成部185は、日時毎に、利用者が平均的に存在する位置と、利用者の存在する位置とを比較することで、比較した位置が所定の距離以上はなれている日時を特定する。以下の説明において、比較した位置が所定の距離以上はなれている日時をイベント発生日時と表記する。
仮想地形生成部180は、経路データとイベント発生日時とを比較し、イベント発生日時に対応する経路データの曲率(R)または起伏(H)に値を登録する。例えば、仮想地形生成部180は、複数の数値を含む数値群の中からランダムに値を選択し、選択した値を経路データの曲率(R)または起伏(H)に登録する。なお、経路データの曲率(R)、起伏(H)の初期値を0とする。
次に、画像合成部186が経路にコンテンツを配置した画像を生成する処理について具体的に説明する。利用者は、入力部140を操作して、任意の表示時間Tと変化時間ΔTを画像合成部186に入力する。経路は時間軸にしたがって変化するので、変化時間ΔTが大きいほど、経路の移動速度は速くなる。ここでは一例として、画像合成部186が、表示時間Tから過去に向かって、経路とコンテンツを表示する場合について説明する。
画像合成部186は、表示時間Tから変化時間ΔTを減算した値で表示時間Tの値を更新し、時間T〜T−Dに含まれるコンテンツと経路の情報をコンテンツ配置データ173、仮想地形データ174から検索する。ここでDは、所定の時間である。三次元空間上の利用者の視点位置をTとすると、T〜T−Dは視野の範囲に対応する。図11は、表示時間Tと時間Dとの関係を示す図である。
画像合成部186は、時間T〜T−Dに含まれるコンテンツと経路の情報を三次元空間に配置する。画像合成部186は、時間T〜T−Dに含まれるコンテンツと経路の情報を配置した後に、表示時間Tから変化時間ΔTを減算した値で表示時間Tの値を更新し、上記の処理を繰り返し実行する。
続いて、画像合成部186が、時間T〜T−Dに含まれるコンテンツと経路の情報を三次元空間に配置する処理について説明する。ここでは説明の便宜上、時間Tの値を時間tに格納する。まず、画像合成部186は、下記の式(3)、式(4)、式(5)を用いて、経路の形状に対応するx、y、zを算出する。
x=x+Δtsin(r)・・・(3)
y=y+Δtcos(r)・・・(4)
z=z+h・・・(5)
式(3)、式(4)に含まれるΔtは、任意の時間幅であり、rは曲率に対応する。式(5)に含まれるhは、起伏に対応する。画像合成部186は、算出したx、y、zを中心とする所定幅の経路を生成する。
続いて、画像合成部186は、経路上にコンテンツを配置する。画像合成部186は、時間tと、コンテンツ配置データ171とを比較し、時間tに対応するコンテンツ、距離(L)、角度(θ)を対応付けて検出する。ここで、コンテンツは、図5に示したファイル本体に対応する。画像合成部186は、下記の式(6)、式(7)、式(8)を用いて、コンテンツの配置位置X、Y、Zを算出する。
X=x+Lcos(r)cos(θ)・・・(6)
Y=y+Lsin(r)cos(θ)・・・(7)
Z=z+Lsin(θ)・・・(8)
画像合成部186は、式(6)〜(8)によって算出した配置位置X、Y、Zに、時間tに対応するコンテンツを配置する。
また、画像合成部186は、時間tに対応する物体を図9に示した景色データから取得し、取得した物体に対応する補助情報に基づいて、物体を配置する。時間tに対応する物体が存在しない場合、画像合成部186は、物体の配置を実行しない。
画像合成部186は、下記の式(9)、式(10)、式(11)を用いて、曲率r、起伏h、時間tの値を更新する。
r=r+R(t)・・・(9)
h=h+H(t)・・・(10)
t=t−Δt・・・(11)
式(9)に含まれるR(t)は、図7に示した経路データの時間tに対応する曲率(R)を返す関数である。式(10)に含まれるH(t)は、経路データの時間tに対応する起伏(H)を返す関数である。画像合成部186は、式(11)によって算出される時間tの値が、時間TからDを減算した値以下となるまで、上記の処理を繰り返し実行する。
図12は、画像合成部186が生成する画像の一例を示す図である。図12に示すように、経路には複数のコンテンツが配置されている。また、経路上に、コンテンツ以外の景色も配置される。利用者が指定する変化時間ΔTにしたがって、画像合成部186が経路上を前進または後退する画像を順次生成することで、ディプレイ上には、カーレースゲームのような画像が流れる。
なお、画像合成部186は、コンテンツが音声データの場合、音声の一部をスピーカに出力してもよい。画像合成部186は、時間Tと音声データの記録日時が一致した場合に、記録日時の一致する音声データの一部をスピーカに出力させる。
画像合成部186は、音声データをスキャンし、最も大きい音量を含む部分の音声を出力してもよいし、記録開始時間から所定時間後までの音声データを出力してもよい。
次に、本実施例2にかかるコンテンツ表示装置100の処理手順について説明する。図13は、本実施例2にかかるコンテンツ表示装置100の処理手順を示すフローチャートである。図13に示すように、このコンテンツ表示装置100は、閲覧開始要求を受け付け(ステップS101)、時間Tを受け付ける(ステップS102)。また、コンテンツ表示装置100は、変化時間ΔTを受け付ける(ステップS103)。
コンテンツ表示装置100は、T−ΔTの値をTに代入し(ステップS104)、配置処理を実行する(ステップS105)。コンテンツ表示装置100は、視点位置をTとして、二次元画面に仮想空間を表示し(ステップS106)、処理を継続するか否かを判定する(ステップS107)。コンテンツ表示装置100は、処理を継続する場合に(ステップS108,Yes)、ステップS103に移行し、処理を再開する。コンテンツ表示装置100は、処理を継続しない場合に(ステップS108,No)、処理を終了する。
次に、図13のステップS105に示した配置処理の処理手順について説明する。図14は、配置処理の処理手順を示すフローチャートである。画像合成部186は、時間Tの値をtに代入し(ステップS201)、曲率r、起伏h、経路の形状x、y、zの値を0に設定する(ステップS202)。
画像合成部186は、T−ΔTの値がtの値以上であるか否かを判定し(ステップS203)、T−ΔTの値がtの値以上の場合(ステップS204,Yes)、配置処理を終了する。
一方、画像合成部186は、T−ΔTの値がtの値未満の場合(ステップS204,No)、xの値とΔtsin(r)の値を加算したものをxに代入する(ステップS205)。また、画像合成部186は、yの値とΔtsin(r)の値を加算したものをyに代入し(ステップS206)、zの値と起伏hの値を加算したものをzに代入する(ステップS207)。
画像合成部186は、x、y、zの値を基にして経路の形状を生成し(ステップS208)、時間tに対応するコンテンツまたは物体が存在するか否かを判定する(ステップS209)。画像合成部186は、時間tに対応するコンテンツまたは物体が存在する場合に(ステップS210,Yes)、時間tに対応するコンテンツまたは物体を取得し、コンテンツに対応する距離L、角度θを取得する(ステップS211)。
画像合成部186は、xの値とLcos(r)cos(θ)の値を加算したものをXに代入し(ステップS212)、yの値とLsin(r)cos(θ)の値を加算したものをYに代入する(ステップS213)。また、画像合成部186は、zの値とLsin(θ)の値を加算したものをZに代入する(ステップS214)。
画像合成部186は、X、Y、Zの値を基にして、コンテンツを配置する(ステップS215)。ステップS215において、画像合成部186が、時間tに対応する物体を取得している場合、物体のパラメータに基づいて物体を配置する。
画像合成部186は、rの値とR(t)の値とを加算したものをrに代入する(ステップS216)。また、画像合成部186は、tの値からΔtの値を減算したものをtに代入し(ステップS217)、ステップS204に移行し処理を再開する。
上述してきたように、本実施例2にかかるコンテンツ表示装置100は、利用者の行動を記録した履歴情報から経路の形状を補正し、コンテンツの記録日時等を含む特徴に基づいて、コンテンツを経路上に配置する。したがって、仮想的ではあるが、経路とコンテンツとが対応付けられているため、利用者はコンテンツの配置位置を記憶することが容易となり、利用者がコンテンツを検索する場合も効率的に目的のコンテンツを検索することができる。
また、コンテンツ表示装置100は、仮想空間に特徴的な地形を生成するため、利用者が経路を辿ってコンテンツを検索する作業を繰り返すことで、特定のコンテンツが何処に位置するかを容易に把握することができる。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例1、2以外にも種々の異なる形態にて実施されてよいものである。そこで、以下では実施例3として本発明に含まれる他の実施例を説明する。
まず、コンテンツの三次元空間上の位置を特定する要素のうち、距離(L)と角度(θ)の特定方法について説明する。上記の実施例2において、コンテンツ配置部184は、上記の式(1)、式(2)を用いて距離(L)と角度(θ)を算出していたがこれに限定されるものではない。以下において、距離(L)と角度(θ)を特定する各種の方法について説明する。
コンテンツ配置部184は、距離(L)と角度(θ)をランダムな値にしてもよい。コンテンツ配置部184は、以下の式(12)、式(13)を用いて距離(L)、角度(θ)を算出する。
L=C+Rnd(C)・・・(12)
θ=Rnd(π)・・・(13)
式(12)、(13)に含まれるRnd(x)は、0〜xまでの範囲で、ランダムな値を返す関数である。xは、正数である。C、Cは定数である。
コンテンツ配置部184は、みよう絵等の周知技術を用いてコンテンツの色傾向を判定し、コンテンツの色傾向に基づいて、距離(L)と角度(θ)を特定してもよい。例えば、コンテンツ配置部184は、色傾向と、距離(L)の値、角度(θ)の値とを組合せたテーブルを保持し、色傾向の判定結果と、テーブルとを比較してコンテンツの距離(L)と角度(θ)を特定する。
コンテンツ配置部184は、コンテンツを記録した位置に基づいて、距離(L)と角度(θ)を特定してもよい。例えば、コンテンツ配置部184は、利用者の自宅の位置座標を保持しておき、コンテンツを記録した位置が自宅の東方向の場合、角度(θ)を0〜π/2とし、自宅の西方向の場合、角度(θ)をπ/2〜πとしてもよい。
コンテンツ配置部184は、コンテンツに含まれる人物の特定を行い、特定した人物に基づいて、距離(L)と角度(θ)を特定してもよい。例えば、コンテンツ配置部184は、人物と、距離(L)の値、角度(θ)の値とを組合せたテーブルを保持し、人物の判定結果と、テーブルとを比較してコンテンツの距離(L)と角度(θ)を特定する。
コンテンツ配置部184が、コンテンツに含まれる人物を特定する方法は如何なる周知技術を用いても構わない。例えば、コンテンツ収集部110が、メールによりコンテンツを取得している場合、コンテンツ配置部184は、メールの送信元となる端末装置の利用者をコンテンツの人物として特定してもよい。
その他にも、コンテンツ配置部184は、コンテンツに含まれる被写体の顔パラメータや、コンテンツの中身そのものを適当なハッシュ関数を用いて数値化し、距離(L)および角度(θ)を特定しても良い。
次に、仮想地形生成部185がイベント発生日時を特定する方法について説明する。上記の実施例2において、仮想地形生成部185は、利用者が平均的に存在する位置と、利用者の位置とを比較して、イベント発生日時を特定していたがこれに限定されるものではない。以下において、イベント発生日時を特定する各種の方法について説明する。
仮想地形生成部185は、利用者の生活リズムに基づいて、イベント発生日時を特定してもよい。利用者は加速度計を身につけ、生活ログ収集部130は、加速度計から時間毎の利用者の加速度を履歴情報として取得し、履歴情報を生活ログデータ172に登録する。図15は、時間毎の利用者の加速度の一例を示す図である。
仮想地形生成部185は、時間毎の利用者の平均的な加速度を算出しておく。例えば、仮想地形生成部185は、時間毎に、平均的な加速度と加速度との差を算出し、算出した差が閾値以上となる日時をイベント発生日時として特定してもよい。
仮想地形生成部185は、コンテンツに含まれる人物等に基づいて、イベント発生日時を特定してもよい。仮想地形生成部185は、コンテンツに含まれる人物を特定し、コンテンツ毎の人物の出現頻度を算出する。例えば、仮想地形生成部185は、時系列的に連続するコンテンツを比較し、コンテンツに含まれる人物の出現頻度が閾値以上変化する日時を、イベント発生日時として特定する。
なお、仮想地形生成部185は、コンテンツが音声データの場合、周波数解析などを実行してコンテンツに含まれる人物を特定し、人物の出現頻度を特定する。また、メールによりコンテンツを取得している場合、仮想地形生成部185は、メールに添付された文書に含まれる人物やプロジェクト等に基づいて、コンテンツに含まれる人物を特定する。また、コンテンツがWebページにて掲載されていた場合、仮想地形生成部185は、コンテンツに対応付けられた記事に含まれる人物に基づいて、コンテンツに含まれる人物を特定する。
仮想地形生成部185は、携帯電話の発着信履歴に基づいて、イベント発生日時を特定してもよい。生活ログ収集部130は、携帯電話の発着信履歴を履歴情報として取得し、履歴情報を生活ログデータ172に登録する。ここで、発着信履歴は、利用者が会話した人物と、会話した日時とが対応付けられている。
例えば、仮想地形生成部185は、生活ログデータ172に記憶された履歴情報に基づいて、所定の時間毎に、利用者が最も多く会話した人物を特定する。そして、仮想地形生成部185は、利用者が最も多く会話した人物が変化した日時を、イベント発生日時として特定する。
仮想地形生成部185は、利用者が操作したPC(Personal Computer)の操作時間の変化に基づいて、イベント発生日時を特定してもよい。例えば、生活ログ収集部130は、時間毎のPCの操作時間を履歴情報として取得し、履歴情報を生活ログデータ172に登録する。
例えば、仮想地形生成部185は、一日の平均的なPCの操作時間を算出しておく。そして、仮想地形生成部185は、一日の平均的なPCの操作時間と、任意の日のPCの操作時間とを比較し、各操作時間の差が閾値以上となる日を特定し、特定した日をイベント発生日時とする。
仮想地形生成部185は、利用者がPCで作業した作業内容の変化に基づいて、イベント発生日時を特定してもよい。例えば、生活ログ収集部130は、所定の時間毎に、PC上で起動されたアプリケーションの種別とアプリケーションの起動回数を履歴情報として取得し、履歴情報を生活ログデータ172に登録する。
例えば、仮想地形生成部185は、一日のアプリケーション毎の起動回数の平均値を算出する。仮想地形生成部185は、アプリケーション毎の起動回数の平均値と、任意の日のアプリケーション毎の起動回数とを比較し、各起動回数の差が閾値以上となる日を特定し、特定した日をイベント発生日時とする。
仮想地形生成部185は、出金記録の変化に基づいて、イベント発生日時を特定してもよい。例えば、生活ログ収集部130は、時間毎の出金金額を履歴情報として取得し、履歴情報を生活ログデータ172に登録する。
例えば、仮想地形生成部185は、一ヶ月の出金金額の平均値を算出する。仮想地形生成部185は、出金金額の平均値と、任意の一ヶ月の出金金額とを比較し、各出金金額の差が閾値以上となる月を特定する。仮想地形生成部185は、特定した月に含まれる任意の日時をイベント発生日時とする。
仮想地形生成部185は、定期券の区間の変化に基づいて、イベント発生日時を特定してもよい。例えば、生活ログ収集部130は、利用者が購入した定期券の購入履歴を履歴情報として取得し、履歴情報を生活ログデータ172に登録する。この履歴情報は、利用者が購入した定期券の区間と購入日時が、時系列に並んでいるものとする。例えば、仮想地形生成部185は、履歴情報に記録された前後の定期券の区間を比較し、定期券の区間が異なる購入日時を、イベント発生日時として特定する。なお、仮想地形生成部185は、ランダムにイベント発生日時を特定してもよい。
次に、画像合成部186が表示する経路のその他の例について説明する。上述した実施例2では、経路は***であったがこれに限定されるものではない。例えば、家族等でコンテンツを共有する場合、結婚や子供の独立に合わせて、経路を結合・分岐してもよい。図16は、結合・分岐する経路の一例を示す図である。
図16に示すように、コンテンツ表示装置100は、結婚する前は、利用者の経路と利用者の配偶者の経路を別々に生成するが、結婚後は、利用者の経路と配偶者の経路を一本の経路に結合して、家族の経路を生成する。また、結婚後において第一子が独立した場合には、家族の経路を、夫婦の経路と、第一子の経路に分岐する。図16に示す例では、第一子の経路はその後、第一子の配偶者の経路と結合する。
経路の結合・分割は、複数の経路の始点もしくは終点の時間を一致させることで実現できる。例えば、画像合成部186は、利用者の経路の終点の時間と、配偶者の経路の終点の時間を一致させることで、利用者の経路と配偶者の経路を結合する。また、画像合成部186は、家族の経路の終点の時間と、第一子の経路の始点の時間と、夫婦の経路の始点の時間を一致させることで、家族の経路を、第一子の経路、夫婦の経路に分岐させる。
ところで、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
例えば、コンテンツ収集部110、通信部120、生活ログ収集部130、入力部140、出力部150を、コンテンツ表示装置100の外部装置としてネットワーク経由で接続するようにしてもよい。また、データ取得部181、公共コンテンツ選択部182、乱数発生部183、コンテンツ配置部184、仮想地形生成部185、画像合成部186を別の装置がそれぞれ有し、ネットワーク接続されて協働し、コンテンツ表示装置100の機能を実現してもよい。
なお、このコンテンツ表示装置100は、既知の情報処理装置に、上述した各処理部181〜186の各機能を搭載することによって実現することもできる。既知の情報処理装置は、例えば、パーソナルコンピュータ、ワークステーション、携帯電話、PHS端末、移動体通信端末またはPDA等に対応する。
ところで、図2に示した本実施例にかかるコンテンツ表示装置100の構成は、要旨を逸脱しない範囲で種々に変更することができる。例えば、コンテンツ表示装置100の制御部180の機能をソフトウェアとして実装し、これをコンピュータで実行することにより、制御部180と同等の機能を実現することもできる。以下に、制御部180の機能をソフトウェアとして実装したコンテンツ表示プログラムを実行するコンピュータの一例を示す。
図17は、コンテンツ表示プログラムを実行するコンピュータを示す機能ブロック図である。このコンピュータ200は、各種演算処理を実行するCPU(Central Processing Unit)210と、ユーザからのデータの入力を受け付ける入力装置220と、モニタ230を有する。また、コンピュータ200は、記憶媒体からプログラム等を読取る媒体読取り装置240と、ネットワークを介して他のコンピュータとの間でデータの授受を行うネットワークインターフェース装置250を有する。また、コンピュータ200は、各種情報を一時記憶するRAM(Random Access Memory)260と、ハードディスク装置270を有する。各装置210〜270は、バス280に接続される。
そして、ハードディスク装置270には、図2に示した制御部180と同様の機能を有するコンテンツ表示プログラム271と、図2の記憶部170に記憶される各種データに対応する制御データ272とが記憶される。なお、制御データ272を、適宜分散させ、ネットワークを介して接続された他のコンピュータに記憶させておくこともできる。
CPU210がコンテンツ表示プログラム271をハードディスク装置270から読み出してRAM260に展開することにより、コンテンツ表示プログラム271は、コンテンツ表示プロセス261として機能するようになる。そして、コンテンツ表示プロセス261は、制御データ272から読み出した情報等を適宜RAM260上の自身に割当てられた領域に展開し、この展開したデータ等に基づいて各種データ処理を実行する。
なお、上記のコンテンツ表示プログラム271は、必ずしもハードディスク装置270に格納されている必要はなく、CD−ROM等の記憶媒体に記憶されたプログラムを、コンピュータ200が読み出して実行するようにしてもよい。また、公衆回線、インターネット、LAN(Local Area Network)、WAN(Wide Area Network)等にこのプログラムを記憶させておき、コンピュータ200がこれらからプログラムを読み出して実行するようにしてもよい。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)時間の推移を仮想的な経路として生成し、利用者の行動を記録した履歴情報に基づいて、前記利用者の行動が変化した時間に対応する前記経路の形状を変化させる経路生成部と、
記録装置がコンテンツを記録した時間に基づいて、前記コンテンツを前記経路に配置するコンテンツ配置部と、
前記経路と当該経路に配置されたコンテンツとを表示する表示部と
を有することを特徴とするコンテンツ表示装置。
(付記2)前記表示部は、表示時間を取得し、当該表示時間を含む所定の時間幅に対応する経路と当該経路に配置されたコンテンツとを表示することを特徴とする付記1に記載のコンテンツ表示装置。
(付記3)時代を象徴するコンテンツを取得する取得部を更に有し、前記コンテンツ配置部は、前記記録装置が記録したコンテンツと前記時代を象徴するコンテンツとを前記経路に配置することを特徴とする付記1または2に記載のコンテンツ表示装置。
(付記4)前記記録装置が記録するコンテンツは、映像情報、画像情報、音声情報を含み、前記表示部は、前記コンテンツに含まれる映像情報、画像情報または音声情報のうち、どの情報を表示するかを指定する条件を取得した場合に、当該条件に対応する映像情報、画像情報または音声情報を表示することを特徴とする付記1、2または3に記載のコンテンツ表示装置。
(付記5)前記表示部は、前記所定の時間幅に対応する経路と当該経路に配置されたコンテンツを表示し、前記コンテンツに音声情報が含まれる場合に、当該音声情報の一部を出力することを特徴とする付記4に記載のコンテンツ表示装置。
(付記6)コンテンツ表示装置が、
位置と時間とを対応付けた経路を生成し、利用者の行動を記録した履歴情報に基づいて前記経路の形状を補正する経路補ステップと、
記録装置がコンテンツを記録した時間と前記コンテンツの特徴に基づいて、前記コンテンツを前記経路に配置するコンテンツ配置ステップと
を実行することを特徴とするコンテンツ表示方法。
(付記7)前記表示ステップは、表示時間を取得し、当該表示時間を含む所定の時間幅に対応する経路と当該経路に配置されたコンテンツとを表示することを特徴とする付記6に記載のコンテンツ表示方法。
(付記8)時代を象徴するコンテンツを取得する取得ステップを更に実行し、前記コンテンツ配置ステップは、前記記録装置が記録したコンテンツと前記時代を象徴するコンテンツとを前記経路に配置することを特徴とする付記6または7に記載のコンテンツ表示方法。
(付記9)前記記録装置が記録するコンテンツは、映像情報、画像情報、音声情報を含み、前記表示ステップは、前記コンテンツに含まれる映像情報、画像情報または音声情報のうち、どの情報を表示するかを指定する条件を取得した場合に、当該条件に対応する映像情報、画像情報または音声情報を表示することを特徴とする付記6、7または8に記載のコンテンツ表示方法。
(付記10)前記表示ステップは、前記所定の時間幅に対応する経路と当該経路に配置されたコンテンツを表示し、前記コンテンツに音声情報が含まれる場合に、当該音声情報の一部を出力することを特徴とする付記9に記載のコンテンツ表示方法。
(付記11)コンピュータに、
時間の推移を仮想的な経路として生成し、利用者の行動を記録した履歴情報に基づいて、前記利用者の行動が変化した時間に対応する前記経路の形状を変化させる経路生成手順と、
記録装置がコンテンツを記録した時間に基づいて、前記コンテンツを前記経路に配置するコンテンツ配置手順と、
前記経路と当該経路に配置されたコンテンツとを表示する表示手順と
を実行させることを特徴とするコンテンツ表示プログラム。
(付記12)前記表示手順は、表示時間を取得し、当該表示時間を含む所定の時間幅に対応する経路と当該経路に配置されたコンテンツとを表示することを特徴とする付記11に記載のコンテンツ表示プログラム。
(付記13)時代を象徴するコンテンツを取得する取得手順を更にコンピュータに実行させ、前記コンテンツ配置手順は、前記記録装置が記録したコンテンツと前記時代を象徴するコンテンツとを前記経路に配置することを特徴とする付記11または12に記載のコンテンツ表示プログラム。
(付記14)前記記録装置が記録するコンテンツは、映像情報、画像情報、音声情報を含み、前記表示手順は、前記コンテンツに含まれる映像情報、画像情報または音声情報のうち、どの情報を表示するかを指定する条件を取得した場合に、当該条件に対応する映像情報、画像情報または音声情報を表示することを特徴とする付記11、12または13に記載のコンテンツ表示プログラム。
(付記15)前記表示手順は、前記所定の時間幅に対応する経路と当該経路に配置されたコンテンツを表示し、前記コンテンツに音声情報が含まれる場合に、当該音声情報の一部を出力することを特徴とする付記14に記載のコンテンツ表示プログラム。
10,100 コンテンツ表示装置
10a 経路生成部
10b コンテンツ配置部
10c 表示部
110 コンテンツ収集部
120 通信部
130 生活ログ収集部
140 入力部
150 出力部
160 インターフェース部
170 記憶部
171 コンテンツデータ
172 生活ログデータ
173 コンテンツ配置データ
174 仮想地形データ
180 制御部
181 データ取得部
182 公共コンテンツ選択部
183 乱数発生部
184 コンテンツ配置部
185 仮想地形生成部
186 画像合成部

Claims (5)

  1. 各日時および各経路の形状をそれぞれ対応付けた経路データと、利用者の行動を記録した履歴情報とを基にして、前記利用者の行動が変化した日時に対応する前記経路データの経路の形状を変化させる経路生成部と、
    前記経路データを基にして各日時と経路上の各位置とを対応付け、かつ、日時に対応する形状の経路を生成し、視点位置に対応する日時から所定時間過去の日時までの間において、コンテンツの記録された日時に対応する経路上の位置に該コンテンツを対応付けて、経路とコンテンツとを表示する表示部と
    を有することを特徴とするコンテンツ表示装置。
  2. 時代を象徴するコンテンツを取得する取得部を更に有し、前記表示部は、録装置が記録したコンテンツと前記時代を象徴するコンテンツとを表示することを特徴とする請求項に記載のコンテンツ表示装置。
  3. 前記記録装置が記録するコンテンツは、映像情報、画像情報、音声情報を含み、前記表示部は、前記コンテンツに含まれる映像情報、画像情報または音声情報のうち、どの情報を表示するかを指定する条件を取得した場合に、当該条件に対応する映像情報、画像情報または音声情報を表示することを特徴とする請求項1または2に記載のコンテンツ表示装置。
  4. 前記表示部は、記コンテンツに音声情報が含まれる場合に、当該音声情報の一部を出力することを特徴とする請求項に記載のコンテンツ表示装置。
  5. コンピュータに、
    各日時および各経路の形状をそれぞれ対応付けた経路データと、利用者の行動を記録した履歴情報とを基にして、前記利用者の行動が変化した日時に対応する前記経路データの経路の形状を変化させる経路生成手順と、
    前記経路データを基にして各日時と経路上の各位置とを対応付け、かつ、日時に対応する形状の経路を生成し、視点位置に対応する日時から所定時間過去の日時までの間において、コンテンツの記録された日時に対応する経路上の位置に該コンテンツを対応付けて、経路とコンテンツとを表示する表示手順と
    を実行させることを特徴とするコンテンツ表示プログラム。
JP2009203891A 2009-09-03 2009-09-03 コンテンツ表示装置およびコンテンツ表示プログラム Expired - Fee Related JP5387246B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009203891A JP5387246B2 (ja) 2009-09-03 2009-09-03 コンテンツ表示装置およびコンテンツ表示プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009203891A JP5387246B2 (ja) 2009-09-03 2009-09-03 コンテンツ表示装置およびコンテンツ表示プログラム

Publications (2)

Publication Number Publication Date
JP2011054035A JP2011054035A (ja) 2011-03-17
JP5387246B2 true JP5387246B2 (ja) 2014-01-15

Family

ID=43942952

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009203891A Expired - Fee Related JP5387246B2 (ja) 2009-09-03 2009-09-03 コンテンツ表示装置およびコンテンツ表示プログラム

Country Status (1)

Country Link
JP (1) JP5387246B2 (ja)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001344591A (ja) * 2000-05-31 2001-12-14 Nippon Telegr & Teleph Corp <Ntt> 画像管理・表示方法、および画像管理・表示装置、並びに記録媒体
JP4706118B2 (ja) * 2000-08-07 2011-06-22 ソニー株式会社 情報処理装置
JP2003099434A (ja) * 2001-09-25 2003-04-04 Sanyo Electric Co Ltd 電子アルバム装置
JP4000586B2 (ja) * 2001-10-16 2007-10-31 ソニー株式会社 記録再生装置および方法、記録媒体、並びにプログラム
JP4213447B2 (ja) * 2002-09-27 2009-01-21 富士フイルム株式会社 アルバム作成方法および装置並びにプログラム
JP4572683B2 (ja) * 2004-12-28 2010-11-04 ノーリツ鋼機株式会社 電子アルバムシステム
JP2006345492A (ja) * 2005-05-12 2006-12-21 Fujifilm Holdings Corp アルバム作成装置、アルバム作成方法、及びプログラム
JP4901258B2 (ja) * 2006-03-28 2012-03-21 オリンパスイメージング株式会社 カメラ及びデータ表示方法

Also Published As

Publication number Publication date
JP2011054035A (ja) 2011-03-17

Similar Documents

Publication Publication Date Title
JP4577173B2 (ja) 情報処理装置および方法、並びにプログラム
CN109685121B (zh) 图像检索模型的训练方法、图像检索方法、计算机设备
US20200372064A1 (en) Mood determination of a collection of media content items
CN109688463A (zh) 一种剪辑视频生成方法、装置、终端设备及存储介质
US11663261B2 (en) Defining a collection of media content items for a relevant interest
US10922354B2 (en) Reduction of unverified entity identities in a media library
CN112074797A (zh) 用于将虚拟对象锚定到物理位置的***和方法
WO2008014408A1 (en) Method and system for displaying multimedia content
CN111901626A (zh) 背景音频确定方法、视频剪辑方法、装置和计算机设备
JP2011215964A (ja) サーバ装置、クライアント装置、コンテンツ推薦方法及びプログラム
JP2016512363A (ja) コンテンツ作成ツール
CN113870133B (zh) 多媒体显示及匹配方法、装置、设备及介质
JP2018077644A (ja) 情報処理システム及びプログラム
WO2013128061A1 (en) Media tagging
Li et al. Melog: mobile experience sharing through automatic multimedia blogging
US20170256283A1 (en) Information processing device and information processing method
CN105096353A (zh) 一种图像处理方法及装置
KR20150011261A (ko) 계층적 컨텍스트 모델을 이용하여 컨텐츠를 추천하기 위한 장치 및 그 방법
US20230351711A1 (en) Augmented Reality Platform Systems, Methods, and Apparatus
CN113906413A (zh) 上下文媒体滤镜搜索
TW495720B (en) Apparatus for analyzing image texture and method therefor
KR20230162078A (ko) 보컬들의 특성들을 변경하기 위한 신경망들
CN111447379B (zh) 生成信息的方法和装置
US20180014158A1 (en) Mobile Device Recommendation System and Method
JP5387246B2 (ja) コンテンツ表示装置およびコンテンツ表示プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130923

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees