JPWO2008090859A1 - 情報処理装置および方法、並びにプログラム - Google Patents

情報処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JPWO2008090859A1
JPWO2008090859A1 JP2008555058A JP2008555058A JPWO2008090859A1 JP WO2008090859 A1 JPWO2008090859 A1 JP WO2008090859A1 JP 2008555058 A JP2008555058 A JP 2008555058A JP 2008555058 A JP2008555058 A JP 2008555058A JP WO2008090859 A1 JPWO2008090859 A1 JP WO2008090859A1
Authority
JP
Japan
Prior art keywords
tag
information
time
content
registration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008555058A
Other languages
English (en)
Other versions
JP5500334B2 (ja
Inventor
渡嘉敷 守
守 渡嘉敷
長坂 英夫
英夫 長坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008555058A priority Critical patent/JP5500334B2/ja
Publication of JPWO2008090859A1 publication Critical patent/JPWO2008090859A1/ja
Application granted granted Critical
Publication of JP5500334B2 publication Critical patent/JP5500334B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/487Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/489Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4314Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for fitting data in a restricted space on the screen, e.g. EPG data in a rectangular grid
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • H04N21/4756End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for rating content, e.g. scoring a recommended movie
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/782Television signal recording using magnetic recording on tape

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Human Computer Interaction (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Debugging And Monitoring (AREA)

Abstract

本発明は、コンテンツに対して、よりわかりやすい評価を行うことができる情報処理装置および方法、並びにプログラムに関する。再生制御部54は、所定の長さの時間において動的に変化するコンテンツの再生を制御し、タグデータ読み出し部55は、再生されているコンテンツに対するユーザの主観的な評価を表すタグの付加の指示に応じて、予め記憶されている情報であってタグを表す情報であるタグ情報を読み出し、タイムコード取得部56は、ユーザによりタグの付加が指示されたときのコンテンツ上の時刻を示す時刻情報を取得し、記憶部32は、時刻情報とタグ情報とを対応させて記憶する。これにより、コンテンツに対して、よりわかりやすい評価を行うことができる。本発明は、例えば、携帯電話機やHDDレコーダなどのコンテンツ再生装置に適用することができる。

Description

本発明は、情報処理装置および方法、並びにプログラムに関し、特に、コンテンツに対する評価を行う情報処理装置および方法、並びにプログラムに関する。
近年、テレビジョン受像機やHDD(Hard Disk Drive)レコーダなどのコンテンツ再生装置がインターネットなどのネットワークに接続されることによって、複数のコンテンツ再生装置が同じコンテンツを再生するなど、コンテンツの共有がなされている。このような環境において、ユーザが、所定のコンテンツに対して評価を行う場合、コンテンツに対するユーザの印象を数値化して、コンテンツに付加することが提案されている。
例えば、楽曲データとともに印象度データを記録しておき、音声出力の際に、楽曲データの印象度データに基づいて決定される発光色で、発光部を発光させることが提案されている(例えば、特許文献1参照)。
これにより、ユーザは、再生中の楽曲データがどのように評価されているかを簡単に認識することができる。
特開2006−317872号公報
しかしながら、上述した発明では、再生されているコンテンツの内容における所定の部分に対する評価を行ったり、コンテンツの内容における所定の部分に関連した情報を共有したりすることはできない。
そこで、最近、コンテンツの内部にタグ付けを行うことが提案されている。より具体的には、ユーザが、再生されているコンテンツの気になった部分に対してタグを付けることで、そのユーザのコンテンツに対する評価を、ネットワークを介して共有することができる。
しかしながら、この方法では、ユーザがコンテンツのタグを付けた部分に対してどのような評価をしたのかがはっきりとわからない。
本発明は、このような状況に鑑みてなされたものであり、コンテンツに対して、よりわかりやすい評価を行うことができるようにするものである。
本発明の第1の側面の情報処理装置は、所定の長さの時間において動的に変化するコンテンツの再生を制御する再生制御手段と、再生されている前記コンテンツに対するユーザの主観的な評価を表すタグの付加の指示に応じて、予め記憶されている情報であって前記タグを表す情報であるタグ情報を読み出す読み出し手段と、前記ユーザにより前記タグの付加が指示されたときの前記コンテンツ上の時刻を示す時刻情報を取得する取得手段と、前記時刻情報と前記タグ情報とを対応させて記憶する記憶手段とを備える。
前記タグ情報は、前記タグ情報を特定するためのタグ特定情報、前記ユーザの主観的な評価を表すアイコンを表示するための表示情報、前記ユーザの主観的な評価を表す音声を出力するための音声情報を含むように構成されるようにし、前記記憶手段には、前記時刻情報と前記タグ情報のうちの前記タグ特定情報とを対応させて記憶させるようにすることができる。
前記情報処理装置には、再生されている前記コンテンツの時間の基準となる時間軸の表示を制御するとともに、前記時刻情報と、前記タグ特定情報で特定される前記タグ情報に含まれる前記表示情報とに基づいて、前記時刻情報で示される時刻を表す前記時間軸上の位置への前記アイコンの表示を制御する表示制御手段をさらに設けることができる。
前記表示制御手段には、複数の同一である前記アイコンが近接して表示される場合、それらの表示位置の近傍に、近接して表示される前記アイコンに代えて、その前記アイコンの数に応じた大きさの前記アイコンを表示させるように、前記アイコンの表示を制御させるようにすることができる。
前記情報処理装置には、前記時刻情報と、前記タグ特定情報で特定される前記タグ情報に含まれる前記音声情報とに基づいて、再生されている前記コンテンツ上の前記時刻情報で示される時刻に、音声の出力を制御する音声出力制御手段をさらに設けることができる。
前記タグ情報は、自分自身を振動させる振動のパターンを示す振動パターン情報をさらに含むように構成されるようにし、前記情報処理装置には、前記時刻情報と、前記タグ特定情報で特定される前記タグ情報に含まれる前記振動パターン情報とに基づいて、再生されている前記コンテンツ上の前記時刻情報で示される時刻に、振動の発生を制御する振動制御手段をさらに設けることができる。
前記情報処理装置には、前記タグ情報で表される前記タグから前記ユーザにより予め選択された前記タグのうちの、前記ユーザによる操作に応じた前記タグの付加の指示を入力する入力手段をさらに設けることができる。
本発明の第1の側面の情報処理方法は、所定の長さの時間において動的に変化するコンテンツの再生を制御し、再生されている前記コンテンツに対するユーザの主観的な評価を表すタグの付加の指示に応じて、予め記憶されている情報であって前記タグを表す情報であるタグ情報を読み出し、前記ユーザにより前記タグの付加が指示されたときの前記コンテンツ上の時刻を示す時刻情報を取得し、前記時刻情報と前記タグ情報とを対応させて記憶するステップを含む。
本発明の第1の側面のプログラムは、所定の長さの時間において動的に変化するコンテンツの再生を制御し、再生されている前記コンテンツに対するユーザの主観的な評価を表すタグの付加の指示に応じて、予め記憶されている情報であって前記タグを表す情報であるタグ情報を読み出し、前記ユーザにより前記タグの付加が指示されたときの前記コンテンツ上の時刻を示す時刻情報を取得し、前記時刻情報と前記タグ情報とを対応させて記憶させるように記憶を制御するステップを含む。
本発明の第1の側面においては、所定の長さの時間において動的に変化するコンテンツの再生が制御され、再生されているコンテンツに対するユーザの主観的な評価を表すタグの付加の指示に応じて、予め記憶されている情報であってタグを表す情報であるタグ情報が読み出され、ユーザによりタグの付加が指示されたときのコンテンツ上の時刻を示す時刻情報が取得され、時刻情報とタグ情報とが対応させられて記憶される。
本発明の第2の側面の情報処理装置、またはプログラムは、感情を表すタグのうちの、ユーザがコンテンツに対する登録を指示したタグに含まれるそのタグを特定する特定情報と、前記ユーザがタグの登録を指示したときの時刻を示す時刻情報とが含まれる登録情報の数に関する登録数情報を取得する取得手段と、時刻を表す第1の軸と、前記登録情報の数を表す第2の軸とで示される表示領域における、所定の時刻を表す前記第1の軸上の位置と、前記所定の時刻を含む所定の単位時間に含まれる時刻を示す前記時刻情報を有する前記登録情報のうちの、同一の前記特定情報を有する前記登録情報の数を表す前記第2の軸上の位置とで特定される位置への、前記特定情報で特定されるタグが表す感情を表現するアイコンの表示を、前記登録数情報に基づいて制御する表示制御手段とを備える情報処理装置、または情報処理装置として、コンピュータを機能させるプログラムである。
前記情報処理装置には、ユーザによるタグの登録の指示に応じて、前記登録情報を生成する生成手段をさらに設け、前記取得手段には、前記生成手段により生成された前記登録情報を用いて、前記登録数情報を生成することにより取得させることができる。
前記取得手段には、他の装置から、他のユーザによるタグの登録の指示に応じて生成された前記登録数情報を取得させることができる。
前記取得手段には、複数の他のユーザによるタグの指示に応じて生成された前記登録情報の数を、前記特定情報毎に集計した数に関する登録数情報を取得させることができる。
前記登録情報には、タグの登録の対象のコンテンツが放送されている地域を示す地域情報、および前記コンテンツが放送されているチャンネルを示すチャンネル情報をさらに含むことができ、前記表示制御手段には、前記表示領域における、前記所定の時刻を表す前記第1の軸上の位置と、前記所定の時刻を含む所定の単位時間に含まれる時刻を示す前記時刻情報を有する前記登録情報のうちの、同一の前記地域情報、前記チャンネル情報、および前記特定情報を有する前記登録情報の数を表す前記第2の軸上の位置とで特定される位置への、前記特定情報で特定されるタグが表す感情を表現する前記アイコンの表示を、前記登録数情報に基づいて制御させることができる。
タグの登録の対象のコンテンツは、テレビジョン放送番組とすることができる。
本発明の第2の側面の情報処理方法は、感情を表すタグのうちの、ユーザがコンテンツに対する登録を指示したタグに含まれるそのタグを特定する特定情報と、前記ユーザがタグの登録を指示したときの時刻を示す時刻情報とが含まれる登録情報の数に関する登録数情報を取得し、時刻を表す第1の軸と、前記登録情報の数を表す第2の軸とで示される表示領域における、所定の時刻を表す前記第1の軸上の位置と、前記所定の時刻を含む所定の単位時間に含まれる時刻を示す前記時刻情報を有する前記登録情報のうちの、同一の前記特定情報を有する前記登録情報の数を表す前記第2の軸上の位置とで特定される位置への、前記特定情報で特定されるタグが表す感情を表現するアイコンの表示を、前記登録数情報に基づいて制御するステップを含む。
本発明の第2の側面においては、感情を表すタグのうちの、ユーザがコンテンツに対する登録を指示したタグに含まれるそのタグを特定する特定情報と、ユーザがタグの登録を指示したときの時刻を示す時刻情報とが含まれる登録情報の数に関する登録数情報が取得され、時刻を表す第1の軸と、登録情報の数を表す第2の軸とで示される表示領域における、所定の時刻を表す第1の軸上の位置と、所定の時刻を含む所定の単位時間に含まれる時刻を示す時刻情報を有する登録情報のうちの、同一の特定情報を有する登録情報の数を表す第2の軸上の位置とで特定される位置への、特定情報で特定されるタグが表す感情を表現するアイコンの表示が、登録数情報に基づいて制御される。
以上のように、本発明の第1および第2の側面によれば、コンテンツに対する評価を行うことができる。特に、本発明の第1および第2の側面によれば、コンテンツに対して、よりわかりやすい評価を行うことができる。
本発明の一実施の形態であるコンテンツ再生装置の例を示す図である。 コンテンツ再生装置の機能の構成を示すブロック図である。 タグデータの構成を示す図である。 タグデータのデータの例を示す図である。 タグ登録データの構成を示す図である。 タグ登録数データの構成を示す図である。 タグ表示ウィンドウを説明する図である。 タグの付加の処理を示すフローチャートである。 再生されているコンテンツにタグが付加されているときのタグ表示ウィンドウを示す図である。 コンテンツ再生装置が携帯電話機である場合の操作入力部を示す図である。 タグが付加されたコンテンツの再生の処理を示すフローチャートである。 自分が付加したタグと他のユーザによって付加されたタグとを区別するために表示されるアイコンの例を示す図である。 自分が付加したタグと他のユーザによって付加されたタグとを区別するために表示されるアイコンの他の例を示す図である。 近接して配置された複数の同じアイコンの表示について説明する図である。 動画像およびアイコン表示領域の表示の例について説明する図である。 アイコン表示領域の表示の詳細について説明する図である。 本発明が適用されるタグ登録システムの構成例を示す図である。 本発明の一実施の形態である表示装置の機能的な構成例を示すブロック図である。 タグの構成を示す図である。 タグ登録データの構成を示す図である。 タグ登録数データの構成を示す図である。 タグ管理サーバのハードウェアの構成例を示すブロック図である。 タグ管理サーバの機能的な構成例を示すブロック図である。 タグ表示ウィンドウを説明する図である。 タグの登録の処理およびタグ登録数の集計の処理を示すフローチャートである。 タグ表示ウィンドウの表示の例について説明する図である。 タグ表示ウィンドウの表示の他の例について説明する図である。
符号の説明
11 コンテンツ再生装置, 11−1 携帯電話機, 11−2 HDDレコーダ, 11−3 パーソナルコンピュータ, 31 操作入力部, 32 記憶部, 33 制御部, 34 通信部, 35 表示部, 36 音声出力部, 37 振動部, 38 ドライブ, 39 リムーバブルメディア, 41 タグデータ, 42 タグ登録データ, 43 タグ登録数データ, 51 選択部, 52 通信制御部, 53 再生制御部, 54 タグデータ読み出し部, 55 タイムコード取得部, 56 タグ登録データ書き込み/読み出し部, 57 表示制御部, 58 音声出力制御部, 59 振動制御部, 71 受信制御部, 72 送信制御部, 111 タグ表示ウィンドウ, 134 タイムライン, 135 ポインタ, 136 サムネイル画像, 137 アイコンボタン, 138 アイコン表示領域, 211 再生ボタン, 212 動画表示領域, 231 アイコン表示領域, 232 タイムライン, 233 ポインタ, 1011 表示装置, 1011−1 テレビジョン受像機, 1011−2 パーソナルコンピュータ, 1011−3 携帯電話機, 1031 操作入力部, 1032 記憶部, 1033 制御部, 1034 通信部, 1035 表示部, 1036 音声出力部, 1037 振動部, 1038 ドライブ, 1039 リムーバブルメディア, 1051 選択部, 1052 タグ読み出し部, 1053 時刻情報取得部, 1054 時計部, 1055 タグ登録データ生成部, 1056 タグ登録数データ生成部, 1057 通信制御部, 1058 表示制御部, 1059 音声出力制御部, 1060 振動制御部, 1071 送信制御部, 1072 受信制御部, 1091 制御部, 1099 通信部, 1111 受信制御部, 1112 タグ登録数集計部, 1113 送信制御部, 1131 タグ表示ウィンドウ, 1152 アイコンボタン, 1153 アイコン表示領域, 1154 ポインタ
以下、図面を参照しながら本発明の実施の形態について説明する。
図1は、本発明の一実施の形態であるコンテンツ再生装置の例を示す図である。
コンテンツ再生装置11−1は、無線による基地局12との通信によってサーバ13と接続される。コンテンツ再生装置11−1は、サーバ13から基地局12を介して送信されてくるコンテンツを受信し、そのコンテンツを再生または記録する。コンテンツ再生装置11−1は、例えば、携帯電話機などの携帯端末装置である。
コンテンツ再生装置11−2およびコンテンツ再生装置11−3は、インターネット14を介してサーバ13と接続される。コンテンツ再生装置11−2およびコンテンツ再生装置11−3は、サーバ13からインターネット14を介して送信されてくるコンテンツを受信し、そのコンテンツを再生または記録する。コンテンツ再生装置11−2は、例えば、HDD(Hard Disk Drive)レコーダなどのCE(Consumer Electronics)機器である。また、コンテンツ再生装置11−3は、例えば、パーソナルコンピュータなどである。
サーバ13は、コンテンツを蓄積するコンテンツサーバであり、コンテンツ再生装置11−1乃至コンテンツ再生装置11−3に、コンテンツを供給する。ここで、コンテンツは、所定の長さの時間において動的に変化するものであり、例えば、音楽または動画像であってもよいし、音声または音楽を含む動画像であってもよい。
また、サーバ13は、インターネット14などのネットワーク上に存在するものに限らず、コンテンツ再生装置11−1乃至コンテンツ再生装置11−3内に含まれるHDDなどの記録媒体に設けるようにしてもよい。
なお、以下、コンテンツ再生装置11−1乃至コンテンツ再生装置11−3を、個々に区別する必要がない場合、単に、コンテンツ再生装置11と称する。
図2は、コンテンツ再生装置11の機能の構成を示すブロック図である。
コンテンツ再生装置11は、操作入力部31、記憶部32、制御部33、通信部34、表示部35、音声出力部36、および振動部37を含むように構成される。
また、コンテンツ再生装置11には、必要に応じてドライブ38が接続される。ドライブ38には、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア39が適宜装着され、ドライブ38は、制御部33に制御されて、装着されているリムーバブルメディア39から読み出されたコンピュータプログラムやデータを、必要に応じて記憶部32にインストールするか記憶させる。
操作入力部31は、コンテンツ再生装置11に対する指示を入力するためにユーザに操作され、その操作内容を示す信号を制御部33に供給する。例えば、操作入力部31は、コンテンツ再生装置11が携帯電話機である場合、発呼のためのダイヤル番号などを入力する12個のキーからなる12キーを含むキーから構成される。また、例えば、操作入力部31は、コンテンツ再生装置11がHDDレコーダである場合、リモートコントローラから構成され、コンテンツ再生装置11がパーソナルコンピュータである場合、キーボードやマウスから構成される。また、操作入力部31は、後述する表示部35に重ねて設けられるタッチパネルであってもよい。さらに、操作入力部31は、コンテンツ再生装置11がコンテンツを再生できるゲーム機である場合、そのゲーム機に有線または無線で接続されるコントローラであってもよい。
記憶部32は、例えば、フラッシュメモリなどのランダムアクセスが可能な記憶媒体からなり、各種のデータやコンピュータプログラムなどを記憶する。
記憶部32は、ユーザによってコンテンツに付加されるタグを表すデータであるタグデータ41を予め記憶する。本発明において、タグは、再生されているコンテンツに対するユーザの主観的な評価を概念的に表す。タグデータ41は、そのタグを表す情報であり、例えば、ユーザのコンテンツに対する感情を表すデータである。
また、記憶部32は、ユーザによってコンテンツに付加されるか、または既にコンテンツに付加されているタグとそのタグの付加されているコンテンツ上の時刻とを示すデータであるタグ登録データ42を記憶する。さらに、記憶部32は、ユーザによってコンテンツに付加されるか、または既にコンテンツに付加されているタグであって、それぞれのタグID(Identification)で特定されるタグの数を示すデータであるタグ登録数データ43を記憶する。タグIDについては後述する。
ここで、図3乃至図6を用いて、記憶部32に記憶されるタグデータ41、タグ登録データ42、およびタグ登録数データ43の詳細について説明する。
図3は、タグデータ41の構成を示す図である。1つのタグデータ41は、1つのタグを示す。タグデータ41は、タグID、名称、アイコンイメージデータ、色データ、音データ、および振動パターンデータから構成される。
タグIDは、タグを特定するための情報である。具体的には、例えば、タグIDは、001乃至999の3桁の数値とされる。また、タグIDは、数値に限らず、文字列などであってもよい。タグデータ41のそれぞれは、タグのそれぞれを示すので、タグIDによって、タグデータ41が特定されることになる。
名称は、例えば、タグの意味を表すテキストデータとされる。ここで、タグの意味は、コンテンツに対するユーザの感情であり、例えば、「素晴らしい」や「不愉快だ」などとされる。すなわち、名称は、コンテンツによって生じたユーザの感情を表すテキストデータとされる。言い換えれば、名称は、コンテンツに対するユーザの主観的な評価を表すテキストデータとされる。
アイコンイメージデータは、コンテンツに付加されるか、または既に付加されているタグをアイコンとして表示部35に表示させるための表示データ(画像データ)である。言い換えれば、アイコンイメージデータは、ユーザの主観的な評価を表すアイコンを表示するためデータである。表示されるアイコンは、上述した名称すなわちユーザの感情を表すような画像とされる。より具体的には、例えば、コンテンツに対するユーザの「素晴らしい」という感情を表すアイコンは、人の笑顔を表現した画像とされ、コンテンツに対するユーザの「不愉快だ」という感情を表すアイコンは、人の不愉快な顔の表情を表現した画像とされる。
色データは、表示部35に表示されるアイコンの色を特定するための情報である。アイコンイメージデータと同様に、アイコンの色は、ユーザの感情を表すような色とされる。
より具体的には、例えば、コンテンツに対するユーザの「素晴らしい」という感情を表す色は、黄色とされ、コンテンツに対するユーザの「不愉快だ」という感情を表す色は、青色とされる。
音データは、タグが付加されているコンテンツが再生されているとき、コンテンツの再生時間におけるタグが付加されている時刻において、付加されているタグによって表されるユーザの感情に応じた音を出力させるための音声データである。言い換えれば、音データは、ユーザの主観的な評価を表す音声を出力するためのデータである。例えば、音データは、「素晴らしい」や「不愉快だ」などのユーザの感情に応じた音声データとされる。
振動パターンデータは、タグが付加されているコンテンツが再生されているとき、コンテンツの再生時間におけるタグが付加されている時刻において、所定のパターンの振動を発生させるためのデータである。例えば、振動パターンデータは、1秒に2回振動する「パターンA」、1秒に1回振動する「パターンB」、音データにあわせて振動する「パターンC」、および全く振動しない「パターンD」の4種類のパターンの振動を定義する。
図4は、タグデータ41のデータの例を示す図である。図4に示されるように、タグIDが001であるタグデータは、「素晴らしい」の意味を表すテキストデータとしての「NICE」である名称と、人の笑顔を表現した画像データであるアイコンイメージデータと、黄色を表す色データと、拍手の音を表す音データと、振動パターンAである振動パターンデータとから構成されている。タグIDが002であるタグデータは、「不愉快だ」の意味を表すテキストデータとしての「BAD」である名称と、人の不愉快な顔を表現した画像データであるアイコンイメージデータと、青色を表す色データと、ブーイングの声を表す音データと、振動パターンBである振動パターンデータとから構成されている。タグIDが003であるタグデータは、「かっこいい」の意味を表すテキストデータとしての「COOL!」である名称と、サングラスをかけた人の顔を表現した画像データであるアイコンイメージデータと、緑色を表す色データと、口笛の音を表す音データと、振動パターンCである振動パターンデータとから構成されている。そして、タグIDが004であるタグデータは、「きわどくて判断し難い」の意味を表すテキストデータとしての「微妙」である名称と、困惑した人の顔を表現した画像データであるアイコンイメージデータと、灰色を表す色データと、振動パターンDである振動パターンデータとから構成されている。タグデータ41におけるタグは、上述した4種類に限定されず、また、ユーザによって後から追加されるようにしてもよい。
図5は、タグ登録データ42の構成を示す図である。タグ登録データ42は、上述したように、コンテンツに付加されているタグとそのコンテンツ上のタグが付加されている時刻とを示すデータであり、コンテンツ毎に設定され、記憶される。タグ登録データ42は、コンテンツID、タイムコード、タグID、およびユーザIDから構成される。
コンテンツIDは、コンテンツデータに含まれる情報であって、そのコンテンツを特定する情報である。例えば、コンテンツIDは、コンテンツである音楽または動画像のコンテンツデータが格納されているファイルのファイル名称とされる。
タイムコードは、タグIDで特定されるタグが付加されている、コンテンツIDで特定されるコンテンツ上の時刻を示す。例えば、タイムコードは、後述するタイムコード取得部55によって設定される情報であり、再生されているコンテンツに対して、タグの付加が指示されたときのコンテンツ上の時刻を示す。また、例えば、タイムコードは、コンテンツの先頭を基準としたコンテンツの再生の時間によって、再生するコンテンツにおける時刻を示す。すなわち、例えば、タイムコードは、コンテンツ上の時刻であって、タグが付加されている時刻を示す。
タグIDは、タグデータ41におけるタグIDと同じであって、タグを特定するための情報である。例えば、タグIDは、ユーザによって付加が指示されたタグを示すタグデータ41に含まれるタグIDとされる。
ユーザIDは、ユーザを特定する情報である。ユーザIDは、コンテンツ再生装置11を操作するユーザによって、操作入力部31が操作されることで設定される、ユーザを特定する情報であって、例えば、ユーザの名前とされる。
図6は、タグ登録数データ43の構成を示す図である。タグ登録数データ43は、上述したように、コンテンツに付加されているタグであって、それぞれのタグIDで特定されるタグの数を示すデータであり、コンテンツ毎に設定される。タグ登録数データ43は、このタグ登録数データ43によってタグID毎の数が示されるタグが付加されているコンテンツを特定するコンテンツID、001であるタグIDで特定されるタグの数(登録数)、002であるタグIDで特定されるタグの数(登録数)、…、N(Nは001乃至999の数)であるタグIDで特定されるタグの数(登録数)から構成される。
すなわち、タグID毎のタグの登録数は、コンテンツIDによって特定されるコンテンツに対して付加されている、それぞれのタグIDによって特定されるタグの総数を表す。
図2に戻り、制御部33は、例えば、マイクロプロセッサなどからなり、コンテンツ再生装置11全体を制御する。制御部33の詳細については、後述する。
通信部34は、基地局12との無線による通信によって、またはインターネット14などのネットワークを介して、各種のデータを送受信する。例えば、通信部34は、コンテンツ再生装置11が携帯電話機である場合、無線通信を行うアンテナを含むように構成され、基地局12との無線による通信によって、各種のデータを送受信する。また、例えば、通信部34は、コンテンツ再生装置11がHDDレコーダやパーソナルコンピュータである場合、有線通信を行うネットワークインターフェースとされ、インターネット14を介して、各種のデータを送受信する。
表示部35は、例えば、LCD(Liquid Crystal Display)または有機EL(Electro Luminescence)などの表示デバイスからなり、制御部33から供給される画像データに基づいて、各種の画像を表示する。
音声出力部36は、いわゆるスピーカからなり、制御部33の制御の基に、制御部33から供給された音声信号に応じた音声を出力する。
振動部37は、例えば、偏心されたおもりが付加されたモータによって構成される。振動部37は、制御部33の制御の基に、制御部33から供給された振動のパターンを示す信号に応じて振動することで、コンテンツ再生装置11の一部または全体を振動させる。
例えば、振動部37は、コンテンツ再生装置11が携帯電話機である場合、コンテンツ再生装置11の筐体の内部に設けられ、コンテンツ再生装置11全体を振動させる。また、例えば、振動部37は、コンテンツ再生装置11がHDDレコーダである場合、操作入力部31であるリモートコントローラの内部に設けられ、リモートコントローラ全体を振動させる。
制御部33は、コンピュータプログラムを実行することにより、選択部51、通信制御部52、再生制御部53、タグデータ読み出し部54、タイムコード取得部55、タグ登録データ書き込み/読み出し部56、表示制御部57、音声出力制御部58、および振動制御部59を実現する。
選択部51は、ユーザの操作に応じて、コンテンツを選択する。より具体的には、選択部51は、操作入力部31から供給される、タグを付加するコンテンツを選択するための操作内容を示す信号に基づいて、タグを付加するコンテンツを選択し、選択されたコンテンツを示す情報を、通信制御部52に供給する。また、選択部51は、操作入力部31から供給される、再生されるコンテンツを選択するための操作内容を示す信号に基づいて、再生されるコンテンツを選択し、選択されたコンテンツを示す情報を、通信制御部52に供給する。
通信制御部52は、通信部34による、基地局12との無線やインターネット14などのネットワークを介した通信による各種のデータの送信または受信を制御する。通信制御部52は、受信制御部71および送信制御部72より構成される。
受信制御部71は、通信部34の受信を制御する。すなわち、受信制御部71は、通信部34に、ネットワークを介して送信されてくる各種のデータを受信させ、通信部34から受信したデータを取得する。
例えば、受信制御部71は、通信部34に、サーバ13から送信されてくるコンテンツであって、ユーザによって選択されたコンテンツのデータであるコンテンツデータを受信させる。言い換えれば、受信制御部71は、ユーザによって選択されたコンテンツのコンテンツデータを読み込む。受信制御部71は、通信部34において受信されたコンテンツデータを再生制御部53に供給する。
さらに、受信制御部71は、タグが付加されていないコンテンツのコンテンツデータを読み込んだ場合、コンテンツデータに含まれるコンテンツIDを、タグ登録データ書き込み/読み出し部56に供給する。
また、受信制御部71は、タグが付加されているコンテンツのコンテンツデータを読み込んだ場合、通信部34に、コンテンツデータとともに送信されてくるタグ登録データ42およびタグ登録数データ43を受信させる。受信制御部71は、通信部34において受信されたタグ登録データ42およびタグ登録数データ43を記憶部32に供給する。
送信制御部72は、通信部34の送信を制御する。すなわち、送信制御部72は、各種のデータを通信部34に供給し、通信部34に、ネットワークを介して各種のデータを送信させる。
例えば、送信制御部72は、通信部34に、ユーザにより選択されたコンテンツのコンテンツデータの要求を送信させる。また、例えば、送信制御部72は、ユーザによるタグの付加の指示に応じて記憶部32に書き込まれた、タグ登録データ42またはタグ登録数データ43を送信させる。
再生制御部53は、受信制御部71から供給されたコンテンツデータに基づいて、コンテンツの再生を制御する。より具体的には、例えば、再生制御部53は、再生されるコンテンツが動画像である場合、コンテンツデータに含まれる、動画像を表示させるための動画像データを表示部35に供給するとともに、コンテンツデータに含まれる、音声または音楽を出力させるための音声データを音声出力部36に供給する。また、例えば、再生制御部53は、再生されるコンテンツが音楽である場合、コンテンツデータに含まれる、アルバムのジャケットの写真などの静止画像を表示させるための静止画像データを表示部35に供給するとともに、コンテンツデータに含まれる、音楽を出力させるための音声データを音声出力部36に供給する。
また、再生制御部53は、コンテンツの再生時間を管理する。より具体的には、例えば、再生制御部53は、再生されているコンテンツの再生時間の残り時間を常に確認する。
また、例えば、再生制御部53は、タグデータ読み出し部54からの、タイムコードの取得を指示する信号に応じて、再生されているコンテンツ上のそのときの時刻を示すタイムコードを、タイムコード取得部55に供給する。
タグデータ読み出し部54は、ユーザの操作に応じて、コンテンツに付加されるタグを表すタグデータ41を読み出す。より具体的には、タグデータ読み出し部54は、操作入力部31から供給される、コンテンツへの付加が指示されたタグを示す信号に基づいて、記憶部32から、指示されたタグのタグデータ41を読み出す。
タグデータ読み出し部54は、記憶部32から読み出したタグデータ41のうちのアイコンイメージデータと色データとを表示制御部57に供給する。また、タグデータ読み出し部54は、記憶部32から読み出したタグデータ41のうちの音データを音声出力制御部58に供給する。さらに、タグデータ読み出し部54は、記憶部32から読み出したタグデータ41のうちの振動パターンデータを振動制御部59に供給する。
また、タグデータ読み出し部54は、操作入力部31から供給される、コンテンツへの付加が指示されたタグを示す信号に応じて、タイムコード取得部55に、再生制御部53において再生が制御されているコンテンツのタイムコードを取得させるための指示を供給する。さらに、タグデータ読み出し部54は、操作入力部31から供給される、コンテンツへの付加が指示されたタグを示す信号に応じて、タグ登録データ書き込み/読み出し部56に、記憶部32から読み出したタグデータ41のうちのタグIDを供給する。
タイムコード取得部55は、タグデータ読み出し部54から供給されてきた、再生されているコンテンツのタイムコードを取得させるための指示に基づいて、再生制御部53において再生が制御されているコンテンツのタイムコードを取得する。タイムコード取得部55は、取得したタイムコードをタグ登録データ書き込み/読み出し部56に供給する。
タグ登録データ書き込み/読み出し部56は、タグ登録データ42を記憶部32に書き込む。より詳細には、タグ登録データ書き込み/読み出し部56は、タグデータ読み出し部54から供給されたタグIDと、タイムコード取得部55から供給されてきたタイムコードとを対応させて、タグ登録データ42として、記憶部32に書き込む。さらに、タグ登録データ書き込み/読み出し部56は、通信制御部52から供給されたコンテンツIDと、ユーザによって予め操作入力部31を介して入力されたユーザIDとを、タグIDおよびタイムコードとともに、タグ登録データ42として、記憶部32に書き込む。
また、タグ登録データ書き込み/読み出し部56は、タグ登録データ42を読み出す。
より詳細には、タグ登録データ書き込み/読み出し部56は、ユーザによって再生するように選択されたコンテンツであって、タグが付加されているコンテンツのコンテンツIDを含むタグ登録データ42を、記憶部32から読み出す。
さらに、タグ登録データ書き込み/読み出し部56は、タグが付加されているコンテンツが再生されている場合、再生されているコンテンツ上のそのときの時刻を示すタイムコードを有するタグ登録データ42が記憶部32に存在するか否かを確認する。
表示制御部57は、表示部35の表示を制御する。より具体的には、例えば、表示制御部57は、ユーザによってタグの付加がなされるモードが選択されたとき、またはユーザによってタグの付加されたコンテンツの再生がなされるモードが選択されたときに、図7に示される、タグを表示するためのタグ表示ウィンドウ111を、表示部35に表示させる。さらに、表示制御部57は、タグデータ読み出し部54から供給されたアイコンイメージデータおよび色データに基づいて、ユーザによってコンテンツへの付加が指示されたか、既にコンテンツに付加されているタグに対応するアイコンを、タグ表示ウィンドウ111に表示させる。
図7は、表示制御部57によって表示部35に表示される、タグ表示ウィンドウ111を説明する図である。
図7に示されるように、タグ表示ウィンドウ111は、再生ボタン131、停止ボタン132、一時停止ボタン133、タイムライン134、ポインタ135、サムネイル画像136、アイコンボタン137、アイコン表示領域138、および登録ボタン139を含むように構成される。
再生ボタン131は、コンテンツの再生が指示されるときに選択されるボタンである。
ユーザの操作によって再生ボタン131が選択されると、再生制御部53は、コンテンツの再生を開始する。
停止ボタン132は、コンテンツの再生の停止が指示されるときに選択されるボタンである。ユーザの操作によって停止ボタン132が選択されると、再生制御部53は、コンテンツの再生を停止する。
一時停止ボタン133は、コンテンツの再生の一時停止が指示されるときに選択されるボタンである。ユーザの操作によって一時停止ボタン133が選択されると、再生制御部53は、コンテンツの再生を一時停止する。
タイムライン134は、再生されているコンテンツの時間の基準となる時間軸を表す。
図7において、タイムライン134の左端は、コンテンツの再生時間の始点を示しており、タイムライン134の右端は、コンテンツの再生時間の終点を示している。
ポインタ135は、タイムライン134の上を、コンテンツの再生時間に応じて移動し、再生されているコンテンツ上の時刻を表す。ポインタ135は、コンテンツの再生が開始される前には、タイムライン134の左端に位置し、コンテンツの再生が開始されると、再生されているコンテンツ上の時刻に応じて、タイムライン134の左端から、図7中、右方向に移動する。
サムネイル画像136は、例えば、再生されるコンテンツが音楽である場合、アルバムのジャケットの写真などの静止画像とされる。また、サムネイル画像136は、再生されるコンテンツが動画像である場合、動画像の代表となる静止画像とされる。
アイコンボタン137は、ユーザによりコンテンツへの付加が指示される候補となるタグを表すボタンである。アイコンボタン137の画像は、タグデータ41のアイコンイメージデータに基づいて表示される。ユーザは、アイコンボタン137のいずれか1つのアイコンを選択することで、コンテンツに対するタグの付加を行うことができる。アイコンボタン137として表示されるアイコンは、予めユーザによって限定され決められたタグのアイコンとされるようにしてもよい。すなわち、予めユーザによってコンテンツに付加される候補となるタグは、ユーザの好みなどに応じて限定されるようにしてもよい。この場合、操作入力部31は、タグデータ41で表されるタグからユーザにより予め選択されたタグのうちの、ユーザによる操作に応じたタグの付加の指示を入力する。このようにすることで、タグ表示ウィンドウ111の表示を煩雑にすることが防止され、ユーザによるタグの付加の操作を効率化することができる。
アイコン表示領域138は、ユーザによるタグの付加の指示に応じて、コンテンツに付加されるタグに対応するアイコンが表示される領域である。ユーザによって、アイコンボタン137のいずれか1つが選択されることで、再生されているコンテンツ上の今現在の時刻に、アイコンボタン137の選択に応じたタグが付加される。その結果、アイコン表示領域138上であってポインタ135の鉛直線上に、選択されたアイコンボタン137に対応するアイコンが表示される。すなわち、表示制御部57は、タイムコードと、選択されたアイコンボタン137のいずれか1つのアイコンイメージデータとに基づいて、タイムコードで示される時刻を表すタイムライン134上の位置へのアイコンの表示を制御する。なお、ここでは、アイコン表示領域138における縦方向は、特に意味を有しないものとする。
登録ボタン139は、タグの付加の対象となったコンテンツの再生が終了した場合、ユーザのタグの付加の操作によって記憶部32に記憶されたタグ登録データ42およびタグ登録数データ43を、サーバ13に送信するときに選択されるボタンである。
また、図7には図示されないが、タグ表示ウィンドウ111内の所定の領域に、タイムライン134上のポインタ135の位置に応じて、再生されているコンテンツ上の時刻を表す数値が表示されるようにしてもよい。また、タイムライン134の右端および左端の近傍に、コンテンツの再生開始時刻および再生終了時刻を表す数値がそれぞれ表示されるようにしてもよい。
図2の説明に戻り、音声出力制御部58は、音声出力部36の音声出力を制御する。音声出力制御部58は、タグデータ読み出し部54から供給された音データに基づいて、ユーザによってコンテンツへの付加が指示されたか、既にコンテンツに付加されているタグに対応する音を出力させる。例えば、音声出力制御部58は、コンテンツが再生されているとき、タグ登録データ42のタイムコードと、タグIDで特定されるタグデータ41に含まれる音データとに基づいて、再生されているコンテンツ上のタイムコードで示される時刻に、音声の出力を制御する。
振動制御部59は、振動部37の振動を制御する。振動制御部59は、タグデータ読み出し部54から供給された振動パターンデータに基づいて、振動部37を振動させる。例えば、振動制御部59は、コンテンツが再生されているとき、タグ登録データ42のタイムコードと、タグIDで特定されるタグデータ41に含まれる振動パターンデータとに基づいて、再生されているコンテンツ上のタイムコードで示される時刻に、振動の発生を制御する。
図8は、コンテンツ再生装置11における、タグの付加の処理を示すフローチャートである。
コンテンツ再生装置11は、例えば、ユーザによって、操作入力部31が操作されることによってタグの付加がなされるモードが選択されるとともに、タグが付加されるコンテンツの選択が指示されることで、コンテンツに対するタグの付加の処理を開始する。
ステップS11において、選択部51は、タグを付加するコンテンツを選択する。より具体的には、選択部51は、操作入力部31から供給される、タグを付加するコンテンツを選択するための操作内容を示す信号に基づいて、タグを付加するコンテンツを選択し、選択されたコンテンツを示す情報を、通信制御部52に供給する。送信制御部72は、選択されたコンテンツのコンテンツデータの、サーバ13に対する要求を、通信部34に送信させる。
ステップS12において、受信制御部71は、選択されたコンテンツのコンテンツデータを読み込む。より具体的には、受信制御部71は、通信部34に、サーバ13から送信されてくる、要求に対するコンテンツデータを受信させる。受信制御部71は、通信部34において受信されたコンテンツデータを再生制御部53に供給する。また、このとき、受信制御部71は、コンテンツデータに含まれるコンテンツIDを、タグ登録データ書き込み/読み出し部56に供給する。
ステップS13において、再生制御部53は、コンテンツの再生を開始する。より具体的には、タグの付加されたコンテンツの再生がなされるモードが選択されたときに表示部35に表示されたタグ表示ウィンドウ111において、ユーザによって再生ボタン131が選択されることで、再生制御部53は、受信制御部71から供給されてくるコンテンツデータに基づいて、コンテンツの再生を制御する。例えば、再生制御部53は、再生されるコンテンツが動画像である場合、コンテンツデータに含まれる、動画像を表示させるための動画像データを表示部35に供給するとともに、コンテンツデータに含まれる、音声または音楽を出力させるための音声データを音声出力部36に供給する。また、例えば、再生制御部53は、再生されるコンテンツが音楽である場合、コンテンツデータに含まれる、アルバムのジャケットの写真などの静止画像を表示させるための静止画像データを表示部35に供給するとともに、コンテンツデータに含まれる、音楽を出力させるための音声データを音声出力部36に供給する。
ステップS14において、表示制御部57は、タイムライン134に沿って、タイムコードを示すポインタ135の移動を開始する。より具体的には、表示制御部57は、コンテンツの再生の開始が指示されると、コンテンツにおける再生の時刻に応じた位置への、表示部35のタグ表示ウィンドウ111におけるポインタ135の移動を開始させる。
ステップS15において、再生制御部53は、コンテンツの再生が終了したか否かを判定する。コンテンツの再生が終了していないと判定された場合、すなわち、コンテンツの再生時間の残り時間がある場合、処理は、ステップS16に進む。
ステップS16において、タグデータ読み出し部54は、タグの付加の指示があったか否かを判定する。すなわち、タグ表示ウィンドウ111において、アイコンボタン137のいずれか1つがユーザによって選択されたか否かが判定される。より詳細には、タグデータ読み出し部54は、ユーザによって操作入力部31が操作されることで、操作入力部31から、コンテンツへのタグの付加が指示された信号が供給されたか否かを判定する。
タグの付加の指示がなかったと判定された場合、ステップS15に戻り、コンテンツの再生が終了せず、かつ、タグの付加の指示があったと判定されるまで、ステップS15およびステップS16の処理を繰り返す。
一方、ステップS16において、タグの付加の指示があったと判定された場合、すなわち、タグデータ読み出し部54が、操作入力部31から、コンテンツへのタグの付加が指示された信号が供給されたと判定した場合、処理はステップS17に進む。
ステップS17において、タグデータ読み出し部54は、指示されたタグのタグデータ41を読み出す。より具体的には、タグデータ読み出し部54は、タイムコード取得部55に、再生制御部53において再生が制御されているコンテンツのタイムコードの取得を指示する信号を供給する。タグデータ読み出し部54は、操作入力部31から供給される、コンテンツへの付加が指示されたタグを示す信号に基づいて、記憶部32から、指示されたタグのタグデータ41を読み出す。言い換えると、タグデータ読み出し部54は、タグ表示ウィンドウ111において、アイコンボタン137から選択されたアイコンのアイコンイメージデータを含むタグデータ41を読み出す。タグデータ読み出し部54は、タグ登録データ書き込み/読み出し部56に、読み出したタグデータ41のうちのタグIDを供給する。また、タグデータ読み出し部54は、読み出したタグデータ41のうちのアイコンイメージデータおよび色データを、表示制御部57に供給する。
ステップS18において、タイムコード取得部55は、再生されているコンテンツのタイムコードを取得する。より具体的には、タイムコード取得部55は、タグデータ読み出し部54からタイムコードの取得を指示する信号が供給されたとき、再生制御部53において再生が制御されているコンテンツにおける今現在の時刻を示すタイムコードを取得する。タイムコード取得部55は、取得したタイムコードを、タグ登録データ書き込み/読み出し部56に供給する。
ステップS19において、記憶部32は、コンテンツのタイムコードとタグデータ41のタグIDとを対応させて記憶する。すなわち、タグ登録データ書き込み/読み出し部56は、タグデータ読み出し部54から供給されてくるタグIDと、タイムコード取得部55から供給されてくるタイムコードとからなるタグ登録データ42を記憶部32に書き込む。
さらに、タグ登録データ書き込み/読み出し部56は、そのタグIDとタイムコードとに対応させて、受信制御部71から供給されたコンテンツIDと、ユーザによって予め操作入力部31を介して入力されたユーザIDとを、記憶部32のタグ登録データ42に書き込む。
ステップS20において、表示部35は、付加が指示されたタグに対応するアイコンを、タイムライン134上のポインタ135によって示されるタイムコードの位置に表示する。より具体的には、表示制御部57は、タグデータ読み出し部54から供給されてきた、付加の指示されたタグのタグデータ41のアイコンイメージデータおよび色データを、表示部35に供給する。表示部35は、タグ表示ウィンドウ111のアイコン表示領域138上であって、タグ登録データ42に書き込まれたタイムコードに対応したポインタ135の位置の鉛直線上に、すなわち、再生されているコンテンツの現在の時刻に応じた位置に、供給されたアイコンイメージデータおよび色データに基づいたアイコンを表示する。
図9は、ユーザによって再生されているコンテンツにタグが付加されているときのタグ表示ウィンドウ111を示す図である。
図9において、例えば、アイコンボタン137の左側のアイコン(001であるタグIDで特定されるタグのアイコン)がユーザによって選択されたとき、タイムライン134上の所定の位置に配置されているポインタ135の鉛直線上に、ユーザによって選択されたものと同じアイコンが表示される。すなわち、図9において、ポインタ135の横方向の位置は、再生されているコンテンツにおける今現在の時刻を示しているので、タグの付加が指示された時刻を示す位置にアイコンが表示される。
このようにして、ユーザは、コンテンツが再生されている中で、アイコンボタン137を選択することによって、直感的かつ簡単に、コンテンツに対するタグの付加を行うことができる。
また、このとき、アイコンの表示とともに、付加されたタグのタグデータ41に対応する音データおよび振動パターンデータに基づいて、音を出力させたり、振動を発生させたりするようにしてもよい。より具体的には、タグデータ読み出し部54が、読み出されたタグデータ41のうちの音データを音声出力制御部58に供給し、読み出されたタグデータ41のうちの振動パターンデータを振動制御部59に供給することで、音声出力部36に音声を出力させたり、振動部37を振動させたりすることができる。
ステップS20の後、ステップS15に戻り、コンテンツの再生時間の残り時間がなくなるまで、すなわち、コンテンツの再生が終了するまで、処理は繰り返される。
一方、ステップS15において、コンテンツの再生が終了したと判定された場合、処理は終了する。このとき、図示せぬタグ登録数算出部は、コンテンツの再生中に書き込まれたタグ登録データ42に基づいて、そのコンテンツに付加されたタグを特定するタグID毎の数を算出し、再生されていたコンテンツのコンテンツIDとともにタグ登録数データ43に書き込む。
また、コンテンツの再生が終了した後、ユーザによって、タグ表示ウィンドウ111の登録ボタン139が選択されると、送信制御部72は、通信部34に、ユーザによるタグの付加の指示に応じて記憶部32に書き込まれた、タグ登録データ42およびタグ登録数データ43を、サーバ13に送信させる。
また、タグ登録データ42およびタグ登録数データ43のサーバ13への送信は、コンテンツの再生後における登録ボタン139の選択時に限らず、上述したフローチャートのステップS19におけるタイムコードおよびタグIDのタグ登録データ42への書き込みの都度行われるようにしてもよい。
このようにして、コンテンツ再生装置11は、再生されているコンテンツ上の所定の時刻に、そのコンテンツに対するユーザの感情すなわちユーザの主観的な評価を表すタグを付加するとともに、コンテンツの再生の時間を表す時間軸上のタグの付加が指示された時刻に対応する位置に、そのタグに応じたアイコンを表示することができる。これによって、コンテンツに対して、ユーザの感情に応じたよりわかりやすい評価がなされるようになる。
また、上述した構成によれば、ユーザは、再生されているコンテンツを感情に応じて評価するとき、操作入力部31を直感的に操作するだけでよく、簡単にコンテンツへのタグの付加の操作を行うことができる。
上述したように、操作入力部31は、例えば、コンテンツ再生装置11が携帯電話機である場合、図10に示されるような12キーとされる。
図10において、12キーのうちのダイヤル番号の1を入力するための「1」の番号キーには、001であるタグIDで特定されるタグが割り当てられ、12キーのうちの「2」の番号キーには、002であるタグIDで特定されるタグが割り当てられ、12キーのうちの「3」の番号キーには、003であるタグIDで特定されるタグが割り当てられ、12キーのうちの「4」の番号キーには、004であるタグIDで特定されるタグが割り当てられていることが、それぞれのタグIDに対応するアイコンによって示されている。
図10に示されるように、予めタグの種類と12キーとを対応させて割り当てておくことで、ユーザは番号キーを押下するだけでタグの付加の操作を行うことができる。
また、図10のような形態に限らず、タグの示す意味の強弱を12キーに割り当てることによって、ユーザは、感覚的にタグの付加の操作を行うことができる。例えば、12キーのうちの「1」の番号キー、「2」の番号キー、「3」の番号キーのそれぞれに、「やや良い」、「良い」、「とても良い」のタグの意味を割り当てたり、12キーのうちの「4」の番号キー、「5」の番号キー、「6」の番号キーのそれぞれに、「やや悪い」、「悪い」、「とても悪い」のタグの意味を割り当てたりすることによって、12キーの配置における横方向で、ユーザの感情の強弱を表現することができる。さらに、12キーにおける配列の縦方向で、ユーザの感情の強弱を表現するようにしてもよい。
このようにして、コンテンツ再生装置11の操作入力部31は、12キーのような単純な入力インターフェースとすることができ、ユーザは、タグの付加の操作をより簡単に行うことができる。
次に、図11を参照して、コンテンツ再生装置11における、タグが付加されたコンテンツの再生の処理について説明する。
図11は、コンテンツ再生装置11における、タグが付加されたコンテンツの再生の処理を示すフローチャートである。
コンテンツ再生装置11は、例えば、ユーザによって、操作入力部31が操作されることによってタグの付加されたコンテンツの再生がなされるモードが選択されるとともに、再生されるコンテンツが選択されることで、コンテンツの再生の処理を開始する。
ステップS31において、選択部51は、再生されるコンテンツを選択する。より具体的には、選択部51は、操作入力部31から供給される、再生されるコンテンツを選択するための操作内容を示す信号に基づいて、再生されるコンテンツを選択し、選択されたコンテンツを示す情報を、通信制御部52に供給する。送信制御部72は、ユーザにより選択されたコンテンツのコンテンツデータの、サーバ13に対する要求を、通信部34に送信させる。
ステップS32において、受信制御部71は、選択されたコンテンツのコンテンツデータおよびタグ登録データを読み込む。より具体的には、受信制御部71は、通信部34に、サーバ13から送信されてくる、要求に対するコンテンツデータを受信させるとともに、サーバ13からコンテンツデータとともに送信されてくるタグ登録データ42を受信させる。受信制御部71は、通信部34において受信されたコンテンツデータを再生制御部53に供給する。また、受信制御部71は、通信部34においてコンテンツデータとともに受信されたタグ登録データ42を記憶部32に供給する。
ステップS33において、表示部35は、タグ表示ウィンドウ111上に、コンテンツに付加されているタグに応じたアイコンを表示する。すなわち、表示制御部57は、ユーザによってタグの付加されたコンテンツの再生が指示されたときに、タグを表示するためのタグ表示ウィンドウ111を、表示部35に表示させる。このとき、タグ登録データ書き込み/読み出し部56は、記憶部32からタグ登録データ42を読み出し、タグデータ読み出し部54は、読み出されたタグ登録データ42のタグIDに基づいて、タグデータ41を読み出す。表示制御部57は、読み出されたタグ登録データ42のタグIDおよびタイムコード、並びに読み出されたタグデータ41のタグID、アイコンイメージデータ、および色データに基づいて、タイムコードで示される時刻を表すアイコン表示領域138上の位置に、対応するアイコンを表示させる。
ステップS34において、再生制御部53は、コンテンツの再生を開始する。より具体的には、タグ表示ウィンドウ111において、ユーザによって再生ボタン131が選択されることで、再生制御部53は、受信制御部71から供給されてくるコンテンツデータに基づいて、コンテンツの再生を制御する。例えば、再生制御部53は、再生されるコンテンツが動画像である場合、コンテンツデータに含まれる、動画像を表示させるための動画像データを表示部35に供給するとともに、コンテンツデータに含まれる、音声または音楽を出力させるための音声データを音声出力部36に供給する。また、例えば、再生制御部53は、再生されるコンテンツが音楽である場合、コンテンツデータに含まれる、アルバムのジャケットの写真などの静止画像を表示させるための静止画像データを表示部35に供給するとともに、コンテンツデータに含まれる、音楽を出力させるための音声データを音声出力部36に供給する。
ステップS35において、表示制御部57は、タイムライン134に沿って、タイムコードを示すポインタ135の移動を開始する。より具体的には、表示制御部57は、コンテンツの再生の開始が指示されると、表示部35に表示されているタグ表示ウィンドウ111におけるポインタ135の移動を開始させる。
ステップS36において、再生制御部53は、コンテンツの再生が終了したか否かを判定する。コンテンツの再生が終了していないと判定された場合、すなわち、コンテンツの再生時間の残り時間がある場合、処理は、ステップS37に進む。
ステップS37において、タグ登録データ書き込み/読み出し部56は、再生されているコンテンツ上の現在の時刻に対応するタイムコードを有するタグ登録データ42が存在するか否かを判定する。現在の時刻に対応するタイムコードを有するタグ登録データ42が存在しないと判定された場合、すなわち、再生されているコンテンツにおける今現在のその瞬間に付加されているタグがない場合、ステップS36に戻り、コンテンツの再生が終了せず、かつ、再生されているコンテンツにおいてタグが付加されている時刻になるまで、ステップS36およびステップS37の処理を繰り返す。なお、このとき、タグ表示ウィンドウ111のタイムライン134上を左から右に移動するポインタ135の鉛直線上には、アイコンは配置されていない。
一方、ステップS37において、現在の時刻に対応するタイムコードを有するタグ登録データ42が存在すると判定された場合、すなわち、再生されているコンテンツにおける今現在のその瞬間に付加されているタグがある場合、処理はステップS38に進む。このとき、タグ表示ウィンドウ111のタイムライン134上を左から右に移動するポインタ135の鉛直線上には、アイコンが配置されている。
ステップS38において、音声出力部36および振動部37は、タグ登録データ42に対応するタグデータ41に基づいて、音を出力するとともに振動を発生する。より具体的には、タグ登録データ書き込み/読み出し部56は、現在の時刻に対応するタイムコードを有するタグ登録データ42を読み出し、そのタグ登録データ42のタグIDをタグデータ読み出し部54に供給する。タグデータ読み出し部54は、供給されたタグIDに基づいて、タグデータ41を読み出す。タグデータ読み出し部54は、読み出したタグデータ41のうちの音データを音声出力制御部58に供給し、読み出したタグデータ41のうちの振動パターンデータを振動制御部59に供給する。音声出力制御部58は、タグデータ読み出し部54からの音データに基づいて、音声出力部36に音を出力させ、振動制御部59は、タグデータ読み出し部54からの振動パターンデータに基づいて、振動部37を振動させる。
なお、上述したステップS37およびステップS38において、現在の時刻に対応するタイムコードを有するタグ登録データ42が存在すると判定された場合に、その時刻に対応するタグデータ41およびタグ登録データ42が読み出されるようにしたが、記憶部32のタグ登録データ42が予め全て読み出され、読み出されたタグ登録データ42のタイムコードに基づいてタグデータ41が順次読み出されるようにしてもよい。
ステップS39において、音声出力制御部58および振動制御部59は、所定の時間が経過したか否かを判定する。すなわち、音声出力制御部58は、音声出力部36に音を出力させ始めてから、予め設定されている所定の時間を経過したかを判定し、振動制御部59は、振動部37を振動させ始めてから、予め設定されている所定の時間を経過したか否かを判定する。ここで、所定の時間は、例えば、1秒乃至3秒などの、コンテンツの再生時間全体に比して十分短い時間とされる。
ステップS39において、所定の時間が経過していないと判定された場合、所定の時間が経過するまで、音声出力制御部58は音声出力部36に音声を出力させ続け、振動制御部59は、振動部37を振動させ続ける。
一方、ステップS39において、所定の時間が経過したと判定された場合、音声出力制御部58は音声出力部36の音声の出力を停止させ、振動制御部59は、振動部37の振動を停止させる。ステップS39の後、処理はステップS36に戻る。
また、一方、ステップS36において、コンテンツの再生が終了したと判定された場合、処理は終了する。
このようにして、コンテンツ再生装置11は、ユーザの感情を表すタグの付加されたコンテンツを、付加されたタグに応じたアイコンを表示させながら再生することができる。
これによって、所定のコンテンツに対する他のユーザの評価を直感的に把握することができる。また、文字や細かい情報ではなくユーザの感情をタグとすることで、そのコンテンツに対する評価を直感的に把握することができる。
さらに、コンテンツが再生されている中で、タグに応じた音声を出力させたり、振動を発生させたりすることによって、コンテンツの視聴するユーザに対してより楽しい演出を提供することができる。
また、他のユーザに評価されたコンテンツの再生が開始されている場合、コンテンツを視聴するユーザは、これから再生されるコンテンツの所定の部分に対する評価を、他のユーザの感情として認識することはできても、コンテンツの内容を情報として知ることはできないので、コンテンツに対する期待感のみを得ることができる。
ここで、上述した図11のフローチャートにおいて、タグの付加されたコンテンツを再生させることを説明したが、再生されているコンテンツであって、他のユーザによってタグの付加されたコンテンツに対して、図8のステップS16乃至ステップS20において説明した処理によって、さらにタグが付加されるようにしてもよい。すなわち、ユーザは、他のユーザによって評価がなされたコンテンツに対して、自分の評価をさらに加えることができる。
このとき、ユーザが、自分が付加したタグと他のユーザによって付加されたタグとを区別できるようにするため、図12に示されるように、アイコン表示領域138において、自分が付加したタグを表すアイコンの縁の部分を、任意の色の枠151で囲んだアイコンが表示される。また、図13に示されるように、アイコン表示領域138上の所定のアイコンがユーザの操作によって配置または選択されたときに、そのタグを付加したユーザの名前「TOKASHIKI」を示すユーザ名152が表示されるようにしてもよい。
これらは、例えば、表示制御部57が、タグ登録データ42のユーザIDに含まれるようにしたユーザ個別の色情報や、テキストデータとしてのユーザIDであるユーザの名前を用いることで実現される。
なお、所定のユーザによって一度付加されたタグを表すアイコンが、同じユーザに選択されることによって、コンテンツに付加されたそのタグが削除されるようにしてもよい。
また、アイコン表示領域138において、複数の同じアイコンが近接して表示される場合、すなわち短い時間に集中してタグが付加された場合、アイコン同士が重なってしまうことを避けるために、それらのアイコンが表示される位置の近傍に、近接して表示されるアイコンに代えて、大きさを変えた1つのアイコンを表示させるようにしてもよい。
より具体的には、例えば、図14に示されるように、再生時間の全体の長さがTであるコンテンツが再生されている場合であって、再生時間における時刻tAに対応するアイコン表示領域138上の位置にアイコン191Aが配置され、再生時間における時刻tBに対応するアイコン表示領域138上の位置にアイコン191Bが配置されている場合、時刻tAと時刻tBとが式(1)を満たす場合、時刻tAと時刻tBとの中間の時刻tM=(tA+tB)/2に対応するアイコン表示領域138上の位置に、1つに統合されるアイコンの数に比例した倍率の大きさで、アイコンが表示されるようにしてもよい。
B−tA≧α×T
・・・(1)
ここで、αは任意の定数とされ、例えば、ユーザによって設定される値である。
また、上述した説明において、アイコン表示領域138における縦方向は、特に意味を有しないものとしたが、表示されるアイコン毎に表示領域を縦方向に分けてもよいし、アイコンの数が多くなるような場合には、アイコンの数を表す縦軸を設けて、横軸を再生時間すなわちタイムライン134とし、再生時間対アイコンの数を示す折れ線グラフを表示するようにしてもよい。
図15は、タグの付加されたコンテンツとしての動画像を再生しているときの、表示部35に表示される動画像およびアイコン表示領域の表示の例について説明する図である。
図15の左側において、再生ボタン211は、コンテンツである動画像が再生されるときに選択されるボタンである。動画像表示領域212は、再生ボタン211が選択されることで、再生制御部53によって再生が制御される動画像が表示される領域である。なお、表示部35には、図15において図示されないが、再生ボタン211の他に、一時停止や停止など動画像の再生に関わるボタンが表示される。
一方、図15の右側において、アイコン表示領域231は、再生されるコンテンツである動画像に付加されているタグに対応したアイコンが表示される領域である。アイコン表示領域231は、縦方向に大きく二等分されている。二等分された領域のうちの上側の領域は、他のユーザによって付加されたタグを表すアイコンが表示される領域であり、下側の領域は、コンテンツ再生装置11を操作しているユーザが付加したタグを表すアイコンが表示される領域である。タイムライン232は、再生されている動画像の時間の基準となる時間軸である。タイムライン232の左端は、動画像の再生時間の始点を示しており、タイムライン232の右端は、動画像の再生時間の終点を示している。ポインタ233は、タイムライン232の上を、動画像の再生時間に応じて移動する。
図15の例においては、再生ボタン211がユーザによって選択されることで、動画像表示領域212に動画像が表示され、再生が開始される。このとき、アイコン表示領域231において、ポインタ233が、タイムライン232上の左端から移動し始める。
ここで、図15に示される、上下に区分されたアイコン表示領域231は、図16に示されるように、縦方向にさらに細かく区分される。すなわち、図16のアイコン表示領域231における破線によって、上下に区分された領域のそれぞれは、コンテンツである動画像に付加されているタグを表す8種類のアイコン251に応じて8つの領域に区分されている。8つに区分された領域のそれぞれには、アイコン251で示される8種類に対応したアイコンが配置されている。
このようにすることで、ユーザは、コンテンツに対する自分の評価と他のユーザの評価とを簡単に確認し、比較することができる。また、図12および図13において説明したように、アイコンにユーザID等の情報を含めることによって、自分と似たタグの付加をしたユーザを限定することができる。
また、上述したタグ登録数データ43を用いることにより、同じようなタグが付加されたコンテンツを検索することができる。これは、例えば、タグ登録数データ43における001乃至NであるタグIDのそれぞれのタグの数の分布を求め、類似する分布を有するコンテンツのコンテンツIDを検索することで実現される。
なお、上述した説明のように、表示されるアイコンは、人の感情を顔の表情で表現したものに限らず、例えば、人の感情を左右の手の仕草(拍手をしているところや左右の手を交差させているところなど)で表現したものや、動物の顔の表情で表現したものであってもよい。また、表示部35の表示領域が小さい場合、表示されるアイコンは、色データに基づくドットのみであってもよい。
このように、コンテンツとともに所定の情報を記録するようにした場合には、コンテンツに対する評価を行うことができる。また、所定の長さの時間において動的に変化するコンテンツの再生を制御し、再生されているコンテンツに対するユーザの主観的な評価を表すタグの付加の指示に応じて、予め記憶されている情報であってタグを表す情報であるタグ情報を読み出し、ユーザによりタグの付加が指示されたときのコンテンツ上の時刻を示す時刻情報を取得し、時刻情報とタグ情報とを対応させて記憶するようにした場合には、コンテンツに対して、よりわかりやすい評価を行うことができる。
ところで、上述したコンテンツ再生装置11において、アイコン表示領域138の縦方向に意味を持たせた場合、ユーザに対して、よりわかりやすい評価を提示することができる。
すなわち、アイコン表示領域138において、縦軸が、短い時間(例えば、単位時間)に付加されたタグの数を表すようにすることで、ユーザは、ユーザ自身のコンテンツに対する評価の大きさを知ることができ、また、他のユーザのコンテンツに対する評価の大きさをも知ることができる。
そこで、以下、アイコン表示領域の縦軸が、タグの数を表す場合について説明する。
図17は、本発明が適用されるタグ登録システムの構成例を示す図である。
図17に示されるように、このタグ登録システムは、3つの表示装置1011−1乃至表示装置1011−3とタグ管理サーバ1012とが、インターネット1013や基地局1014を介して接続されることによって構成される。
表示装置1011−1は、例えば、テレビジョン受像機であり、表示装置1011−2は、例えば、パーソナルコンピュータである。また、表示装置1011−3は、例えば、携帯電話機などの携帯端末装置である。なお、インターネット1013や基地局1014に接続される表示装置は、3つに限らず、1つまたは2つでもよく、また、4つ以上でもよい。
表示装置1011−1乃至表示装置1011−3は、地上アナログ放送、地上ディジタル放送、BS(Broadcasting Satellite)/CS(Communications Satellite)ディジタル放送によって放送されるコンテンツ、またはインターネット1013や基地局1014を介して、図示せぬコンテンツサーバから配信されるコンテンツを受信し、ユーザに視聴させる機能を有する。
なお、以下の説明では、コンテンツは、テレビジョン放送番組であることとする。ただし、コンテンツは、テレビジョン放送番組以外の、動画像は音楽等であってもよい。
また、表示装置1011−1乃至表示装置1011−3は、それぞれのプラットフォームにおいて動作するアプリケーション(例えば、テレビジョン受像機の場合にはアプリキャスト(登録商標)、パーソナルコンピュータの場合にはWebブラウザ、携帯電話機の場合にはiアプリ(登録商標)など)によって、表示装置1011−1乃至表示装置1011−3のそれぞれを操作するユーザが視聴しているコンテンツの内容の所定の部分に対して、様々な感情を表すデータであるタグを登録し、コンテンツに対して登録されたタグに関する情報を、タグ管理サーバ1012に送信する。
ここで、コンテンツに対するタグの登録とは、後述する図20のタグ登録データが生成されることと等価である。
なお、表示装置1011−1乃至表示装置1011−3のユーザは、表示装置1011−1乃至表示装置1011−3によってコンテンツを視聴しながら、その表示装置1011−1乃至表示装置1011−3を操作することにより、コンテンツに対するタグの登録を指示してもよいし、表示装置1011−1乃至表示装置1011−3とは別の装置によってコンテンツを視聴しながら、その表示装置1011−1乃至表示装置1011−3を操作することにより、コンテンツに対するタグの登録を指示してもよい。
以下、表示装置1011−1乃至表示装置1011−3を、個々に区別する必要がない場合、単に、表示装置1011と称する。
タグ管理サーバ1012は、表示装置1011から送信されてくるタグに関する情報を記憶(管理)する。タグ管理サーバ1012に記憶されたタグに関する情報は、表示装置1011−1乃至表示装置1011−3によって共有される。
図18は、表示装置1011の機能的な構成例を示すブロック図である。
表示装置1011は、操作入力部1031、記憶部1032、制御部1033、通信部1034、表示部1035、音声出力部1036、および振動部1037を有する。
また、表示装置1011には、必要に応じてドライブ1038を接続することができる。ドライブ1038には、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア1039が適宜装着される。ドライブ1038は、制御部1033に制御されて、装着されているリムーバブルメディア1039からコンピュータプログラムやデータを読み出し、必要に応じて記憶部1032にインストールするか記憶させる。
操作入力部1031は、表示装置1011に対する指示等を入力するときにユーザによって操作され、その操作内容を示す操作信号を制御部1033に供給する。
例えば、操作入力部1031は、表示装置1011がテレビジョン受像機である場合、リモートコントローラから構成され、表示装置1011がパーソナルコンピュータである場合、キーボードやマウスから構成される。また、例えば、操作入力部1031は、表示装置1011が携帯電話機である場合、発呼のためのダイヤル番号などを入力するキーから構成される。また、操作入力部1031は、後述する表示部1035に重ねて設けられるタッチパネルであってもよい。さらに、操作入力部1031は、表示装置1011がネットワークに接続されるゲーム機である場合、そのゲーム機に有線または無線で接続されるコントローラであってもよい。
記憶部1032は、例えば、フラッシュメモリなどのランダムアクセスが可能な記憶媒体からなり、各種のデータやコンピュータプログラムなどを記憶する。
記憶部1032は、様々な種類の感情を表すデータであるタグを記憶している。ここで、タグは、記憶部1032に予め記憶させておくか、タグ管理サーバ1012等のサーバから表示装置1011にダウンロードして、記憶部1032に記憶させることができる。
また、記憶部1032は、ユーザによって登録が指示されたタグを特定する特定情報としてのタグID(Identification)と、そのタグの登録が指示された時刻を表す時刻情報とが対応付けられたデータであるタグ登録データを記憶する。
さらに、記憶部1032は、ユーザによって登録が指示されたタグの種類毎の数(タグ登録数)を示すデータであるタグ登録数データを記憶する。
ここで、図19乃至図21を参照して、記憶部1032に記憶されるタグ、タグ登録データ、およびタグ登録数データの詳細について説明する。
図19は、タグの構成の例を示す図である。
タグは、タグID、名称、アイコンイメージデータ、色データ、音データ、および振動パターンデータから構成される。
タグIDは、タグを特定するための情報である。具体的には、例えば、タグIDは、001乃至999の3桁の数値とされる。なお、タグIDは、数値に限らず、文字列などであってもよい。
名称は、タグによって表される感情(の種類)を表すテキストデータとされる。より具体的には例えば、名称は、「素晴らしい」という感情を表す「NICE」や、「不愉快だ」という感情を表す「BAD」などとされる。例えば、名称が「NICE」のタグは、「素晴らしい」という感情を表す。また、例えば、名称が「BAD」のタグは、「不愉快だ」という感情を表す。タグには、その他、各種の感情を表すタグがある。
アイコンイメージデータは、タグが表す感情を表現するアイコンを表示するための画像データである。例えば、「素晴らしい」という感情を表すタグ(名称が「NICE」であるタグ)のアイコンイメージデータによれば、人の笑顔を模したアイコンが表示される。また、「不愉快だ」という感情を表すタグ(名称が「BAD」であるタグ)のアイコンイメージデータによれば、人の不愉快な顔の表情を模したアイコンが表示される。
色データは、アイコンイメージデータによって表示されるアイコンの色を指定するための情報である。色データとしては、タグが表す感情を想起するような色を表すデータが採用される。例えば、「素晴らしい」という感情を想起する色としては、黄色を採用することができ、「不愉快だ」という感情を想起する色としては、青色を採用することができる。
音データは、タグが表す感情を表現する音を出力するための音声データである。例えば、「素晴らしい」という感情を表すタグでは、拍手の音の音声データを採用することができる。また、「不愉快だ」という感情を表すタグでは、ブーイングの声の音声データを採用することができる。
振動パターンデータは、所定のパターンの振動を発生させるためのデータである。例えば、振動パターンデータによる振動のパターンには、1秒に2回振動する「パターンA」、1秒に1回振動する「パターンB」、音データにあわせて振動する「パターンC」、および全く振動しない「パターンD」の4種類のパターンの振動がある。
なお、タグの種類の例については、図4で説明したものと同様であるので、その説明は省略する。
図20は、タグ登録データの構成例を示す図である。
タグ登録データは、地域情報、チャンネル情報、時刻情報、タグID、およびユーザIDから構成される。
地域情報は、タグの登録の対象のコンテンツ(ユーザが視聴しているコンテンツ)が放送されている(された)地域を示す情報である。例えば、地域情報は、タグの登録の対象のコンテンツが放送されている都道府県名や市区町村名とされる。
チャンネル情報は、タグの登録の対象のコンテンツが放送されている(された)チャンネルを示す情報である。例えば、チャンネル情報は、タグの登録の対象のコンテンツが放送されているチャンネルを表す数字とされる。
時刻情報は、タグの登録の対象のコンテンツに対するタグの登録が指示された時刻を示す。時刻情報は、例えば、秒単位での日時(年、月、日、時、分、秒)を示す。
タグ登録データにおけるタグIDは、タグ(図19)におけるタグIDと同じであり、ユーザによってコンテンツに対する登録が指示されたタグに含まれるタグIDである。
ユーザIDは、例えば、表示装置1011のユーザの名前等のユーザを特定する情報である。
ユーザIDは、表示装置1011のユーザが操作入力部1031を操作することにより設定される。
図21は、タグ登録数データの構成例を示す図である。
タグ登録数データは、地域情報、チャンネル情報、単位時間情報、およびタグID毎のタグ登録数から構成される。
タグ登録数データにおける地域情報は、タグ登録データにおける地域情報と同じであって、コンテンツが放送されている地域を示す情報である。また、タグ登録数データにおけるチャンネル情報は、タグ登録データにおけるチャンネル情報と同じであって、コンテンツが放送されているチャンネルを示す情報である。
単位時間情報は、所定の単位時間を示す情報と、その単位時間の開始の時刻(以下、適宜、スタート時刻という)を示す情報とからなる、ある時間帯を表す。例えば、2007年2月10日10時24分からの1分間の時間帯を表す単位時間情報は、スタート時刻が2007年2月10日10時24分であることを示す情報と、単位時間が1分間であることを示す情報とからなる。また、例えば、2007年2月10日10時30分からの10分間の時間帯を表す単位時間情報は、スタート時刻が2007年2月10日10時30分であることを示す情報と、単位時間が10分間であることを示す情報とからなる。
タグID毎のタグ登録数は、単位時間情報が表す時間帯(例えば、スタート時刻が2007年2月10日10時24分であり、単位時間が1分間であれば、2007年2月10日10時24分から1分間の時間帯)に登録が指示されたタグの種類毎の数を示す。具体的には、図21に示されるように、タグID毎のタグ登録数は、スタート時刻から単位時間の時間帯に登録が指示されたタグIDが001のタグのタグ登録数、タグIDが002のタグのタグ登録数、…、タグIDがN(Nは001乃至999の数)のタグのタグ登録数からなる。
例えば、単位時間情報が、スタート時刻が2007年2月10日10時30分を示す情報と、単位時間が10分間であることを示す情報とからなる場合、タグID毎のタグ登録数は、2007年2月10日10時30分乃至10時40分の10分間(の時間帯)に登録が指示されたタグの種類毎の数を示す。
図18に戻り、制御部1033は、例えば、マイクロプロセッサなどからなり、表示装置1011全体を制御する。制御部1033の詳細については後述する。
通信部1034は、インターネット1013などのネットワークを介して、または基地局1014との無線による通信によって、各種のデータを送受信する。例えば、通信部1034は、表示装置1011がテレビジョン受像機やパーソナルコンピュータである場合、有線通信を行うネットワークインターフェースとされ、インターネット1013を介して、各種のデータを送受信する。また、例えば、通信部1034は、表示装置1011が携帯電話機である場合、無線通信を行うアンテナを含むように構成され、基地局1014との無線による通信によって、各種のデータを送受信する。
表示部1035は、例えば、LCD(Liquid Crystal Display)または有機EL(Electro Luminescence)などの表示デバイスからなり、制御部1033から供給される画像データに基づいて、各種の画像を表示する。
音声出力部1036は、スピーカ等からなり、制御部1033の制御の下に、制御部1033から供給された音声信号に応じた音声を出力する。
振動部1037は、例えば、偏心されたおもりが付加されたモータによって構成される。振動部1037は、制御部1033の制御の下に、制御部1033から供給された振動のパターンを示す信号に応じて振動することで、表示装置1011の一部または全体を振動させる。例えば、振動部1037は、表示装置1011がテレビジョン受像機である場合、操作入力部1031であるリモートコントローラの内部に設けられ、リモートコントローラ全体を振動させる。また、例えば、振動部1037は、表示装置1011が携帯電話機である場合、表示装置1011の筐体の内部に設けられ、表示装置1011全体を振動させる。
制御部1033は、図示せぬCPU(Central Processing Unit)がコンピュータプログラムを実行することにより、選択部1051、タグ読み出し部1052、時刻情報取得部1053、時計部1054、タグ登録データ生成部1055、タグ登録数データ生成部1056、通信制御部1057、表示制御部1058、音声出力制御部1059、および振動制御部1060として機能する。
選択部1051には、操作入力部1031から操作信号が供給される。選択部1051は、操作入力部1031からの操作信号に応じて、タグの登録の対象のコンテンツが放送されている地域およびチャンネルを選択する。
より具体的には、選択部1051は、操作入力部1031から供給される、タグの登録の対象のコンテンツが放送されている地域およびチャンネルを選択するユーザの操作に対応する操作信号に基づいて、その地域およびチャンネルを選択し、選択された地域およびチャンネルを示す情報である地域情報およびチャンネル情報を、タグ登録データ生成部1055および表示制御部1058に供給する。
タグ読み出し部1052には、操作入力部1031から操作信号が供給される。タグ読み出し部1052は、操作入力部1031からの操作信号に応じて、ユーザにより登録が指示された(感情を表す)タグを読み出す。
より具体的には、タグ読み出し部1052は、操作入力部1031から供給される、タグの登録を指示するユーザの操作に対応する操作信号に基づいて、記憶部1032に記憶されている複数種類の感情を表すタグの中から、登録が指示された(感情を表す)タグを読み出す。
タグ読み出し部1052は、記憶部1032から読み出したタグ(図19)のタグIDを、タグ登録データ生成部1055に供給し、アイコンイメージデータと色データとを、タグIDに関連付けて表示制御部1058に供給する。また、タグ読み出し部1052は、記憶部1032から読み出したタグの音データを音声出力制御部1059に供給するとともに、振動パターンデータを振動制御部1060に供給する。
また、タグ読み出し部1052は、操作入力部1031から供給される、タグの登録を指示するユーザの操作に対応する操作信号に応じて、時刻情報取得部1053に、タグの登録が指示された時刻を取得させるための指示を供給する。
時刻情報取得部1053は、タグ読み出し部1052からの指示に基づいて、時計部1054から、タグの登録が指示された時刻(現在時刻)を示す時刻情報を取得する。時刻情報取得部1053は、時計部1054から取得した時刻情報をタグ登録データ生成部1055に供給する。
時計部1054は、現在時刻の日時(年、月、日、時、分、秒)を出力し、時刻情報として時刻情報取得部1053およびタグ登録数データ生成部1056に供給する。
タグ登録データ生成部1055は、図20のタグ登録データを生成し、記憶部1032に供給する。より詳細には、タグ登録データ生成部1055は、タグ読み出し部1052からタグIDが供給されると、そのタグIDと、選択部1051から供給された地域情報およびチャンネル情報、時刻情報取得部1053から供給された時刻情報、並びに予め設定されたユーザIDとを基に、図20のタグ登録データを生成し、記憶部1032に供給する。
タグ登録数データ生成部1056は、記憶部1032のタグ登録データを基に、例えば、単位時間毎に、図21のタグ登録数データを生成し、記憶部1032、通信制御部1057、および表示制御部1058に供給する。
より具体的には、タグ登録数データ生成部1056は、例えば、時計部1054から出力される現在時刻を、単位時間の精度で表した時刻をスタート時刻として、そのスタート時刻から単位時間の間(時間帯)の時刻を示す時刻情報を有するタグ登録データ(以下、適宜、時刻一致タグ登録データという)を記憶部1032から検索する。
さらに、タグ登録数データ生成部1056は、時刻一致タグ登録データを、地域情報およびチャンネル情報が同一のタグ登録データのグループに分け、各グループについて、各値のタグIDを有するタグ登録データの数(タグ登録数)をカウントする。
そして、タグ登録数データ生成部1056は、各グループについて、そのグループに対応する地域情報およびチャンネル情報、スタート時刻および単位時間を表す単位時間情報、並びに各値のタグIDを有するタグ登録データのタグ登録数を、その順で配置することにより、図21のタグ登録数データを生成する。
例えば、単位時間が1分間であり、時計部1054が出力する現在時刻を、単位時間の精度で表したスタート時刻が、2007年2月10日10時24分である場合において、記憶部1032に、地域情報およびチャンネル情報がそれぞれ同じで、かつスタート時刻である2007年2月10日10時24分から単位時間である1分間の時間帯内の時刻を示す時刻情報を有するタグ登録データが10個だけ記憶されており、その10個のタグ登録データのうち、タグIDが001であるものが6個、タグIDが003であるものが1個、タグIDが004であるものが3個であったときには、タグ登録数データ生成部1056は、スタート時刻である2007年2月10日10時24分を示す情報と、単位時間が1分間であることを示す情報とからなる単位時間情報、タグIDが001のタグ登録数である「6」、タグIDが003のタグ登録数である「1」、およびタグIDが004のタグ登録数である「3」を含むタグ登録数データを生成する。なお、1分間などの単位時間は、例えば、ユーザによって予め設定されるようにできる。
なお、スタート時刻からの単位時間の時間帯を、以下、適宜、スロットという。
通信制御部1057は、送信制御部1071および受信制御部1072より構成され、通信部1034による、インターネット1013などのネットワークを介した通信や基地局1014との無線による各種のデータの送信または受信を制御する。
送信制御部1071は、通信部1034の送信を制御する。すなわち、送信制御部1071は、各種のデータを通信部1034に供給し、通信部1034に、ネットワークを介して各種のデータを送信させる。
例えば、送信制御部1071は、通信部1034に、タグ登録数データ生成部1056から供給されたタグ登録数データを、タグ管理サーバ1012に対して送信させる。
受信制御部1072は、通信部1034の受信を制御する。すなわち、受信制御部1072は、通信部1034に、ネットワークを介して送信されてくる各種のデータを受信させ、通信部1034が受信したデータを取得する。
例えば、受信制御部1072は、通信部1034に、タグ管理サーバ1012から送信されてくる、他のユーザによって登録が指示されたタグのタグ登録数に応じた値を含むデータ(例えば、後述する他ユーザタグ登録数データ等)を受信させる。受信制御部1072は、通信部1034において受信されたデータを表示制御部1058に供給する。
表示制御部1058は、選択部1051から供給される地域情報およびチャンネル情報、タグ読み出し部1052から供給されるアイコンイメージデータおよび色データ、タグ登録数データ生成部1056から供給されるタグ登録数データ、並びに通信制御部1057(受信制御部1072)から供給される他ユーザタグ登録数データに応じて、表示部1035の表示を制御する。例えば、表示制御部1058は、タグ読み出し部1052から供給されたアイコンイメージデータと色データとに基づいて、表示部1035に所定のアイコンを表示させる。表示制御部1058による表示の制御の詳細については後述する。
音声出力制御部1059は、音声出力部1036の音声出力を制御する。すなわち、音声出力制御部1059は、タグ読み出し部1052から供給された音データに基づいて、音声出力部1036に音声を出力させる。
振動制御部1060は、振動部1037の振動を制御する。すなわち、振動制御部1060は、タグ読み出し部1052から供給された振動パターンデータに基づいて、振動部1037を振動させる。
図22は、タグ管理サーバ1012のハードウエアの構成例を示すブロック図である。
図22のタグ管理サーバ1012は、CPU(Central Processing Unit)1091,ROM(Read Only Memory)1092,RAM(Random Access Memory)1093,バス1094、入出力インタフェース1095、入力部1096、出力部1097、記憶部1098、通信部1099、ドライブ1100、リムーバブルメディア1101から構成される。
CPU1091は、ROM1092、または記憶部1098に記憶されているプログラムにしたがって各種の処理を実行する。RAM1093には、CPU1091が実行するプログラムやデータなどが適宜記録される。これらのCPU1091、ROM1092、およびRAM1093は、バス1094により相互に接続されている。
CPU1091にはまた、バス1094を介して入出力インタフェース1095が接続されている。
入出力インタフェース1095には、キーボード、マウス、マイクロフォンなどよりなる入力部1096、ディスプレイ、スピーカなどよりなる出力部1097が接続されている。CPU1091は、入力部1096から入力される指令に対応して各種の処理を実行する。そして、CPU1091は、処理の結果を出力部1097に出力する。
入出力インタフェース1095に接続されている記憶部1098は、例えばハードディスクからなり、CPU1091が実行するプログラムや、表示装置1011に送信するデータを記憶する。
通信部1099は、インターネット1013やローカルエリアネットワークなどのネットワーク、または基地局1014を介して、表示装置1011などの外部の装置と通信する。
入出力インタフェース1095に接続されているドライブ1100は、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリなどのリムーバブルメディア1101が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部1098に転送され、記憶される。
図23は、プログラムを実行するタグ管理サーバ1012のCPU1091により実現される機能的な構成例を示すブロック図である。
図23に示されるように、タグ管理サーバ1012は、CPU1091がプログラムを実行することにより、受信制御部1111、タグ登録数集計部1112、および送信制御部1113等として機能する。
受信制御部1111は、通信部1099(図22)の受信を制御する。例えば、受信制御部1111は、表示装置1011から送信されてきた各種のデータを通信部1099に受信させる。より具体的には、例えば、受信制御部1111は、表示装置1011それぞれから送信されてきたタグ登録数データを、通信部1099に受信させ、タグ登録数集計部1112に供給する。
タグ登録数集計部1112は、受信制御部1111から供給されたタグ登録数データを基に、同一の時間帯に、同一の地域情報およびチャンネル情報で特定されるコンテンツに対して登録が指示されたタグの数を、タグID毎に集計する。より具体的には、タグ登録数集計部1112は、表示装置1011それぞれから送信されてきたタグ登録数データのうち、地域情報、チャンネル情報、および単位時間情報が同一のタグ登録数データを集計対象として、その集計対象のタグ登録数データの、タグID毎のタグ登録数をそれぞれ集計する。タグ登録数集計部1112は、集計されたタグID毎のタグ登録数のそれぞれを、集計対象のタグ登録数データの地域情報、チャンネル情報、および単位時間情報と対応付けた、全ユーザタグ登録数データを生成し、記憶部1098(図22)および送信制御部1113に供給する。ここで、全ユーザタグ登録数データの構造は、図21のタグ登録数データと同じであるものとする。
送信制御部1113は、通信部1099の送信を制御する。例えば、送信制御部1113は、各種のデータを通信部1099に送信させる。例えば、送信制御部1113は、タグ登録数集計部1112から供給された全ユーザタグ登録数データに基づいたデータを通信部1099(図22)に供給し、送信させる。
より具体的には、例えば、送信制御部1113は、全ユーザタグ登録数データにおけるタグID毎のタグ登録数を、全ユーザタグ登録数データを生成する基となったタグ登録数データを送信してきた表示装置1011の数で割った値をタグID毎のタグ登録数として有する平均タグ登録数データを通信部1099に供給し、表示装置1011に対して送信させる。
また、例えば、送信制御部1113は、タグ登録数データを送信してきた複数の表示装置1011のうちの1つを注目装置として、全ユーザタグ登録数データにおけるタグID毎のタグ登録数から、注目装置から送信されてきたタグ登録数データのタグID毎のタグ登録数を除いた数を、タグ登録数データを送信してきた全ての表示装置1011から、注目装置を除いた数(すなわち、タグ登録数データを送信してきた全ての表示装置1011の数から1を減じた数)で割った値を、タグID毎のタグ登録数として有する、他ユーザタグ登録数データを、通信部1099に供給し、注目装置に対して送信させる。すなわち、タグ管理サーバ1012は、注目装置のユーザ以外の他のユーザによって登録が指示された、同一の感情を表すタグの数の平均値を、注目装置に送信する。
次に、表示装置1011における表示制御部1058(図18)の表示の制御について説明する。
表示制御部1058は、例えば、操作入力部1031が、タグの登録を行うモード(タグ登録モード)を選択するように操作されると、タグの登録が指示された時刻と、その時刻におけるそのタグのタグ登録数とに応じた位置に、タグに対応するアイコンを表示するためのタグ表示ウィンドウを、表示部1035に表示させる。
さらに、操作入力部1031が地域情報およびチャンネル情報を入力するように操作されると、表示制御部1058は、操作入力部1031から選択部1051を介して供給される地域情報およびチャンネル情報をタグ表示ウィンドウに表示させる。
図24は、表示制御部1058によって表示部1035に表示されるタグ表示ウィンドウの例を示す図である。
図24に示されるように、タグ表示ウィンドウ1131は、チャンネル選択領域1151、アイコンボタン1152、アイコン表示領域1153、ポインタ1154、メニューボタン1155等(のGUI(Graphical User Interface))から構成される。
図24において、タグ表示ウィンドウ1131の右上には、現在時刻が2007年2月10日土曜日10時24分であることを示す「2007/2/10(土)10:24」、タグの登録の対象のコンテンツ(選択部1051が表示制御部1058に供給する地域情報およびチャンネル情報で特定されるコンテンツ)が放送されている地域が東京都であることを示す「東京都」、および、そのコンテンツが放送されているチャンネルが81チャンネルであることを示す「081ch」とが表示されている。
チャンネル選択領域1151は、選択部1051から表示制御部1058に供給されるチャンネル情報が表すチャンネルが表示される領域である。図24においては、チャンネル選択領域1151のチャンネルは、タグ表示ウィンドウ1131の右上に表示されているチャンネルと同じ「081」となっている。
ここで、チャンネル選択領域1151に表示されているチャンネルで現在放送されている番組(コンテンツ)が、タグの登録の対象のコンテンツ、または、タグの登録の状態を表示する対象のコンテンツ(以下、適宜、対象コンテンツという)となる。
アイコンボタン1152は、ユーザによって登録が指示される候補となるタグを表すボタンである。アイコンボタン1152の画像は、タグのアイコンイメージデータに基づいて表示される。なお、タグ表示ウィンドウ1131に表示されるアイコンボタン1152の種類は、後述するメニューボタン1155が選択されることで変更される。
アイコン表示領域1153は、記憶部1032に記憶されたタグ登録数データ(図21)(平均タグ登録数データや他ユーザタグ登録数データを必要に応じて含む)に応じて、タグ読み出し部1052により読み出されたタグのアイコンイメージデータに基づくアイコンが表示される領域である。アイコン表示領域1153において、横軸は、時間軸であり、時刻を表す。縦軸は、対象コンテンツに対して登録されたタグの数、すなわち、タグ登録データが生成された数を表す。
ここで、図24では、時間軸が10時00分乃至11時00分の1時間を表しているが、時間軸によって表される時間は1時間単位以外の時間単位であってもよい。また、時間軸が表す時間は、例えば、ユーザによって、タグ登録モードが選択された時刻から1時間等の所定の時間とすることができる。
ポインタ1154は、現在時刻を表し、アイコン表示領域1153の時間軸上の位置のうちの現在時刻を表す位置に表示され、時刻の経過に応じて、図24中、右方向に移動する。タグ表示ウィンドウ1131の右上に表示されている現在時刻は、ポインタ1154が位置する時刻と同じである。
メニューボタン1155は、タグ表示ウィンドウ1131上の表示に関する各種の設定を決定または変更するときに選択される。例えば、メニューボタン1155は、対象コンテンツが放送されている地域またはチャンネルを決定するときや、ユーザによって選択されるアイコンボタン1152の種類を変更するときに選択される。
このようなタグ表示ウィンドウ1131が表示されている場合において、ユーザが、対象コンテンツに対して抱いた感情を表現するアイコンボタン1152を、操作入力部1031によって操作する。この場合、操作入力部1031は、ユーザの操作に応じたアイコンボタン1152に対応する感情を表すタグの登録を指示する操作信号を、制御部1033に供給する。
制御部1033では、操作入力部1031からの操作信号が、タグ読み出し部1052に供給される。タグ読み出し部1052は、操作入力部1031からの、タグの登録を指示する操作信号に従い、そのタグを、記憶部1032から読み出し、そのタグIDを、タグ登録データ生成部1055に供給する。タグ登録データ生成部1055は、タグ読み出し部1052からのタグのタグIDの供給に応じて、そのタグを、対象コンテンツに対して登録する。
すなわち、いま、タグ読み出し部1052からタグ登録データ生成部1055にタグIDが供給されるタグを、対象タグということとすると、タグ登録データ生成部1055は、タグ読み出し部1052からの対象タグのタグIDの供給をトリガとして、対象コンテンツについて、対象タグのタグIDを有するタグ登録データ(図20)を生成する。
具体的には、タグ登録データ生成部1055は、選択部1051から供給される地域情報およびチャンネル情報を、対象コンテンツの地域情報およびチャンネル情報として認識するとともに、タグ読み出し部1052からの対象タグのタグIDが供給されたときに時刻情報取得部1053から供給された時刻情報を、タグの登録が指示された時刻を表す時刻情報として認識する。
さらに、タグ登録データ生成部1055は、対象コンテンツの地域情報およびチャンネル情報、時刻情報取得部1053からの時刻情報、タグ読み出し部1052からの対象タグのタグID、並びにユーザIDを、その順で並べることにより、対象コンテンツについてのタグ登録データを生成し、記憶部1032に供給して記憶させる。
一方、タグ登録数データ生成部1056は、単位時間が経過する毎に、対象コンテンツについて、記憶部1032に記憶されたタグ登録データを参照して、スロット、つまり、スタート時刻から単位時間の時間帯を表す単位時間情報を有する図21のタグ登録数データを生成し、表示制御部1058に供給する。
表示制御部1058は、以上のようにして、タグ登録数データ生成部1056から供給される、対象コンテンツについてのタグ登録数データに基づき、そのタグ登録数データ(図21)が有する単位時間情報のスタート時刻を表す横軸上の位置と、同じく、そのタグ登録数データが有するタグ登録数を表す縦軸上の位置とで特定されるアイコン表示領域1153上の位置に、アイコンを表示させる。
すなわち、表示制御部1058は、タグ登録数データ生成部1056からの対象コンテンツについてのタグ登録数データの中の、アイコン表示領域1153の横軸が表す時間帯の時刻がスタート時刻となっているタグ登録数データを、表示対象タグ登録数データとして選択し、そのうちの1つを、注目タグ登録数データとする。
さらに、表示制御部1058は、注目タグ登録数データのタグID毎のタグ登録数のうちの1つ、すなわち、例えば、値が最も大のタグ登録数(以下、適宜、最大登録数という)のタグIDを、表示用タグIDとして選択し、その表示用タグIDによって特定されるタグのアイコンイメージデータを、記憶部1032から、タグ読み出し部1052を介して取得する。
そして、表示制御部1058は、注目タグ登録数データが有する単位時間情報のスタート時刻を表す横軸上の位置と、表示用タグIDのタグ登録数である最大登録数を表す縦軸上の位置とで特定されるアイコン表示領域1153上の位置に、表示用タグIDによって特定されるタグに対応するアイコンを、タグ読み出し部1052からのアイコンイメージデータに基づいて表示させる。
表示制御部1058は、表示対象タグ登録数データを、順次、注目タグ登録数データとして、以上のようにアイコンを表示させる。
なお、アイコン表示領域1153では、例えば、タグ登録数が1だけ増加する毎に、アイコンの縦の長さの1/2の長さだけ上方向の位置に、アイコンが表示される。
また、上述の場合には、注目タグ登録数データのタグID毎のタグ登録数のうちの1つのタグ登録数のタグIDだけを、表示用タグIDとして選択し、その表示用タグIDによって特定されるタグに対応するアイコンを表示するようにしたが、その他、例えば、注目タグ登録数データのタグID毎のタグ登録数のうちの、全て等の2以上のタグ登録数のタグIDを、表示用タグIDとして選択し、その2以上の表示用タグIDそれぞれによって特定されるアイコン(2以上のアイコン)を表示することが可能である。
さらに、上述の場合には、記憶部1032に記憶されたタグ登録データから生成されたタグ登録数データに基づいて、アイコンを表示することとしたが、アイコンの表示は、その他、タグ管理サーバ1012(図17)から表示装置1011に送信されてくる平均タグ登録数データや、他ユーザタグ登録数データに基づいて行うことが可能である。
また、記憶部1032に記憶されたタグ登録データから生成されたタグ登録数データ(以下、適宜、自己タグ登録数データという)に基づくアイコンの表示と、タグ管理サーバ1012(図17)からの他ユーザタグ登録数データ(または、平均タグ登録数データ)に基づくアイコンの表示とは、いずれか一方だけを選択して行うことも可能であるし、両方を行うこと、すなわち、自己タグ登録数データに基づくアイコンと、他ユーザタグ登録数データに基づくアイコンとの両方を表示することも可能である。
例えば、自己タグ登録数データに基づくアイコンだけを表示する場合は、ユーザは、対象コンテンツに対して抱いた自己の感情、ひいては、対象コンテンツに対する自身の具体的な評価を把握(確認)することができる。
また、他ユーザタグ登録数データに基づくアイコンだけを表示する場合は、ユーザは、対象コンテンツに対して他のユーザが抱いた感情、ひいては、対象コンテンツに対する他のユーザの具体的な評価を把握することができる。
さらに、自己タグ登録数データに基づくアイコンと、他ユーザタグ登録数データに基づくアイコンとの両方を表示する場合には、ユーザは、対象コンテンツに対して自身が抱いた感情と、他のユーザが抱いた感情との違い、または一致性を把握することができる。
以上のように、スタート時刻を表す横軸上の位置と、スタート時刻から単位時間の時間帯であるスロットにおいて、対象コンテンツに対して登録されたタグのタグ登録数を表す縦軸上の位置とで特定されるアイコン表示領域1153上の位置に、対象コンテンツに対して登録されたタグを表現するアイコンが表示されるので、ユーザは、例えば、対象コンテンツの内容における所定の部分としてのスロット毎の部分に対する、他のユーザの評価を直感的に把握することができる。
図24の例においては、時間軸における目盛の最小単位は、タグ登録数データの単位時間情報に合わせて1分としており、単位時間である1分間に登録が指示されたタグの数に応じて、そのタグに対応するアイコンの縦方向の表示の位置が決定される。また、1分である時間軸における目盛の最小単位にあわせて、タグの登録の回数は1分間毎に制限される。例えば、タグの登録の回数は、1ユーザにつき1分間当たり20回までとされる。なお、時間軸における目盛の最小単位は1分に限らず、表示部1035における表示の分解能に応じて変化させてもよく、また、これに合わせてタグ登録数データの単位時間情報で示される単位時間を変化させてもよい。
図25は、図17のタグ登録システムの表示装置1011におけるタグの登録の処理、およびタグ管理サーバ1012におけるタグ登録数の集計の処理を示すフローチャートである。
表示装置1011は、例えば、操作入力部1031が、タグ登録モードを選択するように操作されることで、コンテンツに対するタグの登録の処理を開始する。
タグ登録モードにおいて、ユーザが、操作入力部1031を、対象コンテンツが放送されている地域およびチャンネルを選択するように操作すると、その操作に対応する操作信号が、操作入力部1031から選択部1051に供給される。
ステップS511において、選択部1051は、操作入力部1031からの操作信号に応じて、対象コンテンツが放送されている地域およびチャンネルを選択し、その地域およびチャンネルを示す地域情報およびチャンネル情報を、タグ登録データ生成部1055および表示制御部1058に供給して、処理はステップS512に進む。
ステップS512において、表示制御部1058は、選択部1051から供給された地域情報およびチャンネル情報を反映したタグ表示ウィンドウ1131(図24)を、表示部1035に表示させ、処理はステップS513に進む。
ステップS513において、表示制御部1058は、タグ表示ウィンドウ1131のアイコン表示領域1153の時間軸に沿って、ポインタ1154の移動を開始し、処理はステップS514に進む。
ステップS514において、タグ読み出し部1052は、タグの登録の指示があったか否かを判定する。より具体的には、タグ読み出し部1052は、タグ表示ウィンドウのアイコンボタン1152のうちのいずれかが操作されることにより、その操作に対応する操作信号が操作入力部1031から供給されたかを判定する。
ステップS514において、タグの登録の指示があったと判定された場合、処理はステップS515に進み、タグ読み出し部1052は、記憶部1032から、登録が指示されたタグを読み出す。言い換えると、タグ読み出し部1052は、タグ表示ウィンドウ1131において、アイコンボタン1152のうちのユーザによって操作されたアイコンボタンに対応するタグを、記憶部1032から読み出す。
さらに、タグ読み出し部1052は、ステップS515において、タグ登録データ生成部1055に、記憶部1032から読み出したタグのタグIDを供給する。
また、タグ読み出し部1052は、時刻情報取得部1053に、タグの登録が指示された時刻を取得させるための指示を供給して、処理はステップS515からステップS516に進む。
ステップS516において、時刻情報取得部1053は、タグ読み出し部1052からの指示に基づいて、時計部1054から、タグの登録が指示された時刻を示す時刻情報を取得し、タグ登録データ生成部1055に供給して、処理は、ステップS517に進む。
ステップS517において、タグ登録データ生成部1055は、選択部1051、タグ読み出し部1052、および時刻情報取得部1053のそれぞれから供給された、地域情報とチャンネル情報、タグのタグID、および時刻情報、並びに予め設定されたユーザIDから、図20のタグ登録データを生成し、記憶部1032に供給して、処理は、ステップS518に進む。
一方、ステップS514において、タグの登録の指示がなかったと判定された場合、処理は、ステップS515乃至ステップS517をスキップして、ステップS518に進む。
ステップS518において、タグ登録数データ生成部1056は、時計部1054から出力される現在時刻を基に、直前のスタート時刻から単位時間が経過したか否かを判定する。
ステップS518において、まだ単位時間が経過していないと判定された場合、処理は、ステップS514に戻り、ステップS514乃至ステップS517の処理が繰り返される。
一方、ステップS518において、単位時間が経過したと判定された場合、処理は、ステップS519に進み、タグ登録数データ生成部1056は、記憶部1032に記憶されたタグ登録データを用いて、タグ登録数データ(自己タグ登録数データ)を生成し、記憶部1032に供給して記憶させるとともに、通信制御部1057、および表示制御部1058に供給して、処理はステップS520に進む。
ステップS520において、送信制御部1071は、通信部1034に、タグ登録数データ生成部1056から供給された自己タグ登録数データを送信させる。
一方、タグ管理サーバ1012では、ステップS531において、受信制御部1111(図23)は、表示装置1011それぞれから送信されてきたタグ登録数データを、通信部1099(図22)に受信させ、タグ登録数集計部1112(図23)に供給し、処理はステップS532に進む。
ステップS532において、タグ登録数集計部1112は、ステップS531で受信されたタグ登録数データのうちの、同一の地域情報、チャンネル情報、および単位時間情報を有するタグ登録数データを対象に、タグ登録数をタグID毎に集計し、その結果得られた全ユーザタグ登録数データを、記憶部1098に供給して記憶させるとともに、送信制御部1113に供給して、処理はステップS533に進む。
ステップS533において、送信制御部1113は、タグ登録数集計部1112から供給された全ユーザタグ登録数データを基に、他ユーザタグ登録数データを求め、通信部1099に供給して、表示装置1011に対して送信させる。
その後、処理は、ステップS533からステップS531に戻り、以下、同様の処理が繰り返される。
一方、表示装置1011では、ステップS521において、受信制御部1072が、通信部1034に、タグ管理サーバ1012から送信されてきた他ユーザタグ登録数データを受信させ、表示制御部1058に供給して、処理はステップS522に進む。
ステップS522において、表示制御部1058は、図24で説明したように、タグ表示ウィンドウ1131のアイコン表示領域1153に、タグ登録数データ生成部1056から供給された自己タグ登録数データに基づくアイコン、若しくは、受信制御部1072から供給された他ユーザタグ登録数データに基づくアイコンのうちの一方、または両方を表示させ、処理は、ステップS514に戻り、以下、例えば、タグ登録モードが解除されるまで、同様の処理が繰り返される。
なお、表示制御部1058は、ステップS522において、タグ読み出し部1052から、記憶部1032に記憶されたタグのアイコンイメージデータおよび色データの供給を受け、そのアイコンイメージデータおよび色データに基づいて、アイコンを表示する。
また、ユーザによってタグの登録の指示があった場合には、登録が指示されたタグに対応する音データおよび振動パターンデータに基づいて、音を出力させたり、振動を発生させたりするようにしてもよい。より具体的には、タグ読み出し部1052が、登録の指示があったタグの音データを音声出力制御部1059に供給するとともに、振動パターンデータを振動制御部1060に供給することで、音声出力部1036に音声を出力させたり、振動部1037を振動させたりすることができる。
このようにして、ユーザは、コンテンツを視聴しながら、タグ表示ウィンドウ1131のアイコンボタン1152を選択することによって、直感的かつ簡単に、コンテンツに対するタグの登録を指示するとともに、同じコンテンツを視聴している他のユーザによって登録されたタグをほぼリアルタイムに把握することができる。
以上のように、表示装置1011では、感情を表すタグのうちの、ユーザがコンテンツ(対象コンテンツ)に対する登録を指示したタグに含まれるそのタグを特定する特定情報としてのタグIDと、ユーザがタグの登録を指示したときの時刻を示す時刻情報とが含まれるタグ登録データの数に関するタグ登録数データを取得し、時刻を表す第1の軸である横軸(時間軸)と、タグ登録データの数を表す第2の軸である縦軸とで示される表示領域(アイコン表示領域1153)における、所定の時刻を表す横軸上の位置と、所定の時刻を含む所定の単位時間に含まれる時刻を示す時刻情報を有するタグ登録データのうちの、同一のタグIDを有するタグ登録データの数を表す縦軸上の位置とで特定される位置への、タグIDで特定されるタグが表す感情を表現するアイコンの表示を、タグ登録数データに基づいて制御するので、ユーザは、例えば、対象コンテンツの内容における所定の部分に対する、他のユーザの評価を直感的に把握することができる。
なお、上述の説明では、アイコン表示領域1153において、横軸が時刻を表し、縦軸がタグ登録データの数を表すこととしたが、横軸がタグ登録データの数を表し、縦軸が時刻を表すようにしてもよい。
また、上述した説明では、直前のスタート時刻から単位時間が経過した後に、その単位時間内に登録が指示されたタグのタグ登録データから自己タグ登録数データを生成し、その自己タグ登録数データに基づくアイコンを表示させるようにしたが、表示装置1011のユーザの指示によるタグの登録においては、単位時間の経過に関わらず、タグの登録が指示される度に、対応するアイコンを表示させるようにしてもよい。すなわち、表示制御部1058では、タグ登録データ生成部1055において、タグの登録の指示に応じてタグ登録データが生成される度に、タグ登録データのタグIDで特定されるタグに対応するアイコンの表示の位置を変化させるようにしてもよい。
これにより、表示装置1011のユーザは、登録されたタグに対応するアイコンの表示の位置の変化をリアルタイムに確認することができる。
また、上述した説明において、タグの登録の対象のコンテンツは、現在放送されているテレビジョン放送番組であるものとして説明してきたが、過去に放送され記録(録画)されたコンテンツを視聴する場合には、表示装置1011では、そのコンテンツを対象コンテンツとする他ユーザタグ登録数データを、タグ管理サーバ1012から取得し、その他ユーザタグ登録数データに基づくアイコンを表示することができる。
これによって、ユーザは、録画したコンテンツに対する他のユーザの評価を確認してから、コンテンツの視聴を始めることができる。すなわち、他のユーザの評価に応じて、録画したコンテンツを視聴するか否かを判断することができる。また、表示装置1011では、時計部1054が計時する時刻を、録画したコンテンツが放送されていた時刻に変更し、ユーザのタグの登録の指示によって得られる自己タグ登録数データをタグ管理サーバ1012に送信することで、ユーザは、録画したコンテンツに対して、過去に登録されたタグに加えて、新たにタグを登録することができるようになり、録画したコンテンツをリアルタイムに視聴している感覚を覚えることができる。
上述した説明においては、不特定多数のユーザの指示によるタグの登録に応じた表示を行うようにしたが、予めユーザ登録を行ったユーザ同士のみの指示によるタグの登録に応じた表示を行うようにしてもよい。
図26は、ユーザ登録を行った場合の、タグの登録の処理における表示部1035の表示の例について説明する図である。
図26に示されるように、タグ表示ウィンドウ1131の下には、ユーザ登録を行ったユーザのうち、ログインしてタグの登録の指示(の操作)を行っているユーザを示す画像(人影)、そのユーザの名称、およびそれぞれのユーザが視聴しているコンテンツのチャンネルを示すチャンネル情報が表示されている。
図26の例によれば、「たろう」で表される表示装置1011のユーザは、81チャンネルを視聴しており、「はなこ」で表される他の表示装置1011のユーザは、51チャンネルを視聴しており、「みか」で表されるさらに他の表示装置1011のユーザは、81チャンネルを視聴している。なお、「みか」で表されるユーザの人影に重畳して表示されているアイコンは、例えば、現在時刻から過去1乃至2分以内の時刻に、「みか」で表されるユーザによって登録が指示されたタグに対応するアイコンである。
これらは、例えば、受信制御部1072(図18)が、タグ管理サーバ1012を介して、ユーザ登録された他のユーザによって登録が指示されたタグのタグ登録データを取得し、表示制御部1058(図18)が、他のユーザのタグ登録データに基づいて、表示部1035(図18)の表示を制御することで実現される。
このようにすることで、ユーザ同士で、誰が、どのチャンネルのコンテンツに対して、どのようなタグの登録を指示したかを把握することができる。
また、図26において、ユーザによって登録が指示されたタグに対応するアイコンをユーザの人影(の画像)に重畳させて表示させるのではなく、ログインしているユーザを示す人影を、顔の表情が変化するアバタとし、それぞれのユーザによって登録が指示されたタグに応じて、そのユーザに対応するアバタの顔の表情を変えるようにしてもよい。また、このとき、アバタの顔の表情にあわせて、笑い声や泣き声などの音声を出力させてもよい。
このように、タグ表示ウィンドウ1131と共に、ユーザ登録されたユーザ同士の状態を示す情報を表示させることで、ユーザは、コンテンツを身近な人と一緒に視聴している感覚を味わうことができる。
さらに、図27に示されるように、ユーザ登録されたユーザ同士でチャットを行うようにしてもよい。これは、例えば、タグ管理サーバ1012(図17)に、チャットサーバの機能を付加することで実現される。
図27の例によれば、「たろう」で表されるユーザ、「はなこ」で表されるユーザ、「みか」で表されるユーザ、「ひで」で表されるユーザ、および「まもる」で表されるユーザの5人のユーザがログインしており、この5人の間でチャットを行うようにすることができる。
また、図27においては、表示装置1011のユーザである「たろう」で表されるユーザと同じ81チャンネルのコンテンツを視聴しているのは、「みか」で表されるユーザと、「ひで」で表されるユーザの2人である。すなわち、ログインしている5人のユーザのうち、81チャンネルのコンテンツを視聴しているのは3人のユーザである。このとき、表示制御部1058は、例えば、チャットサーバとしてのタグ管理サーバ1012におけるログイン情報などに基づいて、タグ表示ウィンドウ1131の直下に、ログインしているユーザの数を示す「Login 3/5(同チャンネル/全員)」の表示をさせている。
このように、何人のユーザが同じチャンネルのコンテンツを視聴しているかを表示することで、ユーザは、タグ表示ウィンドウ1131上にタグの登録によるアイコンの表示があったときに、ログインしているユーザのうちの何人のユーザによる反応(タグの登録の指示)であったかを容易に把握することができる。
また、ユーザ登録を行ったユーザ同士の間で、同じコンテンツに対して同時刻に同じタグの登録を指示した、すなわち同調したユーザについて、何らかの表示(例えば、「他ユーザとシンクロしました!」など)を行うようにしてもよい。
これは、例えば、ユーザ登録を行ったユーザにより操作される表示装置1011それぞれが、タグ登録データ生成部1055(図18)によってタグ登録データ(図20)が生成される度に、そのタグ登録データをタグ管理サーバ1012に送信し、タグ管理サーバ1012が、表示装置1011それぞれから送信されてきたタグ登録データのうち、地域情報およびチャンネル情報と、時刻情報と、タグIDとが同じであるタグ登録データのユーザIDで特定されるユーザが操作する表示装置1011に、「他ユーザとシンクロしました!」などの表示を行わせるための要求を送信するようにすることで実現できる。
ここで、ユーザ同士が同調したか否かは、以下のようにして決められる。
すなわち、例えば、タグ管理サーバ1012において、表示装置1011それぞれから供給された同じタグIDを有するタグ登録データ(図20)について、10秒間などの所定の時間間隔内に含まれる時刻を示す時刻情報を有するタグ登録データのうちの、同時刻とみなされる短い時間の範囲(例えば、1乃至2秒間)に含まれる時刻を示す時刻情報を有するタグ登録データの割合を同調率とし、同調率が所定の閾値以上であれば、その短い時間の範囲に含まれる時刻を示す時刻情報を有するタグ登録データのユーザIDで特定されるユーザ同士が同調したとみなされる。
このように、同じコンテンツを視聴しているユーザによって登録が指示されたタグに対して、同調率を求めることで、ユーザ間のマッチングをとることができる。
ここで、ユーザ登録を行ったユーザ間に限らず、不特定多数のユーザに対してユーザ間のマッチングをとるようにした場合、ユーザは、新たなコミュニケーションのきっかけを得ることができる。
例えば、タグ登録データのユーザIDに、ユーザの名前だけでなく、国籍や性別などの情報を含ませることにより、同じコンテンツの同じ場面で同じタグの登録を指示したユーザ同士が、お互いについての情報を確認できるようにしてもよい。
ところで、表示装置1011の表示部1035に表示されるタグ表示ウィンドウ1131(図24)において、コンテンツの種類(ジャンル)に応じて、表示されるアイコンボタン1152や、アイコン表示領域1153の背景の表示を変化させるようにしてもよい。
より具体的には、例えば、表示装置1011が、所定のジャンルのコンテンツ(例えば、野球やサッカーなどのスポーツ中継番組、お笑い番組など)が放送される未来の日時を示す情報に基づいて、そのコンテンツのジャンルに応じたタグや、アイコン表示領域1153の背景となる背景イメージデータを、タグ管理サーバ1012から予めダウンロードすることで、表示されるアイコンボタン1152や、アイコン表示領域1153の背景の表示を変化させることができる。なお、表示装置1011が、タグや背景イメージデータをダウンロードするタイミングは、ユーザがそのコンテンツを視聴するとき、すなわち、表示装置1011においてタグの登録を行うモードが選択されたときでもよい。
これによって、ユーザは、視聴するコンテンツの雰囲気に合わせて、タグの登録を指示することができる。
また、表示装置1011が携帯電話機である場合、例えば、選択部1051(図18)において選択されたチャンネルを示すチャンネル情報を、通信部1034を介して赤外線で送信させることで、赤外線によって所定のテレビジョン受像機に表示されるテレビジョン放送番組のチャンネルを切替えるチャンネル切替え機能と、タグ表示ウィンドウ1131において、タグの登録の対象のコンテンツ(テレビジョン放送番組)が放送されているチャンネルを選択する処理とを連動させるようにしてもよい。
これにより、ユーザは、テレビジョン受像機のリモートコントローラとしての表示装置1011を操作することで、視聴しているコンテンツのチャンネルを変更するとともに、変更したチャンネルに応じたタグ表示ウィンドウ1131(図24)を表示部1035に表示させることができる。また、逆に、ユーザは、チャンネルに応じたタグ表示ウィンドウ1131に表示されているアイコン(他の表示装置1011において登録されたタグ)の状況を確認しながら、テレビジョン受像機のチャンネルを所望のコンテンツが放送されているチャンネルに変更することができる。
また、例えば、他のユーザによって、所定のチャンネルで放送されているコンテンツに対して、特定のタグ(例えば、001のタグIDで特定されるタグ)の登録が、所定の時間範囲内で所定の回数以上指示された場合、チャンネル切替え機能によって、テレビジョン受像機のチャンネルを、自動的にそのチャンネルに変更してもよい。
さらに、上述したユーザ登録を行うことによって、表示装置1011は、ユーザ登録されている他のユーザによるチャンネル切替えの操作に応じて、そのチャンネルに応じたタグ表示ウィンドウ1131を表示させるとともに、テレビジョン受像機のチャンネルを、そのチャンネルに変更させるようにしてもよい。
このようにして、視聴するコンテンツのチャンネル切替えと、タグ表示ウィンドウ1131のチャンネルの選択とを連動させることで、ユーザは、視聴するコンテンツの種類の幅を広げることができる。
以上においては、本発明を携帯電話機、HDDレコーダ、またはパーソナルコンピュータとしてのコンテンツ再生装置に適用した実施の形態について説明したが、本発明は、例えば、テレビジョン受像機、PDA(Personal Digital Assistant)など、コンテンツを再生する情報処理装置に適用することができる。
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、記憶部32に、リムーバブルメディア39から制御部33を介してインストールされ、また、記憶部1032に、リムーバブルメディア1039から制御部1033を介してインストールされる。
なお、本明細書において、リムーバブルメディア39およびリムーバブルメディア1039に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。

Claims (17)

  1. 所定の長さの時間において動的に変化するコンテンツの再生を制御する再生制御手段と、
    再生されている前記コンテンツに対するユーザの主観的な評価を表すタグの付加の指示に応じて、予め記憶されている情報であって前記タグを表す情報であるタグ情報を読み出す読み出し手段と、
    前記ユーザにより前記タグの付加が指示されたときの前記コンテンツ上の時刻を示す時刻情報を取得する取得手段と、
    前記時刻情報と前記タグ情報とを対応させて記憶する記憶手段と
    を備える情報処理装置。
  2. 前記タグ情報は、前記タグ情報を特定するためのタグ特定情報、前記ユーザの主観的な評価を表すアイコンを表示するための表示情報、前記ユーザの主観的な評価を表す音声を出力するための音声情報を含むように構成され、
    前記記憶手段は、前記時刻情報と前記タグ情報のうちの前記タグ特定情報とを対応させて記憶する
    請求項1に記載の情報処理装置。
  3. 再生されている前記コンテンツの時間の基準となる時間軸の表示を制御するとともに、前記時刻情報と、前記タグ特定情報で特定される前記タグ情報に含まれる前記表示情報とに基づいて、前記時刻情報で示される時刻を表す前記時間軸上の位置への前記アイコンの表示を制御する表示制御手段をさらに備える
    請求項2に記載の情報処理装置。
  4. 前記表示制御手段は、複数の同一である前記アイコンが近接して表示される場合、それらの表示位置の近傍に、近接して表示される前記アイコンに代えて、その前記アイコンの数に応じた大きさの前記アイコンを表示させるように、前記アイコンの表示を制御する
    請求項3に記載の情報処理装置。
  5. 前記時刻情報と、前記タグ特定情報で特定される前記タグ情報に含まれる前記音声情報とに基づいて、再生されている前記コンテンツ上の前記時刻情報で示される時刻に、音声の出力を制御する音声出力制御手段をさらに備える
    請求項2に記載の情報処理装置。
  6. 前記タグ情報は、自分自身を振動させる振動のパターンを示す振動パターン情報をさらに含むように構成され、
    前記時刻情報と、前記タグ特定情報で特定される前記タグ情報に含まれる前記振動パターン情報とに基づいて、再生されている前記コンテンツ上の前記時刻情報で示される時刻に、振動の発生を制御する振動制御手段をさらに備える
    請求項2に記載の情報処理装置。
  7. 前記タグ情報で表される前記タグから前記ユーザにより予め選択された前記タグのうちの、前記ユーザによる操作に応じた前記タグの付加の指示を入力する入力手段をさらに備える
    請求項1に記載の情報処理装置。
  8. 所定の長さの時間において動的に変化するコンテンツの再生を制御し、
    再生されている前記コンテンツに対するユーザの主観的な評価を表すタグの付加の指示に応じて、予め記憶されている情報であって前記タグを表す情報であるタグ情報を読み出し、
    前記ユーザにより前記タグの付加が指示されたときの前記コンテンツ上の時刻を示す時刻情報を取得し、
    前記時刻情報と前記タグ情報とを対応させて記憶する
    ステップを含む情報処理方法。
  9. 所定の長さの時間において動的に変化するコンテンツの再生を制御し、
    再生されている前記コンテンツに対するユーザの主観的な評価を表すタグの付加の指示に応じて、予め記憶されている情報であって前記タグを表す情報であるタグ情報を読み出し、
    前記ユーザにより前記タグの付加が指示されたときの前記コンテンツ上の時刻を示す時刻情報を取得し、
    前記時刻情報と前記タグ情報とを対応させて記憶させるように記憶を制御する
    ステップを含むプログラム。
  10. 感情を表すタグのうちの、ユーザがコンテンツに対する登録を指示したタグに含まれるそのタグを特定する特定情報と、前記ユーザがタグの登録を指示したときの時刻を示す時刻情報とが含まれる登録情報の数に関する登録数情報を取得する取得手段と、
    時刻を表す第1の軸と、前記登録情報の数を表す第2の軸とで示される表示領域における、
    所定の時刻を表す前記第1の軸上の位置と、
    前記所定の時刻を含む所定の単位時間に含まれる時刻を示す前記時刻情報を有する前記登録情報のうちの、同一の前記特定情報を有する前記登録情報の数を表す前記第2の軸上の位置と
    で特定される位置への、前記特定情報で特定されるタグが表す感情を表現するアイコンの表示を、前記登録数情報に基づいて制御する表示制御手段と
    を備える情報処理装置。
  11. ユーザによるタグの登録の指示に応じて、前記登録情報を生成する生成手段をさらに備え、
    前記取得手段は、前記生成手段により生成された前記登録情報を用いて、前記登録数情報を生成することにより取得する
    請求項1に記載の情報処理装置。
  12. 前記取得手段は、他の装置から、他のユーザによるタグの登録の指示に応じて生成された前記登録数情報を取得する
    請求項1に記載の情報処理装置。
  13. 前記取得手段は、複数の他のユーザによるタグの指示に応じて生成された前記登録情報の数を、前記特定情報毎に集計した数に関する登録数情報を取得する
    請求項3に記載の情報処理装置。
  14. 前記登録情報は、タグの登録の対象のコンテンツが放送されている地域を示す地域情報、および前記コンテンツが放送されているチャンネルを示すチャンネル情報をさらに含み、
    前記表示制御手段は、前記表示領域における、
    前記所定の時刻を表す前記第1の軸上の位置と、
    前記所定の時刻を含む所定の単位時間に含まれる時刻を示す前記時刻情報を有する前記登録情報のうちの、同一の前記地域情報、前記チャンネル情報、および前記特定情報を有する前記登録情報の数を表す前記第2の軸上の位置と
    で特定される位置への、前記特定情報で特定されるタグが表す感情を表現する前記アイコンの表示を、前記登録数情報に基づいて制御する
    請求項1に記載の情報処理装置。
  15. タグの登録の対象のコンテンツは、テレビジョン放送番組である
    請求項1に記載の情報処理装置。
  16. 感情を表すタグのうちの、ユーザがコンテンツに対する登録を指示したタグに含まれるそのタグを特定する特定情報と、前記ユーザがタグの登録を指示したときの時刻を示す時刻情報とが含まれる登録情報の数に関する登録数情報を取得し、
    時刻を表す第1の軸と、前記登録情報の数を表す第2の軸とで示される表示領域における、
    所定の時刻を表す前記第1の軸上の位置と、
    前記所定の時刻を含む所定の単位時間に含まれる時刻を示す前記時刻情報を有する前記登録情報のうちの、同一の前記特定情報を有する前記登録情報の数を表す前記第2の軸上の位置と
    で特定される位置への、前記特定情報で特定されるタグが表す感情を表現するアイコンの表示を、前記登録数情報に基づいて制御する
    ステップを含む情報処理方法。
  17. 感情を表すタグのうちの、ユーザがコンテンツに対する登録を指示したタグに含まれるそのタグを特定する特定情報と、前記ユーザがタグの登録を指示したときの時刻を示す時刻情報とが含まれる登録情報の数に関する登録数情報を取得する取得手段と、
    時刻を表す第1の軸と、前記登録情報の数を表す第2の軸とで示される表示領域における、
    所定の時刻を表す前記第1の軸上の位置と、
    前記所定の時刻を含む所定の単位時間に含まれる時刻を示す前記時刻情報を有する前記登録情報のうちの、同一の前記特定情報を有する前記登録情報の数を表す前記第2の軸上の位置と
    で特定される位置への、前記特定情報で特定されるタグが表す感情を表現するアイコンの表示を、前記登録数情報に基づいて制御する表示制御手段と
    を備える情報処理装置として、コンピュータを機能させるプログラム。
JP2008555058A 2007-01-22 2008-01-22 情報処理装置および方法、並びにプログラム Expired - Fee Related JP5500334B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008555058A JP5500334B2 (ja) 2007-01-22 2008-01-22 情報処理装置および方法、並びにプログラム

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2007011118 2007-01-22
JP2007011118 2007-01-22
JP2007156972 2007-06-14
JP2007156972 2007-06-14
PCT/JP2008/050750 WO2008090859A1 (ja) 2007-01-22 2008-01-22 情報処理装置および方法、並びにプログラム
JP2008555058A JP5500334B2 (ja) 2007-01-22 2008-01-22 情報処理装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JPWO2008090859A1 true JPWO2008090859A1 (ja) 2010-05-20
JP5500334B2 JP5500334B2 (ja) 2014-05-21

Family

ID=39644435

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008555058A Expired - Fee Related JP5500334B2 (ja) 2007-01-22 2008-01-22 情報処理装置および方法、並びにプログラム

Country Status (6)

Country Link
US (1) US20100005393A1 (ja)
EP (1) EP2129120A4 (ja)
JP (1) JP5500334B2 (ja)
KR (1) KR101436661B1 (ja)
CN (1) CN101601292B (ja)
WO (1) WO2008090859A1 (ja)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5200204B2 (ja) 2006-03-14 2013-06-05 ディブエックス リミテッド ライアビリティー カンパニー 高信頼性システムを含む連合型デジタル権限管理機構
WO2009016759A1 (ja) * 2007-08-02 2009-02-05 Fujitsu Limited 情報機器、プログラム、媒体、および方法
KR20100000336A (ko) * 2008-06-24 2010-01-06 삼성전자주식회사 컨텐츠 감상 경험을 기록/재생하는 멀티미디어 콘텐츠 처리방법 및 장치
US9178632B2 (en) * 2008-09-02 2015-11-03 Qualcomm Incorporated Methods and apparatus for an enhanced media content rating system
KR101520848B1 (ko) * 2008-10-13 2015-05-15 삼성전자주식회사 휴대 단말기 및 그 휴대 단말기에서 설정된 환경에 따른 이벤트 표시 방법
CA2749170C (en) 2009-01-07 2016-06-21 Divx, Inc. Singular, collective and automated creation of a media guide for online content
US8296675B2 (en) * 2009-03-09 2012-10-23 Telcordia Technologies, Inc. System and method for capturing, aggregating and presenting attention hotspots in shared media
US8760469B2 (en) 2009-11-06 2014-06-24 At&T Intellectual Property I, L.P. Apparatus and method for managing marketing
EP2507995A4 (en) 2009-12-04 2014-07-09 Sonic Ip Inc SYSTEMS AND METHODS FOR TRANSPORTING ELEMENTARY BIT TRAIN CRYPTOGRAPHIC MATERIAL
US20110179003A1 (en) * 2010-01-21 2011-07-21 Korea Advanced Institute Of Science And Technology System for Sharing Emotion Data and Method of Sharing Emotion Data Using the Same
JP2011210052A (ja) * 2010-03-30 2011-10-20 Sharp Corp ネットワークシステム、通信方法、および通信端末
JP5740972B2 (ja) * 2010-09-30 2015-07-01 ソニー株式会社 情報処理装置および情報処理方法
JP5065470B2 (ja) * 2010-12-07 2012-10-31 楽天株式会社 サーバ、情報管理方法、情報管理プログラム、及びそのプログラムを記録するコンピュータ読み取り可能な記録媒体
US9247312B2 (en) 2011-01-05 2016-01-26 Sonic Ip, Inc. Systems and methods for encoding source media in matroska container files for adaptive bitrate streaming using hypertext transfer protocol
JP2012169777A (ja) * 2011-02-10 2012-09-06 Sony Corp 情報処理装置、情報処理方法、およびプログラム
CN102308272B (zh) * 2011-07-07 2013-12-04 华为终端有限公司 桌面应用组件自动显示的方法和设备
US9467708B2 (en) 2011-08-30 2016-10-11 Sonic Ip, Inc. Selection of resolutions for seamless resolution switching of multimedia content
US8909922B2 (en) 2011-09-01 2014-12-09 Sonic Ip, Inc. Systems and methods for playing back alternative streams of protected content protected using common cryptographic information
JP5894500B2 (ja) * 2012-05-30 2016-03-30 日本電信電話株式会社 コンテンツ評価システム及び方法
CN103565445A (zh) * 2012-08-09 2014-02-12 英华达(上海)科技有限公司 情绪评估服务***及其方法
USD755222S1 (en) * 2012-08-20 2016-05-03 Yokogawa Electric Corporation Display screen with graphical user interface
JP2014049883A (ja) * 2012-08-30 2014-03-17 Toshiba Corp 情報処理装置及び情報処理方法及びデジタルテレビジョン受信装置及び記憶媒体
JP2015534748A (ja) * 2012-09-04 2015-12-03 ティヴォ インク 無線メディア・ストリーム配信システム
WO2014047425A1 (en) * 2012-09-21 2014-03-27 Comment Bubble, Inc. Timestamped commentary system for video content
US8872983B2 (en) * 2012-12-27 2014-10-28 Kabushiki Kaisha Toshiba Information processing apparatus and display processing method
US9313510B2 (en) 2012-12-31 2016-04-12 Sonic Ip, Inc. Use of objective quality measures of streamed content to reduce streaming bandwidth
US9191457B2 (en) 2012-12-31 2015-11-17 Sonic Ip, Inc. Systems, methods, and media for controlling delivery of content
US20140344861A1 (en) 2013-05-14 2014-11-20 Tivo Inc. Method and system for trending media programs for a user
US9094737B2 (en) 2013-05-30 2015-07-28 Sonic Ip, Inc. Network video streaming with trick play based on separate trick play files
JP2014235533A (ja) * 2013-05-31 2014-12-15 株式会社Nttぷらら コンテンツ評価装置、コンテンツ提示装置、コンテンツ評価方法、コンテンツ評価プログラム、およびコンテンツ供給システム
US10437341B2 (en) * 2014-01-16 2019-10-08 Immersion Corporation Systems and methods for user generated content authoring
US9866878B2 (en) 2014-04-05 2018-01-09 Sonic Ip, Inc. Systems and methods for encoding and playing back video at different frame rates using enhancement layers
JP6338456B2 (ja) * 2014-05-31 2018-06-06 Kddi株式会社 ユーザの感情に基づいてコンテンツをレコメンドする装置、プログラム及び方法
JP6365184B2 (ja) * 2014-09-26 2018-08-01 日亜化学工業株式会社 液晶表示装置用バックライトユニット及びこれを用いた液晶表示装置
US9971406B2 (en) * 2014-12-05 2018-05-15 International Business Machines Corporation Visually enhanced tactile feedback
KR101718896B1 (ko) * 2015-03-26 2017-03-22 삼성전자주식회사 컨텐츠 감상 경험을 기록/재생하는 멀티미디어 콘텐츠 처리 방법 및 장치
JP6544112B2 (ja) * 2015-07-24 2019-07-17 いすゞ自動車株式会社 確認支援装置
CN106612229B (zh) * 2015-10-23 2019-06-25 腾讯科技(深圳)有限公司 对用户生成内容进行反馈以及展示反馈信息的方法和装置
USD834587S1 (en) * 2016-04-13 2018-11-27 Under Armour, Inc. Display screen with graphical user interface
JPWO2018088319A1 (ja) * 2016-11-11 2019-10-03 ソニーモバイルコミュニケーションズ株式会社 再生端末及び再生方法
JP6271693B2 (ja) * 2016-12-16 2018-01-31 株式会社東芝 受信装置及び受信装置の制御方法及びデジタルテレビジョン受信装置
JP6471774B2 (ja) * 2017-07-04 2019-02-20 株式会社セガゲームス 情報処理システム及び動画再生方法
US11523171B2 (en) 2019-01-17 2022-12-06 Sony Interactive Entertainment Inc. Information processing device
JP6745393B1 (ja) * 2019-11-25 2020-08-26 Gmo Nikko株式会社 情報処理装置、情報処理方法及びプログラム
US10972682B1 (en) 2019-12-12 2021-04-06 Facebook, Inc. System and method for adding virtual audio stickers to videos
CN112308598A (zh) * 2020-08-26 2021-02-02 尼尔森网联媒介数据服务有限公司 展示内容的读取方法、装置、存储介质和电子设备
US11544517B2 (en) * 2020-10-03 2023-01-03 MHG IP Holdings, LLC RFID antenna
WO2022107283A1 (ja) * 2020-11-19 2022-05-27 日本電信電話株式会社 記号付加方法、記号付加装置及びプログラム
CN114897104A (zh) * 2022-06-14 2022-08-12 北京金堤科技有限公司 信息获取方法、装置、电子设备及存储介质

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5600775A (en) * 1994-08-26 1997-02-04 Emotion, Inc. Method and apparatus for annotating full motion video and other indexed data structures
US5758257A (en) * 1994-11-29 1998-05-26 Herz; Frederick System and method for scheduling broadcast of and access to video programs and other data using customer profiles
WO1999034274A2 (en) * 1997-12-31 1999-07-08 Todd Kenneth J Dynamically configurable electronic comment card
US7222075B2 (en) * 1999-08-31 2007-05-22 Accenture Llp Detecting emotions using voice signal analysis
JP3296342B2 (ja) * 1999-09-21 2002-06-24 日本電気株式会社 通信端末
KR100466563B1 (ko) * 2000-07-26 2005-01-14 엔티티 도꼬모 인코퍼레이티드 시청률 산출 시스템 및 이동통신단말
WO2002019717A2 (en) * 2000-08-31 2002-03-07 Myrio Corporation Real-time audience monitoring, content rating, and content enhancing
US6728725B2 (en) * 2001-05-08 2004-04-27 Eugene Garfield, Ph.D. Process for creating and displaying a publication historiograph
CA2394503A1 (en) * 2001-07-23 2003-01-23 Research In Motion Limited System and method for pushing information to a mobile device
US6585521B1 (en) * 2001-12-21 2003-07-01 Hewlett-Packard Development Company, L.P. Video indexing based on viewers' behavior and emotion feedback
JP3982295B2 (ja) * 2002-03-20 2007-09-26 日本電信電話株式会社 映像コメント入力・表示方法およびシステムと、クライアント装置と、映像コメント入力・表示プログラム及びその記録媒体
US20040088729A1 (en) * 2002-10-30 2004-05-06 Imagic Tv Inc. Ratings based television guide
JP2004193979A (ja) * 2002-12-11 2004-07-08 Canon Inc 映像配信システム
KR20060004909A (ko) * 2003-02-14 2006-01-16 너바나, 인코퍼레이티드. 시맨틱 지식의 검색, 관리, 포착, 공유, 발견, 전달 및프리젠테이션 시스템 및 방법
US7185285B2 (en) * 2003-02-19 2007-02-27 Microsoft Corporation User interface and content enhancements for real-time communication
JP2005295266A (ja) * 2004-03-31 2005-10-20 Victor Co Of Japan Ltd 受信装置
EP1738368A1 (en) * 2004-04-15 2007-01-03 Koninklijke Philips Electronics N.V. Method of generating a content item having a specific emotional influence on a user
KR100636169B1 (ko) * 2004-07-29 2006-10-18 삼성전자주식회사 서로 다른 drm이 적용된 콘텐츠의 전송 및 재생 방법
WO2006028223A1 (ja) * 2004-09-10 2006-03-16 Matsushita Electric Industrial Co., Ltd. 情報処理端末
EP1666967B1 (en) * 2004-12-03 2013-05-08 Magix AG System and method of creating an emotional controlled soundtrack
WO2006109314A2 (en) * 2005-04-12 2006-10-19 Inlive Interactive Ltd. Market surveying
JP2006317872A (ja) 2005-05-16 2006-11-24 Sharp Corp 携帯端末装置および楽曲表現方法
US8145528B2 (en) * 2005-05-23 2012-03-27 Open Text S.A. Movie advertising placement optimization based on behavior and content analysis
US7813557B1 (en) * 2006-01-26 2010-10-12 Adobe Systems Incorporated Tagging detected objects
US20070180488A1 (en) * 2006-02-01 2007-08-02 Sbc Knowledge Ventures L.P. System and method for processing video content
US20080046925A1 (en) * 2006-08-17 2008-02-21 Microsoft Corporation Temporal and spatial in-video marking, indexing, and searching
US8756333B2 (en) * 2006-11-22 2014-06-17 Myspace Music Llc Interactive multicast media service
US8373799B2 (en) * 2006-12-29 2013-02-12 Nokia Corporation Visual effects for video calls

Also Published As

Publication number Publication date
CN101601292A (zh) 2009-12-09
WO2008090859A1 (ja) 2008-07-31
KR101436661B1 (ko) 2014-09-01
US20100005393A1 (en) 2010-01-07
EP2129120A1 (en) 2009-12-02
KR20090103912A (ko) 2009-10-01
EP2129120A4 (en) 2010-02-03
JP5500334B2 (ja) 2014-05-21
CN101601292B (zh) 2011-11-16

Similar Documents

Publication Publication Date Title
JP5500334B2 (ja) 情報処理装置および方法、並びにプログラム
TWI400627B (zh) 資訊處理裝置、方法及電腦程式產品
US9564174B2 (en) Method and apparatus for processing multimedia
KR102071579B1 (ko) 화면 미러링을 이용한 서비스 제공 방법 및 그 장치
JP4216308B2 (ja) 通話装置および通話プログラム
US20160182955A1 (en) Methods and systems for recommending media assets
CN103842936A (zh) 将多个实况视频剪辑和静态照片记录、编辑和合并为成品组合作品
JP2009141952A (ja) 情報処理装置、情報処理方法、コンテンツ視聴装置、コンテンツ表示方法、プログラム及び情報共有システム
CN109479157A (zh) 促进内容流的观看者之间的交互的方法、***和介质
JP5964722B2 (ja) カラオケシステム
JP5169239B2 (ja) 情報処理装置および方法、並びにプログラム
CN107333182A (zh) 多媒体文件的播放方法及装置
KR20190133210A (ko) 서버 장치, 및 그것에 사용되는 컴퓨터 프로그램
JP2014089368A (ja) カラオケ装置及びカラオケ用プログラム
KR20150054631A (ko) 디스플레이 장치 및 그 제어 방법
CN113852767B (zh) 视频编辑方法、装置、设备及介质
JP2009282697A (ja) ネットワークシステム、コンテンツ再生装置および画像処理方法
US20160133243A1 (en) Musical performance system, musical performance method and musical performance program
JP5963200B2 (ja) プレイリスト生成装置及びプレイリスト生成用プログラム
JP6924316B1 (ja) 動画配信装置、動画配信方法、および、動画配信プログラム
KR20170032864A (ko) 전자 장치 및 전자 장치의 동작 방법
KR20170126271A (ko) 디스플레이 장치 및 그의 동작 방법
JP2010060627A (ja) カラオケシステム
KR20200051754A (ko) 콘텐츠 배신 시스템 및 콘텐츠 배신 방법
JP7272976B2 (ja) シーン情報提供システム及び受信装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130228

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131203

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140226

LAPS Cancellation because of no payment of annual fees