JP2011128790A - User information processing program, user information processor and user information processing method - Google Patents

User information processing program, user information processor and user information processing method Download PDF

Info

Publication number
JP2011128790A
JP2011128790A JP2009285402A JP2009285402A JP2011128790A JP 2011128790 A JP2011128790 A JP 2011128790A JP 2009285402 A JP2009285402 A JP 2009285402A JP 2009285402 A JP2009285402 A JP 2009285402A JP 2011128790 A JP2011128790 A JP 2011128790A
Authority
JP
Japan
Prior art keywords
user
data
frame
information
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009285402A
Other languages
Japanese (ja)
Inventor
Ichiro Shishido
一郎 宍戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Holdings Inc
Original Assignee
JVCKenwood Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Holdings Inc filed Critical JVCKenwood Holdings Inc
Priority to JP2009285402A priority Critical patent/JP2011128790A/en
Publication of JP2011128790A publication Critical patent/JP2011128790A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve a problem wherein similarity between users cannot be calculated with high accuracy by conventional technology. <P>SOLUTION: A user information processor 1 includes: a reaction data totaling means 18 reading reaction data wherein user identification information, position information indicating a reproduction position of a content, and state information of a user corresponding to the position information are associated with each other, associating the position information with each frame having a prescribed start position and a prescribed end position, and calculating a reaction data totaling value obtained by totaling the reaction data of the plurality of users in each frame; a block information generation means 19 grouping one or more frames and generating block information; an integration data calculation means 12 associating the position information of the reaction data with a block, and calculating integration data obtained by integrating the plurality of pieces of the reaction data in each block in each user identification information; and a similarity calculation means 13 calculating the similarity between one user and the other user by use of the integration data of the one user and the other user. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、コンテンツに係るユーザの反応情報を処理する技術に関するものであり、特にコンテンツに対する興味の似たユーザ同士を特定する技術に関するものである。   The present invention relates to a technique for processing user reaction information related to content, and particularly to a technique for identifying users having similar interests in content.

近年、コンピュータ技術やネットワーク技術の進展を背景に、大量のコンテンツが制作され、流通している。また、ネットワークを介したユーザ間のコミュニケーションも盛んになっている。このためユーザの所望のコンテンツを検索する技術や、ユーザ間のコミュニケーションを促進する技術へのニーズが高まっている。コンテンツに対するユーザの興味や嗜好を把握するために、コンテンツに対するユーザの反応情報を収集することは有効であり、このような技術が開発されている。   In recent years, with the progress of computer technology and network technology, a large amount of content has been produced and distributed. In addition, communication between users via a network is also popular. For this reason, there is an increasing need for a technique for searching content desired by a user and a technique for promoting communication between users. In order to grasp the user's interest and preference for the content, it is effective to collect user reaction information for the content, and such a technique has been developed.

例えば特許文献1には、コンテンツ再生中のユーザの表情、視線パターン、目の瞳孔直径、瞬き、体温、心拍数などの情報を計測し、それらのセンシングデータを収集するシステムが開示されている。   For example, Patent Literature 1 discloses a system that measures information such as a user's facial expression, line-of-sight pattern, eye pupil diameter, blink, body temperature, heart rate, and the like during content reproduction, and collects the sensing data thereof.

特許文献2には、コンテンツ視聴中のユーザの顔画像などから感情データを生成するシステムが開示されている。また特許文献2には、そのような感情データを使ってユーザ同士のマッチングを行う技術も開示されている。   Patent Document 2 discloses a system that generates emotion data from a face image of a user who is viewing content. Patent Document 2 also discloses a technique for performing matching between users using such emotion data.

特開2005−142975号公報JP 2005-142975 A 特開2007−36874号公報JP 2007-36874 A

ところで、コンテンツに対するユーザの反応や、ユーザが抱く感情は、一般的には人によってそれぞれ異なる。例えば、同じ映画の同じシーンを見たとしても、あるユーザは、「楽しい」と感じ、別のユーザは「腹立たしい」と感じることがある。このような反応の違いは、ユーザの興味や価値観の違いに基づいて生じることが多い。すなわち、コンテンツ再生時にユーザが無意識で示す反応や、ユーザが自然に抱く感情には、そのユーザの個性(興味、嗜好、センス、考え方、価値観など)が顕著に現れるものであり、コンテンツ再生時のユーザの反応情報を収集して分析することにより、ユーザの個性を的確に捕えることが可能になる。ユーザの個性を的確に把握できれば、これを基にして、ユーザ同士のマッチングを精度良く行うことができる。このためには、複数のユーザの反応情報を収集して分析する必要がある。   By the way, the reaction of the user to the content and the emotion that the user has generally differ from person to person. For example, even if the same scene of the same movie is viewed, one user may feel “fun” and another user may feel “angry”. Such a difference in reaction often occurs based on a difference in user's interests and values. In other words, the user's personality (interest, preference, sense, way of thinking, values, etc.) appears prominently in the reactions that the user unconsciously displays during content playback and the emotions that the user naturally has. By collecting and analyzing user reaction information, it becomes possible to accurately capture the individuality of the user. If the user's individuality can be accurately grasped, matching between users can be performed with accuracy based on this. For this purpose, it is necessary to collect and analyze reaction information of a plurality of users.

上記の特許文献1では、複数のユーザの反応情報を収集しているが、それらの活用方法は必ずしも十分には考慮されていなかった。特に、複数のユーザ間の違いを利用した処理は行われていなかった。   In the above-mentioned Patent Document 1, reaction information of a plurality of users is collected, but their utilization method is not always considered sufficiently. In particular, processing using differences among a plurality of users has not been performed.

上記の特許文献2では、コンテンツ再生時のユーザの反応情報を使って、ユーザ同士のマッチングの程度(類似度)を算出している。しかしながら、十分な精度で類似度を算出できない場合があった。また、サンプルの取り方によっては、必要以上に処理量が多くなる場合があった。   In Patent Document 2 described above, the degree of matching (similarity) between users is calculated using user reaction information at the time of content reproduction. However, there are cases where the similarity cannot be calculated with sufficient accuracy. Also, depending on how the sample is taken, the amount of processing may increase more than necessary.

そこで本発明は、コンテンツ再生時のユーザの反応情報を用いて、ユーザ間の類似度を精度良く算出することを目的とする。また、ユーザ間の類似度を効率よく算出することを目的とする。   Therefore, an object of the present invention is to calculate the similarity between users with high accuracy by using user reaction information at the time of content reproduction. Moreover, it aims at calculating the similarity between users efficiently.

上記目的を達成するため、本発明のユーザ情報処理プログラムは、コンピュータを、ユーザを識別するためのユーザ識別情報と、コンテンツの再生位置を示す位置情報と、その位置情報に対応する前記ユーザの状態情報とを関連付けた反応データを読み込んで、前記位置情報を所定の開始位置と所定の終了位置を持つ各フレームに対応させると共に、前記フレームごとに複数のユーザの前記反応データを集計した反応データ集計値を算出する反応データ集計手段、前記反応データ集計値の分布情報を用いて、1つ以上の前記フレームをグループ化し、各グループの先頭のフレームの前記開始位置と末尾のフレーム前記終了位置との間にある前記位置情報を同一のブロックに対応させるためのブロック情報を生成するブロック情報生成手段、前記ブロック情報に基づいて、前記反応データの前記位置情報をブロックに対応させて、前記ユーザ識別情報ごとに、前記ブロックごとに複数の前記反応データを集約した集約データを計算する集約データ計算手段、一のユーザの前記集約データと、他のユーザの前記集約データとを用いて、一のユーザと他のユーザとの類似度を計算する類似度計算手段、として機能させる。   In order to achieve the above object, a user information processing program according to the present invention provides a computer with user identification information for identifying a user, position information indicating a reproduction position of content, and the state of the user corresponding to the position information. Reaction data aggregation in which reaction data associated with information is read, the position information is associated with each frame having a predetermined start position and a predetermined end position, and the reaction data of a plurality of users is aggregated for each frame Reaction data totaling means for calculating a value, grouping one or more of the frames using distribution information of the reaction data total value, and adding the start position of the first frame and the end frame to the end position of each group Block information generating means for generating block information for associating the position information between them with the same block, Based on block information, an aggregated data calculation means for associating the position information of the reaction data with a block and calculating aggregated data obtained by aggregating a plurality of the reaction data for each block for each of the user identification information, It is made to function as a similarity calculation means for calculating the similarity between one user and another user using the aggregated data of the other user and the aggregated data of the other user.

本発明のユーザ情報処理装置は、ユーザを識別するためのユーザ識別情報と、コンテンツの再生位置を示す位置情報と、その位置情報に対応する前記ユーザの状態情報とを関連付けた反応データを読み込んで、前記位置情報を所定の開始位置と所定の終了位置を持つ各フレームに対応させると共に、前記フレームごとに複数のユーザの前記反応データを集計した反応データ集計値を算出する反応データ集計手段と、前記反応データ集計値の分布情報を用いて、1つ以上の前記フレームをグループ化し、各グループの先頭のフレームの前記開始位置と末尾のフレーム前記終了位置との間にある前記位置情報を同一のブロックに対応させるためのブロック情報を生成するブロック情報生成手段と、前記ブロック情報に基づいて、前記反応データの前記位置情報をブロックに対応させて、前記ユーザ識別情報ごとに、前記ブロックごとに複数の前記反応データを集約した集約データを計算する集約データ計算手段と、一のユーザの前記集約データと、他のユーザの前記集約データとを用いて、一のユーザと他のユーザとの類似度を計算する類似度計算手段と、を有する。   The user information processing apparatus of the present invention reads reaction data in which user identification information for identifying a user, position information indicating a reproduction position of content, and the user status information corresponding to the position information are associated with each other. Reaction data totaling means for associating the position information with each frame having a predetermined start position and a predetermined end position, and calculating a reaction data total value obtained by totaling the reaction data of a plurality of users for each frame; One or more of the frames are grouped using the distribution information of the reaction data aggregate value, and the position information between the start position and the end frame of the first frame of each group is the same. Block information generating means for generating block information to correspond to the block, and based on the block information, the reaction data Corresponding position information corresponding to a block, for each of the user identification information, aggregated data calculation means for calculating aggregated data obtained by aggregating a plurality of the reaction data for each block, the aggregated data of one user, and other Similarity calculation means for calculating the similarity between one user and another user using the aggregated data of the other users.

本発明のユーザ情報処理方法は、ユーザを識別するためのユーザ識別情報と、コンテンツの再生位置を示す位置情報と、その位置情報に対応する前記ユーザの状態情報とを関連付けた反応データを読み込んで、前記位置情報を所定の開始位置と所定の終了位置を持つ各フレームに対応させると共に、前記フレームごとに複数のユーザの前記反応データを集計した反応データ集計値を算出するステップと、前記反応データ集計値の分布情報を用いて、1つ以上の前記フレームをグループ化し、各グループの先頭のフレームの前記開始位置と末尾のフレーム前記終了位置との間にある前記位置情報を同一のブロックに対応させるためのブロック情報を生成するステップと、前記ブロック情報に基づいて、前記反応データの前記位置情報をブロックに対応させて、前記ユーザ識別情報ごとに、前記ブロックごとに複数の前記反応データを集約した集約データを計算するステップと、一のユーザの前記集約データと、他のユーザの前記集約データとを用いて、一のユーザと他のユーザとの類似度を計算するステップと、を含む。   The user information processing method of the present invention reads reaction data in which user identification information for identifying a user, position information indicating a reproduction position of content, and state information of the user corresponding to the position information are associated with each other. A step of associating the position information with each frame having a predetermined start position and a predetermined end position, and calculating a reaction data total value obtained by totaling the reaction data of a plurality of users for each frame; One or more frames are grouped using the distribution information of the aggregate value, and the position information between the start position and the end frame of the first frame of each group corresponds to the same block Generating block information for causing the position information of the reaction data to be blocked based on the block information. Correspondingly, for each of the user identification information, using the step of calculating aggregate data obtained by aggregating a plurality of the reaction data for each block, using the aggregate data of one user and the aggregate data of another user Calculating the degree of similarity between one user and another user.

本発明のユーザ情報処理プログラム、ユーザ情報処理装置、及び、ユーザ情報処理方法によれば、コンテンツ再生に係るユーザの状態を利用して、ユーザ間の類似度を精度良く、かつ少ない処理量で効率的に計算することができる。このため他のユーザの情報を希望する一のユーザに対して、類似するユーザの情報を十分な精度で選択して提供することが出来る。   According to the user information processing program, the user information processing apparatus, and the user information processing method of the present invention, the degree of similarity between users can be accurately and efficiently processed with a small amount of processing by using the user state related to content reproduction. Can be calculated automatically. For this reason, it is possible to select and provide similar user information with sufficient accuracy to one user who desires other user information.

また、コンテンツの再生位置をブロックに対応させるためのブロック情報をあらかじめ準備しておく必要がないため、どのようなコンテンツもユーザ間類似度の計算に利用することが可能になる。   In addition, since it is not necessary to prepare block information for associating the playback position of the content with the block in advance, any content can be used for calculating the similarity between users.

本発明の実施例1におけるシステム全体の構成を示す図である。It is a figure which shows the structure of the whole system in Example 1 of this invention. 本発明の各実施例おける再生装置の構成を示す図である。It is a figure which shows the structure of the reproducing | regenerating apparatus in each Example of this invention. 本発明の各実施例における再生装置の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the reproducing | regenerating apparatus in each Example of this invention. 本発明の各実施例におけるユーザ反応データのデータ形式を示す図である。It is a figure which shows the data format of the user reaction data in each Example of this invention. 本発明の各実施例におけるユーザ反応データの作成処理を説明するためのフローチャートである。It is a flowchart for demonstrating the production | generation process of the user reaction data in each Example of this invention. 本発明の各実施例におけるユーザ反応データの補正処理を説明するための図である。It is a figure for demonstrating the correction process of the user reaction data in each Example of this invention. 本発明の各実施例におけるユーザ情報処理装置の構成を示す図である。It is a figure which shows the structure of the user information processing apparatus in each Example of this invention. 本発明の各実施例におけるユーザ反応データの変化の様子を示す模式図である。It is a schematic diagram which shows the mode of the change of the user reaction data in each Example of this invention. 本発明の各実施例における反応データ集計値の算出方法を説明するための模式図である。It is a schematic diagram for demonstrating the calculation method of the reaction data total value in each Example of this invention. 本発明の各実施例における反応データ集計値の算出方法を説明するための模式図である。It is a schematic diagram for demonstrating the calculation method of the reaction data total value in each Example of this invention. 本発明の各実施例におけるブロック情報の生成方法を説明するための模式図である。It is a schematic diagram for demonstrating the production | generation method of the block information in each Example of this invention. 本発明の各実施例におけるブロック情報の生成方法を説明するための模式図である。It is a schematic diagram for demonstrating the production | generation method of the block information in each Example of this invention. 本発明の各実施例におけるブロック情報の生成方法を説明するための模式図である。It is a schematic diagram for demonstrating the production | generation method of the block information in each Example of this invention. 本発明の各実施例におけるブロック情報の生成方法を説明するための模式図である。It is a schematic diagram for demonstrating the production | generation method of the block information in each Example of this invention. 本発明の各実施例におけるブロック情報の生成方法を説明するための模式図である。It is a schematic diagram for demonstrating the production | generation method of the block information in each Example of this invention. 本発明の各実施例におけるブロック情報の生成方法を説明するための模式図である。It is a schematic diagram for demonstrating the production | generation method of the block information in each Example of this invention. 本発明の各実施例におけるブロック情報の生成方法を説明するための模式図である。It is a schematic diagram for demonstrating the production | generation method of the block information in each Example of this invention. 本発明の各実施例におけるブロック情報のデータ形式を説明する図である。It is a figure explaining the data format of the block information in each Example of this invention. 本発明の各実施例における集約データ計算手段の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the aggregated data calculation means in each Example of this invention. 本発明の各実施例における集約データ計算手段の集約データ格納部のデータ形式を説明する図である。It is a figure explaining the data format of the aggregated data storage part of the aggregated data calculation means in each Example of this invention. 本発明の各実施例における類似度計算手段の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the similarity calculation means in each Example of this invention. 本発明の実施例2におけるシステム全体の構成を示す図である。It is a figure which shows the structure of the whole system in Example 2 of this invention.

本発明の実施例1におけるシステム全体の構成を図1に示す。ユーザ情報処理装置1と、1つ以上の再生装置2(2a〜2n)がネットワーク3を介して接続されている。図1ではユーザ情報処理装置1は1つであるが、複数のユーザ情報処理装置1(1a〜1n)を用意し、各々のユーザ情報処理装置1の間で、データ交換を行って処理をするようにしてもよい。   FIG. 1 shows the configuration of the entire system according to the first embodiment of the present invention. A user information processing apparatus 1 and one or more playback apparatuses 2 (2a to 2n) are connected via a network 3. In FIG. 1, there is one user information processing apparatus 1, but a plurality of user information processing apparatuses 1 (1 a to 1 n) are prepared, and data is exchanged between each user information processing apparatus 1 for processing. You may do it.

次に、再生装置2の構成を図2に示す。再生装置2は、コンテンツを再生するコンテンツ再生手段21と、ユーザの状態を認識するユーザ状態認識手段22と、コンテンツ再生位置とユーザ状態とを関連付けたユーザ反応データを作成するユーザ反応データ作成手段23と、ユーザ情報処理装置1との間でデータの送受信を行う送受信手段24と、再生装置2全体の制御を行う制御手段25と、ユーザ属性データを格納するユーザ属性格納手段26と、により構成されている。また再生装置2には、表示装置27、スピーカ等の音声出力装置28、キーボード、マウス、トラックボール、リモコン等の入力装置29、ユーザの状態を認識するためのセンサ装置30が接続されている。   Next, the configuration of the playback apparatus 2 is shown in FIG. The playback device 2 includes a content playback unit 21 that plays back content, a user state recognition unit 22 that recognizes the user state, and a user response data creation unit 23 that creates user reaction data that associates the content playback position with the user state. A transmission / reception unit 24 that transmits / receives data to / from the user information processing apparatus 1, a control unit 25 that controls the entire playback apparatus 2, and a user attribute storage unit 26 that stores user attribute data. ing. The playback device 2 is connected to a display device 27, an audio output device 28 such as a speaker, an input device 29 such as a keyboard, a mouse, a trackball, and a remote controller, and a sensor device 30 for recognizing the user state.

再生装置2は、CPU、RAM、ROM、ハードディスクドライブ、ネットワークインタフェース等を備える一般的なコンピュータを用いて、ソフトウェア(プログラム)処理を実行する形態により実現することも可能である。   The playback device 2 can also be realized by executing a software (program) process using a general computer including a CPU, RAM, ROM, hard disk drive, network interface, and the like.

再生装置2の動作を図3のフローチャートを用いて説明する。   The operation of the playback apparatus 2 will be described using the flowchart of FIG.

まずステップS100では、制御手段25がユーザの認証を行なう。再生装置2を使用するユーザには、ユーザ情報処理装置1でユーザを一意に識別可能なユーザ識別情報(ユーザID)があらかじめ割当られている。ユーザはあらかじめ登録されたユーザID、パスワードを入力装置29を用いて再生装置2に入力し、この情報を用いて制御手段25はユーザを認証する。   First, in step S100, the control means 25 performs user authentication. User identification information (user ID) that allows the user information processing apparatus 1 to uniquely identify the user is assigned in advance to the user who uses the playback apparatus 2. The user inputs a user ID and password registered in advance to the playback device 2 using the input device 29, and the control means 25 authenticates the user using this information.

ただし、ユーザ情報処理装置1において、ユーザを識別する処理を行なわず、再生装置2を識別する処理を行なう場合には、ステップS100のユーザ認証処理を省略する。また後述するように、ユーザ状態認識手段22においてユーザの個人識別を行なう場合にもステップS100を省略してよい。   However, when the user information processing apparatus 1 performs the process of identifying the playback apparatus 2 without performing the process of identifying the user, the user authentication process in step S100 is omitted. As will be described later, step S100 may also be omitted when the user status recognition means 22 performs personal identification of the user.

次にステップS110では、入力装置29を介したユーザの指示に従って、コンテンツ再生手段21が、コンテンツを再生する。本実施例におけるコンテンツは、動画、音声、音楽等の時間情報を伴うコンテンツである。コンテンツは再生装置2に格納されていてもよいし、ネットワーク3を介して外部から供給されてもよい。また放送受信手段(図示せず)を用いて放送コンテンツを受信してもよい。またコンテンツが格納されたディスク、可搬型メモリ等をメディアドライブ装置(図示せず)に装着し、メディアドライブ装置を介してコンテンツを読み取るようにしてもよい。   In step S110, the content reproduction unit 21 reproduces the content in accordance with a user instruction via the input device 29. The content in the present embodiment is content accompanied by time information such as video, audio, music, and the like. The content may be stored in the playback device 2 or supplied from the outside via the network 3. Moreover, you may receive broadcast content using a broadcast receiving means (not shown). In addition, a content storage disk, portable memory, or the like may be attached to a media drive device (not shown), and the content may be read via the media drive device.

次にステップS120では、ユーザ状態認識手段22が、センサ装置30の出力を用いて、コンテンツ再生中(視聴中)のユーザの状態を認識する。   Next, in step S120, the user state recognition means 22 recognizes the state of the user who is playing back (viewing) content using the output of the sensor device 30.

センサ装置30は、ユーザの状態を検知し、ユーザに係る信号/データを出力する。出力する信号/データは、ユーザの顔を撮影した画像データ、ユーザの発する音声の音声データ、表示装置27または音声出力装置28とユーザとの間の距離データ、ユーザの姿勢に関するデータ、心拍数、血圧などの生体データなどである。またセンサ装置30は、上記の内の一部(例えば、ユーザの発する音声のみ)を検知し出力するようにしてもよい。   The sensor device 30 detects the state of the user and outputs a signal / data related to the user. The signal / data to be output includes image data obtained by photographing the user's face, voice data of the user's voice, distance data between the display device 27 or the voice output device 28 and the user, data on the posture of the user, heart rate, Biological data such as blood pressure. In addition, the sensor device 30 may detect and output a part of the above (for example, only the voice uttered by the user).

ユーザ状態認識手段22が認識するユーザの感情等の状態は、1種類または複数種類である。   The state of the user's emotion and the like recognized by the user state recognition means 22 is one type or a plurality of types.

1種類の状態を認識する場合、例えば、ユーザのコンテンツに対する注目度を認識する。例えば、ユーザの顔画像から視線方向を検出し、それが表示装置27に向いている場合は、注目度が高い、そうでない場合は注目度が低いと認識する。また、ユーザの発する音声の音声データからユーザの声の大きさや興奮の程度を認識し、それを注目度としてもよい。ユーザの音声を利用する方法は、スポーツ・コンテンツやお笑い系コンテンツなどで特に有効である。また、表示装置27または音声出力装置28とユーザとの距離が近ければ注目度が高い、距離が遠ければ注目度が低いと認識してもよい。また、心拍数や血圧が上昇する場合に注目度が高いとしてもよい。また、机、椅子、床などにかかるユーザの体重分布を計測し、表示装置27または音声出力装置28に近い側に体重がかかっている場合に注目度が高く、そうでない場合に注目度が低いと認識してもよい。   When recognizing one type of state, for example, the user's attention to content is recognized. For example, when the line-of-sight direction is detected from the face image of the user and is directed to the display device 27, it is recognized that the degree of attention is high, and otherwise, the degree of attention is low. Moreover, it is good also as recognizing the loudness of a user's voice and the degree of excitement from the audio | voice data of the voice which a user utters. The method of using the user's voice is particularly effective for sports content and comedy-type content. Further, the degree of attention may be high if the distance between the display device 27 or the audio output device 28 and the user is short, and the degree of attention may be low if the distance is long. Further, when the heart rate and blood pressure rise, the degree of attention may be high. In addition, the user's weight distribution on a desk, chair, floor, etc. is measured, and the degree of attention is high when the weight is on the side close to the display device 27 or the audio output device 28, and the degree of attention is low otherwise. You may recognize.

また1種類の状態を認識する別の例として、ユーザの「笑い」を認識するようにしてもよい。ユーザの「笑い」を認識する方法として、公知の技術を用いることができる。例えば、ユーザの顔画像から「笑い」の表情を認識する場合、特開2004−46591号公報に記載の技術を用いることができる。また、音声から笑い等の感情を認識する場合、特開平9−206291号公報に記載の技術を用いることができる。   As another example of recognizing one type of state, a user's “laughter” may be recognized. A known technique can be used as a method of recognizing the user's “laughter”. For example, when recognizing a “laughing” facial expression from a user's face image, the technique described in Japanese Patent Application Laid-Open No. 2004-46591 can be used. Moreover, when recognizing emotions such as laughter from voice, the technique described in Japanese Patent Laid-Open No. 9-206291 can be used.

複数種類の状態を認識する場合、「喜び/笑い」、「怒り/不満」、「悲しみ」、「平常」、「無関心」など複数種類の状態を認識する。センサ装置30の出力である画像、音声、生体情報などから、このようなユーザの状態を認識するために公知の技術を用いることができる。また、音声認識技術を用いて、ユーザが発する特定の単語やフレーズを認識してもよい。例えば、「へぇー」、「面白い」、「いいね」、「ちょ〜うける」、「ふざけるな」、「くだらない」、「またかよ」等の単語やフレーズである。また、ユーザの舌打ちや涙などを認識するようにしてもよい。更に、センサ装置30の出力する音声データを用いてユーザの状態を認識する場合、音声出力装置28で発生させたコンテンツ再生音の成分をキャンセルする処理を行なって、センサ装置30の出力を利用するようにしてもよい。このようにすると、ユーザの音声をより精度良く認識できる。   When recognizing a plurality of states, a plurality of states such as “joy / laughter”, “anger / dissatisfaction”, “sadness”, “normal”, “indifference” are recognized. A well-known technique can be used for recognizing such a user state from images, sounds, biological information, and the like, which are outputs of the sensor device 30. Moreover, you may recognize the specific word and phrase which a user utters using a speech recognition technique. For example, words and phrases such as “hee”, “interesting”, “like”, “choose”, “do not fool”, “stupid”, “see again”. Moreover, you may make it recognize a user's tongue and tears. Furthermore, when recognizing the user's state using the audio data output from the sensor device 30, a process for canceling the content reproduction sound component generated by the audio output device 28 is performed and the output of the sensor device 30 is used. You may do it. In this way, the user's voice can be recognized with higher accuracy.

1台の再生装置2を使って、同時に複数のユーザがコンテンツを視聴する場合の処理としては、以下の方法を用いることができる。   The following method can be used as processing when a plurality of users view content simultaneously using one playback device 2.

第1の方法は、ユーザ状態認識手段22で、ユーザの個人識別を行なった上で、個々のユーザ毎に状態を認識する方法である。例えば、ユーザの顔画像や音声データを使って個人識別を行なう。この場合はステップS100のユーザ認証処理は省略できる。   The first method is a method of recognizing the state for each individual user after the user state recognition means 22 performs personal identification of the user. For example, personal identification is performed using a user's face image or voice data. In this case, the user authentication process in step S100 can be omitted.

第2の方法は、個人識別を行なわず、複数のユーザの状態を合わせて、ステップS100で認証した1人のユーザの状態として扱う方法である。例えば、「ユーザA」と「ユーザB」の2人が視聴していて、「再生位置=5分」で「ユーザA」が笑い、「再生位置=10分」で「ユーザB」が「ふざけるな」、「くだらない」等の不満を表した場合、1人のユーザが「再生位置=5分」で笑い、「再生位置=10分」で不満を表したとして処理する。   The second method is a method in which personal identification is not performed and the states of a plurality of users are combined and handled as the state of one user authenticated in step S100. For example, two users “User A” and “User B” are watching, “User A” laughs at “Playback position = 5 minutes”, and “User B” “Pokes up” at “Playback position = 10 minutes”. When dissatisfaction such as “na” or “sloppy” is expressed, processing is performed assuming that one user laughs at “reproduction position = 5 minutes” and expresses dissatisfaction at “reproduction position = 10 minutes”.

またユーザ状態認識手段22は、コンテンツ再生時のユーザの状態を認識するだけでなく、コンテンツ再生前およびコンテンツ再生後のユーザの状態を認識して、ユーザ反応データ作成手段23における処理で利用するようにしてもよい。   Further, the user status recognition means 22 recognizes not only the user status at the time of content playback, but also recognizes the user status before and after the content playback, and uses it in the processing in the user reaction data creation means 23. It may be.

再生装置2の別の一例として、センサ装置30を使用しない構成を用いてもよい。この場合、制御手段25が、コンテンツ再生中にユーザの感情に関する選択肢を表示装置27に表示し、入力装置29を介してユーザからの反応を取得し、その情報をユーザ状態認識手段22に転送する。例えば、「面白い」、「腹立たしい」、「悲しい」、などの選択肢が表示装置27に表示され、入力装置29を用いて、ユーザがその中からその時の自分の気持ちに近いものを選ぶと、それがユーザ状態認識手段22に伝えられる。   As another example of the playback device 2, a configuration that does not use the sensor device 30 may be used. In this case, the control unit 25 displays options related to the user's emotion on the display device 27 during content reproduction, acquires a reaction from the user via the input device 29, and transfers the information to the user state recognition unit 22. . For example, options such as “interesting”, “angry”, and “sad” are displayed on the display device 27, and when the user selects an item close to his / her feeling at that time using the input device 29, Is transmitted to the user state recognition means 22.

更に別の一例として、コンテンツ再生に係るユーザ操作情報を用いてユーザ状態を認識してもよい。すなわち、ユーザが入力装置29を用いて入力する、「再生開始」、「再生停止」、「一時停止」、「巻き戻し」、「早送り」、「チャネル切換え」、「音量変更」などの操作情報を制御手段25が収集し、ユーザ状態認識手段22に転送する。ユーザ状態認識手段22は、これらの情報をもとに注目度を判定する。例えば、「巻き戻し」操作を行なって、コンテンツの同じ位置を繰り返し再生した場合は、その再生位置の注目度が高いと判定する。また、「早送り」操作を行なった箇所は、注目度が低いと判定する。   As yet another example, the user status may be recognized using user operation information related to content reproduction. That is, operation information such as “start playback”, “stop playback”, “pause”, “rewind”, “fast forward”, “channel switching”, “volume change”, etc., input by the user using the input device 29 Are collected by the control means 25 and transferred to the user state recognition means 22. The user state recognition unit 22 determines the degree of attention based on these pieces of information. For example, when the “rewind” operation is performed and the same position of the content is repeatedly reproduced, it is determined that the degree of attention of the reproduction position is high. In addition, it is determined that the place where the “fast forward” operation is performed has low attention.

次にステップS130では、ユーザ反応データ作成手段23が、コンテンツ再生位置とユーザ状態とを関連付けたユーザ反応データ(ユーザ履歴)を作成する。コンテンツ再生位置は通常、コンテンツ先頭からの相対時間で表す。ただし、放送日時が決まっているテレビ番組やネットのライブ配信などのコンテンツでは、受信日時を再生位置として用いてもよい。   Next, in step S130, the user reaction data creating unit 23 creates user reaction data (user history) in which the content reproduction position and the user state are associated with each other. The content playback position is usually expressed as a relative time from the beginning of the content. However, the reception date and time may be used as the playback position in content such as a TV program or a live broadcast on the Internet where the broadcast date and time are determined.

ユーザ反応データの形式を図4に示す。   The format of user reaction data is shown in FIG.

図4(A)は、再生装置2を使用するユーザが1人であり、1種類の状態を認識する場合のユーザ反応データの形式の一例を示す図である。ユーザIDと、認識するユーザ状態の種類と、コンテンツIDと再生位置と反応度合いとを対応させたテーブルが記録されている。コンテンツIDは、ユーザ情報処理装置1でコンテンツを一意に識別可能な数値または文字列であり、コンテンツ制作者や販売事業者によってあらかじめ付与されている場合はそれを用いればよい。そうでない場合は、コンテンツのタイトル等を用いてコンテンツIDを生成する。放送番組であれば、放送局名、放送日時等を組み合わせてコンテンツIDを生成してもよい。再生位置はそのコンテンツの先頭からの経過時間を「時間:分:秒」の形式で表したものであり、例えば「00:03:10」は、先頭から「3分10秒」を表している。この例では、一定の時間間隔(10秒)ごとの反応度合いを記録している。記録する時間間隔は、もちろん10秒とは異なった間隔、例えば1秒や5秒であってもよい。反応度合いは、最小「0.0」、最大「1.0」の数値であり、数値が大きいほど、その状態(感情等)の程度が強いことを示している。例えば、音声で「笑い」を認識する場合、笑い声の大きさにより反応度合いを算出する。なお、ユーザ情報処理装置1でユーザを識別する処理を行なわずに、再生装置2を識別する処理を行なう場合は、ユーザIDの代わりに再生装置2を識別する再生装置IDを含めてユーザ反応データを作成する。   FIG. 4A is a diagram illustrating an example of a format of user reaction data when one user uses the playback device 2 and recognizes one type of state. A table in which the user ID, the type of user state to be recognized, the content ID, the reproduction position, and the reaction level are associated with each other is recorded. The content ID is a numerical value or a character string that allows the user information processing apparatus 1 to uniquely identify the content. If the content ID is given in advance by a content creator or a sales company, it may be used. Otherwise, a content ID is generated using the content title or the like. In the case of a broadcast program, a content ID may be generated by combining a broadcast station name, broadcast date and time, and the like. The playback position represents the elapsed time from the beginning of the content in the form of “hour: minute: second”. For example, “00:03:10” represents “3 minutes and 10 seconds” from the beginning. . In this example, the degree of reaction is recorded at regular time intervals (10 seconds). Of course, the recording time interval may be different from 10 seconds, for example, 1 second or 5 seconds. The degree of reaction is a numerical value of the minimum “0.0” and the maximum “1.0”. The larger the numerical value, the stronger the state (emotion etc.). For example, when “laughter” is recognized by voice, the degree of reaction is calculated based on the level of laughter. When the user information processing apparatus 1 performs the process of identifying the playback apparatus 2 without performing the process of identifying the user, the user response data including the playback apparatus ID that identifies the playback apparatus 2 instead of the user ID. Create

図4(B)は、同様に再生装置2を使用するユーザが1人であり、1種類の状態を認識する場合のユーザ反応データの形式の別の一例を示す図である。ユーザIDと、認識対象の状態と、コンテンツIDと再生位置を対応させたテーブルが記録されている。この例では、再生装置2を使用するユーザのユーザIDが「U5510」であり、ユーザの「注目度」を認識していることを示している。図4(B)では、ユーザの反応度合いが所定値以上の箇所のみを記録しており、反応度合いそのものは省略している。すなわち、再生位置が記録されている箇所で、ユーザの注目度が高いことを示している。この例では、「C001」コンテンツに対して、「3分10秒」と「5分21秒」の2カ所でユーザの注目度が高まったことになる。なお、一般的にはユーザの注目度が高い状態はある程度の時間持続するが、この例では、注目度が高い状態の最初の再生位置(時間)を記録している。その時間から一定の時間が経過して再び注目度が高くなった再生位置をテーブルの次の行に追加している。図4(B)の形式により、ユーザ反応データのデータ容量を少なくして、効率的に処理することが可能である。   FIG. 4B is a diagram showing another example of the format of the user reaction data when there is one user who similarly uses the playback device 2 and one type of state is recognized. A table in which a user ID, a recognition target state, a content ID, and a reproduction position are associated with each other is recorded. In this example, the user ID of the user who uses the playback device 2 is “U5510”, indicating that the “attention level” of the user is recognized. In FIG. 4B, only locations where the user's response level is greater than or equal to a predetermined value are recorded, and the response level itself is omitted. That is, the user's attention level is high at the position where the reproduction position is recorded. In this example, for the “C001” content, the user's attention has increased at two locations of “3 minutes 10 seconds” and “5 minutes 21 seconds”. In general, a state in which the degree of attention of the user is high lasts for a certain period of time, but in this example, the first reproduction position (time) in a state of high degree of attention is recorded. A playback position where the degree of attention has increased again after a certain period of time has been added to the next row of the table. With the format of FIG. 4 (B), it is possible to reduce the data volume of user reaction data and efficiently process it.

図4(C)は、再生装置2を複数のユーザが利用し、ユーザの複数種類の状態(感情等)を認識する場合の例である。ユーザIDと、コンテンツIDと、再生位置と、ユーザ状態の種類とを関連付けて記録する。この例のテーブルの1行目では、「C002」のコンテンツの再生位置「4分26秒」でユーザ「U5510」の「笑い」を認識したことを示している。図4(C)では、反応度合いが反応の種類に応じて決められた所定値以上の箇所のみのデータを作成し、反応度合いはデータに含めずに省略している。   FIG. 4C is an example in the case where a plurality of users use the playback apparatus 2 and recognize a plurality of types of states (emotions, etc.) of the users. The user ID, content ID, playback position, and user status type are recorded in association with each other. The first line of the table in this example indicates that “laughter” of the user “U5510” is recognized at the reproduction position “4:26” of the content of “C002”. In FIG. 4C, data is created only for a location where the reaction degree is equal to or greater than a predetermined value determined according to the type of reaction, and the reaction degree is omitted without being included in the data.

ユーザ反応データの別の一例を図4(D)に示す。図4(C)との違いは、状態の先頭再生位置に加えて、状態の末尾再生位置を記録していることと、反応度合いを記録している点である。反応の先頭再生位置は、その状態が最初に認識された再生位置である。反応の末尾再生位置は、同一の状態と見なせる最後の再生位置である。なお一般的には、状態の先頭から状態の末尾までの間で、反応度合いは変化するが、その区間の平均値、または最大値を記録すればよい。   Another example of user reaction data is shown in FIG. The difference from FIG. 4 (C) is that in addition to the top playback position of the state, the end playback position of the state is recorded and the degree of reaction is recorded. The start reproduction position of the reaction is the reproduction position where the state is first recognized. The last playback position of the reaction is the last playback position that can be regarded as the same state. In general, the degree of response changes from the beginning of the state to the end of the state, but the average value or the maximum value of the section may be recorded.

図4(A)〜(D)に示した形式はあくまでも一例であり、この他にも例えば、図4(A)と同様に一定の時間間隔で、ユーザIDと、コンテンツIDと、ユーザ状態の種類と、反応度合いとを関連付けて記録するようにしてもよい。   The formats shown in FIGS. 4A to 4D are merely examples, and other than this, for example, the user ID, the content ID, and the user status at regular time intervals as in FIG. 4A. The type and the degree of reaction may be recorded in association with each other.

以上の説明では、コンテンツ再生中のユーザの状態を認識するものとしたが、更にコンテンツの再生前、またはコンテンツ再生後のユーザの状態を認識してユーザ反応データを作成するようにしてもよい。コンテンツ再生中にユーザが同じように笑った場合でも、コンテンツ再生前にユーザが怒ったり、悲しんでいた場合は、コンテンツ再生前に既にユーザが笑っていた場合よりも、笑いの度合いを大きくする、といった処理を行なう。コンテンツ再生前のユーザの状態種類と、コンテンツ再生後の最初のユーザ状態の種類が正反対である場合には、コンテンツ再生後の最初のユーザの状態の反応の度合いを強くする。また、コンテンツ再生中の最後の状態と、コンテンツ再生後の状態が同じであり、コンテンツ再生後の状態が長時間持続する場合には、コンテンツ再生中の最後の状態の反応の度合いを強くする。   In the above description, the user state during content reproduction is recognized. However, user reaction data may be generated by recognizing the user state before or after content reproduction. Even if the user laughs in the same way during content playback, if the user is angry or sad before content playback, the degree of laughter will be greater than if the user was already laughing before content playback. The process is performed. When the state type of the user before the content reproduction is opposite to the type of the first user state after the content reproduction, the degree of reaction of the state of the first user after the content reproduction is increased. Further, when the last state during content reproduction is the same as the state after content reproduction and the state after content reproduction lasts for a long time, the degree of reaction of the last state during content reproduction is increased.

このような処理を行なう場合のユーザ反応データ作成の処理を図5のフローチャートで説明する。   The process of creating user reaction data when such a process is performed will be described with reference to the flowchart of FIG.

まずステップS200では、ユーザ状態認識手段22が、コンテンツ再生前に所定の時間ユーザ状態を認識し、結果を保持しておく。   First, in step S200, the user state recognizing means 22 recognizes the user state for a predetermined time before reproducing the content and holds the result.

次にステップS210では、ユーザ状態認識手段22が、コンテンツ再生中のユーザ状態を認識し、結果を保持しておく。   Next, in step S210, the user state recognition unit 22 recognizes the user state during content reproduction and holds the result.

次にステップS220では、ユーザ状態認識手段22が、コンテンツ再生後も引き続き所定の時間ユーザ状態を認識し、結果を保持しておく。   Next, in step S220, the user state recognition means 22 continues to recognize the user state for a predetermined time after the content reproduction, and holds the result.

次にステップS230では、コンテンツ再生後に所定の時間が経過した後に、ユーザ反応データ作成手段23が、補正前のユーザ反応データを作成する。   Next, in step S230, after a predetermined time elapses after the content is reproduced, the user response data creation unit 23 creates user response data before correction.

次にステップS240では、ユーザ反応データ作成手段23が、補正前のユーザ反応データを対象として、コンテンツ再生中のデータの中に、再生前と同じ種類のデータが存在するか否か判定する。「YES」であれば、該当データをマークしてステップS250に進み、「NO」であればステップS260に進む。なお、この際に、再生前にある状態が認識された時間(マイナスの再生位置)、あるいは再生開始の時間から所定時間(例えば10分)以内のデータを処理対象にしてもよい。   Next, in step S240, the user response data creation unit 23 determines whether or not the same type of data as before the reproduction exists in the data being reproduced with respect to the user response data before correction. If “YES”, the corresponding data is marked and the process proceeds to step S250, and if “NO”, the process proceeds to step S260. At this time, data within a predetermined time (for example, 10 minutes) from the time when the state before the reproduction is recognized (negative reproduction position) or the reproduction start time may be set as the processing target.

ステップS250では、ユーザ反応データ作成手段23が、ステップS240でマークされたデータを対象にして、反応度合いの数値を減少させる。コンテンツ再生前から同じ種類の状態(感情等)であれば、そのコンテンツの影響力は実際には、補正前の数値として現れたものより小さいためである。反応度合いの変更の方法としてはいくつかの方法がある。   In step S250, the user reaction data creating means 23 decreases the numerical value of the reaction degree for the data marked in step S240. This is because, if the same type of state (emotion, etc.) is present before the content is reproduced, the influence of the content is actually smaller than what appears as the value before correction. There are several methods for changing the degree of reaction.

第1の方法は、補正前の数値に「1」より小さい係数を乗算する方法である。例えば、係数が「0.8」で、補正前の数値が「0.5」である場合、補正後の数値は「0.4」となる。   The first method is to multiply the numerical value before correction by a coefficient smaller than “1”. For example, when the coefficient is “0.8” and the numerical value before correction is “0.5”, the corrected numerical value is “0.4”.

第2の方法は、補正前の数値から所定値を減算する方法である。   The second method is a method of subtracting a predetermined value from the numerical value before correction.

第3の方法は、再生前の数値に所定係数を乗算した値を、補正前の反応度合いから減算する方法である。例えば、再生前の数値が「0.5」であり、所定係数が「0.2」で、補正前の反応度合いが「0.7」である場合、「0.7−0.5×0.2=0.6」となり、補正後の数値は「0.6」となる。   The third method is a method of subtracting a value obtained by multiplying a numerical value before reproduction by a predetermined coefficient from a reaction degree before correction. For example, when the numerical value before reproduction is “0.5”, the predetermined coefficient is “0.2”, and the response level before correction is “0.7”, “0.7−0.5 × 0 .2 = 0.6 ”, and the corrected numerical value is“ 0.6 ”.

次にS260では、ユーザ反応データ作成手段23が、補正前のユーザ反応データを対象として、コンテンツ中のデータの中に、再生前と異なる種類のデータが存在するか否か判定する。「YES」であれば、該当データをマークしてステップS270に進み、「NO」であればステップS280に進む。なお、この際に、再生前にある状態が認識された時間(マイナスの再生位置)、あるいは再生開始の時間から所定時間(例えば10分)以内のデータを処理対象にしてもよい。   Next, in S260, the user response data creating unit 23 determines whether there is data of a different type from that in the content in the data for the user response data before correction. If “YES”, the corresponding data is marked and the process proceeds to step S270. If “NO”, the process proceeds to step S280. At this time, data within a predetermined time (for example, 10 minutes) from the time when the state before the reproduction is recognized (negative reproduction position) or the reproduction start time may be set as the processing target.

ステップS270では、ユーザ反応データ作成手段23が、ステップS260でマークされたデータを対象にして、反応度合いの数値を増加させる。コンテンツ再生前とは異なる種類の状態(感情等)であれば、そのコンテンツの影響力は実際には、補正前の数値として現れたものより大きいためである。反応度合いの変更の方法としてはいくつかの方法がある。   In step S270, the user reaction data creation means 23 increases the numerical value of the reaction degree for the data marked in step S260. This is because, if the state is different from the state before the content reproduction (emotion or the like), the influence of the content is actually larger than what appears as the value before correction. There are several methods for changing the degree of reaction.

第1の方法は、補正前の数値に「1」より大きい係数を乗算する方法である。例えば、係数が「1.2」で、補正前の数値が「0.5」である場合、補正後の数値は「0.6」となる。   The first method is a method of multiplying the numerical value before correction by a coefficient larger than “1”. For example, when the coefficient is “1.2” and the numerical value before correction is “0.5”, the numerical value after correction is “0.6”.

第2の方法は、補正前の数値に所定値を加算する方法である。   The second method is a method of adding a predetermined value to the numerical value before correction.

第3の方法は、再生前の数値に所定係数を乗算した値を、補正前の反応度合いに加算する方法である。例えば、再生前の数値が「0.5」であり、所定係数が「0.2」で、補正前の反応度合いが「0.7」である場合、「0.7+0.5×0.2=0.8」となり、補正後の数値は「0.8」となる。   The third method is a method of adding a value obtained by multiplying a numerical value before reproduction by a predetermined coefficient to a reaction degree before correction. For example, when the numerical value before reproduction is “0.5”, the predetermined coefficient is “0.2”, and the response level before correction is “0.7”, “0.7 + 0.5 × 0.2 = 0.8 ", and the corrected numerical value is" 0.8 ".

また、これら第1〜第3の方法において、再生前のユーザ状態の種類と、再生中のユーザ状態の種類の組合せに応じて、加算値や、乗算の係数を適宜変えるようにしてもよい。例えば、再生前に「リラックス」で、再生中に「笑い」の場合より、再生前に「怒り」で、再生中に「笑い」の場合の方が、2つの状態の性質の違いが大きいので、後者の加算値や乗算係数をより大きなものにしてもよい。   In the first to third methods, the addition value and the multiplication coefficient may be appropriately changed according to the combination of the type of user state before reproduction and the type of user state being reproduced. For example, the difference between the properties of the two states is greater in the case of “relaxed” before playback and “laughter” during playback than in “anger” before playback and “laughter” during playback. The latter addition value or multiplication coefficient may be made larger.

次にS280では、ユーザ反応データ作成手段23が、補正前のユーザ反応データを対象として、コンテンツ再生中のデータの中に、再生後と同じ種類のデータが存在するか否か判定する。「YES」であれば、該当データをマークしてステップS290に進み、「NO」であればステップS300に進む。なお、この際に、再生後にある状態が認識された時間、あるいは再生終了の時間より所定時間(例えば10分)だけ前の範囲にあるデータを処理対象にしてもよい。   Next, in S280, the user response data creation unit 23 determines whether or not the same type of data after playback exists in the data being played back with respect to the user response data before correction. If “YES”, the corresponding data is marked and the process proceeds to step S290. If “NO”, the process proceeds to step S300. At this time, data in a range that is a predetermined time (for example, 10 minutes) before the time when the state after the reproduction is recognized or the time when the reproduction ends may be processed.

ステップS290では、ユーザ反応データ作成手段23が、ステップS280でマークされたデータを対象にして、反応度合いの数値を増加させる。   In step S290, the user reaction data creation means 23 increases the numerical value of the reaction degree for the data marked in step S280.

次にステップS300では、補正前のユーザ反応データから、コンテンツ再生前および再生後のデータを削除する。   Next, in step S300, the data before and after the content reproduction are deleted from the user response data before the correction.

以上の処理により、補正後のユーザ反応データが作成される。補正後のデータは、コンテンツに対するユーザの反応をより精度良く表したものである。補正前と補正後のユーザ反応データの一例を図6に示す。   Through the above processing, corrected user response data is created. The corrected data represents the user's reaction to the content with higher accuracy. An example of user response data before and after correction is shown in FIG.

図6(A)は、ステップS230で作成された、補正前のユーザ反応データを示している。図6(A)の1行目では、状態の先頭再生位置および状態の末尾再生位置の値がマイナスとなっている。これはコンテンツ再生前という意味である。例えば「−00:02:20」は、コンテンツ再生の2分20秒前の時間を示している。また5行目の再生位置の値には「#(シャープ)」記号が付加されているが、これはコンテンツ再生終了後の時間の意味である。例えば、「#00:05:20」はコンテンツの再生が終了してから5分20秒後の時間を示している。   FIG. 6A shows the user response data before correction created in step S230. In the first line of FIG. 6 (A), the value of the first playback position in the state and the last playback position in the state are negative. This means before content reproduction. For example, “−00: 02: 20” indicates a time 2 minutes and 20 seconds before the content reproduction. Further, the “# (sharp)” symbol is added to the value of the reproduction position in the fifth row, which means the time after the content reproduction ends. For example, “# 00: 05: 20” indicates a time 5 minutes and 20 seconds after the content reproduction is finished.

図6(B)は、補正後のユーザ反応データを示している。補正後のユーザ反応データからは、コンテンツ再生前およびコンテンツ再生後の行は削除されている。補正後の1行目は、補正前の2行目に対応するが、反応度合いが「0.80」から「0.64」に減少している。これは、補正前の1行目に示したように、コンテンツ再生前に同じ「笑い」のデータが存在した為である。また、補正後の3行目は、補正前の4行目に対応するが、反応度合いが「0.73」から「0.85」に増加している。これは、補正前の5行目に示したように、コンテンツ再生後にも同じ「悲しみ」という状態が持続している為である。また、補正後の4行目は、補正前の7行目に対応するが、反応度合いが「0.8」から「1.0」に増加している。これは、補正前の6行目に示したように、コンテンツ再生前の状態が「怒り」であり、これと性質の異なる状態(「笑い」)がコンテンツ再生中に認識された為である。このような補正処理を行なう場合には、補正後のデータをユーザ反応データとして利用する。   FIG. 6B shows the user response data after correction. From the corrected user response data, the lines before and after the content reproduction are deleted. The first line after the correction corresponds to the second line before the correction, but the degree of response is reduced from “0.80” to “0.64”. This is because, as shown in the first line before correction, the same “laughter” data existed before the content reproduction. The third line after the correction corresponds to the fourth line before the correction, but the reaction degree is increased from “0.73” to “0.85”. This is because, as shown in the fifth line before correction, the same “sadness” state persists after the content is reproduced. The fourth line after correction corresponds to the seventh line before correction, but the degree of response increases from “0.8” to “1.0”. This is because, as shown in the sixth line before correction, the state before the content reproduction is “angry”, and a state (“laughter”) having a different property from this is recognized during the content reproduction. When such correction processing is performed, the corrected data is used as user response data.

以上がステップS130およびユーザ反応データ作成手段23の詳細な説明である。   The above is the detailed description of step S130 and the user reaction data creation means 23.

図3のフローチャートの説明に戻ると、次にステップS140において、制御手段25が、ステップS130で作成されたユーザ反応データと、ユーザ属性格納手段26に格納されているユーザ属性データを送受信手段24を介してユーザ情報処理装置1に送信する。ユーザ属性格納手段26には、ユーザIDと対応させて、他のユーザに自己紹介するための情報、および他のユーザがコンタクトをとるための情報が格納されている。例えば、ユーザの年齢、性別、血液型、星座、容姿に関する情報、趣味、好きなアーティスト、住所、電話番号、メールアドレス等であるが、これらに限定される訳ではない。また、紹介を希望する他のユーザに関する条件、例えば、年齢層、性別、血液型、星座、容姿、趣味、好きなアーティスト、地域などの情報を合わせて格納し、ユーザ属性データとしてユーザ情報処理装置1に送信してもよい。   Returning to the description of the flowchart of FIG. 3, in step S140, the control unit 25 transmits / receives the user response data generated in step S130 and the user attribute data stored in the user attribute storage unit 26 to the transmission / reception unit 24. To the user information processing apparatus 1. The user attribute storage means 26 stores information for self-introduction to other users and information for other users to contact in association with the user ID. For example, the user's age, sex, blood type, constellation, appearance information, hobbies, favorite artist, address, telephone number, e-mail address, etc. are not limited thereto. In addition, conditions relating to other users who wish to introduce, for example, age group, sex, blood type, constellation, appearance, hobby, favorite artist, region, etc. are stored together, and user information processing apparatus as user attribute data 1 may be transmitted.

以上が再生装置2の動作の説明である。   The above is the description of the operation of the playback device 2.

次にユーザ情報処理装置1について説明する。ユーザ情報処理装置1の構成を図7に示す。再生装置2で作成されたユーザ反応データを格納するユーザ反応データ格納手段11と、集約データ計算手段12と、類似度計算手段13と、再生装置2との間でデータの送受信を行なう送受信手段14と、ユーザ情報処理装置1全体の制御を行なう制御手段15と、ユーザ属性データを格納するユーザ属性格納手段16と、反応データ集計手段18と、ブロック情報生成手段19と、により構成されている。またユーザ情報処理装置1には、表示装置41、キーボード、マウス、トラックボール、リモコン等の入力装置42が接続されている。   Next, the user information processing apparatus 1 will be described. The configuration of the user information processing apparatus 1 is shown in FIG. User response data storage means 11 for storing user reaction data created by the playback apparatus 2, aggregated data calculation means 12, similarity calculation means 13, and transmission / reception means 14 for transmitting / receiving data to / from the playback apparatus 2 And control means 15 for controlling the entire user information processing apparatus 1, user attribute storage means 16 for storing user attribute data, reaction data totaling means 18, and block information generating means 19. The user information processing apparatus 1 is connected to a display device 41 and an input device 42 such as a keyboard, a mouse, a trackball, and a remote controller.

ユーザ情報処理装置1は、CPU、RAM、ROM、ハードディスクドライブ、ネットワークインタフェース等を備える一般的なコンピュータを用いて、ソフトウェア(プログラム)処理を実行する形態により実現することも可能である。   The user information processing apparatus 1 can also be realized by executing a software (program) process using a general computer including a CPU, a RAM, a ROM, a hard disk drive, a network interface, and the like.

ユーザ属性格納手段16は、送受信手段14を介して、各々の再生装置2(2a〜2n)からユーザ属性データを受信し、それを格納する。ユーザ属性データには、ユーザIDと他のユーザに自己紹介するための情報、および他のユーザがコンタクトをとるための情報が含まれている。さらに上述したように、紹介希望の相手の条件に関する情報を含んでいてもよい。   The user attribute storage means 16 receives user attribute data from each playback device 2 (2a to 2n) via the transmission / reception means 14, and stores it. The user attribute data includes a user ID, information for introducing itself to other users, and information for other users to contact. Further, as described above, it may include information on the condition of the partner who wants to introduce.

ユーザ反応データ格納手段11は、送受信手段14を介して、各々の再生装置2(2a〜2n)からユーザ反応データを受信し、それを格納する。図4に示したように、ユーザ反応データは、いくつかの形式を取り得るが、ユーザ反応データ格納手段11は、それら全てに対応している。以下では、ユーザ反応データが図4(D)の形式である場合を主に説明するが、他の形式の場合についても同様である。   The user response data storage means 11 receives user response data from each playback device 2 (2a to 2n) via the transmission / reception means 14, and stores it. As shown in FIG. 4, the user response data can take several forms, but the user response data storage means 11 supports all of them. Hereinafter, the case where the user reaction data is in the format of FIG. 4D will be mainly described, but the same applies to the case of other formats.

制御手段15は、ユーザ反応データがユーザ反応データ格納手段11に格納された後に、反応データ集計手段18に対して、動作開始の指示を与える。   After the user response data is stored in the user response data storage unit 11, the control unit 15 gives an instruction to start the operation to the reaction data totaling unit 18.

反応データ集計手段18は、ユーザ反応データ格納手段11に格納されている複数のユーザのユーザ反応データを用いて、ユーザ状態の種類ごとに反応データ集計値を算出する。反応データ集計手段18は、ユーザ反応データにおける位置情報(コンテンツの再生位置)を所定の時間幅を持つフレームに対応させて処理を行う。図8の例は、あるコンテンツに対する、あるユーザ状態の種類(例えば「笑い」)のユーザ反応データの様子を2人のユーザについて示したものである。グラフの横軸は再生位置であり、再生位置の1秒ごとにフレームが対応している。すなわち、0〜1秒の再生位置がフレーム1、1〜2秒再生位置がフレーム2、2〜3秒の再生位置がフレーム3、というように対応している。フレームの長さはもちろん1秒に限定される訳ではなく、他の長さを用いてもよい。また、全てのフレームの長さが必ずしも同じでなくてもよい。グラフの縦軸は、反応度合いを示している。   The reaction data totaling means 18 calculates a reaction data total value for each type of user state using user response data of a plurality of users stored in the user response data storage means 11. The reaction data totaling means 18 performs processing by associating position information (content reproduction position) in the user reaction data with a frame having a predetermined time width. The example of FIG. 8 shows the state of user reaction data of a certain user state type (for example, “laughter”) for a certain content for two users. The horizontal axis of the graph is the playback position, and a frame corresponds to every second of the playback position. That is, the playback position of 0 to 1 second corresponds to frame 1, the playback position of 1 to 2 seconds corresponds to frame 2, the playback position of 2 to 3 seconds corresponds to frame 3, and so on. Of course, the length of the frame is not limited to one second, and other lengths may be used. Moreover, the length of all the frames is not necessarily the same. The vertical axis of the graph indicates the degree of reaction.

ユーザAは、2秒〜7秒の間で、ある種類の反応を示しており、反応の強さは、その区間一定で「0.2」である。ユーザBは、4秒から8.5秒まで同じ種類の反応を示している。4〜6秒の間は直線的に反応度合いが強まり、6秒〜8.5秒で最も反応度合いが強く、「0.4」となっている。   User A shows a certain type of reaction between 2 seconds and 7 seconds, and the intensity of the reaction is “0.2” at a constant interval. User B shows the same type of reaction from 4 seconds to 8.5 seconds. The degree of reaction increases linearly between 4 and 6 seconds, and the degree of reaction is strongest between 6 and 8.5 seconds, which is “0.4”.

反応データ集計手段18における反応データ集計値の算出方法として、以下の方法を用いることができる。   As a method for calculating the reaction data total value in the reaction data totaling means 18, the following method can be used.

集計値算出の第1の方法は、反応を示したユーザ数をフレームごとに集計する方法である。図8の例で示したユーザ反応データに対しては、図9に示すような反応データ集計値を算出する。図9において、フレーム1〜2の集計値は、反応を示したユーザが1人もいないため「0」、フレーム3〜4の集計値は、ユーザAのみ反応したので「1」、フレーム5〜8の集計値は、ユーザAとユーザBが反応したので「2」となる。またフレーム9(再生位置8〜9秒)では、ユーザBが反応しているが、フレーム時間幅の1秒ではなく、0.5秒しか反応していないので、フレーム時間幅に対する反応時間の割合である「0.5」を集計値としている。また、図9の例では、反応度合いの値に関わらず、「0」を超える反応度合いを全て「反応有り」として処理しているが、反応度合いが所定のしきい値以上である場合のみ「反応有り」とみなしてもよい。例えば、しきい値として「0.1」を用いてもよい。第1の方法は簡便な方法であり、処理量が少なくて済む。   The first method of calculating the total value is a method of counting the number of users who have shown a reaction for each frame. For the user reaction data shown in the example of FIG. 8, reaction data total values as shown in FIG. 9 are calculated. In FIG. 9, the total value of frames 1 and 2 is “0” because no user has shown a response, and the total value of frames 3 to 4 is “1” because only user A has responded. The total value of 8 is “2” because user A and user B have reacted. In frame 9 (reproduction position 8-9 seconds), user B is responding, but since the frame time width is only 1 second instead of 1 second, the ratio of the reaction time to the frame time width. “0.5” is the total value. In the example of FIG. 9, regardless of the value of the reaction degree, all reaction degrees exceeding “0” are processed as “reactive”, but only when the reaction degree is equal to or greater than a predetermined threshold value, It may be considered that there is a reaction. For example, “0.1” may be used as the threshold value. The first method is a simple method and requires a small amount of processing.

集計値算出の第2の方法は、反応度合いの値をフレームごとに加算して集計する方法である。図8の例で示したユーザ反応データに対しては、図10に示すような反応データ集計値を算出する。図10において、フレーム1〜2の集計値は、どのユーザの反応も存在しないため「0」、フレーム3〜4の集計値は、ユーザAの反応度合い「0.2」がそのまま集計値となる。フレーム5の区間(4〜5秒)において、ユーザBの反応度合いは変化しているが、この区間のユーザBの反応度合いの平均値は「0.1」であるため、この値とユーザAの反応度合い「0.2」を加算した値「0.3」が集計値となる。フレーム6においても、ユーザBの反応度合いの平均値が「0.3」になるため、ユーザAの反応度合い「0.2」を加算した値「0.5」が集計値となる。このように、フレーム区間の途中で反応度合いが変化している場合は、反応度合いの平均値(図8のグラフ上の面積に相当)を用いればよい。フレーム7では、ユーザAの「0.2」とユーザBの「0.4」を加算した値「0.6」が集計値となる。フレーム8では、ユーザBしか反応していないので、「0.4」となる。フレーム9では、ユーザBが反応しているが、フレーム時間幅の1秒ではなく、0.5秒しか反応していないので、フレーム時間幅に対する反応時間の割合「0.5」を反応度合い「0.4」に乗じた値「0.2」を集計値としている。このように、フレーム区間の一部しか反応していない場合は、その時間割合を反応度合いに乗じた値を用いればよい。この値は、図8においてフレーム区間におけるグラフの面積に相当する。   The second method for calculating the total value is a method of adding the values of the degree of reaction for each frame and totaling them. For the user response data shown in the example of FIG. 8, a response data total value as shown in FIG. 10 is calculated. In FIG. 10, the total value of frames 1 and 2 is “0” because there is no response from any user, and the total value of frames 3 to 4 is the total value of user A's response degree “0.2” as it is. . In the section of frame 5 (4 to 5 seconds), the response level of the user B changes, but since the average value of the response level of the user B in this section is “0.1”, this value and the user A A value “0.3” obtained by adding the degree of reaction “0.2” is the total value. Also in the frame 6, since the average value of the response level of the user B is “0.3”, the value “0.5” obtained by adding the response level “0.2” of the user A is the total value. In this way, when the reaction degree changes in the middle of the frame section, an average value of the reaction degree (corresponding to the area on the graph of FIG. 8) may be used. In the frame 7, a value “0.6” obtained by adding “0.2” of the user A and “0.4” of the user B is the total value. In frame 8, since only user B is responding, “0.4” is obtained. In frame 9, user B is responding, but since the frame time width is not only 1 second but only 0.5 seconds, the ratio “0.5” of the reaction time to the frame time width is set as the response level “ A value “0.2” multiplied by 0.4 is used as the total value. As described above, when only a part of the frame section is reacted, a value obtained by multiplying the time ratio by the reaction degree may be used. This value corresponds to the area of the graph in the frame section in FIG.

反応データ集計手段18は、以上のように反応データ集計値を算出した後に、制御手段15に対して処理終了を通知する。   The reaction data totaling unit 18 notifies the control unit 15 of the end of processing after calculating the reaction data totaling value as described above.

制御手段15は、反応データ集計手段18からの通知を受けると、ブロック情報生成手段19に対して、動作開始の指示を与える。   When receiving the notification from the reaction data totaling unit 18, the control unit 15 gives an instruction to start the operation to the block information generating unit 19.

ブロック情報生成手段19は、反応データ集計手段18で算出された反応データ集計値を用いて、コンテンツの再生位置をブロックに対応させるためのブロック情報をユーザ状態の種類ごとに生成する。本実施例においてブロックとは、1つ以上のフレームをグループ化したものであり、ユーザ反応データにおいて、再生位置が多少異なるデータでも同じ再生位置のデータとして扱うために用いる。本実施例では、ブロックは1つ以上のフレームにより構成される。   The block information generation unit 19 uses the reaction data total value calculated by the reaction data totaling unit 18 to generate block information for associating the content reproduction position with the block for each type of user state. In this embodiment, a block is a group of one or more frames, and is used for handling data with slightly different playback positions as data at the same playback position in user response data. In this embodiment, the block is composed of one or more frames.

ブロック情報は、以下に説明する方法により生成される。   The block information is generated by the method described below.

ブロック情報生成の第1の方法は、反応データ集計値が所定値以下になる箇所を分割点として、その前のフレームと後のフレームが別々のブロックになるようにブロックを生成する方法である。図11は、この方法を説明するための模式図である。図10と同様にフレームの時間幅を1秒とした例である。図11の点線は、所定のしきい値を示しており、反応データ集計値がこれ以下のフレームをブロックの分割点とする。再生位置0〜2秒に対応するフレーム1〜2と、再生位置6〜8秒に対応するフレーム7〜8と、再生位置10〜11秒に対応するフレーム11が、ブロックの分割点となる。そして、分割点の前後のフレームが別々のブロックに属するようにブロックを生成する。この例では、フレーム3〜6(再生位置2〜6秒)がブロック1、フレーム9〜10(再生位置8〜10秒)がブロック2、フレーム12(再生位置11〜12秒)がブロック3に対応する。なお、しきい値として「0」を用いてもよい。また図の例では、分割箇所のフレームは、どのブロックにも対応していないが、いずれかのブロックに対応させるようにしてもよい。例えば、分割箇所のフレームをその直前のブロックに対応させるようにして、フレーム7〜8をブロック1に含ませてもよい。   The first method for generating block information is a method for generating a block so that the previous frame and the subsequent frame become separate blocks by using a point where the reaction data total value is a predetermined value or less as a division point. FIG. 11 is a schematic diagram for explaining this method. This is an example in which the time width of the frame is 1 second as in FIG. A dotted line in FIG. 11 indicates a predetermined threshold value, and a frame whose reaction data total value is less than this is set as a block division point. Frames 1 to 2 corresponding to playback positions 0 to 2 seconds, frames 7 to 8 corresponding to playback positions 6 to 8 seconds, and frames 11 corresponding to playback positions 10 to 11 seconds are block division points. Then, blocks are generated so that the frames before and after the dividing point belong to different blocks. In this example, frames 3 to 6 (playback positions 2 to 6 seconds) are in block 1, frames 9 to 10 (playback positions 8 to 10 seconds) are in block 2, and frame 12 (playback positions 11 to 12 seconds) are in block 3. Correspond. Note that “0” may be used as the threshold value. In the example shown in the figure, the frame at the division location does not correspond to any block, but may correspond to any block. For example, the frames 7 to 8 may be included in the block 1 such that the frame at the division location corresponds to the block immediately before.

ブロック情報生成の第2の方法は、反応データ集計値が所定値以下になるフレームが所定個数以上連続する箇所を分割点として、その前のフレームと後のフレームが別々のブロックになるようにブロックを生成する方法である。図12は、この方法を説明するための模式図である。図12の点線は、所定のしきい値を示しており、反応データ集計値がこれ以下のフレームが2個以上連続している箇所をブロックの分割点とする。再生位置0〜2秒に対応するフレーム1〜2と、再生位置6〜8秒に対応するフレーム7〜8は、ブロックの分割点になるが、再生位置10〜11秒に対応するフレーム11は、ブロックの分割点にはならない。そして、分割点の前後のフレームが別々のブロックに属するようにブロックを生成する。この例では、フレーム3〜6(再生位置2〜6秒)がブロック1、フレーム9〜12(再生位置8〜12秒)がブロック2に対応する。なお、しきい値として「0」を用いてもよい。   The second method of generating block information is to block the points where the number of frames whose reaction data total value is less than or equal to a predetermined value continues for a predetermined number of times, and the previous and subsequent frames become separate blocks. Is a method of generating FIG. 12 is a schematic diagram for explaining this method. The dotted line in FIG. 12 indicates a predetermined threshold value, and a block division point is a location where two or more frames having reaction data total values below this value are continuous. Frames 1 and 2 corresponding to the playback positions 0 to 2 seconds and frames 7 to 8 corresponding to the playback positions 6 to 8 seconds become block dividing points, but a frame 11 corresponding to the playback positions 10 to 11 seconds is It does not become a block dividing point. Then, blocks are generated so that the frames before and after the dividing point belong to different blocks. In this example, frames 3 to 6 (reproduction positions 2 to 6 seconds) correspond to block 1, and frames 9 to 12 (reproduction positions 8 to 12 seconds) correspond to block 2. Note that “0” may be used as the threshold value.

ブロック情報生成の第3の方法は、反応データ集計値が極小となる箇所を検出し、それを分割点として、その前のフレームと後のフレームが別々のブロックになるようにブロックを生成する方法である。図13は、この方法を説明するための模式図である。フレームkが極小フレームか否かを判定するには、フレームkの反応データ集計値をS[k]として、(S[k−1]≧S[k]∩S[k+1]≧S[k])という条件を満たすかを判定し、条件を満たせば極小フレームとする。図13の例では、フレーム8とフレーム10が極小フレームであり、分割点となる。そして、分割点の前後のフレームが別々のブロックに属するようにブロックを生成する。この例では、フレーム3〜7(再生位置2〜7秒)がブロック1、フレーム9(再生位置8〜9秒)がブロック2、フレーム11〜12(再生時間10〜12秒)がブロック3に対応する。なお、図13の例では、極小フレームは、いずれのブロックにも対応しないが、いずれかのブロックに対応させてもよい。例えば、極小フレームをその直前のブロックに含ませるようにして、フレーム8をブロック1に対応させ、フレーム10をブロック2に対応させてもよい。   A third method of block information generation is a method of detecting a point where a reaction data total value is minimum, and using that as a division point to generate a block so that the previous frame and the subsequent frame are separate blocks. It is. FIG. 13 is a schematic diagram for explaining this method. To determine whether or not the frame k is a minimal frame, the reaction data total value of the frame k is set to S [k], and (S [k−1] ≧ S [k] kS [k + 1] ≧ S [k] ) Is satisfied, and if the condition is satisfied, a minimal frame is determined. In the example of FIG. 13, the frame 8 and the frame 10 are minimal frames, and are division points. Then, blocks are generated so that the frames before and after the dividing point belong to different blocks. In this example, frames 3 to 7 (reproduction position 2 to 7 seconds) are block 1, frame 9 (reproduction position 8 to 9 seconds) is block 2, and frames 11 to 12 (reproduction time 10 to 12 seconds) are block 3. Correspond. In the example of FIG. 13, the minimal frame does not correspond to any block, but may correspond to any block. For example, the minimum frame may be included in the immediately preceding block so that the frame 8 corresponds to the block 1 and the frame 10 corresponds to the block 2.

ブロック情報生成の第4の方法は、反応データ集計値が所定値以下で、かつ極小となる箇所を検出し、それを分割点として、その前のフレームと後のフレームが別々のブロックになるようにブロックを生成する方法である。図14は、この方法を説明するための模式図である。図14の点線は、所定のしきい値を示している。図14の例では、フレーム8は、極小フレームであり、かつしきい値以下であるため分割点になるが、フレーム10は、極小フレームではあるが、しきい値より大きいため、分割点とならない。そして、分割点の前後のフレームが別々のブロックに属するようにブロックを生成する。この例では、フレーム3〜7(再生位置2〜7秒)がブロック1、フレーム9〜12(再生時間8〜12秒)がブロック2に対応する。なお、図14の例では、極小フレームは、いずれのブロックにも対応しないが、いずれかのブロックに対応させてもよい。例えば、極小フレームをその直前のブロックに含ませるようにして、フレーム8をブロック1に対応させてもよい。   The fourth method of block information generation is to detect a point where the reaction data total value is less than or equal to a predetermined value and becomes a minimum, and use it as a dividing point so that the previous frame and the subsequent frame become separate blocks. This is a method for generating a block. FIG. 14 is a schematic diagram for explaining this method. A dotted line in FIG. 14 indicates a predetermined threshold value. In the example of FIG. 14, the frame 8 is a minimal frame and is equal to or less than the threshold value, and thus becomes a division point. However, the frame 10 is a minimal frame, but is not a division point because it is larger than the threshold value. . Then, blocks are generated so that the frames before and after the dividing point belong to different blocks. In this example, frames 3 to 7 (reproduction position 2 to 7 seconds) correspond to block 1, and frames 9 to 12 (reproduction time 8 to 12 seconds) correspond to block 2. In the example of FIG. 14, the minimal frame does not correspond to any block, but may correspond to any block. For example, the frame 8 may correspond to the block 1 by including the minimal frame in the immediately preceding block.

ブロック情報生成の第5の方法は、反応データ集計値が極小となるフレーム(箇所)、および極大となるフレーム(箇所)を検出し、ある極小フレームと、その極小フレームの両側にある極大フレームとの距離(フレーム差、時間差)を算出し、その2つの距離のうちの少なくとも一方の距離が所定値以上である場合に、その極小フレームを分割点として、その前のフレームと後のフレームが別々のブロックになるようにブロックを生成する方法である。図15は、この方法を説明するための模式図である。図15の例では、フレーム4、7、10が極小フレームであり、フレーム2、5、9、11が極大フレームである。フレームkが極大フレームか否かを判定するには、フレームkの反応データ集計値をS[k]として、(S[k−1]≦S[k]∩S[k+1]≦S[k])という条件を満たすかを判定し、条件を満たせば極大フレームとする。極小フレーム4の両側の極大フレームは2および5であり、それらとの距離(フレームの差)は、4−2=2および5−4=1である。ここで、極大フレームと極小フレーム間の少なくとも一方の距離が2以上の箇所を分割点にするという条件を設定すると、前者はこの条件を満たすので、フレーム4は分割点になる。同様に、極小フレーム7について判定を行うと、両側の極大フレームが5および9なので、極小フレームと極大フレームの間の距離は共に2となり、この条件を満たす。極小フレーム10については、両側の極大フレームが9および11となって、距離が1になるため、この条件を満たさず、分割点にならない。この例では、フレーム4とフレーム7が分割点になり、分割点の前後のフレームが異なるブロックに属するようにブロックを生成する(フレーム1〜3がブロック1、フレーム5〜6がブロック2、フレーム8〜12がブロック3となる)。図15の例では、極小フレームは、いずれのブロックにも対応しないが、いずれかのブロックに対応させてもよい。例えば、極小フレームをその直前のブロックに含ませるようにして、フレーム4をブロック1に対応させてもよい。また、極小フレームの両側にある極大フレームとの2つの距離の両方ともが所定値以上である場合に、その極小フレームを分割点とするようにしてもよい。例えば、極大フレームと極小フレーム間の両方の距離が2以上の箇所を分割点にしてもよい。この条件を図15に示したデータに適用すると、フレーム4は分割点ではなくなり、フレーム7のみが分割点となる。そして、フレーム1〜6をブロック1、フレーム8〜12をブロック2に対応させることになる。更に、分割点とする条件として、極小フレームの極小値が所定値以下であることを加えてもよい。   The fifth method of block information generation is to detect a frame (location) where the reaction data aggregate value is a minimum and a frame (location) where the response data total value is minimum, and a certain minimum frame and maximum frames on both sides of the minimum frame. When the distance (frame difference, time difference) is calculated and at least one of the two distances is equal to or greater than a predetermined value, the previous frame and the subsequent frame are separated from each other using the minimum frame as a dividing point. This is a method of generating a block so as to be a block. FIG. 15 is a schematic diagram for explaining this method. In the example of FIG. 15, frames 4, 7, and 10 are minimal frames, and frames 2, 5, 9, and 11 are maximal frames. To determine whether or not the frame k is a maximal frame, the reaction data total value of the frame k is set to S [k], and (S [k−1] ≦ S [k] ∩S [k + 1] ≦ S [k] ) Is satisfied, and if the condition is satisfied, the maximum frame is determined. The maximum frames on both sides of the minimum frame 4 are 2 and 5, and the distances (frame differences) between them are 4-2 = 2 and 5-4 = 1. Here, if the condition that at least one distance between the maximum frame and the minimum frame is a division point is set as a division point, the former satisfies this condition, and therefore the frame 4 becomes a division point. Similarly, when the determination is made for the minimal frame 7, the maximum frames on both sides are 5 and 9, so the distance between the minimal frame and the maximal frame is 2, which satisfies this condition. For the minimal frame 10, the maximum frames on both sides are 9 and 11, and the distance is 1. Therefore, this condition is not satisfied and the segment is not a division point. In this example, frames 4 and 7 are division points, and blocks are generated so that frames before and after the division point belong to different blocks (frames 1 to 3 are block 1, frames 5 to 6 are block 2, and frame 8 to 12 become block 3). In the example of FIG. 15, the minimal frame does not correspond to any block, but may correspond to any block. For example, the minimum frame may be included in the immediately preceding block, and the frame 4 may correspond to the block 1. Further, when both of the two distances to the maximal frame on both sides of the minimal frame are equal to or greater than a predetermined value, the minimal frame may be used as a division point. For example, a location where the distance between both the maximum frame and the minimum frame is 2 or more may be set as the division point. When this condition is applied to the data shown in FIG. 15, frame 4 is not a division point, and only frame 7 is a division point. The frames 1 to 6 correspond to the block 1, and the frames 8 to 12 correspond to the block 2. Further, as a condition for the division point, it may be added that the minimum value of the minimum frame is equal to or less than a predetermined value.

ブロック情報生成の第6の方法は、反応データ集計値が極小となるフレーム(箇所)、および極大となるフレーム(箇所)を検出し、ある極小フレームの極小値と、その極小フレームの両側にある極大フレームの極大値との差を算出し、その2つの差のうちの少なくとも一方が所定値以上である場合に、その極小フレームを分割点として、その前のフレームと後のフレームが別々のブロックになるようにブロックを生成する方法である。図16は、この方法を説明するための模式図である。図16の例では、フレーム4、7、10が極小フレームであり、フレーム2、5、9、11が極大フレームである。また、極大値と極小値との差が図16のしきい値以上である場合に、極小フレームを分割点にする。極小フレーム4の両側の極大フレームは2および5であり、フレーム4と2の差はしきい値未満であるが、フレーム4と5の差はしきい値以上であるため、フレーム4は分割点になる。同様に、極小フレーム7について判定を行うと、両側の極大フレームが5および9であり、フレーム7と5の差、フレーム7と9との差は、両方ともしきい値以上なので、フレーム7は分割点になる。極小フレーム10については、両側の極大フレームが9および11となり、これらとの差がいずれもしきい値未満なので、分割点にならない。この例では、フレーム4とフレーム7が分割点になり、分割点の前後のフレームが異なるブロックに属するようにブロックを生成する(フレーム1〜3がブロック1、フレーム5〜6がブロック2、フレーム8〜12がブロック3となる)。図16の例では、極小フレームは、いずれのブロックにも対応しないが、いずれかのブロックに対応させてもよい。例えば、極小フレームをその直前のブロックに含ませるようにして、フレーム4をブロック1に対応させてもよい。また、極小フレームの両側にある極大フレームの極大値と極小値との2つの差が両方とも所定値以上である場合に、その極小フレームを分割点とするようにしてもよい。この条件を図16に示したデータに適用すると、フレーム4は分割点ではなくなり、フレーム7のみが分割点となる。そして、フレーム1〜6をブロック1、フレーム8〜12をブロック2に対応させることになる。更に、分割点とする条件として、極小フレームの極小値が所定値以下であることを加えてもよい。   The sixth method for generating block information is to detect a frame (location) at which the reaction data total value becomes a minimum and a frame (location) at which the response data total value becomes a maximum, and have a minimum value of a certain minimum frame and both sides of the minimum frame. When the difference between the maximum value of the maximum frame is calculated and at least one of the two differences is equal to or greater than a predetermined value, the previous frame and the subsequent frame are separated from each other using the minimum frame as a dividing point. This is a method of generating a block so that FIG. 16 is a schematic diagram for explaining this method. In the example of FIG. 16, frames 4, 7, and 10 are minimum frames, and frames 2, 5, 9, and 11 are maximum frames. When the difference between the maximum value and the minimum value is equal to or greater than the threshold value in FIG. The maximum frames on both sides of the minimum frame 4 are 2 and 5, and the difference between frames 4 and 2 is less than the threshold value, but the difference between frames 4 and 5 is greater than or equal to the threshold value. become. Similarly, when the determination is made for the minimum frame 7, the maximum frames on both sides are 5 and 9, and the difference between frames 7 and 5 and the difference between frames 7 and 9 are both greater than or equal to the threshold value. Become a dividing point. For the minimal frame 10, the maximum frames on both sides are 9 and 11, and the difference between them is less than the threshold value. In this example, frames 4 and 7 are division points, and blocks are generated so that frames before and after the division point belong to different blocks (frames 1 to 3 are block 1, frames 5 to 6 are block 2, and frame 8 to 12 become block 3). In the example of FIG. 16, the minimal frame does not correspond to any block, but may correspond to any block. For example, the minimum frame may be included in the immediately preceding block, and the frame 4 may correspond to the block 1. Further, when the two differences between the local maximum value and the local minimum value of the local maximum frame on both sides of the local minimum frame are both equal to or larger than a predetermined value, the local minimum frame may be used as a division point. When this condition is applied to the data shown in FIG. 16, frame 4 is not a division point, and only frame 7 is a division point. The frames 1 to 6 correspond to the block 1, and the frames 8 to 12 correspond to the block 2. Further, as a condition for the division point, it may be added that the minimum value of the minimum frame is equal to or less than a predetermined value.

ブロック情報生成の第7の方法は、ブロック情報生成の第6の方法における極大値と極小値との差の代わりに、極大値と極小値との比率を用いる方法である。すなわち、反応データ集計値が極小となるフレーム(箇所)、および極大となるフレーム(箇所)を検出し、ある極小フレームの極小値に対する、その極小フレームの両側にある極大フレームの極大値の比率を算出し、その2つの比率のうちの少なくとも一方が所定値以上である場合に、その極小フレームを分割点として、その前のフレームと後のフレームが別々のブロックになるようにブロックを生成する方法である。この比率として、極大値÷極小値を算出して用いるが、極小値が0の場合は、比率を無限大、またはあらかじめ設定した値 にする。また、極小フレームの極小値と、極小フレームの両側にある極大フレームの極大値との2つの比率が両方とも所定値以上である場合に、分割点とするようにしてもよい。更に、分割点とする条件として、極小フレームの極小値が所定値以下であることを加えてもよい。なお、以上の説明では、極大値÷極小値を比率として用いたが、極小値÷極大値を比率として用いてもよい。この場合は、比率が所定値以下である場合に、該当する極小フレームを分割点とする。   The seventh method of block information generation is a method of using the ratio between the maximum value and the minimum value instead of the difference between the maximum value and the minimum value in the sixth method of block information generation. That is, the frame (location) where the reaction data aggregate value becomes the minimum and the frame (location) where the maximum value is detected are detected, and the ratio of the maximum value of the maximum frames on both sides of the minimum frame to the minimum value of a certain minimum frame is calculated. A method of calculating and generating a block so that the previous frame and the subsequent frame become separate blocks with the minimum frame as a division point when at least one of the two ratios is equal to or greater than a predetermined value It is. As this ratio, the maximum value / minimum value is calculated and used. When the minimum value is 0, the ratio is set to infinity or a preset value. Further, when the two ratios between the minimum value of the minimum frame and the maximum values of the maximum frames on both sides of the minimum frame are both equal to or larger than a predetermined value, the dividing point may be used. Further, as a condition for the division point, it may be added that the minimum value of the minimum frame is equal to or less than a predetermined value. In the above description, the local maximum value / local minimum value is used as the ratio, but the local minimum value / local maximum value may be used as the ratio. In this case, when the ratio is equal to or less than a predetermined value, the corresponding minimal frame is set as a division point.

ブロック情報生成の第8の方法は、一の種類のユーザ状態(例えば、「悲しみ」)の反応データ集計値が、所定値未満から所定以上に変化する箇所、または所定値以上から所定値未満に変化する箇所を中間点として検出し、一の種類以外のあるユーザ状態(例えば「笑い」)のブロック情報を生成する際に、検出した中間点の前後のフレームが別々のブロックになるように、ブロックを生成する方法である。図17は、ユーザ状態が「笑い」(実線)と「悲しみ」(破線)である2種類の反応データ集計値の様子を示したものである。「悲しみ」の集計値が所定値未満から所定値以上に変化する箇所(図のA点)、および所定値以上から所定値未満に変化する箇所(図のB点)を中間点として検出する。中間点(中間フレーム)においては、隣接する2つのフレームの一方の集計値が所定値未満であり、もう一方の集計値が所定値以上になっている。そして、ユーザ状態が「笑い」であるブロック情報を生成する際に、検出した中間フレームを分割点として、その前後のフレームが別々のブロックとなるように、ブロック1、ブロック2、ブロック3を生成している。   The eighth method of block information generation is that a reaction data total value of one type of user state (for example, “sadness”) changes from less than a predetermined value to a predetermined value or from a predetermined value to a predetermined value. When detecting a changing point as an intermediate point and generating block information of a certain user state (for example, “laughter”) other than one type, so that the frames before and after the detected intermediate point are separate blocks, This is a method for generating a block. FIG. 17 shows two types of reaction data total values in which the user status is “laughter” (solid line) and “sadness” (broken line). A point where the total value of “sadness” changes from less than a predetermined value to a predetermined value or more (point A in the figure) and a point where the total value changes from a predetermined value to less than the predetermined value (point B in the figure) are detected as intermediate points. At an intermediate point (intermediate frame), one aggregate value of two adjacent frames is less than a predetermined value, and the other aggregate value is greater than or equal to a predetermined value. Then, when generating block information in which the user status is “laughter”, block 1, block 2, and block 3 are generated so that the detected intermediate frame is a division point and the frames before and after that are separate blocks. is doing.

更に、上記のブロック情報生成の第1〜第8の方法を適宜組合せてもよい。この場合、各々の方法における分割点の条件をAND論理(論理積)で組み合わせる。例えば、第1の方法と第6の方法を組合せて、極小フレームの極小値と、その極小フレームの両側にある極大フレームの極大値との差を算出し、その2つの差のうちの少なくとも一方が第1の所定値以上であり、かつ極小値が第2の所定値以下である場合に、分割点とするようにしてもよい。また、第5の方法と第6の方法を組合せてもよい。すなわち、反応データ集計値の極小フレームの両側にある極大フレームとの距離のうちの少なくとも一方の距離が所定値以上であり、かつ極大値と極小値との2つの差の少なくとも一方の差が所定値以上である場合に、その極小フレームを分割点としてもよい。また、第5の方法と第7の方法を組合せてもよい。すなわち、反応データ集計値の極小フレームの両側にある極大フレームとの距離のうちの少なくとも一方の距離が所定値以上であり、かつ極大値と極小値との2つの比率の少なくとも一方の比率が所定値以上である場合に、その極小フレームを分割点としてもよい。   Furthermore, the first to eighth methods for generating the block information may be appropriately combined. In this case, the conditions of the dividing points in each method are combined by AND logic (logical product). For example, by combining the first method and the sixth method, the difference between the minimum value of the minimum frame and the maximum value of the maximum frame on both sides of the minimum frame is calculated, and at least one of the two differences is calculated. May be set as a dividing point when the minimum value is equal to or greater than the first predetermined value and the minimum value is equal to or less than the second predetermined value. Further, the fifth method and the sixth method may be combined. That is, at least one of the distances between the maximum frames on both sides of the minimum frame of the reaction data total value is equal to or greater than a predetermined value, and at least one of the two differences between the maximum value and the minimum value is predetermined. When the value is equal to or greater than the value, the minimum frame may be used as the dividing point. Further, the fifth method and the seventh method may be combined. That is, at least one of the distances between the maximum frames on both sides of the minimum frame of the reaction data total value is a predetermined value or more, and at least one of the two ratios of the maximum value and the minimum value is predetermined. When the value is equal to or greater than the value, the minimum frame may be used as the dividing point.

以上の処理により、フレーム番号とブロックが対応したブロック情報が得られる。ブロック情報生成手段19は、その結果を図18に示す形式で格納する。フレーム番号は、それぞれ再生位置に対応しているので、フレーム番号を再生位置に換算した後に、コンテンツIDと、ユーザ状態の種類と、ブロック先頭の再生位置と、ブロック末尾の再生位置と、ブロック番号とを対応させて格納する。図18において、ユーザ状態の種類ごとに、異なる数のブロックが設定されている。コンテンツ「C001」の場合、「笑い」に対して「Nf」個、「怒り」に対して「Ng」個、「悲しみ」に対して「1」個のブロックが設定されている。コンテンツ「C001」では、合計「Nf+Ng+1」個のブロックが作成される。ブロック番号は、コンテンツごとに1から始まる続き番号である。なお、ユーザ反応データ格納手段11に格納されたユーザ反応データにおいて、情報の種類が1種類のみである場合は、図18の「ユーザ状態の種類」を省略できる。   Through the above processing, block information corresponding to the frame number and the block is obtained. The block information generation means 19 stores the result in the format shown in FIG. Since each frame number corresponds to the playback position, after converting the frame number to the playback position, the content ID, the user status type, the playback position at the beginning of the block, the playback position at the end of the block, and the block number Are stored in correspondence with each other. In FIG. 18, a different number of blocks are set for each type of user state. In the case of the content “C001”, “Nf” blocks are set for “laughter”, “Ng” blocks for “anger”, and “1” blocks for “sadness”. In the content “C001”, a total of “Nf + Ng + 1” blocks are created. The block number is a continuous number starting from 1 for each content. In addition, in the user reaction data stored in the user reaction data storage unit 11, when there is only one type of information, the “type of user state” in FIG. 18 can be omitted.

ブロック情報生成手段19は、ブロック情報の格納を終了すると、動作終了を制御手段15に通知する。   When the block information generation unit 19 finishes storing the block information, the block information generation unit 19 notifies the control unit 15 of the end of the operation.

制御手段15は、ブロック情報生成手段19からの通知を受けると、集約データ計算手段12に対して、動作開始の指示を与える。   Upon receiving the notification from the block information generation unit 19, the control unit 15 gives an operation start instruction to the aggregate data calculation unit 12.

次に、図19のフローチャートを用いて、集約データ計算手段12の動作を説明する。集約データ計算手段12は、ブロック情報生成手段19に格納されたブロック情報を参照しながら、ユーザ反応データ格納手段11に格納されているユーザ反応データから集約データを計算する。   Next, the operation of the aggregated data calculation means 12 will be described using the flowchart of FIG. The aggregate data calculation means 12 calculates aggregate data from the user reaction data stored in the user reaction data storage means 11 while referring to the block information stored in the block information generation means 19.

まずステップS500において、集約データ計算手段12は、計算過程で集約データを一時的に保持するためのバッファを初期化する。このバッファは、ユーザID(以下では「U」と表記)と、コンテンツID(以下では「C」と表記)と、ブロック番号(以下では「B」と表記)の3つの引数を指定して、値の読み書きが可能なものである。以下では、「P(U, C, B)」という表記で、その値を表わす。またこのバッファは、必要に応じて記憶領域を自動的に拡張する機能を持つ。初期状態では、全てのユーザ、全てのコンテンツ、全てのブロック番号に対して、バッファの値は「0」である。   First, in step S500, the aggregated data calculation unit 12 initializes a buffer for temporarily holding aggregated data during the calculation process. This buffer specifies three arguments: a user ID (hereinafter referred to as “U”), a content ID (hereinafter referred to as “C”), and a block number (hereinafter referred to as “B”). Values can be read and written. In the following, the value is expressed as “P (U, C, B)”. This buffer also has a function of automatically expanding the storage area as necessary. In the initial state, the value of the buffer is “0” for all users, all contents, and all block numbers.

次にステップS510において、集約データ計算手段12は、ユーザ反応データ格納手段11を参照し、ユーザ反応データに記録されているユーザIDの中から、まだ処理を行っていないユーザIDを1つ選ぶ。このユーザIDを以下では、「Ux」と表記する。   Next, in step S510, the aggregated data calculation unit 12 refers to the user response data storage unit 11, and selects one user ID that has not yet been processed from the user IDs recorded in the user response data. Hereinafter, this user ID is expressed as “Ux”.

次にステップS520において、集約データ計算手段12は、ユーザ反応データ格納手段11を参照し、ユーザUxに関してまだ処理を行っていないコンテンツIDを1つ選ぶ。このコンテンツIDを以下では、「Cx」と表記する。   Next, in step S520, the aggregate data calculation unit 12 refers to the user response data storage unit 11 and selects one content ID that has not yet been processed for the user Ux. Hereinafter, this content ID is expressed as “Cx”.

次にステップS530において、集約データ計算手段12は、ユーザ反応データ格納手段11を参照し、ユーザUxがコンテンツCxを利用した際のユーザ状態の中から、まだ処理に使用していないユーザ状態を1つ選ぶ。このユーザ状態を以下では、「Mx」と表記する。   Next, in step S530, the aggregated data calculation unit 12 refers to the user response data storage unit 11, and selects a user state that has not been used for processing from among user states when the user Ux uses the content Cx. Choose one. Hereinafter, this user state is expressed as “Mx”.

次にステップS540において、集約データ計算手段12は、ユーザ反応データ格納手段11を参照し、ユーザがUxで、コンテンツがCxで、ユーザ状態がMxである条件を満たすユーザ反応データの中から、まだ処理していないデータを1つ選ぶ。図4(D)に示す形式の場合であれば、テーブルの1行を読み出す。この選択したユーザ反応データを以下では「Rx」と表記する。   Next, in step S540, the aggregated data calculation unit 12 refers to the user response data storage unit 11, and from among the user response data satisfying the condition that the user is Ux, the content is Cx, and the user state is Mx, Select one piece of data that has not been processed. In the case of the format shown in FIG. 4D, one row of the table is read. This selected user response data is denoted as “Rx” below.

次にステップS550において、集約データ計算手段12は、ブロック情報生成手段19のブロック情報を参照しながら、Cx、Mx、Rxの再生位置を用いて、Rxに対応するブロックを判定する。   In step S550, the aggregated data calculation unit 12 determines a block corresponding to Rx using the reproduction positions of Cx, Mx, and Rx while referring to the block information of the block information generation unit 19.

具体的には、ブロック情報のコンテンツIDが「Cx」であり、「Rxの再生位置」が「ブロック先頭再生位置」以上かつ「ブロック末尾再生位置」未満であり、ブロック情報の中の状態の種類が「Mx」であるブロック番号を判定する。また、Rxに対応するブロック番号は、1つだけではなく複数存在する場合がある。例えば、ユーザ反応データが図4(D)に示すように状態区間の情報、すなわち「状態の先頭再生位置」と「状態の末尾再生位置」の情報を持っており、状態区間が複数のブロックにまたがっている場合である。このステップで判定されたブロック番号を「Bx」とする。   Specifically, the content ID of the block information is “Cx”, the “Rx playback position” is greater than or equal to the “block head playback position” and less than the “block end playback position”, and the type of state in the block information The block number having “Mx” is determined. Further, there may be a plurality of block numbers corresponding to Rx instead of only one. For example, as shown in FIG. 4D, the user response data includes state section information, that is, “state start playback position” and “state end playback position” information, and the state section is divided into a plurality of blocks. This is the case when straddling. The block number determined in this step is “Bx”.

次にステップS560において、集約データ計算手段12は、ユーザ反応データRxにおける反応度合い(以下では「Dx」と表記する)を下記の数式(1)に示すように加算して、その時点での集計データ(集約値)であるP(Cx,Ux,Bx)を更新する。ユーザ反応データRxの中に、反応度合いが存在しない場合には、所定の数値をP(Cx,Ux,Bx)に加算する。例えば、「1.0」や「0.7」といった所定の数値を加算すればよい。ステップS550で判定されたブロック番号が複数存在する場合は、ステップS560の処理を該当する全てのブロック番号に対して行う。

Figure 2011128790
Next, in step S560, the aggregated data calculation means 12 adds the degree of response (hereinafter referred to as “Dx”) in the user response data Rx as shown in the following formula (1), and totals at that time. P (Cx, Ux, Bx) that is data (aggregated value) is updated. When the reaction degree does not exist in the user reaction data Rx, a predetermined numerical value is added to P (Cx, Ux, Bx). For example, a predetermined numerical value such as “1.0” or “0.7” may be added. If there are a plurality of block numbers determined in step S550, the process of step S560 is performed for all corresponding block numbers.
Figure 2011128790

次にステップS570において、集約データ計算手段12は、ユーザ反応データ格納手段11を参照し、ユーザがUxで、コンテンツがCxで、ユーザ状態がMxである全てのユーザ反応データを処理したか否か判定する。未処理のデータが存在する場合はステップS540に進み、未処理のデータが存在しない場合はステップS580に進む。   Next, in step S570, the aggregated data calculation unit 12 refers to the user response data storage unit 11, and has processed all user response data in which the user is Ux, the content is Cx, and the user state is Mx. judge. If unprocessed data exists, the process proceeds to step S540. If unprocessed data does not exist, the process proceeds to step S580.

次にステップS580において、集約データ計算手段12は、ユーザ反応データ格納手段11を参照し、ユーザUxがコンテンツCxを利用した際のユーザ状態の中から、まだ処理していないユーザ状態があるか否か判定する。未処理のユーザ状態が存在する場合はステップS530に進み、未処理のユーザ状態が存在しない場合はステップS590に進む。   Next, in step S580, the aggregated data calculation unit 12 refers to the user response data storage unit 11, and whether there is a user state that has not yet been processed among the user states when the user Ux uses the content Cx. To determine. If there is an unprocessed user state, the process proceeds to step S530. If there is no unprocessed user state, the process proceeds to step S590.

次にステップS590において、集約データ計算手段12は、ユーザ反応データ格納手段11を参照し、ユーザUxに関してまだ処理を行っていないコンテンツがあるか否か判定する。未処理のコンテンツが存在する場合はステップS520に進み、未処理のコンテンツが存在しない場合はステップS600に進む。   In step S590, the aggregated data calculation unit 12 refers to the user response data storage unit 11 and determines whether there is content that has not yet been processed for the user Ux. If unprocessed content exists, the process proceeds to step S520. If unprocessed content does not exist, the process proceeds to step S600.

次にステップS600において、集約データ計算手段12は、ユーザ反応データ格納手段11を参照し、ユーザ反応データに記録されているユーザIDの中から、まだ処理を行っていないユーザがいるか否か判定する。未処理のユーザが存在する場合はステップS510に進み、未処理のユーザが存在しない場合はステップS610に進む。   Next, in step S600, the aggregated data calculation unit 12 refers to the user response data storage unit 11, and determines whether there is a user who has not yet processed from the user IDs recorded in the user response data. . When there is an unprocessed user, the process proceeds to step S510, and when there is no unprocessed user, the process proceeds to step S610.

次にステップS610において、集約データ計算手段12は、バッファ「P(U, C, B)」の全てのデータを集約データ計算手段12の集約データ格納部33(図示せず)に格納する。   In step S <b> 610, the aggregate data calculation unit 12 stores all data in the buffer “P (U, C, B)” in the aggregate data storage unit 33 (not shown) of the aggregate data calculation unit 12.

本実施例では以上の処理の結果、ユーザが反応を示したブロックの集約値は正の値(0より大きな値)となる。またユーザが反応していないブロックの集約値は、初期状態の「0」になっている。またユーザが利用していないコンテンツのブロックは、全て初期状態の「0」になっている。   In the present embodiment, as a result of the above processing, the aggregate value of the blocks for which the user has reacted becomes a positive value (a value greater than 0). The aggregate value of the blocks that the user is not responding to is “0” in the initial state. All blocks of content not used by the user are in the initial state “0”.

集約データ計算手段12の集約データ格納部33には、図20に示す形式でデータが格納される。ユーザIDと、コンテンツIDと、ブロック番号と、グローバルブロック番号と、バッファ「P(U, C, B)」の値である集約値とが関連づけられて格納されている。図20の例では、K個のユーザIDと、L個のコンテンツIDが格納されている様子を示している。以下の説明では、このように集約データ格納部にK個のユーザIDと、L個のコンテンツIDおよび統合コンテンツIDが格納されているものとする。   Data is stored in the aggregate data storage unit 33 of the aggregate data calculation means 12 in the format shown in FIG. The user ID, the content ID, the block number, the global block number, and the aggregate value that is the value of the buffer “P (U, C, B)” are stored in association with each other. The example of FIG. 20 shows a state where K user IDs and L content IDs are stored. In the following description, it is assumed that K user IDs, L content IDs, and integrated content IDs are stored in the aggregate data storage unit in this way.

ブロック番号は、コンテンツ毎に付けられた1から始まる通し番号である。グローバルブロック番号は、集約データ格納部33に格納されている全てのコンテンツの全てのブロックを一意に識別できる番号である。具体的には、最初のコンテンツに対して、そのコンテンツのブロック番号と同じ1〜N1までの番号をグローバルブロック番号として付与し、2番目のコンテンツに対しては、N1+1〜N1+N2までの番号をグローバルブロック番号として付与する(ただし、N2は2番目のコンテンツのブロック数)。このような処理を全てのコンテンツに対して行う。本実施例では、1からNzまでのグローバルブロック番号があるものとする。コンテンツIDとブロック番号の組み合わせで、全てのコンテンツのブロックを特定することもできるが、グローバルブロック番号を用いることにより、1種類の番号で、全てのコンテンツのブロックを特定できる。なお、集約データ格納部33に、ユーザIDと、グローバルブロック番号と、集約値とを格納するようにして、コンテンツIDとブロック番号の格納を省略してもよい。   The block number is a serial number starting from 1 assigned to each content. The global block number is a number that can uniquely identify all the blocks of all the contents stored in the aggregate data storage unit 33. Specifically, for the first content, numbers from 1 to N1 that are the same as the block number of the content are assigned as global block numbers, and for the second content, numbers from N1 + 1 to N1 + N2 are assigned globally. It is given as a block number (where N2 is the number of blocks of the second content). Such processing is performed for all contents. In this embodiment, it is assumed that there are global block numbers from 1 to Nz. Although all content blocks can be specified by a combination of a content ID and a block number, a global block number can be used to specify all content blocks with one type of number. It should be noted that the user ID, the global block number, and the aggregate value may be stored in the aggregate data storage unit 33, and the storage of the content ID and block number may be omitted.

集約データ計算手段12は、以上のように集約データを計算して格納した後に、制御手段15に対して処理終了を通知する。   The aggregate data calculation unit 12 notifies the control unit 15 of the end of processing after calculating and storing the aggregate data as described above.

本実施例においては、類似度計算手段13が、集約データ計算手段12の集約データ格納部33に格納された集約データを用いて、ユーザ間の類似度を計算する。この理由を以下に説明する。   In the present embodiment, the similarity calculation unit 13 calculates the similarity between users by using the aggregate data stored in the aggregate data storage unit 33 of the aggregate data calculation unit 12. The reason for this will be described below.

本発明と異なる方法として、ユーザ反応データそのものを使って、ユーザ間の類似度を計算することも考えられる。例えば、従来技術の特許文献2においては、図4(A)の形式のユーザ反応データをそのまま用いて、ユーザ間の類似度を算出していると解釈できる。しかしながら、この方法には、ユーザの反応を計測する時間間隔を適切に設定することが難しいという問題がある。   As a method different from the present invention, it is conceivable to calculate the similarity between users using the user reaction data itself. For example, in Patent Document 2 of the prior art, it can be interpreted that the similarity between users is calculated using the user response data in the format of FIG. 4A as it is. However, this method has a problem that it is difficult to appropriately set a time interval for measuring a user's reaction.

ユーザの反応を短い時間間隔で計測し、それを類似度計算に用いると、データ量が増えるので、ユーザ間の類似度計算の処理量も増える。一般的には、収集したサンプルの大半は、ユーザが反応を示さないデータ(ゼロデータ)になる。更に、2人のユーザがほぼ同時に反応を示した場合であっても、異なる位置(時間)での反応扱いになることが多く、実際よりも類似度が低い値で計算される傾向がある。   If the user's reaction is measured at short time intervals and used for similarity calculation, the amount of data increases, so the processing amount of similarity calculation between users also increases. In general, most of the collected samples are data that the user does not respond (zero data). Furthermore, even when two users show responses at almost the same time, they are often handled at different positions (time), and tend to be calculated with values that are lower than the actual ones.

ユーザの反応を長い時間間隔で計測し、それを類似度計算に用いると、計算量は少なくて済む。しかし、ユーザが反応しても、サンプル点とサンプル点の間の位置になってしまい、類似度に反映されない可能性が出てくる。またそれを回避するために、反応を時間方向に積分する処理を入れると、本来時間的に区別すべき反応も同じ時間の反応として処理してしまうので、類似度の精度が低くなる場合がある。すなわち、従来技術のように、ユーザ反応データをそのまま使って類似度を計算する方法では、ユーザ間の類似度を精度良く、かつ少ない計算量で効率的に計算することが難しい。   If the user's reaction is measured at a long time interval and used for similarity calculation, the calculation amount is small. However, even if the user reacts, the position becomes between the sample points and may not be reflected in the similarity. In order to avoid this, if the process of integrating the reactions in the time direction is added, the reactions that should be distinguished in terms of time are also processed as reactions of the same time, so the accuracy of similarity may be reduced. . That is, in the method of calculating the similarity using the user reaction data as it is as in the prior art, it is difficult to calculate the similarity between users accurately and efficiently with a small amount of calculation.

本発明では、反応データ集計手段18と、ブロック情報生成手段19と、集約データ計算手段12を組み合わせた処理により、ユーザ反応データから集約データを計算し、集約データを用いてユーザ間の類似度を計算するので、ユーザ間の類似度を精度良く、かつ少ない計算量で効率的に計算することが可能である。また本発明は、ユーザ反応データからブロック情報を生成しているため、あらかじめコンテンツごとのブロック情報を用意しておく必要がない。このため、コンテンツの種類が非常に多い場合であっても、容易に対応できるという優れた特徴を有している。   In the present invention, the aggregated data is calculated from the user reaction data by the process combining the reaction data totaling unit 18, the block information generating unit 19, and the aggregated data calculating unit 12, and the similarity between the users is calculated using the aggregated data. Since the calculation is performed, it is possible to calculate the similarity between users with high accuracy and efficiently with a small amount of calculation. In the present invention, since block information is generated from user reaction data, it is not necessary to prepare block information for each content in advance. For this reason, even if there are very many types of contents, it has an excellent feature that it can be easily handled.

次にユーザ情報処理装置1が再生装置2に対して提供する類似ユーザ情報を作成する方法について説明する。あるユーザ(一のユーザ)が利用する再生装置2において、一のユーザが入力装置29を操作して、類似ユーザ情報の取得を指示すると、制御手段25はステップS100と同様のユーザ認証処理を行った後、送受信手段24を介して、類似ユーザ情報リクエストとユーザIDとをユーザ情報処理装置1に送信する。なお、ユーザ情報処理装置1において、ユーザを識別する処理を行なわず、再生装置2を識別する処理を行なう場合には、ユーザIDの代わりに、再生装置2を識別する情報を送信すればよい。ユーザ情報処理装置1の送受信手段14は、この類似ユーザ情報リクエストとユーザIDとを受信し、類似度計算手段13に通知することにより、類似度計算手段13が一のユーザに対する類似ユーザ情報を作成する。   Next, a method for creating similar user information provided by the user information processing apparatus 1 to the playback apparatus 2 will be described. In the playback device 2 used by a certain user (one user), when one user operates the input device 29 to instruct acquisition of similar user information, the control means 25 performs a user authentication process similar to step S100. After that, the similar user information request and the user ID are transmitted to the user information processing apparatus 1 via the transmission / reception means 24. If the user information processing apparatus 1 performs the process of identifying the playback apparatus 2 without performing the process of identifying the user, information identifying the playback apparatus 2 may be transmitted instead of the user ID. The transmission / reception means 14 of the user information processing apparatus 1 receives the similar user information request and the user ID, and notifies the similarity calculation means 13 so that the similarity calculation means 13 creates similar user information for one user. To do.

類似度計算手段13の動作を図21のフローチャートを用いて説明する。   The operation of the similarity calculation means 13 will be described using the flowchart of FIG.

まずステップS700において、類似度計算手段13は、類似ユーザ情報リクエストを発行したユーザ(一のユーザ)のユーザID(一のユーザID)に対応する集約データを集約データ計算手段12の集約データ格納部33から読み出す。以下では一のユーザIDをUaとする。Uaの集約値をグローバルブロック番号に対応させて読み出し、ベクトル形式のデータとして保持する。以下ではこのベクトルをVa[i](iはグローバルブロック番号で、i=1〜Nz)で表わす。   First, in step S700, the similarity calculation unit 13 uses the aggregated data storage unit of the aggregated data calculation unit 12 to collect aggregated data corresponding to the user ID (one user ID) of the user (one user) who issued the similar user information request. Read from 33. In the following, one user ID is Ua. The aggregated value of Ua is read in correspondence with the global block number and held as vector format data. Hereinafter, this vector is represented by Va [i] (i is a global block number, i = 1 to Nz).

次にステップS710において、類似度計算手段13は、集約データ格納部33を参照しながら、Ua以外のユーザIDの内から、まだ処理を行っていないユーザIDを1つ選択する。このユーザIDをUbとする。   Next, in step S710, the similarity calculation unit 13 selects one user ID that has not yet been processed from among user IDs other than Ua while referring to the aggregated data storage unit 33. This user ID is Ub.

次にステップS720において、類似度計算手段13は、Ubの集約データを集約データ格納部33から読み出す。Ubの集約値をグローバルブロック番号に対応させて読み出し、ベクトル形式のデータとして保持する。以下ではこのベクトルをVb[i](iはグローバルブロック番号で、i=1〜Nz)で表わす。   Next, in step S720, the similarity calculation unit 13 reads the aggregated data of Ub from the aggregated data storage unit 33. The aggregated value of Ub is read in correspondence with the global block number and held as vector format data. Hereinafter, this vector is represented by Vb [i] (i is a global block number, i = 1 to Nz).

次にステップS730において、類似度計算手段13は、VaとVbを用いて、ユーザUaとユーザUbとの類似度Sabを計算し、UbとSabを対応させた結果をバッファQに格納する。類似度の計算方法としては以下に示す種々の方法を用いることができる。以下ではSabの値が大きいほど、ユーザ間の類似度が高いと判断できる。   Next, in step S730, the similarity calculation unit 13 calculates the similarity Sab between the user Ua and the user Ub using Va and Vb, and stores the result of associating Ub and Sab in the buffer Q. The following various methods can be used as the similarity calculation method. Hereinafter, it can be determined that the similarity between users is higher as the value of Sab is larger.

第1の計算方法は、下記の数式(2)に従って、VaとVbが共に正の値(0より大きな値)となるベクトル要素の数をカウントする方法である。コンテンツの同じブロックに対して反応を示すユーザは類似性が高いという判断に基づく処理である。

Figure 2011128790
The first calculation method is a method of counting the number of vector elements in which Va and Vb are both positive values (values greater than 0) according to the following formula (2). This process is based on the determination that users who respond to the same block of content have high similarity.
Figure 2011128790

第2の計算方法は、下記の数式(3)に従って、VaとVbのコサイン尺度(2つのベクトルのコサイン角度)を計算する方法である。数 式(3)の分子は、VaとVbの内積であり、分母はVaのノルムとVbのノルムの積である。

Figure 2011128790
The second calculation method is a method of calculating a cosine measure (cosine angle of two vectors) of Va and Vb according to the following formula (3). The numerator of Equation (3) is the inner product of Va and Vb, and the denominator is the product of the norm of Va and the norm of Vb.
Figure 2011128790

第3の計算方法は、下記の数式(4)に従って、VaとVbの相関係数を計算する方法である。数式(4)において、Vamは、Va[i](i=1〜Nz)の平均値、Vbmは、Vb[i](i=1〜Nz)の平均値である。なお、数式(4)では、i=1〜Nzの全てのグローバルブロックの集約値を用いて、相関係数を計算しているが、一部のグローバルブロックの集約値のみを用いて相関係数を計算してもよい。例えば、VaとVbが共に正の値となるグローバルブロックの集合を作成し、この集合を対象としてVaの平均値VamとVbの平均値Vbmをそれぞれ計算した後、数式(4)の各々のΣで示されている加算演算を前記集合を対象として行い、相関係数を計算してもよい。

Figure 2011128790
The third calculation method is a method of calculating a correlation coefficient between Va and Vb according to the following formula (4). In Equation (4), Vam is an average value of Va [i] (i = 1 to Nz), and Vbm is an average value of Vb [i] (i = 1 to Nz). In Equation (4), the correlation coefficient is calculated using the aggregate values of all global blocks of i = 1 to Nz, but the correlation coefficient is calculated using only the aggregate values of some global blocks. May be calculated. For example, a set of global blocks in which Va and Vb are both positive values is created, and the average value Vam of Va and the average value Vbm of Vb are respectively calculated for this set, and then each Σ in Equation (4) is calculated. The correlation coefficient may be calculated by performing the addition operation shown in FIG.
Figure 2011128790

第4の計算方法は、下記の数式(5)に従って、VaとVbの距離を計算し、これを用いて類似度を計算する方法である。広義の意味では、距離も類似度の内に入るが、距離が小さいほど類似性が高くなる。Sabの値が大きいほど類似性が高くなるようにした方が都合がよいので、数式(5)を用いる。ここでαは定数である。なお、ここではユークリッド距離を用いているが、マハラノビス距離を用いてもよい。また、VaとVbの差の2乗の代わりに、VaとVbの差の絶対値を計算して用いてもよい。

Figure 2011128790
The fourth calculation method is a method of calculating the distance between Va and Vb according to the following formula (5) and calculating the similarity using this. In a broad sense, the distance falls within the similarity, but the similarity increases as the distance decreases. Since it is convenient to make the similarity higher as the value of Sab is larger, Expression (5) is used. Here, α is a constant. Although the Euclidean distance is used here, the Mahalanobis distance may be used. Further, instead of the square of the difference between Va and Vb, the absolute value of the difference between Va and Vb may be calculated and used.
Figure 2011128790

第5の計算方法は、下記の数式(6)に従って、VaとVbの距離を計算し、これを用いて類似度を計算する方法である。β、γ、λは定数であり、γは通常1未満である。なお、ここではユークリッド距離を用いているが、マハラノビス距離を用いてもよい。また、VaとVbの差の2乗の代わりに、VaとVbの差の絶対値を計算して用いてもよい。

Figure 2011128790
The fifth calculation method is a method of calculating the distance between Va and Vb according to the following formula (6) and calculating the similarity using this. β, γ, and λ are constants, and γ is usually less than 1. Although the Euclidean distance is used here, the Mahalanobis distance may be used. Further, instead of the square of the difference between Va and Vb, the absolute value of the difference between Va and Vb may be calculated and used.
Figure 2011128790

第6の計算方法は、下記の数式(7)に従って、VaとVbの内積と、Va、Vbそれぞれの2乗和を用いて計算する方法である。

Figure 2011128790
The sixth calculation method is a method of calculating using the inner product of Va and Vb and the sum of squares of Va and Vb according to the following formula (7).
Figure 2011128790

さらに、上記第1〜第6の計算方法を組合せて類似度Sabを計算してもよい。例えば、第2の計算方法と、第4の計算方法を組合せて、下記の数式(8)に従って計算してもよい。ここで、μ、νは定数である。

Figure 2011128790
Furthermore, the similarity Sab may be calculated by combining the first to sixth calculation methods. For example, the second calculation method and the fourth calculation method may be combined to calculate according to the following formula (8). Here, μ and ν are constants.
Figure 2011128790

以上が類似度Sabの計算方法の説明である。   The above is the description of the method for calculating the similarity Sab.

次にステップS740において、類似度計算手段13は、集約データ格納部33を参照しながら、Ua以外のユーザIDで、まだ処理を行っていないユーザIDがあるか否か判定する。未処理のユーザIDが存在する場合はステップS710に進み、未処理のユーザIDが存在しなければ、ステップS750に進む。   Next, in step S740, the similarity calculation unit 13 determines whether there is a user ID that has not been processed yet with a user ID other than Ua while referring to the aggregated data storage unit 33. If there is an unprocessed user ID, the process proceeds to step S710. If there is no unprocessed user ID, the process proceeds to step S750.

次にステップS750において、類似度計算手段13は、一のユーザを除く他のユーザのユーザIDと類似度Sabとがそれぞれ記憶されているバッファQを参照し、類似度の高いユーザを以下の方法で選ぶ。   Next, in step S750, the similarity calculation means 13 refers to the buffer Q in which the user IDs and similarity Sabs of other users other than one user are stored, and uses the following method to identify users with high similarity. Select with.

第1の選択方法は、類似度Sabが所定値以上のユーザを選ぶ方法である。また、所定値以上のユーザの人数が多すぎる場合や、人数が少なすぎる場合には、所定値を変更してユーザを選択し直してもよい。   The first selection method is a method of selecting a user whose similarity Sab is a predetermined value or more. In addition, when the number of users equal to or greater than the predetermined value is too large or the number of users is too small, the predetermined value may be changed and the user may be selected again.

第2の選択方法は、類似度Sabを大きい順に並べた場合の上位から所定の人数を超えない人数だけ選択する方法である。バッファQに所定数より多いユーザが存在する場合は、Sabの大きい順に所定数だけユーザを選択し、そうでない場合は、バッファQに存在する全てのユーザを選択する。   The second selection method is a method of selecting only the number of people that does not exceed a predetermined number from the top when the similarity Sab is arranged in descending order. When there are more users than the predetermined number in the buffer Q, a predetermined number of users are selected in descending order of Sab. Otherwise, all the users existing in the buffer Q are selected.

また、第1の選択方法と第2の選択方法を組合せてもよい。例えば、類似度Sabが所定値以上のユーザを候補として、その中から類似度の高い順に所定の人数を超えない人数だけ選択してもよい。すなわち、類似度Sabが所定値以上のユーザの人数が所定の人数よりも多い場合は、Sabの大きい順に所定の人数を選択し、そうでない場合は、Sabが所定値以上の全てのユーザを選択する。更に、ユーザ属性格納手段16に格納されているユーザ属性データの中に、一のユーザが紹介を希望する他のユーザに関する条件が含まれている場合には、それに合致するユーザを対象にして、第1の選択方法、または第2の選択方法、または第1の選択方法と第2の選択方法を組合せた方法などにより、類似度の高いユーザを選択しても良い。   Further, the first selection method and the second selection method may be combined. For example, users whose similarity Sab is equal to or greater than a predetermined value may be selected as candidates, and only those who do not exceed a predetermined number may be selected in descending order of similarity. In other words, if the number of users whose similarity Sab is greater than or equal to a predetermined value is greater than the predetermined number, select the predetermined number of people in descending order of Sab, otherwise select all users whose Sab is greater than or equal to the predetermined value. To do. Furthermore, in the case where the user attribute data stored in the user attribute storage means 16 includes a condition regarding another user that one user wants to introduce, the user who matches the condition is targeted. A user with a high degree of similarity may be selected by the first selection method, the second selection method, or a combination of the first selection method and the second selection method.

次にステップS760において、類似度計算手段13は、ステップS750で選択されたユーザのユーザIDに対応するユーザ属性データをユーザ属性格納手段16から読み出し、送受信手段14を介して、一のユーザの利用する再生装置2に送信する。   Next, in step S760, the similarity calculation unit 13 reads the user attribute data corresponding to the user ID of the user selected in step S750 from the user attribute storage unit 16, and uses one user via the transmission / reception unit 14. To the playback device 2 to be transmitted.

また上記とは別の方法として、類似度計算手段13において特開2005−71126号公報などに記載の方法をベースに更に変形して用いてもよい。すなわち、ユーザIDを行列の行または列に対応させ、グローバルブロック番号をもう一方の列または行に対応させ、行列要素が集約値である行列を形成する。そして、この行列に対して数量化3類や主成分分析などの多変量解析手法を適用し、グローバルブロック数Nzよりも小さな次元を持つ低次元ベクトル(スコアベクトル)を形成し、一のユーザの低次元ベクトルと他のユーザの低次元ベクトルの類似度を上記のステップS730と同様に計算して、類似度の高いユーザを選択してもよい。これにより、ユーザ間の類似度をさらに精度よく計算することができる。また、計算量をさらに削減することができる。   As another method different from the above, the similarity calculation means 13 may be further modified based on the method described in JP-A-2005-71126. That is, the user ID is made to correspond to the row or column of the matrix, the global block number is made to correspond to the other column or row, and a matrix whose matrix elements are aggregate values is formed. Then, a multivariate analysis method such as quantification type 3 or principal component analysis is applied to this matrix to form a low-dimensional vector (score vector) having a dimension smaller than the global block number Nz. The similarity between the low-dimensional vector and the low-dimensional vector of another user may be calculated in the same manner as in step S730, and a user with a high similarity may be selected. Thereby, the similarity between users can be calculated more accurately. In addition, the calculation amount can be further reduced.

以上が類似度計算手段13の動作の説明である。   The above is the description of the operation of the similarity calculation unit 13.

再生装置2の制御手段25は、ユーザ情報処理装置1から類似ユーザの属性情報を送受信手段24を介して受信し、表示装置27にその情報を表示させる。これにより、一のユーザは自分とコンテンツに対する興味、嗜好、センスが類似するユーザの情報を知ることができ、そのユーザとコンタクトを取ることも可能になる。   The control unit 25 of the playback device 2 receives the attribute information of the similar user from the user information processing device 1 via the transmission / reception unit 24 and causes the display device 27 to display the information. As a result, one user can know information about a user who has similar interests, preferences, and senses with the content, and can make contact with the user.

また、一のユーザに対して、類似ユーザの情報を提供するだけでなく、他の情報を提供してもよい。例えば、ユーザ情報処理装置1が、コンテンツIDに対応させてコンテンツのタイトル、制作者、ジャンル、制作年、説明文等のコンテンツ属性情報を格納すると共に、ユーザ反応データ格納手段11の中から、類似ユーザの利用頻度が高く、かつ一のユーザの利用頻度が少ない(または利用していない)コンテンツのコンテンツIDを選択し、選択したコンテンツIDに対応するコンテンツ属性情報を一のユーザに対して提供してもよい。   Further, not only information on similar users but also other information may be provided to one user. For example, the user information processing apparatus 1 stores content attribute information such as a content title, a creator, a genre, a production year, and an explanatory text in association with the content ID, and the user response data storage unit 11 selects a similar one. Select a content ID of content that is frequently used by a user and low (or not used) by one user, and provide content attribute information corresponding to the selected content ID to one user May be.

実施例2のシステム全体の構成を図22に示す。実施例1では、ユーザ情報処理装置1と再生装置2が別々の装置であったが、実施例2においては、この2つの装置の機能を併せ持つ統合装置5を用いる。複数の統合装置5がネットワーク3を介して、ピアツーピアでお互いに接続可能なシステムである。統合装置5は、ユーザ情報処理部51と、再生部52で構成されている。ユーザ情報処理部51の構成および動作は、実施例1におけるユーザ情報処理装置1と同様である。また再生部52の構成および動作は、実施例1における再生装置2と同様である。   The overall system configuration of the second embodiment is shown in FIG. In the first embodiment, the user information processing apparatus 1 and the playback apparatus 2 are separate apparatuses. However, in the second embodiment, an integrated apparatus 5 having both functions of the two apparatuses is used. In this system, a plurality of integrated devices 5 can be connected to each other via a network 3 in a peer-to-peer manner. The integration device 5 includes a user information processing unit 51 and a playback unit 52. The configuration and operation of the user information processing unit 51 are the same as those of the user information processing apparatus 1 in the first embodiment. The configuration and operation of the playback unit 52 are the same as those of the playback device 2 in the first embodiment.

1 ユーザ情報処理装置
2(2a〜2n) 再生装置
3 ネットワーク
5(5a〜5n) 統合装置
11 ユーザ反応データ格納手段
12 集約データ計算手段
13 類似度計算手段
14 送受信手段
15 制御手段
16 ユーザ属性格納手段
18 反応データ集計手段
19 ブロック情報生成手段
21 コンテンツ再生手段
22 ユーザ状態認識手段
23 ユーザ反応データ作成手段
24 送受信手段
25 制御手段
26 ユーザ属性格納手段
27 表示装置
28 音声出力装置
29 入力装置
30 センサ装置
33 集約データ格納部
41 表示装置
42 入力装置
DESCRIPTION OF SYMBOLS 1 User information processing apparatus 2 (2a-2n) Playback apparatus 3 Network 5 (5a-5n) Integration apparatus 11 User reaction data storage means 12 Aggregated data calculation means 13 Similarity calculation means 14 Transmission / reception means 15 Control means 16 User attribute storage means 18 reaction data totaling means 19 block information generating means 21 content reproducing means 22 user state recognizing means 23 user reaction data creating means 24 transmitting / receiving means 25 control means 26 user attribute storage means 27 display device 28 audio output device 29 input device 30 sensor device 33 Aggregated data storage unit 41 Display device 42 Input device

Claims (20)

コンピュータを、
ユーザを識別するためのユーザ識別情報と、コンテンツの再生位置を示す位置情報と、その位置情報に対応する前記ユーザの状態情報とを関連付けた反応データを読み込んで、前記位置情報を所定の開始位置と所定の終了位置を持つ各フレームに対応させると共に、前記フレームごとに複数のユーザの前記反応データを集計した反応データ集計値を算出する反応データ集計手段、
前記反応データ集計値の分布情報を用いて、1つ以上の前記フレームをグループ化し、各グループの先頭のフレームの前記開始位置と末尾のフレーム前記終了位置との間にある前記位置情報を同一のブロックに対応させるためのブロック情報を生成するブロック情報生成手段、
前記ブロック情報に基づいて、前記反応データの前記位置情報をブロックに対応させて、前記ユーザ識別情報ごとに、前記ブロックごとに複数の前記反応データを集約した集約データを計算する集約データ計算手段、
一のユーザの前記集約データと、他のユーザの前記集約データとを用いて、一のユーザと他のユーザとの類似度を計算する類似度計算手段、
として機能させるためのユーザ情報処理プログラム。
Computer
Read reaction data associating user identification information for identifying the user, position information indicating the reproduction position of the content, and the user status information corresponding to the position information, and the position information is set to a predetermined start position. And reaction data totaling means for calculating a reaction data total value obtained by totaling the reaction data of a plurality of users for each frame, and corresponding to each frame having a predetermined end position,
One or more of the frames are grouped using the distribution information of the reaction data aggregate value, and the position information between the start position and the end frame of the first frame of each group is the same. Block information generating means for generating block information to correspond to the block;
Based on the block information, the position information of the reaction data is associated with the block, and for each of the user identification information, aggregated data calculation means for calculating aggregated data by aggregating a plurality of the reaction data for each block,
Similarity calculation means for calculating the similarity between one user and another user using the aggregated data of one user and the aggregated data of another user;
User information processing program for functioning as
前記ブロック情報生成手段は、前記反応データ集計値が所定値以下のフレームの前のフレームと後のフレームが、異なるブロックに対応するように制御して前記ブロック情報を生成する、
請求項1に記載のユーザ情報処理プログラム。
The block information generating means generates the block information by controlling the frame before and after the frame whose reaction data total value is a predetermined value or less to correspond to different blocks.
The user information processing program according to claim 1.
前記ブロック情報生成手段は、前記反応データ集計値が所定値以下 のフレームが所定個数以上連続する区間を検出し、その区間の前のフレームと後のフレームが、異なるブロックに対応するように制御して前記ブロック情報を生成する、
請求項1に記載のユーザ情報処理プログラム。
The block information generation means detects a section in which a predetermined number or more of frames whose reaction data total value is less than or equal to a predetermined value is detected, and controls so that a frame before and after the section corresponds to different blocks. To generate the block information,
The user information processing program according to claim 1.
前記ブロック情報生成手段は、前記反応データ集計値が第1の所定値以下のフレームが所定個数以上連続する区間を検出し、その区間において、前記反応データ集計値が前記第1の所定値よりも小さい第2の所定値以下のフレームが存在する場合に、その区間の前のフレームと後のフレームが、異なるブロックに対応するように制御して前記ブロック情報を生成する、
請求項1に記載のユーザ情報処理プログラム。
The block information generating means detects a section where a predetermined number or more of frames whose reaction data total value is less than or equal to a first predetermined value is detected, and in that section, the reaction data total value is greater than the first predetermined value. When there is a small frame equal to or smaller than the second predetermined value, the block information is generated by controlling the previous frame and the subsequent frame of the section to correspond to different blocks.
The user information processing program according to claim 1.
前記ブロック情報生成手段は、前記反応データ集計値が極小となる極小フレームを検出し、その極小フレームの前のフレームと後のフレームが、異なるブロックに対応するように制御して前記ブロック情報を生成する、
請求項1から4のいずれかに記載のユーザ情報処理プログラム。
The block information generating means detects a minimal frame where the reaction data total value is minimized, and generates the block information by controlling so that a frame before and after the minimal frame correspond to different blocks. To
The user information processing program according to any one of claims 1 to 4.
前記ブロック情報生成手段は、前記反応データ集計値が極小となる極小フレーム、および前記反応データ集計値が極大となる極大フレームを検出し、検出された一の極小フレームと、前記一の極小フレームの両側にある直近の2つの前記極大フレームとの距離を算出し、少なくとも一方 の距離が所定値以上である場合に、前記一の極小フレームの前のフレームと後のフレームが、異なるブロックに対応するように制御して前記ブロック情報を生成する、
請求項1から5のいずれかに記載のユーザ情報処理プログラム。
The block information generating means detects a minimum frame in which the reaction data total value is minimum, and a maximum frame in which the reaction data total value is maximum, and detects one minimum frame and the one minimum frame. The distance between the two nearest maximum frames on both sides is calculated, and when at least one of the distances is equal to or greater than a predetermined value, the previous frame and the subsequent frame of the one minimum frame correspond to different blocks. Control to generate the block information,
The user information processing program according to any one of claims 1 to 5.
前記ブロック情報生成手段は、前記反応データ集計値が極小となる極小フレーム、および前記反応データ集計値が極大となる極大フレームを検出し、検出された一の極小フレームの極小値と、前記一の極小フレームの両側にある直近の2つの前記極大フレームの極大値との差分を算出し、少なくとも一方の差分が所定値以上である場合に、前記一の極小フレームの前のフレームと後のフレームが、異なるブロックに対応するように制御して前記ブロック情報を生成する、
請求項1から6のいずれかに記載のユーザ情報処理プログラム。
The block information generating means detects a minimum frame in which the reaction data total value is minimum, and a maximum frame in which the reaction data total value is maximum, and the detected minimum value of one minimum frame, When the difference between the maximum values of the two nearest maximum frames on both sides of the minimum frame is calculated and at least one of the differences is equal to or greater than a predetermined value, the previous frame and the subsequent frame of the one minimum frame are The block information is generated by controlling to correspond to different blocks.
The user information processing program according to any one of claims 1 to 6.
前記ブロック情報生成手段は、前記反応データ集計値が極小となる極小フレーム、および前記反応データ集計値が極大となる極大フレームを検出し、検出された一の極小フレームの極小値と、前記一の極小フレームの両側にある直近の2つの前記極大フレームの極大値との比率を算出し、少なくとも一方の比率が所定値以上である場合に、前記一の極小フレームの前のフレームと後のフレームが、異なるブロックに対応するように制御して前記ブロック情報を生成する、
請求項1から7のいずれかに記載のユーザ情報処理プログラム。
The block information generating means detects a minimum frame in which the reaction data total value is minimum, and a maximum frame in which the reaction data total value is maximum, and the detected minimum value of one minimum frame, When the ratio between the local maximum values of the two nearest local maximum frames on both sides of the local minimum frame is calculated and at least one of the ratios is equal to or larger than a predetermined value, The block information is generated by controlling to correspond to different blocks.
The user information processing program according to claim 1.
前記反応データ集計手段は、前記フレームごとにユーザ反応データの存在するユーザ数を集計した値を前記反応データ集計値とする、
請求項1から8のいずれかに記載のユーザ情報処理プログラム。
The reaction data totaling means sets the value obtained by totaling the number of users having user response data for each frame as the reaction data total value.
The user information processing program according to claim 1.
前記反応データ集計手段は、前記フレームごとにユーザ反応データの反応度合いを加算した値を前記反応データ集計値とする、
請求項1から8のいずれかに記載のユーザ情報処理プログラム。
The reaction data totaling means sets the value obtained by adding the reaction degree of user response data for each frame as the reaction data total value.
The user information processing program according to claim 1.
前記反応データ集計手段は、複数種類の前記状態情報を含む前記反応データを読み込んで、前記状態情報の種類ごとに前記反応データ集計値を算出し、
前記ブロック情報生成手段は、前記状態情報の種類ごとに前記ブロック情報を生成す る、
請求項1から10のいずれかに記載のユーザ情報処理プログラム。
The reaction data totaling unit reads the reaction data including a plurality of types of state information, calculates the reaction data total value for each type of the state information,
The block information generating means generates the block information for each type of the state information;
The user information processing program according to claim 1.
前記ブロック情報生成手段は、一の種類の前記状態情報の前記反応データ集計値を対象として、隣接するフレームの一方が所定値未満であり、隣接するフレームのもう一方が所定値以上であるフレームを中間フレームとして検出し、前記中間フレームの前のフレームと後のフレームが、異なるブロックに対応するように制御して、前記一の種類以外の他の種類の前記状態情報に対応する前記ブロック情報を生成する、
請求項11に記載のユーザ情報処理プログラム。
The block information generation means, for the reaction data total value of one type of the state information, targets one of the adjacent frames that is less than a predetermined value and the other of the adjacent frames is a predetermined value or more. Detecting as an intermediate frame, controlling the previous frame and the subsequent frame of the intermediate frame to correspond to different blocks, and the block information corresponding to the status information of another type other than the one type Generate,
The user information processing program according to claim 11.
前記類似度計算手段は、一のユーザの前記集約データで構成された一のベクトルデータと、他のユーザの前記集約データで構成された他のベクトルデータとを用いて、前記類似度を計算する、
請求項1から12のいずれかに記載のユーザ情報処理プログラム。
The similarity calculation means calculates the similarity using one vector data composed of the aggregated data of one user and other vector data composed of the aggregated data of another user. ,
The user information processing program according to claim 1.
前記類似度計算手段は、前記集約データ計算手段で計算された前記集約データに多変量解析手法を適用して、前記集約データの次元数よりも少ない次元数を持つ低次元ベクトルを算出すると共に、一のユーザの前記低次元ベクトルである一のベクトルデータと、他のユーザの前記低次元ベクトルである他のベクトルデータとを用いて、前記類似度を計算する、
請求項1から12のいずれかに記載のユーザ情報処理プログラム。
The similarity calculation means applies a multivariate analysis method to the aggregate data calculated by the aggregate data calculation means, calculates a low-dimensional vector having a number of dimensions smaller than the number of dimensions of the aggregate data, The similarity is calculated using one vector data that is the low-dimensional vector of one user and another vector data that is the low-dimensional vector of another user.
The user information processing program according to claim 1.
前記類似度計算手段は、
前記一のベクトルデータと、前記他のベクトルデータが共に正の値であるベクトル要素の数を用いて、
または、前記一のベクトルデータと、前記他のベクトルデータとの内 積を用いて、
または、前記一のベクトルデータと、前記他のベクトルデータとの相関係数を用いて、
または、前記一のベクトルデータと、前記他のベクトルデータとの距離を用いて、
前記類似度を計算する、
請求項13または14に記載のユーザ情報処理プログラム。
The similarity calculation means includes:
Using the number of vector elements in which the one vector data and the other vector data are both positive values,
Alternatively, using the inner product of the one vector data and the other vector data,
Alternatively, using a correlation coefficient between the one vector data and the other vector data,
Alternatively, using the distance between the one vector data and the other vector data,
Calculating the similarity,
The user information processing program according to claim 13 or 14.
前記類似度計算手段は、
前記一のベクトルデータと、前記他のベクトルデータが共に正の値であるベクトル要素の数と、
前記一のベクトルデータと、前記他のベクトルデータとの内 積と、
前記一のベクトルデータと、前記他のベクトルデータとの相関係数と、
前記一のベクトルデータと、前記他のベクトルデータとの距離と、
のうちの1つ以上を用いて 複数の値を算出し、算出されたそれぞれの値に所定の重み係数を乗算した値を加算して、前記類似度を計算する、
請求項13または14に記載のユーザ情報処理プログラム。
The similarity calculation means includes:
The number of vector elements in which the one vector data and the other vector data are both positive values;
An inner product of the one vector data and the other vector data;
A correlation coefficient between the one vector data and the other vector data;
A distance between the one vector data and the other vector data;
Calculating a plurality of values using one or more of them, adding a value obtained by multiplying each calculated value by a predetermined weighting factor, and calculating the similarity.
The user information processing program according to claim 13 or 14.
前記類似度計算手段は更に、前記類似度が所定値以上である他のユーザ、または前記類似度が大きい順に所定数を超えない数の他のユーザを一のユーザに対して選択する、
請求項1から16のいずれかに記載のユーザ情報処理プログラム。
The similarity calculation means further selects, for one user, another user whose similarity is equal to or greater than a predetermined value, or another user whose number does not exceed a predetermined number in descending order of the similarity.
The user information processing program according to any one of claims 1 to 16.
前記類似度計算手段は更に、一のユーザが希望する条件と合致するユーザ属性を持つ他のユーザを対象として、前記類似度が所定値以上である他のユーザ、または前記類似度が大きい順に所定数を超えない数の他のユーザを一のユーザに対して選択する、
請求項1から17のいずれかに記載のユーザ情報処理プログラム。
The similarity calculation means further targets another user having a user attribute that matches a condition desired by one user, another user whose similarity is a predetermined value or more, or predetermined in descending order of similarity. Select a number of other users that do not exceed the number,
The user information processing program according to claim 1.
ユーザを識別するためのユーザ識別情報と、コンテンツの再生位置を示す位置情報と、その位置情報に対応する前記ユーザの状態情報とを関連付けた反応データを読み込んで、前記位置情報を所定の開始位置と所定の終了位置を持つ各フレームに対応させると共に、前記フレームごとに複数のユーザの前記反応データを集計した反応データ集計値を算出する反応データ集計手段と、
前記反応データ集計値の分布情報を用いて、1つ以上の前記フレームをグループ化し、各グループの先頭のフレームの前記開始位置と末尾のフレーム前記終了位置との間にある前記位置情報を同一のブロックに対応させるためのブロック情報を生成するブロック情報生成手段と、
前記ブロック情報に基づいて、前記反応データの前記位置情報をブロックに対応させて、前記ユーザ識別情報ごとに、前記ブロックごとに複数の前記反応データを集約した集約データを計算する集約データ計算手段と、
一のユーザの前記集約データと、他のユーザの前記集約データとを用いて、一のユーザと他のユーザとの類似度を計算する類似度計算手段と、
を備えるユーザ情報処理装置。
Read reaction data associating user identification information for identifying the user, position information indicating the reproduction position of the content, and the user status information corresponding to the position information, and the position information is set to a predetermined start position. Corresponding to each frame having a predetermined end position, and reaction data totaling means for calculating a reaction data total value obtained by totaling the reaction data of a plurality of users for each frame,
One or more of the frames are grouped using the distribution information of the reaction data aggregate value, and the position information between the start position and the end frame of the first frame of each group is the same. Block information generating means for generating block information to correspond to the block;
Based on the block information, an aggregated data calculation means for calculating the aggregated data obtained by aggregating a plurality of the reaction data for each block for each of the user identification information by associating the position information of the reaction data with the block. ,
Similarity calculation means for calculating the similarity between one user and another user using the aggregated data of one user and the aggregated data of another user;
A user information processing apparatus comprising:
ユーザを識別するためのユーザ識別情報と、コンテンツの再生位置を示す位置情報と、その位置情報に対応する前記ユーザの状態情報とを関連付けた反応データを読み込んで、前記位置情報を所定の開始位置と所定の終了位置を持つ各フレームに対応させると共に、前記フレームごとに複数のユーザの前記反応データを集計した反応データ集計値を算出するステップと、
前記反応データ集計値の分布情報を用いて、1つ以上の前記フレームをグループ化し、各グループの先頭のフレームの前記開始位置と末尾のフレーム前記終了位置との間にある前記位置情報を同一のブロックに対応させるためのブロック情報を生成するステップと、
前記ブロック情報に基づいて、前記反応データの前記位置情報をブロックに対応させて、前記ユーザ識別情報ごとに、前記ブロックごとに複数の前記反応データを集約した集約データを計算するステップと、
一のユーザの前記集約データと、他のユーザの前記集約データとを用いて、一のユーザと他のユーザとの類似度を計算するステップと、
を含むユーザ情報処理方法。
Read reaction data associating user identification information for identifying the user, position information indicating the reproduction position of the content, and the user status information corresponding to the position information, and the position information is set to a predetermined start position. Corresponding to each frame having a predetermined end position, and calculating a reaction data total value obtained by totaling the reaction data of a plurality of users for each frame;
One or more of the frames are grouped using the distribution information of the reaction data aggregate value, and the position information between the start position and the end frame of the first frame of each group is the same. Generating block information to correspond to the block;
Based on the block information, associating the position information of the reaction data with a block, for each of the user identification information, calculating aggregated data obtained by aggregating a plurality of the reaction data for each block;
Calculating the degree of similarity between one user and another user using the aggregated data of one user and the aggregated data of another user;
User information processing method including
JP2009285402A 2009-12-16 2009-12-16 User information processing program, user information processor and user information processing method Pending JP2011128790A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009285402A JP2011128790A (en) 2009-12-16 2009-12-16 User information processing program, user information processor and user information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009285402A JP2011128790A (en) 2009-12-16 2009-12-16 User information processing program, user information processor and user information processing method

Publications (1)

Publication Number Publication Date
JP2011128790A true JP2011128790A (en) 2011-06-30

Family

ID=44291345

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009285402A Pending JP2011128790A (en) 2009-12-16 2009-12-16 User information processing program, user information processor and user information processing method

Country Status (1)

Country Link
JP (1) JP2011128790A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014222397A (en) * 2013-05-13 2014-11-27 日本電信電話株式会社 Feeling estimation method, device, and program
JP2015162015A (en) * 2014-02-26 2015-09-07 エヌ・ティ・ティ・コミュニケーションズ株式会社 Information acquisition system, information acquisition method, and computer program
WO2017064891A1 (en) * 2015-10-13 2017-04-20 ソニー株式会社 Information processing system, information processing method, and storage medium
JP2017533106A (en) * 2014-10-24 2017-11-09 フェロー,インコーポレイテッド Customer service robot and related systems and methods
US10311400B2 (en) 2014-10-24 2019-06-04 Fellow, Inc. Intelligent service robot and related systems and methods
US10373116B2 (en) 2014-10-24 2019-08-06 Fellow, Inc. Intelligent inventory management and related systems and methods
US10586082B1 (en) 2019-05-29 2020-03-10 Fellow, Inc. Advanced micro-location of RFID tags in spatial environments
JP6905775B1 (en) * 2020-10-27 2021-07-21 株式会社Theater Guild Programs, information processing equipment and methods

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014222397A (en) * 2013-05-13 2014-11-27 日本電信電話株式会社 Feeling estimation method, device, and program
JP2015162015A (en) * 2014-02-26 2015-09-07 エヌ・ティ・ティ・コミュニケーションズ株式会社 Information acquisition system, information acquisition method, and computer program
US10373116B2 (en) 2014-10-24 2019-08-06 Fellow, Inc. Intelligent inventory management and related systems and methods
JP2017533106A (en) * 2014-10-24 2017-11-09 フェロー,インコーポレイテッド Customer service robot and related systems and methods
US10311400B2 (en) 2014-10-24 2019-06-04 Fellow, Inc. Intelligent service robot and related systems and methods
JPWO2017064891A1 (en) * 2015-10-13 2018-08-02 ソニー株式会社 Information processing system, information processing method, and storage medium
WO2017064891A1 (en) * 2015-10-13 2017-04-20 ソニー株式会社 Information processing system, information processing method, and storage medium
US10754864B2 (en) 2015-10-13 2020-08-25 Sony Corporation Information processing system and information processing method to specify persons with good affinity toward each other
US11341148B2 (en) 2015-10-13 2022-05-24 Sony Corporation Information processing system and information processing method to specify persons with good affinity toward each other
US10586082B1 (en) 2019-05-29 2020-03-10 Fellow, Inc. Advanced micro-location of RFID tags in spatial environments
JP6905775B1 (en) * 2020-10-27 2021-07-21 株式会社Theater Guild Programs, information processing equipment and methods
WO2022091493A1 (en) * 2020-10-27 2022-05-05 株式会社Theater Guild Program, information processing device, and method
JP2022070404A (en) * 2020-10-27 2022-05-13 株式会社Theater Guild Program, information processing device and method

Similar Documents

Publication Publication Date Title
JP2011129997A (en) User information processing program, reproducing program, user information processor, reproducing device, user information processing method, and reproducing method
JP2011128790A (en) User information processing program, user information processor and user information processing method
JP4965322B2 (en) User support method, user support device, and user support program
US9342576B2 (en) Information processing device, information processing terminal, information processing method, and program
US20090089833A1 (en) Information processing terminal, information processing method, and program
US8407055B2 (en) Information processing apparatus and method for recognizing a user&#39;s emotion
JP5359534B2 (en) Information processing apparatus and method, and program
WO2019007249A1 (en) Interaction method, electronic device, and server
US20090089265A1 (en) Information processing apparatus, information processing method, and program
KR20150005574A (en) Controlling the presentation of a media program based on passively sensed audience reaction
US7804016B2 (en) Method and device for selecting music to be recommended for user by using music reproduction device
US20090144071A1 (en) Information processing terminal, method for information processing, and program
US11355099B2 (en) Word extraction device, related conference extraction system, and word extraction method
WO2008032787A1 (en) Feeling detection method, feeling detection device, feeling detection program containing the method, and recording medium containing the program
JP6535497B2 (en) Music recommendation system, program and music recommendation method
CN106462646A (en) Control device, control method, and computer program
JP2019036191A (en) Determination device, method for determination, and determination program
JP2009134669A (en) Information processor, information processing terminal, information processing method, and program
WO2022218027A1 (en) Audio playing method and apparatus, and computer-readable storage medium and electronic device
JP2006099195A (en) Viewing and listening content provision system and viewing and listening content provision method
JP7136099B2 (en) Information processing device, information processing method, and program
WO2019021553A1 (en) Information processing device, information processing method, and program
US20100329505A1 (en) Image processing apparatus and method for processing image
JP2021026261A (en) Information processing system, method and program
JP2023175013A (en) Taste determination system, taste determination method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120329

A072 Dismissal of procedure [no reply to invitation to correct request for examination]

Free format text: JAPANESE INTERMEDIATE CODE: A073

Effective date: 20130730