JP6089892B2 - Content acquisition apparatus, information processing apparatus, content management method, and content management program - Google Patents

Content acquisition apparatus, information processing apparatus, content management method, and content management program Download PDF

Info

Publication number
JP6089892B2
JP6089892B2 JP2013075035A JP2013075035A JP6089892B2 JP 6089892 B2 JP6089892 B2 JP 6089892B2 JP 2013075035 A JP2013075035 A JP 2013075035A JP 2013075035 A JP2013075035 A JP 2013075035A JP 6089892 B2 JP6089892 B2 JP 6089892B2
Authority
JP
Japan
Prior art keywords
content
image
additional information
touch
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013075035A
Other languages
Japanese (ja)
Other versions
JP2014199599A (en
Inventor
梨絵 白神
梨絵 白神
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013075035A priority Critical patent/JP6089892B2/en
Publication of JP2014199599A publication Critical patent/JP2014199599A/en
Application granted granted Critical
Publication of JP6089892B2 publication Critical patent/JP6089892B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、コンテンツ取得装置、情報処理装置、コンテンツ管理方法、コンテンツ管理プログラムに関する。   The present invention relates to a content acquisition device, an information processing device, a content management method, and a content management program.

静止画像や動画像を撮ることができるカメラ機能付き機器が普及している。ユーザは、これらの機器を用いて手軽に画像を撮ることができる。その結果、機器に蓄積される画像数は大量になり、ユーザが気に入った画像を抽出することは困難となる。そこで、画像を自動で整理する方法が提案されている(例えば、特許文献1〜特許文献3参照)。   Devices with a camera function that can take still images and moving images are widespread. The user can easily take an image using these devices. As a result, the number of images stored in the device becomes large, and it becomes difficult to extract images that the user likes. Therefore, a method for automatically arranging images has been proposed (see, for example, Patent Documents 1 to 3).

特開2005−39486号公報JP-A-2005-39486 特開2007−226555号公報JP 2007-226555 A 特開2010−187320号公報JP 2010-187320 A

しかしながら、たとえ、画像や音声等のコンテンツを自動で整理できる方法が提供されたとしても、コンテンツの分類情報をユーザが設定する場合には、ユーザに面倒な手間を掛けることになる。   However, even if a method for automatically organizing content such as images and sounds is provided, when the user sets content classification information, it is troublesome for the user.

そこで、一側面では、コンテンツの管理を容易にすることを目的とする。   Therefore, an object of one aspect is to facilitate the management of content.

一つの案では、コンテンツを取得する取得部と、取得したコンテンツのうち、表示されたコンテンツのタッチ画面に対するタッチ操作の種別と、タッチ操作の回数、拡縮率、角度及び優先度の少なくともいずれかと、を含む付加情報を該コンテンツに対応させて記録する記録部と、前記記録部を参照して、前記付加情報に含まれるタッチ操作の種別と、タッチ操作の回数、拡縮率、角度及び優先度の少なくともいずれかと、に従い前記コンテンツを分類し、特定のタッチ操作の分類のコンテンツを抽出する抽出部と、を有することを特徴とするコンテンツ取得装置が提供される。 In one proposal, the acquisition unit that acquires content, the type of touch operation on the touch screen of the displayed content among the acquired content , at least one of the number of touch operations, the scaling rate, the angle, and the priority, A recording unit that records additional information including the content in correspondence with the content, and by referring to the recording unit, the type of touch operation included in the additional information, the number of touch operations, the scaling rate, the angle, and the priority There is provided a content acquisition apparatus comprising: an extraction unit that classifies the content according to at least one of them and extracts content of a specific touch operation classification.

一態様によれば、コンテンツの管理を容易にすることができる。   According to one aspect, content management can be facilitated.

一実施形態にかかるコンテンツ取得装置の全体構成例を示した図である。It is the figure which showed the example of whole structure of the content acquisition apparatus concerning one Embodiment. 一実施形態にかかる付加情報付与処理を示したフローチャートである。It is the flowchart which showed the additional information provision process concerning one Embodiment. 一実施形態にかかるコンテンツ操作に対する付加情報の記録例である。It is an example of a recording of additional information for content operation according to an embodiment. 一実施形態にかかる記録部への付加情報の記録例を示した図である。It is the figure which showed the example of recording of the additional information to the recording part concerning one Embodiment. 一実施形態にかかるコンテンツ抽出処理を示したフローチャートである。It is the flowchart which showed the content extraction process concerning one Embodiment. 一実施形態にかかるコンテンツ操作に対する付加情報の記録例である。It is an example of a recording of additional information for content operation according to an embodiment. 一実施形態にかかる情報処理装置の全体構成例を示した図である。It is the figure which showed the example of whole structure of the information processing apparatus concerning one Embodiment. 一実施形態にかかるコンテンツ操作に対する付加情報の記録例である。It is an example of a recording of additional information for content operation according to an embodiment. 一実施形態にかかるコンテンツ取得装置及び情報処理装置のハードウェア構成図である。It is a hardware block diagram of the content acquisition apparatus and information processing apparatus concerning one Embodiment. 仕分け情報付与処理例を示したフローチャートである。It is the flowchart which showed the classification information provision process example. 仕分け情報付与処理例を示したフローチャートである。It is the flowchart which showed the classification information provision process example.

以下、本発明の実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, the duplicate description is abbreviate | omitted by attaching | subjecting the same code | symbol.

<はじめに>
ユーザは、カメラ機能付き機器を携帯し、手軽に画像を撮ることが多い。その結果、機器に蓄積される画像数は大量になり、ユーザが気に入った画像を抽出することは困難となる。例えば、運動会において自分の子供の徒競走をカメラで撮影する場合、ユーザは、被写体である子供の移動スピードが速いため連写モードにしてスタートからゴールまでを何十枚も撮影することがある。ユーザは、その中から気に入った写真だけを選択して保存及びプリントしたい。一方で、ユーザは、撮影された画像の枚数が多いため、1枚ずつ確認し仕分けする作業に手間がかかることを想定して、結局そのままとなってしまう場合がある。
<Introduction>
Users often carry devices with camera functions and easily take images. As a result, the number of images stored in the device becomes large, and it becomes difficult to extract images that the user likes. For example, when photographing a child race of a child with a camera at an athletic meet, the user may shoot dozens of images from the start to the goal in the continuous shooting mode because the moving speed of the child as a subject is fast. The user wants to select and save and print only his / her favorite photos. On the other hand, since the number of captured images is large, the user may end up as it is, assuming that it takes time to check and sort the images one by one.

(顔認識による分類)
最近では、静止画像や動画像の顔認識機能が発達し、ある人物の顔を認識させておいて登録すれば、その人物が映っている画像を仕分け可能な機能を実現するソフトウェアも増えている。しかし、この仕分け方法では、上記のような子供の写真の場合、全て同じ人物なのでベストショットを仕分けることは難しい。
(Classification by face recognition)
Recently, the face recognition function of still images and moving images has been developed, and if a person's face is recognized and registered, software that realizes a function that can sort images showing that person is increasing. . However, with this sorting method, it is difficult to sort the best shots in the case of the above-mentioned child photographs because they are all the same person.

(キーワードによる分類)
また、画像にキーワードなどを付加して画像をキーワードにより分類する方法もある。図10を参照しながら、画像をキーワードにより分類する方法について簡単に説明する。この場合、機器の制御部は、最初に機器に画像のサムネイルを表示する(ステップS10)。次に、制御部は、表示された画像中に仕分け対象があるかを判定する(ステップS11)。仕分け対象があると判定された場合、制御部は、ユーザがクリック操作した対象の画像を表示する(ステップS12)。次に、制御部は、キーワードによる仕分けをするかを判定する(ステップS13)。キーワードで仕分けすると判定された場合、制御部は、キーワード入力画像を表示し(ステップS14)、ユーザ操作に応じたキーワード入力を行う(ステップS15)。次に、制御部は、表示されているコンテンツ(ここでは画像)にキーワードを付与し(ステップS16)、ステップS11に戻り、次の仕分け対象があるかを判定する。
(Classification by keyword)
There is also a method of classifying an image by a keyword by adding a keyword or the like to the image. A method for classifying images by keywords will be briefly described with reference to FIG. In this case, the control unit of the device first displays an image thumbnail on the device (step S10). Next, the control unit determines whether there is a sorting target in the displayed image (step S11). When it is determined that there is a sorting target, the control unit displays an image of a target clicked by the user (step S12). Next, the control unit determines whether to sort by keyword (step S13). If it is determined to sort by keyword, the control unit displays a keyword input image (step S14) and performs keyword input according to the user operation (step S15). Next, the control unit assigns a keyword to the displayed content (here, an image) (step S16), returns to step S11, and determines whether there is a next sorting target.

なお、ステップS11にて仕分け対象がないと判定された場合、又はステップS13にてキーワードによる仕分けをしないと判定された場合、制御部は、本処理を終了させる。   If it is determined in step S11 that there is no sorting target, or if it is determined in step S13 that no sorting by keyword is performed, the control unit ends this process.

以上に説明したキーワードによる分類の場合、ユーザは、キーワード入力画面からキーワードを入力しなければならず、ユーザに面倒な手間を掛けることになる。
(会話情報や注視時間による分類)
また、画像を閲覧中に録音された会話情報や注視時間を利用して画像を分類する方法もある。図11を参照しながら、会話情報や注視時間により画像を分類する方法について簡単に説明する。この場合、機器の制御部は、最初に機器に画像のサムネイルを表示する(ステップS20)。次に、制御部は、表示された画像中に仕分け対象があるかを判定する(ステップS21)。仕分け対象があると判定された場合、制御部は、ユーザがクリック操作した対象の画像を表示する(ステップS22)。
In the case of the classification based on the keywords described above, the user has to input the keyword from the keyword input screen, which is troublesome for the user.
(Classification based on conversation information and gaze time)
There is also a method of classifying images using conversation information recorded while browsing images and gaze time. A method for classifying images according to conversation information and gaze time will be briefly described with reference to FIG. In this case, the control unit of the device first displays an image thumbnail on the device (step S20). Next, the control unit determines whether there is a sorting target in the displayed image (step S21). When it is determined that there is a sorting target, the control unit displays an image of a target clicked by the user (step S22).

次に、制御部は、画像を表示している間の会話情報を取得し、注視時間を計時する(ステップS23)。次に、制御部は、表示されているコンテンツ(ここでは画像)に会話情報や注視時間を付与する(ステップS24)。   Next, the control unit acquires conversation information while displaying an image, and measures the gaze time (step S23). Next, the control unit adds conversation information and a gaze time to the displayed content (here, an image) (step S24).

なお、ステップS21にて仕分け対象がないと判定された場合、制御部は、本処理を終了させる。   In addition, when it determines with there being no classification object in step S21, a control part complete | finishes this process.

以上に説明した会話情報や注視時間による分類の場合、1人で閲覧している時は会話をしないため、会話情報が得られず、会話情報による分類ができない。また、小店舗等、狭い空間内に不特定多数の人が密集する場所で画像を閲覧しているような場合には、閲覧者ではない周辺の人の会話情報も取り込まれることがある。この場合、注目度が誤って判定され、コンテンツが本来の関心度とは異なる分類に仕分けされてしまう可能性があり、分類の精度に欠ける結果となる。   In the case of the classification based on the conversation information and the gaze time described above, since the conversation is not performed when one person is browsing, the conversation information cannot be obtained and the classification based on the conversation information cannot be performed. In addition, when an image is viewed in a small space such as a small store where an unspecified number of people are crowded, conversation information of surrounding people who are not viewers may be captured. In this case, the degree of attention may be erroneously determined, and the content may be sorted into a classification different from the original degree of interest, resulting in a lack of classification accuracy.

そこで、以下に説明する実施形態では、閲覧者の操作情報を利用したデータの分類方法を提案する。つまり、以下の実施形態では、撮影した画像データを閲覧している際の閲覧者の画像データへの操作を示す付加情報を、該当する画像データ内(例えばExifなど)又は該当する画像データに関連付けて操作情報を記録する(タグ化)。例えば、閲覧者の画像データへの操作とは、画像データへのタッチ操作等がある。これにより、記録されている大量のデータの中から閲覧者の操作の種別によって自動分類された、特定の分類の画像データを自動的に抽出できるようにするものである。   Therefore, in the embodiment described below, a data classification method using the operation information of the viewer is proposed. In other words, in the following embodiment, additional information indicating an operation on a viewer's image data when browsing captured image data is associated with the corresponding image data (for example, Exif) or the corresponding image data. Record operation information (tagging). For example, the operation of the viewer on the image data includes a touch operation on the image data. Thus, it is possible to automatically extract image data of a specific classification automatically classified according to the type of operation of the viewer from a large amount of recorded data.

なお、以下の一実施形態では、画像についての自動分類及び特定の分類の画像の抽出について説明し、一実施形態の変形例では、音声についての自動分類及び特定の分類の音声の抽出について説明する。しかしながら、本実施形態に係るコンテンツは、これに限られず、例えば静止画像データ、動画像データ、音声データ及びこれらを組み合わせたデータに適用し得る。   In the following embodiment, automatic classification of an image and extraction of an image of a specific classification will be described. In a modification of the embodiment, automatic classification of audio and extraction of a voice of a specific classification will be described. . However, the content according to the present embodiment is not limited to this, and can be applied to, for example, still image data, moving image data, audio data, and data obtained by combining these.

[装置の全体構成]
まず、本発明の一実施形態に係るコンテンツ取得装置について、図1を参照しながら説明する。図1は、一実施形態に係るコンテンツ取得装置の全体構成を示した図である。一実施形態に係るコンテンツ取得装置10は、例えば、デジタルカメラ、録音装置、カメラ機能又は録音機能付きの携帯電話、カメラ機能又は録音機能付きのタブレット型端末、カメラ機能又は録音機能付きのスマートフォン、録音機能付きの音楽プレイヤー等であってもよい。コンテンツ取得装置10は、コンテンツを取得する手段として、コンテンツ(画像)を撮影する機能、又はコンテンツ(音声)を録音する機能の少なくともいずれかの機能を有する。
[Overall configuration of the device]
First, a content acquisition apparatus according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is a diagram illustrating an overall configuration of a content acquisition apparatus according to an embodiment. The content acquisition device 10 according to the embodiment includes, for example, a digital camera, a recording device, a mobile phone with a camera function or a recording function, a tablet terminal with a camera function or a recording function, a smartphone with a camera function or a recording function, a recording A music player with a function may be used. The content acquisition apparatus 10 has at least one of a function of capturing content (image) and a function of recording content (sound) as means for acquiring content.

コンテンツ取得装置10は、レンズ11、画像処理部12、記録部13、マイク14、音声処理部15、表示部16、制御部17、操作部18及び抽出部19を有する。   The content acquisition apparatus 10 includes a lens 11, an image processing unit 12, a recording unit 13, a microphone 14, an audio processing unit 15, a display unit 16, a control unit 17, an operation unit 18, and an extraction unit 19.

レンズ11は、例えば、図示しないシャッタとともに光学系として構成され、光を集光する。レンズ11を介して集光された光は、図示しないCMOS撮像センサにより光電変換される。光電変換されたアナログ電気信号はデジタル信号に変換され、デジタル信号は色差信号(画像信号)に変換され、画像処理部12に出力される。   For example, the lens 11 is configured as an optical system together with a shutter (not shown), and condenses light. The light condensed through the lens 11 is photoelectrically converted by a CMOS image sensor (not shown). The photoelectrically converted analog electrical signal is converted into a digital signal, and the digital signal is converted into a color difference signal (image signal) and output to the image processing unit 12.

画像処理部12は、入力した画像信号に対してJPEGのエンコードの処理等を行い、エンコードされた画像データを記録部13に出力する。   The image processing unit 12 performs JPEG encoding processing or the like on the input image signal, and outputs the encoded image data to the recording unit 13.

マイク14は、音を集音し、得られた音声信号を音声処理部15に出力する。なお、レンズ11及びマイク14は、コンテンツを取得する取得部の一例である。   The microphone 14 collects sound and outputs the obtained audio signal to the audio processing unit 15. The lens 11 and the microphone 14 are an example of an acquisition unit that acquires content.

音声処理部15は、音声信号に対して増幅処理などの所定の処理を施した音声データを記録部13に出力する。   The audio processing unit 15 outputs audio data obtained by performing predetermined processing such as amplification processing on the audio signal to the recording unit 13.

表示部16は、コンテンツ取得装置10のカメラ機能により撮影された画像や録音機能により録音された音声を示すアイコン等を表示する。表示部16には、タッチパネルが積層されてもよい。その場合、表示部16と操作部18とは一体化し、表示部16の画面に対するユーザの接触操作が、操作部18を用いた入力操作になる。ただし、表示部16と操作部18とは別体であってもよく、操作部18はキーボードやマウスであってもよい。   The display unit 16 displays an image or the like indicating an image captured by the camera function of the content acquisition device 10 or a sound recorded by the recording function. A touch panel may be stacked on the display unit 16. In that case, the display unit 16 and the operation unit 18 are integrated, and the user's contact operation on the screen of the display unit 16 becomes an input operation using the operation unit 18. However, the display unit 16 and the operation unit 18 may be separate, and the operation unit 18 may be a keyboard or a mouse.

制御部17は、レンズ11を用いて撮影された画像のうち、表示部16に表示している画像に対して操作が行われたことを示す付加情報を取得する。表示している画像に関連付けて記録部13に記録する。記録部13は、付加情報を画像又は音声のデータに関連付けて記録する。   The control unit 17 acquires additional information indicating that an operation has been performed on an image displayed on the display unit 16 among images captured using the lens 11. The image is recorded in the recording unit 13 in association with the displayed image. The recording unit 13 records additional information in association with image or audio data.

抽出部19は、画像に関連付けて記録された付加情報にしたがって画像を分類し、特定の分類の画像を抽出する。   The extraction unit 19 classifies the images according to the additional information recorded in association with the images, and extracts an image with a specific classification.

例えば、コンテンツ取得装置10のカメラ機能により撮影された画像を直ぐに表示部16に表示させてユーザに閲覧させる場合、画像1の撮影→画像1の表示→画像2の撮影→画像2の表示→・・・のように表示処理が行われる。また、表示部16には、記録部13に記録された複数の画像のサムネイルが表示されてもよい。   For example, when an image captured by the camera function of the content acquisition apparatus 10 is immediately displayed on the display unit 16 and viewed by the user, the image 1 is captured → the image 1 is displayed → the image 2 is captured → the image 2 is displayed → Display processing is performed as follows. The display unit 16 may display thumbnails of a plurality of images recorded in the recording unit 13.

ユーザは、表示されている画像に対してタッチ操作や拡大操作等の接触操作を行うことがある。制御部17は、この画像に対する接触操作を所定の入力操作と認識し、入力操作に対する必要な処理(例えば、拡大表示等)を実行する。また、制御部17は、この接触操作を付加情報として取得し、記録部13は、付加情報を接触操作した画像と関連させて記録する。つまり、本実施形態では、ユーザが画像を閲覧中、表示されている画像に対して接触操作を行った場合、操作されたことを示す付加情報を画像とリンクさせて記録しておき、記録された付加情報を画像の分類(仕分け)に使用する。これによれば、画像閲覧時のユーザ操作が画像の仕分けに利用される。具体的には、画像の閲覧時にその画像が閲覧者であるユーザによりどれくらい接触操作されたかが、ユーザがどれくらいその画像に関心があったかを示す注目度と相関関係にあるとの観点からユーザのその画像に対する注目度が推定される。これにより、ユーザの注目度に合致したコンテンツを抽出することができる。このため、ユーザによる手動でのデータの仕分け作業が不要であり、また、ユーザがキーワード等の分類条件を予め設定する手間もを省きながら、大量の画像を容易に管理することができる。   The user may perform a touch operation such as a touch operation or an enlargement operation on the displayed image. The control unit 17 recognizes the contact operation on the image as a predetermined input operation, and executes necessary processing (for example, enlarged display) for the input operation. In addition, the control unit 17 acquires this contact operation as additional information, and the recording unit 13 records the additional information in association with the image subjected to the contact operation. That is, in this embodiment, when the user performs a contact operation on the displayed image while browsing the image, additional information indicating that the operation has been performed is recorded in a linked manner with the image. The added information is used for image classification (sorting). According to this, user operation at the time of image browsing is used for sorting images. Specifically, when the image is viewed, how much the contact operation is performed by the user who is the viewer correlates with the degree of attention indicating how much the user is interested in the image. The degree of attention to is estimated. As a result, it is possible to extract content that matches the degree of attention of the user. Therefore, manual data sorting by the user is unnecessary, and a large amount of images can be easily managed while saving the user from having to set classification conditions such as keywords in advance.

ここで、表示している画像に対して行われる操作としては、例えば、以下の操作を一例として挙げることができる。
1.表示されている画像へのタッチ操作及びタッチ操作の回数
2.表示されている画像を拡大表示させるための操作
3.表示されている画像を回転させるための操作
4.表示されている画像に何らかの加工を施すための操作、例えば、ソフトウェア(アプリケーションプログラム)を使って画像にスタンプを押したり、吹き出しをつけたりする等の加工が施された場合
5.指で丸くなぞるなど、ユーザがカスタマイズした特定のタッチ操作
ただし、表示している画像に対して行われる操作のうち付加情報として記録される操作は、上記操作例に限られない。また、同一画像に対する複数の操作については、複数の操作のそれぞれが付加情報としてその画像に関連付けて記録される。
Here, as an operation performed on the displayed image, for example, the following operation can be given as an example.
1. 1. Touch operation to the displayed image and the number of touch operations 2. An operation for enlarging the displayed image. 3. Operation for rotating the displayed image 4. An operation for performing some processing on the displayed image, for example, processing such as pressing a stamp or adding a balloon to the image using software (application program). Specific touch operations customized by the user such as tracing with a finger, etc. However, operations recorded as additional information among operations performed on the displayed image are not limited to the above-described operation examples. For a plurality of operations on the same image, each of the plurality of operations is recorded as additional information in association with the image.

[付加情報付与処理]
次に、本実施形態に係るコンテンツ取得装置において実行される付加情報付与処理について、図2を参照しながら説明する。図2は、一実施形態に係る付加情報付与処理を示したフローチャートである。
[Additional information assignment processing]
Next, the additional information addition process executed in the content acquisition apparatus according to the present embodiment will be described with reference to FIG. FIG. 2 is a flowchart showing additional information provision processing according to an embodiment.

例えば、ユーザが子供の運動会の写真を一人で閲覧する場合、ユーザの閲覧操作に応じて、制御部17は、表示部16に子供の運動会の画像又はサムネイルを表示させる(ステップS30)。次に、制御部17は、表示されているコンテンツ(ここでは、画像)のいずれかに対して仕分け(分類)対象となる操作、すなわち、付加情報を付与すべき操作が行われたかを判定する(ステップS31)。具体例としては、制御部17は、表示部16に積層されたタッチパネルからの電気信号に基づき、タッチ画面の所望の位置が操作されたことを示す情報を得る。制御部17は、この情報に基づき、仕分け対象となる画像への操作が行われたかを判定する。なお、画像が操作されるとは、画像が表示されている画面への接触操作に限られず、画像が表示されている画面への近接操作を検出できる場合には、検出された近接操作も画像が操作される場合に含まれる。   For example, when a user browses a picture of a child's athletic meet alone, the control unit 17 causes the display unit 16 to display an image or thumbnail of the child's athletic meet in accordance with the user's browsing operation (step S30). Next, the control unit 17 determines whether an operation to be classified (classified), that is, an operation to add additional information has been performed on any of the displayed contents (here, images). (Step S31). As a specific example, the control unit 17 obtains information indicating that a desired position on the touch screen has been operated based on an electrical signal from a touch panel stacked on the display unit 16. Based on this information, the control unit 17 determines whether an operation on the image to be sorted has been performed. The operation of the image is not limited to the contact operation on the screen on which the image is displayed. If the proximity operation on the screen on which the image is displayed can be detected, the detected proximity operation is also performed on the image. Included when is manipulated.

仕分け対象となる操作が行われたと判定された場合、記録部13は、操作種別を取得し(ステップS32)、操作種別を含む付加情報をその画像に関連付けて記録する(ステップS33)。ここで、付加情報の記録方法としては、2通り考えられる。一つは、記録部13が、コンテンツ取得装置10の記録領域に画像データに関連付けて付加情報を記録する方法である。もう一つは、記録部13が、画像データ自体がもつExifという記録領域に付加情報を記録させる方法である。Exifとは、画像データなどに埋め込まれるメタデータで、撮影時の位置情報(緯度経度)や撮影状態(露出やシャッタースピードなど)が記録されている。なお、Exif領域に記録された情報を見たり、書き換えたりするには専用のツールが必要である。   When it is determined that an operation to be classified is performed, the recording unit 13 acquires an operation type (step S32), and records additional information including the operation type in association with the image (step S33). Here, there are two possible ways of recording additional information. One is a method in which the recording unit 13 records additional information in the recording area of the content acquisition apparatus 10 in association with image data. The other is a method in which the recording unit 13 records additional information in a recording area called Exif included in the image data itself. Exif is metadata embedded in image data or the like, in which position information (latitude and longitude) at the time of shooting and shooting conditions (such as exposure and shutter speed) are recorded. A special tool is required to view and rewrite information recorded in the Exif area.

各画像データのExif領域に画像に関連付けて付加情報を記録する場合も、コンテンツ取得装置10の記録領域に各画像に関連付けて付加情報を記録する場合も、記録部13が、表示しているコンテンツに対する操作を示す付加情報を該コンテンツに関連付けて記録する。画像データ自体と付加情報とを関連付けて記録させてもよいし、画像を識別するための画像IDと付加情報とを関連付けて記録してもよい。   Whether the additional information is recorded in association with the image in the Exif area of each image data or the additional information is recorded in association with each image in the recording area of the content acquisition apparatus 10, the recording unit 13 displays the displayed content. Is recorded in association with the content. The image data itself and additional information may be recorded in association with each other, or an image ID for identifying an image and additional information may be recorded in association with each other.

ステップS31にて、仕分け対象となる操作は行われていないと判定された場合、付加情報を付与することなく、ステップS34に進む。ステップS34では、制御部17は、画像の表示を続けるかを判定する。画像の表示を続けると判定された場合、ステップS31〜ステップS34の処理を繰り返し、ステップS34にて画像の表示を続けないと判定された場合、本処理が終了する。   If it is determined in step S31 that the operation to be classified is not performed, the process proceeds to step S34 without adding additional information. In step S34, the control unit 17 determines whether to continue displaying images. If it is determined that the image display is to be continued, the processes of steps S31 to S34 are repeated. If it is determined in step S34 that the image display is not to be continued, this process ends.

例えば、図3(a)には、表示部13に表示されている複数のサムネイルからユーザにより任意の画像がタッチされた場合に実行される付加情報付与処理の結果が示されている。図3(a)〜図3(e)の右側の枠内は、各画像に設けられたExif領域への記録内容を簡略化して示したものである。ここでは、タッチされた画像のコンテンツIDを「0001」とする。この場合、記録部14は、タッチ操作が行われたことと、タッチ回数が2回であることを示す<Touch>、<cout>2の付加情報を「0001」のコンテンツIDを持つ画像のExif領域に記録する。   For example, FIG. 3A shows a result of an additional information adding process executed when an arbitrary image is touched by the user from a plurality of thumbnails displayed on the display unit 13. In the right frame of FIGS. 3A to 3E, the contents recorded in the Exif area provided in each image are shown in a simplified manner. Here, the content ID of the touched image is “0001”. In this case, the recording unit 14 uses the Exif of the image having the content ID “0001” as additional information of <Touch> and <cout> 2 indicating that the touch operation has been performed and the number of touches is two. Record in the area.

Exifの領域以外のコンテンツ取得装置10が有する記録領域(データベース)に「0001」のコンテンツIDに関連付けて上記の付加情報を記録してもよい。その場合、図4に示したように、HDDやRAM等で構成される所定の記録領域には、コンテンツID401が「0001」に関連付けて、操作種別402が「タッチ」であり、回数403が「2」であることが記録される。   The additional information may be recorded in association with the content ID “0001” in a recording area (database) of the content acquisition apparatus 10 other than the Exif area. In this case, as shown in FIG. 4, the content ID 401 is associated with “0001”, the operation type 402 is “touch”, and the number of times 403 is “ 2 "is recorded.

付加情報の他の例としては、拡縮率404、角度405、優先度406が挙げられる。ただし、付加情報は、これに限られない。また、拡縮率404、角度405、優先度406等の付加情報は、記録しなくてもよい。また、優先度406は、付加情報に基づき自動で付与されてもよく、ユーザの要求に応じて付与されてもよい。例えば、ユーザは、タッチ回数を増やすことでタッチしている画像のお気に入り度(優先度)を上げることができる。   Other examples of the additional information include an enlargement / reduction ratio 404, an angle 405, and a priority 406. However, the additional information is not limited to this. Further, additional information such as the enlargement / reduction ratio 404, the angle 405, and the priority 406 may not be recorded. The priority 406 may be automatically assigned based on the additional information, or may be given in response to a user request. For example, the user can increase the favorite degree (priority) of the touched image by increasing the number of touches.

例えば、図3(b)には、表示部13に表示されている画像がズームされた場合に実行される付加情報付与処理の結果が示されている。ここでは、ズームされた画像のコンテンツIDを「0002」とする。この場合、記録部14は、画面がタッチされ、5倍にズームする操作が行われたことを示す<Touch>、<zoom>5の付加情報を「0002」のコンテンツIDを持つ画像に設けられたExif領域に記録する。または、例えば、図4に示したように、コンテンツID401が「0002」に関連付けて操作種別402が「ズーム」であり、拡縮率404が「250%」であることが所望の記録領域に記録されてもよい。   For example, FIG. 3B shows the result of the additional information adding process executed when the image displayed on the display unit 13 is zoomed. Here, the content ID of the zoomed image is “0002”. In this case, the recording unit 14 is provided with an additional information of <Touch> and <zoom> 5 indicating that the screen is touched and an operation of zooming 5 times is performed on an image having a content ID of “0002”. Recorded in the Exif area. Or, for example, as shown in FIG. 4, it is recorded in a desired recording area that the content ID 401 is associated with “0002”, the operation type 402 is “zoom”, and the enlargement / reduction ratio 404 is “250%”. May be.

例えば、図3(c)には、表示部13に表示されている画像が回転された場合に実行される付加情報付与処理の結果が示されている。ここでは、回転された画像のコンテンツIDを「0003」とする。この場合、記録部14は、画面がタッチされ、90度回転する操作が行われたことを示す<Touch>、<rotation>90の付加情報を「0003」のコンテンツIDを持つ画像に設けられたExif領域に記録する。または、例えば、図4に示したように、コンテンツID401が「0003」に関連付けて操作種別402が「回転」であり、角度405が「90度」であることが所望の記録領域に記録されてもよい。   For example, FIG. 3C shows the result of the additional information adding process executed when the image displayed on the display unit 13 is rotated. Here, the content ID of the rotated image is “0003”. In this case, the recording unit 14 is provided with the additional information of <Touch> and <rotation> 90 indicating that the screen is touched and an operation of rotating 90 degrees is performed on the image having the content ID “0003”. Record in the Exif area. Or, for example, as shown in FIG. 4, it is recorded in the desired recording area that the content ID 401 is associated with “0003”, the operation type 402 is “rotation”, and the angle 405 is “90 degrees”. Also good.

例えば、図3(d)には、表示部13に表示されている画像にソフトウェア(アプリケーション)を使用してスタンプを押す、又は吹き出しをつける等の加工が施された場合に実行される付加情報付与処理の結果が示されている。この場合、記録部14は、画面がタッチされ、画像の25%が加工されたことを示す<Touch>、<edit>25の付加情報を画像のコンテンツIDを持つ画像に設けられたExif領域又は所望の記録領域に記録する。   For example, FIG. 3D shows additional information executed when an image displayed on the display unit 13 is subjected to processing such as pressing a stamp or adding a balloon using software (application). The result of the grant process is shown. In this case, the recording unit 14 includes the Exif area provided in the image having the content ID of the image, such as <Touch> and <edit> 25 indicating that the screen is touched and 25% of the image has been processed, or Record in the desired recording area.

例えば、図3(e)には、画像が表示されている画面上を指で丸くなぞる等特定のタッチ操作を行った場合に実行される付加情報付与処理の結果が示されている。この場合、例えば、画面上を丸くなぞったら表示されている画像を削除候補にするなど、画面上の操作を予め定義しておけば、ユーザごとに仕分けのカスタマイズが可能となる。この場合、記録部14は、画面が丸くなぞるようにタッチされたので、表示されている画像が削除候補であることを示す<Touch>、<custom1>deleteの付加情報を画像のコンテンツIDを持つ画像に設けられたExif領域又は所望の記録領域に記録する。例えば、タッチされた画像であっても明らかに暗い画像は、前記画面上を丸くなぞる操作により削除候補の付加情報を画像に付与することができる。   For example, FIG. 3 (e) shows the result of the additional information adding process executed when a specific touch operation such as tracing with a finger on the screen on which the image is displayed is performed. In this case, for example, if the operation on the screen is defined in advance, such as making an image displayed when the screen is traced round, the sorting can be customized for each user. In this case, since the recording unit 14 is touched so that the screen is rounded, the additional information of <Touch> and <custom1> delete indicating that the displayed image is a deletion candidate has the image content ID. Recording is performed in an Exif area provided in the image or a desired recording area. For example, even if the image is touched, an image that is clearly dark can be given additional information as a deletion candidate by performing an operation of tracing the screen round.

以上に説明したように、本実施形態に係るコンテンツ取得装置10では、画像を閲覧しているユーザが画像を操作したことに基づき、ユーザのその画像に対する注目度が推定される。そして、該操作を示す付加情報に基づき、関連付けられた画像が分類される。このように、本実施形態に係るコンテンツ取得装置10は、閲覧時の画像へのユーザ操作を利用して付加情報を収集し、収集された付加情報に基づき、次に説明する画像の分類を行う。これにより、大量の画像を容易に管理することができる。   As described above, in the content acquisition device 10 according to the present embodiment, the degree of attention of the user to the image is estimated based on the operation of the image by the user who is browsing the image. Then, the associated images are classified based on the additional information indicating the operation. As described above, the content acquisition apparatus 10 according to the present embodiment collects additional information using a user operation on an image at the time of browsing, and performs image classification described below based on the collected additional information. . Thereby, a large amount of images can be easily managed.

[コンテンツ抽出処理]
次に、本実施形態に係るコンテンツ取得装置において実行されるコンテンツ抽出処理について、図5を参照しながら説明する。図5は、一実施形態に係るコンテンツ抽出処理を示したフローチャートである。
[Content extraction process]
Next, content extraction processing executed in the content acquisition apparatus according to the present embodiment will be described with reference to FIG. FIG. 5 is a flowchart illustrating content extraction processing according to an embodiment.

図5に示したコンテンツ抽出処理は、画像の閲覧時に付与された付加情報に基づき、画像を出力(例えば、プリントや再表示等)する段階で行われる処理である。まず、ユーザは、どのような写真をプリントするかを選択する。ここでは、ユーザは運動会の日を選択することで、運動会の日に撮影された画像群から写真をプリントすることを指定する。   The content extraction process shown in FIG. 5 is a process performed at the stage of outputting an image (for example, printing, redisplaying, etc.) based on additional information given at the time of browsing the image. First, the user selects what kind of photograph is to be printed. Here, the user designates printing of a photo from a group of images taken on the day of the athletic meet by selecting the day of the athletic meet.

抽出部19は、仕分け対象のコンテンツがあるかを判定する(ステップS40)。例えば、図4に示されるように、コンテンツID401が「0001」、「0002」、「0003」、「0004」・・・の画像が仕分け対象である。   The extraction unit 19 determines whether there is content to be sorted (step S40). For example, as shown in FIG. 4, images with content IDs 401 of “0001”, “0002”, “0003”, “0004”.

仕分け対象がないと判定された場合、表示部16は、運動会の日に撮影された画像群のサムネイルをデフォルトで表示し(ステップS41)、本処理を終了する。サムネイルのデフォルト表示の一例としては、撮影時間に応じて画像を表示する等が挙げられる。   When it is determined that there is no sorting target, the display unit 16 displays, by default, thumbnails of the images taken on the day of the athletic meet (step S41), and the process ends. An example of the default display of thumbnails is to display an image according to the shooting time.

一方、仕分け対象があると判定された場合、抽出部19は、特定の分類の画像表示を行うかを判定する(ステップS42)。特定の分類の画像表示を行わないと判定された場合、表示部16は、運動会の日に撮影された画像群のサムネイルをデフォルトで表示し(ステップS41)、本処理を終了する。   On the other hand, when it is determined that there is a sorting target, the extraction unit 19 determines whether to display an image of a specific classification (step S42). When it is determined not to display an image of a specific category, the display unit 16 displays by default the thumbnails of the image group taken on the day of the athletic meet (step S41), and ends this process.

一方、特定の分類の画像表示を行うと判定された場合、抽出部19は、付加情報が付与されているかを判定する(ステップS43)。付加情報が付与されていないと判定された場合、表示部16は、運動会の日に撮影された画像群のサムネイルをデフォルトで表示し(ステップS41)、本処理を終了する。   On the other hand, when it is determined that an image of a specific classification is to be displayed, the extraction unit 19 determines whether additional information is given (step S43). When it is determined that the additional information is not given, the display unit 16 displays the thumbnails of the image group taken on the day of the athletic meet by default (step S41), and ends this process.

一方、付加情報が付与されていると判定された場合、抽出部19は、分類処理を行う(ステップS44)。分類処理としては、抽出部19は、記録部13が記録した付加情報から、操作種別402毎に画像を分類し、分類した結果に基づき特定の分類のコンテンツを抽出する場合が挙げられる。特定の分類のコンテンツを抽出する一例として、抽出部19は、分類した結果に基づき、操作種別402が「タッチ」に分類された画像群を抽出したり、操作種別402が削除候補の画像データを削除した後、操作種別402が「タッチ」に分類された画像群を抽出したりしてもよい。また、特定の分類のコンテンツを抽出する他の一例としては、抽出部19は、操作種別402が「タッチ」に分類された画像群から、タッチ回数403の多い順に並べ替えて、例えば5回以上のタッチ回数の画像を抽出してもよい。   On the other hand, when it is determined that additional information is given, the extraction unit 19 performs a classification process (step S44). Examples of the classification process include a case where the extraction unit 19 classifies images for each operation type 402 from the additional information recorded by the recording unit 13 and extracts content of a specific classification based on the classification result. As an example of extracting content of a specific classification, the extraction unit 19 extracts an image group in which the operation type 402 is classified as “touch” based on the classification result, or image data whose operation type 402 is a deletion candidate. After deletion, an image group in which the operation type 402 is classified as “touch” may be extracted. As another example of extracting content with a specific classification, the extraction unit 19 rearranges images in which the operation type 402 is classified as “touch” in the descending order of the number of touches 403, for example, five times or more. Images of the number of touches may be extracted.

特定の分類のコンテンツを抽出する他の一例としては、抽出部19は、付加情報に含まれる優先度406に基づき、優先度406の高い操作種別402に分類された画像を抽出してもよい。例えば、図4の例では、抽出部19は、優先度406が「1」の「タッチ」に分類された画像、優先度406が「2」の「ズーム」に分類された画像、優先度406が「3」の「回転」に分類された画像の順に画像を抽出してもよい。また、分類方法は、これに限られず、ユーザの注目度を考慮した様々な方法を取り得る。例えば、抽出部19は、予め設定された特定の分類、最後の抽出に使用された特定の分類、又は前記予め設定された特定の分類からユーザ操作に応じて変更された特定の分類のいずれか一つに応じてコンテンツを抽出してもよい。   As another example of extracting content of a specific classification, the extraction unit 19 may extract an image classified into the operation type 402 having a higher priority 406 based on the priority 406 included in the additional information. For example, in the example of FIG. 4, the extraction unit 19 includes an image classified as “touch” with a priority “406”, an image classified as “zoom” with a priority “406”, and a priority 406. The images may be extracted in the order of the images classified as “rotation” of “3”. Further, the classification method is not limited to this, and various methods can be taken in consideration of the user's attention level. For example, the extraction unit 19 is one of a predetermined specific classification, a specific classification used for the last extraction, or a specific classification changed according to a user operation from the predetermined specific classification Content may be extracted according to one.

次に、表示部16は、抽出されたサムネイルを表示する(ステップS45)。次に、抽出部19は、サムネイルの再表示を行うかを判定する(ステップS46)。再表示すると判定された場合、ユーザは、操作画面から分類条件を変更する。分類条件の変更とは、例えば、優先度406を変更することが挙げられる。   Next, the display unit 16 displays the extracted thumbnail (step S45). Next, the extraction unit 19 determines whether to redisplay thumbnails (step S46). When it is determined to redisplay, the user changes the classification condition from the operation screen. The change of the classification condition includes, for example, changing the priority 406.

次に、抽出部19は、予め設定された特定の分類から上記ユーザ操作に応じて変更された特定の分類に基づき画像を再度分類する処理を行う(ステップS47)。ユーザが再表示を要求する間ステップS45〜ステップS47の処理は繰り返され、ユーザが再表示を要求しないとき、本処理は終了する。これにより、ユーザは、分類又は再分類により抽出された画像をプリントすることができる。   Next, the extraction unit 19 performs a process of reclassifying the image based on the specific classification changed according to the user operation from the specific classification set in advance (step S47). While the user requests redisplay, the processing of step S45 to step S47 is repeated, and when the user does not request redisplay, this processing ends. Thereby, the user can print the image extracted by classification or reclassification.

以上に説明したように、本実施形態に係るコンテンツ取得装置10によれば、閲覧時に操作が行われた画像が優先的に抽出される。これは、画像の閲覧時にその画像がどれくらい接触操作されたかが、ユーザがどれくらいその画像に関心があったかを示す注目度と相関関係にあるとの観点に基づく。そして、本実施形態に係るコンテンツ取得装置10は、閲覧者の上記注目度を画像の付加情報として記録し、付加情報に基づき画像を分類する。また、本実施形態では、分類された画像から特定の分類の画像を抽出し、表示する。これにより、コンテンツの管理を容易に行うことができる。例えば、ユーザが閲覧時にタッチした画像だけを抽出してプリントアウトすることが可能となる。また、タッチされた画像から不必要と判断した画像を削除してから、残った画像のみをプリントアウトすることもできる。   As described above, according to the content acquisition apparatus 10 according to the present embodiment, an image that has been operated during browsing is preferentially extracted. This is based on the viewpoint that how much the touch operation is performed on the image when browsing the image is correlated with the degree of attention indicating how much the user is interested in the image. Then, the content acquisition apparatus 10 according to the present embodiment records the above degree of attention of the viewer as additional information of the image, and classifies the image based on the additional information. In the present embodiment, an image of a specific classification is extracted from the classified image and displayed. As a result, content management can be easily performed. For example, it is possible to extract and print out only the image that the user touched during browsing. It is also possible to print out only the remaining image after deleting the image judged unnecessary from the touched image.

さらに、本実施形態に係るコンテンツ取得装置10によれば、ステップS45〜ステップS47の処理を繰り返すことで、抽出された画像の数を更に絞り込むことができる。例えば、抽出部19は、特定の分類の画像を抽出する処理で、タッチされた画像を抽出したとする。記録部が画像の加工時に挿入されたコメントの内容を付加情報として記録していた場合、抽出部19は、抽出されているタッチされた画像から、気に入っているコメントが付与された画像を更に抽出することで、画像を更に絞り込むことができる。このように、本実施形態に係るコンテンツ取得装置10では、付加情報の組み合わせや付加情報の優先順位に基づき抽出すべき画像の特定の分類の条件を変更させることができる。これによれば、分類の条件が固定されている場合と比べて、分類に自由度があり、ユーザの嗜好や興味の傾向を分類の条件に反映させ易い。これにより、ユーザの注目度により合致したコンテンツを抽出することができる。   Furthermore, according to the content acquisition apparatus 10 according to the present embodiment, the number of extracted images can be further narrowed down by repeating the processes in steps S45 to S47. For example, it is assumed that the extraction unit 19 extracts a touched image in a process of extracting an image of a specific classification. When the recording unit has recorded the content of the comment inserted at the time of processing the image as additional information, the extraction unit 19 further extracts an image with a favorite comment from the touched image that has been extracted. By doing so, the image can be further narrowed down. As described above, in the content acquisition apparatus 10 according to the present embodiment, it is possible to change the conditions for specific classification of images to be extracted based on the combination of additional information and the priority of the additional information. According to this, compared with the case where the classification conditions are fixed, there is a degree of freedom in classification, and the user's preference and interest tendency are easily reflected in the classification conditions. This makes it possible to extract content that matches the degree of user attention.

例えば、図6では、コンテンツID401が「0001」の画像には、タッチ、ズーム、回転の3つの操作が行われている。よって、コンテンツに対する操作種別402がタッチであって、タッチ回数403を特定の分類の条件として画像を抽出する場合には、コンテンツID401が「0001」の画像と「0002」の画像とが抽出される。しかし、操作種別402がタッチ、ズーム、回転を特定の分類の条件として画像を抽出する場合には、コンテンツID401が「0001」の画像は、「0002」の画像よりも先に抽出され、コンテンツID401が「0002」の画像は抽出されない場合もあり得る。このように、特定の分類の設定に自由度を持たせ、ユーザ操作によっても変更可能とすることにより、ユーザの注目度により合致したコンテンツを抽出することができる。   For example, in FIG. 6, three operations of touch, zoom, and rotation are performed on the image whose content ID 401 is “0001”. Therefore, when the operation type 402 for the content is touch and an image is extracted using the number of touches 403 as a specific classification condition, an image with a content ID 401 of “0001” and an image of “0002” are extracted. . However, when the operation type 402 extracts an image with touch, zoom, and rotation as specific classification conditions, the image with the content ID 401 “0001” is extracted before the image with the “0002”, and the content ID 401 There may be a case where an image of “0002” is not extracted. Thus, by giving a degree of freedom to the setting of a specific classification and making it changeable by a user operation, it is possible to extract content that matches the degree of attention of the user.

[情報処理装置の全体構成例]
以上では、図1に示したコンテンツ取得装置10によって画像を撮影し、撮影した画像をコンテンツ取得装置10内の各機能を用いて分類し、管理した。しかしながら、本実施形態に係る付加情報付与処理及びコンテンツ抽出処理は、コンテンツ取得装置10内で実行せず、PC等の情報処理装置内で実行することも可能である。以下では、一実施形態に係る情報処理装置について、図7を参照しながら説明する。図7は、一実施形態に係る情報処理装置の全体構成を示した図である。
[Example of overall configuration of information processing apparatus]
In the above, an image is captured by the content acquisition device 10 illustrated in FIG. 1, and the captured image is classified and managed using each function in the content acquisition device 10. However, the additional information adding process and the content extracting process according to the present embodiment can be executed not in the content acquisition apparatus 10 but in an information processing apparatus such as a PC. Hereinafter, an information processing apparatus according to an embodiment will be described with reference to FIG. FIG. 7 is a diagram illustrating an overall configuration of an information processing apparatus according to an embodiment.

一実施形態に係る情報処理装置20は、例えば、PC、タブレット型端末、スマートフォン、携帯電話、情報型端末PDA等であってもよい。情報処理装置20は、コンテンツを入力する手段として、コンテンツ入力部21を有する。情報処理装置20が有するその他の機能(記録部26、表示部27、制御部28、操作部29及び抽出部30)は、コンテンツ取得装置10が有するこれらの機能(記録部13、表示部16、制御部17、操作部18及び抽出部19)と同じであるため、ここでは説明を省略する。   The information processing apparatus 20 according to an embodiment may be, for example, a PC, a tablet terminal, a smartphone, a mobile phone, an information terminal PDA, or the like. The information processing apparatus 20 includes a content input unit 21 as means for inputting content. The other functions (recording unit 26, display unit 27, control unit 28, operation unit 29, and extraction unit 30) of the information processing apparatus 20 are the same as those of the content acquisition apparatus 10 (recording unit 13, display unit 16, Since it is the same as the control part 17, the operation part 18, and the extraction part 19), description is abbreviate | omitted here.

コンテンツ入力部21は、USB(Universal Serial Bus)22、ネットワークI/F(インタフェース)23、カメラ24及びマイク25を有している。ただし、コンテンツ入力部21は、USB22又はネットワークI/F23を有していれば、カメラ24やマイク25は有していなくてもよい。   The content input unit 21 includes a USB (Universal Serial Bus) 22, a network I / F (interface) 23, a camera 24, and a microphone 25. However, the content input unit 21 may not have the camera 24 and the microphone 25 as long as the content input unit 21 has the USB 22 or the network I / F 23.

コンテンツ入力部21は、USB22に接続された媒体から画像データを入力してもよいし、ネットワークI/F23を介して接続されるコンテンツ取得装置10やその他の機器から画像データを入力してもよい。もちろん、カメラ24により撮影された画像やマイク25により取得した音声を入力してもよい。入力したコンテンツは、記録部13により記録される。情報処理装置20に設けられたHDDやRAM等の記録領域に記録される。   The content input unit 21 may input image data from a medium connected to the USB 22, or may input image data from the content acquisition device 10 or other device connected via the network I / F 23. . Of course, an image captured by the camera 24 or a sound acquired by the microphone 25 may be input. The input content is recorded by the recording unit 13. The data is recorded in a recording area such as an HDD or a RAM provided in the information processing apparatus 20.

本実施形態に係る情報処理装置20においても、制御部28が、入力したコンテンツのうち、表示部27に表示しているコンテンツに対して操作が行われたことを示す付加情報を取得する。そして、記録部26が、その付加情報をコンテンツに関連付けて記録する。また、抽出部30は、コンテンツに関連付けて記録された付加情報にしたがってコンテンツを分類し、特定の分類のコンテンツを抽出する。本実施形態に係る情報処理装置20によっても、コンテンツ取得装置10の場合と同様に、コンテンツの管理を容易にすることができる。   Also in the information processing apparatus 20 according to the present embodiment, the control unit 28 acquires additional information indicating that an operation has been performed on the content displayed on the display unit 27 among the input content. Then, the recording unit 26 records the additional information in association with the content. Further, the extraction unit 30 classifies the content according to the additional information recorded in association with the content, and extracts the content with a specific classification. Also with the information processing apparatus 20 according to the present embodiment, the management of content can be facilitated as in the case of the content acquisition apparatus 10.

[音声の例]
以上の実施形態では、コンテンツとして画像を例に挙げて、付加情報付与処理及びコンテンツ抽出処理について説明し、画像データを分類した。しかしながら、本実施形態に係るコンテンツ取得装置10及び本実施形態に係る情報処理装置20では、音声についても同様に、付加情報付与処理及びコンテンツ抽出処理を実行することで音声データを分類することができる。
[Audio example]
In the above embodiment, the additional information adding process and the content extracting process are described by taking an image as the content as an example, and the image data is classified. However, in the content acquisition device 10 according to the present embodiment and the information processing device 20 according to the present embodiment, the audio data can be similarly classified by executing the additional information addition process and the content extraction process for the sound. .

音声データに対する付加情報付与処理及びコンテンツ抽出処理について、図8を参照しながら説明する。音声データはマイク14又はマイク25から取得したり、USB22に接続された媒体やネットワークI/F23を介して接続される機器から入力したりすることができる。以下では、例えば音楽プレイヤー等のコンテンツ取得装置10を例に挙げて説明するが、情報処理装置20においても同様に実行することができる。   The additional information adding process and the content extracting process for the audio data will be described with reference to FIG. The audio data can be acquired from the microphone 14 or the microphone 25, or can be input from a medium connected to the USB 22 or a device connected via the network I / F 23. In the following, the content acquisition device 10 such as a music player will be described as an example, but the same can be executed in the information processing device 20 as well.

図8では、音声データが、表示部16にサムネイル表示されている。音声データがCDジャケットに収められた曲の場合、表示部16には、ジャケットの画像及びコンテンツID「0001」が示されたアイコンM1が表示される。音声データが録音された情報の場合には、録音マーク、録音日時及びコンテンツID「0002」、「0003」が示されたアイコンM2、M3が表示される。   In FIG. 8, the audio data is displayed as a thumbnail on the display unit 16. If the audio data is a song stored in a CD jacket, the display unit 16 displays an image of the jacket and an icon M1 indicating a content ID “0001”. If the audio data is recorded information, icons M2 and M3 indicating a recording mark, recording date and time, and content IDs “0002” and “0003” are displayed.

表示されているコンテンツのいずれかが操作された場合、制御部17は、操作されたコンテンツに対して前記操作されたことを示す付加情報を取得する。記録部13は、該付加情報を該コンテンツに関連付けて記録する。例えば、ユーザは、再生したいコンテンツをタッチ操作したり、クリックしたりして選択する。その結果、記録部13は、図8の右側に示したように、コンテンツID401が「0001」のコンテンツの付加情報として、操作種別402の「選択操作」、回数403の「1」回を記録する。また、ユーザが、選択したコンテンツの再生時に設定した音量を付加情報として記録してもよい。図8では、コンテンツID401が「0001」のコンテンツの付加情報として、音量407が「中」である情報が記録されている。   When any of the displayed contents is operated, the control unit 17 acquires additional information indicating that the operation has been performed on the operated content. The recording unit 13 records the additional information in association with the content. For example, the user selects a content to be reproduced by touching or clicking the content. As a result, as shown on the right side of FIG. 8, the recording unit 13 records “selection operation” of the operation type 402 and “1” of the number of times 403 as additional information of the content whose content ID 401 is “0001”. . Further, the volume set by the user when the selected content is reproduced may be recorded as additional information. In FIG. 8, information with the volume 407 being “medium” is recorded as additional information of the content with the content ID 401 being “0001”.

抽出部19は、コンテンツに関連付けて記録された付加情報にしたがって該コンテンツを分類し、特定の分類のコンテンツを抽出する。例えば、抽出部19は、再生回数が多い順にコンテンツの表示順を並べ替えてサムネイル表示してもよい。再生回数が同じ場合には、再生時の音量が高い場合に注目度が高いと推定して、音量が高い順にコンテンツの表示順を並べ替えてサムネイル表示してもよい。図8の左下には、回数403→音量407の順に付加情報を参照してコンテンツを抽出し、並べ替えた結果、アイコンM2、M3、M1の順番でコンテンツが表示されている。このとき、抽出部19は、まったく再生されていないコンテンツを抽出しないようにしてもよい。この場合、再生回数が「0」回のアイコンは表示されない。その他、抽出部19は、様々な分類方法、抽出方法を採用することができる。   The extraction unit 19 classifies the content according to the additional information recorded in association with the content, and extracts the content with a specific classification. For example, the extraction unit 19 may display thumbnails by rearranging the display order of the contents in descending order of the number of reproductions. When the number of times of reproduction is the same, it may be estimated that the degree of attention is high when the volume during reproduction is high, and thumbnails may be displayed by rearranging the display order of the contents in descending order of volume. In the lower left of FIG. 8, the contents are displayed in the order of icons M2, M3, and M1 as a result of extracting and rearranging the contents with reference to the additional information in the order of number of times 403 → volume 407. At this time, the extraction unit 19 may not extract content that has not been reproduced at all. In this case, an icon with the number of reproduction times “0” is not displayed. In addition, the extraction unit 19 can employ various classification methods and extraction methods.

[動画像の例]
本実施形態に係るコンテンツ取得装置10及び情報処理装置20では、動画像についても同様に、付加情報付与処理及びコンテンツ抽出処理を実行することができる。この場合、記録部13,26は、例えば、動画像が操作された回数(選択回数)だけでなく、動画像の編集(トリミング)等の加工度合い等を付加情報として記録してもよい。抽出部19,30は、動画像の操作回数や、加工度合いが高ければ優先度を高くし、特定の分類の動画像の抽出時に優先的に抽出される対象となるようにしてもよい。
[Example of moving image]
In the content acquisition apparatus 10 and the information processing apparatus 20 according to the present embodiment, the additional information addition process and the content extraction process can be executed similarly for the moving image. In this case, for example, the recording units 13 and 26 may record not only the number of times that the moving image is operated (the number of selections) but also the degree of processing such as editing (trimming) of the moving image as additional information. The extraction units 19 and 30 may increase the priority if the number of operations of the moving image or the degree of processing is high, and may be a target to be extracted preferentially when extracting a moving image of a specific classification.

以上に説明したように、本実施形態に係るコンテンツ取得装置10及び情報処理装置20では、画像を閲覧しているユーザが画像を操作したことが、ユーザがその画像に注目していることと推定する。このため、画像を閲覧しているユーザが画像を操作したことを示す付加情報が記録される。付加情報は、画像の自動分類に使用され、特定の分類の画像が抽出される。これにより、大量の画像の中からユーザ(閲覧者、操作者)の意図どおりに、自動的に大まかな画像の仕分けが可能となる。また、画像以外の音声等のコンテンツに関しても同様な方法で、ユーザが注目していると推定されるコンテンツを自動で抽出することができる。   As described above, in the content acquisition device 10 and the information processing device 20 according to the present embodiment, it is estimated that the user viewing the image has operated the image, and that the user is paying attention to the image. To do. Therefore, additional information indicating that the user viewing the image has operated the image is recorded. The additional information is used for automatic classification of images, and images of a specific classification are extracted. As a result, it is possible to automatically classify a rough image from a large number of images as intended by the user (viewer or operator). In addition, with respect to contents such as audio other than images, it is possible to automatically extract contents presumed to be noticed by the user by a similar method.

これによれば、撮影時又は撮影後に画像を表示させ、閲覧する際の画像への注目度に基づき画像を仕分けすることができるため、ユーザの主観や状況に応じた仕分けが可能となる。よって、誤った注目度に応じた仕分けが行われる可能性を低減することができる。また、画像の分類は付加情報に基づき行われ、ユーザが分類条件を設定する必要がない。このため、ユーザは、コンテンツの分類のために面倒な手間を強いられない。また、会話情報を得られない状況においても、精度の高いコンテンツの分類及び抽出けが可能となる。   According to this, since an image can be displayed at the time of shooting or after shooting, and the image can be sorted based on the degree of attention to the image at the time of browsing, sorting according to the user's subjectivity and situation becomes possible. Therefore, it is possible to reduce the possibility of performing sorting according to the erroneous attention level. Further, image classification is performed based on additional information, and the user does not need to set classification conditions. For this reason, the user is not burdened with troublesome time for content classification. Even in a situation where conversation information cannot be obtained, it is possible to classify and extract content with high accuracy.

(ハードウェア構成例)
最後に、コンテンツ取得装置10及び情報処理装置20のハードウェア構成例について簡単に説明する。図9は、本実施形態にかかるコンテンツ取得装置10及び情報処理装置20のハードウェア構成例を示す図である。
(Hardware configuration example)
Finally, a hardware configuration example of the content acquisition device 10 and the information processing device 20 will be briefly described. FIG. 9 is a diagram illustrating a hardware configuration example of the content acquisition apparatus 10 and the information processing apparatus 20 according to the present embodiment.

図9に示すように、コンテンツ取得装置10及び情報処理装置20は、入力装置101、表示装置102、外部I/F103、RAM(Random Access Memory)104、ROM(Read Only Memory)105、CPU(Central Processing Unit)106、通信I/F107及びHDD(Hard Disk Drive)108を有し、それぞれがバスBで相互に接続されている。   As shown in FIG. 9, the content acquisition device 10 and the information processing device 20 include an input device 101, a display device 102, an external I / F 103, a RAM (Random Access Memory) 104, a ROM (Read Only Memory) 105, a CPU (Central Processing Unit) 106, communication I / F 107, and HDD (Hard Disk Drive) 108 are connected to each other via bus B.

入力装置101は、コンテンツ取得装置10及び情報処理装置20に各操作を入力する際に用いられる。入力装置101は、キーボードやマウスなどであってもよい。表示装置102は、ディスプレイなどを含み、ユーザに撮影された画像やサムネイル等を表示する。   The input device 101 is used when inputting each operation to the content acquisition device 10 and the information processing device 20. The input device 101 may be a keyboard or a mouse. The display device 102 includes a display and displays images and thumbnails taken by the user.

通信I/F107は、コンテンツ取得装置10及び情報処理装置20をネットワークに接続するインタフェースである。これにより、コンテンツ取得装置10及び情報処理装置20は、ネットワークを介して画像データや音声データの送受信を行うことができる。   The communication I / F 107 is an interface that connects the content acquisition apparatus 10 and the information processing apparatus 20 to a network. Thereby, the content acquisition apparatus 10 and the information processing apparatus 20 can transmit and receive image data and audio data via the network.

HDD108は、プログラムやデータを格納している不揮発性の記録装置である。格納されるプログラムやデータには、装置全体を制御する基本ソフトウェアや各種機能を提供するアプリケーションソフトウェアなどがある。また、HDD108は、上記実施形態の付加情報付与処理やコンテンツ抽出処理を行うためにCPU106により実行されるプログラムを格納する。HDD108には、画像データや音声データが格納されてもよい。   The HDD 108 is a non-volatile recording device that stores programs and data. The stored programs and data include basic software that controls the entire apparatus and application software that provides various functions. The HDD 108 stores a program executed by the CPU 106 for performing the additional information adding process and the content extracting process of the above embodiment. The HDD 108 may store image data and audio data.

外部I/F103は、外部装置とのインタフェースである。外部装置には、記録媒体103aなどがある。情報処理装置20は、外部I/F103を介して、記録媒体103aの読み取り及び/又は書き込みを行うことができる。記録媒体103aには、USBメモリ(Universal Serial Bus memory)の他、CD(Compact Disk)、及びDVD(Digital Versatile Disk)、ならびに、SDメモリカード(SD Memory card)等がある。   The external I / F 103 is an interface with an external device. The external device includes a recording medium 103a. The information processing apparatus 20 can read and / or write to the recording medium 103 a via the external I / F 103. The recording medium 103a includes a USB (Universal Serial Bus memory), a CD (Compact Disk), a DVD (Digital Versatile Disk), and an SD memory card.

ROM105は、不揮発性の半導体メモリ(記録装置)であり、起動時に実行されるBIOS(Basic Input/Output System)、OS設定、及びネットワーク設定などのプログラムやデータが格納されている。RAM104は、プログラムやデータを一時保持する揮発性の半導体メモリ(記録装置)である。CPU106は、上記記録装置(例えば「HDD」や「ROM」や「RAM」など)から、プログラムやデータをRAM上に読み出し、処理を実行することで、装置全体の制御や搭載機能を実現する演算装置である。   The ROM 105 is a nonvolatile semiconductor memory (recording device), and stores programs and data such as BIOS (Basic Input / Output System), OS settings, and network settings that are executed at startup. The RAM 104 is a volatile semiconductor memory (recording device) that temporarily stores programs and data. The CPU 106 reads out a program or data from the recording device (for example, “HDD”, “ROM”, “RAM”, etc.) onto the RAM and executes processing, thereby executing control for implementing the entire device and mounting functions. Device.

制御部17,28、抽出部19、30の各部は、HDD108等にインストールされたプログラムがCPU106に実行させる処理により実現される。静止画像データ、動画像データ、音声データ等のコンテンツの記録領域には、例えば、RAM104、HDD108、又はコンテンツ取得装置10及び情報処理装置20にネットワークを介して接続される図示しない記録装置を用いることができる。   Each of the control units 17 and 28 and the extraction units 19 and 30 is realized by a process executed by the CPU 106 by a program installed in the HDD 108 or the like. For the recording area of content such as still image data, moving image data, and audio data, for example, a RAM 104, HDD 108, or a recording device (not shown) connected to the content acquisition device 10 and the information processing device 20 via a network is used. Can do.

以上、コンテンツ取得装置、情報処理装置、コンテンツ管理方法、コンテンツ管理プログラムを実施例により説明したが、本発明は上記実施例に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能である。   As described above, the content acquisition device, the information processing device, the content management method, and the content management program have been described with the embodiments. However, the present invention is not limited to the above embodiments, and various modifications and improvements can be made within the scope of the present invention. Is possible.

例えば、本発明に係るコンテンツには、静止画像の電子データや、動画像の電子データや、音声の電子データ等が含まれる。また、本発明に係る操作されたコンテンツには、再生されていない状態における操作(例えば、フォルダ移動やファイルに対する操作等)が含まれてもよい。また、本発明に係る操作されたコンテンツには、再生されている状態における操作(例えば、表示されている画像に対する操作や、再生されている音声に対する操作等)が含まれてもよい。   For example, the content according to the present invention includes still image electronic data, moving image electronic data, audio electronic data, and the like. Further, the operated content according to the present invention may include an operation in a state where the content is not reproduced (for example, a folder move, an operation on a file, etc.). Further, the operated content according to the present invention may include an operation in a state of being reproduced (for example, an operation on a displayed image, an operation on a reproduced sound, etc.).

また、上記実施形態及び変形例が複数存在する場合、矛盾しない範囲で組み合わせることができる。例えば、本発明に係るコンテンツの操作は、画像、音声、画像と音声の組み合わせのいずれの操作であっても本発明を適用することができる。   In addition, when there are a plurality of the above-described embodiments and modifications, they can be combined within a consistent range. For example, the present invention can be applied to any operation of content according to the present invention, which is an operation of an image, sound, or a combination of image and sound.

以上の説明に関し、更に以下の項を開示する。
(付記1)
コンテンツを取得する取得部と、
取得したコンテンツのうち、操作されたコンテンツに対して前記操作されたことを示す付加情報を該コンテンツに関連付けて記録する記録部と、
前記コンテンツに関連付けて記録された付加情報にしたがって該コンテンツを分類し、特定の分類のコンテンツを抽出する抽出部と、
を有することを特徴とするコンテンツ取得装置。
(付記2)
前記記録部は、前記操作の種別を前記付加情報に含めて記録する、
ことを特徴とする付記1に記載のコンテンツ取得装置。
(付記3)
前記抽出部は、予め設定された特定の分類、最後の抽出に使用された特定の分類、又は前記予め設定された特定の分類からユーザ操作に応じて変更された特定の分類のいずれか一つに応じてコンテンツを抽出する、
ことを特徴とする付記1又は2に記載のコンテンツ取得装置。
(付記4)
前記抽出されたコンテンツを表示する表示部を更に備え、
前記抽出部は、前記コンテンツの表示の結果に基づきユーザにより行われた操作に応じて前記特定の分類を変更し、該変更した特定の分類のコンテンツを再抽出する、
ことを特徴とする付記1〜3のいずれか一項に記載のコンテンツ取得装置。
(付記5)
コンテンツを記録し、記録されたコンテンツのうち、操作されたコンテンツに対して前記操作されたことを示す付加情報を該コンテンツに関連付けて記録する記録部と、
前記コンテンツに関連付けて記録された付加情報にしたがって該コンテンツを分類し、特定の分類のコンテンツを抽出する抽出部と、
を有することを特徴とする情報処理装置。
(付記6)
前記記録部は、前記操作の種別を前記付加情報に含めて記録する、
ことを特徴とする付記5に記載のコンテンツ取得装置。
(付記7)
前記抽出部は、予め設定された特定の分類、最後の抽出に使用された特定の分類、又は前記予め設定された特定の分類からユーザ操作に応じて変更された特定の分類のいずれか一つに応じてコンテンツを抽出する、
ことを特徴とする付記5又は6に記載のコンテンツ取得装置。
(付記8)
前記抽出されたコンテンツを表示する表示部を更に備え、
前記抽出部は、前記コンテンツの表示の結果に基づきユーザにより行われた操作に応じて前記特定の分類を変更し、該変更した特定の分類のコンテンツを再抽出する、
ことを特徴とする付記5〜7のいずれか一項に記載のコンテンツ取得装置。
(付記9)
コンテンツを取得し、
取得したコンテンツのうち、操作されたコンテンツに対して前記操作されたことを示す付加情報を該コンテンツに関連付けて記録し、
前記コンテンツに関連付けて記録された付加情報にしたがって該コンテンツを分類し、特定の分類のコンテンツを抽出する、
処理をコンピュータが実行するコンテンツ管理方法。
(付記10)
前記記録する処理は、前記操作の種別を前記付加情報に含めて記録する、
処理をコンピュータが実行することを特徴とする付記9に記載のコンテンツ管理方法。
(付記11)
前記抽出する処理は、予め設定された特定の分類、最後の抽出に使用された特定の分類、又は前記予め設定された特定の分類からユーザ操作に応じて変更された特定の分類のいずれか一つに応じてコンテンツを抽出する、
処理をコンピュータが実行することを特徴とする付記9又は10に記載のコンテンツ管理方法。
(付記12)
前記抽出されたコンテンツを表示し、
前記抽出する処理は、前記コンテンツの表示の結果に基づきユーザにより行われた操作に応じて前記特定の分類を変更し、該変更した特定の分類のコンテンツを再抽出する、
処理をコンピュータが実行することを特徴とする付記9〜11のいずれか一項に記載のコンテンツ管理方法。
(付記13)
コンテンツを取得し、
取得したコンテンツのうち、操作されたコンテンツに対して前記操作されたことを示す付加情報を該コンテンツに関連付けて記録し、
前記コンテンツに関連付けて記録された付加情報にしたがって該コンテンツを分類し、特定の分類のコンテンツを抽出する、
処理をコンピュータに実行させるコンテンツ管理プログラム。
(付記14)
前記記録する処理は、前記操作の種別を前記付加情報に含めて記録する、
処理をコンピュータに実行させることを特徴とする付記13に記載のコンテンツ管理プログラム。
(付記15)
前記抽出する処理は、予め設定された特定の分類、最後の抽出に使用された特定の分類、又は前記予め設定された特定の分類からユーザ操作に応じて変更された特定の分類のいずれか一つに応じてコンテンツを抽出する、
処理をコンピュータに実行させることを特徴とする付記13又は14に記載のコンテンツ管理プログラム。
(付記16)
前記抽出されたコンテンツを表示し、
前記抽出する処理は、前記コンテンツの表示の結果に基づきユーザにより行われた操作に応じて前記特定の分類を変更し、該変更した特定の分類のコンテンツを再抽出する、
処理をコンピュータに実行させることを特徴とする付記13〜15のいずれか一項に記載のコンテンツ管理プログラム。
Regarding the above description, the following items are further disclosed.
(Appendix 1)
An acquisition unit for acquiring content;
Among the acquired contents, a recording unit that records additional information indicating the operation on the operated content in association with the content;
An extraction unit that classifies the content according to the additional information recorded in association with the content, and extracts content of a specific classification;
A content acquisition apparatus comprising:
(Appendix 2)
The recording unit records the type of operation included in the additional information;
The content acquisition device according to supplementary note 1, wherein:
(Appendix 3)
The extraction unit is any one of a predetermined specific classification, a specific classification used for the last extraction, or a specific classification changed according to a user operation from the predetermined specific classification Extract content according to
The content acquisition device according to appendix 1 or 2, characterized in that:
(Appendix 4)
A display unit for displaying the extracted content;
The extraction unit changes the specific classification according to an operation performed by the user based on the display result of the content, and re-extracts the content of the changed specific classification.
The content acquisition device according to any one of appendices 1 to 3, characterized in that:
(Appendix 5)
A recording unit that records content, and records additional information indicating that the operation has been performed on the operated content among the recorded content in association with the content;
An extraction unit that classifies the content according to the additional information recorded in association with the content, and extracts content of a specific classification;
An information processing apparatus comprising:
(Appendix 6)
The recording unit records the type of operation included in the additional information;
The content acquisition apparatus according to supplementary note 5, wherein
(Appendix 7)
The extraction unit is any one of a predetermined specific classification, a specific classification used for the last extraction, or a specific classification changed according to a user operation from the predetermined specific classification Extract content according to
The content acquisition device according to appendix 5 or 6, characterized by the above.
(Appendix 8)
A display unit for displaying the extracted content;
The extraction unit changes the specific classification according to an operation performed by the user based on the display result of the content, and re-extracts the content of the changed specific classification.
The content acquisition device according to any one of appendices 5 to 7, characterized in that:
(Appendix 9)
Get content,
Of the acquired content, the additional information indicating that the operation has been performed on the operated content is recorded in association with the content,
Classifying the content according to the additional information recorded in association with the content, and extracting content of a specific classification;
A content management method in which processing is executed by a computer.
(Appendix 10)
In the recording process, the operation type is included in the additional information and recorded.
The content management method according to appendix 9, wherein the processing is executed by a computer.
(Appendix 11)
The extraction process is any one of a predetermined specific classification, a specific classification used for the last extraction, or a specific classification changed according to a user operation from the predetermined specific classification. Extract content according to
The content management method according to appendix 9 or 10, wherein the computer executes the process.
(Appendix 12)
Displaying the extracted content;
The extracting process changes the specific classification in accordance with an operation performed by a user based on the display result of the content, and re-extracts the content of the changed specific classification.
The content management method according to any one of appendices 9 to 11, wherein the process is executed by a computer.
(Appendix 13)
Get content,
Of the acquired content, the additional information indicating that the operation has been performed on the operated content is recorded in association with the content,
Classifying the content according to the additional information recorded in association with the content, and extracting content of a specific classification;
A content management program that causes a computer to execute processing.
(Appendix 14)
In the recording process, the operation type is included in the additional information and recorded.
Item 14. The content management program according to appendix 13, which causes a computer to execute processing.
(Appendix 15)
The extraction process is any one of a predetermined specific classification, a specific classification used for the last extraction, or a specific classification changed according to a user operation from the predetermined specific classification. Extract content according to
15. The content management program according to appendix 13 or 14, which causes a computer to execute processing.
(Appendix 16)
Displaying the extracted content;
The extracting process changes the specific classification in accordance with an operation performed by a user based on the display result of the content, and re-extracts the content of the changed specific classification.
The content management program according to any one of appendices 13 to 15, which causes a computer to execute processing.

10:コンテンツ取得装置、13、26:記録部、16、27:表示部、17、28:制御部、18、29:操作部、19、30:抽出部、20:情報処理装置、21:コンテンツ入力部   10: Content acquisition device, 13, 26: Recording unit, 16, 27: Display unit, 17, 28: Control unit, 18, 29: Operation unit, 19, 30: Extraction unit, 20: Information processing device, 21: Content Input section

Claims (6)

コンテンツを取得する取得部と、
取得したコンテンツのうち、表示されたコンテンツのタッチ画面に対するタッチ操作の種別と、タッチ操作の回数、拡縮率、角度及び優先度の少なくともいずれかと、を含む付加情報を該コンテンツに対応させて記録する記録部と、
前記記録部を参照して、前記付加情報に含まれるタッチ操作の種別と、タッチ操作の回数、拡縮率、角度及び優先度の少なくともいずれかと、に従い前記コンテンツを分類し、特定のタッチ操作の分類のコンテンツを抽出する抽出部と、
を有することを特徴とするコンテンツ取得装置。
An acquisition unit for acquiring content;
Of the acquired content, additional information including the type of touch operation on the touch screen of the displayed content , and the number of touch operations, scaling ratio, angle, and priority is recorded in association with the content. A recording section;
Referring to the recording unit, the type of touch operation included in the additional information, the number of touch operations, scaling factor, and the angle and at least one of priority, according to classifying the content, the classification of particular touch operation An extractor for extracting the content of
A content acquisition apparatus comprising:
前記抽出部は、予め設定された特定の分類、最後の抽出に使用された特定の分類、又は前記予め設定された特定の分類からユーザ操作に応じて変更された特定の分類のいずれか一つに応じてコンテンツを抽出する、
ことを特徴とする請求項に記載のコンテンツ取得装置。
The extraction unit is any one of a predetermined specific classification, a specific classification used for the last extraction, or a specific classification changed according to a user operation from the predetermined specific classification Extract content according to
The content acquisition apparatus according to claim 1 .
前記抽出されたコンテンツを表示する表示部を更に備え、
前記抽出部は、前記コンテンツの表示の結果に基づきユーザにより行われた操作に応じて前記特定の分類を変更し、該変更した特定の分類のコンテンツを再抽出する、
ことを特徴とする請求項1又は2に記載のコンテンツ取得装置。
A display unit for displaying the extracted content;
The extraction unit changes the specific classification according to an operation performed by the user based on the display result of the content, and re-extracts the content of the changed specific classification.
Content acquisition apparatus according to claim 1 or 2, characterized in that.
コンテンツを記録し、記録されたコンテンツのうち、表示されたコンテンツのタッチ画面に対するタッチ操作の種別と、タッチ操作の回数、拡縮率、角度及び優先度の少なくともいずれかと、を含む付加情報を該コンテンツに対応させて記録する記録部と、
前記記録部を参照して、前記付加情報に含まれるタッチ操作の種別と、タッチ操作の回数、拡縮率、角度及び優先度の少なくともいずれかと、に従い前記コンテンツを分類し、特定のタッチ操作の分類のコンテンツを抽出する抽出部と、
を有することを特徴とする情報処理装置。
The content is recorded , and the additional information including the type of touch operation on the touch screen of the displayed content and at least one of the number of touch operations, the enlargement / reduction ratio, the angle, and the priority is recorded among the recorded content. A recording unit for recording in correspondence with
Referring to the recording unit, the type of touch operation included in the additional information, the number of touch operations, scaling factor, and the angle and at least one of priority, according to classifying the content, the classification of particular touch operation An extractor for extracting the content of
An information processing apparatus comprising:
取得部が、コンテンツを取得し、
記録部が、取得したコンテンツのうち、表示されたコンテンツのタッチ画面に対するタッチ操作の種別と、タッチ操作の回数、拡縮率、角度及び優先度の少なくともいずれかと、を含む付加情報を該コンテンツに対応させて記録し、
抽出部が、前記記録部を参照して、前記付加情報に含まれるタッチ操作の種別と、タッチ操作の回数、拡縮率、角度及び優先度の少なくともいずれかと、に従い前記コンテンツを分類し、特定の分類のコンテンツを抽出する、
処理をコンピュータが実行するコンテンツ管理方法。
The acquisition unit acquires the content,
Recording section, among the acquired content, corresponding with the type of the touch operation on the touch screen of the display content, the number of touch operations, scaling factor, and at least one of angle and priorities, the additional information including the said content Let me record,
The extraction unit refers to the recording unit , classifies the content according to the type of touch operation included in the additional information, and at least one of the number of touch operations, the enlargement / reduction ratio, the angle, and the priority . Extract the content of the classification,
A content management method in which processing is executed by a computer.
コンテンツを取得し、
取得したコンテンツのうち、表示されたコンテンツのタッチ画面に対するタッチ操作の種別と、タッチ操作の回数、拡縮率、角度及び優先度の少なくともいずれかと、を含む付加情報を該コンテンツに対応させて記録部に記録し、
前記記録部を参照して、前記付加情報に含まれるタッチ操作の種別と、タッチ操作の回数、拡縮率、角度及び優先度の少なくともいずれかと、に従い前記コンテンツを分類し、特定の分類のコンテンツを抽出する、
処理をコンピュータに実行させるコンテンツ管理プログラム。
Get content,
Of the acquired content, a recording unit that associates the additional information including the type of touch operation with respect to the touch screen of the displayed content and at least one of the number of touch operations, the scaling ratio, the angle, and the priority with the content recorded in,
Referring to the recording unit, the content is classified according to the type of touch operation included in the additional information and at least one of the number of touch operations, the scaling rate, the angle, and the priority. Extract,
A content management program that causes a computer to execute processing.
JP2013075035A 2013-03-29 2013-03-29 Content acquisition apparatus, information processing apparatus, content management method, and content management program Expired - Fee Related JP6089892B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013075035A JP6089892B2 (en) 2013-03-29 2013-03-29 Content acquisition apparatus, information processing apparatus, content management method, and content management program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013075035A JP6089892B2 (en) 2013-03-29 2013-03-29 Content acquisition apparatus, information processing apparatus, content management method, and content management program

Publications (2)

Publication Number Publication Date
JP2014199599A JP2014199599A (en) 2014-10-23
JP6089892B2 true JP6089892B2 (en) 2017-03-08

Family

ID=52356440

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013075035A Expired - Fee Related JP6089892B2 (en) 2013-03-29 2013-03-29 Content acquisition apparatus, information processing apparatus, content management method, and content management program

Country Status (1)

Country Link
JP (1) JP6089892B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003044511A (en) * 2001-07-26 2003-02-14 Fuji Photo Film Co Ltd Display device, image pickup device, image retrieval device, and program
JP2007226555A (en) * 2006-02-23 2007-09-06 Matsushita Electric Ind Co Ltd Browsing device for unconsciously shot image and its method
JP2007323416A (en) * 2006-06-01 2007-12-13 Canon Inc Method for classifying digital image by operation history
JP5037483B2 (en) * 2008-12-22 2012-09-26 シャープ株式会社 Content playback apparatus, content playback method, content playback processing program, and computer-readable recording medium
JP5402375B2 (en) * 2009-08-07 2014-01-29 ソニー株式会社 Information processing apparatus, reference value determination method, and program
JP2012088997A (en) * 2010-10-21 2012-05-10 Canon Inc Image retrieval apparatus, image retrieval method, program and storage medium
JP2012160795A (en) * 2011-01-31 2012-08-23 Hitachi Consumer Electronics Co Ltd Content recommendation apparatus

Also Published As

Publication number Publication date
JP2014199599A (en) 2014-10-23

Similar Documents

Publication Publication Date Title
US10846324B2 (en) Device, method, and user interface for managing and interacting with media content
JP4752897B2 (en) Image processing apparatus, image display method, and image display program
JP5139296B2 (en) Information processing device
US8879890B2 (en) Method for media reliving playback
US8078618B2 (en) Automatic multimode system for organizing and retrieving content data files
US20110022982A1 (en) Display processing device, display processing method, and display processing program
US9082452B2 (en) Method for media reliving on demand
EP3005055B1 (en) Apparatus and method for representing and manipulating metadata
US8375312B2 (en) Classifying digital media based on content
JP2012507189A (en) Image placement within pages using content-based filtering and theme-based clustering
JP2005276178A (en) Rapid visual sorting for digital file and data
US20130167055A1 (en) Method, apparatus and system for selecting a user interface object
TWI556640B (en) Media file management method and system, and computer-readable medium
WO2010021625A1 (en) Automatic creation of a scalable relevance ordered representation of an image collection
JP4929723B2 (en) Search device and search program
US8320667B2 (en) Automatic and scalable image selection
TWI547156B (en) Methods for media file management
JP2009217828A (en) Image retrieval device
US20170046350A1 (en) Media organization
JP2007133838A (en) Image display method and image display program
Wu et al. Point-of-capture archiving and editing of personal experiences from a mobile device
JP6089892B2 (en) Content acquisition apparatus, information processing apparatus, content management method, and content management program
US20130308836A1 (en) Photo image managing method and photo image managing system
US20140379704A1 (en) Method, Apparatus and Computer Program Product for Management of Media Files
KR20090003939A (en) Method for managing character image files of computer

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160923

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160927

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170123

R150 Certificate of patent or registration of utility model

Ref document number: 6089892

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees